Die Politik der großen Zahlen
Alain Desrosi`eres
Die Politik der großen Zahlen Eine Geschichte der statistischen Denkweise
Aus dem Französischen von Manfred Stern
123
Alain Desrosi`eres ´tudes E ´conomiques Institut National de la Statistique et des E INSEE-Timbre D 005 Boulevard Adolphe Pinard 18 75014 Paris, France Übersetzer: Manfred Stern Kiefernweg 8 06120 Halle, Germany e-mail:
[email protected] Ouvrage publi´e avec le concours du Minist`ere franc¸ais de la Culture-Centre national du livre. Dieses Werk wurde mit Unterstützung des französischen Ministeriums für Kultur (Centre national du livre) veröffentlicht. Übersetzung der 2. Auflage von “La Politique des Grands Nombres – Histoire de la raison statistique” ´ditions La D´ecouverte, Paris, France 1993, 2000. ©E
Bibliografische Information der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.ddb.de abrufbar.
ISBN 3-540-20655-8 Springer Berlin Heidelberg New York Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer-online.com © Springer-Verlag Berlin Heidelberg 2005 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, daß solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Satz: Reproduktionsfertige Vorlage vom Übersetzer Herstellung: LE-TEX Jelonek, Schmidt & Vöckler GbR, Leipzig Einbandgestaltung: design & production GmbH, Heidelberg Gedruckt auf säurefreiem Papier
46/3142YL - 5 4 3 2 1 0
Zum Gedenken an Micha¨el Pollak, dessen moralischer Anspruch und dessen Arbeit zur Politik der Sozialwissenschaften einen großen Einfluß auf dieses Buch hatten.
VI
STADER: ... H¨oren Sie mich an: Mein Institut arbeitet mit den neuzeitlichen Mitteln der Wissenschaft. Mit Graphologik, Pathographik, heredit¨ arer Belastung, Wahrscheinlichkeitslehre, Statistik, Psychoanalyse, Experimentalpsychologik und so weiter. Wir suchen die wissenschaftlichen Elemente der Tat auf; denn alles, was in der Welt geschieht, geschieht nach Gesetzen. Nach ewigen Gesetzen! Auf ihnen ruht der Ruf meines Instituts. Ungez¨ ahlte junge Gelehrte und Studenten arbeiten in meinen Diensten. Ich frage nicht nach l¨ appischen Einzelheiten eines Falls; man liefert mir die gesetzlichen Bestimmungsst¨ ucke eines Menschen und ich weiß, was er unter gegebenen Umst¨anden getan haben muß! Die moderne Wissenschaft und Detektivik engt den Bereich des Zuf¨alligen, Ordnungslosen, angeblich Pers¨ onlichen immer mehr ein. Es gibt keinen Zufall! Es gibt keine Tatsachen! Jawohl! Es gibt nur wissenschaftliche Zusammenh¨ ange ... Gerade in wissenschaftlichen Kreisen erfreut sich mein Institut noch nicht des Verst¨andnisses, das es verdient. Wof¨ ur Ihre Hilfe daher ganz unersetzlich w¨are, ist: Die Ausbildung der Detektivik als der Lehre vom Leben des u ¨berlegenen wissenschaftlichen Menschen. Es ist nur ein Detektivinstitut, aber auch sein Ziel ist die wissenschaftliche Gestaltung des Weltbildes. Wir entdecken Zusammenh¨ ange, wir stellen Tatsachen fest, wir dr¨angen auf die Beobachtung der Gesetze ... Meine große Hoffnung ist: die statistische und methodische Betrachtung der menschlichen Zust¨ande, die aus unsrer Arbeit folgt ... THOMAS: Mein lieber Freund, Sie sind entschieden zu fr¨ uh auf die Welt gekommen. Und mich u ¨bersch¨atzen Sie. Ich bin ein Kind dieser Zeit. Ich muß mich damit begn¨ ugen, mich zwischen die beiden St¨ uhle Wissen und Nichtwissen auf die Erde zu setzen. ¨ Robert Musil (1921): DIE SCHWARMER
¨ Vorwort des Ubersetzers ¨ Bei der Ubersetzung dieses Buches traten Probleme auf, die hin und wieder kleinere Abweichungen und Zus¨atze erforderlich machten. Zum Beispiel verwendet der Autor an mehreren Stellen ganz spezifische franz¨ osische Wortsch¨ opfungen, die einem uneingeweihten Leser kaum etwas sagen, und u orterb¨ uchern und Nachschla¨ber deren Herkunft man auch in gr¨oßeren W¨ gewerken nichts findet. Stellvertretend seien hier die folgenden drei Begriffe genannt: adunation, bottin und bar`eme. Unter adunation, einem von Emmanuel Joseph Siey`es (1748–1836) gepr¨ agten Wort, ist die gewollte Vereinheitlichung der Bezugssysteme zu verstehen, wie sie nach der Franz¨osischen Revolution verwirklicht worden ist, um die eine und unteilbare Nation zu errichten. Diese Adunation“ hatte juristische, ” metrologische und taxonomische Aspekte und schloß die Aufteilung des Territoriums in Departements sowie die Einf¨ uhrung des metrischen Systems der Maße und Gewichte ein. Die beiden anderen Begriffe leiten sich von Personen ab, die durch das Wirken statistischer Prozesse sogar in Frankreich weitgehend der Vergessenheit anheimgefallen sind. Unter bottin versteht man jetzt u.a. ein Telefonbuch oder Fernsprechverzeichnis. Diese Bezeichnung wurde zu Ehren von S´ebastien Bottin gepr¨agt, der 1799 ein politisch-wirtschaftliches Jahrbuch ( Verzeichnis“) herausgab. Das Wort bar`eme bedeutet heute u.a. Tabelle und ” leitet sich von Fran¸cois Bar`eme ab, einem franz¨ osischen Rechenmeister des 17. Jahrhunderts. Bei derartigen Begriffen habe ich zur Erl¨ auterung zus¨ atzliche Fußnoten ¨ eingearbeitet. Ahnlicherweise habe ich bei einer Reihe von historischen Begriffen erg¨ anzende Fußnoten und Bemerkungen eingef¨ ugt, zum Beispiel bei Ancien R´egime, intendant, brumaire, germinal, l’un portant l’autre. Bei den Erl¨ auterungen zur Herkunft des Wortes probabilit´e bezieht sich der Verfasser naturgem¨aß auf den fr¨ uheren und auf den jetzigen franz¨osischen Bedeutungsinhalt dieses Wortes, das lateinischen Ursprungs ist. Im Gegen¨ satz hierzu hat die deutsche Ubersetzung Wahrscheinlichkeit des franz¨ osischen Wortes probabilit´e einen ganz anderen, nichtlateinischen Ursprung. Diese Tat¨ sache mußte in die deutsche Ubersetzung eingearbeitet werden. Das Buch ist 1993 erschienen, die hier u osische Aus¨bersetzte zweite franz¨ gabe im Jahr 2000. Wie der Verfasser in seinem Nachwort schreibt, enth¨ alt das urspr¨ ungliche Literaturverzeichnis die zitierten und bis 1992 ver¨ offentlichten Arbeiten. In einem zus¨atzlichen Literaturverzeichnis zur zweiten franz¨ osischen Auflage hat der Autor weitere Arbeiten angegeben, die in den Jahren 1992–2000 verfaßt worden sind; im Nachwort geht er kurz auf den Inhalt dieser Arbeiten ein. Im dritten Teil des Literaturverzeichnisses habe ich weitere Titel aufgef¨ uhrt, die f¨ ur den deutschsprachigen Leser von Interesse sind. Außerdem habe ich st¨andig wiederkehrende Abk¨ urzungen in einem Anhang zusammengefaßt.
VIII
In Erg¨anzung zu den Abbildungen von Kapitel 4 ist unten schematisch das Galtonsche Brett dargestellt, das auch als Galton-Brett oder als Quincunx bezeichnet wird.1 Francis Galton, der Erfinder, ließ sich 1873 von einem Instrumentenbauer einen Quincunx anfertigen, den man im Galton Laboratory des University College London besichtigen kann. Galton verwendete dieses Instrument, um bei seinen Untersuchungen u ¨ber Erbanlagen die Eigenschaften der Binomialverteilung und der Normalverteilung zu verstehen.2 Die nachstehende Abbildung ist eine Momentaufnah” me“ eines Java-Applets von Damien Jacomy (Paris), durch das man unter http://www-sop.inria.fr/mefisto/java/tutorial1/tutorial1.html nach Anklicken von La planche de Galton ein bewegliches Bild erzeugen kann: dabei bewirkt der simulierte Durchlauf der roten Kugeln den schrittweisen Aufbau einer Binomialverteilung.
Der Autor machte mich freundlicherweise auf das obengenannte Java¨ Applet aufmerksam und sprach sich daf¨ ur aus, die Abbildung in dieses Ubersetzervorwort aufzunehmen. Das obige Schwarzrotbild veranschaulicht die auf Seite 132 gegebene Beschreibung des Galtonschen Bretts und erg¨ anzt die Abbildung des Zwei-Stufen-Quincunx auf Seite 136. Im Java-Applet sieht man 1 2
F¨ ur genauere Ausf¨ uhrungen zum Galtonschen Brett und zur Bezeichnung Quincunx vgl. Kapitel 4 (Francis Galton: Vererbung und Statistik). Den Originalentwurf von Galton findet man z.B. in W. Dyck, Katalog mathematischer und mathematisch-physikalischer Modelle, Apparate und Instrumente. Nebst Nachtrag. Nachdruck der Ausgabe 1892 und des Nachtrags 1893, Georg Olms Verlag, Hildesheim 1994; Figur 7 auf Seite 6 des Nachtrags).
IX
weitere Farben zur Verdeutlichung des Sachverhalts und bei zunehmender Anzahl von Versuchen zeichnet sich im Hintergrund die Normalverteilung ab. Mein herzlicher Dank gilt Karin Richter (Martin-Luther-Universit¨ at Halle, Fachbereich Mathematik) f¨ ur zahlreiche – oder besser gesagt: zahllose – Bemerkungen und f¨ ur eine nicht ganz zuf¨allige Folge von Konsultationen. F¨ ur kontinuierlichen technischen und TEX-nischen Support danke ich Gerd Richter (Angersdorf) und Frank Holzwarth (Springer-Verlag) ganz besonders. Ebenso bedanke ich mich bei Peggy Glauch und Claudia Rau von der LE-TEX Jelonek, Schmidt & Voeckler GbR (Leipzig) f¨ ur hilfreiche Bemerkungen zur Herstellung der Endfassung f¨ ur den Druck. Wertvolle Hinweise zu sprachlichen, inhaltlichen und sonstigen Fragen erhielt ich von Gerhard Betsch (Weil im Sch¨onbuch), Corrado Dal Corno (Mailand), Lorraine Daston (Berlin), Menso Folkerts (M¨ unchen), Walter Hauser (M¨ unchen), Jean-No¨el Mesnil (Paris), Bert Scharf (Boston), Veronika Schl¨ uter (Darmstadt), Ivo Schneider (M¨ unchen) und Sylvia Stern (Springe). F¨ ur weitestgehendes Entgegenkommen seitens des Springer-Verlages danke ich Ute McCrory, Angela Schulze-Thomin und enfin, tout particuli`erement“ Martin ” Peters. Halle an der Saale, Herbst 2004
Manfred Stern
Inhaltsverzeichnis
Einleitung: Soziale Tatbest¨ ande als Dinge . . . . . . . . . . . . . . . . . . . . . . 1 Eine anthropologische Sicht auf die Wissenschaften . . . . . . . . . . . . . . . 4 Beschreibung und Entscheidung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7 Wie man dauerhafte Dinge macht . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 10 Zwei Arten der historischen Forschung . . . . . . . . . . . . . . . . . . . . . . . . . . 14 1
Pr¨ afekten und Vermessungsingenieure . . . . . . . . . . . . . . . . . . . . . Deutsche Statistik: Identifizierung der Staaten . . . . . . . . . . . . . . . . . . . Englische politische Arithmetik: Entstehung der Expertise . . . . . . . . . Franz¨ osische Statistik des Ancien R´egime: Intendanten und Gelehrte Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs . . . ” Peuchet und Duvillard: schreiben oder rechnen? . . . . . . . . . . . . . . . . . Wie man Diversit¨at durchdenkt . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
19 22 26 30 36 40 46
2
Richter und Astronomen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Aleatorische Vertr¨age und faire Abmachungen . . . . . . . . . . . . . . . . . . . ¨ Konstruktiver Skeptizismus und Uberzeugungsgrad ............... Der Bayessche Ansatz . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate . . . . . . ” ¨ Messungsanpassungen als Grundlage f¨ ur Ubereink¨ unfte . . . . . . . . . . .
51 52 58 64 70 75
3
Mittelwerte und Aggregatrealismus . . . . . . . . . . . . . . . . . . . . . . . . 77 Nominalismus, Realismus und statistische Magie . . . . . . . . . . . . . . . . . 79 Das Ganze und seine Trugbilder . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 81 Quetelet und der Durchschnittsmensch“ . . . . . . . . . . . . . . . . . . . . . . . . 84 ” Konstante Ursache und freier Wille . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Zwei kontroverse F¨alle aus der medizinischen Statistik . . . . . . . . . . . . 93 Eine Urne oder mehrere Urnen? . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99 Der angefochtene Realismus: Cournot und Lexis . . . . . . . . . . . . . . . . . 103 Durchschnittstyp und Kollektivtyp bei Durkheim . . . . . . . . . . . . . . . . 108 Der Realismus der Aggregate . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
XII
Inhaltsverzeichnis
4
Korrelation und Ursachenrealismus . . . . . . . . . . . . . . . . . . . . . . . . 117 Karl Pearson: Kausalit¨at, Kontingenz und Korrelation . . . . . . . . . . . . 120 Francis Galton: Vererbung und Statistik . . . . . . . . . . . . . . . . . . . . . . . . 127 Schwer zu widerlegende Berechnungen . . . . . . . . . . . . . . . . . . . . . . . . . . 138 F¨ unf Engl¨ ander und der neue Kontinent . . . . . . . . . . . . . . . . . . . . . . . . 144 Kontroversen u ¨ber den Realismus der Modelle . . . . . . . . . . . . . . . . . . . 152 Yule und der Realismus der administrativen Kategorien . . . . . . . . . . . 156 Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz . 162
5
Statistik und Staat: Frankreich und Großbritannien . . . . . . . . . . . . . . . . . . . . . . . . . . . . 165 Franz¨ osische Statistik – eine diskrete Legitimit¨ at . . . . . . . . . . . . . . . . . 169 Entwurf und Scheitern eines Einflußnetzwerks . . . . . . . . . . . . . . . . . . . 175 Statistik und Wirtschaftstheorie – eine sp¨ate Verbindung . . . . . . . . . . 182 Britische Statistik und ¨offentliche Gesundheit . . . . . . . . . . . . . . . . . . . . 186 Sozialenqueten und wissenschaftliche Gesellschaften . . . . . . . . . . . . . . 193
6
Statistik und Staat: Deutschland und die Vereinigten Staaten . . . . . . . . . . . . . . . . . . 199 Deutsche Statistik und Staatenbildung . . . . . . . . . . . . . . . . . . . . . . . . . . 200 Historische Schule und philosophische Tradition . . . . . . . . . . . . . . . . . . 206 Volksz¨ ahlungen in der amerikanischen politischen Geschichte . . . . . . 211 Das Census Bureau: Aufbau einer Institution . . . . . . . . . . . . . . . . . . . . 218 Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte . 222
7
Pars pro toto: Monographien oder Umfragen . . . . . . . . . . . . . . 235 Die Rhetorik des Beispiels . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 238 Halbwachs: Die soziale Gruppe und ihre Mitglieder . . . . . . . . . . . . . . . 243 Die Armen: Wie beschreibt man sie und was macht man mit ihnen? 246 Von Monographien zu systematischen Stichprobenerhebungen . . . . . 251 Wie verbindet man was man schon weiß“ mit dem Zufall? . . . . . . . . 257 ” Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen . . . . . . . . . . . . . . . 258
8
Klassifizierung und Kodierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263 Statistik und Klassifikation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 264 Die Taxonomien der Lebewesen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 266 Die Durkheimsche Tradition: sozio-logische Klassifizierungen . . . . . . 270 Die Zirkularit¨at von Wissen und Handeln . . . . . . . . . . . . . . . . . . . . . . . 274 Gewerbliche T¨atigkeiten: instabile Verbindungen . . . . . . . . . . . . . . . . . 277 Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen . . . . 283 Ein hierarchischer, eindimensionaler und stetiger sozialer Raum . . . . 288 Vom Gewerbe zur qualifizierten T¨atigkeit . . . . . . . . . . . . . . . . . . . . . . . 293 Vier Spuren der Franz¨osischen Revolution . . . . . . . . . . . . . . . . . . . . . . . 297 Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit . 302 Wie man einer Sache Zusammenhalt verleiht . . . . . . . . . . . . . . . . . . . . 306
Inhaltsverzeichnis
9
XIII
Modellbildung und Anpassung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311 Wirtschaftstheorie und statistische Beschreibung . . . . . . . . . . . . . . . . . 314 Glaubensgrad oder Langzeith¨aufigkeit . . . . . . . . . . . . . . . . . . . . . . . . . . 317 Zuf¨ alligkeiten und Regelm¨aßigkeiten: Frisch und der Schaukelstuhl . 323 Mittel gegen die Krise: Das Modell von Tinbergen . . . . . . . . . . . . . . . . 328 Ingenieure und Logiker . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 333 ¨ Uber den richtigen Gebrauch der Anpassung . . . . . . . . . . . . . . . . . . . . 336 Autonomie und Realismus von Strukturen . . . . . . . . . . . . . . . . . . . . . . 343 Drei Methoden zur Berechnung des Nationaleinkommens . . . . . . . . . . 347 Theorien testen oder Diversit¨at beschreiben? . . . . . . . . . . . . . . . . . . . . 351
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen . . . . . . . . . 359 Ein zu praktischen Zwecken konstruierter kognitiver Raum . . . . . . . . 360 Mittelwerte und Regelm¨aßigkeiten, Skalen und Verteilungen . . . . . . . 363 Ein Raum f¨ ur Verhandlungen und Berechnungen . . . . . . . . . . . . . . . . . 368 Statistische Argumentation und soziale Debatten . . . . . . . . . . . . . . . . . 372 Nachwort: Wie schreibt man B¨ ucher, die Bestand haben? . . . . . 375 Einige zwischen 1993 und 2000 ver¨offentlichte Arbeiten . . . . . . . . . . . 375 Wie verbindet man die Aspekte der Geschichte der Statistik? . . . . . . 378 Wie bedienen sich die Sozialwissenschaften dieser Aspekte? . . . . . . . . 380 Kritiken und Diskussionsthemen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 385 Anhang: Abk¨ urzungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389 Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 Namensverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 413 Stichwortverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 421
Einleitung: Soziale Tatbest¨ ande als Dinge
Arbeitslosigkeit, Inflation, Wachstum, Armut, Fertilit¨ at – diese Objekte und ihre statistischen Messungen dienen als Anhaltspunkte zur Beschreibung ¨ okonomischer Situationen, zur Denunziation3 sozialer Ungerechtigkeiten und zur Rechtfertigung politischer Aktionen. Diese Anhaltspunkte sind Bestandteil routinem¨ aßiger Anwendungen, die zur Formung der Realit¨ at der beschriebenen Landschaft beitragen, indem sie eine stabile und weitgehend akzeptierte Sprache liefern, in der sich die Debatte ausdr¨ uckt. Aber die Anwendungen implizieren ein Paradoxon. Die Bezugspunkte, das heißt die Objekte, m¨ ussen als unanfechtbar wahrgenommen werden und u ¨ber dem Streit stehen. Wie also soll eine Debatte angelegt sein, die sich um genau die obengenannten Objekte dreht? Fragen dieser Art werden oft im Zusammenhang mit Denunziationen aufgeworfen. L¨ ugt die Statistik? Wie groß ist die tats¨ achliche Anzahl der Arbeitslosen? Welches ist der wahre Fertilit¨ atsrate? Als Bezugspunkte der Debatte sind die betreffenden Messungen ebenfalls Gegenstand der Debatte. Die Kontroversen lassen sich in zwei Kategorien einteilen, je nachdem, ob sie sich nur auf die Messung beziehen oder ob sie das Objekt selbst betreffen. Im ersten Fall ist die Realit¨at des zu messenden Dings von der Meßt¨ atigkeit unabh¨ angig. Die Realit¨at wird nicht infrage gestellt. Die Diskussion dreht sich um die Art und Weise, in der die Messung erfolgt und um die Zuverl¨ assigkeit“ ” des statistischen Prozesses auf der Grundlage der von den physikalischen Wissenschaften oder von der Industrie gelieferten Modelle. Im zweiten Fall faßt man jedoch die Existenz und die Definition des Objekts als Konventionen auf, u ¨ber die man diskutieren kann. Die Spannung zwischen diesen beiden Standpunkten – der eine betrachtet die zu beschreibenden Objekte als reale Dinge, der andere hingegen als Ergebnis von Konventionen – ist schon seit langem Bestandteil der Geschichte der Humanwissenschaften, ihrer jeweili3
F¨ ur genauere Ausf¨ uhrungen zur Bedeutung des hier durchgehend verwendeten Begriffs Denunziation“ verweisen wir auf das Buch Homo academicus von Bour” dieu, 1988, [357]. (Die Zahlen in eckigen Klammern beziehen sich auf das Literaturverzeichnis am Ende des Buches.)
2
Einleitung: Soziale Tatbest¨ ande als Dinge
gen sozialen Anwendungen und der einschl¨agigen Debatten. Im vorliegenden Buch analysieren wir die Beziehung zwischen diesen beiden Interpretationen: es ist schwierig, sich gleichzeitig vorzustellen, daß die gemessenen Objekte tats¨ achlich existieren und daß es sich dabei dennoch nur um Konventionen handelt. Die erste und grundlegende Regel besteht darin, die sozialen Tatbest¨ ande4 ” als Dinge zu behandeln“. Mit dieser seiner 1894 aufgestellten Regel der soziologischen Methode stellte Durkheim die Sozialwissenschaften in eine Perspektive der Objektivierung wie sie f¨ ur die Naturwissenschaften charakteristisch ist. Aber die Formulierung ist zweideutig. Die Durkheimsche Regel l¨ aßt sich auf zweierlei Weise lesen. Zum einen als Realit¨ atsbest¨ atigung und zum anderen als methodologische Herangehensweise: Die sozialen Tatbest¨ ande sind ” Dinge“ oder Die sozialen Tatbest¨ande m¨ ussen so behandelt werden, als ob ” sie Dinge w¨ aren“. Bei der zweiten Lesart liegt die Betonung auf den W¨ ortern behandeln und als ob. Diese W¨orter implizieren eine instrumentalistische Einstellung, bei der die Frage nach der Realit¨at der Dinge eine untergeordnete Rolle spielt. Hier z¨ahlen die Prozedur und die diesbez¨ uglichen Konventionen, mit denen so getan wird als ob“. ” Diese Schwierigkeiten ¨ahneln denjenigen, mit denen sich die Erfinder der statistischen Ausdrucksweisen konfrontiert sahen, welche es uns ihrerseits erm¨ oglichen, die sozialen Tatbest¨ande in Dingen zu konstituieren. Heute st¨ utzt sich die Sprache der Statistik auf klar formalisierte synthetische Begriffe: Mit¨ telwerte, Standardabweichungen, Wahrscheinlichkeit, Aquivalenzklassen, Korrelation, Regression, Stichproben, Nationaleinkommen, Sch¨ atzungen, Tests, Residuen, Maximum-Likelihood-Methode, simultane Gleichungen. Studenten, Forscher oder Anwender von statistischen Daten bekommen kompakte Begriffe in die Hand, die in knappe und ¨okonomische Formeln gegossen sind. Diese Werkzeuge sind jedoch ihrerseits das Ergebnis eines historischen Entstehungsprozesses, der von Phasen des Zauderns, von Neu¨ ubersetzungen und Interpretationskonflikten durchsetzt ist. Zur Meisterung dieser Werkzeuge muß sich der Lernende Fragen stellen, die u ¨ber Jahrzehnte oder sogar Jahrhunderte diskutiert worden sind – und er muß diese Fragen in kurzer Zeit beantworten. Die Weiterf¨ uhrung dieser Debatten ist nicht nur das Ergebnis einer gelehrten Neugier, die gleichsam als gef¨ uhlsm¨aßige Zulage bei der Aneignung von formalisierten Techniken in Erscheinung tritt, sondern stellt eine Orientierung und eine Hilfe im Prozeß des Lernens und des Verstehens bereit. Die Hindernisse, denen sich die Innovatoren von gestern bei der Transformation von sozialen Tatbest¨anden in Dinge gegen¨ ubergestellt sahen, gleichen denjenigen Hindernissen, die auch heute noch einen Studenten st¨ oren k¨ onnen und zur Erschwerung der gleichzeitigen Vorstellung der beiden Interpretationen – das heißt der realistischen und der nichtrealistischen Interpretation – der 4
Der franz¨ osische Begriff fait social“ und seine englische Entsprechung social ” ” fact“ werden im Deutschen auch durch soziologischer Tatbestand“ wiedergege” ben.
Einleitung: Soziale Tatbest¨ ande als Dinge
3
Durkheimschen Regel beitragen. Die Geschichte vermittelt uns ein Verst¨ andnis dessen, auf welche Weise die sozialen Tatbest¨ ande zu Dingen geworden sind – und zwar f¨ ur jeden, der statistische Techniken anwendet. Diese Techniken sollen wissenschaftliche und politische Argumente untermauern. Die Entstehungsgeschichte der Techniken erm¨ oglicht es uns, die alten Kontroversen und Debatten zur¨ uckzuverfolgen und dadurch einen Raum zu skizzieren, in dem die technische Sprache und deren Anwendung in der sozialen Debatte miteinander verkn¨ upft werden. Statistische Argumente k¨ onnen nur dann in eine reflexive Wissenschaftskultur reintegriert werden, wenn wir auf die Begriffs¨ ubertragungen und Debatten zur¨ uckkommen und dabei die Pfade der Ungewißheit und die Momente der Innovation wiederentdecken. Diese Vorgehensweise f¨ uhrt dazu, daß es zu st¨andig neuen Verbindungen zwischen den alten Schemata kommt. Die Werkzeuge der Statistik erm¨oglichen die Entdeckung oder die Erschaffung von Entit¨ aten, auf die wir uns zur Beschreibung der Welt st¨ utzen und dabei Einfluß auf den Gang der Dinge nehmen. Von diesen Objekten k¨ onnen wir sagen, daß sie gleichzeitig real und konstruiert sind, sobald sie in anderen Zusammenh¨ angen wiederholt verwendet werden und unabh¨ angig von ihrem Ursprung zirkulieren. Damit teilen diese Objekte das Schicksal zahlreicher anderer Produkte. Wir rufen die Geschichte und die Soziologie der Statistik auf den Plan, um die Art und Weise zu verfolgen, in der die betreffenden Objekte geschaffen und wieder abgeschafft werden, wobei man sie zur F¨ orderung von Wissen und Handeln in eine realistische oder nicht-realistische Rhetorik einkleidet. In Abh¨angigkeit vom jeweiligen Fall wird der antirealistische (oder einfach nicht-realistische) Standpunkt als nominalistisch, relativistisch, instrumentalistisch oder konstruktivistisch bezeichnet. Es gibt zahlreiche m¨ ogliche Einstellungen in Bezug auf wissenschaftliche (insbesondere statistische) Konstruktionen. Die Auffassungen unterscheiden sich h¨ aufig sowohl in theoretischer als auch in praktischer Hinsicht. Dieser Umstand legt es nahe, nicht Partei f¨ ur eine dieser Einstellungen zu ergreifen, um die anderen zu denunzieren. Vielmehr kann es sich als fruchtbarer erweisen, diejenigen Umst¨ ande zu untersuchen, unter denen sich jede der genannten Sichtweisen auf koh¨ arente Weise in ein allgemeines Gef¨ uge, in ein Netz von Aufzeichnungen einordnen l¨aßt. Die Frage nach der Realit¨at h¨angt mit der Solidit¨ at dieses Netzes und dessen Widerstandsf¨ahigkeit gegen¨ uber Kritik zusammen. Je umfassender und dichter dieses Netz ist, desto realer ist es. Die Wissenschaft ist ein unermeßliches und unermeßlich reales Netz. Wahrscheinlichkeitsrechnung und Statistik sind wesentliche Werkzeuge zur Auffindung, zur Konstruktion und zum Beweis wissenschaftlicher Fakten – sowohl in den Naturwissenschaften als auch in den Sozialwissenschaften. Nehmen wir die realistische und die nicht-realistische Einstellung in Bezug auf die statistischen Techniken gleichermaßen ernst, dann besteht die M¨ oglichkeit, eine gr¨oßere Vielfalt von Situationen zu beschreiben – auf jeden Fall aber sind wir dann dazu in der Lage, u ¨berraschendere Ge-
4
Einleitung: Soziale Tatbest¨ ande als Dinge
schichten zu erz¨ ahlen, als wenn wir eine Erz¨ahlungsform gew¨ ahlt h¨ atten, die den einen oder den anderen Standpunkt bevorzugt.
Eine anthropologische Sicht auf die Wissenschaften Als Untersuchungsobjekt nehmen wir uns diejenigen Praktiken vor, die Wissenschaft und Handeln in besonders spezifischer Weise miteinander verbinden. Dabei werden wir nicht aufzeigen, wie diese Interaktion beschaffen sein sollte, sondern wie sie – historisch und sozial – gewesen ist. Zu diesem Zweck m¨ ussen wir Debattenkontexte und alternative oder konkurrierende Sprech- und Verfahrensweisen rekonstruieren. Dar¨ uber hinaus m¨ ussen wir in den sich mit der Zeit ¨ andernden Kontexten auch Bedeutungsverschiebungen und Neuinterpretationen von Objekten verfolgen. Auf diesem Untersuchungsgebiet geht es um die Interaktion zwischen der Welt des Wissens und der Welt der Macht, zwischen Beschreibung und Entscheidung, zwischen es gibt“ und wir m¨ ussen“ – ” ” und genau aus diesem Grund besteht eine besondere Beziehung zur Geschichte, eine Beziehung, die der Forschungst¨atigkeit zeitlich vorausgeht. Man kann sich auf die Geschichte berufen, um eine Tradition Wurzeln schlagen zu lassen, um die Schilderung der Gr¨ undung einer Gemeinschaft zu pflegen und um die Identit¨ at dieser Gemeinschaft zu bekr¨aftigen. Die Geschichte kann aber auch zu polemischen Zwecken in Momenten oder Situationen eines Konflikts oder einer Krise angerufen werden, um irgendeinen verborgenen Aspekt zu denunzieren. Diese beiden M¨oglichkeiten, sich auf die Geschichte zu berufen, k¨ onnen als einseitig oder partiell bezeichnet werden, denn sie sind an den jeweiligen Intentionen ausgerichtet und werden in diesem Sinne geformt – im vorliegenden Fall durch die Absicht, eine Identit¨at zu best¨ atigen oder zu denunzieren. Dennoch ist es nicht m¨oglich, die betreffenden Darstellungen in umfassender Weise zu behandeln, denn sie sind immer viel zahlreicher und vielgestaltiger, als wir es uns vorstellen k¨onnen. Andererseits k¨onnen wir die Debattenr¨aume und die Spannungslinien rekonstruieren, an denen sich unterschiedliche Ansichten positionierten und miteinander vermischten. Das schließt die Rekonstruktion dieser Ansichten mit Hilfe eines Vokabulars ein, das der Terminologie der Akteure a ¨hnelt, wobei dieses Vokabular gleichzeitig objektiviert, das heißt zum Vorschein gebracht wird. Beispielsweise erw¨ahnen wir, wie sich eine um ihre Tradition bem¨ uhte Gemeinschaft auf die Geschichte beruft. Man h¨ atte auch von Selbstzelebrie” rung“ oder von einem apologetischen Diskurs“ sprechen k¨ onnen. Ich habe ” jedoch den Begriff Identit¨atsbest¨atigung“ bevorzugt, denn das ist die Bedeu” tung, welche die Akteure diesem historischen Brauch gegeben haben. Diese Verwendungsweise bildet – ebenso wie der polemische Sprachgebrauch – das Material f¨ ur die gew¨ unschte anthropologische Rekonstruktion. Es geht nicht mehr darum, ob eine Schilderung wahr ist, sondern es geht um den Platz, den diese Schilderung unter zahlreichen anderen einnimmt.
Eine anthropologische Sicht auf die Wissenschaften
5
¨ Es besteht die Gefahr, im Uberfluß dieser Schilderungen unterzugehen. Die hier folgende Darstellung ist nicht linear geordnet, wie es bei der Geschichte der aufgekl¨ arten, u ¨ber die Finsternis triumphierenden Wissenschaft der Fall ist. Bei der linearen Darstellungsweise erscheint die Beschreibung der Vergangenheit als Sortierverfahren, das bereits vorhandene Dinge von noch nicht existierenden Dingen trennt, oder aber als Methode, mit deren Hilfe man nach Vorg¨ angern sucht. Anstelle der Definition einer unzweideutigen Richtung des Fortschritts durch Ordnen und Beschreiben sukzessiver Konstrukte gebe ich in der Einleitung einige Spannungslinien an, die in der einen oder anderen Weise zur Strukturierung der aufgetretenen Debatten gef¨ uhrt haben. Zu beachten ist, daß die Gegens¨atze im Laufe der Zeit Schwankungen unterworfen sind. Es handelt sich dabei h¨aufig um R¨ uck¨ ubersetzungen oder Metamorphosen der jeweiligen Begriffe: Beschreibung und Entscheidung, objektive und subjektive Wahrscheinlichkeiten, Frequentismus und Epistemismus, Realismus und Nominalismus, Meßfehler und nat¨ urliche Streuung. Es ist jedoch kein vollst¨ andiges Verst¨andnis der in dieser Einleitung genannten Themen erforderlich, um die nachfolgenden Kapitel zu lesen. Ich versuche hier einfach nur, einen Zusammenhang zwischen scheinbar disparaten Elementen von Schilderungen herzustellen und wende mich dabei an Leser, die einen gleichermaßen vielf¨ altigen kulturellen Hintergrund haben. Die Diversit¨ at, die das Unterfangen so schwierig macht, h¨angt mit dem Stellenwert der statistischen Kultur in der wissenschaftlichen Kultur und dem Stellenwert der wissenschaftlichen Kultur in der allgemeinen Kultur zusammen. Diese Diversit¨ at ist Bestandteil des hier zu untersuchenden Objekts. Die Geschichte und die Soziologie der Wissenschaften werden seit langem von zwei extrem unterschiedlichen – wenn nicht gar kontr¨ aren – Standpunkten aus untersucht, die man als internalistisch“ bzw. externalistisch“ bezeich” ” net. Der internalistische Standpunkt besagt, daß es sich um die Geschichte des Wissens handelt, um die Geschichte der Instrumente und der Resultate, um die Geschichte der S¨atze und ihrer Beweise. Diese Geschichte wird von den Spezialisten der jeweiligen Disziplinen geschrieben (das heißt von Physikern, Mathematikern u.a.). Im Gegensatz hierzu geht es beim externalistischen Standpunkt um die Geschichte der sozialen Bedingungen, die den Lauf der erstgenannten Geschichte erm¨oglicht oder auch erschwert haben: Labors, Institutionen, Finanzierungen, individuelle wissenschaftliche Karrieren und Beziehungen zur Industrie oder zur Staatsmacht. Diese Geschichte wird u ¨blicherweise von Historikern und von Soziologen geschrieben. Die Beziehungen zwischen der internalistischen und der externalistischen Auffassung sind Gegenstand zahlreicher Debatten und blicken ihrerseits auf eine komplexe Geschichte zur¨ uck (Pollak, 1985, [235]). In den 1950er und 1960er Jahren predigte beispielsweise Merton eine deutliche Aufgabentrennung. Er untersuchte die normalen Funktionsregeln einer effizienten Wissenschaftsgemeinde: Professionalisierung, Institutionalisierung und Forschungsautonomie,
6
Einleitung: Soziale Tatbest¨ ande als Dinge
Rivalit¨ at zwischen den Forschern, Transparenz der Ergebnisse, Beurteilungen durch Peergruppen5 . Mit Beginn der 1970er Jahre stellte man diese Arbeitsteilung sowohl in Großbritannien (Bloor, 1982, [17]) als auch in Frankreich (Callon, 1989, [42]; Latour, 1989, [167]) infrage. Das starke Programm“ dieser Autoren richtete ” das Scheinwerferlicht auf die im Entstehen begriffene“ Wissenschaft. Dabei ” wurde die Gesamtheit der praktischen wissenschaftlichen Operationen ber¨ ucksichtigt, einschließlich der Operationen innerhalb eines Labors. Diese Operationen werden durch die Registrierung und Konsolidierung von Objekten und durch die Schaffung immer umfassenderer und dauerhafterer Netze von Allianzen beschrieben – Allianzen, die zwischen den Objekten und den Menschen geschmiedet werden. Aus dieser Sicht verschwindet der Unterschied zwischen technischen und sozialen Objekten, welcher der Trennung zwischen internalistischer und externalistischer Geschichtsauffassung zugrunde liegt, und die Soziologie untersucht die Gesamtheit der betreffenden Objekte und Netze. Insbesondere in wissenschaftlichen Kreisen hat diese Forschungslinie einige Autoren vor den Kopf gestoßen: sie zeichnet sich n¨ amlich u.a. dadurch aus, daß sie die Frage nach der Wahrheit als nachgeordnet betrachtet. Bei der im Entstehen begriffenen Wissenschaft (hot science) ist die Wahrheit noch ein Streitobjekt, ein Debattengegenstand. Nur allm¨ ahlich, wenn sich die Wissenschaft wieder abk¨ uhlt“, werden gewisse Ergebnisse durch Einkapselung“ zu ” ” anerkannten Tatsachen“, w¨ahrend andere g¨anzlich verschwinden. ” Dieses Programm hat Anlaß zu Mißverst¨andnissen gegeben. Positioniert man n¨ amlich die Frage nach der Wahrheit dermaßen außerhalb des jeweiligen Gebietes und favorisiert man auf diese Weise die Analyse derjenigen sozia¨ len Mechanismen, die dem Kampf um die Uberf¨ uhrung gewisser Resultate in anerkannte Fakten zugrundeliegen, dann hat es den Anschein, als negiere man die M¨ oglichkeit einer Wahrheit u ¨berhaupt und bevorzuge stattdessen eine Art Relativismus, bei dem alles zu einer Frage der Meinung oder des Kr¨ afteverh¨ altnisses wird. Die Richtung des Programms ist jedoch subtiler. Denn der Durkheimsche Wahlspruch Man muß die sozialen Tatbest¨ ande als ” Dinge behandeln“ darf nicht nur als Realit¨atsaussage aufgefaßt werden, sondern ist auch als methodologische Entscheidung anzusehen. Wir k¨ onnen dieser Forschungslinie auch folgen, um andere Dinge aufzuzeigen. Auf dem Gebiet der Wahrscheinlichkeitsrechnung und der Statistik, wo sich schon immer die Probleme des Staates und der Entscheidungsfindung mit den Problemen des Wissens und der Erkl¨arung vermischt haben, dr¨ angt sich die Herausforderung eines Programms, das u ¨ber die Trennung zwischen internalistischer“ und ex” ” 5
Unter Peergruppe (engl. peer group) ist hier eine Gleichrangigengruppe“ zu ver” stehen.
Beschreibung und Entscheidung
7
ternalistischer“ Geschichte hinausgeht, sogar noch zwingender auf, als es in der theoretischen Physik und in der Mathematik der Fall ist.6
Beschreibung und Entscheidung Die Spannung zwischen diesen beiden Standpunkten, das heißt zwischen dem deskriptiven und dem pr¨askriptiven Standpunkt, kann in einer Geschichte der Wahrscheinlichkeitsrechnung und der statistischen Techniken als Triebfeder der Schilderung verwendet werden. Die Rationalit¨ at einer Entscheidung – ganz gleich, ob sie individuell oder kollektiv getroffen wird – h¨ angt mit der F¨ ahigkeit zusammen, auf Dingen aufzubauen, die eine stabile Bedeutung ha¨ ben: dadurch wird es m¨oglich, Vergleiche durchzuf¨ uhren und Aquivalenzen aufzustellen. Diese Forderung gilt gleichermaßen f¨ ur jemanden, der die zeitliche Kontinuit¨ at seiner Identit¨at garantieren m¨ ochte (zum Beispiel bei der ¨ Ubernahme von Risiken, beim Verleihen von Geld gegen Zinsen, bei Versicherungen und bei Wetten), wie auch f¨ ur Personen, die – ausgehend vom gesunden Menschenverstand und von objektiven Gegebenheiten – all das konstruieren m¨ ochten, was die Garantie einer sozialen Existenz erm¨ oglicht, die u ¨ber die individuellen Kontingenzen hinausgeht. Eine Beschreibung l¨ aßt sich also mit einer Geschichte vergleichen, die von einer Person oder von einer Gruppe von Personen erz¨ ahlt wird – mit einer hinreichend stabilen und objektivierten Geschichte, die sich unter anderen Umst¨anden erneut und insbesondere dazu verwenden l¨ aßt, Entscheidungen zu untermauern, die man f¨ ur sich selbst oder f¨ ur andere trifft. Das galt bereits f¨ ur Beschreibungsformen, die allgemeiner waren als diejenigen, die sich seit dem sp¨aten 17. Jahrhundert aus den Techniken der Wahrscheinlichkeitsrechnung und der Statistik entwickelt hatten: zum Beispiel f¨ ur Beschreibungen, die auf einem theologischen Fundament ruhten. Mit der Gr¨ undung wissenschaftlicher Akademien, mit dem Auftreten professioneller Gelehrter und mit der Durchf¨ uhrung von reproduzierbaren – und somit vom Experimentator unabh¨angigen – Versuchen entstand im 17. Jahrhundert eine neue Art von Objektivit¨at. Diese Objektivit¨ at hing mit der sozialen und argumentativen Autonomie eines neuen Beschreibungsraumes zusammen, den die Wissenschaft liefert. Die Sprache der Wissenschaft st¨ utzt ihre Originalit¨ at auf ihre Unabh¨ angigkeit von anderen Sprachen – den Sprachen der Religion, des Rechts, der Philosophie und der Politik – und hat deswegen eine widerspr¨ uchliche Beziehung zu diesen Sprachen. Die Sprache der Wissenschaft macht einerseits eine Objektivit¨at und somit eine Universalit¨ at geltend, die – falls dieser Anspruch erfolgreich durchgesetzt wird – auch Anhaltspunkte und allgemeine Bezugspunkte f¨ ur die Debatte u aume bereitstellt: das ¨ber andere R¨ 6
Aber nicht alle Forscher treffen diese Wahl. Zum Beispiel ist das ungemein n¨ utzliche Werk von Stephen Stigler (1986, [267]) zur Geschichte der mathematischen Statistik des 19. Jahrhunderts haupts¨ achlich internalistisch angelegt.
8
Einleitung: Soziale Tatbest¨ ande als Dinge
ist der Aspekt der unanfechtbaren Wissenschaft“. Andererseits kann diese ” Autorit¨ at, die ihre Berechtigung im eigentlichen Prozeß der Objektivierung und in ihren strikten Forderungen nach Universalit¨ at findet, nur dann ausge¨ ubt werden, wenn sie Bestandteil der Gesamtheit der Handlungen, der Entscheidungen und der Transformationen der Welt ist. Diese Autorit¨ at ist der Motor des Prozesses – und sei es nur durch die zu l¨ osenden Fragen, durch die mit diesen Fragen zusammenh¨angenden mentalen Strukturen und durch die materiellen Mittel zur dauerhaften Erfassung neuer Dinge in u ¨bertragbaren Formen. Es geht also nicht darum, zu wissen, ob man sich eine reine – das heißt eine von ihren unreinen“ Anwendungen autonomisierte – Wissenschaft schlicht” weg vorstellen kann, und sei es nur als ein unerreichbares Ideal. Vielmehr geht es um die Untersuchung der Art und Weise, in der die zwischen dem Objektivit¨ ats- und Universalit¨atssanspruch und dem festen Zusammenhang zum Handlungsuniversum bestehende Spannung die Quelle f¨ ur die eigentliche Dynamik der Wissenschaft und f¨ ur die Transformationen und R¨ uck¨ ubersetzungen ihrer kognitiven Schemata und ihres technischen Instrumentariums darstellt. In der Geschichte der Wahrscheinlichkeitsrechnung und der Statistik, die nacheinander mit der Z¨ahmung“ von Risiken, der Verwaltung von ” Staaten, der Beherrschung der biologischen und ¨ okonomischen Reproduktion von Gesellschaften, aber auch mit der Kontrolle der milit¨ arischen und administrativen T¨ atigkeiten zusammenhing, wimmelt es von Beispielen f¨ ur derartige Transformationen. Im Falle der Wahrscheinlichkeitsrechnung haben wir den ¨ Ubergang vom Begriff des Glaubensgrundes“ zum Begriff des H¨ aufigkeitsli” ” mits bei einer gr¨ oßeren Anzahl von Ziehungen“ (Kapitel 2); im Falle der statistischen Techniken stellen wir die R¨ uck¨ ubersetzung der Interpretation von Mittelwerten und der Methode der kleinsten Quadrate fest – von der Fehlerrechnung in der Astronomie und dem Durchschnittsmenschen“ (homme ” moyen) von Quetelet (Kapitel 3) bis hin zur Vererbungsanalyse von Pearson und zur Armutsanalyse von Yule (Kapitel 4). Die komplexe Verbindung zwischen dem pr¨ askriptiven und dem deskriptiven Standpunkt kommt besonders deutlich in der Geschichte der Wahrscheinlichkeitsrechnung zum Ausdruck, wo man dem immer wiederkehrenden Gegensatz zwischen subjektiver und objektiver Wahrscheinlichkeit begegnet. In einer anderen Terminologie ist es der Widerspruch zwischen epistemischer und frequentistischer Wahrscheinlichkeit (Hacking, 1975, [117]). Aus episte” mischer“ Sicht handelt es sich um einen Glaubensgrad. Die Ungewißheit der Zukunft und die Unvollst¨andigkeit unseres Wissens u ¨ber das Universum implizieren Wetten u ¨ber die Zukunft und u ¨ber das Universum. Die Wahrscheinlichkeitsrechnung gibt rationalen Menschen Verhaltensregeln in die Hand, wenn Informationen fehlen. Aus frequentistischer“ Sicht liegen dagegen Diversit¨ at ” und Zufall in der Natur selbst begr¨ undet und sind nicht einfach nur das Ergebnis unvollst¨ andigen Wissens. Es handelt sich um externe, vom Menschen unabh¨ angige Faktoren, die zum Wesen der Dinge geh¨ oren. Der Wissenschaft kommt die Aufgabe zu, die beobachteten H¨aufigkeiten zu beschreiben.
Beschreibung und Entscheidung
9
Die beiden Wahrscheinlichkeitsauffassungen sind durch zahlreiche Konstruktionen miteinander verkn¨ upft worden. Zun¨ achst gibt es, beginnend mit Jakob Bernoulli (1713), unterschiedliche Formulierungen des Gesetzes der ” großen Zahlen“. Dieses Gesetz ist der Grundpfeiler, der die beiden Standpunkte miteinander verbindet – unter dem wichtigen Vorbehalt, daß sich zuf¨ allige Ereignisse unter identischen Bedingungen beliebig reproduzieren lassen (zum Beispiel Kopf oder Zahl“ beim Werfen einer M¨ unze oder die Augen“ bei ” ” W¨ urfelspielen). Das ist jedoch nur ein ¨außerst geringer Teil der Situationen, deren Ausgang ungewiß ist. In anderen Situationen f¨ uhrt der Satz von Bayes (1765, [10]), der die partiellen Informationen beim Auftreten einiger weniger Ereignisse mit der Hypothese einer A-priori -Wahrscheinlichkeit“ verkn¨ upft, ” zu einer besser gesicherten A-posteriori-Wahrscheinlichkeit“, welche die Ra” tionalit¨ at einer Entscheidung erh¨oht, die auf einem unvollst¨ andigen Wissen beruht. Die vom Standpunkt der Verhaltensrationalisierung plausible (epistemische) Argumentation ist aus deskriptiver (frequentistischer) Sicht nicht mehr plausibel, bei der eine A-priori -Wahrscheinlichkeit“ keine Grundlage ” hat. Diese Spannung zieht sich durch die gesamte Geschichte der Statistik und ist der Dreh- und Angelpunkt f¨ ur den Gegensatz zwischen den beiden Auffassungen: in dem einen Fall veranlaßt man“ etwas, da eine Entschei” dung getroffen werden muß; im anderen Fall gibt man sich nicht mit einer ungerechtfertigten Hypothese zufrieden, die nur als Anleitung zum Handeln gedacht ist. Die Diskussion u ¨ber den Wissensstand, der von den ab Mitte des 19. Jahrhunderts gegr¨ undeten statistischen Bureaus akkumuliert wurde, h¨ angt ebenfalls mit der Spannung zwischen den beiden Auffassungen – das heißt zwischen dem pr¨ askriptiven und dem deskriptiven Standpunkt – zusammen. Die administrative Produktionst¨atigkeit statistischer Information befand sich von ihren fr¨ uhesten Urspr¨ ungen an – aufgrund ihrer Anspr¨ uche, ihrer Funktionsregeln und wegen ihrer ¨offentlich angek¨ undigten Finalit¨ at – in einer ungew¨ ohnlichen Position: sie kombinierte die Normen der Welt der Wissenschaft mit denen des modernen, rationalen Staates, also mit Normen, die sich auf die Bedienung des allgemeinen Interesses und der Effizienz konzentrieren. Die Wertesysteme dieser beiden Welten sind nicht antinomisch, unterscheiden sich aber dennoch ¨ voneinander. Die Amter f¨ ur ¨offentliche Statistik kombinieren in subtiler Weise diese beiden Autorit¨atstypen, die von der Wissenschaft und vom Staat getragen werden (Kapitel 1, 5 und 6). Wie die Etymologie des Wortes zeigt, h¨angt die Statistik mit dem Aufbau des Staates, mit dessen Vereinheitlichung und seiner Verwaltung zusammen. ¨ All das beinhaltet die Aufstellung von allgemeinen Formen, Aquivalenzklassen und Nomenklaturen, die u ¨ber die Singularit¨aten der individuellen Situationen hinausgehen – sei es durch die Kategorien des Rechts (juristischer Standpunkt) oder durch Normen und Standards (Standpunkt der Verwaltungs¨ okonomie und der wirtschaftlichen Effektivit¨at). Der Kodierungsvorgang, bei dem eine Zuordnung von Einzelf¨allen zu Klassen erfolgt, ist eines der wesentlichen Merkmale des Staates, die er durch und u orden zum Ausdruck ¨ber seine Beh¨
10
Einleitung: Soziale Tatbest¨ ande als Dinge
¨ bringt. Beide Vorg¨ange, das heißt die Definition von Aquivalenzklassen und die Kodierung, sind die konstituierenden Schritte der statistischen Arbeit (Kapitel 8). Diese Arbeit ist nicht nur ein Nebenprodukt der Verwaltungst¨ atigkeit zum Zweck des Wissenserwerbs, sondern wird auch direkt durch diese T¨ atigkeit konditioniert, wie man anhand der Geschichte der Z¨ ahlungen, Stichprobenerhebungen (Kapitel 7), Indizes und der volkswirtschaftlichen Gesamtrechnung erkennt – alles untrennbar miteinander verbundene Erkenntnis- und Entscheidungsinstrumente. Der Zusammenhang zwischen Beschreibung und Verwaltung kommt deutlich zum Vorschein, wenn mehrere Staaten – wie es heute in der Europ¨ aischen Union der Fall ist – ihre Steuergesetzgebung, Sozialgesetzgebung und Wirtschaftsgesetzgebung harmonisieren, um den freien Verkehr von Menschen, G¨ utern und Kapital zu erm¨oglichen. Ein Vergleich der statistischen Systeme bringt zahlreiche Unterschiede an den Tag, deren Harmonisierung eine gewaltige Arbeit bedeutet, die mit dem Aufwand zur Vereinheitlichung der Gesetzesvorschriften, Normen und Standards verglichen werden kann. Die Konstruktion eines politischen Raumes impliziert und erm¨ oglicht die Schaffung eines einheitlichen Meßraumes, in dem man die Dinge vergleichen kann, weil die Kategorien und die Kodierungsverfahren identisch sind. So war die Arbeit an der Standardisierung des Territoriums eine der wesentlichen Aufgaben der Franz¨ osischen Revolution von 1789 mit ihrem einheitlichen System der Maße und Gewichte, mit der Aufteilung des Territoriums in Departements, mit der Schaffung eines s¨ akularen Zivilstaates und eines B¨ urgerlichen Gesetzbuches.
Wie man dauerhafte Dinge macht Die moderne Statistik ist das Ergebnis der Vereinigung wissenschaftlicher und administrativer Praktiken, die urspr¨ unglich weit voneinander entfernt waren. In diesem Buch versuche ich, Schilderungen miteinander zu verbinden, die u ¨blicherweise getrennt voneinander behandelt werden: die technische Geschichte der kognitiven Schemata sowie die Sozialgeschichte der Institutionen und der statistischen Quellen. Der Faden, der diese Schilderungen miteinander verkn¨ upft, ist die – in einem kostspieligen Investitionsprozeß verlaufende – Herstellung von technischen und sozialen Formen, die einen Zusammenhalt unterschiedlicher Dinge erm¨oglichen und dadurch Dinge anderer Ordnung hervorbringen (Th´evenot, 1986, [273]). Ich gebe im Folgenden eine schematische Zusammenfassung dieser Forschungslinie, die im vorliegenden Buch entwickelt wird. In den beiden scheinbar voneinander verschiedenen Gebieten der Geschichte des wahrscheinlichkeitstheoretischen Denkens und der Verwaltungsstatistik hat man die Ambivalenz einer Arbeit betont, die gleichzeitig auf Wissen und Handeln, auf Beschreiben und Vor schreiben ausgerichtet ist. Es geht hierbei um zwei verschiedene Aspekte, die einander bedingen, und es ist unbedingt notwendig, zwischen beiden zu unterscheiden: weil das Objektivierungsmo-
Wie man dauerhafte Dinge macht
11
ment autonomisierbar ist, kann das Handlungsmoment auf festgef¨ ugten Objekten aufbauen. Der Zusammenhang, der die Welt der Wissenschaft mit der Welt der Praxis verbindet, ist demnach die Objektivierungsarbeit, das heißt die Erzeugung von Dingen, die dauerhaft sind – entweder weil man sie vorhersehen kann oder weil ihre Unvorhersehbarkeit dank der Wahrscheinlichkeitsrechnung in gewissem Grad beherrschbar ist. Dieser Umstand macht die Beziehung verst¨ andlich, die zwischen der Wahrscheinlichkeitsrechnung – mit den ¨ einschl¨ agigen Uberlegungen zu Gl¨ ucksspielen7 und Wetten – und den makroskopischen Beschreibungen der Staatsstatistiken besteht. Beide Bereiche haben sich in Abh¨ angigkeit von der jeweiligen Zeit immer wieder u ¨berschnitten und ber¨ uhrt; zu anderen Zeiten wiederum strebten sie auseinander. Bereits im ¨ 18. Jahrhundert kam es zu einer Uberschneidung, als die Sterbetafeln zum Bezugsrahmen f¨ ur Versicherungssysteme wurden; ein anderes Beispiel sind die Bev¨ olkerungssch¨atzungen des franz¨osischen K¨ onigreichs durch Laplace, der von einer Stichprobe“ ausging, die sich auf einige Kirchengemeinden bezog ” (Kapitel 1). Die umfassende Verbreitung des Arguments, das den wahrscheinlichkeitstheoretischen Diskurs mit statistischen Beobachtungen verbindet, war jedoch das Verdienst von Quetelet in den 1830er und 1840er Jahren. Mit dem Begriff des Durchschnittsmenschen stellte das Queteletsche Konstrukt einen Zusammenhang zwischen dem zuf¨alligen, unvorhersehbaren Aspekt des individuellen Verhaltens und der Regelm¨aßigkeit – also auch der Vorhersehbarkeit – der statistischen Totalisierung8 der individuellen Handlungen her. Das Konstrukt st¨ utzt sich einerseits auf die Allgemeing¨ ultigkeit der Gaußschen Wahrscheinlichkeitsverteilung (das heißt des k¨ unftigen Normalgesetzes“) und anderer” seits auf die Reihen der Moralstatistik“ (Heiraten, Verbrechen, Selbstmorde), ” die von den statistischen Bureaus erstellt wurden. Diese Argumentation ließ das wahrscheinlichkeitstheoretische Denken f¨ ur lange Zeit von seiner subjektiven, epistemischen Seite (Stichwort: Glaubensgrund“) in Richtung seiner ” objektiven, frequentistischen Seite ausschlagen: im Gegensatz zum Chaos und zur Unvorhersehbarkeit der individuellen Handlungen lieferte die statistische Regelm¨ aßigkeit von Mittelwerten ein extrem leistungsstarkes Objektivierungsinstrument. Kapitel 3 ist der Analyse dieses wesentlichen Ansatzes gewidmet. Die durch die Berechnung von Mittelwerten erzeugten Dinge sind mit einer Stabilit¨ at ausgestattet, welche die Anforderungen und die Methoden der Naturwissenschaften in den Humanwissenschaften einf¨ uhrt. Man kann den Enthusiasmus verstehen, den diese M¨oglichkeit zwischen 1830 und 1860 unter denjenigen Akteuren ausl¨oste, die statistische Bureaus gr¨ undeten und inter7
8
Der Zufall ist in allen Gl¨ ucksspielen der bestimmende Faktor und es sei hier daran erinnert, daß hasard“ das franz¨ osische Wort f¨ ur Zufall“ ist und daß Gl¨ ucks” ” ” spiel“ auf Franz¨ osisch jeu de hasard“ ( Hasardspiel“) heißt. Das Wort Hasard“ ” ” ” ist u osische ins Deutsche gekommen und geht letztlich auf das ara¨ber das Franz¨ bische az-zahr“ zur¨ uck, was Spielw¨ urfel“ bedeutet (vgl. Osman [420]). ” ” Unter Totalisierung“ ist hier die Zusammenfassung unter einem Gesamtaspekt“ ” ” zu verstehen.
12
Einleitung: Soziale Tatbest¨ ande als Dinge
nationale Kongresse organisierten, um die neue, universelle Sprache zu propagieren und die Registrierungsverfahren9 zu vereinheitlichen. Die Objektivierungsarbeit liefert dauerhafte Dinge, auf denen die Verwaltung der sozialen Welt beruht. Und die Objektivierungsarbeit ist das Ergebnis der Vereinigung zweier unterschiedlicher Universen. Einerseits zielt das wahrscheinlichkeitstheoretische Denken auf die Beherrschung der Unsicherheit ab. Andererseits ¨ gestattet die Konstruktion administrativer und politischer Aquivalenzr¨ aume, eine große Anzahl von Ereignissen auf der Grundlage von Standardnormen aufzuzeichnen und zusammenzufassen. Ein Ergebnis dieses Vereinigungsprozesses ist die M¨ oglichkeit, repr¨asentative Stichproben aus Urnen zu ziehen, um sozio¨ okonomische Ph¨anomene auf der Grundlage von Stichprobenerhebungen ¨ kosteng¨ unstiger zu beschreiben. Man verwendete politisch konstruierte Aquivalenzr¨ aume in der Praxis, bevor sie zu einem kognitiven Mittel wurden. Aus diesem Grund konnten wahrscheinlichkeitstheoretische Verfahren der Ziehung von Kugeln aus Urnen u ¨berhaupt erst entworfen und angewendet werden. Bevor man die Kugeln ziehen konnte, mußten die Urne und auch die Kugeln erst einmal konstruiert werden. Dar¨ uber hinaus mußten die Nomenklaturen und die Verfahren zur Klassifizierung der Kugeln geschaffen werden. Die Konzentration der Aufmerksamkeit auf die Objektivierungsarbeit erm¨ oglichte es, die in der Wissenschaftssoziologie klassische Debatte zwischen den Objektivisten und den Relativisten zu beenden. F¨ ur die Objektivisten existieren die Objekte und die Aufgabe der Wissenschaft besteht darin, die Struktur dieser Objekte zu kl¨aren. F¨ ur die Relativisten sind die Objekte das Ergebnis einer von den Wissenschaftlern bewirkten Formgebung – andere Formgebungen w¨ urden zu anderen Objekten f¨ uhren. Falls nun eine Konstruktion tats¨ achlich auftritt, dann ist sie Bestandteil des sozialen und historischen Prozesses, u ¨ber den die Wissenschaft Rechenschaft ablegen muß. Der Umfang der in der Vergangenheit durchgef¨ uhrten Forminvestition ist der entscheidende Faktor, der die Solidit¨at, die Dauerhaftigkeit und den G¨ ultigkeitsraum der so konstruierten Objekte konditioniert. Die Bedeutung dieses Begriffes besteht genau darin, die beiden Aspekte – das heißt den ¨ okonomischen und den ¨ kognitiven Aspekt – durch die Konstruktion eines Systems von Aquivalenzen zu approximieren. Die Stabilit¨at und die Permanenz der kognitiven Formen h¨ angen (in einem allgemeinen Sinne) vom Umfang der Investition ab, die diese Formen hervorgebracht hat. Diese Beziehung ist von erstrangiger Wichtigkeit, wenn man die Konstruktion eines statistischen Systems aufmerksam verfolgt (H´eran, 1984, [130]). Die Konsistenz der Objekte wird mit Hilfe von statistischen Techniken getestet, die aus Wahrscheinlichkeitsmodellen hervorgegangen sind. Der Status derartiger Objekte ist Gegenstand von Debatten und die Wahlm¨ oglichkeit 9
Im franz¨ osischen Text ist hier von m´ethodes d’enregistrement“ die Rede. In ” diesem Zusammenhang sei bemerkt, daß die Registrierbeh¨ orde in Frankreich den Namen l’Enregistrement“ tr¨ agt; bei dieser Beh¨ orde m¨ ussen rechtlich wichtige ” Verh¨ altnisse registriert werden.
Wie man dauerhafte Dinge macht
13
zwischen der epistemischen oder frequentistischen Interpretation dieser Modelle – ausgedr¨ uckt durch die Rationalisierung einer Entscheidung oder durch eine Beschreibung – bleibt offen. Die Wahl einer Interpretation ist nicht das Ergebnis einer philosophischen Debatte u ¨ber das Wesen der Dinge, sondern vielmehr das Ergebnis des Gesamtkonstruktes, in dem das Modell seinen Platz findet. Es ist normal, daß die Akteure im t¨aglichen Leben so argumentieren, als ob die Objekte existierten; denn einerseits sorgt die vorhergehende Konstruktionsarbeit im betrachteten historischen Handlungsraum f¨ ur die Existenz der Objekte und andererseits w¨ urde eine andere Sichtweise jegliche Einwirkung auf die Welt verbieten. Ebenso handelt es sich bei der Praxis der statistischen Anpassungen – die darauf abzielt, die Parameter eines Wahrscheinlichkeitsmodells so zu berechnen, daß das beibehaltene Modell dasjenige ist, das den beobachteten Resultaten die gr¨ oßtm¨ogliche Mutmaßlichkeit verleiht – um eine Art und Weise, beide Interpretationen offen zu lassen. Die Berechnung eines arithmetischen Mittels, das zur Maximierung der Glaubw¨ urdigkeit eines Objekts f¨ uhrt, kann als tats¨ achlicher Nachweis der Existenzberechtigung dieses Objekts aufgefaßt werden – mit Abweichungen, die man als Fehler behandelt (von Quetelet vertretene frequentistische Auffassung) – oder aber als M¨ oglichkeit, die Beobachtungen zur Entscheidungsoptimierung zu verwenden (epistemische Auffassung), wobei die Abweichungen als Streuung interpretiert werden. Die Existenz eines Objekts ist das gleichzeitige Ergebnis eines sozialen Aufzeichnungs- und Kodierungsverfahrens und eines kognitiven Formgebungsverfahrens, mit dem die Multiplizit¨at auf eine kleine Anzahl von Merkmalen reduziert wird, die man aus frequentistischer Sicht als Objektmerkmale und aus epistemischer Sicht als Modellparameter bezeichnet. Trotz der Vorkehrungen, die ein guter Statistikdozent treffen muß, um seinen Studenten die verschiedenen m¨oglichen Festlegungen eines Wahrscheinlichkeitsmodells zu vermitteln, gleiten der u ¨bliche Sprachgebrauch und die sozialen Anwendungen dieser Methoden h¨aufig von einer Interpretation zur anderen, ohne u ¨berhaupt darauf zu achten. Die Wahl h¨angt mit der Konsistenz einer umfassenden Argumentation zusammen, bei der die statistischen Hilfsmittel ein Element darstellen, das sich mit anderen rhetorischen Hilfsmitteln verbindet. In Abh¨ angigkeit vom jeweiligen Fall ist die Existenz eines Objekts normal und notwendig, oder aber man kann und muß sich die Konstruktion dieses Objekts ins Ged¨achtnis rufen. Diese Ambivalenz ist unvermeidlich, denn man kann das Objekt nicht von seiner Anwendung trennen. Die Frage nach der Konsistenz und Objektivit¨ at von statistischen Messungen wird h¨ aufig gestellt. Mit der hier vorgeschlagenen Auffassung beabsichtige ich, das stets wiederkehrende Dilemma zu vermeiden, dem sich der Zahlen” konstrukteur“ ausgesetzt sieht, wenn er seiner Aufgabe vollst¨ andig gerecht werden will. Einerseits stellt er klar, daß die Messung von den Konventionen abh¨ angt, die in Bezug auf die Objektdefinition und die Kodierungsverfahren getroffen werden. Aber andererseits f¨ ugt er hinzu, daß seine Messung eine Realit¨ at widerspiegelt. Paradoxerweise sind diese beiden Aussagen zwar un-
14
Einleitung: Soziale Tatbest¨ ande als Dinge
vereinbar, aber gleichwohl ist es unm¨oglich, eine andere Antwort zu geben. Ersetzt man die Frage der Objektivit¨ at durch die der Objektivierung, dann schafft man sich eine M¨oglichkeit, diesen Widerspruch anders zu sehen. Die Realit¨ at erscheint nun als Produkt einer Reihe von materiellen Aufzeichnungsoperationen – als ein Produkt, das umso realer ist, je umfassender diese Aufzeichnungen sind, das heißt je dauerhafter die (auf der Grundlage gr¨ oßerer ¨ Investitionen getroffenen) Aquivalenzkonventionen sind. Diese Investitionen erlangen aber nur in einer Handlungslogik eine Bedeutung, welche die scheinbar kognitive Logik des Messens umfaßt. Betrachtet man das gemessene Ding in Bezug auf eine derartige Handlungslogik, dann ist dieses Ding real, denn die betreffende Handlung kann sich darauf st¨ utzen (was ein gutes Realit¨ atskriterium darstellt); gleichzeitig erweist sich das betreffende Ding im Rahmen dieser Logik aber auch als konstruiert.
Zwei Arten der historischen Forschung Die unterschiedlichen Verwendungen der Begriffe Statistik“ und Statistiker“ ” ” widerspiegeln die Spannung zwischen den Standpunkten in Bezug auf Realit¨at und Methode. F¨ ur die einen ist Statistik eine administrative T¨ atigkeit zur Aufzeichnung von Daten. Diese Daten f¨ uhren ihrerseits zu unbestreitbaren Zahlen, die in der sozialen Debatte aufgegriffen werden und eine Handlung determinieren. F¨ ur die anderen handelt es sich bei Statistik um einen Zweig der Mathematik, der an der Universit¨at gelehrt und von anderen Wissenschaftlern ¨ ¨ verwendet wird, zum Beispiel von Biologen, Arzten, Okonomen und Psychologen. Die Autonomisierung dieser beiden Bedeutungen geht bis an den Anfang des 20. Jahrhunderts zur¨ uck, als die Techniken der Regression und der Korrelation routinem¨ aßig angewendet und verbreitet wurden – beginnend mit dem biometrischen Zentrum“ (Biometric and Francis Galton Eugenics Laborato” atzungen, Tests, ries) von Karl Pearson und der inferentiellen Statistik10 (Sch¨ Varianzanalyse), die im landwirtschaftlichen Experimentallabor von Ronald Fisher entwickelt wurde. Seit dieser Zeit tritt die Statistik als Zweig der angewandten Mathematik in Erscheinung. Aber sogar noch fr¨ uher war im Rahmen der Verwaltungsarbeit ein anderer Beruf auf dem Weg dazu, Autonomie zu erlangen – der Beruf des Staatsstatistikers, der f¨ ur die amtlichen statistischen Bureaus zust¨ andig war und dessen Sprecher und Organisator Quetelet vierzig Jahre lang gewesen ist. Bis in die 1940er Jahre waren die von diesen Dienststellen angewendeten mathematischen Techniken rudiment¨ar und beide Berufe unterschieden sich voneinander. Diese Situation a ¨nderte sich in der Folgezeit mit der Anwendung der Stichpro¨ benverfahren, der Okonometrie und anderer Techniken, die immer vielf¨ altiger wurden. Aber die Autonomie der unterschiedlichen F¨ ahigkeiten und Fertigkei10
Wir verwenden hier durchgehend den Begriff inferentielle Statistik“ anstelle von ” schließender Statistik“ oder induktiver Statistik“. ” ”
Zwei Arten der historischen Forschung
15
ten blieb bestehen und trug dazu bei, die Spannung zwischen dem administrativen und dem wissenschaftlichen Aspekt dieser Berufe aufrecht zu erhalten. Das Ziel der Statistik besteht darin, die Vielfalt der Situationen zu reduzieren und deren zusammenfassende Beschreibung zu liefern – eine Beschreibung, die aufgezeichnet und als Grundlage des Handelns verwendet werden kann. ¨ Das impliziert einerseits die Konstruktion eines politischen Aquivalenzund Kodierungsraumes und andererseits eine mathematische Behandlung, die sich h¨aufig auf die Wahrscheinlichkeitsrechnung st¨ utzt. Aber diese beiden Aspekte der Statistik werden im Allgemeinen als zwei gesonderte T¨ atigkeiten angesehen und die Forschungsarbeiten zu deren Geschichte werden ebenfalls getrennt voneinander durchgef¨ uhrt. Ich habe mich im vorliegenden Buch dazu entschlossen, diese beiden roten F¨ aden gleichzeitig zu verfolgen, um ihre Wechselwirkungen und Verbindungen genau zu untersuchen. Die Vereinigung der beiden Linien erfolgte erst in den 1930er und 1940er Jahren. In meiner Darstellung verwende ich zwei Kategorien der historischen Forschung. Die erste Kategorie bezieht sich auf die statistischen Institutionen und die statistischen Systeme. Abgesehen von den vom Institut national de la statistique et des ´etudes ´economiques (INSEE) im Jahre 1987 ver¨offentlichten zwei B¨anden Pour une histoire de la statistique sind f¨ ur Frankreich die wichtigsten Werke diejenigen von J. C. Perrot (1992, [227]) und Bourguet (1988, [27]) u ¨ber das 18. Jahrhundert und den Beginn des 19. Jahrhunderts, von Armatte (1991, [5]), Brian (1989, [35]) und L´ecuyer (1982, [173]) u ¨ber das 19. Jahrhundert sowie von Fourquet (1980, [95]) und Volle (1982, [284]) u ¨ber das 20. Jahrhundert. In Großbritannien behandeln die Forschungsarbeiten von Szreter (1984 [270], 1991 [271]) das General Register Office (GRO) und die Public Health Movement. In den Vereinigten Staaten beschreiben Anderson (1988, [4]) sowie Duncan und Shelton (1978, [74]) die allm¨ahliche Zunahme der Verwaltungsstatistik und deren anschließende Transformation in den 1930er Jahren. Diese Transformation f¨ uhrte zu den gegenw¨ artigen Organisationen, die auf vier bedeutenden Innovationen beruhen: Koordinierung durch Nomenklatur; Stichprobenerhebungen; volkswirtschaftliche Gesamtrechnung; maschinelle Datenverarbeitung und sp¨ ater die Informatik. Die zweite Kategorie von Arbeiten bezieht sich auf die Wahrscheinlichkeitsrechnung und die mathematische Statistik. Dieses Gebiet der historischen Forschung zeichnete sich in den 1980er Jahren durch eine starke Aktivit¨ at aus – zuerst in Frankreich mit dem originellen, aber isolierten Buch von Benz´ecri (1982, [12]) und dann in England im Anschluß an eine kollektive Arbeit, die 1982–1983 in Bielefeld von Forschern mehrerer L¨ ander durchgef¨ uhrt wurde. Dem Buch The Probabilistic Revolution (Band 1, herausgegeben von Kr¨ uger, Daston, Heidelberger, 1987 [158], und Band 2, herausgegeben von Kr¨ uger, Gigerenzer, Morgan, 1987 [159]) folgten einige weitere Werke: Stigler (1986, [267]), Porter (1986, [240]), Daston (1988, [54]), Gigerenzer et al. (1989, [107]) ¨ und Hacking (1990, [119]). Parallel hierzu wurde die Geschichte der Okono-
16
Einleitung: Soziale Tatbest¨ ande als Dinge
metrie von Epstein (1987, [85]) und Morgan (1990, [204]) untersucht und in einem Sammelband der Oxford Economic Papers (1989) herausgegeben. Das Aufbl¨ uhen der Forschungen zur Geschichte der Statistik (Verwaltungsstatistik und mathematische Statistik), der Wahrscheinlichkeitsrechnung und ¨ der Okonometrie erm¨oglicht eine Gesamtinterpretation aus der Sicht der Wissenschaftssoziologie. Diese Interpretation ist gleichzeitig historisch und vergleichend. Dabei betrachte ich vier L¨ander: Frankreich, Großbritannien, Deutschland und die Vereinigten Staaten. Ich habe diese L¨ ander gew¨ ahlt, weil eine einschl¨ agige Dokumentation vorhanden ist und weil sich die signifikantesten Ereignisse in diesen L¨andern abgespielt haben. Die historische Schilderung wird bis zu den 1940er Jahren gef¨ uhrt. Um diese Zeit traten Institutionen und Technologien auf den Plan, deren Charakter dem der heutigen Institutionen und Technologien ¨ahnelt. Die Interpretation der seither stattgefundenen Entwicklungen dieser Institutionen und Technologien erfordert historische Untersuchungen ganz anderer Art. Statistische Methoden werden jetzt in vielen verschiedenen Bereichen angewendet und sind Bestandteil der unterschiedlichsten wissenschaftlichen, sozialen und politischen Konstrukte. Die neuere ¨ Geschichte der statistischen Amter ist noch kaum untersucht worden, aber in Bezug auf Frankreich wurde entsprechendes Material in Pour une histoire de la statistique (INSEE, 1987, [136]) gesammelt. Mathematische Statistik, ¨ Wahrscheinlichkeitsrechnung und Okonometrie haben sich in so zahlreichen und unterschiedlichen Richtungen entwickelt, daß es schwierig geworden ist, sich eine synthetische Darstellung vorzustellen, die sich mit der von Stigler f¨ ur das 18. und 19. Jahrhundert gegebenen Darstellung vergleichen l¨ aßt. In diesem Buch verfolgen wir die Entwicklungen der beiden Aspekte der Statistik, das heißt des wissenschaftlichen und des administrativen Aspekts. Wir untersuchen in den Kapiteln einige Zweige des Stammbaums der Stati¨ stik und der modernen Okonometrie. Am Anfang von Kapitel 9 findet der Leser eine skizzenhafte Darstellung dieses Stammbaums mit einer Zusammenfassung der verschiedenen Wege, die wir zur¨ uckverfolgt haben. Das erste Kapitel beschreibt die Entstehung der Verwaltungsstatistik in Deutschland, England und Frankreich. Im zweiten Kapitel schildern wir das Auftreten der Wahrscheinlichkeitsrechnung im 17. und 18. Jahrhundert, ihre Anwendung auf Meßprobleme in der Astronomie, sowie die Formulierung des Normalverteilungsgesetzes und der Methode der kleinsten Quadrate. Im dritten und vierten Kapitel geht es haupts¨achlich um die Begriffe des Mittelwertes und der Korrelation, wobei wir uns an den Arbeiten von Quetelet, Galton und Pearson orientieren. Im f¨ unften und sechsten Kapitel analysieren wir die Beziehungen zwischen Statistik und Staat an den Beispielen Frankreichs, Großbritanniens, Deutschlands und der USA. Das siebente Kapitel beschreibt die sozialen Bedingungen, unter denen die Techniken der Stichprobenerhebung entstanden sind.11 Das achte Kapitel behandelt Probleme der Nomenklatur und der Ko11
Dieses Kapitel greift in ge¨ anderter Form einen Text auf, der in einer von Mairesse (1988, [184]) herausgegebenen Kollektivarbeit ver¨ offentlicht wurde.
Zwei Arten der historischen Forschung
17
dierung, insbesondere ausgehend von den Forschungsarbeiten, die ich zuvor mit Laurent Th´evenot durchgef¨ uhrt hatte. Im neunten Kapitel untersuche ich die Schwierigkeiten der Vereinigung der vier Traditionen, die zur modernen ¨ Okonometrie gef¨ uhrt haben. Diese Traditionen sind: die Wirtschaftstheorie, die historizistisch-deskriptive Statistik12 , die aus der Biometrie hervorgegangene mathematische Statistik und die Wahrscheinlichkeitsrechnung. In der Schlußfolgerung behandle ich in gedr¨angter Form die Entwicklung und die relative Krise der Sprache der Statistik nach 1950.13 Ein ausl¨ osender Faktor daf¨ ur, das vorliegende Buches zu schreiben, war das Interesse f¨ ur die sozialen Bedingungen der Produktion von Wissen u ¨ber die soziale Welt – ein Interesse, das Pierre Bourdieu in seiner Lehrt¨ atigkeit vor langer Zeit in mir erweckt hatte. Sehr viel verdanke ich dem langj¨ ahrigen ¨ Meinungsaustausch mit Statistikern, Demographen und Okonomen (Jo¨elle Affichard, Michel Armatte, Denis Bayart, Annie Cot, Jean-Jacques Droesbeke, Fran¸cois Eymard-Duvernay, Annie Fouquet, Michel Gollac, Fran¸cois H´eran, Jacques Magaud, Maryse Marpsat, Pascal Mazodier, Robert Salais, Philippe Tassi, Michel Volle, Elisabeth Zucker-Rouvillois), aber auch dem Meinungsaustausch mit Historikern und Philosophen (Marie-No¨elle Bourguet, St´ephane Callens, Fran¸cois Ewald, Anne Fagot-Largeault, Fran¸cois Fourquet, Bernard L´ecuyer, Jean-Claude und Michelle Perrot) und den Diskussionen mit einigen britischen, deutschen und amerikanischen Spezialisten, die mir wertvolle Ratschl¨ age gegeben haben (Margo Anderson, Martin Bulmer, Lorraine Daston, Gerd Gigerenzer, Ian Hacking, Donald Mac Kenzie, Mary Morgan, Ted Porter, Stephen Stigler, Simon Szreter). Das Buch hat auch vom Seminar zur Geschichte der Wahrscheinlichkeitsrechnung und Statistik profitiert, das an ´ der Ecole des hautes ´etudes en sciences sociales (EHESS) von Marc Barbut, Bernard Bru und Ernest Coumet geleitet wurde. Der Standpunkt der Wissenschaftssoziologie ist durch die Arbeiten beeinflußt worden, die ich in der Gruppe f¨ ur Politik- und Moralsoziologie (EHESS) zusammen mit Luc Boltanski, Nicolas Dodier und Micha¨el Pollak (gest. 1992) durchgef¨ uhrt hatte, deren Ideen zum Vorgang der statistischen Formgebung eine ebenso wesentliche Rolle gespielt haben, wie die Forschungen des Centre de sociologie de ´ l’innovation der Ecole des mines (Michel Callon und Bruno Latour). Und schließlich h¨ atte dieses Buch nicht ohne die freundliche Aufnahme und Hilfe des Forschungsseminars des INSEE geschrieben werden k¨ onnen. Die von den Mitgliedern des Seminars ge¨außerten sachdienlichen Kritiken haben sich als 12 13
Wir verwenden hier durchgehend den Begriff deskriptive Statistik“ anstelle von ” beschreibender Statistik“. ” Obgleich die beiden Standpunkte, das heißt die internalistische und die externalistische Sichtweise, in Anbetracht der verf¨ ugbaren Quellen m¨ oglichst eng miteinander verkn¨ upft werden, beziehen sich Kapitel 2, 3, 4 und 9 eher auf die Metamorphosen der kognitiven Schemata, w¨ ahrend Kapitel 1, 5, 6 und 7 der Sozialgeschichte und der Geschichte der Institutionen n¨ aher stehen. Kapitel 8, in dem es um Klassifikationen geht, liegt in gewisser Weise an der Schnittstelle“ ” der beiden Sichtweisen.
18
Einleitung: Soziale Tatbest¨ ande als Dinge
sehr wertvoll erwiesen – insbesondere gilt das f¨ ur die kritischen Bemerkungen von Francis Kramarz. Ebenso danke ich Elisabeth Garcia und Dominique d’Humi`eres f¨ ur die sorgf¨altige Arbeit bei der Aufbereitung des Textes f¨ ur den Druck.
1 Pr¨ afekten und Vermessungsingenieure
Welche Gemeinsamkeiten haben die Statistik – das heißt eine Gesamtheit von Verwaltungsroutinen, die zur Beschreibung eines Staates und seiner Bev¨ olkerung erforderlich sind –, die um 1660 von Huygens und Pascal geschaffene Wahrscheinlichkeitsrechnung – eine subtile Entscheidungshilfe in F¨ allen von Ungewißheit – und die gegen 1750 auf der Grundlage disparater empirischer Beobachtungen durchgef¨ uhrten Sch¨ atzungen physikalischer und astronomischer Konstanten? Erst im 19. Jahrhundert, nachdem eine Reihe von Hin- und R¨ uck¨ ubersetzungen der Werkzeuge und Fragestellungen durchgef¨ uhrt worden ¨ waren, kam es zu Uberschneidungen und dann zu Verbindungen dieser unter¨ schiedlichen Traditionen. Die Uberschneidungen und Verbindungen entstanden durch den wechselseitigen Austausch von Techniken der Verwaltung, der (damals als Moralwissenschaften“ bezeichneten) Humanwissenschaften und ” der Naturwissenschaften. Die Notwendigkeit, eine Nation zu kennen, um sie zu verwalten, f¨ uhrte – ausgehend von den ¨außerst unterschiedlichen Sprachen der englischen politischen Arithmetik und der deutschen Statistik – zum Aufbau der sogenannten statistischen Bureaus“ im ersten Drittel des 19. Jahrhunderts.1 Andererseits ” entwickelte sich der Prozeß des Nachdenkens u ¨ber die Gerechtigkeit und die Rationalit¨ at der menschlichen Verhaltensweisen auf der Grundlage der Begriffe Erwartung und Wahrscheinlichkeit. Und schließlich f¨ uhrte das Streben nach der Formulierung von Naturgesetzen, bei denen differierende empirische Aufzeichnungen ber¨ ucksichtigt werden, zu einer zunehmend pr¨ aziseren Herausarbeitung des Begriffes Mittelwert und der Methode der kleinsten Quadrate. In den ersten beiden Kapiteln dieses Buches beschreiben wir diese drei Traditionen, die sich – trotz ihrer scheinbaren Heterogenit¨ at – mit der Erstellung von 1
Diese Verwaltungsdienstellen wurden zun¨ achst mit der Aufgabe betraut, eine Generalstatistik“ zu erstellen. F¨ ur Deutschland wurde 1871 die Errichtung eines ” Statistischen Amtes beschlossen. Der Zust¨ andigkeitsbereich dieses Kaiserlichen ” Statistischen Amtes“ wurde 1872 festgelegt. Von daher r¨ uhrt die Benennung dieser Sparte der administrativen Statistik als amtliche“ Statistik. ”
20
1 Pr¨ afekten und Vermessungsingenieure
Formen befassen, die jeder akzeptieren kann: Es handelt sich um Objekte, die dem Allgemeinwissen zug¨anglich sind. Jedoch ignorierten die Bureaus f¨ ur amtliche Statistik lange Zeit hindurch die Forschungen zur Wahrscheinlichkeitsrechnung und zur Fehlerrechnung. Die Untersuchungen zur Wahrscheinlichkeitsrechnung sind Gegenstand von Kapitel 1 ( Pr¨ afekten und Vermessungs” ingenieure“), w¨ ahrend die Untersuchungen zur Fehlerrechnung im Kapitel 2 ( Richter und Astronomen“) behandelt werden. ” In der Einleitung habe ich die Idee betont, daß die soziale Welt ein Konstrukt ist. Damit wollte ich nicht suggerieren, daß die von der Statistik gelieferten Beschreibungen dieser Welt bloße Artefakte sind. Ganz im Gegenteil: diese Beschreibungen haben nur dann G¨ ultigkeit, wenn die von ihnen beschriebenen Objekte konsistent sind. Aber diese Konsistenz ist nicht im Voraus gegeben. Sie wird geschaffen. Das Ziel von statistischen Erhebungen besteht in der Analyse dessen, was den Dingen Zusammenhalt verleiht – einen Zusammenhalt in dem Sinne, daß es in Bezug auf diese Dinge gemeinsam genutzte Darstellungen gibt, die durch Handlungen von allgemeiner Bedeutung beeinflußt werden k¨ onnen. Ein wichtiger Bestandteil dieser – zur Beschreibung und Schaffung von Gesellschaften erforderlichen – Sprache ist die moderne Statistik, denn sie hat einen besonderen Ruf aufgrund ihrer Faktizit¨ at, ihrer Objektivit¨ at und ihrer F¨ ahigkeit, Bezugsrahmen und Ansatzpunkte zu liefern. Wie ist es nun zu dem besonderen Ruf gekommen, den die Statistik unter den Erkenntnisformen genießt? Diese Ehre ist das Ergebnis einer eigenartigen, von der Geschichte gewobenen Interaktion zwischen zwei ansonsten deutlich verschiedenen Autorit¨atsformen – zwischen der Autorit¨ atsform der Wissenschaft und derjenigen des Staates. Im 17. und im 18. Jahrhundert bildete sich ein begrifflicher Rahmen heraus, in dem man u ¨ber zweierlei nachdenken konnte: erstens u ¨ber die Denkans¨atze zur Untermauerung zukunftsbezogener Entscheidungen und zweitens – mit Hilfe der Fehlerrechnung – u ¨ber die Grade der Sicherheit wissenschaftlicher Erkenntnisse. Die Autorit¨ at der Naturphi” losophie“ (der Wissenschaft von einst) sonderte sich allm¨ ahlich von der Autorit¨ at der Religion und der Autorit¨at der F¨ ursten ab. Die Trennung zwischen der Konstitution der Dinge und der Konstitution der Menschen wurde immer deutlicher, wobei die Konstitution der Dinge ihre Autonomie mit Nachdruck bekr¨ aftigte (Latour, 1991, [168]). Gleichzeitig entwickelten sich jedoch die Formen der f¨ urstlichen Autorit¨ atsaus¨ ubung – auf unterschiedliche Weise in den einzelnen L¨ andern und in Abh¨ angigkeit davon, wie sich die Beziehungen zwischen Staat und Gesellschaft ¨ anderten. So bildeten sich spezifische Wissensgebiete heraus, die sowohl f¨ ur die F¨ ursten als auch f¨ ur deren Verwaltungen n¨ utzlich waren und ein Pro¨ dukt ihrer Aktivit¨aten darstellten. Im Ubrigen nahmen in dem Maße, wie eine vom Staat verschiedene Zivilgesellschaft ihre Autonomie erlangte und sich ¨ offentliche R¨aume bildeten (wobei Form und Tempo von Staat zu Staat unterschiedlich waren), auch andere spezifische Wissensgebiete der betreffenden Gesellschaft Gestalt an. Alle diese Konstrukte gingen (im Wesentlichen, aber nicht ausschließlich) aus der Arbeit des Staates hervor und sollten die
1 Pr¨ afekten und Vermessungsingenieure
21
zweite Quelle f¨ ur das ungew¨ohnliche Ansehen bilden, das die moderne Statistik genießt – zumindest in der mehr oder weniger einheitlichen Bedeutung, den der Begriff im Laufe des 19. Jahrhunderts erlangt hatte: n¨ amlich als ko¨ gnitiver Aquivalenzraum, der zu praktischen Zwecken konstruiert wurde, um menschliche Gesellschaften zu beschreiben, zu verwalten und um sie umzugestalten. Aber diese Wissensgebiete hatten ihrerseits Urspr¨ unge und Formen, die von Staat zu Staat unterschiedlich waren und davon abhingen, wie diese Staaten errichtet wurden und mit der Gesellschaft verbunden waren. Wir nennen hier Deutschland, das uns das Wort Statistik und eine Tradition der globalen Beschreibung der Staaten vererbt hat. Wir nennen England, das uns durch seine politische Arithmetik die Z¨ahlungen kirchlicher und verwaltungstechnischer Aufzeichnungen, aber auch Rechentechniken hinterlassen hat, mit denen diese Z¨ ahlungen analysiert und extrapoliert werden konnten. In Frankreich schließlich lieferten die Zentralisierung und Vereinheitlichung – zuerst in der absoluten Monarchie und dann w¨ahrend der Revolution und im Ersten Kaiserreich – einen politischen Rahmen f¨ ur die Konzipierung und Errichtung eines Modells des Bureaus f¨ ur allgemeine Statistik“ im Jahre 1800 (in einigen ” Staaten erfolgte das bereits fr¨ uher, wie zum Beispiel in Schweden im Jahre 1756). Auf h¨ oherer Ebene f¨ uhrten Zentralisierung und Vereinheitlichung in Frankreich zu einer urspr¨ unglichen Form der Staatswissenschaften“ mit ihren ” Ingenieur-Korps“, die nicht aus den Universit¨ aten, sondern aus den grandes ” 2 ´ecoles hervorgingen. Der Gegensatz zwischen der deutschen deskriptiven Statistik und der englischen politischen Arithmetik ist ein klassisches Thema von Arbeiten, deren Gegenstand die Geschichte der Statistik oder der Demographie ist. Einige Autoren heben insbesondere das Scheitern und den Schiffbruch hervor, den die deskriptive Statistik zu Beginn des 19. Jahrhunderts erlitten hatte. Diese Autoren betonen auch die Tatsache, daß die politische Arithmetik, die zu diesem Zeitpunkt lediglich den Namen ihrer Rivalin ( Statistik“) geerbt hatte, ” die wahre Vorl¨ auferin der heutigen Methoden war (Westergaard, 1932, [286]; Hecht, 1977, [125]; Dupaquier, 1985, [75]). Andere Autoren sehen dagegen in den Methoden der deutschen Statistik einen interessanten Vorgriff auf gewisse Fragen der modernen Soziologie (Lazarsfeld, 1970, [170]) und einen bedeutsamen Versuch, die territoriale Diversit¨at eines Nationalstaates gedanklich zu erfassen und zu beschreiben (Perrot, 1977, [226]; Bourguet, 1988, [27]). Wir unternehmen in diesem Buch den Versuch einer Rekonstruktion der Verbindungsstellen, auf deren Grundlage sich die betreffenden Beschreibungsmetho2
Das h¨ ohere Bildungswesen Frankreichs ist durch die scharfe Trennung und Konkurrenz zwischen Universit¨ aten und grandes ´ecoles gepr¨ agt. Die Anf¨ ange dieser grandes ´ecoles gehen auf Gr¨ undungen ingenieurwissenschaftlicher Ausbildungsst¨ atten gegen Ende des Ancien R´egime zur¨ uck. Zu ihnen geh¨ oren einige der noch heute renommiertesten Ingenieurhochschulen. Genauere Ausf¨ uhrungen zum franz¨ osischen Hochschulsystem findet man bei Schwibs (1988, [435]) und bei Grattan-Guinness (1990, [392]).
22
1 Pr¨ afekten und Vermessungsingenieure
den entwickelten – Methoden, deren jeweilige Sprachen und Objekte vollkommen verschieden waren und deren Vergleich erst nach 1800 erfolgte. Vom Standpunkt der Geschichte der Akkumulation statistischer Techniken steht fest, daß die englische politische Arithmetik entsprechende Werkzeuge hinterlassen hat: die Auswertung der Kirchenregister u ¨ber Taufen, Heiraten und Sterbef¨ alle (Graunt, 1662), die Aufstellung von Sterbetafeln und die Berechnung der Lebenserwartung (Huygens, 1669) sowie Bev¨ olkerungssch¨ atzungen auf der Grundlage von Stichproben mit der Berechnung des zu bef¨ urch” tenden Fehlers“ (Laplace, 1785). Dagegen hat die deutsche Statistik, die einen formalen Rahmen f¨ ur die globale Beschreibung der Macht der Staaten lieferte, keinen besonderen Wert auf quantitative Methoden gelegt und nichts Vergleichbares hinterlassen. Es ist deswegen normal, daß in einer als Genese von Techniken betrachteten Geschichte die politische Arithmetik im Vordergrund steht und die deutsche Tradition als veraltetes geisteswissenschaftliches Konstrukt behandelt wird, f¨ ur das ein nur geringes Interesse besteht.
Deutsche Statistik: Identifizierung der Staaten Dennoch ist f¨ ur die Perspektive, die eine explizite Angabe des relativen Standorts und der kulturellen Bedeutung der statistischen Denkweise unter den verschiedenen Darstellungsweisen der sozialen Welt anstrebt, der Pol bedeutsam, den die deutsche Statistik“ darstellte (die ihrerseits jedoch nur wenig ” mit der heutigen Statistik gemeinsam hat). Dieser Pol dr¨ uckt das umfassende synthetische Bestreben aus, eine menschliche Gemeinschaft (einen Staat, eine Region und sp¨ater eine Stadt oder einen Beruf) als Ganzes zu verstehen, das mit einer singul¨ aren Macht ausgestattet ist und nur durch die Verkn¨ upfung zahlreicher Merkmale beschrieben werden kann, wie zum Beispiel: Klima, nat¨ urliche Ressourcen, Wirtschaftsorganisation, Bev¨ olkerung, Gesetze, Br¨ auche und politisches System. Eine derartige holistische Sicht auf die beschriebene Gemeinschaft hat f¨ ur einen analytischen Verstand, der das von ihm benutzte Werkzeug direkt auf eine klar identifizierte Frage anwendet, einen großen Nachteil: Die f¨ ur die Beschreibung relevanten Merkmale sind in einer potentiell unbegrenzten Anzahl vorhanden und man weiß nicht, warum man das eine Merkmal beibehalten soll, das andere hingegen nicht. Dagegen richtet die politische Arithmetik ihre Aufmerksamkeit auf eine kleine Anzahl von unmittelbar anwendbaren Sch¨atzungen, womit sie ohne Schwierigkeiten den Anspruch auf Legitimit¨at und soziale Anerkennung erheben kann. So dienten beispielsweise die Sterbetafeln als Grundlage zur Festsetzung der Leibrenten und der Lebensversicherungspr¨amien. F¨ ur die Erhebung von Steuern und f¨ ur die Rekrutierung von Soldaten waren Bev¨olkerungssch¨ atzungen in den verschiedenen Provinzen unerl¨aßlich. Aber die deutsche Statistik gab Antworten auf andere sorgenvolle Probleme. Sie bot dem F¨ ursten oder dem zust¨andigen Beamten einen Organisationsrahmen f¨ ur die vielgestaltigen Wissensformen, die in Bezug auf einen Staat
Deutsche Statistik: Identifizierung der Staaten
23
zur Verf¨ ugung standen – dieser Organisationsrahmen bestand aus einer Nomenklatur und einer Logik , die von der aristotelischen Logik inspiriert worden war. Um das Jahr 1660 kodifizierte Conring (1606–1681) diese Form, die im gesamten 18. Jahrhundert von der Universit¨at G¨ ottingen und ihrer statisti” schen Schule“ weitergegeben wurde, insbesondere von Achenwall (1719–1772) 3 ozer (1735–1809), – der als Erfinder des Wortes Statistik“ gilt – und Schl¨ ” dem Nachfolger Achenwalls auf dem Lehrstuhl f¨ ur Statistik. Schl¨ ozer war der Autor einer Abhandlung zur Statistik“. Donnant u ¨bersetzte dieses Werk ” 1804 ins Franz¨ osische, wodurch die deutsche Denkweise zu Beginn des 19. Jahrhunderts in Frankreich bekannt wurde. Schl¨ ozer war der erste Vertreter dieser Str¨ omung; er empfahl die Verwendung exakter Zahlen anstelle von verbal umschriebenen Angaben, ohne sich allerdings an seine eigene Empfehlung zu halten (Hecht, 1977, [125]). Eine der Formulierungen Schl¨ ozers ist f¨ ur die eher strukturalistische und synchronische Denkweise der deutschen Statistik bezeichnend: Statistik ist stillstehende Geschichte und Geschichte als Wis” senschaft ist eine laufende Statistik“. Conring faßte seine Statistik als eine Art und Weise der Klassifizierung von heteroklitischem Wissen auf. Wie Lazarsfeld (1970, [170]) feststellte, suchte ” er nach einem System, mit dem sich die Fakten leichter merken, leichter lehren und von den in der Regierung t¨atigen Leuten leichter verwenden ließen“. Einpr¨ agen, lehren und anwenden, um zu regieren: das ist nicht allzu weit entfernt vom Streben nach Objektivierung, vom Bem¨ uhen, Dinge auszudr¨ ucken, sie in B¨ uchern niederzulegen, um diese Dinge selbst wiederverwenden zu k¨ onnen oder aber um sie anderen zu vermitteln. Dieser organisatorische und taxonomische Bestandteil ist ebenso charakteristisch f¨ ur die moderne Statistik, wie ihre rechnerische Seite, die von der politischen Arithmetik auf den Weg gebracht wurde. Aber der vom Standpunkt des aktiven Staates aus organisierte Klassifikationsrahmen war sehr allgemein. Er st¨ utzte sich auf die vier Ursachen der aristotelischen Logik, die ihrerseits systematisch unterteilt wurden (Hoock, 1977, [132]). Die materiale Ursache (causa materialis) beschreibt das Territorium und die Bev¨olkerung. Die formale Ursache (causa formalis) stellt das Recht, die Verfassung, die Gesetze und die Br¨ auche zusammen. Die Finalursache (causa finalis) hat mit den T¨atigkeitszielen des Staates zu tun: Erh¨ ohung der Bev¨olkerungszahl, Sicherung der Verteidigung, Modernisierung der Landwirtschaft und Entwicklung des Handels. Und schließlich legt die effektive Ursache (causa efficiens) Rechenschaft u ¨ber die Mittel ab, u ¨ber die der Staat verf¨ ugt: Verwaltungspersonal und politisches Personal, Justizapparat, F¨ uhrungsst¨abe und Eliten (Bourguet, 1988, [27]). Diese aristotelische Unterscheidung zwischen den materiellen Kr¨aften, dem rechtlichen Rahmen, den T¨ atigkeitszielen und der effektiven Organisation ist in der lateinischen 3
Die Staatenkunde war eine rein beschreibende Darstellung von Staats” merkw¨ urdigkeiten“ zum Gebrauch f¨ ur Staatsm¨ anner. Eine der Quellen f¨ ur das Wort Statistik“ war das italienische Wort statista“, das Staatsmann“ bedeu” ” ” tet.
24
1 Pr¨ afekten und Vermessungsingenieure
Maxime Schl¨ ozers zusammengefaßt: vires unitae agunt ( die Kr¨ afte handeln ” vereint“). Diese Formel erinnert an den Zusammenhang zwischen der Kon¨ struktion der Aquivalenz, die bei der Addition als arithmetischer Operation erforderlich ist, und der Bildung einer Koalition, das heißt einer Vereinigung von disparaten Kr¨aften, die zu einer h¨oheren Macht verschmelzen. In beiden F¨ allen spielen Repr¨asentationsprozesse eine Rolle: Es geht um typische Ele¨ mente oder Repr¨asentanten von Aquivalenzklassen sowie um Sprecher oder Vertreter im Falle von vereinten Kr¨aften (Latour, 1984, [166]). Lazarsfeld (1970, [170]) setzt dieses deskriptive System in Beziehung zur Lage Deutschlands in der zweiten H¨alfte des 17. Jahrhunderts nach dem Dreissigj¨ ahrigen Krieg. Das Reich war zu dieser Zeit in nahezu dreihundert Kleinstaaten zersplittert, die alle arm waren und miteinander rivalisierten. Das Problem der Definition oder Redefinition der Rechte und Pflichten dieser Staaten war ein wesentlicher Punkt. In allen juristischen Streitf¨ allen bei Problemen in Bezug auf Territorium, Eheschließungen oder Erbfolge mußten Entscheidungen getroffen werden, wobei man sich auf Pr¨ azedenzf¨ alle berief oder die Archive durchforstete. Diese Situation verlieh denjenigen Geistern Autorit¨ at und Prestige, die nicht auf die Konstruktion neuer Dinge, sondern auf eine systematische Katalogisierung vorhandenen Wissens orientiert waren. Dieser Umstand trug seinerseits zu einer Weiterf¨ uhrung der scholastischen Traditionen bei, deren Einfluß in anderen Bereichen bereits gesunken war. Die Schw¨ ache der Kleinstaaten und deren Bed¨ urfnis nach Selbstdefinition f¨ uhrten zu diesem Denkrahmen, der eine Art kognitives Patchwork darstellte. Dieses Patchwork l¨ oste sich sp¨ater von selbst auf, als im 19. Jahrhundert m¨ achtige Staaten (vor allem Preußen) auf den Plan traten und hinreichend komplexe B¨ urokratien errichteten, um statistische Bureaus“ zu verwalten, die mit dem ” im Jahre 1800 gegr¨ undeten franz¨osischen Bureau vergleichbar waren (Hoock, 1977, [132]). Bevor diese Tradition ausstarb, f¨ uhrte sie zu Beginn des 19. Jahrhunderts zu einer bedeutsamen Kontroverse. Es kam der Vorschlag auf, den detaillierten formalen Rahmen der deskriptiven Statistik zu verwenden, um Vergleiche zwischen den Staaten vorzunehmen. Das sollte durch die Aufstellung von Kreuztabellen 4 geschehen, bei denen die L¨ander zeilenweise und die verschiedenen verbalen Beschreibungselemente spaltenweise angeordnet waren, so daß sich die Diversit¨ at der betreffenden Staaten entsprechend den unterschiedlichen Gesichtspunkten mit einem Blick erfassen ließ. Die M¨ oglichkeit der Nutzung der beiden Dimensionen einer Buchseite zur Verkn¨ upfung und Klassifizierung von Objekten gestattete deren gleichzeitige Betrachtung und unterschied radikal zwischen schriftlichem und m¨ undlichem Material, zwischen grafischer und diskursiver Argumentation (Goody, 1979, [111]). Aber diese Eroberung des ” zweidimensionalen Raumes“ durch die Kreuztabelle lief nicht ohne Schwie4
Auch Kreuztafeln genannt. In der heutigen deutschsprachigen Literatur wird Kreuztabelle ( crosstabulation“) auch als Synonym f¨ ur Kontingenztafel ( con” ” tingency table“) verwendet, vgl. z.B. [434].
Deutsche Statistik: Identifizierung der Staaten
25
rigkeiten ab, denn sie ging mit dem Zwang einher, Komparabilit¨ atsr¨ aume, allgemeine Bezugsr¨aume und Kriterien zu konstruieren. Das wiederum f¨ uhrte zu der weitverbreiteten Kritik, daß die beschriebenen Objekte reduziert“ und ” ihrer Singularit¨ at beraubt w¨ urden. Nun handelte es sich hierbei um genau dieselbe Art von Einw¨anden, die gegen die Methode der Kreuztabellen ins Feld gef¨ uhrt wurden – um so mehr, da diese Darstellung dazu ermunterte, auch Zahlen in den Tabellenzeilen auftreten zu lassen. Und diese Zahlen konnten direkt miteinander verglichen werden, w¨ahrend die zu klassifizierenden Informationen anf¨ anglich noch in verbaler Umschreibung gegeben waren. Es war demnach die Tabellenform selbst, die zur Suche nach Zahlen und zu deren Vergleich anregte. Es war im buchst¨ablichen Sinne diese Form, die den zur ¨ quantitativen Statistik f¨ uhrenden Begriff des Aquivalenzraumes schuf. Die Tatsache, daß zur Durchf¨ uhrung von Vergleichen zwischen L¨ andern oder zwischen Personen gewisse Merkmale ausgew¨ ahlt werden m¨ ussen, kann immer zu einer Art holistischer Kritik f¨ uhren, denn ein bestimmtes Land oder eine einzelne Person lassen sich nicht auf ausgew¨ ahlte Vergleichsmerkmale ¨ reduzieren. Diese Form der Kritik an der Aufstellung von Aquivalenzen hat einen hohen Allgemeinheitsgrad und der rote Faden des vorliegenden Buches besteht darin, die wiederholt auftretenden Modalit¨ aten dieser Art von Debatte zur¨ uckzuverfolgen und die Gemeinsamkeiten der Protagonisten der einen oder anderen Position aufzudecken. Ein bezeichnendes Beispiel ist die Kontroverse um die Tabellenknechte“, die aus dieser statistischen Schule hervor” gingen. Die Bef¨ urworter der Tabellen vertraten die Position eines allgemeinen ¨ Uberblicks, wie man ihn von einem Felsvorsprung aus hat. Diese Aussichtsposition erm¨ oglichte es ihnen, die verschiedenen L¨ ander gleichzeitig durch ein und dasselbe Raster zu sehen. Die Gegner dieser Position unterschieden zwischen subtiler und distinguierter“ Statistik und vulg¨ arer“ Statistik. Ihrer ” ” Meinung nach hat die letztere ... die große Kunst zu einer stupiden Arbeit degradiert ...“ Diese ” ” armen Narren verbreiten die verr¨ uckte Idee, daß man die Macht eines Staates durch die Kenntnis seiner Fl¨ache, seiner Bev¨ olkerung, seines Nationaleinkommens und der Anzahl der Tiere erfassen kann, die seine Weiden ringsumher abgrasen“. Die Machenschaften, in denen sich ” diese kriminellen politischen Statistiker in ihrem Bestreben ergehen, alles durch Zahlen auszudr¨ ucken ... sind verachtenswert und u ¨ber alle Maßen l¨ acherlich. (G¨ ottingische gelehrte Anzeigen um 1807; vgl. John (1884, [139]).) Sp¨ ater findet sich dieselbe Kontroverse in den Positionen wieder, die von der historischen Schule“ der deutschen Statistiker im 19. Jahrhundert vertre” ten wurde und die im Gegensatz zu den verschiedenen Formen des abstrakten o¨konomischen Universalismus (der Engl¨ander) oder des politischen Universalismus (der Franzosen) stand. Diese Kontroverse war auch f¨ ur die Debatten charakteristisch, die durch die Anwendung der numerischen Methode“ in der ” Medizin (um 1835) sowie durch die Nutzung der Statistik in der Psychologie
26
1 Pr¨ afekten und Vermessungsingenieure
und in der Dozimologie“ (der Wissenschaft von den Pr¨ ufungen) ausgel¨ ost ” wurden. In jedem Fall berief man sich auf Formen von (historischen, nationalen oder individuellen) Singularit¨aten und verwies auf M¨ oglichkeiten der Beschreibung, das heißt der Konstruktion von Gesamtheiten, die sich von denen der Statistik unterscheiden. So k¨onnen etwa die im Rahmen der G¨ ottinger Schule erstellten und kritisierten Tabellen auch spaltenweise gelesen werden, das heißt durch Vergleich einer Variablen“ (dieser Begriff kam damals auf) ” f¨ ur die verschiedenen L¨ander. Die Tafeln k¨onnen aber auch zeilenweise gelesen werden, wobei ein Land in allen seinen Aspekten beschrieben wird und man danach suchen kann, was die Einheit des betreffenden Landes und seine Spezifik ausmacht. Jede dieser beiden Interpretationen ist auf ihre Weise koh¨ arent. Die zweite Interpretation ist in keiner Weise singul¨ arer“ als die erste, aber ” sie impliziert eine andere Art und Weise der Totalisierung der elementaren Aufzeichnungen. Jedoch beinhaltete das spaltenweise Lesen der Tabellen – und somit der Vergleich der L¨ ander – die M¨oglichkeit, daß man in Bezug auf den Staat eine Position der Exteriorit¨at und Distanz einnehmen konnte. Diese M¨ oglichkeit ließ sich aber schwerlich mit der Position der deutschen Statistiker vereinbaren, die sich in ihren Argumenten den Standpunkt der Macht und der Machtaus¨ ubung ihres Staates zu eigen gemacht hatten. Sie identifizierten sich mit dem Staat und waren deswegen nicht imstande, sich eine vom Staat ver¨ schiedene Zivilgesellschaft vorzustellen oder die Uberblicksposition einzunehmen, die beim Aufstellen und Lesen von Tabellen vorausgesetzt wurde. Genau das ist es, was die deutschen Statistiker von den englischen politischen Arithmetikern unterscheidet. In England entwickelte sich gegen Ende des 17. Jahrhunderts ein neues Verh¨altnis zwischen dem monarchischen Staat und den verschiedenen sozialen Schichten. Dieses neue Verh¨ altnis erm¨ oglichte es den sozialen Schichten, ihren T¨atigkeiten relativ unabh¨ angig vom Monarchen nachzugehen, wobei die beiden H¨auser des Parlaments die Vertretung dieser sozialen Gruppen, des Adels und der Bourgeoisie, gew¨ ahrleisteten. In Deutschland hingegen erfolgten diese Unterscheidungen erst sehr viel sp¨ ater und in anderen Formen.
Englische politische Arithmetik: Entstehung der Expertise Im englischen Kontext, in dem der Staat zu einem Teil der Gesellschaft wurde und nicht – wie in Deutschland – deren Gesamtheit darstellte, entstand in den Jahren nach 1660 unter der Bezeichnung politische Arithmetik“ (poli” tical arithmetic) eine Reihe von Aufzeichnungs- und Rechentechniken. Diese durch die Arbeit von Graunt (1620–1674) u ¨ber Sterbezettel5 angeregten Me5
Im damaligen Englisch als bill of mortality“ bezeichnet; im Deutschen auch To” ” tenzettel“ oder Totenliste“ genannt. Der Titel der Grauntschen Schrift lautet in ”
Englische politische Arithmetik: Entstehung der Expertise
27
thoden wurden zuerst von Petty (1623–1687) und dann von Davenant (1656– 1714) systematisiert und theoretisch untermauert. Vom Standpunkt unserer Untersuchung zur Genese der materiellen Objektivierungsverfahren implizieren diese Methoden drei wichtige Momente: erstens das F¨ uhren schriftlicher Aufzeichnungen, zweitens deren Auswertung und Totalisierung gem¨ aß einem vorher festgelegten Schema und drittens ihre Interpretation durch Zahlen, ” Maße und Gewichte“. Die Eintragungen in Register, welche die Spuren von Taufen, Heiraten und Beerdigungen bewahrten, hingen mit dem Bem¨ uhen zusammen, die Identit¨ at einer Person zu juristischen oder verwaltungstechnischen Zwecken zu bestimmen. Das war der Gr¨ undungsakt aller statistischen Arbeit (im modernen Sinne), bei der definierte, identifizierte und stabile Einheiten vorausgesetzt werden. Die Funktion des Aufschreibens bestand darin, die Existenz und Permanenz einer Person und deren Bindungen zu einer Mutter, einem Vater, einem Ehepartner und zu Kindern zu verstetigen und (im Rahmen eines notariellen Aktes) zu beweisen. Ebenso wie die Ermittlung von Wahrscheinlichkeiten mit dem Bem¨ uhen zusammenhing, Glaubensgr¨ unde“ und Grade der Sicher” heit festzuhalten und zu bescheinigen (das heißt sie zu objektivieren), zielten auch die Eintragungen in den Kirchenb¨ uchern darauf ab, die Existenz von Individuen und deren famili¨are Bindungen zu registrieren und zu bezeugen: Es ist ganz und gar wahrscheinlich, daß das Auftreten und die Verbreitung von Registern in eine Zeit fiel, als – und auf die Tatsache zur¨ uckzuf¨ uhren war, daß – in der Rechtsprechung des sp¨ aten Mittelalters das Gewicht des schriftlichen Beweises gegen¨ uber dem m¨ undlichen zugenommen hatte und die alte juristische Maxime Zeugen ” gehen vor Buchstaben“ 6 nun durch eine neue ersetzt wurde, die da lautete Buchstaben gehen vor Zeugen.“ (Mols, 1954, [201], zitiert ” von Dupaquier, 1985, [75].) Diese Registrierungen wurden durch k¨onigliche Dekrete zur Pflicht gemacht, was nahezu gleichzeitig in England (1538) und in Frankreich erfolgte (Edikt von Villers-Cotterˆets, 1539). Sp¨ater machte man andere Listen ¨ offentlich. Zum Beispiel wurden bei Epidemien die Ank¨ undigungen von Beerdigungen angeschlagen. Es waren Verzeichnisse dieser Art, auf denen Graunt und Petty ihre politische Arithmetik aufbauten, in der sie mit Hilfe von sukzessiven Hypothesen bez¨ uglich der Strukturen von Familien und H¨ ausern die Gesamtbev¨ olkerungszahl sowie die Anzahl der Verstorbenen f¨ ur verschiedene St¨ adte berechneten. Dabei waren sie um die Einf¨ uhrung von Methoden bem¨ uht, die sich an anderer Stelle bew¨ahrt hatten. So gab etwa Petty folgende Erkl¨ arung:
6
¨ der 1702 in Leipzig erschienen Ubersetzung Nat¨ urliche und politische Anmer” ckungen u urnemlich ihre regierung, ¨ber die Todten-Zettul der Stadt London, f¨ religion, gewerbe, vermehrung, lufft, kranckheiten, und besondere ver¨ anderungen betreffend“. Pluris est testis, quam litterae“. ”
28
1 Pr¨ afekten und Vermessungsingenieure
... die von mir zu diesem Zweck genutzte Methode ist noch nicht sehr verbreitet, denn anstatt der ausschließlichen Verwendung von Begriffen im Komparativ und im Superlativ sowie anstelle rein rationaler Argumente, habe ich (als Muster f¨ ur die politische Arithmetik, die mir schon lange vorschwebte) die Methode verwendet, bei der man sich durch Zahlen, Maße und Gewichte ausdr¨ uckt. (Petty, 1690, zitiert von Hecht, 1977, [126].) Diese Berechnungen wurden als praktische Methoden zur L¨ osung konkreter Probleme vorgelegt. Graunt sprach von shopkeeper’s arithmetic“. Dave” nant erw¨ ahnte die Kunst des Argumentierens mit Zahlen bei regierungsre” levanten Objekten“. Der Unterschied zu den deutschen Statistikern ist klar: Die Vertreter der politischen Arithmetik waren keine Universit¨ atstheoretiker, die eine globale und logische Beschreibung des Staates im Allgemeinen gaben, sondern M¨anner unterschiedlicher Herkunft, die sich im Laufe ihrer T¨ atigkeit ein praktisches Wissen zusammengeschmiedet hatten und dieses der Regierung“ anboten. Graunt war Kaufmann; Petty war Arzt und bet¨ atigte ” sich sp¨ ater nacheinander als Mathematiker, Parlamentsabgeordneter, Beamter und Gesch¨ aftsmann; Davenant war Beamter und Tory-Mitglied im Parlament (Schumpeter, 1983, [254]). Somit zeichnete sich eine neue soziale Rolle ab: Ein Experte mit exakt definierter Kompetenz schl¨agt den Regierenden Techniken vor und versucht, sie davon zu u ¨berzeugen, daß sie sich zur Umsetzung ihrer Absichten zuerst an ihn wenden m¨ ussen. Diese M¨ anner boten eine pr¨ azise artikulierte Sprache an, w¨ahrenddessen die deutschen Statistiker, die sich mit dem Staat identifizierten, eine allumfassende Sprache vorlegten. Einer der Gr¨ unde, warum die englischen politischen Arithmetiker zur Erreichung ihrer Ziele auf indirekte Methoden und auf Rechenumwege zur¨ uckgreifen mußten, hing mit der liberalen Auffassung vom Staat und den Beschr¨ ankungen seiner Vorrechte zusammen. Diese Auffassung erlaubte es den betreffenden Arithmetikern nicht, umfassende direkte Erhebungen durchzuf¨ uhren, wie es manche L¨ ander auf dem Kontinent, insbesondere Frankreich, bereits getan hatten. So denunzierten etwa die Whigs 1753 einen Plan zur Volksz¨ ahlung als Weg zum vollst¨andigen Ruin der letzten Freiheiten des ” englischen Volkes“. Auch aus diesem Grund stagnierte die Systematisierung einer (noch nicht als Statistik“ bezeichneten) quantifizierten Beschreibung ” in England in der zweiten H¨alfte des 18. Jahrhunderts, w¨ ahrend Schweden 1749 eine Volksz¨ahlung durchf¨ uhrte. In Holland erfolgten Anwendungen der Wahrscheinlichkeitsrechnung auf die L¨ange des menschlichen Lebens (Huygens, 1669), auf die Sch¨atzung des Kaufpreises von Renten mittels Sterbetafeln (Witt, 1671) und auf die Sch¨atzung der Bev¨ olkerungszahl mit Hilfe der j¨ahrlichen Geburtenzahlen und der Lebenserwartung bei der Geburt (Kersseboom, 1738). In Amsterdam wurde 1672 eine Z¨ ahlung durchgef¨ uhrt (Dupaquier, 1985, [75]). Von den Techniken, die uns die politische Arithmetik des 18. Jahrhunderts hinterlassen hat, war der Bev¨olkerungsmultiplikator“ die ber¨ uhmteste ”
Englische politische Arithmetik: Entstehung der Expertise
29
(und im darauffolgenden Jahrhundert umstrittenste) Technik. Das Problem bestand in der Sch¨atzung der Gesamtbev¨olkerung eines Landes unter Ber¨ ucksichtigung der Tatsache, daß man keine Z¨ahlung durchf¨ uhren konnte, daf¨ ur aber die Anzahl der j¨ahrlichen Geburten u uchern her¨berall aus den Kirchenb¨ vorging. Die Methode bestand darin, die Bev¨olkerung einiger Orte zu z¨ ahlen, dann das Verh¨ altnis zwischen diesen Zahlen und der Anzahl der j¨ ahrlichen Geburten in denselben Orten zu berechnen und – unter der Voraussetzung, daß dieses Verh¨ altnis u olkerungszahl zu ¨berall das gleiche ist – die Gesamtbev¨ sch¨ atzen, indem man die allgemein angenommene Anzahl der Geburten mit dieser Verh¨ altniszahl multiplizierte. Der Multiplikator lag meistens zwischen 25 und 30. Dieser Kalk¨ ul, der im Europa des 18. Jahrhunderts weit verbreitet war, wurde 1785 von Laplace vervollkommnet. Ausgehend von Hypothesen u olkerungsmultiplikators“ lei¨ber die Wahrscheinlichkeitsverteilung des Bev¨ ” tete er einen zu bef¨ urchtenden Fehler“ f¨ ur die gesch¨ atzte Bev¨ olkerungszahl ” ab (Bru, 1988, [37]). Diese Technik – die Vorl¨auferin des Verfahrens der Zufallsauswahl – wurde im 19. Jahrhundert heftig angegriffen und bis zum Beginn des 20. Jahrhunderts bevorzugte man Voll erhebungen.7 Die Hauptkritik bezog sich auf die Hypothese der Konstanz des Bev¨olkerungsmultiplikators auf dem gesamten Territorium. Die Vorstellung, daß das K¨onigreich eine einzige Wahrschein” lichkeitsurne“ mit einem konstanten Verh¨altnis zwischen Bev¨ olkerungszahl und Geburtenzahl sein k¨onnte, erwies sich als problematisch. Die Konstruk¨ tion des nationalen Territoriums in Form eines einzigen Aquivalenzraumes sollte das große Problem werden, das in Frankreich vor allem nach 1789 aufgeworfen wurde. Dieses Problem war auch einer der haupts¨ achlichen Streitpunkte der großen Pr¨afekten-Enquete“ 8 des Jahres 1800, deren Ziel es war, ” aten die Disparit¨ aten zwischen den Departements9 zu ermitteln, diese Disparit¨ nach M¨ oglichkeit abzumildern und sich der einen und unteilbaren Republik zu n¨ ahern, von der die Revolution getr¨aumt hatte.
7
8
9
Man verwendet f¨ ur Vollerhebung auch den Begriff Totalerhebung. Im Gegensatz zur Stichprobenuntersuchung wird bei einer Vollerhebung die komplette Grundgesamtheit untersucht. Das franz¨ osische Wort enquˆete bedeutet in der Statistik u.a. Erhebung, Untersuchung. Eine Enquete ist ein Untersuchungsverfahren, das sich im Gegensatz zur Vollerhebung auf die schriftliche Befragung oder m¨ undliche Vernehmung von Sachverst¨ andigen, Fachleuten usw. beschr¨ ankt, um auf diese Weise ein zutreffendes Bild u ande sowie deren Zusam¨ber soziale und wirtschaftliche Tatbest¨ menh¨ ange zu gewinnen. Departement (d´epartement), Verwaltungsbezirk in Frankreich.
30
1 Pr¨ afekten und Vermessungsingenieure
Franzo egime: ¨sische Statistik des Ancien R´ 10 Intendanten und Gelehrte Auf dem Gebiet der Statistik hat das Frankreich der absoluten Monarchie keine stereotype, in speziellen Abhandlungen niedergeschriebene intellektuelle Tradition hinterlassen, die sp¨ater von der akademischen Kultur weitergef¨ uhrt werden konnte, wie es in Deutschland mit Conring, Achenwall und Schl¨ ozer und in England mit Graunt, Petty und Davenant der Fall war. Aber das Frankreich der absoluten Monarchie vermachte den nachfolgenden Zeiten – vor allem der Revolution und dem Ersten Kaiserreich (Empire)– zwei wichtige Dinge: zum einen eine sehr lebendige Verwaltungstradition von Denkschriften (m´emoires) und Enqueten, die in den 1780er Jahren beinahe zur Gr¨ undung einer spezifischen statistischen Institution gef¨ uhrt h¨ atte (was dann im Jahre 1800 tats¨ achlich erfolgte), und zum anderen eine brodelnde Atmosph¨ are der wissenschaftlichen Bildung und der Gelehrsamkeit, die außerhalb des eigentlichen Staates anzutreffen war und sich auf empirische Beschreibungen sowie auf Systeme zur Organisierung dieser Beschreibungen bezog. Die faktische Umsetzung unterschiedlicher Anforderungen, die Bestandteil der deutschen und der englischen Tradition waren (globale Beschreibung und taxonomische Logik im einen Fall, Quantifizierung und Mathematisierung im anderen), ebnete den Weg f¨ ur die sp¨ateren Synthesen. Zur Schilderung dieses G¨arungsprozesses verfolgen wir hier den Aufbau eines starken, zentralisierten Staates und die verschiedenen Beschreibungsm¨ oglichkeiten des Staates und der Gesellschaft. Dabei betrachten wir einerseits die Entwicklung vor 1789 und andererseits die Zeit zwischen 1789 und 1815 (Bourguet, 1988, [27]). Seitens der k¨ oniglichen Macht waren Beschreibungen des Landes dazu bestimmt, dem F¨ ursten Bildung zu vermitteln. Administrative Enqueten, die mit der F¨ uhrung von Prozessen zu tun hatten, schlossen bereits quantitative Analysen ein. Außerhalb des Staates verfaßten ¨ Reisende, Arzte, lokal ans¨assige Gelehrte, Wissenschaftler und Philosophen Forschungsarbeiten, die noch nicht auf der Grundlage pr¨ azise festgelegter Disziplinen kodifiziert waren. F¨ ur die nachrevolution¨ are Zeit zeigt jedoch eine Gegen¨ uberstellung der w¨ahrend des Konsulats und in der Zeit des Ersten Kaiserreiches durchgef¨ uhrten statistischen Versuche, wie das Wort Statistik“ ” in Frankreich von seiner deutschen Bedeutung im 18. Jahrhundert auf seine moderne Bedeutung als quantifiziertes Beschreibungssystem umschwenkte. Die Besonderheit Frankreichs im Vergleich zu Deutschland und England bestand darin, daß seit etwa 1660 die K¨onigsmacht sehr stark war und u ¨ber eine verh¨ altnism¨ aßig zentralisierte Verwaltung verf¨ ugte – auch wenn es in den Provinzen immer noch Disparit¨aten in Bezug auf Recht und Br¨ auche gab. Diese Disparit¨ aten wurden denunziert und 1789 abgeschafft. Tocqueville (1856, 10
Ancien R´egime“ ist die Bezeichnung f¨ ur die absolutistische Monarchie vor 1789, ” Intendant“ die Bezeichnung eines hohen Verwaltungsbeamten im damaligen ” Frankreich.
Franz¨ osische Statistik des Ancien R´egime: Intendanten und Gelehrte
31
[277]) hat nachgewiesen, daß die vereinheitlichende Tradition der Jakobiner bereits in der absoluten Monarchie tief verwurzelt war und daß die Revolution ebenso wie das Erste Kaiserreich einen Teil der bereits im Ancien R´egime vorhandenen Wesensz¨ uge beibehalten und weiter ausgebaut hat. Somit waren Funktion und Verhalten der Intendanten bereits Vorboten der entsprechenden Rollen, welche die Pr¨afekten im 19. und 20. Jahrhundert spielen sollten. Seit 1630 (Zeit Richelieus) und 1663 (Zeit Colberts) sowie in regelm¨ aßigen Abst¨ anden danach wurden die Intendanten damit beauftragt, dem K¨ onig Beschreibungen ihrer Provinzen zukommen zu lassen, wobei die Beschreibungen einen zunehmend gr¨oßeren Kodifizierungsgrad hatten. Dieses System von Enqueten ging auf die mittelalterliche Tradition des F¨ urstenspiegels“ zur¨ uck, ” der den F¨ ursten unterrichten sollte und ihm Reflexionen u oße“, ¨ber seine Gr¨ ” das heißt u ¨ber die Gr¨oße seines Reiches vermitteln sollte, das eine metaphorische Erweiterung seines eigenen K¨orpers darstellte. Allm¨ ahlich teilte sich dieses System von Enqueten in zwei Teile auf: zum einen in eine allgemeine und beschreibende Tabelle, die dem K¨onig vorbehalten war, und zum anderen in eine Gesamtheit von speziellen, quantifizierten und periodischen Erkenntnissen, die f¨ ur die Verwaltungsbeamten bestimmt waren. F¨ ur den K¨ onig handelte es sich dabei um eine methodische Darstellung, die in ihrem Geist und Inhalt der deutschen deskriptiven Statistik ziemlich nahe stand. Diese Beschreibung zeigte aus einer statischen und juristischen Perspektive, worin die Macht des K¨onigs bestand – gemessen durch die H¨ ohe der Steuern und die Funktionst¨ uchtigkeit der Institutionen. Auf diese Weise wurden der Rahmen und die Grenzen seines Handelns abgesteckt. Die Darstellung beschrieb eine unver¨anderliche Ordnung. Im F¨ urstenspiegel war die Vielfalt der Sitten und Gebr¨auche aufgezeichnet, aber es ging nicht darum, diese zu ¨ andern. Die Analyse wurde vom Standpunkt des K¨ onigs und seiner Macht durchgef¨ uhrt und hatte deswegen wenig mit dem Zustand der Gesell¨ schaft, ihrer Okonomie oder mit einer genauen Z¨ ahlung der Einwohner zu tun. Ein Archetyp dieser Art von Beschreibung war die Reihe der von den Intendanten zwischen 1697 und 1700 verfaßten M´emoires, die das Ziel verfolgten, den Thronfolger Herzog von Bourgogne auf der Grundlage eines Programms zu unterweisen, das von F´enelon angeregt worden war. Ganz anders waren die Informationen beschaffen, die ab Ende des 17. Jahrhunderts durch und f¨ ur die Verwaltungsbureaus gesammelt wurden, und zwar nicht zu p¨ adagogischen Zwecken, sondern aus direkteren und praktischeren Erw¨ agungen. Diese mit der Entwicklung der administrativen Monarchie und deren Dienststellen zusammenh¨angenden Enqueten waren weniger ortsbezogen, daf¨ ur aber spezialisierter und sehr viel quantitativer angelegt; sie bezogen sich auf Volksz¨ahlungen, Vorratsbest¨ande und Preise. H¨ aufig verfolgten diese Erhebungen fiskalische Ziele. Vauban verfaßte 1686 mit dem Ziel einer Steuerreform eine Allgemeine und leichte Methode zur Durchf¨ uhrung von ” Volksz¨ ahlungen“ (M´ethode g´en´erale et facile pour faire le d´enombrement des peuples), die er sp¨ater in seinem K¨onigszehnt“ (dˆıme royale) weiterf¨ uhrte. ” Im Jahre 1684 wurde eine Z¨ahlung der Gesamtbev¨ olkerung als Grundlage f¨ ur
32
1 Pr¨ afekten und Vermessungsingenieure
die erste Kopfsteuer vorgeschlagen. Die durch Hungersn¨ ote, Epidemien und Kriege bewirkten Notst¨ande waren in den Jahren 1693 und 1720 (Pest in Marseille) der Grund f¨ ur Teil-Enqueten zur Bev¨olkerung und zu den Vorr¨ aten. In der Folge wurden nach und nach spezialisierte und regelm¨ aßige Statistiken erstellt, die nichts mit Dringlichkeitsf¨allen oder Steuerreformen zu tun hatten. Die wichtigsten dieser Statistiken waren: die von Abb´e Terray 1772 veranlaßten j¨ ahrlichen Verzeichnisse der Geburten, Heiraten und Sterbef¨alle (diese Verzeichnisse waren der Ausgangspunkt f¨ ur die vom Standesamt herausgegeben Statistiken zur Bev¨olkerungsbewegung), die Registrierungen der Preise f¨ ur Landwirtschafts- und Industrieprodukte – die Preise wurden jede Woche nach Paris geschickt und erm¨oglichten die Erstellung einer allgemeinen Ta” belle des K¨ onigreiches“ – und schließlich von 1775 bis 1786 ein von Montyon verfaßtes Verzeichnis der Strafurteile, das ein Vorl¨ aufer der Moralstatistik von Quetelet war. Auf diese Weise wurden Z¨ahlpraktiken und regelm¨ aßige Statistiken eingef¨ uhrt, die sich auf exakt umrissene Bereiche bezogen, nationalen Charakter hatten und nicht den Umweg u ¨ber lokale Beschreibungen gingen; insbesondere war eine Beschreibung der zeitlichen Entwicklungsprozesse beabsichtigt. Ausgangspunkt waren die Registrierungen, die mit der st¨ andigen Verwaltung der staatlichen Beh¨orden zusammenhingen. Alle diese Merkmale bildeten ein Konstrukt, das sich von den verbalen Beschreibungen eines Conring oder eines F´enelon unterschied und ein Vorbote der Praktiken der statistischen Bureaus des 19. Jahrhunderts war. Es gab jedoch einen wesentlichen Unterschied: Diese Beschreibungen waren – ganz gleich, ob f¨ ur den K¨ onig oder seine Administration bestimmt – geheim und an das k¨onigliche Vorrecht gebunden. Die Beschreibungen waren nicht dazu vorgesehen, eine vom Staat verschiedene Zivilgesellschaft aufzukl¨aren und eine eigenst¨andige ¨ offentliche Meinung zu f¨ordern. Die beiden letztgenannten Dinge erfuhren erst in den Jahren nach 1750 eine immer gr¨oßere Bedeutung und brachten ihrerseits Wissensformen hervor, die sich getrennt von den Wissensformen der Regierung entwickelten. Außerhalb der Regierung entwickelte sich eine private Tradition der Gesellschaftsbeschreibung. Reiseberichte, geographische Analysen von Orten, Kom¨ pilationen u auche und u ¨ber den Boden, die Sitten und Gebr¨ ¨ber die Okonomie ¨ wurden von lokal ans¨assigen Gelehrten, Wissenschaftlern, Arzten und Juristen verfaßt, die von der neuen Philosophie der Aufkl¨ arung befl¨ ugelt waren und sich in Gesellschaften und Reformklubs versammelten. Dort diskutierten und formulierten sie diejenigen Themen, die 1789 die Oberhand gewannen. ¨ Von großer Bedeutung war hierbei die Gruppe der Arzte, denn deren Einfluß setzte sich bis ins sp¨ate 19. Jahrhundert in der Bewegung der Hygieniker fort (L´ecuyer, 1977, [172]), die vergleichbare Vorstellungen hatten. Diese ¨ Arzte entwickelten Luft- und Klimatheorien, die von Hippokrates11 und Ga11
Hippokrates (von Kos), der Vater der Medizin“, wurde um 460 v. Chr. geboren ” und starb um 380. Nicht zu verwechseln mit seinem Namensvetter, dem Mathematiker Hippokrates von Chios, der insbesondere wegen seiner Beitr¨ age zu den
Franz¨ osische Statistik des Ancien R´egime: Intendanten und Gelehrte
33
len12 inspiriert worden waren. Auf der Grundlage dieser Theorien ließen sich Krankheiten entsprechend der geographischen Umgebung interpretieren. Das ¨ ermunterte diese Arzte dazu, detaillierte lokale Enqueten zu organisieren, bei denen die pathologischen Erscheinungen in Beziehung zu den verschiedenen nat¨ urlichen, ¨ okonomischen und sozialen Merkmalen der betreffenden Orte gesetzt wurden. So f¨ uhrte im Jahre 1776 Vicq d’Azyr, der Generalsekret¨ ar der ¨ Soci´et´e royale de m´edicine eine Enquete bei allen franz¨ osischen Arzten mit dem Ziel durch, ... einen topographischen und medizinischen Plan Frankreichs (zu erstellen), in dem das Temperament, die Konstitution und die Krankheiten der Einwohner aller Provinzen oder Kantone unter Bezugnahme auf die Natur und die Bodennutzung erfaßt werden. (Zitiert nach Bourguet, 1988, [27].) Das Geheimnis, das die Ergebnisse der administrativen Enqueten umgab, regte diese Gelehrten zu Sch¨atzungen an, die – ausgehend von Stichproben und Rechenumwegen, wie es bei der Anwendung des Bev¨ olkerungsmultiplikators der Fall war – auf partiellen Informationen beruhten und in ihren Methoden der englischen politischen Arithmetik nahestanden. Aber diese alge” braischen“ Kunstgriffe, die auf das Fehlen empirischer Daten zur¨ uckzuf¨ uhren waren, hatten in beiden L¨andern jeweils andere Gr¨ unde. In England war dieser Mangel das Zeichen einer liberalen Orientierung der Macht. In Frankreich dagegen resultierte er aus den Geheimhaltungsbestrebungen des k¨ oniglichen Absolutismus, der die Informationen f¨ ur sich behielt. Es standen sich somit zwei kontr¨ are Methoden der Staatsf¨ uhrung gegen¨ uber. Parallel zur Staatsmacht entwickelte sich die optimistische Vorstellung, daß eine auf Mathematik und empirischen Beobachtungen beruhende Rationalit¨ at zu einer Objektivit¨at und somit zu einer Transparenz f¨ uhren kann, die gleichermaßen auf Beschreibungen und Entscheidungen zutrifft. Das erstgenannte, beschreibende Element wurde durch die Werke von Laplace zur Theorie der Beobachtungsfehler in der Physik und zum Bev¨ olkerungsmultiplikator repr¨ asentiert. Das zweite, sich auf Entscheidungen beziehende Element, trat in den Untersuchungen von Condorcet13 auf, der eine Algebra des Men” schen“ in der Gesellschaft anstrebte, eine soziale Mathematik“, welche mit ” Hilfe der Wahrscheinlichkeitsrechnung die Entscheidungen von Geschworenen oder gew¨ ahlten Volksvertretungen zum Ausdruck bringt. Die Formalisierungen bezogen sich in manchen F¨ allen auf spezielle Sch¨ atzoder Entscheidungsprobleme und lieferten pr¨azise L¨ osungen dieser Probleme.
12 13
sogenannten klassischen Probleme der griechischen Mathematik (Kreisquadratur, W¨ urfelverdoppelung, Winkeldreiteilung) ber¨ uhmt wurde. Galen (Galenos) lebte von ca. 130 bis 200 in Pergamon. Marquis de Condorcet, Marie-Jean-Antoine-Nicolas Caritat (1743–1794). Franz¨ osischer Adliger, der durch seine Verbindung zum Minister Turgot politischen Einfluß hatte; nahm aktiv an der Franz¨ osischen Revolution auf der Seite der Girondisten teil.
34
1 Pr¨ afekten und Vermessungsingenieure
Es konnte aber auch vorkommen, daß die Formalisierungen der Ausdruck eines umfassenderen, systematischeren Bestrebens waren und in dieser Hinsicht der deutschen Statistik nahestanden, wobei jedoch andere Werkzeuge verwendet wurden. So verhielt es sich zum Beispiel im Fall der Physiokraten, die eine allzu leichte Versuchung zum Rechnen“ denunzierten. Im Unterschied ” zu den oben erw¨ahnten traditionellen deutschen Statistikern kritisierten sie jedoch weniger die Tatsache, daß auf Rechnungen zur¨ uckgegriffen wurde, sondern vielmehr die Auswahl der berechneten Gr¨ oßen und die Tatsache, daß sich diese Gr¨ oßen – ihrer Meinung nach – in kein relevantes globales Konstrukt einf¨ ugten. So machte etwa Dupont de Nemours in einem Brief zur ”¨ Notwendigkeit, die Vorratsberechnungen mit den Volksz¨ ahlungen in Ubereinstimmung zu bringen“ (1766) folgende ironische Bemerkung u ¨ber ... alle diejenigen Schreiber, die sich in ihren Arbeitszimmern penibel damit befassen, die Eintragungen in den Geburten- oder Sterberegistern zu addieren und willk¨ urliche Multiplikationen durchf¨ uhren, um die Menschen zu z¨ahlen ..., die sich einbilden, durch ihre Berechnungen – die u umern ¨berhaupt nichts mit den Berechnungen von Reicht¨ zu tun haben – die Macht und die Prosperit¨ at der Nation beurteilen zu k¨ onnen ..., und die es als Gefangene dieser ihrer Vorstellung vernachl¨ assigen, ihren Eifer und ihre m¨ uhevolle T¨ atigkeit darauf zu verwenden, den Zustand des Fortschritts und der Arbeiten auf dem Gebiet der Kultur, den Zustand der Produkte und vor allem den Zustand des Nettoproduktes kennenzulernen (Dupont de Nemours, zitiert von Bourguet, (1988), [27].) Mit Quesnay kam die Idee der allgemeinen Konstruktion einer Menge auf, die nicht nur ein formales logisches System bildete, wie bei den Deutschen in G¨ottingen, sondern einen deskriptiven Rahmen darstellte, der die verschiedenen Sch¨ atzungen durch das ber¨ uhmte tableau ´economique“ 14 ( Wirtschafts” ” tableau“) miteinander verkn¨ upfte. (Schumpeter, 1983, [254].) Diese Idee – die in vielerlei Hinsicht dem ¨ahnelte, was die Kalkulatoren“ der volkswirtschaft” lichen Gesamtrechnung seit Beginn der 1940er Jahre behaupteten – vereinigte die Forderung nach einer zumindest potentiellen Totalit¨at der von der deutschen Scholastik stammenden Systeme mit der Forderung der Arithmetiker nach Messungen. Nun bedeutet die Messung eines Dings auch eine Pr¨ ufung der Konsistenz dieses Dings, denn es wird mit der Eigenschaft der Exteriorit¨ at und der Unabh¨angigkeit von seinem Erfinder oder seinem Beobachter 14
Das tableau ´economique“ beinhaltet die zahlenm¨ aßige und grafische Darstellung ” des makro¨ okonomischen Prozesses. In einem enthusiastischen zeitgen¨ ossischen Kommentar heißt es: Ich habe mir gestattet, diese Figuren mit dem Einverst¨ and” nis des großen Meisters gesondert anzuf¨ uhren, dessen sch¨ opferischer Genius die wunderbare Idee dieses Schaubildes erfand, das allen Augen das Ergebnis der h¨ ochsten Wissenschaft vorf¨ uhrt und das diese Wissenschaft in ganz Europa zum ewigen Ruhm seiner Erfindung und zum Wohl des Menschengeschlechts dauernd lebendig halten wird.“
Franz¨ osische Statistik des Ancien R´egime: Intendanten und Gelehrte
35
ausgestattet (je nachdem, ob es sich um die relativistische oder um die realistische Auffassung handelt). Wird ein Ding auf diese Weise durch eine Messung konsistent (objektiv) gemacht, dann l¨aßt es sich in einen Mechanismus integrieren, in ein System von Dingen, die unabh¨ angig von ihrem Konstrukteur zusammengehalten werden. Im vorliegenden Fall ist der Mechanismus ein Modell , das die Gesellschaft nicht nur durch eine Nomenklatur, sondern auch durch Messungen simuliert. Die Diskussion u ¨ber den Realismus des Objekts bekommt hier einen neuen Aspekt – den Aspekt des Realismus des betreffenden Mechanismus, das heißt des Modells. Der Modellbegriff hat verschiedene Konnotationen, die sich durch deskriptiv“ (vereinfachtes Schema), kausal“ ” ” (Erkl¨ arungskette), normativ“ (zu imitierende Form) oder wahrscheinlich” ” keitstheoretisch“ (hypothetisches System der Verteilungen von Zufallsvariablen) umschreiben lassen. Mehrere dieser Konnotationen traten bereits im Konstrukt von Quesnay auf, das gleichzeitig deskriptiv (Einteilung von Wirtschaftssubjekten und Messung ihres Handelsverkehrs), explikativ (Funktion der Landwirtschaft) und pr¨askriptiv (Befreiung von den Fesseln des Handels und der Industrie) sein wollte. Auf diese Weise entstand der Begriff des empirischen Modells, aber es sollte noch u ¨ber ein Jahrhundert dauern, bis die Werkzeuge zur Pr¨ ufung der Solidit¨at dieses Modells konstruiert wurden. Ob nun staatlich oder privat: die im Frankreich des Ancien R´egime praktizierten Arten der Beschreibung und Kalkulation vertraten – wie von den Zeitgenossen allm¨ahlich wahrgenommen wurde – eine Vielzahl von Positionen, die zwischen den beiden Polen der deutschen und der englischen Tradition angesiedelt waren. So findet man zum Beispiel in den Arbeiten der Physiokraten das systemorientierte Streben der deutschen Richtung und das Streben der englischen Richtung nach quantifizierter Objektivierung wieder. Die wichtigste Tatsache dieses Zeitraums gegen Ende der Monarchie ist jedoch, daß es immer noch eine Trennung gab – eine Trennung zwischen den von der k¨ oniglichen Verwaltung durchgef¨ uhrten Enqueten, die dem eigenen Gebrauch vorbehalten waren, und den Untersuchungen, die außerhalb des Staates durchgef¨ uhrt wurden. Die letztgenannten Untersuchungen waren vom neuen Geist ¨ der Aufkl¨ arung getragen: Zirkulation und Offentlichkeit des Wissens waren nach dieser Auffassung wesentliche Bedingungen f¨ ur den gesellschaftlichen Fortschritt. Die mehr oder weniger m¨ uhelose Verarbeitung dieser Forderung im Staat neuen Typus, der nach 1789 errichtet wurde, stellte demnach ein entscheidendes Moment dar, das nach langem Herumtasten zu einer Neudefinition des Begriffes Statistik f¨ uhrte und dem Wort einen anderen Inhalt gab, auch wenn diese Definition im gesamten 19. Jahrhundert der Gegenstand von Debatten geblieben ist (Armatte, 1991, [5]).
36
1 Pr¨ afekten und Vermessungsingenieure
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs15 ” Der Zeitabschnitt von 1789 bis 1815 war entscheidend f¨ ur die Bildung politischer, kognitiver und administrativer Werkzeuge, die der statistischen Beschreibung der sozialen Welt (im Vergleich zu anderen Beschreibungsarten) und der franz¨ osischen Statistik (im Vergleich zur Statistik anderer L¨ ander) eine eigene Originalit¨at verliehen. Die obengenannten kontr¨ aren Konzepte prallten mitunter hart aufeinander. Die Konfrontationen fanden im Verlauf wohl abgegrenzter Perioden statt, in denen ruckweise auftretende Dringlichkeitsf¨ alle, großangelegte deskriptive Bestrebungen und schließlich fast routinem¨ aßige statistische Reihen aufeinander folgten (Woolf, 1981, [288]). Zwischen 1789 und 1795 konzipierte man Z¨ahlungen und spezielle Enqueten, aber aus ihnen ist nichts geworden, denn sie wurden in Notlagen, Armuts- und Kriegszeiten in die Wege geleitet und es fehlte eine ad¨ aquate Verwaltungsinfrastruktur. Danach organisierte man in den Jahren von 1795 bis 1806 in den neuen Departements Vollerhebungen, deren Geist mit dem der deutschen Statistik vergleichbar war. Und schließlich wurden zwischen 1806 und 1815 regelm¨ aßige quantitative Statistiken eingef¨ uhrt, vor allem Landwirtschafts- und Gewerbestatistiken. ¨ Das Vorhaben der Konstruktion von Aquivalenzen war w¨ ahrend des Vierteljahrhunderts zwischen der Revolution und dem Ersten Kaiserreich besonders spektakul¨ ar. Hierbei handelte es sich sogar um einen der Momente der Weltgeschichte, in dem diese Konstruktion gewollt, durchdacht und systematisch in kurzer Zeit und in Bezug auf viele Fragen umgesetzt wurde: das metrische System und die Vereinheitlichung der Maße und Gewichte (zum Beispiel wurden die L¨angenmaße vereinheitlicht und auf logische Weise durch ihre Relation zum Meter ausgedr¨ uckt); die Verbreitung der franz¨ osischen Sprache und die Reduzierung der Mundarten (durch Armee und Schule); die Universalisierung der Menschenrechte ( Frei und gleich an Rechten werden die ” Menschen geboren und bleiben es“ 16 ); die Abschaffung der Adelsprivilegien und der Z¨ unfte; die Schaffung des B¨ urgerlichen Gesetzbuches (inspiriert durch ein allgemeines nat¨ urliches Menschenrecht, das nicht an eine besondere Gesellschaft gebunden ist) und die Aufteilung des (durch die Abschaffung der Sonderrechte bestimmter Provinzen homogen gemachten) Landesterritoriums in Departements, die identisch organisiert waren und eine vergleichbare Gr¨ oße hatten. Einige dieser Versuche zur Transformation der Bezugsrahmen in Natur und Gesellschaft scheiterten jedoch, wie zum Beispiel der Revolutionskalender, vielleicht weil er – im Unterschied zu anderen Reformen – zu keiner universelleren, rationelleren und o¨konomischeren Kodierung der Zeit gef¨ uhrt hatte. 15 16
Der Begriff Adunation“ geht auf das sp¨ atlateinische Substantiv adunatio“ (Ver” ” einigung) zur¨ uck, das sich vom Verb adunare“ ( zu Einem machen“) ableitet. ” ” Les hommes naissent et demeurent libres et ´egaux en droits“. (Beginn des Ersten ” Artikels der Erkl¨ arung der Menschen- und B¨ urgerrechte.)
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs ”
37
¨ In diesem Fall wurden die Investitionskosten, die zur Anderung des christlichen Kalenders erforderlich waren – einer Form, die das Papsttum bereits seit Jahrhunderten dauerhaft vereinheitlicht hatte – nicht durch nachtr¨ agliche signifikante Einsparungen kompensiert, wie es bei den anderen, erfolgreichen Reformen der Fall war: Hier ist der doppelte Aspekt der Forminvestition erkennbar, n¨ amlich der kognitive und der wirtschaftliche Aspekt. Alle diese metrologischen, juristischen und taxonomischen Konstruktionen hatten das grunds¨atzliche Ziel, physikalische Messungen, Urteilsspr¨ uche und Kodierungen identisch wiederholbar, u ¨bertragbar und generalisierbar zu machen. Dadurch sollten die Konstruktionen eine theoretische Unabh¨ angigkeit von den singul¨ aren und lokalen Umst¨anden erhalten. Man verfolgte damit die Absicht, die Gerechtigkeit in den zwischenmenschlichen Beziehungen ebenso zu gew¨ ahrleisten, wie die Genauigkeit bei der Eichung von Dingen. Die Universalit¨ at und Transparenz des Systems der Maße und Gewichte erm¨ oglichte es also, Betr¨ ugereien beim Warenaustausch zu vermeiden; die administrativen und juristischen Formen der Kodierung waren dagegen unerl¨ aßlich, wenn man den Dingen eine objektive Konsistenz geben wollte, ohne die sie nicht gez¨ ahlt werden konnten: Heiraten, Verbrechen, Selbstmorde und sp¨ ater Betriebe, Arbeitsunf¨ alle und Arbeitslose. Die sichtbarste Manifestierung dieser Homogenisierungs- und Kodierungsarbeit in Bezug auf zahlreiche Aspekte des menschlichen Lebens war die Vereinheitlichung des nationalen Territoriums, denn es wurden viele Dinge und Vorschriften neu definiert und verallgemeinert, die vorher nur auf lokaler Ebene oder auf Provinzebene spezifiziert waren. Diese komplexe, kostenaufwendige und oftmals qu¨alende Arbeit wurde von Siey`es, einem der dabei beteiligten Hauptakteure, als Adunation bezeichnet, womit die gewollte Vereinheitlichung der Bezugssysteme gemeint ist. Ein bedeutendes Ereignis war die Einteilung in Departements, die Ende 1789 von der verfassunggebenden Versammlung innerhalb weniger Monate durchgef¨ uhrt wurde (Ozouf Marignier, 1986, [217]). Das Prinzip bestand darin, ein bereits vereinigtes Ganzes – die Nation – aufzuteilen, und nicht einfach nur die fr¨ uheren Entit¨ aten (das heißt die Provinzen) mit ihren einzelnen Merkmalen zusammenzufassen. Deswegen wurde die Aufteilung auf der Grundlage allgemeiner, von der Versammlung definierter Kriterien durchgef¨ uhrt und nicht auf der Grundlage lokaler Zuf¨ alligkeiten. (Es gab sogar den extremen Plan, f¨ ur die Aufteilung ein durch die L¨ angen- und Breitengrade definiertes quadratisches Gitternetz zu verwenden.) Zu diesen Kriterien geh¨orte, daß die Fl¨achen der Departements von gleicher Gr¨ oßenordnung sein mußten und die Pr¨afekturen so zu errichten waren, daß man sie von einem beliebigen Punkt des jeweiligen Departements in einer Tagesreise erreichen konnte; die Unterpr¨afekturen mußten so gelegen sein, daß man die Hin- und R¨ uckreise an einem Tage bew¨ altigen konnte. Die Namen der Departements wurden von Fluß- oder Bergnamen abgeleitet und man vermied die Bezeichnungen der alten Provinzen. Auf Dr¨ angen der von ihren Regionen entsandten Emiss¨are versuchten die Abgeordneten mitunter, die Wahl gewisser Namen zu beeinflussen. Aber das widersprach dem Grundprinzip, daß sie
38
1 Pr¨ afekten und Vermessungsingenieure
die kollektiv gew¨ ahlten Vertreter der ganzen Nation und nicht Delegierte ihrer Provinz waren. Durch diese nationale Vorschrift waren die Volksvertreter gezwungen, den betreffenden Forderungen zu widerstehen und genau dieser Umstand erm¨ oglichte es u ¨berhaupt erst, die Arbeit innerhalb einer so kurzen Frist durchzuf¨ uhren. Das allgemeine Prinzip bestand darin, tabula rasa mit einer Gesellschaft zu machen, die zuvor durch Privilegien, provinzbezogene Steuergesetzgebungen und lokalen Aberglauben charakterisiert war. Die Departements (im Jahre 1789) und die Pr¨afekten (die 1800 eingesetzt wurden) sollten die Instrumente“ dieser Adunation sein, das heißt der politisch” kognitiven Konstruktion eines gemeinsamen Meßraumes mit der Skala der einen und unteilbaren Nation. Der Vorgang der Adunation wurde durch eine monumentale statistische Erhebung in Gang gesetzt, f¨ ur die exakt die neuen Pr¨ afekten verantwortlich zeichneten. Zwischen 1789 und 1800 durchlebte Frankreich eine Zeit, in der die Bestrebungen zur Neugr¨ undung der Gesellschaft mit ausgepr¨ agten politischen, ¨okonomischen und milit¨arischen Krisensituationen einhergingen. Diese Krisen entfachten das heftige Verlangen, die Gesellschaft in allen ihren Aspekten zu beschreiben, um sie umzugestalten. Deswegen gab es zahlreiche Pl¨ ane f¨ ur Volksz¨ ahlungen und detaillierte Enqueten – insbesondere sollte dem neuen Rahmen der Departements auch ein Inhalt gegeben werden. Die Dringlichkeiten der Krisen f¨ uhrten jedoch dazu, daß die Informationsanforderungen der Zentralregierung in unzusammenh¨angender Aufeinanderfolge am Bestimmungsort eintrafen, kaum kontrolliert wurden und im Allgemeinen folgenlos blieben (Gille, 1964, [108]). uhrte zur Installation einer starDer 18. Brumaire17 (9. November 1799) f¨ ken und autorit¨aren Macht, welche die fr¨ uheren ehrgeizigen Pl¨ ane umsetzte, Gesetze erließ und effiziente Einrichtungen gr¨ undete. Hierzu geh¨ orten das B¨ urgerliche Gesetzbuch ebenso wie Universit¨ aten, Lyzeen, Pr¨ afektorialverwaltungen, statistische Bureaus und Z¨ahlungen. Aber in der Statistik folgten zwei ziemlich unterschiedliche Momente aufeinander, die in einem signifikanten Gegensatz zueinander standen: Erhebungen nach deutschem Vorbild und eingeschr¨ankte, direkt anwendbare Statistiken. Die unterschiedlichen Beschreibungs- und Formalisierungsweisen der sozialen Welt, u ¨ber die gerade erst in philosophischen Zirkeln und außerhalb der k¨ oniglichen Verwaltung debattiert worden war, konnten jetzt von denjenigen mobilisiert werden, die – in erster Linie im Innenministerium – f¨ ur die dringlichsten Bed¨ urfnisse Abhilfe schaffen sollten und gleichzeitig die Grundlagen f¨ ur ein umfassendes Beschreibungsmodell der franz¨osischen Gesellschaft schaffen mußten. Das war bereits bei Fran¸cois de Neufchˆateau der Fall, der als Minister zwischen 1797 und 17
Der brumaire war die historische Bezeichnung des zweiten Monats des republikanischen Kalenders (vom 22.-24. Oktober bis zum 20.-22. November). Journ´ee du 18 Brumaire bezeichnet den 9. November 1799 (Jahr VIII der Republik), der Tag, an dem Bonaparte durch einen Staatsstreich das Direktorium st¨ urzte und den Rat der 500 aufl¨ oste.
Revolution und Erstes Kaiserreich: Die Adunation“ Frankreichs ”
39
1799 regelm¨ aßig an die St¨adte und Departements Rundschreiben verschickte, in denen er Informationen aller Art anforderte. Auf Anforderung der neuen Administration sammelte man also s¨ amtliche Arbeiten, die von lokal ans¨assigen Gelehrten, wissenschaftlichen Gesellschaf¨ ten, Arzten und Philanthropen verfaßt worden waren, die fr¨ uher in allen Winkeln des K¨ onigreiches unkoordiniert wirkten. Der Wissensdurst der sozialen Gruppen, die zwischen 1789 und 1795 die Revolution getragen hatten, wurde auf diese Weise f¨ ur den Staatsdienst requiriert. Diese Gruppen waren es, an die sich Fran¸cois de Neufchˆateau und sp¨ater, nach 1800, Chaptal gewandt hatten. Ein wichtiger Aspekt dieser neuen Art, Statistik zu betreiben, bestand im Unterschied zur Verwaltungsarbeit des Ancien R´egime darin, daß die Statistiken zur Ver¨ offentlichung vorgesehen waren. Der erste, der das tat, war S´ebastien Bottin, der 1799 das Jahrbuch Annuaire politique et ´economique du Bas-Rhin herausgab, bevor er ein Almanach-Unternehmen gr¨ undete, das sp¨ ater von Didot gekauft wurde, dem Herausgeber der unter dem Namen Bottins“ bekannt ” gewordenen Verzeichnisse (Marietti, 1947, [191]). De Neufchˆ ateau begr¨ ußte diese Verzeichnisse als das erste wahrhaft statistische Werk dieser Art, das ” wir in Frankreich haben“ und machte folgende Voraussage: Ich gebe die Hoff” nung nicht auf, daß sein Name mit dieser Art von Werk verbunden sein wird und daß man eines Tages unter dem Begriff bottin eines Departements ein instruktives und vollst¨andiges statistisches Jahrbuch verstehen wird – so wie man im Zusammenhang mit Berechnungstafeln von einem bar`eme 18 spricht.“ Die Einigung der Nation ging einher mit einer umfassenden Verbreitung der Kenntnisse u ¨ber die Regionen, aus denen diese Nation bestand, u ¨ber die neuen landwirtschaftlichen und industriellen Produktionstechniken und u ¨ber ¨ die potentiellen M¨arkte. In dieser Zeit erfolgte der Ubergang der Statistik von – in Verwaltungsarchiven eingeschlossenen – Manuskripten zu Drucksachen, ¨ die prinzipiell f¨ ur eine große Offentlichkeit bestimmt waren. Diese Verschiebung hing mit der Tatsache zusammen, daß der republikanische Staat, der 18
Das franz¨ osische Wort bar`eme bezeichnete zun¨ achst Rechenb¨ ucher und sp¨ ater auch Tabellen. Das Wort bedeutet heute u.a. Berechnungstafel, Tabelle, Tarif und kommt zum Beispiel in der Zusammensetzung bar`eme des salaires“ (Lohntabelle) ” vor. Der Vergleich zwischen bottin und bar`eme ist aufschlußreich. Es handelt sich in beiden F¨ allen um die Bezeichnungen von Standardisierungswerkzeugen. Die Personen, von denen sich diese Bezeichnungen ableiten, sind durch die Launen des ¨ Schicksals in der Anonymit¨ at verschwunden. Uber Fran¸cois Bar`eme (Franciscus Barreme), den franz¨ osischen Adam Ries“, heißt es in dem Werk Fortsetzung ” ” und Erg¨ anzungen zu Christian Gottlieb Joechers allgemeinem Gelehrten-Lexico, worin die Schriftsteller aller Staende nach ihren vornehmsten Lebensumstaenden und Schriften beschrieben werden“ (Leipzig 1784): Ein n¨ utzlicher Rechenmeister ” zu Paris, welcher von Lyon geb¨ urtig war, und 1703 zu Paris starb. Man hat von ihm Les Tarifs et Comptes faits du grand Commerce, Paris 1670; worauf es sehr oft wieder aufgelegt worden“.
40
1 Pr¨ afekten und Vermessungsingenieure
zur ¨ offentlichen Sache ( res publica“ 19 ) geworden war, die ganze Gesellschaft ” repr¨ asentierte – u ¨ber den Umweg der durch Wahlen erfolgenden Vertretung, aber auch durch die Statistik, die zum Spiegel der Nation“ wurde und nicht ” mehr lediglich ein F¨ urstenspiegel“ war. Das Bestreben, der Gesellschaft mit ” Hilfe eines Netzes von Pr¨afekten-Enqueten“ ihr eigenes Spiegelbild vor Augen ” zu halten, war die prim¨are Orientierung des neuen Bureau de statistique de la R´epublique. Dieses Bureau wurde 1800 vom Innenminister Lucien Bonaparte gegr¨ undet, den man bald danach durch Chaptal ersetzte. De Ferri`ere und Peuchet – bis zum Jahre 1805 die beiden obersten Leiter dieses Bureaus – geh¨orten der geisteswissenschaftlichen Kultur an; sie f¨ uhlten sich zur deutschen Statistik hingezogen (die Abhandlung Schl¨ ozers war von Donnant ins Franz¨osische u uck¨bersetzt worden) und verhielten sich zur¨ haltend zur Algebra“ der englischen politischen Arithmetiker. Beide wurden ” jedoch innerhalb des eigenen Bureaus von Duvillard herausgefordert, einem Mathematiker, der auf Sterbetafeln und deren Anwendung zur Berechnung von Leibrenten spezialisiert war. Zwei Kulturen, zwei Erkenntnisweisen und zwei Anforderungskataloge prallten in wechselseitigem Unverst¨ andnis in einer Zeit aufeinander, als die Humanwissenschaften“ noch nicht in voneinander ” abgegrenzte akademische Disziplinen unterteilt waren und die – sich eben erst herausbildenden – Fachsprachen in direkter Konkurrenz zueinander standen.
Peuchet und Duvillard: schreiben oder rechnen? Peuchet f¨ orderte die schriftliche Beschreibung in Form von Tabellen, die eine Schilderung und Einpr¨agung erm¨oglichten, denunzierte aber den reduzierenden Charakter der Tabellen, die man mit Skeletten ohne Substanz vergleichen k¨ onne. Duvillard hingegen erhob Anspruch auf die Pr¨ azision der Zahlen, die man durch Vergleiche u ufen konnte und deren Gesetze sich durch Glei¨berpr¨ chungen darstellen ließen. Es ist interessant, die auf diese Weise typifizierten Diskurse zu lesen – nicht so sehr im Hinblick darauf, wer Recht hatte“, son” dern vielmehr in Bezug auf die innere Konsistenz dieser Diskurse. Dabei ist auch die Untersuchung dessen interessant, mit welchen sozialen und politischen Kr¨ aften sich diese M¨anner liieren wollten, wem sie sagen wollten Seht ” her, wie sehr Ihr mich braucht!“ und welche Argumente sie zu diesem Zweck ins Feld f¨ uhrten. Peuchet ver¨ offentlichte 1805 ein Werk, dessen vollst¨ andiger Titel die dahinter stehende Absicht erkennen l¨aßt: Elementare Statistik Frankreichs, einschließlich der Prinzipien dieser Wissenschaft und ihrer Anwendung auf die Analyse des Reichtums, der Kr¨ afte und der Macht des franz¨ osischen Empire, zur Verwendung durch Personen, die ein Studium der Administration w¨ahlen. Er ließ seinem Namen eine Liste von landwirtschaftlichen Gesellschaften und 19
Der lateinische Begriff res publica“ bedeutet Gemeinwesen, Staatswesen, Staat, ” ” Staatsverwaltung, Staatsgewalt“ (eigentlich ¨ offentliche Sache“). ”
Peuchet und Duvillard: schreiben oder rechnen?
41
Handelsgesellschaften folgen und gab Beispiele f¨ ur politische und administrative Instanzen, denen diese Gesellschaften angeh¨ orten. Das Wort Admini” stration“ hatte f¨ ur ihn eine allgemeine Bedeutung: er verwendete es f¨ ur die Verwaltung ¨ offentlicher oder gesch¨aftlicher Angelegenheiten. Er wandte sich an die betreffenden prominenten Pers¨onlichkeiten, zu deren Kreis er selber geh¨ orte, und bot ihnen einen umfassenden, deskriptiven, leicht zu lesenden und leicht zu merkenden Diskurs u afte und die ¨ber den Reichtum, die Kr¨ ” Macht des Empire“ an. In einem Vorwort u ¨ber die Art, Statistik zu schrei” ben“ hob er die Qualit¨at der schriftlichen Darlegungen hervor, die sich als genehm erweisen ... f¨ ur den franz¨osischen Geist, der stets ungeduldig darauf aus ist, den Zweck einer Arbeit zu kennen und der die Trockenheit der Tabellen nicht ertragen kann, ganz gleich wie exakt diese auch sein m¨ ogen ... Allgemeine Betrachtungen, n¨ utzliche Anwendungen, klare Definitionen und alles, was das Nachdenken durch die Faszination von Diskurs und Diktion aufrecht erh¨alt, all das ist notwendigerweise Bestandteil der franz¨ osischen Bildung. (Peuchet, 1805, [230].) Es hat den Anschein, daß er weder der deutschen Statistik Recht gab (die sich schuldig gemacht hatte, eine Unmenge positiver Informationen oder Be” gr¨ undungen in einem Rahmen zu ersticken, der gar nicht dazu geh¨ ort ..., in Nomenklaturen, die fast keine Anwendungen haben ...“) noch den Berechnungen der Vermessungsingenieure“ und der Algebraiker“ 20 . Jedoch richteten ” ” sich seine Attacken haupts¨achlich gegen die letzteren: Wenn wir die Methode ger¨ ugt haben, welche die Statistik dadurch verf¨ alscht, daß man deren Lehre fremdes oder unn¨ utzes Wissen beimengt und dadurch nur Konfusion verursacht, dann ist es unserer Meinung nach um so mehr berechtigt, diejenigen zur¨ uckzuweisen, die durch enigmatische Formeln, algebraische Berechnungen oder geometrische Figuren etwas pr¨asentieren oder analysieren m¨ ochten, das man viel einfacher auf nat¨ urliche Weise und ohne Ungereimtheiten zum Ausdruck bringen kann ... Diese unsere Bemerkungen treffen um so ¨ mehr zu, weil im Ubrigen aufgekl¨arte Personen im guten Glauben ge¨ dacht haben, daß sie zum Fortschritt der politischen Okonomie und zur St¨ arkung ihrer Grunds¨atze beitragen, wenn sie diese mit algebraischen Rechnungen geh¨orig aufplustern. Dabei l¨ aßt sich unm¨ oglich erfassen, wie sich die Berechnungen auf diese von sich aus komplizierte Wissenschaft anwenden lassen – eine Wissenschaft, die man tunlichst nicht noch obskurer machen sollte, indem man obendrein noch Schwierigkeiten und metaphysische Abstraktionen einbaut ... (Peuchet, 1805, [230].) 20
Mit den Algebraikern“ sind hier die (politischen) Arithmetiker gemeint, die mit ” Zahlen hantierten“. ”
42
1 Pr¨ afekten und Vermessungsingenieure
Man k¨ onnte vermuten, daß Peuchet mit den Methoden der Arithmetiker nur wenig vertraut war und sich bei diesen Methoden auch nicht besonders wohl f¨ uhlte. Wichtig ist jedoch, daß er seinem Publikum, das er gut kannte, einen lesbaren und einpr¨agsamen Diskurs anbot, dessen Teile in ihrer Darstellung durch einen roten Faden zusammengehalten wurden und auf einem vereinheitlichenden Plan aufbauten, n¨amlich auf der Analyse der Macht des Em” pire“ durch eine sukzessive Beschreibung des Territoriums, der Bev¨ olkerung, der Landwirtschaft, der Industrie, des Handels, der Schifffahrt, des Staatshaushalts und der Armee. Ansonsten versagte er es sich nicht, ausf¨ uhrlichen Gebrauch von den Werken der Algebraiker“ zu machen, die er an anderer ” Stelle denunzierte. Aber er hatte diese Werke gr¨ undlich studiert. Zum Beispiel erw¨ ahnte er eine Ermittlung des Gesamtverbrauchs auf der Grundlage ” des gesch¨ atzten Verbrauchs eines jeden Individuums“ und verglich die drei Rechenverfahren, die f¨ ur die Algebraiker typisch waren. Peuchets vehemente Ausf¨ alle gegen die Algebraiker k¨onnen dahingehend aufgefaßt werden, daß er vor sein Publikum trat und dessen vermutete Zur¨ uckhaltung gegen¨ uber den trockenen Tabellen“ zum Ausdruck bringen wollte. Er spielte demnach eher ” ¨ die Rolle eines Vermittlers und Ubersetzers (Callon, 1989, [42]) zwischen den Formalisierungen der Arithmetiker und den Fragen, die sich die Administra” toren“ stellten. Die heftigen Seitenhiebe auf die Arithmetiker waren jedoch ohne Zweifel ungeschickt und verhinderten die Formierung einer Allianz mit ihnen. Als schließlich Peuchets Lager zu den Verlierern geh¨ orte, mußte De Ferri`ere das Statistische Bureau im Januar 1806 verlassen. Duvillard, der ihn anschließend f¨ ur einige Zeit ersetzte, verfolgte eine ganz andere Strategie. Von der Ausbildung her war er Mathematiker und er arbeitete vor 1789 beim Allgemeinen Buchpr¨ ufungsamt und beim Schatzamt. Er hatte Sterbetafeln aufgestellt (die von den Versicherungsgesellschaften noch bis zum Jahre 1880 verwendet wurden) und war Spezialist f¨ ur die Anwendung dieser Tafeln auf Probleme der Zahlung von Leibrenten, f¨ ur die Berechnung von Altersruhegeldern und f¨ ur die Tilgung der Staatsverschuldung geworden. Im Jahre 1791 wurde Duvillard zum Direktor des Bureau d’arithm´etique politique ernannt, das von der verfassunggebenden Versammlung auf Veranlassung von Condorcet und Lavoisier gegr¨ undet worden war. W¨ ahrend der gesamten Zeit der Revolution und des Konsulats hatte er bei zahlreichen Gelegenheiten unter Beweis stellen k¨onnen, daß seine Techniken bei der L¨ osung von Problemen des Schatzamtes unentbehrlich waren. Im Jahre 1805 wurde Duvillard von De G´erando, dem Staatssekret¨ ar des Innenministeriums, zum stellvertretenden Leiter des Statistischen Bureaus berufen. De G´erando erteilte Duvillard die Aufgabe, die von De Ferri`ere und dessen Untergebenen durchgef¨ uhrte Arbeit zu beurteilen. Duvillard nahm Anstoß an dem, was ihm als vollst¨ andiger Mangel an Strenge bei der Kompilation der Tabellen erschien – vor allem bem¨angelte er, daß diese Tabellen auf der Grundlage der unvollst¨ andigen und unzusammenh¨angenden Antworten erstellt worden waren, die in den im Jahre 1800 durchgef¨ uhrten Pr¨afekten-Enqueten auftraten. Er gab seiner Entr¨ ustung am 13. Januar 1806 in einer Denkschrift zur Arbeit des ”
Peuchet und Duvillard: schreiben oder rechnen?
43
Statistischen Bureaus“ (M´emoire sur le travail du Bureau de statistique) Ausdruck. De Ferri`ere hatte das Bureau zwar verlassen, aber es gelang Duvillard nicht, die Stelle zu bekommen. Im April 1806 wurde Coquebert de Montbret berufen, ein besonnener und realistischer Verwaltungsbeamter. Im November verfaßte Duvillard eine Denkschrift zur Wiedereinrichtung der Stelle eines ” Vermessungsingenieurs und Kalkulators“ , in der er seine Karriere und die von ihm durchgef¨ uhrten Dienstleistungen beschrieb; obendrein ¨ außerte er den Wunsch, daß seine eigene Kompetenz durch die Gr¨ undung eines speziellen, von ihm selbst geleiteten Bureaus institutionalisiert werden solle. Er schloß beide Denkschriften, indem er sich als mittelloser Familienvater“ vorstellte ” und die Anerkennung seiner Talente einforderte (Reinhart, 1965, [244]; Perrot, 1977, [226]). In seiner Denkschrift vom Januar erkl¨arte Duvillard pr¨ azise, was seiner Meinung nach die Aufgabe eines statistischen Bureaus sei. Zun¨ achst bemerkte er, daß niemand daran gedacht habe, die Konsistenz von Objekten dadurch zu pr¨ ufen, daß man sie miteinander vergleicht: Niemand in diesem Bureau hat offenbar geahnt, daß man die Fakten dazu verwenden kann, sie durch diese selbigen Fakten zu pr¨ ufen. Jedoch stehen s¨amtliche Fakten in wesentlichen und notwendigen Be¨ ziehungen zueinander. Dieselben Gr¨ unde, die zur Anderung gewisser ¨ Fakten f¨ uhren, verursachen auch bei den anderen Fakten Anderungen. Sieht man sich ihre Beziehungen aufmerksam an, dann kann man diese und ihre Gesetze h¨aufig durch Gleichungen darstellen. (Duvillard, 1806, [80].) Er gab hiernach eine konkrete Beschreibung der betr¨ achtlichen Investitionen, die f¨ ur eine noch kaum routinierte Administration zur Konstruktion von ¨ Aquivalenzen erforderlich w¨are, welche a priori gar nicht existierten. Zu diesen Investitionen geh¨orte der immense Briefwechsel mit den Pr¨ afekten und die bei der mechanischen Arbeit des Bureaus erforderliche Sorgfalt: ... Die Hauptobliegenheit des Leiters dieses Bureaus h¨ atte darin bestanden: die von den Pr¨afekten u ¨bermittelten Zusammenstellungen aufmerksam zu untersuchen, zu diskutieren und zu vergleichen; die Fakten zu pr¨ ufen und den Pr¨afekten die Bemerkungen mitzuteilen, die sie h¨ atten machen sollen; die Pr¨afekten aufzufordern, neue Bemerkungen zu machen und nach den Ursachen von Ergebnissen zu suchen, die absurd oder außergew¨ohnlich zu sein scheinen. Nun war diese Funktion nicht nur nicht erf¨ ullt worden, sondern auch die Form der Zusammenstellungen, in denen die Fakten abgefragt wurden, erwies sich als mangelhaft: die vielen Fehler durch Weglassungen sowie Additionsfehler in den unvollst¨andigen und gedruckten Tabellen zum Status der Manufakturen, der Bev¨olkerung und der Bev¨ olkerungsbewegung machen diese Tabellen zu einem nutzlosen Werkzeug und zei-
44
1 Pr¨ afekten und Vermessungsingenieure
gen, daß die mechanische Arbeit des Bureaus nicht mit hinreichender Sorgfalt durchgef¨ uhrt worden ist. (Duvillard, 1806, [80].) Danach stellte er fest, daß die Pr¨afekten nur dann strikte Antworten geben k¨onnen, wenn die Administration gewisse Register f¨ uhrt“, das heißt wenn es ” eine vorher existierende Form der Aufzeichnung und der Kodierung gibt, deren Prototyp der Personenstand ist. Fehlen diese Aufzeichnungen, dann m¨ ussen ¨ die Statistiker auf Umwegen vorgehen und auf Uberlegungen und Rechnungen zur¨ uckgreifen (hierbei handelt es sich um die Art Algebra, die Peuchet zwar denunziert hatte, selbst jedoch benutzte): Man kann von den Pr¨afekten nur erwarten, daß sie ein exaktes Faktenwissen haben und daß diese Fakten von den ¨ offentlichen und speziellen Verwaltungen aufgezeichnet werden. Es gibt eine Menge anderer wichtiger Fakten und es wird immer schwierig sein, diese vollst¨ andig mit Hilfe von Beobachtungen zu kennen. Beispiele hierf¨ ur sind: die Dauer von Ehen oder Witwenschaften, der Bestand an beweglichen G¨ utern, Industrieprodukten, Rohstoffen und bearbeiteten Materialien sowie die entsprechenden Kenntnisse, die sich auf die Bestimmung dieser Produkte beziehen. Aber h¨aufig l¨aßt sich mit Hilfe der erforderlichen Daten das, was nicht unmittelbar gez¨ ahlt oder gemessen ¨ werden kann, durch Uberlegung, Rechnung und durch eine methodische Kombination der Fakten herausfinden. Hierf¨ ur gibt es in den physikalisch-mathematischen Wissenschaften so manche Beispiele ... (Duvillard, 1806, [80].) Zum Schluß antwortete Duvillard Punkt f¨ ur Punkt auf Peuchets Kritik an den trockenen Tabellen“. Dabei betonte Duvillard, daß diese Form Verglei” ” che und theoretische Vorstellungen f¨ordert“ und gleichzeitig ¨ außerte er sich ironisch u uhrerischen Glanz eines eleganten ¨ber Menschen, die durch den verf¨ ” Stils“ in Erscheinung treten: Isolierte Fakten, die man lediglich im Rahmen einer Zusammenfassung erh¨ alt und die einer weiteren Erl¨auterung bed¨ urfen, k¨ onnen nur in Denkschriften vorgelegt werden; aber diejenigen Fakten, die massenhaft und mit Detailangaben vorgelegt werden k¨ onnen und auf deren Genauigkeit man sich verlassen kann, m¨ ussen in Tabellen angegeben werden. Diese Form, welche die Fakten deutlich hervorhebt, erleichtert Vergleiche, das Erkennen von Beziehungen und theoretische Vorstellungen. Aber zu diesem Zweck sollte man Register f¨ uhren, wie ich es in Bezug auf die Bev¨olkerung getan habe und genau das ist noch nicht geschehen ... ... In einem Land, in dem man mit Zusammenfassungen lebt und sich die Menschen mehr mit der Form als mit dem Grund der Dinge besch¨ aftigen (denn Wissen f¨ uhrt nur selten zu Verm¨ ogen), mangelt es nicht an Menschen mit dem verf¨ uhrerischen Glanz eines eleganten
Peuchet und Duvillard: schreiben oder rechnen?
45
Stils. Die Erfahrung lehrt jedoch, daß es f¨ ur eine gute Statistik nicht ausreicht, Pl¨ ane, Zusammenfassungen und Zusammenstellungen machen zu k¨ onnen ... Wie intelligent auch immer jemand sein mag – es ist f¨ ur den Betreffenden unm¨oglich, eine Wissenschaft zu improvisieren, die Vorstudien und eine fast lebenslange Besch¨ aftigung erfordert: be¨ trachtet man den Umfang an Wissen in Okonomie, politischer Arithmetik, hervorragender Mathematik und Statistik sowie das Maß an Scharfsinn, Talent und Genius in Kombination mit dem f¨ ur eine solche Position erforderlichen Ordnungssinn und Beharrungsverm¨ ogen, dann hat es den Anschein, daß diese Position hinsichtlich der N¨ utzlichkeit und Schwierigkeit nicht allzuweit u ahigkeiten der¨ber den F¨ jenigen Menschen liegt, die sich durch ihre Schriften in besonderer Weise auszeichnen. (Duvillard, 1806, [80].) Diese beiden M¨anner waren demnach weit komplexer, als es die stereotypen Bilder nahelegen, welche die beiden von sich selbst zeichneten. Peuchet verwendete die von den Algebraikern erzielten Ergebnisse, wenn sie f¨ ur ihn n¨ utzlich waren. Duvillard konnte gut schreiben und seinem Stil mangelte es weder an Bissigkeit noch an Humor; hierauf deutet im obigen Zitat die Wendung durch ihre Schriften“ in einem Satz hin, der offensichtlich auf Peuchet ” gem¨ unzt ist. Wenn einer von ihnen dem anderen seine trockenen Tabellen“ ” und undurchsichtigen Berechnungen“ vorwirft und dann im Gegenzug f¨ ur ” den verf¨ uhrerischen Glanz seines eleganten Stils“ verspottet wird, dann kann ” man – jenseits des klassischen Gegensatzes zwischen literarischer und wissenschaftlicher Kultur – zwei periodisch wiederkehrende Methoden herauslesen, mit denen die Statistiker versuchen, ihre Existenzberechtigung nachzuweisen. In dem einen Fall besteht das Ziel darin, eine einfache und einpr¨ agsame Botschaft zu vermitteln, um schl¨ usselfertig verwendbare Dinge zu produzieren, auf denen sich Konstrukte einer anderen rhetorischen Natur – zum Beispiel politischer oder administrativer Natur – aufbauen lassen: Peuchets Bemerkung u ¨ber den Reichtum, die Kr¨afte und die Macht des Empire“ war von ” dieser Art. Im anderen Fall liegt die Betonung jedoch auf Technizit¨ at und Professionalit¨ at, die zur Produktion und Interpretation von Ergebnissen f¨ uhren, die weder unentgeltlich noch transparent sind. Im Laufe der Zeit artikulierten sich diese beiden Diskurse in kultivierterer Form und die Konfrontation lief weniger r¨ ude ab, als der Gegensatz zwischen Peuchet und Duvillard. Jedoch war diese Grundspannung ein inh¨arentes Merkmal der eigentlichen Situation der Bureaus f¨ ur Verwaltungsstatistik, deren Glaubw¨ urdigkeit sowohl von der Sichtbarkeit als auch von der Technizit¨at dieser Bureaus abhing. Die Art und Weise, in der man an diese Doppelanforderung in Abh¨ angigkeit von der jeweiligen Zeitepoche und dem betreffenden Land heranging, zieht sich – ebenso wie die Art und Weise der R¨ ucktransformierung dieser Doppelanforderung – wie ein roter Faden durch die Geschichte dieser Bureaus. Im Falle des napoleonischen Statistischen Bureaus des Jahres 1806 verteidigten beide Protagonisten ihre Standpunkte in einer allzu radikalen Wei-
46
1 Pr¨ afekten und Vermessungsingenieure
se und keiner von ihnen konnte sich durchsetzen. Leiter des Bureaus wurde vielmehr Coquebert de Montbret, ein hoher Beamter, der den unmittelbaren Bed¨ urfnissen der Verwaltung nahestand. Die o¨konomischen Folgen der Kontinentalsperre gegen England f¨ uhrten zu einem Notstand und alle Anstrengungen waren darauf ausgerichtet, landwirtschaftliche und gewerbliche Produktionsreihen aufzustellen. Das Statistische Bureau wurde 1812 geschlossen – vielleicht deswegen, weil es ihm nicht gelungen war, innerhalb der ¨ außerst kurz gesetzten Fristen der Forderung Napoleons nach detaillierten Informationen zur Gesamtheit des Produktionsapparates nachzukommen (Woolf, 1981, [288]). Von dieser Zeit blieben zum einen die Denkschriften der Pr¨ afekten“ ” erhalten, die in Antwort auf Chaptals Enquete von 1800 verfaßt wurden und deren Ver¨ offentlichung 1806 eingestellt worden war. Zum anderen blieb auch ein Versuch erhalten, wirtschaftsstatistische Reihen aufzustellen, aber auch dieser Versuch wurde abgebrochen (Gille, 1964, [108]).
Wie man Diversit¨ at durchdenkt Die von den Pr¨ afekten in Antwort auf Chaptals Fragebogen verfaßten Departement-Denkschriften wurden vom Statistischen Bureau bis zum Jahre 1806 gesammelt und ver¨offentlicht. Private Verleger druckten sp¨ ater, bis zum Jahre 1830, weitere Denkschriften. Die Historiker hielten diese Unterlagen lange Zeit f¨ ur heteroklitische und unvollst¨andige Dokumente, vor allem aber f¨ ur unbrauchbar als Quelle numerischer Daten. Das trifft f¨ ur die quantitative Wirtschafts- und Sozialgeschichte zu, die sich zwischen 1930 und 1960 im Anschluß an die Arbeiten von Simiand und Labrousse entwickelte. F¨ ur diese Historiker setzte die Konstruktion von konsistenten statistischen Reihen – zum Beispiel in Bezug auf die amtlichen Marktpreislisten und die Erzeugung landwirtschaftlicher Produkte – voraus, daß strikte pr¨ aexistente Bedingungen erf¨ ullt sind: daß n¨amlich die Registrierungsmodalit¨ aten zeitlich und r¨ aumlich konstant bleiben und auch die Identit¨at der registrierten Objekte erhalten bleibt. Die Aufgabe der Quellenkritik besteht genau darin, diese Bedingungen zu u ufen oder vielmehr vorauszusetzen, daß die Objekte und die ¨berpr¨ Umst¨ ande, unter denen sie registriert wurden, hinreichend a ur ¨quivalent daf¨ sind, daß sich deren Reduktion auf ein und dieselbe Klasse als relevant erweist. Die Reduktion erfolgt auf der Grundlage einer Debatte u ¨ber den Zu¨ sammenhang zwischen hinreichender Aquivalenz und Relevanz. Diese Frage ist von grundlegender Wichtigkeit bei der Konstruktion von langen statistischen Reihen in Bezug auf Berufe oder Wirtschaftssektoren. Die Frage ist auch wichtig, wenn Daten zu den Regionen eines Staates gesammelt werden und wenn die Registrierungsbedingungen nicht eindeutig kodifiziert worden sind. Das war genau die Kritik, die Duvillard gegen¨ uber seinen Vorg¨ angern ¨ außerte, obschon er einr¨aumte, daß die Pr¨afekten nur von denjenigen Fakten eine ” exakte Kenntnis haben k¨onnen, die von den Verwaltungen registriert worden sind“.
Wie man Diversit¨ at durchdenkt
47
Aber die Bedeutung der Denkschriften der Pr¨ afekten ¨ andert sich, wenn man das eigentliche Vorhaben der Adunation zum Thema der historischen Forschung w¨ ahlt und dabei beachtet, daß es sich um einen der wichtigsten Aspekte der Franz¨ osischen Revolution handelt, einen Aspekt, dessen Konsequenzen sich – unabh¨ angig vom Urteil, das man u allt – als ¨ber ein derartiges Projekt f¨ ¨außerst nachhaltig erweisen. Aus dieser Sicht erscheint Chaptals Enquete als enormer Kraftakt zur Beschreibung der Diversit¨ at Frankreichs im Jahre 1800. Der Umfang dieser Aufgabe l¨aßt erahnen, welche Anforderungen die Adunation stellte. Die Sicht der Pr¨afekten auf ihre Departements liefert nicht nur genaue Informationen u ¨ber die jeweiligen Departements selbst, sondern zeigt auch und vor allem, wie sich die Akteure dieses Vorhaben vorstellten, wie sie die Diversit¨ at Frankreichs und die m¨oglichen Hindernisse wahrgenommen haben, die sich diesem politischen und kognitiven Unternehmen in den Weg stellten. Die einschl¨agigen Dokumente, die im Buch von Marie-No¨elle Bourguet (1988, [27]) analysiert werden, stellen f¨ ur den Historiker ein einzigartiges Material dar. Die Enquete l¨aßt sich auf mehrere Weisen interpretieren. Erstens: Wie war die Situation Frankreichs im Jahre 1801? In einer Art Reisebeschreibung bringt die Enquete eine Vielzahl von Beobachtungen, die mehr von ethnologischem als von statistischem Interesse – im modernen Sinne des Begriffes – sind. Zweitens: Wie wurde diese Situation gesehen? Wie w¨ ahlte man die angeblich relevanten Merkmale aus? Drittens: Welche Hindernisse wurden wahrgenommen, die sich dem politischen Plan der Transformation und der Einigung des Territoriums in den Weg stellten? Die Widerst¨ ande, auf die dieser Plan stieß, enth¨ ullen gesellschaftliche Aspekte, f¨ ur deren explizite Formulierung es zuvor keinen Grund gegeben hatte. Jetzt aber wollte man aktiv auf die Dinge einwirken und genau deswegen war es erforderlich geworden, die Dinge beim ¨ Namen zu nennen und zu beschreiben. Genauer gesagt: der Ubergang vom vorrevolution¨ aren zum nachrevolution¨aren Frankreich implizierte nicht nur eine ¨ ¨ Anderung des Territoriums, sondern auch eine Anderung der Begriffe und der Werkzeuge zur Beschreibung dieses Territoriums. Ein u ¨berraschender Aspekt der von den Pr¨ afekten verfaßten Denkschriften war der Zusammenprall konkurrierender Analyseschemata, die unter ihrer Feder hervorstr¨ omten und sich miteinander vermengten. Wir nennen zwei F¨alle, die f¨ ur diese taxonomische Konfusion exemplarisch sind: Wie war die Aufteilung der sozialen Gruppen und deren Ordnung zu konzipieren? Wie ließ sich die Homogenit¨ at oder die innere Heterogenit¨at dieser Gruppen einsch¨atzen? Zur Beschreibung der sozialen Gruppen standen drei sehr unterschiedliche Schemata zur Verf¨ ugung. Das erste Schema war eine Hinterlassenschaft des Frankreichs der Vergangenheit und wurde 1789 vermutlich vollst¨ andig abandegesellschaft war vergeschafft: Adel, Klerus und Dritter Stand.21 Die St¨ 21
Die Geistlichkeit war der Erste, der Adel der Zweite Stand in der feudalen franz¨ osischen Monarchie. Die Basis beider St¨ ande bildete der feudale Grundbesitz. Ihre Angeh¨ origen genossen die verschiedensten Privilegien. Den Dritten
48
1 Pr¨ afekten und Vermessungsingenieure
schwunden und wurde durch eine egalit¨are Gesellschaft ersetzt, in der die ” Menschen frei und gleich an Rechten geboren werden und es bleiben“. Das neue amtliche Schema beruhte auf dem Eigentum und der Einkommensquelle. Der Verkauf des verstaatlichten Eigentums und die Aufteilung des Landes unter zahlreichen neuen Eigent¨ umern verlieh dieser Gruppe eine große Bedeutung. Die Unterscheidung zwischen Grundst¨ uckseigent¨ umern“ und allen ” anderen bildete das wesentliche Kriterium des Schemas im Rundschreiben vom 19. Germinal22 des Jahres IX (9. April 1801). In diesem Rundschreiben schickte Chaptal den Pr¨afekten den Fragebogen zu, den sie ausf¨ ullen mußten. Die Pr¨ afekten hatten dabei den zahlenm¨aßigen Umfang der nachfolgenden Personengruppen anzugeben: 1. 2. 3. 4. 5. 6. 7.
Grundst¨ uckseigent¨ umer; Personen, die ausschließlich von den Ertr¨agen ihrer Grundst¨ ucke leben; Personen, die ausschließlich von Geldeinkommen leben; Vom Staat besch¨aftigte oder bezahlte Personen; Personen, die von ihrer mechanischen oder gewerblichen Arbeit leben; Ungelernte Arbeiter oder Gelegenheitsarbeiter; Bettler.
Dieses zweite Schema, das also in Form eines Verwaltungsrundschreibens ver¨ offentlicht wurde, verlieh den Gruppen Konsistenz auf der Grundlage eines eindeutig objektivierten Kriteriums, des Kriteriums der Einkommensquelle. Es stellte die Grundst¨ uckseigent¨ umer an den Anfang der Liste, danach folgten die Rentiers und die Beamten. Dagegen wurde die im modernen Sinn als Lohnempf¨ anger bezeichnete Gruppe damals noch nicht als eigenst¨ andige Gruppe angesehen, denn in Kategorie 5 waren – in der Terminologie der Z¨ unfte – Gesellen (compagnons) und Meister (maˆıtres) zusammengefaßt. Die zuk¨ unftige Arbeiterklasse war noch weniger erkennbar, da Facharbeiter in Kategorie 5 und ungelernte Arbeiter in Kategorie 6 eingeordnet waren.23 Aber aus den Kommentaren der Pr¨afekten zu den sozialen Unterschieden zwischen den Bev¨olkerungsgruppen ihrer Departements geht hervor, daß dieses Schema f¨ ur sie – die Pr¨afekten – einen ziemlichen Nachteil hatte: es machte keinen Unterschied zwischen aufgekl¨arten Personen und dem Volk. Mit auf” gekl¨ arten Personen“ war hier die kultivierte Stadtbev¨ olkerung mit ihren gemeinsamen Lebensgewohnheiten und Interessen gemeint, durch die sie sich ziemlich deutlich vom Volk unterschied. Das dritte Schema kam demgem¨ aß in den Beschreibungen der Lebensweisen zum Ausdruck – es ließ sich aber nur
22 23
Stand bildeten alle nichtprivilegierten Klassen und Schichten. Als Generalst¨ ande bezeichnete man die Versammlung der drei St¨ ande im K¨ onigreich Frankreich. Der germinal war der siebente Monat (vom 21./22.M¨ arz bis zum 19./20.April) des republikanischen Kalenders. Erst nach 1830 begann man, diese beiden Gruppen als eine einzige Klasse aufzufassen, die durch die K¨ ampfe der Arbeiterbewegung miteinander vereint sind (Sewell, 1983, [257]).
Wie man Diversit¨ at durchdenkt
49
schwer objektivieren und die entsprechenden Grenzen konnten immer nur vage angegeben werden. Der Widerspruch zwischen den beiden letztgenannten Schemata wurde ebenfalls angesprochen. Bestimmte Grundst¨ uckseigent¨ umer (insbesondere auf dem Land) waren nicht sehr zivilisiert“ (und sie waren ” ¨ mitunter ziemlich arm). Andererseits waren Personen mit Talent“ (Arzte, ” Lehrer) oft keine Grundst¨ uckseigent¨ umer. Dieser Unterscheidung zwischen aufgekl¨arten Personen und dem gew¨ ohnlichen Volk entsprach eine signifikante Unschl¨ ussigkeit bei der Analyse der inneren Heterogenit¨ at der beiden Gruppen: Welche dieser großen Gruppen war die homogenere? Oder besser gesagt: Wie ließ sich diese Homogenit¨ at sch¨ atzen? Die Mehrdeutigkeit der auf diese Frage gegebenen Antworten spiegelte die ¨ zahlreichen M¨ oglichkeiten wider, Aquivalenzen aufzustellen. In einigen F¨ allen wurden die aufgekl¨arten Eliten als u ubrigte sich, ¨berall gleich dargestellt: Es er¨ sie im Detail zu beschreiben, da ihre zivilisierten Lebensgewohnheiten durch ein und dieselben Anspr¨ uche vereinheitlicht worden waren (Prozeß der Zivilisierung der Lebensgewohnheiten, vgl. Elias, 1973, [84]). Im Gegensatz zu diesen Eliten war die Lebensweise des Volkes in eine Vielzahl von lokalen Sitten und Gebr¨ auchen aufgesplittert, die sich durch Mundarten, Feste und Rituale auszeichneten und nicht nur von Region zu Region, sondern sogar von einer Kirchengemeinde zur anderen unterschiedlich waren. Jedoch interpretierten die Pr¨afekten in anderen F¨allen die Realit¨ at ihrer Departements auf entgegengesetzte Weise: Nur gebildete Menschen konnten eine markante Pers¨ onlichkeit haben und eine individuelle Lebensweise f¨ uhren, w¨ ahrend die Leute aus dem Volk als Gruppe in einer großen Masse definiert wurden und alle gleich waren. Dennoch erscheinen diese Interpretationen weniger widerspr¨ uchlich, wenn wir – unter erneuter Verwendung der Terminologie von Dumont (1983) – beachten, daß die gew¨ohnlichen Menschen in beiden F¨ allen entsprechend einem holistischen Schema auf der Grundlage der Gemeinschaft beschrieben wurden, der sie angeh¨ orten. Im Gegensatz hierzu beschrieb man die Eliten gem¨ aß einem individualistischen Schema, das die Personen von ihrer Gruppe abstrahierte und sie theoretisch gleich machte: das also ist das Individuum der Deklaration der Menschenrechte und der modernen urbanen Gesellschaft. In dieser individualistischen Vorstellung sind die Menschen voneinander verschieden, weil sie frei sind, und alle Menschen sind gleich, weil sie vor dem Gesetz gleich sind. Der Gegensatz zwischen holistischer und individualistischer Interpretation ist ein klassisches Schema der Soziologie, wie man es zum Beispiel bei T¨onnies findet, der zwischen Gemeinschaft und Gesellschaft unterscheidet. Diese Unterscheidung ist vom Standpunkt der Geschichte der statistischen Objektivierung interessant, denn man findet dementsprechend zwei Linien der Nutzung und Interpretation von Sozialstatistiken. Die erste Linie erstreckt sich von Quetelet und Durkheim bis hin zu einem Teil der modernen Makrosoziologie. Die Vertreter dieser Linie diskutieren u ¨ber Gruppen, die als mit kollektiven Eigenschaften ausgestattete Gesamtheiten aufgefaßt und von der Statistik mit Hilfe von Mittelwerten beschrieben werden. Die zweite Linie, die
50
1 Pr¨ afekten und Vermessungsingenieure
sich mit der Beschreibung der Verteilungen individueller Merkmale befaßt, geht von Galton und Pearson bis hin zu anderen zeitgen¨ ossischen Str¨ omungen. Diese Linie weigert sich, irgendeiner Gruppe einen Status einzur¨ aumen, der sich vom Status der Vereinigung derjenigen Individuen unterscheidet, aus denen die betreffende Gruppe besteht. Die Pr¨ afekten schwankten in ihren Antworten st¨ andig zwischen den verschiedenen Methoden der Wissenserfassung hin und her (Auswertung von Archiven, schriftliche Frageb¨ogen, direkte Beobachtungen). Das Zirkular schrieb ihnen bald quantitative Antworten (Bev¨olkerung, Berufe, Preise, Ausr¨ ustung, Produktion), bald verbale Beschreibungen (Religionen, Br¨ auche, Lebensweisen) vor. Die Pr¨ afekten schwankten auch zwischen verschiedenen analytischen Schemata. In allen genannten Aspekten ist diese Enquete abschreckend f¨ ur Historiker und Statistiker, die darauf bedacht sind, mit zuverl¨ assigen Daten zu arbeiten. Aber wir m¨ ussen uns der Tatsache bewußt sein, daß die Produktion von zuverl¨ assigen Daten mit der Forderung einhergeht, daß das beschriebene Land bereits aduniert“ (das heißt vereinheitlicht) ist und u ¨ber Codes zur ” Registrierung und Verbreitung von elementaren und standardisierten Fakten verf¨ ugt. Das A-posteriori-Interesse an einer derartigen Enquete besteht darin, aufzuzeigen, wie sich die Dinge entwickeln, bevor sie sich verfestigen – wobei dieser Verfestigungsprozeß niemals abgeschlossen ist. Ein Indiz f¨ ur eine weitere Entwicklung ist, daß im 19. und 20. Jahrhundert der territoriale Aspekt allm¨ ahlich seine Wichtigkeit f¨ ur die nationale Statistik verloren hat, denn diese beruhte nicht mehr auf den Totalisierungen der einzelnen Departements, sondern auf Totalisierungen anderer Art. Auch der Pr¨ afekt war nun nicht mehr ein Mann, der sein Departement im Namen einer zentralen, teilweise noch virtuellen Beh¨orde erkundete; er wurde vielmehr zu einer Person, die administrative Maßnahmen einleitete – Maßnahmen, die von einer nunmehr fest verankerten Beh¨orde formuliert wurden und auf statistischen Messungen beruhten, die durch die Einigung des Landes m¨ oglich geworden waren.
2 Richter und Astronomen1
Die Wahrscheinlichkeitsrechnung – als Verfahren, mit dem die Rationalit¨ at von Entscheidungen in Situationen der Ungewißheit begr¨ undet werden soll – erblickte in einem exakt eingrenzbaren Zeitabschnitt zwischen 1650 und 1660 das Licht der Welt. Ian Hacking (1975, [117]), der das Auftauchen“ ” (emergence) der Wahrscheinlichkeitsrechnung beschreibt, hebt die anf¨ angliche Dualit¨ at dieses Werkzeugs hervor, das gleichzeitig pr¨ askriptiv und deskriptiv, epistemisch und frequentistisch war. Dabei vergleicht er die Begriffe Glaubens¨ grund und Zufall . Uberlegungen zu dieser Dualit¨ at finden wir bei Condorcet, der zwischen Glaubensgrund“ 2 und Fazilit¨at“ unterscheidet, bei Cournot, ” ” der von Chance“ und von Wahrscheinlichkeit“ spricht, und bei Carnap, der ” ” die induktive Wahrscheinlichkeit“ der statistischen Wahrscheinlichkeit“ ge” ” gen¨ uberstellt. Die Pr¨ adominanz der einen oder der anderen Interpretation wird h¨ aufig aus historischer Sicht dargestellt. Demnach scheint der Entscheidungsaspekt ¨ der Wahrscheinlichkeitsrechnung“) im 18. Jahrhundert (der klassischen Ara ” sehr wichtig gewesen zu sein, vor allem im Zusammenhang mit den Verfahren, die sich aus dem Satz von Bayes ergeben: Bayes schlug vor, in die Berechnungen eine unvollst¨andige Information u uhere Ereignisse einzu¨ber fr¨ beziehen, wobei sein Ziel darin bestand, die Wahrscheinlichkeit statistischer Methoden zu messen. Diese Verfahrensweisen wurden in der Folgezeit im 19. Jahrhundert vom frequentistischen Standpunkt aus angefochten. Die Verfech1
2
Dieses Kapitel zur Genese der wahrscheinlichkeitstheoretischen Argumentation und deren Anwendung in den Naturwissenschaften ist etwas schwierig f¨ ur Leser mit rein geisteswissenschaftlicher Bildung. F¨ ur die Lekt¨ ure der hiernach folgenden Kapitel ist jedoch kein vollst¨ andiges Verst¨ andnis dieses Kapitels erforderlich. Condorcet stellte durch folgende Bemerkung eine Verbindung zwischen Wahrscheinlichkeit und Glauben her: Je gr¨ oßer die Wahrscheinlichkeit eines Ereignisses ist, desto fundierter ist der Grund unseres Glaubens ( motif de croire“) daran, ” daß das Ereignis eintritt. Dale (1991, [360]) u ¨bersetzt den Begriff durch reason ” ¨ for belief“ ins Englische; im Deutschen findet man auch die Ubersetzung Motiv ” zu glauben“.
52
2 Richter und Astronomen
ter dieser Richtung machten einen deutlichen Unterschied zwischen Entscheidungen, die sich auf nicht quantifizierbare Urteile st¨ utzen (zum Beispiel die Entscheidungen der Geschworenen eines Schwurgerichts), und Entscheidungen, die auf wiederholten Beobachtungen beruhen, etwa auf den Beobachtungen, die von den entstehenden Einrichtungen f¨ ur Verwaltungsstatistik geliefert wurden. Den Frequentisten“ kam das Bayessche Verfahren – das eine ” kleine Anzahl von Beobachtungen mit einer rein mutmaßlichen A-priori ” Wahrscheinlichkeit“ verkn¨ upfte, um hieraus auf eine besser gesicherte A” posteriori -Wahrscheinlichkeit“ zu schließen – wie ein Phantasiegebilde vor. ¨ Dagegen erfuhren im 20. Jahrhundert die Uberlegungen zur Art und Weise, in der Entscheidungen in Situationen der Ungewißheit getroffen werden, eine Neubelebung durch die Arbeiten von Keynes, De Finetti und Savage. Die Diskussionen u ¨ber den Bayesianismus und seine Bedeutung erlangten erneut eine erstrangige Wichtigkeit. Man f¨ uhrte Forschungsarbeiten auf dem Gebiet der experimentellen Psychologie durch, um festzustellen, ob das menschliche Gehirn tats¨ achlich entsprechend derartigen Verfahren arbeitet (Gigerenzer und Murray, 1987, [106]). Das Hin und Her zwischen dem entscheidungsbezogenen und dem beschreibenden Standpunkt zieht sich durch die gesamte Geschichte der wahrscheinlichkeitstheoretischen Formalisierungen, die gegen 1660 begann.3 Aber die Fragen, die diese neue Sprache zu beantworten suchte, sind aus sehr viel ¨altere Debatten u ¨ber die M¨oglichkeit hervorgegangen, u ¨ber den Zufall nachzusinnen – entweder indem man ihm die Entscheidung in schwierigen F¨ allen anvertraute, oder indem man die Beurteilung einer ungewissen Zukunft in die Gegenwart einbezog. Diese Arch¨aologie der Wahrscheinlichkeitsrechnung wurde von Ernest Coumet (1970, [50]) in einem u utzlichen Artikel ¨beraus n¨ ¨ rekonstruiert, in dem er diesen Kalk¨ ul und die dadurch implizierten Aquivalenzen als Antwort auf ein Problem der Billigkeit 4 oder Fairness darstellte.
Aleatorische Vertr¨ age und faire Abmachungen ¨ Der Artikel von Coumet tr¨agt die Uberschrift Ist die Theorie des Zufalls ” zuf¨ allig entstanden?“ Er wies in dieser Arbeit nach, wie die Frage der Gerech¨ tigkeit zu den Aquivalenzkonventionen f¨ ur Erwartungswerte gef¨ uhrt hat – zu einem Begriff also, der zeitlich vor dem Begriff der Wahrscheinlichkeit zu liegen scheint. Die Schwierigkeit r¨ uhrte daher, daß der Zufall – das heißt das ungewisse Auftreten eines zuk¨ unftigen Ereignisses – zur damaligen Zeit als ein hei3 4
Die mathematische Wahrscheinlichkeitsrechnung, die Statistik und die Philosophie der Wahrscheinlichkeit werden oft als siamesische Drillinge“ bezeichnet. ” In der lateinischen Formulierung durch aequitas“ ausgedr¨ uckt. Dieses Wort hat ” u.a. folgende Bedeutungen: Gleichheit, Rechtsgleichheit und Billigkeit (im moralischen Sinne). Aus dem lateinischen Wort leitet sich das franz¨ osische ´equit´e (Billigkeit, Angemessenheit, Gerechtigkeit, Rechtlichkeit) und das englische equitableness (Fairness, Billigkeit) ab.
Aleatorische Vertr¨ age und faire Abmachungen
53
liges Attribut aufgefaßt wurde, das die Menschen niemals beherrschen w¨ urden – außer wenn sie Gott zurate ziehen. Die thomistische Theologie erkannte in sehr pr¨ azise bestimmten Notf¨allen die M¨oglichkeit an, eine Frage durch das Ziehen eines Loses zu entscheiden, und unterschied zwischen konsultatorischen Losen (sortes consultatoriae), divinatorischen Losen (sortes divinatoriae) und divisorischen Losen (sortes divisoriae). Divisorische Lose konnten verwendet werden um zu entscheiden, wem das betreffende Ding zuf¨ allt oder was den ” betreffenden Personen zugesprochen werden soll – zum Beispiel Besitz, Ehren ucksspiele“ oder W¨ urden“.5 In jedem anderen Fall stellte der Rekurs auf Gl¨ ” eine schwerwiegende S¨ unde“ dar. ” W¨ urfel und Lose sind bereits im Altertum nicht nur in Gl¨ ucksspielen verwendet worden; sie waren auch Mittel zur Divination, zur Erforschung des g¨ottlichen Willens, allenfalls der Zukunft. Das Anrufen einer Gottheit, das sich im Ziehen von Losen ausdr¨ uckt, um besonders heikle Streitf¨ alle zu entscheiden, schien demnach eine gerechte L¨osung gewesen zu sein: sie st¨ utzte sich n¨ amlich auf eine Abmachung, die u uhrenden Parteien stand ¨ber den prozeßf¨ und daher von ihnen akzeptiert werden konnte. Diese Art L¨ osung war bereits ¨ vom hl. Augustin erw¨ahnt worden. F¨ ur ihn war das Los kein Ubel an sich, sondern zeigte dem zweifelnden Menschen den Willen Gottes an: Nimm zum Beispiel an, daß du eine u ussige Sache hast. Du soll¨berfl¨ test sie jemandem geben, der sie nicht hat. Aber du kannst sie nicht zwei Menschen geben. Erscheinen nun zwei Menschen, von denen keiner u ¨ber den anderen die Oberhand gewinnt – sei es durch Not, sei es durch die Bande der Freundschaft zu dir – ist es dann nicht die gerechteste L¨ osung f¨ ur dich, durch das Los entscheiden zu lassen, welcher der beiden das erhalten soll, was du nicht beiden gleichzeitig geben kannst? (Vgl. hl. Augustin, De la doctrine chr´etienne 6 , zitiert von Coumet, 1970, [50].) Das Ziehen von Losen war f¨ ur einen Richter eine Art und Weise, das auszuf¨ uhren, was f¨ ur ihn auch heute noch eine unabdingbare Pflicht ist – die Verpflichtung n¨ amlich, ein Urteil zu f¨allen. Ein Richter kann auf der Grundlage eines im Gesetzbuch stehenden Artikels oder aufgrund seiner inneren ¨ Uberzeugung entscheiden – das einzige, was er nicht tun darf, besteht darin, keine Entscheidung zu treffen. Man kann sich ohne weiteres vorstellen, daß das Los – als Ausdruck eines u ¨ber den Menschen stehenden Willens – lange Zeit hindurch in dramatischen F¨allen eine M¨ oglichkeit zu bieten vermochte, 5
6
Gem¨ aß der Doktrin der sortes divisoriae wurde die Aufteilung eines Gutes unter mehreren Personen durch einen Zufallsmechanismus unter bestimmten Bedingungen als legitim erachtet. Das lateinische Wort sors (Plural: sortes) hat u.a. folgende Bedeutungen: Losst¨ abchen, Lost¨ afelchen, Weissagungst¨ afelchen; Losen, Verlosung, Los, Orakelspruch; Teil, Anteil; Los = Schicksal, Geschick. Augustinus, Aurelius (354-430): De doctrina christiana. Deutsch von P. Sigisbert Mitterer; erschienen 1925 in: Bibliothek der Kirchenv¨ ater, Bd. 49, M¨ unchen, K¨ osel und Pustet.
54
2 Richter und Astronomen
diese schwere Last ertr¨aglicher zu machen. Die Verpflichtung, Urteile sogar in denjenigen F¨ allen zu verk¨ unden, bei denen ein Zweifel bleibt, kann mit der Verpflichtung des Kodierens verglichen werden, das heißt mit der T¨ atigkeit des Statistikers, wenn er bei einer Erhebung die Antworten (oder Nichtantwor” ¨ ten“) in Aquivalenzklassen einteilt. Auch f¨ ur den Statistiker sind zweifelhafte F¨ alle eine Last und die Versuchung kann groß sein, dann auf den Zufall zur¨ uckzugreifen, um sich dieser B¨ urde zu entledigen. Der R¨ uckgriff auf den Zufall wird in den sogenannten Hot-Deck -Verfahren formalisiert und systematisiert, bei denen im Falle einer Nichtantwort“ zuf¨allige Antworten zugeordnet wer” den. Diese Zuordnung erfolgt entsprechend den Gesetzen f¨ ur bedingte Wahrscheinlichkeiten, die auf der Grundlage der gegebenen Antworten konstruiert werden. Man kann also die sortes divisoriae, den ungeb¨ andigten Zufall eines abgespannten Kodierers und die Hot-Deck-Verfahren als eine ¨ okonomische Art und Weise betrachten, in problematischen F¨allen den Kopf aus der Schlinge zu ziehen. Außer diesen ziemlich unzweideutigen F¨allen, in denen sich ein Richter auf zuf¨ allige Entscheidungen als letzten Ausweg verlassen konnte, kam der Zufall auch in verschiedenen anderen Situationen ins Spiel, deren gemeinsames Merkmal darin bestand, daß sie sich auf zuk¨ unftige unsichere Gewinne bezogen: Investition von Kapital in den Seehandel, Versicherungen, Leibrenten und Gl¨ ucksspiele. In allen diesen F¨allen wird etwas, dessen man sich in der Gegenwart sicher ist, gegen eine zuf¨allige Bereicherung in der Zukunft eingetauscht. Ist eine derartige grundlos legitime“ Bereicherung statthaft? ” Ebenso wie im Falle von Zinsdarlehen oder Wucher diskutierten die Theologen erbittert u ¨ber die Gerechtigkeit von Vereinbarungen, bei denen Menschen durch zuk¨ unftige Ereignisse gebunden werden. So stellte etwa der hl. Franz von Sales Gewinne infrage, die nicht auf die Bem¨ uhungen der Vertragspartner zur¨ uckzuf¨ uhren sind: Wir haben uns also geeinigt, werden Sie mir sagen? Das taugt, um zu zeigen, daß derjenige, der gewinnt, keinem Dritten schadet. Aber daraus folgt nicht, daß auch die Abmachung selbst nicht ebenso unvern¨ unftig ist wie der Einsatz. Denn der Gewinn, der ein Preis f¨ ur den Fleiß sein sollte, wird ein Preis des Zufalls, der jedoch keinen Preis verdient, da er ganz und gar nicht von uns selbst abh¨ angt. (hl. Franz von Sales, Introduction ` a la vie d´evote, 1628, zitiert von Coumet, 1970, [50].) W¨ ahrend sich diese Mißbilligung vor allem auf Gl¨ ucksspiele bezog, konnte das f¨ ur den Seehandel erforderliche Risikokapital dagegen – und zwar gerade aufgrund des Risikos – zu einem Gewinn f¨ uhren. F¨ ur die mittelalterliche Theologie war dieser Umstand sogar eine m¨ogliche Rechtfertigung f¨ ur Zinsdarlehen, die im Allgemeinen verboten waren und mit Wucher gleichgesetzt ¨ wurden (Le Goff, 1962, [175]). Im Ubrigen wurden Versicherungsvertr¨ age als zul¨ assig angesehen.
Aleatorische Vertr¨ age und faire Abmachungen
55
Auf diese Weise entstand ein ganzer Arbeitskomplex, der sich auf unterschiedliche Bereiche bezog (sortes divisoriae, risikobehaftete Darlehen, Versicherungsvertr¨ age, Gl¨ ucksspiele), aber dazu tendierte, den Begriff einer fairen Abmachung zu formalisieren. So konnte man etwa die sortes divisoriae aus dem Bereich der Heiligen herausnehmen und als Grundlage f¨ ur derartige Abmachungen rechtfertigen. Ebenso erwies es sich im Interesse einer soliden Rechtsgrundlage f¨ ur Vertr¨age, die zukunftsbezogene Risiken enthielten, oder im Interesse der Rechtfertigung eines Gl¨ ucksspiels als notwendig, daß die Vertragspartner oder die Spieler in den Genuß gleicher Voraussetzungen“ kamen. ” Diese Forderung nach Gleichheit, die sich vom Gerechtigkeitsgedanken leiten ließ, er¨ offnete den Weg zur Konstruktion eines gemeinsamen begrifflichen ¨ Rahmens f¨ ur Aktivit¨aten, die im Ubrigen vollkommen unterschiedlich waren: W¨ urfelspiele, Lebensversicherungen und Gewinne, die man von ungewissen Handelsgesch¨ aften erwartete. Die Gl¨ ucksspiele sind nur ein Beispiel f¨ ur aleatorische Vertr¨ age: derartige Vertr¨age beruhten auf freiwilligen Abmachungen, ” denen zufolge der Erwerb eines Verm¨ogens eine ungewisse Gl¨ uckssache war; um legitim zu sein, mußten diese Abmachungen bestimmten Voraussetzungen ugen“ (Coumet, 1970, [50]). Das Problem der Fairness tauchder Fairness7 gen¨ te in der Praxis im Zusammenhang mit Aufteilungen auf, wenn ein Gesch¨ aft oder ein Spiel unterbrochen werden mußte: Wie sind die Gewinne oder die Eins¨ atze aufzuteilen? Hierbei handelt es sich um einen Spezialfall des sogenannten Teilungsproblems. Eine ¨ahnliche Frage, die der Chevalier de M´er´e an Pascal gerichtet hatte, war die Grundlage der Pascalschen Wahrscheinlichkeitsrechnung. Aber diese scheinbar harmlose Frage zur belanglosen T¨ atigkeit eines Spielers hing tats¨achlich mit den alten Debatten u ¨ber das Problem der Gerechtigkeit von Abmachungen zusammen, auf denen aleatorische Vertr¨ age beruhten. Bei der Einf¨ uhrung seiner neuen Formalisierung lieh sich Pascal nat¨ urlich Ausdr¨ ucke aus der Sprache der Juristen, denn das war die Sprache, in der die zeitgen¨ ossischen Debatten gef¨ uhrt wurden. Aber Pascal schuf auch eine neue Art und Weise, die Rolle eines u ¨ber den besonderen Interessen stehenden Schiedsrichters zu spielen – eine Rolle, die fr¨ uher den Theologen zugekommen war: ... Die Moralisten, welche die Voraussetzungen zu bestimmen versuchten, die ein Spiel erf¨ ullen muß, um fair zu sein, nahmen eine Position ein, die u ¨ber den Begehrlichkeiten und Antagonismen der Spieler stand; ein Mathematiker, der eine faire Verteilung“ berechnen will, ” nimmt einfach nur eine Haltung ein, die noch rigoroser als die Einstel7
Im Zentrum der juristischen Debatte u ¨ber die Doktrin der contrats al´eatoires stand die Frage nach der Billigkeit dieser Kontrakte: die Frage, ob die ungewisse Aussicht auf ein Gut gegen ein sicheres Gut, einen Geldbetrag, billigerweise aufgewogen werden kann; es handelt sich also um die Frage, ob und inwieweit dem Tr¨ ager eines finanziellen Risikos ein bestimmter Betrag, eine Pr¨ amie, rechtm¨ aßig zusteht. (Vgl. Hauser, 1997, [397].)
56
2 Richter und Astronomen
lung der Moralisten ist: er ist der Schiedsrichter. (Vgl. Coumet, 1970, [50].) Aber worauf konnte sich diese Objektivierung st¨ utzen, die es Pascal erm¨ oglichte, die Position des Schiedsrichters zu definieren – zum Beispiel bei seiner Beantwortung der Frage des Chevalier de M´er´e (bez¨ uglich einer fairen Aufteilung der Anteile im Falle einer Spielunterbrechung)? Die berechneten Erwartungswerte (oder N¨ utzlichkeitswerte) m¨ ussen so beschaffen sein, daß die Alternativen (Spiel beenden oder fortsetzen) f¨ ur die Spieler belangslos sind: ... die Regelung dessen, was ihnen geh¨oren sollte, muß in angemessener Weise dem entsprechen, was sie berechtigterweise vom Gl¨ uck erwarten konnten, so daß es f¨ ur jeden von ihnen vollkommen gleichg¨ ultig ist, ob sie das nehmen, was man ihnen zuteilt, oder ob sie das Abenteuer des Spiels fortsetzen ... (Pascal, zitiert von Coumet, 1970, [50].) ¨ Man f¨ uhrte also zun¨achst Aquivalenzen zwischen denjenigen Erwartungs” werten“ 8 ein, die sich unter Umst¨anden unter den Spielern austauschen ließen – weil die Werte gleich groß waren –, um dann den Begriff der Wahrscheinlichkeit einzuf¨ uhren, indem man den Erwartungswert durch die H¨ ohe des Einsatzes dividierte. Diese Erwartungswerte geh¨orten zum gemeinsamen Wissen der Spieler und stellten einen Punkt dar, an dem die Kontroversen eingestellt werden konnten: Man hatte eine Regel, auf deren Grundlage sich das Spiel unterbrechen ließ, ohne daß sich dadurch einer der Beteiligten verletzt f¨ uhlte. Diese Wesensverwandtschaft der Sorgen von Richtern und Vermessungsingenieuren implizierte f¨ ur beide Berufsgruppen einen gewissen Abstand zum betreffenden Rechtsstreit oder zur betreffenden Entscheidung: sie mußten sich in die Position von Zuschauern, unvoreingenommenen Schiedsrichtern oder in die Lage von Beratern eines F¨ ursten versetzen. Tats¨ achlich verhielt es sich so, daß man diesen Abstand zum Sachverhalt aus unterschiedlichen Gr¨ unden wahrte: entweder um zwischen zwei Spielern zu schlichten, falls das Spiel unterbrochen werden mußte, oder um einen Tatmenschen zu beraten, der mit der Wahl zwischen mehreren Entscheidungen konfrontiert war, deren Konsequenzen von ungewissen zuk¨ unftigen Ereignissen abh¨ angen. Es handelte sich aber um dieselben Berechnungen von Erwartungswerten oder N¨ utzlichkeitswerten, an denen sich die Urteile von Richtern oder die Ratschl¨ age von Beratern orientierten. Im erstgenannten Fall strebte man ein Fairnessprinzip an, das die Aufstellung von harmonischen zwischenmenschlichen Beziehungen erm¨oglichte. Im zweiten Fall ging es um die innere Konsistenz der von Tatmenschen getroffenen Entscheidungen und um die Suche nach einer Rationalit¨at, die unterschiedliche Lebensmomente umfaßte. Diese Umst¨ ande f¨orderten die Akzeptanz des neuen Kalk¨ uls, der objektivierbar war und sich von einem Fall auf einen anderen u ¨bertragen ließ. 8
Der Begriff Erwartungswert“ ist hier im eigentlichen Sinne des Wortes zu inter” pretieren, das heißt als zu erwartender Wert“. ”
Aleatorische Vertr¨ age und faire Abmachungen
57
¨ Wir m¨ ussen jedoch erkennen, daß die Konstruktion derartiger Aquivalenzr¨ aume f¨ ur zuk¨ unftige, noch nicht eingetretene, inkompatible und heterogene Ereignissen nur mit Schwierigkeiten zugestanden werden konnte. Man sp¨ urt das sogar, wenn man sich das Pascalsche Wett-Argument noch einmal durchliest, das auf dieser Art des Vergleichs aufbaute. Wir stellen diese Schwierigkeit auch bei scheinbaren Paradoxa fest, die man heute gut versteht: zum Beispiel, wenn man die schwierige Wahl zwischen Situation A (garantierter Gewinn von einer Million Euro) und Situation B (Chance von Eins zu Zehn f¨ ur einen Gewinn von zwanzig Millionen Euro) treffen muß. Die Berechnung der Erwartungswerte f¨ uhrt zur Wahl von B, aber nur wenige rational den” kende“ Menschen w¨ urden eine solche Wahl treffen. Viele w¨ urden dagegen A bevorzugen, das heißt einen sicheren, wenn auch geringeren Gewinn. Wir wissen jetzt, daß die Berechnung der Erwartungswerte (was in diesem Fall zur Wahl von B verleiten w¨ urde) nicht wirklich plausibel ist – es sei denn, man nimmt den Standpunkt der Frequentisten ein: W¨ urde diese (fiktive!) Auswahl viele Male (zehnmal? zwanzigmal?) wiederholt werden, dann w¨ urde man offensichtlich B w¨ ahlen. Das d¨ urfte auch der Fall sein, wenn es um die einmalige Wahl kleiner Betr¨age ginge (sicherer Gewinn von zehn Euro oder eine Chance von Eins zu Zehn f¨ ur einen Gewinn von zweihundert Euro). Anhand dieser verschiedenen F¨alle (Schlichtung, Hilfe bei Entscheidungsfindungen) erkennt man, daß die – h¨aufig nicht sehr intuitive – probabilistische Rationalit¨ at ihre Berechtigung in einer allgemeinen, alles u ¨berschauenden Sichtweise fand: in der Sichtweise des Richters, der u uhrenden ¨ber den prozeßf¨ Parteien steht, in der Sichtweise des Bankiers oder des Versicherers, der mit zahlreichen Risiken umgeht, oder auch in der Sichtweise eines isolierten Individuums, das mit Mikro-Entscheidungen konfrontiert ist, die kein großes Engagement bedeuten (Wahl zwischen kleinen Geldbetr¨ agen). Es gab also einen ¨ engen Zusammenhang zwischen der F¨ahigkeit, Aquivalenzr¨ aume begrifflich zu erfassen und zu konstruieren, und der M¨oglichkeit, derartige alles u ¨berschauende Positionen einzunehmen. Die Spannung zwischen objektiver und subjektiver Wahrscheinlichkeit l¨aßt sich folgendermaßen in eine Standpunktfrage zur¨ uck¨ ubersetzen: Eine einzige und kontingente Auswahl oder eine allumfassende und verallgemeinerungsf¨ahige Position? Demnach mußten die ersten Probabilisten“ – ausgehend vom Standpunkt ” eines Juristen oder Beraters eines Entscheidungstr¨ agers – große Schwierigkeiten u oßen ¨berwinden, als sie eine Geometrie“ zur Behandlung disparater Gr¨ ” entwickelten und die Menschen davon u ¨berzeugen wollten, diese Geometrie zu akzeptieren. Leibniz wies auf die z¨ogerlichen Versuche und Schwierigkeiten hin, gleichzeitig an den m¨oglichen Gewinn und an die Wahrscheinlichkeit zu denken, und beides zu einem einzigen N¨ utzlichkeitswert“ zusammenzusetzen, ” ¨ahnlich wie sich die Oberfl¨ache eines Rechtecks durch die Multiplikation von L¨ange und Breite ergibt: Da die Gr¨ oße der Konsequenz und die des Sukzedenten zwei heterogene Betrachtungen sind (oder Betrachtungen, die nicht miteinander
58
2 Richter und Astronomen
verglichen werden k¨onnen), waren die Moralisten, die einen Vergleich gewollt hatten, ziemlich verwirrt, wie es im Falle derjenigen Moralisten offensichtlich ist, die sich mit der Wahrscheinlichkeit befaßt hatten. Die Wahrheit ist, daß hier – wie bei anderen disparaten und heterogenen Sch¨ atzungen, die mehr als eine Dimension umfassen – die betreffende Gr¨ oße das zusammengesetzte Ergebnis der einen oder anderen Sch¨ atzung ist, ¨ahnlich wie bei einem Rechteck, wo es zwei Betrachtungen gibt, n¨ amlich die der L¨ange und die der Breite; und bez¨ uglich der Gr¨ oße der Konsequenz und der Grade der Wahrscheinlichkeit fehlt uns immer noch dieser Teil der Logik, die eine Sch¨ atzung dieser Gr¨ oßen bewirken muß. (Leibniz, Nouveaux essais sur l’entendement humain.9 ) Das Bestreben, einen Komparabilit¨atsraum f¨ ur heterogene Gr¨ oßen zu konstruieren, ergab sich aus den Debatten der Juristen des 17. Jahrhunderts, die darauf bedacht waren, die Fairness der aleatorischen Vertr¨ age zu rechtfertigen. Diese Bestrebungen wurden im 18. Jahrhundert fortgef¨ uhrt und erweitert, um einen homogenen Raum von Graden der Sicherheit aufzustellen, der seinerseits mit den Erfordernissen von Handlungen und Entscheidungsfindungen verkn¨ upft war.
¨ Konstruktiver Skeptizismus und Uberzeugungsgrad Die Geschichte der Entfaltung des wahrscheinlichkeitstheoretischen Denkens im Rahmen einer Gesamtheit von praktischen Problemen, die eine Ungewißheit implizierten, wurde von Lorraine Daston in einem 1989 [55] erschienenen Artikel zusammengefaßt. Der Artikel setzt die von Coumet begonnene Arbeit fort und stellt eine andere Wurzel des Werkzeugs vor, das es erm¨ oglichte, die verschiedenen Aspekte der Ungewißheit innerhalb ein und desselben begrifflichen Rahmens zu erfassen: die Debatten u ¨ber Sicherheit und Wissen, die im Ergebnis von Reformation und Gegenreformation gef¨ uhrt wurden. Diese Debatten, welche die Glaubensgrundlagen betonten (die Offenbarung f¨ ur die Protestanten und die Tradition f¨ ur die Katholiken), l¨ oste gegenseitige Denunziationen aus, die allm¨ahlich die verschiedenen Bestandteile des Glaubens unterh¨ ohlten und zum Skeptizismus f¨ uhrten. Eine extreme Form des Skeptizismus – der von gelehrten Freigeistern vertretene Pyrrhonismus10 – leugnete sogar die Evidenz von Empfindungen und mathematischen Beweisen. Zur gleichen Zeit versuchten mehrere Autoren auf halbem Wege zwischen 9
10
¨ Im Manuskript vollendet um 1705. Deutsche Ubersetzung unter dem Titel Neue Abhandlungen u ¨ber den menschlichen Verstand. Neuausgabe als Band 498 der Philosophischen Bibliothek, Felix Meiner Verlag, Hamburg, 1996. (1. Auflage 1873 als Band 56 der Philosophischen Bibliothek). Pyrrhon, griechischer Philosoph aus Elis, um 360–270 v. Chr., gilt als Begr¨ under des Skeptizismus.
¨ Konstruktiver Skeptizismus und Uberzeugungsgrad
59
den dogmatischen Fideisten – die sich auf die Gewißheiten des wahren Glaubens st¨ utzten – und den ¨außerst bissigen Skeptikern, eine Vorstellung von dem ¨ zu definieren, was einfach wahrscheinlich“ war, eine Vorstellung vom Uber” ” zeugungsgrad, der ausreicht, einen besonnenen Gesch¨ aftsmann zum Handeln ¨ zu ermuntern ..., wobei die Uberzeugung von einer intuitiven Bewertung der m¨oglichen Pl¨ ane und der damit zusammenh¨angenden Risiken abh¨ angt“ (Daston, 1989, [55]). Diese konstruktiven Skeptiker“ (um einen von Popkin 1964 [238] ge” pr¨ agten Ausdruck zu verwenden) betrachteten demnach das Handeln als Grundlage des Wissens (und nicht umgekehrt). Sie waren – anders als die Juristen, von denen Pascal seine Inspirationen erhielt – weniger an Fairness interessiert als am rationalen Glauben, der die Orientierung f¨ ur eine Entscheidung vorgab. Doch auch sie nutzten die Doktrin der aleatorischen Vertr¨ age, um daraus Beispiele zu entnehmen, die zeigten, daß es mitunter vern¨ unftig war, einen gegenw¨artigen sicheren Besitz gegen einen unsicheren zuk¨ unftigen Besitz einzutauschen. Diese Erkenntnisphilosohie wies der Wahrscheinlichkeitsrechnung ein klare epistemische“ Rolle zu, denn sie orientierte sich ” am Aspekt des unzul¨ anglichen Wissens und nicht am Aspekt des Zufalls. Die konstruktiven Skeptiker integrierten jedoch Gl¨ ucksspiele, riskante T¨ atigkeiten (Handel, Impfungen) und Entscheidungen von Geschworenen zur m¨ oglichen Schuld eines Angeklagten in ein und dasselbe Modell und bereiteten dadurch ¨ den Ubergang von einem Aspekt zum anderen vor. Es ist interessant, die philosophische Haltung dieser konstruktiven Skeptiker , die zwischen den Fideisten und den radikalen Skeptikern stehen, mit der Position zu vergleichen, die ich in der Einleitung vorgeschlagen habe, das heißt mit der Position einer modernen Wissenssoziologie, die sich sowohl vom wissenschaftlichen Objektivismus – f¨ ur den Fakten Fakten sind“ – als auch ” vom Relativismus unterscheidet, f¨ ur den Objekte und Niederschriften g¨ anzlich von kontingenten Situationen abh¨angen. Die beiden historischen Konfigurationen des 17. und des 20. Jahrhunderts unterscheiden sich jedoch radikal voneinander, und sei es nur, weil im ersteren Fall der Pol der Gewißheit durch die Religion, im letzteren Fall aber durch die Wissenschaft verk¨ orpert wird. Von diesem Standpunkt ist die probabilistische Verfahrensweise – welche die Ungewißheit durch Quantifizierung objektiviert – Bestandteil eines S¨ akularisierungsprozesses. Das ist auch der Grund daf¨ ur, warum sich heute sowohl religi¨ ose Menschen als auch (religi¨ose und nichtreligi¨ ose) Wissenschaftler gleichermaßen unwohl f¨ uhlen, wenn sie sich mit Pascals Wette befassen: Beide Gruppen sp¨ uren, daß sich in diesem ber¨ uhmten Text zwei Argumentationsweisen u ¨berschneiden, die fortan getrennt voneinander verliefen. Hinter der Distanz, welche die konstruktiven Skeptiker“ zur nihilistischen ” Skepsis der Pyrrhoneer hielten (die man heute als radikale Relativisten betrachten w¨ urde), stand die Absicht, Objekte zu erzeugen, auf die man sich ¨ beim Handeln st¨ utzen konnte. Diese Objekte waren Uberzeugungsgrade“, ” das heißt probabilisierte Glaubensakte. Wie Lorraine Daston sagt: Die Be” tonung des Handelns als Grundlage des Glaubens – und nicht umgekehrt –
60
2 Richter und Astronomen
ist der Schl¨ ussel zur Verteidigung gegen den Skeptizismus. Schriftsteller wie Wilkins machten h¨aufig die Bemerkung, daß auch der u ¨berzeugteste Skeptiker sein Abendessen so verspeist, als ob die Außenwelt wirklich existiert“. (Wilkins f¨ uhrte das Beispiel eines Kaufmanns an, der die Risiken einer langen Reise in der Hoffnung auf einen h¨oheren Gewinn auf sich nimmt, und empfahl, derartige Handlungsregeln auch in wissenschaftlichen und religi¨ osen Fragen zu befolgen). Die wichtigen W¨orter in der Fabel vom skeptischen Abendessensgast sind so, als ob“. Dadurch bezieht man sich nicht auf ein Problem von ” essentieller Realit¨at (wie es ein Fideist oder ein heutiger Realist tun w¨ urde), sondern auf das praktische Verhalten, auf eine Handlungslogik. Die genannten Autoren konstruierten deswegen einen Rahmen, der eine gemeinsame Konzeptualisierung von Gewißheitsformen gestattete, die zuvor voneinander verschieden waren: die mathematische Gewißheit eines Beweises, die physikalische Gewißheit der sensorischen Evidenz und die moralische Gewißheit von Aussage und Vermutung. Sie ordneten die verschiedenen Formen der Gewißheit auf einer Ordinalskala an und meinten, daß die meisten Dinge nur auf der untersten Ebene, das heißt auf der Aussagenebene, gewiß sind. Auf diese Weise erlangte in Frankreich das Wort probabilit´e“ 11 , das im Mittelal” ter eine amtlich beglaubigte Stellungnahme“ bezeichnete, die Bedeutung von ” Grad der Zustimmung entsprechend der Evidenz von Dingen und Zeugen“. ” Dann f¨ ugten Leibniz und Niklaus Bernoulli, die beide Mathematiker und Juristen waren, drei Ebenen der Gewißheit in ein Kontinuum ein, das jeden andigen Grad an Zustimmung einschloß12 – vom Unglauben bis hin zur vollst¨ ¨ Uberzeugung. Die drei Ebenen der Gewißheit entsprachen drei sehr verschiedenen Weisen der Bewertung von Wahrscheinlichkeiten: (1) gleiche M¨ oglichkeiten auf 11
12
Das franz¨ osische Wort geht, ebenso wie das englische probability“, auf das la” teinische probabilitas“ zur¨ uck, das sich vom Adjektiv probabilis“ (annehmbar, ” ” glaublich, wahrscheinlich, tauglich) ableitet. Dieses Wort h¨ angt seinerseits mit dem lateinischen probare“ (pr¨ ufen, billigen, gutheißen, gelten lassen, anerken” nen) zusammen. Das deutsche Wort Wahrscheinlichkeit“ leitet sich von wahr” ” scheinlich“ (= mit ziemlicher Sicherheit“) ab und wurde im 17. Jahrhundert ver” mutlich nach dem Vorbild des gleichbedeutenden niederl¨ andischen waarschijn” lijk“ gebildet. Das niederl¨ andische Adjektiv ist wohl eine Lehn¨ ubertragung des lateinischen verisimilis“ (wahrscheinlich), einer Zusammensetzung aus verus“ ” ” (wahr) und similis“ (¨ ahnlich). ” Leibniz, 1705, [412]: ... wenn die Natur der Dinge nichts enth¨ alt, was f¨ ur oder ” gegen ein bestimmtes Faktum spricht, so wird es, sofern es durch das Zeugnis unverd¨ achtiger Leute best¨ atigt wird (z.B. daß Julius Caesar gelebt hat), mit einem festen Glauben aufgenommen. Wenn aber die Zeugnisse dem gew¨ ohnlichen Naturlauf widerstreiten oder untereinander widersprechend sind, so k¨ onnen die Wahrscheinlichkeitsgrade sich bis Unendliche verschieden gestalten und daher stammen alle jene Grade, welche wir Glauben, Vermutung, Ungewißheit, Mißtrauen nennen; und daher ist denn strenge Pr¨ ufung n¨ otig, um ein richtiges Urteil zu bilden und unsere Zustimmung gem¨ aß den Graden der Wahrscheinlichkeit zu erteilen.“
¨ Konstruktiver Skeptizismus und Uberzeugungsgrad
61
der Grundlage physikalischer Symmetrie (nur f¨ ur Gl¨ ucksspiele geeignet); (2) Beobachtungsh¨ aufigkeiten von Ereignissen (die eine Sammlung von Statistiken voraussetzten, welche ihrerseits – wie Graunts Sterbetafeln aus dem Jahr 1662 – eine hinreichende zeitliche Stabilit¨at aufwiesen); und schließlich (3) Grade subjektiver Gewißheit oder Glaubensgrade (zum Beispiel juristische Praktiken bei der Gewichtung von Indizien und Mutmaßungen). Dieses Konstrukt ist deswegen so u ¨berraschend, da wir hier bereits eine Zusammenfassung dessen finden, was in der Folgezeit erneut in Bezug auf die Unterscheidung zwischen den sogenannten objektiven Wahrscheinlichkeiten und den subjektiven Wahrscheinlichkeiten zusammengetragen wurde: die ersten h¨ angen mit den Zust¨ anden der Welt (hier: den ersten beiden Ebenen) zusammen, die letzteren entsprechen dagegen den Zust¨ anden des Verstandes (dritte Ebene). Aber diese ¨ Unterscheidung gilt nur dann, wenn man die Genese des Problems der Uberzeugung außer Acht l¨aßt: Wie gelangt man vom Glauben (dritte Ebene) zu den objektiven Gewißheiten der ersten Ebene und der zweiten Ebene? Dieses Problem, das ein wenig an die von den Verfechtern des starken Programms“ ” in der Wissenschaftssoziologie gestellte Frage erinnert, ließ den Philosophen des Jahrhunderts der Aufkl¨arung, den Tr¨agern des Lichts“, keine Ruhe. ” So bekundeten etwa Locke, Hartley und Hume offen eine Assoziationstheorie, bei der sie den Verstand mit einer Addiermaschine verglichen, welche die H¨ aufigkeiten vergangener Ereignisse zusammenz¨ ahlt und deren m¨ ogliche Wiederholung berechnet. Hartley stellte sich vor, daß wiederholt auftretende Empfindungen Rillen ins Gehirn“ graben und sich dort verfestigen. Hume ” sprach von der zus¨atzlichen Lebhaftigkeit“, die eine wiederholte Erfahrung ” einem geistigen Bild verleiht und betonte den Begriff der Gewohnheit – ein Begriff, der mit dem Habitus von Bourdieu vergleichbar ist (H´eran, 1987, [130]). Das Ziel dieser Konstrukte besteht darin, die Gewißheiten der dritten Ebene (Glaubens¨ uberzeugungen) mit denen der zweiten Ebene (H¨ aufigkeiten, wiederholte Empfindungen) zu verbinden. Diese Fragen treten erneut bei der Wahl des Gegenstandes der Wissenschaftssoziologie auf, deren Ziel es ist, den ¨ Entstehungsprozeß der Wissenschaft und die Herausbildung einer Uberzeugung zu beschreiben. Will ein Wissenschaftler von seinesgleichen anerkannt werden, dann muß er die Experimente in eindeutig formulierten Standardprotokollen aufzeichnen, damit sie wiederholt werden k¨ onnen. Ebenso wird vor Gericht ein einzelner Zeuge als rechtsunwirksam angesehen. Historiker und Journalisten m¨ ussen ihre Quellen vergleichen und u ufen. Wiederholun¨berpr¨ gen sind Indizien f¨ ur Objektivit¨at und k¨onnen als Beweis geltend gemacht werden. Die klassische Wahrscheinlichkeitsrechnung“ des 18. Jahrhunderts ist in ” gewisser Weise eine Vorl¨auferin der großen Trennung“, die zwischen dem ” objektiven wissenschaftlichen Wissen – das die vom Menschen unabh¨ angigen Dinge beschreibt – und den Glaubens¨ uberzeugungen stattgefunden hat, die f¨ ur primitive Gesellschaften und f¨ ur vorwissenschaftliches Denken charakteristisch sind. Tats¨achlich f¨ ugten die betreffenden Gelehrten die Wahrscheinlichkeiten des W¨ urfelspiels, die Regelm¨aßigkeiten von demographischen
62
2 Richter und Astronomen
¨ Statistiken und die pers¨onlichen Uberzeugungen von Richtern in einen einzigen Rahmen ein. Aber durch dieses Integrationsbestreben bereiteten sie den Boden f¨ ur die große Trennung vor, indem sie versuchten, das Territorium des Objektivierbaren immer weiter auszudehnen, und zwar auch auf Probleme wie zum Beispiel Schwurgerichtsentscheidungen, die von Condorcet und Poisson diskutiert wurden. Die Trennung wurde vor allem durch mehrere Debatten vorbereitet, in denen Zweifel bez¨ uglich des rationalen Charakters von Verhaltensweisen zur Sprache kamen, die einzig und allein von der Berechnung der Erwartungswerte diktiert waren. Ein ber¨ uhmtes Beispiel hierf¨ ur war das St. Petersburger ” Paradoxon“ 13 (Jorland, 1987, [140]). Daniel Bernoulli hatte seine interessante Diskussion des Paradoxons in den Petersburger Commentarien f¨ ur 1730/31“, ” die 1738 erschienen, ver¨offentlicht. Von dieser Publikation hat das Problem seinen Namen, und dort wird es folgendermaßen formuliert14 : Mein sehr verehrter Oheim, der ber¨ uhmte Nicolaus Bernoulli, Professor beider Rechte an der Akademie zu Basel, legte einmal dem bekannten Monmort f¨ unf Probleme vor, die man in dem Buche Analyse sur les jeux de hazard von Herrn De Montmort findet. Das letzte dieser Probleme lautet folgendermaßen: Peter wirft eine M¨ unze in die H¨ ohe und zwar so lange, bis sie nach dem Niederfallen die Kopfseite zeigt; geschieht dies nach dem ersten Wurf, so soll er dem Paul 1 Dukaten geben; wenn aber erst nach dem zweiten: 2, nach dem dritten: 4, nach dem vierten: 8, und so fort in der Weise, daß nach jedem Wurfe die Anzahl der Dukaten verdoppelt wird. Man fragt: Welchen Wert hat die Gewinnhoffnung f¨ ur Paul? Der Gewinnerwartungswert von Paul ist demnach n 2 3 1 1 1 1 n−1 2 + ... . + ... + 2 +2 +2 2 2 2 2 Dieser Wert ist also unendlich groß. Demnach l¨ age es entsprechend der Theorie der Erwartungswerte in Pauls Interesse, in diesem Spiel eine beliebige Summe einzusetzen, da der wahrscheinlich erwartete Gewinn“ stets gr¨ oßer ” als diese Summe ist. Aber im Gegensatz zur Theorie zeigt der gesunde Menschenverstand, daß niemand mehr als ein paar Dukaten einsetzen w¨ urde. Dieser Sachverhalt verunsicherte die zeitgen¨ossischen Gelehrten sehr. Die heute u ¨bliche Fassung dieses Problems erwuchs aus Diskussionen zwischen Niklaus Bernoulli, De Monmort und Gabriel Cramer in den Jahren 1713 bis 1728. Das Problem f¨ uhrte auch zu einer h¨ochst lebhaften Diskussion zwischen Niklaus und Daniel Bernoulli, die von Jorland und Daston analysiert wurde. Es 13 14
Auch als Petersburger Paradoxon“ oder als Petersburger Problem“ bezeichnet. ” ” Zitiert nach Daniel Bernoulli, Versuch einer neuen Theorie der Wertbestimmung von Gl¨ ucksf¨ allen (Specimen theoriae novae de mensura sortis), (¨ ubersetzt von A. Pringsheim), Leipzig 1896.
¨ Konstruktiver Skeptizismus und Uberzeugungsgrad
63
ist das Verdienst dieser Diskussion, die verschiedenen m¨ oglichen Bedeutungen der Berechnung von Wahrscheinlichkeiten aufzuzeigen. Ohne auf Einzelheiten einzugehen, stellen wir hier nur fest, daß der Gegensatz der Standpunkte der beiden Bernoullis bedeutsam ist. F¨ ur Daniel kommt die klassische Art der Berechnung von Erwartungswerten in der Person eines unparteiischen Richters zum Ausdruck, der die individuellen Merkmale des Spielers nicht kennt, w¨ ahrend es sich f¨ ur den Spieler weniger um Fairness als um Vorsicht handelt. Dem mathematischen“ Erwartungswert setzt Daniel also einen moralischen“ ” ” Erwartungswert entgegen, der sich durch das Produkt der Wahrscheinlichkeit des Ereignisses mit dessen N¨ utzlichkeit“ (im Sinne der Wirtschaftstheorie) ” ausdr¨ uckt. Daniel entnahm seine Argumentation der Gesch¨ aftswelt, w¨ ahrend der Jurist Niklaus den Einwand machte, daß dieser moralische Erwartungswert“ ” nicht der Gleichheit und der Gerechtigkeit“ entspricht. ” ¨ ¨ Hierauf entgegnete Daniel, daß seine Uberlegung in vollkommener Uber” einstimmung mit der Erfahrung stehe“. In der Tat st¨ utzte sich Niklaus auf die Gleichheitsbedeutung aleatorischer Vertr¨age, w¨ ahrend Daniel eine Art kommerzieller Vorsicht verteidigte. Der besonnene Kaufmann stand dem unparteiischen Richter gegen¨ uber. Bez¨ uglich des im vorhergehenden Abschnitt Alea” torische Vertr¨ age und faire Abmachungen“ geschilderten einfacheren Paradoxons finden wir einerseits den Richter in der Position, die Lage von oben u ¨berschauen zu k¨onnen (zur Not sehen wir sogar einen utopischen Spieler von unbegrenztem Reichtum, der das Spiel unendlich oft unter dem Einsatz großer Summen spielen k¨onnte), und andererseits den normalen“ Spieler, der mit ” einem umsichtigen Kaufmann von begrenztem Gl¨ uck vergleichbar ist und der es sich nicht leisten kann, eine große Summe auf einen riesigen, wenn auch sehr unwahrscheinlichen Gewinn zu setzen. Der Nachteil der hier erw¨ahnten Paradoxa bestand darin, daß sie mit fiktiven Problemen zu tun hatten und intellektuelle Spiele zu sein schienen. Ganz anders verlief die Debatte u ¨ber die Pockenimpfung, welche die Gelehrten zur gleichen Zeit gegeneinander aufbrachte (Benz´ecri, 1982, [12]). Die Pr¨ aventivmaßnahme der allgemeinen Impfung senkte das Auftreten der Krankheit erheblich, f¨ uhrte aber ungl¨ ucklicherweise auch in einem von dreihundert F¨ allen zum Tod der geimpften Personen im Jahr der Impfung. Die Bilanz war jedoch positiv und Daniel Bernoulli rechnete aus, daß die Lebenserwartung von geimpften Personen trotz dieser fatalen Vorf¨ alle drei Jahre h¨ oher ist, als die Lebenserwartung ungeimpfter Personen. Vom Standpunkt der ¨ offentlichen Gesundheit konnte diese Maßnahme demnach obligatorisch gemacht oder zumindest mit Nachdruck empfohlen werden. Begreiflicherweise waren jedoch einige (h¨ aufig als Familienv¨ater“ beschriebene) Personen in Bezug auf sich ” und ihre Kinder mehr als zur¨ uckhaltend. Aus diesem Beispiel ist ersichtlich, daß der frequentistische Standpunkt mit einer makrosozialen Position (das heißt mit der Position des Staates oder einer Allgemeinheit) zusammenhing, w¨ahrend es sich beim epistemischen Standpunkt um die Position einer Person handelte, die f¨ ur sich selbst Entscheidungen treffen mußte. Das Problem kam
64
2 Richter und Astronomen
dann im 19. Jahrhundert erneut in anderen Debatten auf, in denen es um die Anwendung der statistischen Methode in der Medizin ging. Die Diskussion f¨ uhrte dazu, die Verwendung von Erwartungswerten bei der rationalen Betrachtung menschlicher Entscheidungen in Zweifel zu ziehen und bereitete den Weg f¨ ur die sp¨atere Trennung der wahrscheinlichkeitstheoretischen Betrachtungsweisen vor. Im 19. Jahrhundert wurde eine vorl¨ aufige Grenze errichtet, welche die mit den Zust¨anden des Verstandes“ verkn¨ upf” te Seite der Wahrscheinlichkeitsrechnung zur¨ uckwies und eine Beschr¨ ankung auf die Zust¨ ande der Welt“ und insbesondere auf die frequentistische Rich” tung beinhaltete. Als etwa Auguste Comte die Wahrscheinlichkeitsrechnung im Allgemeinen attackierte und sie anklagte, daß sie außerstande sei, die Komplexit¨ at der menschlichen Verhaltensweisen zu ber¨ ucksichtigen, griff er im Grunde genommen die epistemische Interpretation dieses Kalk¨ uls an, die ¨ den Uberlegungen der klassischen Probabilisten Nahrung gegeben hatte. Es gab mehrere Typen von Beispielen, mit denen man diese Art von Kritik untermauern konnte. In einigen dieser Beispiele – wie etwa im St. Petersburger Paradoxon oder beim Pockenimpfungsproblem – wurde die N¨ utzlichkeitsfunktion infrage gestellt, die mit der ihrerseits nur wenig diskutierten objektiur das Spiel Kopf oder ven Wahrscheinlichkeit assoziiert war (geometrisch15 f¨ ” Zahl“ und frequentistisch im Falle der Impfung). In anderen F¨ allen dagegen – wie etwa bei den auf Abstimmung beruhenden Entscheidungen von Geschworenen in Strafsachen, in denen eine Beurteilung der Schuld unter Ber¨ ucksichtigung von Indizien und Vermutungen erfolgte, aber auf keinem vollst¨ andigen Beweis aufbaute – bezweifelte man sogar die M¨ oglichkeit der Absch¨ atzung der (subjektiven) Wahrscheinlichkeit einer Ursache“ (der Schuld des Ange” klagten), weil man wußte, daß bestimmte Effekte“ (Indizien oder unsichere ” Zeugenaussagen) eine Rolle gespielt hatten. Die Frage nach der Ursachenwahrscheinlichkeit (oder inversen Wahrscheinlichkeit) spielte im 18. Jahrhundert bei Bayes und Laplace eine wichtige Rolle. Im 19. Jahrhundert hatte man diese Frage weitgehend verdr¨angt, bevor sie im 20. Jahrhundert im Rahmen der Spieltheorie, der Entscheidungstheorie und in der Kognitionswissenschaft wieder zum Leben erweckt wurde.
Der Bayessche Ansatz Das Problem der Gerechtigkeit, definiert durch die Gleichheit von Erwartungswerten, beherrschte die Arbeiten der Begr¨ under der Wahrscheinlichkeitsrechnung: Die Logik von Port Royal“ 16 machte zum Beispiel umfassenden ” Gebrauch davon. Der frequentistische Standpunkt, der sich implizit in den 15 16
Hiermit ist die zugrunde liegende geometrische Folge der Partialsummen gemeint. Das 1662 anonym in Paris erschienene Werk La Logique ou l’Art de penser war außerordentlich einflußreich. Ein Nachdruck wurde von Baron Freytag von L¨ oringhoff, Stuttgart 1965, herausgegeben. Die lateinische Fassung erschien unter dem Titel Ars cogitandi. Als Verfasser des Buches gelten Antoine Arnauld und Pierre
Der Bayessche Ansatz
65
Gl¨ ucksspielen wiederfindet, f¨ uhrte Jakob Bernoulli (1654–1705) zum ersten Beweis des Gesetzes der großen Zahlen, das 1713 nach seinem Tod ver¨ offentlicht wurde: Die H¨aufigkeit des Auftretens eines Ereignisses, das eine gegebene Wahrscheinlichkeit hat, strebt gegen diese Wahrscheinlichkeit, wenn man die andigAnzahl der Versuche erh¨oht17 (Meusnier, 1987, [196]). Danach vervollst¨ te Abraham de Moivre (1667–1754) im Jahre 1738 den Beweis: er berechnete die Wahrscheinlichkeit daf¨ ur, daß diese H¨aufigkeit in einem beliebig kleinen Intervall auftritt, wenn man eine hinreichend große Anzahl von Ziehungen durchf¨ uhrt. Nebenbei gab er die erste pr¨azise Formulierung der sp¨ ateren Nor” ur n! malverteilung“ 18 , indem er sich auf Stirlings asymptotische Formel19 f¨ (n Fakult¨ at) st¨ utzte (n! = 1 × 2 × 3 × . . . × n). Die vorhergehenden Ergebnisse gestatteten es, erwartete Wirkungen aus einer bekannten Ursache (F¨ ullung einer Urne) – das heißt die Wahrscheinlichkeiten der Beobachtung von H¨aufigkeiten – abzuleiten. Aber das inverse Problem wurde oft in allen denjenigen F¨allen gestellt, in denen es w¨ unschenswert war, auf der Grundlage der beobachteten Ereignisse etwas u ¨ber die (unbekannten) Ursachen zu sagen. Erst Bayes (1702–1761) und dann Laplace (1749–1827) machten sich an die Beantwortung dieser Frage – und ihre Antworten f¨ uhrten zu weiteren Debatten. Das auf diese Weise von Bayes und Laplace gestellte Problem der inver” sen Wahrscheinlichkeit“ spielt – bis zum heutigen Tage – eine entscheidende Rolle in der Geschichte der Anwendung der Wahrscheinlichkeitsrechnung und der Statistik in den verschiedenen Wissenschaften. In der Tat liegt dieses Problem an der Nahtstelle zwischen dem objektivistischen Standpunkt (die Wissenschaft entschleiert eine verborgene Realit¨ at – den Inhalt der Urne – oder n¨ ahert sich dieser Realit¨at immer mehr an) und dem konstruktivistischen Standpunkt (die Wissenschaft konstruiert Objekte und Modelle mit Hilfe von Kriterien und Werkzeugen, und verleiht dadurch diesen Objekten und Modellen eine relative Stabilit¨at). Nun ist aber die Methode, bei der man von
17
18
19
Nicole, beide prominente Vertreter der Jansenisten, einer katholischen Reformbewegung im Umkreis des Klosters Port Royal bei Paris, die in scharfem Konflikt mit der r¨ omischen Kirche lag. Auch Blaise Pascal stand dieser Bewegung nahe und war wom¨ oglich ein Mitverfasser des Buches. Formaler ausgedr¨ uckt beinhaltet das Gesetz der großen Zahlen: Die H¨ aufigkeit h eines Ereignisses mit Wahrscheinlichkeit p in n unabh¨ angigen Versuchen unterscheidet sich von p mit beliebig großer Wahrscheinlichkeit nur um beliebig wenig, sobald n hinreichend groß ist. Man dr¨ uckt dasselbe auch folgendermaßen aus: Die H¨ aufigkeit h konvergiert fast sicher f¨ ur n → ∞ gegen p. Oder auch: F¨ ur n → ∞ ist h eine konsistente Sch¨ atzung f¨ ur p. Die Bezeichnungsweise ist sowohl im Franz¨ osischen als auch im Deutschen uneinheitlich. Der Autor verwendet hier loi normale“, was im Deutschen auch durch ” Normalverteilungsgesetz“ wiedergegeben wird. √ ” Stirlingsche N¨ aherungsformel f¨ ur die Fakult¨ at: n! ≈ ( ne )n 2πn, wobei e die Basis der nat¨ urlichen Logarithmen bezeichnet.
66
2 Richter und Astronomen
registrierten Ereignissen auf Ursachen schließt, beider Interpretationen f¨ ahig: Ursachen werden entweder aufgedeckt oder konstruiert. Die Bayesschen Formalisierungen zielten darauf ab, Glaubensgr¨ unde unter Ber¨ ucksichtigung vorheriger Erfahrungen so abzusch¨ atzen, daß eine konkrete Situation beurteilt und eine Entscheidung getroffen werden kann. Der von Bayes 1764 unter dem Titel An Essay Towards Solving a Problem in the Doctrine of Chances 20 ver¨offentlichte Text beginnt bei der Formulierung des zum Problem von Bernoulli und de Moivre inversen Problems mit Worten, die heute seltsam klingen (die Chance einer Wahrscheinlichkeit“), deren Zweideu” tigkeit jedoch beim Verst¨andnis dessen helfen kann, wonach damals gesucht wurde: Gegeben ist die Anzahl Male, die ein unbekanntes Ereignis eingetreten und ausgeblieben ist. Gesucht ist die Chance, daß die Wahrscheinlichkeit seines Eintretens bei einem einzelnen Versuch irgendwo zwischen zwei angebbaren Graden der Wahrscheinlichkeit liegt (Bayes, 1764, neu herausgegeben von Pearson und Kendall, 1970, [221]). Die W¨ orter Wahrscheinlichkeit“ und Chance“ werden anschließend durch ” ” Begriffe aus der Theorie der Erwartungswerte definiert, das heißt durch ein Verh¨ altnis von Werten, die zu sch¨atzen sind, damit eine Wette berechtigt ist. Die Wahrscheinlichkeit eines Ereignisses ist das Verh¨ altnis zwischen dem Werte, welcher einer an das Eintreten des Ereignisses gekn¨ upften Erwartung zu geben ist, und dem Werte des in diesem Falle erwarteten Gewinns. Unter Chance verstehe ich dasselbe wie Wahrscheinlichkeit. (Bayes, op. cit.) Demnach wird den W¨ortern Chance und Wahrscheinlichkeit per Deklaration ein und dieselbe Bedeutung zugewiesen, was aber nicht zur Kl¨ arung ¨ des ersten Satzes beitr¨agt. Jedoch zeigt die nachfolgende Uberlegung, daß das Wort Chance“ im Sinne von Glaubensgrund“ mit Blick auf eine Entschei” ” dung verwendet wird, w¨ahrend das Wort Wahrscheinlichkeit“ eine objektive ” Bedeutung hat, ¨ ahnlich wie der Begriff F¨ ullung der Urne“. Es handelt sich ” demnach um die Wahrscheinlichkeit“, daß die F¨ ullung dieser unbekannten ” Urne (also das Verh¨altnis zwischen den Anzahlen der schwarzen und der weißen Kugeln) innerhalb eines gegebenen Intervalls liegt. Das heißt es geht um eine Ursachenwahrscheinlichkeit“, die sich – ebenso wie die Wahrscheinlich” ” keit“ der Schuld eines Angeklagten – nur durch einen Grad der Sicherheit“ ” interpretieren l¨ aßt, der f¨ ur eine Entscheidung notwendig ist. Die einzige Art und Weise, dieser Ursachenwahrscheinlichkeit“ eine formalisierte Bedeutung ” zu geben, w¨ are die Annahme, daß die Urne ihrerseits aus einer großen Anzahl von Urnen verschiedener F¨ ullungen gezogen wurde. Aber das f¨ uhrt auf 20
In deutscher Sprache erschienen unter dem Titel Versuch zur L¨ osung eines Problems der Wahrscheinlichkeitsrechnung in Ostwalds Klassikern der exakten Wis” senschaften“ (Leipzig 1908).
Der Bayessche Ansatz
67
die Frage der Verteilung dieser Zusammensetzungen, das heißt auf eine A” priori-Wahrscheinlichkeit“ zur¨ uck, und genau das ist der Punkt, an dem der Bayessche Ansatz am meisten kritisiert wird. Durch die Schaffung des Begriffes der bedingten Wahrscheinlichkeit“ ” f¨ uhrt das Verfahren die Irreversibilit¨at der Zeit in die Formulierung ein ( A ” dann B“) und das ist die Ursache f¨ ur den Doppelcharakter dieses Begriffes ¨ (Clero, 1986, [48]). In der Tat l¨aßt sich die Uberlegung auf der Grundlage der folgenden doppelten Gleichheit aufbauen: P (A und B) = P (A falls B) × P (B) = P (B falls A) × P (A) und hieraus folgt P (A falls B) = P (B falls A) ×
P (A) . P (B)
¨ Ubertragen auf das Problem der Wahrscheinlichkeit einer Ursache Hi (in einer Menge von n sich gegenseitig ausschließenden Ursachen) f¨ ur ein Ereignis E l¨ aßt sich dieser Sachverhalt unter Verwendung einer moderneren Schreibweise folgendermaßen wiedergeben: P (Hi |E) =
P (E|Hi ) · P (Hi ) P (E ∩ Hi ) . = n P (E) j=1 P (E|Hj ) · P (Hj )
Diese Formel wurde 1774 von Laplace in einem langen Satz ausgedr¨ uckt, der heute schwer lesbar ist. Die Schwierigkeit l¨ aßt sich mit der andersartigen Schwierigkeit der vorhergehenden mathematischen Formel vergleichen. L¨ aßt sich ein Ereignis durch eine Anzahl n von verschiedenen Ursachen erzeugen, dann verhalten sich die Wahrscheinlichkeiten der Existenz dieser Ursachen f¨ ur das betreffende Ereignis wie die Wahrscheinlichkeiten des Ereignisses f¨ ur diese Ursachen, und die Wahrscheinlichkeit f¨ ur die Existenz einer jeden Ursache ist gleich der Wahrscheinlichkeit des Ereignisses bei Vorliegen dieser Ursache, dividiert durch die Summe aller Wahrscheinlichkeiten des Ereignisses bei Vorliegen aller dieser Ursachen. (Laplace, 1774, M´emoire sur la probabilit´e des causes par les ´ev´enements. In: Oeuvres compl`etes, t. VIII, S. 28.) Aber der entscheidende Punkt im Beweis von Bayes besteht darin, daß die Symmetrie der doppelten Gleichheit, welche die bedingten Wahrscheinlichkeiten P (A falls B) und P (B falls A) definiert, f¨ ur ihn nicht existierte und daß beide Gleichheiten gesondert und unabh¨ angig voneinander bewiesen werden (Stigler, 1986, [267]), und zwar mit Hilfe von zwei verschie¨ denen Propositionen“. Diese Uberlegungen st¨ utzen sich auf Zunahmen der ” Gewinnerwartungswerte, die durch das Auftreten eines Anfangsereignisses A eingef¨ uhrt wurden. Jeder Beweis ist die Schilderung einer Folge von hypothetischen Ereignissen und deren Konsequenzen in Bezug auf Gewinne. Aber
68
2 Richter und Astronomen
diese Schilderungen k¨onnen nur dann zu einer Schlußfolgerung f¨ uhren, wenn man den Ursachen A-priori -Wahrscheinlichkeiten zuordnet, das heißt in diesem Fall die Wahrscheinlichkeit P (Hi ) – und das sogar tut, bevor man irgendein partielles Wissen erlangt hat. Die Hypothesen der gleichbleibenden“ ” A-priori -Wahrscheinlichkeit derartiger Ursachen sind h¨ aufig angefochten worden, indem man mit Hilfe von Beispielen zeigte, daß diese gleichbleibenden“ ” Wahrscheinlichkeiten auf verschiedene Weisen gew¨ ahlt werden k¨ onnen und daher reine Konventionen sind. Die Spannung und die Fruchtbarkeit des Bayesschen Ansatzes ist auf den Doppelcharakter des Anfangsausdrucks zur¨ uckzuf¨ uhren: die urspr¨ ungliche doppelte Gleichheit ist formal symmetrisch, aber logisch asymmetrisch, da die Zeit eine Rolle spielt und da die Ereignisse bekannt sind, w¨ ahrend die Ursachen aus ihnen geschlußfolgert werden. Dieser Doppelcharakter war u ¨brigens ein inh¨ arenter Bestandteil des Apparates, den Bayes zur Untermauerung ¨ seiner Uberlegungen ersonnen hatte. In der Tat erwies sich das Beispiel der Urne als unzul¨ anglich, denn es war schwierig, eine Reihe von Ereignissen zu konstruieren, bei denen man zuerst Urnen und dann Kugeln ziehen mußte: die Asymmetrie war zu stark. Bayes schlug deswegen vor, nacheinander zwei Kugeln auf einem quadratischen Billardtisch derart in Bewegung zu setzen, daß die Wahrscheinlichkeitsdichten ihrer Haltepunkte auf dem gr¨ unen Tuch gleichm¨ aßig verteilt sind. Die Kugel A wird zuerst gestoßen und nachdem sie zum Stillstand gekommen ist, wird eine vertikale Gerade durch ihren Haltepunkt gelegt, wodurch das Quadrat in zwei Rechtecke P und Q zerlegt wird. Danach wird die Kugel B gestoßen und die Wahrscheinlichkeit dessen untersucht, daß sie im Rechteck Q zum Stehen kommt. Man hat demnach eine Folge von zwei Ereignissen und kann die damit zusammenh¨ angenden bedingten Wahrscheinlichkeiten berechnen, indem man sowohl deren symmetrischen Charakter (geometrisch) als auch ihren asymmetrischen Charakter (zeitlich) aufrecht erh¨ alt. Die Methode der Bayesschen Inferenz kann aus der Sicht des vorliegenden ¨ Buches vom Standpunkt der Konstruktion von Aquivalenzklassen, Taxonomien und Kodierungen interpretiert werden. Tats¨ achlich impliziert der aus dieser Sichtweise postulierte Kausalit¨atsbegriff, daß ¨ ahnliche Ursachen zu ¨ ahnlichen Folgen f¨ uhren k¨onnen. Mit anderen Worten: man kann sich Kategorien von Ursachen und Wirkungen vorstellen und zuk¨ unftige Ereignisse k¨ onnen mit vergangenen Beobachtungen derart verkn¨ upft werden, daß die Ungewißheit der zuk¨ unftigen Ereignisse dadurch umschrieben wird. Diese Herangehensweise steht im Gegensatz zur Einstellung des nominalistischen Skeptizismus, der in der Philosophie des 18. Jahrhunderts (zum Beispiel bei Berkeley) sehr verbreitet war. In dieser Philosophie kann nichts mit etwas anderem verglichen werden und es ist keine allgemeine Darstellung m¨ oglich (Clero, 1986, [48]). In dieser Hinsicht schloß sie sich an die Philosophie von Hume an, der das menschliche Wissen als Produkt einer Akkumulation von Bleistiftstri” chen“ beschrieb, die Rillen in das Gehirn“ eingraben, denen jede weitere ” Erfahrung eine zus¨atzliche Lebhaftigkeit“ verleiht. Die Vorstellung von der ”
Der Bayessche Ansatz
69
mit neuem Wissen zusammenh¨angenden Zus¨atzlichkeit ist im Text von Bayes außerordentlich gegenw¨artig. Dieser Umstand ist auch f¨ ur die Indizienwissenschaften typisch, die Ginzburg (1980) den Galileischen Wissenschaften gegen¨ uberstellt. W¨ ahrend die letzteren mit Hilfe mathematischer und statistischer Methoden eine große Masse von Informationen gleichzeitig verarbeiten, um daraus allgemeine Gesetze abzuleiten, gehen die ersteren von einzelnen Merkmalen aus, um Ge” schichten“ zu konstruieren oder um einzelne F¨ alle allgemeinen Familien von Ursachen zuzuordnen. Das ist die Vorgehensweise des Historikers, des Polizisten und des Arztes, der auf der Grundlage von Symptomen eine Diagnose stellt. Folglich kann die Kodierung von Todesursachen“ – durch Verarbeitung ” der medizinischen Meldepflicht auf Totenscheinen – entsprechend der Internationalen Klassifikation der Krankheiten, Verletzungen und Todesursachen 21 als Bayessches Verfahren beschrieben werden (Fagot-Largeault, 1989, [90]): sowohl die einzelnen Symptome (Ereignisse) als auch der bereits bekannte Verbreitungsgrad einer Krankheit (A-priori -Wahrscheinlichkeit) werden ber¨ ucksichtigt. In diesem Fall, der eine Feinanalyse der Entstehung und Entwicklung der ICD-Nomenklatur darstellt, tritt die Kodierung der Todesursachen als Konvention auf. Tats¨achlich darf eine Ursache, deren statistische Beschreibung als aufschlußreich beurteilt wird, in der Folge der dem Tod vorangehenden Ereignisse nicht zu fr¨ uh auftreten (andernfalls w¨ are ihr Einfluß indirekt, schwach und verw¨assert), aber diese Ursache darf auch nicht zu eng mit Tod verkn¨ upft sein (f¨ ur den sie ein Synonym w¨are: das Herz schl¨ agt nicht mehr). Vielmehr muß es sich um eine Kategorie handeln, die zwischen den beiden genannten Kategorien steht und den Effekt hat, die Wahrscheinlichkeit des Todes signifikant zu steigern, ohne ihn jedoch zur Gewißheit zu machen. Dabei wird angenommen, daß man auf die betreffende Ursache durch Pr¨ avention oder durch geeignete therapeutische Maßnahmen einwirken kann, um diese Wahrscheinlichkeit zu senken. Die Analyse der medizinischen Diagnose und der Kodierung eines Totenscheins ist in doppelter Hinsicht f¨ ur den Bayesschen Ansatz typisch (vgl. Fagot-Largeault, 1989, [90]): einerseits durch die Konventionen, welche die Kausalit¨at durch eine Kategorisierung der Ereignisse definieren, deren Kenntnis wiederum Wahrscheinlichkeitsschwankungen impliziert – andererseits durch die Verarbeitung des Kodierungsmoments, das als Entscheidung angesehen wird, die sowohl einzelne Ereignisse als auch Apriori-Wahrscheinlichkeiten ber¨ ucksichtigt. Der Bayessche Ansatz war also eine wesentliche Episode in der Geschichte der Wahrscheinlichkeitsrechnung, denn dieser Ansatz war der Ursprung des Begriffes der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit. Dieser Begriff hat keine Bedeutung in einer rein axiomatischen Theorie der Wahrscheinlichkeitsrechnung (etwa in der Theorie von Kolmogorow), erweist sich aber als sinnvoll in der Analyse so manchen Entscheidungsverhaltens und 21
International Classification of Diseases, Injuries and Causes of Death (ICD).
70
2 Richter und Astronomen
¨ bei der praktischen Konstruktion von Aquivalenzklassen – einer Schl¨ usselphase der statistischen T¨atigkeit. Das Moment der Kodierung und seine speziellen Randbedingungen geraten mitunter in Vergessenheit, wenn man statistische Tabellen verarbeitet und interpretiert – ebenso wie der Bayesianismus lange Zeit in der statistischen Denkweise verdr¨angt worden ist.
Der goldene Mittelweg“: ” Mittelwerte und kleinste Quadrate Im Rahmen der Techniken, die heute zur Konstruktion und Stabilisierung der sozialen Welt beitragen, spielt die Statistik eine doppelte Rolle. Einerseits bestimmt sie Objekte, indem sie f¨ ur diese Objekte mittels standardisierter ¨ Definitionen Aquivalenzen festlegt. Dadurch wird es m¨ oglich, die Objekte zu messen: Mit Hilfe der Sprache der Wahrscheinlichkeitstheorie pr¨ azisiert man aßt. Andererseits den Vertrauensgrad22 , der sich diesen Messungen zuordnen l¨ liefert die Statistik Formen, und zwar sowohl zur Beschreibung der Relationen zwischen den so konstruierten Objekten als auch zur Pr¨ ufung der Konsistenz dieser Relationen. Diese beiden Aspekte, das heißt die Konstruktion von Objekten und die Analyse der Relationen zwischen diesen Objekten, scheinen eng miteinander zusammenzuh¨angen. Dennoch gehen beide Aspekte aus zwei deutlich voneinander verschiedenen Traditionen hervor, die erst zu Beginn des 20. Jahrhunderts konvergierten. Mitunter konnte am Ende ein und derselbe Formalismus auf ganz verschiedene Fragen angewendet werden, aber die ein¨ fache Ubertragung dieses geistigen Werkzeugs von einem Bereich auf einen anderen dauerte ein volles Jahrhundert und bei diesem Prozeß waren aufwen¨ dige begriffliche Ubersetzungen erforderlich. Ein Beispiel hierf¨ ur ist die als Methode der kleinsten Quadrate bezeichnete Anpassungsmethode (Armatte, 1991, [5]). Diese Methode war 1805 von Legendre in Antwort auf eine Frage formuliert worden, die w¨ ahrend des gesamten 18. Jahrhunderts von Astronomen und Geod¨ aten immer wieder gestellt wurde: Wie kann man die unter verschiedenen Voraussetzungen gemachten Beobachtungen kombinieren, um bestm¨ogliche Sch¨ atzungen einer Reihe von astronomischen und terrestrischen Gr¨oßen zu erhalten, die ihrerseits durch lineare Relationen verkn¨ upft sind? Diese Gr¨oßen waren mit unvollkommenen Instrumenten unter unterschiedlichen Bedingungen gemessen worden, zum Beispiel in verschiedenen historischen Epochen oder an mehreren Punkten der Erde. Wie ließ sich diese F¨ ulle von Messungen unter Ber¨ ucksichtigung des Umstandes am besten nutzen, daß sie die theoretisch vorgegebene Relation niemals vollst¨ andig best¨atigten, sondern das Vorhandensein einer kleinen (auch als Fehler , Residuum oder Rest bezeichneten) Abweichung an derjenigen Stelle gestatteten, wo eigentlich der Wert Null auftreten m¨ ußte. Mit anderen Worten: die zwei oder drei unbekannten Gr¨ oßen traten als L¨ osungen 22
Auch Konfidenzgrad“ genannt. ”
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate ”
71
eines Systems auf, das zu viele Gleichungen hatte (soviele Gleichungen wie Beobachtungspunkte). Man muß also diese Gleichungen optimal kombinieren, um eine Sch¨ atzung der gesuchten Gr¨oßen zu erhalten. Das war das Problem, das Legendre im Jahr 1805 mit Hilfe einer Methode l¨ oste, bei der die Summe der Quadrate dieser Abweichungen minimiert wird (Stigler, 1986, [267]). Es handelte sich also darum, die Messung von Objekten mit gr¨ oßtm¨ oglicher Pr¨ azision durchzuf¨ uhren, indem man die unterschiedlichen Beobachtungen ein und derselben Gr¨oße bestm¨oglich miteinander kombiniert. Dagegen war das in den 1890er Jahren von den englischen Eugenikern Galton und Pearson – den Erfindern der Regression und der Korrelation – gestellte und gel¨ oste Problem g¨ anzlich andersartig: Wie sind die Relationen und wechselseitigen Beziehungen zwischen Objekten zu beschreiben, die weder voneinander unabh¨ angig noch vollst¨andig voneinander abh¨angig sind? Derartige F¨ alle treten bei Problemen der Vererbung auf. Die Anpassung einer Variablen an eine andere Variable mit Hilfe eines linearen Regressionsmodells f¨ uhrte nichtsdestoweniger zu einem System von Gleichungen und zu einem L¨ osungsansatz, der formal analog zum Verfahren von Legendre war. Aber die Bedeutungsinhalte der mathematischen Konstruktion wichen in beiden F¨ allen derart voneinander ¨ ab, daß die Ubertragung des Formalismus von Legendre – die dieser 1810 auf der Grundlage seiner auf Gauß und Laplace zur¨ uckgehenden probabilistischen Interpretation schuf – nicht wirklich vor 1930 stattfand. Die gegen 1810 von Laplace und Gauß durchgef¨ uhrte Synthese ergab sich ihrerseits aus der Vereinigung zweier ganz unterschiedlicher Traditionen. Einerseits waren die Astronomen und die Physiker daran gew¨ ohnt, empirisch ungenaue Beobachtungen zu kombinieren – zum Beispiel durch Mittelwertberechnungen (das heißt durch den Mittelweg“, den man einschlagen muß), um ” die Werte von Naturgr¨oßen so gut wie m¨oglich“ abzusch¨ atzen. Andererseits ” hatten die probabilistisch orientierten Mathematiker und Philosophen an der Frage des Grades der Sicherheit gearbeitet, der sich einem Wissen oder einem Glauben zuordnen l¨aßt. Die Philosophen gelangten auf diese Weise an einen Punkt, an dem sie den von den Mathematikern verwendeten Ausdruck so gut wie m¨ oglich“ infrage stellten: Wie soll man den Vertrauensgrad von ” etwas absch¨ atzen, das eine Sch¨atzung verdient? Vor Gauß und Laplace hatte niemand eine Antwort auf diese Frage gegeben. Die erstgenannte Tradition, die sich mit der Messung astronomischer und terrestrischer Gr¨ oßen befaßte, blickte bereits auf eine lange Geschichte zur¨ uck (Stigler, 1986, [267]). Dieses Problem versprach bedeutende ¨ okonomische und milit¨ arische Anwendungen. Deswegen hat im gesamten 18. Jahrhundert das Streben nach Perfektionierung der Techniken zur Berechnung von Schiffspositionen (L¨ angen- und Breitenbestimmung) zahlreiche Forschungsarbeiten stimuliert. Seit 1700 war die Berechnung der Breite (auf der Grundlage der H¨ ohe der Fixsterne) ziemlich einfach. Dagegen machte die L¨ angenberechnung betr¨ achtliche Schwierigkeiten. In England wurde 1714 eine Kommission gegr¨ undet, um diese Frage zu untersuchen und Forschungen zu subventionieren, die zur Probleml¨ osung beitragen (zwischen dem Gr¨ undungsdatum und 1815
72
2 Richter und Astronomen
gab man mehr als 100000 englische Pfund zu diesem Zweck aus). Zwei Techniken wurden damals entwickelt: die Pr¨azision der Uhren, die an Bord von Schiffen die Greenwich-Zeit anzeigen, und die Aufstellung von Tabellen, die eine detaillierte Beschreibung der Mondpositionen lieferten. Im zweitgenannten Fall besteht das Problem darin, daß sich der Mond gegen¨ uber der Erde nicht immer unter ein und demselben Winkel zeigt und daß leichte Schwankungen der Mondrotation (die Librationen“) die Berechnung ” der Mondposition außerordentlich komplizieren. Der deutsche Astronom Tobias Mayer (1723–1762) ver¨offentlichte hierzu eine geistreiche L¨ osung23 , indem er die Beobachtungen in geeigneter Weise miteinander kombinierte. Berechnungen hatten ihn dazu gef¨ uhrt, zu verschiedenen Zeitpunkten die Position eines gewissen Mondkraters pr¨azise zu beobachten und diese Beobachtungen f¨ uhrten zur Messung dreier unterschiedlicher astronomischer Gr¨ oßen, die miteinander durch eine Gleichung der sph¨arischen Trigonometrie verkn¨ upft waren. Da er diese Beobachtungen insgesamt siebenundzwanzigmal gemacht hatte, mußte er ein u ¨berbestimmtes System von siebenundzwanzig Gleichungen in drei Unbekannten l¨osen. Mayer verf¨ ugte u ¨ber keine Regel zur Minimierung der Fehler zwischen den Erwartungswerten und den durch zuf¨allige N¨ aherung berechneten Werten. Deswegen f¨ uhrte er eine gut durchdachte Umgruppierung seiner siebenundzwanzig Gleichungen in drei Gruppen zu je neun Gleichungen durch und addierte dann gesondert jede der drei Gruppen. Auf diese Weise erhielt er schließlich ein System von drei Gleichungen in drei Unbekannten, und diese Gleichungen lieferten ihm die gesuchten Absch¨ atzungen. Die Richtigkeit der Methode ist auf die scharfsinnige Auswahl dreier Teilwolken von Punkten zur¨ uckzuf¨ uhren, die durch ihre jeweiligen Schwerpunkte ersetzt wurden, so daß der gr¨ oßtm¨ogliche Anteil der urspr¨ unglichen Informationen der siebenundzwanzig Beobachtungen erhalten blieb. Die Tatsache, daß Mayer die Messungen selbst durchgef¨ uhrt hatte und mit ihnen gr¨ undlich vertraut war, verlieh ihm die K¨ uhnheit, die Gleichungen umzugruppieren, und gab ihm die erforderliche Intuition, diese Umgruppierung auf einfallsreiche Weise vorzunehmen. Aber diese empirische L¨osung st¨ utzte sich auf kein allgemeines Kriterium und konnte deswegen kaum auf andere Situationen u ¨bertragen werden. Es handelte sich um eine Ad-hoc-L¨osung, wie sie f¨ ur einen Handwerker typisch ist. Ein allgemeines Kriterium daf¨ ur, eine Anpassung zu optimieren, wurde wenig sp¨ ater im Jahre 1755 von Roger Joseph Boscovich24 in Bezug auf ein anderes Problem vorgeschlagen, das ebenfalls viele Gelehrte des 18. Jahrhun23
24
Tobias Mayer, Abhandlungen u alzung des Mondes um seine Axe. In: ¨ber die Umw¨ Kosmographische Nachrichten und Sammlungen, von den Mitgliedern der Kosmographischen Gesellschaft zusammengetragen, 1(1748), S. 52–148. Urspr¨ unglich: Rudjer Josip Boˇscovi´c (1711–1787). Kroatischer Jesuit, der seit 1740 als Professor f¨ ur Mathematik am Collegium Romanum in Rom lehrte und 1764 Professor f¨ ur Mathematik in Pavia wurde. Sein italianisierter Name ist Ruggiero Guiseppe Boscovich.
Der goldene Mittelweg“: Mittelwerte und kleinste Quadrate ”
73
derts in Unruhe versetzt hatte: das Problem der Erdgestalt. Man vermutete, daß die Erde keine vollkommene Kugel ist, sondern an den Polen leicht abge¨ dagegen verbreitert ist (einige Gelehrte vertraten u plattet25 , am Aquator ¨bri¨ gens die entgegengesetzte These). Die Uberpr¨ ufung dieses Problems machte es erforderlich, die L¨ange eines Meridianbogens an ganz unterschiedlichen Breiten zu messen. Die Messungen wurden in Paris, Rom, Quito, Lappland und am Kap der Guten Hoffnung durchgef¨ uhrt. In diesem Fall erwies es sich als notwendig, ein System von f¨ unf Gleichungen in zwei Unbekannten zu l¨ osen. Boscovich argumentierte ganz anders als Mayer – m¨ oglicherweise weil er eine kleinere Anzahl von Daten zur Verf¨ ugung hatte. Er erfand eine geometrische Technik zur Minimierung der Summe der absoluten Werte der Reste, das heißt der Abweichungen zwischen den beobachteten Werten und den angepaßten Werten. Als allgemeines Kriterium ließ sich diese Technik jedoch nur sehr schwer handhaben und die geometrische“ L¨ osung war nur aufgrund der ” kleinen Anzahl von Beobachtungen und unbekannten Gr¨ oßen m¨ oglich (Stigler, 1986, [267]). Laplace hatte versucht, die Summe der absoluten Werte mathematisch zu behandeln, mußte aber wegen der Komplexit¨ at der damit verbundenen Berechnungen von seinem Vorhaben Abstand nehmen. Die L¨ osung durch Minimierung der Summe der Quadrate der Abweichungen scheint zuerst von Gauß bereits 1795 verwendet worden zu sein (zumindest behauptete er das), aber er gab keine explizite Formulierung daf¨ ur an. Unabh¨ angig von Gauß konzipierte, formulierte und ver¨ offentlichte Legendre diese L¨ osung im Jahre 1805, was einen lebhaften Priorit¨ atsstreit zwischen beiden zur Folge hatte (Plackett, 1972, [232]).26 Gauß behauptete, dieses Kriterium – die Methode der kleinsten Quadrate – bereits 1795 benutzt zu haben, ¨ außerte aber sp¨ ater w¨ ahrend der Kontroverse, ihm sei das Kriterium so trivial erschienen, daß er es weder f¨ ur n¨ utzlich befunden h¨atte, es zu ver¨ offentlichen, noch ihm einen Namen f¨ ur die Nachwelt zu geben. F¨ ur Gauß war das Kriterium nur ein Rechenmittel; das Wesentliche f¨ ur ihn war das damit erzielte Forschungsresultat. Dagegen nutzten Legendre im Jahre 1805, vor allem aber Gauß selbst im Jahre 1809 und Laplace im Jahre 1810 sehr spezielle Eigenschaften dieser Methode. Insbesondere verwendeten Laplace und Gauß die Beziehungen, die unter den Gesetzen der Wahrscheinlichkeitsrechnung als Gaußsches Fehler” gesetz“ (der zuk¨ unftigen Normalverteilung“) etabliert wurden. ” Wir m¨ ussen jetzt in unserer Darstellung noch einmal zur¨ uckgehen, um kurz die andere Tradition zu verfolgen, die zur Synthese von Gauß-Laplace 25
26
Unter der Voraussetzung, daß die Erde wie eine homogene, mit gleichf¨ ormiger Winkelgeschwindigkeit rotierende Fl¨ ussigkeit behandelt werden kann, hatte Newton in den Principia (1687) gezeigt, daß die Erde ein abgeplattetes Rotationsel¨ lipsoid ist, wobei der Radius am Aquator um ca. 1/230 l¨ anger ist als der Radius am Pol. Die Abplattung der Erde, das heißt der L¨ angenunterschied zwischen der Achse der Erdkugel und des Erdellipsoids, betr¨ agt ca. 42 km. Dieser Streit ist nicht nur von anekdotischem Interesse, denn er zeigt, wie sich ein wissenschaftliches Werkzeug verfestigt, wie es u ¨bertragbar wird und sich in einen anderen Kontext transportieren l¨ aßt.
74
2 Richter und Astronomen
f¨ uhrte. Es geht um die Tradition der Philosophen, die – ausgehend von probabilistischen Beschreibungen – u ¨ber den Grad der Sicherheit des Wissens arbeiteten. Um ein Wahrscheinlichkeitsgesetz der statistischen Erwartung zu formulieren, muß man sich zun¨achst u ur ele¨ber die entsprechenden Gesetze f¨ mentare Beobachtungsfehler verst¨andigen. Danach m¨ ussen diese elementaren ” Gesetze“ mathematisch kombiniert“ werden, um daraus ein Gesetz f¨ ur sta” tistische Berechnungen abzuleiten. F¨ ur die Verteilungen der Elementarfehler sind verschiedene Formen vorgeschlagen worden. Simpson (1757) versuchte es mit einer Linearform, die zu einem gleichschenkligen Dreieck f¨ uhrt: −a|x| + b. −m|x| e ] und 1777 Laplace schlug 1774 zun¨achst eine exponentielle Form [ m 2 a 1 )] vor. Laplace kam w¨ ahrend seiner Arbeit zur log( |x| einen Logarithmus [ 2a theoretischen Fehlerverteilung einer empirischen Verteilung darauf, das Problem der inversen Wahrscheinlichkeit oder Ursachenwahrscheinlichkeit aus einer Sicht zu betrachten, die der Auffassung von Bayes nahe stand. Nach der von Gauß und Laplace im Jahre 1810 durchgef¨ uhrten Synthese der empiristischen und der probabilistischen Auffassung setzte sich die Gauß2 sche Formel e−x aufgrund ihrer mathematischen Eigenschaften und ihrer ¨ guten Ubereinstimmung mit den Beobachtungen fast vollst¨ andig durch. Die ¨ Frage der Verteilung der Elementarfehler hatte im Ubrigen einen Teil ihrer Bedeutung verloren, nachdem Laplace 1810 den Zentralen Grenzwertsatz bewiesen hatte. Dieser Satz zeigt, daß sogar dann, wenn die Wahrscheinlichkeitsverteilung der Fehler keine Normalverteilung ist, die Verteilung der Mittelwerte der Fehler gegen eine solche Verteilung strebt, falls die Anzahl der Beobachtungen unbegrenzt w¨achst.27 Dieser Umstand verlieh der Gaußschen Form einen entscheidenden Vorteil, auf dem – seit Quetelet und seinem Durchschnittsmenschen – die gesamte Statistik des 19. Jahrhunderts beruhte. Die Ergebnisse von Gauß und Laplace f¨ uhrten also zu einer außerordentlich fundierten Synthese, auf der die Experimentalwissenschaften des 19. Jahrhunderts aufbauten. Diese Synthese vereinigte in sich einerseits die empirischen Arbeiten, die zur Methode der kleinsten Quadrate f¨ uhrten, und andererseits die wahrscheinlichkeitstheoretischen Formalismen, die im Normalverteilungsgesetz und dessen zahlreichen mathematischen Eigenschaften gipfelten. Jedoch sollte es ein ganzes Jahrhundert dauern, bis diese Techniken in den Sozialwissenschaften und insbesondere in den Wirtschaftswissenschaften eingesetzt und formalisiert wurden. Die Gr¨ unde hierf¨ ur werden wir nachfolgend pr¨ azisieren. Eine der m¨oglichen Hypothesen zur Erkl¨ arung dieser Verschiebung besteht darin, daß es noch keine Datenaufzeichnungsverfahren gab, die ihrerseits mit der Schaffung moderner Staaten und der Konstruktion der ent¨ sprechenden institutionellen Aquivalenzr¨ aume zusammenh¨ angen – das heißt ¨ mit der Konstruktion von Aquivalenzklassen im institutionellen Bereich und 27
Genauer gesagt beinhaltet Zentrale Grenzwertsatz, daß die Verteilungsfunkder N tion einer Summe X = Xn von unabh¨ angigen oder hinreichend schwach n=1 korrelierten Zufallsvariablen Xn nach geeigneter Normierung unter ziemlich allgemeinen Voraussetzungen f¨ ur N → ∞ gegen die Normalverteilung strebt.
¨ Messungsanpassungen als Grundlage f¨ ur Ubereink¨ unfte
75
in den Bereichen der Rechtsprechung, der Gesetzgebung oder der Gewohnheitsrechte.
¨ Messungsanpassungen als Grundlage fu u ¨ r Ubereink ¨ nfte Wurde ein Richter im 17. Jahrhundert ersucht, einen Konflikt beizulegen, der sp¨ atere und somit noch unbekannte Ereignisse implizierte, dann hat er bei sei¨ ner Entscheidung gefordert, daß die Prozeßparteien eine Ubereinkunft u ¨ber ¨aquivalente Erwartungswerte erzielen. Daher erschien die Wahrscheinlichkeit, das heißt das Verh¨altnis zwischen Erwartungswert und Einsatz, als ein Maß, ¨ auf dessen Grundlage eine Ubereinkunft zwischen Personen aufgebaut werden konnte. Im 18. Jahrhundert versuchten dann die Vermessungsingenieure, Astronomen und Physiker, die sich mit einer Vielfalt unterschiedlicher Naturbeobachtungen konfrontiert sahen, diese Beobachtungen in Messungen zusammenzufassen, die von anderen Wissenschaftlern weiterverwendet werden konnten. Zu diesem Zweck konstruierte man Verfahren (Berechnung von Mittelwerten, Anpassung durch kleinste Quadrate), deren Optimalit¨ atseigen¨ schaften es erm¨ oglichten, Ubereink¨ unfte zu treffen. Und schließlich waren es zu Beginn des 19. Jahrhunderts die Pr¨afekten, die mit dem Stock in der Hand die Wege ihres Departements entlang gingen, um Besonderheiten zu erkunden und zu registrieren. Mit ihren noch unbeholfenen Beobachtungen trugen die Pr¨ afekten zum Aufbau der k¨ unftigen neuen Administration bei. Die Aufgabe dieser Administration bestand darin, der ganzen Nation Messungen zu ¨ liefern, die mit hinreichender Ubereinstimmung akzeptiert werden und damit eine sichere Grundlage f¨ ur ¨offentliche Debatten und f¨ ur Entscheidungsfindungen darstellen. In den betrachteten vier F¨allen – das heißt in Bezug auf Richter, Astronomen, Vermessungsingenieure und Pr¨afekten – haben wir es mit Abwandlungen des Wortes messen zu tun, das in scheinbar unterschiedlichen Bedeutungen verwendet wird. Die Richter trafen ihre Entscheidungen mit Maß (das heißt maßvoll), die Astronomen und die Vermessungsingenieure optimierten ihre Messungen und die Pr¨afekten setzten die (auf Messungen beruhenden) Maßnahmen ihrer Minister um.28 Die Nebeneinanderstellung dieser unterschiedlichen Bedeutungen erscheint jedoch nicht als Zufall, sobald man hinter den Messungen (oder den auf ihnen beruhenden Maßnahmen) die Absicht ¨ erkennt, eine Ubereinkunft zwischen prozeßf¨ uhrenden Parteien, unter Wissenschaftlern oder zwischen B¨ urgern zu erzielen. Demnach haben die scheinbar heteroklitischen Personen und Situationen – die in diesem Buch als Vorl¨ aufer im Stammbaum der modernen Verfahren der statistischen Objektivierung auftreten – eine Gemeinsamkeit: sie verbinden die Konstruktion der Objektivit¨ at mit der Konstruktion von Intersubjektivit¨atstechnologien“ (Hacking, 1991, ” ¨ [120]), das heißt mit Ubereinkunftsformeln. 28
Das im franz¨ osischen Original verwendete Wort mesure l¨ aßt sich im Deutschen je nach Zusammenhang durch Messung, Maß oder Maßnahme wiedergeben.
76
2 Richter und Astronomen
Um 1820 existierten jedoch noch keine vereinheitlichten statistischen Ver¨ fahren zur Bereitstellung derartiger Ubereinkunftsformeln, die heute aufgrund ihrer Solidit¨ at allgegenw¨artig sind. Die sp¨atere Geschichte l¨ aßt sich als eine Folge von Synthesen schildern, die zwischen a priori unterschiedlichen Traditionen erfolgten. Ein erstes Beispiel hierf¨ ur ist die Laplace-Gauß-Synthese. Diese Synthese erfolgte durch die Verschmelzung der wahrscheinlichkeitstheoretischen Formalisierung der Binomialgesetze von Jakob Bernoulli und Abraham de Moivre mit der Legendreschen Anpassung durch die Methode der kleinsten Quadrate. Weitere Synthesen sollten folgen. In den 1830er Jahren verglich Quetelet die von den Bureaus f¨ ur Verwaltungsstatistik beobachteten Regelm¨ aßigkeiten mit den Regelm¨aßigkeiten der astronomischen Messungen und leitete daraus statistische Gesetze ab, die unabh¨ angig von den Individuen waren. Zwischen 1880 und 1900 verkn¨ upften Galton und Pearson die auf Darwin zur¨ uckgehenden Fragen der Vererbung mit der von Quetelet festgestellten Normalverteilung der Merkmale der menschlichen Spezies und mit den Anpassungstechniken, die ihren Ursprung in der Theorie der Meßfehler hatten.29
29
Am Anfang von Kapitel 9 unterbreiten wir in einer schematischen Darstellung ¨ einen Vorschlag f¨ ur einen Stammbaum der Okonometrie.
3 Mittelwerte und Aggregatrealismus
Wie kann man aus Vielem Eines machen? Und was macht man, wenn man dieses Eine wieder zerlegen m¨ochte, um erneut die Diversit¨ at herzustellen? Und warum soll man das machen? Es handelt sich hierbei um drei verschiedene, aber untrennbar miteinander zusammenh¨ angende Fragen. Diese Fragen treten bei der Entwicklung und Ausarbeitung der statistischen Werkzeuge zur Objektivierung der sozialen Welt immer wieder auf. Mit der Verwendung des Verbs machen“ in den obigen Formulierungen m¨ ochten wir nicht suggerie” ren, daß dieser Prozeß der Realit¨atsproduktion k¨ unstlich und somit unwahr“ ” ist. Vielmehr m¨ ochten wir an die Kontinuit¨at erinnern, die zwischen den beiden Analyse-Aspekten besteht, das heißt an die Kontinuit¨ at zwischen dem ¨ kognitiven und dem aktiven Aspekt. Diese innige Uberschneidung, die f¨ ur die probabilistische und statistische Erkenntnisweise charakteristisch ist, erkl¨ art vielleicht, warum diese Techniken von der Wissenschaftsphilosophie nur selten in subtiler Weise angeschnitten werden. Die offensichtliche Komplexit¨ at eines Gebietes, dessen Technizit¨at dieses relative Schweigen rechtfertigen k¨ onnte, ist ihrerseits das Produkt dieser besonderen Situation, in der die Welten des Handelns und des Wissens miteinander verkn¨ upft sind. Die Geschichte dieser Techniken besteht aus einer Reihe von intellektuellen Destillationen und L¨auterungsprozessen, die dazu bestimmt sind, schl¨ usselfertige Werkzeuge herzustellen – Werkzeuge, die von den unterschiedlichen Kontingenzen ihrer Entstehung befreit sind. Exemplarisch f¨ ur diese Auffassung sind die h¨ aufigen und lebhaften Debatten, die im 19. Jahrhundert zum Begriff des Mittelwertes, seines Status und seiner Interpretation gef¨ uhrt wurden. Jenseits der scheinbaren Trivialit¨at der Rechenweise dieses elementaren Werkzeugs der Statistik ging es jedoch um viel mehr: Die Debatten bezogen sich auf die Natur des vom Kalk¨ ul bereitgestellten neuen Objekts und auf die M¨ oglichkeit, dieses Objekt mit einer autonomen Existenz auszustatten, die von den elementaren Individuen unabh¨angig ist. Der Streit um den Durchschnittsmenschen war lebhaft, denn es wurde ein ganz neues Werkzeug eingef¨ uhrt – einschließlich des binomischen Gesetzes“ der Verteilung der Meßfehler – um ”
78
3 Mittelwerte und Aggregatrealismus
eine sehr alte philosophische Frage zu behandeln, n¨ amlich die Frage nach dem Realismus der Aggregate von Dingen oder von Personen. Das vorliegende Kapitel beschreibt einige Momente dieser Debatten u ¨ber den realen oder nominalen Charakter derartiger Aggregate und u ¨ber die Werkzeuge – insbesondere die probabilistischen Werkzeuge – die bei dieser Gelegenheit verwendet wurden. So stellte etwa Quetelet tats¨ achlich drei – aus unterschiedlichen Denkhorizonten hervorgegangene – M¨ oglichkeiten zusammen, die Einheit des Diversen“ begrifflich zu erfassen. Mit Wilhelm von Ockham und ” dem Gegensatz zwischen der nominalistischen und der realistischen Philosophie hatte die mittelalterliche Theologie bereits die Frage nach dem Umfang einer mehrelementigen Menge aufgeworfen. Diese Frage ist vom Standpunkt des vorliegenden Buches wesentlich, in dem wir die Genese der Konventionen ¨ untersuchen, die bei der Konstruktion von Aquivalenzen und bei der stati¨ stischen Kodierung getroffen wurden. Die Ingenieure und Okonomen des 17. und 18. Jahrhunderts, zum Beispiel Vauban, hatten bereits Mittelwerte berechnet, und zwar sowohl im Hinblick auf die Sch¨ atzung eines existierenden Objekts als auch zur Schaffung neuer Entit¨aten. Und schließlich hatten die im Kapitel 2 genannten Probabilisten des 18. Jahrhunderts im Ergebnis der Fragen, die sie zu Meßfehlern und zu den hieraus geschlußfolgerten Ursachen¨ wahrscheinlichkeiten stellten, leistungsstarke Werkzeuge geschaffen, um Aquivalenzen aufzustellen. Zu diesen Werkzeugen geh¨ oren das Gesetz der großen Zahlen von Jakob Bernoulli und die Synthese von Gauß-Laplace, die zum Zentralen Grenzwertsatz f¨ uhrte. Quetelet st¨ utzte sich auf diese unterschiedlichen Traditionen und auf die immer ergiebiger werdenden statistischen Aufzeichnungen der Institutionen, deren Entstehung wir im Kapitel 1 beschrieben hatten. Durch die Nutzung dieser Quellen schuf er eine neue Sprache, die es erm¨ oglichte, neue Objekte anzubieten, die mit der Gesellschaft und deren Stabilit¨ at zu tun hatten. Diese neue Sprache befaßte sich nicht mehr mit Individuen und der Rationalit¨ at ihrer Entscheidungen, wie es noch die Probabilisten bis hin zu Laplace und Poisson getan hatten. Die bei der Verwendung des Gesetzes der großen Zahlen vorausgesetzten Homogenit¨atskonventionen wurden von Poisson, Bienaym´e, Cournot und Lexis diskutiert und die Diskussionen f¨ uhrten zu weiteren Werkzeugen, mit denen sich der Realismus der makrosozialen Objekte testen ließ und immer feinere Zerlegungen dieser Objekte konstruiert werden konnten. Schließlich nahm die Durkheimsche Soziologie diese Werkzeuge in ihren Besitz, um den Begriff der außerhalb der Individuen existierenden sozialen Gruppe zu erschaffen. Diese Werkzeuge wurden sp¨ ater im Namen einer Totalit¨ atskonzeption verworfen, die nicht mehr den Berechnungen von Mittelwerten verpflichtet war. Der in den modernen Sozialwissenschaften immer wieder auftretende Gegensatz zwischen dem individualistischen und dem holistischen Standpunkt l¨aßt sich anhand der – in der zweiten H¨ alfte des 19. Jahrhunderts ¨ außerst lebhaften – Debatten u ¨ber Statistiken und Mittelwerte verfolgen, wobei die Mittelwerte von beiden Gruppen mal verwendet und dann wieder denunziert wurden.
Nominalismus, Realismus und statistische Magie
79
Nominalismus, Realismus und statistische Magie Warum eigentlich sollte man vor der Behandlung der Mittelwertdebatten des 19. Jahrhunderts auf die mittelalterlichen Kontroversen zwischen Realisten und Nominalisten zu sprechen kommen und damit eine Verquickung von vollkommen unterschiedlichen intellektuellen Kontexten riskieren? Es stellt sich heraus, daß dieses Moment aufschlußreich ist – einerseits wegen der damals benutzten Denkschemata (logischer Vorrang des Ganzen oder der Individuen, aus denen es sich zusammensetzt) und andererseits deswegen, weil die gleichen Denkschemata in einem Streit zwischen Papsttum und Franziskanerorden bem¨ uht wurden, in dem es um das Eigentum der G¨ uter der Franziskaner ging (Villey, 1975, [282]). Die Debatten u ortern ¨ber die Beziehungen zwischen universellen Ideen, W¨ von allgemeinem Charakter und individualisierten Dingen sind selbstverst¨ andlich genauso alt wie die klassische Philosophie. So unterscheidet die klassische Philosophie drei verschiedene Bezugnahmen des lateinischen Wortes homo (Mensch): die beiden Silben, aus denen das Wort besteht, einen besonderen Menschen und die Menschen im Allgemeinen (das heißt den Signifikanten und die beiden Signifikat-Ebenen: Singul¨arit¨at und Allgemeinheit). Im 14. Jahrhundert, zur Zeit der Kontroverse zwischen Realisten und Nominalisten (die bildhaft im Roman Der Name der Rose von Umberto Eco gezeichnet wird), behaupteten die Realisten, daß nur Ideen und allgemeine Konzepte eine reale Existenz haben – eine Ansicht, die wie das Gegenteil von dem anmutet, was wir heute als Realismus bezeichnen w¨ urden (Schumpeter, 1983, [254]). Dagegen behaupteten die Nominalisten, deren maßgeblicher Theoretiker Wilhelm von Ockham (William Occam, ca. 1300–1350) war, daß es nur einzelne Individuen gibt und daß die W¨orter, die zur Bezeichnung einer Gesamtheit von Individuen oder zur Bezeichnung eines Konzeptes dienen, praktische Konventionen sind, aber keine Realit¨at bezeichnen, weswegen man diesen W¨ ortern gegen¨ uber mißtrauisch sein muß. Als exponierter Vertreter des Nominalismus ließ sich Ockham von folgendem Prinzip leiten: Wesen soll man nicht u ¨ber ” Geb¨ uhr vermehren“ 1 – ein Sparsamkeitsprinzip, das oft als Ockhamsches ” Rasiermesser“ (Occam’s razor) oder Ockhamsches Messer“ bezeichnet wird ” (Largeault, 1971, [165]). Die nominalistische Position ist bedeutsam, da sie den Niedergang der alten Scholastik ank¨ undigte und den Weg f¨ ur ein subjektives Recht“ sowie ” f¨ ur die individualistischen und empiristischen Philosophien der nachfolgenden Jahrhunderte freimachte. Selbstverst¨andlich ¨anderte sich der Bedeutungsinhalt dieses Nominalismus in dem Maße, wie er die Abstraktionskraft betonte, die der Benennung von Dingen innewohnt. So hat f¨ ur Paul Vignaux (1991) 1
Nach Ockham besteht die Welt aus einzelnen Dingen und verborgenen Qua” lit¨ aten“, die nirgends entdeckt wurden. In diesem Zusammenhang wendete er sein Messer“ an, das die nichtexistenten Wesen abschnitt“: entia non sunt ” ” ” multiplicanda praeter necessitatem“.
80
3 Mittelwerte und Aggregatrealismus
der Nominalismus der modernen Empiriker den Akzent auf die aktive Funkti” on des Wortes gesetzt, das einen Faktor des mentalen Abstraktionsverhaltens darstellt, indem es gewisse Eigenschaften des Dinges nicht erw¨ ahnt“. Diese Formulierung beschreibt pr¨azise die Operationen der Kriterienbildung und der statistischen Kodierung, die es durch Weglassen gewisser Eigenschaften des ” Dinges“ erm¨ oglichen, die Abstraktionsweisen zu diversifizieren und dadurch eine Vervielfachung der Standpunkte bez¨ uglich dieses Dinges zuzulassen. Auch die realistische Position entwickelte sich von ihrer ontologischen und idealistischen mittelalterlichen Version (Ideenrealismus) weiter und nahm materialistischere und empirizistischere Formen an. Hierzu waren Werkzeuge erforderlich, mit deren Hilfe man die Dinge miteinander verkn¨ upfen und sie dadurch zu Realit¨aten einer h¨oheren Ebene machen konnte: die Nomenklaturen der Naturalisten des 18. Jahrhunderts (Linn´e) und die statistischen Mittelwerte des 19. Jahrhunderts (Quetelet). Dieser werkzeugm¨ aßig gut ausger¨ ustete Realismus neuen Typus stand also zum individualistischen Nominalismus – der f¨ ur die Aufzeichnung und Kodierung der einzelnen Elemente unerl¨ aßlich war – in einem f¨ ur die statistische Erkenntnisweise charakteristischen Spannungsverh¨altnis. Diese Erkenntnisweise zielt darauf ab, auf einer h¨ oheren Ebene Realit¨aten zu bilden und zu verfestigen, die dazu f¨ ahig sind, als synthetische Substitute f¨ ur viele Dinge zu zirkulieren (zum Beispiel als der Preisindex f¨ ur die Preissteigerungen von Produkten, als die Arbeitslosenquote f¨ ur die Arbeitslosen usw.). Aus diesem Grund war es notwendig, die statistische Erkenntnisweise in den nominalistischen und individualistischen Konventionen zu verankern. Diese Spannung ist inh¨ arenter Bestandteil ¨ der magischen Transmutation der statistischen Arbeit: der Ubergang von ei¨ ner Realit¨ atsebene zu einer anderen impliziert auch den Ubergang von einer Sprache zu einer anderen (zum Beispiel von den Arbeitslosen zur Arbeitslosigkeit). Der seit Ockham beschrittene Weg zeigt den Realit¨ atsstatus, der den beiden Ebenen zugeordnet werden kann, wobei diese Ebenen ihr Dasein in partieller Autonomie verbringen k¨onnen. Diese Vielfalt der m¨oglichen Realit¨atsregister wird heute durch die Tatsache gerechtfertigt, daß jedes von ihnen in ein Konstrukt, einen Zusammenhang von Dingen eingebettet ist. Die verschiedenen Mechanismen verf¨ ugen (zumindest partiell) u ange. Die Statistiken ¨ber autonome innere Zusammenh¨ (im Sinne der Zusammenfassung einer großen Anzahl von Aufzeichnungen) spielen oft eine wichtige Rolle bei der Herstellung von Zusammenh¨ angen. Diese komplexen Konstrukte sind gleichzeitig kognitiv und aktiv: die nationale Arbeitslosenquote wurde erst dann berechnet und ver¨ offentlicht, nachdem eine nationale Politik des Kampfes gegen die Arbeitslosigkeit konzipiert und umgesetzt worden war. Vorher half man den Arbeitslosen auf lokaler Ebene (Salais, Baverez, Reynaud, 1986, [247]). An dieser Stelle ist es verf¨ uhrerisch, die politische und philosophische Kontroverse zu erw¨ ahnen, bei deren Gelegenheit Ockham seine nominalistische Position in so entschiedener Weise bekr¨aftigt hatte (Villey, 1975, [282]). Das ¨ Uberraschungsmoment ist der scheinbar paradoxe Charakter der Situation
Das Ganze und seine Trugbilder
81
und somit auch der Argumentation. Ausgangspunkt hierf¨ ur war das im 13. Jahrhundert vom hl. Franz von Assisi ausgesprochene Armutsgel¨ ubde, das als Vorschrift in den Regeln des Franziskanerordens verankert war. Die Franziskaner waren nun aber so erfolgreich, daß sie rasch an der Spitze zahlreicher Kl¨ oster standen und u oden verf¨ ugten. Da¨ber fruchtbare landwirtschaftliche B¨ mit die Franziskaner jedoch die M¨oglichkeit hatten, ihr Armutsgel¨ ubde wenigstens dem Buchstaben nach einzuhalten, erkl¨arte sich der Papst damit einverstanden, diese G¨ uter als Eigentum zu u ¨bernehmen, gleichzeitig aber den Franziskanern zur Nutzung zu u ¨berlassen. Im 14. Jahrhundert war dieses subtile Konstrukt jedoch heftigen Kritiken ausgesetzt. Der Papst war der m¨ uhseligen Aufgaben u ussig geworden, die mit der Verwaltung dieser G¨ uter ein¨berdr¨ hergingen und deswegen entschloß er sich, die G¨ uter dem Franziskanerorden zur¨ uckzugeben. Das h¨atte die Franziskaner selbstverst¨ andlich reicher gemacht, aber es h¨ atte auch zur Kritik innerhalb des Ordens gef¨ uhrt – ein rebellierender Fl¨ ugel h¨ atte die R¨ uckkehr zur urspr¨ unglichen Reinheit des Gel¨ ubdes des hl. Franz verlangt. Das also war der komplexe Kontext, der Ockham in seiner Intervention veranlaßt hatte, die Position der Franziskaner gegen¨ uber dem Papst zu verteidigen. Er argumentierte, daß es nicht m¨ oglich sei, die betreffenden G¨ uter dem Orden als Ganzem zur¨ uckzugeben, da Franziskanerorden“ ” lediglich ein Name war, mit dem individuelle Franziskaner bezeichnet wurden. Demnach leugnete Ockham die M¨oglichkeit der Existenz kollektiver Personen, die sich von Einzelpersonen unterscheiden. Dieses Problem sollte eine fruchtbare Zukunft haben. Mit dem logischen Individualismus des Nominalismus ist demnach ein moralischer Individualismus verkn¨ upft, der seinerseits mit einer Auffassung der Freiheit des Individuums zusammenh¨ angt, das allein dem Sch¨ opfer gegen¨ ubersteht (Dumont, 1983, [73]). Wir gehen hier nicht weiter auf diese Analyse ein, die auf subtile theologische und juristische Konstrukte verweist, deren Aufbau und Sprache uns heute weitgehend fremd sind. Aus diesem Grund w¨are auch ein allzu direkter Vergleich zwischen scheinbar nahestehenden Themen (hier der Gegensatz Realismus-Nominalismus) aus einem Abstand von f¨ unf Jahrhunderten reichlich unvorsichtig. Die obige kurze Geschichte soll lediglich auf folgenden Umstand hinweisen: Begriffliche Schemata, die zu einem gegebenen Zeitpunkt in ein sehr viel umfassenderes Geb¨ aude eingegliedert waren, k¨onnen weitergegeben werden – wobei sie sich mitunter in ihr Gegenteil verwandeln – und lassen sich dann erneut in andere, radikal unterschiedliche Geb¨aude einbinden.
Das Ganze und seine Trugbilder Die M¨ oglichkeit, auf der Grundlage statistischer Berechnungen mit makrosozialen Objekten umzugehen, ohne diese Objekte zu deformieren, f¨ uhrt heute dazu, daß wir uns m¨ uhelos zwischen mehreren Realit¨ atsebenen hin und herbewegen k¨ onnen, deren Konstruktionsweisen stark voneinander abweichen. Hier kommt die oben erw¨ahnte statistische Magie“ ins Spiel. Aus dieser Sicht stell”
82
3 Mittelwerte und Aggregatrealismus
te der Zusammenhang zweier Typen von Mittelwertberechnungen, die formal identisch, aber logisch sehr wohl voneinander verschieden waren, ein Schl¨ usselmoment dar. Einerseits handelte es sich um die bestm¨ ogliche Approximation einer Gr¨ oße der Natur, wobei man von verschiedenen Messungen eines einzigen Objekts auf der Grundlage unvollst¨andiger Beobachtungen ausging; andererseits ging es um die Schaffung einer neuen Realit¨ at auf der Grundlage von Beobachtungen unterschiedlicher Objekte, die aber bei der betreffenden Gelegenheit miteinander verkn¨ upft wurden. Der durch Quetelet ber¨ uhmt gewordene Zusammenhang zwischen der Permanenz eines mehrmals beobachteten Objekts im erstgenannten Fall und der Existenz einer verschiedenen Objekten gemeinsamen Sache im zweiten Fall verlieh dem Zusammenhang, der damals zwischen diesen Objekten hergestellt wurde, eine ganz neue Stabilit¨ at. Aber dieses Werkzeug ist nicht sofort akzeptiert worden und gab im gesamten 19. Jahrhundert Anlaß zu erbitterten Kontroversen. Wir ahnen die Bedeutung des Schrittes, den Quetelet mit Hilfe der probabilistischen Formulierung des Gesetzes der großen Zahlen ging, wenn wir – wie es Jean-Claude Perrot (1992, [227]) tat – die Terminologie pr¨ ufen, die Vauban um 1700 bei verschiedenen Berechnungen verwendete, um eine neue nationale Steuer, den K¨ onigszehnt, zu rechtfertigen. Hierzu ben¨ otigte der Minister verschiedene Sch¨ atzungen der Fl¨ache des K¨onigreichs, der landwirtschaftlichen Ertr¨ age und der Steuerlasten. In gewissen F¨allen verf¨ ugte er u ¨ber mehrere Sch¨ atzungen einer unbekannten Gr¨oße (der Gesamtfl¨ ache Frankreichs), aus denen er ein proportionales Mittel“ ableitete. In anderen F¨ allen nutzte er ” hingegen beispielsweise Informationen u age ¨ber die landwirtschaftlichen Ertr¨ in unterschiedlichen Kirchengemeinden und in verschiedenen Jahren. Er f¨ uhrte dann eine Berechnung durch, die der vorhergehenden ¨ ahnelte, bezeichnete aber das Ergebnis nicht als Mittelwert“, sondern als gew¨ohnlichen Wert: ” gew¨ ohnliche Quadratmeile, gew¨ohnliches Jahr. Diese Verfahrensweise existierte schon seit langem in den intuitiven Praktiken, deren Merkmal die wechselseitige Kompensation abweichender Werte war, die entgegengesetzte Tendenzen aufwiesen. Spuren hiervon erkennen wir in einer Reihe von Ausdr¨ ucken der Alltagssprache. Manche dieser Ausdr¨ ucke, die im 18. Jahrhundert verwendet wurden, sind heute verschwunden, andere wiederum sind bis zum heutigen Tag erhalten geblieben. Beispielsweise verwendet Graunt bei der Bildung des arithmetischen Mittels (medium) meist die feststehende Wendung one with another 2 , die dem deutschen das eine in das andere gerechnet bzw. dem franz¨osischen l’un portant l’autre (Neufranz¨ osisch: en faisant la compensation des diff´erences les unes par les autres“ (1611)) ” entsprechen d¨ urfte. Die franz¨osische Wendung wurde von Vauban benutzt, 2
So schreibt Graunt etwa, daß in der Landpfarrei auf eine Ehe one with another vier Kinder k¨ amen: Upon which Tables we observe, That every Wedding, one ” with another, produces four children, and consequently that that is the proportion of Children which any Marriageable Man or Woman may be presumed shall have“ (vgl. Hauser, 1997, [397]).
Das Ganze und seine Trugbilder
83
kommt aber auch in Briefen vor, die Lodewijk Huygens an seinen Bruder Christiaan schrieb. In einem dieser Briefe legt Lodewijk seinen calcul des ” ˆages“ ausf¨ uhrlich dar: Er rechnet alle in der Tabelle auftretenden Lebensdauern zu einem Mittel ineinander“ – l’un portant l’autre, wie er sagt – das ” heißt er addiert die Lebensjahre aller hundert Personen in der Tabelle auf und teilt ihre Summe durch hundert. Die Operation der Addition l¨ aßt die lokalen Singularit¨ aten verschwinden und f¨ uhrt zu einem neuen Objekt allgemeinerer Ordnung, wobei die unwesentlichen Kontingenzen eliminiert werden. Der Sprung von einem Register zu einem anderen spiegelt sich auch im italieniosischen schen Ausdruck in fin dei conti 3 ( alles in allem“) und in den franz¨ ” Wendungen au bout du compte ( letzten Endes“) und tous comptes faits ( al” ” les in allem“) wider. Perrot hat (haupts¨achlich auf der Grundlage des W¨ orterbuchs der Akademie) die im 18. Jahrhundert existierenden Konnotationen der von Vauban verwendeten Begriffe analysiert und auf die unterschiedlichen Logiken hingewiesen, die in jedem der beiden Kalk¨ ule verwendet werden. Das Mittel bezeichnet das, was sich zwischen zwei Extremen befindet“. Eine Gr¨ oße wird als ” proportional bezeichnet, wenn sie in einem Verh¨ altnis zu anderen Gr¨ oßen der ” gleichen Art“ steht. Der Begriff Art wird in pr¨ aziser Weise mit der Identit¨ at assoziiert, das heißt mit dem, was die Permanenz ausmacht. Die Berechnung des Mittelwertes setzte demnach voraus, daß die Gr¨ oßen in diesem eingeschr¨ ankten Sinn gleichartig sind. Dagegen weist der Ausdruck gew¨ ohnlich“ ” auf etwas u ¨bliches, abgedroschenes, universelles hin beziehungsweise auf etwas, das nach Ablauf einer kontinuierlichen Folge von Okkurrenzen ge¨ andert ” wird“ (gew¨ ohnliches Jahr). In ihrem Kommentar zum Ausdruck l’un portant l’autre f¨ uhrte die Akademie eine Formel ein, die bei Gegens¨ atzen Ockhamscher Art kaum vorstellbar war. Ein Resultat ergab sich, wenn man das Eine durch ” das Andere kompensiert und eine Art Ganzes daraus zusammensetzt“ – eine Redeweise, die Vauban bei der Untersuchung von Saatertr¨ agen verwendete. Diese Art Ganzes“ bezeichnete eine fließende Zone zwischen einem fest aufge” stellten Objekt und der Diversit¨at inkommensurabler Objekte. Die Kommensurabilit¨ at und die M¨oglichkeit der Berechnung eines gew¨ ohnlichen Wertes“ ” gestatteten es, den Begriff einer Art Ganzes“ zu bilden. Noch aber war man ” nicht dazu imstande, die Stabilit¨at dieses gew¨ ohnlichen Wertes“ zu beweisen. ¨ ” Ebenso war es noch nicht m¨oglich, die Ahnlichkeit der Fehlerabweichungen in diesen beiden F¨ allen und im Falle des proportionalen Mittelwertes“ zu be” weisen, um ein konsistentes Ganzes zu erzeugen: den Durchschnittsmenschen. Diese Fragen f¨ uhrten zu einer vollst¨andigen Neuformulierung des alten Problems der Existenz einer allgemeinen Entit¨at, die auf einer logisch h¨ oheren Ebene steht als die Elemente, aus denen sich diese Entit¨ at zusammensetzt. Das im Entstehen begriffene Ganze sollte auch noch f¨ ur einige Zeit ein Trugbild 3
W¨ ortlich: am Ende der Rechnungen“. Das italienische conto“ (Rechnung, Kon” ” to) geht ebenso wie das franz¨ osische compte“ auf das sp¨ atlateinische computus“ ” ” (Berechnung) zur¨ uck.
84
3 Mittelwerte und Aggregatrealismus
des Ganzen bleiben. Dieses Trugbild tauchte zu einem Zeitpunkt auf, als Vauban versuchte, die vorher verstreut auftretenden Elemente in einem einzigen Kalk¨ ul zusammenzufassen, um die Produktionskapazit¨ aten des K¨ onigreichs zu verstehen und zu beschreiben. Dar¨ uber hinaus wollte er sch¨ atzen, was eine neue Steuer aufbringen k¨onnte, die sich aus diesen Kapazit¨ aten ableitet. Die ¨ neue Art und Weise der Aufstellung von Aquivalenzen, die mit wesentlichen Eigenschaften der Addition im Einklang steht, wurde zur gleichen Zeit vorgeschlagen, als eine neue Art von Staat im Entstehen begriffen war – ein Staat, der den Ursprung und die Kreisl¨aufe seines Steueraufkommens tiefgr¨ undig zu u ¨berdenken versuchte. Aber das hierzu erforderliche begriffliche Werkzeug war noch nicht formalisiert. Daher konnte dieses Werkzeug auch nicht zirkulieren und m¨ uhelos in unterschiedlichen Kontexten wiederverwendet werden. Einer der Gr¨ unde, warum diese Formalisierung noch kaum m¨ oglich war, ist in der Abwesenheit eines zentralisierten Systems zum Sammeln der Aufzeichnungen und im Fehlen eines elementaren Kalk¨ uls zu suchen, das heißt im Fehlen eines – und sei es auch nur rudiment¨aren – Apparates f¨ ur eine nationale Statistik.
Quetelet und der Durchschnittsmensch“ 4 ” Die Existenz eines derartigen kumulativen Systems einzelner Messungen und Kodierungen ist in der Tat notwendig, um eine Verbindung zwischen den beiden von Vauban vorgelegten Berechnungen zu erm¨ oglichen. Diese Verbindung impliziert auf zwei unterschiedliche Weisen, daß man auf eine große Anzahl von Beobachtungen zur¨ uckgreift. Die relative Regelm¨ aßigkeit der j¨ ahrlichen Anzahlen von Geburten, Sterbef¨allen, Heiraten, Verbrechen und Selbstmorden in einem Land wies n¨amlich einerseits – im Gegensatz zum zuf¨ alligen Charakter des Auftretens eines jeden einzelnen dieser Ereignisse – darauf hin, daß die betreffenden Totalisierungen mit Konsistenzeigenschaften ausgestattet sind, die sich fundamental von den Eigenschaften der Einzelereignisse unter¨ scheiden. Zum anderen verfestigte die frappierende Ahnlichkeit zwischen den Verteilungsformen großer Anzahlen von Messungen – unabh¨ angig davon, ob diese Messungen mehrmals an ein und demselben Objekt oder einmal an mehreren Objekten (zum Beispiel an einer Gruppe von Rekruten) vorgenommen wurden – die Vorstellung, daß beide Operationen von gleicher Beschaffenheit sind, falls man u alle hinaus die Existenz eines ¨ber die kontingenten Einzelf¨ Durchschnittsmenschen voraussetzt, von dem die besagten Einzelf¨ alle lediglich unvollkommene Kopien sind. Beide Arten des Zur¨ uckgreifens auf statistische 4
Quetelet pr¨ agte Mitte des 19. Jahrhunderts den Begriff des homme moyen“, d.h. ” die durch die arithmetischen Mittel“ der Merkmale einer Population definierte ” Person, die hier als Durchschnittsmensch“ bezeichnet wird (vgl. E. Durkheim, ” ¨ Der Selbstmord, 1897 [78]; deutsche Ubersetzung 1983). Obwohl es diese Person faktisch nicht gibt, ist sie die Richtschnur f¨ ur politische Entscheidungen. Diese Personifikation des Mittelwertes als gedachte Gr¨ oße ist f¨ ur die Feststellung von statistischen Regelm¨ aßigkeiten gesellschaftlicher Ph¨ anomene von Bedeutung.
Quetelet und der Durchschnittsmensch“ ”
85
Aufzeichnungen und ihre Totalisierungen setzten das zentralisierte Sammeln einer großen Anzahl von F¨allen voraus, wenn man eine neue Entit¨ at schaffen wollte. Die Verbindung und die Vertonung“ dieser beiden unterschiedlichen ” Ideen waren – ebenso wie die Organisation der zur Erzeugung dieser Zahlen erforderlichen nationalen und internationalen statistischen Systeme und Z¨ahlungen – das Werk des Einmann-Orchesters der Statistik des 19. Jahrhunderts, des belgischen Astronomen Adolphe Quetelet.5 Die erste dieser Ideen, das heißt die Idee von der relativen Regelm¨ aßigkeit der Anzahlen der Geburten, Heiraten und Todesf¨ alle, war bereits im 18. Jahrhundert zum Ausdruck gebracht worden. Diese Idee war damals als Manifestation einer – u ¨ber den verg¨anglichen und unberechenbaren Individuen stehenden – Vorsehung oder g¨ottlichen Ordnung interpretiert worden, von der die Gesellschaft in ihrer Gesamtheit regiert wird. In diesem Sinne hatte Ar¨ des von Huygens buthnot6 , Leibarzt der K¨onigin von England und Ubersetzer im Jahre 1657 verfaßten ersten Lehrbuchs u ¨ber die Wahrscheinlichkeitsrech¨ nung, den leichten systematischen Uberschuß der m¨ annlichen Geburten u ¨ber die weiblichen Geburten interpretiert. Er war auch der Erste, der Sozialstatistiken einem Wahrscheinlichkeitsmodell gegen¨ uberstellte – dem Modell Kopf ” oder Zahl“. Ist das Geschlecht eines neugeborenen Kindes das Ergebnis einer derartigen Ziehung“, dann w¨are die Chance Eins zu Zwei, daß in einem ge” ¨ gebenen Jahr mehr Jungen als M¨adchen geboren werden. Da aber der Uberschuß an Jungen u ¨ber einen Zeitraum von 82 aufeinanderfolgenden Jahren beobachtet werden konnte, mußte der Vorgang mit einer Wahrscheinlichkeit von (1/2)82 erfolgen, das heißt ca. 1/(4, 8 × 1024 ), und war deswegen vernachl¨ assigbar. Es hatte jedoch den Anschein, daß auch w¨ ahrend der Kindheit und in der Jugend die Sterblichkeit der Jungen gr¨ oßer als die der M¨ adchen war. Demnach war es verf¨ uhrerisch, eine g¨ottliche Vorsehung anzunehmen, die diese h¨ ohere Sterblichkeit voraussieht und mehr Jungen als M¨ adchen auf die Welt kommen l¨aßt, damit sp¨ater keine Frau dem traurigen Zustand der Ehelosigkeit ausgesetzt ist. Johann Peter S¨ ussmilch (1707–1767), ein aus Berlin stammender evangelischer Pastor, hatte seinerseits eine große Anzahl demographischer Informationen aus ganz Preußen zusammengetragen. Er tat dies aus einem Blickwinkel, der dem Standpunkt der englischen politischen Arithmetiker n¨ aher stand als der Sichtweise seiner eigenen Landsleute, die eine Statistik nach deutscher ” Art“ betrieben (vgl. Kapitel 1). Sein großes Werk Die g¨ottliche Ordnung in den Ver¨ anderungen des menschlichen Geschlechts aus der Geburt, dem Tode und der Fortpflanzung desselben erwiesen (1741) – das in ganz Europa 5
6
Lambert-Adolphe-Jacques Quetelet (1796–1874). Promotion in Mathematik; 1819 Professor f¨ ur elementare Mathematik am Athen¨ aum in Br¨ ussel; seit 1820 Mitglied der K¨ oniglichen Akademie in Br¨ ussel; seit 1828 Direktor der erst 1833 fertiggestellten Sternwarte in Br¨ ussel. Befaßte sich ab 1825 mit Arbeiten zur Statistik, insbesondere zur Sozialstatistik. John Arbuthnot (1667–1735), schottischer Mediziner, seit 1704 Fellow der Royal Society. Bekannt als politischer Satiriker und Sch¨ opfer der Figur des John Bull.
86
3 Mittelwerte und Aggregatrealismus
großen Anklang gefunden hatte – interpretierte diese Regelm¨ aßigkeiten als Manifestation einer Ordnung, die außerhalb der Menschen und u ¨ber ihnen stand. Bei Arbuthnot und S¨ ussmilch wurden diese statistischen Ergebnisse – obwohl sie sich auf individuelle Aufzeichnungen st¨ utzten – durch den Begriff einer universellen Ordnung interpretiert, das heißt durch einen Realismus“ ” im oben beschriebenen mittelalterlichen Sinne. Ebenso gaben Quetelet und sp¨ ater Durkheim eine holistische“ Interpretation dieser Regelm¨ aßigkeiten: ” die g¨ ottliche Ordnung von S¨ ussmilch, der Durchschnittsmensch von Quetelet und die Gesellschaft von Durkheim waren Realit¨ aten sui generis, die sich von den Individuen unterschieden und spezifische Methoden der Analyse erforderten. Aber das auf makrosoziale Regelm¨aßigkeiten ausgerichtete Konstrukt ließ, selbst wenn es als Zeichen einer g¨ottlichen Ordnung gedeutet wurde, eine Frage offen: Wie l¨ aßt sich die Diversit¨at der k¨orperlichen Merkmale oder des moralischen Verhaltens der Individuen mit den Regelm¨ aßigkeiten in Einklang bringen, die bei einer großen Anzahl von Menschen insbesondere bez¨ uglich der K¨ orpergr¨ oßen, der Heiraten, der Verbrechen und der Selbstmorde festgestellt wurden? Auf einer tieferliegenden Ebene stellte sich folgendes Problem: Wurde die von den Menschen geforderte Freiheit nicht durch eine Art statistischer Zwangsl¨ aufigkeit null und nichtig gemacht, die sich in diesen Ergebnissen widerspiegelte? Das war die Frage, auf die Quetelet eine neue Antwort gab. Er untersuchte zun¨achst die Diversit¨at der leicht meßbaren k¨ orperlichen Merkmale und suchte dabei nach einer Einheitlichkeit in dieser Diversit¨ at. Er stellte die H¨ aufigkeitsverteilung der K¨orpergr¨ oßen in einem Histogramm grafisch dar und konnte dadurch eine Form nachweisen, die – trotz der Diskontinuit¨ aten, welche auf die notwendigerweise diskreten Abstufungen der K¨ orpergr¨ oßen zur¨ uckzuf¨ uhren waren – f¨ ur eine gegebene Gr¨ oße einer Verteilung der Ergebnisse einer Reihe von fehlerbehafteten Messungen ¨ ahnelte. Diese Form, die sp¨ ater u ¨blicherweise als Glockenkurve“ oder Gaußsche Kurve“ bezeich” ” net werden sollte, hieß damals Fehlerverteilung“ oder M¨ oglichkeitsvertei2 ” ” lung“. Der entsprechende analytische Ausdruck ke−x war von Abraham de Moivre und Gauß formuliert worden – als Grenzwert einer Binomialverteilung f¨ ur die Ziehung von Kugeln aus einer Urne (mit Zur¨ ucklegung der Kugeln), wobei die F¨ ullung der Urne vorgegeben ist und die Anzahl der Ziehungen gegen Unendlich geht. Das war der Grund, warum Quetelet f¨ ur diese Form den Namen Binomialverteilung“ oder M¨oglichkeitsverteilung“ verwendete (der ” ” Ausdruck Normalverteilung“ entstand erst im Jahre 1894 unter der Feder von ” Pearson (Porter, 1986, [240])). Diese Verteilung ist eine gute Approximation f¨ ur eine Verteilung von ungenauen Meßwerten einer Gr¨ oße, die unabh¨ angig von diesen Messungen existiert (zum Beispiel die Rektaszension eines Sterns oder die Verteilung der Auftreffpunkte von Geschossen auf einer Schießscheibe). In diesen unterschiedlichen F¨allen kann man zeigen, daß diese Form aus der Zusammensetzung einer großen Anzahl von kleinen und voneinander unabh¨ angigen Fehlern resultiert.
Quetelet und der Durchschnittsmensch“ ”
87
Auf der Grundlage dieser ersten Anpassung“ an ein Modell“ im zeit”¨ ” gen¨ ossischen Sinne – das sich aus der Ahnlichkeit zwischen der Verteilung der Rekrutengr¨ oßen und der Verteilung von ungenauen Messungen einer einzigen Gr¨ oße ableitete – zog Quetelet die Schlußfolgerung, daß die Abweichungen von ihrer zentralen Tendenz die gleiche Beschaffenheit hatten: Es handelte sich um Unvollkommenheiten bei der effektiven Realisierung eines Modells“ im ” urspr¨ unglichen Sinne des Wortes. Um eine Verbindung zwischen den beiden Formen zu herzustellen, verwendete Quetelet die metaphorische Geschichte des K¨ onigs von Preußen, der – in u ¨bergroßer Bewunderung einer vollkommenen Statue des Apollo – bei tausend Bildhauern des K¨ onigreichs tausend Kopien der Statue in Auftrag gegeben hatte. Die Bildhauer waren nicht perfekt und ihre Werke verteilten sich mit Abweichungen im Vergleich zum Modell auf die gleiche Weise, wie sich die konkreten Individuen um den Durchschnitts¨ menschen verteilen. Gott der Sch¨opfer war also das Aquivalent des K¨ onigs von Preußen und die Individuen waren unvollkommene Realisierungen des perfekten Modells: Die Dinge geschehen so, als ob die Sch¨opfungsursache, die das Modell des Menschen geformt hat, ihr Modell anschließend wie ein mißg¨ unstiger K¨ unstler zerbrach und schlechteren K¨ unstlern die Reproduktion des Modells u ¨berließ. (Quetelet, zitiert von Adolphe Bertillon, 1876, [13].) Mit Hilfe der Normalverteilung verlagerte Quetelet den Unterschied zwischen den von Vauban gepr¨agten Begriffen des proportionalen Mittels“ und ” des gew¨ ohnlichen Wertes“ auf eine andere Ebene. Quetelet unterschied drei ” Arten von Mittelwerten, die bis zum Beginn des 20. Jahrhunderts den Kern etlicher statistischer Debatten liefern sollten. Als Adolphe Bertillon (1876) diese Unterschiede dreißig Jahre nach Quetelet vorstellte, umriß er sie in ausserordentlich klarer Weise. Der objektive Mittelwert entspricht einem realen Objekt, das einer gewissen Anzahl von Messungen unterzogen wird. Der subjektive Mittelwert ist das Ergebnis der Berechnung einer zentralen Tendenz, falls die Verteilung eine Form aufweist, die sich an die Form der Binomi” alverteilung“ anpassen l¨aßt (Fall der K¨orpergr¨ oßen). Nur diese beiden F¨ alle verdienen wirklich den Namen Mittelwert“. Der dritte Fall tritt auf, falls die ” Verteilung nicht diese normale“ Form hat. Bertillon bezeichnete sie als arith” metisches Mittel und wollte damit die Tatsache unterstreichen, daß es sich um eine reine Fiktion handelt (als Beispiel nannte er die H¨ ohen der H¨ auser einer Straße, ohne aber eine konkrete derartige Verteilung anzugeben). Im zweiten Fall hingegen best¨atigte die Normalverteilung des H¨ aufigkeitshistogramms die Existenz einer – hinter der Vielfalt der Einzelf¨ alle – unsichtbar vorhandenen Vollkommenheit und rechtfertigte die Berechnung eines wahren“ Mittels. ” Nach der Untersuchung der K¨orpergr¨oßen setzte Quetelet seine Messungen mit anderen k¨orperlichen Merkmalen fort: Arme und Beine, Sch¨ adel und Gewichte, f¨ ur die er ebenfalls Binomialverteilungen beobachtete. Er leitete
88
3 Mittelwerte und Aggregatrealismus
hieraus die Existenz eines idealen Durchschnittsmenschen ab, der in sich s¨ amtliche Durchschnittsmerkmale vereinigt und das Ziel des Sch¨ opfers verk¨ orpert: die Vollkommenheit. Diese Vollkommenheit resultierte demnach aus einem urspr¨ unglichen, entscheidenden Zusammenhang zwischen mehreren Messungen eines einzigen Objekts und der Messung mehrerer Objekte. Der zweite entscheidende Zusammenhang in dem von Quetelet geschaffenen Konstrukt gestattete es ihm, die moralischen Verhaltensweisen mit den zuvor untersuchten k¨ orperlichen Merkmalen zu vergleichen. Tats¨ achlich weisen – wie wir gesehen hatten – sowohl die moralischen Verhaltensweisen als auch die k¨ orperlichen Merkmale eine betr¨achtliche Regelm¨ aßigkeit auf, sofern man massenhafte Erscheinungen betrachtet. Die durchschnittlichen Gr¨ oßen und die durchschnittlichen Formen des menschlichen K¨ orpers variieren nur geringf¨ ugig. Das erkl¨art sich durch das Gesetz der großen Zahlen, falls man die Diversit¨ at der Einzelf¨alle – ausgedr¨ uckt durch Realisierungen, die in zuf¨ alliger Weise von einem Modell abweichen – durch eine Gesamtheit von zahlreichen, kleinen und voneinander unabh¨angigen Ursachen interpretiert. Sind also die K¨ orpergr¨oßen der einzelnen Menschen hinl¨ anglich gestreut, dann sind die Mittelwerte der K¨orpergr¨oßen zweier oder mehrerer Gruppen von Menschen ziemlich benachbart, falls sich diese Gruppen nach dem Zufallsprinzip zusammensetzen. Die Anzahlen der Heiraten, Verbrechen und Selbstmorde weisen den gleichen Stabilit¨atstyp auf, obwohl jede der drei entsprechenden Handlungen einen h¨ochst individuellen und freien Charakter hat. Der Zusammenhang zwischen den beiden Typen von Regelm¨ aßigkeiten, die sich nicht auf Einzelf¨ alle, sondern auf massenhafte Erscheinungen beziehen – die einen auf k¨ orperliche und die anderen auf moralische Merkmale – erm¨ oglicht es ¨ uns, zum Ausgangspunkt der Uberlegung zur¨ uckzukehren: Die Entscheidungen moralischen Typs sind Manifestationen von Tendenzen, die zuf¨ allig um Durchschnittstypen herum verteilt sind und deren Vereinigung die moralischen Merkmale des Durchschnittsmenschen ausmachen – eines vom Sch¨ opfer gewollten Ideals, das ein Symbol der Vollkommenheit ist.
Konstante Ursache und freier Wille Quetelet hatte die Grenze zwischen den beiden formal identischen, aber ganz unterschiedlich interpretierten Berechnungen verschoben, die Vauban als Mittelwert beziehungsweise gew¨ ohnlichen Wert bezeichnete. Von nun an gab es einerseits die wahren Ganzen“, f¨ ur welche die Berechnung des Mittelwertes ” vollauf gerechtfertigt war. Andererseits gab es Gesamtheiten von Objekten, deren Verteilung nicht Gaußsch war und die keine Arten von Ganzen“ bilde” ten, wie man vor einem Jahrhundert sagte. Die Gleichsetzung der beiden Mittelwerte, die als objektiv und als subjektiv bezeichnet wurden, war durch die Vorstellung von der konstanten Ursache gew¨ahrleistet. Diese Idee erm¨ oglichte es, st¨ andig von einem Mittelwert zum anderen u ¨berzugehen. Demnach stellten die aufeinanderfolgenden Messungen eines reellen Objekts eine Folge von
Konstante Ursache und freier Wille
89
Operationen dar, die einen Teil des unvorhersehbaren Zufalls in sich trugen (akzidentielle Ursachen), aber diese Folge war vom Bem¨ uhen einer Anpassung an das Objekt getragen, das die konstante Ursache bildete. Durch ihr Abweichen von diesem Modell – das ein reales Objekt“ einschließt – implizieren ” die Einschl¨ age einer Folge von Sch¨ ussen, die auf die Mitte einer Zielscheibe gerichtet sind, einen Teil der akzidentiellen Ursachen, welche eine konstante Ursache st¨ oren, die ihrerseits auf das Bestreben des Sch¨ utzen zur¨ uckzuf¨ uhren ist, in die Mitte der Zielscheibe zu treffen. Und schließlich k¨onnte diese konstante Ursache bei der Verteilung der Merkmale einer Population ihren Ursprung in der g¨ ottlichen Absicht haben, ein vollkommenes Modell zu reproduzieren (Quetelet) oder aber auf die Auswirkungen der materiellen, klimatischen und geographischen Umgebung zur¨ uckzuf¨ uhren sein (hippokratisches Modell des 18. Jahrhunderts). Der Grund k¨ onnte aber auch in der nat¨ urlichen Auslese liegen (Darwin) oder vom sozialen und kulturellen Milieu herr¨ uhren (Soziologie des 20. Jahrhunderts). Eine Normalverteilung von Meßwerten um einen Modalwert erm¨ oglichte es also, auf die Existenz einer konstanten Ursache oder einer Gesamtheit von Ursachen zu schließen, deren Kombination in der betreffenden Beobachtungsreihe konstante Wirkungen zeitigt. Diese Normalverteilung gestattete die Kon¨ struktion einer Aquivalenzklasse von Ereignissen, die dadurch zueinander in Relation stehen, daß sie zum Teil durch eine gemeinsame Ursache bestimmt sind. Ein anderer Teil dieser bestimmenden Faktoren leitet sich jedoch aus akzidentiellen Ursachen ab, die f¨ ur jedes der betreffenden Ereignisse unterschiedlich sind. Mit dieser Konstruktion verschwand der Unterschied zwischen dem objektiven“ und dem subjektiven“ Mittelwert vollst¨ andig. Der Begriff der ” ” gemeinsamen Ursache f¨ ur verschiedene Ereignisse lieferte in beiden F¨ allen eine Exteriorit¨ at in Bezug auf diese Ereignisse, n¨amlich ein reelles Objekt“, das ” unabh¨ angig von seinen kontingenten Manifestationen existiert. Wahrscheinlichkeitstheoretisch ausgedr¨ uckt hat dieses Objekt die Form der F¨ ullung einer Urne, mit deren Hilfe zuf¨allige Ziehungen durchgef¨ uhrt werden. Aber Quetelet und seine Nachfolger waren von der Neuheit des von diesem Modell induzierten makrosozialen Konstruktes derart fasziniert, daß sie – im Unterschied zu Bayes, Laplace oder Poisson – nicht daran gedacht hatten, ¨ Uberlegungen zu den Ursachenwahrscheinlichkeiten anzustellen, das heißt die Wirkungen auf eine Absch¨atzung der Grade der Sicherheit der betreffenden Ursachen zur¨ uckzuf¨ uhren. Der frequentistische“ Standpunkt st¨ utzt sich auf ” einen objektiven Begriff von Wahrscheinlichkeiten, die mit den Dingen verkn¨ upft sind – also auf variable Kombinationen von konstanten Ursachen und akzidentiellen Ursachen. Demgegen¨ uber beruhte der epistemische“ Stand” punkt der Probabilisten des 18. Jahrhunderts auf subjektiven Wahrscheinlichkeiten, die mit dem Verstand und mit dem Glaubensgrad zusammenh¨ angen, den der Verstand einer Ursache oder einem Ereignis zuordnen kann. Die Spekulationen der Philosophen des Zeitalters der Aufkl¨ arung zielten darauf ab, explizite Rationalit¨atskriterien f¨ ur die von aufgekl¨ arten Personen getroffenen Entscheidungen zu formulieren. Diese Personen waren ihrerseits die Verk¨ orpe-
90
3 Mittelwerte und Aggregatrealismus
rung einer universellen menschlichen Natur, die auf dem Verstand beruhte. Im 19. Jahrhundert dagegen hatten die Franz¨osische Revolution und deren unberechenbare Ersch¨ utterungen die Fragen zur Rationalit¨ at des Menschen und zur Vernunft seiner Entscheidungen durch Fragen ersetzt, die sich auf die Gesellschaft und deren Undurchsichtigkeit bezogen. Von nun an wurde die Gesellschaft nicht nur als ein mysteri¨oses Ganzes aufgefaßt, sondern sozusagen auch von außen betrachtet. Die von Quetelet vorgestellten Objektivierungen und makrosozialen Regelm¨aßigkeiten entsprachen dieser Art von Sorge, die f¨ ur die im Entstehen begriffenen Sozialwissenschaften des 19. Jahrhunderts charakteristisch war. Der rationalen und besonnenen menschlichen Natur des aufgekl¨ arten Gelehrten des 18. Jahrhunderts folgte der normale Mensch – der Durchschnitt“ einer großen Anzahl verschiedener Menschen, die aber ” alle an einer u at teilhatten. Mit ¨ber die Individuen hinausgehenden Totalit¨ diesen beiden Sichtweisen waren zwei unterschiedliche Wahrscheinlichkeitsbegriffe verkn¨ upft. Eine deutliche Linie trennte Condorcet, Laplace und Poisson von Quetelet, den Bertillons und den Moralstatistikern“ des 19. Jahrhun” derts. Sie stellten sich nicht die gleichen Fragen und sie hatten einander auch nicht viel zu sagen, wie aus dem geringf¨ ugigen Meinungsaustausch zwischen Poisson, Cournot und Quetelet hervorgeht. Das Auftreten dieser neuen Entit¨at Gesellschaft – die objektiviert und von außen betrachtet wird und mit Gesetzen ausgestattet ist, die unabh¨ angig von den Individuen sind – kennzeichnet die Denkweise aller Gr¨ undungsv¨ ater der damals entstehenden Soziologie. Man denke etwa an Comte, Marx, Le Play, Tocqueville oder Durkheim – bei allem, was sie sonst voneinander trennte (Nisbet, 1984, [212]). Alle sahen sich mit Unruhen und dem Zerfall des alten sozialen Gef¨ uges konfrontiert – Prozesse, die von den politischen Umbr¨ uchen in Frankreich und durch die industrielle Revolution in England ausgel¨ ost worden waren. Wie sollte man die sozialen Bindungen neu konzipieren, die der Individualismus der Marktwirtschaft und der Demokratie zerst¨ ort hatten? Nisbet (1984, [212]) entwickelt in seinem Werk Die soziologische Tradition diese scheinbar paradoxe Idee, indem er all diese Autoren hinter einer konstanten Ursache“ versammelte. Die konstante Ursache besteht hierbei in ” der Sorge, auf die sozialen Unruhen und Krisen der Gesellschaft zu reagieren, die im Ergebnis der beiden Revolutionen entstanden – der politischen Revolution in Frankreich und der ¨okonomischen Revolution in England. (Die von den betreffenden Autoren gegebenen Antworten unterschieden sich nat¨ urlich wesentlich voneinander.) In der von Nisbet gezeichneten Gem¨ aldegalerie“ ” wurde Quetelet gar nicht erw¨ahnt. Dessen eigene und eigentlich soziologische Denkweise schien im Vergleich zu den anderen eher einseitig zu sein. Dennoch hatte auch Quetelets Denkweise in Bezug auf die politischen Unruhen einen sehr vergleichbaren Horizont. Sein mit allen Tugenden ausgestatteter Durchschnittsmensch“ wurde als eine Art vorsichtiger Anh¨ anger der Mitte ” vorgestellt, der Exzesse jeglicher Art meidet, denn Vollkommenheit liegt in der M¨aßigung. Aber jenseits dieser Naivit¨at, die bereits einige der Zeitgenossen Quetelets gesp¨ urt hatten, sollte seine Denkweise ein mindestens ebenso be-
Konstante Ursache und freier Wille
91
deutendes Nachleben haben, wie das der ber¨ uhmteren Sozialwissenschaftler. Diese Denkweise erm¨oglichte die Erzeugung und Instrumentierung7 neuer Entit¨ aten, die nach ihrer Entstehung autonom waren und unabh¨ angig von ihren Urspr¨ ungen zirkulierten. Zwar genossen seine zahlreichen Aktivit¨ aten seinerzeit großes Ansehen (man nannte ihn oft den illustren Quetelet“), aber sein ” Name verliert sich zum Teil – ¨ahnlich wie bei einem statistischen Prozeß, der die einzelnen Individuen und ihre Entstehungsbedingungen ausradiert. Das schl¨ usselfertige Werkzeug der Mittelwerte ist so trivial geworden, daß zwar vielleicht nicht seine Erfindung, zumindest aber die praktische Umsetzung heute kaum mehr als bedeutende Tat gilt. Insbesondere hat die intellektuelle Schlagkraft, die zur Verschmelzung der objektiven und subjektiven Mittelwerte im Kontext des Begriffes der konstanten Ursache“ f¨ uhrte, heute nichts ” ¨ Uberraschendes mehr an sich. Das Nachdenken u ¨ber die Konsistenz“ der ” Objekte der Statistik sollte jedoch auch im Rahmen anderer Formen von Bedeutung bleiben, und zwar im Zusammenhang mit der Frage der Identifikation und der Eignung dieser Objekte. Die Bekanntheit, der sich Quetelet im 19. Jahrhundert erfreute, steht im Gegensatz zu der Tatsache, daß er im 20. Jahrhundert in relative Vergessenheit geriet. Dieser Umstand erkl¨art sich teilweise auch dadurch, daß sein Beitrag – vom Standpunkt der Geschichte der mathematischen Techniken der Statistik – sehr viel geringer zu sein scheint, als die Beitr¨ age von Gauß und Laplace vor ihm oder die Arbeiten von Pearson und Fisher nach ihm. Seine damalige Ber¨ uhmtheit war darauf zur¨ uckzuf¨ uhren, daß er es fertiggebracht hatte, ein riesiges internationales soziopolitisches Netzwerk zu schaffen, indem er auf neue Weise Universen zueinander in Beziehung setzte, die zuvor getrennt voneinander existierten. Er st¨ utzte sich zun¨ achst auf die Arbeiten der fr¨ uheren franz¨osischen Wahrscheinlichkeitstheoretiker, behielt aber dabei nur denjenigen Teil ihrer Arbeiten bei, der sich auf das Gesetz der großen ¨ Zahlen und auf die Binomialverteilung bezog – Uberlegungen zu den Ursa¨ chenwahrscheinlichkeiten ließ er unber¨ ucksichtigt. Im Ubrigen schuf er statistische Dienste oder regte deren Gr¨ undung an. Durch den Anklang, den seine zahlreichen Aktivit¨aten fanden, trug er zur Untermauerung der Legitimit¨ at dieser Einrichtungen bei und sorgte daf¨ ur, daß sie beachtet wurden. Er organisierte Volksz¨ahlungen und versammelte die Statistiker der verschiedenen L¨ ander in Internationalen Statistischen Kongressen“, die in der Zeit von 1853 ” bis 1878 regelm¨ aßig stattfanden und direkte Vorl¨ aufer des 1885 gegr¨ undeten Internationalen Instituts f¨ ur Statistik“ 8 (IIS) waren, das immer noch exi” stiert (Brian, 1991, [35]). Und schließlich nahm er durch seine Schriften zum Durchschnittsmenschen und u ¨ber soziale Physik“ auf indirekte Weise an den ” 7
8
Genauere Ausf¨ uhrungen zum Begriff der Instrumentierung“ von mathematischen ” und insbesondere wahrscheinlichkeitstheoretischen Leitmotiven findet man bei Lo`eve, 1985, [415]. International Statistical Institute (ISI); Institut international de statistique (IIS).
92
3 Mittelwerte und Aggregatrealismus
seinerzeit ¨ außerst lebhaften Debatten der politischen Philosophie teil, f¨ uhrte aber dabei eine g¨anzlich neue Rhetorik ein. Diese Debatte bezog sich auf den scheinbaren Widerspruch zwischen Determinismus und Fatalismus einerseits – die aus den makrosozialen Regelm¨ aßigkeiten, zum Beispiel aus den Anzahlen der Verbrechen und der Selbstmorde, zu folgen schienen – und der Freiheit des Willens sowie der moralischen Idee andererseits, daß der f¨ ur seine Handlungen verantwortliche Mensch nicht von Kr¨ aften getrieben wird, die u ossischen ¨ber ihn hinausgehen. Die zeitgen¨ Kommentare zeigten sich beunruhigt u ¨ber diese Frage, die zu lebhaften Kontroversen f¨ uhrte. In dieser Hinsicht fand die Arbeit von Quetelet ihren Platz in der alten – zu Beginn dieses Kapitels erw¨ ahnten – Diskussion u ¨ber den Realismus und den Nominalismus, u ¨ber den logischen Vorrang des Universellen oder des Individuellen. Im 19. Jahrhundert hatte das Universelle eine neue Form angenommen: die Gesellschaft. Die seit Rousseau gestellte Frage lautete: In welcher Weise schließen sich die Individuen (die B¨ urger) dieser Gesamtheit an? Im Jahre 1912 wurde die Frage erneut und ausf¨ uhrlich von dem belgischen katholischen Philosophen Lottin diskutiert, der dazu ein zusammenfassendes Werk unter dem Titel Quetelet, Statistiker und Soziologe (1912, [180]) verfaßte. Das Problem f¨ ur Lottin war der Nachweis dessen, daß kein Widerspruch zwischen der individuellen Verantwortung und der Unausweichlichkeit der gesellschaftlichen Gesetze besteht. Er st¨ utzte sich hierbei auf zwei Zitate von Quetelet, die einen synthetischen Vorschlag darstellten, der von Rousseau und dessen Gesellschaftsvertrag inspiriert worden war: Als Mitglied der Gesellschaft erf¨ahrt er (der Mensch im Allgemeinen) in jedem Augenblick die Notwendigkeit von Ursachen und entrichtet ihnen regelm¨ aßig Tribut; aber als Mensch (Individuum), der die gesamte Energie seiner intellektuellen F¨ahigkeiten aufwendet, beherrscht er einige dieser Ursachen, modifiziert ihre Wirkungen und kann versuchen, sich einem besseren Zustand zu n¨ahern. (Quetelet, 1832, [241].) Ein Mensch kann unter verschiedenen Aspekten betrachtet werden; vor allem besitzt er eine Individualit¨at, aber er zeichnet sich auch noch durch ein anderes Privileg aus. Er ist u ¨beraus gesellig; er verzichtet freiwillig auf ein St¨ uck seiner Individualit¨ at, um Teil eines großen Komplexes (des Staates) zu werden, der ebenfalls ein eigenes Leben f¨ uhrt und verschiedene Phasen durchl¨auft ... Der auf diese Weise verwendete Teil der Individualit¨at wird zum Regulator der haupts¨ achlichen sozialen Ereignisse ... Dieser Teil ist es, der die Br¨ auche, Bed¨ urfnisse und den nationalen Geist der V¨olker bestimmt und das Budget ihrer Moralstatistik regelt. (Quetelet, 1846, [243].) Diese Spannung zwischen kollektivem Fatalismus und individueller Freiheit findet sich in fast derselben Form bei Durkheim und den Soziologen des 20. Jahrhunderts wieder, die sich davon inspirieren ließen. Was sich hingegen ¨anderte, war der administrative Gebrauch der statistischen Totalisierungen,
Zwei kontroverse F¨ alle aus der medizinischen Statistik
93
die von nun an mit Diagnosen, standardisierten Verfahren und deren Auswertungen verkn¨ upft waren. S¨amtliche Spielarten der Makrosozialpolitik, die seit Beginn des 20. Jahrhunderts entwickelt worden waren, implizieren ein Wissensmanagement und eine Erkenntnisweise, die voneinander abh¨ angen. Eine Illustration dieser wiederentdeckten Gleichsetzung ist das Kommen und Gehen von Maßnahmen – im Sinne von Entscheidungen, die sich auf eine große Anzahl von F¨ allen anwenden lassen – und die Messungen der Wirkungen dieser Maßnahmen. Ein gutes Beispiel hierf¨ ur ist der Aufbau von sozialen Sicherungssystemen, die eine statistische Abdeckung der individuellen Risiken gew¨ ahrleisten (Ewald, 1986, [87]).
Zwei kontroverse F¨ alle aus der medizinischen Statistik Die Schwierigkeit, gleichzeitig u aßigkei¨ber Einzelf¨alle und statistische Regelm¨ ten nachzudenken, wurde in den philosophischen Debatten u ¨ber den Durchschnittsmenschen durch den Begriff des Widerspruchs zwischen Schicksal und Freiheit ausgedr¨ uckt. Aber ungef¨ahr zur gleichen Zeit in den 1830er Jahren war die Verwendung der Mittelwerte Gegenstand von Kontroversen, in denen es um sehr konkrete Fragen ging und nicht nur um philosophische Diskussionen. Das Gebiet der Medizin bietet hierf¨ ur zwei Beispiele, von denen sich das eine auf Kliniken und therapeutische Verfahren bezieht, das andere hingegen auf Pr¨ aventivmaßnahmen im Kampf gegen Epidemien. In diesen beiden F¨ allen lassen sich die unterschiedlichen einschl¨ agigen Positionen als spezifische Kombinationen analysieren: kognitive Schemata wurden mit Modalit¨ aten des Handelns und der Eingliederung in gr¨oßere Netze kombiniert. Genauer gesagt fiel die Identifizierung der Objekte, die den h¨ochsten Realit¨ atsgrad hatten (das heißt die Gesellschaft, die Armen, der Typhus, die Stadtbezirke von Paris, der Kranke, der Arzt, das Miasma, der Choleravibrio9 ...), nicht in den Bereich des Gegensatzes zwischen Determinismus und Willensfreiheit. Vielmehr ging es einerseits um eine m¨oglichst umfassende explizite Formulierung der Lage, in der sich die Protagonisten befanden. Andererseits strebte man eine m¨ oglichst vollst¨ andige explizite Formulierung der relevanten Objekte an, auf die sich die Akteure st¨ utzen konnten, um miteinander entsprechende Vereinbarungen zu treffen. Reale Objekte spielten demnach die Rolle von zu rekonstruieren¨ den allgemeinen Ubergangsund Bezugspunkten in sich st¨ andig ¨ andernden Konstellationen. Eine Krankheit und deren ¨arztliche Behandlung stellten ein Einzelereig¨ nis dar und diese Singularit¨at wurde lange Zeit hindurch von der Arzteschaft geltend gemacht, die sich gegen¨ uber jeglicher Form der Kategorisierung und Totalisierung reserviert verhielt. Derartige Kategorisierungen und Totalisierungen w¨ aren n¨ amlich mit der Gefahr einhergegangen, das singul¨ are Kollo” quium“ zwischen Arzt und Patient zu zerst¨oren. Aber der Widerstand legte 9
Der vibrio cholerae“, ein kommaf¨ ormiger, stark beweglicher Keim, ist der Erreger ” der Cholera asiatica.
94
3 Mittelwerte und Aggregatrealismus
sich schnell, als Krankheiten zu einem kollektiven Problem wurden, das globale L¨ osungen erforderte – man denke nur an Epidemien und insbesondere an deren Pr¨ avention. In diesem Falle bestand die mitunter dringende Notwendigkeit, im Rahmen der ¨offentliche Gesundheit Maßnahmen zu ergreifen, um eine Epidemie vorherzusehen oder sie zu stoppen. Das wiederum bedeutete, daß die Epidemie als ein Ganzes zu betrachten war, dessen konstante Ursachen festgestellt werden mußten – das heißt man mußte nach den Faktoren suchen, die eine Ausbreitung der Epidemie beg¨ unstigten. Zu diesem Zweck lieferten die Berechnungen der durchschnittlichen Anzahlen der Todesf¨ alle der Bev¨ olkerungsschichten – die nach unterschiedlichen Kriterien klassifiziert wurden (Stadtteile von Paris, Wohnungstypen, Wohlstandsniveau, Alter) – Hinweise auf m¨ ogliche Vorbeugungsmaßnahmen (die Risikogruppen“ in den ” Debatten zur Aids-Epidemie unterliegen der gleichen Logik). Diese Form der ¨ medizinischen Statistik“ wurde von der Arzteschaft ohne weiteres akzep” ¨ tiert, denn sie erlaubte es den Arzten, sowohl in den ¨ offentlichen Debatten als auch bei der Organisation der Gesellschaft eine Rolle zu spielen. Eine 1829 gegr¨ undete Zeitschrift, die Annales d’hygi`ene publique et de m´edecine l´egale fungierte als Tr¨ ager von – statistischen oder nichtstatistischen – Erhebungen in Bezug auf diejenigen sozialen Gruppen, die Elend, Krankheiten, Alkoholismus, Prostitution oder Kriminalit¨at am ehesten ausgesetzt waren (L´ecuyer, 1977, [172]). Das Ziel dieser Untersuchungen bestand darin, den betreffenden Gruppen Moral zu predigen und gleichzeitig ihre hygienischen Verh¨ altnisse und Lebensbedingungen – vor allem durch die Gesetzgebung – zu verbessern. Die bekanntesten dieser gelehrten und politisch aktiven Reformer waren Villerm´e (1782–1863), ein guter Freund Quetelets, und Parent-Duchatelet. Die Cholera-Epidemie von 1832 war eine Zeit intensiver Aktivit¨ at dieser im sozialen Bereich t¨ atigen Demoskopen. Die Akzeptanz quantitativer Methoden war hingegen im Falle von Kliniken zur damaligen Zeit viel weniger offensichtlich, als der Vorschlag gemacht wurde, die statistische Wirksamkeit der verschiedenen Behandlungsweisen einer Krankheit zu pr¨ ufen. Die Anh¨anger der numerischen Methode“ 10 – zum ” Beispiel Doktor Louis – st¨ utzten sich auf den prozentualen Anteil von Genesungsf¨ allen, um bei der Behandlung des Typhusfiebers zu beweisen, daß Abf¨ uhrmittel dem Verfahren des Aderlasses u ¨berlegen sind. Aber sie stießen auf ¨ außerst heftige (wenn auch ziemlich gegens¨ atzliche) Kritik, in der man die ¨ Aufstellung der betreffenden Aquivalenzen anprangerte. Die kritischen Be¨ merkungen wurden von Arzten ge¨außert, die ansonsten in Bezug auf andere Dinge immer unterschiedlicher Meinung waren – von Risue˜ no d’Amador, der sich vom Vitalismus des 18. Jahrhunderts inspirieren ließ, bis hin zu Claude Bernard (etwas sp¨ater), dem Begr¨ under der modernen experimentellen Medi¨ zin (Murphy, 1981, [206]). F¨ ur die traditionell eingestellten Arzte, wie etwa 10
Sheynin (1982, [439]) gibt eine ausf¨ uhrliche Darstellung der Geschiche der medizinischen Statistik, einschließlich der von Louis und anderen verwendeten numerischen Methode.
Zwei kontroverse F¨ alle aus der medizinischen Statistik
95
d’Amador, war die Medizin eine Kunst, die auf der Intuition und dem Instinkt des Praktikers aufbaute: Intuition und Instinkt manifestierten sich im Verlauf des singul¨ aren Kolloquiums zwischen Arzt und Patient und f¨ uhrten zu einer Indikation, die aus der Individualit¨at des betreffenden Falles resultierte. Jeder Versuch, diesen Fall mit einer generischen Kategorie zu vergleichen, w¨ urde die Spezifit¨ at dieser pers¨onlichen Wechselwirkung und die auf Erfahrung begr¨ undete Intuition des Falls zerst¨oren. Nach Meinung von Louis mußte man jedoch die Krankheiten klassifizieren, die Behandlungen mit Hilfe von Standards auswerten sowie nach konstanten Beziehungen zwischen Krankheiten und Behandlungstechniken suchen. Zu diesem Zweck erhob man Anspruch auf die bew¨ ahrten Methoden der anderen Naturwissenschaften (Piquemal, 1974, [231]). Jedes der von diesen beiden Lagern verwendeten Vokabulare war in sich schl¨ ussig und verwies auf die beiden gut typisierten Arten des Wissens und des Handelns. Die Frage war: Wie sind Entscheidungen zu treffen? Soll man – wie von Louis vorgeschlagen – in Abh¨angigkeit von dem Wissen handeln, das auf der systematischen Aufzeichnung einer großen Anzahl ¨ arztlicher Leistungen aufbaut, und sollte man dabei auf die mit Hilfe von Theorien kodifizierten Resultate zur¨ uckgreifen? Oder sollte man sich vielmehr – wie von d’Amador empfohlen – an die fallbezogene Intuition halten, die sich auf alt¨ uberlieferte und h¨ aufig m¨ undlich weitergegebene Traditionen st¨ utzte, an die sich der Praktiker – ein Mann mit Erfahrung, der sich in derartigen F¨ allen auskannte – getreulich hielt? Es handelte sich also weniger darum, die Allgemeinheit der numerischen Methode mit der Singularit¨at der Wechselwirkung der traditionellen Medizin zu vergleichen. Vielmehr ging es darum, zwischen den beiden Methoden zu unterscheiden, auf deren Grundlage fr¨ uhere F¨ alle kumuliert und zueinander in Beziehung gesetzt worden sind. In beiden F¨ allen berief man sich auf eine Form von Allgemeinheit: auf die Statistik oder auf die Tradition. Der Fall von Claude Bernard ist komplexer, denn Bernard akzeptierte die wissenschaftliche Methode voll und ganz und popularisierte sie sogar, stand aber dennoch der numerischen Methode“ feindselig gegen¨ uber (Schiller, 1963, ” [252]). Er machte dieser Methode den Vorwurf, daß sie die Aufmerksamkeit von den pr¨ azisen Ursachen der betreffenden Krankheit ablenkte und unter dem Deckmantel der Wahrscheinlichkeit“ einen Teil des Sachverhaltes der ” Ungewißheit und der n¨aherungsweisen Betrachtung u ur ihn bestand ¨berließ. F¨ die Pflicht eines Wissenschaftlers darin, mit Hilfe der experimentellen Methode eine vollst¨ andige Analyse der deterministischen Verkettung von Ursachen und Wirkungen zu geben. Diese Kritik scheint Gemeinsamkeiten mit den von d’Amador vorgebrachten Bedenken zu haben. Aber f¨ ur Claude Bernard, der nichts von einem Vitalisten alten Schlages an sich hatte, konnte ein Arzt seine Patienten zwar mit Mitteln“, aber nicht im Mittel“ behandeln. Vielmehr ” ” ¨ mußte der Arzt die unmittelbaren Ursachen des Ubels finden, um es v¨ ollig zu beseitigen. Die Feindseligkeit gegen¨ uber der Statistik und ihren Regelm¨ aßigkeiten hing mit einer deterministischen Auffassung von der Mikrokausalit¨ at zusammen. Nach dieser Auffassung sind Wahrscheinlichkeit und numerische
96
3 Mittelwerte und Aggregatrealismus
Methode Begriffe, die gleichbedeutend mit Vagheit und mangelnder Strenge sind. Und so hat es den Anschein, daß jeder der drei Protagonisten dieser Debatten auf seine eigene Weise und in seinem eigenen logischen Universum Recht hatte: die kognitiven Werkzeuge hingen mit den Handlungen zusammen, die mit Hilfe dieser Werkzeuge ausgef¨ uhrt wurden. Bei diesen Universen handelte es sich um Hygienik, pr¨aventive und kollektive Sozialmedizin f¨ ur Louis (L´ecuyer, 1982, [173]), um patientennahe und t¨ agliche Familienmedizin f¨ ur d’Amador und um experimentelle Medizin und Kliniktechnisierung f¨ ur Claude Bernard. Alle drei Positionen gibt es auch heute noch und jede hat ihre eigene Koh¨ arenz. Die Verwendung statistischer Mittelwerte kam auf indirektere Weise auch in einer anderen medizinischen Kontroverse zur Sprache, die zur Zeit der Cholera-Epidemie gef¨ uhrt wurde (Delaporte, 1990, [56]). Die Epidemie trat in Asien in den 1820er Jahren auf, breitete sich dann in Westeuropa aus und erreichte Frankreich im Jahre 1832. Moreau de Jonn`es (1778–1870), ein Marineoffizier und fr¨ uherer Kolonialbeamter verfolgte das schrittweise Vorr¨ ucken der Krankheit und verfaßte 1831 einen Bericht dar¨ uber. Dabei forderte er Maßnahmen wie zum Beispiel die Schließung von H¨ afen, die Quarant¨ ane f¨ ur Schiffe und die Errichtung von Lazaretten (Bourdelais und Raulot, 1987, [24]). Vergebliche M¨ uhe! Das Schließen der Grenzen h¨ atte wichtige Wirtschaftsinteressen besch¨ adigt. Die Cholera griff im Fr¨ uhjahr 1832 in Frankreich um sich. ¨ Die Arzte waren geteilter Ansicht dar¨ uber, wie die Krankheit zu erkl¨ aren sei. Die Kontagionisten behaupteten, daß sie durch Kontakt mit den Kranken u ¨bertragen wird. Moreau de Jonn`es war Kontagionist. Hingegen meinten die Infektionisten, die in der Mehrheit waren, daß die Ausbreitung der Krankheit durch die Elendsviertel beg¨ unstigt wurde, die in manchen Stadtteilen ¨ h¨ aufig anzutreffen waren. Die Infektionisten st¨ utzten ihre Uberzeugung auf Sterbestatistiken, die f¨ ur die Straßen von Paris erstellt und entsprechend dem wirtschaftlichen Niveau der Bewohner aufgeschl¨ usselt worden waren. Diese Anh¨ anger der Theorie der Miasmen“, die unter den Hygienikern“ besonders ” ” zahlreich waren, gruppierten sich im Umfeld der Zeitschrift Annales d’hygi`ene. Sie fanden in den statistischen Mittelwerten, die f¨ ur eine Umgebung“ oder f¨ ur ” ein Milieu“ charakteristisch waren, ein ad¨aquates Werkzeug f¨ ur Eingriffe auf ” dem politischen Terrain – sie forderten Sanierungsmaßnahmen, den Bau von Abwasserkan¨ alen und Regelungen in Bezug auf den Wohnungsstandard. Zwar hingen diese Mittelwerte mit der makrosozialen Vorgehensweise zusammen. Aber eigneten sie sich auch dazu, die unmittelbaren und pr¨ azisen Ursachen einer Krankheit aufzudecken? Diese Debatte war interessant, denn sie entzog sich einer teleologischen Deutung des Fortschritts der Wissenschaft als Kampf des Lichts gegen die Nacht der Vorurteile. An diesem Punkt gab die Geschichte in gewisser Weise beiden Lagern Recht: dem Lager der Kontagionisten, wie die Entdeckung des Choleravibrio im Jahre 1833 zeigte, und dem Lager der Infektionisten, die als Verfechter der Mittelwerte und der ¨ offentlichen Gesundheit auftraten, denn die Ausbreitung des Vibrio wurde durch das Fehlen der Kanalisation beg¨ unstigt.
Zwei kontroverse F¨ alle aus der medizinischen Statistik
97
Wie sich herausstellte, waren die Mittelwerte zum Gegenstand der Debatten zwischen den gleichen Protagonisten geworden, n¨ amlich zwischen dem Hygieniker Villerm´e und dem Kontagionisten Moreau de Jonn`es. Letzterer war zwar auch an Statistik interessiert, aber das war eine andere Sache. Und so wurde er 1833 (ein Jahr nach der Cholera) damit beauftragt, das im Jahre 1812 abgeschaffte Bureau f¨ ur Verwaltungsstatistik wieder aufzubauen: das war die neue Statistique g´en´erale de la France (SGF), die er bis 1851 leitete. Aber seine Auffassung von Statistik unterschied sich von der Auffassung der ´ ements de Statistique Hygieniker, gegen die er polemisierte. In seinem Werk El´ stellte er 1847 die Statistik in einer mehr administrativ und weniger wahrscheinlichkeitstheoretisch ausgelegten Weise vor, als es die Moralstatistiker“ ” – die Sch¨ uler von Quetelet und Villerm´e – taten. F¨ ur Moreau de Jonn`es hing die Statistik mit der Verwaltung des Staatsapparates zusammen – sowohl hinsichtlich der Datenerfassung als auch in Bezug auf die Verwendung der Daten beim eigentlichen Verwaltungsablauf. Er bestand mit Nachdruck auf den Eigenschaften der Koh¨arenz, der Logik und der minuti¨ osen Sorgfalt, die ein Statistiker ben¨ otigt, um wahre Zahlen“ zu erhalten. Mittelwerte erschienen ” ihm als Fiktionen, mit denen sich wohl einige Leute begn¨ ugten – aber diese Mittelwerte konnten seiner Meinung nach die wahren Zahlen“ nicht erset” zen. Er kritisierte die Berechnungen der Lebenserwartung und die von den Versicherungsmathematikern verwendeten Sterbetafeln. Anhand dieses Falles erkennen wir, daß der von Quetelet hergestellte Zusammenhang zwischen den beiden Typen von Mittelwerten (das heißt – in der Terminologie von Bertillon – zwischen dem objektiven und dem subjektiven Mittelwert) ganz und gar nicht selbstverst¨ andlich war: der Realismus der Aggregate wurde in dieser buchhalterischen und verwaltungsbezogenen Auffassung der Statistik geleugnet. Die Statistiker sahen sich h¨ aufig Vorw¨ urfen ausgesetzt wie: Wirf doch bitte nicht Dinge in einen Topf, die in Wirklichkeit ” voneinander verschieden sind!“ Die hier zitierte Realit¨ at ist nicht die gleiche Realit¨ at, wie die des statistischen Mittelwertes – jede dieser Realit¨ aten hat ihren eigenen Anwendungsbereich. Die Kritik in Bezug auf die Kodierung ist die Grundlage zahlreicher Anschuldigungen, die gegen die quantitativen Sozialwissenschaften (Cicourel, 1964, [47]) und gegen die b¨ urokratische und anonyme Verwaltung von Massengesellschaften erhoben werden. Die Ironie besteht hier darin, daß die Attacke vom Leiter des Bureaus f¨ ur Verwaltungsstatistik geritten wurde. Zu diesem Zeitpunkt gab es jedoch noch keine hinreichende Koh¨ arenz zwischen den administrativen und den kognitiven Werkzeugen, weswegen ein derartiger Widerspruch noch m¨ oglich war. Die Hygieniker, Moralstatistiker und Liebhaber von Mittelwerten waren ¨ Arzte und angesehene Pers¨onlichkeiten, die versuchten, neue Positionen aufzubauen, indem sie f¨ ur soziale Antworten k¨ampften. Ihre in Form von Mittelwerten ausgedr¨ uckte makrosoziale Argumentation eignete sich zur F¨ orderung der Massenhygiene und der Pr¨aventivmedizin. Diese einflußreiche Lobby war außerdem mit den Vertretern des Freihandels liiert – vor allem mit Kaufleuten und Importeuren –, die den staatlichen Reglementierungen hinsichtlich
98
3 Mittelwerte und Aggregatrealismus
des Warenverkehrs und der Schließung der Grenzen feindselig gegen¨ uberstanden. Im Gegensatz hierzu hatten Moreau de Jonn`es und die Kontagionisten eine mehr administrativ orientierte Vision. Die Statistik durfte sich (ihrer Meinung nach) nicht mit wahrscheinlichen Fakten zufriedengeben, sondern mußte ¨ sichere Fakten sammeln, die in strenger Weise aufgezeichnet waren. Im Ubrigen durfte man sich bei der Behandlung der Cholera nicht mit Maßnahmen begn¨ ugen, die im doppelten Sinne (das heißt im Sinne der verordnenden Gewalt und im wissenschaftlichen Sinne) unsicher waren und nur probabilistisch, das heißt in der Masse wirkten: man mußte den Keim“ isolieren (der sp¨ ater ” als Vibrio bezeichnet wurde) und nicht irgendwelche vagen Umwelt-Miasmen. Diese Position stand der oben beschriebenen Position von Claude Bernard nahe. Falls sich die Statistik auf individuelle Aufzeichnungen st¨ utzt, dann hatten die damit verbundenen Interpretationen – wie sie damals von Quetelet, Villerm´e oder Louis gegeben wurden – eine gr¨oßere Wesensverwandtschaft mit der philosophischen Position, die als realistisch (im mittelalterlichen Sinne) bezeichnet wurde und sp¨ater unter dem Namen universalistisch oder holistisch bekannt wurde. Diese Position ordnete Kategorien oder Gesamtheiten von Individuen eine intrinsische Realit¨at zu. Im Gegensatz hierzu bestritten die Gegner dieser Position – d’Amador, Claude Bernard, Moreau de Jonn`es ¨ und andere – die Existenz von Aquivalenzklassen und standen der von Ockham vertretenen nominalistischen oder individualistischen Position n¨ aher, deren einzige Realit¨ at die Realit¨at des Individuums war. Die Auswahl der relevanten Objekte, auf die sich die verschiedenen Akteure st¨ utzten und in Bezug auf die sie sich verst¨ andigen konnten, stand in Beziehung zur Gesamtsituation und hing vor allem von der Bedeutung der betreffenden Akteure ab (bei den Hygienikern waren es die Armen und die Armut; bei Keynes die Arbeitslosen und die Arbeitslosigkeit). Aber zwischen diesen beiden extremen Positionen – das heißt zwischen dem Realismus des durch seine konstante Ursache vereinheitlichten Aggregats und dem individualistischen Nominalismus, der diese Totalisierungen ablehnte – sollte sich ein neuer Raum auftun. Zun¨ achst unternahm man Versuche, die Homogenit¨at der durch ihren Mittelwert repr¨ asentierten Gesamtheit zu testen. Danach wurden komplexere statistische Formalismen vorgeschlagen, mit deren Hilfe beide Standpunkte – das heißt der realistische und der nominalistische Standpunkt – zusammen erfaßt werden konnten. Aus dieser Sicht sollten sich die von Karl Pearson vorgenommenen Formulierungen der Regression und der Korrelation als entscheidender Wendepunkt erweisen – als Wendepunkt zwischen den Fragen des 19. Jahrhunderts, die noch mit der Rhetorik Quetelets zusammenhingen, und den g¨ anzlich anderen Formalisierungen der mathematischen Statistik der 20. Jahrhunderts.
Eine Urne oder mehrere Urnen?
99
Eine Urne oder mehrere Urnen? Das intellektuelle Konstrukt Quetelets st¨ utzte sich auf das Wahrscheinlichkeitsmodell einer Urne konstanter F¨ ullung mit weißen und schwarzen Kugeln: aus der Urne wird eine Kugel gezogen und dann viele Male wieder zur¨ uckgelegt. Die Wahrscheinlichkeit des Auftretens eines gegebenen Verh¨ altnisses zwischen den weißen und schwarzen Kugeln folgt einer Binomialverteilung. Diese konvergiert gegen eine Normalverteilung, falls die Anzahl der Ziehungen unbegrenzt w¨achst: das ist das Bernoullische Gesetz der großen Zahlen“. ” Was passiert, wenn die Vorgabe oder die Eindeutigkeit der Urnenf¨ ullung nicht gew¨ ahrleistet sind? Quetelet argumentierte in umgekehrter Richtung: aus der Normalverteilung schloß er auf die Existenz eines Systems von konstanten Ursachen. Diese Frage war bereits zu Beginn des 19. Jahrhunderts gestellt worden, als einige Forscher die Sch¨atzmethoden der politischen Arithmetik des 18. Jahrhunderts wiederverwenden wollten, um beispielsweise ohne Durchf¨ uhrung einer Vollerhebung die Bev¨olkerungszahl eines Landes zu sch¨ atzen: man ging von dem – im gesamten Territorium als gleichm¨aßig vorausgesetzten – Verh¨ altnis zwischen der betreffenden Bev¨olkerungszahl und der Anzahl der j¨ ahrlichen Geburten aus, wobei dieses Verh¨altnis in einigen Kirchengemeinden ermittelt worden war (Kalk¨ ul von Laplace, vgl. Kapitel 1). Quetelet fand diese Methode verlockend, als er 1825 die Bev¨olkerung der Niederlande sch¨ atzen wollte – von diesem Vorhaben wurde er jedoch durch die Kritik eines hohen Beamten, des Barons von Keverberg, abgehalten. Deswegen konzentrierte Quetelet seine Energie auf die Organisierung von Vollerhebungen. Keverberg zog in Zweifel, daß es f¨ ur das gesamte Territorium ein einziges Gesetz geben k¨ onne, mit dem sich das Verh¨ altnis zwischen Bev¨olkerungszahl und Anzahl der Geburten beschreiben ließe, und daß man diesen – f¨ ur einige Orte berechneten – Wert extrapolieren k¨ onne: Das Gesetz, welches die Geburtenziffern oder die Sterblichkeit regelt, setzt sich aus einer großen Anzahl von Bestandteilen zusammen: es ist verschieden f¨ ur St¨adte und f¨ ur das flache Land, f¨ ur reiche Großst¨ adte und f¨ ur kleine und weniger reiche D¨orfer und es h¨ angt davon ab, ob die Bev¨ olkerungsdichte hoch oder niedrig ist. Dieses Gesetz h¨ angt vom Gel¨ ande ab (H¨ohenlage oder nicht), von der Bodenbeschaffenheit (trocken oder sumpfig), von der Entfernung zum Meer, vom Wohlstand oder vom Elend der Bev¨olkerung, von ihrer Ern¨ ahrung, ihrer Kleidung, von der allgemeinen Lebensweise und von einer Vielzahl von lokalen Umst¨anden, die bei jeder A-priori -Aufz¨ ahlung u ¨bergangen w¨ urden. Die tats¨achlich wirkende Kombination dieser Elemente kann schwerlich im Voraus pr¨azise bestimmt werden, zumal sie sich auf ein unvollst¨andiges und spekulatives Wissen st¨ utzt. In Bezug auf die Natur, die Anzahl und die Intensit¨at dieser Bestandteile sowie hinsichtlich ihrer relativen Anteile scheint es eine unendliche Vielfalt zu
100
3 Mittelwerte und Aggregatrealismus
geben ... Ich meine, daß es nur ein einziges Mittel gibt, eine korrekte Kenntnis der Bev¨olkerungszahl und ihrer Bestandteile zu erlangen: n¨ amlich eine wirkliche und vollst¨andige Volksz¨ ahlung durchzuf¨ uhren und ein Register der Namen s¨amtlicher Einwohner, einschließlich ihres Alters und ihrer Berufe, zu erstellen. (Keverberg, 1827, zitiert von Stigler, 1986, [267].) Diese Argumentation unterschied sich nicht wesentlich von der Argumentation, die sp¨ ater von Moreau de Jonn`es – einem ebenfalls hohen Beamten – formuliert und gegen Quetelet und andere ins Feld gef¨ uhrt wurde, die bei ihrer Arbeit Mittelwerte verwendeten. Dennoch bezog sich die Argumentation auf eine Methode der Verallgemeinerung von wenigen Einzelf¨ allen auf eine Gesamtheit. Bereits als junger Mann war Quetelet darauf bedacht, eine Stelle im Verwaltungsapparat zu finden. Er reagierte auf die besagte Argumentation so sensibel, daß er und seine Nachfolger bis zum Ende des Jahrhunderts unaufh¨ orlich die Vollerhebungen r¨ uhmten und den Umfragen mißtrauten, die von den politischen Arithmetikern des 17. und 18. Jahrhunderts auf der Grundlage von unvollst¨ andigen Aufzeichnungen zu riskanten Extrapolationen verarbeitet wurden. Die von Keverberg vorgebrachte Kritik bezog sich auf die fundamentale Heterogenit¨at der Bev¨olkerung sowie auf die Diversit¨ at und Komplexit¨ at der Faktoren, welche die untersuchten Variablen bestimmen. Diese Diversit¨ at und Komplexit¨ at waren so groß, daß eine auf Verallgemeinerung basierende Kenntnis der Sachlage undenkbar erschien. Die Zweifel an der Homogenit¨at und der eindeutigen Vorgabe der Urne wurden in pr¨ aziserer Weise von Poisson (1837) formuliert und formalisiert. Poisson behandelte dabei ein ganz anderes Problem: es ging um die Mehrheit, die bei den Abstimmungen von Schwurgerichten erforderlich war (Stigler, 1986, [267]; Hacking, 1990, [119]). Seit der Gr¨ undung der Institution der Volksgeschworenen im Jahre 1789 waren die Gesetzgeber verunsichert, da die M¨oglichkeit eines Justizirrtums nicht ausgeschlossen war. Wie konnte man die Wahrscheinlichkeit minimieren, einen Unschuldigen aufs Schafott zu schicken und gleichzeitig gew¨ahrleisten, daß kein Schuldiger seiner Strafe entkommt? Dabei wußte man nat¨ urlich einerseits, daß die Schuldfrage h¨ aufig eine unsichere Sache war und daß sich andererseits die Geschworenen auch irren konnten. Es bestand demnach eine doppelte Ungewißheit: zum einen die Unsicherheit in Bezug auf die Wirklichkeit der dem Angeschuldigten zur Last gelegten Taten und zum anderen die Unsicherheit hinsichtlich der Unfehlbarkeit des Urteils der Geschworenen. Im Anschluß an Condorcet und Laplace hatte Poisson versucht, die Wahrscheinlichkeit eines Justizirrtums abzusch¨ atzen, wobei er von unterschiedlichen Voraussetzungen bez¨ uglich einer qualifizierten Mehrheit in einem aus zw¨ olf Mitgliedern bestehenden Schwurgericht ausging (sieben gegen f¨ unf; acht gegen vier ...). Diese Frage hielt die ¨ offentliche Meinung in Atem und spaltete das Parlament: Diejenigen Parlamentsmitglieder, denen die Unumkehrbarkeit eines Justizirrtums Angst einjagte, standen denjenigen gegen¨ uber, die eine allzu große Nachgiebigkeit der Justiz bef¨ urchteten. Jedes
Eine Urne oder mehrere Urnen?
101
Lager wollte seine Position mit einem Maximum an Argumenten und objektiven Tatsachen untermauern. Im Unterschied zu seinen beiden Vorg¨angern konnte sich Poisson auf die statistischen Verzeichnisse st¨ utzen, die seit 1825 im neuen Compte g´en´eral de l’administration de la justice criminelle bereitgestellt wurden. Diese Verzeichnisse enthielten die j¨ahrlichen Zahlen der Anschuldigungen und Verurteilungen. Außerdem wurde das Gesetz im Jahre 1831 ge¨ andert. Vor dieser Zeit war f¨ ur eine Verurteilung lediglich eine Stimmenmehrheit von sieben gegen ¨ f¨ unf erforderlich. Nun waren es acht gegen vier Stimmen und diese Anderung in der Gesetzgebung konnte bei der Berechnung ber¨ ucksichtigt werden. ¨ Diese – durch die Uberlegungen von Bayes inspirierte – Berechnung implizierte die Ermittlung der beiden Ursachenwahrscheinlichkeiten“, die a priori ” unbekannt waren: die Wahrscheinlichkeit der Schuld des Angeklagten und die Wahrscheinlichkeit der Fehlbarkeit der Geschworenen. Poisson nahm nun zun¨ achst an, daß die Angeklagten aus unterschiedlichen Gruppen kommen, bei denen die Wahrscheinlichkeiten f¨ ur eine Schuld nicht gleich groß waren (man denke etwa an die heutigen Risikogruppen“). Zweitens nahm er an, ” daß die Geschworenen in unterschiedlicher Weise geeignet sind, die Tatsachen so einzusch¨ atzen, daß kein Irrtum auftritt. Ausgehend von diesen Annahmen ¨ sah sich Poisson veranlaßt, bei seinen Uberlegungen Urnen von ungewisser F¨ ullung einzuf¨ uhren. Das wiederum brachte ihn auf die Formulierung seines starken Gesetzes der großen Zahlen“, das eine Verallgemeinerung des Geset” zes von Bernoulli ist. Beim Gesetz von Bernoulli hat die Urne, aus der die Ziehungen erfolgen, eine vorgegebene F¨ ullung. In dem von Poisson untersuchten Fall ergeben sich jedoch die Urnen ihrerseits aus einer ersten Serie von Ziehungen. Dieses neue starke Gesetz“ besagte, daß unter gewissen Voraussetzun” gen (bez¨ uglich der Anfangsverteilung der Urnen unterschiedlicher F¨ ullung) die Ziehungswahrscheinlichkeiten11 gegen eine Normalverteilung konvergieren. Nach Auffassung von Poisson war dieses Ergebnis wichtig, denn es erlaubte die Beibehaltung der Konvergenzformeln – welche die St¨ arke des Gesetzes von Bernoulli ausmachten – und zwar auch in ungewissen F¨ allen, ja sogar im Fall der Heterogenit¨at der urspr¨ unglichen Urnen. Er meinte, daß dieser Umstand den realen Situationen der Anwendung dieses Gesetzes sehr viel n¨ aher k¨ ame. Bienaym´e gab sich zwar als Bewunderer von Poisson aus, wertete aber rasch die Originalit¨at dieses neuen starken Gesetzes der großen Zahlen“ ” in einem 1855 ver¨offentlichten Artikel ab, der den folgenden leicht boshaften Titel tr¨ agt: Zu einem Prinzip, das Monsieur Poisson zu entdecken geglaubt ” hatte und als Gesetz der großen Zahlen bezeichnete“. Bienaym´e bemerkte, daß – wenn man die Gesamtheit der beiden aufeinanderfolgenden Ziehungen global als einen einzigen probabilistischen Prozeß betrachtet – dieses starke ” Gesetz“ von Poisson nicht sehr weit u ¨ber das Gesetz von Bernoulli hinausgeht. 11
Gemeint sind hier die Ziehungswahrscheinlichkeiten der unterschiedlich gef¨ arbten Kugeln. Diese lassen sich auch in dieser allgemeinen Situation in ihrer Gesamtheit durch eine Normalverteilung approximieren.
102
3 Mittelwerte und Aggregatrealismus
¨ Die Uberlegungen von Bienaym´e drehten sich um den Begriff der konstanten Ursache und um die Einschr¨ankung, mit der die Probabilisten nach seiner Auffassung die Bedeutung des Wortes Ursache“ besetzt hatten: ” ... sie sprechen nicht davon, was eine Wirkung oder ein Ereignis hervorruft oder was dessen Eintreten gew¨ahrleistet; sie wollen nur u ¨ber den Zustand der Dinge reden, u ande, ¨ber die Gesamtheit der Umst¨ unter denen dieses Ereignis eine bestimmte Wahrscheinlichkeit hat. (Bienaym´e, 1855, [16].) Aus diesem Grund machte er keinen Unterschied zwischen einer konstanten Ursache und einer Ursache, die sich gem¨aß einem konstanten Gesetz ¨ andert. Die Geringf¨ ugigkeit des Umfangs der Abweichungen bleibt dieselbe, wenn man sich die konstante Wahrscheinlichkeit nicht mehr als absolut fest vorstellt, sondern als konstanten Mittelwert einer gewissen Anzahl von Wahrscheinlichkeiten, die von variablen Ursachen herr¨ uhren, von denen jede – entsprechend einer im Voraus festgelegten M¨ oglichkeitsverteilung – gleichermaßen jedem Test unterzogen werden kann. (Bienaym´e, 1855, [16].) Diese Schrift wurde 1855 ver¨offentlicht, aber bereits 1842 geschrieben, das heißt zu einer Zeit, in der Quetelet das Konstrukt seines Durchschnittsmenschen mit der erstaunlichen Regelm¨aßigkeit der Moralstatistik, der Heiraten, ” Selbstmorde und Verbrechen“ untermauerte. In dieser Schrift schlug Bienaym´e eine skeptizistische Tonart an, die man sp¨ater (in vermutlich unabh¨ angiger Form) auch bei dem deutschen Statistiker Lexis findet: F¨ uhrt man wirklich ernsthafte wissenschaftliche Forschungen durch und hat man die Fakten mehrerer Jahre zu vergleichen, dann kommt man kaum um die Feststellung herum, daß die vom Bernoullischen Satz festgelegten Abweichungen weit von den betr¨ achtlichen Unterschieden entfernt sind, die man bei den mit gr¨ oßter Genauigkeit erfaßten Zahlenverh¨altnissen der nat¨ urlichen Ph¨ anomene antrifft. (Bienaym´e, 1855, [16].) Welches auch immer die Kritikpunkte gewesen sein m¨ ogen, die Bienaym´e an die Adresse von Poisson gerichtet hat – beide stellten den Begriff der ¨ konstanten Ursache als Prinzip der Aquivalenzklassenbildung infrage, die es erm¨ oglicht, Ereignisse zusammenzufassen, indem man sie als kontingente Manifestationen einer Ursache auftreten l¨aßt, die allgemeiner ist und auf einer h¨oheren Ebene steht. Die Position von Bienaym´e und Poisson ist nominalisti” scher“ als die Auffassung Quetelets: Poisson versuchte jedoch, die Errungenschaften der konstanten Ursache durch seine – gem¨ aß einem konstanten Gesetz – variierende Ursache wenigstens teilweise zu retten, w¨ ahrend Bienaym´e den Konventionscharakter der Kausalit¨atsdefinition besser erfaßte. Seine Formulierung steht dem modernen Begriff des Modells n¨ aher, denn sie erfaßt
Der angefochtene Realismus: Cournot und Lexis
103
Konventionen und Abstraktionen als getrennt von der wahrnehmbaren Intuition. Im Gegensatz hierzu bewahrte die Unterscheidung, welche Poisson zwischen den unterschiedlichen Zeitpunkten des Auftretens einer Ungewißheit vornahm, den subjektiven Aspekt der Wahrscheinlichkeiten im Sinne der vom 18. Jahrhundert u unde (im vorlie¨berkommenen Terminologie der Glaubensgr¨ genden Fall der Glaube an die Schuld des zum Tode Verurteilten). An dieser Stelle findet man u ¨brigens auch den Hauptunterschied zwischen Poisson und Quetelet: Poisson befand sich noch im mentalen Universum von Condorcet und Laplace (obwohl er sich auf Verwaltungsstatistiken st¨ utzen konnte). F¨ ur Poisson waren die Wahrscheinlichkeiten nichts anderes als die von rationalen Individuen ge¨außerten Glaubensgrade, welche die betreffenden Individuen ihren eigenen Urteilen zuordneten. F¨ ur Quetelet hingegen, der sich f¨ ur die Gesellschaft in ihrer Gesamtheit und f¨ ur deren Best¨ andigkeiten interessierte, hatten die Wahrscheinlichkeiten fortan mit der Variabilit¨ at der Dinge und mit den Abweichungen von den Mittelwerten zu tun. In allen oben angef¨ uhrten Formalisierungen und Kontroversen – das heißt bei Quetelet und der von ihm festgestellten erschreckenden Regelm¨ aßigkeit ¨ von Verbrechen, bei den Arzten und der von ihnen behandelten Cholera so¨ wie bei Poisson und dessen Uberlegungen zu Schwurgerichten – hingen die theoretischen Formulierungen eng mit den debattierten Themen zusammen und hatten deutliche Auswirkungen auf die brennende Aktualit¨ at dieser Themen. Umgekehrt war das Auftreten der kognitiven Schemata mit der Art und Weise verkn¨ upft, in der die genannten Autoren auf der Grundlage ihrer T¨atigkeit unterschiedliche Realit¨aten konstruierten. An sp¨ aterer Stelle in diesem Buch findet man – in Bezug auf Eugenik und mathematische Statistik – ¨ eine analoge Ubereinstimmung in den Aktivit¨ aten von Galton und Pearson. ¨ Gleichwohl stimmt es, daß eine derartige Ubereinstimmung f¨ ur einige Autoren – wie zum Beispiel Bienaym´e oder Cournot – weniger offensichtlich ist und daß ihre T¨ atigkeit interner Bestandteil einer eigenst¨ andigen epistemologischen ¨ Uberlegung zu sein scheint. Aus diesem Grunde haben sich nur wenige Autoren auf Bienaym´e und Cournot bezogen und beide sind zum Teil verkannt worden.
Der angefochtene Realismus: Cournot und Lexis Antoine Augustin Cournot (1801–1877), Philosoph, Mathematiker und Generalinspektor des ¨offentlichen Schulwesens war im Unterschied zu Quetelet ¨ vor allem auf theoretische Uberlegungen orientiert. Die von ihm behandelte Hauptfrage bezog sich auf die Mittel, u ugt, um ¨ber die der Verstand verf¨ objektives Wissen zu erlangen. Bei diesem Bestreben nahm die Wahrscheinlichkeitsrechnung einen wesentlichen Platz ein. Unter dem Titel Exposition de offentlichte er 1843 ein Werk, in la th´eorie des chances et des probabilit´es 12 ver¨ 12
In deutscher Sprache unter dem Titel Die Grundlehren der Wahrscheinlichkeits” rechnung, leichtfaßlich dargestellt f¨ ur Philosophen, Staatsm¨ anner, Juristen, Ka-
104
3 Mittelwerte und Aggregatrealismus
¨ dem er den philosophischen Status der wahrscheinlichkeitstheoretischen Uberlegungen auf nuancierte Weise analysierte. Cournot versuchte, das Chaos der individuellen Wahrnehmungen zu ordnen, besser gesagt: er wollte diese Wahrnehmungen von der Existenz einer rationalen Ordnung der Dinge abh¨ angig zu machen, die u ¨ber den Subjektivit¨aten steht. Das war eine eher realisti” sche“ Position (im mittelalterlichen Sinne), aber seine Feinanalyse der Art und Weise, wie Beweise konstruiert und vor allem durch die Statistik untermauert werden, f¨ uhrten ihn zu einer Position, die man de facto eher als nominalistisch bezeichnen kann. Als er versuchte, seine Gedanken auf der Grundlage allgemeiner Prinzipien zusammenzutragen, berief er sich auf eine rationale Ordnung, die im Gegensatz zu subjektiven Fehlern steht: Unser Glaube an gewisse Wahrheiten fußt also weder auf der Wiederholung ein und derselben Urteile noch auf einer einstimmigen oder fast einstimmigen Billigung: er beruht haupts¨ achlich auf der Wahrnehmung einer rationalen Ordnung – auf deren Grundlage diese Wahrhei¨ ten miteinander verkettet sind – und auf der Uberzeugung, daß es sich bei den Fehlerursachen um anormale, irregul¨ are und subjektive Ursachen handelt, die keine so regelm¨aßige und objektive Koordinierung erzeugen k¨ onnen. (Cournot, 1843, [51].) Dieses Gesp¨ ur f¨ ur die Spannung zwischen der gesuchten Objektivit¨ at der rationalen Ordnung und den Unvollkommenheiten des subjektiven menschlichen Urteils brachte Cournot darauf, klar zwischen den beiden m¨ oglichen Bedeutungen des Begriffes Wahrscheinlichkeit“ zu unterscheiden (er war ei” ner der Ersten, die dies taten) und die entsprechenden Zusammenh¨ ange zu untersuchen, wobei er den Bayesschen Standpunkt vehement kritisierte: Eine Regel, die zuerst von dem Engl¨ander Bayes ausgesprochen wurde, und auf der Condorcet und Laplace die Doktrin der A-posterioriWahrscheinlichkeiten aufbauen wollten, wurde zur Quelle zahlreicher Zweideutigkeiten, die zun¨achst gekl¨art werden m¨ ussen. Diese Regel f¨ uhrte auch zu schweren Fehlern, die man beheben muß. Und die Fehler werden behoben, sobald wir an den fundamentalen Unterschied denken, der zwischen den beiden Arten von Wahrscheinlichkeiten besteht: n¨ amlich zwischen den Wahrscheinlichkeiten, die eine objektive Existenz besitzen und ein Maß f¨ ur die M¨oglichkeit der Dinge liefern, und den subjektiven Wahrscheinlichkeiten, die teils auf unser Wissen und teils auf unsere Unwissenheit zur¨ uckzuf¨ uhren sind und von der Intelligenz, den entsprechenden F¨ahigkeiten und den gelieferten Daten abh¨ angen. (Cournot, 1843, [51].) Cournot war davon u ¨berzeugt, daß eine Akkumulation von Statistiken u ¨ber die verschiedensten Themen dazu f¨ uhren w¨ urde, das Wesen und die Tragweite meralisten und Gebildete u ¨berhaupt“ erschienen (herausgegegen von Dr. C.H. Schnuse, Braunschweig 1849).
Der angefochtene Realismus: Cournot und Lexis
105
des Wissens u undig zu transformieren. Aber im Un¨ber die Gesellschaft tiefgr¨ terschied zu den vorhergehenden Autoren blieb er bei dieser philosophischen Reflexion und griff nicht in die Themen ein, die man damals diskutierte. Auch war Cournot – im Gegensatz zu Quetelet und Moreau de Jonn`es – nicht in die administrativen und politischen Probleme einbezogen, die mit der Kompilierung und Aufbereitung statistischer Ergebnisse zu tun hatten. Ihm reichte die subtile Handhabung komplizierter kognitiver Schemata. Er stellte beispielsweise die Frage nach der Bedeutung der Abweichungen zwischen den Messungen ein und derselben Gr¨oße, die bei mehreren Teilen der Bev¨ olkerung durchgef¨ uhrt wurden, wobei diese Teile aus einer Aufteilung der Gesamtbev¨ olkerung hervorgingen. Damit f¨ uhrte er eine Art Homogenit¨ atstest der betreffenden Bev¨olkerung ein und gab eine Antwort auf die Einw¨ ande, die Keverberg gegen die Extrapolationen von Laplace erhoben hatte. Als er aber mit Hilfe von Begriffen der Wahrscheinlichkeitsrechnung argumentierte, daß diese Abweichungen von Null verschieden seien, stolperte er u ¨ber die Tatsache, daß derartige Tests lediglich Antworten liefern, die innerhalb einer gewissen Signifikanzschwelle liegen, f¨ ur die man beispielsweise 5% oder 1% w¨ ahlen kann. Nun ist aber die Anzahl der m¨oglichen Aufteilungen einer Bev¨ olkerung a priori unendlich – mit etwas Geduld und viel M¨ uhe lassen sich immer irgendwelche Aufteilungen finden, bei denen die Abweichungen signifikant sind (nat¨ urlich ist das bei einer Schwelle von 1% schwieriger, als bei einer Schwelle von 5%). Das von Cournot gegebene Beispiel bezog sich auf das Verh¨ altnis von m¨ annlichen zu weiblichen Geburten, das f¨ ur ganz Frankreich und f¨ ur jedes der 86 Departements berechnet worden war. Stellen wir uns nun vor, daß man dasjenige Departement isoliert, bei dem die Abweichung zwischen dem besagten Verh¨ altnis und dem auf ganz Frankreich bezogenen Verh¨ altnis am gr¨ oßten ist. Kann man dann f¨ ur das so ausgew¨ahlte Departement die Signifikanz einer Schwellenabweichung von 5% oder sogar von 1% auf legitime Weise testen? H¨ atte sich dieses Departement fr¨ uher durch nichts ausgezeichnet, dann lautete die Antwort gewiß nein. Wenn es sich aber um das Departement Seine oder Korsika gehandelt h¨atte, dann waren Zweifel angebracht. Warum? Weil die Menschen a priori wußten (oder zu wissen glaubten), daß diese Standorte einige Besonderheiten aufweisen. Bei dieser Argumentation warf Cournot die Frage des Zusammenhangs zwischen Wissensformen auf, deren Verarbeitungsweisen heterogen sind. Welche spezifischen Probleme entstanden durch die Konstruktion von zusammengesetzten Argumentationsrhetoriken, deren Bestandteile sich auf unterschiedliche Beweistechniken bezogen? Wie konnte man u ¨berzeugende statistische Argumente anf¨ uhren? Wie soll man Normen aufstellen, auf deren Grundlage ¨ sich Konventionen hinsichtlich des Uberzeugungscharakters eines statistischen Arguments erzielen lassen? Die besondere Schwierigkeit dieser Frage besteht im Falle der Statistik darin, daß ein extrem formalisierbares Universum – das sich auf sich selbst zur¨ uckziehen kann – mit dem Erfahrungsuniversum in Kontakt tritt, das eine wesentlich andere Beschaffenheit hat. Die Konstruktion ¨ von Taxonomien und Aquivalenzklassen erfolgt exakt in dieser Kontaktzone –
106
3 Mittelwerte und Aggregatrealismus
das ist es, was Cournot mit seinem Begriff des Voraburteils“ bemerkt hatte, ” das den Schnitt“ (das heißt die Nomenklatur) bestimmte. Er erkl¨ arte, daß ” ein sich auf eine Abweichung beziehendes Urteil von zwei Elementen abh¨ angt. Das erste Element ergibt sich im Ergebnis einer klar formalisierten Wahrscheinlichkeitsrechnung, aber: Das andere Element besteht aus einem Voraburteil, kraft dessen wir den Schnitt – der zur beobachteten Abweichung gef¨ uhrt hat – als einen solchen betrachten, den man in der unendlichen Vielfalt der m¨ oglichen Aufteilungen nat¨ urlicherweise durchzuf¨ uhren versucht, und nicht als einen, der unsere Aufmerksamkeit ausschließlich in Anbetracht der beobachteten Abweichung in Bann zieht. Nun leitet sich aber dieses Voraburteil – durch das es f¨ ur uns den Anschein hat, daß die statistische Erfahrung eher auf einen bestimmten Schnitt als auf einen anderen gelenkt sein mußte – aus Gr¨ unden ab, deren Wert sich nicht streng beurteilen l¨aßt und von anderen Geistern auf andere Weise beurteilt werden kann. Es handelt sich um ein Urteil mit Vermutungscharakter, das seinerseits auf Wahrscheinlichkeiten beruht – aber auf Wahrscheinlichkeiten, die sich nicht auf eine Aufz¨ ahlung der Chancen zur¨ uckf¨ uhren lassen und deren Diskussion nicht zur eigentlichen Doktrin der mathematischen Wahrscheinlichkeitsrechnung geh¨ ort. (Cournot, 1843, [51].) Durch die Einf¨ uhrung dieser Art von Fragestellung modifizierte Cournot das obengestellte Problem des Aggregatrealismus“ auf tiefgr¨ undige Weise. ” Er machte den Weg f¨ ur die M¨oglichkeit von zusammengesetzten Urteilen frei, von denen sich einige Bestandteile objektivieren lassen, w¨ ahrend andere von ” verschiedenen Geistern unterschiedlich beurteilt werden k¨ onnen“. Die durchgef¨ uhrten Schnitte“ k¨onnen sich also nur aus einer Konvention ableiten, die ” auf die Installierung des gesunden Menschenverstandes abzielt. Diese Auffassung ist teilweise nominalistisch – trotz einer an anderer Stelle erkennbaren Nostalgie nach einer rationalen Ordnung, auf deren Grundlage die Wahrhei” ten miteinander verkettet sind, einer Ordnung, f¨ ur welche die Fehlerursachen anormal, irregul¨ar und subjektiv sind“. Diese Spannung und das Bestreben, sie zu durchdenken, machen das Werk Cournots zu einem der reichhaltigsten Werke der hier zitierten Autoren, denn es stellt explizit die Frage nach der relativen Position der auf Wahrscheinlichkeitsrechnung und Statistik aufgebauten Wissensformen im Vergleich zu anderen Wissensformen, die vor allem bei der Begr¨ undung des Realismus der Aggregate verwendet werden. Dieser Realismus sollte von Lexis auch noch auf andere Weise bestritten werden. Quetelets Begriff der konstanten Ursache“, welche die Realit¨ at eines Ob” jekts auf der Grundlage der Regelm¨aßigkeit einer statistischen Reihe untermauerte, wurde durch eine Argumentation kritisiert und zerst¨ ort, die zwar dieselben Werkzeuge benutzte, aber mit deren Hilfe die inneren Widerspr¨ uche aufzeigte. Diese Kritik wurde in den 1870er Jahren durch den deutschen Statistiker Lexis (1837–1914) und den franz¨osischen Versicherungsmathematiker
Der angefochtene Realismus: Cournot und Lexis
107
Dormoy in ¨ ahnlicher Weise formuliert, wobei jedoch beide unabh¨ angig voneinander arbeiteten (Porter, 1986, [240]). Lexis wollte die Signifikanz der scheinbaren Regelm¨ aßigkeit einer Reihe testen und hatte die Idee, jedes der j¨ ahrlichen Ergebnisse als Ziehung einer Gesamtheit von Kugeln aus einer Urne zu betrachten, die mit schwarzen und weißen Kugeln gef¨ ullt ist. Ist diese F¨ ullung konstant, dann l¨ aßt sich die Verteilung der Anteile an weißen Kugeln bei den j¨ahrlichen Ziehungen durch eine Binomialverteilung beschreiben. Handelt es sich dabei um eine große Urne und eine große Anzahl von Ziehungen, dann n¨ahert sich die Binomialverteilung einer Normalverteilung, deren theoretische Streuung sich berechnen l¨aßt, die wir mit r bezeichnen wollen. Danach mißt man R, also die in der untersuchten Reihe tats¨achlich beobachtete Streuung. Schließlich berechnete Lexis das Verh¨altnis Q = R/r und verglich es mit 1. Ist Q kleiner als 1 (R < r), dann konnte man von einer subnormalen Varianz sprechen und hieraus die Existenz einer makrosozialen Ursache ableiten: die g¨ ottliche Vorsehung, eine Neigung zu ...“ oder einen Gruppeneffekt. Ist ” Q = 1, dann verifiziert man, daß die Urne konstant ist und das Binomialmodell angewendet werden kann. Ist schließlich Q > 1 (R > r), dann konnte man nicht mehr behaupten, daß die analysierte Variable konstant ist: alles lief so ab, als ob sich die F¨ ullung der Urnen ¨andern w¨ urde.13 Lexis wendete diese Methode auf eine große Anzahl von Reihen an, die in den vorausgegangenen Jahrzehnten von Quetelet und seinen Sch¨ ulern mit enthusiastischen Kommentaren bedacht worden waren. Das Ergebnis war vernichtend. Der Fall Q < 1 kam nie vor. Der Fall Q = 1 trat nur beim Verh¨ altnis der m¨ annlichen und weiblichen Geburten auf (das heißt bei der Sexualproportion). In allen anderen F¨allen liegt die beobachtete Streuung u ¨ber der theoretischen Streuung und deswegen kann man nicht auf die Konstanz des beschriebenen Ph¨ anomens schließen. Lexis leitete hieraus ab, daß Quetelets konstante Ursachen gegebenenfalls f¨ ur gewisse physikalische Beobachtungen geltend gemacht werden k¨onnen (Sexualproportion), nicht aber f¨ ur die Moral statistik und nicht einmal f¨ ur die K¨orpergr¨oßen. Deswegen ¨ anderte Lexis den Beweisapparat, das heißt das erforderliche Werkzeug, wobei er das Ziel verfolgte, die Dinge solide und stabil zu machen. Quetelet hatte die Regelm¨ aßigkeit der Mittelwerte mit der Normalverteilung kombiniert und schloß daraus auf eine konstante Ursache. F¨ ur Lexis reichte das nicht aus, denn er zeigte, daß die scheinbaren Normalverteilungen eine gr¨oßere Streuung aufweisen konnten, als es beim Binomialmodell der Fall war – daher ließ sich das Ergebnis auf eine Vielzahl von Urnen zur¨ uckf¨ uhren. Nun war es erforderlich, die Bedingung R = r zu erf¨ ullen, wenn man von einer konstanten Ursache sprechen wollte. Einzig und allein die Sexualproportion u ¨berlebte dieses Massaker. Der Durchschnittsmensch von Quetelet war also zur Zielscheibe hitziger Attacken geworden. Cournot verspottete den Durchschnittsmenschen: ein 13
Man kann einen Indikator p dieser Variation der Urnenf¨ ullung absch¨ atzen, indem man feststellt, daß R2 = r2 +p2 gilt. Das erkl¨ art die Zerlegung der Gesamtvarianz in Intraklassen-Varianzen“ und Interklassen-Varianzen“. ” ”
108
3 Mittelwerte und Aggregatrealismus
Mensch, dessen k¨orperliche Merkmale die Mittelwerte der bei vielen Individuen gemessenen entsprechenden Merkmale sind, w¨ are weit davon entfernt, ein ” Modell f¨ ur die menschliche Spezies zu sein – vielmehr w¨ are es ein unm¨ oglicher Mensch oder zumindest haben wir bislang keinerlei Anlaß, ihn als m¨ oglich anzusehen. (Cournot, 1843, [51].) Dar¨ uber hinaus hob Cournot den Konventionscharakter der statistischen Nomenklatur hervor und versetzte dadurch dem Begriff der konstanten Ursache“ einen Schlag. Lexis hatte seinerseits diesen ” Begriff bereits einer rein internen Kritik unterzogen. Jedoch waren die Effizienz der Argumentation von Quetelet und seine F¨ ahigkeit, von unbest¨ andigen Individuen auf eine soziale Best¨andigkeit zu schließen, so stark, daß die Sozialwissenschaften h¨aufig der Versuchung nicht widerstehen konnten, auf diese Argumentation mit folgendem Ziel zur¨ uckzugreifen: man wollte eine autonome Existenz des Ganzen begr¨ unden, auch wenn der Durchschnittsmensch gleichzeitig als Trugbild des Menschen im Allgemeinen – und des moralischen Menschen im Besonderen – in Erscheinung trat. Dieser f¨ ur die statistische Rhetorik ganz besondere Widerspruch l¨aßt sich zum Beispiel bei Durkheim und in der von ihm inspirierten Soziologie erkennen, wenn auf die schweren ¨ Gesch¨ utze umfangreicher Erhebungen zur¨ uckgegriffen wird, deren Uberzeugungskraft man oft gleichzeitig zur Schau stellt und leugnet. Eines der Ziele des vorliegenden Buches besteht darin, diese zumeist implizit auftretende Spannung explizit zu machen.
Durchschnittstyp und Kollektivtyp bei Durkheim Ab etwa 1830 wurde die Statistik von den Sozialwissenschaften in umfassender Weise bei Argumentationen und Beweisen eingesetzt. Dieser massive Einsatz warf unterschiedliche Fragen auf: Zu welchem Zweck? (Was soll bewiesen werden?); Auf welche Art und Weise? (Welche Werkzeuge und welche Rhetorik sollen verwendet werden?). Die Antworten auf diese Fragen ¨ anderten sich deutlich um das Jahr 1900, als die mathematische Statistik englischen Stils die B¨ uhne betrat. Im 19. Jahrhundert wurden statistische Argumente vor allem dazu benutzt, makrosoziale Totalit¨aten festzumachen, indem man – durch die von Quetelet er¨ offnete Sichtweise – auf Mittelwerte zur¨ uckgriff (obschon Analysen in Form von Abweichungen oder Mittelwertdifferenzen“ bereits fr¨ uher ” verwendet worden waren, wie wir am Beispiel der numerischen Methode“ der ” ¨ Arzte oder bei Cournot gesehen hatten). Im 20. Jahrhundert dagegen diente die Statistik dazu, den gefundenen Beziehungen einen festen Zusammenhalt zu verleihen, was Karl Pearson und Ronald Fisher sowie den von ihnen gepr¨agten Begriffen der Regressionsgeraden, des Korrelationskoeffizienten und der Varianzanalyse zu verdanken war (auch wenn die Identifikation der Objekte dabei immer weiter instrumentiert worden ist – insbesondere durch die Testtheorie und die inferentielle Statistik, die von Jerzy Neyman, Egon Pearson und Ronald Fisher geschaffen wurden).
Durchschnittstyp und Kollektivtyp bei Durkheim
109
Der Durchschnittsmensch von Quetelet beruhte auf der Kombination zweier Elemente: zeitliche Regelm¨aßigkeiten wurden mit Gaußschen Verteilungen14 zusammengebracht. Das erste Element hielt den Anwendungen besser stand als das zweite und wurde – zum Beispiel in der Durkheimschen Soziologie – h¨ aufig als ausreichend beurteilt. Aber das zweite Element war noch im 19. Jahrhundert ein gewichtiges Argument, mit dem man die Existenz der Tierarten und der menschlichen Spezies begr¨ undete. Man denke hier beispielsweise an Adolphe Bertillon und seine ber¨ uhmten Rekruten von Doubs (1876, [13]). Die Verteilung der K¨orpergr¨oßen der Soldaten aus diesem Departement war weder Gaußsch noch eingipflig wie anderswo, sondern wies zwei merkw¨ urdige Buckel auf (zweigipflige Verteilung). Bertillon leitete hieraus ab, daß diese bizarre Form das Ergebnis der Superposition zweier Normalverteilungen war und daß es sich bei der Bev¨olkerung von Doubs um eine Mischung zweier verschiedener ethnischer Gruppen handelte: Burgunder und Kelten.15 Der statistische Durchschnittstyp und seine zeitliche Regelm¨ aßigkeit wurden von Durkheim in massiver Weise dazu verwendet, die Existenz eines ausserhalb der Individuen stehenden Kollektivtyps zu untermauern – zumindest ¨ tat Durkheim dies in seinen ersten beiden B¨ uchern: Uber soziale Arbeitsteilung (La Division du travail social, 1893, [76]) und Die Regeln der soziologischen Methode (Les R`egles de la m´ethode sociologique, 1894, [77]). Im Gegensatz hierzu distanzierte er sich in Der Selbstmord (Le Suicide, 1897, [78]) vom Queteletschen Durchschnittstyp, den er sorgf¨altig vom Kollektivtyp unterschied. Dieser Sprachwechsel kann mit verschiedenen Konstrukten zusammenh¨ angen, in denen er den Durchschnittsmenschen in jedem der drei F¨ alle auftreten l¨ aßt: ¨ es handelt sich um die Effekte der Vererbung in Uber soziale Arbeitsteilung, um die Definition der Begriffe normal“ und pathologisch“ in Die Regeln der ” ” soziologischen Methode und um die Interpretation einer seltenen statistischen Tatsache in Der Selbstmord. Im Jahre 1893 bestand Durkheim (ausgehend von den Ergebnissen Galtons) in der Diskussion, die u ¨ber das relative Gewicht der Vererbung und des sozialen Milieus gef¨ uhrt wurde, auf der Konstanz des Durchschnittstyps, dessen Merkmale durch Vererbung u ahrend die individuellen ¨bertragen werden, w¨ Z¨ uge volatil und transitorisch sind: Nun ist aber der Durchschnittstyp einer nat¨ urlichen Gruppe derjenige, der den Bedingungen des durchschnittlichen Lebens, das heißt 14 15
Außer der Bezeichnung Gaußsche Verteilung verwendet man f¨ ur die Normalverteilung auch den Begriff Gauß-Verteilung. Der Italiener Livi (zitiert von Stigler [267]) behauptete 1896, daß es sich bei diesem Ergebnis um ein Artefakt handelte, das auf einen Umrechnungsfehler von Zoll in Zentimeter zur¨ uckzuf¨ uhren sei. Der Text von Bertillon (1876, [13], S. 287– 291) scheint diese Kritik nicht zu best¨ atigen. Ohne sich weiter damit aufzuhalten, machte Bertillon einen anderen Vorschlag: Der dem zweiten Maximum entsprechende Schnitt“ der K¨ orpergr¨ oßen erm¨ oglicht den Rekruten die Aufnahme in die ” Kavallerie und in die Pioniertruppe, wodurch sie der Infanterie entgingen.
110
3 Mittelwerte und Aggregatrealismus
den gew¨ ohnlichsten Bedingungen entspricht. Er dr¨ uckt die Art aus, wie sich die Individuen dem angepaßt haben, was man das durchschnittliche Milieu nennen kann, sei es das physische oder das soziale Milieu; das heißt jenes, in dem die Mehrzahl lebt. Diese mittleren Bedingungen waren in der Vergangenheit aus demselben Grund die h¨ aufigsten, aus dem sie in der Gegenwart ganz allgemein verbreitet sind; es handelt sich also um diejenigen Bedingungen, unter denen der gr¨ oßte Teil unserer Vorfahren gelebt hat. Zwar haben sich diese Bedingungen mit der Zeit ge¨andert, aber im allgemeinen tun sie dies nur sehr langsam. Der Durchschnittstyp bleibt also w¨ ahrend langer Zeit im wesentlichen derselbe. Demnach wiederholt er sich auch am h¨ aufigsten und gleichm¨aßigsten in der Folge vergangener Generationen – zumindest innerhalb derjenigen Generationen, die uns nahe genug stehen, um uns ihren Einfluß sp¨ uren zu lassen. Dieser Konstanz ist es zu verdanken, daß der Durchschnittstyp eine Best¨ andigkeit erwirbt, ¨ die ihn zum Schwerpunkt des Erbeinflusses macht. (Durkheim, Uber soziale Arbeitsteilung, 1893, [76].) Auf diese Weise gab Durkheim dem Durchschnittstyp und den Merkmalen, die eine Gruppe als Kollektiv charakterisieren, das von seinen Mitgliedern verschieden ist, eine Darwinsche Interpretation, die in seinen sp¨ ateren Werken weniger offensichtlich war (bei Halbwachs dann aber h¨ aufig auftrat). In seinem Werk Die Regeln der soziologischen Methode versuchte Durkheim (1894, [77]), die Normalit¨at (den Gesundheitheitsstandard“) als Gegen” satz zum Pathologischen zu definieren. Anhand des folgenden Auszugs erkennen wir, in welchem Maße die Rhetorik Quetelets die Sozialwissenschaften des 19. Jahrhunderts durchdrungen hatte: Wir werden diejenigen Tatbest¨ande normal“ nennen, welche die all” gemeinsten Erscheinungsweisen zeigen, und werden den anderen die Bezeichnung krankhaft“ oder pathologisch“ beilegen. Kommt man ” ” u ¨berein, als Durchschnittstypus jenes schematische Gebilde zu bezeichnen, das man erh¨alt, indem man die in der Art h¨ aufigsten Merkmale mit ihren h¨aufigsten Erscheinungsformen zu einem Ganzen, zu einer Art abstrakter Individualit¨at zusammenfaßt, so wird man sagen k¨ onnen, daß der normale Typ mit dem Durchschnittstypus verschmilzt und daß jede Abweichung von diesem Gesundheitsstandard“ ” eine krankhafte Erscheinung ist. Es ist richtig, daß der Durchschnittstypus nicht in derselben Reinheit festgestellt werden kann wie der individuelle Typus, denn seine konstitutiven Attribute stehen nicht absolut fest, sondern besitzen die F¨ahigkeit, sich zu ¨ andern. Es steht jedoch außer Zweifel, daß der Durchschnittstyp konstituiert werden kann, denn er verschmilzt mit dem Typus der Gattung und der besagte Konstitutionsvorgang ist eine unmittelbare Angelegenheit der Wissenschaft. Das, was der Physiologe untersucht, sind die Funktio-
Durchschnittstyp und Kollektivtyp bei Durkheim
111
nen des Durchschnittsorganismus, und beim Soziologen ist es nicht anders (Durkheim, Die Regeln der soziologischen Methode, 1894, [77].) Drei Jahre sp¨ater, in Der Selbstmord, hatte sich Durkheims Position in Bezug auf den Durchschnittsmenschen und dessen Regelm¨ aßigkeiten vollst¨ andig ge¨andert. In seinen beiden vorhergehenden Werken hatte er sich auf die Stabilit¨ at des Durchschnittstyps berufen, der im Gegensatz zur Variabilit¨ at der individuellen F¨ alle stand. Damit wollte Durkheim die (nach der Terminologie von Dumont, 1983, [73]) holistische Position begr¨ unden, gem¨ aß der das Ganze außerhalb der Individuen steht und ihnen vorangeht. Dagegen repatriierte er in Der Selbstmord den statistischen Mittelwert in das Universum des methodologischen Individualismus und verglich den Kollektivtyp“ nun nicht mehr ” mit dem Durchschnittstyp“. Die Rhetorik von Quetelet produziert nicht mehr ” als einen wertlosen Holismus: der statistische Durchschnittsmensch ist h¨ aufig nur ein elendes und verkommenes Subjekt, das weder seine Steuern bezahlen will noch in den Krieg ziehen m¨ochte. Der Durchschnittsmensch ist kein guter B¨ urger. Es hat den Anschein, daß hier erstmalig eine klare Trennung zwischen zwei heterogenen Diskursen in Bezug auf das Thema stattgefunden hat, welche Art von Unterst¨ utzung die Sozialwissenschaften in der Statistik finden k¨ onnen. F¨ ur die einen liefert die Statistik Beweise, die nicht ignoriert werden d¨ urfen. F¨ ur die anderen geht die Statistik am Wesentlichen vorbei. Das Paradoxe hierbei ist, daß Der Selbstmord – also ein Werk, das weithin als Ausgangspunkt der quantitativen Soziologie betrachtet wird (vor allem wegen der massiven Verwendung von Sterbestatistiken) – auch die holistische Interpretation des Queteletschen Durchschnittsmenschen (und somit die gleiche Statistik) radikal verurteilt. Wir k¨onnen die Spur der Entfaltung dieser Kritik nachverfolgen, die zur Begr¨ undung eines Ganzen f¨ uhrte, das sich radikal vom Durchschnittsmenschen unterschied und eine Totalisierung anderer Natur entwarf: Als Quetelet die Aufmerksamkeit auf die u aßig¨berraschende Regelm¨ keit lenkte, mit der sich bestimmte soziale Ph¨ anomene w¨ ahrend gleicher Zeitspannen wiederholen, glaubte er, diese Regelm¨ aßigkeit durch seine Theorie des Durchschnittsmenschen erkl¨ aren zu k¨ onnen, das heißt durch eine Theorie, welche die einzige systematische Erkl¨ arung f¨ ur diese bemerkenswerte Eigenschaft geliefert hat. Nach Quetelet gibt es in jeder Gesellschaft einen bestimmten Typus, der mehr oder weniger genau von der Mehrzahl der einzelnen Individuen reproduziert wird, wobei nur eine Minderheit – unter dem Einfluß von st¨ orenden Ursachen – die Tendenz zur Abweichung aufweist ... Quetelet hat diesem vorherrschenden Typus die Bezeichnung Durchschnittsmensch“ ” gegeben, denn man erh¨alt diesen fast genau, wenn man das arithmetische Mittel der individuellen Typen nimmt ... Die Theorie erscheint sehr einfach. Aber zun¨achst kann sie erst dann als Erkl¨ arung anerkannt werden, wenn sie aufzeigen kann, wie es kommt, daß der Durchschnittsmensch in der Mehrzahl der Menschen in Erscheinung tritt.
112
3 Mittelwerte und Aggregatrealismus
Eine Voraussetzung daf¨ ur, daß er – der Durchschnittsmensch – sich selbst gleich bleiben kann, w¨ahrend sich die Einzelmenschen ¨ andern, besteht darin, daß der Durchschnittsmensch in gewisser Weise von den Einzelmenschen unabh¨angig ist; und doch muß es irgendeinen Weg geben, auf dem der Durchschnittsmensch unmerklich im Einzelnen wiederum in Erscheinung treten kann. (Durkheim, Der Selbstmord, 1897, [78].) Durkheim versuchte zu pr¨azisieren, auf welche Weise sich die moralische ” Konstitution von Gruppen“ radikal von der entsprechenden Konstitution der Individuen unterscheidet. Er f¨ uhrt die Gem¨ utsart“ einer Gesellschaft an, die ” sie nicht von heute auf morgen“ ¨andern kann. Er spricht von sozialer Coe” ” nesthesia“, wobei der coenesthesische Zustand das bezeichnet, was bei den ” kollektiven Entit¨aten und bei den Individuen das Pers¨ onlichste und Unwandelbarste ist, da es nichts Fundamentaleres gibt“ (wir erinnern daran, daß dieses Konstrukt dazu verwendet wird, die einer sozialen Gruppe innewohnende Tendenz zum Selbstmord zu best¨atigen). Er stellt ausf¨ uhrlich dar, wieso das kollektive Moralgef¨ uhl von den individuellen Verhaltensweisen der u ¨berwiegenden Mehrheit stark abweichen kann und mitunter im Gegensatz zu diesen steht – ein Umstand, der den ungl¨ ucklichen Durchschnittstyp“ vollst¨ andig ” vom Kollektivtyp“ einer Gesellschaft distanziert: ” Nicht allzu viele Leute haben einen hinreichenden Respekt f¨ ur die Rechtssph¨ are des N¨achsten und ersticken nicht jeden Wunsch im Keim, sich unrechtm¨aßig zu bereichern. Damit soll nicht in Abrede gestellt werden, daß sich durch die Erziehung eine gewisse Distanz gegen¨ uber Handlungen entwickelt, die dem Gerechtigkeitssinn zuwiderlaufen. Aber welch ein Abstand besteht zwischen diesem vagen, z¨ ogerlichen und stets kompromißbereiten Gef¨ uhl und der kategori¨ schen, vorbehaltlosen und nichts verschweigenden Achtung, mit der die Gesellschaft alle Formen von Diebstahl bestraft! Und was ist mit den vielen anderen Pflichten, die im Durchschnittsmenschen noch weniger verwurzelt sind? Wie steht es mit der Pflicht, die uns gebietet, unseren Anteil an den o¨ffentlichen Ausgaben zu tragen, den Fiskus nicht zu betr¨ ugen, sich nicht geschickt vor dem Milit¨ ardienst zu dr¨ ucken und unsere Vertr¨age getreu zu erf¨ ullen? M¨ ußte sich die Moral auf die schwankenden Gef¨ uhle im Gewissen des Durchschnittsmenschen st¨ utzen, dann w¨are es außerordentlich schlecht um diese Moral bestellt. Es ist also ein grundlegender Irrtum, den Kollektivtyp einer Gesellschaft mit dem Durchschnittstyp der Individuen zu verwechseln, aus denen sie sich zusammensetzt. Der Durchschnittsmensch hat eine unzul¨ angliche Moral. Nur die allerwichtigsten ethischen Grunds¨ atze haben sich ihm mit einiger Kraft eingepr¨ agt, aber auch diese sind weit von der Sch¨arfe und Autorit¨at entfernt, mit der sie im Kollektivtyp, das heißt in der Gesamtheit der Gesellschaft auftreten. Diese Verwechslung, die Quetelet unterlaufen ist, macht die Frage der Ent-
Durchschnittstyp und Kollektivtyp bei Durkheim
113
stehung von Moralgesetzen zu einem unbegreiflichen Problem. (Durkheim, Der Selbstmord, 1897, [78].) Die Verwendung statistischer Daten schien also ambivalent zu sein. Durkheim benutzte sie, faßte sie aber nur mit den Fingerspitzen“ an. Die Daten ” implizierten kollektive Tendenzen außerhalb der Individuen, aber diese Tendenzen ließen sich auf direkte Weise feststellen (das heißt ohne Statistik): Einerseits impliziert die Regelm¨aßigkeit der statistischen Daten, daß es Kollektivtendenzen gibt, die außerhalb der Individuen liegen; andererseits k¨ onnen wir in einer betr¨achtlichen Anzahl wichtiger F¨ alle diese Exteriorit¨at direkt feststellen. Aber dieser Umstand ist durchaus ¨ keine Uberraschung f¨ ur jemanden, der die Heterogenit¨ at individueller und sozialer Zust¨ande erkannt hat ... Daher besteht das Mittel zur Berechnung eines beliebigen Elements eines Kollektivtyps nicht darin, die Gr¨ oße dieses Elements innerhalb (der einzelnen Realisierungen) des individuellen Bewußtseins zu messen und dann den Durchschnitt aller dieser Messungen zu bilden; vielmehr m¨ ußte man die Summe dieser Gr¨ oßen nehmen. Aber selbst dann l¨age dieses Bewertungsverfahren ziemlich weit unter der Wirklichkeit, denn man bek¨ ame damit lediglich einen Wert f¨ ur das soziale Empfinden, vermindert um all das, was bei der Individualisierung verlorenging. (Durkheim, Der Selbstmord, 1897, [78].) Die Zweideutigkeit in Bezug auf die Statistik und ihre Interpretation ist also in diesem Werk klar erkennbar, das oft als Auftakt zum K¨ onigsweg der Quantifizierung angesehen wird, den sp¨ater die Sozialwissenschaften des 20. Jahrhunderts beschritten haben. Diese Zweideutigkeit wirft ein fundamentales und h¨ aufig unterschlagenes Problem auf, das vor allem auf die Arbeitsteilung zur¨ uckzuf¨ uhren ist, die in der Folgezeit zwischen den Begr¨ undern der Statistik ¨ und Historikern, Okonomen und Soziologen stattfand. Jeder dieser Fachleute verwaltet sein eigenes Segment, das durch die Produktionstechnologie der relevanten Objekte und durch eine Art Ad-hoc-Argumentation definiert ist. Der genannte interne Widerspruch der Durkheimschen Rhetorik k¨ onnte dazu verwendet werden, die eine oder andere dieser Positionen zu denunzieren oder herabzusetzen. Der Statistiker w¨ urde u acheln, was ihm eine Form ¨ber das l¨ des metaphysischen Holismus zu sein scheint, w¨ ahrend sich der Soziologe – in Verbundenheit mit der Idee, daß die sozialen Strukturen die individuellen Verhaltensweisen konditionieren – auf die Statistik st¨ utzen w¨ urde, um Strukturen und Verhaltensweisen zu beschreiben; im selben Atemzug w¨ urde er jedoch ausf¨ uhren, daß Statistik nichts erkl¨art. Ein m¨ oglicher Ausweg aus dieser Debatte besteht darin, einzeln die verschiedenen M¨ oglichkeiten der Totalisierungen und die allgemeineren – philosophischen und politischen – argumentativen Grammatiken darzulegen, in deren Rahmen diese Totalisierungen stattfinden.
114
3 Mittelwerte und Aggregatrealismus
Daher ist die Durkheimsche Unterscheidung zwischen dem Kollektivtyp, der das Spiegelbild des Ideals eines guten Staatsb¨ urgers darstellt, und dem Durchschnittstyp – das heißt der arithmetischen Mittelwertbildung einer Gesamtheit von egoistischen Individuen – ein direkter Nachhall der von Rousseau im Gesellschaftsvertrag vorgenommenen Unterscheidung zwischen dem allgemeinen Willen und dem Willen aller (Dumont, 1983, [73]).16 Der letztere ist lediglich eine Aggregation der individuellen Willens¨ außerungen, w¨ ahrend der erstere diesen individuellen Willens¨außerungen vorangeht und qualitativ u ¨ber ihnen steht. Der allgemeine Wille existiert vor dem Mehrheitsbeschluß, der ihn offenbart, aber nicht erzeugt. Nach Durkheim (der Rousseau kommentiert) ist der allgemeine Wille eine feste und konstante Orientierung der Geisteshal” tungen und der Aktivit¨aten in eine bestimmte Richtung, n¨ amlich in Richtung des allgemeinen Interesses. Es handelt sich um eine chronische Disposition der individuellen Subjekte“ (in: Montesquieu und Rousseau, Wegbereiter der Soziologie 17 ).
Der Realismus der Aggregate Eine immer wiederkehrende Frage hat dieses Kapitel durchzogen: Wie kann man kollektiven Objekten, das heißt Aggregaten von Individuen, einen festen Zusammenhalt verleihen? Diese Frage geht weit u ¨ber die Geschichte der Statistik hinaus und durchdringt die Geschichte der Philosophie und der Sozialwissenschaften – von der Gegen¨ uberstellung von Realismus und Nominalismus bei Ockham bis hin zur Gegen¨ uberstellung von Holismus und Individualismus bei Dumont. Wir haben hier die Wahl getroffen, diese Frage auf der Grundlage der Debatten zu verfolgen, die u uhrt wur¨ber den statistische Mittelwert gef¨ den – vor allem ging es um die betreffende Formulierung von Quetelet, die auf der Alles vereinheitlichenden Idee der konstanten Ursache aufbaut. Die Ver¨ wendung dieses Werkzeugs durch die Arzte und Hygieniker hat gezeigt, daß – jenseits der ontologischen Kontroversen – die Konventionen bez¨ uglich der Aggregationen (deren Berechtigung und Untermauerung von den jeweiligen Umst¨ anden abh¨angt) ihre Bedeutung im Rahmen der einschl¨ agigen Praktiken erlangen. Wenn sich die Akteure auf die derart konstruierten Objekte 16
17
Der Begriff Gesellschaftsvertrag (contrat social) ist untrennbar mit Jean-Jacques Rousseau (1712–1778) verbunden. Die Menschen verpflichten sich zum Zweck der Selbsterhaltung zur Einhaltung der gemeinsam festgelegten Werte und Normen. Der volont´e g´en´erale (allgemeiner Wille) stellt das allein verbindliche und integrierende Element dar und u ¨berstimmt den volont´e de tous (Wille aller), der nicht notwendigerweise mit dem volont´e g´en´erale u ¨bereinstimmen muß. E. Durkheim (Paris, 1892), Montesquieu et Rousseau, pr´ecurseurs de la sociologie; in deutscher Sprache (auszugsweise): Th`ese von 1892. Montesquieus Beitrag zur ´ Gr¨ undung der Soziologie. In: Heisterberg, L. (Hrsg.), Emile Durkheim, Fr¨ uhe Schriften zur Begr¨ undung der Sozialwissenschaft. Darmstadt/Neuwied 1981, S. 85–128.
Der Realismus der Aggregate
115
st¨ utzen k¨ onnen und diese Objekte den entsprechenden Zerst¨ orungspr¨ ufungen standhalten, dann existieren die Aggregate – zumindest in dem Zeitabschnitt und in dem Bereich, in denen sich die betreffenden Praktiken und Tests als erfolgreich erwiesen haben. Die Technologien, die dazu f¨ahig sind, diesen Objekten Zusammenhalt zu verleihen – oder aber sie zu zerst¨oren – haben sich entwickelt und verfestigt. Ein sch¨ ones Beispiel hierf¨ ur ist das Modell von Quetelet, das f¨ ur eine gewisse Zeitdauer und auf der Grundlage von ausgesprochen individuellen Aufzeichnungen ein holistisches Bild geliefert hat. Dieses Modell wurde in der Folgezeit von zwei Seiten angegriffen – im Namen eines strikteren Nominalismus (Moreau de Jonn`es, d’Amador, Lexis) oder, ganz im Gegensatz hierzu, im Namen eines radikal anderen Holismus (z.B. durch Durkheim, der den Rousseauschen Begriff des allgemeinen Willens“ aufgegriffen hat). Poisson hat ver” sucht, mit dem starken Gesetz der großen Zahlen“ den G¨ ultigkeitsbereich des ” Modells zu erweitern, aber sein Standpunkt war urspr¨ unglich nicht makrosozial. Bienaym´e und Cournot haben – jeder auf seine Weise – die Anwendungsregeln des Modells diversifiziert und damit den Weg f¨ ur einen moderneren Modellbegriff vorbereitet, der weniger ontologisch, daf¨ ur aber konventiona” listischer“ angelegt ist. Die unterschiedlichen Tendenzen sollten bald von der englischen mathematischen Statistik verfeinert werden – gleichwohl bleibt die Frage nach dem Realismus und der Natur der von den neuen Werkzeugen demonstrierten Kausalit¨at von dem Zeitpunkt an wesentlich, an dem man sich f¨ ur die Rhetoriken interessiert, die diese Werkzeuge mit allen anderen Dingen des Lebens verbinden.
4 Korrelation und Ursachenrealismus
Die Statistik nach Art von Quetelet zielte darauf ab, kollektiven Dingen durch die Aggregation von Individuen einen Zusammenhalt zu geben. Der Begriff der Ursache erschien nur als externe Hypothese ( konstante Ursache“), welche die ” Konsistenz dieser Dinge gew¨ahrleistet. Die St¨ arke des Zusammenhangs zwischen Ursache und Wirkung wurde jedoch nicht gemessen, das heißt es fand keine entsprechende statistische Instrumentierung statt. Das Konstrukt Quetelets st¨ utzte sich auf Verwaltungsaufzeichnungen, die ihrerseits seinem eigenen Vorhaben vorangingen und nicht dazugeh¨ orten. Die statistische Rhetorik war noch stark von kognitiven und sozialen Quellen abh¨ angig, die außerhalb der neuen Logik standen, um deren F¨orderung diese Rhetorik bem¨ uht war. Diese doppelte Abh¨angigkeit machte die statistische Rhetorik gegen¨ uber aller Art von Kritik verwundbar, wie wir es anhand der Beispiele von Cournot und Lexis gesehen hatten. Das Gef¨ uhl der Fremdartigkeit, das manche der fr¨ uheren Kontroversen heute hervorrufen, r¨ uhrt von der Tatsache her, daß ¨ die Statistiker jener Zeit plausible Zusammenh¨ ange und Ubersetzungen erfinden mußten, mit deren Hilfe sie ihre noch d¨ urftigen Werkzeuge mit anderen Rhetoriken verkn¨ upften – mit Rhetoriken philosophischer, politischer und administrativer Natur. Zu diesem Zweck schufen sie neue Objekte und setzten diese in Szene. Um aber andere Akteure zu bef¨ ahigen, sich dieser Objekte zu bem¨ achtigen und sie in die eigenen Konstruktionen einzubeziehen, mußten die Objekte nicht nur eine innere Konsistenz aufweisen, sondern auch dazu f¨ ahig sein, untereinander in stabile Beziehungen zu treten. Die Statistiker mußten nicht nur solide Dinge, sondern auch den Mechaniker“ liefern, der diese Dinge ” wie in einem Stabilbaukasten miteinander verschraubt“ und ihnen dadurch ” Zusammenhalt verleiht. Dieses Werk sollte von Galton, Pearson und den englischen mathematischen Statistikern vollbracht werden. Man kann das Unternehmen Statistik“ a posteriori auch als das uner” wartete Produkt zweier verschiedener Projekte auffassen, von denen keines a priori in diese Richtung ging – denn das eine Projekt war deutlich politisch ausgerichtet, das andere hingegen eher philosophisch (Mac Kenzie, 1981, [183]). Beide Projekte sind heute im Großen und Ganzen vergessen, aber die
118
4 Korrelation und Ursachenrealismus
Begriffe der Korrelation, der Regression, des Chi-Quadrat-Tests1 und der multivariaten Analyse, die aus diesen Projekten hervorgingen, sind die Eckpfeiler der modernen Statistik geworden. Was haben eine heute fast einstimmig abgelehnte politische Linie (Eugenik), eine f¨ ur ihre Zeit erstklassige und scharfsinnige Erkenntnistheorie und ein mathematisches Werkzeug gemeinsam, dem eine gl¨ anzende Zukunft bestimmt war? Keines der drei Elemente implizierte logisch die beiden anderen – in der Tat wurde jedes dieser Elemente sp¨ ater von Akteuren aufgegriffen, die nichts von den jeweils anderen beiden Elementen wußten. Dennoch waren die drei Projekte im Verstand von Karl Pearson miteinander verkn¨ upft und es ist keineswegs sicher, daß er seine eigenen statistischen Innovationen f¨ ur wichtiger hielt als sein epistemologisches Credo oder seine politischen Aktivit¨aten. Wir stellen hier zun¨achst die Philosophie Karl Pearsons vor, die er in seinem Buch Die Grammatik der Wissenschaft 2 zum Ausdruck brachte. Wir haben dieses Werk einerseits deswegen ausgew¨ahlt, weil es entschieden Position gegen den Begriff der Kausalit¨at bezog. Zum anderen erkennt man anhand der nachfolgenden Neuausgaben, wie Pearson seinerseits den Galtonschen Begriff der Korrelation u unglich in seinem Buch nicht vorhan¨bernahm, der urspr¨ den war. Pearsons Erkenntnistheorie geh¨ort zu einer antirealistischen empiristischen Str¨ omung, die mit Ernst Mach begann und mit dem Wiener Kreis endete. Das von Pearson in der Folgezeit entwickelte politische und wissenschaftliche Projekt liegt auf einer Linie, die sich von Darwin und Galton bis hin zu den Vorhaben erstreckt, die menschliche Spezies auf der Grundlage der Vererbung zu verbessern – das vielfache Echo, das dieses Vorhaben ausl¨ oste, war mindestens noch bis in die 1950er Jahre zu vernehmen. Das Projekt zerfiel in zwei miteinander zusammenh¨angende Aspekte. Der eine (politische) Aspekt war die Eugenik , der andere (wissenschaftliche) Aspekt die Biometrie. Und in dem bedeutenden Labor f¨ ur biometrische Forschungen3 entstand die mathematische Statistik. Die Werkzeuge der mathematischen Statistik wurden in der ersten H¨ alfte des 20. Jahrhunderts auf unz¨ ahligen Gebieten aufgegriffen, insbesondere in den Humanwissenschaften. Hingegen ließ man die antirealistische Erkenntnistheorie ebenso fallen wie das Vorhaben der Menschheitsverbesserung durch die biologische Auslese der Besten. Wir k¨ onnen die Abstammung der beiden Hauptwerkzeuge verfolgen: die Herkunft der Regression zum Beispiel anhand ihrer Weiterf¨ uhrung in den ¨okonometrischen Modellen, die in den 1920er und 1930er Jahren entwickelt wurden, und die Herkunft der Korrelation anhand ihrer Anwendungen in der Psychometrie4 (zur Messung von F¨ahigkeiten und insbesondere der In1 2 3 4
Auch als χ2 -Test oder Chiquadrat-Test bezeichnet. Karl Pearson, The Grammar of Science, London 1892. Dieses Buch ist offenbar nicht ins Deutsche u ¨bersetzt worden. Francis Galton Eugenics Laboratories. Messung psychischer Vorg¨ ange“, besonders des Zeitfaktors bei psychischen Pro” zessen. Der Begriff bezieht sich u ¨berwiegend auf psycho-physische und psychotechnische Messungen.
4 Korrelation und Ursachenrealismus
119
telligenz), die zur mehrdimensionalen Faktorenanalyse f¨ uhrte. Eine wichtige Trennlinie in diesem Universum der statistischen Formalismen – die seit Karl Pearson so reichlich vorhanden waren – wurde durch den R¨ uckgriff auf Wahrscheinlichkeitsmodelle in einem Prozeß errichtet, f¨ ur den man mitunter auch die Bezeichnung inferentielle Revolution“ verwendet (Gigerenzer und Mur” ray, 1987, [106]). Diese Linie dominierte ab 1960, aber einige Akteure zogen es vor, Abstand zu halten: sie versuchten, mit Hilfe rein deskriptiver Analysen und ohne Wahrscheinlichkeitsmodelle, eine dem Universum zugrunde liegende Ordnung nachzuweisen – eine Sichtweise, die vielleicht an Quetelet erinnert (Benz´ecri, 1982, [12]). Im Zusammenhang mit der Erweiterung der Techniken zur Zusammenfassung und Formulierung einer großen Anzahl von Beobachtungen ist die Entwicklung von Aufzeichnungs- und Kodierungsverfahren durch die Konstruktion gemeinsamer Meßr¨aume zu sehen: Nomenklaturen, Skalen, standardisierte Frageb¨ ogen, Zufallsstichprobenerhebungen, Methoden zur Identifizierung und Korrektur von abweichenden F¨allen, Pr¨ ufung und Zusammenlegung von Karteien. Diese gleichzeitige Entwicklung der Techniken zur Aufzeichnung und Aufbereitung einer Menge – oder besser gesagt: einer Unmenge – neuer Objekte bewirkte eine betr¨achtliche Erweiterung des Realit¨ atsraumes des statistischen Universums und ließ den Grenzbereich ziemlich weit zur¨ ucktreten, an dem sich die statistische Rhetorik mit anderen Rhetoriken konfrontiert sah. Im 19. Jahrhundert war dieser Raum noch eng und man stieß schnell an seine Grenzen. Heute ist er so riesengroß geworden, daß manche Statistiker nur selten Gelegenheit haben, mit den Grenzbereichen in Ber¨ uhrung zu kommen. Tagt¨ aglich kann es dazu kommen, daß eine f¨ ur dieses Universum spezifische Sprache verwendet wird. Dabei stellt man aber keine Fragen der Art mehr, wie sie noch von den Exegeten und von den Kritikern Quetelets oder sogar noch von Karl Pearson in seiner Grammatik der Wissenschaft aufgeworfen worden waren. Um es noch einmal zu sagen: es geht hier nicht darum, die Unrichtigkeit oder die K¨ unstlichkeit dieser Realit¨at im Namen von anderen, mutmaßlich realeren Konstrukten zu denunzieren. Vielmehr wollen wir diejenigen Kontaktzonen untersuchen, die in den meisten Wissenschaften – und ganz besonders in den Sozialwissenschaften – im Allgemeinen zu den blindesten“ und ” werkzeugm¨ aßig am schlechtesten ausgestatteten Bereichen geh¨ oren. Der Umweg u ¨ber die Geschichte ist deswegen interessant, weil er das Scheinwerferlicht auf diese Bereiche richtet und die M¨oglichkeit bietet, die heutigen Routinen von einer neuen Warte aus zu pr¨ ufen. In dieser Hinsicht ist Karl Pearson exemplarisch – aufgrund des Umfangs der von ihm aufgeworfenen Fragen und auch wegen des heutzutage absurden Aspekts seines politischen Konstruktes. Viele Autoren haben sich mit Karl Pearson befaßt und ihn aus historischer Sicht untersucht und beschrieben. Diese Untersuchungen begannen mit Pearson selbst (Karl Pearson, 1920, [224]) und mit seinem Sohn (Egon Pearson, 1938, [220]).
120
4 Korrelation und Ursachenrealismus
Karl Pearson: Kausalit¨ at, Kontingenz und Korrelation ¨ Im Jahre 1912 gab der Verlag Alcan eine franz¨osische Ubersetzung der dritten Auflage (1911) der Grammatik der Wissenschaft heraus. Die erste Auflage war 1892 erschienen. Die neue Auflage hatte neun Kapitel: Kapitel 1 bis 4 und 6 bis 9 waren genau dieselben wie in der Ausgabe von 1892. In diesen Kapiteln ging es ausschließlich um Wissenschaftsphilosophie und es fiel kein einziges Wort u unften Kapitel ¨ber Statistik. Die Statistik wurde, wenn auch nur kurz, im f¨ angeschnitten: dieses 1911 hinzugef¨ ugte Kapitel tr¨ agt den Titel Kontingenz ” und Korrelation. Unzul¨anglichkeit des Begriffs der Verursachung“. Pearson und Yule hatten inzwischen die Begriffe der Korrelation und der Regression in Publikationen formalisiert, die nie ins Franz¨ osische u ¨bersetzt worden sind. ¨ Der franz¨ osische Ubersetzer des obengenannten Werkes war kein anderer als Lucien March (1859-1933), seinerzeit Direktor der Statistique g´en´erale de la France (SGF), der Vorl¨auferin des gegenw¨artigen Institut national de la sta¨ ließ sich tistique et des ´etudes ´economiques (INSEE).5 Bei der Ubersetzung March von drei Mitarbeitern, den Statistikern Bunle, Dug´e de Bernonville und Lenoir unterst¨ utzen. In einer einf¨ uhrenden Bemerkung erl¨ auterte er die ¨ nach seiner Auffassung große Bedeutung des Buches und der Ubersetzung. Dabei nahm er kaum Bezug auf die von Pearson eingef¨ uhrten statistischen Innovationen, faßte aber auf sieben Seiten die in dem Buch entwickelte Erkenntnistheorie zusammen, die er sich zu eigenen machte. Diese Theorie war entschieden antirealistisch. Sie behauptete, daß der Mensch nur Gef¨ uhle und Wahrnehmungen kennt, die er auf der Grundlage der von ihm beobachteten Analogien und Best¨andigkeiten kombiniert und klassifiziert, die Pearson als Wahrnehmungsroutinen charakterisierte; die Realit¨ at selbst sei nicht erkennbar. Man ist u ¨berrascht, wenn man – aus der Feder des Leiters des Statistischen Bureaus, der f¨ ur die ziffernm¨aßige Beschreibung der franz¨ osischen Bev¨ olkerung verantwortlich zeichnete – Formulierungen liest, die in einem deutlichen Gegensatz zu dem stehen, was notwendigerweise die praktische Erkenntnisphilosophie ausmacht, die er in seiner Position entwickeln mußte, um mit seinem Umfeld und den Personen zu kommunizieren, die seine Publikationen verwendeten. So schrieb er etwa: Ein Wissenschaftler best¨ atigt weder die Realit¨ at ” der Außenwelt, noch leugnet er sie“. Konnte er diese Position wirklich aufrechterhalten, wenn er mit seinem Minister u ¨ber Kredite verhandelte, die der SGF gew¨ ahrt werden sollten? Der Hinweis auf diesen Widerspruch soll keinesfalls die Vermutung nahelegen, daß March ein konfuser Wissenschaftler oder gar ein durchtriebener Beamter war. Vielmehr wollten wir andeuten, daß es sich hier um zwei unterschiedliche Realit¨atsregister handelte, die pr¨ azise identifiziert und analysiert werden m¨ ussen. 5
Dieses 1946 gegr¨ undete staatliche Institut f¨ ur Statistik und Wirtschaftsforschung erf¨ ullt neben den Aufgaben einer statistischen Bundesanstalt“ auch die eines ” Konjunkturinstituts.
Karl Pearson: Kausalit¨ at, Kontingenz und Korrelation
121
Die Erkenntnistheorie Pearsons war von der Denkweise des ¨ osterreichischen Physikers und Philosophen Ernst Mach (1838–1916), eines Spezialisten f¨ ur Psychophysiologie der Empfindungen, gepr¨ agt worden. Mach hatte auf der Grundlage seiner eigenen Forschungen zu diesem Gegenstand eine Epistemologie entwickelt, die im wissenschaftlichen Erkenntnisprozeß die Rolle der Beobachtungen und der Sinneswahrnehmungen bevorzugte und die Dinge an ” sich“ zugunsten der Farben, der T¨one, der Dr¨ ucke und der Zeitdauer“ ablehn” te – also zugunsten dessen, was wir u ¨blicherweise als Sinneswahrnehmungen bezeichnen, die ihrerseits die wahren Elemente der Welt sind“ (Mach, 1904, [182]). F¨ ur Mach l¨oste sich die Vorstellung von der Realit¨ at der Außenwelt ¨ auf, da man nicht mehr zwischen dem Inneren und dem Außeren unterscheiden konnte. Er lehnte den Begriff der Kausalit¨ at als subjektiv ab und ersetzte ihn durch die Begriffe der Funktion und der Organizit¨ at der Erscheinungen (Paty, 1991, [219]). Begriffe waren f¨ ur ihn mentale Entit¨ aten, die außerhalb des Verstandes nicht existieren. Diese Position stand dem Ockhamschen Nominalismus nahe, unterschied sich aber dennoch teilweise dadurch von ihm, daß f¨ ur Mach die Begriffe etwas anderes als Worte sind: sie sind stabil und ” inhaltsreich, denn sie sind mit Geschichte und Erfahrung beladen“. Das lenkte die Aufmerksamkeit auf die gesellschaftliche Objektivit¨ at, die durch lange Erfahrung und langen Gebrauch erzeugt wird. Die Frage der Akkumulation von Sinneswahrnehmungen in stabilen und u ¨bertragbaren Begriffen legte die Untersuchung von Prozessen nahe, in deren Verlauf sich eine im Entstehen begriffene Realit¨at verfestigt. Wir begegnen hier erneut dem Unterschied zwischen einem radikalen Relativismus und einer konstruktivistischen Position, f¨ ur welche die Realit¨at existiert, falls sie u ¨ber einen gewissen Zeitraum in einem gewissen Humanbereich konstruiert und untermauert worden ist. Aber weder Mach noch Pearson (der diese Denkweise im Wesentlichen u ¨bernahm) entwickelten diesen Standpunkt weiter, der zugegebenermaßen mehr mit den Sozialwissenschaften als mit den Naturwissenschaften zusammenhing, auf die sich Mach und Pearson bezogen hatten. Eine weitere zentrale Idee von Mach bestand darin, daß die Wissenschaft (die Trennung von Wissen und Irrtum“) durch einen Ausleseprozeß auf der ” Grundlage von Versuch und Irrtum ( trial and error“) gem¨ aß einem adapti” ven Modell konstruiert wird – in Analogie zu dem Modell, das Darwin f¨ ur die Evolution der Lebewesen6 konstruiert hatte: Wissen ist in jedem Fall eine ” Erfahrung des Verstandes, die sich f¨ ur uns direkt oder indirekt als g¨ unstig erweist“. (Mach, 1904, [182].) Die wechselseitige Anpassung der Denkweisen und der Tatsachen, in denen sich sowohl die Beobachtungen als auch die Theo¨ rie ausdr¨ ucken, vollzieht sich in einem Prozeß der Okonomie des Denkens, der ¨ einer biologischen Notwendigkeit entspricht. Der Begriff der Okonomie des Denkens war f¨ ur Mach eine wesentliche Idee, wie im folgenden Satz zum Aus6
Ein Nachhall dieses Modells findet sich im Popperschen Begriff der Falsifikation wieder: Popper geh¨ orte zumindest von diesem Standpunkt zur gleichen intellektuellen Tradition wie Mach und Pearson.
122
4 Korrelation und Ursachenrealismus
druck kommt, der als Definition des Programms der mathematischen Statistik dienen k¨ onnte: Die Wissenschaft l¨aßt sich als Minimierungsproblem auffas” sen, das darin besteht, die Fakten mit dem geringsten intellektuellen Aufwand so vollkommen wie nur m¨oglich darzulegen“. Pearson u ur ihn waren die wissenschaftlichen ¨bernahm diese Sichtweise. F¨ Gesetze nichts anderes als Zusammenfassungen, kurze Beschreibungen in einer mentalen Stenographie und abgek¨ urzte Formeln zur Synthese von Wahrnehmungsroutinen mit Blick auf nachfolgende und prognostische Anwendungen. Diese Formeln erschienen als Beobachtungsgrenzen und erf¨ ullten die strengen funktionalen Gesetze niemals in vollkommener Weise: Der Korrelationskoeffizient erm¨ oglichte eine pr¨azise Messung der St¨ arke des Zusammenhangs, die zwischen Null (Unabh¨angigkeit) und Eins (strikte Abh¨ angigkeit) lag. Ebenso wie die Realit¨ at der Dinge einzig und allein zu pragmatischen Zwecken und unter dem Vorbehalt benutzt werden konnte, daß es sich um Wahrnehmungsroutinen handelte, so konnte man auch die Kausalit¨ at“ nur als eine erwiesene ” Korrelation gelten lassen, die mit einer hohen Wahrscheinlichkeit eintritt. Das 1911 zum Werk Die Grammatik der Wissenschaft hinzugef¨ ugte Kapitel 5 u ¨ber die Kausalit¨ at zeigt den Zusammenhang zwischen statistischen Zusammenfassungen und den Erfordernissen des praktischen Lebens. Diese Formulierung ur eine Analyse der Diversit¨at der realen Welten unter Bezug¨offnete das Tor f¨ nahme auf eine Handlungstheorie, die scheinbar der einzig m¨ ogliche Ausweg aus den Realit¨ atsparadoxien war, welche die statistische Arbeit aufgeworfen hatte: Die Begr¨ undung f¨ ur den Begriff der Ursache liegt in der Wahrnehmungsroutine. Es besteht keine interne Notwendigkeit f¨ ur die Natur dieser Routine, aber ohne sie w¨are die Existenz von vernunftbegabten Wesen mit der F¨ahigkeit, sich entsprechend zu verhalten, praktisch unm¨ oglich. Denken ist ein Beweis f¨ ur die Existenz, aber das Handeln und F¨ uhren des eigenen Lebens und der eigenen Angelegenheiten zeugen von der Notwendigkeit einer Wahrnehmungsroutine. Diese praktische Notwendigkeit ist es, die wir als eine in den Dingen ” an sich“ existierende Notwendigkeit herauskristallisiert und unserer Vorstellung von Ursache und Wirkung zugrundegelegt haben. Diese Routine ist derart wichtig f¨ ur das Verhalten vernunftbegabter Wesen, daß wir M¨ uhe h¨atten, eine Welt zu verstehen, in der die Begriffe von Ursache und Wirkung keine G¨ ultigkeit haben. Wir sind nicht nur von deren absoluter Wahrheit u ¨berzeugt, sondern auch davon, daß hinter diesen Ph¨ anomenen eine Realit¨at existiert, die auch die Grundlage allen Seins ist. Jedoch verh¨alt es sich sogar in der Mehrzahl der rein physikalischen Ph¨anomene so, daß die Routine eine Sache der Erfah¨ rung ist. Unser Glaube an die Erfahrung ist eine Uberzeugung, die sich auf eine Wahrscheinlichkeit st¨ utzt; aber wenn wir die Erfahrung beschreiben sollen, dann w¨ urden wir niemals eine Erkl¨ arung“ finden, ” die eine Notwendigkeit impliziert. (Pearson, 1912, [223], Kap. 5.)
Karl Pearson: Kausalit¨ at, Kontingenz und Korrelation
123
Die Idee, daß die aus der Formulierung einfacher Gesetze resultierende ¨ ¨ Okonomie des Denkens nichts anderes ist als eine Okonomie der Prinzipien ” und Ursachen, die den Kanon des wissenschaftlichen Denkens bilden“, wird von Pearson mit dem Sparsamkeitsgesetz“ verglichen, das man Ockham und ” seinem Rasiermesser zuschreibt: Ockham hat als Erster erkannt, daß das Wissen um das, was jenseits der Sph¨ are der Wahrnehmungen liegt, nur ein anderer Name f¨ ur irrationalen Glauben ist. Hamilton7 formulierte den Kanon von Ockham in einer vollst¨andigeren und angemesseneren Form: Man darf ohne Not weder mehr Ursachen noch aufwendigere Ursachen zulassen, um Erscheinungen zu erkl¨aren. (Pearson, 1912, [223].) Pearsons Entscheidung f¨ ur die wissenschaftliche Methode, die der Realit¨ at ” der Dinge“ und der Kausalit¨at“ jegliche vor den Wahrnehmungsroutinen lie” gende Existenz abspricht, f¨ uhrte ihn zu einer radikalen L¨ osung des alten Problems der Willensfreiheit und des Determinismus. Aus dieser Sicht kann der Wille in keinem Fall eine Prim¨arursache sein, sondern nur ein Zwischenglied in der Kette, die zur Formierung und Stabilisierung dieser Routinen f¨ uhrt. In dieser Kette k¨ onnen die determinierenden Elemente sozialer, kultureller oder erblicher Natur sein. Als Pearson (gegen 1890) die folgende Passage schrieb, hatte er sich noch nicht auf einen fast vollst¨andigen Hereditarismus festgelegt, wie er es sp¨ater tat. Die Forschungsrichtung, die er damals verfolgte, h¨ atte ihn zu einer kulturalistischen Soziologie, ja sogar zur Definition eines Habitus f¨ uhren k¨onnen, denn die aus den Wahrnehmungs- und Handlungsroutinen gebildete Gesamtheit funktioniert als Programm, das gem¨ aß der Formel von Bourdieu (1980, [26]) die strukturierte Struktur und die strukturierende ” Struktur“ kombiniert – bis auf den wesentlichen Unterschied der Bezugnahme auf die biologische Vererbung. Die nach außerhalb von uns selbst projizierte ” Konstruktion“, mit der die Sinneseindr¨ ucke assoziiert werden, bilden eine auf unterschiedlichen Wegen akkumulierte Erfahrungsreserve, die das konditioniert, was man u ¨blicherweise als Willen bezeichnet: Wird die Handlung durch die unmittelbaren Sinneseindr¨ ucke determiniert (die wir mit einer nach außerhalb von uns selbst projizierten Konstruktion assoziieren), dann kann nicht von einem Willen die Rede sein, sondern es geht vielmehr um eine Reflex-, Gewohnheits- oder Instinkthandlung. Sinneseindr¨ ucke und Handlungen erscheinen als Phasen in einer Wahrnehmungsroutine, und wir betrachten die Handlung nicht als Prim¨arursache, sondern als direkte Wirkung einer Sinneswahrnehmung. Nichtsdestoweniger sind die ererbten Eigenschaften unseres Gehirns und sein gegenw¨artiger physischer Zustand – unter 7
William Hamilton (1788–1836), Logiker und Philosoph; wichtiger Vorl¨ aufer von Boole, de Morgan und Venn. Nicht zu verwechseln mit dem Mathematiker, Physiker und Astronomen William Rowan Hamilton (1805–1865).
124
4 Korrelation und Ursachenrealismus
Ber¨ ucksichtigung unserer fr¨ uheren Lebensweise, T¨ atigkeit und des allgemeinen Gesundheitszustandes, unserer Ausbildung und Erfahrung – entscheidende Faktoren daf¨ ur, welche Sinneseindr¨ ucke akkumuliert werden, wie sie miteinander assoziiert werden und welche Auffassungen sie entstehen lassen. Die Wissenschaft versucht zu beschreiben, auf welche Weise der Wille durch W¨ unsche und Leidenschaften beeinflußt wird, die sich ihrerseits aus der Ausbildung, Erfahrung, Vererbung, aus dem physischen Temperament und den Krankheiten ableiten – aus Bestandteilen also, die mit dem Klima, der sozialen Klasse, der Rasse oder mit anderen wichtigen Evolutionsfaktoren zusammenh¨ angen. (Pearson, 1912, [223], Kapitel 4; vor 1892 geschrieben.) Anhand dieses Textes – der aufgrund des g¨ angigen Bildes von Pearson als Eugeniker und Hereditarist (zu dem er sp¨ater wirklich geworden ist) u ¨berraschend wirkt – erkennt man, bis zu welchem Punkt der Bestand an Theorien und Interpretationen, aus denen ein Wissenschaftler sch¨ opfen kann, formbar ist und von einem Netz umfassender Zusammenh¨ ange abh¨ angt, bei denen sich das vermischt, was man u ¨blicherweise als wohlunterschiedene wissenschaftliche, philosophische, soziale oder politische Bestandteile auffaßt. Als Pearson dieses schrieb, wußte er noch nicht, welchen Weg er dereinst einschlagen w¨ urde. Die einzige Sache, der er sich sicher war, bestand darin, daß er den Idealismus und das metaphysische Denken der alten englischen Universit¨ aten zugunsten eines wissenschaftlichen Positivismus bek¨ ampfen wollte, dessen Symbol der Physiker und Philosoph Mach war. Pearson meinte, f¨ ur diesen Kampf eine entscheidende Waffe geschmiedet zu haben, indem er den Begriff der Kausalit¨at durch den Begriff der kontingenten Assoziation ersetzte. Unerkennbare Prim¨arursachen und streng punktuelle Zusammenh¨ ange fegte er zugunsten von Kontingenz tafeln hinweg, indem er eine Population auf der Grundlage zweier unterschiedlicher Auswahlkriterien verteilte. Er griff ein bereits von Galton konzipiertes Objekt auf und formulierte es pr¨ azise: die zwischen zwei Ph¨anomenen bestehende wechselseitige Relation, welche zwischen zwei Extrema liegt – zwischen der absoluten Unabh¨ angigkeit und der strikten Abh¨angigkeit. Diese wechselseitige Relation, die Korrelation, stand als Synonym f¨ ur die Assoziation. Die Kreuztabellen wurden als Kontingenz tafeln“ bezeichnet, denn alle Dinge im Universum ” ” treten nur einmal auf und es gibt weder eine absolute Identit¨ at noch eine Wiederholung“. Diese erstaunliche und des mittelalterlichen Nominalismus w¨ urdige Verk¨ undung erfolgte zu einem Zeitpunkt, an dem der Grundstein f¨ ur eine mathematische Statistik gelegt wurde, deren sp¨ aterer Gebrauch auf ¨ Aquivalenzkonventionen beruhte und das urspr¨ ungliche Glaubensbekenntnis tats¨ achlich nur unterpfl¨ ugen konnte: Die vollst¨ andige Abh¨angigkeit von einer einzigen meßbaren Ursache ist gewiß eine Ausnahme – wenn sie u ¨berhaupt jemals auftritt, falls nur die Beobachtung hinreichend pr¨ azise ist. Diese vollst¨ andige
Karl Pearson: Kausalit¨ at, Kontingenz und Korrelation
125
Abh¨ angigkeit entspricht einem begrifflichen Grenzwert, dessen reale Existenz zweifelhaft ist. Aber zwischen den beiden Extrema der absoluten Unabh¨angigkeit und der absoluten Abh¨ angigkeit k¨ onnen alle Verkn¨ upfungsstufen auftreten. Ver¨andern wir die Ursache, dann andert sich das Ph¨anomen, aber nicht immer im gleichen Maße: seine ¨ ¨ Anderung unterliegt einer Schwankung. Je geringer diese Schwankung ist, desto enger definiert die Ursache das Ph¨ anomen und desto exakter k¨ onnen wir behaupten, daß eine Assoziation oder Korrelation vorhanden ist. Dieser Begriff der Korrelation zwischen zwei Ereignissen umfaßt alle Relationen – von der strikten Unabh¨ angigkeit bis hin zur vollst¨ andigen Abh¨angigkeit. Der Begriff der Korrelation ist die umfassendste Kategorie, durch die wir den alten Begriff der Verursachung zu ersetzen haben. Jedes Ding im Universum tritt nur einmal auf und es gibt weder eine absolute Identit¨at noch eine Wiederholung. Die individuellen Ph¨anomene k¨onnen nur geordnet werden. (Pearson, 1912, [223].) Pearson war davon u ¨berzeugt, daß diese beiden Ideen – der Begriff der Kontingenz und der Begriff der Korrelation – zu einer grundlegenden epistemologischen Revolution f¨ uhren w¨ urden: Die Subsumierung aller Ph¨ anomene ” des Universums unter der Kategorie der Kontingenz – und nicht unter der Kategorie der Kausalit¨at – ist ein epochaler Vorgang in der Ideengeschichte“. Aber er wußte auch, daß es sich bei den Begriffen der Realit¨ at, der Ursache und der Funktion – die f¨ ur das praktische Leben und f¨ ur das Handeln unerl¨ aßlich sind – um begriffliche Grenzwerte“ handelte, die der Mensch in ” außerhalb von ihm liegende Realit¨aten transformiert. Dadurch schuf sich der Mensch die M¨ oglichkeit eines Registers von Realit¨ aten, die sich von den Realit¨aten der kontingenten und a priori heterogenen Individuen unterscheiden. Er stellte Werkzeuge zur Erfassung der Kommensurabilit¨ at von Individuen bereit und ¨ offnete einen neuen Raum f¨ ur Wissen und Handeln. Bei den Relationen, die u ¨blicherweise als Kausalit¨aten interpretiert werden, handelt es sich in Wirklichkeit um ... begriffliche Grenzwerte, die der Mensch durch seine Intelligenz gewonnen hat. Danach hat er seine eigene sch¨ opferische F¨ ahigkeit vergessen und diese Begriffe in eine Realit¨at umgewandelt, die jenseits der menschlichen Wahrnehmungen herrscht und außerhalb des Menschen existiert. Das ganze Universum, mit dem der Mensch ausgestattet ist, ¨ besteht aus Ahnlichkeit und Variabilit¨at; der Mensch hat darin den Begriff der Funktion eingef¨ uhrt, denn er hatte den Wunsch, mit seiner begrenzten intellektuellen Energie sparsam umzugehen. (Pearson, 1912, [223].) Die Rechtfertigung f¨ ur diese Grenz¨ uberg¨ange und f¨ ur die nur allzu leicht vergessenen Sch¨opfungen ist ein Sparsamkeitsprinzip – das Prinzip der begrenzten intellektuellen Energie. Pearson beschrieb in dieser Passage zwei
126
4 Korrelation und Ursachenrealismus
wesentliche Aspekte der Konstruktion eines Objekts. Einerseits handelt es ¨ sich um eine Exteriorisierung und den Ubergang zu etwas, das jenseits der ” Wahrnehmungen“ liegt und sich als notwendig f¨ ur die Erzeugung des gesunden Menschenverstandes und der Intersubjektivit¨ at erweist (die er an anderer Stelle ausf¨ uhrlich analysiert); andererseits geht es um das Prinzip der ¨ Okonomie des Denkens, das zu Zusammenfassungen und zu einer mentalen Stenographie f¨ uhrt. Zwischen diesen beiden Aspekten besteht ein offensichtlicher Zusammenhang in Bezug auf das, was den Kern des modernen Definitionsprozesses der Statistik“ im Sinne vern¨ unftiger Kombinationen der ele” mentaren Daten ausmacht, die gewissen Optimierungsanforderungen gen¨ ugen. Diese Kriterien dienen zur Schaffung des gesunden Menschenverstandes, des Sammelpunktes der heterogenen Subjektivit¨aten: die Methode der kleinsten Quadrate und die Absch¨atzung eines Wahrscheinlichkeitsmodells durch die Maximum-Likelihood-Methode. Dieser ¨ okonomische Prozeß l¨aßt sich auch mit Hilfe des Begriffs der Investition analysieren. Eine Sache wird geopfert (Kontingenz, Multiplizit¨ at der Einzelf¨ alle), um einen nachtr¨aglichen Gewinn zu erzielen, n¨ amlich eine Stabilisierung der Standardformen, die gespeichert, u ¨bertragen und wiederverwendet werden k¨onnen und sich in komplexere Mechanismen einbinden lassen (Th´evenot, 1986, [273]). Das Problem des Realismus und des Nominalismus bekommt einen anderen Inhalt, wenn man es mit Hilfe des Begriffs der arbeitsteiligen Objektkonstruktion durchdenkt: Ein Objekt – das urspr¨ unglich das Produkt einer Konvention ist – wird real, nachdem es schl¨ usselfertig u ¨bermittelt und von anderen verwendet worden ist. Diese Alchimie“ ist das t¨ agliche ” Brot eines jeden statistischen Instituts, wenn es die Arbeitslosenquote oder einen Preisindex ver¨offentlicht. Der Begriff der Investition erweist sich als ¨ vorteilhaft, denn er lenkt die Aufmerksamkeit auf die Kosten, die zur Uber¨ schreitung des Spiegels“ erforderlich sind, das heißt f¨ ur den Ubergang von ” einer Welt der Realit¨aten in eine andere Welt, wobei das Budget der jeweiligen statistischen Institute immer nur einen Teil dieser Kosten ausmacht. Die Epistemologie Pearsons war zur Epistemologie Quetelets in der Hinsicht entgegengesetzt, daß sie – gem¨aß Galton – die Individuen und deren Variabilit¨ at hervorhob und den Aggregaten sowie den Prim¨ arursachen (den ber¨ uhmten konstanten Ursachen“) jegliche Existenz absprach. Von einer an” deren Warte aus gesehen hat die Epistemologie Pearsons jedoch etwas von Quetelet geerbt: sie bestand n¨amlich nicht darauf, daß zwischen Meßfehlern und realen“ Schwankungen ein wesentlicher Unterschied besteht. Der Zusam” menhang zwischen objektiven und subjektiven Mittelwerten wurde so sehr akzeptiert, daß man – wie aus den obigen Zitaten ersichtlich ist – lediglich Schwankungen konstatierte, Beziehungen durch Korrelationen maß und statistische Regelm¨ aßigkeiten extrahierte, um Wetten auf die Zukunft abzuschließen. Die Frage der Realit¨at und das Problem der Kausalit¨ at betrachtete man dabei als metaphysisch. Dieser methodologische Agnostizismus sollte zu einem der hervorstechendsten Z¨ uge der statistischen Praxis werden – zumindest auf einigen ihrer Anwendungsgebiete.
Francis Galton: Vererbung und Statistik
127
Francis Galton: Vererbung und Statistik Die Tiefenwirkung der Wissenschaftsgeschichte und das Interesse an ihr sind auf ihre Kontingenz zur¨ uckzuf¨ uhren, auf die Tatsache also, daß sie in ihrem Verlauf keiner rein internen und kognitiven Logik folgt. In der ersten Ausgabe (1892) der Grammatik der Wissenschaft finden wir keine Anspielung auf die Statistik. In der 1911 ver¨offentlichten dritten Auflage stellte Pearson die Korrelation hingegen stolz als eine epochale Operation in der Ideenge” schichte“ vor. Aber ging es hier wirklich nur um die Ideengeschichte? Stand da nicht auch die Geschichte des viktorianischen Englands dahinter, die Sorge um die von der Armut verursachten Probleme und die Unruhe, die bei den Debatten um die Erkl¨arungen dieser Probleme und ihrer L¨ osungen aufkam? In der Zeit zwischen den beiden Buchausgaben hatten sich die Wege von Karl Pearson und Francis Galton (1822–1911) gekreuzt und Pearson war mit Galtons Fragen zur biologischen Vererbung bekannt geworden. Vor 1892 hatte Pearson der Vererbung noch einen Platz hinter der Bildung und der Erfahrung zugewiesen und auch das nur en passant“ und ohne besonderen ” Nachdruck: Das war damals noch nicht sein Kampf. Zwanzig Jahre sp¨ ater hatte er – zur Untermauerung des eugenischen Konstrukts von Galton – der Regression und der Korrelation eine mathematische Form gegeben und seinem Buch, das urspr¨ unglich nur als allgemeinverst¨ andliche Darstellung der Ideen von Ernst Mach gedacht war, ein originelles Kapitel hinzugef¨ ugt. Pearson hatte auch ein sehr aktives Labor f¨ ur Biometrie und Eugenik gegr¨ undet, in dem die mathematischen Werkzeuge der modernen Statistik geschmiedet wurden. Dar¨ uber hinaus schuf er ein einflußreiches politisches und wissenschaftliches Netzwerk, das mindestens bis 1914 erfolgreich t¨ atig war. Er sorgte daf¨ ur, daß die urspr¨ unglich von Francis Galton verbreiteten Ideen einen großen Anklang fanden. Galton war ein Cousin ersten Grades von Darwin. Die von Darwin aufgestellte Evolutionstheorie beschreibt die Auslese und Anpassung der Arten durch einen Kampf, in dem nur die am besten geeigneten Individuen und Gruppen u ¨berleben und sich fortpflanzen. Diese Theorie bezog sich im Wesentlichen auf Tiere und Pflanzen. Galton war von der Theorie fasziniert und wollte sie auf die menschliche Spezies u ¨bertragen, um eine biologische Verbesserung zu erzielen. Hier liegt der Ursprung f¨ ur den wesentlichen Unterschied der Konstrukte von Galton und Quetelet. Galton richtete seine Aufmerksamkeit auf die Unterschiede zwischen den Individuen, auf die Variabilit¨ at ihrer Merkmale und auf das, was er sp¨ater als nat¨ urliche Eignungen definierte. Das Interesse Quetelets konzentrierte sich dagegen auf den Durchschnittsmenschen und nicht auf die relative Verteilung derjenigen, die keine Durchschnittsmenschen waren. Jedoch u ¨bernahm Galton von Quetelet, den er sehr bewunderte, den Begriff der Normalverteilung f¨ ur Merkmale des Menschen. Aber er verwendete die Normalverteilung nicht mehr als Fehlergesetz, sondern vielmehr als Abweichungsgesetz, das eine Klassifizierung der Individuen erm¨ oglichte. Bei den relevanten Tatsachen handelte es sich von nun an um die Abweichun-
128
4 Korrelation und Ursachenrealismus
gen von einem Mittelwert. Diese Abweichungen waren also keine St¨ orungen mehr, die – wie bei den Astronomen – eliminiert werden mußten. Es wurde wichtig, die Individuen auf der Grundlage von Ordnungskriterien einzuteilen. Zur Beschreibung der Verteilungen konstruierte Galton neue Objekte, die aus diesem Ordnungsprozeß hervorgingen. Der Median zerlegt eine geordnete Stichprobe in zwei bez¨ uglich der Verteilung gleichgewichtige Teile. Die Quaroglichen die Konstruktion der sogenannten halben zwischenquartilen tile 8 erm¨ Breite, eines neuen Streuungsmaßes. Die Terminologie und die alten Begriffe ¨ durchliefen einen Anderungsprozeß: Der zuf¨allige Fehler von Quetelet wurde zur Standardabweichung und danach zum Abweichungstyp, zur Dispersion. Diese neuen Objektformen entstanden allm¨ ahlich auf der Grundlage der Bem¨ uhungen Galtons, einen gemeinsamen Meßraum f¨ ur etwas zu schaffen, das ahigkeiten. zuvor f¨ ur inkommensurabel9 gehalten wurde: die menschlichen F¨ ¨ Das war eine schwierige Aufgabe: Wie soll man Aquivalenzklassen und Vergleichbarkeitsskalen f¨ ur Merkmale aufstellen, die sich – im Unterschied zur K¨ orpergr¨ oße – nicht so leicht durch eine Meßlatte ermitteln ließen? Zuerst (1869) untersuchte Galton Genies – wie sie in der Literatur u ¨ber bedeutende Pers¨ onlichkeiten beschrieben wurden – und deren Erbgut in ausgew¨ ahlten Nachkommenschaften, zum Beispiel in den Familienlinien der Bachs, der Bernoullis und der Darwins. Galton bezog sich bei seiner Interpretation der in diesen Familien auff¨alligen Erscheinungen systematisch auf die biologische Vererbung und nicht – wie wir es heute eher tun w¨ urden – auf die Wirkungen von Erziehung und Umgebung w¨ahrend der Kindheit. Aber diese Untersuchungen am einen Ende der Eignungsskala reichten nicht aus, um die gesamte Bev¨olkerung auf der Grundlage eines ebenso nat¨ urlichen Kriteriums zu ordnen wie K¨orpergr¨oße oder Gewicht. Es brauchte noch etwas Zeit (bis nach 1900), um – mit Hilfe von Techniken wie sie der Intelligenzquotient (Binet-Simon) oder die allgemeine Intelligenz (Spearman) darstellte – Messungen durchzuf¨ uhren, die als Indikatoren f¨ ur individuelle F¨ ahigkeiten gelten konnten. In den Jahren 1870–1880 verwendete Galton eine soziale Klassifikation, die von Charles Booth in dessen Untersuchungen 8
9
Ein p-tes (p = 1, . . . , q − 1) Quantil xp/q von der Ordnung q = 2, 3, . . . einer eindimensionalen Wahrscheinlichkeitsverteilung F (x) wird (m¨ oglicherweise mehrdeutig) durch F (xp/q − 0) ≤ p/q ≤ F (xp/q + 0) definiert. In der statistischen Praxis beschr¨ ankt man sich neben den Zentralwerten (Medianen) vorrangig auf die den F¨ allen q = 4 bzw. q = 10 bzw. q = 100 entsprechenden Quartile, Dezile und Perzentile. Insbesondere werden im Falle der Eindeutigkeit die Werte x1/4 bzw. x3/4 als unteres bzw. oberes Quartil und 12 (x3/4 − x1/4 ) als die halbe zwischenquartile Breite der Verteilung bezeichnet. Letztere dient oft als empirisches Streuungsmaß. Der Begriff inkommensurabel“ hat hier die Bedeutung nicht meßbar“. In der ” ” Mathematik wird inkommensurabel“ auch in einem anderen Sinne verwendet: ” Zwei Strecken (allgemeiner zwei gleichartige Gr¨ oßen) heißen inkommensurabel“, ” wenn sie kein gemeinsames Maß“ besitzen. Bereits den Pythagoreern war be” kannt, daß die Seite und die Diagonale eines Quadrates inkommensurable Gr¨ oßen sind.
Francis Galton: Vererbung und Statistik
129
u ¨ber die Armut in London (vgl. eingerahmter Text auf Seite 130) ausgearbeitet worden war. Bei diesen Untersuchungen mußten die Demoskopen (in diesem Fall die f¨ ur die Umsetzung des Armengesetzes“ verantwortlichen Per” sonen) die Position der besuchten Haushalte auf einer Skala bewerten, die insgesamt acht Kategorien zur sozialen und wirtschaftlichen Stellung umfaßte (Hennock, 1987, [128]). Dabei spiegelte eine Reihe von Indexziffern die Lebensweise und den Lebensstandard wider und die Skala erstreckte sich von Bettlern, Kriminellen und Nichtstuern u ¨ber Facharbeiter bis hin zu geistigen Berufen. Die Skala, die Booth zur Berechnung und zum Vergleich der verschiedenenen Armutskategorien in den einzelnen Stadtteilen von London verwendet hatte, wurde von Galton als Indikator einer individuellen nat¨ urlichen F¨ ahigkeit u ¨bernommen, wobei er den civic worth“ – also den Wert, mit ” dem der B¨ urgersinn oder Gemeinsinn gemessen wurde – einem genetischen ” Wert“ gleichsetzte. So wie die K¨ orpergr¨oße ist auch diese F¨ahigkeit angeboren, dem K¨ orper einbeschrieben und normalverteilt. Diese Gaußsche Form der H¨ aufigkeiten der von den Boothschen Demoskopen festgehaltenen Eignungsgrade – die mit den Stichprobenumf¨ angen der linear angeordneten Kategorien zusammenh¨ angt – erm¨ oglichte eine Eichung der Skala der genetischen Werte“ auf der Grund” lage dieser Kategorien. Auf diese Weise f¨ uhrte die mit bloßem Auge“ vorge” nommene Kodierungsarbeit der Londoner Sozialf¨ ursorgekontrolleure auf dem Umweg u urgerung einer ¨ber die soziale und wirtschaftliche Stellung zur Einb¨ individuellen Eignungsskala. Die Anwendung der Normalverteilung mit dem Ziel, einem Ding Konsistenz zu verleihen, hatte nicht mehr denselben Bedeutungsinhalt wie bei Quetelet. Stellte Quetelet eine derartige Verteilung fest, dann erm¨ oglichte sie es ihm, auf die Existenz eines Objekts zu schließen, das allgemeiner als die Individuen war. Bei Galton hingegen wurde die Normalverteilung dadurch vorausgesetzt, daß er das, was in einer Untersuchung kodiert wurde, mit einem der K¨orpergr¨oße vergleichbaren Merkmal gleichsetzte. Dadurch war es m¨ oglich geworden, f¨ ur ein dem Individuum zugeordnetes Objekt, das heißt f¨ ur die nat¨ urliche Eignung dieses Individuums, auf eine Meßwertskala zu schließen. Jedoch bestand die wesentliche Neuerung Galtons im Vergleich zu Quetelet darin, daß er die Normalverteilung der Merkmale von Menschen nicht mehr nur als Ergebnis einer großen Anzahl von zuf¨ alligen variablen Ursachen auffaßte, die geringf¨ ugig und unabh¨angig (und deswegen unbeschreibbar) waren. Vielmehr versuchte er, diejenige dieser Ursachen zu isolieren, deren Wirkung als massiv vorausgesetzt wurde: die Vererbung (Quetelet hatte diese Frage nie gestellt). Das scheinbare Paradoxon dieses Problems f¨ uhrte zu einer neuen Konstruktion: zur Regression“ im Sinne der modernen Statistik. Das Para” doxon war: Die (meßbaren) Merkmale schienen teilweise erblich zu sein, aber eben auch nur teilweise. Die Kenntnis der K¨ orpergr¨ oße des Vaters bewirkte nicht automatisch auch die Kenntnis des K¨orpergr¨ oße des Sohnes. Zus¨ atzlich zu der massiven Ursache (das heißt zur Vererbung) kamen zahlreiche andere, geringf¨ ugige und unabh¨angige Ursachen ins Spiel.
130
4 Korrelation und Ursachenrealismus
Ein sozio-technisches Konstrukt: Galton verbindet die Normalverteilung von Quetelet und die sozialen Schichten von Booth mit einem Darwinschen Argument Soziale Schichten und genetischer Wert (nach Galton (1909))
Das Bem¨ uhen, einer erblichen menschlichen Eignung dadurch Konsistenz zu verleihen, daß man sie auf einer stetigen Skala eicht, brachte Galton auf ein Konstrukt, das drei bereits konsolidierte Formen miteinander verkn¨ upfte, die zuvor zusammenhanglos nebeneinander existierten: die von Quetelet popularisierte normale Verteilung“ der K¨ orpergr¨ oßen; die von Booth bei seiner Studie ” zur Armut in London verwendete Aufteilung der Bev¨ olkerung in soziale Kategorien und die von Darwin (dessen Cousin Galton war) inspirierte Idee der Vererbung der individuellen physischen und psychischen Merkmale vom Standpunkt einer Politik, die auf Eugenik ausgerichtet war (Mac Kenzie, 1981, [183]). Galton transformierte die bei den K¨ orpergr¨ oßen beobachtete Normalverteilung (das sogenannte Normalverhalten“) in eine vermutete Normalverteilung von ” hypothetischer Gr¨ oße, eine Eignung biologischen Ursprungs, die er als genetic ” worth“ oder civic worth“ bezeichnete. Danach verkn¨ upfte er die Hypothese ” der Normalverteilung dieses individuellen (mit der K¨ orpergr¨ oße vergleichbaren) Merkmals mit der prozentualen Aufteilung der Stichprobenumf¨ ange der
Francis Galton: Vererbung und Statistik
131
acht Bev¨ olkerungskategorien, die auf der Grundlage von wirtschaftlichen, sozialen und kulturellen Indexziffern definiert worden waren. Diese Indexziffern waren anl¨ aßlich einer von Booth im Jahre 1889 organisierten Studie zu den Armutsursachen festgestellt und aufgezeichnet worden, als die Demoskopen die entsprechenden Haushalte besucht hatten. Unter der Annahme, daß die mit bloßem Auge kodierte soziale Stellung den zu eichenden civic worth“ widerspiegelte, verwendete Galton die Tabellierung ” f¨ ur eine nach der Gauß-Verteilung begrenzte Fl¨ ache dazu, den Grenzen zwischen den Schichten (die auf der Abszissenachse der grafischen Darstellung dieses Gesetzes abgetragen waren) numerische Werte zuzuordnen. Diese Konstruktion erm¨ oglichte keine direkte Zuordnung eines numerischen Wertes zur Eignung eines Individuums (oder eines Haushalts), aber es wurde die Idee vermittelt, daß ein solches Merkmal (in einer biologisch ebenso nat¨ urlichen Weise wie die K¨ orpergr¨ oße) existierte und nur gemessen werden mußte. Das erfolgte durch Spearman (1904) und seine Messung der allgemeinen Intelligenz“ und sp¨ ater ” durch die Messungen des Intelligenzquotienten (IQ) (Gould, 1983, [112]).
Aber dennoch war von einer Generation zur n¨ achsten nicht nur die durchschnittliche K¨ orpergr¨oße nahezu konstant, sondern auch deren Streuung“ 10 . ” Das war das R¨ atsel: Auf welche Weise konnte man die Vererbung, die Zuf¨ alligkeit der K¨ orpergr¨oße des Sohnes eines Vaters von gegebener K¨ orpergr¨ oße und die Tatsache in Einklang bringen, daß sich die Streuung innerhalb von zwei Generationen nicht ¨anderte? Galton hatte keine mathematische Ausbildung genossen und war nicht dazu in der Lage, das Problem zu formalisieren. Aber daf¨ ur besaß er eine große experimentelle Vorstellungskraft und eine gute geometrische Intuition. Er war auch vom Queteletschen Modell der Fehlerverteilung durchdrungen, die er in ein Abweichungsgesetz“ transformiert hatte. Galton l¨ oste das R¨ atsel ” mit Hilfe zweier Ideen: zum einen durch den Mechanismus des sogenannten Quincunx“ 11 und zum anderen durch sein Erbsen-Experiment“. Die Kom” ” bination dieser beiden Techniken brachte ihn auf eine neue Formulierung des Problems, das von Poisson, Bienaym´e und Lexis diskutiert worden war: Kann ein Zufallsprozeß, der im Ergebnis von Ziehungen aus Urnen zuf¨alliger F¨ ullung realisiert wird, zu regelm¨aßigen und wahrscheinlichkeitstheoretisch beschreibbaren Resultaten f¨ uhren? 10
11
Zu beachten ist hier, daß der Begriff Streuung“ in der Wahrscheinlichkeitsrech” nung und in der mathematischen Statistik in verschiedenen Bedeutungen verwendet wird. Die h¨ aufigsten Bedeutungen sind Standardabweichung“ und Varianz“ ” ” ( = Quadrat der Standardabweichung = Dispersion). F¨ ur die heute unter Mathematikern allgemein akzeptierte Nutzung des Wortes Streuung“ sei auf Bauer, ” 1991, [347] verwiesen. Mit quincunx“ bezeichneten die R¨ omer u.a. die f¨ unf Augen auf einem Spielw¨ urfel ” und die entsprechende Kreuzstellung, in der beispielsweise B¨ aume angepflanzt oder Schlachtordnungen aufgestellt wurden. Das Wort ist eine Zusammensetzung aus quinque“ (f¨ unf) und uncia“ (Unze). ” ”
132
4 Korrelation und Ursachenrealismus
Der Quincunx“ ist ein geneigt aufgestelltes Brett, in das eine große An” zahl von Stiften in Quincunx-Anordnung eingeschlagen wurde ( Galtonsches ” Brett“ oder Galton-Brett“), das heißt in regelm¨ aßigen und alternierenden ” ¨ Horizontalreihen, so daß die Stifte jeder Reihe den Offnungen der beiden benachbarten Reihen entsprechen. Von einem gegebenen Punkt aus ließ Galton nun Kugeln von passender Gr¨oße (so daß ihr Durchmesser kleiner als der freie Abstand zwischen zwei benachbarten Stiften ist) u ¨ber das Brett rollen. Beim Herabrollen auf dem Galtonschen Brett wurden die Kugeln infolge der Zusammenst¨ oße mit den Stiften aus ihrer Bahn in unregelm¨ aßiger Weise abgelenkt und sammelten sich schließlich nach Durchlaufen s¨ amtlicher Stiftreihen in den am unteren Brettrand angebrachten durchsichtigen vertikalen Rohren.12 Die Kugeln stapelten sich in den Rohren derart, daß eine Normalkurve erkennbar war. In einem weiteren Experiment gestaltete Galton seinen Mechanismus komplizierter, indem er das Fallen der Kugeln auf einer Zwischenstufe unterbrach. Dort ließ er die Kugeln in einer ersten Reihe von Rohren auffangen, wo sie eine erste Normalkurve mit der Dispersion D1 beschrieben. Danach ¨offnete er die Rohre wieder, und zwar getrennt voneinander. Dabei stellte er zwei Dinge fest: einerseits erzeugte jedes der Rohre eine Normalverteilung uhrte die Vereinigung aller mit der gleichen Dispersion D2 und andererseits f¨ dieser kleinen Verteilungen zu einer großen Normalverteilung (mit der Disurlich waren die kleinen, durch die verschiedenen persion D > D1 ).13 Nat¨ Rohre entstandenen Verteilungen von unterschiedlicher H¨ ohe, denn sie enthielten unterschiedliche Anzahlen von Kugeln; das wichtige Ergebnis bestand jedoch darin, daß ihre Dispersionen gleich waren. Galton hatte also einen Spezialfall des Problems von Poisson und Bienaym´e behandelt, n¨ amlich den Fall, bei dem die urspr¨ ungliche Ziehung aus verschiedenen Urnen ihrerseits einer Normalverteilung folgt. Bienaym´e, der gewiß ein besserer Mathematiker als Galton war, ging bei seiner Kritik Poissons in die Richtung, die wir im vorhergehenden Kapitel beschrieben hatten. Im Gegensatz zu dem Engl¨ ander war Bienaym´e jedoch nicht durch ein so klar formuliertes R¨ atsel angespornt (vgl. eingerahmter Text auf Seite 133). Galton machte also einen großen Schritt vorw¨ arts in Richtung der L¨ osung des Geheimnisses. Zerlegt man die Population der V¨ ater entsprechend den K¨ orpergr¨ oßen in Abschnitte, dann erzeugt jeder Abschnitt eine Subpopulation von S¨ ohnen, die ihrerseits eine gewisse Dispersion aufweist. Man stellt nun fest, daß die K¨ orpergr¨oßen der beiden Gesamtpopulationen – das heißt die Population der V¨ater und die der S¨ohne – die gleiche Dispersion haben. Die Dispersion der K¨ orpergr¨oßen der S¨ohne (heute w¨ urde man von der Gesamtvarianz sprechen) l¨ aßt sich nun in zwei Anteile zerlegen: der eine Anteil, der von den K¨ orpergr¨ oßen der V¨ater herr¨ uhrt, ist auf die Vererbung zur¨ uckzuf¨ uhren; der andere Teil ist innerhalb der Subpopulationen zu suchen. Da aber die 12 13
¨ Vgl. Darstellung des Galtonschen Bretts im Vorwort des Ubersetzers (Seite VIII). Die Symbole D, D1 und D2 stehen hier f¨ ur Dispersion“, das heißt f¨ ur Varianz“ ” ” im modernen mathematischen Sprachgebrauch.
Francis Galton: Vererbung und Statistik
133
Gesamtvarianz konstant bleibt, ist die auf die Vererbung zur¨ uckzuf¨ uhrende Dispersion notwendigerweise kleiner. Das war wohl der Gedankengang Galtons in Anbetracht der Ergebnisse seines zweiten Experiments, das sich auf eine Kultur von Vergleichserbsen bezog.
Der Quincunx: eine Inszenierung der statistischen Streuung Zwischen 1830 und 1879 betonten die Statistiker die Stabilit¨ at der statistischen Mittelwerte: von einem Jahr zum n¨ achsten ¨ anderte sich die Durchschnittsgr¨ oße der Rekruten nur wenig; die Heiratsraten, Kriminalit¨ atsraten und Selbstmordraten waren nahezu konstant. Dieser Standpunkt, der gerade derjenige von Quetelet war, ließ es nicht zu, daß sich die Begriffe der statistischen Streuung und der Variation des Mittelwertes entwickelten. Eben diese beiden Fragen schienen mit Hilfe der Theorie des Durchschnittsmenschen“ dadurch ” gel¨ ost zu sein, daß man sie als Kontingenzen behandelte, sozusagen als St¨ orungen, vergleichbar etwa mit den Meßfehlern, deren Elimination die Astronomen und die Physiker anstrebten. Im Gegensatz zu Quetelet interessierte sich Galton f¨ ur die Unterschiede zwischen den Menschen und nicht daf¨ ur, was ihnen gemeinsam war. Nicht mehr der Durchschnittsmensch war das Ideal, sondern das Genie. Die Frage der Eugeniker war: Wie l¨ aßt sich die Rasse verbessern, indem man mehr Genies und weniger untaugliche Menschen produziert? Ist Genie erblich? Die Frage der Vererbung von F¨ ahigkeiten richtete das Scheinwerferlicht auf diejenigen beiden Aspekte, die von der Theorie des Durchschnittsmenschen umgangen worden waren: die Streuung und die Variation der Mittelwerte. Kinder ¨ ahneln ihren Eltern, sind aber nicht mit ihnen identisch. Ist der Vater hochgewachsen, dann wird wahrscheinlich auch sein Sohn von großem Wuchs sein, aber das ist nicht sicher. Mit anderen Worten: zur Anfangsstreuung der K¨ orpergr¨ oßen der V¨ ater kommt f¨ ur eine feste K¨ orpergr¨ oße eines Vaters eine weitere Streuung hinzu, n¨ amlich die Streuung der K¨ orpergr¨ oßen der S¨ ohne. Und dennoch ist schließlich die Gesamtstreuung der K¨ orpergr¨ oßen aller S¨ ohne nicht gr¨ oßer als die Gesamtstreuung der K¨ orpergr¨ oßen der V¨ ater. Das war das seinem Wesen nach kontraintuitive Puzzle, das Galton zu entwirren suchte. Zu diesem Zweck muß man sich eine Formalisierung ausdenken, mit deren Hilfe die beiden aufeinanderfolgenden Streuungen analytisch getrennt werden: A posteriori liefert die Formel der linearen Regression die L¨ osung: Yi = aXi + b + εi . Hierbei bezeichnet Xi die K¨ orpergr¨ oße des Vaters, Yi die K¨ orpergr¨ oße des Sohnes und εi die Zuf¨ alligkeit der K¨ orpergr¨ oße des Sohnes f¨ ur eine feste K¨ orpergr¨ oße des Vaters. Das ist nur unter der Voraussetzung m¨ oglich, daß man eine Ellipse in ein Quadrat einbeschreibt, wobei die Ellipse die zweidimensionale Normalverteilung der Paare K¨ orpergr¨ oße des Vaters – K¨ orpergr¨ oße des Sohnes“ symbolisiert. ” Hierzu muß der Anstieg a der Regressionsgeraden“ ∆ mit der Gleichung Y = ” aX + b notwendigerweise kleiner als 1 sein.
134
4 Korrelation und Ursachenrealismus
Abbildung 1 - Beziehungen zwischen den K¨ orpergr¨ oßen der V¨ ater und der S¨ ohne
Mit anderen Worten: Ist der Vater u ¨berdurchschnittlich groß, dann ist es der Sohn wahrscheinlich auch, aber im Mittel (Punkt N ) weicht er weniger von der Durchschnittsgr¨ oße ab, als sein Vater. Genau das war der Grund daf¨ ur, warum Galton die Formulierung Regression zur Mitte verwendete, eine Idee, die im modernen Gebrauch des Begriffes lineare Regression“ verlorengegangen ” ist (hier kann der Anstieg sehr wohl gr¨ oßer als 1 sein). ¨ Aber Galton war kein Mathematiker. Um die neue Idee der teilweisen Ubertragung von erblichen Eigenschaften zu verstehen (und anderen verst¨ andlich zu machen), ben¨ otigte er ein zwischengeschaltetes“ Ger¨ at zur Anzeige dessen, wie ” sich zwei aufeinanderfolgende Streuungen kombinieren lassen (im vorliegenden Fall: die Streuung der K¨ orpergr¨ oßen der V¨ ater und, f¨ ur eine gegebene K¨ orpergr¨ oße eines Vaters, die Streuung der K¨ orpergr¨ oßen seiner S¨ ohne). Ein solches Ger¨ at war der Zwei-Stufen-Quincunx“ (double quincunx ), den Galton entwor” fen und beschrieben hatte. Es ist nicht bekannt, ob es ihm gelungen ist, dieses Ger¨ at herzustellen und funktionst¨ uchtig zu machen. Dabei handelte es sich
Francis Galton: Vererbung und Statistik
135
vermutlich um ein Gedankenexperiment, das Galton und seinen mathematisch unbewanderten Lesern helfen sollte, den Sachverhalt zu verstehen. Der einfache Quincunx ist ein vertikales Brett, auf dem Stifte in einer Quincunx-Anordnung“ eingeschlagen sind, das heißt in einer F¨ unferanordnung ” wie auf dem Spielw¨ urfel. Von der Mitte der oberen Kante dieses Galtonschen Brettes l¨ aßt man Kugeln hinunterrollen, die unten in Rohren aufgefangen werden. Beim Fallen findet eine zuf¨ allige Streuung der Kugeln statt. Ist die Anzahl der Kugeln groß, dann n¨ ahert sich ihre Verteilung in den Rohren einer Nor” malverteilung“ – der Grenze“ einer Binomialverteilung, die im Ergebnis des ” Aufprallens der Kugeln auf die Stifte entsteht.
Beim Erbsen-Experiment teilte Galton die Vater“-Erbsen14 nach zuneh” mendem Gewicht in sieben Gruppen ein und beobachtete – auf der Grundlage der gleichen Zerlegung – die Aufteilung der Erbsen- S¨ ohne“. Auf diese Weise ” konstruierte er eine aus sieben Zeilen und sieben Spalten bestehende Kontingenztafel und verteilte jedes Paar Vater-Sohn gem¨ aß dieser doppelten Merkmalsklassifizierung. Diese Tabelle erinnert an die modernen Tabellen zur so” zialen Mobilit¨ at“: ihre Hauptdiagonale ist extrem dicht besetzt, w¨ ahrend die außerhalb dieser Diagonale stehenden Felder weniger besetzt sind. Dar¨ uber hinaus variiert das Durchschnittsgewicht der S¨ ohne, deren V¨ater ein gegebenes Gewicht haben, proportional zum Gewicht der V¨ ater, aber die Amplitude dieser Schwankung ist geringer als bei den V¨atern: es findet eine Regressi” on zur Mitte“ statt. Die mittlere Abweichung vom Durchschnittsgewicht der S¨ ohne, deren V¨ ater ein gegebenes Gewicht haben, betr¨ agt lediglich ein Drittel der mittleren Abweichung der V¨atergewichte. In dieser 1877 durchgef¨ uhrten Untersuchung hatte Galton also eine Varianzzerlegung beobachtet, die der Zerlegung a ¨hnelte, welche durch seinen im gleichen Jahr konstruierten zweiten Quincunx beschrieben wurde. Der n¨ achste Schritt erfolgte 1985, als Galton Messungen der K¨ orpergr¨ oßen verschiedener Personen und gleichzeitig auch Messungen der K¨ orpergr¨ oßen beider Eltern der betreffenden Personen durchf¨ uhren konnte. Zu diesem Zweck hatte er auf einer 1884 in London veranstalteten Internationalen Gesundheitsausstellung einen speziellen Stand eingerichtet, an dem die vorbeigehenden Familien in Bezug auf eine Reihe k¨orperlicher Merkmale vermessen und registriert wurden (die Familien zahlten daf¨ ur sogar einen kleinen Betrag, was eine Finanzierung der Forschung erm¨oglichte). Im Vergleich zu den Erbsen kam es hier zu einer kleinen Komplikation, denn bei Menschen gibt es immer zwei Elternteile. Daher begann Galton, ein Zwischenelternteil“ (mid-parent) ” zu berechnen, das den Durchschnitt von Vater und Mutter repr¨ asentierte. 14
Galton w¨ ahlte Platterbsen (sweet peas) aus, die folgende Vorz¨ uge haben: sie sind selbstbefruchtend, so daß nur ein Elternteil ber¨ ucksichtigt werden muß; alle Samen in der Schote haben fast die gleiche Gr¨ oße; sie sind winterhart und sehr fruchtbar.
136
4 Korrelation und Ursachenrealismus
Abbildung 2 - Der Zwei-Stufen-Quincunx
Dieses einfache Experiment h¨ atte sich auch Quetelet ausgedacht haben k¨ onnen. Galton f¨ uhrte es durch, indem er auf mittlerer H¨ ohe eine Reihe von Zwischenrohren anordnete, die eine erste Streuung D1 erkennen lassen. Danach wurden diese Rohre, deren Kugeln in der Zwischenzeit mit einer anderen Farbe angemalt worden waren, ge¨ offnet und erzeugten ihrerseits auf dem unteren Teil des Brettes eine Folge von Elementarverteilungen der Streuung D2 . Deren Mischung erzeugte eine Gesamtstreuung D, die gr¨ oßer als D1 war. Galton konstruierte also einen Mechanismus zur Zerlegung der Gesamtvarianz (D2 ) in eine Interklassen-Varianz“ (D12 ) und eine Intraklassen-Varianz“ (D22 ), denn ” ” D2 = D12 + D22 . (Hier stehen die Symbole D, D1 und D2 f¨ ur diejenige Interpretation des Begriffs Streuung“, die man im modernen Sprachgebrauch als ” Standardabweichung“ bezeichnet.) ” Dar¨ uber hinaus waren die kleinen Streuungen D2 , die an den Zwischenrohren entstanden, alle gleich. Oder besser gesagt: Die Streuungen der K¨ orpergr¨ oßen der Subpopulationen von S¨ ohnen, die von V¨ atern abstammen, deren
Francis Galton: Vererbung und Statistik
137
K¨ orpergr¨ oßen vorher gesichtet wurden, waren gleich. Der Zwei-Stufen-Quincunx veranschaulichte diese Eigenschaft. Der Quincunx war ein zwischengeschaltetes“ Ger¨ at. Dieses Ger¨ at ” ¨ erm¨ oglichte die Uberwindung der Schwierigkeiten, die bei der Addition und Kombination von Streuungen auftraten. Der Quincunx zeigte auch Folgendes: Je weiter eine Kugel auf der ersten Stufe ∆ nach rechts f¨ allt, desto gr¨ oßer sind die Chancen, daß sie sich auch am Schluß rechts befindet. Aber das war nicht ganz sicher, denn manchmal konnte die Kugel auch links landen. Anders gesagt: Ein hochgewachsener Vater kann einen kleinen Sohn haben, aber das ist nicht sehr wahrscheinlich. Nat¨ urlich muß bei der Analyse auch das Erbgut der Mutter ber¨ ucksichtigt werden: Galton dachte sich ein Zwischenelternteil“ ” (mid-parent) aus, das sich in der Mitte“ zwischen beiden Elternteilen befindet. ” Aber der Quincunx erm¨ oglichte keine direkte Veranschaulichung des zwischen den Variablen bestehenden linearen Zusammenhangs vom Typ Y = aX + b. Aus diesem Grund hat sich die synthetischere Abbildung 1 (vgl. Seite 134) u ¨ber Abbildung 2 hinweggesetzt, die dennoch ziemlich gut die Schwierigkeiten illustriert, mit denen die Erfinder der linearen Regression zu k¨ ampfen hatten.
Danach konstruierte Galton eine Kreuztabelle in Analogie zum vorhergehenden Fall. Dieses Mal waren die beiden Randverteilungen (Eltern und Kinder) normal. Er stellte den gleichen Effekt fest, das heißt eine Regression ” zum Mittelwert“ der K¨orpergr¨oßen der Kinder proportional zu den K¨ orpergr¨ oßen der Zwischenelternteile“ – mit einem Koeffizienten von 2/3 (Anstieg ” der Regressionsgeraden“). In den Kreuztabellen verband er die Felder glei” chen Wertes durch eine Linie und zeichnete auf diese Weise eine Reihe von konzentrischen und ¨ahnlichen Ellipsen, deren Mittelpunkt derjenige Punkt war, welcher der Durchschnittsgr¨oße der beiden Generationen entsprach. Galton wußte nicht, wie er die Ellipsen interpretieren sollte und legte sie deswegen einem Kollegen, dem Mathematiker Hamilton-Dickson, vor. Der erkannte sofort, daß hier eine zweidimensionale Normalverteilung im Spiel war. Diese Wahrscheinlichkeitsverteilung f¨ ur zwei miteinander verbundene Variable war bereits im Rahmen der Meßfehler-Theorie von Bravais15 (1846) gefunden worden, der bei dieser Gelegenheit auch schon das Wort Korrelation“ ver” wendet hatte. Aber Bravais hatte daraus noch keinerlei Schlußfolgerungen in Bezug auf durch zwei Variable miteinander verkn¨ upften Variationen gezogen, die Lucien March auch als Co-Variationen“ bezeichnete. F¨ ur die Korrelation ” verwendete March jedoch den Namen Bravais-Pearson-Koeffizient“. ” 15
Auguste Bravais (1811–1863), franz¨ osischer Physiker und Mineraloge. Er untersuchte die Optik atmosph¨ arischer Erscheinungen und die Struktur von Kristallen; 1850 fand er die 14 Typen dreidimensionaler Gitter.
138
4 Korrelation und Ursachenrealismus
Schwer zu widerlegende Berechnungen Galton stellte diese Ergebnisse im September 1885 in seiner Ansprache als Pr¨ asident vor, die er anl¨aßlich der Er¨offnung einer Versammlung der Sektion Anthropologie der British Association for the Advancement of Sciences hielt. Demnach ist Galton im Kontext der physikalischen Anthropologie der Darwinschen Tradition einzuordnen und nicht im Kontext der statistischen Methoden. Galton war nicht Mitglied der Royal Statistical Society und ver¨ offentlichte so gut wie nichts in der Zeitschrift dieser Gesellschaft. F¨ ur ihn und f¨ ur sein Publikum bezog sich seine Mitteilung auf die Vererbung und nicht auf die Technik der Datenanalyse. Die Mitteilung wurde sp¨ ater unter dem Titel Regression towards Mediocrity in Hereditary Stature (Galton, 1886, [103]) ver¨ offentlicht. In dieser Arbeit lenkte er die Aufmerksamkeit auf das, was er f¨ ur seine wichtigste Entdeckung hielt: die Idee der R¨ uckkehr zum Mittelwert (daher das Wort Regression“, das erhalten geblieben ist, aber seinen ” urspr¨ unglichen Sinn vollst¨andig verloren hat). Der paradoxe Aspekt der Formulierung dieser Idee liegt darin, daß sie in zwei zueinander entgegengesetzten Richtungen gelesen werden kann, je nachdem, ob man den Koeffizienten 2/3 mit 1 vergleicht (was durch den Ausdruck Regression“, das heißt R¨ uckkehr ” ” zum Mittel“, suggeriert wird) oder ob man ihn mit 0 vergleicht (was Galton im Sinn hatte, denn er wollte die Auswirkungen der Vererbung quantifizieren). An diesem Beispiel sehen wir, wie sich unterschiedliche, ja sogar kontr¨ are Deutungen an formal identischen statistischen Konstruktionen artikulieren k¨onnen. Die Interpretationen dieser Konstruktionen waren selten eindeutig – trotz der zunehmend strengeren Bereinigungsarbeiten und stilistischen Verfeinerungen, die sp¨ ater von den Statistikern vorgenommen wurden. Denn diese T¨ atigkeit ging oft – aber nicht immer – mit dem Effekt einher, die Aufmerksamkeit hinsichtlich der interpretativen Rhetoriken an den Rand zu dr¨ angen. Die Galtonsche Rhetorik war noch ziemlich einfach und zog seinerzeit keine Aufmerksamkeit auf sich. Aber die Zweideutigkeit der m¨ oglichen Lesarten seiner Ergebnisse sollte sp¨ater erneut zum Vorschein kommen, zum Beispiel bei der Interpretation der sozialen Mobilit¨atstabellen, in denen die Berufe der V¨ ater und der S¨ohne in Verbindung gebracht werden. Diese Berufe lassen sich entsprechend einer rein diagonalen Tabelle lesen (vollst¨ andige soziale Vererbung) und k¨onnen durch die Begriffe der Mobilit¨ at und der Mischung der sozialen Gruppen kommentiert werden. Umgekehrt k¨ onnen sie mit der Produkttafel der Randverteilungen“ verglichen werden (vollst¨ andige Gleich” ” wahrscheinlichkeit“ und keine soziale Vererbung) und dann eine Interpretation ¨ st¨ utzen, die sich durch die Begriffe der Reproduktion und der Ubertragung des sozialen Status ausdr¨ uckt. Was es auch immer mit den verschiedenen m¨ oglichen Interpretationen der Ergebnisse von Galton oder mit den Interpretationen der Mobilit¨atstabellen auf sich hat: in jedem der vier F¨ alle ist es notwendig, die sozialen, philosophischen und politischen Konstellationen zu rekonstruieren und dadurch diese oder jene Art und Weise wahrscheinlich zu
Schwer zu widerlegende Berechnungen
139
machen, in der man sich auf die – mit Hilfe von statistischen Methoden – objektivierten Dinge st¨ utzt. Wir kommen nun auf Galton zur¨ uck und betrachten zwei Beispiele von Interpretationen seiner Ergebnisse, die ziemlich weit von dem entfernt sind, was er selbst angestrebt hatte. Es handelt sich um Beispiele aus Frankreich, die sich aus der Arbeit zweier intellektuell vollkommen unterschiedlich positionier´ ter Autoren ableiten: Cheysson und Durkheim. Emile Cheysson (1836–1910), Br¨ uckenbauingenieur und Sch¨ uler von Frederic Le Play, war Mitglied der Soci´et´e de statistique de Paris und erlangte sehr schnell Kenntnis von der Mitteilung Galtons vom 10. September 1885. Kurze Zeit sp¨ ater, am 23. Oktober 1885, ver¨ offentlichte Cheysson eine Besprechung der Galtonschen Mitteilung in der Zeitung Le Temps (der Le Monde von damals). Er gab eine erstaunliche Interpretation der Galtonschen Mitteilung, indem er die K¨ orpergr¨ oße eines Sohnes als Durchschnitt der K¨orpergr¨oßen des Vaters, der Mutter und ” der Rasse“ interpretierte. Zu dieser Formulierung gelangte er folgendermaßen: Das Gesetz von Mr. Galton besteht aus einer Art fataler und unwiderstehlicher Regression des individuellen Typs in Richtung des Rassendurchschnitts ... Bezeichnet man die Abweichung zwischen der K¨ orpergr¨ oße eines Individuums und der durchschnittlichen K¨ orpergr¨ oße der Rasse als Deviat“ ..., dann besagt dieses Gesetz, daß das Deviat der ” K¨ orpergr¨ oße des Produktes im Mittel gleich zwei Dritteln des Deviates der K¨ orpergr¨oße des Zwischenelternteils ist. Oder in einer a ¨quivalenten aber vielleicht leichter faßlichen Form: Die K¨ orpergr¨ oße des Produktes ist im Mittel gleich einem Drittel der Summe der K¨ orpergr¨ oßen des Vaters, der Mutter und der durchschnittlichen K¨ orpergr¨ oße der Rasorpergr¨ oße des Vaters, se. In der Tat: Es seien T , T , M und t die K¨ die K¨ orpergr¨oße der Mutter, die durchschnittlichen K¨ orpergr¨ oße der Rasse bzw. die K¨orpergr¨oße des Produktes. Das Gesetz von Galton wird dann durch folgenden Ausdruck wiedergegeben: 2 T + T −M . t−M = 2 3 Hieraus folgern wir: 1 t = (T + T + M ) (Cheysson, 1885). 3 Elementar, mein lieber Galton ... Die Formulierung von Cheysson u ¨bertr¨ agt in recht getreuer Weise die Vererbungsbotschaft, die Galton vorschwebte, gibt aber gleichzeitig dem Einfluß der Rasse“ ein h¨ oheres Gewicht – unter ” Verwendung eines Vokabulars, das sich noch in der N¨ ahe der von Quetelet benutzten Terminologie befindet: In dieser Form hebt das Gesetz deutlich den Einfluß der Rasse hervor, die unaufh¨ orlich dahin tendiert, den Durchschnittstyp zu reproduzieren und einem Volk trotz der mehr oder weniger exzeptionellen Deviate einen besonderen Stempel aufdr¨ uckt. Unter den oberfl¨ achlichen
140
4 Korrelation und Ursachenrealismus
Zuf¨ allen, die einander in verschiedenen Richtungen kreuzen und sich neutralisieren, liegt eine tiefe und permanente Ursache, die immer in der gleichen Richtung wirkt, um die individuellen Abweichungen zu unterdr¨ ucken und das Wesen der Rasse aufrecht zu halten. (Cheysson, 1885.) Diese Lesart unterscheidet sich nicht allzu sehr von dem, was Durkheim ¨ sagte, der in seinem Werk Uber soziale Arbeitsteilung (La Division du travail social, 1893, [76]) die Frage der Vererbung anschneidet, sich aber auf Galton st¨ utzt um zu zeigen, daß die soziale Gruppe“ (und nicht mehr die Rasse“) ” ” das Individuum an dessen Durchschnittstyp“ erinnert: ” Die unl¨ angst von Mr. Galton durchgef¨ uhrten Untersuchungen best¨ atigen die Abschw¨achung des erblichen Einflusses und erm¨ oglichen uns gleichzeitig eine Erkl¨arung dieser Erscheinung ... Laut diesem Autor, dessen Beobachtungen und Berechnungen nur schwer widerlegbar zu sein scheinen, werden in einer gegebenen sozialen Gruppe durch Vererbung nur diejenigen Merkmale regelm¨aßig und vollst¨ andig u ¨bertragen, deren Vereinigunsgmenge den Durchschnittstyp bildet. Demnach wird ein Sohn von k¨orperlich außerordentlich großen Eltern nicht deren K¨ orpergr¨ oße haben, sondern mehr in der N¨ ahe eines mittleren Wertes liegen. Sind umgekehrt die Eltern sehr klein, dann wird der Sohn gr¨ oßer werden als sie es sind. Mr. Galton war sogar dazu in der Lage – zumindest in angen¨aherter Weise – dieses Abweichungsverh¨ altnis zu messen. Bezeichnet man vereinbarungsgem¨ aß als Zwischeneltern” teil“ ein zusammengesetztes Wesen, das den Durchschnitt der beiden tats¨ achlichen Eltern repr¨asentiert, dann betr¨ agt die Abweichung des Sohnes zwei Drittel der Abweichung von diesem Zwischenelternteil. Mr. Galton hat dieses Gesetz nicht nur f¨ ur die K¨ orpergr¨ oße aufgestellt, sondern auch f¨ ur die Augenfarbe und f¨ ur die k¨ unstlerischen F¨ ahigkeiten. Allerdings bezog er seine Beobachtungen nur auf quantitative und nicht auf die qualitativen Abweichungen, welche die Individuen im Vergleich zum Durchschnittstyp aufweisen. Man erkennt jedoch nicht, warum das Gesetz f¨ ur das eine gelten solle, f¨ ur das andere jedoch nicht. (Durkheim, 1893, [76].) Demnach st¨ utzte sich Durkheim auf einen Autor, dessen Beobachtungen ” und Berechnungen nur schwer widerlegbar zu sein scheinen“, um eine These zu untermauern, die ziemlich weit von der These Galtons entfernt war: Die ” einzigen Merkmale, die sich in einer sozialen Gruppe regelm¨ aßig durch Vererbung u ¨bertragen, sind diejenigen Merkmale, deren Vereinigungsmenge den Durchschnittstyp bildet“. Das ist nicht genau dasselbe, was Galton sagen wollte, denn bei ihm lag die Betonung auf der Vererbung der individuellen und nicht der durchschnittlichen Merkmale. Es ist auch u ¨berraschend, daß Durkheim bei den durch Vererbung u orpergr¨ oße, die ¨bertragenen Merkmalen die K¨ ” Augenfarbe und die k¨ unstlerischen F¨ahigkeiten“ miteinander verquickt, was
Schwer zu widerlegende Berechnungen
141
eigentlich nicht mit seinem Prinzip im Einklang stand, demgem¨ aß sich das ” Soziale durch das Soziale erkl¨art“: Der intellektuelle Kontext des ausgehenden 19. Jahrhunderts war vom Darwinismus gepr¨ agt, der die wissenschaftliche Modernit¨ at repr¨ asentierte. Diese Zitate von Cheysson und Durkheim zeigen, daß es zun¨ achst nicht die statistischen Innovationen waren, welche die Aufmerksamkeit der Zeitgenossen auf die Arbeit Galtons lenkte. Dessen Ergebnisse von 1885 f¨ uhrten 1889 zur Ver¨ offentlichung seines am besten bekannten Buches: Natural Inheritance ([104]); sein fr¨ uheres Buch Hereditary Genius 16 war 1869 erschienen. Von den Galtonschen Neuerungen wurden an erster Stelle – auf der Grundlage der Normalverteilung von Quetelet – die Idee der Konstruktion von Ordinalskalen und die sich hieraus direkt ableitenden Werkzeuge aufgegriffen: der Median, die Dezile, die zwischenquartile Breite und allgemeiner die Techniken zur Transformation nichtmetrischer Daten in metrische Daten, die sich in diese Skalen eintragen ließen. Somit machte Galton den Weg zu gemeinsamen Meßr¨ aumen frei. Im Gegensatz hierzu brauchte es mehr Zeit, die intellektuellen Durchbr¨ uche zu erkennen und weiter zu verwenden, die Galton 1877 durch sein Erbsen-Experiment, durch den Zwei-Stufen-Quincunx und durch die R¨ uck” ¨ kehr zum Mittel“ erzielt hatte. Ahnlich verhielt es sich mit der 1885 festgestellten zweidimensionalen Normalverteilung der K¨ orpergr¨ oßenpaare Eltern-Kind und mit der Zerlegung der dieser Verteilung zugrundeliegenden Varianz. Diese Ergebnisse waren mathematisch kaum formalisiert, implizierten aber eine geometrische und statistische Intuition, die f¨ ur die damalige Zeit außergew¨ ohnlich war. Die grafische Darstellung der Regressionsgeraden zur Kinder-K¨ orper” gr¨ oße“ (y) im Vergleich zur Regressionsgeraden zur Eltern-K¨ orpergr¨ oße“ (x) ” erfolgte, indem man von konzentrischen Ellipsen und von Ellipsenpunkten mit vertikalen Tangenten ausging (eine inverse Regression von x auf y war hingegen m¨ oglich, wenn man von Punkten mit horizontalen Tangenten ausging). Der Anstieg der Regressionsgeraden wurde grafisch gemessen. Eine Optimierung vom Typ der Methode der kleinsten Quadrate war noch nicht in Sicht. Die Aufbereitung der Daten war von dem Bem¨ uhen angespornt, das politisch-wissenschaftliche Konstrukt der Eugeniker durch Messungen von Vererbungseffekten zu untermauern. Das erkl¨art die unsymmetrische Natur dieser Aufbereitung: die K¨orpergr¨oßen der Eltern beeinflußten die K¨ orpergr¨ oßen der Kinder. Es gab erkl¨arende“ (explikative) Variable und erkl¨ arte“ ” ” (explizierte) Variable. Aber Galton wendete diese Variablen schon bald auf Paare von Br¨ udern an; wenig sp¨ater untersuchte er die Vermessungen der Arme und Beine von Menschen und der Gliedmaßen von Tieren. Diese F¨ alle rechtfertigten keine unsymmetrische Behandlung mehr und das f¨ uhrte zu Mes16
Francis Galton, Hereditary Genius: An Inquiry into Its Laws and Consequences, ¨ [102]. Deutsche Ubersetzung: Genie und Vererbung, Leipzig, 1910.
142
4 Korrelation und Ursachenrealismus
sungen von Co-Relationen17 , das heißt Korrelationen. Die Untersuchung der Relationen zwischen den Messungen verschiedener Teile ein und desselben menschlichen K¨ orpers war durch die anthropometrischen Arbeiten Alphonse Bertillons (1853–1914) angeregt worden, der als Sachverst¨ andiger bei der Polizeipr¨ afektur von Paris t¨atig war. Bertillon suchte nach einer Meßbatterie, die eine eindeutige Personenidentifikation erm¨ oglichte, um Straff¨ allige und Verbrecher leichter ausfindig zu machen. Aber er hatte sich nicht die Frage nach den m¨ oglichen wechselseitigen Abh¨angigkeiten dieser Gr¨ oßen gestellt. Der Korrelationskalk¨ ul eignete sich gut zur Behandlung dieser Frage. Dar¨ uber hinaus trug Galton mit einer anderen L¨osung zum Problem der Personenidentifikation bei: diese L¨osung – es handelte sich um die Fingerabdr¨ ucke – konkurrierte mit der von Bertillon gegebenen L¨ osung. Daher schien es, daß beide Probleme – das heißt das Problem der Konstruktion von gemeinsamen Meßr¨ aumen und das Problem der eindeutigen Identifikation von Individuen – logisch ¨ aquivalent zueinander waren. Der Polizist und der Statistiker neuen Typs (das heißt eher Galton als Quetelet) hatten ein gemeinsames Interesse an der Beziehung, die zwischen den einzelnen Individuen und deren relativer globaler Verteilung besteht. Der Unterschied bestand darin, daß Bertillon seine Augen auf die Individuen richtete, w¨ahrend Galton die Verteilung untersuchte. Aber beide f¨ uhrten Umfragen durch, verwalteten Karteien und suchten nach gut verwendbaren Anhaltspunkten. Damit wollten sie eine Realit¨ at konstruieren, auf die sich ein Richter oder ein zust¨andiger Politiker st¨ utzen konnte, um Entscheidungen zu treffen, die einer breiten Zustimmung bedurften. Diese Entscheidungshilfe war insbesondere dank der Menge und der Qualit¨ at der Beweisinstrumente m¨oglich, die von den Polizisten und von den Statistikern akkumuliert worden waren. Es handelte sich um genau diejenigen Beweisinstrumente, die von der englischen mathematischen Statistik in die von Galton und Pearson begr¨ undete Linie eingebracht worden sind. Ein Beweis ist eine komplizierte, mehr oder weniger zerbrechliche Konstruktion, durch die man unterschiedliche Dinge vereinigt und zum Zusammenhalt bringt, so daß sie ein Ganzes bilden – ein Ganzes, das den Schl¨agen widersteht, denen es von verschiedenen Seiten ausgesetzt ist. F¨ ur Quetelet und f¨ ur andere nach ihm war eine Normalverteilung ein Beweis f¨ ur einen Zusammenhang zwischen den einzelnen Individuen. Lexis zerst¨ orte diesen Beweis mit seinem Test. F¨ ur Galton hingegen war die Normalverteilung eine Errungenschaft, die nicht mehr bewiesen werden mußte. Deswegen ließ sich die Normalverteilung dazu verwenden, eine Referenzskala zu eichen. Im Vergleich zu den Ergebnissen, die in der Folgezeit von Karl Pearson, von dessen Sohn Egon Pearson in Zusammenarbeit mit Jerzy Neyman ¨ und schließlich von Ronald Fisher erzielt wurden, muten die Uberlegungen von Quetelet, Lexis und Galton doch recht einfach an. In den 1890er Jahren kam 17
F. Galton, Co-relations and their measurement, chiefly from anthropometric data. Proc. R. Soc. London 45 (1889), 135–145. In seiner n¨ achsten Ver¨ offentlichung verwendete Galton correlation“ anstelle von co-relation“. ” ”
Schwer zu widerlegende Berechnungen
143
es in England zu einer Diskontinuit¨at, die in zahlreichen Wissenschaftsbereichen und nichtwissenschaftlichen Bereichen zu einer radikalen Transformation des Beweisapparates f¨ uhrte. Die Chronologie wie auch der soziale und intellektuelle Kontext dieser entscheidenden Episode ist von verschiedenen Autoren, auf die wir hier haupts¨ achlich Bezug nehmen, eingehend beschrieben worden. Vor allem haben diese Autoren versucht, den Zusammenhang aufzuhellen, der das, was sp¨ ater lediglich als Technologie mit mathematischer Grundlage in Erscheinung trat, mit dem Sozialdarwinismus und der T¨atigkeit der Eugeniker verkn¨ upfte. Von dieser Richtung ließen sich – beginnend mit Galton, Pearson und Fisher – einige der Hauptdarsteller dieser Geschichte inspirieren. Wie sich herausstellte, hatten die Mitglieder des von Pearson 1906 gegr¨ undeten Labors eine reichhaltige Dokumentation (Archive, Briefwechsel, Memoiren) hinterlassen, die umfassend untersucht worden ist. Dieses Material wurde von einigen Wissenschaftlern mit der Absicht untersucht, eine exakte internalistische Geschichte der Instrumente zu rekonstruieren, wobei sie den evolutionistischen und eugenistischen Standpunkt – mit dem diese Techniken urspr¨ unglich eng verkn¨ upft waren – nur an zweiter Stelle erw¨ahnten. (E. Pearson und Kendall, 1970 [221]; Stigler, 1986, [267]). Andere wiederum sind sp¨ ater in entgegengesetzter Weise vorgegangen und haben weitere Aspekte dieser Episode rekonstruiert (Norton, 1978, [214]; Mac Kenzie, 1981, [183]). Diese beiden Untersuchungsformen – das heißt die internalistische und die externalistische Form – werden in immer wiederkehrenden und ergebnislosen Debatten einander gegen¨ ubergestellt: Entwickelt sich eine Wissenschaft haupts¨ achlich durch eine interne und kognitive Dynamik oder ist es der historische und soziale Kontext, der im Wesentlichen den von dieser Wissenschaft eingeschlagenen Weg determiniert? Im letzteren Fall k¨ onnte es sich herausstellen, daß die betreffende Wissenschaft mehr oder weniger besch¨ adigt wird – und zwar u ¨ber den impliziten Umweg der Denunzierung ihres sozialen Ur” sprungs“. Eine derartige kritische Stimmung hat es – vor allem in den 1970er Jahren – ohne Zweifel gegeben, aber es erwies sich als schwierig, diese Stimmung zu f¨ ordern. Es ist n¨amlich offensichtlich, daß sich die Werkzeuge von ihren Urspr¨ ungen abkoppeln und dann ein anderes Leben, ein Doppelleben oder sogar mehrere unterschiedliche Leben f¨ uhren. Aber die Antwort des gegnerischen Lagers, daß die Wissenschaft ihre eigene Logik und Notwendigkeit hat und daß der Kontext der Wissenschaftsentstehung und -entwicklung kontingent im Vergleich zu dieser internen Notwendigkeit ist, wirft mehr Fragen auf als sie l¨ ost. Diese Antwort gestattet es uns nicht, im Detail u ¨ber die Art und Weise nachzudenken, in der eine Rhetorik und eine wissenschaftliche Praxis tats¨ achlich miteinander verkn¨ upft sind oder (um einen Ausdruck von Michel Callon (1989, [42]) zu verwenden) in andere Rhetoriken und andere Praktiken u ur die Statistik, die zur Verwendung ¨bersetzt werden. Das gilt insbesondere f¨ als Beweisinstrument in anderen Bereichen bestimmt ist – in Bereichen der Wissenschaft, der Verwaltung und der Politik.
144
4 Korrelation und Ursachenrealismus
Von dieser Warte aus k¨onnen sich historische Forschungen jeglicher Richtung als aufschlußreich erweisen – zum Beispiel dadurch, daß sie eine detaillierte Analyse der Kontroversen liefern, die sich auf pr¨ azise technische Punkte beziehen. So sah sich zum Beispiel Pearson sein ganzes Leben lang in derartigen Debatten gefangen. Stigler beschrieb die Diskussionen, die Pearson mit Weldon und Edgeworth hatte, w¨ahrend Mac Kenzie die ¨ außerst erbitterten Auseinandersetzungen untersuchte, zu denen es zwischen Pearson und Yule und sp¨ ater zwischen Pearson und Fisher kam. Die typisch internalistische Interpretationsweise der Kontroversen besteht darin, herauszufinden, wer – in der Retrospektive – recht hatte und demjenigen eine Medaille anzuheften, der von der Geschichte bereits gekr¨ont worden war. In der Statistik ist das nicht ganz so einfach, da sich die Geschichte dazu im Allgemeinen nicht wirklich entscheidend ge¨außert hat; aber auf anderen Gebieten ist das eine g¨angige Praxis. Im Gegensatz hierzu zielt die externalistische Interpretation darauf ab, den Inhalt und die Argumente der Diskussionen zugunsten von Forschungsarbeiten zu ignorieren, deren Gegenstand die verborgenen Interessen der Beteiligten sind – ausgedr¨ uckt durch soziale Gruppen oder durch Positionen in umfassenderen R¨aumen, welche die m¨ oglichen Stellungnahmen determinieren.18
Fu ander und der neue Kontinent ¨ nf Engl¨ Ein klassischer Fall von Kontroverse ist der Priorit¨ atsstreit. Beispiele daf¨ ur hatten wir bereits gesehen – etwa bei der Methode der kleinsten Quadrate (Gauß und Legendre) und bei der Korrelation (Bravais, Pearson und Edgeworth). In diesem Fall scheint die offensichtliche Deutung – ausgedr¨ uckt durch individuelle Interessen – auszureichen. Dennoch ist es n¨ utzlich herauszufinden, warum und wie ein Geistesblitz zu einem bestimmten Zeitpunkt – und keinem ¨ anderen – sichtbar wird. Auf diese Weise kann man die Ubersetzungen analysieren, die es einem der Akteure erm¨oglicht haben, sich die Urheberschaft eines Objektes zuzuschreiben: das ist beispielsweise der Fall bei Legendre gegen¨ uber Gauß und bei Pearson gegen¨ uber Edgeworth. Innerhalb der kleinen Gruppe der Begr¨ under der mathematischen Statistik mangelte es an derartigen Querelen nicht. Jeder hatte eine besondere Weise, die neue statistische Sprache – die von der Gruppe kollektiv geformt wurde – durch jeweils andere Sprachen zu artikulieren, die aus unterschiedlichen Quellen stammten. Diese Besonderheiten hingen mit der Ausbildung der betreffenden Personen, 18
In einem Teil seiner Arbeit kam Mac Kenzie (1981, [183]) nicht vollst¨ andig um die Gefahr dieser makrosozialen Interpretation herum, zum Beispiel als er versuchte, die konkurrierenden Ausdr¨ ucke f¨ ur Korrelationskoeffizienten zu den sozialen Urspr¨ ungen derjenigen Personen in Beziehung zu setzen, welche diese Ausdr¨ ucke verwendeten (der technische Teil seines Werkes ist jedoch ungemein reichhaltig und liefert wesentliche Beitr¨ age u ange zwischen Argumenta¨ber die Zusammenh¨ tionen unterschiedlicher Art).
F¨ unf Engl¨ ander und der neue Kontinent
145
ihren Universit¨ atspositionen und mit ihrem intellektuellen oder politischen Engagement zusammen. Wir k¨onnen uns hier an f¨ unf Engl¨ ander mit ziemlich typischen Profilen halten: Galton, Edgeworth, Weldon, Pearson und Yule. Sie hatten den neuen Kontinent der Statistik erfunden und auch dazu beigetragen, die Statistik vom alten Europa nach England zu bringen, bevor sie den Atlantik u ¨berquerte. Francis Galton (1822–1911) war laut Stigler die romantische Figur der ” Geschichte der Statistik und vielleicht der letzte der Gentleman-Gelehrten“. Er war der Spr¨ oßling eines typischen Geschlechts der kultivierten englischen Großbourgeoisie (Darwin war sein Cousin). Er studierte Medizin in Cambridge, praktizierte aber nicht. Galton bereiste die Welt, interessierte sich f¨ ur Geographie und Wettervorhersagen. Er ver¨offentlichte die ersten meteorologischen Karten mit einer F¨ ulle von technischen Einzelheiten und originellen Darstellungskonventionen. Aber sein haupts¨achlicher Kampf drehte sich um ¨ die Uberzeugung, daß sich die menschliche Spezies auf der Grundlage der Ergebnisse Darwins zur Vererbung und nat¨ urlichen Auslese verbessern l¨ aßt. Zehn Jahre nach Darwins Werk Die Entstehung der Arten (1859) gab Galton in seinem Hereditary Genius (1869, [102]) Beispiele f¨ ur famili¨ are Vererbung bei außergew¨ ohnlichen Menschen. Zu ihrer Zeit empfand man diese Werke als Teil der großen Herausforderung der Wissenschaft und der Vernunft gegen¨ uber der Kirche und der traditionellen Religion des Obskurantismus. Galton w¨ unschte die Schaffung eines wissenschaftlichen Priesterstandes“, der den alten Prie” sterstand ersetzen sollte und er behauptete, nachgewiesen zu haben, daß es keinen statistischen Beweis f¨ ur die Existenz Gottes gibt. Aus dieser Sicht stellt sich die Eugenik als rationale Methode dar, mit deren Hilfe sich die Evolution der menschlichen Spezies steuern l¨ aßt – gewissermaßen als wissenschaftliche Alternative zum Christentum und dessen Fatalismus. Hinter den statistischen Werkzeugen stand die Absicht, die Wirkungen der Vererbung zu messen und in ihre Bestandteile zu zerlegen. Falls sich die Menschen – von den Besten bis hin zu den weniger Guten – anordnen lassen, dann zeigte die Technik der Regression den durch Vererbung erhalten gebliebenen Anteil der spezifischen Qualit¨aten und M¨ angel der einen wie der anderen Personen. Diese Ergebnisse wurden mit der Feststellung in Zusammenhang gebracht, daß die englischen Oberschichten – das heißt die gebildeteren und bessergestellten Schichten – weniger Kinder hatten, als die armen Schichten, in denen es mehr untaugliche Personen gab. Das f¨ uhrte – unter Bezugnahme auf die Wissenschaft – dazu, langfristig eine d¨ ustere Zukunft zu prophezeien: wird nichts unternommen, dann kommt es unweigerlich zum Verfall der englischen Nation. Das war der Kern der hereditaristischen Eugenik, wie sie von Pearson aufgegriffen und vertieft wurde. Im Lichte der sp¨ ateren verbrecherischen Praktiken – die sich in der Zeit ab 1920 bis (mindestens) in die 1940er Jahre auf dieses politische und wissenschaftliche Konstrukt st¨ utzten – f¨ allt es gewiß schwer, sich vorzustellen, daß dieses Konstrukt vor 1914 von vielen als Bestandteil im Kampf des Fortschritts und der Wissenschaft
146
4 Korrelation und Ursachenrealismus
gegen Obskurit¨ at und Ignoranz wahrgenommen wurde. Aber leider verhielt es sich so. alligere Pers¨ onlichkeit als Francis Edgeworth (1845–1926) war eine unauff¨ ¨ Galton. Er war vor allem als Okonom bekannt. Nach dem Studium der Literatur, der Rechtswissenschaften und der Mathematik befaßte er sich damit, die Forschungsarbeiten der Psychophysiker u ¨ber Sinneswahrnehmungen und deren Messung auf die ¨okonomische Nutzentheorie anzuwenden. Er war der Autor von Mathematical Psychics 19 (1881), einem der ersten Werke u ¨ber ma¨ thematische Okonomie. Er dachte nach u ahigkei¨ber die unterschiedlichen F¨ ” ten der Individuen, Gl¨ uck zu empfinden“ und diese Frage f¨ uhrte dazu, daß er sich f¨ ur Quetelet, Galton und f¨ ur die Normalverteilung interessierte. Er war auf theoretischem Gebiet ¨außerst produktiv, vor allem in der mathematischen Statistik, wo er sogar noch vor Pearson rangierte. Aber Edgeworth besaß nicht dessen Talent, ein zusammenh¨angendes und solides Netzwerk aufzubauen. Seine Arbeit war nicht prim¨ar an einem politischen Projekt ausgerichtet und die Eugenik interessierte ihn nicht. Galton, der sich seiner eigenen Unzul¨ anglichkeit in Mathematik bewußt war, strebte danach, sich mit einem Spezialisten dieses Gebietes zusammenzutun. Er bat Edgeworth um Mitarbeit. Aber die beiden hatten kein gemeinsames wissenschaftliches Projekt und sie waren auch durch keine politische Linie miteinander verbunden. Die von Edgeworth in den Jahren 1880–1890 durchgef¨ uhrten statistischen Arbeiten waren mindestens ebenso bedeutend und wegweisend wie die Arbeiten Pearsons, aber Edgeworth verf¨ ugte u ¨ber keine Absatzm¨oglichkeiten und Forschungsinstitute, wie sie Pearson hatte aufbauen k¨onnen. Edgeworth war einer der wenigen, die vor 1890 erkannt hatten, welche Bedeutung die Arbeit Galtons f¨ ur kognitive Schemata hatte – und zwar nicht nur vom Standpunkt der Vererbung, f¨ ur die sich Edgeworth nicht gerade begeisterte. In einer 1885 ver¨offentlichten Arbeit reproduzierte er das aus dem Quincunx (das heißt aus dem Galtonschen Brett“) hervorgegangene Schema ” und bewies die Zerlegung einer großen Normalverteilung in kleine bedingte Verteilungen gleicher Varianz (die er als moduli“ bezeichnet). Das f¨ uhrte ” ihn zur Formalisierung der Varianzanalyse (er sprach von entangled moduli“) ” und der Vergleichstests der Mittelwerte (Edgeworth, 1885, [82]). Er untersuchte die allgemeinen Eigenschaften der n-dimensionalen Normalverteilung, die er in Matrizenform schrieb (Edgeworth, 1892, [83]). Er erkl¨ arte 1893 die Korrelation als Momente-Produkt“ (das heißt als normierten Betrag der Erwar” tung des Produktes der beiden korrelierten Variablen). Jedoch wurde damals keine seiner Formulierungen von anderen Wissenschaftlern u ¨bernommen und r¨ uck¨ ubersetzt – der Standardausdruck Korrelationskoeffizient“ wird Pearson ” 19
In Mathematical Psychics schildert Edgeworth die Verhandlungen zweier potentieller Tauschpartner und bezeichnet die Menge der Tauschergebnisse, bei welcher der eine Tauschpartner nicht mehr besser gestellt werden kann, ohne daß der andere Nutzeinbußen erleidet, als Kontraktkurve. Diese Kurve ist ein Spezialfall eines spieltheoretischen Konzepts.
F¨ unf Engl¨ ander und der neue Kontinent
147
zugeschrieben, der ihn seinerseits 1896, also drei Jahre sp¨ ater ver¨ offentlicht hatte. Der Unterschied zwischen beiden besteht darin, daß Edgeworth seiner Arbeit den n¨ uchternen Titel Exercises in the Calculation of Errors gab – ein technischer Titel, der auf keinerlei Zusammenhang mit anderen Dingen hinwies. Im Gegensatz hierzu nannte Pearson seine Arbeit Mathematical Contributions to the Theory of Evolution: Regression, Heredity and Panmixia 20 und stellte damit eine Verbindung zwischen Mathematik, Darwin, Galton und der Vererbung her (der neue Gegenstand der Panmixie“ sollte jedoch nicht ” u ¨berleben). Evolution und Vererbung standen damals im Mittelpunkt des Interesses von Pearson. Diese Themen erweckten die Neugier eines viel gr¨ oßeren Publikums, als es die mathematischen Formeln von Edgeworth taten. Rapha¨el Weldon (1860–1906) war Biologe. Er war das go between der Geschichte, das heißt derjenige, der Galton zu Edgeworth und Pearson in Beziehung setzte. Dar¨ uber hinaus lenkte Weldon die Arbeit von Pearson in Richtung einer Disziplin, die beide zusammen erschufen: die Biometrie. Weldon war in der Tradition der evolutionistischen Biologie ausgebildet worden, deren Ziel – ausgehend von der Beobachtung morphologischer Transformationen – darin bestand, Stammb¨aume zu konstruieren, welche die Arten zueinander in Beziehung setzten. Aber diese Tradition hatte weder die intellektuellen Mittel noch kam sie u ¨berhaupt auf die Idee, diese morphologischen Transformationen im großen Maßstab zu untersuchen. Weldon griff die statistischen Methoden von Galton auf, um die Messungen zu beschreiben und zu analysieren, die bei Krabben- und Garnelenzuchten durchgef¨ uhrt worden waren. Anf¨ anglich unterst¨ utzte ihn Galton hierbei, aber das Material war derart komplex, daß sich Weldon (wie schon zuvor Galton) nach einem Mathematiker umschauen mußte, um seine Analyse vertiefen zu k¨onnen. Er zeigte seine Daten (im Jahre 1892) Edgeworth und Pearson. Es hat den Anschein, daß beide M¨ anner die Idee hatten, multiple Korrelationen zu untersuchen und auf diese Weise (im Hinblick auf die Weldonschen Vermessungen der Krabben und Garnelen) die grafischen Intuitionen Galtons zu formalisieren und zu verallgemeinern. Pearson ergriff die Gelegenheit und transformierte die Idee auf seine eigene Weise, indem er sie in seine bereits vorhandenen philosophischen und politischen Auffassungen integrierte. Aus der Zusammenarbeit der beiden entstand allm¨ ahlich ein Institutskern, der dann schließlich zu den Labors f¨ ur Biometrie und Eugenik f¨ uhrte. Die Verbindung zum Umfeld der Biologie brach jedoch nach Weldons Tod im Jahre 1906 ab (was zweifellos zur Verbissenheit der Debatten beigetragen hat, die sp¨ater Pearson und die Mendelschen Biologen zu Rivalen machte). Karl Pearson (1857–1936) hat die statistische Testtheorie weiterentwickelt. Er schuf ein wissenschaftliches Netzwerk, Institutionen und eine neue Sprache. Er hatte einen guten Ruf erlangt und zog Studenten aus anderen Kontinen20
Unter Panmixie versteht man in der Biologie eine Mischung durch zufallsbedingte Paarung.
148
4 Korrelation und Ursachenrealismus
ten an. Er war dazu in der Lage, ganz unterschiedliche Register zu ziehen – Register mathematischer, philosophischer und politischer Art – und diese Kombination war es, die seinem Vorhaben Durchschlagskraft gab. Diese St¨ arke fehlte Edgeworth, dessen statistische Innovationen a priori genau so bedeutsam waren, wie die Pearsonschen, aber er hatte weder die Qualit¨ aten noch das Verlangen, als Manager“ t¨atig zu sein. Pearson studierte vor 1892 (also ” vor dem Jahr, in dem er Die Grammatik der Wissenschaft ver¨ offentlichte und seine Arbeiten u achst Mathematik in ¨ber die Weldonschen Daten begann) zun¨ Cambridge und anschließend Geschichte und Philosophie in Deutschland. Er f¨ uhlte sich vom Sozialismus angezogen oder vielmehr von dem, was die Deutschen als Kathedersozialismus“ bezeichneten. Gemeint war damit eine Kritik ” des traditionellen B¨ urgertums aus der Sicht der Professoren und Wissenschaftler, nicht aber vom Standpunkt der Volksschichten. Diese Position war – im Gegensatz zur Haltung der etablierten und konservativen Aristokratie – mit der Auffassung der franz¨osischen Saint-Simonisten vergleichbar und f¨ uhrte zu einem rationalistischen und militanten Szientismus. Das wiederum ermunterte dazu, eine gr¨ oßere soziale Macht f¨ ur die kompetentesten Individuen einzufordern, die durch eine h¨ohere Ausbildung ausgew¨ ahlt wurden: Die englischen Professionals mit Abschluß in Cambridge oder Oxford und die franz¨ osischen ´ Ingenieure, die aus den Grandes Ecoles hervorgegangen waren. Die Kritik der traditionellen Sitten veranlaßte Pearson, sich aktiv in einem Men’s and Women’s Club zu engagieren, der f¨ ur eine Ver¨ anderung der sozialen Rolle der Frauen k¨ampfte. In diesem Sinne pr¨ asentierte Pearson die Eugenik der 1880er und 1890er Jahre mitunter im Lichte des Feminismus und der arbeitenden Frauen. Die u ¨berdurchschnittliche Fruchtbarkeit der Frauen der Arbeiterklasse f¨ uhrte zu katastrophalen Lebensbedingungen, verhinderte eine ordentliche Erziehung der Kinder und lieferte der Bourgeoisie u ussi¨bersch¨ ge Arbeitskr¨ afte, wodurch die L¨ohne nach unten gedr¨ uckt werden konnten. Wollten die Frauen dieses Milieus dem Teufelskreis entkommen, dann gab es nur eine einzige L¨osung, n¨amlich weniger Kinder zu bekommen. Diese Version war offensichtlich akzeptabler als diejenige, die von Degeneration und vom Ausschluß der mit Defekten behafteten Personen sprach, aber es ist u ¨berraschend, daß beide Versionen in Debatten koexistieren konnten, die auch zur Vorgeschichte des Feminismus und der Bewegung f¨ ur Geburtenkontrolle geh¨ orten (Zucker-Rouvillois, 1986, [296]). Als Pearson mit Weldon zusammentraf und sich auf die Statistik st¨ urzte, standen ihm drei Kategorien intellektueller und sozialer Ressourcen zur Verf¨ ugung: die Mathematik, die Wissenschaftsphilosophie sowie ein ideologisches und politisches Netzwerk. Er mobilisierte diese drei Ressourcen nach und nach und verwendete sie f¨ ur sein Vorhaben. Das f¨ uhrte ihn 1906 zu einem bizarren Objekt: zwei kaum voneinander verschiedene Laboratorien – das eine f¨ ur Biometrie, das andere f¨ ur Eugenik (keines der beiden wurde als stati” stisch“ bezeichnet). Im Jahre 1936 waren hieraus drei Labors hervorgegangen: das Labor f¨ ur Angewandte Statistik mit Egon Pearson, das Labor f¨ ur Eugenik mit Ronald Fisher und das Labor f¨ ur Genetik mit Haldane. Karl Pearsons ma-
F¨ unf Engl¨ ander und der neue Kontinent
149
thematischen Fachkenntnisse waren bereits im Jahre 1892 unmittelbar zum Tragen gekommen und erm¨oglichten es ihm, sich durchzusetzen. Zu diesem Zeitpunkt kam tats¨achlich nur Edgeworth als Konkurrent in Frage, aber der war ein reiner Gelehrter und dachte, daß es nur um wissenschaftliche Fragen ging. Pearson hingegen positionierte sich auf dem Gebiet der Evolutions- und ¨ Vererbungstheorie (wie man aus den Uberschriften der oben zitierten Arbeiten erkennt). Anfangs st¨ urmte Pearson so ungest¨ um vorw¨ arts, daß er sein epistemologisches Credo der Grammatik der Wissenschaft fast vergaß und die statistischen Verteilungen – Normalverteilungen oder sogar asymmetrische Verteilungen21 – auf eine eher realistische Weise `a la Quetelet interpretierte. Man erkennt das anhand der nachfolgend wiedergegebenen ersten Diskussionen, die Pearson zwischen 1892 und 1896 mit Weldon und Edgeworth hatte. Aber um diese Zeit gelang es ihm, den neuen Begriff der Korrelation mit seiner fr¨ uheren philosophischen Kritik der Kausalit¨at zu verbinden, die auf Mach zur¨ uckging. Das gab der statistischen Rhetorik eine sehr große Autonomie, denn sie konnte sich dadurch vom Zwang der Einbeziehung externer Ursachen“ befreien, ” das heißt von Fakten, die auf andere Weise konstruiert worden waren. Das f¨ ur die Folgezeit entscheidende Ereignis des Zeitraums 1892-1900 war zweifellos diese Eroberung der Autonomie des statistischen Diskurses, der nicht nur auf der Mathematik, sondern auch auf einer Erkenntnisphilosophie beruhte, die in umfassender Weise die Zw¨ange aufgehoben hatte, mit anderen Diskursen in Verbindung zu treten. Diese Haltung war nat¨ urlich keine direkte Folge der Machschen Denkweise und deren Interpretation durch Pearson. Dennoch sollte diese Auffassung rasch zum u ¨blichen professionellen Verhalten werden: sie war der Verselbst¨andigung des Statistikerberufes angemessen – mit Univer¨ sit¨ atsvorlesungen und Positionen in spezialisierten Amtern und Institutionen. Wir werden niemals wissen, was Lucien March, dem Direktor der SGF, vorschwebte, als er The Grammar of Science, dieses schwere philosophische Werk, das kaum mit Statistik zu tun hatte, zu einem Zeitpunkt u ¨bersetzte, an dem seine Institution noch ziemlich unbedeutend war und nur u unf ¨ber f¨ oder sechs professionelle Statistiker“ verf¨ ugte. Wie der Leser jedoch viel” leicht bemerkt hat, kam die englische Verwaltungsstatistik in der Galton- und Pearson-Saga so gut wie gar nicht vor. Erst sehr viel sp¨ ater, in den 1930er Jahren, kam es in den Vereinigten Staaten zu einem Zusammenschluß der Verwaltungsstatistiker und der mathematischen Statistiker. Das macht die von ¨ March angefertigte Ubersetzung des Pearsonschen Buches nur noch bedeutsamer, gleichzeitig aber auch r¨atselhafter. Es ist m¨ oglich, daß die Verbindung zu Pearson durch zwei Faktoren beg¨ unstigt wurde: durch das demographische Interesse Marchs an der Eugenik und durch die Pers¨ onlichkeit von Yule, der eine wesentliche Br¨ ucke zwischen der neuen englischen Statistik und den Wirtschafts- und Sozialwissenschaften verk¨orperte. 21
Auch schiefe Verteilungen“ genannt. ”
150
4 Korrelation und Ursachenrealismus
Udny Yule (1871–1951) war der direkte Großvater“ aller Statistiker, die ” auf diesem Gebiet arbeiten. Sein Handbuch An Introduction to the Theory of Statistics (1911, [293]) hatte bis 1950 vierzehn Auflagen (ab 1937 war Kendall Mitautor) und diente zur Ausbildung mehrerer Generationen von Studenten der Wirtschaft und der Soziologie. Yule hatte in London Ingenieurwissenschaften und in Deutschland Physik studiert, bevor er einer der ersten Studenten von Pearson und 1893 dessen Assistent wurde. Zwar erwies er sich anfangs in Bezug auf die neuen Techniken der Regression und der Korrelation als treuer Sch¨ uler seines Meisters, aber er wendete diese Techniken auf ganz andere Bereiche an und kam dadurch mit anderen Kreisen in Kontakt. Evolutionstheorie und Eugenik interessierten ihn nicht, aber er wurde 1895 Mitglied der Royal Statistical Society, der weder Galton noch Pearson angeh¨ orten. In dieser 1836 gegr¨ undeten Gesellschaft schlossen sich Fachleute zusammen, die Statistiker im Sinne des 19. Jahrhunderts waren. Es handelte sich dabei um Personen, die an der L¨ osung der sozialen und wirtschaftlichen Probleme der Armut und des ¨ offentlichen Gesundheitswesens beteiligt waren und versuchten, diese Fragen außerhalb hitziger und polemischer Debatten zu behandeln, indem sie die Probleme mit Hilfe von Statistiken administrativen oder privaten Ursprungs objektivierten. Diese Amelioristen“ – wie man sie nannte – waren den Kir” chen, der Philanthropie und den Hygieniker-Bewegungen verbunden und wurden oft von den radikalen Eugenikern kritisiert und dahingehend angeklagt, daß sie den Gang der nat¨ urlichen Auslese durch Unterst¨ utzung der Mittellosesten, das heißt – nach Meinung der Eugeniker – der Untauglichsten behindern w¨ urden. Die Debatte zwischen diesen beiden Str¨ omungen – der hereditaristischen und der environmentalistischen – dauerte von den 1870er Jahren bis in die 1930er und 1940er Jahre. Pearson geh¨orte nat¨ urlich der hereditaristischen Str¨ omung an, w¨ahrend Yule dem Environmentalismus n¨ aher stand. Das veranlaßte Yule dazu, die neuen Werkzeuge zu benutzen, um in die entscheidende politischen Debatte der damaligen Zeit einzugreifen, das heißt in die Frage nach der Form der Armenunterst¨ utzung. Sollte ein derartiger Beistand entsprechend den strengen Formen der anstaltsinternen Unterst¨ utzung (indoor relief ) auf der Grundlage der F¨ ursorgegesetzgebung (poor laws) von 1834 gew¨ahrt werden – das heißt in geschlossenen Anstalten, den Arbeitsh¨ ausern (workhouses), die Kolonien f¨ ur sehr schlecht bezahlte Zwangsarbeit waren – oder aber im Rahmen einer F¨ ursorgeunterst¨ utzung (outdoor relief ), das heißt durch eine Wohnbeihilfe, die eher f¨ ur Familien, Alte und Kranke bestimmt war. Diese beiden Formen der Beihilfe wurden auf lokaler Ebene durch die F¨ ursorgeverb¨ande (poor law unions) garantiert, die in jeder Grafschaft (county) gegr¨ undet wurden. Das Verh¨ altnis von indoor relief und outdoor relief hat angeblich die Strenge oder die Laxheit widergespiegelt, mit der die lokalen F¨ ursorgeverb¨ande verwaltet worden sind. Die politische Debatte bezog sich auf die Wohnbeihilfe: Trug der Umfang dieser Unterst¨ utzung nicht dazu bei, die Armut auf dem gleichen Stand zu halten, wenn nicht gar zu vergr¨ oßern? Yule verf¨ ugte in Bezug auf jeden der 580 F¨ ursorgeverb¨ ande u ¨ber mehrere Informationen: Die Gesamtzahl der unterst¨ utzten Armen [F¨ ursorge-
F¨ unf Engl¨ ander und der neue Kontinent
151
unterst¨ utzung (outdoor ) plus anstaltsinterne Unterst¨ utzung (indoor )] wurde ahrend der relative Anteil als Maß f¨ ur den Pauperismus 22 angenommen, w¨ der beiden Formen [Verh¨altnis anstaltsinterne Unterst¨ utzung/F¨ ursorgeun” terst¨ utzung“] als Indikator f¨ ur die Laxheit oder die Entschlossenheit der ¨ ortlichen F¨ ursorgeverb¨ande galt. Yule berechnete zuerst die Korrelation zwischen diesen beiden Variablen und danach die Regression der ersten Variablen in Bezug auf die zweite. Die positive Korrelation (0,388 mit einem wahrscheinlichen Fehler von 0,022) f¨ uhrte ihn zur Schlußfolgerung, daß der Pauperismus abnimmt, wenn die Wohnbeihilfe nicht so leicht gew¨ ahrt wird. Danach machte er sein Modell komplizierter, indem er (zwischen 1871 und 1891) variationsbezogen argumentierte und weitere explikative“ Variable einbezog: den ” Anteil der Alten und die Durchschnittsl¨ohne – entsprechend den Angaben der F¨ ursorgeverb¨ ande (Yule, 1899 [291] und 1909 [292]). Zwischen 1895 und 1899 ver¨offentlichte er f¨ unf Artikel zu dieser Thematik. Beim Lesen dieser Arbeiten hat man den Eindruck, daß sein Anliegen zun¨ achst darin bestand, die Bedeutung der neuen Werkzeuge nachzuweisen und ihnen gleichzeitig seinen eigenen Stempel aufzupr¨ agen. Vor allem kommt das in seinem 1897 erschienen Artikel zum Ausdruck, in dem er – erstmalig außerhalb des Kontextes der Fehlerrechnung – die Approximation nach der Methode der kleinsten Quadrate anwendete: er definierte die Regressionsgerade als diejenige Gerade, welche die Summe der Quadrate der Beobachtungsabweichungen von der approximierten Geraden minimierte, was zuvor weder Galton noch Pearson getan hatten. Gleichzeitig stellte er auch die Regression in Bezug auf mehrere Variable vor, denn zur Analyse der Schwankungen des Pauperismus verwendete er als explikative Variable nicht nur die Schwankung der Wohnbeihilfe, sondern auch die Schwankung in Bezug auf die Bev¨ olkerung und den relativen Anteil der Alten (Yule, 1897, [290]). Die Koeffizienten dieser multiplen Regression wurden von Yule als partielle Regression“ bezeichnet ” und er f¨ uhrte auch partielle“ und multiple“ Korrelationen ein. In der Re” ” trospektive waren wohl die Anwendung der Methode der kleinsten Quadrate und die Formulierung der multiplen Regression die bemerkenswertesten Beitr¨ age dieses Artikels. Dennoch gibt der Titel der Arbeit (On the Theory of Correlation) keinerlei Hinweis auf diese beiden Punkte (wir erinnern daran, daß der Artikel von Pearson, in dem er 1896 den Begriff des Korrelationskoeffizienten formulierte, den Titel Regression, Heredity and Panmixia trug. Ein erstaunlicher Platzwechsel ...). Dagegen hatte Yule das Gef¨ uhl, daß sein (im Vergleich zu Pearson impliziter) Originalbeitrag der Beweis dessen war, daß es m¨ oglich ist, sich von den Normalverteilungshypothesen zu l¨ osen und eine Punktwolke mit Hilfe einer linearen Regression zu approximieren. Diese Hypothesen hingen – von Quetelet u ¨ber Galton bis hin zu Pearson – eng mit ¨ den Vermessungen des menschlichen K¨orpers zusammen. Die Ubersetzung der dabei verwendeten Werkzeuge war die Voraussetzung daf¨ ur, daß sie sich auf 22
Der Pauperismus ist ein Begriff zur Bezeichnung der Massenarmut in der ersten H¨ alfte des 19. Jahrhunderts.
152
4 Korrelation und Ursachenrealismus
¨okonomische und soziale Daten anwenden ließen, die nur selten normalverteilt sind. Hier lag der Keim des sp¨ateren Konflikts zwischen Yule und Pearson: es ging genau um die zugrundeliegenden Normalverteilungshypothesen und allgemeiner um die Beschaffenheit und die Tragweite der neuen, von Yule und Pearson konstruierten Realit¨aten.
Kontroversen u ¨ber den Realismus der Modelle Im Dezember 1890 wurde Pearson damit beauftragt, an der Universit¨ at London eine Geometrievorlesung zu halten. Er las u ater den Inhalt ¨ber das, was sp¨ seiner Grammatik der Wissenschaft bilden sollte. Die Statistik trat dort le¨ diglich in einem Uberblick u ¨ber die verschiedenen Typen von grafischen und geometrischen Darstellungen auf. Er erw¨ahnte Galton nicht, dessen Werk Natural Inheritance er aber 1889 gelesen hatte und zu dem er sich im Men’s and Women’s Club skeptisch ¨außerte. In diesem Club hatte er (im Jahre 1889) die Frage nach dem Realismus der Anwendung mathematischer Formulierungen in den deskriptiven Wissenschaften“ aufgeworfen: ” Ich denke, daß es sehr gef¨ahrlich ist, die Methoden der exakten Wissenschaften auf die Probleme der deskriptiven Wissenschaften anzu¨ wenden – seien es Probleme der Vererbung oder der politischen Okonomie. Der Zauber und die logische Pr¨azision der Mathematik k¨ onnen einen beschreibenden Wissenschaftler derart faszinieren, daß er nach ¨ soziologischen Hypothesen sucht, die zu seinen mathematischen Uberlegungen passen – ohne sich vorher zu vergewissern, ob die Basis seiner Hypothesen ebenso umfassend ist wie das menschliche Leben, auf das die Theorie angewendet werden soll. (Pearson, 11. M¨ arz 1889, Stellungnahme im Men’s and Women’s Club, zitiert von Stigler.) Beim Lesen dieses Textes versteht man besser, welche Arbeit Pearson sp¨ ater noch bevorstand, um seine Wissenschaftsphilosophie mit seinen mathematischen Konstruktionen zu verbinden – eine Arbeit, die ihn zum Begriff der Kontingenz und zur Ablehnung der Kausalit¨ at f¨ uhrte. Er begann seine Laufbahn 1892 mit einer Attacke auf die von Weldon durchgef¨ uhrten Vermessungen von Krabben und Garnelen. Ausgehend vom Standpunkt Quetelets und Galtons untersuchte er die Verteilungen und insbesondere, ob es sich um Normalverteilungen handelte. Er beobachtete dabei starke Asymmetrien und st¨ urzte sich auf die mathematische Zerlegung dieser schiefen“ Kurven in ” zwei oder mehr Normalverteilungen. Pearsons Problem a ¨hnelte dem Problem, das Adolphe Bertillon mit der zweigipfligen Verteilung der K¨ orpergr¨ oßen der Rekruten von Doubs hatte. Jedoch suchte Pearson nach einer – notwendigerweise sehr komplizierten – mathematischen Darstellung, die eine bestm¨ ogliche Anpassung an die Beobachtungen liefert (exakt in Bezug auf eine derartige M¨ oglichkeit hatte er sich drei Jahre zuvor mißtrauisch ge¨ außert). Hierzu berechnete er – zur Parametersch¨atzung dieser komplizierten Verteilungen, in
Kontroversen u ¨ber den Realismus der Modelle
153
denen mehrere Normalverteilungen miteinander verschmolzen waren – die sogenannten Momente aufeinanderfolgender Ordnungen (bis zur Ordnung vier oder f¨ unf) der beobachteten Verteilungen u ¨ber den Mittelwert (Moment der Ordnung eins) und u ¨ber die Varianz (Moment der Ordnung zwei) hinaus. Diese Momentmethode“ zum Auffinden von Anpassungen an schiefe Ver” teilungen war seine erste große Arbeit auf dem Gebiet der mathematischen Statistik. Die Methode wurde in seinem Labor u ¨ber einen Zeitraum von etwa zwanzig Jahren verwendet. Gegen¨ uber dieser Arbeit konnten Einw¨ande von seiten derjenigen wenigen Kollegen nicht ausbleiben, die u ¨berhaupt dazu in der Lage waren, die Arbeit zu lesen: Galton, Weldon und Edgeworth. Sie kritisierten Pearson, ¨ ahnlich wie dieser drei Jahre zuvor Galton in Bezug auf den Realismus seiner Modellbildung kritisiert hatte. Dar¨ uber hinaus warfen sie eine Frage von allgemeiner Tragweite auf: Wie soll man das ber¨ ucksichtigen, was bereits anderweitig bekannt war – beispielsweise zur Elimination m¨oglicher abweichender Beobachtungen? Pearson hatte sich energisch geweigert, so etwas zu tun. Ungeachtet ¨ aller gegenteiligen Außerungen Pearsons schien sich seine anf¨ angliche Methode auf der Linie Quetelets zu befinden, f¨ ur den eine Normalverteilung die Best¨ atigung einer tieferliegenden Homogenit¨at und einer konstanten Ursache war. Pearson schien mit den Zerlegungen seiner schiefen Kurven“ nach meh” reren konstanten Ursachen zu suchen, die durch diese Zerlegungen best¨ atigt w¨ urden. Galton stellte jedoch im Verlauf der Diskussion die Frage, was man mit denjenigen wenigen Dingen tun solle, die bereits bekannt waren: Das H¨ aufigkeitsgesetz beruht auf der Hypothese einer totalen Unkenntnis der Ursachen; aber nur selten sind wir g¨ anzlich unwissend, und dort, wo wir etwas wissen, sollte das nat¨ urlich ber¨ ucksichtigt werden. Ihre graphischen Darstellungen sind interessant, aber haben Sie auch den Ursprung Ihrer Formeln und die Rechtfertigung f¨ ur deren Anwendung gefunden, oder handelt es sich bei diesen Formeln um einfache approximative Koinzidenzen? Die gesch¨ atzten Mittelwerte f¨ ur die Farben m¨ ussen anderen physiologischen Prozessen entsprechen, ¨ aber welchen? Was ist das gemeinsame Merkmal ihrer Ursache? Uberall dort, wo die Normalverteilung nicht angewendet werden kann, ist es sehr wahrscheinlich, daß große und dominante Ursachen irgendwelcher Art ins Spiel kommen m¨ ussen. Jede dieser Ursachen ist zu isolieren und gesondert zu diskutieren; dar¨ uber hinaus muß das auf die jeweilige Ursache zutreffende H¨aufigkeitsgesetz bewiesen werden. (17. Juni 1894). (Galton, zitiert von Stigler.) Zwar war Weldon ziemlich stark in das Unternehmen eingebunden. Aber die Flut der Formeln erschreckte ihn und er hatte das Gef¨ uhl, daß ihm sein Wissen als Biologe entzogen wird. Er fragte sich, ob er Pearson vertrauen ¨ k¨onne, dessen nichtmathematische Uberlegungen ihm wenig streng zu sein schienen. Er schrieb an Galton:
154
4 Korrelation und Ursachenrealismus
Wenn Pearson aus seiner Wolke von mathematischen Symbolen auftaucht, dann scheint mir seine Argumentation auf wackligen F¨ ußen zu stehen und er macht sich wohl kaum die M¨ uhe, seine eigenen Daten zu verstehen ... Ich vertraue nicht einmal darauf, daß er ein klarer Denker ist, wenn er ohne Symbole schreibt. Kann ich ihm denn dann implizit dieses Vertrauen schenken, wenn er sich hinter einer Tabelle der Gammafunktionen verbirgt? (11. Februar 1895). Je mehr ich u ¨ber die Pearsonsche Theorie der asymmetrischen Schwankungen nachdenke, desto weniger Gewißheit habe ich, daß es sich dabei um reale Dinge handelt (3. M¨arz 1895). Ich f¨ urchte mich sehr vor reinen Mathematikern, die keine experimentelle Ausbildung hatten. Schauen Sie sich Pearson an. Er spricht von der Kurve der Frontalbreiten“, als ob es sich um eine unsch¨ one Ap” proximation der Normalverteilung handle. Ich sage ihm, daß ich einige signifikanten Ursachen kenne (Verwerfung und Regeneration), mit denen sich anormale Beobachtungen erkl¨aren lassen. Ich lege ihm den Gedanken nahe, daß diese Beobachtungen – aufgrund der Existenz der besagten Ausnahmeursachen – nicht den gleichen Wert haben wie die Masse der u ¨brigen Beobachtungen und daß sie deswegen ausgeklammert werden m¨ ussen. Er antwortet, daß die H¨ aufigkeitskurve, welche die Beobachtungen darstellt, als rein geometrische Kurve aufzufassen ist, deren s¨ amtliche Eigenschaften von gleicher Wichtigkeit sind. F¨ ur ihn verh¨ alt es sich so: weisen die beiden Enden“ der Verteilung bei ” nur einem Dutzend Beobachtungen eine Besonderheit in Bezug auf ihre Eigenschaften auf, dann ist diese Besonderheit genauso wichtig, wie jede andere Eigenschaft der Figur ... Aus diesem Grund hat er eine seiner schiefen Kurven an meine Frontalbreiten“ angepaßt. Die” se Kurve paßt sich an ein Dutzend extremer Beobachtungen besser an, als es die Normalkurve tun w¨ urde; aber f¨ ur den Rest der Kurve, der 90% der Beobachtungen ausmacht, ist die Anpassung schlechter. Dinge dieser Art passieren andauernd bei Pearson und bei beliebigen anderen reinen Mathematikern (6. M¨arz 1895.) (Weldon, Briefe an Galton.) Diese Briefe, die Stigler in den Galton-Archiven ausgegraben hatte, sind aufschlußreich: wir sehen hier, wie Weldon – dessen Rolle als Vermittler zwischen Galton und Pearson f¨ ur die Folgezeit wesentlich war – seine Besorgnis u ber die Starrheit und das Selbstvertrauen eines Mathematikers zum Aus¨ druck bringt, den er in den Schafstall der Biologen gef¨ uhrt hatte: Aber was ” weiß er denn schon von meinen Daten?“ Dennoch reichten diese Bef¨ urchtungen nicht aus, um die Zusammenarbeit der beiden zu unterbrechen, die bis zum Tode von Weldon im Jahre 1906 eng blieb. Mit Edgeworth verhielt sich die Sache anders, denn sein Alter, Charakter und seine Hauptinteressen hielten ihn in gr¨oßerer Distanz zu Pearson und zu dessen mit Reklametrommeln gef¨ uhrten Unternehmen. Tats¨ achlich waren
Kontroversen u ¨ber den Realismus der Modelle
155
die beiden zwischen 1893 und 1895 Konkurrenten, als sie die schiefen Kurven untersuchten, die sich auf der Grundlage der Weldonschen Daten ergaben. Edgeworth schrieb 1894 einen Artikel u ¨ber das Thema, aber die Publikation der Arbeit wurde abgelehnt und er hatte den Verdacht, daß Pearson dabei seine Hand im Spiel hatte – daf¨ ur gibt es jedoch keine Beweise (Stigler, 1978, [266]). Im Grunde genommen polemisierten beide u ¨ber die Bedeutung der Normalverteilungen, die Pearson f¨ ur denjenigen Sachverhalt hielt, der hinter den schiefen Kurven stand. F¨ ur Edgeworth war jedoch der Zusammenhang zwischen Normalverteilungen und schiefen Kurven zu zerbrechlich, um als Argument zu dienen. Die Kurven waren nichts anderes, als empirische Adhoc-Konstruktionen. Sie konnten nicht dazu verwendet werden, um auf eine Homogenit¨ at zu schließen. Paßten die Kurven gut zu den Daten, dann be” steht die Frage darin, welches Gewicht jemand dieser Korrespondenz geben sollte, der keinen theoretischen Grund f¨ ur diese Formeln sah.“ Hingegen war es notwendig, Homogenit¨ atshypothesen aufzustellen, die auf Kenntnissen aus anderen Quellen beruhten. Folglich schrieb Edgeworth seinem Konkurrenten eine Art antiquierten Queteletismus“ zu. ” Aber Pearson, der m¨oglicherweise sensibel auf diese Kritik reagierte, war damit befaßt, seine antirealistische Erkenntnisphilosophie Schritt f¨ ur Schritt in die Interpretation der Statistik einzuarbeiten. Das gab ihm die M¨ oglichkeit, sich auf elegante Weise den von Weldon und Edgeworth aufgeworfenen Fragen zu entziehen. Wenn es keine ¨außere Ursache“ f¨ ur statistische Konstruktionen ” gibt, und wenn die mathematischen Formeln lediglich mentale Stenographien sind, dann wird alles m¨oglich. Insbesondere wurde die Frage des Zusammenhangs zu anderen Wissensgebieten (die Weldonschen Verwerfungen und Re” generationen“) nicht mehr in dem Maße als restriktiv empfunden. Pearson war gewiß weniger dogmatisch, und sei es nur, um Verbindungen zu Universen herzustellen und zu pflegen, die vom seinigen verschieden waren – aber seine Argumentationsweise gew¨ahrte ihm eine fast unangreifbare R¨ uckzugsposition im Falle von Einw¨anden gegen den Realismus seiner Objekte. Auf die Kritik von Edgeworth, daß er – Pearson – aus einer guten Anpassung auf das Vorhandensein einer Normalverteilung und die Existenz einer einfachen erkl¨ arenden Ursache geschlossen h¨atte, antwortete er: Es geht nicht darum, zu ” wissen, ob es sich dabei wirklich um die Bestandteile handelt, sondern darum, ob ihre Gesamtwirkung so einfach beschrieben werden kann.“ Die Bedeutung dieser Formulierung besteht darin, daß sie es erm¨ oglicht, in Abh¨ angigkeit von den Gespr¨achspartnern und den Situationen fast unbewußt von einem Register zum anderen zu gleiten. In gewissen F¨ allen existieren die Dinge, weil andere Personen diese Dinge ben¨otigen und weil die Betreffenden mit Dingen beliefert werden m¨ochten, die wirklich da sind und einen Zusammenhalt aufweisen. In anderen F¨allen – zum Beispiel in Reaktion auf Kritiken am hypothetischen und konstruierten Charakter der Dinge – kann man die betreffenden Dinge als mentale Stenographien oder praktische Konventionen bezeichnen. Diese st¨andige Verlagerung ist weder ein Betrug noch hat sie mit Verschlagenheit zu tun. Beide Haltungen sind f¨ ur das soziale Leben gleicher-
156
4 Korrelation und Ursachenrealismus
maßen koh¨ arent und notwendig. Man muß sich dieser Tatsache nur bewußt sein und darf sich nicht auf eine der Haltungen zur¨ uckziehen und diese als einzig richtige Erkenntnisphilosophie ausgeben. Jede dieser Haltungen ist von der jeweiligen Situation abh¨angig. Zu gewissen Zeiten ist es besser, Realist zu sein. Zu anderen Zeiten wiederum kann uns ein Schuß Nominalismus bei der Wiederentdeckung von Dingen helfen, die seit langem in umfassenderen Dingen eingekapselt“ sind, welche ihrerseits den gesamten Schauplatz ein” nehmen. Um die Jahrhundertwende entstand aus der Allianz von Biologen und Mathematikern eine ausgepr¨agt mathematisch zugeschnittene Statistik, die zur Biometrie f¨ uhrte. Sp¨ater folgten weitere Allianzen. Yule hatte bereits damit ¨ begonnen, den Regressions- und den Korrelationskalk¨ ul auf die Okonomie zu u ater ¨bertragen – dort schufen Irving Fisher und Ragnar Frisch dreißig Jahre sp¨ ¨ die Okonometrie. Spearman, ein Psychologe, vereinheitlichte die Ergebnisse und die Interpretationen von Intelligenztests mit Hilfe der Faktorenanalyse, einer statistischen Technik, die sich aus den Techniken der Biometrielabors ableitete. Auf diese Weise entwickelte er die Psychometrie. In beiden F¨ allen sollten die erschaffenen und verwendeten Objekte in der Folgezeit wieder infrage gestellt werden – die Yuleschen Objekte wurden von Pearson selbst, die Spearmanschen Objekte von Thurstone und in der Folgezeit von vielen anderen infrage gestellt.
Yule und der Realismus der administrativen Kategorien Yule erfand schon bei seiner ersten Anwendung der neuen Werkzeuge im Jahre 1895 eine Sprache, um die damals brennenden Fragen zu behandeln, bei denen es um Armut und F¨ ursorge ging. Er verglich die relativen Gewichte der verschiedenen m¨oglichen Ursachen der Schwankungen des Pauperismus, um denjenigen Personen Anhaltspunkte zu liefern, die an einer Reform der aus dem Jahre 1834 stammenden F¨ ursorgegesetzgebung (poor laws) arbeiteten. Er ¨ legte ein elaboriertes Beispiel der Ubersetzung eines politischen Problems und dessen Bearbeitung mit Hilfe eines Meßinstruments vor, das es erm¨ oglichte, eine Kontroverse zu schlichten. Die angeschnittene Frage hatte den englischen Gesetzgebern seit drei Jahrhunderten keine Ruhe gelassen: Wie kann man die Armen auf o utzen, daß die von ihnen aus¨konomisch rationelle Weise so unterst¨ gehende soziale Gefahr gebannt wird? In der Geschichte Englands kann man verschiedene F¨ ursorgegesetzgebungen hervorheben. Ein solches Gesetz wurde 1601 verabschiedet, eine weitere Verfahrensweise war die Speenhamland Act of Parliament 23 und schließlich ist das Gesetz von 1834 zu nennen, das die 23
Im Jahre 1775 kam eine Gruppe von Friedensrichtern, also M¨ anner der Herrenklasse, in Speenhamland (Berkshire) zusammen und beschloß, die Differenz zwischen den f¨ urs erste gleichbleibenden L¨ ohnen und den erh¨ ohten Brotpreisen aus der Armenkasse auszugleichen. Damit w¨ alzten sie ihre eigenen Lasten auf die
Yule und der Realismus der administrativen Kategorien
157
Gr¨ undung von Arbeitsh¨ausern (workhouses) beschloß und zwischen anstaltsinterner Unterst¨ utzung (indoor relief ) und F¨ ursorgeunterst¨ utzung (outdoor relief ) unterschied. Die Debatten u undelten im gesamten ¨ber dieses Gesetz b¨ ¨ ¨ 19. Jahrhundert die Uberlegungen der Philosophen, Statistiker und Okonomen (Polanyi, 1983, [234]). In den 1880er Jahren f¨ uhrte Charles Booth Untersuchungen mit dem Ziel durch, die Armen zu klassifizieren und zu z¨ ahlen. Galton verwendete diese Untersuchungen, um seine Eignungsskala aufzustellen. Aber die einzigen regelm¨aßigen Informationen u ¨ber die Entwicklung des Pauperismus kamen von den Verwaltungsstatistiken der F¨ ursorgeverb¨ ande, die zwischen den F¨ ursorgeunterst¨ utzungen und den anstaltsinternen Unterst¨ utzungen unterschieden. In den damaligen Diskussionen wurde der Pau” perismus“ als ein meßbares Ding betrachtet. Diese meßbare Gr¨ oße war die Anzahl derjenigen Personen, die in Anwendung der F¨ ursorgegesetzgebung eine Unterst¨ utzung erhielten – ebenso wie man heute die Arbeitslosigkeit durch die Anzahl derjenigen Personen mißt, die bei den Arbeits¨ amtern gemeldet sind. Das betreffende Objekt existiert dank seiner sozialen Kodierung durch die Vergegenst¨ andlichung der Ergebnisse eines administrativen Verfahrens, dessen Modalit¨ aten Schwankungen unterworfen sind. Die Verlagerung vom Verfahren auf das Ding ist es nun, was die Interpretation der Yuleschen Schlußfolgerung so schwierig macht. Die Schlußfolgerung, die sich auf Korrelationen von Messungen im Rahmen ein und desselben Verfahrens bezieht, l¨ aßt sich entweder als arithmetische Tatsache interpretieren oder aber als Information u ¨ber die Auswirkungen der Sozialpolitik. Yule untersuchte f¨ ur den Zeitraum von 1850 bis 1890 drei statistische Reihen. Die erste Reihe enthielt die Gesamtzahl der unterst¨ utzten Personen; die zweite Reihe umfaßte die Anzahlen derjenigen Personen, die eine F¨ ursorgeunterst¨ utzung (outdoor relief ) erhielten, und die dritte Reihe bestand aus den Anzahlen der Personen, die eine anstaltsinterne Unterst¨ utzung (indoor relief ) erhielten. Die ersten beiden Reihen korrelierten stark – insbesondere zeigte sich zwischen 1871 und 1881 ein deutlicher R¨ uckgang, w¨ ahrend die dritte Reihe (workhouse) mit den ersten beiden kaum einen Zusammenhang aufwies. Die gleiche Korrelation wurde f¨ ur das Jahr 1891 bei den 580 lokalen F¨ ursorgeverb¨ anden der Grafschaften festgestellt. Wichtig war die Tatsache, daß die Politik der F¨ ursorgeunterst¨ utzung – insbesondere zwischen 1871 und 1881 – sehr viel restriktiver geworden war und daß der Pauperismus“ zur¨ uckging, ” denn die durch das Arbeitshaus (workhouse) gew¨ ahrte Unterst¨ utzung war viel weniger variabel. Das sieht a priori so aus, wie eine arithmetische SelbstSchultern der Steuertr¨ ager, also auch der kleinen Landbesitzer, die keine Lohnarbeiter besch¨ aftigten. Das Verfahren von Speenhamland machte bald Schule und verbreitete sich u udenglischen Grafschaften bis weit nach Mitteleng¨ber alle s¨ land hinein, so daß man bald von einer Speenhamland Act of Parliament sprach, ohne daß jemals ein solches Gesetz zustandegekommen w¨ are. Die Gesetzgebung best¨ atigte das Vorgehen der Friedensrichter nur, indem eine Akte von 1796 ausdr¨ ucklich erlaubte, auch solchen Armen Unterst¨ utzung zu reichen, die nicht im Armenhaus wohnten.
158
4 Korrelation und Ursachenrealismus
verst¨ andlichkeit. Aber die von Yule aufgeworfene Frage war weitaus komplexer: Welcher Anteil des R¨ uckgangs des Pauperismus ist auf administrative ¨ Anderungen der F¨ ursorgeverwaltung zur¨ uckzuf¨ uhren, und welcher Anteil auf ¨ andere Ursachen, zum Beispiel auf Anderungen der Gesamtbev¨ olkerungszahl oder der Altersstruktur? Er berechnete die multiple lineare Regression der ¨ Anderung der Pauperismusquote (in jeder Grafschaft) im Vergleich zu den ¨ Anderungen der drei als explikativ“ vorausgesetzten Variablen: F¨ ursorgeun” terst¨ utzung, Gesamtbev¨olkerungszahl der Grafschaft und Anteil der Alten in den betreffenden Grafschaften. Er schloß die erste jemals durchgef¨ uhrte ¨ oko” nometrische“ Untersuchung mit folgenden Worten. ¨ Die Anderungen der Pauperismusquote zeigen immer eine markan¨ te Korrelation zu den Anderungen der F¨ ursorgeunterst¨ utzung, wohingegen die Korrelation zur Bev¨olkerungs¨ anderung oder zum An¨ teil der Alten ziemlich gering ist. Die Anderungen der F¨ ursorge¨ unterst¨ utzung korrelieren u der ¨berhaupt nicht mit den Anderungen ¨ Bev¨ olkerungszahl und den Anderungen des Anteils der Alten. Es erscheint unm¨oglich, den u ¨berwiegenden Anteil der Korrelation zwi¨ ¨ schen den Anderungen des Pauperismus und den Anderungen der F¨ ursorgeunterst¨ utzung einer anderen Ursache zuzuschreiben, als dem ¨ ¨ direkten Einfluß der Anderung der Politik auf die Anderung der Pau¨ perismus – wobei die Anderung der Politik nicht auf externe Ursachen wie Bev¨ olkerungswachstum oder ¨okonomische Ver¨ anderungen zur¨ uckzuf¨ uhren ist. Setzt man eine derartige direkte Beziehung voraus, dann hat es den Anschein, daß etwa f¨ unf Achtel des R¨ uckgangs des Pauperismus zwi¨ schen 1871 und 1881 auf eine Anderung der Politik zur¨ uckzuf¨ uhren ist. Der leichtere R¨ uckgang, der zwischen 1881 und 1891 beobachtet wurde, l¨ aßt sich nicht auf diese Weise erkl¨ aren, denn die Politik hatte sich in dieser Zeit kaum ge¨andert. In beiden Jahrzehnten gab es signifi¨ ¨ kante Anderungen des Pauperismus, die sich nicht durch Anderungen der F¨ ursorgeunterst¨ utzung, der Bev¨olkerungszahl oder des Anteils der ¨ Alten erkl¨ aren lassen. Bei diesen nicht erkl¨ arten Anderungen handelt es sich um R¨ uckg¨ange bei den l¨andlicheren Gruppen und um Zunahmen bei den st¨adtischen Gruppen in diesen beiden Jahrzehnten. Diese ¨ Anderungen haben das gleiche Vorzeichen und die gleiche Gr¨ oßenord¨ nung wie die Anderungen bei der anstaltsinternen Unterst¨ utzung und sind wahrscheinlich auf soziale, wirtschaftliche oder moralische Faktoren zur¨ uckzuf¨ uhren. (Yule, 1899, [291]). Weder in der Darstellung von Yule noch in den sich anschließenden Kommentaren wurde die Bedeutung des Objekts Pauperismus“, das durch die ” Anzahl der unterst¨ utzten Personen definiert war, explizit diskutiert. Nun f¨ uhrte aber der von Yule vorgelegte Beweis exakt zu einer Infragestellung dieser Bedeutung, denn die erkl¨arende Hauptvariable, das heißt der R¨ uckgang der
Yule und der Realismus der administrativen Kategorien
159
F¨ ursorgeunterst¨ utzung, wurde als Politik¨anderung bezeichnet. Yule pr¨ azisierte sogar, daß die f¨ unf Achtel des R¨ uckgangs des Pauperismus hierauf – das ¨ heißt auf Anderungen in der Politik – zur¨ uckzuf¨ uhren waren, w¨ ahrend der Rest mit Ursachen zusammenhing, die der Gesellschaft zuzuordnen waren, und nicht der Art und Weise der Registrierung. Alles spielte sich so ab, als ob jeder verstanden h¨atte, daß diese Untersuchung folgendes bedeutete: Die Schwankungen des auf diese Weise gemessenen Pauperismus spiegeln lediglich einen Teil der Schwankungen einer m¨oglichen realen Armut“ wider, die ” jedoch von niemandem explizit erw¨ahnt wurde. War das selbstverst¨ andlich? War es u ussig, u ¨berfl¨ ¨ber etwas zu sprechen, das jeder verstanden hatte? Am ¨ Ende der Versammlung der Royal Statistical Society ergriffen zwei Okonomen das Wort: Robert Giffen und Francis Edgeworth. F¨ ur Giffen waren die Ergebnisse von Yule ... eine Best¨atigung daf¨ ur, daß die administrativen Maßnahmen der f¨ ur die F¨ ursorgegesetzgebung zust¨andigen ¨ ortlichen Beh¨ orden einiges dazu beigetragen hatten, den Pauperismus in den vergangenen dreissig Jahren zu senken ... Die Spezialisten dieser Administration hatten bereits bemerkt, daß man unmittelbar nach Versch¨ arfung der Voraussetzungen f¨ ur den Erhalt einer F¨ ursorgeunterst¨ utzung einen R¨ uckgang des Pauperismus feststellen konnte. (Giffen, zitiert von Yule, 1899, [291].) Edgeworth bemerkte, daß manche Leute glaubten, aus einer in Irland beobachteten starken Zunahme des Pauperismus die Schlußfolgerung ziehen zu k¨ onnen, daß dieses Land auch einen entsprechenden R¨ uckgang seines wirtschaftlichen Wohls erfahren hat. H¨atten sie aber die Arbeit von Yule gelesen, ¨ dann h¨ atten sie sich auch gefragt, ob denn nicht administrative Anderungen ” einen Großteil dieser Zunahme des Pauperismus erkl¨ aren k¨ onnten“. (Edgeworth machte sich auch Gedanken dar¨ uber, ob es sich bei den Verteilungen der verschiedenen Quoten, die bei den Berechnungen verwendet wurden, um Normalverteilungen handelte.) Yule, Giffen und Edgeworth hatten also verstanden, daß die Schwankungen des Pauperismus etwas mit der Art und Weise zu tun hatten, in der dieser registriert und verwaltet wurde. Keiner der drei ging jedoch so weit, die tats¨ achliche Verwendung des Wortes Pauperismus zur Bezeichnung dieser administrativen Aufzeichnung infrage zu stellen. So k¨ onnte der erste Satz von Giffen folgendermaßen gelesen werden: Die Maßnahme der Administra” tion hat mit Erfolg dazu gef¨ uhrt, die Armut zu verringern“, aber schon im n¨achsten Satz traten Zweifel auf. Nat¨ urlich ist es eine klassische Beobachtung, die Vergegenst¨andlichung eines Kodierungsverfahrens festzustellen, das – unabh¨ angig von diesem Anfangsmoment – zur Schaffung eines an sich existierenden Dings f¨ uhrt: Beispiele hierf¨ ur sind die Kriminalit¨ at und die Arbeitslosigkeit. Die Schwankungen dieser Dinge“ sind dann mehrdeutig. Die ” h¨aufigste Interpretation besteht darin, die Schwankungen als Widerspiegelung der sozialen Ph¨ anomene zu deuten. Aber die Schwankungen lassen sich auch
160
4 Korrelation und Ursachenrealismus
¨ als Anderungen im Verhalten der Politik oder der Arbeitsvermittlungsbeh¨ orde auffassen. Die fr¨ uhe ¨okonometrische Untersuchung von Yule ist deswegen wertvoll, weil sie sich exakt auf diesen Punkt bezieht, obgleich sie nicht so weit geht, die entsprechende logische Schlußfolgerung zu ziehen. Diese Schlußfolgerung h¨ atte darin bestanden, die Konstruktion der im Modell tats¨ achlich ¨ verwendeten Aquivalenzklasse, das heißt den Pauperismus, infrage zu stellen. Wie es sich herausstellte, stand diese Frage nach der Bedeutung und Realit¨ at der Klassen im Mittelpunkt einer Polemik, die Pearson in den Jahren zwischen 1900 und 1914 gegen Yule so sehr aufbrachte, daß ihre Beziehungen darunter litten (Mac Kenzie, 1981, [183]). Die Debatte drehte sich um einen scheinbar technischen Punkt: Wie mißt man die St¨ arke der Verbindung oder Korrelation“ zwischen zwei Variablen, wenn diese Variablen nicht auf ” einer stetigen Skala gemessen werden, sondern es sich vielmehr um Klassifizierungen in diskreten Kategorien oder um diskrete Variable handelt. Der einfachste Fall ist das Kreuzen“ von zwei Merkmalen mit zwei Auspr¨ agun” gen, das heißt eine Tabelle mit 2 × 2 = 4 Feldern ( Vierfeldertafel“), zum ” Beispiel die Anzahl der am Ende eines Jahres u ¨berlebenden oder verstorbenen Personen, die gegen Pocken geimpft oder nicht geimpft worden waren. Dieser Fall tritt in den Humanwissenschaften u ¨blicherweise auf, in denen man ¨ Populationen in Kategorien sortiert, die als klarerweise diskrete Aquivalenzklassen behandelt werden: Geschlecht, Familienstand, Nationalit¨ at, T¨ atigkeit oder Unt¨ atigkeit. In seiner vorhergehenden Untersuchung klassifizierte Yule die Personen von dem Standpunkt aus, ob sie Unterst¨ utzung erhielten oder nicht, ob es sich um F¨ ursorgeunterst¨ utzung (outdoor relief ) oder anstaltsinterne Unterst¨ utzung (indoor relief ) handelte und ob die betreffenden Personen in der Stadt oder auf dem Lande lebten. Pearson dagegen arbeitete im Rahmen der Biometrie u ¨ber stetige physikalische oder nichtphysikalische Messungen, die typischerweise normalverteilt waren. Falls die Variablen nicht stetig waren, dann bestand seine Reaktion darin, die beobachteten H¨ aufigkeiten der Kategorien zu verwenden, um diese – unter der Voraussetzung einer Normalverteilung – auf einer stetigen Skala zu kalibrieren. Das hatte Galton bereits in den 1880er Jahren getan, als er die Kategorien von Charles Booth verwendete. Dar¨ uber hinaus war die Korrelationstheorie auf der Grundlage der zweidimensionalen Normalverteilung entwickelt worden, wobei die Regressionskoeffizienten und die Korrelationskoeffizienten als deren Parameter auftraten. Hieraus leiteten sich die verschiedenen Messungen der Korrelation einer Tafel ab, in der sich diskrete Variable kreuzen – vor allem ging es um Vierfeldertafeln. Yule hatte keinen Grund zu der Annahme, daß seine Kategorien latente stetige und normalverteilte Variable widerspiegelten. Er schlug einen leicht zu berechnenden Indikator vor. Enth¨alt die Tafel in der ersten Zeile die beiden Zahlen a und b und in der zweiten Zeile die Zahlen c und d, dann wird die St¨ arke des Zusammenhangs durch Q = (ad−bc)/(ad+bc) gemessen. Dieser Ausdruck besaß mehrere Eigenschaften, die man von einem Zusammenhangskoeffizienten erwarten konnte: den Wert +1 f¨ ur den Fall einer vollst¨ andigen positiven Abh¨ angigkeit, den Wert 0 f¨ ur die Unabh¨ angigkeit und den Wert −1
Yule und der Realismus der administrativen Kategorien
161
f¨ ur den Fall einer vollst¨andigen negativen Abh¨angigkeit. (Dennoch hat der Indikator den Nachteil, daß er den Wert +1 bzw. −1 annimmt, wenn nur eines der vier Felder gleich Null ist, was schwerlich als vollst¨ andige Abh¨ angigkeit betrachtet werden kann.) Pearson dagegen empfand nur Verachtung f¨ ur diesen ¨ Ausdruck, der willk¨ urlich war und sich durch nichts begr¨ unden ließ. Im Ubriurde dann gen k¨ onne der Ausdruck durch Q3 oder Q5 ersetzt werden und w¨ die gleichen erforderlichen Eigenschaften besitzen. Um den Zusammenhang auf eine ihm eindeutig erscheinende Weise zu messen, konstruierte er eine zweidimensionale Normalverteilung, deren Randverteilungen sich an die beiden beobachteten Randverteilungen anpaßten. Er bewies, daß es genau eine derartige Verteilung gibt und daß einer der dabei auftretenden Parameter die gew¨ unschte Korrelation liefert; Pearson verwendete hierf¨ ur die Bezeichnung tetrachorischer Korrelationskoeffizient“. ” Dieser Streit sorgte unter den Mitarbeitern des Biometrielabors f¨ ur Unruhe und sie lieferten sich bissige Artikel, die im Journal of the Royal Statistical Society (eher das Lager von Yule) und in der von Pearson gegr¨ undeten Zeitschrift Biometrika ver¨offentlicht wurden. Die Auseinandersetzung wurde von Mac Kenzie eingehend analysiert, der die unterschiedlichen rhetorischen und sozialen Strategien der betreffenden Autoren erl¨ auterte und nachwies, daß jeder an seiner eigenen Methode festhielt und Schwierigkeiten hatte, die Methoden der anderen zu verstehen. Yule attackierte die nutzlosen und nicht ” verifizierbaren“ Normalverteilungshypothesen. Er griff den Fall der Tafel auf, in der die Wirkungen der Impfungen beschrieben wurden und wies nach, daß ¨ sich in diesem Fall die Aquivalenzkonventionen schwerlich bestreiten lassen: ... alle diejenigen, die an Pocken gestorben sind, sind gleichermaßen tot; keiner ist toter oder weniger tot als der andere und die Toten unterscheiden sich vollkommen von den Lebenden ... In diesen F¨ allen gibt uns der Normalverteilungskoeffizient“ bestenfalls eine hypothe” tische Korrelation zwischen den vorgeblichen Variablen (Yule (1911), zitiert von Mac Kenzie, 1981, [183]). Aber Pearson erwiderte, daß Yule seine Kategorien vergegenst¨ andlicht habe und daß es selten der Fall sei, daß sich die Kategorien so klar voneinander abgrenzen. Pearson klagte Yule des Realismus“ im mittelalterlichen Sinne ” an und ging in seiner Behauptung so weit, daß der Unterschied zwischen Leben und Tod im Grund genommen kontinuierlich verl¨ auft ( Man stirbt nicht ” pl¨ otzlich“ 24 ): Unter Klassenindizes wie Tod“ oder Genesung“ oder Anstellung“ ” ” ” oder Arbeitslosigkeit“ der Mutter sehen wir nur Messungen steti” 24
Der Mensch ist so beschaffen, daß er sich stets f¨ ur das interessiert, was morgen geschehen wird, nicht erst in tausend Jahren. Doch gerade die langsam wirkenden Kr¨ afte pflegen auch die schicksalstr¨ achtigsten zu sein. Die meisten Menschen sterben nicht eines pl¨ otzlichen Todes, sondern weil sie langsam und fast unmerklich gealtert sind.
162
4 Korrelation und Ursachenrealismus
ger Variabler, die selbstverst¨andlich nicht notwendigerweise a priori Gaußsch sind ... Die Kontroverse zwischen uns liegt viel tiefer, als es ein oberfl¨ achlicher Leser auf den ersten Blick vermuten w¨ urde. Es ist die alte Kontroverse zwischen Nominalismus und Realismus. Mr. Yule jongliert mit den Klassenbezeichnungen, als ob sie reale Entit¨ aten darstellen w¨ urden und seine Statistik ist nur eine Form der symbolischen Logik. In keinem Falle haben diese Logiktheorien zu irgendeinem prak¨ tischen Wissen gef¨ uhrt. Es mag sein, daß diese Theorien als Ubungen ein praktisches Interesse f¨ ur Studenten der Logik haben, aber die moderne statistische Praxis wird einen großen Schaden davontragen, falls sich die Methoden von Mr. Yule ausbreiten – Methoden also, die darin bestehen, alle diejenigen Individuen als identisch anzusehen, die unter ein und demselben Klassenindex auftreten. Es kann schon passieren, daß diese Methoden um sich greifen, denn es ist leicht, dem Weg von Mr. Yule zu folgen und die Mehrzahl der Leute versucht, Schwierigkeiten aus dem Weg zu gehen. (Pearson und Heron, 1913, [225].) ¨ Den von Yule aufgestellten Aquivalenzund Diskretheitskonventionen bez¨ uglich der Klassen stellte Pearson die Stetigkeits- und Normalverteilungskonventionen gegen¨ uber: der Realistischere der beiden kann nicht Yule gewesen sein. Pearson klagte Yule an, daß dieser mit Klassenbezeichnungen ” jongliere, als ob sie reale Entit¨aten darstellten“ und daß er diejenigen In” dividuen als identisch behandele, die unter ein und demselben Klassenindex auftreten“. Mit dieser Anklage warf Pearson das Problem auf, das uns hier besch¨ aftigt. Aber Pearson tat das nicht, weil er sich f¨ ur das eigentliche Klassifizierungsverfahren als administrativer Kodierungst¨ atigkeit interessierte. Vielmehr wollte er dieses durch eine andere Klassifizierungsform ersetzen, die ihm nat¨ urlicher erschien: Stetigkeit gem¨aß Normalverteilungen oder wenigstens auf der Grundlage von Verteilungen, die sich durch m¨ oglichst einfache mathema¨ tische Gesetze approximieren lassen. Der Begriff Aquivalenzklasse, die ihre Elemente per Konvention als identisch behandelt, war in der juristischen und administrativen Praxis allgegenw¨artig – und zwar mit der doppelten Absicht, die Verfahren gerecht und ¨okonomisch abzuwickeln. Aber diese Imperative waren f¨ ur einen Biologen nicht ebenso zwingend. Das erkl¨ art, warum sich Yule und Pearson zweier derart verschiedener statistischer Rhetoriken bedienten.
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz Die Diskussion u ¨ber die Realit¨at der von der Statistik geschaffenen Objekte wiederholte sich in fast identischer Weise – gleichsam wie ein Stottern der Geschichte – zwischen 1904 und den 1950er Jahren in Bezug auf die Interpretation der in der Psychometrie durchgef¨ uhrten Faktorenanalysen (Gould, 1983, [112]). Die Tests spielten hier die Rolle der bei Quetelet zuf¨ allig ausgew¨ ahlten
Epilog zur Psychometrie: Spearman und die allgemeine Intelligenz
163
Individuen. Spearman (1863–1945), ein Sch¨ uler von Pearson, zeigte 1904, daß die auf Kinder angewendeten Eignungstests stark korrelierten. Er erfand die Methode der Faktorenanalyse in Hauptkomponenten, indem er in dem durch diese Komponenten gebildeten Vektorraum die orthogonalen Achsen suchte, welche sukzessiv das Maximum der Varianz der Punktwolken erkl¨ arten, die ihrerseits den Ergebnissen f¨ ur jedes einzelne Kind entsprachen. Aus der Tatsache der Korrelation zwischen den Tests folgte, daß die erste dieser Achsen den u ¨berwiegenden Teil der Gesamtvarianz widerspiegelte. Es handelte sich um eine Art Mittelwertbildung der verschiedenen Tests. Spearman bezeichnete diesen Mittelwert als allgemeine Intelligenz oder g-Faktor .25 Spearman promotete und orchestrierte seinen g-Faktor in ¨ ahnlicher Weise, wie es Quetelet mit dem Durchschnittsmenschen gemacht hatte: er bildete ein Objekt, das allgemeiner als die speziellen Tests war und betrachtete die speziellen Tests als kontingente Manifestationen dieses allgemeinen Objekts. Dieses reproduzierbare Ding, das sich auch in anderen Kontexten verwenden ließ, lieferte einen gemeinsamen Meßraum f¨ ur die individuellen F¨ ahigkeiten, deren Existenz Galton postuliert hatte, ohne jemals in der Lage gewesen zu sein, diese F¨ ahigkeiten direkt zu messen. Die Theorie von Spearman wurde von Cyril Burt vervollst¨ andigt und sp¨ ater von Thurstone kritisiert und zerst¨ort. Das geschah in einer Abfolge von Ereignissen, die durch ihre Argumente und deren Wiederauflodern an die Verkettung der Umst¨ande erinnerte, unter denen die Begriffsbildungen Quetelets – der Durchschnittsmensch und die konstanten Ursachen – zun¨ achst von Galton vervollst¨ andigt und transformiert und danach von Lexis und Edgeworth wieder zerst¨ ort wurden. Als u anger des Begriffs der allgemei¨berzeugter Anh¨ nen Intelligenz versuchte Burt einerseits, die durch den g-Faktor nicht erkl¨ arte Varianz zu analysieren und zu interpretieren ( Gibt es sekund¨ are Faktoren, ” die spezifische, von g unabh¨angige F¨ahigkeiten widerspiegeln?“). Andererseits versuchte er zu beweisen, daß diese allgemeine Intelligenz angeboren und erblich ist. Er war f¨ ur die Schulpsychologie der Grafschaft London zust¨ andig. Seine Arbeiten haben dazu gef¨ uhrt, die Einrichtung eines Testsystems f¨ ur elfj¨ ahrige Kinder zu untermauern und zu rechtfertigen. Die Tests liefen wie eine Pr¨ ufung ab, wobei die Kinder entsprechend ihrem Niveau auf der g-Skala jeweils einer von zwei sehr unterschiedlichen Ausbildungsrichtungen zugeordnet wurden. Dieses System wurde unter der Bezeichnung eleven plus bekannt; man verwendete es in England von 1944 bis 1965. Das System beruhte auf einem Umstand, der in der ersten H¨alfte des Jahrhunderts in folgendem Sinne real zu sein schien: erstens teilten viele Menschen die Vorstellung von der Existenz dieses Systems; zweitens ließen sich Messungen durchf¨ uhren und das System konnte – als erkl¨arende Variable oder als zu erkl¨ arende Variable – in 25
Spearman konnte mit der von ihm entwickelten Tetradendifferenzen-Methode zeigen, daß sich in allen Intelligenzleistungen ein gemeinsamer Faktor g (general factor) isolieren l¨ aßt. Eliminiert man diesen Faktor, dann bleiben nach Spearman nur noch spezifische Faktoren u ur jede der einzelnen Leistungen gelten. ¨brig, die f¨
164
4 Korrelation und Ursachenrealismus
umfassendere Konstrukte integriert werden; und drittens schien es konsistent und widerstandsf¨ahig gegen Schl¨age zu sein. Derartige Schl¨age sind dem System auf mehrere Weisen versetzt worden. Zuerst erfand der Amerikaner Thurstone (1887–1955) eine Verfeinerung der Faktorenanalyse.26 Er zerlegte g durch geschickte Rotation der Achsen in sieben voneinander unabh¨angige mentale Prim¨ arf¨ ahigkeiten, wobei er sich auf die Tatsache st¨ utzte, daß sich die Tests in besonders stark korrelierte Untermengen einteilen lassen. Diese Zerlegung von g hatte den Vorteil, daß die Individuen nicht auf einer einzigen Skala angeordnet wurden und das Ganze – im Gegensatz zur rigiden eindimensionalen Hierarchie der englischen Gesellschaft – dem amerikanischen demokratischen Ideal besser zu entsprechen schien. Aber diese differenzierten mentalen F¨ ahigkeiten blieben dennoch et¨ was Angeborenes: wir finden hier ein Aquivalent der mehrgipfligen Kurven von Bertillon oder Pearson und der Zerlegungen dieser Kurven in mehrere Normalverteilungen. Es kam jedoch selten vor, daß Spearman, Burt und Thurstone auf die vorsichtige nominalistische Rhetorik von Pearson zur¨ uckgriffen, die wom¨ oglich ihre Konstrukte sozial weniger u atte. ¨berzeugend gemacht h¨ Die zweite Attacke wurde sp¨ater von den Soziologen geritten. Diese hat¨ ten bemerkt, daß sich die Korrelationen und erblichen Ubertragungen von Neigungen zum Bestehen gewisser Tests ebenso gut auch als Auswirkungen des famili¨ aren und sozialen Milieus, der Umgebung und der Ausbildung der Kinder interpretieren lassen, das heißt man mußte sich nicht mehr auf eine biologische Vererbung berufen. In jedem Fall lassen sich die statistischen Untersuchungen auch aus der Sicht einer Soziologie der Ungleichheiten interpretieren, die sich in den 1950er Jahren entwickelte, das heißt genau zu der Zeit als es zum Niedergang der Psychometrie kam. Jedoch hinterließ die Psychometrie die komplexen Techniken der mehrdimensionalen Faktorenanalyse, die sich auch in anderen Kontexten weiterverwenden ließen. Wie bei Galton und Pearson hatte sich der Kreis geschlossen: die Rhetoriken der Eugenik und der Psychometrie verblaßten, aber die formale Grammatik verselbst¨ andigte sich und fand andere Anwendungen.
26
Es handelt sich um die multiple Faktorenanalyse“, die von der Gleichwertigkeit ” aller Faktoren ausgeht. Die Faktoren werden hier nicht aus den einzelnen Korrelationen sukzessiv nach der Reihenfolge ihrer Allgemeinheit abgehoben, sondern man geht von allen Korrelationen gleichzeitig aus (Korrelationsmatrix) und behandelt sie als geschlossenes System.
5 Statistik und Staat: Frankreich und Großbritannien
Der Begriff der Statistik im ¨altesten Sinne des Wortes geht ins 18. Jahrhundert zur¨ uck und beinhaltet eine Beschreibung des Staates durch ihn und f¨ ur ihn (vgl. Kapitel 1). Zu Anfang des 19. Jahrhunderts kristallisierte sich in Frankreich, England und Preußen um das Wort Statistik“ eine Verwaltungs” praxis heraus und man entwickelte Formalisierungstechniken, bei denen die Zahlen im Mittelpunkt standen. Spezialisierte Bureaus wurden damit beauftragt, Z¨ ahlungen zu organisieren und die von den Verwaltungen gef¨ uhrten Register zu kompilieren, um f¨ ur den Staat und f¨ ur die Gesellschaft Darstellungen zu erarbeiten, die den Handlungsweisen und dem Ineinandergreifen von Staat und Gesellschaft in angemessener Weise entsprachen. Die Formalisierungstechniken bestanden aus Zusammenfassungen, Kodierungen, Totalisierungen, Berechnungen und Konstruktionen von Tabellen und grafischen Darstellungen. Diese Techniken erm¨oglichten es, die durch die Staatspraxis geschaffenen neuen Objekte mit einem einzigen Blick zu u ¨berschauen und miteinander zu vergleichen. Man konnte jedoch keine logische Trennung zwischen Staat, Gesellschaft und den Beschreibungen vornehmen, die von den statistischen Bureaus geliefert wurden. Der Staat setzte sich aus besonderen – mehr oder weniger organisierten und kodifizierten – Formen von Beziehungen zwischen den Individuen zusammen. Diese Formen ließen sich – vor allem mit Hilfe der Statistik – objektivieren. Aus dieser Sicht war der Staat keine abstrakte Entit¨ at, die außerhalb der Gesellschaft stand und in den verschiedenen L¨ andern identisch war. Es handelte sich vielmehr um eine singul¨ are Gesamtheit von sozialen Bindungen, die sich verfestigt hatten und von den Individuen in hinreichender Weise als Dinge behandelt wurden. Und zumindest f¨ ur den Zeitraum, in dem der betreffende Staat existierte, waren diese sozialen Tatbest¨ ande tats¨achlich Dinge. Innerhalb der Grenzen, die durch diese historische Konsolidierung der staatlichen Zusammenh¨ange abgesteckt waren, stellen die statistischen Bureaus und ihre Tabellierungen Quellen f¨ ur den Historiker dar. Aber der Historiker kann auch die Peripetien und Besonderheiten der allm¨ ahlichen Errichtung dieser Bureaus als Momente der Bildung moderner Staaten betrachten, wie sie
166
5 Statistik und Staat:
Frankreich und Großbritannien
im Laufe des 19. Jahrhunderts entstanden sind. In den beiden vorhergehenden Kapiteln hatten wir – vom Standpunkt der wissenschaftlichen Rhetoriken und deren Darlegung – die Konsistenz der von der Statistik produzierten Dinge untersucht und unsere Untersuchung erstreckte sich von Quetelet bis hin zu Pearson. Aber diese Konsistenz hing auch mit der Konsistenz der staatlichen Einrichtungen und deren Solidit¨at zusammen; und sie hing mit dem Umstand zusammen, der die Individuen veranlaßte, diese Institutionen als Dinge zu behandeln, ohne sie st¨andig infrage zu stellen. Diese Solidit¨ at kann ihrerseits das Ergebnis einer Willk¨ urherrschaft oder einer konstruierten Legitimit¨ at sein, wie es in unterschiedlichen Formen in den Rechtsstaaten der Fall war, die gerade im 19. Jahrhundert aufgebaut wurden. Diese Legitimit¨ at war nicht per Dekret vom Himmel gefallen. Vielmehr wurde sie Tag f¨ ur Tag geformt und gewoben, vergessen, bedroht, infrage gestellt und unter erneuten Anstrengungen wiedererrichtet. Innerhalb dieser Legitimit¨at der staatlichen Institutionen nahm die Statistik eine Sonderstellung ein: sie setzte einen allgemeinen Bezugsrahmen, der mit zwei Garantien ausgestattet war – der Garantie des Staates und der Garantie von Wissenschaft und Technik. Das subtile Ineinandergreifen von Staat, Wissenschaft und Technik verlieh der amtlichen Statistik eine besondere Originalit¨at und Glaubw¨ urdigkeit. Sollte in den nachfolgenden Kapiteln der Eindruck entstehen, daß wir Themen anschneiden, die a priori wenig miteinander zusammenh¨ angen, dann hat das folgende Ursache: es hat lange gedauert und war kostenaufwendig, die obengenannten beiden Garantien in der Weise miteinander zu verbinden, die heute nat¨ urlich erscheint. Die Statistik ist heute Bestandteil der wesentlichen Merkmale eines entstehenden oder wiedererstehenden demokratischen Staates – zusammen mit anderen juristischen und politischen Merkmalen. Aber die Statistik h¨ angt auch von den singul¨aren Formen ab, die von der Geschichte der betreffenden Staaten gewoben wurden, und auch von der Beschaffenheit der Verbindungen zwischen den verschiedenen ¨offentlichen Einrichtungen und den anderen Teilen der Gesellschaft: administrative und territoriale Zentralisierung, Status der Beamtenschaft, Beziehungen zu anderen Expertisezentren“ ” – zu denen die Universit¨aten, die Gelehrtengesellschaften und die im 19. Jahrhundert so wichtigen philanthropischen Gesellschaften geh¨ orten – oder private Stiftungen von Unternehmen in einigen L¨andern im 20. Jahrhundert. In den Kapiteln 5 und 6 deuten wir einige dieser spezifischen Verbindungen an, die zwischen den statistischen Bureaus, den staatlichen Strukturen und anderen Stellen f¨ ur soziale Analysen in der Zeit ab 1830 – in der viele dieser Bureaus gegr¨ undet wurden – bis zu den 1940er Jahren bestanden. In den 1940er Jahren ¨anderten sich diese Verbindungen radikal in Bezug auf ihre Beschaffenheit und Gr¨oßenordnung. Das war einerseits auf die Transformation der Rolle der Staaten zur¨ uckzuf¨ uhren, andererseits aber auch auf die nun endlich gelungene Allianz der Wirtschafts- und Sozialstatistik mit der mathematischen Statistik. Bei diesem Vergleich beziehen wir uns auf vier L¨ ander. F¨ ur zwei dieser L¨ander – Frankreich und Großbritannien – war der geeinte Staat etwas altes und legitimes, obwohl er sich in sehr unterschiedlichen
5 Statistik und Staat:
Frankreich und Großbritannien
167
Formen ¨ außerte (Kapitel 5). F¨ ur die beiden anderen L¨ ander – Deutschland und die Vereinigten Staaten – war er im Entstehen begriffen bzw. durchlief ein schnelles Wachstum (Kapitel 6). Die Unterschiede in Bezug auf die Konsistenz der Staaten lassen sich aus der Geschichte der jeweiligen statistischen Systeme ablesen. In s¨ amtlichen F¨allen nennen wir nicht nur die Bedingungen, unter denen die ¨ offentliche Statistik ihre Legitimit¨at konstruierte, sondern auch die ¨offentlichen Debattenr¨aume, in denen sie einen Platz gefunden hat. In Frankreich ist der Staat zentralisiert und so ist es auch seine Statistik – sowohl vom administrativen als auch vom territorialen Standpunkt aus. Im Allgemeinen lag die Sachverst¨andigenkompetenz eher innerhalb der Administration, beim Berufsstand der Ingenieure und bei der Beamtenschaft. Die Universit¨ aten hatten einen geringeren Einfluß als in den anderen drei L¨ andern. Die ¨ offentliche Statistik, deren haupts¨achlicher (aber nicht einziger) Bestandteil die Statistique g´en´erale de la France (SGF) war, organisierte sich rund um die Z¨ ahlungen. Vor allem war die ¨offentliche Statistik auf den Gebieten der Demographie (Geburtenr¨ uckgang) und der Wirtschaft (gewerbliche Strukturen, Arbeit, L¨ ohne, Lebenshaltungskosten) t¨atig, aber infolge des Gewichtes und der Autorit¨ at der Beh¨orde waren diese Fragen weniger als anderswo der Gegenstand großer und ¨offentlicher Debatten zwischen Fachleuten und Aussenstehenden. In Großbritannien waren die Verwaltungen unabh¨ angiger voneinander und die Beh¨ orden der Grafschaften und Gemeinden hatten umfassendere Befugnisse als in Frankreich. Die Statistik war in Großbritannien nie in einer einzigen Institution zentralisiert und die u ¨berregionalen Bureaus mußten mit den ur den Per¨ortlichen Bureaus Kompromisse eingehen, wie es im Falle der f¨ sonenstand und die Umsetzung der F¨ ursorgegesetzgebung zust¨ andigen Bureaus auch geschehen war. Die beiden – gesondert bearbeiteten – Hauptgebiete waren einerseits Außenhandel und Gesch¨aftst¨ atigkeit (verwaltet durch das offentBoard of Trade 1 ) und andererseits Bev¨olkerung, Armut, Hygiene und ¨ liche Gesundheit (verwaltet durch das General Register Office 2 , GRO). Die parlamentarischen Untersuchungskommissionen – die zum Beispiel anl¨ aßlich der schweren sozialen Krisen gegr¨ undet wurden, welche mit der schnellen Industrialisierung und der z¨ ugellosen Verst¨adterung zusammenhingen – waren ¨ Orte intensiver Diskussionen zwischen Wissenschaftlern, Statistikern, Okonomen und f¨ uhrenden Pers¨onlichkeiten der Politik. In Deutschland zeichnete sich dieser Zeitraum zun¨ achst durch die allm¨ ahliche Gestaltung der Reichseinigung aus – mit Preußen als Kern –, die 1871 vollendet wurde. Die nachfolgende Zeit war zwischen 1871 und 1914 durch industrielles Wachstum und schließlich – in der Zeit zwischen den beiden Weltkriegen – durch die Wirtschaftskrise und politische Krisen gekennzeichnet. Die amtliche Statistik, die es in den verschiedenen K¨ onigreichen bereits gab, vereinigte sich nach 1871 und organisierte umfangreiche Untersuchun1 2
Handelsministerium. Hauptstandesamt.
168
5 Statistik und Staat:
Frankreich und Großbritannien
gen und Z¨ ahlungen zum Produktionsapparat. Die an den Universit¨ aten t¨ ati¨ gen Statistiker und Okonomen verfaßten ihrerseits zahlreiche und reichhaltige Monographien deskriptiver und historischer Art, deren Inhalt stark mit Statistik durchsetzt war. Die Arbeiten der deutschen historischen Schule“ wurden ” durch den Verein f¨ ur Socialpolitik angekurbelt und in diesem Verein diskutiert, der zwischen 1872 und 1914 sehr aktiv war und – ziemlich erfolglos – versuchte, die Entscheidungen der kaiserlichen B¨ urokratie zu beeinflussen. Die Vereinigten Staaten schließlich waren eine vor kurzem gegr¨ undete F¨ oderation, deren Bev¨olkerung aufgrund der aufeinanderfolgenden Einwanderungswellen ein rasantes Wachstum zu verzeichnen hatte. Die T¨ atigkeit der ¨offentlichen Statistik gestaltete sich in ihrem Rhythmus auf der Grundlage der durch die Verfassung von 1787 vorgesehenen und alle zehn Jahre stattfindenden Volksz¨ahlungen, die das Ziel hatten, die finanziellen Belastungen und die Sitze im Repr¨asentantenhaus (House of Representatives) zwischen den Staaten anteilm¨aßig und unter Ber¨ ucksichtigung der sich st¨ andig ¨ andernden Bev¨ olkerungszahl aufzuteilen. Die Debatten u ¨ber die Statistik hingen mit wiederholten und tiefgreifenden Ver¨anderungen bez¨ uglich der Demographie des Landes und den sich hieraus ergebenden Konsequenzen zusammen – Konsequenzen politischer Natur (gesetzliche Vertretung der Staaten) und soziale Konsequenzen (Integration der Einwanderer, entfesselte Verst¨ adterung, Kriminalit¨ at). Die statistische Verwaltung blieb in unterschiedliche Dienststellen aufgesplittert. Die wichtigste dieser Beh¨orden war das Bureau of the Census 3 , das erst 1902 zu einer st¨andigen Einrichtung wurde. Vor 1933 gab es keinerlei Koordinierung. Nach diesem Datum ¨anderte sich die Funktion der Bundesverwaltung in Bezug auf Politik, Wirtschaft und Haushaltsplan radikal. Eine ¨ Gruppe von Universit¨atslehrern, Statistikern und Okonomen gab den Anstoß zur Umgestaltung und Koordinierung der amtlichen Statistik. Die Gruppe erweiterte ihren Aktionsbereich erheblich, rekrutierte junge Leute mit mathematischer Ausbildung, setzte neue Techniken ein (zum Beispiel Stichprobenerhebungen) und konstruierte mit Hilfe der Statistik neue Objekte, zum Beispiel die Begriffe Arbeitslosigkeit“ und soziale Ungleichheit“. Erst zu ” ” diesem Zeitpunkt entdeckt der Leser im Panorama der ¨ offentlichen Statistik der vier L¨ ander eine vertraute Landschaft: die f¨ ur die modernen statistischen ¨ Amter typischen Merkmale zeichneten sich in den Vereinigten Staaten in den 1930er Jahren ab. Diese erste skizzenhafte Darstellung der Situation in den vier L¨ andern zwischen 1830 und 1940 zeigt, daß ein internationaler Vergleich der Systeme der statistischen Beschreibung nicht auf Institutionen der amtlichen Statistik beschr¨ ankt werden darf. Der Grund hierf¨ ur sind die Unterschiede bez¨ uglich der relativen Gewichte dieser Einrichtungen, ihrer Mittel, ihrer administrativen Solidit¨ at und vor allem die Unterschiede hinsichtlich der jeweiligen Zie¨ le. Notwendig w¨are ein vollst¨andigerer Uberblick u ¨ber die institutionelle und soziologische Situation der Orte, an denen statistisches Wissen konstruiert 3
US-amerikanisches Statistisches Bundesamt, auch als Census Bureau bezeichnet.
Franz¨ osische Statistik – eine diskrete Legitimit¨ at
169
wurde. Aber die zu diesen Fragen bereits durchgef¨ uhrten historischen Forschungen – die im Falle Großbritanniens und der Vereinigten Staaten zahlreich und detailliert, f¨ ur Frankreich und Deutschland hingegen seltener waren – bezogen sich im Allgemeinen nur auf Teile dieser R¨ aume, wobei auch die Sichtweisen sehr unterschiedlich waren. Dementsprechend besteht das Risiko, die Vergleiche zu verzerren, indem man einen gewissen Aspekt nur deswegen besonders hervorhebt, weil er gut dokumentiert ist. Die nachfolgenden Analysen, die sich f¨ ur Großbritannien, die Vereinigten Staaten und Deutschland auf Sekund¨ arquellen st¨ utzen, sind also nicht vor derartigen fehlerhaften Sichtweisen gesch¨ utzt: diese Gefahr ist bei vergleichenden Studien fast unvermeidlich. Genau an diesem Problem scheiterte die deutsche Statistik – im Sinne des im 18. Jahrhundert verwendeten Begriffes – ebenso, wie die Statistik der franz¨ osischen Pr¨ afekten im Jahre 1805. Die Errichtung eines Komparabilit¨ atsraumes muß dem Vergleich vorangehen, aber das betrifft nat¨ urlich nicht nur die Beschreibung und die Geschichtsforschung. Die folgenden Ausf¨ uhrungen stellen daher eher eine logisch begr¨ undete Gegen¨ uberstellung der vier geschichtlichen Schilderungen dar, als einen umfassenden Vergleich.
Franz¨ osische Statistik – eine diskrete Legitimit¨ at Die Statistique g´en´erale de la France (SGF) war von 1833 bis 1940 eine kleine Beh¨ orde, die nur in Paris ans¨assig war. Ihre Hauptaufgabe bestand darin, die alle f¨ unf Jahre stattfindenden Volksz¨ahlungen zu organisieren und auszuwerten und – ausgehend von den Personenstandsregistern (Geburten-, Heiratsund Sterberegister) – die Bev¨olkerungsbewegung“ zu analysieren. Die Ge” schichte dieser Beh¨orde ist die Geschichte der allm¨ ahlichen Errichtung einer diskreten Legitimit¨at, die auf strengen fachlichen Kriterien beruhte. Das gilt insbesondere f¨ ur die Jahre nach 1890, als Lucien March die gesamte Produktionskette der Z¨ ahlungen – von den Frageb¨ogen und deren Auswertung bis hin zu den Ver¨ offentlichungen – umfassend transformierte. Diese Legitimit¨ at war nicht von Anfang an vorhanden. Sie hing mit der Aufstellung von Verwaltungsroutinen und auch mit dem Vorgehen einer kleinen Gruppe zusammen, die sich nach 1860 in der Soci´et´e de statistique de Paris (SSP) zusammengeschlossen hatte (Kang, 1989, [144]). Aber die statistische T¨ atigkeit, ihre Kosten, ihre Zentralisierung und ihre Interpretation waren nicht – wie in Großbritannien oder in den Vereinigten Staaten – Gegenstand umfassender Diskussionen in der Presse oder im Parlament. Bei ihrer Gr¨ undung im Jahre 1833 war die an das Handelsministerium angegliederte SGF damit beauftragt, die von anderen Verwaltungen erstellten statistischen Tabellen zu sammeln, zu koordinieren und zu ver¨ offentlichen. Der Gr¨ under der SGF, Moreau de Jonn`es (1778-1870), leitete die Einrichtung bis zum Jahre 1852. Bereits 1835 legte er einen detaillierten Plan zur Publikation von vierzehn B¨anden vor, die sich bis zum Jahre 1852 erstreckten und die verschiedenen Bereiche der Verwaltungst¨atigkeit abdeckten. Die ¨ offentli-
170
5 Statistik und Staat:
Frankreich und Großbritannien
che Gesundheit, die damals in der britischen Statistik einen wesentlichen Platz einnahm, trat in diesem Plan kaum in Erscheinung: man findet lediglich Angaben zur Verwaltung von Krankenh¨ausern.4 Die Moralstatistiker“, die sich ” um die Annales d’Hygi`ene Publique zusammenschlossen, blieben außerhalb der franz¨ osischen ¨offentlichen Statistik, w¨ahrend sich ihre englischen Amtskollegen von der Public Health Movement im General Register Office, dem Zentrum der amtlichen Statistik befanden. Die Hauptschwierigkeit der im Entstehen begriffenen SGF bestand darin, mit Hilfe einer technischen Spezifit¨at die Anerkennung der anderen Ministerien zu finden. Es war keine Selbstverst¨andlichkeit, die Statistiken der Landwirtschaft, des Gewerbes und des Handels mit der Statistik der Bev¨ olkerungsbe” wegung“ (Personenstand) und der Z¨ahlungen zu vereinigen, deren Organisation noch vom Innenministerium abhing. Dieses gr¨ undete 1840 ein statistisches Bureau, das von Alfred Legoyt (1815–1885) geleitet wurde. Legoyt kritisierte Moreau de Jonn`es und wurde dessen Nachfolger als Leiter der SGF, deren Direktor er von 1852 bis 1871 war. Der Aufruf zur Zentralisierung der numerischen Unterlagen im Hinblick auf deren Publikation reichte allein nicht aus, um die Durchschlagskraft der Institution zu garantieren – es mußten auch die Standardwerkzeuge zur Registrierung vorhanden sein: regelm¨ aßige Bestandsaufnahmen, Karteien und Nomenklaturen. Das Vertrauen in die Statistiken und deren Zuverl¨assigkeit“ hing mit der Koh¨ arenz und der Stabilit¨ at des ” Verwaltungsmechanismus zusammen. In ihrer Anfangszeit ver¨offentlichte die SGF (außer den Z¨ ahlungen) zun¨ achst regelm¨ aßige Verwaltungsdaten, die von anderen erstellt worden waren, aber auch die Ergebnisse der auf eigene Initiative durchgef¨ uhrten außerordentlichen Enqueten zu den Landwirtschaftsstrukturen (1836–1839) und zu den Gewerbestrukturen (1841, 1861). Im Vergleich zu den von anderen Verwaltungen herausgegebenen Kompilationen war der durch die SGF erzeugte ¨ Mehrwert“ gering und die Uberpr¨ ufung erwies sich als schwierig. Dennoch ” wurden auf diesem Umweg Gewohnheiten“ geschaffen: Beispiele hierf¨ ur sind ” die 1827 gegr¨ undete Kriminalstatistik und die Statistik der Mineralindustrie (f¨ ur die Le Play im Jahre 1848 verantwortlich zeichnete). Die Strukturuntersuchungen standen dagegen den Monographien in der Hinsicht n¨ aher, daß ihre Ergebnisse – die aus nur einmal verwendeten Ad-hoc-Techniken hervorgingen – kaum verallgemeinerungsf¨ahig waren. Diese Ergebnisse blieben isolierte Punkte und trugen nicht dazu bei, eine quantitative Routine zu schaffen. Die Landwirtschaftsz¨ahlungen wurden als schlecht beurteilt, w¨ ahrend die Untersuchungen zu den Katastervorg¨angen unvollendet blieben: die statistische T¨ atigkeit war nur dann operativ, wenn sie sich in eine mit ihr abgestimmte Verwaltungspraxis einf¨ ugte. Die Kontrolle der Statistiken war ein zentrales Problem dieser Zeit. Die Arbeit von Bertrand Gille (1964, [108]) u ¨ber die statistischen Quellen der ” 4
Dennoch steht Moreau de Jonn`es der Medizin nahe: vgl. hierzu Kapitel 3 und die Debatten u ¨ber die Cholera.
Franz¨ osische Statistik – eine diskrete Legitimit¨ at
171
Geschichte Frankreichs“ beschreibt die Ambivalenz der Anforderungen der Zeit aus der Sicht eines Historikers. Gille unterscheidet zwischen kollektiver, ” fast demokratischer Kontrolle“, lokaler Kontrolle auf der Grundlage fundier” ten Wissens angesehener Pers¨onlichkeiten“ und logischer, wissenschaftlicher ” Kontrolle“. Das Modell lokal erworbenen Wissens, das durch kollektive Zustimmung garantiert ist, wurde im 19. Jahrhundert h¨ aufig angewendet, zum Beispiel im Fall von Epidemien oder im Kampf gegen ungesunde Lebensbedingungen. Man beauftragte damals ¨ortliche Aussch¨ usse, deren Mitglieder angesehene Pers¨ onlichkeiten waren, mit Aufgaben, die sp¨ ater von zentralisierten Beh¨ orden u ¨bernommen wurden, welche ihrerseits Routinevorschriften anwendeten. In diesem Sinne wurden das umfassende Vorhaben zur Gr¨ undung von Kantonskommissionen f¨ ur Statistik“ – das mit der Landwirtschaftsz¨ ahlung ” von 1836 begann – im Jahre 1848 fortgesetzt und 1852 systematisiert. Mit dem Vorhaben unternahm man den Versuch, f¨ ur die Beteiligten eine Informationskontrolle einzurichten. Aber die Kommissionen scheiterten – vielleicht deswegen, weil sie sich in den von Paris durchgestellten standardisierten Fragen nicht wiedererkannt hatten. Die Kombination von lokal erworbenem Wissen und kollektiver Validierung (der Gille die logische und wissenschaftliche“ ” Kontrolle durch Verifikation der internen Konsistenz mit Hilfe von Rechnungen gegen¨ uberstellt) ging mit dem Risiko einher, sowohl spezifische lokale Merkmale als auch Unstimmigkeiten zwischen besonderen und allgemeinen Interessen hervortreten zu lassen. Ebenso wie die Statistik der Pr¨ afekten zu Anfang des 19. Jahrhunderts war auch diese Statistik nicht lebensf¨ ahig, denn sie ging nicht mit der Errichtung eines Verwaltungsraumes einher, der auf dem gesamten Territorium durch ¨aquivalente Regeln und Verfahren strukturiert war. Dieser Raum war seinerseits gewiß ad¨aquat f¨ ur statistische Totalisierungen. Aber auch hier war die Situation in Frankreich eine ganz andere als in England, wo die lokale Informationsvalidierung ein notwendiger Umweg zur Begr¨ undung der Legitimit¨at des General Register Office gewesen ist. Die Moralstatistiker, die unter den einheimischen angesehenen Pers¨ onlichkeiten Einfluß hatten, kritisierten den Entwurf einer zentralisierten Verwaltungsbeh¨ orde, die sich noch nicht durch ihre Technizit¨ at rechtfertigen konnte. F¨ ur Villerm´e (1845, [281]) hat die Verwaltung nichts weiter zustande gebracht, als eine unbeholfene Kompilierung inkonsistenter Daten – wobei die Daten weder gepr¨ uft noch abgeglichen wurden. Er w¨ unschte eine Organisation, die dem dezentralisierten englischen Modell n¨aher steht: Wir werfen den statistischen Publikationen Ungenauigkeiten, L¨ ucken und den Mangel einer Einheit von Plan und Denken vor, der es nicht erm¨ oglicht, sie immer untereinander zu vergleichen und gegeneinander zu kontrollieren ... Wir weisen auf den Nachteil hin, wichtige Publikationen einem Ministerium anzuvertrauen, das in diesen Angelegenheiten unbewandert ist. Wir k¨ undigen an, daß ¨ ahnliche Dokumente in Bezug auf Wirtschaft, Finanzen, Streitkr¨ afte, Marine, Justiz, Konfessionen und ¨offentliches Schulwesen ver¨ offentlicht werden. Mit der
172
5 Statistik und Staat:
Frankreich und Großbritannien
Arbeit m¨ ussen diejenigen Verwaltungsbeh¨ orden beauftragt werden, die sich mit diesen Themen befassen. Wir hoffen, daß es den Verwaltungsbeh¨ orden zur Ehre gereicht, diese Arbeit zu u ¨bernehmen und die Kammern n¨otigenfalls nicht dulden werden, daß die von ihnen – zur Ausstattung Frankreichs mit einer allgemeinen Statistik – so dienstbeflissen bewilligten Gelder f¨ ur Zwecke verwendet werden, die der Nation so wenig w¨ urdig sind. (Villerm´e, 1845, [281]) Die Verteilung der Verantwortlichkeiten ist klar erkennbar f¨ ur die Z¨ ahlung, die zu diesem Zeitpunkt noch durch das von Legoyt geleitete statistische Bureau des Innenministeriums organisiert wurde. Die Ergebnisse der Z¨ ahlung wurden hingegen von der SGF ver¨offentlicht. Jedoch u ¨bernahm Legoyt 1852 die Leitung der SGF und sammelte dort alle Z¨ ahlungsvorg¨ ange. Er f¨ uhrte wichtige Neuerungen hinsichtlich der Berufe (1851) und der Wirtschaftst¨ atigkeiten (1866) ein; zuvor hatte es lediglich eine Namensliste der Einzelpersonen gegeben. Die Position Legoyts im Handelsministerium schien damals sicherer zu sein, als die seines Vorg¨angers. ¨ Im Ubrigen ließen die Rivalit¨aten zwischen den Verwaltungsstatistikern ¨ und den Moralstatistikern nach, als 1860 eine Gruppe von Okonomen und Sozialforschern – von denen Villerm´e, Michel Chevalier und Hyppolite Passy die ber¨ uhmtesten waren – die Soci´et´e de statistique de Paris (SSP) gr¨ undete. Sie beantragten und erhielten eine offizielle Garantie des Handelsministeriums. Legoyt war der erste Pr¨asident der SSP. Diese Gelehrtengesellschaft spielte bis in die 1930er Jahre bei der Gr¨ undung der großen Verwaltungen und statistischen Schulen eine wichtige Rolle: sie war der Begegnungsort von (¨offentlichen und privaten) Statistikern und denjenigen, die deren Arbeiten nutzten. Dar¨ uber hinaus wirkte die Gesellschaft als Zentrum zur Verbreitung der Ideen und Forderungen dieser Statistiker. Ihre Zeitschrift, das Journal de la Soci´et´e de statistique de Paris, bot einer kleinen Gruppe von unerm¨ udlichen Propagandisten der Statistik ein Diskussionsforum. Diese Gruppe bestand aus Lehrstuhlinhabern und Mitgliedern von Verwaltungskommissionen, die mit der F¨ orderung und Koordinierung der statistischen Arbeiten beauf´ tragt waren. Der Gruppe geh¨orten an: Emile Cheysson (1836-1910), Ingenieur ´ f¨ ur Br¨ uckenbau und Sch¨ uler von Le Play; Emile Levasseur (1828–1911), Universit¨ atsgeograph; Adolphe Bertillon (1821–1883) und sein Sohn Jacques Ber¨ tillon (1851–1922), beide Arzte und leitende Angestellte eines statistischen Bureaus der Stadt Paris. Dieses Bureau publizierte Informationen u ¨ber die ¨offentliche Gesundheit und die Todesursachen (Alphonse Bertillon, 1853–1914, der im Kapitel 4 im Zusammenhang mit Galton erw¨ ahnte AnthropometrieExperte der Polizeipr¨afektur, war ein weiterer Sohn von Adolphe Bertillon). Wir treffen diese politisch aktiven Experten auch im Conseil sup´erieur de la statistique an, der 1885 gegr¨ undet wurde, um die SGF und die anderen statistischen Bureaus zu unterst¨ utzen und ihre Arbeit zu steuern. Jedoch war die Statistik dieser Zeit noch kaum mit den Werkzeugen ausgestattet, die ihre heutige St¨arke ausmachen: administrative und verordnungsrechtliche
Franz¨ osische Statistik – eine diskrete Legitimit¨ at
173
Infrastruktur, die zur Identifikation und Definition der Objekte erforderlich ist; Ger¨ ate zur maschinellen Datenverarbeitung und sp¨ ater Computer sowie mathematische Analyse- und Interpretationstechniken. Die kontinuierlichen Bem¨ uhungen der SGF, der SSP und des Conseil sup´erieur de la statistique bezogen sich auf die Infrastruktur und auf die Best¨ atigung der Wichtigkeit der Statistik. Aber das reichte nicht aus. In den 1890er Jahren war die SGF noch eine sehr kleine Beh¨orde und der Kampf mußte ohne Unterlaß weitergef¨ uhrt werden. Dieser Voluntarismus l¨aßt sich auch bei den (von Quetelet inaugurierten) Internationalen Statistischen Kongressen zwischen 1851 und 1875 sowie in den Anfangszeiten des 1885 gegr¨ undeten Internationalen Instituts f¨ ur Statistik (IIS)5 beobachten. Zun¨achst brachte das IIS Verwaltungsstatistiker zusammen, die dort einen Ort zur F¨orderung und anspruchsvollen Best¨ atigung ihrer Aktivit¨ aten fanden. Die Kongresse des IIS wurden von den h¨ ochsten Pers¨ onlichkeiten der gastgebenden L¨ ander er¨ offnet. Diese Kongresse boten Gelegenheit, f¨ ur die Harmonisierung der Methoden und der Nomenklaturen zu k¨ ampfen und erm¨oglichten es jedem, seine eigene Position unter Berufung auf eine Legitimit¨at h¨oherer Ordnung zu begr¨ unden – der Ordnung der internationalen wissenschaftlichen Instanz (Jacques Bertillon erarbeitete zwei wichtige Klassifikationen und ließ sie 1893 durch das IIS annehmen: die Klassifikation der Berufe und die Klassifikation der Krankheiten). Die Rolle des IIS sollte sich nach dem Ersten Weltkrieg, mehr aber noch nach dem Zweiten Weltkrieg ¨ andern, und zwar aus zweierlei Gr¨ unden. Die Aufgabe der Koordinierung der nationalen Statistiken wurde durch die neuen internationalen Institutionen weitergef¨ uhrt: vom V¨olkerbund, vom Internationalen Arbeitsamt6 (IAA) und schließlich von der UNO. Das erm¨ oglichte es dem IIS, sich fortan der Diskussion und Verbreitung der mathematischen Methoden zu widmen, die aus der Biometrie und aus der englischen Statistik hervorgegangen waren. Diese Methoden waren zum ersten Mal auf dem 1909 in Paris abgehaltenen 12. Kongreß des IIS ausf¨ uhrlich diskutiert worden. Edgeworth sprach u ¨ber die Anwendung der Wahrscheinlichkeitsrechnung in der Statistik“. Yule ” faßte seine Arbeit u ¨ber die Methode der Korrelation, angewendet auf die So” zialstatistik“ zusammen. March zeigte, wie es die mathematische Verfahren ” ¨ erm¨ oglichen, statistische Zeitreihen zu vergleichen, um deren Ubereinstimmung oder Nicht¨ ubereinstimmung zu untersuchen und die m¨ oglichen Beziehungen der verglichenen Gr¨oßen vorauszuahnen oder zu sch¨ atzen“. Bowley stellte einen internationalen Vergleich der L¨ohne mit Hilfe des Medians“ vor. ” Dieses erste bedeutsame Auftreten mathematischer Verfahren“ in der ” Wirtschafts- und Sozialstatistik war im Falle Frankreichs durch die Umgestaltung der SGF in den 1980er Jahren beg¨ unstigt worden. W¨ ahrend die englischen Statistiker vom General Register Office (GRO) ihre Position um die Mitte des 19. Jahrhunderts gefestigt hatten, indem sie sich bei der Behand5 6
Institut international de statistique (IIS); International Statistical Institute (ISI). International Labor Office (ILO).
174
5 Statistik und Staat:
Frankreich und Großbritannien
lung der Probleme ungesunder st¨ adtischer Lebensbedingungen unentbehrlich machten, zogen ihre franz¨osischen Kollegen von der SGF am Ende des Jahrhunderts nach, indem sie bei Fragen zur Arbeit und zu den Arbeitskr¨ aften eingriffen – bei Problemen also, die aus der gegen 1875 beginnenden Wirtschaftskrise resultierten. Die Bem¨ uhungen der kleinen, politisch aktiven Gruppe von Statistikern vereinigten sich damals mit den Anstrengungen eines Netzwerks von Beamten, Intellektuellen und F¨ uhrungspers¨ onlichkeiten der Gewerkschaften und der Politik, die sowohl die Lohnarbeit besser kennenlernen wollten als auch neue Gesetze anstrebten, um die Lohnarbeit zu organisieren und zu sch¨ utzen. Zu diesen Aktivisten geh¨orten der Bergbauingenieur Arthur Fontaine (1860–1931), die Gewerkschafter Isidore Finance und Auguste Keufer, die Reformsozialisten Alexandre Millerand und Albert Thomas sowie sp¨ ater Lucien Herr und Fran¸cois Simiand, die in Verbindung zu Durkheim und zur ´ Ecole normale sup´erieure (ENS) standen. Im Jahre 1891 wurde innerhalb des Handelsministeriums das von Arthur Fontaine geleitete Arbeitsamt (Office du travail ) gegr¨ undet (Luciani und Salais, 1990, [181]). Diesem war die SGF angegliedert und Lucien March, ein junger Ingenieur f¨ ur Maschinenbau, organisierte dort eine zentralisierte Auswertung der Z¨ ahlung von 1896. Er f¨ uhrte in Frankreich die Hollerith-Maschinen“ ” ein, das heißt die ersten mit Lochkarten arbeitenden elektrischen Z¨ ahlmaschi” 7 nen“ , die in den Vereinigten Staaten konstruiert worden waren. Er erfand eine vervollkommnete Maschine, den classicompteur-imprimeur“ 8 , der bis in die ” 1940er Jahre benutzt wurde (Huber, 1937, [134]). Schließlich gelang es ihm durch eine geschickte Auswertung der Z¨ahlbl¨atter, die entsprechend der Arbeitsplatzanschrift der gez¨ahlten Personen sortiert wurden, diese a priori administrative und demographische Operation in eine umfassende Untersuchung zu transformieren, die sich auf den Produktionsapparat und die Arbeitskr¨ afte (Lohnarbeiter und Selbst¨andige) bezog. Aus Furcht vor der Zur¨ uckhaltung 7
8
Die Z¨ ahlmaschinen (auch statistische Maschinen“ genannt) dienten zur Verar” beitung statistischer Daten. Die Maschinen waren ein Hilfsmittel zur Aufstellung von Tabellen, welche Summen von Zahlen enthielten, die auf der Grundlage eines Prinzips oder verschiedener Prinzipien zusammengestellt waren. Die Datenverarbeitung erfolgte nach dem Lochkartenverfahren, bei dem die Angaben auf eine gelochte Registrierkarte (Lochkarte) u ¨bertragen wurden. Die erste Lochkarte war die Jacquard-Karte (1804), benannt nach dem franz¨ osischen Mechaniker Joseph-Marie Jacquard (1752–1834). Der englische Mathematiker, Rechentechni¨ ker, Okonom und Wissenschaftsorganisator Charles Babbage (1792–1871) schlug 1839 die Verwendung von Lochkarten bei Rechenarbeiten vor. Die Maschinen, die zur Herstellung der Lochungen (Lochmaschinen) und zur Auswertung der Lochkarten (Sortier- und Tabelliermaschinen) dienten, heißen Lochkartenmaschinen. Diese Maschinen wurden 1880 von Hermann Hollerith (1860–1929) erfunden (Hollerith-Maschinen). Diese Maschine sortierte die Daten nach gewissen Gesichtspunkten, z¨ ahlte sie und druckte die Ergebnisse dann aus (classer = sortieren, compter = z¨ ahlen, imprimer = drucken).
Entwurf und Scheitern eines Einflußnetzwerks
175
oder Feindseligkeit der Unternehmen war es f¨ ur unm¨ oglich gehalten worden, eine derartige Untersuchung direkt in den Betrieben vor Ort durchzuf¨ uhren: die Legitimit¨ at der ¨offentlichen Statistik reichte damals noch nicht aus, eine solche Operation umzusetzen. Die zentrale Position der SGF und ihre Angliederung an das neue Arbeitsamt erm¨oglichten es March, diese doppelte Nutzung der Z¨ ahlung – das heißt die demographische und die wirtschaftliche ¨ Nutzung – zu realisieren. Diese Nutzung erfolgte mit wenigen Anderungen von 1896 bis 1936 und lieferte eine von den Historikern sehr gesch¨ atzte statistische Reihe. Das Arbeitsamt war von 1891 bis zum Krieg von 1914 die erste wissenschaftlich-administrative Institution, die mit bedeutenden Mitteln ausgestattet war (was die nach 1945 bereitgestellten Mittel vorausahnen ließ). Das Amt war ein Vorl¨ aufer des 1906 gegr¨ undeten Arbeitsministeriums und umfaßte einerseits Dienststellen f¨ ur Erhebungen und Untersuchungen zu den L¨ ohnen, zur Arbeitslosigkeit und zu den Lebensbedingungen der Arbeiter. Zum anderen geh¨ orten dem Amt Dienststellen an, die mehr mit Verwaltungsfragen zu tun hatten – zum Beispiel mit der Vermittlung von Arbeitskr¨ aften, mit der Arbeiterschutzgesetzgebung, mit Arbeits-, Hygiene- und Sicherheitsvorschriften sowie mit Berufsverb¨anden und Arbeitsgerichten. Die Untersuchungen st¨ utzten sich auf direkte statistische Erhebungen (zu den L¨ ohnen und zur Arbeitsdauer) und auf Monographien in der LePlayschen Tradition von Studien u ¨ber Arbeiterhaushalte (Du Maroussem, 1900, [192]; Savoye, 1981, [251]) und Untersuchungen u ¨ber Daten aus administrativen Quellen, wie zum Beispiel die (von Michelle Perrot, 1974, [228] analysierte) Streikstatistik.
Entwurf und Scheitern eines Einflußnetzwerks Die Situation der franz¨osischen Verwaltungsstatistik zwischen 1890 und 1920 kann mit anderen ¨ahnlichen Situationen verglichen werden. Unter besonderen historischen Umst¨anden – zum Beispiel in Krisen, Kriegszeiten oder bei raschen Neukonzipierungen der Art und Weise, eine Gesellschaft zu verstehen und zu verwalten – gelang es den f¨ ur ihre Bureaus zust¨ andigen Statistikern, sich derart in umfassendere, gleichzeitig wissenschaftliche, administrative und politische Netzwerke zu integrieren, daß sie ihre Werkzeuge unentbehrlich machten und daß diese Werkzeuge sogar nahezu zwangsl¨ aufig benutzt wurden. So verhielt es sich zwischen 1840 und 1880 mit dem englischen General Register Office (GRO). Und so war es auch mit dem amerikanischen Census Bureau in den 1930er und 1940er Jahren, zur Zeit des New Deal und w¨ ahrend des Zweiten Weltkrieges. Dasselbe geschah mit dem franz¨ osischen INSEE in den 1960er und 1970er Jahren, als sich die Planifikation und die Modellierung des Wirtschaftswachstums weitgehend auf die Tabellen der volkswirtschaftlichen Gesamtrechnung st¨ utzten. Von diesem Standpunkt aus boten das Arbeitsamt und die SGF – vor allem w¨ahrend des Ersten Weltkrieges – mit viel bescheideneren Mitteln den ersten Entwurf eines solchen Netzwerks.
176
5 Statistik und Staat:
Frankreich und Großbritannien
Zwischen 1875 und 1890 wurden die Industriel¨ ander von einer schweren Wirtschaftskrise heimgesucht, deren soziale Folgen in Großbritannien und in den Vereinigten Staaten gravierender waren als in Frankreich. Aber u ¨berall diskutierte man neue Gesetze, die ein Recht auf Arbeit definieren und einf¨ uhren sollten – eine Neuheit im Vergleich zum klassischen Zivilrecht – und einen Schutz gegen Arbeitslosigkeit, Arbeitsunf¨ alle, Krankheiten und Altersarmut organisieren sollten. Ein Conseil sup´erieur du travail, ein u ¨bergeordneter Betriebsrat, wurde 1891 gegr¨ undet und von Millerand und Fontaine umgestaltet, um diese Gesetze auszuarbeiten. Der Rat brachte Beamte, Leiter von Unternehmen und Gewerkschafter zusammen und war ein Vorbote f¨ ur die Plankommissionen, das Tarifvertragswesen und die Vertragspolitik in der Zeit nach 1945. Das Arbeitsamt ver¨offentlichte in diesem Zusammenhang im Jahre 1893 eine große Enquete u osischen ¨ber L¨ohne und Arbeitsdauer in der franz¨ ” Industrie“ und f¨ uhrte sp¨ater Enqueten u ¨ber die Arbeiterhaushalte und die ¨ Lebenshaltungskosten durch. Im Ubrigen arbeiteten Akademiker, die in der Tradition von Durkheim standen, an den gleichen Themen und ver¨ offentlichen die ersten Soziologie-Dissertationen mit ausgepr¨ agt empirischem und statistischem Inhalt. Fran¸cois Simiand (1873–1935) analysierte die Schwankungen der Bergarbeiterl¨ ohne und March diskutierte diese Analyse in der Soci´et´e de statistique de Paris (Simiand, 1908, [262]). Maurice Halbwachs (1877–1945) legte ´ 1912 seine th`ese d’Etat“ in lettres“ 9 an der Sorbonne vor; diese Dissertation ” ” befaßte sich mit den Lebensniveaus und Bed¨ urfnissen der Arbeiterklasse und erschien unter dem Titel La classe ouvri`ere et les niveaux de vie. Recherches sur la hi´erachie des besoins dans les soci´et´es industrielles contemporaines. In seiner Arbeit nutzte Halbwachs die von deutschen Statistikern gesammelten Informationen u ¨ber die finanziellen Mittel von Arbeiterfamilien (aber seine th`ese compl´ementaire“ u ¨ber die Theorie des Durchschnittsmenschen, Que” ” telet und die Moralstatistik“ blieb durchweg auf der Linie der Fragen des 19. Jahrhunderts). Halbwachs f¨ uhrte eine Enquete zum Familienbudget der franz¨ osischen Arbeiter und Bauern durch und ver¨ offentlichte die Ergebnisse 1914 im Bulletin der SGF (Desrosi`eres, 1985 [60] und 1988 [63]). Die Beziehungen zwischen Statistikern, Universit¨ atslehrern und verantwortlichen Politikern verst¨arkten sich w¨ahrend des Ersten Weltkriegs, vor allem innerhalb des Kabinetts des R¨ ustungsministers Albert Thomas (Kuisel, 1984, [161]). Intellektuelle spielten bei der Verwaltung der milit¨ arischen Anstrengungen eine wichtige Rolle. Der Mathematiker Paul Painlev´e (1863– 1933) war Kriegsminister und sp¨ater f¨ ur einige Monate Premierminister. Sein ´ Kollege, der Wahrscheinlichkeitstheoretiker Emile Borel (1871–1956) war Ge9
´ Die th`ese d’Etat“ in lettres“ besteht aus zwei Teilen: einer th`ese principale und ” ” einer th`ese compl´ementaire. Wie schon der Name sagt (Haupt- und Zusatz-These), gelten in beiden F¨ allen jeweils andere Anforderungen: W¨ ahrend die th`ese prin” cipale“ eine ausf¨ uhrlich dokumentierte und detaillierte Behandlung eines Themas erfordert, darf die th`ese compl´ementaire“ allgemeiner und offener gehalten sein ” (beispielsweise kann sie aus der Erarbeitung eines kritischen Apparates im Rahmen einer wissenschaftlichen Herausgeberschaft bestehen).
Entwurf und Scheitern eines Einflußnetzwerks
177
neralsekret¨ ar des Ministerrates – ein Posten f¨ ur interadministrative Koordinierung, auf dem er ohne Erfolg versuchte, eine gest¨ arkte SGF einzubinden (Borel, 1920, [23]). Simiand und Halbwachs waren Mitglieder des Kabinetts von Albert Thomas. Dieses Kabinett hatte aufgrund seines Gewichtes bei der Lenkung der notwendigerweise stark zentralisierten Kriegsindustrien und wegen der damals eingef¨ uhrten Verfahrensstandardisierung vollst¨ andig neue Formen der staatlichen Verwaltung und der Berufsbeziehungen entwickelt. Zwar verschwand die Struktur der Kriegswirtschaft nach 1918 vor¨ ubergehend, aber die Erinnerung daran blieb erhalten und inspirierte andere Formen, die nach 1940 eingef¨ uhrt wurden: zum Beispiel die Organisationskomitees der VichyRegierung oder das Plankommissariat nach der Befreiung. Ein Mann zeichnete sich in diesen beiden Zeiten der Rationalisierung der Kriegswirtschaft und des Wiederaufbaus durch seine ausgepr¨agten Aktivit¨ aten aus: Jean Monnet (1888–1979), der 1946 das Plankommissariat gr¨ undete. Simiand erlangte als Sekret¨ar des Komitees f¨ ur Statistik bedeutenden Einfluß auf die Herstellung von kriegswichtigen G¨ utern und auf die Rohstoffproduktion. Er setzte sich mehrfach daf¨ ur ein, die SGF in ein großes, an den Vorsitz des Ministerrates angegliedertes statistisches Zentralamt umzuwandeln. Er leitete 1921 eine aus Borel, dem Statistiker Liesse und dem Industriellen Gruner bestehende Abordnung zum Pr¨asidenten der Republik Millerand (dem ehemaligen Handelsminister, dem das Arbeitsamt und die SGF unterstanden), um diese Reform der SGF voranzutreiben. Aber die Bedingungen f¨ ur die R¨ uckkehr zum Frieden waren in den 1920er Jahren noch nicht die gleichen wie nach 1945, als das INSEE und das Plankommissariat gegr¨ undet wurden. Die SGF wurde schließlich 1930 dem Vorsitz des Ministerrates angegliedert, aber ihre Mittel und ihre Kompetenzen wurden nicht erweitert. Die SGF blieb eine kleine Beh¨ orde mit etwa hundert Mitarbeitern, die in den Jahren von 1920 bis 1936 von Michel Huber (1875–1947) geleitet wurde und vor allem demographische Arbeiten durchf¨ uhrte (Sauvy, 1975, [249]). Simiand intervenierte 1932 als Mitglied des Conseil national ´economique erneut bei Regierungsrat Blondel und forderte eine Verst¨arkung sowie die wissenschaftliche Autonomie der SGF (Journal Officiel vom 13. April 1932), aber diese Versuche blieben ergebnislos. Die SGF wurde schließlich in einem ganz anderen Zusammenhang von einer sehr großen statistischen Landesbeh¨ orde aufgesogen, die 1941 von dem Milit¨ aringenieur Ren´e Carmille gegr¨ undet worden war (Desrosi`eres, Mairesse und Volle, 1977, [67]). Eine weitere Folge der w¨ahrend des Ersten Weltkriegs hergestellten Verbindungen war die F¨orderung der Lehrt¨atigkeit auf dem Gebiet der Statistik; an diesem Projekt waren die politisch aktiven Statistiker der 1880er Jahre gescheitert (Morrisson, 1987, [205]). Im Jahre 1920 wurde auf Initiative von March und Borel das Institut de statistique de l’universit´e de Paris (ISUP) gegr¨ undet. March, Huber und der Mathematiker Georges Darmois (1888–1960) hielten die Hauptvorlesungen. Die Institutsgr¨ undung war einerseits durch die Bedeutung beg¨ unstigt worden, welche die statistische Rationalisierung f¨ ur die Verwaltung der Kriegswirtschaft erlangt hatte, andererseits aber auch durch
178
5 Statistik und Staat:
Frankreich und Großbritannien
¨ die Anderungen in den Beziehungen zwischen statistischer Praxis und Wahrscheinlichkeitstheorie. Eine gute Illustration hierf¨ ur sind die gemeinsamen Aktivit¨ aten der Wahrscheinlichkeitstheoretiker Fr´echet (1878–1973) und Borel ¨ (der im Ubrigen auch Mitglied eines Rates der SGF war, welcher in der Zeit von 1907 bis 1936 zun¨achst March und sp¨ater Huber unterst¨ utzte) und der Soziologen Simiand und Halbwachs. Fr´echet und Halbwachs ver¨ offentlichen 1924 zusammen ein kleines Handbuch mit dem Titel Le calcul des probabilit´es a la port´ee de tous (vgl. [97]). Die Ann¨aherung zwischen Verwaltungsstati` stikern, Mathematikern und Soziologen, die um 1900 noch unwahrscheinlich war, wurde nun durch die wissenschaftlichen und politischen Umst¨ ande des ´ Augenblicks beg¨ unstigt. Weder Cheysson (der zwar Absolvent der Ecole polytechnique war) noch Bertillon oder Levasseur hatten versucht, sich mit den Wahrscheinlichkeitstheoretikern ihrer Zeit zusammenzutun und sie kannten Pearson nicht. Dagegen hatte March in der Zeit zwischen 1900 und 1910 die mathematischen Werkzeuge der Engl¨ander in Frankreich eingef¨ uhrt. Mit Borel, Darmois und Fr´echet trat eine neue Generation von Wahrscheinlichkeitstheoretikern auf den Plan. Von nun an gab es ein Technologieangebot und qualifizierte Fachleute. Es bot sich aber auch die politisch-administrative Gelegenheit, ein neues akademisches Lehrfach ins Leben zu rufen. Dieses Lehrfach war aber nur von geringem Umfang und die Durkheimsche Soziologie ist keine mathematische Soziologie geworden. Die Lehrt¨ atigkeit auf dem Gebiet der Statistik erreichte erst in den 1950er Jahren einen bedeutenden Umfang – einerseits durch das Institut de statistique de l’universit´e de Paris (ISUP) ´ ´ und andererseits durch die Ecole d’application de l’INSEE, die 1960 zur Ecole nationale de la statistique et l’administration ´economique (ENSAE) wurde. Die vorhergehenden Ausf¨ uhrungen d¨ urfen jedoch nicht die Vorstellung suggerieren, daß es von 1890 bis 1920 ein umfassendes wissenschaftlich-politisches Netzwerk gegeben hat, in dem die SGF eine wesentliche Rolle spielte. Das war nicht der Fall. Die oben beschriebenen Verbindungen betrafen nur eine kleine Anzahl von Personen und deren Einfluß war auch nur w¨ ahrend des Ersten Weltkriegs – das heißt in dem Ausnahmezeitraum von 1914 bis 1918 – von ¨ Bedeutung. Ahnlich wie Sauvy beschreiben Autoren wie L´evy (1975, [178]) oder Le Bras (1987, [171]) die damalige SGF als schwach, von der Außenwelt abgekapselt und schlecht mit den anderen statistischen Beh¨ orden koordiniert. Dieser Eindruck war nicht ganz verkehrt und auch die mehrfachen Stellungnahmen von Simiand gingen in diese Richtung. Aber die genannten Wissenschaftler betrachteten diesen Zeitabschnitt aus einer Nachkriegsperspektive: die in den 1930er Jahren, w¨ahrend des Krieges und der Besatzungszeit entworfenen neuen Modernisierungsnetzwerke konnten in den nach 1945 gegr¨ undeten ´ Institutionen fortbestehen, das heißt in der Ecole normale d’administration (ENA), im Plankommissariat, im Centre nationale de la recherche scientifique (CNRS), im Institut national de la statistique et des ´etudes ´economiques (INSEE) und im Institut national des ´etudes d´emographiques (INED). Im Vergleich hierzu sind ihre Vorg¨anger-Institutionen der Zeit von 1890 bis 1920 nat¨ urlich gescheitert. Als Alfred Sauvy (1898–1990) im Jahre 1923 an die SGF
Entwurf und Scheitern eines Einflußnetzwerks
179
kam, fand er dort eine kleine Gruppe von kompetenten und effizienten Wissenschaftlern und Technikern vor, die jedoch introvertiert waren und sich ” nicht darum k¨ ummerten, sich selbst zu verkaufen“. Das heißt sie k¨ ummerten sich nicht darum, ihre Arbeiten so zu u ¨bersetzen, daß andere den Inhalt verwenden konnten. Sauvy machte sich damals mit Erfolg daran, ein neues ¨offentliches Image der Statistiker und der Demographen aufzubauen und zu popularisieren, wobei er tabula rasa mit allen vorherigen Dingen machte. Er erw¨ ahnte weder March noch das Arbeitsamt (Office du travail ). Es lief alles so ab, als ob der Erste Weltkrieg eine Bewegung unterbrochen h¨ atte. Mit den Reformern vom Beginn des Jahrhunderts hatten die Reformer der 1930er Jahre kaum noch etwas gemeinsam; die letzteren erfanden die Sprache, die sich in den 1950er Jahren und 1960er Jahren durchsetzte. Es geht uns hier nicht darum, vergessene Vorg¨ anger wieder auferstehen zu lassen – vielmehr wollen wir die Ursachen daf¨ ur suchen, warum das Konstrukt der 1890er Jahre keinen Bestand hatte, w¨ ahrend das, was sich zwischen 1930 und 1950 abzeichnete, fast ein halbes Jahrhundert gehalten hat. Selbstverst¨ andlich gibt es makrosoziale historische Erkl¨ arungen, zum Beispiel die von Kuisel (1984, [161]) vorgelegte Analyse der Entwicklung der Beziehungen zwischen Kapitalismus und Staat in Frankreich“ in der Zeit von 1900 ” bis 1960. Laut Kuisel u ¨berwog vor 1914 eine ultraliberale Staatskonzeption, die sich jede makro¨okonomische Intervention verbat. Diese Konzeption wurde ¨ an der Universit¨ at gelehrt und von den angesehensten Okonomen der Zeit ger¨ uhmt. Unter den außergew¨ohnlichen Umst¨anden des Ersten Weltkriegs experimentierte man unter Cl´ementel (Handelsminister) und Albert Thomas (R¨ ustung) mit einer ersten Form der organisierten Wirtschaft, aber diese Wirtschaftsform wurde 1919 rasch zerschlagen. Die Krise der 1930er Jahre und die Situation der ¨außersten Not der 1940er Jahre – vor und auch nach der Befreiung – erm¨oglichten das Entstehen von in gr¨ oßerem Maß interventionistisch ausgerichteten Str¨omungen (die man damals als dirigistisch“ be” zeichnete). Unter der Vichy-Regierung ¨außerten sich diese Str¨ omungen mit Bichelonne in administrativer und autorit¨arer Form und sp¨ ater, nach 1945, in der demokratischeren und stimulierenderen Art und Weise der konzertierten und statistisch aufgekl¨arten Planifikation von Jean Monnet, Pierre Mass´e und Claude Gruson. In der von Kuisel ausf¨ uhrlich beschriebenen Geschichte wird die Arbeit der Statistiker fast gar nicht erw¨ ahnt. Dennoch geht klar daraus hervor, welche Unterschiede zwischen der von March geleiteten SGF und dem INSEE der Nachkriegszeit bestanden – vor allem in Bezug auf die ¨ Rolle, welche die Okonomen spielten (oder nicht spielten). Vor 1939 kam es selten vor, daß jemand seine Argumente auf statistische Daten st¨ utzte. Der Grund hierf¨ ur war nicht nur – wie Sauvy argumentiert – in Ignoranz oder Inkompetenz zu suchen, sondern leitete sich vor allem aus der Tatsache ab, daß es weder ein politisches noch ein intellektuelles Gesamtkonstrukt gab. Ein derartiges Konstrukt wurde – insbesondere von Keynes – erst in den 1930er Jahren in Großbritannien und in den Vereinigten Staaten und in den 1950er Jahren in Frankreich geschaffen.
180
5 Statistik und Staat:
Frankreich und Großbritannien
Man kann aber auch nach Erkl¨arungen suchen, die auf einer eher mikrosozialen Ebene liegen und zum Beispiel mit der komplexen Pers¨ onlichkeit Marchs zusammenh¨ angen. Als Ingenieur des 19. Jahrhunderts war March ein phantasievoller Techniker. Er f¨ uhrte die von Hollerith in den Vereinigten Staaten erfundenen Verfahren der maschinellen Datenverarbeitung in Frankreich ein und gestaltete sie um. Aber er teilte auch die Sorgen vieler seiner Zeitgenossen in Bezug auf die Bev¨olkerung, den R¨ uckgang der Geburtenzahlen und die Qua” lit¨ at der Rasse“. In Frankreich gab es damals keine so umfassende und radikale Eugenikbewegung wie in Großbritannien: es w¨ are schwer gewesen, gleichzeitig eine Steigerung der Geburtenzahlen und eine Senkung der Fertilit¨ at der armen, fruchtbarsten Schichten zu predigen, wie es die Engl¨ ander taten. Als Statistiker kannte und bewunderte March jedoch die Arbeiten von Galton und Pearson und er u ¨bernahm beide Aspekte – den statistischen Aspekt ebenso wie den eugenischen. Bereits 1905 legte er der Soci´et´e de statistique de Paris Forschungsarbeiten zur Korrelation von numerischen Kurven vor. Sp¨ ater orientierte er zwei junge Statistiker der SGF, Henry Bunle (1884–1986) und Marcel Lenoir (1881–1926), auf die Anwendung dieser Ergebnisse bei der Analyse von Zusammenh¨ angen zwischen statistischen Wirtschaftsreihen. Bunle (1911) untersuchte Korrelationen zwischen Heiratsraten, Preisniveau, Arbeitslosigkeit und Außenhandel. Lenoir (1913) verteidigte seine Dissertation u ¨ber Angebotsund Nachfragekurven, wobei er u.a. das Ziel verfolgte, Preisbildungen und Preisbewegungen zu erkl¨aren. Lenoirs Dissertation war eine der allerersten ¨okonometrischen Arbeiten im engeren Sinne. Aber diese Arbeit stieß auf keinerlei Resonanz und war den Amerikanern (Moore, Working, Schultz) nicht ¨ bekannt, die gleichzeitig oder wenig sp¨ater die Okonometrie erfanden (Morgan, 1990, [204]; Armatte, 1991, [5]). Die Arbeiten Marchs (und seiner Sch¨ uler) wurden der Soci´et´e de statistique de Paris vorgelegt, dort diskutiert und im Journal der Gesellschaft ver¨ offentlicht. Jedoch wurden Marchs Forschungsarbeiten und seine Stellungnahmen zu den Geburtenzahlen und zur Eugenik – die offensichtlich von Pearson inspiriert worden waren – an anderer Stelle ver¨offentlicht, n¨ amlich in Zeitschriften und B¨ uchern, die von sehr unterschiedlichen Kreisen herausgegeben wurden: Revue d’hygi`ene et de m´edecine infantiles, Revue philanthropique, Eug´enique et s´election (ein kollektives Werk, das von einer franz¨ osischen Gesellschaft f¨ ur Eugenik ver¨offentlicht wurde, an deren Gr¨ undung March 1912 beteiligt war, als er von einem in London gehaltenen Weltkongreß f¨ ur Eugenik zur¨ uckkehrte). Die Kombination von mathematischer Statistik und Eugenik, die damals in England bereits vollzogen war, ließ sich nicht direkt u ¨bernehmen: March war der einzige franz¨osische Statistiker, der sich mit beiden Gebieten besch¨ aftigte. Dieses doppelte Interesse war rein pers¨ onlicher Natur und konnte daher nicht dazu beitragen, die Verwaltungsstatistik in ein umfassenderes politisches und wissenschaftliches Netzwerk einzugliedern, da die Str¨ omung der selektionistischen Eugenik in Frankreich nicht die gleiche Bedeutung hat-
Entwurf und Scheitern eines Einflußnetzwerks
181
te, wie jenseits des Kanals.10 Folglich verhielt es sich nicht nur so, daß die politischen und wirtschaftlichen Umst¨ande f¨ ur die Gr¨ undung einer bedeutenden statistischen Einrichtung ung¨ unstig waren, in der man Forschungsarbeiten zu verschiedenen demographischen, sozialen und ¨ okonomischen Bereichen zentralisieren und zusammenfassen konnte. Auch die pers¨ onlichen Bindungen und Interessen von March beg¨ unstigten eine solche Entwicklung keinesfalls. Dennoch h¨ atte die urspr¨ ungliche Organisation der Volksz¨ ahlungen von 1896 bis 1938 – welche in einfallsreicher Weise die Demographie mit der Beschreibung von Betriebsstrukturen kombinierte – die Keimzelle f¨ ur eine solche Institution liefern k¨onnen. Das w¨are in Großbritannien nicht m¨ oglich gewesen, denn dort waren Bev¨olkerungsstatistik und Wirtschaftsstatistik voneinander getrennt (und sind es immer noch). Letzten Endes war die Situation in Frankreich am Vorabend des Zweiten Weltkriegs dadurch gekennzeichnet, daß es kaum Begegnungs- und Diskussionsorte gab, an denen sich Fachleute der Sozialwissenschaften – seien es ¨ Statistiker, Demographen, Okonomen oder Soziologen – mit F¨ uhrungskr¨ aften aus Politik und Verwaltung, mit Unternehmern und mit Gewerkschaftern treffen konnten. Im Rahmen des Staates gab es derartige Diskussionsforen noch nicht, aber die Umrisse zeichneten sich in den Vorstellungen einiger Intellektueller und Ingenieure ab. Verfolgt man die hier erz¨ ahlte Geschichte zur¨ uck, dann trifft man immer wieder auf Bewegungen aufgekl¨ arter Pers¨ onlichkeiten, die außerhalb des Staates den Versuch unternahmen, die franz¨ osische Gesellschaft mit Hilfe von Enqueten zu untersuchen und zu analysieren. Sp¨ ater hat der Staat, der oftmals von diesen Reformern umgestaltet wurde, diese Begegnungs- und Diskussionsorte auf die eine oder andere Weise in die neuen Institutionen eingegliedert. Die Demoskopen und die Zeitreisenden unter den Philosophen des 18. Jahrhunderts verfaßten, nachdem sie Pr¨ afekten geworden waren, die Statistiken“ ihrer Departements. Bis in die 1830er Jahre wurden ” ¨ lokale Monographien von Provinzb¨ urgern, Arzten, Verwaltungsbeamten und Gesch¨ aftsleuten verfaßt. Einige von ihnen beteiligten sich am Wettbewerb um ur Statistik, der von der Akademie der Wissenschafden Montyon-Preis11 f¨ ten verliehen wurde (Brian, 1991, [36]). Wir begegnen diesen Autoren – den Anh¨ angern der Moralstatistik“ – erneut in der 1829 gegr¨ undeten Zeitschrift ” Annales d’hygi`ene publique (L´ecuyer, 1977, [172]), die bis in die 1850er Jahre hinein aktiv war und die amtliche Statistik kritisierte. Nach 1860 kam es zu einer Ann¨ aherung der beiden Kategorien von Statistikern, das heißt der Ver10
11
Jedoch f¨ orderte die von Carrel von Alexis im Jahre 1942 gegr¨ undete Stiftung zum Studium der Probleme der menschlichen Spezies diese eugenistische Konzeption; die Stiftung wurde sp¨ ater in das nach der Befreiung gegr¨ undete INED eingegliedert (Drouard, 1983, [71]; Th´evenot, 1990, [274]). Der Montyon-Preis durfte nur f¨ ur rein deskriptive Arbeiten zur Statistik verliehen werden; bewertet wurden (wie bereits in der napoleonischen B¨ urokratie) nur die strikten Aufzeichnungen kontingenter Fakten. Aus der Statistik des MontyonPreises geht hervor, daß mathematische Arbeiten ausdr¨ ucklich zur¨ uckgewiesen wurden, weil man sie als zu eng begrenzt ansah (vgl. Armatte, 2001, [344]).
182
5 Statistik und Staat:
Frankreich und Großbritannien
waltungsstatistiker und der Moralstatistiker, und sie wurden gemeinsam in der Soci´et´e de statistique de Paris (SSP) aktiv. Adolphe und Jacques Bertil¨ lon, Arzte und nacheinander Leiter des Statistischen Bureaus der Stadt Paris, symbolisierten diese Allianz ebenso, wie Levasseur (Universit¨ atslehrer) und Cheysson (Ingenieur f¨ ur Br¨ uckenbau). Die Bewegung der außerhalb des Staates durchgef¨ uhrten Enqueten hatte ab 1840 bis zum Ende des Jahrhunderts eine eigenst¨ andige Form mit den Familienbudgets von Arbeitern“, einer Sammlung von Fr´ed´eric Le Play ” (1806–1882). Le Play war Bergbauingenieur und Prophet einer konservativen christlich-sozialen Schule, die gleichzeitig dem allgemeinen Wahlrecht, der Besch¨ aftigung im kapitalistischen Lohnverh¨altnis und der gleichen Erbtei” uberstand. Aber es war eine technizistische Schule, die lung“ 12 feindlich gegen¨ gegen¨ uber der Wissenschaft offen war und die Lebensbedingungen der Arbeiter aufmerksam verfolgte (Savoye, 1981, [251]). Aufgrund der Positionen ihres Gr¨ unders, der ein Gegner des republikanischen Staates war, wurde diese dynamische Gruppe zu einer Sekte. Einige ihrer Mitglieder spielten jedoch eine bemerkenswerte Rolle: Cheysson an der SSP und als Professor f¨ ur Statistik, du Maroussem (1900) im Arbeitsamt (Office du travail ), wo er monographische Untersuchungen u ¨ber Unternehmen verfaßte (die von Halbwachs 1907 und die von Dug´e de Bernonville 1913 an der SGF durchgef¨ uhrten Untersuchungen zu den Familienbudgets von Arbeitern waren nicht direkt durch die Aktivit¨ aten von Le Play inspiriert worden; wir diskutieren diese Enqueten im Kapitel 7 ausf¨ uhrlicher). Der von Le Play verwendete Bezugsrahmen ater außerhalb st¨ utzte sich auf die Trilogie Familie, Arbeit, Ort“ und hatte sp¨ ” von Frankreich in Großbritannien (Geddes) und in Deutschland (SchnapperArndt) Einfluß. Aber in Frankreich verk¨ ummerte diese von der universit¨ aren Soziologie abgeschnittene Str¨omung. Ihre letzten Vertreter waren im Umfeld der Vichy-Regierung zu finden (Kalaora und Savoye, 1985, [142]).
Statistik und Wirtschaftstheorie – eine sp¨ ate Verbindung ¨ Vor 1930 hatten einige Demographen, Arzte, Philanthropen und Sozialrefor¨ mer h¨ aufig auf statistische Argumente zur¨ uckgegriffen. Bei den Okonomen war das u berraschenderweise weit weniger u blich – unabh¨ a ngig davon, ob sie ¨ ¨ geisteswissenschaftlich oder mathematisch gebildet waren. Multiple Korrelationen und multiple Regressionen, die sich auf o¨konomische Variable bezogen, waren zwar bereits von Statistikern (Yule, March, Bunle) berechnet worden, 12
Le Play sprach in diesem Zusammenhang von der unbest¨ andigen Familie“: Beim ” ” Tode des Vaters wird die schon verstreute Familie aufgel¨ ost; das Erbe wird durch die gleiche Zwangsteilung zerst¨ uckelt, und der landwirtschaftliche oder industrielle Betrieb, wenn es einen gibt, wird liquidiert. Dies System hat sich aus dem Individualismus ergeben und charakterisiert fast alle modernen Gesellschaften und besonders Frankreich.“
Statistik und Wirtschaftstheorie – eine sp¨ ate Verbindung
183
¨ aber sie wurden nicht mit wirtschaftswissenschaftlichen Uberlegungen verkn¨ upft (eine Ausnahme war jedoch die Arbeit von Lenoir (1913, [177]) zur Konstruktion der Angebots- und Nachfragekurven). Die Verbindung zwischen ¨ Statistik und Wirtschaftstheorie war nicht selbstverst¨ andlich. Die Okonomen hatten die Intuition, daß die verf¨ ugbaren Messungen – beispielsweise Preismessungen – Endprodukte komplexer Verkettungen waren, bei denen sich die von den entsprechenden Modellen theoretisch beschriebenen Wirtschaftsmechanismen nur schwer aufkl¨aren ließen. So dachten vor allem Jean-Baptiste Say, Walras und sogar Cournot, der in Statistik doch ziemlich bewandert war (M´enard, 1977, [193]). Auf einer tieferliegenden Ebene verhielt es sich so, daß ¨ der Wahrscheinlichkeitsbegriff von diesen Okonomen noch sehr oft mit dem Begriff des unzul¨anglichen Wissens assoziiert wurde und nicht mit der intrinsischen Variabilit¨at der ¨okonomischen Ph¨anomene. Diese Variabilit¨ at war mit der deterministischen Philosophie unvereinbar, die aus der Physik des 19. ¨ Jahrhunderts hervorging. F¨ ur die obengenannten Okonomen war die Physik des 19. Jahrhunderts ein Modell, das es ihrer Wissenschaft erm¨ oglichte, den Ungewißheiten und den Undeterminiertheiten der anderen Sozialwissenschaften und der Philosophie zu entkommen (Mirowski, 1989, [197]). Von dieser Warte aus war die Statistik – von der man nicht so recht wußte, was sie widerspiegelte – nicht notwendigerweise ein guter Verb¨ undeter im Kampf um dieselbe Anerkennung, wie sie die Physik erfahren hatte. Statistik ist keine ” Experimentalwissenschaft“: seit der von Claude Bernard formulierten Kritik kam es immer wieder zu Debatten u ¨ber die Natur der statistischen Erkenntnis. Aber in den 1920er Jahren sagte sich die Physik mit der Quantenmechanik und der Heisenbergschen Unsch¨arferelation13 in entschiedener Weise vom Laplaceschen Determinismus los. Ungef¨ahr zur gleichen Zeit wurde die von Kolmogorow axiomatisierte Wahrscheinlichkeitstheorie ein vollwertiges Teilgebiet der Mathematik und nahm eine zentrale Stellung in verschiedenen Naturwissenschaften ein. Und schließlich erreichte die inferentielle Statistik 14 mit Ronald Fisher und dann mit Neyman und Egon Pearson ein hinreichend allgemeines Formalisierungsniveau, um in vielf¨ altigen Zusammenh¨ angen eingesetzt werden zu k¨onnen. Diese Entwicklungen erm¨ oglichten eine Vereinigung von drei fr¨ uher sehr unterschiedlichen Str¨ omungen, die zur Entstehung ¨ der Okonometrie im modernen Sinne (das heißt auf der Grundlage von Wahrscheinlichkeitsmodellen) beigetragen haben: es handelt sich hier um die neoange klassische Wirtschaftstheorie von Walras und Marshall15 , um die Anf¨ 13 14 15
Es gibt eine Reihe von anderen Bezeichnungen f¨ ur diesen Begriff, zum Beispiel: Unbestimmtheitsrelation, Ungenauigkeitsrelation, Unsicherheitsrelation. Auch schließende Statistik bzw. induktive Statistik genannt. Alfred Marshall (1842–1924) studierte Mathematik in Cambridge und wandte sich sp¨ ater der National¨ okonomie zu. Sein Interesse an der National¨ okonomie erkl¨ arte er damit, daß die Untersuchung der Armut gleichzeitig die Untersuchung ” der Wurzel der sozialen Deklassierung eines großen Teiles der Menschheit ist.“ Marshalls B¨ ucher lesen sich glatt und fl¨ ussig und sind so formuliert, daß die meisten Aussagen selbstverst¨ andlich zu sein scheinen. Mathematik wird kaum
184
5 Statistik und Staat:
Frankreich und Großbritannien
¨ der Okonometrie `a la Lenoir und Moore in den Jahren von 1910 bis 1930, die ohne Modelle auskam, und um die neue inferentielle Statistik, die aus der englischen Biometrie hervorgegangen war. Diese Konvergenz wurde von Haavelmo (1944, [116]) formalisiert und f¨ uhrte zum Programm der amerikaniatzung von Modellen schen Cowles Commission 16 , das die strukturelle Absch¨ mit simultanen Gleichungen zum Gegenstand hatte (Morgan, 1990, [204]). Diese neue Synthese von Statistik und Wirtschaftstheorie fand in Frankreich unmittelbar in der Nachkriegszeit Verbreitung, wobei eher Ingenieure als Universit¨ atslehrer beteiligt waren: die Bergbauingenieure Maurice Allais und Ren´e Roy, sowie Edmond Malinvaud am INSEE und an der ENSAE (Bungener und Jo¨el, 1989, [40]). Und so bahnte sich nunmehr mit Nachdruck eine starke Allianz zwischen theoretischer Wirtschaftslehre, angewandter Wirtschaftslehre und dem statistischen Apparat an. Diese Allianz trug dazu bei, die Statistik mit einer Legitimit¨at und Autorit¨ at auszustatten, die sich u ¨berhaupt nicht mit der Situation von vor zwanzig Jahren vergleichen ließ. Die wesentliche Transformation der Rolle und der Art und Weise des Eingreifens ¨ von Okonomen, die eher an Ingenieursschulen als an Universit¨ aten lehrten oder in ¨ offentlichen Verwaltungen oder Unternehmen arbeiteten, war bereits ´ vor dem Krieg von einem Kreis von ehemaligen Sch¨ ulern der Ecole polytechnique angek¨ undigt und vorbereitet worden. Das Centre polytechnicien d’´etudes ´economiques (auch X-Crise genannt) wurde unter den Bedingungen der Wirtschaftskrise und der politischen und intellektuellen Krise der 1930er Jahre (Boltanski, 1982) von einer Gruppe gegr¨ undet, der Jean Ullmo (1906–1980), Alfred Sauvy (1898–1990) und Jean Coutrot angeh¨ orten. Die von der Gruppe organisierten Vortr¨ age sind ein gutes Beispiel f¨ ur die Errichtung eines Netzwerks, das in den Wirren der Krise die Erarbeitung einer gemeinsamen Sprache und eines neuen Bezugssystems ¨ anstrebte. Statistik und Okonomie – die im Begriff waren, sich im Rahmen ¨ der Okonometrie zu vereinigen – sollten fortan Objekte dieser gemeinsamen Sprache bleiben. Außer den obengenannten Gr¨ undern, die oft Vortr¨ age hiel¨ ten, referierten die Okonomen Charles Rist und Jacques Rueff, die Soziologen Bougl´e, Halbwachs und Simiand (der damals in diesem Umfeld ein großes Prestige hatte), der Historiker Marc Bloch, der Mathematiker und Wahrscheinlichkeitstheoretiker Darmois sowie Paul Reynaud und Paul Val´ery (X-Crise, 1982, [289]). Aber im Unterschied zu ihren Saint-Simonistischen oder ihren leplaysianischen Vorl¨aufern des 19. Jahrhunderts ergriffen diese Absolventen der
16
verwendet oder in die Fußnoten verbannt, damit jeder Interessierte die B¨ ucher lesen kann. ¨ Die 1932 von dem amerikanischen Gesch¨ aftsmann und Okonomen Alfred Cowles in den USA gegr¨ undete Cowles Commission for Research in Economics arbeitete ¨ eng mit der Okonometrischen Gesellschaft zusammen. Ab Mitte der 1940er Jahre ¨ war die Cowles Commission zum wichtigsten Zentrum f¨ ur quantitative Okono¨ mie geworden. Die mit der Kommission assoziierten Okonomen entwickelten bis ¨ Anfang der 1950er Jahre den ¨ okonometrischen Ansatz, der die Okonometrie mehr als zwei Jahrzehnte lang dominierte.
Statistik und Wirtschaftstheorie – eine sp¨ ate Verbindung
185
´ Ecole polytechnique nicht mehr den Beruf eines Soziologen, sondern wurden ¨ vielmehr Okonomen. ¨ Eine Reihe von Konferenzen war der Okonometrie“ gewidmet (in ihrem ” urspr¨ unglichen Sinne der Quantifizierung von Wirtschaftsmodellen). Fran¸cois Divisia (1889–1964), einer der ersten franz¨osischen Universit¨ ats¨ okonomen, die sich f¨ ur den systematischen Gebrauch der Statistik in den Wirtschaftswissenschaften einsetzten, sprach 1933 u ¨ber die Arbeiten und Methoden der ” ¨ Gesellschaft f¨ ur Okonometrie“, die drei Jahre zuvor gegr¨ undet worden war. Er zitierte Irving Fisher, aber auch March und dessen Arbeiten u ¨ber den Preisindex, bezeichnete Lenoir als den Ersten, der die Methode der multi” plen Korrelationen bei den Preisuntersuchungen einf¨ uhrte“, nannte Gibrat und dessen Ungleichheitsindex“ der Einkommensverteilungen und zitierte ” den englischen Statistiker Arthur Bowley wegen dessen Untersuchung zur ” Preisstreuung als Symptom von Wirtschaftskrisen“. Jan Tinbergen17 (1903– 1994) beschrieb 1938 seine ¨okonomischen Forschungen u ¨ber die Bedeutung ” der B¨ orse in den Vereinigten Staaten“. Jacques Rueff hielt 1934 ein Referat mit dem Titel Warum ich trotz allem liberal bleibe“, w¨ ahrend Jean Ullmo ” 1937 die theoretischen Probleme einer gelenkten Wirtschaft“ untersuchte. ” ¨ Die beiden letztgenannten Titel zeigen, wie die theoretischen Uberlegungen, die durch die Krise der 1930er Jahre ausgel¨ ost worden waren, mit einer Kritik des liberalen Denkens und einem Interesse f¨ ur gelenkte Wirtschaften“, ” das heißt f¨ ur Planwirtschaften, zusammenhingen. Diese Betrachtungen stan¨ den ganz im Gegensatz zu den Uberlegungen, die sp¨ ater durch die Krise der 1980er Jahre ausgel¨ost wurden; sie beruhten auf der Kritik der Planwirtschaften und makro¨ okonomischen Regulierungen, wobei diese Kritik ihrerseits aus exakt denjenigen Theorien hervorging, die in den 1930er Jahren in Zirkeln wie X-Crise formuliert worden waren. Die diskutierten Vorstellungen kamen anschließend erneut zur Sprache, zum Beispiel in Einrichtungen wie dem Plankommissariat, in dem von Claude Gruson 1950 gegr¨ undeten Service des ´etudes ´economiques et financi`eres (SEEF), im INSEE (das Gruson von 1961 bis 1967 leitete), oder in dem von Sauvy 1946 gegr¨ undeten INED. Einmal mehr f¨ uhrten also Themen, die außerhalb des staatlichen Rahmens entwickelt worden waren, zu einer Umgestaltung des Staates und zu einer Institutionalisierung des ¨ offentlichen Debattenraumes. Die technische Kompetenz tendierte dazu, sich in den Staat einzugliedern. Das unterscheidet Frankreich deutlich von Großbritannien und von den Vereinigten Staaten. In diesen L¨ andern besaßen die Universit¨ aten eine große Vitalit¨at und kn¨ upften mit der Verwaltung enge, aber keine st¨andigen Wechselbeziehungen und diese Tatsache verlieh der Verbindung von Wissenschaft und Staat ein ganz anderes Gef¨ uge. 17
Tinbergen erhielt 1969 zusammen mit Ragnar Frisch den ersten Nobelpreis f¨ ur Wirtschaftswissenschaften.
186
5 Statistik und Staat:
Frankreich und Großbritannien
Britische Statistik und ¨ offentliche Gesundheit Das Großbritannien des 19. Jahrhunderts war nicht nur das Land, in dem die Biometrie und die mathematische Statistik entstanden sind. Es war auch das Land, in dem unter den Bedingungen des industriellen und st¨ adtischen Wachstums und seiner dramatischen Folgen die verschiedensten Formen der Beziehungen zwischen Verwaltungsstatistik und nichtadministrativer Statistik, Gesellschaftsanalyse und Gesetzgebung ausprobiert worden sind, um die mit diesem Wachstum zusammenh¨angenden Probleme zu behandeln: Armut, ¨offentliche Gesundheit (public health) und Arbeitslosigkeit. Die britische Verwaltung neigte nicht dazu, den u ¨berwiegenden Teil des statistischen Wissens ¨ und der einschl¨ agigen Expertise in Amter zu integrieren, die von ihr abh¨ angig ¨ waren. Gewiß gab es diese Amter, aber sie waren breiter gestreut als in Frankreich. Zudem waren sie umstritten und ihre Organisation wurde oft infrage gestellt. Dar¨ uber hinaus pflegten Gruppen von Sozialreformern, Gelehrtengesellschaften und Universit¨atslehrern die gute Tradition der Erhebungen und der Debatten zur Konstruktion eines praktischen Wissens, das sich unmittelbar umsetzen ließ. Die beiden Umfelder – das heißt der Verwaltungsbereich und der Bereich der Sozialforscher und Wissenschaftler – waren voneinander verschieden, standen aber in kontinuierlicher Wechselwirkung: die Sozialforscher und die Wissenschaftler waren zum Beispiel im Rahmen der parlamentarischen Untersuchungskommission st¨ andig an den Entscheidungen des Verwaltungsbereiches beteiligt. Das unterschied England von Frankreich, wo dieser Personenkreis (zum Beispiel die Leplaysianer) weniger aktiv oder weniger an die Verwaltung gebunden war. Und das war auch ein Unterschied zu Deutschland, in dem das Gelehrtenmilieu zwar vorhanden war, aber auch mehr M¨ uhe hatte, sich Geh¨or zu verschaffen. Arthur Bowley (1869–1957) war eine Pers¨ onlichkeit, die diese typisch englische Verbindung zwischen Universit¨ at und Verwaltung besonders gut symbolisierte. Er war Professor an der London School of Economics (LSE) und formulierte zu Beginn des 20. Jahrhunderts in deutlicher Weise die wissenschaftlichen und beruflichen Normen eines Metiers, das es in dieser Form u ¨berhaupt noch nicht gab: es handelte sich um den Beruf des Verwaltungsstatistikers, der sich auf die Errungenschaften der mathematischen Statistik st¨ utzte. Die Geschichte der britischen amtlichen Statistik war durch die Aufeinanderfolge von gesetzgebenden Akten großer Tragweite und durch institutionelle Ad-hoc-Gr¨ undungen gekennzeichnet, die zu einem zersplitterten System f¨ uhrten, das erst im Jahre 1941 durch das Central Statistical Office (CSO) teilweise koordiniert wurde. Zwischen 1832 und 1837 stellte eine Reihe von politischen und wirtschaftlichen Reformen den liberalen Bezugsrahmen auf, der mindestens bis zum Jahre 1914 den Hintergrund f¨ ur alle Debatten bildete. Dieser Rahmen beinhaltete vor allem das Prinzip des Freihandels, die Bedeutung der ¨ortlichen Gewalten (Stadtgemeinden und Grafschaften), die Armenf¨ ursorge in Arbeitsh¨ausern (workhouses) anstelle einer direkten Beihilfe (F¨ ursorgegesetzgebung von 1834, welche die Speenhamland Act of Parlia-
Britische Statistik und ¨ offentliche Gesundheit
187
ment von 1796 ersetzte; letztere sah Geldbeihilfen f¨ ur die Kirchengemeinden vor (vgl. Polanyi, 1983, [234])). Diese drei Aspekte bestimmten die Formen des im Entstehen begriffenen statistischen Systems. Im Jahre 1832 wurde im Board of Trade (Handelsministerium) ein statistisches Bureau gegr¨ undet, das ¨ sich mit Handelsbeziehungen, Export und Import befaßte. Im Ubrigen erfolgte die Verwaltung des F¨ ursorgerechtes auf lokaler Ebene und zog die Gr¨ undung von F¨ ursorgeverb¨anden in jeder Grafschaft nach sich (1834). Die auf dem Territorium verstreute neue Struktur erm¨oglichte 1837 die Akzeptanz des General Register. Dieses weltliche Personenstandsregister wurde damals gegr¨ undet, um Abhilfe gegen die Tatsache zu schaffen, daß die Ausbreitung von religi¨ osen Konfessionen, die sich von der amtlichen anglikanischen Kirche unterschieden, eine zusammenh¨angende Registrierung der Taufen, Heiraten und Sterbef¨ alle verhinderte. Der nicht konfessionsgebundene Personenstand hing also von Anfang an mit der Verwaltung des F¨ ursorgegesetzes und den daf¨ ur zust¨ andigen ¨ ortlichen Beh¨orden zusammen. Die britische ¨ offentliche Statistik war somit gleich auf Anhieb in zwei unterschiedliche Teile geteilt: f¨ ur den Teil der Wirtschaftsstatistik war das Board of Trade zust¨ andig, f¨ ur die Sozialstatistik hingegen das General Register Office (GRO). Zum großen Teil besteht diese Situation immer noch: das Office of Population, Censuses and Surveys (OPCS), das 1970 die Nachfolge des GRO angetreten hatte, ist weiterhin eine autonome Institution geblieben und das Central Statistical Office (CSO), das im Prinzip das ganze System koordiniert, ist mehr auf Wirtschaftsstatistik ausgerichtet. In Frankreich dagegen hatte die SGF schon ab 1833 wenigstens die Aufgabe, die Statistik zu zentralisieren (selbst wenn sie dieser Aufgabe nicht vollst¨ andig nachgekommen ist). Und die SGF war ein ausschließlich in Paris ans¨ assiges Bureau ohne ¨ortliche Verbindungen: die zwischen 1837 und 1852 geplanten statistischen Kantonskommissionen waren gescheitert. Die Situation in Großbritannien war eine ganz andere. Das GRO, das von 1837 bis 1880 durch den Arzt William Farr (1807–1883) in Schwung gehalten wurde, hing eng mit der Public Health Movement zusammen und kann mit den franz¨ osischen Hygienikern verglichen werden. Die Beh¨ orde war in die Verwaltung des F¨ ursorgegesetzes einbezogen – und zwar nicht nur deswegen, weil sie in die ¨ ortlichen F¨ ursorgeverb¨ande (poor law unions) eingegliedert war, sondern auch aufgrund der Tatsache, daß ihr diese Verwaltung ein Mittel in die Hand gab, eine Legitimit¨at von unten zu konstruieren, die ihr nicht sofort vom Zentralstaat u ¨bertragen werden konnte (Szreter, 1991, [271]). Die englische ¨offentliche Meinung stand damals den Interventionen einer nationalen Exekutive feindselig gegen¨ uber, die ohne weiteres bonapartistischer Tendenzen verd¨ achtigt wurde. Die Bewegung zur ¨offentlichen Gesundheit konnte sich nur auf unabh¨ angige ¨ortliche Initiativen st¨ utzen. Das GRO hatte seinerseits keinen direkten Zugang zu den Entscheidungsprozessen. Die Beh¨ orde hatte nur ¨ wenig Macht; sie konnte lediglich Uberzeugungsarbeit leisten und Ratschl¨ age geben. Das GRO schmiedete eine Politik der Allianzen mit lokal ans¨ assigen ¨ Arzten und Beh¨ orden, um die Bev¨ olkerungsstatistik zu f¨ ordern, das heißt die vom klassischen Personenstand (Geburten, Heiraten, Sterbef¨ alle) und von der
188
5 Statistik und Staat:
Frankreich und Großbritannien
Morbidit¨ at gebildete Gesamtheit, wobei die Morbidit¨ at die Statistik der spezifischen Todesursachen bezeichnete. Diese Daten wurden entsprechend einer geographischen Feineinteilung zusammengestellt, die das Ziel verfolgte, schnell auf die Brutst¨ atten von Epidemien und Zentren des Elends hinzuweisen. Das GRO spielt somit eine wesentliche Rolle bei der Diagnose und der Behandlung eines Problems, das die englische Gesellschaft w¨ ahrend des gesamten Jahrhunderts bedr¨angt hatte – das Problem der mit der Industrialisierung und der anarchischen Verst¨adterung zusammenh¨ angenden Not. Beispielsweise ver¨ offentlichte und verglich das GRO die Kindersterblichkeit in den großen Industriest¨ adten. In Liverpool starb die H¨alfte der Kinder, bevor sie das Alter von sechs Jahren erreicht hatten. Zuvor hatte man aus dem schnellen Bev¨ olkerungwachstum, das die Stadt zwischen 1801 und 1831 zu verzeichnen hatte, die Schlußfolgerung abgeleitet, daß dort das Klima vermutlich besonders gesund war. Das GRO schuf auf diese Weise mit seinen vereinheitlichten Daten einen Komparabilit¨ ats- und Konkurrenzraum zwischen den St¨ adten. Die Beh¨ orde erweckte das Interesse f¨ ur einen nationalen Wettbewerb in Bezug auf die Senkung der Sterblichkeitsraten. Die Gesundheitsdienste eines jeden Ortes verf¨ ugten u ¨ber diese Informationen und h¨atten sie deswegen auch selbst aufbereiten k¨ onnen. Das GRO erzeugte jedoch durch die gleichzeitige Sammlung und Ver¨ offentlichung dieser Informationen ein neues Bed¨ urfnis und schuf dadurch einen Markt f¨ ur seine Produkte. Die Sterblichkeitsrate im Allgemeinen und insbesondere die Kindersterblichkeit wurden zu relevanten Indikatoren f¨ ur die Gemeindepolitik. Es konnte kein direktes allgemeines Interesse f¨ ur diese Statistiken erweckt werden, da es keine nationale Politik f¨ ur den Umgang mit der Armut gab. Das ¨offentliche Interesse wurde jedoch dadurch erweckt, daß man mit Hilfe der Sterblichkeitsraten die Konkurrenz zwischen den St¨ adten f¨orderte. Auf diese Weise wurden die Sterblichkeitsraten zu einer Angelegenheit von nationaler Bedeutung; sie wurden 1848 sogar im neuen Gesetz zur ¨offentlichen Gesundheit (public health law ) verankert. Dieses Gesetz legte fest, daß Orte mit einer Sterblichkeitsrate von mehr als 23 von Tausend (vom GRO berechneter nationaler Durchschnitt) sogenannte Gesundheitstafeln“ (health ” tables) aufstellen mußten, um die Durchf¨ uhrung von Gesundheitsreformen zu unterst¨ utzen. In den 1850er Jahren ging William Farr noch weiter, indem er die mittlere Sterblichkeitsrate der 63 ges¨ undesten Distrikte ermittelte (ein Zehntel aller Distrikte): er kam auf 17 von Tausend und wies diese Sterblichkeitsrate allen anderen Distrikten als Ziel zu. Er ersetzte somit den nationalen Durchschnitt durch ein ehrgeizigeres Optimum und bereitete damit auf seine Weise die sp¨ ater von Galton durchgef¨ uhrte Verschiebung vor: das durch den Durchschnitt ausgedr¨ uckte Ideal (Quetelet) wird durch den Begriff des Optimums ersetzt, den das ¨außerste Ende der Verteilung repr¨ asentiert. Unter Bezugnahme auf die Mortalit¨at, die f¨ ur die im gesamten Territorium verstreuten Distrikte festgehalten wurde, war er dann dazu in der Lage, die Tausende von Todesf¨ allen zu berechnen, die man in den anderen Distrikten h¨ atte ver-
Britische Statistik und ¨ offentliche Gesundheit
189
meiden k¨ onnen, wenn die – keineswegs nur theoretische, sondern sehr wohl reale – Rate von 17 von Tausend u atte. ¨berall existiert h¨ Das GRO machte sich diese Verhaltensrichtlinie zu eigen und positionierte sich dadurch im Zentrum einer allgemeineren Bewegung, deren Ziel die Pr¨ avention war. Dar¨ uber hinaus stellte die Beh¨ orde eine spezifische Spra¨ che und Werkzeuge bereit, welche sich von denen der Arzte unterschieden, die ihrerseits einzeln mit isolierten“ Patienten zu tun hatten. Der englischen ” Beh¨ orde gelang, was ihre franz¨osischen Amtskollegen nicht erreicht hatten: zun¨ achst in den ¨ortlichen Verwaltungen und dann nach 1900 auf nationaler Ebene diejenigen Instrumente des statistischen und wahrscheinlichkeitstheoretischen Risikomanagements einzuf¨ uhren, mit denen die Versicherungsmathematiker bereits vertraut waren. Somit u ¨bersetzte das GRO diejenigen Ideen in eine ¨ offentliche Handlungsweise, die implizit bereits in den von Quetelet popu¨ larisierten Durchschnittsbegriffen enthalten waren (im Ubrigen war Farr ein Bewunderer von Quetelet). Dar¨ uber hinaus lenkte das GRO die Aufmerksamkeit und die Debatte auf das wirtschaftliche und soziale Umfeld als erkl¨ arenden Faktor der Mortalit¨at, die ihrerseits als Folge des Elends wahrgenommen wurde. Wie zur gleichen Zeit in Frankreich stand auch in Großbritannien der Durchschnitt als Analysewerkzeug in einem engen Zusammenhang zur Verbesserung der sanit¨aren Bedingungen und der Gesundheitspflege im st¨ adtischen uhrte Farr eine Neuklassifikation der Umfeld.18 Zum Zweck des Handelns f¨ Todesursachen aus einem verallgemeinerten Blickwinkel durch: ¨ Die Uberlegenheit einer Klassifikation l¨aßt sich nur durch die Anzahl der verallgemeinerungsf¨ahigen Fakten oder durch die praktischen Ergebnisse feststellen, zu denen diese Klassifikation f¨ uhrt ... Die Klassifikation der Krankheiten muß durch die Art und Weise begr¨ undet werden, in der sich diese Krankheiten auf die Bev¨ olkerung auswirken ... Die erste Klasse umfaßt die endemischen oder epidemischen Krankheiten, denn diese sind es, die am meisten variieren und fast immer verh¨ utet oder abgemildert werden k¨onnen. (Farr, 1839, zitiert nach Szreter, 1991, [271].) Diese Art der Klassifizierung, die mit einer pr¨ aventiven oder abmildern” den“ Handlung verbunden ist, kann von einer wissenschaftlichen oder klini¨ schen Atiologie abweichen, welche sich auf die Untersuchung von Einzelf¨ allen st¨ utzt, die der Arzt mit der Absicht durchf¨ uhrt, seine Patienten zu heilen. Das GRO konzentrierte seine Arbeit auf die Verbesserung der ¨ offentlichen Gesundheit und schuf sich dadurch die Position einer wissenschaftlichen Autorit¨ at im Zentrum eines informellen nationalen Netzwerks, das f¨ ur den Informationsfluß 18
Die Verwendung von Mittelwerten war auch koh¨ arent mit der Position, die von ¨ den Arzten des GRO in der im Kapitel 3 beschriebenen Debatte vertreten wurde, bei der die Kontagionisten“ den Verfechtern der Miasmentheorie“ gegen¨ uber ” ” standen: William Farr neigte zur Miasmentheorie und war antikontagionistisch eingestellt.
190
5 Statistik und Staat:
Frankreich und Großbritannien
sorgte. Dieses Netzwerk umfaßte die an den Verbesserungsbestrebungen be¨ teiligten Arzte, aber auch die entsprechenden ¨ortlichen Beh¨ orden und Verwaltungsbeh¨ orden: Die Kraft der verbreiteten Botschaften hing nicht nur einfach ” von der wissenschaftlichen Strenge der entsprechenden Betrachtungsweise ab, sondern auch – und zwar auf kritischere Weise – von der kommunikativen F¨ ahigkeit des GRO, mit den betreffenden Informationen umzugehen und sie so zu pr¨ asentieren, daß sie maximalen Einfluß auf ein Publikum aus¨ uben, das ¨ gr¨oßer und vielgestaltiger ist, als nur die Zielgruppe der Arzte.“ (Szreter, 1991, [271].) Die statistische Totalisierung ließ eine allgemeinere Sichtweise hervor¨ treten, als den Standpunkt der Arzte, die – vor allem wenn sie im Krankenhaus arbeiteten – nur ihre Patienten sahen und deswegen eine andere Auffassung von Fragen der ¨ offentlichen Gesundheit hatten. Die vom GRO gew¨ahlte Aktionsform trug dazu bei, eine Weiterentwicklung des britischen Staates und eine Wandlung der Wahrnehmung des Staates in der ¨ offentlichen Meinung vorzubereiten. Das Spektrum der ¨ offentlichen Meinung erstreckte sich von der Furcht vor einem als Unterdr¨ ucker fungierenden Zentralstaat bis hin zum Wohlfahrtsstaat des 20. Jahrhunderts. Die Statistik spielte bei dieser Transformation eine wesentliche Rolle, und zwar gleichzeitig als Werkzeug (in diesem Kontext entstanden die Stichprobenerhebungen) und als Symbol einer neuen Funktion des Staates. Diese Verschiebung war schon 1859 von John Stuart Mill beobachtet worden, der in seinem Essay Representative Government die Probleme der Volksgesundheit nannte: Der ” Zentralstaat erlangt durch seine F¨ahigkeit, Ausk¨ unfte zu sammeln und diese Informationen zu verarbeiten, eine ausgepr¨agte Funktion, die u ¨ber den lokalen und pers¨ onlichen Autonomieforderungen steht.“ (Mill, 1859, zitiert von Szreter, [271].) Die Linie des GRO war auf der medizinischen Ebene gleichzeitig epidemiologisch und antikontagionistisch und auf der sozialen Ebene sowohl environmentalistisch als auch reformistisch. Diese Linie wurde seit Beginn der 1880er Jahre aufgrund einer zweifachen Fortentwicklung bek¨ ampft und teilweise ausgegrenzt: einerseits durch die Fortschritte in der Mikrobiologie und andererseits durch den Aufstieg des Sozialdarwinismus und der evolutionistischen Theorien der nat¨ urlichen Auslese. Die Entdeckungen auf dem Gebiet der Bakteriologie, die sich auf die Ursachen und die unmittelbare Behandlung von Krankheiten bezogen, verringerten die relative Bedeutung der statistischen Epidemiologie und disqualifizierten die Theorie der Miasmen. Die Eugeniker behaupteten ihrerseits, daß die philanthropischen und refor¨ mistischen Unterst¨ utzungsmaßnahmen f¨ ur die Armsten nur die Reproduktion von untauglichen Personen beg¨ unstigen und die nat¨ urliche Auslese behindern w¨ urden. Diese Position stellte einen Frontalangriff auf die Politik der Public Health Movement dar und stieß sich an der Aufmerksamkeit, die diese Bewegung den ¨ ortlichen Milieus und Umfeldern schenkte. Zun¨ achst (vor 1910) hatte das GRO diese seine Position verteidigt und bei der Vorlage der Z¨ ahlergebnisse auch weiterhin den Akzent auf geographische Unterteilungen gesetzt, von denen man annahm, daß sie die soziale Situation am besten erkl¨ arten.
Britische Statistik und ¨ offentliche Gesundheit
191
Die Anh¨ anger der Eugenik, die gegen das GRO auftraten, sprachen jedoch von Degeneration und von sozialem Verfall als Folge von erbbedingten Merkmalen und F¨ ahigkeiten, die sich auf einer eindimensionalen Ordinalskala dar¨ stellen ließen. Diese Uberzeugung f¨ uhrte Galton dazu, ad¨ aquate Instrumente zur Messung der Vererbung zu schmieden (Kapitel 4): die Statistiker vom GRO und die Begr¨ under der Biometrie befanden sich somit in entgegengesetzten Lagern. Die Biometriker verwendeten die beruflichen T¨ atigkeiten der Individuen als Indikatoren der entsprechenden Eignungen und das wiederum f¨ uhrte dazu, diese auf einer eindimensionalen Skala anzuordnen (Szreter, 1984, [270]). Und so spiegelte sich f¨ ur einige Zeit die Debatte zwischen den beiden Str¨ omungen in der Gegens¨atzlichkeit zweier als relevant vorausgesetzter Unterteilungen wider – f¨ ur die eine Str¨omung war die geographische Unterteilung relevant, f¨ ur die andere dagegen die berufliche Unterteilung. Aber die Situation ¨anderte sich gegen 1910. Zwischen 1906 und 1911 ersetzte eine Reihe von neuen Sozialgesetzen das ehemalige F¨ ursorgegesetz von 1834. Ein Rentensystem (1908), Arbeitsvermittlungsb¨ uros (1909) und Sozialversicherungen (1911) kamen hinzu. Im Unterschied zu den haupts¨ achlich lokal angesiedelten F¨ ursorgemaßnahmen des 19. Jahrhunderts wurde der entstehende Wohlfahrtsstaat auf der Grundlage von nationalen Gesetzen aufgebaut, die ihrer Form nach auf dem gesamten Territorium homogen waren. Das f¨ uhrte zu ¨ einer Anderung der Termini in der Debatte zwischen den Statistikern des GRO und den Eugenikern. Anl¨aßlich der Volksz¨ahlung von 1911 gaben die GROStatistiker ihre Zustimmung, die Hypothesen der Eugeniker unter Verwendung einer nationalen Berufsklassifikation zu testen, die aus f¨ unf hierarchisch angeordneten Kategorien bestand. Diese Klassifikation bildete die urspr¨ ungliche Matrix der Nomenklaturen der sozialen Schichten – Nomenklaturen, die dann im gesamten 20. Jahrhundert von den englischen und amerikanischen Demographen und Soziologen verwendet wurde. Die behauptete eindimensionale Struktur dieser Kategorien – die stark von der Struktur der franz¨ osischen berufssoziologischen Nomenklatur abwich – hatte ihren fernen Ursprung in dieser alten Debatte, die sich fast u ¨ber ein ganzes Jahrhundert hingezogen hat. Die Bewegung zur ¨offentlichen Gesundheit und ihre Verbindung zum GRO ist ein beispielhafter Fall f¨ ur eine Verkettung, die sich auch in anderen F¨ allen beobachten l¨ aßt: Debatten und statistische Erhebungen in Reformkreisen ausserhalb des Staates wurden von parlamentarischen Ad-hoc-Kommissionen aufgegriffen und f¨ uhrten zu einer neuen Gesetzgebung, die ihrerseits der Ursprung eines spezialisierten statistischen Bureaus war. Die Frage nach der Bildung der Volksschichten wurde im Zusammenhang mit der Kriminalit¨ at und der Trunksucht aufgeworfen. Man f¨ uhrte zu diesen Themen statistische Untersuchungen durch, deren Ergebnisse umstritten waren: manche Fachleute leiteten daraus die Schlußfolgerung ab, daß die Kriminalit¨at in gebildeten Kreisen nicht niedriger ist. Im Jahre 1870 wurde ein Gesetz zum Schulwesen verabschiedet; 1876 erfolgte die Gr¨ undung eines statistischen Bureaus f¨ ur Schulwesen. Die Aufmerksamkeit richtete sich anschließend auf die Wirtschaftsstatistiken von
192
5 Statistik und Staat:
Frankreich und Großbritannien
Einrichtungen zur Selbsthilfe (self-help) innerhalb der Arbeiterklasse: Versicherungsgesellschaften auf Gegenseitigkeit und Sparkassen. Innerhalb des Board of Trade kam es 1886 zur Gr¨ undung eines Labour Department (in Frankreich wurde das Office du travail 1891 innerhalb des Handelsministeriums gegr¨ undet; ¨ahnliche Einrichtungen entstanden zur gleichen Zeit in den Vereinigten Staaten). Das Labour Department sammelte Statistiken, die von den Gewerkschaften, den Versicherungsgesellschaften auf Gegenseitigkeit und von den Genossenschaften kamen (Metz, 1987, [195]). Bis zur Gr¨ undung der Arbeitsvermittlungs¨amter im Jahre 1909 waren die Daten der Gewerkschaften die einzigen, mit denen man die Arbeitslosigkeit messen konnte, die um 1880 als unabh¨ angiges soziales Problem in Erscheinung trat, das sich vom Problem der Armut unterschied (Mansfield, 1988, [187]). In diesen dreißig Jahren vervielfachten sich die Debatten zur Taxonomie, um im Rahmen umfassenderer Diskussionen – mit dem Ziel der Reformierung des Gesetzes von 1834 – zwischen Untauglichen, Armen und Arbeitslosen unterscheiden zu k¨ onnen (die im Kapitel 4 vorgestellten Forschungen von Yule zum Pauperismus lassen sich nur in diesem Kontext verstehen). Im Jahre 1905 wurde eine Royal Commission zur Reform des F¨ ursorgerechtes gegr¨ undet. Der Kommissionsbericht wurde 1909 ver¨offentlicht (mit einem widerspr¨ uchlichen Gutachten einer Minderheit von Kommissionsmitgliedern) und man richtete Arbeitsvermittlungs¨ amter ein, die den Beginn einer Organisation des Arbeitsmarktes darstellten. Die Vielfalt der untereinander nicht koordinierten Bureaus f¨ ur amtliche Statistik f¨ uhrte in den 1920er und 1930er Jahren zu Kritiken und Reformvorschl¨ agen. Mehrmals – aber vergeblich – wurde die Gr¨ undung eines u ¨bergeordneten Central Statistical Office (CSO) vorgeschlagen. Die Gr¨ undung des CSO erfolgte erst 1941 im Zusammenhang mit der kriegsbedingten intensiven Mobilisierung der wirtschaftlichen Ressourcen (Ward und Doggett, 1991, [285]). Die ersten Berechnungen des Nationaleinkommens (Richard Stone) spielten eine aktive Rolle bei der teilweisen Vereinheitlichung der Standpunkte der verschiedenen Beh¨orden. Im Gegensatz zu den entsprechenden franz¨ osischen und deutschen Beh¨orden faßte das CSO jedoch nicht den u ¨berwiegenden Teil der Verwaltungsstatistik unter einem Dach zusammen. Das CSO koordinierte aber die Methoden mehrerer unabh¨angiger Beh¨ orden, von denen die folgenden beiden die wichtigsten waren: das f¨ ur Produktionsstatistik zust¨ andige Business Statistical Office (BSO) (das schließlich 1989 mit dem CSO fusionierte) und das alte GRO, das 1970 in das neue Office of Population, Censuses and Surveys (OPCS) eingegliedert wurde. In jeder Phase ihrer Geschichte griffen diese Beh¨ orden in umfassender Weise auf den Rat und die Mitarbeit von Universit¨ atslehrern zur¨ uck, denn zumeist waren es die Universit¨ aten, deren methodologische Untersuchungen zu statistischen Neuerungen f¨ uhrten. Harry Campion, der Gr¨ under des CSO, war Professor in Manchester. Arthur Bowley, der noch bis in die 1940er Jahre eine wichtige Beraterfunktion innehatte, lehrte an der London School of Economics (LSE). Richard Stone, der Vater der volkswirtschaftlichen Gesamtrechnung, geh¨orte der University of Cambridge
Sozialenqueten und wissenschaftliche Gesellschaften
193
an. Nichts oder fast nichts dergleichen gab es in Frankreich, wo die amtlichen Statistiker aus Ingenieurskreisen hervorgingen und die Universit¨ atslehrer bei Debatten zur Statistik h¨ochstens in seltenen Ausnahmef¨ allen (Divisia, Perroux) in Erscheinung traten.
Sozialenqueten und wissenschaftliche Gesellschaften Die Einbeziehung von Wissenschaftlern und Intellektuellen in die praktischen Probleme der Regierung ihres Landes ist ein neuartiges Merkmal der britischen Gesellschaft. Die englischen Wissenschaftler erfanden die Techniken zur Objektivierung wissenschaftlicher Fakten. Diese Fakten ließen sich vom Beobachter abkoppeln, konnten u ¨bertragen werden, waren reproduzierbar und vor widerspr¨ uchlichen Leidenschaften und Interessen gesch¨ utzt. F¨ ur die Naturwissenschaften, insbesondere f¨ ur die Physik und die Astronomie, war ein derartiges Modell im 17. und im 18. Jahrhundert konstruiert worden. Die Bedeutungsverschiebung des Begriffes Statistik“ von der allgemeinen Beschrei” bung der Staaten (in diesem Sinne wurde das Wort im 18. Jahrhundert in Deutschland verwendet) hin zur zahlenm¨aßigen Beschreibung von Gesellschaften (das war der Bedeutungsinhalt des Wortes im 19. Jahrhundert), ging mit einer intensiven Arbeit einher, die das Ziel hatte, die Anspr¨ uche und Methoden der Naturwissenschaften in die menschliche Gesellschaft zu u uhren. ¨berf¨ Diese Umsetzung erfolgte nicht im Selbstlauf. Man sp¨ urt das Ringen in den endlosen Debatten zur Beschaffenheit der Statistik – im gesamten 19. Jahrhundert waren die statistischen Gesellschaften der europ¨ aischen L¨ ander von diesen Debatten beseelt. Ist die Statistik eine unabh¨ angige Wissenschaft oder ist sie eine Methode, die sich in verschiedenen Wissenschaften als n¨ utzlich erweist? Kann man die Statistik mit den Experimentalwissenschaften vergleichen? Lassen sich die Fakten von den Meinungen u ¨ber die Fakten trennen? In Frankreich und in Deutschland spielten sich diese Debatten oft auf einer akademischen Ebene ab. Im Gegensatz hierzu waren sie in Großbritannien weitgehend mit Erhebungspraktiken, Diskussionen zu brennenden Fragen und mit politischen Maßnahmen verkn¨ upft, die sich auf folgende Probleme bezogen: Freihandel, Armut, o¨ffentliche Gesundheit, Ausbildung, Kriminalit¨ at und Arbeitslosigkeit. Die Arbeiten der 1834 gegr¨ undeten Statistical Society of London (die 1887 zur Royal Statistical Society wurde) zeigen die Spannung, die damals aus der Schwierigkeit resultierte, zwei teilweise widerspr¨ uchliche Ziele zu verfolgen: einerseits wollte man die Zusammenstellung der Rohfakten vollst¨ andig von jeglicher Interpretation und Ursachenanalyse abkoppeln; andererseits beabsichtigte man, in der N¨ahe derjenigen lokalen oder nationalen F¨ uhrungskr¨ afte zu bleiben, die f¨ ur die Maßnahmen zur L¨ osung der praktischen Probleme verantwortlich zeichneten (Abrams, 1968, [1]). Die Statistical Society of London verk¨ undete in dem anl¨aßlich ihrer Gr¨ undung im Jahre 1834 ¨ ver¨ offentlichten Manifest den Unterschied zwischen politischer Okonomie und Statistik. Beide hatten zwar das gleiche Ziel, n¨ amlich die Wissenschaft vom ”
194
5 Statistik und Staat:
Frankreich und Großbritannien
¨ Wohlstand“, aber die Statistik unterschied sich von der politischen Okonomie durch folgende Tatsache: ... sie diskutiert weder die Ursachen, noch argumentiert sie bez¨ uglich der wahrscheinlichen Wirkungen, sondern versucht vielmehr, diejenigen Faktenklassen zu sammeln, zu kombinieren und zu vergleichen, welche allein die Basis f¨ ur korrekte Schlußfolgerungen vom Standpunkt der gesellschaftlichen und politischen Exekutive liefern ... Dieser Unterschied schließt jede Art von Spekulation aus ... Die statistische Gesellschaft betrachtet es als ihre erste und wichtigste Verhaltensregel, aus ihren Arbeiten und Publikationen sorgf¨ altig alle Meinungen auszuschließen, um ihre Aufmerksamkeit strikt auf Fakten zu beschr¨ anken, und zwar soweit wie m¨oglich auf Fakten, die sich numerisch zusammenstellen lassen und in Tabellen angeordnet werden k¨ onnen. (London Statistical Society, 1837, zitiert von Abrams, 1968, [1].) Die Gr¨ under und treibenden Kr¨afte dieser Gesellschaft standen der Regierung nahe, und zwar so sehr, daß ihr Rat als Unterkommission des liberalen ” Kabinetts“ bezeichnet werden konnte. Sie waren an den ¨ offentlichen Dienst gebunden, dienten einer Regierung, berieten diese und versuchten, sie zu beeinflussen und zu rationalisieren. Indem sie das taten, erfanden und vertieften sie die Regeln der Arbeitsteilung zwischen Politikern und Technikern. Die Elimination der Meinungen und der Interpretationen war der Preis, den diese Statistiker zahlen mußten, das Opfer, das sie bringen mußten, damit ihre Objekte die von den Politikern geforderte Glaubw¨ urdigkeit und Universalit¨ at erlangten. Dickens l¨asterte in einem seiner Romane u ¨ber das Auftreten des strengen und unerbittlichen Mr. Gradgrind, der unschuldige Leute zugrunderichtete, indem er Fakten, nichts als Fakten“ forderte. Ein Mitglied einer ” anderen statistischen Gesellschaft – der Gesellschaft von Ulster – versicherte, ¨ daß das Studium der Statistik langfristig die politische Okonomie vor der ” Ungewißheit bewahren wird, von der sie gegenw¨ artig umgeben ist“. Dieser Zusammenhang zwischen Statistik und objektiver Gewißheit, der im Gegensatz zu Spekulationen und pers¨onlichen Meinungen steht, hilft uns in der Retrospektive beim Verst¨andnis dessen, warum die Wahrscheinlichkeitsrechnung – die urspr¨ unglich mit der Idee der Ungewißheit zu tun hatte – erst so sp¨at in den Werkzeugkasten der Statistiker (im Sinne des 19. Jahrhunderts) aufgenommen wurde. Das statistische Manifest gab im Jahre 1837 eine klare Definition der Funktion des Statistikers. Aber ein so drastisches Opfer trug seine eigenen Schranken in sich, indem es dem Statistiker eine enggefaßte Rolle zuwies und ihm verbot, seine Energie und seine Talente unter Umst¨anden in zwei verschiedenen Richtungen zu entfalten: in Richtung der Politik und in Richtung der Wissenschaft. Der Statistiker konnte sich nur dann auf die Seite von politischen Entscheidungstr¨ agern stellen, wenn er vorher seine Religion Fakten ohne Meinung“ abgelegt hatte. ” Aber er konnte auch nicht mehr aktiv an den Sozialwissenschaften, Wirtschaftswissenschaften oder an der Soziologie teilnehmen, denn dann m¨ ußte er
Sozialenqueten und wissenschaftliche Gesellschaften
195
seine Fakten in allgemeinere erkl¨arende und interpretierende Systeme einordnen, die er nicht allein mit der Logik der in geb¨ uhrender Weise konstatierten Fakten rechtfertigen konnte. Der Statistiker war also gleichsam eingekeilt und in die Enge getrieben. Diese Probleme f¨ uhrten dazu, daß dem Enthusias” mus f¨ ur Statistik“, der in den 1830er und 1840er Jahren deutlich ausgepr¨ agt war, f¨ ur den nachfolgenden Zeitraum von etwa dreißig Jahren der Atem ausging. In der ersten Zeit konzipierten die statistischen Gesellschaften – nicht nur in London, sondern auch in Manchester und weiteren Industriest¨ adten – ehrgeizige Erhebungsprojekte. Diese Projekte bezogen sich auf Sparkassen, Verbrechen, Mieten, Lebensbedingungen der Arbeiter und Streiks. Frageb¨ ogen wurden nicht nur an eine repr¨asentative Auswahl der Bev¨ olkerung versendet, sondern auch an die zust¨andigen Beh¨orden und an kompetente Personen: Polizei, Krankenh¨ auser, Schulaussch¨ usse, Versicherungsgesellschaften, Verwaltungen des F¨ ursorgegesetzes, Fabrikdirektoren, Grundbesitzer, Zeitungsverleger, Verwaltungsbeamte, Gef¨angnisdirektoren und vor allem an ortsans¨ assige Mitglieder der statistischen Gesellschaften. Aber in Ermangelung eines standardisierten Definitionsapparates und eines homogenen Erfassungsnetzes sowie aufgrund der Tatsache, daß manche Ergebnisse unerwartet oder unbegreiflich waren, schlugen diese Versuche fehl – ¨ahnlich wie es vierzig Jahre zuvor (aber innerhalb der Verwaltung selbst) den Enqueten der franz¨osischen Pr¨afekten ergangen war (vgl. Kapitel 1). Der technische Apparat, die Infrastruktur der Verwaltung und die Werkzeuge zur Formalisierung der Daten waren noch zu beschr¨ ankt und erlaubten es den Statistikern nicht, ihren 1836 unvermittelt proklamierten Prinzipiendiskurs in anspruchsvollen Arbeiten auszutragen. Auch waren die Statistiker nicht ¨ dazu in der Lage, ihre spezifische Legitimit¨at gegen¨ uber Politikern und Okonomen deutlich durchzusetzen – ja, dies gelang ihnen nichteinmal gegen¨ uber Mathematikern und Philosophen der Wahrscheinlichkeitsrechnung, die zwar ebenfalls in Großbritannien aktiv waren (George Boole19 , John Venn20 ), aber in einer ganz anderen Welt lebten und keine Verbindung zu dieser Statistik hatten. Zwischen 1850 und 1890 wurde die statistische Gesellschaft mit den aggregierten Daten versorgt, die von den amtlichen statistischen B¨ uros kamen. Diese Daten waren Nebenprodukte der b¨ urokratischen Verwaltungst¨ atigkeit: Z¨ olle, Armengesetz, Totenscheine, Statistiken von Gewerkschaften und Versicherungsgesellschaften f¨ ur gegenseitige Hilfe. Die Tradition der Umfragen lebte gegen 1890 wieder auf (Hennock, 1987, [128]). Charles Booth (1840–1916), 19
20
George Boole (1815–1864), Mathematiker und Logiker, baute die von ihm begr¨ undete Logik ( Boolesche Algebra“) in seinem Hauptwerk An Investigation of ” the Laws of Thought, on which are Founded the Mathematical Theories of Logic and Probabilities (1854) systematisch aus. John Venn (1834–1923) widmete sich unter dem Einfluß der Arbeiten von A. de Morgan, G. Boole und J.S. Mill den Fragen der Logik und der Wahrscheinlichkeitsrechnung (The Logic of Chance, 1866). Er entwickelte die grafische Darstellung der kategorischen Aussagen der Klassenlogik weiter (Venn-Diagramme).
196
5 Statistik und Staat:
Frankreich und Großbritannien
ein reicher b¨ urgerlicher Reformer opferte sein Verm¨ ogen f¨ ur eine beispiellose Untersuchung u ¨ber die Armut in London. Rowntree (1871–1954), ein Schokoladenfabrikant, f¨ uhrte die Methoden von Booth weiter, um andere englische ¨ St¨ adte zu untersuchen und sie mit London zu vergleichen. Bowley, ein Okonom und mathematisch ausgebildeter Statistiker, erfaßte und standardisierte die Techniken der Stichprobenerhebung und allgemeiner die Techniken des Sammelns, des Aufbereitens und der Interpretation von Sozialstatistiken auf der Grundlage von Normen, die sp¨ater von Fachleuten, Verwaltungsstatisti¨ kern, Okonomen und Soziologen u ¨bernommen wurden (Bowley, 1906 [29] und 1908 [30]). Die aufeinanderfolgenden Auflagen des Handbuchs von Bowley lieferten bis in die 1940er Jahre f¨ ur die Aufzeichnung und Aufbereitung von Wirtschafts- und Sozialstatistiken einen Standard, der mit dem des Buches von Yule u ¨ber die mathematischen Techniken der Datenanalyse vergleichbar war.21 Diese Arbeiten wurden zun¨achst von angesehenen B¨ urgern durchgef¨ uhrt, die technisch – und vor allem mathematisch – nicht allzu qualifiziert waren (Booth und Rowntree); sie dr¨ uckten sich mit Hilfe der Methoden und in der Sprache des 19. Jahrhunderts aus, aber dabei fand keine strikte Trennung zwischen Fakten, Interpretationen und Empfehlungen“ statt. Eines der ” Ziele von Booth bestand darin, zwischen den nichtresozialisierbaren Armen, die f¨ ur ihren eigenen Verfall verantwortlich waren und denjenigen zu unterscheiden, die Opfer von strukturellen Ursachen geworden waren, welche mit der Wirtschaftskrise zusammenhingen. Er sch¨ atzte den relativen Anteil dieser Kategorien und leitete daraus Formen der Relegierung“ (zum Beispiel ” die Ausweisung aus einer Stadt) oder einer geeigneten F¨ ursorge ab. Bowley hingegen sah in der Anwendung anspruchsvoller technischer Normen die M¨oglichkeit, mit gr¨oßeren Erfolgschancen als in den 1830er Jahren eine klare Trennung zwischen Experten und Entscheidungstr¨ agern zu fordern. Auf diese Weise bereitete er den Boden f¨ ur die Autonomisierung einer neuen Gestalt vor – der Gestalt des Staatsstatistikers, der mit einer besonderen beruflichen Kompetenz ausgestattet ist und sich von Politikern und hohen Verwaltungsbeamten ebenso unterscheidet wie von Universit¨ atslehrern oder spezialisierten akademischen Forschern. Noch zu Anfang des 20. Jahrhunderts war diese Gestalt eine Seltenheit, aber ab 1940 war sie in der amtlichen Statistik allgemein verbreitet. In einem 1908 vor der Royal Statistical Society gehaltenen Vortrag The ” improvement of official statistics“ analysierte Bowley sieben Voraussetzungen daf¨ ur, daß eine statistische Operation konsistente Objekte erzeugt: Definition der Einheiten; Homogenit¨at der untersuchten Populationen; Exhaustivit¨ at (das heißt ad¨aquate Stichprobenerhebung); relative Stabilit¨ at (das heißt Messungswiederholungen in dem von der Instabilit¨ at geforderten Rhythmus); Vergleichbarkeit (eine isolierte Zahl hat keine Bedeutung); Relativit¨ at (Z¨ ahler 21
Vergleich und Interpretation der Untersuchungen von Booth, Rowntree und Bowley werden im Kapitel 7 weitergef¨ uhrt.
Sozialenqueten und wissenschaftliche Gesellschaften
197
und Nenner eines Quotienten m¨ ussen auf koh¨arente Weise gesch¨ atzt werden); Genauigkeit (accuracy), die aus der Kombination der sechs vorhergehenden Bedingungen resultiert. Er stellte fest, daß die Genauigkeit der amtlichen Sta” ¨ tistiken – trotz der Aufmerksamkeit und der systematischen Uberpr¨ ufungen, der sie unterzogen worden sind – nur oberfl¨achlich ist“. Zur Illustration seiner ¨ Außerungen gab er eine Reihe von konkreten Beispielen und machte mehrere Vorschl¨ age, die betreffenden Messungen vor allem durch die Verwendung wis” senschaftlich ausgew¨ahlter Stichproben“ zu verbessern, wobei obligatorische Fragen zu beantworten sind, um Verzerrungen zu vermeiden, die aufgrund willk¨ urlich gegebener Antworten auftreten. Zum Schluß schlug er – da es kein Zentralamt f¨ ur Statistik gab – die Gr¨ undung eines Central Thinking Office of Statistics vor und erinnerte seine Zuh¨orer an den Ratschlag, den ein anderes Mitglied der Gesellschaft gegen¨ uber Statistikern ge¨ außert hatte: Denken Sie ” mehr nach und publizieren Sie weniger!“ ¨ In der sich anschließenden Debatte stimmte Yule den Außerungen von Bowley zu, machte aber zwei signifikante Bemerkungen. Er stellte fest, daß die Annahme der Homogenit¨at der Bev¨olkerungsgruppen nicht notwendig ist und daß die neuen statistischen Methoden (das heißt die Methoden von Pearson) genau darauf abzielen, heterogene Bev¨olkerungsgruppen zu analysieren. ¨ Bowley antwortete, daß es sich um ein Mißverst¨ andnis handelte. Im Ubrigen war Yule nicht davon u allig und ¨berzeugt, daß eine Stichprobe wirklich zuf¨ ” f¨ ur die Gesamtbev¨olkerung repr¨asentativ sein kann, selbst wenn eine entsprechende Antwort in ¨ahnlicher Weise zur Pflicht gemacht wird, wie die Teilnahme an Geschworenengerichten“ (ein interessanter und selten angestellter Vergleich). Die Debatte wurde dann mit einer scheinbar praktischen Frage fortgesetzt, die jedoch das Problem der Beschaffenheit und des Realit¨ atsstatus der ver¨ offentlichten amtlichen Statistiken aufwarf. Bowley hatte behauptet, daß diese Ver¨ offentlichungen immer auch von s¨amtlichen Einzelheiten zu den Methoden und Definitionskonventionen sowie von allen Details zur Aufzeichnung, Kodierung und Tabellierung begleitet sein m¨ ußten. Man hielt ihm entgegen, daß diese Vorgehensweise das Risiko birgt, die betreffenden Ver¨ offentlichun” gen so volumin¨ os und sperrig zu machen, daß sich deren N¨ utzlichkeit eher verringert als erh¨oht“. Bowley schlug in professioneller Weise vor, die Black Box wenigstens einen Spalt ge¨offnet zu lassen, damit die Verfahren zur Herstellung der Objekte teilweise sichtbar bleiben. Man antwortete ihm in der ¨ Fachsprache der Okonomie: Wozu ist diese gewichtige Investition u ¨berhaupt gut, wenn man sie nicht mit geschlossenen Augen benutzen kann und sie sich nicht schl¨ usselfertig in andere Konstrukte integrieren l¨ aßt? Dieser scheinbar harmlose Spannungszustand war der Kern der statistischen Realit¨ atskonstruktion. Die Entscheidung zwischen den beiden Anforderungen hing weitgehend von der Legitimit¨at und Glaubw¨ urdigkeit der ver¨ offentlichenden Institution ab. Die Normen, die den f¨ ur notwendig gehaltenen kritischen Apparat bestimmten, unterschieden sich je nachdem voneinander, ob es sich um eine Dissertation, eine wissenschaftliche Zeitschrift oder um eine Verwaltungspublikation handelte. Die Auswahl, die in dieser Hinsicht von den verschiedenen
198
5 Statistik und Staat:
Frankreich und Großbritannien
Informationsverbreitungstr¨agern“ eines statistischen Amtes getroffen wird, ” ist ein Hinweis darauf, ob sich die Legitimit¨at des betreffenden Amtes eher auf die Wissenschaft oder eher auf den Staat st¨ utzt.22 Das paradoxe Merkmal des englischen Gef¨ uges bestand darin, daß das neue Berufsprofil von einem Universit¨atslehrer kodifiziert wurde und daß es dieser Umstand erm¨oglichte, die obengenannten Fragen zu einem sehr fr¨ uhen ¨ Zeitpunkt zu stellen. In Großbritannien nahmen abstrakte theoretische Uberlegungen an den Universit¨aten viel weniger Raum ein als in Frankreich und sehr viel weniger als seinerzeit in Deutschland. Dagegen war die enge Wechselwirkung zwischen Universit¨aten, Verwaltung und Politik in Großbritannien eine allt¨ agliche und traditionsreiche Angelegenheit. In Deutschland fanden die Vorst¨ oße, die zwischen 1871 und 1914 in dieser Richtung unternommen wurden, bei der Verwaltung und im politischen Dienst des Kaiserreiches einen nur geringen Anklang.
22
Ein weiterer wichtiger Indikator zu diesem Thema war der mehr oder weniger anonyme Charakter einer Ver¨ offentlichung. Eine Unterschrift wurde mit der Praxis der wissenschaftlichen Konkurrenz in Verbindung gebracht, Anonymit¨ at hingegen mit der Verwaltungspraxis.
6 Statistik und Staat: Deutschland und die Vereinigten Staaten
Zu Beginn des 19. Jahrhunderts war die Existenz eines Nationalstaates in Frankreich, Großbritannien und sogar in den Vereinigten Staaten gesichert und wurde nicht mehr infrage gestellt. In Deutschland war das jedoch nicht der Fall und das Land war noch immer in unterschiedliche Staaten von sehr ungleichem Gewicht zersplittert. Die aufeinanderfolgenden Abschnitte der Errichtung der deutschen Nation pr¨agten die Geschichte der n¨ achsten beiden Jahrhunderte: das K¨onigreich Preußen, das Bismarcksche Kaiserreich, die Weimarer Republik, das Nazireich, die BRD und die DDR voneinander getrennt und schließlich das wiedervereinigte Deutschland. Diese Ungewißheit in Bezug auf den Staat, seine Konsistenz und seine Legitimit¨ at hinterließen ihre Spuren nicht nur in den Strukturen der statistischen Institutionen, sondern auch in den Denkweisen und im Argumentationsverhalten. Die Ungewißheit verlieh der deutschen Statistik – und allgemeiner den Sozialwissenschaften und deren Beziehungen zur Macht – in ihren aufeinanderfolgenden Formen eine besondere F¨arbung, die sich zumindest bis 1945 deutlich von den drei anderen L¨ andern unterschied. Der in historischen und religi¨ osen Traditionen verankerte Wunsch nach Beibehaltung der Besonderheiten der Einzelstaaten (und sp¨ ater der Bundesl¨ ander ) wurde durch einen Rechtsformalismus und eine Organisation kompensiert, welche den Zusammenhalt des Ganzen auf eine Art und Weise garantierten, die fr¨ uher autorit¨ ar war und heute demokratisch ausgerichtet ist. Philosophische Debatten hatten lange Zeit hindurch in den deutschen Sozialwissenschaften – einschließlich der Statistik – einen bedeutenden Raum eingenommen. Diese Debatten zeichneten sich durch holistisches und historizistisches Denken aus, das dem Individualismus und den vermeintlich reduktiven Universalismen des franz¨ osischen Rationalismus und ¨ des englischen Okonomismus feindlich gegen¨ uberstand. Die Beziehungen der Universit¨ atslehrer und der Statistiker zum Staat waren komplex, h¨ aufig konfliktbeladen und erreichten selten die in Großbritannien beobachtete Flexibilit¨ at und Kontinuit¨at. Diese Merkmale waren f¨ ur das Deutschland des 19. Jahrhunderts und des beginnenden 20. Jahrhunderts typisch. Einige dieser Merkmale bestehen seit 1945 weiter: der F¨oderalismus, der Rechtsformalis-
200
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
mus und die Organisation. Dagegen haben sich die statistischen Techniken und deren Nutzung in der Verwaltung und in den Sozialwissenschaften den entsprechenden anglo-amerikanischen Vorbildern angen¨ ahert.
Deutsche Statistik und Staatenbildung Das Wort Statistik“ hat seinen Ursprung im Deutschland des 18. Jahrhun” derts und bezeichnete eine deskriptive und nichtquantitative Staatenkunde“ ” oder Staatswissenschaft“, einen Bezugsrahmen und eine Nomenklatur, die ” den F¨ ursten zahlreicher deutscher Staaten von Universit¨ atsgelehrten vorgelegt wurde (Kapitel 1). Unter diesen Staaten nahm Preußen eine herausragende Stellung ein und es waren auch schon Quantifizierungspraktiken bekannt, die sich deutlich von der Statistik unterschieden, wie sie von den Professoren betrieben wurde. Wie zur gleichen Zeit in Frankreich teilten sich diese Praktiken auf zwei verschiedene Bereiche auf: einerseits besch¨ aftigte sich die Verwaltung mit Statistik; andererseits befaßten sich aufgekl¨ arte Amateure damit (Hacking, 1990, [119]). Die k¨onigliche Regierung und ihre B¨ urokratie sammelte Informationen, die geheim und ausschließlich dem eigenen Gebrauch vorbehalten waren, um die Armee zu organisieren und Steuern zu erheben. In der preußischen Statistik des 19. Jahrhunderts blieb die fundamentale Trennung zwischen Milit¨ar und Zivilisten bestehen. Das f¨ uhrte zu einer entsprechenden Strukturierung der Tabellierungen und sp¨ ater auch der deutschen Volksz¨ ahlungen – die Unterscheidung zwischen den Beamten und den anderen Berufsgruppen ist noch heute erkennbar: der Staatsdienst war ein wichtiges ¨ Element bei der Definition der Identit¨at von Individuen. Im Ubrigen produzierten Amateure“ – Geographen oder Reisende, die weder in der Verwaltung ” noch an Universit¨aten t¨atig waren – zusammenfassende Arbeiten, die sich auf Zahlen st¨ utzten und der Statistik im Wortsinne der folgenden Jahrhunderte n¨aher standen. Der bekannteste dieser Amateure war der Pfarrer S¨ ussmilch (1707–1767), dessen G¨ ottliche Ordnung eines der Werke war, welche die Demographie begr¨ undeten (Hecht, 1979, [126]). Nach der Niederlage gegen die Armeen Napoleons wurde der preußische Staat umorganisiert und mit einem statistischen Dienst ausgestattet. Dieser existierte ohne Unterbrechung von 1805 bis 1934 und war die wichtigste Beh¨ orde des im Jahre 1871 proklamierten Deutschen Reiches (Saenger, 1935, [246]). Die anderen deutschen Staaten – Bayern, Sachsen, W¨ urttemberg, ... – erhielten in der ersten H¨alfte des 19. Jahrhunderts ebenfalls statistische Bureaus. Das Deutsche Statistische Reichsamt wurde 1872 gegr¨ undet, aber die ¨ Amter der verschiedenen Staaten blieben bis 1934 unabh¨ angig und wurden danach vom vereinigten Statistischen Reichsamt des Nazistaates aufgesogen. (Im Jahre 1949 stellte die neue Bundesrepublik das vor 1934 existierende System wieder her: die Bundesl¨ander erhielten statistische Landes¨ amter, die sich von dem in Wiesbaden gegr¨ undeten Statistischen Bundesamt unterschei¨ den, wobei die Aktivit¨aten der einzelnen Amter jedoch ziemlich koordiniert
Deutsche Statistik und Staatenbildung
201
sind). Das K¨ oniglich Preußische Statistische Bureau und die anderen deutschen statistischen Bureaus erbten die drei Traditionen des 18. Jahrhunderts und amalgamierten sie miteinander: die von den Universit¨ atslehrern verfaßten politischen, historischen und geographischen Beschreibungen, die Verwaltungsregister der Beamten und die Zahlentabellen der gelehrten Amateure. ¨ Die Leiter der statistischen Bureaus (und sp¨ateren statistischen Amter) waren oft gleichzeitig Universit¨atsprofessoren f¨ ur Staatswissenschaften“. In diesen ” beiden T¨ atigkeitsbereichen erarbeiten sie umfangreiche Kompilationen u ¨ber die verschiedenen Aspekte eines Territoriums, dessen historische, religi¨ ose, kulturelle und wirtschaftliche Identit¨at den deskriptiven und explikativen“ Leit” faden lieferte. Aber im Unterschied zu ihren Vorg¨ angern im 18. Jahrhundert bezogen diese Statistiken“ immer mehr Zahlentabellen aus den Bereichen der ” Demographie und der Verwaltungst¨atigkeit ein. Die engen Verbindungen zur ¨ Verwaltung waren durch die Tatsache gekennzeichnet, daß diese Amter an das Innenministerium angegliedert waren – ein Ministerium der direkten politischen Verwaltung –, w¨ahrend ihre franz¨osischen und englischen Amtskollegen eher den Ministerien aus dem Bereich der Wirtschaft (Handel, Arbeit, Finanzen) unterstellt waren. Dieser Unterschied blieb auch weiterhin bestehen: die Statistik ist einer der Mechanismen, die einen Staat zusammenhalten, dessen Konsistenz mehr Probleme aufweist, als es in anderen Staaten der Fall ist. Das K¨ oniglich Preußische Statistische Bureau zeigte eine große Best¨ andigkeit. In den einhundertneunundzwanzig Jahren seiner Existenz hatte es nur sechs Leiter. Zwei von ihnen u ¨bten einen besonders langen und weitreichenden Einfluß aus: Hoffmann, Leiter von 1810 bis 1845, und vor allem Ernst Engel1 , Leiter von 1860 bis 1882. Die ersten Leiter der statistischen Bureaus waren hohe Beamte, die gleichzeitig andere Positionen innehatten – nicht nur an Universit¨ aten, sondern auch im diplomatischen Dienst oder im Staatsrat, wo sie an der Gesetzgebung mitwirkten. Vor der Ernennung Engels im Jahre 1860 bestand die T¨atigkeit dieses Bureaus – vergleichbar mit der T¨ atigkeit der SGF unter Moreau de Jonn`es – darin, große Mengen von Daten zu sammeln und zu ver¨ offentlichen, die von anderen Verwaltungen aufgezeichnet worden waren und sich somit jeglicher technischen Kontrolle, aber auch jeder zentralen Koordinierung entzogen. Die ver¨offentlichten Tabellen bezogen sich auf Bev¨ olkerungsbewegungen“ (Personenstand), aber auch auf Preise, Existenz” ” mittel“, Finanzstatistiken, Geb¨aude und Schulen f¨ ur das gesamte K¨ onigreich und f¨ ur dessen Provinzen: diese subtilen geographischen Beschreibungen waren von großer Bedeutung. Die Gesamtheit der deskriptiven Arbeiten bildete ein unzusammenh¨angendes administratives und territoriales Patchwork, dessen Reputation als Datenquelle in der Retrospektive eher schwach war. Aber 1
Ernst Engel wurde 1821 in Dresden geboren, wo er 1896 auch starb. Er studierte ´ an der Ecole des mines in Paris bei Le Play. In Belgien lernte Engel Adolphe Quetelet kennen, mit dem er sp¨ ater eng zusammenarbeitete. Bevor Engel nach Berlin ging, war er von 1850 bis 1858 Leiter des K¨ oniglich S¨ achsischen Statistischen ” Bureaus“ in Dresden.
202
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
es ist wahrscheinlich, daß diese Publikationen durch ihre Existenz und ihr Volumen – als Symbole der Staatsmacht und ihrer Verwaltung – genauso wichtig waren, wie durch die Details und die Pr¨azision ihrer imposanten Tabellen. Im Unterschied zu England war Deutschland noch nicht sehr industrialisiert und die sozialen Probleme waren noch nicht im gleichen Maße erkennbar. Dagegen spielten die Probleme, die durch die politischen und milit¨ arischen Beziehungen zwischen den Staaten, durch den im Entstehen begriffenen Zollverein und durch die wachsende Macht Preußens hervorgerufen wurden, in der Zeit vor 1860 eine wesentliche Rolle. Danach ¨anderte sich die Situation, nicht nur aufgrund der starken Pers¨onlichkeit von Engel, sondern auch deswegen, weil der wirtschaftliche und politische Kontext – aufgrund der schnellen Industrialisierung und der Reichseinigung mit Preußen an der Spitze – nicht mehr der gleiche war. Ernst Engel ist vor allem wegen seiner Arbeiten u ¨ber Familienbudgets und wegen der Formulierung einer Elastizit¨atsrelation, des Engelschen Ge” setzes“, bekannt, gem¨aß dem sich mit steigendem Einkommen der Anteil der Ausgaben f¨ ur Nahrungsmittel zugunsten der Ausgaben f¨ ur Dienstleistungen verringert. Zun¨ achst war Engel ein typischer Statistiker des 19. Jahrhunderts, ein aktiver und streitbarer Organisator, der sich aber gegen¨ uber den Finessen der Mathematik noch nicht u ¨berm¨aßig aufgeschlossen zeigte. Die Rolle eines solchen Statistikers bestand darin, Verwaltungsmechanismen ex nihilo zu erschaffen, zu ¨ andern oder ihnen eine andere Richtung zu geben, um Bureaus zu vereinigen oder zu koordinieren und deren T¨ atigkeit – auf der Grundlage von mehr oder weniger hierarchisierten und zentralisierten Formen – einer allgemeinen Logik unterzuordnen. Zu seinen Funktionen geh¨ orte es aber auch, das Interesse anderer Akteure zu erwecken und das statistische Amt in umfassendere wissenschaftliche und politische Netzwerke einzubinden. Wir hatten bereits festgestellt, daß die franz¨osische SGF unter Lucien March und das britische GRO unter William Farr diese beiden Ziele mehr oder weniger erreicht hatten. In Bezug auf Engel und das Preußische Statistische Bureau verhielten sich die Dinge jedoch anders. Zwar gelangen ihm die technische Umgestaltung und die administrative Zentralisierung, die seine Vorg¨ anger nicht zustandegebracht hatten. Jedoch scheiterte er teilweise an der zweiten Aufgabe, das heißt am Aufbau eines wissenschaftlich-politischen Netzwerks, obgleich er einen bedeutenden Beitrag zur 1872 erfolgten Gr¨ undung des Vereins f¨ ur Socialpolitik geleistet hatte. Aber das Scheitern Engels betraf nicht nur ihn allein. Es war auch das Schiffbruch des aus Professoren und angesehenen liberal-gem¨ aßigten Pers¨ onlichkeiten bestehenden Vereins, dem es nicht gelang, der autorit¨ aren Politik Bismarcks eine andere Richtung zu geben. Die Geschichte von Engel und seinem statistischen Bureau l¨aßt sich nicht von diesem umfassenderen Vorhaben trennen, das mit den Sozialgesetzen zwar zur H¨ alfte gelungen war, dessen andere H¨alfte jedoch fehlschlug, da das politische B¨ undnis schließlich auseinanderbrach. Engel machte sich 1861 an die Aufgabe, das Preußische Statistische Bureau vollst¨ andig umzugestalten, indem er die Statistiken des Staates so er-
Deutsche Statistik und Staatenbildung
203
weiterte und vereinheitlichte, daß ihm der u ¨berwiegende Teil ihrer Umsetzung anvertraut wurde. F¨ ur die Z¨ahlungen schuf er individuelle Berichte, damit die grundlegenden Daten aller befragten Personen – und nicht nur die Daten der maßgeblichen angesehenen Pers¨onlichkeiten (B¨ urgermeister, Priester) – gespeichert wurden. Die Berichte wurden vom Bureau selbst entworfen und ausgewertet (die zentrale Auswertung wurde in Frankreich erst 1896 von March eingef¨ uhrt). Engel erh¨ohte die Anzahl und Vielfalt der Publikationen. Dar¨ uber hinaus gr¨ undete er eine zentrale statistische Kommission, die als Verbindungsstelle zwischen den Ministerien und dem Bureau fungierte. Und schließlich gr¨ undete er 1870 – gem¨aß dem f¨ ur die damaligen deutschen Universit¨ aten typischen Modell – auch ein statistisches Seminar , um die Statistiker der anderen Verwaltungen oder Staaten auszubilden, die bald darauf im neuen ¨ Reich vereinigt wurden. Viele Okonomen und Wirtschaftshistoriker besuchten dieses Seminar und wurden in der Folgezeit, nach den Vertretern des Vereins, zu den bekanntesten Repr¨asentanten der wirtschaftswissenschaftlichen Denk¨ richtung, die den Namen deutsche historische Schule 2 trug. Diese Okonomen, die Gegner der ¨ osterreichischen und der englischen abstrakten deduktiven und ¨ formalisierten Okonomie waren, legten großen Wert auf empirische Monographien mit historischer und statistischer Grundlage und verfuhren nach den Methoden, die Engel gelehrt hatte.3 Zu der Zeit, als Engel das statistische Bureau leitete, setzte in Deutschland ein rasches industrielles Wachstum ein. Deutschland holte England und Frankreich ein – L¨ ander, in denen der Start zur Industrialisierung fr¨ uher erfolgt war. Es mußte eine Statistik der gewerblichen Betriebe geschaffen werden. Engel stellte sich eine vereinheitlichte Z¨ahlung der Individuen, Berufe und Betriebe auf der Grundlage individueller Berichte vor (so war auch das in Frankreich im Jahre 1896 gew¨ahlte System beschaffen). Die erste Z¨ ahlung der Industriebetriebe erfolgte 1876, eine Vollerhebung zu den industriellen Einrichtungen wurde 1882 durchgef¨ uhrt. Diese Z¨ahlungen waren im letzten Viertel des 19. Jahrhunderts der Ursprung einer historisch bedeutsamen statistischen Reihe zu Berufen und Betrieben (Stockmann und Willms-Herget, 1985, [268]). Auf diese Weise wurden die Statistiken des Produktionsapparates mit den Besch¨ aftigungsstatistiken verbunden. Die Industrialisierung hatte ein schnelles Wachstum der Arbeiterklasse zur Folge. Die Arbeiterklasse war durch die sozialdemokratische Bewegung gewerkschaftlich und politisch hochorganisiert. ¨ Engel und die Okonomen des Vereins k¨ampften f¨ ur die Schaffung von Versicherungssystemen f¨ ur gegenseitige Hilfe, die auf der Idee der Selbsthilfe beruhten. 2
3
Die deutsche historische Schule repr¨ asentiert die ¨ okonomische Auspr¨ agung des historistischen Denkens. Der Historismus bestreitet die Existenz allgemeing¨ ultiger sozialwissenschaftlicher Gesetze. Anders als in den Naturwissenschaften seien Gesetze“ in den Sozialwissenschaften geschichtlich bedingt. ” ¨ Die betreffenden Okonomen waren sp¨ ater selbst eine Quelle der Inspiration f¨ ur ¨ die amerikanischen institutionalisierten Okonomen, welche ihrerseits die Statistik ¨ umfassend nutzten und zwischen 1910 und 1930 zur Gr¨ undung der Okonometrie beitrugen.
204
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
Engel hatte bereits 1858 die Idee einer Versicherungsgesellschaft neuen Typus und eine solche Gesellschaft auch gegr¨ undet: Hypotheken bildeten die Grundlage des Schutzes gegen die Androhung der Wohnungspf¨ andung, die damals bei Arbeitern h¨ aufig durchgef¨ uhrt wurde (Hacking, 1987, [118]). Außerdem wirkte er an der Sozialgesetzgebung mit, die von der Bismarck-Regierung in Antwort auf die von der Arbeiterbewegung erhobenen Forderungen in die Wege geleitet wurde. Im Zeitraum von 1881 bis 1889 f¨ uhrte die Regierung die Kranken-, Unfall-, Invaliden- und Alterssicherungsgesetze ein; 1891 folgte das Arbeiterschutzgesetz.4 Dieses allererste soziale Sicherungssystem hatte ¨ denjenigen Statistikern und Okonomen sehr viel zu verdanken, die mit Engel innerhalb des vom Verein gekn¨ upften Netzwerks in Verbindung standen. Aber als diese Gesetze verabschiedet wurden, mußte Engel 1882 von seinem Posten zur¨ ucktreten, da er gegen die protektionistische Politik Bismarcks auftrat5 (Bismarck, der Verbindungen zu den ostpreußischen Grundbesitzern hatte, lehnte erh¨ohte Importz¨olle f¨ ur Getreide ab, was zu einer Steigerung der Nahrungsmittelpreise f¨ uhrte und die L¨ohne belastete. Dadurch waren Arbeiter und Fabrikanten gleichermaßen benachteiligt und die Spannungen zwischen ihnen nahmen zu). Bereits zuvor war dem Engelschen Vorhaben die Luft ausgegangen. Im Jahre 1873 stagnierte sein statistisches Seminar und das Interesse der preußischen Beamten f¨ ur Statistik ließ nach. Es war ihm weder gelungen, die Beziehungen zwischen dem statistischen Amt und den lokalen Verwaltungen aufrechtzuerhalten (die er anfangs durch die Gr¨ undung von 97 ¨ f¨ordern wollte), noch hatte er es erreicht, die in den anderen ¨ortlichen Amtern Ministerien erstellten statistischen Untersuchungen vollst¨ andig zu vereinheitlichen. Nach dem erzwungenen Abgang von Engel im Jahre 1882 kam es zu einem Vertrauensbruch zwischen der Regierung und dem Preußischen Statistischen Landesamt. Saenger rekonstruierte 1935 die Geschichte dieses Amtes (zu einem Zeitpunkt also, an dem dieses von der statistischen Zentralbeh¨ orde aufgesogen wurde) und beschrieb die sich abzeichnende Schw¨ achung des wissenschaftlichen und politischen Netzwerks: Im Gegensatz zu Friedrich dem Großen hatte Bismarck nicht viel f¨ ur Statistik u onne. Es ¨brig und dachte sogar, daß man darauf verzichten k¨ ist nur allzu verst¨andlich, daß der Blitz, der unerwartet den Leiter des Amtes getroffen hatte und dieses in seiner T¨ atigkeit l¨ ahmte, nur zur Vorsicht gemahnen konnte und zu einem großen Vorbehalt gegen¨ uber allen Eingriffen von außen f¨ uhrte ... Die zentrale statistische Kommission, die zur Zeit von Engel eine sehr anregende T¨ atigkeit ausge¨ ubt hatte, schlief allm¨ahlich ein ... Das Preußische Statistische Landesamt 4
5
Die erste Berufsz¨ ahlung des Deutschen Reiches wurde 1882 durchgef¨ uhrt, um insbesondere Unterlagen f¨ ur die ein Jahr zuvor eingeleitete Etablierung der Sozialversicherung zu liefern. Engel hatte 1881 unter einem Pseudonym einen Angriff auf die Bismarcksche Schutzzollpolitik ver¨ offentlicht und trat sp¨ ater aus gesundheitlichen Gr¨ unden“ ” zur¨ uck.
Deutsche Statistik und Staatenbildung
205
ging fast unmerklich von einer Institution, die als Unterst¨ utzungsorgan f¨ ur Gesetzgebung, Verwaltung und Wirtschaft vorgesehen war, in ein wissenschaftliches Institut u ¨ber, in dem Forschungsarbeiten je nach Begabung oder Interessenlage der Institutsmitglieder ver¨ offentlicht wurden. (Saenger, 1935, [246].) Dieses retrospektive Urteil wurde also f¨ unfzig Jahre nach dem R¨ ucktritt Engels gef¨ allt – und zwar von einem Leiter des gleichen Amtes, das zudem gerade von einem Blitz getroffen wurde, der noch viel vernichtender als der von Bismarck geschleuderte Blitz sein sollte. Vielleicht wollte Saenger damit nur den Gedanken nahelegen, daß sich Hitler – ebenso wie Bismarck – nicht auf die Autorit¨ at Friedrichs des Großen berufen konnte, denn er hatte das Preußische Statistische Landesamt schlecht behandelt. Dennoch war die T¨ atigkeit dieses Amtes zwischen 1882 und 1914 von Bedeutung und es war durchaus kein Institut, in dem Forschungsarbeiten je nach Interessenlage der Institutsmit” glieder ver¨ offentlicht wurden“. Bev¨olkerungsstatistiken wurden alle f¨ unf Jahre erstellt. Zwei große Z¨ahlungen – eine Berufsz¨ahlung und eine Betriebsz¨ ahlung – fanden 1895 und 1907 statt. Es wurden statistische Untersuchungen durchgef¨ uhrt, deren Themen ein deutlicher Hinweis darauf waren, wie das Amt dem jeweiligen Hauptanliegen der Verwaltung folgte: zus¨ atzliche Steuern, Tauglichkeit f¨ ur den Wehrdienst und dessen Aufteilung zwischen Stadt und Land, Schul- und Universit¨atssystem, Nationalit¨aten und Gemeindefinanzen. Aber das Preußische Statistische Landesamt sp¨ urte allm¨ ahlich die doppelte Konkurrenz, die aus dem Wirtschaftswachstum und der deutschen Einigung resultierte. Die rasche industrielle Entwicklung ging mit der Gr¨ undung von sehr großen Firmen, Kartellen und Arbeitgeberverb¨ anden einher; diese wiederum f¨ uhrten ihre eigenen Datenaufzeichnungen, was fr¨ uher der amtlichen Statistik oblag und nun einen Verlust dieses Monopols nach sich zog. Saenger beschreibt die Folgen der deutschen Einheit in Ausdr¨ ucken, die ein Jahrhundert sp¨ ater an die Folgen der europ¨aischen Einigung erinnern – mit Ausnahme der Tatsache, daß es heute in Europa keinen Staat gibt, der die Gemeinschaft so deutlich dominiert, wie damals Preußen das Reich dominiert hatte: In dem Maße, in dem eine vereinheitlichte deutsche Wirtschaft geschaffen wurde, verloren die ausschließlich auf Preußen beschr¨ ankten Daten ihren Wert. Es war noch ein Staat, aber es war keine vollwertige wirtschaftliche Entit¨at mehr. Je mehr sich die Gesetzgebung des Reiches ausbreitete, desto st¨arker war der Bedarf an Daten, die u ¨berall auf einheitlicher Grundlage erfaßten werden ... Man konnte die einzelnen Staaten nicht mehr ber¨ ucksichtigen und Preußen sogar nur in geringerem Maße als die mitteldeutschen Staaten, die noch mehr oder weniger geschlossene wirtschaftliche Entit¨ aten bildeten ... Die Statistik des Reiches wurde immer wichtiger. Die preußische zentrale Kommission wurde allm¨ahlich durch Arbeitskommissionen ersetzt, in ¨ denen die statistischen Amter der Staaten und des Reiches vereinigt
206
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
waren. Die beratende Rolle der Kommission wurde von nun an vom Bundesrat u ¨bernommen. (Saenger, 1935, [246].) Jedoch u ur die an¨bernahm das Preußische Amt zunehmend Arbeiten f¨ deren Staaten und es kam zu einer allm¨ahlichen Arbeitsteilung zwischen der preußischen Statistik und der gesamtdeutschen Statistik. Dieses empirische Gleichgewicht bestand bis zum Zusammenschluß beider Beh¨ orden im Jahre 1934. Der beschriebene Prozeß ist bedeutsam: die Vereinheitlichung erfolgte schrittweise und es konnten mehrere Beh¨orden nebeneinander bestehen, deren Konkurrenz- und Komplementarit¨atsbeziehungen durch die jeweiligen politischen Verh¨ altnisse, durch Verhandlungen und Kompromisse geregelt waren. Im Gegensatz hierzu kannte der franz¨osische Staat, der politisch schon seit langem geeint war, keine derartigen wechselnden Beziehungen. Auch die gegenw¨ artige deutsche Statistik beruht auf einem Gleichgewicht, das zwischen dem Bund und den L¨andern ausgehandelt wird, wobei der Bundestag (und vor allem die zweite Versammlung, der die Bundesl¨ ander vertretende Bundesrat) eine wichtige Kontrollfunktion der T¨atigkeit des Statistischen Bundesamtes aus¨ ubt. Die im Aufbau begriffene europ¨aische Statistik – beginnend mit dem Statistischen Amt der Europ¨aischen Gemeinschaften (dem in Luxemburg eingerichteten EUROSTAT) – wird wom¨ oglich durch seinen f¨ oderalen und zwischen unabh¨angigen Staaten ausgehandelten Charakter mehr mit der historisch gewachsenen deutschen Statistik gemeinsam haben, als mit dem zentralisierten franz¨osischen System, das auf dem Territorialprinzip beruht. Die gleichen Probleme stellen sich in den anderen L¨ andern Mittel- und Osteuropas, die nach dem bundesstaatlichen Prinzip aufgebaut sind.
Historische Schule und philosophische Tradition Die Schwierigkeiten, die Engel und das Preußische Statistische Landesamt nach 1880 mit der politischen Macht hatten, beschr¨ ankten sich nicht nur auf die von Saenger beschriebenen wirtschaftlichen und administrativen Probleme. Die Abk¨ uhlung der Beziehungen zwischen den Statistikern und der kaiserlichen Regierung war eine allgemeinere Erscheinung und betraf die gesamte gem¨ aßigt-liberale Str¨omung, der Engel durch den Verein f¨ ur Socialpolitik angeh¨ orte. In den ersten Jahren nach seiner Gr¨ undung im Jahre 1872 hatte dieser Verein zun¨achst – aufgrund der geringen Bedeutung des Reichstags – die Funktion eines F¨ urstenberaters und eines Beraters von Spezialisten, Sta¨ tistikern und Okonomen, die Gesetzestexte vorbereiteten. In dieser Hinsicht ließ sich der Verein mit der englischen Statistical Society vergleichen. Aber diese national-liberal orientierte Gruppierung geriet anschließend in zahlreichen Punkten mit dem Bismarckschen Autoritarismus aneinander und zerfiel schließlich in mehrere Gruppen unterschiedlicher Richtungen. Diese Richtungen hingen von den politischen Organisationsformen ab, die zur Bew¨ altigung der betreffenden Situation bef¨ urwortet wurden. In diesem neuen Kontext, in
Historische Schule und philosophische Tradition
207
dem Beratung und direkter Einfluß nicht mehr m¨ oglich waren, wurde der Verein mit Wirtschaftserhebungen und Sozialenqueten aktiv, die einen ausgepr¨ agten statistischen Inhalt hatten. Der Verein betrachtete das vor allem als Mittel zur Auss¨ ohnung seiner verschiedenen Fraktionen. Eine der wichtigsten dieser Enqueten wurde 1891 von Max Weber durchgef¨ uhrt und bezog sich auf die ostpreußischen Landarbeiter.6 Trotz ihres scheinbar technischen und begrenzten Themas war die Untersuchung durch ein wirtschaftliches und politisches Problem ausgel¨ ost worden, das f¨ ur das damalige Deutschland wesentlich war: Wie ließ sich die Identit¨ at des gerade entstehenden Nationalstaates aufrechterhalten und st¨ arken, w¨ ahrend die industrielle Entwicklung gleichzeitig das soziale Gleichgewicht zwischen Grundbesitzern, Betriebsinhabern, Landarbeitern und Fabrikarbeitern ersch¨ utterte? In England wurde das Problem des Gleichgewichts zwischen den Klassen durch die Begriffe der Armut und der Gefahr zum Ausdruck gebracht, die vom Lumpenproletariat – den am meisten Benachteiligten – ausging. In Deutschland hingegen formulierte man das Problem mit Hilfe der Frage der nationalen Identit¨ at, die man durch nichtdeutsche Bev¨olkerungsanteile bedroht sah. Die Industrialisierung hatte innerhalb des Kaiserreiches zu bedeutenden Bev¨ olkerungsbewegungen gef¨ uhrt, die vom preußischen Nordosten in Richtung des rheinischen S¨ udwesten verliefen. Arbeitskr¨afte slawischen (polnischen und russischen) Ursprungs u ¨bernahmen in Ostpreußen die freigewordenen Arbeitsstellen auf den großen G¨ utern der preußischen Junker , die das Regime politisch unterst¨ utzten. Die traditionellen patriarchalischen Bindungen wurden allm¨ ahlich durch anonyme kapitalistische Beziehungen ersetzt. Die Enquete verfolgte das Ziel, die neuen Beziehungen durch ¨ okonomische Begriffe zu beschreiben und die Auswirkungen dieser Beziehungen auf den sozialen und nationalen Zusammenhalt zu bewerten. Bei der Erhebung wurden zwei verschiedene Frageb¨ogen verwendet. Der erste Fragebogen war f¨ ur die Grundbesitzer bestimmt und beinhaltete faktische Fragen: Anzahl der Lohnempf¨ anger, Anteil der Entlohnung in Geld und Sachleistungen, soziale Merkmale der Arbeiter, Formen der Arbeitsvertr¨ age, M¨ oglichkeit des Zugangs zu Schulen und Bibliotheken. Von den 3100 versendeten Frageb¨ ogen wurden 2277 (69%) zur¨ uckgeschickt. Der zweite Fragebogen beinhaltete eine Bewertung. Er richtete sich an Lehrer, Pfarrer, Notare und Beamte, von denen man vermutete, daß sie die Werte und Meinungen der Landbev¨ olkerung kannten. Der Fragebogen wurde an 562 Personen versendet und von 291 Adressaten (das heißt 52%) ausgef¨ ullt. Auf der Grundlage dieser Umfrage erstellte Weber einen 900 Seiten umfassenden Bericht mit zahlreichen statistischen Tabellen, in denen die Lage der Wirtschaft und der Landwirtschaft Preußens beschrieben wurde. Er bef¨ urwortete die Entwicklung einer kleinen unabh¨ angigen Landwirtschaft, welche die großen kapitalistischen G¨ uter der 6
Im Kontext des Vereins f¨ ur Socialpolitik hat Micha¨el Pollak (1986, [236]) in franz¨ osischer Sprache einen Auszug aus diesen Untersuchungen ver¨ offentlicht und analysiert.
208
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
nicht ortsans¨ assigen und in Berlin lebenden Junker ersetzen sollte. Das Ziel dieses Vorhabens bestand darin, deutsche Arbeitskr¨ afte zu binden, welche die Freiheit des Lebens mehr sch¨atzten als h¨ohere L¨ ohne. Gleichzeitig sollte damit auch der Zustrom slawischer Lohnarbeiter verhindert werden. Das Ziel der Umfrage und die daraus abgeleiteten Schlußfolgerungen waren vor allem politisch ausgerichtet, auch wenn sich die Beweisf¨ uhrung auf wirtschaftliche Argumente st¨ utzte, die von statistischen Tabellen untermauert wurden. Wie kann und muß sich die deutsche Nation unter Ber¨ ucksichtigung der tiefgreifenden sozialen Ver¨ anderungen entwickeln, die auf das industrielle Wachstum und die Migrationsbewegungen zur¨ uckzuf¨ uhren waren? Die Untersuchung wurde technisch korrekt durchgef¨ uhrt. Der Statistiker Grohmann, ein Kollege von Weber, wertete die Frageb¨ogen aus. Der methodologische Aspekt war jedoch nicht das Wichtigste. Im damaligen Deutschland waren die u ¨berzeugenden undete, philoArgumente, an denen sich der Furor des Methodenstreits 7 entz¨ sophischer und politischer Natur. Man f¨ uhrte noch keine statistischen oder mathematischen Argumente ins Feld, wie sie zur gleichen Zeit von der englischen biometrischen Schule ausgearbeitet wurden. Das intellektuelle Konstrukt von Quetelet hatte – mit seinen statistischen Regelm¨ aßigkeiten und seinem Durchschnittsmenschen – im Deutschland der zweiten H¨ alfte des 19. Jahrhunderts in der Philosophie einen Anklang gefun¨ den, f¨ ur den es in Frankreich und England kein Aquivalent gab. Dieser Einfluß ¨ war im Ubrigen indirekter Natur. Es war eine Reihe von (nicht nur lingui¨ stischen) Ubersetzungen erforderlich, bevor das eigentlich ziemlich einfache Schema Eingang in die Subtilit¨aten der intellektuellen Debatte in Deutschland finden konnte. Als Vermittler trat der englische Historiker Henry Buckle auf, dessen monumentale History of Civilisation in England (1857, [38]) sich von der Idee leiten ließ, daß es die – von der Statistik freigelegten – makrosozialen Regelm¨aßigkeiten erm¨oglichen, die langfristigen und unabwendbaren Tendenzen des Schicksals einer Nation explizit anzugeben. Mit Hilfe der Begriffe des historischen Determinismus und der nationalen Identit¨ at ließ sich das statistische Konstrukt Quetelets im Rahmen einer deutschen Debatte erneut einf¨ uhren, transformieren und kritisieren – in einer Debatte, die sich genau um ¨ die obengenannten Fragen drehte. Ahnliche philosophische R¨ uck¨ ubersetzungen erfolgten in den 1920er und 1930er Jahren auch in Bezug auf verschiedene andere Theorien, zu denen die Relativit¨atstheorie und die Theorie der Wahr7
Eigentlich gab es nicht nur einen Methodenstreit, sondern zwei Methodenstreite; an beiden war die j¨ ungere historische Schule beteiligt (vgl. S¨ ollner, 2001, [442]). Die ¨ altere Kontroverse in den letzten beiden Jahrzehnten des 19. Jahrhunderts drehte sich um die Methode der National¨ okonomie: es ging um die Rolle der Theorie bzw. um die Frage, ob ein deduktives oder ein induktives Vorgehen sinnvoll sei. Der zweite, j¨ ungere Methodenstreit fand Anfang des 20. Jahrhunderts statt und drehte sich um die Frage, welche Rolle Werturteile in der Wissenschaft bilden. Max Weber postulierte das Prinzip der Werturteilsfreiheit, wonach Normen nicht Gegenstand der Wissenschaft sind, weil sie nicht aus Tatsachen abgeleitet werden k¨ onnen.
Historische Schule und philosophische Tradition
209
scheinlichkeitsmodelle sowie in j¨ ungerer Vergangenheit die Katastrophentheorie und die Chaostheorie geh¨orten.8 Die deutschen Neuinterpretationen von Quetelet sind das Werk von Stati¨ stikern, Okonomen und Historikern, die haupts¨ achlich Universit¨ atslehrer waren. Sie waren von einer alten philosophischen Tradition durchdrungen, f¨ ur die der Gegensatz zwischen Freiheit und Determinismus ebenso wesensm¨ aßig war wie der Gegensatz zwischen einem angeblich deutschen Holismus und einem reduktiven Individualismus – unabh¨angig davon, ob dieser Individualismus franz¨ osisch-rationalistisch oder englisch-¨okonomistisch war. Ein statistisches Schema, das den Anspruch auf die Pr¨asentation unabwendbarer Gesetze erhob, die den physikalischen Gesetzen ¨ahneln, schien in diesem Kontext mechanistisch zu sein und den Sachverhalt zu verzerren. Ein solches Schema negierte die Besonderheiten und die spezifischen Merkmale freier und miteinander nicht vergleichbarer Individuen ebenso wie die urspr¨ unglichen kultu¨ die der rellen Traditionen.9 Diese Kritik an der Aufstellung einer Aquivalenz, (im modernen Sinne verstandenen) statistischen Konstruktion vorangeht, war bereits in der im deutschen Wortsinn betriebenen Statistik“ des 18. Jahrhun” derts anzutreffen (Kapitel 1). Aber der Begriff des Durchschnittsmenschen – der durch seine Regelm¨aßigkeiten eine Realit¨at h¨ oherer Ordnung ausdr¨ uckte, als es die kontingenten und unberechenbaren Individuen taten – konnte auch in einem entgegengesetzten Sinne verwendet werden: n¨ amlich als Argument aus holistischer Sicht, in der das Ganze in einem umfassenderen Sinne existiert, als die Individuen, aus denen es sich zusammensetzt: so hatte auch Durkheim in seinen fr¨ uhen Arbeiten sein Konstrukt der vor den Individuen existierenden sozialen Gruppe verwendet (vgl. Kapitel 3). Im deutschen Kontext konnte man Quetelet also je nachdem als mechanistischen Individualisten stigmatisieren, der aus dem trockenen Rationalismus der Philosophie der Aufkl¨ arung hervorgegangen war, oder ihn als modernistischen Bezugspunkt in einer Argumentation verwenden, die den traditionellen Kulturen und nationalen Gemeinschaften eine große Bedeutung beimißt. ¨ Die Statistiker und die Okonomen der historischen Schule“ debattierten ” vor allem im Rahmen des Vereins f¨ ur Socialpolitik viel u ¨ber den Status und die Methoden der Sozialwissenschaften im Vergleich zu den Naturwissenschaften. Dabei ließen sie sich von einer Geschichtsphilosophie leiten, die im Gegensatz zur entsprechenden Philosophie der Franzosen und der Engl¨ ander stand. 8
9
Mit dieser Bemerkung ist nicht beabsichtigt, die philosophische Debatte aufgrund ihres eklektischen Opportunismus f¨ ur ung¨ ultig zu erkl¨ aren. Wir wollen vielmehr ¨ andeuten, daß derartige Ubertragungen Vorsichtsmaßregeln implizieren, ohne die das urspr¨ ungliche Modell, ¨ ahnlich wie im Falle des Durchschnittsmenschen, ganz anders interpretiert werden k¨ onnte. Jacques Bouveresse (1993, [28]) zeigt in Der wahrscheinliche Mensch: Robert ” Musil, der Zufall und der Durchschnitt“, daß das Thema Der Mann ohne Eigen” schaften“ (das heißt ohne Singularit¨ aten“) teilweise von den deutschen Debat” ten u ¨ber den Durchschnittsmenschen und u ¨ber die individuelle Freiheit beeinflußt worden war.
210
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
Man griff h¨ aufig auf die Statistik zur¨ uck, aber sie wurde als deskriptive Methode und nicht als Methode zur Herausarbeitung von Gesetzen verstanden. So bekannte sich etwa Engel zu der Vorstellung, daß die Statistik m¨ oglicherweise empirische Regelm¨aßigkeiten aufzeigen kann; keinesfalls k¨ onne sie aber den Anspruch erheben, Gesetze aufzustellen, die den Gesetzen der Physik ¨ahneln, denn die physikalischen Gesetze implizierten eine Kenntnis der zu¨ nutzten die grundeliegenden Elementarursachen.10 Die deutschen Okonomen reichlich vorhandenen Daten, die von den – ihnen intellektuell und politisch oft nahestehenden – Verwaltungsstatistikern ver¨ offentlicht worden waren. Insbesondere verwendeten sie diese Daten zur Unterlegung von deskriptiven Monographien u ur war die ¨ber pr¨azise und lokalisierte Themen. Beispielhaft hierf¨ von Weber durchgef¨ uhrte Landarbeiter-Enquete, die ein hohes Niveau hat¨ te. F¨ ur diese Okonomen war die Statistik eines von mehreren deskriptiven Elementen – andere Elemente waren historischer, institutioneller oder soziologischer Natur. Die Tatsache, daß diese verschiedenen Erkenntnisweisen noch nicht in gesonderten Disziplinen getrennt voneinander behandelt wurden, war der ausl¨ osende Faktor f¨ ur den philosophischen Charakter dieser Debatte und ur Socialpolitik der Ursprung des Methodenstreits“, den die dem Verein f¨ ” angeh¨ orenden Universit¨atslehrer f¨ uhrten. Die Akkumulation dieses aufgesplitterten Wissens und die Ablehnung von Formalisierungen, die von denen der traditionellen deutschen Philosophie abwichen, k¨ onnen r¨ uckblickend den Eindruck erwecken, daß es sich um eine wissenschaftliche Str¨omung ohne Zukunft handelte – insbesondere wenn man einen Vergleich zu den Entwicklungen zieht, die wenig sp¨ ater mit den ¨ Anf¨ angen der Okonometrie und der Soziologie der Umfragen eingeleitet wurde. Dennoch hatte diese Tradition ihre geistigen Erben. Das hing vor allem mit der Tatsache zusammen, daß viele der franz¨ osischen, englischen und amerikanischen Akademiker zur damaligen Zeit in Deutschland studierten oder umherreisten und daher das intellektuelle Milieu kannten. Halbwachs verwendete die deutschen Statistiken f¨ ur seine Dissertation u ¨ber das Lebensniveau der Arbeiter. Karl Pearson hielt sich in seiner Jugend in Heidelberg auf und brachte von dort eine Wissenschafts- und Kausalit¨ atsphilosophie mit, die der Philosophie von Engel nahestand und Gesetze“ zugunsten festge” stellter Regelm¨ aßigkeiten ausschloß. Die amerikanischen institutionalistischen ¨ Okonomen – zum Beispiel die Soziologen der Chicagoer Schule“ zu Beginn ” des zwanzigsten Jahrhunderts – kannten die Arbeiten und die Debatten der deutschen historischen Schule gut. Ein wichtiger Grund daf¨ ur, warum dieser Str¨ omung in Deutschland die Luft ausging, ist darin zu suchen, daß sie es nicht vermocht hatte, sich im Rahmen einer Bewegung unentbehrlich zu machen, die zu einer tiefgreifenden Transformation der makro¨ okonomischen Politik und der Makrosozialpolitik f¨ uhrte. Im Gegensatz hierzu war diese In10
Es ist eine Ironie des Schicksals, daß die Bezeichnung Engelsches Gesetz“ f¨ ur ” die Beziehung beibehalten wurde, die Engel zwischen den Einkommen und den Ausgaben f¨ ur Nahrungsmittel aufgestellt hatte.
Volksz¨ ahlungen in der amerikanischen politischen Geschichte
211
tegration der quantitativen Sozialwissenschaften in den 1930er und 1940er Jahren in den Vereinigten Staaten und nach dem Krieg auch in Frankreich und Großbritannien erfolgreich durchgef¨ uhrt worden.
Volksz¨ ahlungen in der amerikanischen politischen Geschichte Volksz¨ ahlungen sind impliziter Bestandteil des Mechanismus zur Errichtung und Organisation des amerikanischen Bundesstaates auf der Grundlage von ¨ Modalit¨ aten, f¨ ur die es in Europa kein Aquivalent gibt. Die Volksz¨ ahlungen liefern alle zehn Jahre einen Bezugsrahmen f¨ ur die anteilm¨ aßige Verteilung (apportionment 11 ) der zu w¨ahlenden Abgeordneten und der direkten Steuern auf die Einzelstaaten, aus denen sich die Union zusammensetzt. Das in der Verfassung von 1787 festgeschriebene Prinzip der regelm¨ aßigen Beschaffung der demographischen Daten wurde zwischen 1790 und 1990 einundzwanzigmal angewendet – vor allem bei der Verteilung der Sitze im Repr¨ asentantenhaus (House of Representatives). In den europ¨aischen L¨ andern, in denen sich die Bev¨ olkerung nur langsam entwickelte, war dieses Verfahren etwas allt¨ agliches, von dem man kaum Notiz nahm. Im Gegensatz hierzu lief dieser Prozeß in einem Land, dessen Einwohnerzahl von einer Volksz¨ ahlung zur n¨ achsten ¨ rasch anstieg, im Rampenlicht der Offentlichkeit ab und war Gegenstand von erbitterten Debatten: das auf jeweils zehn Jahre bezogene durchschnittliche Bev¨ olkerungswachstum belief sich zwischen 1790 und 1860 auf 35%, zwischen 1860 und 1910 auf 24% und zwischen 1910 und 1990 auf 13%. Die Bev¨ olkerung wuchs also von 4 Millionen Einwohnern im Jahre 1790 auf 31 Millionen im Jahre 1860, auf 92 Millionen im Jahre 1910 und 250 Millionen im Jahr 1990. Die Einwanderungswellen, die Verschiebung der Grenze nach Westen, Verst¨ adterung, Wirtschaftskrisen und Nationalit¨ atenkonflikte – all das hat zu ¨ einer kontinuierlichen und tiefgreifenden Anderung des politischen Gleichgewichts zwischen den Regionen und den Parteien beigetragen. Die Techniken, mit deren Hilfe die Bev¨olkerung der einzelnen Staaten gez¨ ahlt wurde und die Z¨ahlergebnisse anschließend in Kongreßmandate umgewandelt wurden, f¨ uhrten im Kongreß zu st¨andig wiederkehrenden Debatten. Wie sollte man die Sklaven, wie die Ausl¨ander z¨ ahlen? Welche arithmetischen Verfahren mußte man anwenden, um proportional zur Bev¨ olkerungszahl eine ganzzahlige Anzahl von Sitzen zu verteilen. Weitere wichtige Fragen wurden im Zusammenhang mit den Z¨ahlergebnissen diskutiert, wobei unter Umst¨ anden die Methoden und die Konventionen angefochten wurden. Wie sollte man die ¨ okonomischen und sozialen Auswirkungen der Sklaverei beurteilen (in den 1850er Jahren)? Ließ sich die Einwanderungsflut eind¨ ammen 11
Definiert als the apportioning of representatives or taxes among states or districts ” according to population“. Insbesondere versteht man unter apportionment of re” presentatives“ die Festlegung der Anzahl der Abgeordneten f¨ ur die Einzelstaaten und unter apportionment of a tax“ die Steueraufteilung. ”
212
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
oder konnte man ihr eine andere Richtung geben (1920er Jahre)? Wie sollte man die Arbeitslosigkeit und die sozialen Ungleichheiten messen (1930er Jahre)? In jeder dieser Debatten wurden Statistiken reichlich zitiert, kritisiert und zueinander in Konkurrenz gesetzt. Statistiken waren gleichzeitig allgegenw¨ artig und relativ. Sie traten bei Verhandlungen und Kompromissen auf, in denen die Kr¨ afteverh¨altnisse f¨ ur einige Zeit best¨ atigt wurden und der Gesellschaft die M¨ oglichkeit gaben, bis zur n¨achsten Krise voranzuschreiten. Die Statistiken waren das Abbild eines Staates, der nicht wie in Frankreich ein u onlichen Interessen stehendes allgemeines Interesse verk¨ orperte. ¨ber den pers¨ Vielmehr stellten die Statistiken durch das Gleichgewicht der verschiedenen – ¨ in der Verfassung und in ihren aufeinanderfolgenden Anderungen kodifizierten – Gewalten ein Spiegelbild der Kompromisse dar, die es den Individuen erlaubten, ihre Rechte auszu¨ uben und zu verteidigen. Folgerichtig waren die Vereinigten Staaten das Land, in dem sich die Statistik am u ¨ppigsten entwickelte. Aber die Vereinigten Staaten waren auch das Land, in dem der Apparat der ¨offentlichen Statistik niemals eine so starke Integration und Legitimit¨at aufwies, wie es – wenn auch in unterschiedlichen Formen – in Frankreich, Großbritannien und Deutschland der Fall war. Umgekehrt hatten jedoch Universit¨aten, Forschungszentren und private Stiftungen auf den Gebieten der Soziologie und der Wirtschaft zahlreiche Untersuchunuhrt, gen (surveys 12 ), Kompilierungen und Analysen von Statistiken durchgef¨ die aus ¨ außerst unterschiedlichen Quellen kamen, und keine der genannten ¨ Institutionen hatte die Aufgabe, die Ergebnisse zu zentralisieren. Im Ubrigen wurden in den Vereinigten Staaten bereits in den 1930er Jahren einige derjenigen bedeutenden technischen Innovationen experimentell eingesetzt, die nach 1945 zu einer radikalen Umgestaltung der statistischen T¨ atigkeit und des Statistikerberufes f¨ uhrten: Stichprobenerhebungen, volkswirtschaftliche Gesamt¨ rechnung und Okonometrie sowie – in den 1940er Jahren – Computer.13 Das konstitutionelle Prinzip, gem¨aß dem die Bev¨ olkerungszahl der Einzelstaaten sowohl f¨ ur die Verteilung der Steuerlast als auch f¨ ur die Verteilung der politischen Vertretung den Bezugspunkt darstellt, ist wohldurchdacht. Dieses Prinzip verhindert n¨amlich, daß die Einzelstaaten den Versuch unternehmen, ihre Bev¨ olkerungsstatistik zu manipulieren: in diesem Falle w¨ urde die eine Hand verlieren, was die andere gewonnen h¨atte. Dieser Mechanismus ermutigt zum Kompromiß zwischen gegens¨atzlichen Zielen. Er spielte jedoch faktisch 12
13
Die Bezeichnung survey“ ist von den zuerst in Indien durchgef¨ uhrten Fl¨ achen” stichproben in die Fachsprache der Statistik u ¨bernommen worden. Bei diesen Fl¨ achenstichproben ging es einerseits um eine sorgf¨ altige Pr¨ ufung und Sch¨ atzung des Bestandes und andererseits auch um ein Verfahren, das sich der Landvermessung bediente, und die Bestandsaufnahme, zumindest in der ersten Stufe, auf der Grundlage von Landkarten durchf¨ uhrte. Das englische Wort survey“ wird u.a. ” auch durch Erhebung, Untersuchung, Studie“ wiedergegeben. ” Die hier vorgelegte Analyse der amerikanische Statistik hat den Arbeiten von Duncan und Shelton (1978, [74]) und Margo Anderson (1988, [4]) viel zu verdanken.
Volksz¨ ahlungen in der amerikanischen politischen Geschichte
213
kaum eine Rolle, denn der Bundesstaat nutzte seine fiskalische Strecke im 19. Jahrhundert nur selten. Der Bundesstaat blieb lange Zeit hindurch ziemlich unbedeutend: Jefferson sprach von einer weisen und gen¨ ugsamen Regierung“. ” Die Zolleinnahmen reichten – außer in Kriegszeiten – f¨ ur den Staatshaushalt aus. Die Census-Verwaltung wurde alle zehn Jahre zu dem Zeitpunkt neu konstituiert, als die Erhebung durchgef¨ uhrt, ausgewertet und verwendet werden mußte, um die parlamentarische Vertretung der Staaten zu berechnen. Nach drei oder vier Jahren wurde die Census-Verwaltung wieder aufgel¨ ost. Ein st¨ andiges Amt, das Census Bureau (Statistisches Bundesamt der USA, auch Bureau of the Census genannt), wurde erst im Jahre 1902 gegr¨ undet. Die Organisation der Z¨ahlung und die Einrichtung eines Ad-hoc-Dienstes waren jedes Mal Gegenstand eines Sondergesetzes. Der Verabschiedung dieses Gesetzes ging eine lebhafte Debatte im Kongreß voraus, in der man u.a. u ¨ber folgende Probleme diskutierte: Welche Konventionen sollen bei der Z¨ ahlung und anteilm¨ aßigen Verteilung des Z¨ahlergebnisses angewendet werden? Welche Fragen sollte man stellen und wie soll man die Befrager und Mitarbeiter rekrutieren, die mit der Durchf¨ uhrung der Operation beauftragt werden? Von Anfang an und bis zum Sezessionskrieg (1861) stellte sich die Frage nach der Ber¨ ucksichtigung der Sklaven in der Bemessungsgrundlage f¨ ur die politischen Verteilung. Die Nordstaaten und die S¨ udstaaten vertraten in dieser Frage selbstverst¨andlich entgegengesetzte Standpunkte. Wenn aber die Union nicht auseinanderbrechen sollte – was keine der beteiligten Seiten wollte –, dann mußte ein Kompromiß geschlossen werden, dessen einziger Vorzug es war, von beiden Parteien akzeptiert zu werden: das war die Drei-F¨ unftel” Regel“ (three-fifth rule), nach der ein Sklave drei F¨ unftel eines freien Mannes z¨ahlte. Diese Konvention erscheint uns heute besonders schockierend, denn sie l¨ aßt sich nicht durch eine Objektivit¨at (oder Realit¨ at) rechtfertigen, die außerhalb des Konfliktes liegt. Die Konvention bedeutet, daß ein Sklave zwar mit einem freien Mann vergleichbar, gleichzeitig aber minderwertiger ist. Eine solche Kombination konnte sich nur als ¨außerst instabil erweisen. Sie wurde nach dem Sieg des Nordens u uden im Jahre 1865 abgeschafft. Die ¨ber den S¨ Debatte nahm danach eine andere Form an, denn den S¨ udstaaten gelang es unter Anwendung verschiedener Mittel, den Schwarzen das Wahlrecht auch weiterhin zu entziehen. Der Norden versuchte daraufhin, die unberechtigterweise um ihre Stimme gebrachten Erwachsenen aus der Bemessungsgrundlage f¨ ur die Verteilung auszuschließen. Der S¨ uden konterte mit dem Vorschlag, die Ausl¨ ander (das heißt die Neueinwanderer) aus dieser Bemessungsgrundlage auszuschließen, was wiederum den Norden benachteiligen w¨ urde, da sich die Neueinwanderer dort niedergelassen hatten. Der Kompromiß bestand nun darin, alle Erwachsenen zu z¨ahlen. Auch eine andere, scheinbar technische Frage, f¨ uhrte bis in die 1920er Jahre zu endlosen Diskussionen: Welche arithmetische Konvention soll ber¨ ucksichtigt werden, um die zur Bev¨olkerungszahl proportionale Verteilung in eine ganzzahlige Anzahl von Kongreßsitzen umzuwandeln? Nacheinander wurden mehrere L¨ osungsm¨oglichkeiten angewendet (Balinski und Young, 1982,
214
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
[7]), die zu unterschiedlichen Ergebnissen f¨ uhrten ( major fractions“ und ” equal proportions“) und jeweils andere Staaten beg¨ unstigten. Statistiker, die ” Anh¨ anger unterschiedlicher L¨osungen waren, wurden vor den Kongreß geladen und sahen sich dort zwischen 1923 und 1929 mit Kongreßmitgliedern konfrontiert, die nichts von der Sache verstanden, weil das Thema so u ¨beraus trocken war. Da man schließlich u uhrung der Volksz¨ ahlung ¨ber das Gesetz zur Durchf¨ von 1930 abstimmen mußte, einigte man sich und schuf ein hybrides System auf halbem Weg zwischen den beiden L¨osungen. Nachdem die Z¨ ahlung stattgefunden hatte, stellt man durch Zufall fest, daß beide Methoden zu genau den gleichen Ergebnisse gef¨ uhrt h¨atten (Anderson, 1988, [4]). Inzwischen war die Wirtschaftskrise ausgebrochen. Die Kongreßmitglieder und die Statistiker hatten jetzt andere Sorgen. In den Debatten rief man die Statistiker nun nicht mehr deswegen zu Hilfe, damit sie die Wahrheit erz¨ ahlen – vielmehr sollten sie L¨ osungen liefern, die einen Weg aus der politischen Sackgasse erm¨ oglichen. Die Statistiker standen den Juristen (lawyers), die den Entscheidungstr¨ agern halfen, n¨ aher als den u ummel stehenden Wissenschaftlern, ¨ber dem Kampfget¨ zu denen sie sp¨ ater werden sollten. Der Dreh- und Angelpunkt war das konstitutionelle Prinzip des apportionment und die Debatte drehte sich um die Anwendungsmodalit¨aten dieses Prinzips. Die Statistik wurde auch bei Polemiken angerufen, in denen es um die entscheidenden Probleme der amerikanischen Gesellschaft ging, das heißt – in Abh¨ angigkeit von der jeweiligen Zeit – um Sklaverei, Armut, Einwanderung, Arbeitslosigkeit und Rassenintegration. Im Jahre 1857 f¨ uhrte Helper, ¨ ein aus dem Norden stammender Okonom, einen systematischen Vergleich der Indikatoren f¨ ur folgende Bereiche durch: Produktion, Wohlstand, soziale und kulturelle Entwicklung. Diese Indikatoren wurden gesondert f¨ ur die Nordstaaten und die S¨ udstaaten berechnet. Helper machte die Sklaverei f¨ ur die Tatsache verantwortlich, daß die Nordstaaten stets besser als die S¨ udstaaten abschnitten. Sein Werk wirbelte viel Staub auf und f¨ uhrte zu Gegenattacken der S¨ udstaatler. Ein Journalist namens Gordon Bennett schrieb, daß ¨ ¨ die Sklaverei nur deswegen ein Ubel ist, weil die Arbeit an sich ein Ubel ” ist. Das System der freien Arbeit ist in Wahrheit die weiße Sklaverei des Nordens“. Dieses Pl¨ adoyer f¨ ur die S¨ udstaaten st¨ utzte sich auf Statistiken der (von den Einzelstaaten geleiteten) Sozialf¨ ursorgeverwaltungen, die zeigten, daß es in den Neuenglandstaaten (im Norden) mehr Arme, Taube, Blinde, Stumme ” und Idioten“ gibt, als in den S¨ udstaaten. Diese beiden kontr¨ aren statistischen Argumentationen wurden ihrerseits aufgrund der Konstruktion und Relevanz der verwendeten Daten angefochten. Die S¨ udstaatler wiesen darauf hin, daß Helper seine Wohlstandsindikatoren nicht in Beziehung zur Bev¨ olkerungszahl der Einzelstaaten gesetzt hatte und daß die Daten deswegen – nach Meinung der S¨ udstaatler – keinerlei Vergleichswert h¨atten. Die Nordstaatler kritisierten ihrerseits, daß Gordon Bennett Angaben zu denjenigen Armen verwendet h¨ atte, die Beihilfen erhielten, wie sie in den Gesetzen der verschiedenen Einzelstaaten explizit vorgeschrieben waren. Diese Statistiken spiegelten die besonderen Verfahrensweisen der Einzelstaaten und nicht die absolute Zahl
Volksz¨ ahlungen in der amerikanischen politischen Geschichte
215
der Armen wider: Jedem Vergleich muß eine Pr¨ ufung der Gesetze und Ge” wohnheitsrechte in Bezug auf die aus der Staatskasse gezahlte Armenhilfe vorangehen.“ (Jarvis, zitiert von Anderson, 1988, [4].) Demnach f¨ uhrte bereits seit den 1850er Jahren das Feuer der Kontroverse dazu, daß man explizit die Frage stellte, wie sich die Realit¨ at auf der Grundlage administrativer Aufzeichnungen konstruieren l¨ aßt. Genau das war die Frage, die Yule in Großbritannien vierzig Jahre sp¨ ater in seiner mathematischen Analyse der Armut nicht so deutlich formuliert hatte (vgl. Kapitel 4). Die Tatsache, daß die Statistik in den Vereinigten Staaten so eng und auch so fr¨ uhzeitig in einem widerspr¨ uchlichen Debattenraum in Erscheinung trat, regte den kritischen Verstand an und beg¨ unstigte eine Vielfalt von Interpretationen und Anwendungen dieses Werkzeugs. Mehr als anderswo waren die statistischen Belegstellen an Argumentationen gebunden und nicht an eine vermutete Wahrheit, die u ¨ber den verschiedenen Lagern stand. Diese Sichtweise scheint typisch f¨ ur die amerikanische Demokratie zu sein, die sich mehr auf Debatten und die Suche nach Kompromissen st¨ utzt als auf die Beteuerung eines allgemeinen Interesses und einer einzigen Wahrheit; auf jeden Fall finden wir dort die Spur eines besseren Verst¨andnisses f¨ ur die unterschiedlichen Bedeutungen und Funktionen der statistischen Argumentsweise – entsprechend den politischen und kulturellen Traditionen auf beiden Seiten des Atlantiks. Im gesamten 19. Jahrhundert hatten die Vereinigten Staaten immer gr¨ oßere Wellen von Einwanderern aufgenommen, was dazu f¨ uhrte, daß sich die Bev¨ olkerungsanzahl zwischen 1790 und 1910 mit dem Faktor 23 multiplizierte. Die Einwanderer kamen zun¨achst von den Britischen Inseln (England, Irland), sp¨ ater aus Nordeuropa (Deutschland, Skandinavien) und dann um die Wende zum 20. Jahrhundert verst¨arkt aus S¨ udeuropa (Italien) und Osteuropa (Polen, Rußland, Balkanl¨ander). In Bezug auf die ersten Einwanderer (aus West- und Nordeuropa) bestand die Annahme, daß sie sich – aufgrund der Sprachverwandtschaft und der Religion (Protestantismus) – m¨ uhelos an die Lebensweise und die Ideale des urspr¨ unglichen Kerns der Nation anpassen konnten. Hingegen sah sich die zweite Gruppe in den 1920er Jahren immer mehr dem Verdacht ausgesetzt, nicht assimilierbare kulturelle Elemente zu bef¨ ordern, die – insbesondere wegen ihrer Religionen (Katholiken, Juden, Orthodoxe) – mit der liberalen Demokratie unvereinbar seien. Zum ersten Mal wurde die Doppelfrage nach einer Beschr¨ankung der Einwanderung und einer entsprechenden Quotenregelung auf der Grundlage des Einwanderungsanteils der betreffenden L¨ander gestellt. Zwischen 1920 und 1929 fand eine intensive politische und statistikbezogene Debatte u ¨ber die Kriterien statt, mit deren Hilfe die Quoten festgelegt und gerechtfertigt werden sollten. An dieser Debatte nahmen nicht nur die Kongreßabgeordneten und die Statistiker teil, die mit der Aufstellung dieser Kriterien beauftragt waren, sondern auch Vertreter entgegengesetzter Interessengruppen: Industrielle, die einer Beschr¨ ankung der Einwanderung aus Furcht vor einem Mangel an Arbeitskr¨ aften feindselig gegen¨ uber standen; Vertreter der verschiedenen Nationalit¨ atengrup¨ pen; verschiedene Wissenschaftler; Okonomen, welche die Auswirkungen ei-
216
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
ner Verlangsamung der Einwanderungsfluten ermittelten; Psychologen, welche die Intelligenzquotienten der Einwanderer entsprechend den jeweiligen Herkunftsl¨ andern miteinander verglichen; Soziologen, welche die Sozialisierung der Einwanderer in St¨adten wie Chicago untersuchten, die aus dem Boden gestampft worden sind; Historiker, welche die ethnische Zusammensetzung der Besiedlungen vor der Unabh¨angigkeit im Jahre 1776 und die sp¨ ateren Ver¨ anderungen dieser Besiedlungen rekonstruierten. Die Volksz¨ ahlung erm¨oglichte es, die Bev¨olkerung gem¨ aß den jeweiligen Geburtsorten zu sortieren. Im Jahre 1920 wurde dem Kongreß vorgeschlagen, ahrliche Einwanderung auf f¨ ur jede urspr¨ ungliche Staatsangeh¨origkeit14 die j¨ 5% der Anzahl derjenigen Personen zu beschr¨ anken, die entsprechend den Angaben der 1910 durchgef¨ uhrten Z¨ahlung im betreffenden Land geboren wurden. Der Kongreß reduzierte die vorgeschlagene Quotenregelung auf 3%. Pr¨ asident Wilson legte gegen dieses Gesetz sein Veto ein, aber sein Nachfolger Harding unterzeichnete es ein Jahr sp¨ater. Das Gesetz war eine entscheidende Wende in der amerikanischen Bev¨olkerungspolitik und wurde als Verk¨ orperung des Willens wahrgenommen, das ungest¨ ume Wachstum der St¨ adte zu bremsen, die allm¨ahlich die Macht der l¨andlichen Einzelstaaten aush¨ ohlten. Bei dem obengenannten technischen Streit u ¨ber den Berechnungsmodus der Kongreßsitze ging es um die gleiche Sache, denn es hatte den Anschein, daß die eine Methode die urbanisierten Einzelstaaten beg¨ unstigte, die andere hingegen die l¨ andlichen Einzelstaaten. Allen diesen Debatten lag die Sorge um das politische Gleichgewicht zweier verschiedener Amerikas zugrunde: das eine war das industrielle, st¨adtische, kosmopolitische Amerika, das andere das l¨andliche und traditionelle Amerika. Die Debatte u ¨ber die ethnischen Quoten wurde in dem Jahrzehnt ab 1920 unter starker Beteiligung der Statistiker des Census Bureau weitergef¨ uhrt. Es hatte zun¨ achst den Anschein, daß die Verwendung der letzten, 1910 durchgef¨ uhrten Volksz¨ ahlung zur Quotenfestsetzung ein Problem f¨ ur diejenigen darstellte, die eine Einwanderung aus West- und Nordeuropa gegen¨ uber einer Einwanderung aus S¨ ud- und Osteuropa bevorzugen wollten. Die Einwanderungswellen nach 1900 setzten sich mehrheitlich aus S¨ ud- und Osteurop¨ aern zusammen und deswegen bestand das Risiko, daß die den entsprechenden L¨ andern bewilligten Quoten h¨oher als erw¨ unscht waren. Dieses Risiko w¨ are noch gr¨ oßer gewesen, wenn man sich in den nachfolgenden Jahren dazu entschlossen h¨ atte, die Z¨ahlung des Jahres 1920 als Grundlage zu nehmen. Zur Vermeidung dieser Gefahr wurde vorgeschlagen, die Z¨ ahlung von 1890 als Berechnungsgrundlage f¨ ur die Quoten zu nehmen. Dieser Vorschlag erwies sich jedoch als ¨ außerst ung¨ unstig f¨ ur die Italiener, Polen und Russen, die als letzte gekommen waren. Aber die Wahl der Volksz¨ ahlung von 1890 erschien willk¨ urlich und ungerechtfertigt, wie die Gegner dieser Maßnahmen ausf¨ uhrten, die entweder selber aus den betreffenden L¨ andern kamen oder aber Industrielle waren, die sich Arbeitskr¨afte aus diesen L¨ andern zunutze machten. 14
Gemeint ist die durch Geburt erworbene Staatsangeh¨ origkeit.
Volksz¨ ahlungen in der amerikanischen politischen Geschichte
217
Das f¨ uhrte zu einer Ausweitung der Diskussion auf den Begriff des Gleichgewichts zwischen den urspr¨ unglichen Staatsangeh¨ origkeiten der Vorfahren der jetzigen Amerikaner vor deren Einwanderung. Das Census Bureau wurde also ersucht, dieses ziemlich heikle Problem zu l¨osen. Ein erster Versuch in dieser Richtung wurde 1909 von Rossiter unternommen, einem Statistiker des Bureau, der aber ein anderes Ziel hatte: er verglich die Fertilit¨ at der nach ihrem Abstammungsland klassifizierten Amerikaner mit den Fertilit¨ atsziffern, die seither in diesen L¨andern beobachtet wurden, um die g¨ unstigen Wirkungen und die Vitalit¨ at der amerikanischen Demokratie zu beweisen. Im Jahre 1927 wurde Hill, der stellvertretende Direktor des Census damit beauftragt, diese Arbeit weiterzuf¨ uhren, damit ein neues Einwanderungsgesetz auf der Grundlage dieser Aufgliederung der Nationalit¨aten der Vorfahren der Amerikaner erarbeitet werden konnte. Sehr bald bemerkte Hill die Schwachstellen der Berechnung von Rossiter: ¨ eine geringf¨ ugige Anderung der Sch¨atzungen bez¨ uglich der im 18. Jahrhundert ¨ niedrigen Bev¨ olkerungszahl f¨ uhrte zu wesentlichen Anderungen der anderthalb Jahrhunderte sp¨ater berechneten Quoten. Rossiter hatte die Familiennamen der Personen als Indiz f¨ ur deren Abstammung verwendet, ohne dabei die Tatsache zu ber¨ ucksichtigen, daß zahlreiche Einwanderer ihre Namen bei ihrer Ankunft anglisiert hatten. Das f¨ uhrte zu einer starken Heraufsetzung der Anzahl der Personen britischer Abstammung – vor allem zum Nachteil der Iren und der Deutschen, das heißt genau derjenigen west- und nordeurop¨ aischen L¨ ander, deren Quoten man eigentlich erh¨ ohen wollte. W¨ ahrend also die fr¨ uheren Einwanderungsgesetze die Immigrantenlobbies spalteten, ging die neue Formulierung mit dem Risiko einher, diese Lobbies unter der Flagge einer gemeinsamen feindlichen Einstellung wieder zu vereinen. Man beauftragte daraufhin eine aus Historikern und Genealogen bestehende Kommission, das Problem eingehender zu studieren und die fatalen Ergebnisse zu korrigieren, zu denen die Methode von Rossiter gef¨ uhrt hatte. Zur L¨ osung des Problems wurden zwischen 1927 und 1929 zahlreiche Verwaltungsleute und Akademiker mobilisiert, was f¨ ur das Census Bureau eine schwierige Aufgabe war. Zu Beginn des Jahres 1929 best¨atigten Fachhistoriker die vom Bureau berechneten Ziffern. Pr¨asident Hoover konnte im Fr¨ uhjahr 1929 die amtliche ” und wissenschaftliche“ Aufschl¨ usselung der Abstammungsl¨ ander der amerikanischen Bev¨ olkerung ank¨ undigen. Diese Aufschl¨ usselung diente als Grundlage f¨ ur die Einwanderungsquoten, die bis in die 1960er Jahre verwendet wurden und in den Jahren zwischen 1933 und 1945 ein furchtbares Hindernis f¨ ur Juden und politische Fl¨ uchtlinge bedeuteten, die der Naziherrschaft entkommen wollten. Das Census Bureau sah sich einige Monaten nach Beendigung dieser Arbeit der Jahre 1927–29 mit einem ganz anderen Problem konfrontiert, einer Folge der Oktoberkrise des Jahres 1929: eine neue Zahlenschlacht war ausgebrochen – die Schlacht um die Arbeitslosenzahlen. Die Krise und die zu ihrer Entsch¨ arfung ab 1933 gegebenen politischen, wirtschaftlichen und administrativen Antworten der Roosevelt-Regierung f¨ uhrten zum Aufbau eines vollkommen neuen Systems der ¨offentlichen Statistik, das sich vor allem und
218
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
zum ersten Mal auf wahrscheinlichkeitstheoretische Techniken und auf die Methode der Stichprobenerhebungen st¨ utzte.
Das Census Bureau: Aufbau einer Institution Im Unterschied zu den europ¨aischen Staaten verf¨ ugte der amerikanische Bundesstaat im gesamten 19. Jahrhundert u andiges Amt f¨ ur Verwal¨ber kein st¨ tungsstatistik. Bei jeder Volksz¨ahlung wurde ein Superintendent ernannt und vorl¨ aufiges Personal rekrutiert, das man nach getaner Arbeit wieder entließ. Diese sich st¨ andig wiederholende Diskontinuit¨ at hing mit der konstitutionellen Definition der Volksz¨ahlungen zusammen, deren Funktion darin bestand, alle zehn Jahre das Gleichgewicht zwischen den Einzelstaaten und ihrer Vertretung im Kongreß neu zu ermitteln. Aber die Bev¨ olkerung und das Territorium wuchsen sehr schnell und deswegen nahm die Operation im Laufe des Jahrhunderts ein Ausmaß an, das 1790 noch unvorstellbar war. Jedes Mal wurden die Organisation der Feldarbeit, der Inhalt des Fragebogens, die Modalit¨ aten der Personalrekrutierung ebenso wie die entsprechenden Mittel und Termine erneut zwischen dem Kongreß, seiner Haushaltsbeh¨ orde (Budget Office) und dem verantwortlichen Superintendenten ausgehandelt. Der Superintendent versuchte unweigerlich, seine Meisterschaft in der Beherrschung der verschiedenen politischen, administrativen und technischen Komponenten dieses langen und komplexen Prozesses zu steigern, indem er auf die besonderen Opportunit¨aten und Umst¨ande eines jeden Jahrzehnts setzte. Demnach kann man die – von Margo Anderson (1988, [4]) ausf¨ uhrlich geschilderte – Geschichte der Volksz¨ahlungen und des Bureau als die Geschichte der langwierigen Konstruktion eines politischen und wissenschaftlichen Mechanismus interpretieren. Die Solidit¨at der Produkte dieses Mechanismus l¨ aßt sich nicht in absoluter Form feststellen, sondern kann nur entsprechend den Zw¨ angen und Erfordernissen des jeweiligen Augenblicks beurteilt werden. Der Superintendent sah sich in seinen st¨andigen Verhandlungen mit dem Kongreß in einem Widerspruch gefangen, der jedem leitenden Mitarbeiter im Bereich der o ¨ffentlichen Statistik wohlbekannt ist, aber im amerikanischen Kontext in erheblich zugespitzter Form zum Ausdruck kommt. Zum einen versuchte der Superintendent, die Kreisl¨aufe des Sammelns und Aufbereitens des statistischen Rohmaterials unabh¨angig von den Zuf¨ alligkeiten und a ¨ußeren Zw¨ angen zu machen, um eine stabile industriem¨ aßige Werkzeugroutine zu realisieren. Zum anderen mußte er aber am normalen Spiel des politischen und administrativen Lebens teilnehmen, in dem das tempor¨ are Gleichgewicht durch den Druck von Interessengruppen (Lobbying), durch Mehrheitsumschw¨ unge ¨ und durch Anderungen der Agenda des Kongresses unaufh¨ orlich infrage gestellt wurde. Der Kongreß seinerseits wurde alle zwei Jahre teilweise erneuert. Diese scheinbare Instabilit¨at war jedoch im unver¨ anderlichen Rahmen der Verfassung festgeschrieben, deren Einhaltung zu Kompromissen zwang. Die alle zehn Jahre durchzuf¨ uhrenden Volksz¨ahlungen und der Mechanismus des
Das Census Bureau: Aufbau einer Institution
219
Apportionment waren Bestandteil dieser unantastbaren Zw¨ ange. Diese Tatsache bot dem Statistiker, der f¨ ur die korrekte Durchf¨ uhrung der Operation ausersehen war, eine wichtige Verhandlungsressource. Die politische Schirmherrschaft“ ist ein gutes Beispiel f¨ ur dieses stets ” gleichbleibende Spiel. Die Rekrutierung des zeitlich befristeten Personals, das mit dem Sammeln der Feldinformationen und deren Auswertung in Washington beauftragt war, erm¨oglichte es den gew¨ahlten Vertretern, Druck f¨ ur die Anstellung derjenigen Personen auszu¨ uben, deren Stimmen sie sich sichern wollten. Dieser Umstand war ein regelm¨aßig wiederkehrendes Hindernis f¨ ur die Bildung eines Berufsstandes von beamteten Statistikern, die den Kongreßabgeordneten dieses Tauschmittel entziehen w¨ urden. Der Mechanismus h¨angt mit dem uralten Z¨ogern zusammen, die Anzahl und das Gewicht der Bundesbeh¨ orden zu erh¨ohen und liefert dar¨ uber hinaus eine Erkl¨ arung daf¨ ur, warum ein st¨ andiges Census Bureau erst 1902 gegr¨ undet wurde. Im vorhergehenden Zeitraum fand ab Beginn der 1880er Jahre ein intensives Lobbying statt, das die Gr¨ undung dieser Institution beg¨ unstigte. Im Ergebnis der Arbeit wurden Akademiker, Gesch¨aftsleute und Gewerkschafter zusammengebracht, die aus verschiedenen Gr¨ unden daran interessiert waren, daß die ¨offentliche Statistik u ¨ber ihre traditionelle konstitutionelle Funktion hinausgeht und Konjunkturdaten sowie Daten zur Sozialstruktur produziert, die den aktuellen industriellen und st¨adtischen Boom widerspiegeln. In diesem vorteilhaften Kontext konnte der Superintendent den Mechanismus der politischen Schirmherrschaft zu seinem Nutzen wenden, indem er seine Angestellten dazu bewegte, bei ihren Vertretern zu intervenieren, um die Arbeitspl¨ atze zu sichern. Die aufeinanderfolgenden Etappen, in denen das Census Bureau seine Kontrolle auf die Produktionskette der Ergebnisse ausdehnte, waren gleichzeitig administrativer und technischer Natur. Bis 1840 wurden die Informationen von ¨ ortlichen Beamten (marshalls) auf der Grundlage territorialer Einteilungen gesammelt, die vollkommen unabh¨angig vom Bundesamt waren. Das vorl¨ aufige Personal dieses Bundesamtes z¨ahlte weniger als 50 Personen. Es gab sich damit zufrieden, die von den Einzelstaaten auf lokaler Ebene bereits aggregierten Daten zusammenzufassen, wobei es nicht m¨ oglich war, diese Daten zu pr¨ ufen. Die individuellen amtlichen Berichte wurden ab 1850 gesammelt und in Washington manuell ausgewertet. Der erforderliche Personalbestand erh¨ ohte sich dann schnell, von 160 im Jahre 1850 auf 1500 im Jahre 1880, denn die manuelle Stimmenz¨ahlung bedeutete eine gigantische Arbeit. Francis Walker (1840–1896), der Superintendent der Volksz¨ ahlungen von 1870 und 1880, k¨ ampfte f¨ ur die Ausdehnung seiner Kontrolle u ur ¨ber den Prozeß und f¨ die Erweiterung seines Netzwerks von Allianzen. Im Jahre 1880 wurde er vom Kongreß autorisiert, die Feldarbeit zu kontrollieren. Seit dieser Zeit durfte das Bureau die Erhebungsgebiete selbst aufteilen und auch die Hilfsangestellten (census takers) und Kontrolleure (supervisors) rekrutieren und bezahlen. Das war sowohl ein Vorteil als auch ein Nachteil, da sich die Gefahr erh¨ ohte, daß die gew¨ ahlten ¨ ortlichen Vertreter Druck auf diese Anstellungen aus¨ uben. Wal-
220
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
ker schlug 1888 vor, den Census an das neu gegr¨ undete Arbeitsamt (Labor Office) anzugliedern, das u ugte. Eine unerwar¨ber bedeutende Ressourcen verf¨ ¨ tete Anderung der Pr¨asidentschaftsmehrheit ließ das Projekt jedoch scheitern, denn der neue Pr¨asident wollte, daß seine Partei vom Census profitierte (eine analoge Angliederung erfolgte 1891 in Frankreich, wo die SGF in das neue Arbeitsamt (Office du travail ) integriert wurde. Die Entwicklung der Arbeitsstatistik fand in Großbritannien und in Deutschland gleichzeitig statt). Die ungeheure manuelle Arbeit verringerte sich 1890 mit der Verwendung der ersten Ger¨ ate zur maschinellen Datenverarbeitung, die von Herman Hollerith (1860–1929), einem B¨ uroangestellten, erfunden und gebaut wurden. Aber die Aufgabe war immer noch groß genug und man mußte f¨ ur die Volksz¨ ahlungen von 1890 und 1900 mehr als 3000 Personen rekrutieren. Das Problem bestand darin, den Kongreß davon zu u ¨berzeugen, die Mittel f¨ ur die Gr¨ undung eines st¨andigen statistischen Amtes bereitzustellen: man f¨ uhrte dem Kongreß die Notwendigkeit vor Augen, zus¨ atzlich zu den alle zehn Jahre stattfindenden Volksz¨ahlungen auch regelm¨ aßig j¨ ahrliche Erhebungen durchzuf¨ uhren – vor allem im Bereich der landwirtschaftlichen Produktion ¨ und der Industrieproduktion. Eine Gelegenheit f¨ ur diese Uberzeugungsarbeit bot sich 1899 anl¨ aßlich des Verfalls der Baumwollpreise, der sich f¨ ur die Kleinproduzenten als dramatisch erwies. Die englischen Abnehmer prognostizierten h¨ohere Ernten, um Preissenkungen anzuk¨ undigen. Man mußte ihnen gesicherte Produktionsstatistiken entgegenhalten k¨onnen, um derartige Spekulationen zu unterbinden. Seit Beginn des 19. Jahrhunderts waren die Volksz¨ ahlungen (in unregelm¨ aßiger Weise) durch Z¨ahlungen der Manufakturen erg¨ anzt worden, so daß es m¨ oglich war, die Baumwollentk¨ornungsmaschinen zu identifizieren und zu lokalisieren. Die bei der Z¨ahlung 1900 aufgestellte Liste dieser Manufakturen erm¨ oglichte die Durchf¨ uhrung einer j¨ahrlichen Erhebung zu den Ernten. Das wiederum lieferte ein ausgezeichnetes Argument, um den Kongreß davon zu u andigen Amtes zu akzeptieren, ¨berzeugen, die Einrichtung eines st¨ das f¨ ur diese regelm¨aßigen – und f¨ ur die Marktregulierung unerl¨ aßlichen – Erhebungen zust¨ andig war. Die im Jahre 1902 verabschiedete institutionelle Neuerung war ihrerseits Bestandteil einer umfassenderen administrativen Umstrukturierung, die auch die Gr¨ undung eines neuen Ministeriums f¨ ur Handel und Arbeit (Department of Commerce and Labor ) einschloß. Das Ministerium faßte zahlreiche zuvor verstreute Dienststellen zusammen und war bestrebt, den Außen- und Binnenhandel, den Bergbau, die veredelnde Industrie und den Schiffbau, den Fischfang und das Transportwesen zu f¨ ordern und entwickeln. Außer dem Census Bureau geh¨orten dem Ministerium auch noch andere statistische Bureaus an, zum Beispiel das Bureau f¨ ur Arbeitsstatistik und die statistischen Bureaus der Finanzbeh¨orde und des Außenhandels. Eines der Ziele bei der Gr¨ undung des Ministeriums bestand darin, diese Bureaus zu vereinigen oder wenigstens zu koordinieren, um unn¨otige Arbeitsverdopplungen zu vermeiden und allgemeine Methoden und Nomenklaturen zu verbreiten. Die T¨ atigkeit des neuen st¨andigen Census Bureau entwickelte sich damals in die Richtung h¨aufiger und regelm¨aßiger Wirtschaftsstatistiken und
Das Census Bureau: Aufbau einer Institution
221
beschr¨ ankte sich nicht darauf, in zehnj¨ahrigen Abst¨ anden Z¨ ahlungen durchzuf¨ uhren. Um diese Zeit begann man, Wirtschaftsstatistiken umfassend zu verbreiten und zu diskutieren. Aber der Census scheiterte in seinem Ehrgeiz, das gesamte statistische System zu dominieren und zu kontrollieren. Die Produkte der anderen spezialisierten Dienststellen hingen eng mit dem laufenden Management der Verwaltungen zusammen, denen die betreffenden Dienststellen unterstanden. Diese Dienststellen hatten kein Interesse daran, ihre Verbindungen zu schw¨achen und die Vormundschaft und Sprache eines Neulings zu akzeptieren, dessen Interessen weniger mit diesem Management zusammenhingen und dessen Legitimit¨at noch nicht offensichtlich war. Das Problem, welchen Platz der Census im neuen Ministerium einnehmen sollte, wird anhand eines Streites deutlich, in dem es um die Bezeichnung dieses Amtes ging: das Ministerium wollte es als Census Bureau bezeichnen, um es mit den anderen administrativen Einheiten in eine Reihe zu bringen, w¨ ahrend es der Census bevorzugt h¨atte, seine fr¨ uhere Bezeichnung Census Office beizubehalten, da dieser Begriff – ¨ahnlich dem franz¨ osischen Terminus Institut – eine gr¨ oßere Autonomie implizierte. Diese Spannung war charakteristisch: ¨ die statistischen Amter waren erst dreißig Jahre sp¨ ater dazu in der Lage, die Originalit¨ at ihrer Position – zwischen einer klassischen Verwaltung und einem Forschungslabor – voll zu rechtfertigen, das heißt zu einem Zeitpunkt, als sie zus¨ atzlich zur rein administrativen Kompetenz auch eine spezifische Technizit¨ at geltend machen konnten. Der unregelm¨aßige Fortschritt dieser Professionalisierung der ¨ offentlichen Statistik erfolgte in den Vereinigten Staaten durch einen Austausch mit Akademikern und Vereinigungen wie der American Statistical Association (ASA) oder der American Economic Association (AEA), in denen Wissenschaftler zusammengebracht wurden, die f¨ ur die Entwicklung der statistischen Produkte k¨ ampften. Diese Wissenschaftler fanden im Census nicht nur Quellen f¨ ur ihre Arbeiten, sondern auch einen Ausbildungs- und Praktikumsort f¨ ur Studenten und junge Forscher. Deswegen versuchten die Wissenschaftler systematisch, die noch junge Institution – deren Status zudem noch unklar war – f¨ ur den Nachwuchs attraktiv zu machen und einige ihrer eigenen Leute im Census unterzubringen. Aber sie waren nicht die einzigen. Die politische Schirmherrschaft zeigte auch weiterhin ihre Wirkungen. Das Betreuungspersonal stand auf einem noch schwachen professionellen Niveau und es boten sich keine Aufstiegsm¨oglichkeiten f¨ ur junge Leute, die von der Universit¨ at gekommen waren. Nachdem die Absolventen im Census gute Kenntnisse des damaligen statistischen Systems und seiner M¨ oglichkeiten erworben hatten, verließen sie das Amt, um ihre Forschungsarbeiten im National Bureau for Economic Research (NBER), in der Brookings Institution oder in der Carnegie Foundation fortzusetzen. Der Eintritt der Vereinigten Staaten im Jahre 1917 in den Krieg hatte – wie in den europ¨aischen L¨andern – eine intensive Mobilisierung und rigorose Planung aller wirtschaftlichen Ressourcen zur Folge. Das erh¨ ohte die Funktion und die Bedeutung der ¨offentlichen Statistik und beg¨ unstigte de-
222
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
ren Koordinierung, da es nun mit den Routinen der Friedenszeiten vorbei war. Die damals f¨ ur kurze Zeit neugeschmiedeten Allianzen erinnerten an die bereits beschriebenen Allianzen des Kabinetts von Albert Thomas in Frankreich. Wilson gr¨ undete im Juni 1918 ein Zentralamt f¨ ur Planung und Statistik, das s¨ amtliche statistikbezogenen Bestrebungen der Regierungsbeh¨ orden koordinierte und Universit¨atsstatistiker mit ehemaligen Census-Statistikern wie Wesley Mitchell zusammenbrachte. Aber das Zentralamt wurde bereits im Juni 1919 wieder aufgel¨ost. Dennoch f¨ uhrten die aufgefrischten Beziehungen der Verwaltung und der akademischen Kreise im November 1918 zur gemeinsamen Gr¨ undung eines Beraterkomitees f¨ ur den Census. Diesem Komitee, das ¨ von den Statistikern der ASA und den Okonomen der AEA gegr¨ undet wurde, geh¨ orten die besten Spezialisten der damaligen Zeit an. In den 1920er Jahren hatte das Komitee die Funktion eines Brain Trust und einer Lobby der at in einer ¨offentlichen Statistik und garantierte dadurch die geistige Kontinuit¨ administrativen Welt, die kein Erinnerungsverm¨ ogen hatte. Jedoch scheiterte das Komitee – wie schon seine Vorg¨anger vor dem Krieg – an der Koordinie¨ ¨ rung und internen Professionalisierung dieser Amter. Die betreffenden Amter waren den bereits genannten Zuf¨alligkeiten und Debatten der Tagespolitik unterworfen, in der es beispielsweise um die Festlegung ethnischer Quoten oder um die Berechnung der anteilm¨aßigen Verteilung der Kongreßmandate ging ¨ (im Ubrigen waren die Akademiker nicht abgeneigt, in diese Debatten einzugreifen). Erst der wirtschaftliche Zusammenbruch der 1930er Jahre f¨ uhrte zu einer vollst¨ andigen Umgestaltung der Landschaft der ¨ offentlichen Statistik und ihrer Beziehungen zur akademischen Welt.
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte In den wenigen Jahren zwischen 1933 und 1940 ¨ anderten sich die in der sozialen Debatte verwendeten Termini ebenso grundlegend, wie die statistischen Werkzeuge, die in dieser Debatte eine Rolle spielten. Die beiden Transformation hingen eng miteinander zusammen, denn gleichzeitig fanden zwei Entwicklungen statt: es entstand eine neue Art und Weise, das politische, wirtschaftliche und soziale Ungleichgewicht des amerikanischen Bundesstaates zu verstehen und zu verwalten und es bildete sich eine Sprache heraus, mit deren Hilfe sich diese T¨atigkeit ausdr¨ ucken ließ. Arbeitslosigkeit im nationalen Maßstab, Ungleichheiten zwischen den Klassen, Rassen und Regionen und die Tatsache, daß die entsprechenden Objekte mit statistischen Werkzeugen bearbeitet werden m¨ ussen, um dar¨ uber debattieren zu k¨ onnen – all das war Bestandteil dieser neuen Sprache, die nach 1945 in allen westlichen L¨ andern allt¨ aglich wurde. Der Vergleich der Art und Weise, in der diese Probleme in den drei aufeinanderfolgenden Zeitr¨aumen von 1920 bis 1929, von 1930 bis 1932 und schließlich von 1933 bis 1940 aufgeworfen und behandelt worden
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte
223
waren, verdeutlicht das gleichzeitige Umschwenken der politischen Programme und der Techniken. Die beiden Traditionen, das heißt die administrative und die mathematische Tradition der Statistik, die in den vorhergehenden Kapiteln getrennt voneinander beschrieben wurden, vereinigten sich in einem Konstrukt, das von nun an mit einer doppelten Legitimit¨ at ausgestattet war: mit der Legitimit¨at des Staates und mit der Legitimit¨ at der Wissenschaft. Herbert Hoover, republikanischer Pr¨asident von 1928 bis 1932, sah sich ab Oktober 1929 zun¨achst mit dem B¨orsenkrach und dem Zusammenbruch der Wirtschaft und danach mit einem schnellen Anstieg der Arbeitslosigkeit konfrontiert. Hoover wurde oft als fanatischer Anh¨ anger des freien Spiels der Marktkr¨ afte beschrieben, der demzufolge jeglichen Eingriffen seitens des Bundes feindselig gegen¨ uberstand – unabh¨angig davon, ob es sich um makro¨ okonomische Eingriffe (Ankurbelung der Nachfrage) oder um soziale Eingriffe (Arbeitslosenhilfe) handelte. Nach dieser Version h¨ atte er sich damit begn¨ ugt, passiv auf den unabwendbaren Konjunkturumschwung zu warten, was keinerlei detaillierte statistische Analyse der Ursachen und Wirkungen der Krise und der anzuwendenden Mittel bedeutet h¨atte. Aber die Dinge waren nicht ganz so einfach und paradoxerweise bet¨atigte sich Hoover in den 1920er Jahren als aktiver F¨ orderer der Bundesstatistik, vor allem in Bezug auf die Unternehmenst¨ atigkeit. Bereits ab 1921 hatte er als Handelsminister (Secretary of Commerce) eine st¨andige Erhebung zu dieser T¨ atigkeit eingeleitet, den Bericht u ¨ber die laufende Gesch¨aftst¨atigkeit (Survey of Current Business). Zu diesem Zeitpunkt befand sich das Land bereits in der Krise und kannte das Problem der Arbeitslosigkeit. Hoover u asident Harding davon, die ¨berzeugte Pr¨ Schirmherrschaft u ¨ber eine landesweite Konferenz zu diesem Thema zu u ¨bernehmen, deren Ziel es war, die Ursachen der Arbeitslosigkeit zu analysieren und Maßnahmen zu deren Senkung vorzuschlagen. Die vorgelegten Erkl¨ arungen, die Beobachtungsmethoden und die in Betracht gezogenen L¨ osungen waren koh¨ arent und unterschieden sich deutlich von denen, die in den 1930er Jahren die Oberhand gewinnen sollten. Die Ursachen f¨ ur die Krise waren ¨ im Wesentlichen auf folgende Faktoren zur¨ uckzuf¨ uhren: Uberproduktion, ineffiziente Managementpraktiken der Unternehmensleitungen, Verschwendung, ¨ Ubertreibungen im Zusammenhang mit Spekulationen und u ¨bertriebene Inflation in der Wachstumsphase. Die von Hoover im Jahre 1921 organisierte Konferenz u ¨ber die Arbeitslosigkeit sammelte detaillierte Berichte zur Situation von Firmen in Hunderten von St¨adten und zu der Art und Weise, in der sich Arbeitgeber und politische F¨ uhrungskr¨afte auf lokaler Ebene organisierten, um die M¨ arkte zu sanieren. Weder waren diese Berichte quantifiziert, noch waren sie in landesweiten Messungen aggregiert. Sie wurden sorgf¨altig aufgelistet und analysiert, um die am meisten betroffenen Gebiete ausfindig zu machen und diejenigen Maßnahmen zu orten, die sich als die effizientesten erwiesen hatten. Die Regierung und die Unternehmen sollten diese Maßnahmen unterst¨ utzen, um ¨ Ubertreibungen bei konjunkturellen Aufw¨artsbewegungen abzumildern. Die Konferenz schlug sogar Auftragserteilungen f¨ ur ¨ offentliche Arbeiten in Pha-
224
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
sen konjunktureller Abschw¨achungen und Umstrukturierungen der in schlechtem Zustand befindlichen Industrien vor, wobei diese Umstrukturierungen im Umkreis der f¨ uhrenden Unternehmen durchgef¨ uhrt werden sollten. Aber die¨ se Maßnahmen konnten die Ubernahme einer lokalen Verantwortung f¨ ur das Funktionieren des Arbeitsmarktes nur begleiten – die Bundesregierung konnte die lokale Verantwortung nicht u ur die ¨bernehmen. Die Hauptverantwortung f¨ Durchf¨ uhrung der Maßnahmen lag bei den Unternehmensleitern, aber diese mußten u ¨ber die Konjunkturzyklen und Marktbedingungen informiert werden. Die auf lokaler Ebene und branchenweise diversifizierten Informationen konnten von den Bundesbeh¨orden aufgegriffen und verbreitet werden. Die von Hoover in den 1920er Jahren verfochtene Tendenz in der Statistik f¨ uhrte weder zu einer landesweiten Sch¨atzung des Gesamtgesch¨ aftsvolumens und der Arbeitslosigkeit noch zu einer Analyse der Lebensbedingungen der Arbeitslosen, da keine ¨ offentlichen Programme zu deren Unterst¨ utzung vorgesehen waren. Bei der Messung der Arbeitslosigkeit hielten sich die Experten zur¨ uck. Die Zur¨ uckhaltung war so groß, daß das Census-Beraterkomitee – ein Ableger der ASA und der AEA – im Jahre 1920 eine Frage zu diesem zwischen 1880 und 1910 diskutierten Thema streichen ließ, weil man die Ursachen ” nicht erkennen kann, warum jemand zum Zeitpunkt der Umfrage nicht arbeitet: Wirtschaftskonjunktur, saisonbedingte Schwankungen, Krankheiten ...“ Ein weiterer Vorschlag, diese Frage zu streichen, wurde im Dezember 1928 im Hinblick auf die 1930 durchzuf¨ uhrende Volksz¨ ahlung unterbreitet, aber es ¨ gelang dem gut informierten demokratischen Senator Wagner, eine Anderung zu verabschieden, auf deren Grundlage die Frage im Juni 1929 – vier Monate vor dem B¨ orsenkrach – erneut gestellt wurde. Der Zufall wollte es, daß die alle zehn Jahre durchgef¨ uhrte Volksz¨ ahlung am 1. April 1930 stattfand, das heißt zu einem Zeitpunkt, an dem die Arbeitslosigkeit bereits dramatisch angestiegen war und ihre landesweite Messung erstmalig ein wesentliches politisches Streitobjekt in der Debatte zwischen Regierung und demokratischer Opposition geworden war. Auf das Census Bureau wurde ein starker Druck ausge¨ ubt, um eine schnelle Bekanntgabe der Arbeitslosenzahlen zu erreichen, aber in dem vor der Krise konzipierten Auswertungsplan hatten die Arbeitslosenzahlen nur eine geringe Priorit¨ at. Dar¨ uber hinaus trat die entsprechende Information auf einem anderen Fragebogen auf, der gesondert ausgewertet wurde. Der Vergleich dieses Fragebogens mit den im Hauptfragebogen stehenden Fragen, die sich auf Rasse, Geschlecht, Alter und Beruf bezogen, bedeutete eine betr¨achtliche Arbeit in einer Zeit, in der es noch keine elektronische Stimmenz¨ahlung gab. Dennoch sah sich das Census Bureau dem Druck der ¨offentlichen Meinung ausgesetzt, sehr schnell Ergebnisse zu einer Frage zu liefern, die sich fast durch Zufall aus einer Z¨ ahlung ergaben, die u ur diesen Zweck konzipiert worden war. In¨berhaupt nicht f¨ folgedessen k¨ undigte das Bureau Ende Juni an, daß eine erste Z¨ ahlung 2,4 Millionen Arbeitslose registriert h¨atte. Aber die Konventionen bez¨ uglich der Definition und der Z¨ahlung dieser Arbeitslosen“ waren umstritten und es ” wurde behauptetet, daß die wahre Zahl zwischen 4 Millionen und 6,6 Millio-
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte
225
nen liegt. Die Arbeitslosigkeit war vorher noch nie klar definiert worden und das Bureau hatte aufgrund der Dringlichkeit restriktive Konventionen angewendet: weder wurden die Arbeiter gez¨ahlt, die zwar noch eine Stelle hatten, aber kurz vor ihrer Entlassung standen, noch erfolgte eine Z¨ ahlung der Jugendlichen, die noch nie gearbeitet hatten, aber eine Stelle suchten. Hoover behauptete seinerseits, daß die Arbeitslosigkeit nicht so hoch war, wie es die vorgeblichen Zahlen suggerierten; die Z¨ahlung h¨ atte seiner Meinung nach nur deswegen zu einem sehr hohen Ergebnis gef¨ uhrt, weil viele der als arbeitslos ” registrierten Personen in Wirklichkeit gar keine Arbeit suchten“. Alle Bestandteile der modernen Debatte zur Arbeitslosigkeit waren also innerhalb weniger Monaten entstanden. Was war ein Arbeitsloser? Falls er als eine Person definiert war, die keine Besch¨ aftigung hatte, aber eine solche suchte, und falls er sofort verf¨ ugbar war, dann erwies sich jede dieser drei Bedingungen als problematisch und f¨ uhrte zu einer Diskussion, weil h¨ aufig zweifelhafte F¨ alle ins Spiel kamen: da gab es Leute, die in Ermangelung von etwas besserem nur ab und an arbeiteten; entmutigte Leute, die nicht mehr intensiv nach Arbeit suchten; Menschen in Notlagen, mit labiler physischer oder psychischer Verfassung, wie sie unter den sehr Armen h¨ aufig vorkamen. Mißt man dar¨ uber hinaus nicht nur die Anzahl der Arbeitslosen, sondern auch die Arbeitslosenquote, dann stellt auch die Definition des Nenners ein Problem dar: Soll man die Arbeitslosenzahl zur Gesamtbev¨ olkerung ins Verh¨ altnis setzen oder nur zur potentiell berufst¨atigen Bev¨ olkerung? In diesem Fall gab es an der Trennlinie zwischen der potentiell beruftst¨ atigen und der nichtberufst¨ atigen Bev¨ olkerung viele zweifelhafte F¨alle. Vor 1930 stellten sich diese Fragen kaum und sie erlangten erst deswegen Bedeutung, weil die demokratische Opposition eine national organisierte Politik im Kampf gegen die Arbeitslosigkeit forderte. Niemand hatte diese Fragen 1920–1921 aufgeworfen, da zu dieser Zeit die Vorstellung dominierte, daß der Verlauf der gesch¨ aftlichen Prozesse von lokalen Umst¨anden und Initiativen abh¨ angt. Das war die Position, die Hoover auch im Jahre 1930 weiter vertrat. Er machte jedoch den Vorschlag, ¨ ortliche Hilfen zu organisieren, Teilzeitbesch¨ aftigung und Job-Sharing zu f¨ ordern sowie Ausl¨ander mit illegalem Status abzuschieben. Aber er lehnte die Vorschl¨ age ab, die das historische Gleichgewicht zwischen den Gewalten der Stadtgemeinden, der Einzelstaaten und der F¨ oderation ¨ andern w¨ urden. Aus diesem Grund blieben die Statistiken bez¨ uglich Landwirtschaft, Arbeit und Arbeitslosigkeit, Unterst¨ utzung, Ausbildung und Gesundheit noch in der Zust¨ andigkeit der ¨ortlichen Beh¨orden. Die Bundesstatistik wurde durch die von der Regierung Hoover beschlossenen Einschr¨ ankungen mit voller Wucht getroffen. Ihr Budget wurde 1932 um 27% beschnitten. Aber ihre Lage ¨ anderte sich in jeder Hinsicht, als Roosevelt im M¨arz 1933 an die Macht kam. Wie wir gesehen hatten, f¨ uhrte in Kriegszeiten die allgemeine Mobilisierung der Ressourcen zur Bildung von ungew¨ohnlichen Allianzen und Organisationsweisen, deren Auswirkungen sich auch in der ¨ offentlichen Statistik ¨ bemerkbar machten. Ahnlicherweise f¨ uhrten im Jahre 1933 – in dem die Krise ihren H¨ ohepunkt erreichte – die Bem¨ uhungen der neuen Administration zur
226
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
Ankurbelung der Wirtschaft sowie zur Unterst¨ utzung der Millionen von Arbeitslosen und ruinierten Landwirten zu einer umfassenden Transformation der Mechanismen und der Funktion der Bundesregierung. Dementsprechend ¨anderte sich auch der Stellenwert, den die Statistiker in diesen Mechanismen hatten. Diese Ver¨anderungen bezogen sich auf die Ziele der ¨ offentlichen Politik, auf die technischen und administrativen Verfahren zur Erreichung dieser Ziele und auf die Sprache, in der sich diese Maßnahmen ausdr¨ uckten. Damit hatten diese Ziele die gleiche Bedeutung f¨ ur alle, die sich an deren Umsetzung beteiligten. Mehr als je zuvor spielte die Statistik damals eine entscheidende Rolle bei dem Vorgang, diejenigen Dinge konsistent zu machen, um die es bei der kollektiven Aktion ging. Diese Dinge, zu denen Arbeitslosigkeit, Sozialversicherung, Ungleichheiten zwischen Gruppen oder Rassen und das Nationaleinkommen geh¨orten, wurden von nun an auf der Grundlage ihrer Definitionen und ihrer statistischen Messungen formuliert. Es war nicht das erste Mal, daß soetwas geschah: bereits im England des 19. Jahrhunderts nahm die Politik der ¨offentlichen Gesundheit Bezug auf die lokalen Sterblichkeitsziffern und das General Register Office (GRO) sch¨ opfte hieraus seine Bedeutung und seine Legitimit¨at. Aber es ging jetzt nicht mehr darum, einer besonderen – wenn auch sehr wichtigen – Maßnahme Ausdruck zu verleihen. Vielmehr ging es darum, die Unternehmen und ihre Stiftungen, die Universit¨ aten und ihre Fachleute, die Gewerkschaften und die Wohlt¨ atigkeitsvereine zu koordinieren und sie u ¨ber die Aktivit¨aten zu informieren, die von der Administration zusammen mit denjenigen sozialen Kr¨ aften umgesetzt wurden, auf die sie sich bei der betreffenden Maßnahme st¨ utzte. Zu einer Zeit, in der andere Ausdrucksmittel der kollektiven Aktion – Ausdrucksmittel, die auf die Sprache der Markt¨okonomie oder der ¨ortlichen Solidarit¨ at zur¨ uckgriffen – ¨ nicht mehr f¨ ahig zu sein schienen, die Dramatik der Lage in die Uberlegungen einzubeziehen, war es nur allzu einleuchtend, neue Formen der Rationalit¨ at und Universalit¨ at zu verwenden, die sich durch wissenschaftliche und vor allem durch statistische Begriffe ausdr¨ ucken ließen. Einige Jahre zuvor schien das durchaus noch nicht plausibel gewesen zu sein. In den ersten drei Jahren der Krise hatte es erbitterte Debatten zwischen den Mitglieder der republikanischen Administration, den Statistikern der ASA ¨ und den Okonomen der AEA gegeben. Diese Debatten bezogen sich nicht nur auf die Messung der Arbeitslosigkeit, sondern auch auf die als archaisch beurteilte Organisation der Statistik. Dar¨ uber hinaus ging es um Maßnahmen, die durchzuf¨ uhren waren, damit sich die Regierungen und die ¨ offentliche Meinung in einer derart neuen Situation auf vertrauensw¨ urdige Beschreibungen st¨ utzen konnten, denn keine der fr¨ uheren zyklischen Krisen hatte ein solches Ausmaß. Bereits in den ersten Wochen der neuen Regierung wurden die mit den Repu¨ blikanern sympathisierenden Leiter der wichtigsten statistischen Amter durch Mitglieder der ASA ersetzt, die an diesen Debatten teilgenommen hatten. Der neue Arbeitsminister (zu dessen Ressort das Bureau of Labor Statistics, BLS, geh¨ orte) und der neue Handelsminister (dem das Census Bureau unterstand) gr¨ undeten zwei Komitees, die damit beauftragt wurden, die Arbeitsweise aller
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte
227
¨ statistischen Amter zu untersuchen und Vorschl¨ age zu deren Umgestaltung zu erarbeiten. Die wichtigste dieser Expertengruppen, das Committee on Government Statistics and Information Services (COGSIS), spielte eine entscheidende Rolle bei der Koordinierung und Rationalisierung derjenigen administrativen Kreisl¨ aufe, die zu statistischen Messungen f¨ uhrten. Eine ebenso wichtige ¨ Rolle spielte das Committee bei der Professionalisierung der Amter. Das Committee wurde von der Rockefeller-Stiftung finanziert; seine Vorsitzenden waren zun¨ achst Edmund Day, der Leiter des Bereiches Sozialwissenschaften der Stiftung, und danach Frederick Mills, Professor an der Columbia University. Day verschaffte jungen Spitzenakademikern mit mathematischer und wirtschaftswissenschaftlicher Ausbildung Zutritt zum Census. Die jungen Leute nahmen allm¨ ahlich die Stellen der alten, u ¨berwiegend in der Verwaltung ausgebildeten Leitungskr¨ afte ein, die noch von den – ansonsten l¨ angst vergessenen – politischen Querelen der 1920er Jahre gezeichnet waren. In normalen Zeiten zogen ¨ die offiziellen Amter nur wenige brillante Studenten an; anders verhielt es sich jedoch zu einer Zeit, in der die Absatzm¨arkte der Unternehmen verlorengegangen waren. Die neue Generation, die bis in 1970er Jahre aktiv war, gab dem Census, dem BLS, dem Amt f¨ ur Landwirtschaftsstatistik und einigen weiteren Dienststellen f¨ ur Statistik und Wirtschaftsstudien, die der Bundesverwaltung unterstellt waren, ein sehr originelles Profil. Die nachr¨ uckende Generation von Fachleuten transformierte diese Dienststellen in Standorte der Innovation und des Experimentierens mit den neuen Wissensgebieten, die aus der Mathematisierung der Statistik und der Wirtschaftswissenschaften hervorgegangenen waren: hierzu geh¨orten die Theorie der Stichprobenerhebungen, die volkswirtschaftliche Gesamtrechnung und die ¨okonometrischen Modelle (vgl. Kapitel 9). Die Technik der Stichprobenerhebungen, die bereits Laplace im 18. Jahrhundert ersonnen hatte und die in der Folgezeit in Vergessenheit geraten war, wurde gegen 1900 von Kiaer in Norwegen und sp¨ ater von Bowley in Großbritannien wieder aufgegriffen (vgl. Kapitel 7). Das Zusammentreffen dreier verschiedener Ereignisse in der 1930er Jahren in den Vereinigten Staaten f¨ uhrte zur routinem¨ aßigen Anwendung dieser Technik und ihrer Verbreitung. Jerzy Neyman (1894–1981), ein Statistiker polnischer Abstammung und Mitarbeiter von Egon Pearson (1895–1980) in London, formalisierte im Jahre 1934 die Methoden der Stichprobenerhebung und der Stratifizierung. Damit er¨ offnete er einen Weg, der von den am Census frisch rekrutierten jungen Leuten (Dedrick, Hansen, Stephan und Stouffer) betr¨ achtlich vertieft wurde, indem sie diese Methoden auf regelm¨ aßige Erhebungen anwendeten. Diese Technik eignete sich ausgesprochen gut f¨ ur den Kontext der neuen Wirtschafts- und Sozialpolitik und f¨ ur die Bestrebungen des COGSIS, ein st¨ andiges statistisches System aufzubauen, das eine Umsetzung dieser Politik erm¨ oglichte – ein Ziel, das sich nicht mit den alle zehn Jahre durchgef¨ uhrten Volksz¨ ahlungen erreichen ließ. Die Technik wurde schließlich 1936 von Gallup bei Wahlprognosen erfolgreich eingesetzt. Das trug zur Zerstreuung der Zweifel bei, welche die ¨offentliche Meinung u ¨ber die Konsistenz von Messungen hatte, die sich le-
228
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
diglich auf einen Bruchteil der zu beschreibenden Bev¨ olkerung st¨ utzten. Auf diese Weise hatte die Allianz aus Mathematikern, Statistikern, politischen F¨ uhrungskr¨ aften und Journalisten nach einigem Hin und Her einen durchschlagenden Erfolg. Viel weniger aufwendig als Z¨ahlungen waren Stichprobenerhebungen, die mit einem festen Fragebogen wiederholt durchgef¨ uhrt werden konnten. Dadurch war es m¨ oglich, in eleganter Weise die Einw¨ ande zu umgehen, die sich auf die Konventionen und die Willk¨ ur der Kodierung bezogen: L¨ aßt sich die Realit¨ atsn¨ ahe einer Niveaumessung anfechten, dann ist die Realit¨ atsn¨ ahe der Schwankungen dieser Messung in geringerem Maße anfechtbar, sobald sich die Aufzeichnungskonventionen verfestigt haben. Dadurch wurde eine routinem¨ aßige Anwendung der Statistik m¨oglich und diese Anwendung schloß teilweise die Kritik ihres Realismus ein. Aber bevor sich die Statistik endg¨ ultig durchsetzte, wurde die neue Realit¨at der Stichprobenerhebung immer noch in Zweifel gezogen, und zwar von den Politikern und sogar von der Leitung des Census. Die jungen Statistiker mußten den Beweis antreten, daß ihre Objekte dauerhafter und besser sind als diejenigen Objekte, die mit Hilfe von klassischen Verwaltungsaufzeichnungen konstruiert wurden. In der im Folgenden dargelegten Geschichte der Stichprobenerhebungen spielen zwei u ¨berzeugende Tests die Rolle der Gr¨ undungsurkunde. Einer der Tests bezog sich auf die Arbeitslosigkeit und u uhrungskr¨ afte in Politik und Verwaltung. ¨berzeugte die F¨ Der andere betraf die zuk¨ unftigen Wahlen und u ¨berzeugte die Presse und die ¨offentliche Meinung. Die Arbeitslosigkeit blieb f¨ ur die neue Administration eine ebenso brennende Frage, wie sie es f¨ ur die vorhergehende war. Um 1935 stießen die W¨ unsche nach einer besseren Beschreibung und Messung der Arbeitslosigkeit noch auf die gleiche Reserviertheit wie fr¨ uher. So wie sein Vorg¨ anger zog auch Roosevelt die Realit¨ at gewisser F¨alle von Arbeitslosigkeit und sogar die M¨ oglichkeit in Zweifel, hier¨ uber eine Statistik aufzustellen. Niemand – so Roosevelt – ist dazu in der Lage, einen Arbeitslosen definieren ... Gewisse Frauen ar” beiten f¨ ur ihr Taschengeld ... Die Zimmerleute h¨ oren auf zu arbeiten, wenn schlechtes Wetter ist“. Er meinte, daß bei einer Z¨ ahlung der Arbeitslosigkeit derartige F¨ alle in ungerechtfertigter Weise mit den F¨ allen von Personen vermengt w¨ urden, die sich wirklich in Not“ bef¨ anden. Aber zwei Jahre sp¨ ater, ” im Jahre 1937, wurde der politische Druck so groß, daß der Kongreß Kredite f¨ ur eine nationale Umfrage zur Arbeitslosigkeit beschloß. Hierbei handelte es sich um eine Vollerhebung: die Frageb¨ogen wurden per Post verschickt und die Arbeitslosen antworteten freiwillig darauf. Die Statistiker waren mit dieser Methode nicht einverstanden: sie behaupteten, daß zahlreiche Personen nicht antworten w¨ urden, da sie die Arbeitslosigkeit als dem¨ utigende Situation wahrnehmen. Eine weniger kostenaufwendige Stichprobenerhebung w¨ urde es erm¨ oglichen, Interviewer in nur 2% der Haushalte zu schicken; dieser direkte Kontakt w¨ urde ein Vertrauensverh¨altnis zu den Leuten herstellen und ein besseres Bild von der Realit¨at der Arbeitslosigkeit liefern. Dedrick und seine jungen Kollegen u ¨berzeugten ihren Direktor, diese experimentelle Be-
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte
229
fragung parallel zu der postalisch durchzuf¨ uhrenden Z¨ ahlung abzuwickeln, um die Ergebnisse bez¨ uglich derjenigen Personen zu vergleichen, die sich an beiden Operationen beteiligt hatten. Der Test war u ¨berzeugend: 7,8 Millionen Arbeitslose beantworteten die postalische Vollerhebung, aber von denen, die sich in der direkten Stichprobenerhebung als arbeitslos bezeichneten, hatten nur 71% auf die postalische Umfrage geantwortet (der Prozentsatz lag bei denjenigen Arbeitslosen sehr viel h¨oher, die von speziellen Beh¨ orden eine Beihilfe erhielten und deswegen bereits bekannt waren: von diesen Arbeitslosen hatten 98% geantwortet). Somit war es zum ersten Mal m¨ oglich geworden, die beiden klassischen Arten der Z¨ahlung der Arbeitslosen – durch direkte Befragung oder u ursorgeleistungen beauftragten Beh¨ orden – miteinander ¨ber die mit F¨ zu vergleichen. Der Vergleich der postalisch durchgef¨ uhrten Z¨ ahlung mit der Stichprobenerhebung erm¨oglichte also die Sch¨ atzung einer gr¨ oßeren Zahl von Arbeitslosen, n¨ amlich 11 Millionen anstelle von 7,8 Millionen. Der andere u ¨berzeugende Test der Methode der Zufallsstichprobenerhebung im Vergleich zur spontanen“ Stichprobenerhebung ergab sich 1936 auf” grund der Erfahrungen des amerikanischen Statistikers George Horace Gallup (1901–1984), der als Meinungsforscher (pollster ) die Wiederwahl von Roosevelt vorausgesagt hatte, w¨ahrend das Magazin Literary Digest, das die Leser auf freiwilliger Grundlage befragt hatte, einen republikanischen Sieg prognostizierte und sich damit gewaltig irrte. Gallup und die Anh¨ anger der neuen Methode vergaßen nicht, die Tatsache hervorzuheben, daß die Zufallsstichprobe viel kleiner war, als die des Magazins, aber dennoch zum richtigen Ergebnis asentativit¨ at umfassend pogef¨ uhrt hatte.15 Damit wurde der Begriff der Repr¨ pularisiert und das untermauerte die Argumente derjenigen Statistiker, die f¨ ur eine regelm¨ aßige Durchf¨ uhrung von Stichprobenerhebungen zu sozialen und wirtschaftlichen Fragen k¨ampften. Kurze Zeit sp¨ ater – bei der Vorbereitung der normalen Volksz¨ahlung von 1940 – bot sich diesen Statistikern erneut eine Gelegenheit, ihre Methoden zu testen und deren Effizienz unter Beweis zu stellen. Die zahlreichen Antr¨age auf Hinzuf¨ ugung neuer Fragen h¨ atten dazu gef¨ uhrt, den Fragebogen u ¨berm¨aßig lang zu machen. Die Statistiker der neuen Generation schlugen vor, der Vollerhebung einen Erg¨ anzungsfragebogen hinzuzuf¨ ugen, der sich jedoch nur an 5% der zu befragenden Personen richtete. In Verbindung mit der Vollerhebung erm¨oglichte es dieser Vorgang, wesentliche theoretische und praktische Fragen zur Zuverl¨assigkeit des Stichprobenverfahrens zu stellen und zu l¨osen. Die Aktion ermunterte auch dazu, die Formulierung von Fragen zu testen und zu konsolidieren sowie gewisse Messungen zu standardisieren, die f¨ ur einen umfassenden Verwendungszweck bestimmt 15
Die sogenannten pre-election surveys“ oder polls“ wurden in den USA seit ” ” den 1930er Jahren durchgef¨ uhrt, um eine Vorhersage der Wahlergebnisse (z.B. bei Pr¨ asidentschaftswahlen) zu erm¨ oglichen. Polls und mit ihnen auch andere Stichprobenuntersuchungen kamen jedoch erst beim Literary Digest Desaster“ ” zu Ansehen, als die Ergebnisse der Pr¨ asidentschaftswahl 1936 die Vorhersage von Gallup und anderen Meinungsforschern best¨ atigten.
230
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
waren. Hierzu geh¨orte die Sch¨atzung der Anzahl der Erwerbspersonen (labor force), das heißt der Gesamtheit derjenigen Personen, die eine Arbeitsstelle haben oder eine solche in der Woche suchen, in der die Z¨ ahlung stattfindet. Von nun an diente diese Gr¨oße als Nenner in der Standardabsch¨ atzung der Arbeitslosenquote. Die verschiedenen Erfahrungen waren hinreichend u ¨berzeugend: fortan konnte das Ergebnis einer Stichprobenerhebung als amtliche Arbeits” losenziffer“ vorgelegt werden, was zehn Jahre fr¨ uher unvorstellbar gewesen w¨ are. Nach 1940 wurden derartige Erhebungen jeden Monat durchgef¨ uhrt – zun¨ achst unter der Bezeichnung Stichprobenerhebung zur Arbeitslosigkeit“ ” (sample survey of unemployment), danach im Jahre 1942 als Monatsbericht ” zu den Erwerbspersonen“ (monthly report on the labor force) und schließlich 1947 als st¨ andige Erhebung“. ” Die gleichzeitige Richtungs¨anderung der Ziele und der Werkzeuge der Statistik in den 1920er und 1930er Jahren erwies sich auch in Bezug auf Fragen zur Bev¨ olkerung und zu Ungleichheiten zwischen sozialen und ethnischen Gruppen als spektakul¨ar. Vor 1930 erfolgte die Beschreibung dieser Unterschiede im Allgemeinen durch die Begriffe der angeborenen F¨ ahigkeiten oder der kulturellen und religi¨osen Unf¨ahigkeit, sich in die amerikanische Gesellschaft zu integrieren. Diese Analysen st¨ utzten sich auf intellektuelle Konstrukte, die auf die Eugenik oder auf eine Form des Kulturalismus zur¨ uckgingen, bei der die Unver¨anderlichkeit der charakteristischen Merkmale der Abstammung hervorgehoben wurde. Die Debatten der 1920er Jahre zu den ethnischen Quoten waren deutlich von derartigen Argumenten gepr¨ agt. Zehn Jahre sp¨ ater waren die Terminologie und die aufgeworfenen Fragen nicht mehr die gleichen. Die Regierung beauftragte Komitees, die sich aus Akademikern und Beamten zusammensetzten und von den großen privaten Stiftungen unterst¨ utzt wurden, mit der Analyse der Probleme und der Erarbeitung von Vorschl¨ agen. In diesen Komitees wurde eine liberale“ politische Linie, das heißt eine Linie ” des Fortschritts“ entworfen und formuliert – im amerikanischen Sinne dieses ” Begriffes (der in Europa eine andere Konnotation hat). Eines dieser Komitees ¨ untersuchte 1934 die Verbesserung der nationalen Ressourcen“ mit der Uber” zeugung, daß Wissenschaft und Technik als solche mobilisiert werden m¨ ussen, um die sozialen Probleme zu l¨osen: Die Anwendung der Ingenieurskunst und des technologischen Wissens auf die Reorganisation der nat¨ urlichen Ressourcen der Nation muß als ein Mittel konzipiert werden, die Last der Arbeit schrittweise zu verringern und dadurch den Lebensstandard und den Wohlstand der Masse der Bev¨olkerung zu erh¨ohen. (National Resources Committee, 1934, zitiert von Anderson, 1988, [4]). Vom ersten Komitee wurde ein weiteres Komitee zu Bev¨ olkerungsproble” men“ mit dem Ziel bestellt, die Fragen der sozialen und ethnischen Unterschiede genauer zu untersuchen. Der von diesem Komitee im Jahre 1938 u ¨bergebene Bericht vertrat einen Standpunkt, der das genaue Gegenteil der Theorien der 1920er Jahre war. Entsprechend diesem Bericht hat die Einwanderung
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte
231
der verschiedenen nationalen Minderheiten die Vitalit¨ at der amerikanischen Gesellschaft ganz und gar nicht verringert. Der Bericht unterstrich die positiven Aspekte der Vielfalt der kulturellen Traditionen der Einwanderer, der Schwarzen und der Indianer. Die Probleme der am meisten benachteiligten Gruppen resultieren aus ihren Schwierigkeiten, eine Ausbildung zu erhalten, ” aus der falschen Nutzung der Ressourcen des Erdbodens und des Untergrundes sowie aus einer unkorrekten Vorhersage der technischen Ver¨ anderungen“. Die L¨ osung dieser Probleme liegt in der Verantwortung der Bundesregierung – vor allem bei der Bereitstellung des Personals und der Finanzierung zur Sicherung der Chancen auf Schulausbildung und normale Gesundheit f¨ ur alle Amerikaner, bei der Wiederherstellung der von den fr¨ uheren Generationen gnadenlos ausgebeuteten W¨alder und landwirtschaftlichen B¨ oden sowie bei der Prognostizierung technologischer Ver¨anderungen durch eine entsprechende Wachstumsplanung. Die Tatsache, daß der F¨ oderation die Zust¨ andigkeit f¨ ur einen derartigen Fragenkomplex zuerkannt worden war, stellte eine bedeutende Neuerung in der amerikanischen politischen Tradition dar und pr¨ agte bis zum Beginn der 1980er Jahre die Administrationen unabh¨ angig davon, ob es sich um Demokraten oder Republikaner handelte. Parallel hierzu entwickelte sich gleichzeitig das statistische System (mußte dann aber ab 1981 starke Budgetk¨ urzungen hinnehmen). Die Frage der Beschreibung und der Messung der Ungleichheiten der (durch pr¨agnante Begriffe der amerikanischen Kultur wie opportunities und birthright ausgedr¨ uckten) Anfangschancen der sozialen Gruppen, Regionen, Rassen und Geschlechter stand im Mittelpunkt zahlreicher politischer und gesetzgeberischer Bestrebungen, die in der Folgezeit ausprobiert wurden, um ein Gegengewicht gegen Benachteiligungen aller Art zu schaffen. Die Philosophie dieser Versuche kommt in der Schlußfolgerung des Ausschußberichtes treffend zum Ausdruck: Man kann die Tatsache gar nicht genug hervorheben, daß dieser Bericht in Bezug auf die Bev¨olkerung nicht nur Probleme der Anzahl, Merkmale und Verteilung behandelt, sondern auch Probleme der Erh¨ ohung der Chancen (opportunities) der Individuen, aus denen sich diese Bev¨ olkerung zusammensetzt, und seien sie noch so zahlreich. Unser demokratisches System muß schrittweise allen Gruppen zug¨ anglich machen, was wir f¨ ur den amerikanischen Lebensstandard halten. Der Fortschritt der Nation ist vor allem der Fortschritt der Masse des Volkes und das Geburtsrecht (birthright) darf nicht durch Gleichg¨ ultigkeit oder Nachl¨ assigkeit verloren gehen. (National Resources Committee, 1934, zitiert von Anderson, 1988, [4]). Die Umsetzung dieser Politik f¨ uhrte bereits 1935 zur Verabschiedung eines Gesetzes zur Sozialversicherung, das durch Bundesmittel finanziert wurde, die ihrerseits von den staatlichen und den o¨rtlichen Beh¨ orden verteilt und verwaltet wurden. Es stellte sich demnach die Frage nach der Verteilung dieser Subventionen (grant-in-aid ) auf die verschiedenen Zwischeninstanzen. Hierzu wurde das alte konstitutionelle Verfahren des apportionment zu neuem
232
6 Statistik und Staat:
Deutschland und die Vereinigten Staaten
Leben erweckt und man mobilisierte das Census Bureau, damit es die Berechnungsgrundlage zur Verteilung der Subventionen auf die Einzelstaaten lieferte. Aber die Gerechtigkeitsprinzipien, von denen diese neuen Politik beseelt war, st¨ utzten sich nicht mehr nur auf die anteilm¨aßige Verteilung der Vertretungen und der finanziellen Belastungen, wie es in der Tradition der Gr¨ underv¨ ater u ¨blich war. Diese Gerechtigkeitsprinzipien bezogen sich von nun an auch auf individuelle Ungleichheiten, die mit der Rasse, dem Beruf und dem Einkommensniveau zusammenhingen. Zur Durchf¨ uhrung dieser Strategie waren Informationen neuen Typs erforderlich. Individuell-nationale“ Statistiken konn” ten nicht durch aufwendige Z¨ahlungen bereitgestellt werden, die nur selten durchgef¨ uhrt wurden. Dagegen erwiesen sich regelm¨ aßige und auf Bundesebene durchgef¨ uhrte Stichprobenerhebungen als ad¨ aquat zur Durchf¨ uhrung von Maßnahmen, die sich am Begriff der landesweit empfundenen individuellen Ungleichheiten orientierten. Der Raum der Nation war nicht mehr nur ein politischer und juristischer Raum. Er war auch zu einem statistischen ¨ Aquivalenzund Komparabilit¨atsraum geworden, der das Verfahren der Zufallsstichprobenerhebung rechtfertigte – daß heißt die Ziehung von Kugeln aus einer Urne, wobei die Kugeln“ nunmehr Individuen“ sind, die nicht nur ” ” politische, sondern auch soziale Rechte haben. Die Bilanz der amerikanischen Statistik der beiden Jahrzehnte 1921–30 und 1931–40 weist starke Kontraste auf. In dieser Zeit begann man damit, die Statistik auf zwei partiell unterschiedliche Weisen in die Gesellschaft einzubringen. Es mag n¨ utzlich sein, diese beiden Einbringungsweisen“ zu ty” pisieren – auch auf die Gefahr hin, die entsprechenden Merkmale zu u ¨bertreiben, da diese Merkmale ja bekanntlich in den real existierenden Systemen in unterschiedlichem Maße kombiniert sind. Die 1920er Jahre waren nicht nur Jahre der Debatten u ¨ber Einwanderung und ethnische Quoten. Hoover, der 1921 Handelsminister war, hatte ein lebhaftes Interesse an Wirtschaftsstatistik, die sich auf Unternehmen und die Gesch¨ aftst¨ atigkeit bezog. Aber er interessierte sich auch f¨ ur die Arbeitslosigkeit und hatte die Vorstellung, daß die Administration die Spielregeln und das Umfeld garantieren und verbessern kann, in deren Rahmen die Unternehmen ihre Aktivit¨ aten entfalten. Von diesem Standpunkt konnten sich Informationen zum Konjunkturverlauf – aufgeschl¨ usselt nach Branchen und Regionen – als sehr n¨ utzlich erweisen, wenn man Managementfehler vermeiden wollte, die zu Konkursen und Arbeitslosigkeit f¨ uhren. Das war der Grund daf¨ ur, warum Hoover im Jahre 1921 den Census dazu anspornte, einen Bericht u aftst¨ atig¨ber die laufende Gesch¨ ” keit“ (Survey of Current Business) zu organisieren. Dar¨ uber hinaus richtete er einen Ausschuß ein, der die Aufgabe hatte, die Ursachen der Arbeitslosigkeit zu untersuchen und entsprechende Gegenmittel zu finden. Aber diese Informationen waren eher mikro¨okonomischer Art oder zumindest branchenbezogen und lokal. Der Staat konnte in keinem Fall direkt in das makro¨ okonomische Gleichgewicht eingreifen und er konnte auch keine globale Politik der Arbeitslosenunterst¨ utzung betreiben, denn Eingriffe dieser Art h¨ atten das freie Spiel der Marktkr¨ afte verzerrt. Der letztgenannte Aspekt wurde in der Folgezeit
Arbeitslosigkeit und Ungleichheit: Die Konstruktion neuer Objekte
233
nach dem Zusammenbruch der Wirtschaft beibehalten, als Hoover von 1929 bis 1932 Pr¨ asident war. Jedoch bedeutete diese Linie, die dem Eingreifen des Staates in die makro¨okonomische Regulierung feindselig gegen¨ uberstand, keinen Widerspruch zu dem lebhaften Interesse an statistischen Informationen, durch die das reibungslose Funktionieren der M¨ arkte gef¨ ordert werden sollte. Der wirtschaftliche Zusammenbruch zu Beginn der 1930er Jahre f¨ uhrte beinahe zur Aufl¨osung der Gesellschaft und dieser Umstand erm¨ oglichte es der neuen Administration, mit einigen wichtigen amerikanischen Dogmen zu brechen, die sich auf das Gleichgewicht der Gewalten zwischen der F¨ oderation, den Einzelstaaten, den Gemeinden und den gesch¨ aftlich frei agierenden Unternehmen bezogen. Die Einrichtung von f¨oderalen Regulierungssystemen in Bezug auf Finanzen, Banken, Haushalt und soziale Fragen u ¨berantwortete der Regierung in Washington eine v¨ollig neue Funktion. Um diese neue Funktion aus¨ uben zu k¨onnen, st¨ utzte sich die Administration – vor allem u ¨ber die Vermittlung der reichen privaten Stiftungen (Carnegie, Ford, Rockefeller u.a.) – immer mehr auf Experten in den Bereichen Sozialwissenschaften, Wirtschaft, Demographie, Soziologie und Recht. In dieser Zeit kn¨ upften hoch¨ kar¨ atige Statistiker und Okonomen, welche die ¨ offentliche Statistik in Schwung hielten, enge Beziehungen zu Akademikern, die ihrerseits aufgrund der Gutachtenanforderungen der Administration mobilisiert waren. In diesem Kontext entwickelten sich nicht nur die auf Stichprobenerhebungen aufbauende quantitative Soziologie in Chicago und an der Columbia University (Converse, 1987, [49]; Bulmer, Bales und Sklar, 1991, [39]), sondern auch die volkswirtschaftliche Gesamtrechnung (Duncan und Shelton, 1978, [74]) und die ersten makro¨ okonomischen Modelle (Morgan, 1990, [204]), auf die sich in der Zeit von 1940 bis in die 1970er Jahre die vom Keynesianismus inspirierten politischen Maßnahmen st¨ utzten. Und schließlich kam es in den 1980er Jahren in den Vereinigten Staaten und in Großbritannien zur Wiederkehr einer Philosophie der Wirtschaftsinformation, was in gewisser Weise an die entsprechende Situation der 1920er Jahre erinnert.
7 Pars pro toto: Monographien oder Umfragen1
Die Technik der zufallsbasierten Stichprobenerhebungen“ begann erst gegen ” Ende des 19. Jahrhunderts mit den Arbeiten des Norwegers Kiaer, in einer noch rudiment¨ aren Form und eher intuitiv als formalisiert. Die ersten Berechnungen von Konfidenzintervallen wurden 1906 von dem Engl¨ ander Bowley durchgef¨ uhrt und Neyman legte 1935 eine detaillierte Formalisierung der Stratifizierungsmethoden vor. Erhebungen zu nicht allzu umfangreichen Personengruppen waren schon seit viel l¨angerer Zeit – insbesondere im gesamten 19. Jahrhundert – durchgef¨ uhrt worden. Diese Erhebungen wurden h¨ aufig von Leuten mit hoher wissenschaftlicher Bildung durchgef¨ uhrt (Absolven´ ten der Ecole polytechnique, die dem Berufsstand der Bergbauingenieure oder Br¨ uckenbauingenieure angeh¨orten), f¨ ur welche die zur intuitiven Erfassung“ ” der Stichprobenerhebung erforderlichen Grundlagen der Wahrscheinlichkeitsrechnung keine un¨ uberwindlichen Schwierigkeiten darstellten. Laplace hatte u ¨brigens die Technik der Stichprobenerhebungen bereits Ende des 18. Jahrhunderts angewendet, um die franz¨osische Bev¨ olkerungszahl zu sch¨ atzen, aber das Experiment war mehr als hundert Jahre ohne Nachfolger geblieben. Keverberg hatte 1827 den Vorwurf erhoben, daß diese Methode implizit die Gleichheit des Geburtenmultiplikators“ – das heißt des Verh¨ altnisses der Bev¨ olke” rungszahl zur Geburtenzahl (vgl. Kapitel 3) – auf dem gesamten Territorium voraussetzt. Die Kritik an den Sch¨atztechniken der politischen Arithmetiker“ ” des 18. Jahrhunderts hatte Quetelet und die damaligen Statistiker derart beeindruckt, daß Stichprobenerhebungen in den darauffolgenden siebzig Jahren f¨ ur einen schlechten Ersatz von Vollerhebungen gehalten wurden, die das Symbol einer strengen Statistik waren. Die systematischen Formalisierungen und Anwendungen der zufallsbasierten Stichprobenerhebungen sind nur etwas a¨lter als ein halbes Jahrhundert. Diese Tatsache f¨ uhrt uns vor Augen, daß die Erfindung und Umsetzung einer Technologie untrennbar an kognitive und soziale Voraussetzungen gebunden 1
Der lateinische Begriff pars pro toto“ bedeutet Ein Teil f¨ ur das Ganze“, das ” ” heißt vom Teil wird aufs Ganze geschlossen.
236
7 Pars pro toto: Monographien oder Umfragen
ist: Bevor man die L¨osung eines Problems erfand, mußte man erst das Problem erfinden, das heißt in diesem Fall die Randbedingung der Repr¨ asentativit¨ at im Sinne des Begriffes, wie er seit dieser Zeit von den Statistikern verwendet wurde. Man darf aber nicht verkennen, daß dieses Bestreben – das in der Sprache der Homothetie f¨ ur gewisse, exakt definierte Elemente des Teils und des Ganzen zum Ausdruck kommt – neueren Ursprungs war und in jedem Fall nach den großen Z¨ahlungen (Quetelet, ab 1840) und monographischen Untersuchungen (Le Play, fast um die gleiche Zeit) entstanden ist. Die Geschichte der empirischen Sozialwissenschaften, der Statistik und insbesondere der Techniken der Stichprobennahme (Seng, 1951, [255]; Hansen, 1987) erweckt den Eindruck, daß man von einer Zeit, in der sich die Frage der Repr¨ asentativit¨ at praktisch nicht stellte – man denke etwa an die zwischen 1914 und 1916 erschienenen Ver¨offentlichungen der SGF (Statistique g´en´erale de la France) oder an die vom Statistiker Dug´e de Bernonville und vom Soziologen Halbwachs durchgef¨ uhrten Enqueten zu den Familienbudgets) –, unmittelbar zu einer anderen Zeit u ¨berging, in der die Evidenz dieser Frage u ¨berhaupt nicht gepr¨ uft wurde (man vergleiche die Debatten des Internationalen Instituts f¨ ur Statistik , die zwischen 1895 und 1903 und dann zwischen 1925 und 1934 gef¨ uhrt wurden). Fand eine Debatte statt, dann bezog sie sich nicht auf die Randbedingung der Repr¨ asentativit¨at. Die Debatten wurden in zwei abgrenzbaren Zeitr¨ aumen gef¨ uhrt. Zwischen 1895 und 1903 ging es einerseits darum, zu wissen, ob man das Ganze (also Vollerhebungen) in legitimer Weise durch einen Teil (das heißt durch Teilerhebungen) ersetzen kann. Andererseits wollte man wissen, ob man damit besser“ f¨ahrt als mit den LePlayschen Monographien“, die ” ” sich immer noch großer Beliebtheit erfreuten. Wie wir sehen werden, bezog sich dieses besser“ nicht unmittelbar auf die Randbedingung der Repr¨ asen” tativit¨ at im Sinne der Genauigkeit der Messung, sondern auf die M¨ oglichkeit, einen diversifizierten Raum zu ber¨ ucksichtigen. Zwischen 1925 und 1934 drehte sich die Debatte dann um die Entscheidung zwischen den Methoden der zuf¨ alligen Stichprobennahme“ und den Methoden der bewußten Auswahl“: ” ” die Entwicklung der Theorie der Stratifizierung durch Neyman versetzte den letztgenannten Methoden den Todesstoß. Diese aus der Geschichte der Stichprobenerhebungen hervorgegangene Chronologie beschreibt die Art und Weise, in der sich zwischen 1895 und 1935 die allgemein anerkannten sozialen Normen so transformierten, daß sie den neuen Anforderungen entsprachen. Es handelte sich hierbei um die voraussichtlichen Anforderungen, die an die Beschreibungen der Gesellschaft zu stellen sind – wobei das Ziel darin besteht, Beobachtungen, die man in Bezug auf einen Teil der Gesellschaft gemacht hatte, so zu verallgemeinern, daß man Aussagen u ¨ber die ganze Gesellschaft erh¨alt. Wie aber soll man vom Teil“ ” auf das Ganze“ schließen? Die beiden M¨oglichkeiten der sukzessiven und der ” gleichzeitigen Verallgemeinerung, wie sie in den seit anderthalb Jahrhunderten durchgef¨ uhrten Sozialenqueten stattfanden, schienen heterogen und nicht miteinander vergleichbar zu sein – so als ob jede dieser Verallgemeinerungen
7 Pars pro toto: Monographien oder Umfragen
237
ihren eigenen G¨ ultigkeitsbereich und ihre eigene Logik h¨ atte. Es sah auch so aus, als ob eine Konfrontation dieser beiden Verallgemeinerungen nur auf der Grundlage einer wechselseitigen Denunziation erfolgen k¨ onne. Diese scheinbare Unvereinbarkeit l¨aßt sich besser verstehen, wenn man sie in den Rahmen des umfassenderen Gegensatzes der unterschiedlichen Denkweisen stellt, mit denen die Zusammenh¨ange zwischen den Teilen und dem Ganzen einer Gesellschaft betrachtet wurden – Denkweisen, die seit Beginn des 19. Jahrhunderts im Anschluß an die beiden sozialen Ersch¨ utterungen (Franz¨ osische Revolution und englischer Wirtschaftsliberalismus) miteinander rivalisierten. Derartige Analysen der Transformationen der Beziehungen zwischen den Teilen und dem Ganzen finden sich in den Untersuchungen von Polanyi (1944), Nisbet (1984, [212]) und Dumont (1983, [73]). Der den Anthropologen und den Historikern vertraute Gegensatz zwischen Holismus“ und Individualismus“ liefert eine Definition des Ganzen“, die ” ” ” f¨ ur unsere Zwecke nicht ausreicht. In der holistischen“ Vorstellung, die f¨ ur ” Dumont die Vorstellung von den traditionellen Gesellschaften vor den revolution¨ aren politischen und wirtschaftlichen Ersch¨ utterungen war, besaß das gesellschaftliche Ganze eine Existenz, die zeitlich vor den Teilen der Gesellschaft (und insbesondere vor den Individuen) existierte und u ¨ber diesen stand. Dagegen schließen sich in der individualistischen“ Vorstellung der modernen ” Gesellschaften die Individuen, B¨ urger und Wirtschaftsfaktoren in unterschiedlicher Weise zu Gruppierungen zusammen, ohne aber von diesen Gruppierungen u ¨berragt oder g¨anzlich subsumiert zu werden. Aber bei dieser Art und Weise, ein die Personen umfassendes Ganzes zu entwerfen, das den atomisierten Individuen der modernen Gesellschaften gegen¨ ubersteht (und das man auch in dem Gegensatz Gemeinde – Gesellschaft“ von T¨ onnies antrifft), fin” det eine andere Konstruktion des Ganzen u ucksichtigung, ¨berhaupt keine Ber¨ n¨amlich die kriterielle Konstruktionsweise – und gerade diese ist es, die der Statistiker bei der Konstruktion einer repr¨ asentativen Stichprobe anwendet. Das soziale Ganze“ des Holismus von Dumont und das Exhaustive“ der ” ” Statistik sind zwei verschiedene Denkweisen, die Gesamtheit zu erfassen. Der Gegensatz dieser Denkweisen hilft beim Verst¨ andnis dessen, worin der Unterschied zwischen den beiden impliziten Verallgemeinerungsweisen besteht, die bei Monographien und bei Stichprobenerhebungen zum Tragen kamen. Diese schematisch stilisierten intellektuellen Gef¨ uge rivalisierten miteinander und verbanden sich im Laufe des 19. Jahrhunderts auf unterschiedliche Weise in den Arbeiten der Gr¨ underv¨ater der Sozialwissenschaften: Quetelet, Tocqueville, Marx, T¨onnies, Durkheim und Pareto (Nisbet, 1966). Aber die genannten Denkweisen traten nicht als deus ex machina auf den Plan, indem abwechselnd die Strippen dieser oder jener Praxis der empirischen Forschung gezogen wurden. Vielmehr handelte es sich um Gef¨ uge, die alle ihre eigene Koh¨ arenz besaßen und relativ heterogen in Bezug aufeinander waren, was man anhand der Debatten u ¨ber die Erhebungsmethoden des betrachteten Zeitraums verfolgen kann. Jedes dieser intellektuellen Gef¨ uge implizierte gleichzeitig unterschiedliche Auffassungen u ¨ber die Verwaltung der Gesellschaft,
238
7 Pars pro toto: Monographien oder Umfragen
u ¨ber den Rang der Sozialwissenschaften bei dieser Verwaltung und u ¨ber den Stellenwert der probabilistischen Schemata in diesen Wissenschaften – von Quetelet bis hin zu Ronald Fisher. Damit haben wir einen Leitfaden f¨ ur die Untersuchung einer Geschichte, in der man Sozialenqueten beschrieb, bevor u asentative Methode“ gesprochen wurde. Aber wir haben damit ¨ber die repr¨ ” auch einen Leitfaden f¨ ur Untersuchungen zur Entwicklung von Anwendungen ¨ wahrscheinlichkeitstheoretischer Uberlegungen in dieser Zeit, f¨ ur Betrachtungen zu den Debatten am Internationalen Institut f¨ ur Statistik zwischen 1895 und 1934, f¨ ur Untersuchungen der ersten Anwendungen der probabilistischen Methode und f¨ ur das Studium der Diskussionen u allige Auswahl“ und ¨ber zuf¨ ” bewußte Auswahl“. ”
Die Rhetorik des Beispiels Man kann die Philosophie der Untersuchungen, mit denen die durchgef¨ uhrten Beobachtungen ohne die moderne Randbedingung der Repr¨ asentativit¨ at verallgemeinert werden sollten, auf der Grundlage dreier scheinbar sehr unterschiedlicher F¨ alle rekonstruieren. Bei diesen F¨allen handelt es sich um die von Le Play und seinen Anh¨angern (den Leplaysianern2 ) zwischen 1830 und 1900 verfaßten Monographien, um die von den Engl¨ andern Booth und Rowntree durchgef¨ uhrten Untersuchungen zur Armut und schließlich um die zwischen 1900 und 1940 verfaßten Arbeiten des Durkheimschen Soziologen Halbwachs zu den Arbeiterhaushalten. Der gemeinsame Ausgangspunkt dieser Erhebungen besteht darin, daß die befragten Personen auf der Grundlagen von Ver” trautheitsnetzwerken“ ausgew¨ahlt wurden: Bei Le Play waren es Familien, die von den Dorfnotabeln als typisch“ bezeichnet wurden, bei Booth handelte ” es sich um Personen, die u ¨blicherweise den Schulinspektoren bekannt waren und bei Halbwachs waren es Arbeiter, die sich freiwillig bereiterkl¨ art hatten und durch Vermittlung der Gewerkschaften ausfindig gemacht worden waren. Diese Auswahlmethoden wurden sp¨ater als Ursachen von Bias“ 3 gebrand” markt, aber in dem Kontext, in dem sie angewandt wurden, erwiesen sie sich als koh¨ arent mit den Zielen der Erhebungen. Diese Ziele bestanden darin, die Funktionst¨ uchtigkeit (oder die Funktionsst¨orungen) der Arbeiterkommunen zu beschreiben, die den tiefgreifenden Ver¨anderungen der ersten Industrialisierungsphasen ausgesetzt waren. Es ging noch nicht darum, Messungen zur Vorbereitung der einzuleitenden Maßnahmen durchzuf¨ uhren, wie es sp¨ ater bei der Entwicklung des Wohlfahrtsstaates der Fall war. Vielmehr ging es – insbesondere auf der Grundlage typologischer Arbeiten – um das Zusammentragen von Elementen zur Darstellung der Personen einer noch zu erz¨ ahlenden Geschichte: So war etwa die Durchf¨ uhrung von Klassifikationen, bei denen kol2 3
Im franz¨ osischen Original als leplaysiens bezeichnet. Der englische Begriff bias (franz¨ osisch: biais) wird im deutschen statistischen Sprachgebrauch durch folgende Begriffe wiedergegeben: Verzerrung, systematischer Fehler, unpr¨ azise Stichprobe, Nichterwartungstreue.
Die Rhetorik des Beispiels
239
lektive Akteure konstruiert wurden, eines der Produkte dieser Erhebungen. In der anschließenden Phase waren jedoch die atomisierten Individuen die Hauptakteure geworden (zum Beispiel im Rahmen von Marktstudien, durch einen Wahlakt oder durch einen Kaufvorgang), und es war wichtig, sie genau zu z¨ ahlen. Dennoch kann man nicht behaupten, daß bei diesen Erhebungen und ihren Interpretationen keinerlei wahrscheinlichkeitstheoretische Momente vorhanden waren. Aber es handelte sich um die von Quetelet hinterlassene holistische Version der Wahrscheinlichkeitsrechnung. Diese Version hob die Regelm¨ aßigkeit der auf der Grundlage großer Populationen berechneten Mittelwerte hervor, die im Gegensatz zur Streuung und zum unvorhersehbaren Charakter der individuellen Verhaltensweisen standen. Diese Regelm¨ aßigkeit war eine massive Untersetzung des Konzeptes eines sozialen Ganzen, das u ¨ber seine Bestandteile hinausgeht und diese umfaßt (vgl. Kapitel 3). Die Anwendung des Gesetzes der großen Zahlen hinsichtlich der Stabilit¨ at der berechneten Mittelwerte (zum Beispiel in Bezug auf die Anzahlen der Geburten, Heiraten, Verbrechen oder Selbstmorde) verbl¨ uffte die Zeitgenossen von Quetelet und bildete das Ger¨ ust einer Makrosoziologie, f¨ ur die das Soziale“ eine ex” terne Realit¨ at besaß, die u ¨ber den Individuen stand: Das war die zentrale Idee des Werkes Der Selbstmord von Durkheim und der Analysen des Arbei” terbewußtseins“ bei Halbwachs. Aber das Wahrscheinlichkeitsmodell des Gesetzes der großen Zahlen bezieht sich auf die Regelm¨ aßigkeit der Mittelwerte und nicht auf Verteilungen, Merkmalsh¨aufigkeiten oder Streuungen. Deswegen konnte dieses Modell auch nicht der Ursprung von Anwendungen sein, die auf einem zuf¨ alligen Stichprobenverfahren beruhen. W¨ aren n¨ amlich die Mittelwerte stabil, dann reichte es aus, F¨alle in der N¨ ahe dieser Mittelwerte zu finden, und nur diese typischen“ F¨alle w¨ urden die Gesamtheit verk¨ orpern. Es ” ist nicht nur so, daß sie die Gesamtheit repr¨asentieren“ – vielmehr stellen sie ” buchst¨ ablich diese Gesamtheit dar, denn in den holistischen Systemen ist die ganzheitliche Betrachtung das Prim¨are, w¨ahrend die Individuen lediglich kontingente Manifestationen der Gesamtheit sind. Das intellektuelle Modell f¨ ur diesen Durchschnittsbegriff wurde durch die Theorie der Meßfehler bereitgestellt, also durch eine von Astronomen und Artilleristen entwickelte Theorie. Die H¨ ohe eines Sterns war nur auf der Grundlage einer Reihe von zuf¨ alligen Messungen bekannt, die um einen Mittelwert normalverteilt waren und dieser Mittelwert stellte die beste Sch¨atzung dar. Desgleichen waren f¨ ur Quetelet die kontingenten Individuen nichts anderes als zuf¨ allige Manifestationen eines g¨ottlichen Plans“, der eine h¨ohere Realit¨at darstellte. ” Bekanntlich dominierte diese Auffassung von Statistik gegen Ende des 19. Jahrhunderts immer noch – zumindest in Frankreich, denn auf England traf diese Charakterisierung nach dem Erscheinen der ersten Arbeiten von Galton und Pearson nicht mehr zu. Dieser Umstand tr¨ agt zu einem besseren ´ Verst¨ andnis dessen bei, warum Emile Cheysson, ein Sch¨ uler von Le Play, die Monographie-Methode“ im Jahre 1890 beschrieb und rechtfertigte – kurze ”
240
7 Pars pro toto: Monographien oder Umfragen
Zeit bevor der Norweger Kiaer seine hiervon grundlegend verschiedene re” pr¨ asentative Methode“ vorstellte: Monographien vermeiden sorgf¨altig alle Sonderf¨ alle und verfolgen den allgemeinen Fall; sie vernachl¨assigen Komplikationen, Ausnahmen und Anomalien und halten hartn¨ackig am Mittelwert und am Typus fest. Der Typus ist das wahre Wesen der Monographie. Außerhalb des Typus gibt es f¨ ur sie kein Heil; aber mit dem Typus erwirbt die Monographie wahrhaftig das Privileg, die wirtschaftlichen und sozialen Untersuchungen in gl¨anzender Weise zu beleuchten. Der Beobachter wird in seiner Wahl von den großen synthetischen Statistiken und von den amtlichen Untersuchungen geleitet, die das Land mit ihrem Netz u upp von dem Grundst¨ uck ¨berdecken und sozusagen das Gestr¨ entfernen, auf dem der Autor der Monographien operiert. Dank der ihm so zur Verf¨ ugung gestellten Daten weiß der Autor im Voraus, welche Population er untersuchen will und w¨ ahlt seinen Typus pr¨ azise und ohne Furcht vor Fehlern. Die amtliche Statistik geht also als Avantgarde voran und stellt die Mittelwerte bereit, die den Verfasser der Monographie zu seinem Typus f¨ uhren. Die Monographie leistet ihrerseits der Statistik den Dienst, die allgemeinen Ergebnisse der Erhebung durch eine detaillierte Untersuchung zu pr¨ ufen. Diese beiden Verfahren kontrollieren also einander, aber jedes der beiden bewahrt seine charakteristischen Merkmale. W¨ ahrend sich die Methode der amtlichen Untersuchungen an der Oberfl¨ ache entfaltet, geht die Monographie in die Tiefe. Die amtliche Statistik setzt ein ganzes Heer von mehr oder weniger eifrigen und erfahrenen Bediensteten ein und akkumuliert auf diese Weise eine Masse von oberfl¨ achlich erfaßten Tatsachen unter einem einzigen Aspekt; sie sch¨ uttet diese Datenmasse in kunterbuntem Durcheinander auf ihre M¨ uhlsteine, um sie miteinander zu vermahlen; sie verl¨ aßt sich auf das Gesetz der großen Zahlen, um elementare Beobachtungsfehler zu eliminieren. Im Gegensatz hierzu zielt eine Monographie mehr auf die Qualit¨ at als auf die Quantit¨at der Beobachtungen ab; sie verwendet nur ausgew¨ ahlte Beobachter, die gleichzeitig K¨ unstler und Wissenschaftler sind und sich kraftvoll einer typischen und eindeutigen Tatsache bem¨ achtigen und an ihr festhalten, um sie bis ins kleinste Detail zu zerlegen. (Cheysson, 1890, [45].) Den Kern dieser Monographien bildeten die Aufstellungen der Ausgaben und Einnahmen im Rahmen von Familienbudgets. Diese Aufstellungen wurden vom Demoskopen angefertigt, der sich mehr oder weniger lang in den betreffenden Haushalten aufhielt. Aber selbst wenn diese Monographien auf der Grundlage des von Le Play vorgegebenen einheitlichen Rahmens“ ver” faßt wurden, so war es dennoch nicht wirklich vorgesehen, sie miteinander zu vergleichen, um die Budgetstrukturen herauszuarbeiten, die f¨ ur die unter-
Die Rhetorik des Beispiels
241
schiedlichen Milieus typisch waren. Das tat zum Beispiel Halbwachs kurze Zeit sp¨ ater und einer seiner Kritikpunkte war die Verfahrensweise der im Geiste von Le Play verfaßten Monographien (Halbwachs, 1912, [121]). Die Frage war also: Wozu dienten diese Monographien? Die Erhebungen schienen im Wesentlichen auf die Verteidigung und Illustration einer gewissen Auffassung von der Familie und den sozialen Beziehungen ausgerichtet gewesen zu sein. Die von Cheysson vorgebrachten Argumente bezogen sich auf die Bed¨ urfnisse der Verwaltung und des Gesetzgebers, die darauf bedacht waren, die Auswirkungen ihrer allgemeinen und abstrakten Maßnahmen auf die konkreten Einzelf¨ alle der Familien zu ermitteln. Jedoch hingen diese verwaltungsseitigen Bestrebungen auch mit einer moralischen Sorge zusammen: Dieses Wissen ist sowohl f¨ ur den Moralisten unerl¨ aßlich, der auf die ¨ Sitten einwirken will, als auch f¨ ur den Staatsmann, der in der Offentlichkeit wirkt. Das Gesetz ist eine zweischneidige Waffe: es hat eine große Macht, Gutes zu tun, aber in unerfahrenen H¨ anden kann es auch sehr viel Unheil anrichten. (Cheysson, 1890, [45].) Tats¨ achlich wurden m¨ogliche Anwendungen erw¨ ahnt, n¨ amlich einerseits Untersuchungen zur Verteilung der steuerlichen Lasten auf Landwirte, Kaufleute und Industrielle und andererseits Analysen der Wirksamkeit der Bestimmungen zum Verbot der Frauen- und Kinderarbeit. Aber sogar in diesen F¨allen war eine explizite moralische Sorge erkennbar. Dagegen wurde keine Technik angegeben oder auch nur vorgeschlagen, die eine praktische Vermittlung zwischen den wenigen verf¨ ugbaren Monographien und den staatlichen Totalisierungen erm¨oglicht h¨atte: zu keinem Zeitpunkt wurde die Frage nach einem eventuellen kategoriellen Rahmen aufgeworfen, in dem die individuellen F¨alle ihren Platz gefunden h¨atten. Die Monographien von Le Play und seinen Sch¨ ulern wurden aus technischen und politischen Gr¨ unden kritisiert und dann vergessen. Zum einen boten sie keinerlei methodische Garantie bez¨ uglich der Stichprobenauswahl; zum anderen unterst¨ utzten sie einen Diskurs, welcher der Franz¨ osischen Revolution, dem allgemeinen Wahlrecht und dem B¨ urgerlichen Gesetzbuch feindselig gegen¨ uberstand. Dieser Diskurs zielte darauf ab, die sozialen Beziehungen des Ancien R´egime wiederherzustellen. Und dennoch war das kognitive und politische Konzept koh¨arent. Das Wissen basierte auf einer langandauernden Vertrautheit des Demoskopen mit der Arbeiterfamilie. Dieser ungezwungene Umgang wurde explizit als n¨ utzlich befunden – und zwar nicht nur, weil er Wissen produzierte, sondern auch deswegen, weil ein pers¨ onliches Vertrauensverh¨altnis zwischen Mitgliedern der Oberschicht und der Unterschicht hergestellt und gepflegt wurde. Eine solches Wissen, das auf einem direkten Kontakt und dem Wert des ¨ Beispiels aufbaute, schloß im Ubrigen eine vergleichende Betrachtung keineswegs vollst¨ andig aus. Besondere Aufmerksamkeit widmete man dem nichtmonet¨ aren Teil des Einkommens, der unter Bezeichnungen wie Zusch¨ usse“ oder ” unerwartete Gl¨ ucksf¨alle“ registriert wurde: es handelte sich hierbei um Rech” te zur Nutzung von kommunalem Grund und Boden, um Familieng¨ arten und
242
7 Pars pro toto: Monographien oder Umfragen
um Naturalleistungen. Diese Formen der Entlohnung hingen nicht vom Markt ab und hielten die direkten und pers¨onlichen Bindungen zwischen Mitgliedern der verschiedenen Schichten aufrecht. Die Monographien enthielten meistens Pl¨ adoyers f¨ ur die traditionellen famili¨aren Tugenden und dienten nur selten zu Strukturvergleichen – außer im Falle des Anteils an nichtmonet¨ aren Bez¨ ugen, die vermeintlich die Best¨andigkeit sozialer Bindungen patriarchalischen Typs wiederspiegelten. In Osteuropa, einer weitgehend l¨ andlichen und kaum industrialisierten Gesellschaft, war dieser Anteil folglich st¨ arker als im Westen, wo die St¨ adte und die Warenproduktion einen h¨oheren Stellenwert hatten. Die Vorstellung, daß sich die (von den wirtschaftlichen und politischen Ver¨ anderungen der Gesellschaft ersch¨ utterten) traditionellen sozialen Bindungen nur durch eine langanhaltende N¨ahe zwischen Beobachtern und Beobachteten sowie durch die Ber¨ ucksichtigung der Gesamtheit der Handlungen und ihrer Bedeutungen verstehen ließen, die der Demoskop nicht in A-priori Einzelpositionen zerlegen und kodieren konnte – diese Vorstellung war auch in anderen Wissensformen wiederzufinden, die andere Arten der Verallgemeinerung als die der statistischen Repr¨asentativit¨ at implizieren: Die Ethnologie beschreibt die nichteurop¨aischen Gesellschaften auf der Grundlage langer und ausdauernder Aufenthalte der Forscher in der betreffenden Gemeinschaft und die Psychoanalyse konstruiert ein Strukturmodell des Unterbewußten auf der Grundlage des singul¨aren Materials, das im Verlaufe von sehr lange andauernden pers¨ onlichen Wechselbeziehungen gesammelt wurde. Das gleiche kognitive Vorgehen, demgem¨aß nur eine gr¨ undliche Fallstudie die Beschreibung des generischen Menschen“ und der Mechanismen der allgemeinen mensch” ” lichen Natur“ erm¨oglichen, findet sich zur gleichen Zeit in den Arbeiten der experimentellen Psychologen, zum Beispiel in den Arbeiten des deutschen Psychologen Wundt, der im Labor versuchte, derartige allgemeinen Merkmale herauszuarbeiten. Die Idee der Streuung psychischer Merkmale trat erst sp¨ater in den Arbeiten von Pearson und Spearman auf. Anhand der Art und Weise, in der Cheysson die Auswahl seiner typischen ” F¨ alle“ unter Bezugnahme auf die – mit Hilfe großer synthetischer Untersuchungen berechneten – Mittelwerte rechtfertigte, erkennt man deutlich, wie die Queteletsche Theorie vom Durchschnittsmenschen nahezu f¨ ur ein ganzes Jahrhundert ein intellektuelles Schema bereitstellte, das es erm¨ oglichte, gleichzeitig die Diversit¨at der individuellen F¨ alle und die Einheit einer Spezies oder einer sozialen Gruppe zu erfassen: ... dank der statistischen Daten kennt der Verfasser einer Monographie die zu untersuchende Population im Voraus und w¨ ahlt seinen Typus mit Pr¨ azision und ohne Furcht vor Fehlern. Die amtliche Statistik geht als Avantgarde voran und arbeitet die Mittelwerte heraus, die den Verfasser zu seinem Typus f¨ uhren. Diese Art des Vorgehens war in gewisser Weise ein Vorbote der Methode der bewußten Auswahl“, die zwischen 1900 und 1930 auf dem Umweg u ¨ber ” das Territorium als eine Art Kettenglied zwischen beiden Verfahren fungierte.
Halbwachs: Die soziale Gruppe und ihre Mitglieder
243
Halbwachs: Die soziale Gruppe und ihre Mitglieder Halbwachs – ein Sch¨ uler von Durkheim – war mehr als sein Lehrer an Erhebungstechniken und Tatsachenbeobachtungen interessiert, wie man anhand seiner Dissertation ( th`ese“) La classe ouvri`ere et des niveaux de vie (1912, ” [121]) erkennen kann, die sich mit den Lebensniveaus und Bed¨ urfnissen der Arbeiterklasse befaßt. Weit mehr als die Leplaysianer (leplaysiens), deren Arbeiten er heftig kritisierte, war er f¨ ur die Diversit¨ at der beobachteten F¨ alle empf¨ anglich und suchte nach Mitteln, diese Diversit¨ at zu interpretieren – so wie es Durkheim in seinem Werk Der Selbstmord getan hatte, mit dem er die moderne quantitative Soziologie erfand. Außerdem kannte Halbwachs einige Arbeiten der Wahrscheinlichkeitstheoretiker: seine Erg¨ anzungsschrift ( th`ese ” compl´ementaire“) (1913, [122]) lautet La th´eorie de l’homme moyen; essai sur 4 Quetelet et la statistique morale , und er hat zusammen mit Maurice Fr´echet im Jahre 1924 (vgl. [97]) sogar ein kleines Handbuch der Wahrscheinlichkeitsrechnung verfaßt. Die kompakte Diskussion u ¨ber die Probleme bei Stichprobennahmen und Erhebungen hatte jedoch den Titel Le nombre des budgets und bezog sich auf das ¨okonomische“ Gleichgewicht, das zwischen der An” zahl der befragten Personen und der mehr oder weniger gr¨ undlichen Art der Beobachtungen gefunden werden mußte. Mit anderen Worten: es ging um den Vergleich zwischen den als intensiv“ und extensiv“ bezeichneten Methoden ” ” und nicht um die Probleme der Ziehung von Stichproben, auf die er gar nicht einging. Das, was Halbwachs vom Gesetz der großen Zahlen beibehalten hat, bestand darin, daß sich eine Gesamtheit von kleinen“, zahlreichen, zuf¨ alligen ” und unterschiedlich gerichteten Ursachen gegenseitig kompensiert und einen Mittelwert“ erzeugt, der nach dem Schema von Quetelet angeblich die es” sentielle Wahrheit offenbart. Das galt insbesondere f¨ ur die als extensiv bezeichnete Methode, die damals in den Vereinigten Staaten ziemlich verbreitet war, wobei manche Stichproben einen Umfang von mehr als 10000 Personen hatten. Aber ebenso wie er die intensive LePlaysche Methode ablehnte, die keinen Hinweis auf die Diversit¨at lieferte und daher keine Kreuzungen“ ” von Variablen erlaubte, um Erkl¨arungen vorzuschlagen, so verwarf er auch die extensive Methode der Amerikaner. Als konsequenter Soziologe der Durkheimschen Schule mißtraute er einer mikrosoziologischen Interpretation des Gesetzes der großen Zahlen. In der Tat waren sich seiner Meinung nach die Anh¨ anger der extensiven Methoden des Umstandes wohl bewußt, daß die erhaltenen Antworten Fehler, Ungenauigkeiten oder Unterlassungen enthalten konnten, aber ... sie glaubten, daß sie bei einer Erh¨ohung der Anzahl der F¨ alle durch die Wirkung des Gesetzes der großen Zahlen eine Kompen4
Die Theorie des Durchschnittsmenschen; Essai u ¨ber Quetelet und die Moralstatistik.
244
7 Pars pro toto: Monographien oder Umfragen
sation und eine zunehmende Abschw¨achung dieser Fehler bekommen w¨ urden. (Halbwachs, 1912, [121].) Jedoch vermutete Halbwachs, daß diese Unterlassungen oder Unvollkommenheiten – ¨ ahnlich wie alle anderen sozialen Tatbest¨ ande – systematische makrosoziale Ursachen hatten und nicht im wahrscheinlichkeitstheoretischen Sinne zuf¨ allig waren. Er hatte eine intuitive Vorstellung vom systematischen ” Fehler“: ... man hat beobachtet, daß sich die Unterlassungen nicht aus Zufall ereignen ... Eine Unterlassung ist die Begleiterscheinung eines Zustands der Unaufmerksamkeit eines Subjekts sowie einer Aufgabe von hinl¨ anglich großer sozialer Bedeutung, die dieses Subjekt zu erf¨ ullen hat ... Treten die Unterlassungen periodisch und regelm¨ aßig auf, dann m¨ ussen die Ursachen f¨ ur die Unaufmerksamkeit und die Ursachen f¨ ur die Erkl¨ arung der zu verrichtenden Aufgaben auf konstant wirkende Kr¨ aften zur¨ uckzuf¨ uhren sein ... Aber die Tatsache der Periodizit¨ at der Unterlassungen gibt Grund zu der Annahme, daß die Kr¨ afte, die diese Unterlassungen erkl¨aren, sich ihrerseits verm¨ oge des Gef¨ uges des Soziallebens auswirken und daß ihre Wirkung in einem exakten Verh¨ altnis zur ihrer konstanten Intensit¨at steht. (Halbwachs, 1912, [121].) Halbwachs widmete sich dann einer detaillierten Analyse der Befragungs” effekte“, die mit der Interaktion und der Funktion des Demoskopen zusammenh¨ angen, und zeigte, daß die Fehler in keinem Falle zufallsbedingt und unabh¨ angig sein konnten. Tats¨achlich wurden bei diesen extensiven amerikanischen Untersuchungen keine B¨ ucher gef¨ uhrt und der Befrager bat nach der Befragung um eine Kostensch¨atzung f¨ ur einen gewissen Zeitraum, so daß die Angaben im Endeffekt auf Meinungen“ beruhten: ” Das Ziel der Wissenschaft besteht hier wie anderswo darin, Prinzipien, vorgefaßte Meinungen, sowie vage und widerspr¨ uchliche Ideen durch pr¨ azises, faktengest¨ utztes Wissen zu ersetzen; aber hier sind die Fakten im Voraus deformiert, denn sie werden durch eine Meinung zum Ausdruck gebracht, die diese Fakten abschw¨ acht und ihre Konturen verwischt. Man dreht sich in einem Kreis von Mittelwerten. (Halbwachs, 1912, [121].) Diese Kritik an der amerikanischen Methode bezog sich auf die Vorstellung, daß das Gesetz der großen Zahlen daf¨ ur sorgt, daß sich zahlreiche kleine“ und ” unabh¨ angige Fehler angeblich annullieren. Ein Kritikpunkt war, daß sich die amerikanische Methode nicht auf die Tatsache st¨ utzte, daß man mit Hilfe desselben Gesetzes die Technik der zuf¨alligen Auswahl einer Stichprobe aus einer Population rechtfertigen k¨onnte, die in Wirklichkeit – und nicht aufgrund von Beobachtungsfehlern – diversifiziert war. Wir befinden uns demnach immer noch eher in der N¨ahe des Modells von Quetelet als in der N¨ ahe der Modelle von Galton und Pearson. Halbwachs nannte jedoch explizit die Diversit¨ at der
Halbwachs: Die soziale Gruppe und ihre Mitglieder
245
Arbeiterbev¨ olkerung und das war genau der Punkt, an dem er sich Le Play und dessen Auswahl typischer F¨alle“ widersetzte, die auf Durchschnitten be” ruhten. Halbwachs fragte sich, durch welches sichtbare ¨ außere Merkmal man eine durchschnittliche Arbeiterfamilie wenigstens in Bezug auf die Struktur ihrer Einnahmen und ihrer Ausgaben charakterisieren kann: Viele Haushalte wissen selbst nicht, wie es um die Ausgewogenheit ihres Budgets bestellt ist. Jedenfalls lassen sie es niemanden wissen. Es handelt sich um etwas, das man weder sieht, noch sp¨ urt, noch ahnt; ganz ¨ ahnlich verh¨alt es sich allenfalls mit der Regelm¨ aßigkeit oder Best¨ andigkeit der famili¨aren Bindungen. Wo sucht man und wie findet man in diesem Bereich die durchschnittlichen F¨ alle? (Halbwachs, 1912, [121].) Es war demnach notwendig, eine gewisse Familiendiversit¨ at direkt (unter F¨ uhrung von B¨ uchern) zu beobachten, um die Wirkungen der Schwankungen der verschiedenen Faktoren untersuchen zu k¨onnen: die Gr¨ oße der Familie, Vorhandensein von Kindern usw. Aber diese Diversit¨ at und diese Schwankungen blieben makrosozial – ganz auf der Linie der konstanten Ursache“ von ” Quetelet und der Auffassung, die Durkheim in seinem Werk Der Selbstmord vertrat. Die von Halbwachs verwendeten deutschen Erhebungen schienen ihm frei von den Nachteilen der anderen Erhebungen zu sein: sie waren hinreichend klein, um eine sorgf¨altige Pr¨ ufung der Buchf¨ uhrung zu erlauben, aber sie waren auch groß genug, um Schwankungen zu untersuchen. Dennoch bestand das Ziel dieser Untersuchungen darin, die Merkmale eines gemeinsamen Arbeiterbewußtseins“ herauszuarbeiten, dessen relativ ” homogener Charakter nicht – wie bei Quetelet – auf eine g¨ ottliche Essenz zur¨ uckzuf¨ uhren war (Halbwachs war eher Materialist), sondern auf eine Gemeinsamkeit von materiellen Existenzbedingungen. Eine beinahe Darwinsche Anpassung f¨ uhrte zu homogenen Verhaltensweisen – sowohl in der Praxis als auch im Bewußtsein. Letztendlich war es wohl dieses Arbeiterbewußtsein, das Halbwachs interessierte. Deswegen stellten sich ihm die Probleme der Stichprobennahme nicht in dem Maße, wie es ein halbes Jahrhundert sp¨ ater bei denjenigen Statistikern der Fall war, die derartige Erhebungen beispielsweise zum Aufbau einer volkswirtschaftlichen Gesamtrechnung verwendeten. Er begl¨ uckw¨ unschte sich, daß der Verband der deutschen Metallarbeiter dazu in der Lage gewesen war, die Budgetangaben von 400 Haushalten zu sammeln, und notierte: Offensichtlich haben wir es der Arbeitersolidarit¨ at und dem zunehmenden Einfluß der Gewerkschaftsorganisationen auf ihre Mitglieder zu verdanken, daß wir unsere Ergebnisse erzielen konnten. (Halbwachs, 1912, [121].) Desweiteren machte er Kommentare zu einigen von Booth in London gesammelten Budgetangaben von sehr armen Familien. Halbwachs fragte sich,
246
7 Pars pro toto: Monographien oder Umfragen
wie streng die B¨ ucher in diesen Extremf¨allen gef¨ uhrt worden waren und schloß mit der eisigen Frage, ob diese Anteile an extrem mittellosen Personen tats¨ achlich zur Arbeiterklasse geh¨orten, denn sie dringen nicht bis in das ” allgemeine Bewußtsein vor“: ... aufgrund des ¨armlichen Zustands dieser Haushalte gibt vielleicht eine kurze Beobachtung ein richtiges Bild ihres chronischen Elends, aber man kann sich dessen nicht sicher sein. Außerdem ist diese untere soziale Schicht, die nicht in das allgemeine Bewußtsein vordringt, nicht die interessanteste f¨ ur die Untersuchung der sozialen Schichten und kann allenfalls nur oberfl¨achlich bekannt werden. (Halbwachs, 1912, [121].) Trotz allem, was die Leplaysianer und die Durkheimianer in ihren wissenschaftlichen und politischen Projekten voneinander unterscheidet, lassen sich bez¨ uglich ihrer Vorgehensweise dennoch einige gemeinsame Punkte festhalten: Zuallererst waren sie darauf bedacht, die Natur der von den revolution¨ aren Ver¨ anderungen aufgel¨osten sozialen Bindungen neu zu u ¨berdenken (wobei die Durkheimianer zugegebenermaßen subtiler vorgingen als die Leplaysianer); ferner waren sie mit ihren empirischen Methoden bestrebt, auf die Best¨ andigkeit der alten Formen und auf die Entstehung neuer Formen derartiger Bindungen hinzuweisen, indem sie in jedem Falle deren moralische Tragweite w¨ urdigten. Diese Art und Weise der Anwendung einer empirischen Methode zum Zweck einer sozialen Rekonstruktion war im gesamten 19. Jahrhundert u ¨blich – Quetelet eingeschlossen. Jedoch war diese Vorgehensweise noch nicht mit der Absicht einer direkten sozialen und politischen Aktion verbunden und demzufolge war es auch nicht erforderlich, daß es sich bei der Erhebung um eine Vollerhebung im territorialen oder nationalen Sinne handelte. Der f¨ ur die beschriebenen F¨alle vorausgesetzte Allgemeinheitsgrad reichte zur Unterst¨ utzung der politischen und moralischen Entwicklungen aus und setzte dabei keinerlei Form der territorialen Einordnung voraus (außer notgedrungen f¨ ur den Fall, in dem Le Play einen allgemeinen Vergleich zwischen Osteuropa und Westeuropa durchgef¨ uhrt hatte).
Die Armen: Wie beschreibt man sie und was macht man mit ihnen? Die Geschichte der allm¨ahlichen Entstehung des Begriffs der Repr¨ asentativit¨ at im modernen Sinne l¨aßt sich parallel zur Geschichte der Erweiterung und Transformation der politischen und wirtschaftlichen Werkzeuge zur Behandlung der Armutsprobleme interpretieren – von der Wohlt¨ atigkeit der Lehnsherren und der Kirchengemeinden bis hin zu den Formen des Wohlfahrtsstaates, die im sp¨ aten 19. Jahrhundert geschaffen wurden. Um diese Zeit ¨ anderte sich die Funktion der Sozialstatistik: Fr¨ uher erl¨ auterte die Statistik umfassende Analysen der sozialen Welt, die durch ein holistisches Schema (Modell
Die Armen: Wie beschreibt man sie und was macht man mit ihnen?
247
Quetelet) oder durch ein organizistisches Schema (Modell Auguste Comte) wahrgenommen wurde. Nun aber bildete sie allm¨ ahlich ein wesentliches Element der ansonsten verschiedenartigen politischen Programme, die auf der Ebene der Individuen wirksam werden sollten. Der Begriff der Repr¨ asentativit¨ at erlangte damals eine entscheidende Bedeutung bei der Ermittlung der Kosten und der Vorteile der umgesetzten politischen Programme. Drei dieser Bereiche spielten eine wesentliche Rolle bei der Durchsetzung der Randbedingung der Repr¨asentativit¨at im modernen Sinne: die Einf¨ uhrung der ersten Gesetze zur sozialen Sicherung in Nordeuropa ab 1890, die Entwicklung der nationalen Konsumg¨ uterm¨arkte (die der Eisenbahn geschuldet war) sowie schließlich (dank dem Radio) die M¨oglichkeit, landesweite Wahlk¨ ampfe zu f¨ uhren, wie es in den Vereinigten Staaten in der Zeit zwischen den beiden Weltkriegen geschah. Der gemeinsame Punkt der Transformationen, ¨ deren Schauplatz diese drei Bereiche darstellten, war der Ubergang von lokalen Verwaltungsweisen, die sich an pers¨onlichen Beziehungen orientierten (Wohlt¨ atigkeit, Kleinhandel, Handwerk, l¨andliche M¨ arkte, Wahlklientelismus) zu anderen, nationalen Verwaltungsweisen, bei denen das Territorium als Ort der t¨ aglichen Reproduktion der sozialen Bindungen seine relative Bedeutung ¨ verlor. Die Errichtung allgemeiner Aquivalenzr¨ aume und die Uniformisierung des Territoriums waren – zumindest in Frankreich – durch die administrative Strukturierung des Landes in Departements, die Verbreitung des B¨ urgerlichen Gesetzbuches, das allgemeine Wahlrecht, die Wehrpflicht, die Schulpflicht in konfessionslosen Schulen und durch das Verschwinden der ¨ ortlich gesprochenen Sprachen vorbereitet worden – ganz zu schweigen vom metrischen System und vom Eisenbahnfahrplan. Das waren die Vorbedingungen f¨ ur die Konzipierung der beiden miteinander zusammenh¨angenden Begriffe der Exhaustivit¨at und der Repr¨ asentativit¨ at, die in den Methoden der Leplaysianer und der Durkheimianer fehlten. Eine Illustration des Zusammenhangs zwischen diesen drei Transformationen – das heißt des Zusammenhangs zwischen der Delokalisierung der Sozialstatistik, der Verbreitung der repr¨asentativen Methode“ und des zufalls” basierten Stichprobenverfahrens sowie der Errichtung des Wohlfahrtstaates – findet man in zwei Studien (1976 [127], 1987 [128]) von E.P. Hennock u ¨ber die Reihe der Armutsuntersuchungen, die nacheinander von Charles Booth, Seebown Rowntree und Arthur Bowley durchgef¨ uhrt worden waren. Die Untersuchung der nach 1895 am Internationalen Institut f¨ ur Statistik gef¨ uhrten Debatten best¨ atigt diese Zusammenhangshypothese“ weitgehend. ” Im gesamten 19. Jahrhundert hing die Geschichte der englischen Armutsuntersuchungen mit aufeinanderfolgenden Interpretationen und Erkl¨ arungen der Armut und mit den vorgeschlagenen Behandlungsweisen zusammen (Abrams, 1968, [1]). In der ersten Zeit f¨ uhrte eine reformistische Str¨ omung lokale Untersuchungen durch, die im Allgemeinen von Empfehlungen zur Verbesserung der Moral der Arbeiterklasse begleitet waren. Dieser Standpunkt unterschied sich von der LePlayschen Sichtweise nur dadurch, daß die Verurteilung der Warenproduktion deutlich weniger heftig ausfiel. In den 1880er Jahren
248
7 Pars pro toto: Monographien oder Umfragen
w¨ utete die Wirtschaftskrise und die Lage in London, vor allem in East End, war besonders dramatisch. Es setzte eine Diskussion dar¨ uber ein, welcher Teil der Arbeiterklasse unterhalb einer als extrem betrachteten Armutsschwelle lebte. Diese stets und st¨andig wiederkehrende Debatte erwies sich als unl¨ osbar, da die Definitionen der Armutsschwelle und der entsprechenden Meßmethoden reichlich konventionell waren. Dennoch erwies sich die Debatte als signifikant, denn sie war der Ursprung einer Armutstypologie, die gleichzeitig deskriptiv, explikativ und operativ war. Aus seinen Messungen der Armut leitete Booth L¨ osungsmaßnahmen ab: Ausweisung der sehr Armen aus London – das heißt derjenigen Personen, die aus im Wesentlichen moralischen Gr¨ unden (Trunksucht, Gedankenlosigkeit) arm waren –, um die Lasten derjenigen zu erleichtern, die etwas weniger unter der Armut litten und aus wirtschaftlichen oder jedenfalls makrosozialen Gr¨ unden (Krise) verarmt waren. Die Einteilung erwies sich tats¨ achlich als viel komplexer (es gab acht Kategorien) und bezog sich sowohl auf die H¨ohe als auch auf die Regelm¨ aßigkeit des Einkommens (vgl. Kapitel 8). Die Z¨ahlungen wurden auf der Grundlage der Eindr¨ ucke“ ” von Kontrolleuren“ vorgenommen und f¨ uhrten zu detaillierten Statistiken. ” Aber das eigentlich Wichtige war die Verbindung der Taxonomie mit den geographischen Ergebnissen. Bis zu diesem Zeitpunkt wurden die Armutsprobleme auf der Ebene der Stadtgemeinden behandelt. Aber das Beispiel Londons war besonders dramatisch und es zeigte sich, daß – im Gegensatz zur allgemeinen Meinung – der Anteil der sehr Armen“ in ganz London kaum ” niedriger war als in East End allein (Untersuchung von Charles Booth). Die Frage der geographischen Repr¨asentativit¨at der Ergebnisse, die f¨ ur die einzelnen Stadtteile gewonnen wurden, f¨ uhrte allm¨ ahlich zu politischen Schlußfolgerungen. Der Vorschlag zur Ausweisung der sehr Armen st¨ utzte sich auf ¨ die Uberzeugung, daß die Situation in London am gravierendsten war. Nun war aber die Untersuchung nur in London durchgef¨ uhrt worden und es war nicht mehr m¨ oglich, Verallgemeinerungen nach Art von Le Play oder gar nach Art von Halbwachs vorzunehmen. Um handeln zu k¨ onnen, ben¨ otigte man ein Modell , und zwar ein reduziertes Modell . Rowntree organisierte einige Jahre sp¨ater in anderen St¨ adten Englands (insbesondere in York) Untersuchungen, die mit den von Booth in London durchgef¨ uhrten Erhebungen vergleichbar waren. Er sp¨ urte, daß die Methoden von Booth fragw¨ urdig waren und widmete den Techniken der Datensammlung eine gr¨ oßere Aufmerksamkeit. Jedoch konnte er die Methoden nicht vollst¨ andig ¨ andern, denn sein Ziel bestand darin, die Anteile der sehr Armen in beiden St¨adten miteinander zu vergleichen. Nun zeigte es sich aber, daß dieser Anteil in York kaum niedriger war als in London. Dieses Ergebnis unterst¨ utzte das Argument, gem¨aß dem die Armut nicht lokal behandelt werden kann. Die Verabschiedung eines neuen F¨ ursorgegesetzes (poor law ) im Jahre 1908 erfolgte im Kontext einer nationalen Verantwortungs¨ ubernahme f¨ ur eine entstehende soziale Sicherung. Auf diese Weise gab man makrosoziale Antworten auf Probleme, die nicht mehr im Rahmen der individuellen Moral pr¨ asentiert werden konnten (Lohnzur¨ uckhaltung der Arbeiter und b¨ urgerliche
Die Armen: Wie beschreibt man sie und was macht man mit ihnen?
249
Wohlt¨ atigkeit). In der Zeit zwischen Booth (1880er Jahre) und Rowntree (im Zeitraum zwischen 1900 und 1910) wurden die anf¨ anglich lokal formulierten Probleme durch Begriffe ausgedr¨ uckt, die sich auf das ganze Land bezogen. Jedoch gab es noch kein Werkzeug, auf das sich diese neue nationale Sozialstatistik st¨ utzen konnte. Dieses Werkzeug wurde von Bowley eingef¨ uhrt. Die Beziehung zwischen der Erhebungstechnik, dem von ihr erwarteten Nutzen und den eingesetzten Mitteln ¨anderte sich nicht nur aufgrund der Verabschiedung der neuen Sozialgesetze radikal, sondern auch wegen der im damaligen England zunehmenden Bedeutung der Diskussionen u ¨ber die Konkurrenz zwischen den großen Industriel¨andern und u ¨ber die Frage des Freihandels. Es wurden mehrere Erhebungen durchgef¨ uhrt, in denen man verschiedene L¨ ander miteinander verglich. Rowntree nahm Kontakt zu Halbwachs auf, der auf der Grundlage der Methoden des Engl¨ anders eine Untersuchung durchf¨ uhrte, die von der SGF ver¨offentlicht wurde (Halbwachs, 1914, [123]). Vor allem aber organisierte das englische Board of Trade in der Folgezeit eine umfassende Operation in mehreren L¨andern. Zwar setzte man dabei noch keine probabilistischen Methoden ein, aber es war die erste derart umfangreiche Erhebung in Europa und vor allem bezog sie sich auf mehrere L¨ ander. In Frankreich f¨ uhrte man Umfragen bei 5605 Arbeiterfamilien durch; die Frageb¨ ogen wurden von Arbeitnehmergewerkschaften in ungef¨ ahr dreißig St¨ adten verteilt (Board of Trade, 1909, [18]). Die englische liberale Regierung brauchte Argumente f¨ ur ihren Kampf gegen den Protektionismus und stellte deswegen bedeutende ¨ offentliche Mittel f¨ ur das Board of Trade bereit. Diese Mittel erm¨ oglichten es, Untersuchungen in einer großen Zahl von St¨adten durchzuf¨ uhren. Dar¨ uber hinaus konnte man jetzt diejenigen Probleme formulieren, die f¨ ur die sp¨ atere Errichtung der f¨ ur Stichprobenerhebungen erforderlichen Infrastruktur entscheidend waren: Organisation eines Netzwerks von homogenen“ Demoskopen und Ber¨ ucksich” tigung der Unterschiede, die auf lokale Umst¨ ande“ zur¨ uckzuf¨ uhren waren ” (Wohnungstypen, Verbrauchergewohnheiten, Besch¨ aftigungsstrukturen). Die Nutzung derartiger Erhebungen f¨ ur einen Vergleich zwischen St¨adten innerhalb eines Landes war ein a priori nicht gewolltes Nebenprodukt des internationalen Vergleichs (Hennock, 1987, [128]). Die n¨ achste Phase, die durch diese großangelegte Operation m¨ oglich wurde, bestand darin, daß Bowley auf plausible Weise die Bedingungen f¨ ur die M¨ oglichkeit von (entsprechend der damaligen Terminologie) repr¨ asentativen“ ” Erhebungen formulieren konnte. Er tat dies, indem er eine derartige Erhebung mit einer Quote von 1:20 in vier ausgew¨ ahlten St¨ adten durchf¨ uhrte, von denen zwei eher mono-industriell“ waren, die anderen beiden dagegen ” multi-industriell“. Er hatte auch erkannt, daß die Voraussetzungen der Ex” haustivit¨ at und der Repr¨asentativit¨at einander bedingten: die Verpflichtung zu antworten war ein Thema, das fr¨ uher nicht existierte. Durch diese Vorgehensweise entfernte er den Prozeß der Wechselwirkung zwischen Befrager und Befragung aus dem Modell des vertrauensvollen Umgangs, der im Rahmen des Soziabilit¨ atsnetzwerks der fr¨ uheren Erhebungen entstanden war. Stattdessen
250
7 Pars pro toto: Monographien oder Umfragen
n¨aherte er den Prozeß an eine allgemeine Form der B¨ urgerpflicht an – ¨ ahnlich dem allgemeinen Wahlrecht oder der Wehrpflicht. Ebenso ¨ anderte sich auch die Natur der Fehler und die Genauigkeit: W¨ ahrend Rowntree besonders pedantisch in Bezug auf die Aufzeichnung der Informationen war – gleichzeitig aber Fragen der Stichprobenauswahl ignorierte – ging Bowley weniger streng mit den Informationsaufzeichnungen um. Beispielsweise warf ihm Rowntree vor, daß er – Bowley – Antworten zur Lohnh¨ ohe akzeptiert h¨ atte, die von den Ehefrauen der Lohnarbeiter gegeben wurden, als die Arbeiter nicht anwesend waren. Rowntree h¨ atte sich geweigert, derartige Antworten zu akzeptieren. Vor allem aber machte Bowley die Ungenauigkeiten und die Fehlergrenzen zu einem respektablen Objekt, zu etwas Besonderem (Konfidenzintervall), das nicht mehr auf sch¨ andliche Weise im schamhaften ” Verschweigen“ des Fehlers verschleiert wurde. Die Technik und das Gesetz der großen Zahlen ersetzten die Moralisierung des Individuums. Ebenso versuchte Bowley nicht mehr – wie es noch Booth getan hatte – die Armut auf der Grundlage von visuellen Eindr¨ ucken zu identifizieren, die bei Besuchen entstanden waren. Vielmehr st¨ utzte sich Bowley auf feste und quantifizierbare Variable. Auch versuchte er nicht mehr, zwischen einer mit schlech” ten Gewohnheiten“ zusammenh¨angenden Armut und einer anderen Armut zu unterscheiden, die auf wirtschaftliche Ursachen zur¨ uckzuf¨ uhren war. Damit verbannte er jegliches moralische Urteil aus seinen Untersuchungen. Und schließlich erhob er – sozusagen in Umwertung all dessen, was fr¨ uher die berufliche Identit¨at ausmachte – den Anspruch, daß er selbst keine L¨ osung des Armenproblems anbieten m¨ usse. Ungef¨ahr um die gleiche Zeit hatte Max Weber ¨ ahnlicherweise gefordert, zwischen dem Wissenschaftler und dem Po” litiker“ zu unterscheiden. Das war eine ganz neue Position im Vergleich zu allem, was sich im 19. Jahrhundert ereignet hatte: ¨ Im Rahmen unserer T¨atigkeit als Okonomen und Statistiker geh¨ oren Notbehelfe oder Notl¨osungen (zur Senkung der Armut) nicht zu unseren Belangen; zu unseren Belangen geh¨ort vielmehr eine korrekte ¨ Kenntnis und eine exakte Diagnose des Umfangs dieser Ubel, gegen die man wohl¨ uberlegte und dauerhafte Abhilfen schaffen kann (Bowley, 1906, [29]). Booth, Rowntree und Bowley kannten sich und nahmen Bezug aufeinander. Der Vergleich der von ihnen durchgef¨ uhrten Untersuchungen zeigt die Koh¨ arenz der verschiedenen kognitiven, technischen und politischen Aspekte der vollkommen neuen Wissens- und Verallgemeinerungsmittel, die um 1900 auf den Plan traten. Die folgenden Entwicklungen waren nicht voneinander zu trennen: Errichtung des Wohlfahrtsstaates auf dem gesamten Territorium; Delokalisierung der Produktion und der Dateninterpretation; Ersetzung der Moralurteile durch neutrale technische Mechanismen und schließlich das Auftreten eines neuen Berufsbildes in der Person des Staatsstatistikers. Der Staatsstatistiker unterschied sich sowohl vom gebildeten Gelehrten des 19. Jahrhunderts, dem die Aufl¨osung der sozialen Bindungen keine Ruhe ließ, als
Von Monographien zu systematischen Stichprobenerhebungen
251
auch vom Verwaltungsbeamten, der direkt f¨ ur die Bearbeitung der sozialen Probleme verantwortlich zeichnete.
Von Monographien zu systematischen Stichprobenerhebungen Das neue Berufsbild zeichnete sich immer deutlicher in den nationalen statistischen Gesellschaften und vor allem im Internationalen Institut f¨ ur Statistik (IIS) ab, das 1883 gegr¨ undet wurde und die bedeutendsten Staatsstatistiker zusammenf¨ uhrte. In diesen verschiedenen Einrichtungen wurden die aufgekl¨arten und eklektischen Amateure des 19. Jahrhunderts zwischen 1900 und 1940 allm¨ ahlich durch professionelle Techniker der Statistik ersetzt, die eine immer gr¨ oßere mathematische Bildung und eine immer geringere historische oder politische Bildung hatten. Das war der Rahmen, in dem die repr¨ asenta” tive Methode“ nach 1895 zweimal diskutiert wurde. Den Anstoß hierzu gab der Norweger Kiaer, der 1894 in seiner Heimat eine erste repr¨ asentative Z¨ ahlung“ ” durchgef¨ uhrt hatte. Diese Z¨ahlung beinhaltete aufeinanderfolgende Auswahlen von Orten und Personen, die in diesen Orten befragt wurden, und bezog sich auf Berufe, Einkommen, Ausgaben, Ehe und Anzahl der Kinder sowie auf die Anzahl der Tage, an denen nicht gearbeitet wurde. Die Initiative von Kiaer wurde ausgiebig auf den vier aufeinanderfolgenden Kongressen des IIS diskutiert, die in der Zeit zwischen 1895 und 1903 stattgefunden hatten. Auf dem Berliner Kongreß 1904 wurde ein Antrag angenommen, der diese Methode unter dem Vorbehalt favorisierte, daß klar erkennbar anzugeben ist, unter welchen Voraussetzungen die beobachteten Einheiten ” ausgew¨ ahlt werden“. Der damals angeforderte Bericht wurde erst 1925 von dem D¨ anen Jensen vorgelegt und man nahm einen Antrag an, der keinen Unterschied zwischen dem Verfahren der zuf¨alligen Auswahl“ (random sample) ” und dem Verfahren der bewußten Auswahl“ 5 (purposive sample) machte. Die ” letztgenannte Methode wurde erst im Anschluß an die Arbeiten von Neyman im Jahre 1934 eliminiert. In der ersten Phase (1895–1903) hatte man den wahrscheinlichkeitstheoretischen Aspekt der neuen Methode und die Notwendigkeit des zuf¨ alligen ¨ Charakters der Auswahlen kaum wahrgenommen. Im Ubrigen war Kiaer bei seiner ersten Erhebung 1894 in dieser Hinsicht nicht sehr anspruchsvoll und erfaßte damals noch nicht die Bedeutung des wahrscheinlichkeitstheoretischen Aspekts. Nachdem er beispielsweise die Orte und Straßen sorgf¨ altig gezogen“ ” hatte, u auser: ¨berließ er den Befragern die Auswahl der zu besichtigenden H¨ Sie mußten daf¨ ur Sorge tragen, nicht nur H¨ auser zu besuchen, die vom sozialen Standpunkt zum Durchschnitt geh¨ oren, sondern im Allgemeinen auch H¨auser, welche die unterschiedlichen sozialen und wirt5
Auch gezielte Auswahl“ genannt. ”
252
7 Pars pro toto: Monographien oder Umfragen
schaftlichen Bedingungen der Gemeinde repr¨ asentieren (Kiaer, 1895, [152]). Kiaer beharrte mit Nachdruck und zum ersten Mal an einer solchen Stelle auf dem Begriff der Repr¨asentativit¨at. Damit wollte er zeigen, daß man mit Hilfe einiger (vorerst noch rudiment¨arer) Vorsichtsmaßnahmen bez¨ uglich der Stichprobenauswahl f¨ ur einige kontrollierbaren“ Variablen (die bereits in ” den Vollerhebungen auftraten) hinreichend gute Ergebnisse erzielt und deswegen voraussetzen kann, daß diese Ergebnisse auch f¨ ur die anderen Variablen hinl¨ anglich gut“ sein w¨ urden, ohne eine allzu pr¨ azise Definition des letztge” nannten Begriffes zu geben. Das Wesen des Begriffs der Repr¨ asentativit¨ at war hier bereits vorhanden: Der Teil kann das Ganze ersetzen – dagegen dachte man bei den fr¨ uheren Untersuchungen nicht daran, einen Teil mit dem Ganzen zu vergleichen, denn man faßte das Ganze nicht mit denselben Begriffen auf. So war bei Quetelet der Durchschnittsmensch eine Zusammenfassung“ der ” Bev¨ olkerung, aber die Aufmerksamkeit konzentrierte sich auf die durchschnittlichen Merkmale und deren Regelm¨aßigkeiten und nicht auf die tats¨ achliche Bev¨ olkerung mit ihren Grenzen, ihren Strukturen und ihrer Exhaustivit¨ at. Bei Kiaer dagegen ist das Bem¨ uhen um eine in diesem neuen Sinne exhaustive und repr¨asentative Beschreibung gegenw¨ artig – auch wenn das entsprechende technische Werkzeug noch nicht verf¨ ugbar war. Dieses Werkzeug, das zur Konstruktion einer Zufallsstichprobe und zur Berechnung der Konfidenzintervalle erforderlich war, wurde erst 1906 von Bowley außerhalb des IIS vorgestellt (wobei Bowley dann aber 1925 aktiv am Kongreß des IIS teilnahm, auf dem die Debatte mit Jensen, March und Gini erneut in Gang kam). Die technischen Debatten, die bei diesen Zusammenk¨ unften von Statistikern gef¨ uhrt wurden, sind in bedeutenden Forschungsarbeiten (Seng (1951, [255]), Kruskal und Mosteller (1980, [160])) unter dem Blickwinkel der allm¨ ahlichen Einbeziehung der Ergebnisse der Wahrscheinlichkeitsrechnung und der mathematischen Statistik in die Theorie der Stichprobenauswahl beschrieben worden. Die f¨ ur diesen Standpunkt entscheidende Phase war die Arbeit von Neyman (1934, [210]) zur Stratifizierung, mit der die bewußt“ oder gezielt“ ” ” ausgew¨ ahlten Stichproben in der Versenkung verschwanden. Wir gehen hier auf diese Debatten nicht ein, wollen stattdessen jedoch untersuchen, wie Kiaer seine Methode einf¨ uhrte und wie er das Bed¨ urfnis empfand, diese Methode mit den Monographien LePlayscher Art zu vergleichen – was einem Statistiker des nachfolgenden 20. Jahrhunderts nicht mehr in den Sinn gekommen w¨ are. Die Rechtfertigungen, die er sogleich f¨ ur seine Untersuchung gab, waren be¨ zeichnend f¨ ur den pl¨otzlichen Ubergang von einer Zeit, in der die Beziehungen zwischen den Kategorien noch durch den Begriff der Anordnung ausgedr¨ uckt wurden und daher vergleichbar waren, zu einer neuen Zeit. Nun ließen sich die Individuen verschiedener Kategorien durch ein gemeinsames Maß miteinander vergleichen. Das Thema der Ungleichheit, das in einem anderen System undenkbar war, wurde zu einem fundamentalen Thema: Man dr¨ uckte Probleme der Armut nicht mehr mit Hilfe der Begriffe der Wohlt¨ atigkeit und
Von Monographien zu systematischen Stichprobenerhebungen
253
der gutnachbarlichen Beziehungen aus, sondern durch Sozialgesetze, die von den Parlamenten verabschiedet wurden. Kiaer bemerkte n¨ amlich, daß sich die fr¨ uheren Erhebungen lediglich auf die Arbeiter (oder auf die Armen) bezogen, da es noch nicht vorstellbar war, unterschiedliche Kategorien im Rahmen ¨ eines u zu setzen. Er war so¨bergeordneten Ganzen zueinander in Aquivalenz mit einer den Ersten, die das Problem der sozialen Ungleichheiten“ in dieser ” Weise aufwarfen, und es ist verbl¨ uffend, daß diese Idee im Jahre 1895 gleich am Anfang des ersten Textes eines Staatsstatistikers formuliert wurde, der sich mit Fragen der Repr¨asentativit¨at befaßte: Besonders erstaunt hat mich, daß die detaillierten Untersuchungen u ¨ber Einkommen, Wohnungen und andere wirtschaftliche oder soziale Bedingungen der Arbeiterklasse nicht in analoger Weise auf alle anderen Klassen der Gesellschaft verallgemeinert worden sind. Es scheint mir offensichtlich zu sein, daß man selbst dann, wenn man nur die eigentliche Arbeiterfrage ber¨ ucksichtigt, auch die wirtschaftliche, soziale und moralische Lage der Arbeiter mit der entsprechenden Lage des Mittelstandes und der wohlhabenden Schichten vergleichen muß. In einem Land, in dem die Oberschicht sehr reich und der Mittelstand gut situiert ist, werden die Anspr¨ uche der Arbeiterklasse in Bezug auf L¨ ohne und Wohnungen nach einem anderen Maßstab gemessen, als in einem Land (oder an einem Ort), wo die Mehrzahl der zur Oberschicht geh¨ orenden Leute nicht reich ist und wo der Mittelstand in Geldverlegenheit ist. Aus diesem Vorschlag folgt, daß man – um die Bedingungen der Arbeiterklasse erfolgreich beurteilen zu k¨ onnen – zus¨ atzlich auch die entsprechenden Einzelheiten der anderen Schichten kennen muß. Aber man muß noch einen Schritt weitergehen, denn die Gesellschaft besteht nicht nur aus der Arbeiterklasse und man darf bei Sozialenqueten keine Schicht der Gesellschaft vernachl¨ assigen. (Kiaer, 1895, [152].) Unmittelbar danach erl¨auterte er, daß sich diese Untersuchung f¨ ur die Gr¨ undung einer Pensions- und Sozialversicherungskasse als n¨ utzlich erweisen w¨ urde, da sie einen sozialen Ausgleich und eine statistische Behandlung der verschiedenen Risiken garantiert: Seit Beginn dieses Jahres wurde und wird in unserem Land eine repr¨ asentative Z¨ahlung durchgef¨ uhrt, deren Ziel es ist, verschiedene Fragen zum Projekt der Gr¨ undung einer allgemeinen Rentenkasse und einer Invalidit¨ats- und Altersversicherung zu kl¨ aren. Diese Z¨ ahlung erfolgt unter der Schirmherrschaft eines parlamentarischen Ausschusses, der mit der Pr¨ ufung dieser Fragen beauftragt wurde und dem ich als Mitglied angeh¨ore. (Kiaer, 1895, [152].) Zwei Jahre sp¨ater, 1897, drehte sich die Debatte im Verlauf einer neuen Diskussion am IIS um das, was die repr¨asentative Methode“ im Vergleich ”
254
7 Pars pro toto: Monographien oder Umfragen
zur typologischen Methode“ gebracht hat, die damals innerhalb des IIS von ” Leplaysianischen Statistikern wie Cheysson empfohlen wurde. Kiaer hob nachdr¨ ucklich den territorialen Aspekt hervor, indem er das Gesamtterritorium in einem verkleinerten Maßstab darstellte und nicht nur Typen zeigte, sondern auch die Vielfalt der F¨alle, die im Leben vorkommen“. Zwar schnitt er da” bei noch nicht die Frage der zuf¨alligen Auswahl an, aber er bestand auf der Kontrolle der Ergebnisse durch die allgemeine Statistik: Ich finde nicht, daß die in unserem Programm verwendete Terminologie, das heißt Verfahren der typologischen Studien“, meinen Vorstel” lungen entspricht. Ich werde Gelegenheit haben, auf den Unterschied hinzuweisen, der zwischen den typenbezogenen Untersuchungen und den repr¨ asentativen Untersuchungen besteht. Unter repr¨ asentativer Untersuchung verstehe ich eine teilweise Erkundung, bei der Beobachtungen in einer großen Anzahl von u ¨ber dem gesamten Territorium verstreuten und verteilten Orten in einer Art und Weise durchgef¨ uhrt werden, daß die Gesamtheit der beobachteten Orte einem verkleinerten Maßstab des Gesamtterritoriums entspricht. Diese Orte d¨ urfen nicht willk¨ urlich ausgew¨ahlt werden; sie m¨ ussen vielmehr entsprechend einer sinnvollen Einteilung ausgew¨ahlt werden, die sich auf die allgemeinen Ergebnisse der Statistik st¨ utzt. Die individuellen Erhebungsb¨ ogen, derer man sich bedient, m¨ ussen so abgefaßt sein, daß die in ihnen auftretenden Ergebnisse in mehrerlei Hinsicht mit Hilfe der allgemeinen Statistik kontrolliert werden k¨onnen. (Kiaer, 1895, [152].) Als Kiaer seine Methode, die eine Beschreibung der Vielfalt der F¨ alle“ ge” stattete, mit der Methode verglich, die lediglich typische F¨ alle“ zeigte, hob er ” eine Ver¨ anderung hervor, die parallel zu der von Galton und Pearson bewirkten Wandlung der alten Mittelwert-Statistik von Quetelet verlief: Von nun an richteten die englische Eugeniker die Aufmerksamkeit auf die Variabilit¨ at der individuellen F¨ alle unter Ber¨ ucksichtigung der Begriffe Varianz , Korrelation und Regression und u uhrten dadurch die Statistik aus dem Stadium der ¨berf¨ Untersuchung von Ganzheiten, die in Mittelwerten zusammengefaßt waren (Holismus), in das Stadium der Analyse der Verteilungen von Individuen, die miteinander verglichen werden: Das Institut hat Untersuchungen empfohlen, die auf der Grundlage von ausgew¨ ahlten Typen durchgef¨ uhrt werden. Ohne die N¨ utzlichkeit dieser Form der partiellen Untersuchung zu bestreiten, denke ich, daß sie im Vergleich zu repr¨asentativen Untersuchungen gewisse Nachteile hat. Selbst wenn man die Anteile kennt, in denen die verschiedenen Typen in die Gesamtheit eingehen, ist man noch weit davon entfernt, ein plausibles Ergebnis f¨ ur die Gesamtheit zu erzielen. Denn die Gesamtheit umfaßt nicht nur die Typen, das heißt die Durchschnittsverh¨ altnisse, sondern die ganze Vielfalt der F¨ alle, die im Leben auftreten. Soll demnach eine partielle Untersuchung einen wahren ver-
Von Monographien zu systematischen Stichprobenerhebungen
255
kleinerten Maßstab der Gesamtheit liefern, dann ist es notwendig, daß man nicht nur die Typen, sondern alle Arten von Ph¨ anomenen beobachtet. Und das ist es, was man – wenn nicht gar vollst¨ andig – mit Hilfe einer guten repr¨asentativen Methode erreichen kann, die weder die Typen noch die Variationen vernachl¨assigt. (Kiaer, 1895, [152].) Kiaer versuchte dann, sich zwischen den beiden fundamental verschiedenen Erkenntnisweisen zu positionieren, die auf der einen Seite durch individuelle Monographien und auf der anderen Seite durch Vollerhebungen repr¨ asentiert ¨ wurden. Uberraschenderweise hob er dabei hervor, daß er es genau so gut machen k¨ onne, wie die Monographien auf ihrem Terrain ( Blut, Fleisch, Ner” ven“). Jedoch wurden anschließend die Stichprobenerhebungen (hinsichtlich Kosten und Genauigkeit) mit Vollerhebungen und keineswegs mit Monographien verglichen. Das zeigt die Pr¨agnanz einer Erkenntnisweise, die auf der intuitiven Erfassung der Gesamtperson aufbaut: Bei der Diskussion u ¨ber die wechselseitigen Rollen der Monographien und der partiellen Statistik sagten wir, daß sich Monographien mit Objekten befassen, die man weder z¨ahlen noch wiegen, noch messen kann; dagegen besch¨aftigt sich die partielle Statistik mit Objekten, ” die in ihrer Gesamtheit gez¨ahlt werden k¨onnen, die aber absichtlich nur zum Teil gez¨ahlt werden“... Im Allgemeinen glaube ich, daß ich auf die partiellen Untersuchungen und vor allem auf die repr¨ asentativen Untersuchungen die eloquenten Worte unseres sehr verehrten Kollegen Herrn Bodio anwenden kann, die er in Bezug auf die Arbeit unseres von allen betrauerten Kollegen Dr. Engel zu den Familienbudgets von Arbeiterfamilien ¨außerte: Die statistische Monographie und ” die Z¨ ahlung sind zwei einander erg¨anzende Untersuchungsarten zur Ermittlung der sozialen Tatbest¨ande. Die Z¨ ahlung allein kann nur die allgemeinen Profile der Ph¨anomene liefern, sozusagen nur die Silhouette der Figuren. Monographien – und dazu z¨ ahle ich partielle Untersuchungen im Allgemeinen – erm¨oglichen ein Vorantreiben der Analyse aller Einzelheiten des wirtschaftlichen und moralischen Lebens des Volkes. Monographien geben dem von der allgemeinen Statistik errichteten Skelett das Blut, das Fleisch und die Nerven, w¨ ahrend die Vollerhebung ihrerseits die von den Monographien gelieferten Begriffe erg¨ anzt“. Unter der Voraussetzung, daß ich dort den Begriff partielle ” Untersuchung“ einf¨ uge, finde ich, daß diese Worte von Luigi Bodio eine ausgezeichnete Demonstration der wechselseitigen Rollen der partiellen Untersuchungen und der allgemeinen Statistik sind. (Kiaer, 1895, [152].) Kiaer beschrieb dann sein ideales Werkzeug, das ebenso reichhaltig wie die Monographien und ebenso pr¨azise wie die Vollerhebungen war – sofern man nur die Randbedingung der Repr¨asentativit¨ at einh¨ alt (er erfaßte diesen Begriff intuitiv, besaß aber noch kein Werkzeug daf¨ ur):
256
7 Pars pro toto: Monographien oder Umfragen
Der wissenschaftliche Wert der partiellen Untersuchungen h¨ angt weit mehr von deren repr¨asentativem Charakter als von der Anzahl der Daten ab. Es kommt oft vor, daß die leicht zu erhaltenden Daten eher eine Elite als gew¨ohnliche Typen darstellen. (Kiaer, 1895, [152].) Man kann a posteriori verifizieren, daß das angewendete Verfahren tauglich ist, falls bei den kontrollierbaren Variablen keine allzu große Abweichung zwischen Stichprobe und Z¨ahlung auftritt. Im gleichen Maße, in dem sich die partielle Untersuchung hinsichtlich der kontrollierbaren Punkte als korrekt erweist, ist sie wahrscheinlich auch bez¨ uglich derjenigen Punkte korrekt, die nicht mit Hilfe der allgemeinen Statistik kontrolliert werden k¨onnen (Kiaer, 1895, [152].) Noch niemandem war die Idee gekommen, daß es die gleich zu Beginn des 19. Jahrhunderts formulierten wahrscheinlichkeitstheoretischen S¨ atze erm¨ oglichen k¨ onnten, mehr u ¨ber die wahrscheinlichen Fehler“ zu sagen, die bei der ” Auswahl von Zufallsstichproben auftreten (womit man auch mehr u ¨ber die Signifikanz der von Kiaer beobachteten Abweichungen sagen konnte). Sein Verfahren wurzelte in einer soliden Kenntnis des Terrains und Kontrollen fanden nur nachtr¨aglich statt. Die Deterritorialisierung und die Mathematisierung der Verfahren erfolgten erst sp¨ater. Erst 1901 kam es – im Rahmen einer erneuten Diskussion u ¨ber das Verfahren von Kiaer – zum zaghaften Einsatz von probabilistischen Methoden. ¨ Der Okonom und Statistiker Bortkiewicz6 behauptete damals, von Poisson ” f¨ ur analoge F¨ alle abgeleitete Formeln verwendet zu haben, um herauszubekommen, ob der Unterschied zweier Zahlen auf einen Zufall zur¨ uckzuf¨ uhren war“. Dabei stellte er fest, daß dies in den von Kiaer vorgestellten F¨ allen nicht zutraf und daß die Abweichungen signifikant waren. Demnach war die Stichprobe von Kiaer nicht so repr¨asentativ, wie er es gedacht hatte. Es sieht so aus, als ob Bortkiewicz dem Norweger Kiaer einen schweren Schlag versetzt h¨ atte. Dennoch nahm im Verlauf der Debatte merkw¨ urdigerweise niemand die Argumentation von Bortkiewicz auf und es ist nichteinmal bekannt, wie Kiaer reagiert hat. Vielleicht hatte Bowley davon Wind bekommen“, da er ” f¨ unf Jahre sp¨ ater, im Jahre 1906, der Royal Statistical Society die ersten Berechnungen von Konfidenzintervallen vorlegte (Bowley, 1906, [29]).
6
Ladislaus von Bortkiewicz (Vladislav Iosifovich Bortkevich), geb. 1868 in St. Petersburg, gest. 1931 in Berlin. Bortkiewicz studierte in St. Petersburg Rechtsund Staatswissenschaften und nach dem Staatsexamen mathematische Statistik bei W. Lexis in G¨ ottingen und G.F. Knapp in Straßburg; seit 1901 Professor f¨ ur Staatswissenschaften in Berlin. Bortkiewicz war um die Mathematisierung der Statistik in Deutschland bem¨ uht.
Wie verbindet man was man schon weiß“ mit dem Zufall? ”
257
Wie verbindet man was man schon weiß“ ” mit dem Zufall? Die Idee, gem¨ aß der man die Repr¨asentativit¨at einer Stichprobe durch Kon” trollvariable“ garantieren kann, hatte nichtsdestoweniger im Rahmen der Methode der bewußten Auswahl“ noch etwa dreißig weitere Jahre Bestand. Bei ” dieser Methode (Erbe der vorhergehenden Epoche) wurde auch weiterhin die territoriale Einteilung des nationalen Raumes in eine Gesamtheit von Distrikten bevorzugt, aus der man eine Untermenge ausw¨ ahlt – und zwar nicht nach dem Zufallsprinzip, sondern so, daß eine gewisse Anzahl von wesentlichen Variablen (die sogenannten Kontrollvariablen) f¨ ur diese Untermenge und f¨ ur das gesamte Territorium den gleichen Wert haben. Eine bemerkenswerte Anwendung dieser Methode wurde 1928 von dem Italiener Corrado Gini vorgestellt. Nachdem man sich aus Platzgr¨ unden der individuellen amtlichen statistischen Berichte der Volksz¨ahlung von 1921 entledigen mußte, hatte Gini die Idee, einen Teil davon zu behalten. Er bewahrte diejenigen Berichte aus 29 (von den insgesamt 214) italienischen Regionalbezirken auf, bei denen die Mittelwerte der 7 Variablen in der N¨ahe der betreffenden Landeswerte lagen (durchschnittliche H¨ohe u ¨ber dem Meeresspiegel, Geburtenrate, Sterberate, Heiratsrate, Anteil der l¨andlichen Bev¨olkerung, Anteil der in Ballungsr¨ aumen lebenden Bev¨ olkerung, Durchschnittseinkommen). Die Auswahl der 29 Regionalbezirke, die diesen Randbedingungen am besten entsprachen, war das Ergebnis m¨ uhsamer tastender Versuche. Gini selbst u ¨bte Kritik an der Auswahl und zeigte, daß es keinen Grund f¨ ur die Annahme gibt, daß diese Stichprobe ein guter Ersatz f¨ ur ganz Italien ist – es sei denn, man macht sehr spezielle Voraussetzungen in Bezug auf die Linearit¨at der Korrelationen zwischen kontrollierten und nichtkontrollierten Variablen. Die ganze Diskussion, die sich vom Bericht von Jensen im Jahre 1925 bis zum Artikel von Neyman im Jahre 1934 erstreckte, drehte sich um die Frage nach dem Zusammenhang zwischen reiner Zufallsauswahl und dem, was be” reits anderweitig bekannt war“ (zum Beispiel aufgrund einer Z¨ ahlung). Das hat zun¨ achst zur Methode der Kontrollvariablen“ von Kiaer und anschlies” send zur Methode der bewußten Auswahl“ gef¨ uhrt. Diese Methoden sind ” nacheinander wieder verworfen worden. Akzeptiert wurde schließlich die Technik der geschichteten Stichprobenauswahl auf der Grundlage von A-priori Einteilungen der Bev¨olkerung. Bei diesen Einteilungen wurde eine Zusammenfassung dessen vorausgesetzt, was man bereits wußte, das heißt daß es signifikante Unterschiede bei den Mittelwerten der Klassen gab und daß man daher die Genauigkeit der globalen Sch¨atzungen verbesserte, wenn man A-priori Schichtungen vornimmt. Das setzte demnach voraus, daß solche Nomenklaturen – echte Depots fr¨ uheren Wissens – vorhanden waren, einen gewissen Fortbestand hatten, eine entsprechende Solidit¨ at aufwiesen und Vertrauen erweckten: nach 1950 spielten die Berufsgruppen, das Bildungsniveau, die Gemeindekategorien und die Familientypen eine solche Rolle. Die Konstruktion des Repr¨ asentativit¨atsmechanismus erfolgte einerseits durch das Geb¨ aude der
258
7 Pars pro toto: Monographien oder Umfragen
Mathematik, das nach und nach von den alten Kontrollvariablen“ ges¨ aubert ” wurde (Neyman), und andererseits durch ein System von Nomenklaturen, mit deren Hilfe die Merkmale von Personen in einem Rahmen aufgezeichnet wurden, den der Staat als Tr¨ager des allgemeinen Interesses garantierte. Die Ausarbeitung der Nomenklaturen erfolgte ihrerseits durch eine vertrauenerweckende Institution. Auf diesen Punkt hatte Jensen 1925 in seinem Bericht u asenta¨ber die repr¨ tive Methode mit Nachdruck hingewiesen. Jensen bemerkte, daß die Methode immer noch Mißtrauen erweckte, weil sie sich nur auf einen Teil der Bev¨ olkerung bezog. Deswegen fragte er sich, ob eine vertrauenerweckende statistische Verwaltung ein ausreichender Grund daf¨ ur ist, diese Art Kritik zu entkr¨ aften. Die Tatsache, daß beide Problemkategorien – das heißt die Kategorie der technischen Probleme und die der soziopolitischen Probleme – gleichzeitig Erw¨ ahnung fanden, stellt einen Teil der Antwort auf die anf¨ angliche Frage dar, warum die repr¨asentative Methode nicht schon fr¨ uher verwendet worden war. Der Kern dieses Einwands besteht darin, daß dem gegenseitigen Vertrauen zwischen den amtlichen statistischen Institutionen und der Bev¨ olkerung die allergr¨oßte Bedeutung beizumessen ist: Einerseits liefert n¨ amlich die Bev¨olkerung das Material f¨ ur die Statistik und andererseits ist es die Bev¨olkerung, f¨ ur welche die ganze Arbeit durchgef¨ uhrt wird. Die amtliche Statistik muß nat¨ urlich peinlich genau auf ihren Ruf achten: Es reicht nicht aus, daß die Frau von Caesar tu” gendhaft ist – vielmehr m¨ ussen auch alle davon u ¨berzeugt sein, daß sie es ist“. Aber es w¨are – außerhalb jeder Prestigefrage – kaum zu rechtfertigen, einen technischen Fortschritt zu verhindern, dessen Rechtfertigung an sich voll und ganz anerkannt ist. Man versagt es sich doch auch nicht, eine Br¨ ucke nach einem pr¨ azisen Bauplan zu bauen, ¨ nur weil die Offentlichkeit in ihrer Ignoranz kein Vertrauen in diesen Plan hat; man baut die Br¨ ucke, wenn der Ingenieur ihre Wider¨ standsf¨ ahigkeit garantieren kann – die Offentlichkeit wird die Br¨ ucke dann ganz normal benutzen und Vertrauen in ihre Stabilit¨ at haben. (Jensen, 1925, [137].) Das Problem von Jensen in diesem Text bestand darin, die technische Solidit¨ at des Objekts und dessen Ruf miteinander zu verbinden. Es war diese Verbindung, welche die St¨arke der Staatsstatistik ausmachte.
Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen Aber mit Beginn der 1930er Jahre kamen zu diesem typisch europ¨ aischen Fall der Anwendung der repr¨asentativen Methode auf die staatliche Verwaltung sozialer Probleme weitere Anwendungen hinzu. In mindestens zwei anderen F¨allen, vor allem aber in den Vereinigten Staaten, erlangten von dieser Zeit an
Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen
259
gewisse Totalisierungen eine unmittelbare Relevanz, die sich auf das gesamte Staatsgebiet bezogen: Marktstudien u uter und Wahlprogno¨ber Konsumg¨ sen. In beiden F¨ allen mußte vorher eine landesweite Standardisierung erfolgen ¨ und eine entsprechende Aufstellung von Aquivalenzen bez¨ uglich der Produkte durchgef¨ uhrt werden. Im Falle der Konsumg¨ uter war es notwendig, daß die Großunternehmen u aßig Standardpro¨ber ein nationales Transportnetz regelm¨ dukte auf dem gesamten Territorium vertreiben; ferner war es erforderlich, diese Produkte einwandfrei zu identifizieren (Eymard-Duvernay, 1986, [88]). So wurde es dann m¨oglich, im Rahmen einer landesweiten Meinungsumfrage festzustellen, ob die Verbraucher lieber Coca-Cola als Pepsi-Cola trinken. F¨ ur die Wahlprognosen war es wichtig, daß die Kandidaten im ganzen Land die gleichen waren (das war bei den amerikanischen Pr¨ asidentschaftswahlen der Fall, nicht aber bei den Wahlen in den franz¨ osischen Arrondissements7 ). Dar¨ uber hinaus war es auch von Bedeutung, das Image der Kandidaten relativ umfassend zu verbreiten und zu vereinheitlichen, wozu das Radio zunehmend beigetragen hat. Ebenso erwies es sich als notwendig, daß der Stichprobenrahmen m¨ oglichst nahe an der W¨ahlerschaft war. Allgemein bekannt ist das Mißgeschick der 1936 in den Vereinigten Staaten per Telefon durchgef¨ uhrten Meinungsumfragen: es wurden nur wohlhabende Personen interviewt, die einen solchen Apparat besaßen, und die Umfragen prognostizierten zu Unrecht einen Sieg der Republikaner. Aber alle diese Erhebungen hatten etwas Gemeinsames: ihre Ergebnisse wurden an Sponsoren geliefert, die sie zu operativen Zwecken benutzten. Als Sponsoren fungierten Verwaltungen, Großunternehmen, Radiosender oder Zeitungen. Der Begriff der Repr¨asentativit¨at machte die Kostenbegrenzung dieses Wissens mit dessen Relevanz kompatibel – eine technische Frage, die gleichzeitig gesellschaftlich anerkannt war. In allen diesen F¨ allen ging es um Individuen (Hilfsbed¨ urftige, Verbraucher und W¨ ahler) und nicht mehr um Gesamtheiten wie die g¨ottliche Ordnung (Quetelet), die Abstammung (Le Play) oder das Arbeiterbewußtsein (Halbwachs). Wir haben hier versucht, das um die Wende zum 20. Jahrhundert neu auftretende Konzept der Repr¨asentativit¨at zu interpretieren, das im Gefolge des ¨ Ubergangs von einer Denkweise zu einer anderen in Erscheinung trat. Dieser ¨ Ubergang war in der Vergangenheit mehrfach dargestellt worden. Eine dieser Darstellungen wird von Louis Dumont in dessen Essai sur l’individualisme wiedergegeben. Dumont vergleicht nationale Kulturen“, die man f¨ ur unver” gleichbar hielt (deutsche Tradition), mit einer universellen oder zumindest universalistischen Zivilisation“ (englische Tradition f¨ ur die ¨ okonomistische ” Version und franz¨osische Tradition f¨ ur die politische Version). Er wies darauf 7
Unter arrondissement“ versteht man einen Unterbezirk eines Departements oder ” einen Stadtbezirk einer Großstadt.
260
7 Pars pro toto: Monographien oder Umfragen
hin, daß Leibniz zur L¨osung dieses Widerspruchs ein Monadensystem8“ er” sonnen hatte, in dem jede Kultur das Universelle auf ihre Art ausdr¨ uckte – eine geschickte Verallgemeinerungsweise: Ein deutscher Denker bietet uns ein Modell an, das unseren Bed¨ urfnissen entspricht: ich spreche vom Leibnizschen Monadensystem. Jede Kultur (oder Gesellschaft) dr¨ uckt das Universelle auf ihre Weise aus, so wie jede der Leibnizschen Monaden. Und es ist nicht unm¨ oglich, ein (zugegebenermaßen schwieriges und m¨ uhsames) Verfahren zu konzi¨ pieren, das den Ubergang von einer Monade oder Kultur zu einer anderen vermittels des Universellen erm¨oglicht, wobei dieses sozusagen als Integral aller bekannten Kulturen, als die Monade der Monaden aufgefaßt wird, die am Horizont einer jeden Monade zugegen ist. Entbieten wir dem Genie im Vor¨ ubergehen unseren Gruß: von der Mitte des 17. Jahrhunderts erben wir den wahrscheinlich einzigen ernsthaften Versuch der Vers¨ohnung des Individualismus mit dem Holismus. Die Leibnizsche Monade ist gleichzeitig ein Ganzes an sich und ein Individuum in einem System, das selbst in seinen Unterschieden einheitlich ist: sozusagen das universelle Ganze. (Dumont, 1983, [73].) Der Vergleich zwischen der monographische Methode und der statistischen Methode wirft mit anderen Worten die Frage nach der Vers¨ ohnung der Erkenntnisweisen auf, die aus der holistischen oder der individualistischen Sichtweise hervorgehen. Die Geschichte des Begriffs der Repr¨ asentativit¨ at hat uns auf den Begriff der Verallgemeinerung zur¨ uckverwiesen: Was ist ein Teil? Was ist das Ganze? Wir hatten gesehen, daß die beiden T¨ atigkeiten – das heißt die politische und die kognitive T¨atigkeit – der Begrenzung eines relevanten Ganzen (zum Beispiel der Nation oder des Marktes) sowie die Definition der ¨ Einheiten dieses Ganzen und die Aufstellung von Aquivalenzen zwischen den Einheiten unerl¨ aßlich daf¨ ur waren, daß der moderne Begriff und das Werkzeug der Repr¨ asentativit¨at in Erscheinung treten konnten. Das durch die Transformationen des Begriffs der Repr¨ asentativit¨ at und insbesondere durch die Diskussionen des im Zeitraum 1895–1935 aufgeworfenen Problems bestand darin, wie man die aus unterschiedlichen Aufzeichnungen gewonnenen Erkenntnisse miteinander verbindet. Das war das Problem, dessen Beantwortung nacheinander durch die kontrollierten Variablen“ von ” Kiaer, die bewußte Auswahl“ von Jensen und Gini und durch die Schich” ” tung“ von Neyman in Angriff genommen wurde (O’Muircheartaigh und Wong, 1981, [215]). Gleichzeitig handelte es sich aber auch um einen R¨ uckverweis auf ein theoretisches Problem, das so alt wie die Wahrscheinlichkeitsrechnung war – n¨ amlich das Problem der Akzeptanz oder der Ablehnung von 8
Das Wort Monade“ leitet sich vom altgriechischen mon´ as“ (Einheit) ab. F¨ ur ” ” Leibniz sind Monaden in sich geschlossene und vollendete, letzte und beseelte Einheiten, die in ihrer Gesamtheit das geordnete System der Welt ausmachen.
Wohlfahrtsstaat, Inlandsmarkt und Wahlprognosen
261
A-priori -Gesetzen“, das heißt das Problem der Wahl zwischen subjektiver ” Wahrscheinlichkeit und objektiver Wahrscheinlichkeit (vgl. Kapitel 2). Im Verlauf der Diskussion von 1925 dr¨ uckte Lucien March – der damals 66 Jahre alt war und die Richtungs¨anderung des gesamten statistischen Denkens beobachtet hatte – dieses Problem mit Hilfe von Begriffen aus, die gleichzeitig subtil und archaisch erschienen, denn alle diese Dinge sind seither formalisiert worden, das heißt sie wurden auf eine gewisse Art und Weise eingefroren“: ” Das System, das darin besteht, sich der Zufallsauswahl der Erhebungseinheiten so gut wie m¨oglich anzun¨ahern, ist nicht notwendigerweise dasjenige, das dem Begriff der Repr¨asentation am besten entspricht. Wie wir bemerkt hatten, setzt dieser Begriff voraus, daß die Einheiten untereinander keine Unterschiede aufweisen. Die repr¨ asentative Methode verfolgt nun aber das Ziel, die Unterschiede hervorzuheben. Die Hypothese scheint also in einem gewissen Widerspruch zum verfolgten Ziel zu stehen. Das erkl¨art die Bevorzugung einer besser verstandenen und intelligenteren Auswahl. Beispielsweise lassen manche Leute die als abnormal geltenden Extremf¨alle weg oder f¨ uhren eine Stichprobe durch, indem sie sich auf ein f¨ ur wesentlich gehaltenes Kriterium st¨ utzen. (March, 1925, [190].) Wenn March den scheinbaren Widerspruch betont, der zwischen der Not¨ wendigkeit des Aufstellens von Aquivalenzen f¨ ur die Einheiten und der Suche nach ihren Unterschieden besteht, dann k¨onnte man darauf hinweisen, daß sp¨atere Formalisierungen dieses Problem vollkommen gel¨ ost haben. Aber seine Unschl¨ ussigkeit, ob man eine besser verstandene, intelligentere“ Auswahl ” treffen solle oder ob man die abnormalen F¨alle“ vielleicht doch eher elimi” niert, spiegelte ein Problem wider, dem jeder Statistiker begegnet, der sein Gebiet gut kennt. Dieses fr¨ uhere Wissen“ wird oft durch direkten Kontakt ” erworben und entsteht aus einer Vertrautheit mit dem Gegenstand (aber nicht immer mit Hilfe der allgemeinen Statistik, wie man im Falle der kontrollier” ten Variablen“ sieht). Damit steht March also in der N¨ ahe der Kultur“ von ” Dumont oder der Gemeinschaft“ von T¨onnies. Der Beobachter hat stets die ” Intuition eines Gesamtwissens, der Totalit¨at einer Situation, einer Person, einer sozialen Gruppe oder sogar einer Nation. Nach Abschluß ihrer analytischen Arbeit sagen die Forscher mitunter: Nun m¨ ussen wir wieder zusammensetzen, was wir auseinandergenommen ” haben“. Einmal mehr tritt hier das Problem der Verallgemeinerung auf: die Rekonstruktion des Ganzen in seiner Einheit. Die Erzeugung der Gesamtheit aus einem ihrer Bestandteile. Dieses Wunschbild ist es, das die Wissenschaftler st¨ andig in Unruhe versetzt. Und die allerneuesten Entwicklungen auf dem Gebiet der Stichprobenerhebungen erm¨ oglichen eine Rekonstruktion durch Simulationstechniken auf Großrechnern. Diese Simulation erfolgt – ausgehend von der betreffenden Stichprobe – durch die Erzeugung einer großen Anzahl von Teilstichproben und mit Hilfe einer Untersuchung der dadurch
262
7 Pars pro toto: Monographien oder Umfragen
entstehenden statistischen Verteilung. Man hat dieses Verfahren als BootstrapVerfahren9 bezeichnet, denn es erinnert an den Traum, sich an der eigenen Stiefelschlaufe10 hochzuziehen. Dieser Traum der Rekonstruktion des Universums aus einem seiner Bestandteile ¨ahnelt dem von Leibniz vorgeschlagenen ¨ komplizierten und m¨ uhsamen Verfahren“ des Ubergangs von einer einzelnen ” Kultur zur universellen Kultur. Das, was sich ge¨ andert hat, ist der kognitive und politische Mechanismus.
9
10
Das Bootstrap-Verfahren dient zur Sch¨ atzung von Kenngr¨ oßen, insbesondere zur nichtparametrischen Sch¨ atzung von Standardfehlern: zun¨ achst werden die n Stichprobenwerte vervielfacht und dann werden hieraus Stichproben gezogen. Das Verfahren setzt einen leistungsf¨ ahigen Computer voraus. Das Wort bootstrap ist die englische Bezeichnung f¨ ur Stiefelschlaufe“; to pull ” oneself up by one’s own bootstraps bedeutet sich aus eigener Kraft hocharbeiten“. ”
8 Klassifizierung und Kodierung
Das Ziel der statistischen Arbeit besteht darin, einen Zusammenhalt zwischen a priori singul¨ aren Dingen herzustellen und dadurch den Objekten eine komplexere und umfassendere Realit¨at und Konsistenz zu verleihen. Diese Ob¨ jekte k¨ onnen – nachdem sie von der grenzenlosen Uberf¨ ulle der wahrnehmbaren Manifestationen der Einzelf¨alle bereinigt worden sind – einen Platz in anderen kognitiven oder politischen Konstrukten finden. Wir machen hier den Versuch, die Schaffung der Formalismen und Institutionen zu verfolgen, die gesellschaftlich und technisch eine massive Verwendung dieser Objekte erm¨ oglicht haben. Zwar waren die mathematischen Werkzeuge und die statistischen Verwaltungen insbesondere in den 1980er Jahren Gegenstand der oben h¨ aufig erw¨ahnten historischen Untersuchungen. Weniger oft wurden je¨ doch die Konventionen untersucht, die mit der Aquivalenzklassenbildung, der Kodierung und der Klassifizierung zusammenh¨ angen – Konventionen, die der statistischen Objektivierung vorausgehen. Die Fragen zur Taxonomie fallen in den Bereich intellektueller und theoretischer Traditionen, die sich wesentlich voneinander unterscheiden und kaum miteinander in Verbindung stehen. Wir erinnern hier an einige dieser Fragen, bevor wir auf signifikante Beispiele f¨ ur historische Arbeiten u ¨ber diese Klassifikationen eingehen, die sich auf nat¨ urliche Arten, Industriezweige, Armut und Arbeitslosigkeit, auf soziale Kategorien und auf Todesursachen beziehen. Nicht nur die Objekte dieser Untersuchungen unterscheiden sich voneinander, sondern auch die Untersuchungsstandpunkte. Die Taxonomie ist in gewisser Weise das unbekannte Gesicht der wissenschaftlichen und der politischen Arbeit. Aber das Studium der Taxonomie l¨ aßt sich nicht darauf reduzieren, verborgene Beziehungen zwischen diesen beiden Aspekten des Wissens und des Handelns aufzudecken, wie es mitunter in der wissenschaftskritischen Soziologie gehandhabt wird, die unmittelbar von einer rein internalistischen Position – ausgedr¨ uckt durch den Wissensfortschritt – auf eine entgegengesetzte externalistische Position umschwenkt, die sich durch Begriffe wie Machtverh¨altnisse und soziale Kontrolle ausdr¨ uckt. Das Problem besteht jedoch darin, im Detail die Beschaffenheit derjenigen Zusammenh¨ange zu untersuchen, die den Objekten und den Per-
264
8 Klassifizierung und Kodierung
sonen Zusammenhalt verleihen. Das schließt in der Tat die Gegens¨ atzlichkeit von Analysen aus, die als technisch oder als sozial bezeichnet werden.
Statistik und Klassifikation Zu den intellektuellen Traditionen, die eine theoretische oder eine empirische Reflexion der Taxonomie einschließen, geh¨oren die Statistik (von der deutschen Schule und Quetelet bis hin zu Benz´ecri), die Wissenschaftsphilosophie (Foucault), die Naturgeschichte, die Linguistik, die Soziologie und die Anthropologie (Durkheim und Mauss), aber auch die kognitive Psychologie (Piaget und Rosch), die Rechtswissenschaften und sogar die Medizin. Dagegen ist die Wirtschaftswissenschaft – zumindest in ihren theoretischen Aspekten – eine Wissenschaft, in der die taxonomische Arbeit als solche kaum ber¨ ucksichtigt worden ist. Allgemeiner gesagt, h¨angt das relative Schweigen gewisser Humanwissenschaften zu Klassifikationsproblemen und erst recht zu Kodierungsproblemen (das heißt zu der Entscheidung, einen Fall einer Klasse zuzuordnen) mit der Teilung in reine Wissenschaften und angewandte Wissenschaften zusammen. Die Taxonomie und vor allem die Kodierung werden in den betreffenden Humanwissenschaften als technische und praktische Probleme wahrgenommen, die h¨ aufig von einem Tag zum anderen durch ausf¨ uhrende Personen und nicht durch Theoretiker gel¨ost werden. Das ist auch der Grund daf¨ ur, ¨ warum die originellsten und fruchtbarsten Uberlegungen zu diesen Fragen auf Gebieten wie zum Beispiel Recht oder Medizin realisiert werden k¨ onnen, das heißt auf Gebieten, in denen die Behandlung von Einzelf¨ allen eine der ¨ Hauptfragen ist. Der Ubergang vom Einzelfall zum Allgemeinen und die Kon¨ struktion von konsistenten Aquivalenzklassen stellen jedoch f¨ ur die meisten Humanwissenschaften ganz wesentliche theoretische und praktische Probleme dar und sind der Ursprung f¨ ur ¨außerst unterschiedliche kognitive und soziale Werkzeuge. Die Statistik ist eines dieser Werkzeuge, aber keineswegs das einzige. Die vorliegende Arbeit m¨ochte dazu beitragen, das historische Gef¨ uge dieser verschiedenen Hilfsmittel zu beleuchten. Von ihren Urspr¨ ungen an stellte sich die deutsche Statistik des 18. Jahrhunderts als umfassende Nomenklatur dar, deren Ziel darin bestand, eine allgemeine Beschreibung des Staates zu geben – eine Beschreibung, die sich in Worten ausdr¨ uckte und nicht in Zahlen (vgl. Kapitel 1). Im 19. Jahrhundert bestanden die Abhandlungen u ¨ber Statistik im Wesentlichen oft noch aus Klassifizierungspl¨anen f¨ ur Informationen, die fortan haupts¨ achlich quantitativer Natur waren und als eine Art Nebenprodukt der Verwaltungspraktiken entstanden (Armatte, 1991, [5]). Aus diesem Grund war die Statistik eine neue Sprache, die dazu beitrug, den Staat zu vereinheitlichen und seine Rolle zu transformieren (Kapitel 5 und 6). Aber gleichzeitig mit der Hygienikerbewegung (in Frankreich) und der Public Health Movement (in England) entwickelte sich eine Moralstatistik“, die von der Tradition der politi” schen Arithmetiker beeinflußt war und sich teilweise von der Staatsstatistik
Statistik und Klassifikation
265
der deutschen Schule unterschied. Die von Quetelet symbolisierte Kombination von Traditionen, die fr¨ uher einander fremd gegen¨ uberstanden, f¨ uhrte zur Bildung einer Gesellschaftslehre“ (das heißt Soziologie“), die sich auf die ” ” Aufzeichnungen der Verwaltungsstatistik st¨ utzte (Personenstand, Todesursachen, Rechtswesen), um die Gesetzm¨aßigkeiten herauszuarbeiten, nach denen Heiraten, Selbstmorde oder Verbrechen stattfanden (vgl. Kapitel 3). Seitdem stand dieser doppelte Aspekt der Statistik – der administrative und der moralische“ Aspekt – am Ursprung der beiden Tendenzen der ” taxonomischen Arbeit der sp¨ateren Statistiker. Einerseits waren diese Statistiker auf Verwaltungsaufzeichnungen angewiesen und arbeiteten sowohl an der Bildung und Definition von Kategorien als auch an der Kodierung von ¨ Einzelf¨ allen – aus einem Blickwinkel, der eine gewisse Ahnlichkeit mit der Arbeit der Rechts- und Verwaltungsfachleute hatte (das Wort Kategorie“ ” leitet sich vom griechischen Begriff kategoria ab, der urspr¨ unglich mit einer 1 ¨ angt). Andein der Offentlichkeit verk¨ undeten Beschuldigung“ zusammenh¨ ” rerseits versuchten die Statistiker jedoch, als Interpreten ihrer eigenen Produkte – ausgehend von immer komplexeren mathematischen Konstruktionen – die Existenz von zugrundeliegenden Kategorien zu schlußfolgern, die sich in statistischen Regelm¨aßigkeiten oder in besonderen Verteilungsformen offenbaren, vor allem in der Fehlerverteilung, in der Binomialverteilung und in der Normalverteilung. Sp¨ater wiesen die Faktorenanalyse der Psychometriker, die eine allgemeine Intelligenz“ herausarbeiteten, und die auf der Grundla” ge von Datenanalysen entwickelten Klassifikationsmethoden (Benz´ecri, 1973, [11]) die gleiche Tendenz auf. Diese beiden Standpunkte in Bezug auf die Untersuchungen zur Taxonomie standen sich teilweise fremd gegen¨ uber. Sie drehten sich gegenseitig den R¨ ucken zu und ignorierten einander oftmals. Die erstgenannte Sichtweise, die eher vom Nominalismus inspiriert war, hielt den Begriff der Kategorie f¨ ur eine Konvention, die sich auf eine durch stabile Routineverfahren vorschriftsm¨ aßig kodifizierte Praxis st¨ utzte – zum Beispiel auf Personenstandserhebungen, auf medizinische Berichte u atigkeit der Polizei und ¨ber Todesursachen, auf die T¨ der Gerichte und sp¨ater auf die Erhebungstechniken mit Hilfe von mehr oder weniger standardisierten Frageb¨ogen. Die zweite, durch und durch realistische Sichtweise ging aus der Gr¨ undungsalchimie“ von Quetelet hervor und trans” formierte mit Hilfe seines Durchschnittsmenschen“ die subjektiven Durch” schnitte in objektive Durchschnitte. Im Gegensatz zur erstgenannten vertritt diese zweite Sichtweise die Meinung, daß sich der Begriff der Kategorie in der statistischen Analyse offenbart. F¨ ur Adolphe Bertillon war die Zweigipfligkeit 1
Auch Vorwurf, Anklage“ und Pr¨ adikat“. Das zugrundeliegende altgriechische ” ” Verb agoreuein“ bedeutet reden, sagen“ und h¨ angt seinerseits mit agora“ ” ” ” (Markt) zusammen; das Verb bedeutet also eigentlich auf dem Markt ¨ offent” lich reden“. In der Zusammensetzung katagoreuein“ steht kat´ a“ f¨ ur gegen“; ” ” ” das Wort bedeutet anzeigen“ ( gegen jemanden reden“). Der allgemeine Ge” ” brauch des Wortes Kategorie“ im Sinne von Klasse, Gattung“ kam erst im 19. ” ” Jahrhundert auf.
266
8 Klassifizierung und Kodierung
der Gr¨ oßenverteilung der Rekruten von Doubs der Beweis daf¨ ur, daß die dortige Bev¨ olkerung zwei verschiedene ethnische Urspr¨ unge hatte. Die Psychometrie und ihre Rotationen der Faktorenachsen ordnen sich in diese Sichtweise ebenso ein, wie die mathematischen Methoden der absteigenden oder aufsteigenden Klassifikation. Es geht mir hier nicht darum, die beiden Standpunkte einander gegen¨ uberzustellen und einen Standpunkt zu Ungunsten des anderen zu denunzieren. Vielmehr versuche ich, beide Standpunkte gemeinsam zu betrachten, ihre Genese und die Entwicklung ihrer relativen Autonomisierung ¨ zu rekonstruieren und dabei die taxonomischen Uberlegungen der Statistiker ¨ mit den Uberlegungen anderer Fachleute zu vergleichen.
Die Taxonomien der Lebewesen Unter dem Titel Les mots et les choses 2 legte Michel Foucault (1966, [94]) eine pers¨ onliche Version der Genese der Taxonomie im klassischen Zeitalter“ ” (17. und 18. Jahrhundert) vor, wobei er die Sprachwissenschaften (allgemeine Grammatik), die Biologie (Naturgeschichte) und den Warenaustausch (Reichtum) untersuchte. Gem¨aß Foucault trifft f¨ ur diese Zeit folgendes zu: Die Wissenschaften tragen in sich jederzeit das Projekt – in welcher Ferne es auch immer liegen mag – die Dinge umfassend zu ordnen: sie weisen auch stets auf die Entdeckung einfacher Elemente und deren fortschreitende Zusammensetzung hin; und in deren Mitte stellen sie ein Tableau3 dar, eine Ausbreitung der Erkenntnisse in einem mit sich selbst zeitgleichen System. Das Zentrum des Wissens im 17. und 18. Jahrhundert, das ist das Tableau. (Foucault, 1966, [94].) Dieses wissenschaftliche Projekt entsprach dem Vorhaben der deutschen Statistik mit ihren ineinandergeschachtelten und koordinierten Nomenklaturen und sp¨ ater dem Vorhaben der Verwaltungsstatistik des 19. Jahrhunderts, wie es namentlich von Moreau de Jonn`es zum Ausdruck gebracht wurde. Foucault spielt in seiner Arch¨aologie der Taxonomie an keiner Stelle auf die Tradition der Statistik an. Dennoch gibt seine Analyse des Gegensatzes zwischen Linn´e, f¨ ur den die ganze Natur Bestandteil einer Taxonomie sein kann“, und ” Buffon, f¨ ur den sie zu verschiedenartig und zu vielf¨ altig ist, um sich an einen ” so starren Rahmen anzupassen“, eine Einf¨ uhrung in die Debatten, die in der gesamten Geschichte der statistischen Klassifizierungen immer wieder auftraten: Die Kodierung als Opferung unwesentlicher Wahrnehmungen, die Wahl ¨ der richtigen Variablen, die Technik der Konstruktion von Aquivalenzklassen, der Realismus der Kategorien und schließlich die Historizit¨ at der Diskontinuit¨ aten. 2 3
¨ In deutscher Ubersetzung 1971 unter dem Titel Die Ordnung der Dinge. Eine Arch¨ aologie der Humanwissenschaften in Frankfurt a.M. erschienen. ¨ Unter Tableau“ ist in diesem Zusammenhang eine zusammenh¨ angende Ubersicht ” zu verstehen.
Die Taxonomien der Lebewesen
267
Der Naturforscher des 18. Jahrhunderts beobachtete Pflanzen und Tiere weit mehr, als man es zuvor getan hatte, aber gleichzeitig schr¨ ankte er seinen ” Erfahrungsbereich freiwillig ein“. Er eliminierte das Geh¨ or, den Geschmack, den Geruch, ja auch die Ber¨ uhrung zugunsten des Sehverm¨ ogens, aus dem er ¨ sogar die Farben ausschloß. Seine Objekte waren als Uberbleibsel dieser Ausschließungen gleichsam filtriert und auf Gr¨oßen, Linien, Formen und relative Positionen reduziert. Folglich opferte man diejenigen Sinne, die nichts mit dem Gesichtssinn zu tun hatten, und auch die Farben wurden geopfert. Als Gegenleistung f¨ ur diesen Verlust ergab sich jedoch die M¨ oglichkeit, die Ordnung der Natur aufzudecken (Linn´e) oder zu konstruieren (Buffon). Beide w¨ ahlten die gleichen vier Variablen, um die Struktur der Arten zu charakterisieren – eine gemeinsame elementare Kodierung, die anschließend auf zwei unterschiedliche Weisen verwendet wurde, um eine Kartographie des Lebens aufzustellen. Zwei dieser Variablen resultierten aus Z¨ahlungen bzw. Messungen: die Anzahlen (der Staubbl¨ atter, der Fruchtknoten usw.) und die Gr¨ oße (der verschiedenen Pflanzenteile). Dagegen m¨ ussen die beiden u ¨brigen Variablen, die sich auf die Form und die relative Anordnung beziehen, mit Hilfe anderer Verfahren beschrieben werden: durch Identifikation mit geometrischen Formen oder durch ¨ etwaige Ahnlichkeiten mit Teilen des menschlichen K¨ orpers. Diese Gesamtheit von Variablen erm¨oglicht die Bezeichnung einer Art, die Zuordnung eines entsprechenden Eigennamens und die Einordnung der Art in den Raum der so konstruierten Variablen. Diese Vorgehensweise unterscheidet den Naturwissenschaftler des 18. Jahrhunderts sowohl von seinem Vorg¨anger im 17. Jahrhundert als auch von seinem Nachfolger im 19. Jahrhundert. Die Identit¨at einer Art wurde vorher durch ein auf seine Weise einmaliges Kennzeichen gew¨ ahrleistet, als ein Wappen, das mit den Wappen aller anderen Arten inkommensurabel war: Der und der Vogel jagt seine Beute in der Nacht, lebt auf dem Wasser und ern¨ ahrt sich von lebendigen Tieren. Jede Art war einzigartig aufgrund der Beschaffenheit der Merkmale, durch die sie sich aus der Masse der anderen Arten heraushob. Dagegen konstruierte der Naturwissenschaftler des 18. Jahrhunderts einen ¨ Aquivalenzund Komparabilit¨atsraum, in dem die Arten entsprechend den Variablen relativ zueinander angeordnet waren. Von nun an konnten die Arten auf der Grundlage der betrachteten Gemeinsamkeiten und Unterschiede zu Familien zusammengefaßt und mit einem Sammelbegriff versehen werden. Die betreffenden Unterschiede wurden auf eher ¨ außerliche Weise (mit Hilfe des Sehverm¨ ogens) und analytisch (durch detaillierte Angabe der Bestandteile) beschrieben. Seit Cuvier behielten die Zoologen des 19. Jahrhunderts diese allgemeine Vergleichsmethode bei, wendeten sie aber fortan in einer synthetischeren Weise auf organische Einheiten mit internen Abh¨ angigkeitssystemen an (Skelett, Atmung, Blutkreislauf). Die analytischen Klassifikationen des 18. Jahrhunderts, die sich vor allem in der Botanik auf Netze von beobachteten Unterschieden st¨ utzten, liegen folglich zwischen dem eindeutigen Erkennungszeichen des 16. Jahrhunderts und den im 19. Jahrhundert entwickelten Theorien der tierischen Organismen (Foucault, 1966, [94]).
268
8 Klassifizierung und Kodierung
Bei den Zusammenfassungen zu Familien von Arten wurden auf der Grundlage von Eigennamen Gattungsbegriffe geschaffen. Die Zusammenfassungen st¨ utzten sich auf Beschreibungen, die mit Hilfe der vier Variablentypen kodifiziert wurden. Aber sogar innerhalb dieses bereits eingeschr¨ ankten Beschreibungsuniversums ließen sich die Techniken zur Konstruktion von Familien – ausgehend vom Netz der Unterschiede – auf gegens¨ atzlichen Prinzipien aufbauen. Dem System von Linn´e stand die Methode von Buffon gegen¨ uber. Jeder Statistiker, der die Konstruktion einer Nomenklatur und deren praktische Anwendung anstrebt, st¨oßt auf einen prinzipiellen Gegensatz, wie er durch die Kontroverse zwischen Linn´e und Buffon symbolisiert wird (auch wenn sich die Modalit¨aten aufgrund der Verf¨ ugbarkeit elaborierter Formalismen ge¨ andert haben). Linn´e w¨ahlte unter den verf¨ ugbaren Eigenschaften gewisse Eigenschaften aus, die Merkmale, und baute seine Klassifikation auf diesen Kriterien auf, wobei er die anderen Eigenschaften ausschloß. Die Relevanz einer solchen a priori willk¨ urlichen Auswahl kann nur a posteriori offensichtlich werden, aber f¨ ur Linn´e stellte diese Auswahl eine Notwendigkeit dar, die sich aus der Tatsache ergab, daß die Gattungen“ (Familien von Arten) ” real waren und die relevanten Merkmale bestimmten. Man muß wissen, daß ” nicht das Merkmal die Gattung bildet, sondern die Gattung das Merkmal, daß das Merkmal aus der Gattung hervorgeht, nicht die Gattung aus dem Merkmal“ (zitiert von Foucault, 1966, [94]). Es gab also gute“, nat¨ urliche ” Kriterien zu entdecken, indem man systematisch Verfahren mit dem gleichen Analyseschema auf den gesamten untersuchten Raum anwendete. Die guten Kriterien waren real, nat¨ urlich und universell. Sie bildeten ein System. F¨ ur Buffon war es dagegen wenig plausibel, daß die relevanten Kriterien immer die gleichen sein sollten. Es war also notwendig, a priori alle verf¨ ugbaren Unterscheidungsmerkmale zu betrachten. Aber es gab sehr viele dieser Merkmale und seine Methode ließ sich nicht sofort auf alle in Betracht gezogenen Arten gleichzeitig anwenden. Die Methode ließ sich nur auf große offensichtliche“ Familien anwenden, die a priori gebildet wurden. Von die” sem Punkt an ging man so vor, daß man eine beliebige Art nahm und sie mit einer anderen verglich. Die ¨ahnlichen und die un¨ ahnlichen Eigenschaften wurden festgestellt und man behielt nur die letzteren bei. Danach verglich man eine dritte Art mit den ersten beiden und so ging es immerfort derart weiter, daß die Unterscheidungsmerkmale einmal und nur einmal erw¨ ahnt wurden. Dadurch wurde es m¨oglich, neue Zusammenfassungen zu bilden und ¨ allm¨ ahlich einen Uberblick u altnisse herauszuar¨ber die Verwandtschaftsverh¨ beiten. Die Betonung dieser Methode lag auf lokalen Logiken, die f¨ ur jeden Bereich des Raumes der Lebewesen typisch waren. Dabei wurde nicht a priori vorausgesetzt, daß eine gleiche kleine Anzahl von Kriterien f¨ ur den gesamten Raum relevant ist. Dar¨ uber hinaus gab es aus dieser Sicht ein kontinuierliches Hin¨ ubergleiten von einer Art zur anderen. Jede Unterbrechung war in gewisser Weise irreal und jegliche Allgemeinheit nominell. F¨ ur Buffon galt also:
Die Taxonomien der Lebewesen
269
Unsere allgemeinen Begriffe, die insgesamt nur aus besonderen Begriffen zusammengesetzt sind, beziehen sich auf eine kontinuierliche Skala von Objekten und von dieser Skala erkennen wir nur die Mitte deutlich, w¨ ahrend die ¨außersten Enden immer weiter zur¨ uckweichen und sich unserer Betrachtung entziehen ... Je mehr man die Anzahl der Einteilungen der Naturgesch¨opfe vergr¨oßert, desto n¨ aher kommt man der Wahrheit, denn in der Natur gibt es in Wirklichkeit nur Individuen und die Gattungen, Ordnungen und Klassen existieren lediglich in unserer Phantasie. (Buffon, zitiert von Foucault, 1966, [94].) Buffon vertrat also einen eher nominalistischen Standpunkt, w¨ ahrend der Standpunkt von Linn´e realistisch war. Dar¨ uber hinaus schlug Buffon vor, die Objekte durch ihre Typizit¨ at zu konstruieren, das heißt durch ihre Gruppierung um eine deutlich wahrnehmbare Mitte“ einer Skala, deren Enden ” ” zur¨ uckweichen und sich unserer Betrachtung entziehen“. Diese Methode stand der Linn´eschen kriteriellen Technik gegen¨ uber, bei der allgemeine Merkmale ber¨ ucksichtigt wurden, deren universelle G¨ ultigkeit man voraussetzte. Diese beiden Klassifizierungsweisen sind sp¨ater von kognitiven Psychologen analysiert worden (Rosch und Lloyd, 1978, [245]) und wurden zum Beispiel dazu verwendet, die Konstruktion und den Gebrauch berufssoziologischer Nomenklaturen zu beschreiben (Boltanski und Th´evenot, 1983, [20]; Desrosi`eres und Th´evenot, 1988, [68]). Adanson, der Buffon nahestand, faßte den Unterschied zwischen der (Buffonschen) Methode und dem (Linn´eschen) System zusammen, indem er den absoluten oder den variablen Charakter der angewendeten Klassifikationsprinzipien hervorhob und betonte, daß die Methode immer bereit sein muß, sich selbst zu korrigieren: Die Methode ist ein beliebiges Arrangement von Dingen oder Tatsa¨ chen, die auf der Grundlage von Entsprechungen oder beliebigen Ahnlichkeiten aneinanderger¨ uckt sind; dabei dr¨ uckt man sich durch einen allgemeinen und auf alle diese Objekte anwendbaren Begriff aus, ohne jedoch diesen fundamentalen Begriff oder dieses Prinzip als absolut, unver¨ anderlich oder so allgemein anzusehen, daß es keine Ausnahme zulassen k¨onnte. Die Methode unterscheidet sich vom System nur durch die Vorstellung, die der Autor mit seinen Prinzipien verbindet: in der Methode betrachtet er diese Prinzipien als variabel und im System als absolut. (Adanson, zitiert von Foucault, 1966, [94].) Die theoretischen Taxonomen“ f¨ uhlen sich spontan von der Vorgehenswei” se Linn´es angezogen und mißtrauten der Buffonschen Methode: Was kann eine Methode schon wert sein, deren Prinzipien in Abh¨ angigkeit von den Schwierigkeiten differieren, auf die man st¨oßt? Und dennoch hat jeder Statistiker – der sich nicht damit begn¨ ugt, ein logisches und koh¨ arentes Schema zu konstruieren, sondern auch versucht, dieses Schema zur Kodierung eines Stapels von Frageb¨ ogen zu verwenden – in vielen F¨allen gesp¨ urt, daß er nur mit Hilfe
270
8 Klassifizierung und Kodierung
von Vergleichen weiterkommt, das heißt durch die N¨ ahe zu bereits behandelten F¨ allen. Dar¨ uber hinaus folgt er bei dieser Vorgehensweise Logiken, die in der Nomenklatur nicht vorgesehenen waren. Diese lokalen Praktiken werden h¨aufig von Angestellten in Arbeitsgruppen angewendet, die f¨ ur die Erfassung und Kodierung zust¨andig sind. Dabei kommt es zu einer Arbeitsteilung, bei der sich die Chefs von den Linn´eschen Prinzipien leiten lassen, w¨ ahrend die Ausf¨ uhrenden – ohne es zu wissen – eher die Methode von Buffon anwenden. Die beiden beschriebenen Vorgehensweisen ermuntern auch dazu, Fragen zur Beschaffenheit und zum Ursprung der Diskontinuit¨ aten bzw. zu den Grenzen zwischen den Klassen zu stellen. Der Standpunkt von Linn´e, der sich auf die Kombination einer kleinen Zahl von Kriterien st¨ utzt, definiert theoretische Orte in einem potentiellen Raum. Diese Orte werden mehr oder weniger besetzt, aber man weiß nicht a priori, warum das geschieht. Die Methode von Buffon f¨ uhrt dagegen zu einem mehrdimensionalen Kontinuum, in dem die Unterbrechungen nominell sind: Die Klassen existieren nur in unserer ” Phantasie ...“ Weder Linn´e noch Buffon konnten so die Existenz von Rosen, Karotten, Hunden oder L¨owen erkl¨aren. Die Diskontinuit¨ aten konnten f¨ ur die Naturforscher des 18. Jahrhunderts nur aus der Historizit¨ at der Natur hervorgehen, aus einer Verkettung von zuf¨ allig eintretenden Ereignissen, Ver¨ anderungen und Unbilden der Witterung – unabh¨ angig von den internen Logiken der lebendigen Welt, die sowohl von Linn´e als auch von Buffon beschrieben wurden. Derartige historische Erkl¨ arungen zuf¨ allig eintretender Ereignisse findet man zum Beispiel erneut nach 1970 in einem von manchen Anthropologen vorgeschlagenen Szenario. Dieses Szenario beschreibt das Auftreten der Diskontinuit¨at zwischen Affe und Mensch (aufrechter Gang) durch ¨ Anderungen der Oberfl¨achengestalt der Erde, des Klimas und der Vegetation in einer ganz bestimmten Region in Ostafrika vor einigen Millionen Jahren. Wir k¨ onnen nun diese Herangehensweise mit derjenigen vergleichen, die das Auftreten von sozialen Gruppen unter besonderen historischen Umst¨ anden beschreibt. In beiden F¨allen findet zwar eine Debatte zwischen Realisten und Nominalisten statt, aber diese Debatte nimmt unterschiedliche Formen an. Eine Analyse des Sachverhaltes f¨ uhrt zu folgendem Ergebnis: neuartig ist die Untersuchung derjenigen Nomenklaturen, die zum Zweck der Konstruktion von Sozialstatistiken und Wirtschaftsstatistiken verwendet wurden – nun ging es nicht mehr nur um die Nutzung von Nomenklaturen zur Klassifikation von Pflanzen- oder Tierarten.
Die Durkheimsche Tradition: sozio-logische Klassifizierungen Die Naturwissenschaftler hatten durch ihre Debatten im 18. Jahrhundert gleichzeitig den Begriff des Systems und des Kriteriums (Linn´e), die Kritik der Systematizit¨at und die Intuition bez¨ uglich unterschiedlicher lokaler Logiken (Buffon) eingebracht. Diese Diskussion verlieh den taxonomischen
Die Durkheimsche Tradition: sozio-logische Klassifizierungen
271
¨ Uberlegungen eine Breite, die durch eine rein logische Spekulation nicht h¨ atte erreicht werden k¨onnen. Die Diskussion entfaltete sich im 19. Jahrhundert durch die Debatten u ¨ber die Entwicklung der Arten, die Debatten u ¨ber Fixismus und Transformismus und durch die Debatten u ¨ber Cuvier, Lamarck und Darwin. Diese Str¨omung gab schließlich dem statistische Denken Nahrung und spiegelte sich in den Bem¨ uhungen Galtons und Pearsons wider, die Darwinschen Analysen der Lebewesen auf die menschliche Spezies zu u ¨bertragen und dadurch biologisch begr¨ undete Klassifikationen mit hereditaristischen und eugenistischen Zielen zu entwickeln. Das war ein Beitrag zur physikalischen Anthropologie, die auf das Studium des menschlichen K¨ orpers und seiner Variationen gerichtet war (vgl. Kapitel 4). Aber die Anthropologie war auch der Ursprung einer ganz anderen Tradition der Analyse und Interpretation von Klassifikationen, die sich auf den sozialen Bereich und auf die entsprechenden Wesensverwandtschaften mit den elementarsten logischen Handlungen beziehen. Die Durkheimsche Soziologie hat mit besonderem Nachdruck auf die engen Verbindungen zwischen den sozialen Gruppen und den logischen Gruppen hingewiesen – ja sie vertrat sogar die Meinung, daß die Struktur der sozialen Gruppen die Mechanismen der logischen Gruppen steuert. Durkheim und Mauss hatten diesen Standpunkt mit Nachdruck in ihrem grundlegenden Text von 1903 vertreten: De quelques formes primitives de classification, contribution a ` l’´etude des repr´esentations ¨ der beiden Autoren unterschieden sich wesentcollectives.4 Die Uberlegungen lich von der Herangehensweise der Naturwissenschaftler. Durkheim und Mauss strebten nicht danach, elementare Beobachtungen der Welt zu ordnen; ihr Ziel bestand vielmehr darin, die von den primitiven Gesellschaften verwendeten Klassifikationen zu beschreiben und zu interpretieren. Diese Ethno-Taxonomie f¨ uhrte dazu, die Klassifikationen von Außen – als bereits konstituierte Objekte – zu betrachten und sie nicht mehr zu konstruieren und zu verwenden, wie es Linn´e und Buffon getan hatten. Die Ethno-Taxonomie lenkte die Aufmerksamkeit auf die Zusammenh¨ange zwischen den indigenen Klassifikationen und den wissenschaftlichen Klassifikationen, indem sie das soziale Fundament der in den primitiven Gesellschaften verwendeten Klassifikationen hervorhob. Nicht nur entspricht die Einteilung der Dinge in Gebiete exakt der Einteilung der Gesellschaft in Klans, sondern beide Einteilungen sind auch unentwirrbar miteinander verschlungen und werden miteinander vermengt ... Die ersten logischen Kategorien waren soziale Kategorien; die ersten Klassen von Dingen waren Klassen von Menschen, in die diese Dinge integriert worden sind. Weil die Menschen in Gruppen auftraten und u ¨ber sich selbst in Form von Gruppen dachten, faßten sie in ihrer Vorstellung auch die anderen Wesen in Gruppen zusammen und die beiden Gruppierungsweisen begannen sich so zu vermischen, 4
¨ ¨ In deutscher Ubersetzung unter dem Titel Uber einige primitive Formen von Klassifikation erschienen. In: Durkheim, E., Schriften zur Soziologie der Erkenntnis. Frankfurt a.M. (1987).
272
8 Klassifizierung und Kodierung
daß sie ununterscheidbar wurden. Die Totemgruppen waren die ersten Gattungen, die Klans die ersten Arten. Man nahm an, daß die Dinge ein integraler Bestandteil der Gesellschaft sind und daß ihr Platz in der Gesellschaft ihren Platz in der Natur bestimmte. (Durkheim und Mauss, 1903, [79].) Diese Hypothese hat den großen Vorteil, die Klassifikationen als Studienobjekte per se ins Auge zu fassen und nicht mehr nur als Schema, als Werkzeug, mit dessen Hilfe man u ¨ber die Welt diskutiert. Aber Durkheim und Mauss benutzten diese Hypothese dazu, Begriff f¨ ur Begriff exakte Entsprechungen f¨ ur die von primitiven Gesellschaften verwendeten sozialen und symbolischen Klassifikationen aufzustellen. Sie benutzten die Hypothese nicht f¨ ur die – haupts¨ achlich statistischen – Werkzeuge zur Beschreibung von urbanen Gesellschaften und Industriegesellschaften. Einen derartigen strukturalistischen Standpunkt nahm die moderne franz¨osische Soziologie ein (Bourdieu, 1979, [25]), die sich auf die statistischen Techniken der Faktorenanalyse von Korrespondenzen st¨ utzte. Diese Techniken erm¨oglichten die Konstruktion und die Darstellung mehrdimensionaler R¨aume durch eine Kombination unterschiedlicher sozialer Praktiken. Die soziale Klasse diente also als Leitfaden und als Invariante bei der Interpretation der Regelm¨aßigkeit der strukturellen Gegens¨ atze, die mit Hilfe dieser Schemata beschrieben wurden – in dem Maße wie die Klassen in einer stabilen Topologie (dem Feld) aufgezeichnet wurden, das exakt auf der Grundlage dieser Gegens¨atze definiert war. Zwar bem¨ uhten sich Durkheim und Mauss intensiv, die Wesensverwandtschaft zwischen sozialen, symbolischen und logischen Klassifikationen nachzuweisen. Jedoch schlossen sie explizit die technologischen Klassifikationen“ ” und die im engeren Sinne praxisbezogenen Unterscheidungen“ aus, denn ih” rer Meinung nach standen die symbolischen Klassifikationen in keinem Zusammenhang zum Handeln. Diese ungl¨ uckliche Kluft zwischen Gesellschaft und Wissenschaft einerseits und Technik andererseits setzte ihrer Analyse Grenzen. Dadurch war es n¨amlich unm¨oglich, die Gesamtheit derjenigen Operationen mit einem Blick zu erfassen, mit denen man Dinge und Personen ordnen und ihnen einen Zusammenhalt f¨ ur die Bereiche des Denkens und des Handelns verleihen konnte, die nur schwer voneinander zu unterscheiden waren: Genau wie die Wissenschaft verfolgen diese Systeme ein g¨ anzlich spekulatives Ziel. Ihr Ziel besteht nicht darin, das Handeln zu erleichtern, sondern vielmehr darin, die zwischen den Wesen existierenden Beziehungen einsichtig zu machen ... Diese Klassifikationen sollen Ideen miteinander verbinden und das Wissen vereinheitlichen; in dieser Hinsicht sind Klassifikationen ein Werk der Wissenschaft und stellen eine erste Naturphilosophie dar (87). Der Australier teilt die Welt weder deswegen unter den Totems seines Stammes auf, um sein Verhalten zu regulieren, noch um seine Br¨auche zu rechtfertigen; vielmehr ist es so, daß der Totem f¨ ur ihn ein Kardinalbegriff ist, weswegen es sich
Die Durkheimsche Tradition: sozio-logische Klassifizierungen
273
als notwendig erweist, alle anderen Kenntnisse unter Bezugnahme auf diesen Begriff einzuordnen. (Anmerkung 87). Dadurch unterscheiden sie sich deutlich von dem, was man als technologische Klassifikationen bezeichnen k¨ onnte. Es ist wahrscheinlich, daß der Mensch zu allen Zeiten mehr oder weniger deutlich die Dinge klassifiziert hat, von denen er sich ern¨ ahrte, und daß er dieser Klassifizierung diejenigen Verfahren zugrunde legte, mit deren Hilfe er sich die betreffenden Dinge beschafft hat: zum Beispiel Tiere, die im Wasser oder in der Luft oder auf dem Lande leben. Aber die so gebildeten Gruppen waren zun¨ achst weder miteinander verbunden noch systematisiert. Es handelte sich um Einteilungen, um Begriffsunterscheidungen, nicht aber um Klassifizierungstabellen. Dar¨ uber hinaus ist es offensichtlich, daß diese Unterscheidungen eng mit der Praxis verkn¨ upft waren, von der sie nur gewisse Aspekte ausdr¨ uckten. Das ist der Grund daf¨ ur, warum wir in dieser Arbeit nicht dar¨ uber gesprochen haben, in der wir vielmehr versuchen, die Urspr¨ unge des logischen Verfahrens zu erhellen, das die Grundlage f¨ ur wissenschaftliche Klassifizierungen ist. (Durkheim und Mauss, 1903, [79].) Da Durkheim und Mauss sorgf¨altig die Sph¨ are, in der die sozialen, symbolischen und kognitiven Aspekte unentwirrbar ineinander verschlungen und ” miteinander vermengt“ sind, von der Welt unterschieden, in der man sein ” Verhalten regelt“ und seine Praktiken rechtfertigt“, vers¨ aumten sie die Ge” legenheit, ihre Theorie auf diejenigen Kategorien anzuwenden, die das Handeln durchdringen. Von diesen Kategorien sind zum Beispiel Taxonomien, die der Verwaltungsarbeit vor allem bei Produktionen statistischer Art zugrundeliegen, nichts anderes als Werkzeuge zur Klassifizierung und Kodierung, die mit Handlungen und Entscheidungsfindungen zusammenh¨ angen und sich nicht von dem sozialen Netz trennen lassen, in das sie eingebunden sind. Als Durkheim (1897, [78]) die Selbstmordstatistiken verwendete, um seine makrosoziologische Theorie aufzustellen, stellte er sich also nicht die Frage nach eventuellen sozialen Schwankungen bez¨ uglich der Selbstmordmeldungen. Das war ein Umstand, der im Hinblick auf die religi¨ ose Stigmatisierung des Selbstmords h¨ atte relevant sein k¨onnen. (Besnard, 1976, [15]; Merlli´e, 1987, [194].) Die beiden erw¨ahnten Teile seines Werks waren disjunkt zueinander. Gleichzeitig – aber gesondert – schuf er eine objektive Soziologie, die sich auf statistische Regelm¨aßigkeiten st¨ utzte, und eine Soziologie der kollekti” ven Darstellungen“, die weder f¨ ur die Erkenntniswerkzeuge galt, noch auf die der statistischen Objektivierung zugrundeliegenden Darstellungen zutraf. Aus dieser Sicht handelte es sich nicht nur um eine Kritik der statistischen Verzerrungen ( Bias“), die aus einer etwaigen partiellen Angabe bez¨ uglich ” der Selbstmorde folgt, sondern allgemeiner um eine Analyse der Konstruktion des Objekts, wie es sich in seiner administrativen Kodierung offenbart. Die von Durkheim und Mauss gezeichnete starre Dichotomie – zwischen den
274
8 Klassifizierung und Kodierung
dem reinen Wissen zugrundeliegenden Schemata einerseits und den pejorativ als nicht systematisiert“ und eng mit der Praxis verbunden“ beschriebenen ” ” Unterscheidungen andererseits – st¨arkt n¨amlich letztlich eine realistische Position, bei der das Objekt unabh¨angig von seiner Konstruktion existiert. Diese Konstruktion wird deshalb zu einer Operation des Messens“ reduziert, die ” der Konzeptualisierungsarbeit untergeordnet ist. ¨ Die theoretische und praktische Uberpr¨ ufung der in den Sozialwissenschaften verwendeten Definitionen, Nomenklaturen und Kodierungen war also fast unvorstellbar. Das lag einerseits an der obengenannten Arbeitsteilung, andererseits aber auch an der Unterscheidung zwischen dem nach Wahrheit strebenden, wissenschaftlichen Wissensideal und dem allt¨ aglichen Handeln, das von Kategorien abh¨angt, die f¨ ur unrein“ und approximativ, wenn nicht gar ” f¨ ur verzerrt gehalten werden. Diese Aufgabenteilung bietet sowohl den Wissenschaftlern als auch den Handlungs- und Entscheidungstr¨ agern Vorteile, und sei es nur deswegen, daß dadurch ein Expertiseraum erschlossen wird, der sich f¨ ur alle Beteiligten als n¨ utzlich erweist. Dieser Raum l¨ aßt sich nur u ¨ber einen Umweg erreichen: Man bettet die Arbeit zur Produktion und Nutzung des sogenannten Verwaltungswissens (durch den Staat, durch die Unternehmen oder durch andere soziale Akteure) in den umfassenderen Raum der Produktion beliebigen Wissens ein. Diese Wissensproduktion wird dann als Formierung und Stabilisierung von Kategorien betrachtet, die hinreichend konsistent sind, um sich transportieren zu lassen oder von Hand zu Hand weitergereicht zu werden. Dar¨ uber hinaus bewahren diese Kategorien in den Augen einer bestimmten Anzahl von Personen ihre Identit¨ at. Die Aufmerksamkeit wird dabei insbesondere auf die soziale Alchimie“ der Qualifikation gelenkt, die ” einen Fall zusammen mit dessen Komplexit¨at und Undurchsichtigkeit auf eine ¨ Aquivalenzklasse abbildet, welche sich ihrerseits durch einen Gattungsbegriff bezeichnen l¨ aßt, der in umfassendere Mechanismen eingebunden werden kann.
Die Zirkularit¨ at von Wissen und Handeln Das Moment der Kodierung, das h¨aufig unauff¨ allig in routinem¨ aßigen statistischen Produktionsketten verborgen ist, l¨aßt sich leichter erkennen, wenn es als Aspekt einer Entscheidung auftritt, die ihrerseits gravierende Konsequenzen hat. Der Kodierungsvorgang zieht dann als Prozeß die Aufmerksamkeit st¨ arker auf sich. Das ist in drei F¨allen bemerkenswert, in denen Statistiken seit langer Zeit produziert und verwendet werden: im Recht, in der Medizin und im Bildungswesen. Der Richter wendet das Gesetz und das Strafgesetzbuch an, aber diese Anwendung ist nur m¨oglich, nachdem eine strafrechtliche Voruntersuchung und ein ¨ offentliches Verfahren stattgefunden haben, in deren Verlauf mit Hilfe verschiedener Argumente u ¨ber die Charakterisierung der begangenen Tat debattiert wird. Das Urteil impliziert eine Interpretation der Vorschriften, die ihrerseits auf dem Gesetz und auf der – bei fr¨ uheren Rechtsangelegenheiten
Die Zirkularit¨ at von Wissen und Handeln
275
akkumulierten – Rechtsprechung fußen (Serverin, 1985, [256]). Die Rechtswissenschaft ist ein altes und unersch¨opfliches Reservoir an Quellen zur Identifizierung, Diskussion und Charakterisierung von Rechtsangelegenheiten und deren Zusammenfassung in Kategorien. Dabei unterliegen diese Kategorien einer allgemeinen Aufbereitung, die ihrerseits wiederum mehr oder weniger einfach definiert ist. Die Gesamtheit dieser Sachverhalte eignet sich gut zur statistischen Aufzeichnung: der seit 1827 in Frankreich bestehende Compte g´en´eral de l’administration de la justice criminelle ist eine der ¨ altesten Verwaltungsstatistiken (Michelle Perrot, 1977, [229]). ¨ Arzte und Mitarbeiter des ¨offentliches Gesundheitswesen charakterisieren Krankheiten und Todesursachen zu klinischen Zwecken (Diagnose) mit dem Ziel der Pr¨ avention (Epidemiologie) oder auch zur Verwaltung von Gesundheitsf¨ ursorgesystemen (Krankenhausbudget) und zur sozialen Sicherung (Leistungserstattungen). Die in den 1830er Jahren beginnende Einf¨ uhrung nu” merischer Methoden“ in der Medizin – sei es aus Anlaß von Epidemien oder zum Studium der Effizienz von Behandlungen – hat zu lebhafte Kontroversen gef¨ uhrt, bei denen es um die Singularit¨at der Patienten und der Krankheiten ¨ sowie um die angewendeten Aquivalenzkonventionen ging (vgl. Kapitel 3). Und schließlich ist die Schule eine Einrichtung, die eine Qualifizierung der Individuen anstrebt, welche diese Einrichtung besuchen. Die Qualifizierung erfolgt mit Hilfe von Pr¨ ufungen, die eine dauerhafte Einteilung der gepr¨ uften Individuen in Kategorien erm¨oglicht, die ihrerseits spezifische Eigenschaften haben und mit anderen stellenrelevanten Kategorien verglichen werden k¨onnen. Die Definitionen der stellenrelevanten Kategorien st¨ utzen sich h¨ aufig auf Schulqualifikationen, Diplome, Studieng¨ange und auf die Studiendauer. In jedem dieser drei F¨alle wird die Taxonomie gleichzeitig mit der Konstruktion und Stabilisierung einer gesellschaftlichen Ordnung, mit der Erzeugung einer gemeinsamen Sprache zur Koordinierung individueller Handlungen und schließlich mit einem spezifischen und u ¨bertragbaren Wissen assoziiert, das diese Sprache in deskriptiven und explikativen (vor allem statistischen) Systemen anwendet. Dabei sind diese Systeme dazu f¨ ahig, Handlungen zu steuern und neu auszul¨osen. Aus dieser Sicht lassen sich die Wechselwirkungen zwischen Wissen und Handeln in zirkul¨arer Form darstellen, bei der man zwei h¨ aufig verwendete (und mitunter diskutierte) Kategorien einbezieht: Da” ten“ und Information“. Die Daten“ erscheinen als Folge einer organisierten ” ” Handlung, das heißt der Wortsinn ist in diesem Zusammenhang doppeldeutig.5 Information“ entsteht im Ergebnis einer Aufbereitung und Strukturie” rung dieser Daten durch Nomenklaturen. Das Wissen“ oder die Kenntnisse“ ” ” sind das Produkt einer vernunftgeleiteten Akkumulation fr¨ uherer Informa¨ tionen. Die Klassifikationskategorien gew¨ahrleisten zun¨ achst die Aquivalenz 5
Das Wort Daten“ leitet sich aus dem lateinischen data“ ab und bedeutet die ” ” ” gegebenen (Werte)“. Es besteht jedoch heute ein weitgehender Konsens, daß Da” ten“ nicht gegeben sind, sondern vielmehr im Ergebnis einer sozialen und materiellen Produktion entstehen, die zudem noch ziemlich aufwendig ist.
276
8 Klassifizierung und Kodierung
¨ von Einzelf¨ allen und die zeitliche Permanenz dieser Aquivalenzen erm¨ oglicht es dann, die betreffende Handlung erneut auszul¨ osen. Auf diese Weise kann sich der Kreis Handlung - Daten - Information - Wissen - Handlung“ nun” mehr wieder schließen – nicht nur logisch, sondern auch historisch, wobei die Nomenklaturen die Funktion haben, das akkumulierte Wissen zu bewahren. Um dieses Schema – vor allem auf die statistischen Produktionen – pr¨ aziser anzuwenden, muß man die Allgemeinheitsgrade und die G¨ ultigkeitsbereiche gewisser Forminvestitionen analysieren, wobei es um Formen des akkumulierten Wissens geht, das durch mehr oder weniger stabile Taxonomien strukturiert ist. Insbesondere unterscheiden sich die direkt von statistischen Einrichtungen registrierten Daten (Umfragen, Z¨ ahlungen) von denjenigen Daten, die offenkundig als Nebenprodukte von Verwaltungst¨ atigkeiten entstehen und andere Ziele als die Produktion von Informationen verfolgen. Diese beiden Datenkategorien werden in Bezug auf epistemische Projekte oft einander gegen¨ ubergestellt, wobei die als Nebenprodukte von Verwaltungst¨ atigkeiten entstehenden Daten einen weniger guten Ruf haben. Dar¨ uber hinaus sind die letztgenannten Daten bei Fehlen der direkt registrierten Daten nur ein Notbehelf, dessen Erstellungskosten viel zu hoch w¨ aren. Aber die vergleichende Geschichte der statistischen Dienststellen zeigt, daß sogar im erstgenannten Fall die Umfragethemen, die gestellten Fragen und die verwendeten Nomenklaturen von denjenigen Formen des ¨offentlichen Handelns bestimmt werden, die in einem gegebenen Land und zu einer gegebenen Zeit vorherrschen. Die dynamischen Zeiten im Leben dieser Dienststellen spielten sich genau dann ab, wenn es ihnen gelang, ihre Untersuchungen eng mit aktuellen Problemen (vgl. Kapitel 5 und 6) zu verbinden. Das war der Fall, wenn die statistischen Dienststellen gleichzeitig die Handlungskategorien und die Mittel zu deren Bewertung produzierten: im England der 1840er Jahre mit Farr und der Public Health Movement, im Preußen der 1860er und 1870er Jahre mit Engel und dem Verein f¨ ur Socialpolitik , in den Vereinigten Staaten der 1930er Jahre mit der Krise und der Arbeitslosigkeit und im Frankreich der 1950er und 1960er Jahre mit der Planifikation und dem Wachstum. Die Interaktionen zwischen Wissen und Handeln sind im Falle der direkt von statistischen Dienststellen durchgef¨ uhrten Untersuchungen umfassender und weniger unmittelbar als in den F¨allen, bei denen die Daten Nebenprodukte der Verwaltungst¨atigkeit sind. Verwaltungsdaten waren u ¨brigens bis in die 1930er Jahre das Hauptmaterial der amtlichen Statistiken, wobei die Volksz¨ ahlungen eine wichtige Ausnahme darstellten – auch wenn es sich bei diesen Z¨ ahlungen urspr¨ unglich um Verwaltungsoperationen zu milit¨ arischen und steuerlichen Zwecken handelte. Aber in jedem Fall hing bei dieser Sprache und diesen Wissens- und Handlungsformen die F¨ ahigkeit, verbindliche ¨ Ubergangspunkte f¨ ur die anderen Akteure zu schaffen, von der M¨ oglichkeit ab, die sukzessiven Bestandteile des obengenannten Kreises mit Nachdruck zu artikulieren. Man erkennt das a contrario bei einem Blick auf die Zeiten, in denen diese Verbindungen verebbten: in Deutschland nach 1880, in Frankreich
Gewerbliche T¨ atigkeiten: instabile Verbindungen
277
zwischen 1920 und 1940, in den Vereinigten Staaten, Großbritannien und in geringerem Maße in Frankreich seit 1980. Im Rahmen der hier skizzierten Sichtweise erw¨ ahnen wir – auf der Grundlage einiger Arbeiten zur Geschichte der Taxonomien und der statistischen Variablen – die Klassifizierungen der gewerblichen Sektoren, die Definition der Arbeitnehmerschaft und der Arbeitslosigkeit, die berufssoziologischen Nomenklaturen und die Nomenklaturen der Krankheiten und Todesursachen. Die Art und Weise, in der die Statistiker Objekte wahrgenommen und identifiziert haben, diese Objekte zwecks Verarbeitung in Kategorien klassifiziert haben, sie in Tabellen gesammelt und weitergereicht haben, aber auch die Mißverst¨ andnisse und Kritiken, denen die Statistiker dabei begegnet sind – all das liefert Informationen u ¨ber gesellschaftliche Umgestaltungen, wobei diese Informationen anders beschaffen sind, als die langen, auf prinzipiell stabilen Verfahren basierenden Zeitreihen in Bezug auf Preise, Produktionsindizes und Außenhandel. Historiker, die diese statistischen Reihen verwenden, bedauern h¨ aufig ¨ die Anderungen im Aufzeichnungs- und Klassifizierungsmodus der Objekte, ¨ da diese Anderungen zu einer Kontinuit¨atsunterbrechung der betreffenden Modi f¨ uhren. Mitunter suchen die Historiker nach Rezepten, um mit Hilfe von Sch¨ atzungen fiktive Reihen zu rekonstruieren, die sich aus konstanten Konstruktions- und Klassifikationsverfahren der Daten ergeben w¨ urden. Dadurch riskieren sie die Anwendung anachronistischer Wahrnehmungsschemata und unterbrechen den f¨ ur ein Land oder eine Zeit spezifischen Kreis aus Wissen und Handeln (dasselbe gilt auch f¨ ur internationale Vergleiche). Wir bieten hier keine Methoden der Reihenfortsetzung an (die nur in der Umgebung einer taxonomischen Diskontinuit¨at denkbar w¨are) – stattdessen werfen wir einen Blick auf einige dieser Diskontinuit¨aten und schlagen hierf¨ ur historische Interpretationen vor.
Gewerbliche T¨ atigkeiten: instabile Verbindungen Der Zusammenhang zwischen den Formen des administrativen oder o ¨konomischen Handelns und dem Wissen u ber diesen Zusammenhang ist wechselsei¨ ” tig“, denn dieses Wissen resultiert aus Eintragungen (in Verzeichnisse, Register, Gesch¨ aftsb¨ ucher, amtliche Marktpreislisten u.a.), die anl¨ aßlich der betreffenden Handlungen vorgenommen wurden, und die Eintragungen sind zur Stabilisierung dieser Handlungen notwendig. Die Existenz von mehr oder we¨ niger robusten und permanenten Aquivalenzklassen h¨ angt mit den spezifischen Randbedingungen der allgemeinen Verarbeitung der singul¨ aren Operationen und mit der Standardisierungsarbeit zusammen, die durch diese Zw¨ ange impliziert wird. In den vorhergehenden Kapiteln hatten wir den Akzent auf die allgemeine Behandlung der T¨atigkeit des Staates und seiner Verwaltung gesetzt, da der historische (und etymologische) Zusammenhang zwischen Staat und Statistik eng war – beginnend mit der Beziehung zwischen Personenstand (obligatorische Registrierung der Geburten, Heiraten und Todesf¨ alle) und der
278
8 Klassifizierung und Kodierung
Berechnung der Bev¨olkerungsbewegung“ im 18. Jahrhundert. Aber andere ” allgemeine Verarbeitungsformen r¨ uhrten von den Ver¨ anderungen der Wirtschaftswelt her und entwickelten sich zun¨achst mit der Ausdehnung der Handelsbeziehungen seit Ende des Mittelalters (Banken, Zahlungsmittel, Preise auf erweiterten M¨arkten) und dann im 19. Jahrhundert mit der industriellen Standardisierung und dem Auftreten von Großunternehmen. Quantitative Wissensbereiche (wie zum Beispiel die Buchf¨ uhrung) gab es also anl¨ aßlich des Warenaustausches bereits – und zwar unabh¨angig vom Staat und noch bevor derartige Wissensbereiche von staatlichen Dienststellen genutzt wurden. Die komplexen Beziehungen zwischen diesen beiden Wissens¨ universen f¨ uhrten gegen 1750 zur Entstehung der politischen Okonomie (JeanClaude Perrot, 1992, [227]), welche die Art und Weise diskutierte, in der ein Staat auf den Bereich der Wirtschaft einwirken konnte, um dadurch gleichzeitig seine eigenen Einnahmen zu erh¨ohen und die Macht des K¨ onigreichs zu st¨ arken. Der Merkantilismus und die Physiokratie waren mehr oder weniger globale Antworten auf diese Fragen. Aus dieser Sicht versuchte der monarchische Staat schon seit Colbert, eine Bestandsaufnahme der Wirtschaftst¨ atigkeit des Landes vorzunehmen. Das leitete – vor allem im Gewerbe – eine lange Reihe von statistischen Untersuchungen ein. Aber die Formen der Produktion und der Wirtschaftst¨atigkeit des Staates entwickelten sich in einem Maße, daß die – seit mehr als drei Jahrhunderten in Abst¨ anden durchgef¨ uhrten – Versuche zur Beschreibung der Gewerbe im Laufe der Zeit vollkommen andere Kategorien verwendeten. Diese Kategorien wurden von Guibert, Laganier und Volle (1971, [114]) vorgestellt; die Autoren geh¨ orten zu den Ersten, die daran gedacht hatten, Nomenklatur¨anderungen als an sich signifikante Objekte zu betrachten und nicht nur als mißliche Ereignisse anzusehen, die ein Hindernis bei der Konstruktion langer statistischer Reihen darstellen – Reihen, die dar¨ uber hinaus noch durch verschiedene Wirtschaftsmodelle miteinander verkn¨ upft sind. Der Bereich der Produktionst¨atigkeiten erwies sich f¨ ur eine solche Art von nachdenklichem Ausflug als g¨ unstiger im Vergleich zu Untersuchungen u ¨ber die Bev¨ olkerung. Denn die Verwaltungsmaßnahmen zur Registratur von Geburten, Heiraten und Sterbef¨allen, aber auch Rekrutenaushebungen in gut erkundeten Gebieten waren hinreichend stabile Vorg¨ ange, die zu einfachen und robusten Taxonomien f¨ uhrten (Alter, Geschlecht, famili¨ are Rechtsstellung, Kirchengemeinde, Departement). Dagegen waren die Bereiche der Produktion und des Handelsverkehrs nicht in derartigen staatlichen Registrierungen erfaßt und die Beziehungen dieser Bereiche zum Staat wurden in st¨ andig wiederkehrenden Kontroversen diskutiert. Aus diesem Grund befanden sich die staatlichen Aktionsformen und die Formen der staatlichen Kontrolle in st¨ andiger Entwicklung und waren auf unterschiedliche Aspekte dieser T¨ atigkeit in den verschiedensten kognitiven Registern ausgerichtet. Die Kriterien f¨ ur die Einteilung der Gewerbe ¨anderten sich mehrmals und trotz einer scheinbaren Stabilit¨ at kam es sogar bei den verwendeten W¨ ortern zu tiefgreifenden ¨ inhaltlichen Anderungen.
Gewerbliche T¨ atigkeiten: instabile Verbindungen
279
Am Ende des 18. Jahrhunderts, kurz vor der Revolution, versuchten die Physiokraten mit ihrem politischen und intellektuellen Projekt eine neue Auffassung der Beziehungen zwischen dem Staat und den sich frei entfaltenden Wirtschaftst¨ atigkeiten zu f¨ordern, bei denen die Natur – die Quelle allen Reichtums – gewinnbringend genutzt wird. Aber die Freiheit des Handels, die f¨ ur den allgemeinen Wohlstand und die Steuereinnahmen vorteilhaft war, schloß nicht aus, daß der Staat u ¨ber diese T¨atigkeiten Bescheid wissen wollte. Bereits Colbert hatte 1669 angeordnet die Situation der Fabriken des K¨ onig” reichs zahlenm¨ aßig zu ermitteln“ – es handelte sich damals im Wesentlichen um Textilfabriken. Im Jahre 1788 stellte Tolosan, der Generalintendant f¨ ur Handel, eine Tabelle der wichtigsten Gewerbe Frankreichs auf und f¨ ugte der ” Tabelle eine Sch¨atzung der von jedem dieser Gewerbe hergestellten Produkte an“ (SGF, 1847, [258]). Die von Tolosan vorgeschlagene Nomenklatur lieferte bis 1847 den Rahmen f¨ ur Gewerbestatistiken. Die Hauptteile bezogen sich auf den Ursprung der verwendeten Rohstoffe: anorganische Produkte, pflanzliche Produkte und tierische Produkte. Das f¨ uhrte dazu, die Textilien in zwei verschiedene Teile zu unterteilen: Baumwolle, Leinen und Hanf als pflanzliche Produkte, Wolle und Seide als tierische Produkte. Unter den tierischen Produkten waren Webteppiche“ und Mobiliar“ aufgef¨ uhrt. Hierbei bezeichnete ” ” der Begriff Mobiliar“ keine M¨obel (aus Holz), sondern im Wesentlichen Tep” piche (aus Wolle), was deren Einordnung in der Rubrik tierische Produkte“ ” rechtfertigte. Diese Nomenklatur, die aus den ¨ okonomischen Beschreibungen der Physiokraten hervorgegangen war, inspirierte noch die von Chaptal im Jahre 1812 ver¨ offentlichte Gewerbesch¨atzung. Im 19. Jahrhundert wurden Erhebungen zur Industrie noch nicht regelm¨ aßig durchgef¨ uhrt, obwohl es 1841 und 1861 Z¨ ahlungsversuche gegeben hat. Sp¨ ater, von 1896 bis 1936, wurden die im Abstand von f¨ unf Jahren durchgef¨ uhrten Volksz¨ahlungen dazu verwendet, auf indirektem Wege Informationen u ¨ber die Gesch¨aftst¨atigkeiten einzuholen. In den 1830er und 1840er Jah¨ ren kam es zu einer schnellen Anderung der industriellen Techniken und neue Maschinen wurden eingesetzt. Das Problem bestand damals darin, neue Objekte zu identifizieren, die weder definiert noch erfaßt waren. Diese Entit¨ aten gingen aus der alten Welt der K¨ unste und Gewerbe“ (das heißt des Hand” werks) hervor und f¨ uhrten zu den Manufakturen“. Die Enquete von 1841 ” zielte also weniger darauf ab, die noch nicht sehr zahlreichen gewerblichen Betriebe zu z¨ ahlen, sondern vielmehr darauf, sie u ¨berhaupt erst einmal ausfindig zu machen und zu beschreiben. Das Aufstellen von Statistiken begann mit der Anfertigung einer Liste (eines Status 6 ), einer Kartei, eines Verzeichnisses, das heißt mit der Erstellung materieller Formen der logischen Kategorie ¨ der Aquivalenzklasse“: ” 6
Hier spielt der Verfasser auf die Mehrdeutigkeit des franz¨ osischen Wortes ´etat“ ” an, das u.a. Zustand“ (Status) und Staat“ bedeutet und in diesem Sinne eine ” ” Zustandsbeschreibung des Staates durch seine Statistik widerspiegelt.
280
8 Klassifizierung und Kodierung
Man muß die allgemeine Tabelle der Gewerbesteuerpflichtigen eines jeden Departements einer aufmerksamen Pr¨ ufung unterziehen und daraus eine Liste der Fabrikanten, Unternehmer und Hersteller extrahieren, deren Betriebe aus der Klasse der Handwerker hervorgehen und die aufgrund ihrer Beschaffenheit, ihrer Gr¨ oße oder wegen des Wertes ihrer Produkte zum verarbeitenden Gewerbe geh¨ oren ... In jedem Arrondissement ist auf der Grundlage der in den Unterlagen bereitgestellten Begriffe eine detaillierte Enquete durchzuf¨ uhren, deren Ziel es ist, zahlenm¨aßig die j¨ahrliche gewerbliche Produktion aller Fabriken, Manufakturen oder Betriebe zu ermitteln. Zu ber¨ ucksichtigen sind jedoch nur Betriebe, die mindestens zehn Arbeiter besch¨ aftigen; auszuschließen sind alle Betriebe mit einer geringeren Zahl von Besch¨ aftigten, wie es im Allgemeinen im Handwerk der Fall ist, das an sp¨ aterer Stelle untersucht wird. Man muß die statistischen Daten der gewerblichen Betriebe sammeln, entweder durch Befragung der Eigent¨ umer oder Direktoren oder – falls von denen keine Ausk¨ unfte eingeholt werden k¨onnen – durch von Amts wegen erfolgende Sch¨ atzungen entsprechend dem ¨offentlichen Bekanntheitsgrad der betreffenden Betriebe oder durch beliebige andere Untersuchungsmittel. Zu diesem Zweck sind alle informierten M¨anner zu befragen, welche die notwendigen Ausk¨ unfte erteilen oder best¨atigen, u ufen und berichtigen ¨berpr¨ k¨ onnen (SGF, (1847, [258]), zitiert von Guibert, Laganier, Volle, 1971, [114]). Die Industrie rebellierte in ihrer Innovationsphase gegen die Statistik, denn per definitionem unterscheidet, differenziert und kombiniert eine Innovation die Ressourcen auf unerwartete Weise. Der Statistiker wußte nicht, wie er mit diesen Anomalien“ umgehen sollte, die sich den in der Landwirtschafts” statistik bereits gesammelten Erfahrungen entzogen, bei der die Produkte ” m¨ uhelos auf entsprechende Ausdr¨ ucke bezogen werden k¨ onnen“: Man verwendet in gewissen Fabriken nur eine Sorte Rohstoff, aus dem man zehn unterschiedliche maschinell verarbeitete Produkte gewinnt, w¨ ahrend andere Fabriken im Gegensatz hierzu ein einziges maschinell verarbeitetes Produkt aus zehn Rohstoffen oder unterschiedlich bearbeiteten Materialien erzeugen. Diese Anomalien f¨ uhren zu großen Schwierigkeiten bei der Aufstellung statistischer Tabellen, die im Wesentlichen auf der Analogie von Typen, auf der Symmetrie von Zifferngruppierungen und auf der Gleichartigkeit ihrer Intervalle beruhen und sich nicht f¨ ur diese riesigen Disproportionen eignen. Nichts dergleichen fand sich in der Landwirtschaftsstatistik, da sich die Bodenprodukte m¨ uhelos zu entsprechenden Ausdr¨ ucken in Beziehung setzen lassen; der obengenannte Nachteil trat auch nicht bei den fr¨ uheren Versuchen zur Aufstellung von Gewerbestatistiken auf, da man man sich st¨ andig von Hindernissen ferngehalten hatte und an der Oberfl¨ ache der Dinge geblieben war. (SGF, 1847, [258]).
Gewerbliche T¨ atigkeiten: instabile Verbindungen
281
Anstelle von Statistiken pr¨asentierte die Enquete von 1841 eine Reihe von Monographien u ¨ber Betriebe, wobei die Betonung vor allem auf den Techniken und den Maschinen lag. F¨ ur Historiker der Makro¨ okonomie ist diese Erhebung frustrierend; dagegen erweist sie sich f¨ ur Wissenschafts- und Technikhistoriker als wertvoll, da man darin den Zusammenhang zwischen wissenschaftlichen Entdeckungen und ihren industriellen Umsetzungen erkennen kann. Diese Statistik“, die in gewisser Weise noch der des 18. Jahrhunderts ” nahestand, war mehr an Leistungen als an Durchschnitten und Aggregaten interessiert. Sie behielt den von Tolosan vorgegebenen allgemeinen Rahmen bei und hob die großen Kategorien nicht hervor. Die Bergbaustatistik, f¨ ur die 1848 Le Play – der Begr¨ under der Monographien u ¨ber Arbeiterhaushalte (vgl. Kapitel 7) – verantwortlich zeichnete, war ebenfalls u ¨berwiegend von dieser ins Einzelne gehenden deskriptiven Auffassung inspiriert, und nicht von nationalen Totalisierungen. Im Jahre 1861 teilte eine neuen Gewerbe-Enquete die T¨ atigkeiten nicht mehr entsprechend den Urspr¨ ungen der Produkte ein, sondern gem¨ aß ihren Bestimmungen. Die Industrialisierung war nun so richtig in Fahrt gekommen und es fand ein starker Wettbewerb mit den europ¨ aischen L¨ andern statt, vor allem mit England. Die Betriebsinhaber hatten sich auf der Grundlage der Produktfamilien in Fachverb¨anden organisiert, um ihre Positionen zu verteidigen; sie verhielten sich protektionistisch, wenn es um den Verkauf konkurrierender Produkte ging, aber sie waren Anh¨anger des Freihandels, wenn sie sich in dominierender Position befanden oder ihre Rohstoffe einkauften. Der franz¨ osisch-englische Handelsvertrag von 1860 er¨ offnete eine Zeit des Freihandels und die Debatten strukturierten sich von nun an um die Einteilung der Berufsgruppen auf der Grundlage von Produktzweigen (ein Unternehmen konnte mehreren Verb¨anden beitreten, wenn es mehrere Produkte herstellte). Dieses System von Branchenverb¨anden blieb bestehen – es war in der Zeit der Knappheit der 1940er Jahre sogar noch st¨arker geworden und existiert bis heute. Die Wirtschaftst¨atigkeit wurde auf der Grundlage der entsprechenden Produkte identifiziert. Mit Beginn der 1870er Jahre ¨anderte sich die Struktur erneut. Die Wirtschaftspolitik der Dritten Republik kehrte zum Protektionismus zur¨ uck und die Verwaltung f¨ uhlte sich gegen¨ uber den Unternehmen nicht mehr hinreichend sicher, um direkte Enqueten zu deren T¨ atigkeiten durchzuf¨ uhren. Die Informationen u ¨ber die Industrie und die anderen Wirtschaftssektoren nahmen – aufgrund der im Jahre 1891 durchgef¨ uhrten Eingliederung der Statistique g´en´erale de la France (SGF) in das neue Arbeitsamt (Office du travail , vgl. Kapitel 5) – einen Umweg. Die Betonung lag von nun an auf der Besch¨ aftigung, der Arbeitslosigkeit und den Berufen, mit deren Untersuchung dieses Amt beauftragt war. Die Volksz¨ahlung von 1896 enthielt Fragen zur Wirtschaftst¨ atigkeit und zur Anschrift des Betriebes, in dem die befragte Person arbeitete, sowie Fragen zu deren Beruf. Die Aufbereitung dieser etwa zwanzig Millionen individuellen Berichte u atige Personen war – dank ¨ber erwerbst¨ der neuen Lochkartenmaschinen von Hollerith – in Paris zentralisiert. Das
282
8 Klassifizierung und Kodierung
erm¨ oglichte die Aufstellung einer Statistik der Industrie- und Handelsbetriebe, wobei die erwerbst¨atige Bev¨olkerung gem¨aß T¨ atigkeit und Gr¨ oße des Betriebes sowie nach Geschlecht und Besch¨aftigungstyp der befragten Personen aufgeschl¨ usselt wurde. Aber die Neugliederung der T¨ atigkeiten warf auch ein neues Problem auf, da sich die Informationen nicht mehr auf die Produkte, ihren Ursprung oder ihre Bestimmung bezogen, sondern auf die Berufe der besch¨ aftigten Personen. Dieser Umstand legte eine Neugliederung der T¨ atigkeiten und der Betriebe nahe: ... um so wenig wie nur m¨oglich diejenigen Berufe zu trennen, die in der Praxis am h¨aufigsten zusammengefaßt oder nebeneinander gesetzt werden ... Benachbarte Industriezweige verwenden ¨ ahnliche industri¨ elle Verfahren und diese Ahnlichkeit bestimmt im Allgemeinen die Verbindung mehrerer Individuen im gleichen Betrieb oder im gleichen gewerblichen Zentrum (SGF, (1896, [260]), zitiert von Guibert, Laganier, Volle, 1971, [114]). Das Kriterium der Neugliederung war also jetzt die Produktionstechnik, die ¨ sich in einer gewissen Kombination von Gewerben und in einer Ahnlichkeit ” der Verfahren“ ausdr¨ uckte. Die Verwendung des franz¨ osischen Wortes pro” atigkeit und zur Bezeichnung fession“ 7 zur Bezeichnung einer individuellen T¨ einer Gruppe von Betrieben, die eine Familie von Techniken und Kenntnissen anwenden, ist bedeutsam f¨ ur eine der Tendenzen in der Taxonomie der gewerblichen T¨ atigkeiten. Diese Taxonomie blieb in einer bemerkenswert stabilen Reihe von Volksz¨ahlungen in der Zeit von 1896 bis 1936 vorherrschend, in denen die Betriebsstatistik ausgewiesen wurde. Nach 1940 traten erneut die Produktkriterien und sogar die Rohstoffkriterien auf, und zwar gleichzeitig mit Branchen-Enqueten“, die von den Berufsverb¨ anden durchgef¨ uhrt ” wurden. Die sp¨ ateren Nomenklaturen kombinierten diese unterschiedlichen Ans¨ atze und st¨ utzten sich vor allem auf ein Assoziationskriterium“, das dar” auf abzielte, diejenigen T¨atigkeiten in einem Aggregat zusammenzufassen, die h¨ aufig innerhalb ein und desselben Unternehmens zueinander in Verbindung gebracht wurden. Die Anwendung dieses empirischen Kriteriums f¨ uhrte zu Neugliederungen in Bezug auf das fragliche Produkt oder die betreffende Technik – je nachdem, ob die Identit¨at des Unternehmens durch den Markt eines aus unterschiedlichen Techniken resultierenden Endprodukts definiert war, oder ob die Unternehmensidentit¨at durch spezifische industrielle Ausr¨ ustungen und Know-hows definiert war, die zu unterschiedlichen Produkten f¨ uhrten (Volle, 1982, [284]).
7
Das Wort wird u.a. in folgenden Bedeutungen verwendet: Beruf, Berufst¨ atigkeit, Erwerbst¨ atigkeit, Berufsstand, Berufsgruppe, Berufszweig.
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen
283
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen Die in den 1890er Jahren erfolgende Verschiebung des Kriteriums zur T¨ atigkeitsklassifizierung – von einer marktorientierten Logik zu einer Wirtschafts¨ und Berufslogik – l¨aßt sich mit der Anderung der Art und Weise in Zusammenhang bringen, in der das Gesetz und der Staat das Wirtschaftsleben kodifizierten. Um diese Zeit fing man n¨amlich damit an, die Beziehungen zwischen Betriebsinhabern und Lohnempf¨angern durch ein spezifisches Arbeitsrecht zu regeln und nicht mehr nur durch das B¨ urgerliche Gesetzbuch, welches den Arbeitsvertrag als einen Dienstvertrag“ behandelte, das heißt als einen Tausch” vertrag zwischen zwei Individuen. Fr¨ uher bezogen sich die Eingriffe des Staates in das Gesch¨ aftsleben vor allem auf die Zolltarife. Die Kontroversen zwischen den Anh¨ angern des Freihandels und den Protektionisten beeinflußten zum großen Teil die statistische Aufbereitung der Wirtschaftst¨ atigkeit. Von jetzt an waren es jedoch die Probleme der Arbeit und der Arbeitnehmerschaft, die als treibende Kraft der neuartigen, statistisch orientierten Einrichtungen zum Tragen kamen. In der Mehrzahl der Industriel¨ ander wurden zu diesem Zeitpunkt Arbeits¨ amter“ gegr¨ undet, deren Funktion darin bestand, sowohl die ” neuen Gesetze vorzubereiten als auch die Sprache und die statistischen Werkzeuge zu schaffen, die u ¨ber diese gesetzgeberische und administrative Praxis informiert (vgl. Kapitel 5 und 6). Zum Beispiel war das die Entsch¨ adigung bei Arbeitsunf¨ allen regelnde Gesetz, das sich auf den Begriff eines statistisch ermittelten Berufsrisikos st¨ utzte, einer der ersten Texte, in denen ein Betrieb explizit als kollektive Person definiert wird, die von der individuellen Person des Betriebsinhabers verschieden ist (Ewald, 1986, [87]). Einer der hervorstechendsten Aspekte dieser Entwicklung war die soziale, institutionelle und schließlich statistische Konstruktion eines neuen Objekts, das allm¨ ahlich den Begriff der Armut ersetzen sollte: die Arbeitslosigkeit. Diese war ohne den Status des Lohnempf¨angers unvorstellbar, der den Arbeiter mit dem Betrieb verband und ihn diesem unterordnete. Die Geschichte der in Großbritannien im 19. und 20. Jahrhundert entwickelten und verwendeten sozialen Klassifikationen unterscheidet sich grundlegend von der Geschichte der entsprechenden Klassifikationen in Frankreich. Beide trafen sich jedoch in den 1890er Jahren an einem Punkt, an dem man u ¨ber neue soziale Beziehungen und u ¨ber eine neue Sprache zur Behandlung der einschl¨ agigen Probleme diskutierte – eine Sprache, zu der auch der Begriff der Arbeitslosigkeit geh¨orte. Die historischen Abfolgen unterschieden sich voneinander. In Großbritannien setzte die Industrialisierung bereits im 18. Jahrhundert ein. Die Menschen verließen das Land und im gesamten 19. Jahrhundert wuchsen die St¨ adte rasch und unter dramatischen Bedingungen. Der soziale Graben zwischen den Klassen wurde mit Hilfe der Begriffe der Armut, der Armutsursachen und der Mittel wahrgenommen und analysiert, durch die sich die Auswirkungen der Armut abmildern ließen. Die Wirtschaftskrise von 1875 hatte verheerende Auswirkungen. Es kam sogar in den b¨ urgerlichen Kreisen
284
8 Klassifizierung und Kodierung
inmitten von London zu Unruhen. Die typisch britischen Debatten zum Sozialreformismus und zur Eugenik lassen sich nur in diesem Kontext verstehen. In Frankreich dagegen verliefen die Industrialisierung und Verst¨ adterung viel langsamer. Das alte berufliche und soziale Gef¨ uge, das sich h¨ aufig rund um den beruflichen Gemeinschaftsgeist organisierte, hat den sozialen Taxonomien auch weiterhin lange Zeit hindurch seinen Stempel aufgedr¨ uckt. Die neuen, in den Jahren 1890 erarbeiteten Gesetzgebungen resultierten eher aus dem politischen Kompromiß, den die Dritte Republik nach der Pariser Kommune geschlossen hatte, und waren weniger auf unmittelbare Ersch¨ utterungen zur¨ uckzuf¨ uhren, wie es in Großbritannien der Fall war. Aber trotz dieser Nuancen des historischen Kontextes zwischen den beiden L¨ andern kristallisierte sich zur gleichen Zeit der Begriff der Arbeitslosigkeit heraus, der fortan als Verlust einer lohnabh¨angigen Besch¨aftigung definiert wurde, die von spezialisierten Einrichtungen u adigt werden konn¨bernommen und als Risiko entsch¨ te.8 Vor diesem wichtigen Wendepunkt war der Armutsbegriff in Großbritannien Gegenstand von Debatten, die aus der Sicht der Konstruktion statistischer Werkzeuge signifikant waren. Zwei Arten der Konstruktion des Begriffes der Armut und ihrer Ermittlung wurden damals miteinander verglichen: die eine (von Yule 1895 benutzte) Konstruktion ging von den Aktivit¨ aten der seit 1835 bestehenden F¨ ursorgeeinrichtungen aus, die andere dagegen von speziellen Erhebungen, deren ber¨ uhmteste die von Booth durchgef¨ uhrten Untersuchungen waren. In jedem dieser F¨alle trat der aus Beschreibung und Handlung gebildete Kreis auf, wenn auch in unterschiedlicher Art und Weise. Im erstgenannten Fall war er fast unsichtbar in die fr¨ uheren, bereits geschaffenen Kategorien der Institutionen eingegliedert. Im zweiten Fall dagegen strukturierte dieser Kreis eine komplexe taxonomische Konstruktion, die im Entstehen begriffen war und darauf abzielte, Maßnahmen zur Beseitigung der fatalen Folgen der Armut vorzuschlagen. Das Armengesetz von 1835 war der Ursprung eines doppelten F¨ ursorgesystems. Einerseits verband das Arbeitshaus (workhouse) die anstaltsinterne Unterst¨ utzung (indoor relief ), die gesunden M¨ annern gew¨ ahrt wurde, mit obligatorischer Arbeit und mit besonders abschreckenden Lebensbedingungen (Prinzip der geringsten Qualifikation“). Andererseits wurden auch F¨ ursorge” unterst¨ utzungen außerhalb der Arbeitsh¨auser gew¨ ahrt (daher der Name outdoor relief ). Diese Unterst¨ utzungen gingen an Frauen, Alte oder Kranke. Die Kosten und die Effizienz dieser Systeme wurden jahrzehntelang diskutiert. Yule griff 1895 in die Debatte ein, bei der er eine Gelegenheit sah, die neuen statistischen Werkzeuge von Karl Pearson vom Gebiet der Biometrie auf den Bereich der sozialen und wirtschaftlichen Probleme zu u utz¨bertragen. Yule st¨ te sich auf Korrelations- und Regressionsrechnungen mit Hilfe der Methode der kleinsten Quadrate und versuchte zu beweisen, daß eine Erh¨ ohung der 8
In Bezug auf Frankreich verweisen wir insbesondere auf Salais, Baverez, Reynaud, 1986, [247]; in Bezug auf Großbritannien vgl. Mansfield, 1988, [187].
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen
285
F¨ ursorgeunterst¨ utzung zu keiner Verringerung der Armut f¨ uhren w¨ urde (vgl. Kapitel 4). Aber die Daten, die zur Ermittlung der Gesamtarmut und zur Sch¨ atzung der – im Prinzip zur Senkung der Armut – eingesetzten Mittel verwendet wurden, kamen alle von den Leitungen der ¨ ortlichen B¨ uros der F¨ ursorgeverb¨ ande (poor law unions), welche die Unterst¨ utzung verwalteten. Diese Zirkularit¨ at schien weder Yule noch diejenigen beunruhigt zu haben, denen er seine Studie vorlegte. In diesem Fall war die Identifikation der Armut mit der Inanspruchnahme verschiedener Bereiche der ¨ offentlichen Unterst¨ utzung hinreichend gesichert, um das Objekt mit der Handlung gleichzusetzen, die es bek¨ ampfen sollte. Diese Gleichsetzung ist nichts außergew¨ ohnliches: man kann sie bei Krankheiten feststellen (Arztberuf und Krankenhaus), bei Kriminalit¨ at (Polizei und Justiz) oder in j¨ ungerer Vergangenheit bei der Arbeitslosigkeit (Arbeits¨ amter). Der bereits geschlossene Kreis war nicht mehr erkennbar. Die in den Jahren nach 1880 begonnenen Untersuchungen von Booth spielten eine andere Rolle (Booth, 1889, [22]). Sie trugen zur Kritik der vorgefertigten Taxonomien bei, gerade weil die alten Handlungsformen nicht mehr angemessen waren. Die Untersuchungen von Booth lenkten die Aufmerksamkeit auf die Merkmale der Familieneinkommen (H¨ ohe und vor allem Regelm¨ aßigkeit) und erweiterten dadurch den Bereich derjenigen Objekte betr¨ achtlich, die bei der Identifikation verschiedener Armutsformen ber¨ ucksichtigt werden konnten. Diese unterschiedlichen Formen hingen – entsprechend der komplexen sozio-¨ okonomischen Argumentation – von den verschiedenen Verarbeitungsformen ab, weil dabei individuelle und moralische Bezugspunkte mit anderen Bezugspunkten vermengt wurden, die mehr auf der makrosozialen Ebene lagen (Hennock, 1976 ([127]) und 1987 ([128]); Topalov, 1991, [278]). Die vorgeschlagene Nomenklatur war detailliert (acht hierarchisch gegliederte Kategorien, die mit den Buchstaben A bis H bezeichnet wurden und praktisch den gesamten st¨ adtischen sozialen Raum abdeckten), denn sie zielte darauf ab, ¨ die h¨ aufig vermutete Aquivalenz dreier unterschiedlicher Gesamtheiten zu beseitigen: hierbei handelte es sich um die Kategorie der gef¨ ahrlichen Personen, die Kategorie der Armen und die Kategorie der Arbeiter im Allgemeinen. Die Hierarchie war nicht nur durch die Einkommensh¨ ohe festgelegt, sondern auch ¨ durch die Regelm¨aßigkeit des Einkommens. Dadurch wurde der Ubergang vom alten Armutsbegriff zum k¨ unftigen Begriff der Arbeitslosigkeit vorbereitet, das heißt des zeitweiligen Verlustes einer Besch¨ aftigung im Lohnverh¨ altnis, die ein regelm¨ aßiges Einkommen sichert. Die Zuordnung der befragten Familien zu diesen Kategorien (die Kodierung) erfolgte durch Schulinspektoren“, ” das heißt durch Sozialf¨ ursorger, die von der Stadt London besoldet wurden, um den Schulbesuch der Kinder zu kontrollieren. Die Inspektoren ber¨ ucksichtigten eine Gesamtheit von Merkmalen, die sie in den Wohnungen beobachtet hatten. Auf diese Weise wurde die prozentuale Aufteilung der Bev¨ olkerung auf acht Kategorien ermittelt, zun¨achst f¨ ur das East End von London, das als ur die ganze Stadt (wobei die Nomenklatur ¨armster Stadtteil galt, und dann f¨ im letzteren Fall weniger detailliert war).
286
8 Klassifizierung und Kodierung
Die Kategorie A war die unterste: sie bestand aus einer kleinen Minderheit von vollst¨ andig stigmatisierten Personen, deren Einkommensquellen unbekannt oder unredlich waren – Nichtstuer, Verbrecher, Barbaren und Alkoholiker. Diese Personen schufen keinerlei Wohlstand und waren der Ausl¨ oser f¨ ur den schlimmsten Unfrieden. Gl¨ ucklicherweise waren diese Personen nicht sehr zahlreich: 1,2% im Stadtteil East End und 0,9% in der ganzen Stadt. Aber in der N¨ ahe der zuerst genannten Kategorie und deutlich zahlreicher waren die Personen der Kategorie B, in der sehr arme Familien mit gelegentlichem Einkommen zusammengefaßt wurden, die sich im Zustand chronischer Not befanden. Sie bildeten 11,2% der Bev¨olkerung von East End und 7,5% der Bev¨ olkerung von London. Die Gesamtheit A ∪ B der sehr Armen“ warf ” die gr¨ oßten Probleme auf9 : diese Personen schienen kaum dazu in der Lage zu sein, Nutzen aus der ¨ortlich gew¨ahrten ¨offentlichen Unterst¨ utzung zu ziehen. Anders verhielt es sich jedoch mit der Gruppe der Armen“, die ihrer” seits in Abh¨ angigkeit von der Regelm¨aßigkeit der betreffenden Einkommen in die beiden Untergruppen C und D unterteilt war. Die Personen der Gruppe C verf¨ ugten nur u unfte; sie waren eher Opfer des ¨ber unregelm¨aßige Eink¨ Konkurrenzkampfes und erwiesen sich als anf¨ allig gegen¨ uber dem Auf und Ab der saisonbedingten Arbeitslosigkeit. Sie w¨ urden ja regelm¨ aßig arbeiten, wenn sie es k¨ onnten, und an sie mußte sich die Unterst¨ utzung richten, denn es handelte sich um diejenige Personengruppe, die nahe dran war, sich zu stabilisieren. Diese Personen bildeten 8,3% der Familien im Stadtteil East End von London. Die Personen der Kategorie D schlossen sich dicht an die vorhergehende Kategorie an; sie verf¨ ugten u aßige Einkommen, ¨ber kleine und regelm¨ die aber nicht ausreichten, der Armut zu entkommen. Sie stellten 14,5% der Bev¨ olkerung von East End. Die Gesamtheit C ∪ D bildeten die Armen“, die ” sich sowohl von den sehr Armen“ A ∪ B als auch von den Wohlhabenderen ” (Kategorien E, F, G und H) unterschieden. Die letztgenannten vier Kategorien waren in jeweils zwei Gruppen zusammengefaßt: Die Gruppe E ∪F bestand aus den wohlhabenden Arbeitern (comfortable working class) und die Gruppe G ∪ H bildete den Mittelstand (lower middle class und upper middle class). Von diesen Personen waren die Personen ¨ der Ubergangskategorie E, das heißt Arbeiter mit regelm¨ aßigem Normalein” kommen“ u ¨ber der Armutslinie“, bei weitem die zahlreichsten: 42,3% in East ” End. Die Gruppe F (13,6% in East End) repr¨ asentierte die Arbeiterelite. Die Gesamtheit E ∪ F der wohlhabenden oder sehr wohlhabenden Arbeiter machte 55,9% in East End und 51,9% in der ganzen Stadt aus. Die Personen der Kategorie G bildete die untere Mittelklasse (Angestellte, freie Berufe zweiter Ordnung). Und schließlich bezeichnete H die obere Mittelklasse, das heißt Personen, die sich Diener halten konnten“. Die Gesamtheit G ∪ H bildete ” 8,9% der Bev¨ olkerung in den Vierteln von East End, aber 17,8% f¨ ur ganz London. 9
Das Symbol ∪ steht f¨ ur die mengentheoretische Vereinigung.
Vom Armen zum Arbeitslosen: Die Entstehung einer Variablen
287
Die so definierte detaillierte Taxonomie und die sie begleitenden prozentualen Anteile f¨ ur East End und f¨ ur die ganze Stadt waren wichtig, weil sie eine pr¨ azise Aktionslinie unterst¨ utzten und weil jede der nachfolgend definierten Unterteilungen eine Bedeutung hatte und ein Argument untermauerte. Die Grenze zwischen A und den Kategorien B, C, D isolierte eine wirklich gef¨ ahr” liche“ Gruppe, n¨amlich die Barbaren“, die aber nicht sonderlich zahlreich ” waren und kaum 1% der Bev¨olkerung darstellten. Damit konnten die Reden widerlegt werden, die am meisten Unruhe und Angst verbreiteten. Dann kam die Kluft zwischen A ∪ B und C ∪ D, durch die man die sehr Armen“, die so” gar in London gleichsam nicht mehr resozialisierbar waren, von den Armen“ ” unterschied, die sich, wenn sie ein regelm¨aßiges und ausreichendes Einkommen hatten, der großen Gruppe E anschließen konnten, das heißt der gefestigten Arbeiterklasse. Wenn sich bei n¨aherer Betrachtung die Grenze zwischen den zu B geh¨ orenden Personen (mit gelegentlichem“ Einkommen) und den zu C ” geh¨ orenden Personen (mit unregelm¨aßigem“ Einkommen) als wenig deutlich ” darstellt, dann liegt das daran, daß der einzige Unterschied zwischen diesen beiden Gruppen exakt in der Wette bestand, ob es die betreffenden Personen bei gegebener Unterst¨ utzung schaffen w¨ urden oder nicht, sich der Gruppe E anzuschließen. Und schließlich bildete die Grenze zwischen den beiden großen Gruppen A, B, C, D und E, F die Armutslinie“. Diese hatte den Vorteil, die ” Gleichsetzung von Armen“ und Arbeitern“ aufzuheben: diejenigen Arbei” ” ter, die sich oberhalb der Armutslinie befanden, machten mehr als die H¨ alfte der Bev¨ olkerung Londons aus. Der Umstand, daß in den gleichen Stadtvierteln von London sehr Ar” me“, die als nicht resozialisierbar in die Gruppe A ∪ B eingestuft wurden, neben Armen“ der Gruppe C ∪ D wohnten, denen m¨ oglicherweise geholfen ” werden konnte, erwies sich als nachteilig. Dieses Zusammenwohnen schaffte nicht nur ein schlechtes Beispiel, sondern f¨ uhrte auch zu einem unerfreulichen Konkurrenzkampf um etwaige Arbeitspl¨atze und die entsprechenden L¨ ohne. Eine m¨ ogliche L¨osung bestand also darin, die sehr Armen“ aus London zu ” entfernen, um East End zu entlasten und den Arbeitsmarkt f¨ ur die Armen“ ” g¨ unstiger zu gestalten. Dieser Vorschlag von Booth, der seiner Meinung nach aus den Ergebnissen seiner Untersuchung folgte, war sp¨ ater der Anlaß f¨ ur die Untersuchungen, die zun¨achst von Rowntree und dann von Bowley in anderen englischen St¨adten durchgef¨ uhrt wurden. Das Ziel dieser Untersuchungen bestand darin, das Armutsniveau der verschiedenen St¨ adte miteinander zu vergleichen und damit den Weg f¨ ur eine nationale Politik frei zu machen – f¨ ur eine Politik, die nicht mehr lokal angesiedelt war und sich nicht auf Barmherzigkeit, sondern auf Sozialgesetze st¨ utzte (vgl. Kapitel 7).
288
8 Klassifizierung und Kodierung
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum Durch die vollst¨andigen Ausf¨ uhrung einer Operation, in der taxonomische Konstruktionen, Felderhebungen, Kodierungen, numerische Berechnungen und die Definition einer Handlung miteinander kombiniert waren, versuchte Booth, objektive Dinge in Bewegung zu setzen, die entsprechend einem Modell abgegrenzt und ineinandergef¨ ugt waren, das gleichzeitig ein moralisches, psychologisches, soziologisches und ¨okonomisches, kognitives und politisches Modell war. Zwar wurde die hierarchische und eindimensionale Kategorisierung dieses Modells von den Regierungen kaum u ¨bernommen und – wenn u ¨berhaupt – nicht derart r¨ ucksichtslos umgesetzt. Aber die allgemeine Tendenz des Modells hat bis heute einen starken Einfluß auf die britischen empirischen Sozialwissenschaften. Galton kombinierte die prozentualen Anteile der acht Kategorien von Booth mit der zus¨atzlichen (bei Booth nicht auftretenden) Hypothese, daß diese Klassifikation eine stetige, normalverteilte Variable widerspiegelte – den B¨ urgersinn (civic worth) bzw. die Eignung (ability). Dadurch konnte Galton diese Skala eichen und sie in eine meßbare Gr¨ oße transformieren. Er teilte die auf diese Weise naturalisierten“ Kategorien von Booth auf die auf” einanderfolgenden Intervalle einer stetigen Ziffernskala auf. Jedes Individuum hatte theoretisch einen Platz auf dieser Skala. Ebenso wie die K¨ orpergr¨ oße war das betreffende individuelle Merkmal normalverteilt – es ließ sich durch Eignungstests messen und wurde sp¨ater von Spearman (1903) als allgemei” ner Intelligenzfaktor“ g konstruiert. Die Vererbung dieses Faktors wurde auf dieselbe Weise untersucht, wie man es auch bei k¨ orperlichen Merkmalen getan hatte. Und so kam es, daß zwei taxonomische Standpunkte miteinander vereinigt wurden. Obgleich Booth – ebenso wie die Mehrzahl seiner Zeitgenossen – den Eugenikern nahe stand, wurde seine Klassifizierung in ein eher ¨okonomisches und soziales Konstrukt eingeordnet. Dagegen beruhte das Projekt von Galton auf einer biologischen Eignung der Personen und zielte darauf ab, das Problem der Armut durch eine Einschr¨ ankung der Fertilit¨ at der aus untauglichen“ Personen bestehenden Kategorien zu l¨ osen. ” Der besondere Kontext der politischen und wissenschaftlichen Kontroversen der Jahre von 1890 bis 1914 in Großbritannien f¨ uhrte zu einem sozialen Klassifikationsmodell, das sich vom franz¨osischen Modell unterschied. Die Darstellung des sozialen Raumes erfolgte im britischen Modell durch eine eindimensionale stetige Skala, auf der die Situation der Individuen in einem einzigen quantifizierbaren Indikator zusammengefaßt wurde. Die Kategorien waren Bereiche, die auf dieser Skala aufeinander folgten. Der eher politischen ¨ und juristischen Logik der Einteilung in Aquivalenzklassen – in denen Personen mit gleichen Rechten oder F¨alle zusammengefaßt wurden, die eine gleiche allgemeine Behandlung rechtfertigten – stand eine andere Logik gegen¨ uber, die ihren Ursprung in der Biologie und Medizin hatte und bei der die betreffenden Eigenschaften den Individuen innewohnten, stetig verteilt waren und durch Messungen festgehalten wurden. Eine Kodierung bedeutet immer
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum
289
auch eine Reduktion, ein Opfer, das auf verschiedene Weise gebracht wurde. Ein Einzelfall ließ sich entweder auf eine diskrete Klasse reduzieren (das heißt ¨ auf eine Aquivalenzklasse einer disjunkten Klasseneinteilung), oder auf eine Position auf einer stetigen Skala (oder m¨oglicherweise mehreren derartigen Skalen). Man interpretierte den Unterschied zwischen diesen beiden elementaren mathematischen Formalismen mitunter als Gegensatz zwischen einer holistischen Soziologie – bei der die Existenz sozialer Gruppen vorausgesetzt wird, die sich wesentlich von den Individuen unterscheiden – und einer anderen, individualistischen und eher anglo-amerikanischen Soziologie, die sich weigerte, den Klassen eine derartige Exteriorit¨at zu gew¨ ahren. Aber diese Interpretation verschleiert mehr, als sie offenbart. Einerseits war der Formalismus – ganz gleich ob stetig oder diskret – der Tr¨ager von pers¨ onlichen Eignungen, die unterschiedlichen Prinzipien entsprachen: angeborenes Genie, bescheinigte Schulkenntnisse, Wohlstand, Nachkommenschaft, Kreativit¨ at ... (bez¨ uglich der Unterschiede zwischen diesen Eigenschaften vgl. Boltanski und Th´evenot, ¨ 1991, [20]). Andererseits existierten die Aquivalenzklassen von dem Zeitpunkt an, als sich Einzelpersonen auf dieses oder jenes Eignungsprinzip st¨ utzten, Zusammenh¨ ange (zum Beispiel juristischer Art) herstellten und verfestigten und allgemeine Objekte erzeugten, um einem kollektiven Ding Zusammenhalt zu verleihen, das – falls es nicht doch noch zerst¨ ort wird – als Klasse bezeichnet werden kann. Aber die Realit¨at und die Konsistenz dieser Klassen blieben selbstverst¨ andlich auch weiterhin der Gegenstand von Kontroversen, deren Analyse ein Forschungsobjekt darstellte. Aus dieser Sicht spielten die hier analysierten Formalismen in Gestalt von diskreten Klassen und stetigen einoder mehrdimensionalen R¨aumen bei den genannten Debatten eine Rolle. Die Betonung lag daher auf dem Zusammenhang zwischen diesen Beschreibungsschemata, den Eignungsprinzipien und den politischen Handlungskategorien, die darauf aufbauten. Dabei bildete die Gesamtheit ein mehr oder weniger koh¨ arentes System, und jeder Teil dieses Systems st¨ utzte die anderen Teile. Die Debatten u ¨ber die Armut und ihre Abhilfe, u ¨ber die Arbeitslosigkeit, das Funktionieren des Arbeitsmarktes und u ¨ber die Mittel, diesen zu regulieren – all diese Debatten, die Großbritannien zwischen 1890 und 1914 bewegten, sind reichhaltige Beispiele f¨ ur den obengenannten Zusammenhang, weil dort mehrere wissenschaftliche und politische Werkzeuge in statu nascendi vorhanden waren, diskutiert wurden und miteinander konkurrierten. Diese Werkzeuge waren noch nicht in den Tiefen von verschlossenen Black Boxes“ ” vergraben, deren Inhalt l¨angst in Vergessenheit geraten war. In den zu dieser Zeit stattfindenden britischen Kontroversen u ¨ber die sozialen Fragen stellte man zwei große Typen von Beschreibungs-, Erkl¨ arungs- und Handlungsmodellen einander gegen¨ uber. Bei dem aufgeworfenen Problem handelte es sich um die Frage von Not und Elend bzw. allgemeiner um das, was sp¨ ater als soziale Ungleichheit bezeichnet wurde. F¨ ur die Erben der Reformer von der Public Health Mouvement waren die Ursachen der Armut in der anarchischen Verst¨ adterung und in der Entwur-
290
8 Klassifizierung und Kodierung
zelung der Bev¨ olkerung zu suchen, die in Elendsquartieren – den Brutst¨ atten von Krankheit, Alkoholismus und Prostitution – zusammengepfercht war. Das st¨ adtische Umfeld, das Habitat, die Hygiene und moralische Werte konnten sich unter diesen Bedingungen nur verschlechtern und das erkl¨ arte die H¨ aufung von Notstandssituationen. Die Beschreibung der Zust¨ ande st¨ utzte sich auf lokale Erhebungen und auf Informationen, die von den F¨ ursorgeverb¨ anden gesammelt wurden. Diese kommunalen Dienststellen waren nicht nur mit der Unterst¨ utzung beauftragt, sondern auch mit dem Personenstandsregister, mit Volksz¨ahlungen und mit lokalen Gesundheits- und EpidemieStatistiken (vgl. Kapitel 5). Die Leiter des General Register Office (GRO), welche die kommunalen Dienststellen von London aus koordinierten, standen dem Environmentalismus nahe – einer Str¨omung, die ihr Vorgehen auf lokale Bev¨ olkerungsstatistiken und medizinische Statistiken st¨ utzte, welche ihrerseits aus den Volksz¨ ahlungen, aus dem Personenstandsregister und der Auswertung der Todesursachen hervorgegangen waren (Szreter, 1984, [270]). F¨ ur sie war die Vorstellung vom sozialen Milieu“ an die geographische Umgebung, an ” das Stadtviertel oder an die Landgemeinde, an die Ballung von Fabriken und ungesunden Wohnungen, nicht aber an den allgemeineren Begriff der sozialen ” Schicht“ gebunden, der durch ¨aquivalente Bedingungen – vor allem in Bezug auf die berufliche Situation – auf dem gesamten Territorium definiert war. Dagegen trat der Begriff der sozialen Schicht bei den Gegnern der Environmentalisten, den Hereditaristen und Eugenikern, in einem Gesamtkonstrukt auf, das ein Jahrhundert sp¨ater seltsam anmutet. Heute setzt man n¨ amlich voraus, daß die auf der Grundlage des Berufes definierte soziale Gruppe den Begriff des Milieus“ am besten ausdr¨ uckt – ganz im Gegensatz zu etwaigen individuel” len Merkmalen erblichen Ursprungs. Der Vergleich dieser beiden kontroversen Kontexte, die zeitlich einige Jahrzehnte voneinander entfernt sind, zeigt, bis zu welchem Punkt wissenschaftliche und politische Praktiken verschiedene, wenn nicht gar entgegengesetzte Formen haben k¨ onnen. F¨ ur die Eugeniker waren es biologische und erbliche Merkmale, welche die Ungleichheit der Zust¨ande erkl¨arten, in denen sich die Menschen befanden. Der B¨ urgersinn oder Gemeinsinn (civic worth) und die Eignung dr¨ uckten sich durch die berufliche und soziale Stellung der betreffenden Person aus. Aus diesem Grund konnte die Ordinalskala der Kategorien von Booth als Basis zur Eichung der Messung dienen. Die Vererbung dieser von der Statistik bezeugten gesellschaftlichen Rangordnung wird heute durch den Begriff des ¨ okonomischen und kulturellen Einflusses des Ursprungsmilieus interpretiert. Aber um 1900 sah man darin einen Beweis f¨ ur den angeborenen und erblichen Charakter dieser Stellung. Die Zugeh¨ origkeit zu einem Beruf erschien folglich in den gerade entstehenden empirischen Sozialwissenschaften als Indikator f¨ ur eine dem Individuum, seiner biologischen Nachkommenschaft und seiner Rasse inh¨arente Eignung. Dieses Interpretationsschema hat auf die Forschungsarbeit in den Humanwissenschaften mindestens bis in die 1950er Jahre einen starken Einfluß ausge¨ ubt, vor allem bei der sogenannten MatrixInterpretation: in Abh¨angigkeit vom eingenommenen Standpunkt sprach man
Ein hierarchischer, eindimensionaler und stetiger sozialer Raum
291
von der Matrix der sozialen Vererbung oder von der Matrix der sozialen Mobilit¨ at (Th´evenot, 1990, [274]). Diese politische Str¨ omung stand den Maßnah¨ men der Sozialf¨ ursorge und der Unterst¨ utzung der Armsten insofern feindselig gegen¨ uber, als daß diese Maßnahmen den am wenigsten geeigneten“ Teil der ” Bev¨ olkerung vergr¨oßern und st¨arken w¨ urden. Man ging sogar so weit, die Sterilisierung gewisser behinderter oder ungeeigneter Personen zu bef¨ urworten – was sogar außerhalb von Nazideutschland in manchen anderen L¨ andern legal praktiziert wurde (Sutter, 1950, [269]). Die Kontroverse zwischen den beiden Str¨omungen war komplex und ihre Fachbegriffe ¨ anderten sich im Laufe der Zeit. Die Auseinandersetzung ¨ außerte sich vor allem in einem anderen Gebrauch der statistischen Werkzeuge und Nomenklaturen. Vor der Zeit um 1905 verwendeten die mit den Statistikern des General Register Office verb¨ undeten Sozialreformer vor allem geographische Daten, die sie zum Zweck einer Feinaufteilung des Territoriums in Beziehung zu Bev¨olkerungs-, Wirtschafts- und Sozialstatistiken sowie zu medizinische Statistiken setzten. Durch diese r¨ aumlichen Korrelationen zeigten sie die Verkettungen der verschiedenen Armutskomponenten auf. Statistiken, die eine Feinabdeckung des Territoriums beinhalteten und eine betr¨ achtliche Verwaltungsinfrastruktur voraussetzten (n¨ amlich die Infrastruktur der F¨ ursorge¨ amter und der Standes¨amter), erm¨oglichten die Aufstellung dieser Beziehungen, die sich gut f¨ ur die damals noch lokal umgesetzten und von den Gemeinden oder Grafschaften verwalteten Praktiken eigneten. Die Eugeniker nutzten dagegen das statistische Argument auf eine ganz andere Weise. Sie versuchten in ihren Labors, mit Hilfe der neuen mathematischen Methoden allgemeine Vererbungsgesetze zu formulieren. Daraus zogen sie Schlußfolgerungen, die sich nicht spezifisch auf diesen oder jenen Ort bezogen, sondern f¨ ur die englische Nation in ihrer Gesamtheit brauchbar waren. Sie schmiedeten politische Allianzen auf h¨ochster Ebene und ihre Behauptungen hatten das Prestige der modernen Wissenschaft, w¨ahrend ihre Gegner ein altmodisches Image hatten: Sozialf¨ ursorge hing immer noch mit Barmherzigkeit, Kirchen und der konservativen Tradition des Widerstands gegen Wissenschaft und Fortschritt zusammen. Aber die Debatte nahm in den Jahren 1900–1910 eine andere Form an. Eine neue Generation von Sozialreformern, oft Angeh¨ orige der kurz zuvor gegr¨ undeten Labour Party, dr¨ uckte von nun an die Armutsprobleme nicht mehr durch lokal ge¨ ubte Barmherzigkeit, sondern durch den Begriff der Arbeitsmarktregulierung und durch Gesetze zur sozialen Sicherung aus. Ein Beispiel f¨ ur diese Entwicklung war die Diskussion u ¨ber das sweating system 10 , bei dem es sich um eine damals h¨aufige Form der Produktionsorganisation handelte. Die zu verrichtende Arbeit wurde von den Arbeitgebern an Vermittler (Subunternehmer ) weitervergeben, die ihrerseits die erforderlichen Arbeitskr¨ afte selbst rekrutierten. Dieses System wurde oft denunziert und die Vermittler als schamlose Ausbeuter betrachtet. Parlamentarische Enquete-Kommissionen unter10
Ausbeutungssystem, Akkordmeistersystem.
292
8 Klassifizierung und Kodierung
suchten das Problem und kamen zu dem Schluß, daß man den Subunternehmern keine M¨ angel anlasten k¨onne, die in der Arbeitsgesetzgebung zu suchen sind. So, wie es in Frankreich auf anderen Wegen geschehen ist, erfolgte per Gesetz eine exaktere Definition der Arbeitnehmerschaft, der Arbeitgeberpflichten sowie des Status der Arbeitslosigkeit als Bruch der Verbindung zwischen dem Lohnempf¨anger und seinem Arbeitgeber – einer Verbindung, die fr¨ uher durch das System der Auftragsvergabe an Subunternehmer verschleiert wurde. Auf diese Weise erhielten die Statistiken zur erwerbst¨ atigen Bev¨ olkerung und zur Arbeitnehmerschaft ebenso wie die Arbeitslosenstatistik eine Konsistenz, die sich erheblich von den Statistiken des 19. Jahrhunderts unterschied. Die Entwicklung der Kategorien der sozialen Debatte, die sich von nun an mehr um die nationale als um die lokale Politik drehte, hatte auch Konsequenzen f¨ ur die Kategorien der statistischen Beschreibung, die von den Environmentalisten des GRO ausgearbeitet wurden. Ihre Gegner aus dem Lager der Eugeniker setzten den Akzent auf Analysen mit Hilfe des Begriffes der sozialen Schichten und bezogen sich beispielsweise auf die Fertilit¨ at und die Kindersterblichkeit, die f¨ ur das ganze Land gemessen wurden. Diese Diskussionsweise bez¨ uglich der nationalen Statistiken stand gegen 1910 in gr¨ oßerer ¨ Ubereinstimmung zur Gesamtheit der ¨offentlichen Debatten, als es noch gegen 1890 der Fall war. Die Nationalisierung des Beschreibungs- und Handlungsraumes ermunterte die Statistiker des GRO dazu, ihrerseits eine Nomenklatur der sozialen Schichten zu konstruieren, die f¨ ur die Volksz¨ ahlung 1911 verwendet wurde. Diese Nomenklatur war hierarchisch gegliedert wie die Nomenklatur von Booth. Sie umfaßte f¨ unf Klassen, die um die Trennlinie zwischen middle class (Mittelklasse) und working class (Arbeiterklasse) angeordnet waren. In der Mittelklasse wurde zwischen den professionals (gehobene Berufe) (I) und der intermediary group (Mittelgruppe) (II) unterschieden. Bei den manuell t¨atigen Arbeitern traten Facharbeiter (skilled workers) (III), angelernte Arbeiter (semi-skilled workers) (IV) und ungelernte Arbeiter (unskilled workers) (V) auf. Die aus f¨ unf Klassen bestehende Skala wurde von der typisch britischen (sp¨ ater typisch amerikanischen) Gruppe von Personen dominiert, die einen gehobenen Beruf (profession) im englischen Sinne des Wortes aus¨ ubten: diese Personen hatten eine spezifische Universit¨atsausbildung und eine gemeinsame Kultur, die auf dem Bewußtsein der N¨ utzlichkeit f¨ ur die Gemeinschaft beruhte. Die diese Einteilung ordnende hierarchische Gliederung st¨ utzte sich auf eine Eigenschaft, die der Auffassung der Eugeniker in Bezug auf Eignung und B¨ urgersinn (civic worth) n¨aher stand, als Merkmale des Verm¨ ogens oder der Macht, die eher einer ¨okonomischen oder soziologischen Klassifikation zugrundeliegen. Die eindimensionale und (im englischen Sinn) professionelle“ ” Struktur dieser Nomenklatur hat den u ¨berwiegenden Teil der sozialen Klassifikationen gepr¨agt, die in der Folgezeit in den englischsprachigen L¨ andern verwendet wurden und bis zum heutigen Tage in Gebrauch sind. Die Gruppe der manager wurde sp¨ater unter Position II aufgenommen, aber bis in die
Vom Gewerbe zur qualifizierten T¨ atigkeit
293
j¨ ungste Vergangenheit hinein (1990) kamen die Arbeitgeber nach den professionals. Zwar ist dieser Umstand nun teilweise in Vergessenheit geraten, aber die betreffende Taxonomie hat in ihrer Gesamtheit von Merkmalen (Eindimensionalit¨ at, Hierarchie, Stetigkeit, implizite Bezugnahme auf einen sozialen Wert des Individuums) die Spuren der wissenschaftlichen und politischen Konstrukte der Eugeniker vom Beginn des 20. Jahrhunderts und die Spuren der damaligen Debatten hinterlassen. Das unterscheidet sie von den franz¨ osischen und den deutschen Klassifikationen, die in ganz anderen politischen und kulturellen Universen entstanden sind.
Vom Gewerbe zur qualifizierten T¨ atigkeit Die franz¨ osische berufssoziologische Nomenklatur tr¨ agt weniger die Spuren einer besonderen Sozialphilosophie – wie es bei der englischen Nomenklatur der Fall ist – als vielmehr die Spuren der verschiedenen Stufen der Geschichte der Arbeitsorganisation des 19. und des 20. Jahrhunderts. Die Aufeinanderfolge und teilweise Konservierung dieser Schichten der Vergangenheit liefern zum Teil eine Erkl¨arung f¨ ur die scheinbare Vielfalt der angewendeten Kriterien. Dar¨ uber hinaus hat es gerade diese Heterogenit¨ at m¨ oglich gemacht, einen mehrdimensionalen sozialen Raum zu entwerfen und zu beschreiben, der komplexer als die anglo-amerikanische Eignungsskala ist und auch der Buffonschen Methode n¨aher steht, als dem System von Linn´e. Die lange Geschichte dieser Nomenklatur kann in drei Phasen zusammengefaßt werden, von denen jede f¨ ur sich die gegenw¨artigen Merkmale erkl¨ art. Die erste Phase war noch durch die Struktur der Berufe im alten Sinne gekennzeichnet. In der zweiten Phase begann sich der Unterschied zwischen Arbeitnehmer und Nicht-Arbeitnehmer abzuzeichnen. Die dritte Phase nach den 1930er Jahren war durch eine Arbeitnehmerhierarchie gekennzeichnet, die auf der Grundlage der mit dem Bildungssystem zusammenh¨angenden konventionellen Skalen kodifiziert wurde (Desrosi`eres, 1977, [59]; Desrosi`eres und Th´evenot, 1988, [68]). Die soziale Organisation und die Terminologie der Berufe (m´etiers) blieben trotz der 1791 erfolgten Abschaffung der Berufsst¨ ande im 19. Jahrhundert pr¨ agnant (Sewell, 1983, [257]). Der von Chaptal im Jahre 1800 an die Pr¨ afekten versendete Fragebogen (Bourguet, 1988, [27]; vgl. Kapitel 1 des vorliegenden Buches) wies ebenso wie der Fragebogen, den Tolosan zum produzierenden Gewerbe verfaßt hatte, Spuren physiokratischen Denkens auf; der Fragebogen unterschied die Personen gem¨aß dem Ursprung ihrer Eink¨ unfte: Boden, Staat, mechanische und gewerbliche Bet¨ atigung“ und alle anderen ” Man¨ over“ (manœuvres). Die sehr große dritte Kategorie schloß alle dieje” ¨ nigen ein – Meister und Gesellen, Arzte und Juristen – deren gemeinsames Merkmal in der Aus¨ ubung eines Berufes bestand, der sich auf ein im Rahmen einer Lehre oder Ausbildung erworbenes Wissen st¨ utzte, auf dessen Grundlage der Betreffende die Spezifit¨at seines Einkommen und seiner Stelle erwarb.
294
8 Klassifizierung und Kodierung
Die anderen – Hilfsarbeiter, Diener oder Bettler – bildeten eine Schicht f¨ ur ” sich“. Die Trennung zwischen Meistern und Gesellen – aus der sp¨ ater die Unterscheidung zwischen Nicht-Arbeitnehmern und Arbeitnehmern hervorging – war noch nicht erfolgt, auch nicht die Aggregation einer Arbeiterklasse“: ” diese wurde erst nach den Aufst¨anden von 1832 und 1834 als eine Gesamtheit wahrgenommen. Die Ann¨aherung zwischen Gesellen und Hilfsarbeitern, den fernen Vorfahren der Facharbeiter“ und der ungelernten Arbeiter“, war ” ” noch nicht relevant. Die Gruppe derjenigen, die vom Staat angestellt sind“ ” verschwand in Frankreich gelegentlich in der Versenkung, blieb aber dennoch weiter bestehen. Die berufsbezogene Organisation formte ein soziales Weltbild, das einen st¨ andigen Hintergrund darstellte, auf dem sich die beruflichen Taxonomien an¨ siedelten. Auf der Grundlage einer famili¨aren Ubergabe der Kenntnisse und des ererbten Verm¨ogens war die Unterscheidung zwischen Meister und Gesellen lange dem Vater-Sohn-Modell angepaßt und wandelte sich nur langsam in die Beziehung Arbeitgeber-Arbeitnehmer des Arbeitsrechts des 20. Jahrhunderts um. Die im 19. Jahrhundert aus der Analyse der kapitalistischen Beziehungen hervorgegangenen Theorien der sozialen Klassen – der Marxismus ist eine systematische Entwicklung dieser Theorien – ignorierten das Modell ¨ der famili¨ aren Ubergabe: die Theorien waren zum Teil so angelegt, daß sie sich gegen dieses Modell richteten. Das Modell bestand jedoch auf mehrfache Weise fort – sei es in der Apologie, zu der es von den christlich-konservativen Sch¨ ulern Le Plays gemacht wurde (Kalaora und Savoye, 1987, [143]), oder sei es – im Gegensatz hierzu – in der kritischen Soziologie der 1960er und 1970er Jahre, in der die Ungerechtigkeit der im Rahmen von Familien stattfindenden wirtschaftlichen und kulturellen Reproduktion denunziert wurde. Diese Form der sozialen Bindung ist auch jetzt noch bei den Merkmalen wichtig, die der gegenw¨ artigen Nomenklatur zugrunde liegen. Im 19. Jahrhundert handelte es sich im Wesentlichen um eine Liste von Berufen“ (professions) im Sinne der ” alten Handwerker- und Kaufmannsberufe. Diese Liste diente zum Beispiel bei den Volksz¨ ahlungen 1866 und 1872 zur Ermittlung der Anzahl der Individu” en, die jeder Beruf direkt oder indirekt ern¨ahrte“. Die Berufe waren in den Zeilen der Tabellen aufgef¨ uhrt, in den Spalten standen dagegen die Perso” nen, die diese Berufe tats¨achlich aus¨ ubten, ihre Familien (Verwandte, die von der Arbeit oder dem Verm¨ogen dieser Personen lebten) und Diener (die zum Dienstpersonal geh¨orten)“. Jedoch trat 1872 eine dritte Unterscheidung auf, die sich mit den vorhergehenden u ¨berschnitt: die Unterscheidung zwischen Chefs oder Arbeitgebern, Handlungsgehilfen oder Angestellten, Arbeitern, ” Tagel¨ ohnern“. Drei Gesichtspunkte waren miteinander kombiniert. Die ersten beiden hingen mit der famili¨aren Struktur der Berufe zusammen. Die dritte stand dem Gegensatz Meister-Geselle nahe. Aber die Unterscheidung zwischen Arbeitern“ und Tagel¨ohnern und Hausknechten“ trat noch 1872 und 1876 ” ” auf; das Konstrukt einer Arbeiterklasse, einschließlich der k¨ unftigen unge” lernten Arbeiter“ war noch nicht offensichtlich.
Vom Gewerbe zur qualifizierten T¨ atigkeit
295
Die Bedeutung dieser Berufsstruktur manifestierte sich auch in der Tatsache, daß die beiden Nomenklaturen, die heute als individuelle T¨atigkeit und als kollektive T¨ atigkeit bezeichnet werden, bis in die 1940er Jahre unver¨ andert blieben, obwohl die eine Nomenklatur im Prinzip Personen klassifizierte, die andere dagegen Unternehmen: die Gleichsetzung B¨ acker-B¨ ackerei oder Mediziner-Medizin war typisch f¨ ur die Welt der Berufe. Jedoch waren die unternehmensinternen Einteilungen in Arbeitgeber und Arbeitnehmer“ ” und in Arbeiter und Angestellte“ bereits fr¨ uher aufgetreten, aber sie bilde” ten eine andere – transversale – Einteilung: die Einteilung der Stellungen ” innerhalb des Berufes“. Die Unterscheidung zwischen individuellen und kollektiven T¨ atigkeiten hing nicht mit der Logik der Berufe zusammen und dieser Umstand f¨ uhrte zu einer Vermengung der Taxonomien bis zu dem Zeitpunkt, an dem sich eine klare Definition der Lohnarbeit durchsetzte – strukturiert in Kategorien, die ihrerseits durch Rechtsvorschriften und Tarifvertr¨ age kodifiziert waren. Das erfolgte zu zwei Zeiten: mit dem Auftreten eines autonomen Lohnarbeitsrechtes gegen Ende des 19. Jahrhunderts und mit der zwischen 1936 und 1950 erfolgten Erweiterung der hierarchischen Schemata von qualifizierten Arbeiten, die auf der Grundlage der entsprechenden Ausbildung definiert waren. Zuvor war die Trennung zwischen Arbeitgebern und Arbeitern nicht immer klar. Wie in Großbritannien arbeiteten viele der kleinen Produzenten als Subunternehmer: sie waren also von Auftraggebern abh¨ angig, aber gleichzeitig fungierten sie auch als Arbeitgeber von Gesellen. Die Lyoner Seidenarbeiter bildeten eine soziale Gruppe, die sich von den reichen Fabrikanten“ ” wesentlich unterschied, die ihnen das Material lieferten und die Endprodukte verkauften. Im Geb¨aude erhielten die Arbeiter eine Besch¨ aftigung und rekrutierten ihrerseits andere Arbeiter. Die Volksz¨ ahlung von 1872 wies sogar innerhalb der Stellung im Beruf“ der Arbeitgeber eine Kategorie leitende ” ” Arbeiter im Handwerk und Kleingewerbe“ auf, die sich von den eigentlichen Arbeitern und Tagel¨ohnern unterschied. Diese Zwischenstellungen spiegelten sich auch im Vorhandensein der wichtigen Kategorie der sogenannten Iso” lierten“ (isol´es) wider, die in der sehr homogenen Reihe der Volksz¨ ahlungen von 1896 bis 1936 auftraten. Diese sowohl von den Arbeitgebern als auch von den Arbeitern verschiedene Kategorie umfaßte sehr kleine Warenproduzenten (ohne Lohnempf¨anger), die in den Bereichen der Landwirtschaft, des Handwerks und des Handels t¨atig waren, und Heimarbeiter, die Rohstoffe erhielten und im Akkord arbeiteten. Die Kommentatoren der Volksz¨ ahlungen dr¨ uckten ihre Zweifel dar¨ uber aus, ob diese Isolierten“ (deren Anteil an der im ” Jahre 1896 erwerbst¨atigen Bev¨olkerung 23% betrug und 1936 immerhin noch 14% ausmachte) den Lohnempf¨angern oder den Arbeitgebern n¨ aher standen. Aber allm¨ ahlich nahmen die Zwischenzust¨ande“ zwischen Lohnempf¨ angern ” und Nicht-Lohnempf¨angern ab, da das Arbeitsgesetz und die Steuerverwaltung einen deutlichen Unterschied zwischen den betreffenden Besch¨ aftigungsund Einkommensarten machte.
296
8 Klassifizierung und Kodierung
Folglich schl¨ usselten die Volksz¨ahlungen von 1896 bis 1936 transversal zu einer in Zeilen angeordneten Berufsliste f¨ unf Stellungen im Beruf“ auf, die in ” Spalten angeordnet waren. Das waren die Vorl¨ aufer der gegenw¨ artigen berufssoziologischen Kategorien: Betriebsleiter, Angestellte, Arbeiter, besch¨ afti” gungslose Angestellte und Arbeiter“ und Isolierte“. Die letzte wichtige Ent” wicklung zwischen 1936 und 1950 implizierte die Definition der Besch¨ aftigungsniveaus f¨ ur lohnabh¨angige Besch¨aftigungen. Diese Niveaus waren gem¨ aß Dauer und Typ der Ausbildung geordnet und wurden in diversen Dokumenten festgehalten: zum Beispiel in den Branchentarifvertr¨ agen bzw. – f¨ ur den Unternehmenssektor – in den sogenannten Parodi–Kategorien“ von 1946 (Par” odi war der damalige Arbeitsminister) bzw. – f¨ ur Verwaltungen – sogar im franz¨ osischen Beamtenrechtsrahmengesetz. Das neue Kriterium f¨ uhrte teilweise eine eindimensionale Hierarchie ein; diese fehlte in den fr¨ uheren Taxonomien, die bei den Lohnempf¨angern nur zwischen Arbeitern und Angestellten unterschieden. Bei den Arbeitern gab es vorher nur einen indirekten Unterschied zwischen Facharbeitern und anderen Arbeitern, da bei den zeilenm¨ aßig auftretenden Berufen zuerst im Detail Berufsbezeichnungen angegeben wurden, die mitunter archaisch waren, und danach folgten – in einer einzigen Zeile – Hilfsarbeiter, Tagel¨ohner, Hausknechte“. Zu den Angestellten geh¨ orten auch ” die Ingenieure, die Techniker und die Buchhalter. Der Kategorie der cadres (F¨ uhrungskr¨ afte, Leitungskr¨afte, leitende Angestellte) war keine spezifische Gruppierung zugeordnet; diese Gruppe verfestigte sich sozial, verbandsm¨ aßig und statistisch zwischen 1936 und 1950 und ist heute ein wesentlicher Bestandteil der franz¨osischen sozialen Taxonomie (Boltanski, 1982, [19]). Mit den von dieser Zeit an abgefaßten Tarifvertr¨ agen und indexierten Skalen war beabsichtigt, Standardkategorien f¨ ur die Besch¨ aftigung zu definieren, indem man die durch landesweit g¨ ultige Diplome garantierte Ausbildung in Beziehung zu Stellen, Geh¨altern, Aufstiegsmodalit¨ aten, sozialen Sicherungssystemen und Wahlverfahren f¨ ur Personalvertreter setzte. Die spezifische Terminologie dieser Texte ersetzte in den Branchen der Großindustrie (beginnend mit der Metallindustrie) zum Teil die alte Berufsterminologie. Aber in den Berufsangaben, die bei der Volksz¨ahlung erfaßt wurden, existierten die beiden Terminologien nebeneinander: man findet dort Facharbeiter (des Niveaus 2), hochqualifizierte Handwerker (des Niveaus 3), Schmiede und Schreiner (Kramarz, 1991, [157]). Die großen Kategorien der Tarifvertr¨ age und vor allem die drei W¨ ahlerschaften der Delegierten f¨ ur die Betriebsr¨ ate dienten gegen 1950 als Grundlage f¨ ur die berufssoziologischen Kategorien des INSEE (Porte, 1961, [239]). Bei diesen W¨ahlerschaften handelte es sich um die Arbeiter (die ihrerseits durch die Tarifvertr¨age in ungelernte Arbeiter, angelernte Arbeiter und Facharbeiter unterteilt waren), die Angestellten, Techniker und ” Meister“ (employ´es, techniciens et agents de maˆıtrise, ETAM) und schließlich die cadres“ (leitende Angestellte, F¨ uhrungskr¨ afte, Leitungskr¨ afte). Die” ses Wahlverfahren und die W¨ahlerschaften haben dazu beigetragen, Grenzen herauszukristallisieren, die vorher oft verschwommen waren. Wahlverfahren und W¨ ahlerschaften waren auch ein Bestandteil der Konstruktion landeswei-
Vier Spuren der Franz¨ osischen Revolution
297
¨ ter Aquivalenzen – f¨ ur Regionen, Sektoren und Stellungen, die fr¨ uher in spezifischen, lokalen und inkommensurablen Terminologien beschriebenen wurden. Aber die Standardisierung erstreckte sich nicht auf die Gesamtheit des berufssoziologischen Raumes, da sie f¨ ur diesen kein eindeutiges Klassifizierungskriterium vorschrieb. Andere Qualifikationsprinzipien, die das Ergebnis einer langen Geschichte waren, vermischten sich mit dem Besch¨ aftigungsprinzip, das auf der Ausbildung und auf landesweit geltenden Diplomen beruhte.
Vier Spuren der Franz¨ osischen Revolution Die Struktur der Nomenklatur spiegelt die Geschichte der urspr¨ unglichen Art und Weise wider, in der im Frankreich des 19. und des 20. Jahrhunderts die sozialen Bindungen auf der Grundlage beruflicher Solidarit¨ aten und Antagonismen gekn¨ upft und gefestigt wurden. Genauer gesagt resultierten viele charakteristische Merkmale der untrennbaren Gesamtheit, die sich aus der franz¨ osischen Sozialstruktur und der sie repr¨asentierenden Nomenklatur zusammensetzt, aus Besonderheiten, die auf die Revolution von 1789 zur¨ uckgehen. So k¨ onnen Identit¨ at und Konsistenz der vier gegenw¨ artigen sozialen Gruppen, das heißt der Landwirte, der Beamten, der Arbeiter und der F¨ uhrungskr¨ afte (cadres) der Reihe nach in Beziehung gesetzt werden zur Aufteilung der landwirtschaftlichen B¨oden, zur Errichtung des einheitlichen Staates, zum Einfluß der spezifischen B¨ urgersprache auf die Arbeiterbewegung und schließlich zur Gr¨ undung der Ingenieurschulen, die an den Staat gekoppelt waren, sich aber von den Universit¨aten unterschieden. Die Aufteilung der B¨oden im Rahmen verschiedener juristischer Formen – zum Beispiel Verpachtung, Teilpacht oder Eigenbewirtschaftung – hat es erm¨ oglicht, daß u ¨ber einen Zeitraum von anderthalb Jahrhunderten ein beengtes l¨ andliches Leben und eine Kleinbauernschaft fortbestehen konnte, die zahlenm¨ aßig gr¨ oßer war als in anderen europ¨aischen L¨ andern. Die in sehr kleinen Gemeinden lebende erwerbst¨atige Bev¨olkerung hatte ihren H¨ ohepunkt gegen 1850 erreicht und danach war nur ein langsamer quantitativer R¨ uckgang zu verzeichnen, w¨ahrend gleichzeitig die l¨andlichen Gebiete in Großbritannien – h¨ aufig gewaltsam – ger¨aumt wurden. Mit diesem Landleben war eine Wirtschaft verbunden, in der das Handwerk, die Kleinindustrie und der Kleinhandel u ugellose Verst¨ adterung ¨berwogen. Die schnelle Industrialisierung und die z¨ – charakteristisch f¨ ur England zu Beginn des 19. Jahrhunderts und in geringerem Maße f¨ ur Deutschland vor 1914 – waren damals in Frankreich weniger ausgepr¨ agt. Dadurch war Frankreich mit der Vorstellung von M¨ aßigung“, ” richtigem Milieu“ und angemessenem Fortschritt“ verbunden. Diese Vor” ” stellung wurde von der radikalsozialistischen Dritten Republik u ¨bernommen und danach in der Wachstumsperiode zwischen 1950 und 1975 denunziert. Das explizite Vorhandensein der Gruppen der Landwirte und der Arbeitgeber, die sich von den Lohnempf¨angern unterschieden, trennte die franz¨ osische berufssoziologische Nomenklatur von ihren angels¨ achsischen Entsprechungen,
298
8 Klassifizierung und Kodierung
die diese Unterscheidung nicht kannten. Sie war das Zeichen einer historischen Kontinuit¨ at, die von spezifischen repr¨asentativen Organisationen bekr¨ aftigt und geltend gemacht wurde. Die nationale Einigung und die Errichtung eines Zentralstaates erm¨ oglichten die Schaffung eines ¨offentlichen Dienstes mit hohem B¨ urgersinn und losgel¨ ost von lokalen vetternwirtschaftlichen Netzwerken: Pr¨ afekten, Lehrer, Steuerverwaltung, Armee, Post, staatliche Ingenieure, Richter, Statistiker. Der nationale Charakter dieses ¨offentlichen Dienstes, der durch Rekrutierung und Ausbildung sowie durch geographische Mischung mittels Versetzungen geschaffen wurde, hatte wichtige Konsequenzen f¨ ur die betreffenden Stellungsbeurteilungskriterien und laufenden Entscheidungsprozesse. Die Existenz von Personengruppen, die mit einer starken kulturellen Homogenit¨ at ausgestattet waren, hat zur Errichtung eines statistischen Systems beigetragen, das f¨ ur die sozialen Debatten die Elemente einer gemeinsamen Sprache bereitgestellt hat. Die Nomenklaturen geh¨oren zu den Komponenten dieser Sprache. Die aus der Revolution hervorgegangene besondere B¨ urgersprache hat auch dazu beigetragen, die Besonderheiten der franz¨ osischen Arbeiterbewegung zu pr¨ agen – wobei Gleichheit, Bedeutung der Staatsmacht und revolution¨ arer Umbruch mit Nachdruck hervorgehoben wurden. Eine Eigent¨ umlichkeit der franz¨ osischen sozialen K¨orperschaften bestand darin, daß die anderen sozialen Gruppen h¨aufig auf der Grundlage eines gewerkschaftlichen Modells verstanden und organisiert wurden – eines Modells, das von der Arbeiterbewegung inspiriert war, auch wenn es scheinbar den Zweck verfolgte, sich von dieser zu unterscheiden. Das hatte zur Folge, daß das Wertesystem ebenso wie vergleichbare Organisations- und Repr¨asentationsformen von der Gewerkschaftsbewegung auf die anderen Gruppen u uck¨bertragen wurden. Unter Ber¨ sichtigung dieser Hypothese kann man die Geschichte der Berufsverb¨ ande der F¨ uhrungskr¨ afte (cadres), der Lehrergewerkschaften, ja sogar der Bauernverb¨ ande, der Arbeitgeberverb¨ande und der Freiberuflerverb¨ ande interpretieren. Es waren genau diese Organisations- und Repr¨ asentationsformen, die das Bild der franz¨osischen Gesellschaft durch berufssoziologische Gruppen“ ” pr¨ agten, deren Spuren man sowohl im sozialen und politischen Leben als auch in den Tabellen der ¨offentlichen Statistik findet. Die umfassende Verwendung dieser Taxonomie sowohl in der Gemeinsprache als auch in spezialisierten Arbeiten unterschied Frankreich von anderen L¨andern wie Großbritannien, den Vereinigten Staaten und Deutschland, die andere politische Traditionen hatten. Dieser Umstand erkl¨art vor allem die Distanz zwischen der franz¨ osischen heteroklitischen Darstellung und der stetigen und eindimensionalen Skala der Angelsachsen: die Gruppen existierten mit unterschiedlicher Identit¨ aten, soweit die historische – gewerkschaftliche und politische – Konstruktionsarbeit stattgefunden hatte und auch noch Wirkungen zeigte. Und schließlich war die Gr¨ undung von staatlichen Ingenieurschulen, die ´ unter dem Ancien R´egime mit der Ecole nationale des ponts et chauss´ees
Vier Spuren der Franz¨ osischen Revolution
299
(Hochschule zur Ausbildung von Hoch- und Tiefbauingenieuren11 ) begann, zum Teil die Ursache f¨ ur ein spezifisches Merkmal des franz¨ osischen Staates: die Tatsache n¨ amlich, daß die sozial anerkannten technischen Kompetenzen mehr als anderswo innerhalb des Staatsgef¨ uges zu finden waren. Im Gegensatz hierzu waren in den angels¨achsischen L¨andern die gleichen Kompetenzen eher außerhalb des Staates angesiedelt, zum Beispiel bei den professionals12 – ein Begriff, der sich nicht ins Franz¨osische u aßt. Das relative Ge¨bersetzen l¨ wicht des Ingenieurberufes, das in Frankreich auch im Privatsektor gr¨ oßer ist, erkl¨ art teilweise das Auftreten einer sozialen Gruppe, die sich am Ende der 1930er Jahre um den Kern der Ingenieure formierte: die cadres – ein Begriff, der sich kaum in ¨aquivalenter Weise in andere Sprachen u aßt.13 ¨bertragen l¨ Die Nomenklaturen spiegeln die unterschiedlichen Weisen wider, Personen zu einem Aggregat zusammenzufassen. In Frankreich wurden die an Kompetenz und Macht gebundenen Funktionen im Modell der cadres zusammengefaßt. Bei den Angelsachsen hingegen unterteilte man diese Funktionen in zwei wohlunterschiedene Gruppen: die professionals und die manager . Dagegen unterschied man in Frankreich die lohnabh¨ angigen F¨ uhrungskr¨afte (cadres salari´es) von den Arbeitgebern und den Generaldirektoren (pr´esident-directeur g´en´eral, PDG), w¨ ahrend von den Engl¨ andern und den Amerikanern die lohnabh¨ angigen F¨ uhrungskr¨ afte (executives) und die Arbeitgeber in der Kategorie der manager zusammengefaßt wurden. In Frankreich war die Trennlinie zwischen der Arbeitnehmerschaft und denjenigen angesiedelt, die nicht den Status eines Lohnempf¨ angers hatten. In den englischsprachigen L¨andern befand sich diese Trennlinie zwischen der universit¨ aren Kompetenz und der Macht, selbst wenn nat¨ urlich viele professionals (vor allem Ingenieure) als Arbeitnehmer in Unternehmen t¨ atig waren. Ein interessanter Grenzfall in Frankreich waren die freien Berufe (professions lib´erales), die den Durchschnitt zweier taxonomischer Prinzipien darstellten: spezifische Kompetenz und Art des Einkommens. Diese beiden Prinzipien waren gleichsam die franz¨osische Spur des angels¨ achsischen Modells der professionals: bis in die 1930er Jahre konnte der Begriff freier Beruf“ auch Gehalts” empf¨ anger einschließen, etwa Lehrer im ¨offentlichen Sektor, wie man anhand der Beispiele auf der R¨ uckseite des Fragebogens der Volksz¨ ahlungen von 1896 bis 1946 sieht. 11
12
13
Die 1747 gegr¨ undete Anstalt war zun¨ achst f¨ ur die Ausbildung von Ingenieuren des Br¨ ucken- und Straßenbaus gedacht, bildet heute jedoch in einem dreij¨ ahrigen Studium neben den F¨ uhrungskadern der staatlichen Baubeh¨ orde Spitzenkr¨ afte f¨ ur diverse Industriezweige aus. Unter professional classes versteht man die gehobenen Berufe. Diese Berufe (professions) setzen das Studium eines speziellen Wissenszweiges voraus, zum Beispiel das Studium der Medizin oder der Rechtswissenschaften. Im Deutschen wird cadre auch als F¨ uhrungskraft, Leitungskraft, Angestellter mit ” Weisungsbefugnis“ wiedergegeben, im Englischen auch als executive. Hierbei ist ¨ jedoch zu beachten, daß diese Ubersetzungen den Sachverhalt nur unvollkommen beschreiben.
300
8 Klassifizierung und Kodierung
Der mehrdimensionale Charakter der franz¨ osischen Nomenklatur, der aus den Schichten ihrer Geschichte“ resultierte, war zu dem Zeitpunkt sicht” bar gemacht worden, als die entsprechenden Ergebnisse der Faktorenanalyse (Benz´ecri, 1973, [11]) angewendet werden konnten. Die Anwendung auf die Enqueten zu den sozialen Kategorien erm¨oglichte es n¨ amlich ab 1970, Darstellungen des sozialen Raumes zu konstruieren, dessen Achsen den verschiedenen taxonomischen Prinzipien entsprachen. Die beiden Forschungsstandpunkte bez¨ uglich der Klassifizierungen kehrten einander – wie es hieß – h¨ aufig den R¨ ucken zu, aber nun konnten sie sich auf dem oben beschriebenen Umweg treffen: die Analyse der zur Berufsangabe verwendeten W¨ orter und deren Zusammenfassung in Klassen f¨allt in den Bereich des ersten Standpunktes, w¨ ahrend die Verteilung der die individuellen F¨ alle repr¨ asentierenden Punkte zu typologischen Konstruktionen f¨ uhren kann – eine Auffassung, die dem zweiten Standpunkt entspricht. Bei diesen Datenanalysen besteht der am deutlichsten explikative Faktor (ausgedr¨ uckt mit Hilfe der Varianzanalyse) aus einer Kombination des Einkommens- und des Bildungsniveaus. Dieser Faktor steht der eindeutigen britischen Skala nahe, wird aber h¨ aufig anders interpretiert. Andererseits stellt ein zweiter Faktor, der transversal zum vorgenannten Faktor verl¨ auft, die Nicht-Arbeitnehmer den Arbeitnehmern gegen¨ uber und bei den letztgenannten wird zwischen Arbeitnehmern des ¨ offentlichen Sektors (vor allem Lehrern) und Arbeitnehmern der Unternehmen unterschieden. Das soziale, religi¨ ose und kulturelle Verhalten sowie das Wahlverhalten und die entsprechenden Auffassungen der verschiedenen Gruppen lassen sich oft besser auf der Grundlage dieses zweiten Faktors erkennen als auf der Grundlage der klassischen sozialen Skala des ersten Faktors (Bourdieu, 1979, [25]). Dar¨ uber hinaus erm¨oglichen diese statistischen Methoden in den Darstellungen eine Beibehaltung der Singularit¨at individueller F¨ alle, denn diese F¨ alle k¨ onnen als solche in denjenigen schematischen Darstellungen auftreten, die einen mehrdimensionalen Datenraum am besten wiedergeben. Sogar die von den Personen zur Angabe ihres Berufes verwendeten W¨ orter lassen sich auf ¨ diesen Grafiken wiedergegeben. Ahnlich wie ein geologischer Schnitt, der die Schichten der Vergangenheit erkennen l¨aßt, zeigen diese Grafiken unterschiedliche Sprachr¨ aume, die verschiedenen Zeitpunkten der Geschichte der sozialen Taxonomien entsprechen. In einem der Bereiche des faktoriellen Schemas befinden sich somit Tischler, B¨acker, Lokomotivf¨ uhrer und ungelernte Arbeiter, w¨ ahrend im gegen¨ uberliegenden Bereich Bedienungskr¨ afte, hochqualifizierte Handwerker des Niveaus 3 und Facharbeiter des Niveaus 2 zusammengefaßt werden (Desrosi`eres und Gollac, 1982, [66]). In Frankreich l¨aßt sich die Kombination der aus verschiedenen Zeiten stammenden taxonomischen Prinzipien in der berufssoziologischen Nomenklatur erkennen und diese Kombination stellt eine Synthese-Instrument dar, das in den empirischen Sozialwissenschaften h¨aufig angewendet wird. Die Geschichte Deutschlands hingegen, die reicher an radikalen Diskontinuit¨ aten ist, hat es nicht m¨ oglich gemacht, die alten Kriterien in auch nur ann¨ aherndem Umfang mit den neuen zu verbinden. Dennoch bestehen die alten Kriterien, die aus
Vier Spuren der Franz¨ osischen Revolution
301
einer ¨ außerst u ¨berlagerten und verdichteten Sozialgeschichte hervorgegangen sind, als Zeugenberge weiter und es gelingt den deutschen Statistikern, Soziologen und Arbeits¨okonomen nicht, diese Kriterien in die soziale Taxonomie angloamerikanischen Typs zu integrieren, die in den empirischen Arbeiten weitgehend u aten“ ¨bernommen wurde. Diese alten Objekte – gleichsam Kuriosit¨ ” der deutschen Soziologie – sind die Beamten, die Arbeiter und die Angestellten.14 Jede dieser Kategorien hatte eine entsprechende Rechtsstellung, eigene Formen des sozialrechtlichen Schutzes und der Rente oder der Pension sowie eigene Vertreterorganisationen. Die Beamten gingen aus dem preußischen ¨ offentlichen Dienst des 18. Jahrhunderts hervor. In der deutschen Statistik sind sie als Personen definiert, die durch eine Ernennungsurkunde in ein ¨offentlich-rechtliches Dienstverh¨altnis berufen worden sind. Als Gegenleistung f¨ ur ihre strengen Treue- und Gehorsamkeitspflichten gegen¨ uber dem Staat erhalten die Beamten hohe Arbeitsplatzgarantien, die in den 1950er Jahren nach der Gr¨ undung der Bundesrepublik best¨atigt worden sind. Die Arbeiter sind manuell t¨ atige Arbeiter, die historisch durch eine starke spezifische Gewerkschaftsbewegung und durch die sozialdemokratische Partei vertreten werden. In der deutschen Statistik sind die Arbeiter als unselbst¨ andige Erwerbspersonen definiert, die der Arbeiterrentenversicherung unterliegen. Die Angestellten sind unselbst¨ andige Erwerbspersonen mit Versicherungspflicht bei freier Wahl des Versicherungstr¨agers, ohne andere M¨oglichkeiten zur sozialen Untergliederung als nach Leistungsmerkmalen, Einkommensh¨ ohe und/oder fachlicher Qualifikation. Diese Gruppe entspricht in Frankreich nicht nur den Angestellten im Sinne von employ´es, sondern auch den Berufen der mittleren Ebene und den cadres. Die klare Abgrenzung dieser Gruppe geht auf die 1880er Jahre zur¨ uck, als Bismarck die ersten Gesetze zum sozialrechtlichen Schutz einf¨ uhrte (Kocka, 1989, [155]). Die nicht manuell arbeitenden Erwerbst¨ atigen legten Wert darauf, sich von den Arbeitern und von ihren gewerkschaftlichen und politischen Organisationen zu unterscheiden. Sie konstituierten sich demzufolge in einer anderen Gruppe und nahmen sich die alte Gruppe der Beamten als Modell: ihre Treue zum Unternehmen mußte sich vom revolution¨ aren Geist der Arbeiter unterscheiden, die soziale Forderungen geltend machten. Aus dieser Epoche stammen die verschiedenen Titel, die in den Erhebungsfrageb¨ ogen auftreten, von den deutschen Statistikern und Soziologen jedoch offenbar als Anachronismen angesehen werden. 14
Bereits in der ersten Berufsz¨ ahlung des Deutschen Reiches, die 1882 stattfand, wurde der Beruf Mathematiker in das Berufsverzeichnis aufgenommen, allerdings nicht gesondert ausgewiesen und gez¨ ahlt. Mathematiker wurden in die Abteilung E (Staats-, Gemeinde-, Kirchen-, sozialer Dienst, auch sogenannte freie Berufe) aufgenommen, und zwar in die Gruppe E6 (Schriftsteller, Zeitungsredakteure, Korrespondenten, Privatgelehrte, Schreiber etc.). Wie einige andere Berufe war Mathematiker mit dem Hinweis versehen, daß diese Berufsart auch als ¨ offentliche ” Stellung“ vorkomme, also auch in den anderen Gruppen wie etwa in E4 (Bildung, Erziehung und Unterricht) (vgl. B¨ ottcher et. al., 1994, [352]).
302
8 Klassifizierung und Kodierung
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit Im Jahre 1893 stellt der Franzose Jacques Bertillon auf dem in Chicago abgehaltenen Kongreß des Internationalen Instituts f¨ ur Statistik (IIS) (International Statistical Institute, ISI) zwei internationale Klassifizierungsprojekte vor, mit denen man eine Harmonisierung der Definitionen und der Konventionen der statistischen Kodierung auf zwei verschiedenen Bereichen anstrebte: Berufe und Krankheiten. Die Berechtigung einer solchen Harmonisierung im Bereich der Berufe war nicht nur auf Probleme zur¨ uckzuf¨ uhren, die mit der Arbeitsgesetzgebung zusammenhingen, sondern hatte auch mit demographischen Fragen zu tun. Die Sterblichkeit wies in Abh¨ angigkeit von den ausge¨ ubten Berufen Unterschiede auf. Dar¨ uber hinaus traten gewisse Todesursachen bei manchen Berufen h¨aufiger auf. Die erh¨ohte Sterblichkeit der Druckereiarbeiter hatte Aufmerksamkeit erregt. In Frankreich waren einige durch Saturnismus15 hervorgerufene Todesf¨alle gemeldet worden. Jedoch best¨ atigten die statistischen Tabellen der entsprechend den Berufen aufgeschl¨ usselten Todesursachen dieses Ergebnis nicht: die Anzahl der auf Saturnismus zur¨ uckzuf¨ uhrenden Todesf¨ alle von Druckereiarbeitern war nicht signifikant, dagegen trat bei ihnen die Schwindsucht zweimal h¨aufiger auf als es durchschnittlich der Fall war.16 Das zweite, in Chicago im Jahre 1893 vorgestellte internationale Klassi¨ fizierungsvorhaben trug die Uberschrift Drei Projekte zur Nomenklatur von Krankheiten (Todesursachen – Ursachen f¨ ur Berufsunf¨ahigkeit). In der Diskussion u ¨ber beruflich bedingte Sterblichkeit stellte der Arzt und Statistiker Jacques Bertillon (Enkel des Botanikers und Demographen Achille Guillard und Sohn des Arztes und Statistikers Adolphe Bertillon) einen Zusammenhang zwischen den beiden ¨außerst unterschiedlichen Taxonomien her, die sich auf die Berufe und die Krankheiten bezogen. Genauer gesagt trat der Beruf hier als Risikofaktor auf, das heißt als Abgrenzung einer Teilmenge, innerhalb der ein zuf¨ alliges Ereignis (Krankheit, Arbeitsunf¨ ahigkeit, Tod) wahrscheinlicher ist, als f¨ ur den Durchschnittsmenschen“. Diese Auffassung stimmte ” mit dem Standpunkt der Optimierung einer Klassifikation in Bezug auf gewisse deskriptive Kriterien u ¨berein: die beste Klasseneinteilung war diejenige, welche die Unterschiede zwischen den Klassen erh¨ ohte und die internen Unterschiede innerhalb der jeweiligen Klassen verringerte. Aber Jacques Bertillon spezifizierte den Sachverhalt auf den Fall, in dem das Analysekriterium als Risiko, das heißt als ein wahrscheinlichkeitstheoretisch formulierbares Ereignis betrachtet wurde, und griff somit eine statistische Denktradition auf, deren Wegbereiter bereits Laplace, Poisson und Cournot waren (vgl. Kapitel 3), obwohl sich Bertillon – ein Mann der Tat und Verwaltungsbeamter – nicht u ¨bertrieben h¨aufig auf deren philosophische Spekulationen berief. Die15 16
Bleivergiftung. Wir st¨ utzen uns in diesem Teil auf das Nachschlagewerk von Anne FagotLargeault (1989, [90]).
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit
303
se Herangehensweise hing direkt mit der medizinischen Praxis zusammen – mit der klinischen (therapeutischen) Praxis oder mit dem ¨ offentlichen Gesundheitswesen (Pr¨avention) – und lenkte deswegen die Aufmerksamkeit auf ¨ die Konventionen bei der Konstruktion von Aquivalenzklassen, die durch die Risikofaktoren gebildet wurden. Auf diese Weise konnten nicht nur Beruf, Alter und Geschlecht als Risikofaktoren angesehen werden – als Kategorien, mit deren Hilfe man Unterschiede in Bezug auf die Wahrscheinlichkeiten von Todesf¨ allen machen konnte – sondern es ließ sich auch die Krankheit selbst betrachten, die ja nicht immer zum Tod f¨ uhrte. Die Identifizierung einer Todesursache lieferte Informationen, die sich als n¨ utzlich f¨ ur das Handeln erwiesen, und die Schwierigkeit des Problems bestand darin, unter allen dem Tod vorangehenden Ereignissen dasjenige auszuw¨ ahlen, das als die Todesursache angesehen wurde. Die Kodierung von Totenscheinen ist ein durch die Vorschriften der Weltgesundheitsorganisation (WHO)17 standardisiertes Verfahren, das im Ergebnis einer langen Geschichte und komplexer Kontroversen entwickelt wurde. Die Internationale Klassifikation der Krankheiten, Verletzungen und Tour Statistik (IIS) desursachen18 wurde damals vom Internationalen Institut f¨ unter der Bezeichnung Klassifikation von Bertillon“ u ¨bernommen und wird ¨ ” ¨ nach regelm¨ aßigen Uberarbeitungen immer noch verwendet. Diese Uberarbeitungen erfolgten alle zehn Jahre bis in die 1940er Jahre unter der Verantwortung Frankreichs (¨ uber das IIS) und steht seit 1955 unter der Verantwortung der WHO in Genf.19 Sogar schon vierzig Jahre vor der Annahme des Bertillon-Projekts im Jahre 1893 war diese Nomenklatur auf dem ersten Internationalen Statistischen Kongreß diskutiert worden, der 1853 in Br¨ ussel auf Initiative Quetelets stattfand. Zwei Auffassungen standen sich in Bezug auf die Frage gegen¨ uber, ob man dem ¨atiologischen Prinzip“ (Suche nach ” der Anfangsursache) oder dem topographischen Prinzip“ (Feststellung der ” Symptome und deren Lokalisierung) die Priorit¨ at zubilligen solle. Die erste Auffassung, die der Engl¨ander William Farr (der Gr¨ under des GRO) vertrat, war nat¨ urlich f¨ ur die Epidemiologen von Interesse. Aber die zweite Auffassung, ¨ die von dem Genfer Marc d’Espine verfochten wurde, lag denjenigen Arzten n¨ aher, die Totenscheine auszuf¨ ullen hatten. Beide Auffassungen waren nicht vollkommen gegens¨atzlich, denn jede von ihnen ber¨ ucksichtigte bewußt die folgenden beiden Randbedingungen: N¨ utzlichkeit und Anwendungsm¨ oglichkeit. Es ging darum, die Kriterien hierarchisch anzuordnen: Farr wendete ” zuerst das ¨ atiologische und danach das topographische Prinzip an, w¨ ahrend 17 18 19
World Health Organisation, WHO. International Classification of Diseases, Injuries and Causes of Death, ICD. Der ICD-Schl¨ ussel zur Klassifikation von Diagnosen wird vorrangig bei der Abrechnung von Gesundheitsleistungen verwendet. Mit dem ICD-Schl¨ ussel wurde eine alphanumerische Kodierung eingef¨ uhrt, die sich aus einem Buchstaben und drei Ziffern zusammensetzt. Der Buchstabe und die ersten beiden Ziffern bestimmen dabei die Kategorie der Diagnose, die dritte Ziffer erm¨ oglicht die Angabe von Unterkategorien, die allerdings keinen bindenden Charakter haben.
304
8 Klassifizierung und Kodierung
d’Espine die ¨ atiologische Einteilung der topographischen Einteilung und diese wiederum der Einteilung nach dem Entwicklungsmodus unterordnete“ (Anne Fagot-Largeault). Achille Guillard (der Großvater von Jacques Bertillon) legte 1853 in Br¨ ussel eine Entschließung vor, in der Farr und d’Espine aufgefordert wurden, sich zu einigen, aber beide sahen sich dazu außerstande. Dennoch blieb das Problem in der Familie Bertillon. Zun¨ achst arbeitete Adolphe daran, danach sein Sohn Jacques – beide in ihrer Eigenschaft als aufeinanderfolgende Leiter des Statistischen Bureaus der Stadt Paris. Die im Jahre 1893 vorgeschlagene L¨osung war zweideutig. Obwohl sich Bertillon auf die Tradition von Farr berief (wom¨oglich um das Wohlwollen der Engl¨ ander zu gewinnen), lehnte er in Wirklichkeit die ¨atiologische Klassifikation (gem¨ aß den Anfangsursachen) ab. Bezieht man sich n¨amlich auf diese Klassifikation – so argumentierte Bertillon –, dann geht man das Risiko ein, sich auf unsichere Theorien zu st¨ utzen, die auf vorl¨aufigen Hypothesen aufbauen und zu statistischen Aufstellungen f¨ uhren, die in einigen Jahren unbrauchbar sein werden ” oder die man gar bel¨acheln wird“. Er wiederholte dieses Argument st¨ andig, so auch im Jahre 1900: Eine ¨ atiologische Klassifikation ist sicherlich f¨ ur einen Wissenschaftler befriedigender, aber zumindest gegenw¨artig scheint es unm¨ oglich zu sein, eine derartige Klassifikation zu u urde ¨bernehmen, denn gewiß w¨ sie binnen ganz kurzer Zeit aufh¨oren, akzeptabel zu sein. (Bertillon, 1900.) Die Starrheit seines Standpunktes veranlaßte ihn noch 1920 dazu – vor ¨ der in Paris versammelten und mit der Uberarbeitung beauftragten internationalen Kommission –, die Bakteriologie f¨ unfundzwanzig Jahre nach dem Tod Pasteurs (1895) als Modeerscheinung abzutun, die ebenso vor¨ ubergehen wird wie die anderen: Es erweist sich als umso notwendiger, den anatomischen Sitz der Krankheiten als Rahmen f¨ ur die Nomenklatur zu nehmen, denn das ist die einzige Klassifikation, die sich nicht ¨ andert. Vor f¨ unfzig Jahren teilte man die Krankheiten in Fieberkrankheiten, Entz¨ undungskrankheiten, Tropenkrankheiten, Ern¨ahrungskrankheiten ein ... Einteilungen, die seit langem u ¨berholt sind. Heute ist es die Bakteriologie, die sich dem Pathologen aufdr¨angt; wir sehen bereits eine Zeit kommen, ¨ in der ein Uberschuß oder Mangel an endokrinen Sekretionen unsere Aufmerksamkeit auf sich ziehen wird. Werden wir unsere Nomenklatur dann jedes Mal grundlegend ver¨andern m¨ ussen? (Bertillon, 1920). Dennoch nahm die gleiche Kommission, nachdem sie Bertillon (der 1922 starb) f¨ ur dessen dreißigj¨ahrige Einsatzbereitsschaft langanhaltenden Beifall gezollt hatte, einen Vorschlag an, die allgemeinen Krankheiten nach dem ¨ atiologischen Prinzip zu klassifizieren. Dabei argumentierte die Kommission, daß selbst wenn man den kausalen Erreger noch nicht in allen F¨ allen identifi” ziert hat, sind gewisse Krankheiten doch von einer so offensichtlich infekti¨ osen
Eine Urne oder mehrere Urnen: Taxonomie und Wahrscheinlichkeit
305
Natur, daß man sie ohne Mißbrauch mit denjenigen Krankheiten in Verbindung bringen kann, deren Infektionserreger bekannt ist“. Nachdem das auf der Anfangsursache basierende Kodierungsprinzip wenigstens theoretisch ber¨ ucksichtigt wurde, stellte sich die Frage nach den Modalit¨ aten der Registrierung und der Kodierung dieser Ursache. Dieses Problem wurde in den 1920er und 1930er Jahren diskutiert. Es stellten sich gleich mehrere Fragen. Wie sollte der Totenschein abgefaßt werden? Wer muß die Auswahl der Todesursache unter den Ursachen treffen, die auf dem Totenschein angegeben sind? Welches Verfahren soll man dabei anwenden? Und wie kann man daf¨ ur sorgen, daß die Gesamtheit der genannten Dinge in allen L¨ andern identisch abl¨ auft? Michel Huber, Direktor der SGF, erstattete im Hinblick auf die vierte ¨ Uberarbeitung der internationalen Nomenklatur im Jahre 1927 Bericht u ¨ber diese Punkte. Wieviele Fragen sollte man dem bescheinigenden Arzt stellen? In welcher Reihenfolge (chronologisch oder von der Gegenwart ausgehend r¨ uckw¨ arts)? Wie weit sollte man in die Vergangenheit des Verstorbenen zur¨ uckgehen? Eine chronologische Reihenfolge w¨ urde mit der Gefahr einhergehen den Arzt zur Best¨atigung alter Fakten zu verleiten, die er nicht beob” achtet hat ... Fragt man ihn, was seiner Meinung nach die Hauptursache war, dann ersucht man ihn um Auskunft dar¨ uber, welche Ursache als statistische Grundlage genommen werden soll.“ Diese Debatte drehte sich um die Frage, wer die Kodierungskosten tragen sollte. Wer u ¨bernimmt die kognitive und ur, die Vielfalt und die Unsicherheit zu ¨okonomische Doppelverantwortung daf¨ ¨ reduzieren und Aquivalenzklassen zu konstruieren, auf die sich das Vorgehen st¨ utzen sollte? Im Jahre 1948 wurde ein internationales Muster f¨ ur Totenscheine angenommen, das vier Fragen enthielt: unmittelbare Ursache, Zwischenursache, Anfangsursache und andere pathologische Zust¨ ande (Begleitursachen). Das franz¨osische Modell enthielt nur drei dieser Fragen, auf die Zwischenursache“ wurde verzichtet. Abgesehen von expliziten Vorschriften, ” die f¨ ur gewisse Sonderf¨alle spezifisch waren, diente die Anfangsursache“ als ” Verschl¨ usselungsgrundlage. Diese Wahl war gerechtfertigt, denn hierbei handelte es sich um die n¨ utzlichste“ Information, das heißt die Information, die ” den vom Standpunkt des ¨offentlichen Gesundheitswesens effizientesten Ein” griffsort“ benennt: ... f¨ ur den Kampf gegen den Tod ist es von Bedeutung, die ” Abfolge der Ereignisse zu unterbrechen oder die Behandlung in einem gewissen Stadium zu beginnen.“ (International Classification of Diseases, Injuries and Causes of Death, ICD, 1948.) In der langen Kette der dem Tod vorhergehenden Ereignisse mußte man also ein Ereignis ausw¨ahlen. Der Ausdruck Anfangsursache“ ist tr¨ ugerisch: der ” Kranke rauchte, arbeitete in einem Bergwerk, fuhr gerne Motorrad – sind das Anfangsursachen? Außerdem konnte man die Todesursache nicht mit dem Tod selbst gleichsetzen (Herzstillstand). Das Auswahlkriterium schien wohl das folgende zu sein: unter den Ereignissen ber¨ ucksichtigte man dasjenige, das die Todeswahrscheinlichkeit signifikant und unzweideutig erh¨ ohte, ohne daß diese Wahrscheinlichkeit jedoch gleich 1 war (sicherer Tod). Das wichtigste war die Variation der Wahrscheinlichkeit, die sich deutlich von 0 und 1 unterschied.
306
8 Klassifizierung und Kodierung
Die Ursachenanalyse spezifizierte die Urnen, aus denen im Hinblick auf einen zuk¨ unftigen Eingriff Zufallsziehungen durchgef¨ uhrt wurden: Die Konvention ” bei der Bezeichnung der medizinischen Todesursachen besteht darin, daß ... die Ursache derjenige Faktor ist, den wir beeinflussen k¨ onnen, wenn wir uns das Ziel gesetzt haben, gegen die Krankheit oder gegen den Tod zu k¨ ampfen“ (Kreweras). Die taxonomische Konvention h¨angt deutlich mit einem System bedingter Wahrscheinlichkeiten zusammen, an dem sich die Vorgehensweise im Vergleich zur durchschnittlichen Sterblichkeit – der Todeswahrscheinlichkeit bei Fehlen aller Informationen – orientiert. Den Versicherungsgesellschaften ist diese Spannung zwischen den beiden extremen Positionen wohlbekannt: eine Urne oder mehrere Urnen? Soll man von allen Personen die gleiche Versicherungspr¨ amie verlangen oder soll man – im Gegensatz hierzu – die Pr¨ amien der Vielfalt vorstellbarer unterschiedlicher Wahrscheinlichkeiten anpassen? ¨ Anl¨ aßlich der sechsten Uberarbeitung der ICD im Jahre 1948 faßte man nach lebhaften Debatten den Beschluß, das Alter von der Liste der Todesursachen zu streichen. Diese Entscheidung hing zutiefst mit den oben beschriebenen Umst¨ anden zusammen. Das Alter ist das Moment, in dem es immer schwieriger wird, die Todesursachen deutlich zu unterscheiden, das heißt die bedingten Wahrscheinlichkeiten zu berechnen, die wohlbestimmten Zust¨ anden zugeordnet sind, von denen spezifische Handlungen abh¨ angen k¨ onnen. Aber das ist auch der Fall, wenn der bescheinigende Arzt – wie es h¨ aufig geschieht – a posteriori mit einer Abfolge von Ereignissen konfrontiert wird, bei denen die jeweilige Auswahl schwierig ist. Das Unbehagen r¨ uhrt daher, daß in den statistischen Tabellen eine Summation der Todesursachen alter Menschen, Menschen reiferen Alters und junger Menschen vorgenommen wird, denn es kann sein, daß die Vorgehensweise – zumindest von gewissen Standpunkten aus betrachtet – nicht in allen F¨allen die gleiche Bedeutung hat. Die Aufstellung der ¨ statistischen Aquivalenz f¨ uhrte zu einer unl¨osbaren Debatte u ¨ber unterschiedliche und unvereinbare moralische Prinzipien, obwohl jedes der Prinzipien f¨ ur sich genommen koh¨arent und legitim war (Fagot-Largeault, 1991, [91]). Eines dieser Prinzipien – das deontologische Prinzip – besagt, daß jeder Mensch einen einzigartigen, einmaligen Wert hat, der mit keinem anderen verglichen werden kann. Man kann das Leben eines alten Menschen nicht mit dem eines jungen Menschen vergleichen. Einem anderen Prinzip – dem teleologischen Prinzip – zufolge gibt es ein u ¨ber den Individuen stehendes gemeinsames Gut, welches der Gemeinschaft die Rechtfertigung f¨ ur Schiedsverfahren zubilligt, auf deren Grundlage man insbesondere den potentiell unbegrenzten Maßnahmen im ¨ offentlichen Gesundheitswesen die ¨okonomisch begrenzten Ressourcen zuordnen kann.
Wie man einer Sache Zusammenhalt verleiht In der Medizin besteht ein kontinuierliches Spannungsverh¨ altnis zwischen Einzelbehandlungen und der Behandlung im Allgemeinen. Deswegen gibt die lan-
Wie man einer Sache Zusammenhalt verleiht
307
ge Geschichte der Medizin – einschließlich der Geschichte der medizinischen Beobachtungs- und Verallgemeinerungsweisen – Aufschluß u ¨ber viele Momente der statistischen Praxis: Auswahl relevanter Merkmale, Kategorienbildung und Modellbildung mit Blick auf die Durchf¨ uhrung von Maßnahmen. Viele ¨ Statistiker des 19. Jahrhunderts (Farr, die Bertillons) waren Arzte. Bei den Kontroversen zur numerischen Methode des Doktor Louis oder zur Verwendung von Mittelwerten durch die Hygieniker ging es genau um die Methoden zur Identifizierung und Benennung der F¨alle (Diagnose) und um Eingriffe, deren Berechtigung auf einem Wissen beruhte, das zuvor im Rahmen von Taxonomien akkumuliert worden war (vgl. Kapitel 3). Das ausgehandelte Konstrukt einer internationalen Klassifikation der Krankheiten war ein Schritt bei der Aufbereitung dieses gemeinsamen Wissens. Die hier¨ uber von Anne Fagot-Largeault vorgelegte detaillierte Analyse verbindet die beiden Schritte der Klassifikation (Diskussion u ¨ber die ¨atiologischen und topographischen Prinzipien) und der Kodierung (Form und Verarbeitung des Totenscheins) in enger Weise miteinander. Die Analyse kann aus einer Perspektive fortgesetzt werden, die f¨ ur die statistische Methode charakteristisch ist: Systematisierung der beiden genannten Momente, das heißt Systematisierung der Nomenklatur (das Ziel von Linn´e) und Systematisierung der Kodierung (durch mehr oder weniger automatische Algorithmen). In der sogenannten traditionellen medizinischen Praxis, f¨ ur welche die ” Medizin eine Kunst ist“, erkennt und benennt der Arzt eine Krankheit auf der Grundlage seiner eigenen Erfahrung und der Erfahrungen seiner Vorg¨ anger (d’Amador): Das ist ein Fall von Typhus“. Er stellt die beobachteten Sym” ptome und die Situation, deren Zeuge er ist, in einem Wort zusammen. Dieses Wort verleiht der betreffenden Sache dadurch Konsistenz und Zusammenhalt, daß der Arzt es mit anderen identischen Krankengeschichten vergleicht, deren Koh¨ arenz er bereits kennt. Dieser fundamentale Akt der Erkennung und Benennung ( Das ist ein Fall von ...“) mobilisiert fr¨ uheres Wissen und l¨ aßt ” es durch Reaktivierung einer Kategorie wieder aufleben – so wie ein Pfad nur dann bestehen bleibt, wenn man ihn regelm¨aßig entlanggeht. Aber die taxonomischen Prinzipien dieses durch Anwendung akkumulierten Wissens waren oft von lokaler und heterogener Natur, und das sogar in einem doppelten Sinne. Die Beobachtungs- und Verallgemeinerungskriterien hingen nicht nur von den Krankheitstypen ab (Kritik nach Art von Linn´e), sondern auch von den ¨ Arzten und den medizinischen Schulen. Die im 19. Jahrhundert gef¨ uhrten Diskussionen – vor allem die Diskussionen zur Klassifikation der Krankheiten – ließen das doppelte Streben nach einer Einteilungssystematisierung und nach der Ausarbeitung einer Sprache erkennen, die von der Medizin auf der ganzen Welt benutzt werden kann. So erweiterte sich das Netz, das den Einzelf¨ allen Zusammenhalt verlieh und in der Folgezeit wurden die Knotenpunkte dieses Netzes immer robuster. Aber das hatte seinen Preis: ein Teil des Wissens, das auf das praktische Gesp¨ ur und die Intuition des Arzt-K¨ unstlers“ zur¨ uck” zuf¨ uhren war und im Verlauf eines Einzelkolloquiums praktiziert wurde, kann als verloren angesehen werden – dieses Wissen wurde geopfert, damit sich der
308
8 Klassifizierung und Kodierung
spezielle Fall in das Netz der allgemeinen und dauerhaften Kategorien, der Meß- und Analyseger¨ate einordnen l¨aßt, mit denen sich die Medizin ausgestattet hat (Dodier, 1993, [69]). Dieser Spannungszustand besteht nicht nur in der Medizin. In der Rechts- und Gerichtspraxis und in der Praxis gerichtlicher Gutachten strebt man ebenfalls an, den Angelegenheiten und Situationen einen Zusammenhalt zu verleihen, indem man sie identifiziert und ihnen Bezeichnungen gibt, um sie in einen allgemeineren Rahmen zu stellen (ein Beispiel ist der Begriff des in Aus¨ ubung des Berufes begangenen Fehlers“: ” (Chateauraynaud, 1991, [44]). Liegt die Betonung jedoch auf dem, was eine Form – vor allem durch die Anwendung standardisierter Werkzeuge und systematischer Taxonomien – verfestigt, dann kann man universelle und wissenschaftliche Kenntnisse, die Bestandteil eines Erkenntnisprojekts sind, nicht mehr anderen Wissensformen gegen¨ uberstellen, die als indigen, lokal, partiell, nicht systematisch und handlungsorientiert bezeichnet werden. F¨ ur eine derartige Gegen¨ uberstellung hatten sich gelegentlich Autoren (vor allem Durkheim) ausgesprochen. Ganz im Gegenteil m¨ ussen jedoch die verschiedenen Erkenntnisweisen symmetrisch behandelt werden, das heißt keine von ihnen darf a priori privilegiert werden, denn sie werden abwechselnd in den allt¨aglichen Wortgefechten verwendet, um eine besondere Einsicht in den Gang der Dinge offensichtlich und unbestreitbar zu machen. Diese methodologische Entscheidung hat nichts mit einer Denunziation der Illusion der Wissenschaft (oder der Statistik) im Namen anderer Wissensformen zu tun, die zu Unrecht abgewertet und verkannt werden. Vielmehr strebt diese Methode lediglich eine Erkl¨ arung komplexer Situationen an, in denen wissenschaftliche und statistische Hilfsmittel in Konkurrenz oder in Erg¨ anzung zu anderen Hilfsmitteln mit dem Ziel mobilisiert werden, ¨ die Konsistenz von Aquivalenzen und die Schlußfolgerungen zu verstehen, die einen Beweis ausmachen k¨onnen. Wie l¨aßt sich ein Konsens erzielen, ein Einvernehmen in Bezug auf die Art und Weise, eine Situation zu erkl¨ aren? Oder wie stellt man fest, daß kein Konsens vorliegt? Welche Rolle spielen die statistischen Formalismen im Werkzeugkasten der Beweisinstrumente und der u ¨berzeugenden Argumente? Die Systematisierung und Automatisierung der Verfahren bietet nicht nur vom wirtschaftlichen Standpunkt – zum Beispiel bei den Kodierungskosten – ¨ große Vorteile, sondern auch vom Standpunkt der Suche nach einer Ubereinkunft, nach der Objektivierung eines Bedeutungsinhalts, dem die verschiedenen Akteure gemeinsam Ausdruck verleihen. Die maschinelle Abarbeitung der betreffenden Verfahren f¨ uhrt zu einer Elimination der Eingriffe, die fr¨ uher von ¨ Menschen vorgenommen wurden. Die Feststellung einer Ubereinkunft wird somit auf den Zeitpunkt der ausgehandelten Konstruktion eines Mechanismus verschoben. Aber in diesem Fall kann die Kontroverse in Bezug auf diesen Mechanismus immer wieder neu in Gang gesetzt werden. Ein Beispiel hierf¨ ur sind die aus medizinischen Expertensystemen hervorgegangenen DiagnostikAlgorithmen. Die Frage nach der G¨ ultigkeit und der Leistungsf¨ ahigkeit dieser Algorithmen bleibt offen, wie folgender Auszug aus dem Buch von Anne
Wie man einer Sache Zusammenhalt verleiht
309
Fagot-Largeault zeigt – es gibt wirklich keinen besseren Abschluß f¨ ur dieses Kapitel: Wie steht es mit der Leistungsf¨ahigkeit dieser Imputationsalgorithmen? Um das zu beurteilen, muß man wissen, auf welcher Grundlage die Leistungen bewertet werden sollen. Auf den ersten Blick ist derjenige Algorithmus der beste, der die Wahrheit am h¨ aufigsten approximiert, das heißt in jedem Fall denjenigen Kausalit¨ atsgrad als zugeordneten Wert liefert, welcher der Realit¨ at am besten entspricht. Aber wir kennen die Wahrheit nicht, denn wir suchen sie ja. Der beste Algorithmus ist also derjenige, dessen Imputationen mit denen des besten Experten zusammenfallen. Aber wer ist der beste Experte? Also gut: der beste Algorithmus ist derjenige, der im Ergebnis des Konsens der Experten angewendet wird. Und was ist, wenn die Experten keinen Konsens erzielen? Der beste Algorithmus ist derjenige, der einen Konsens dadurch schafft, daß er die Standpunkte derjenigen Experten approximiert, die diesen Algorithmus gelten lassen und sich ihm beugen. Gut, aber was ist, wenn alle Algorithmen dieses leisten – jeder auf seine Weise? Dann ist der beste Algorithmus derjenige, dessen Werte am wenigsten von denen der anderen Algorithmen abweichen. Außer wenn es keinen besseren Algorithmus gibt, oder? (Fagot-Largeault, 1989, [90].)
9 Modellbildung und Anpassung
Die Geschichte der Wirtschaftsanalyse tendiert mitunter dazu, drei diesbez¨ ugliche Entwicklungsrichtungen durcheinanderzubringen: die Mathematisierung, die Quantifizierung und die Anwendung der Sprache der Wahrscheinlichkeitsrechnung. Alle drei Entwicklungen scheinen auf eine Ann¨ aherung der Wirtschaftswissenschaft an die sogenannten harten“ Wissenschaften (zu de” nen vor allem die Physik z¨ahlt) sowie auf einen Bruch mit der politischen Philosophie und den geisteswissenschaftlichen Disziplinen hinzudeuten, aus denen ¨ die politische Okonomie hervorgegangen ist. Jedoch sind die drei genannten Werkzeuge nicht nur voneinander verschieden – sie wurden sogar lange Zeit hindurch f¨ ur unvereinbar gehalten. Die Verkn¨ upfung dieser Werkzeuge stieß ¨ in den aufeinanderfolgenden Abschnitten des Aufbaus der Okonometrie zwischen 1900 und 1950 auf Schwierigkeiten. Diese Schwierigkeiten zeigen das Ausmaß der Arbeit, die erforderlich war, um denjenigen Formen Zusammenhalt zu verleihen, die aus zueinander zutiefst fremden Traditionen hervorgegangen waren. Das nachstehende Schema faßt einige dieser Zusammenh¨ ange in genealogischer Form zusammen, wobei wir insbesondere die Zeiten hervorheben, in denen es zu einer Synthese unterschiedlicher – wenn nicht gar gegens¨ atzlicher – Arbeiten kam. Um 1900 ließen sich vier derartige Synthesen 1 ¨ , die historizistische deskriptive identifizieren: die mathematische Okonomie Statistik, die Statistik als Analysetechnik (wie sie damals von der englischen Biometrie entwickelt wurde) und die Wahrscheinlichkeitsrechnung als Sprache, 1
¨ Einer der Begr¨ under der mathematischen Okonomie“ (auch als mathematische ” ” National¨ okonomie“ oder mathematische Volkswirtschaft“ bezeichnet, vgl. [383]) ” war der National¨ okonom L´eon Walras (1834–1910), der unter dem Einfluß von Cournot mathematische Methoden auf die Wirtschaftswissenschaften anwandte. Walras hat eine synthetische Darstellung der Volkswirtschaft in seinen B¨ uchern ´ ements d’´economie pure und Th´eorie math´ematique de la richesse sociale gegeEl´ ben. Die mathematische National¨ okonomie begn¨ ugt sich nicht damit, gegenseitige Abh¨ angigkeiten zwischen vereinzelten Tatsachen zu suchen: sie behauptet, diese Tatsachen alle in einer Gesamtanschauung zusammenzufassen.
312
9 Modellbildung und Anpassung
mit der man die Konsistenz der Induktion pr¨ ufen kann (in den vorhergehenden Kapiteln hatten wir lediglich die zweite und die dritte Synthese beschrieben). Jede dieser vier Nachkommenschaften kann Gegenstand einer anderen historischen Schilderung sein, indem man jeweils unterschiedliche Fakten konstruiert und Episoden hervorhebt, die nicht miteinander zusammenh¨ angen. ¨ Eine Genealogie der Okonometrie vor 1940 18. Jahrhundert Mathematik: Geometrie Analysis Algebra
Klassische Politische ¨ Okonomie: Adam Smith
Deutsche Statistik: Staatsbeschreibung
Englische politische Arithmetik: Populationen
Astronomie: Mittelwerte; Methode der kleinsten Quadrate, Legendre, 1805
Wahrscheinlichkeitsrechnung: Grade der Sicherheit, Bernoulli, 1713 De Moivre, 1731 Bayes, 1764
19. Jahrhundert
Ricardo J. B. Say
Verwaltungsstatistik und deskriptive Statistik Z¨ ahlungen
Darwinsche Biologie: Vererbung
¨ Mathematische Okonomie Allgemeines Gleichgewicht, Cournot, Walras, Pareto, Marshall, Edgeworth, Jevons
20. Jahrhundert
Deutsche historische Schule Engel Lexis
Zyklen: Jevons, Juglar Barometer Amerikanische Institutionalisten Mitchell, 1913
Synthese von Quetelet, 1846: Mittelwerte und Regelm¨ aßigkeiten
Synthese von Gauß und Laplace (1810) Normalverteilung
Poisson,1837 Bravais, 1846: zweidimensionale Normalverteilung Cournot, 1843
Biometrie Englische mathematische Statistik, Regression, Korrelation Galton, 1889 K. Pearson, 1896 Yuke 1897: R¨ uckkehr der kleinsten Quadrate
Venn 1866
Edgeworth, 1885
Keynes, 1921 Wahrscheinlichkeitstheorie
¨ ¨ nge der Okonometrie Anfa (1910-1940) Lenoir, 1913; Moore, 1914; Schultz, 1928; Econometrica,1933; Tinbergen, 1939
Keynessche ¨ konomie Makroo
Inferentielle Statistik R. Fisher, 1925 Maximum-Likelihood Neyman-Pearson-Tests, 1928
Nationaleinkommen Kuznets-Clark Indeterministische Physik
¨ Zweite Phase der Okonometrie (nach 1940) Cowles Commission - Frisch Haavelmo - Koopmans - Marschak Wahrscheinlichkeitstheoretischer Ansatz
Random Shocks Yule, 1927; Slutsky, 1927; Frisch, 1933
9 Modellbildung und Anpassung
313
Zum Beispiel folgt die Geschichte des Modells der linearen Regression dem Weg (im Schema durch Textboxen gekennzeichnet), der die Formulierungen der Methode der kleinsten Quadrate, der Normalverteilung, der Mittelwerte, der Regression, der multiplen Korrelation und der Maximum-LikelihoodMethode beschreibt. Die B¨ ucher von Stigler (1986, [267]) und Gigerenzer et al. (1989, [107]) erm¨oglichen eine Rekonstruktion dieser Formulierungen, w¨ahrend das Buch von Mary Morgan (1990, [204]) aufzeigt, wie dieses Modell von den ersten Wirtschaftsstatistikern genutzt wurde. Man kann die Aufmerksamkeit auch auf die Ber¨ uhrungspunkte lenken, die bereits in einer Zeit existierten, als die – zur Verkn¨ upfung von a priori heteroklitischen Dingen – ¨ erforderlichen Ubersetzungen weder routinem¨aßig gegeben waren und noch in ¨ Standardboxen zur Verf¨ ugung standen. Die Genese der Okonometrie ist reich an derartigen Momenten. Zu Beginn des 20. Jahrhunderts warfen die ersten, von Marcel Lenoir (1913, [177]) und Henry Moore (1914, [202]) unterbreiteten Vorschl¨ age zur Absch¨ atzung der Gesetze von Angebot und Nachfrage ein neues Problem auf, das sp¨ ater als Identifikationsproblem bezeichnet wurde: Welche Beziehung kann man zwischen den theoretischen Gesetzen und den beobachteten Daten herstellen? Der polnische Mathematiker Jerzy Neyman kannte die Arbeiten von Borel und Lebesgue. In den 1920er Jahren markierte die Begegnung Neymans mit Egon Pearson, dem Sohn von Karl Pearson, das nicht spannungsfreie Wiederauftreten der Wahrscheinlichkeitsrechnung und der Statistik, nachdem ein Jahrhundert vergangen war. Und schließlich f¨ uhrte in den 1940er Jahren ¨ die Ubernahme der Werkzeuge von Neyman und Pearson durch die Cowles Commission zur Vollendung der Synthese der vier Traditionen. Diese Synthese l¨ oste neue Debatten aus, wie die Kontroverse zwischen Koopmans und Vining (1949) erkennen l¨aßt. In der Folgezeit setzte sich diese Synthese jedoch als wichtigste L¨osung der Widerspr¨ uche durch, die fr¨ uher in Bezug auf die Sprachen der Wirtschaftswissenschaft, der Statistik und der Wahrscheinlichkeitsrechnung diskutiert worden waren. Im vorliegenden Kapitel erinnern wir an einige dieser Gegens¨atze und an die Art und Weise, in der sie behandelt worden sind. Wir folgen zwei zueinander entgegengesetzten Bewegungen. Die eine Bewegung geht von den Daten in Richtung Theorie: Konstruktion von Indizes, Konjunkturanalyse und Berechnung des Nationaleinkommens. Die andere Bewegung geht von der Theorie aus und versucht, diese mit den Daten zu verkn¨ upfen – entweder um mit Hilfe der f¨ ur gesichert gehaltenen Theorie Parameter zu sch¨atzen oder um die betreffende Theorie zu verifizieren. Folglich kann man die Beziehung zwischen Theorie und Daten auf drei sehr unterschiedlichen Wegen in Angriff nehmen: beim Aufstellen neuer Gesetze, bei der Messung der Parameter eines als wahr angenommenen Gesetzes und bei der Annahme oder Ablehnung einer Theorie mit Hilfe statistischer Tests, die auf Wahrscheinlichkeitsmodellen beruhen.2 2
In diesem Kapitel verwenden wir vor allem die bemerkenswerte Synthese von Mary Morgan, 1990, [204].
314
9 Modellbildung und Anpassung
Wirtschaftstheorie und statistische Beschreibung ¨ Die im 19. Jahrhundert entstehende mathematische Okonomie strebte danach, die unersch¨ opfliche Komplexit¨at der Produktion und des G¨ uteraustausches auf eine kleine Anzahl von einfachen Hypothesen zu reduzieren – vergleichbar mit den Gesetzen der Physik – und danach unter der F¨ uhrung der energischen Hand der mathematischen Deduktion ein Geb¨ aude zu rekonstruieren, dessen Verdienst sowohl in der logische Koh¨arenz als auch in der M¨ oglichkeit besteht, sich durch Hinzunahme weiterer Anfangshypothesen unbegrenzt verbessern und erweitern zu lassen. Aber diese Art und Weise, Komplexit¨ at zu reduzieren, wurde mindestens bis in die 1920er Jahre so wahrgenommen, daß eine weitgehende Unvereinbarkeit mit der – in den vorhergehenden Kapiteln beschriebenen – anderen Reduktionsform besteht, die im Ergebnis von Aufzeichnungen, Kodierungen und statistischen Aggregatbildungen entstanden war. Nichts schien zu garantieren, daß diese Begriffe unter Voraussetzungen konstruiert worden waren, die auf den Grundhypothesen der mathematischen ¨ Okonomie aufbauten. Die Schwierigkeit der Verkn¨ upfung dieser beiden Reduktionsformen l¨ aßt sich auf unterschiedliche Weise ausdr¨ ucken: Unm¨ oglichkeit der Anwendung einer im strengen Sinne experimentellen Methode, a priori unbeschr¨ ankte Anzahl der explikativen Faktoren, Ver¨ anderlichkeit der Individuen, Meßfehler. Viele dieser Widerst¨ande hingen mit Bedenken gegen¨ uber der M¨ oglichkeit zusammen, Formalismen aus Wissenschaften wie der Physik auf die Sozialwissenschaften zu u ¨bertragen – Formalismen also, die eine Homogenit¨ at der Natur“ voraussetzen, das heißt die r¨ aumliche und zeitliche ” Permanenz allgemeiner Gesetze, die sich auf einfache Ausdr¨ ucke reduzieren lassen. Die Historizit¨at und Diversit¨at der Situationen und Kulturen wurden von der Tradition der deutschen deskriptiven Statistik ins Feld gef¨ uhrt, um die ¨ hypothetisch-deduktive mathematische Okonomie der ¨ osterreichischen Schule ebenso zu bek¨ampfen wie die Lehren von L´eon Walras (Wegbereiter der ¨ allgemeinen Gleichgewichtstheorie) und Alfred Marshall. Die Okonomen der historischen Schule, die den Leitern der statistischen Bureaus der deutschen Staaten im Rahmen des wissenschaftlich und politisch aktiven Vereins f¨ ur Socialpolitik nahestanden, akkumulierten zwar statistische Datenerfassungen, versagten es sich aber, daraus allgemeine Gesetze abzuleiten. ¨ Die mathematischen Okonomen“ hatten ihrerseits Vorbehalte gegen¨ uber ” den Statistiken und sch¨opften den Verdacht, daß in ihnen kunterbunt durcheinandergew¨ urfelte Fakten gesammelt werden, die aus komplexen, unbekannten und vor allem unkontrollierbaren Wechselwirkungen resultieren (M´enard, 1977, [193]). Vor 1900 lag ein tiefer Graben zwischen diesen beiden Kate¨ gorien von Okonomen, das heißt zwischen Statistikern und Mathematikern. Die Statistiker verwarfen nicht nur die deduktiven Konstruktionen, die auf a priori postulierten allgemeinen Gesetzen beruhten – die radikalsten dieser Statistiker wiesen sogar die M¨oglichkeit zur¨ uck, auf der Grundlage von Daten Gesetze abzuleiten. Mit wenigen Ausnahmen (Lexis zum Beispiel) ignorierten sie die Entwicklungen der im Entstehen begriffenen mathematischen Sta-
Wirtschaftstheorie und statistische Beschreibung
315
tistik und denunzierten sogar den Durchschnittsmenschen von Quetelet als eine Abstraktion ohne Bedeutung. Aber als Ausgleich f¨ ur diese Ablehnung der Verallgemeinerung und der Abstraktion entwickelte sich eine Tendenz zur Akkumulation von empirischen und wissenschaftlichen Forschungen sowie zur Durchf¨ uhrung von monographischen Untersuchungen und statistischen Erhebungen. Diese Tradition der Beobachtung und Beschreibung beeinflußte die franz¨ osischen Soziologen (Simiand, Halbwachs), aber auch die amerikanischen ¨ institutionalistischen Okonomen, die in den 1880er Jahren in Deutschland studiert hatten. Spuren hiervon findet man bei Mitchell, dem Gr¨ under des Natio¨ nal Bureau for Economic Research (NBER) im Jahre 1920 oder bei den Okonomen, die in den 1930er Jahren als Berater des Bureau of the Census t¨ atig waren. Wenn es also zur Jahrhundertwende einen Gegensatz zwischen einer hypothetisch-deduktiven mathematisierten Wirtschaftswissenschaft und einer anderen, historischen, deskriptiven, eher induktiven und mitunter als gei” steswissenschaftlich“ charakterisierten Wirtschaftswissenschaft gegeben hat, dann war die Verwendung von Statistiken eher die Tat derjenigen, die diese geisteswissenschaftliche Ausrichtung praktizierten, und nicht so sehr das Verdienst der Verfechter der erstgenannten Richtung. Der Amerikaner Henry ¨ Moore (1869–1958) war einer der ersten Okonomen, die sich auf das Gebiet ¨ st¨ urzten, das sp¨ ater zur Okonometrie werden sollte. Moore ging dabei so vor, daß er gegen Wirtschaftstheorien polemisierte, die auf der Grundlage von Apriori- Hypothesen formalisiert worden waren; er schloß sich folglich auf seine Weise der Tradition an, die eine Pr¨ ufung und Analyse der empirischen Daten bevorzugte. Aber Moore unterschied sich von den deutschen Wirtschaftsstatistikern dadurch, daß er in seiner 1914 ver¨offentlichten Studie u ¨ber Konjunkturzyklen die aus der englischen Biometrie hervorgegangenen Werkzeuge der multiplen Korrelation in umfassender Weise verwendete. Der bedeutsame Moment f¨ ur die Verbreitung dieser Werkzeuge im Bereich der Wirtschafts- und Sozialstatistik war der Kongreß des Internationalen Instituts f¨ ur Statistik (IIS) 1909 in Paris. Auf dem Kongreß sprachen insbesondere Yule, Bowley und Lucien March, der Leiter der Statistique g´en´erale de la France (SGF), zu diesen Themen. Es war deutlich zu erkennen, wie sich die Bedeutung des Wortes Statistik“ verscho” ben hatte: von der Verwaltungs- oder Moralstatistik des 19. Jahrhunderts hin zur mathematischen Statistik des 20. Jahrhunderts. Die Korrelation und die Regression erm¨ oglichten es, Objekten einen Zusammenhalt zu verleihen, die ¨ zuvor getrennt voneinander existierten“. Man konstruierte Aquivalenzund ” Komparabilit¨ atsr¨aume neuen Typs und h¨oherer Ordnung, als es bei den im vorhergehenden Kapitel beschriebenen taxonomischen R¨ aumen der Fall war. Bei den tastenden Versuchen zur Erforschung dieses unbekannten Kontinents experimentierte man mit gewissen Verbindungen, die sich sp¨ ater als nicht stabil erwiesen. So analysierte etwa Hooker (1901) die Korrelation zwischen den Schwankungen der Anzahl der Eheschließungen und den Konjunkturzyklen. Bei der SGF f¨ uhrte Henry Bunle (1884–1986) im Jahre 1911 eine ¨ ahnliche Studie durch, indem er die von den Engl¨andern angeregten Techniken anwen-
316
9 Modellbildung und Anpassung
dete, die Lucien March 1905 und 1910 im Journal de la soci´et´e statistique de Paris dargelegt hatte (Desrosi`eres, 1985, [60]). ¨ Dagegen f¨ uhrte die Aufstellung anderer Aquivalenzen, die damals dank der neuen Methoden getestet werden konnten, zu den ersten Entwicklun¨ gen der Okonometrie. Zum einen nahm der Vergleich der Schwankungen der verschiedenen Konjunkturindikatoren die Konstruktion der dynamischen makro¨ okonomischen Modelle vorweg. Zum anderen k¨ undigten die Versuche zur Absch¨ atzung der Angebots- und Nachfragekurven auf der Grundlage der Preise und der ausgetauschten Mengen eine L¨osung der auf simultanen Gleichungen basierenden Modelle an. Auf Anregung von March publizierte zum Beispiel Marcel Lenoir (1881–1927), ein weiteres Mitglied der SGF, im Jahre 1913 eine bemerkenswerte Dissertation, die damals weitgehend unbeachtet ´ blieb: Etudes sur la formation et le mouvement des prix. Die Struktur dieser in zwei deutlich unterschiedliche Teile gegliederten Arbeit ist signifikant. Der erste Teil Preisbildung (theoretische Untersuchung)“ gibt eine Darstellung ” der mathematischen Theorie der Indifferenzkurven und der Bestimmung von Mengen und Gleichgewichtspreisen durch die Schnittmenge von Angebotsund Nachfragekurven. Dieser erste Teil geh¨ort klarerweise zu der im Entste¨ hen begriffenen mathematischen Okonomie. Der zweite Teil Preisbewegung ” (statistische Untersuchungen)“ stellt dagegen eine große Anzahl von statistischen Reihen aus den Bereichen Wirtschaft, W¨ ahrung und Finanzen bereit. Dieser Teil verfolgt die Absicht, die Preisschwankungen verschiedener G¨ uter durch Produktionsschwankungen und durch andere Variable (im Sinne der multiplen Regression) zu erkl¨aren“. Diese Arbeit fand in Frankreich so gut ” wie keinen Anklang. Lenoir war kein Universit¨atslehrer. Er starb 1927 vorzeitig in Hanoi, wo er einen statistischen Dienst f¨ ur Indochina gegr¨ undet hatte. Er geh¨ orte zu den allerersten (und war in Frankreich vor langer Zeit der Er¨ ste), der die drei Traditionen der mathematischen Okonomie, der deskriptiven Statistik verwaltungstechnischen Ursprungs und der mathematischen Statistik miteinander verkn¨ upfte. Um die gleiche Zeit hatte Moore auch die Konjunkturzyklen und den Zusammenhang zwischen Preisen und Mengen analysiert, wobei er sich auf empirische Beobachtungen st¨ utzte. Aber wenn er den Eindruck hatte, daß diese Beobachtungen im Widerspruch zur allgemein anerkannten Theorie standen, dann verwarf er die Theorie und ließ sich auf keinerlei Diskussion der Methode ein, mit der man eine beobachtete Regelm¨aßigkeit identifizieren konnte. Nachdem er also eine positive Korrelation zwischen den Mengen und Preisen f¨ ur Rohgußeisen registriert hatte, war er – entgegen den theoretischen Hypothesen – der Meinung, eine wachsende Nachfragekurve gefunden zu haben. Die sp¨ atere Kritik dieser Interpretation f¨ uhrte zur Analyse simultaner Schwankungen der Angebots- und Nachfragekurven, die Lenoir seinerseits zwar theoretisch gut beschrieben hatte, f¨ ur die er aber keine statistische Methode vorgeschlagen hat, mit deren Hilfe man ein solches System von strukturellen Relationen l¨osen konnte. In den 1920er Jahren diskutierten und erl¨ auterten einige ameri¨ kanische Okonomen (aber nur wenige Europ¨aer und keine Franzosen) die Ar-
Glaubensgrad oder Langzeith¨ aufigkeit
317
beiten von Moore, vor allem in Bezug auf die Landwirtschaft (Fox, 1989, [96]). Jedoch gab es auch weiterhin zahlreiche kritische Bemerkungen hinsichtlich der M¨ oglichkeit, die Gesetze der Wirtschaftstheorie auf der Grundlage von empirischen Daten wiederzuentdecken. Zu den Kritikpunkten geh¨ orten die Nichteinhaltung der Ceteris-paribus-Klausel3 , die Weglassung von Variablen und Meßfehler. Die Hauptkritik bezog sich jedoch auf die Nichthomogenit¨ at ” der Natur“ und verwies auf den fr¨ uheren historizistischen Standpunkt. Mit Beginn der 1930er Jahre bot die Sprache der Wahrscheinlichkeits¨ rechnung einen Rahmen zum Uberdenken mehrerer Hindernisse, die es bis zu diesem Zeitpunkt verhindert hatten, einen Zusammenhalt zwischen den empirischen Beobachtungen und den Formalismen der Theorie zu finden. Falls es a posteriori den Anschein hat, daß diese mehr als zwei Jahrhunderte alte Sprache effiziente Werkzeuge zur Behandlung der genannten Schwierigkeiten geliefert hat, dann hat diese Verbindung versp¨ atet stattgefunden. Die probabilistische Denkweise hat ein unabh¨angiges Leben gef¨ uhrt, und zwar sowohl in Bezug auf die Wirtschaftstheorie als auch – was noch weitaus u ¨berraschender ist – in Bezug auf die Statistik, nachdem die Laplace-Gauß-Synthese von Quetelet in abgereicherter“ Form weitergef¨ uhrt wurde. Die Ursachen f¨ ur die” se Widerst¨ ande, die einerseits von der Wirtschaftswissenschaft und andererseits von der Statistik kamen, u ¨berlagerten sich nicht und waren auch nicht ¨ auf das wechselseitige Mißtrauen zur¨ uckzuf¨ uhren, das zwischen Okonomen und Statistikern herrschte (jedoch werden die verschiedenen Kritiken h¨ aufig verwechselt und auch mit der Ablehnung der Mathematisierung in Zusammenhang gebracht, was wiederum eine ganz andere Sache ist). Es ist wichtig, diese Argumente sorgf¨altig voneinander zu unterscheiden.
Glaubensgrad oder Langzeith¨ aufigkeit Bereits im Kapitel 7 hatten wir bez¨ uglich der representativen Stichproben erw¨ ahnt, daß im 19. Jahrhundert wahrscheinlichkeitstheoretische Formulie¨ rungen weder von Okonomen noch von Statistikern jeglicher Couleur in erheblichem Umfang verwendet wurden. Allerdings hatte bereits Laplace im 18. Jahrhundert diese Zusammenh¨ange benutzt, um den zu bef¨ urchtenden Fehler zu sch¨ atzen, der bei der stichprobenartigen Messung der franz¨ osischen Bev¨ olkerung entstand. Aber diese Methode war im Anschluß an die von Keverberg (1827, [148]) vorgebrachte Kritik von Quetelet und dessen Sch¨ ulern abgelehnt worden: nichts garantierte eine hinreichende Homogenit¨ at des Territoriums und daher gab es auch keine Garantie f¨ ur die eindeutige Vorgabe 3
Bei einer Partialanalyse handelt es sich um die Analyse des Verhaltens einzelner Wirtschaftssubjekte bzw. des Geschehens auf einzelnen M¨ arkten. Dabei wird ¨ unterstellt, daß der Rest der Volkswirtschaft von Anderungen im untersuchten Sektor nicht oder nur unwesentlich beeinflußt wird und sich deshalb auch keine R¨ uckwirkungen auf diesen Sektor ergeben; es wird also die Ceteris-paribus” Klausel“ ( der Rest bleibt gleich“) vorausgesetzt (vgl. S¨ ollner, 2001, [442]). ”
318
9 Modellbildung und Anpassung
und Konstanz der Wahrscheinlichkeitsurne“, aus der eine Stichprobe gezo” gen wurde. Quetelet brachte die Statistik mit den Vorstellungen von Exhaustivit¨ at und strikter Genauigkeit in Verbindung. Das war notwendig, damit die Statistik von einem breiten Publikum und vor allem von der Verwaltung akzeptiert wurde. Er lehnte die Verfahren der Stichprobenerhebung ab, die an die gewagten und akrobatischen Berechnungen der nach englischer Art vorgehenden politischen Arithmetiker erinnerten. Die Errichtung einer das gesamte Territorium abdeckenden und soliden Verwaltungsinfrastruktur schien Hand in Hand mit der F¨ahigkeit zu gehen, diesen Methoden – die als Notl¨ osungen empfunden wurden – den Weg zu versperren. Aber Quetelets Standpunkt spiegelte auch die Verschiebung wider, die zwischen den 1820er und 1840er Jahren in Bezug auf die Art und Weise vonstatten ging, in der man die Sprache der Wahrscheinlichkeitsrechnung verstand und anwendete. Diese Sprache erstreckte sich seit ihren Anf¨ angen u ¨ber dem Spannungsbogen“ zwischen zwei Interpretationen (Shafer, 1990, [261]). Die ” erste, als subjektiv bezeichnete Interpretation dominierte im 18. Jahrhundert, vor allem bei Bayes und Laplace: Wahrscheinlichkeit wurde als Verfassung ” des Verstandes“ aufgefaßt, als Grad des Vertrauens“, als Glaubensgrund“, ” ” den man einer unsicheren Behauptung entgegenbringt, die sich ebenso gut auf die Vergangenheit (zum Beispiel die Schuld eines Angeklagten), als auch auf die Zukunft beziehen konnte. Diese Interpretation konnte also Bezug auf ein einmaliges oder seltenes Ereignis nehmen. Die zweite – als objektiv oder frequentistisch bezeichnete – Interpretation sah dagegen in der Wahrscheinlichkeit einen Zustand der Natur, beobachtbar nur durch eine große Anzahl von Wiederholungen ein und desselben Ereignisses und vergleichbar mit der Ziehung von Kugeln aus einer Urne unver¨anderlicher, aber unbekannter F¨ ullung. Gewiß k¨ onnen diese beiden Interpretationen seit Bernoulli (1713: Gesetz der großen Zahlen) und de Moivre (1738: Normalverteilung als Grenzverteilung einer Folge von Binomialverteilungen) formal miteinander verkn¨ upft werden – zumindest in F¨allen wie Werfen von M¨ unzen ( Kopf oder Zahl“) oder bei ” W¨ urfelspielen. Ebenso hatte es zwei Jahrhunderte sp¨ ater den Anschein, daß die Axiomatisierung von Kolmogorow (1903–1987) diesen Gegensatz endg¨ ultig zum Verschwinden bringen w¨ urde. Aber dennoch bewahrten beide Interpretationen vom Standpunkt ihrer Verwendung als argumentative Werkzeuge eine große Autonomie – vor allem wenn es darum ging, eine Auswahl zu untermauern und Entscheidungen zu erh¨arten. Das zeigt sich etwa darin, daß seit den 1930er Jahren die subjektiven Wahrscheinlichkeiten und die Bayessche Statistik wieder in die Argumentation zur¨ uckkehrten. Quetelets Rhetorik hatte die Vorstellungen vom Durchschnittsmenschen und von der statistischen Regelm¨aßigkeit zum Gegenstand – Grundlage hierf¨ ur waren Beobachtungen, die sich auf die Sammlung großer Datenmengen durch die Bureaus f¨ ur Verwaltungsstatistik bezogen. Diese Bureaus entwickelten sich in den 1830er und 1840er Jahren unter dem Einfluß Quetelets. Quetelets Rhetorik trug dazu bei, der frequentistischen Vision zum Sieg zu verhelfen und dem subjektiven Standpunkt einen Schlag zu versetzen: Dieser Standpunkt ”
Glaubensgrad oder Langzeith¨ aufigkeit
319
ist eine auf Sand gebaute Spekulation“. Insbesondere wurde die Idee einer A-priori -Wahrscheinlichkeit“ als willk¨ urlich und ungerechtfertigt verworfen – ” diese Idee war Bestandteil der Bayesschen Argumentation zur Bestimmung der Wahrscheinlichkeit einer Ursache anhand einer beobachteten Wirkung. Aber der Erfolg, zu dem Quetelet der wahrscheinlichkeitstheoretischen Sprache in ihrer frequentistischen Form scheinbar verholfen hatte, f¨ uhrte dazu, daß diese Sprache f¨ ur ein ganzes Jahrhundert fast vollst¨andig aus der Welt der Statistiker verschwand – bis zu der Zeit, als Gosset ( Student“), Fisher und Neyman ” auf den Plan traten. Die routinem¨aßige Verwendung der Gaußschen Verteilung als Grenzverteilung einer Binomialverteilung schloß weitgehend Fragen aus, welche sich in Form von Glaubensgr¨ unden“ oder Stichhaltigkeitsgraden“ ” ” ausdr¨ ucken lassen, die man einer Aussage zuordnen kann. Diese Fragen, die an den philosophischen Nerv und die Spezifit¨at der wahrscheinlichkeitstheoretischen Sprache r¨ uhrten, verschwanden aus dem Blickfeld der Statistiker, die Zahlen produzierten und verwendeten. Fortan befaßten sich Philosophen und Logiker mit diesen Fragen. Falls sich ber¨ uhmte National¨ okonomen (Cournot, Edgeworth, Keynes) u ur die Wahrscheinlichkeitsrechnung interes¨berhaupt f¨ sierten, dann hatte dieser Teil ihrer Arbeit so gut wie nichts mit der Verarbeitung statistischer Daten und mit den Konstrukten dieser Autoren auf dem Gebiet der Wirtschaftstheorie zu tun. Diese scheinbar paradoxen F¨ alle waren im Gegenteil ein Hinweis auf die Schwierigkeit der Arbeit und das Ausmaß der Kontroversen in den Jahren von 1920 bis 1940, bevor die drei Sprachen ¨ zu einer einzigen Sprache kombiniert werden konnten – zur Sprache der Okonometrie. Jedoch trug der frequentistische Standpunkt, der von Quetelet mit der Erzeugung und der erfolgreichen Verwendung von immer ausgiebigeren statistischen Daten in Verbindung gebracht wurde, u ¨ber den Umweg der Physik und insbesondere der kinetischen Gastheorie dazu bei, den neuen – als sta” tistisch“ bezeichneten – Objekten einen Zusammenhalt zu verleihen. Die Unkenntnis der mikroskopischen Parameter von Position und Geschwindigkeit der Elementarteilchen war kein Hinderungsgrund daf¨ ur, die Gase auf makroskopischer Ebene deterministisch zu beschreiben (was Maxwell und sp¨ ater Boltzmann taten). Die neue Formulierung der Determinismusfrage, der zufolge Ordnung aus Chaos entstehen kann, lag in der N¨ ahe des Standpunkts, f¨ ur den Quetelet in den Sozialwissenschaften warb. Vermutlich verhielt es sich sogar so, daß Quetelets Standpunkt durch den Astronomen Herschel beeinflußt wurde (Porter, 1986, [240]). Damals (Mitte des 19. Jahrhunderts) wurde die Ungewißheit bez¨ uglich der mikroskopischen Parameter noch durch die Unm¨ oglichkeit einer direkten Erfassung ausgedr¨ uckt. Ab Beginn der 1920er Jahre dr¨ uckte sich diese Auffassung in einem sehr viel radikaleren Probabilismus aus, n¨ amlich in der Ablehnung der Existenz von gleichzeitig determinierten (obwohl unbekannten) Messungen der Position und der Geschwindigkeit
320
9 Modellbildung und Anpassung
eines Teilchens (Heisenbergsche Unsch¨arferelation4 ). Seit dieser Zeit war der frequentistische Standpunkt nicht mehr nur eine praktisch gew¨ ahlte Methode, die mit der Unvollkommenheit der Beobachtungsinstrumente zusammenhing. Vielmehr erhob dieser Standpunkt auch den Anspruch, die tats¨ achliche Natur der zu beschreibenden Ph¨anomene widerzuspiegeln. Fernab also von der Statistik der Statistiker setzte sich die probabilistische Denkweise bei den Physikern durch und f¨ uhrte in den 1930er Jahren zu Formulierungen, von denen ¨ die Gr¨ under der neuen Okonometrie beeinflußt wurden, die genau auf dieser Denkweise aufbaute. Tinbergen und Koopmans hatten eine physikalische Ausbildung und waren darauf vorbereitet, probabilistische Schemata in die Sozialwissenschaften zu reimportieren“ – nat¨ urlich in einer komplizierteren ” Form, als es diese Wissenschaften f¨ ur die Physik des 19. Jahrhunderts getan hatten (Mirowski, 1989, [197]). Die aus der Schule der Biometrie hervorgegangenen Statistiker, welche die von Karl Pearson stammenden Formulierungen der Regression und der multiplen Korrelation verwendeten (Yule, March, Lenoir), hatten diese Schemata zumindest vor den 1920er Jahren nicht als notwendig erkannt. Die Wissenschaftsphilosophie Pearsons, die den Begriff der Kausalit¨ at ausschloß oder ihn auf empirisch beobachtete Korrelationen reduzierte (vgl. Kapitel 4), war weder direkt auf die Untersuchung der Frage vorbereitet, wie man empirische Daten an ein außerhalb dieser Daten liegendes theoretisches Modell anpaßt, noch auf eine etwaige probabilistische Formulierung dieser Anpassung. Die damals von Yule oder Lenoir berechneten Regressionen enthielten keine explizit dargestellten Residuen und deswegen erst recht keine Hypothesen u ¨ber deren Wahrscheinlichkeitsverteilungen. Es ist signifikant, daß die probabilistischen Formulierungen innerhalb der von Pearson begr¨ undeten Schule erst zu dem Zeitpunkt auftraten, als die dem frequentistischen Standpunkt zugrundeliegenden Hypothesen (das heißt die großen Zahlen“) durch die Arbeiten ” von Gosset (alias Student) und Fisher offensichtlich unrealistisch wurden, weil beide an Problemen arbeiteten, die eine begrenzte Anzahl von Beobachtungen implizierten. William S. Gosset (1876–1936) war bei einer großen Brauerei besch¨ aftigt. Er entwickelte Techniken zur Produktionskontrolle, wobei er von einer kleinen Anzahl von Proben ausging. Er hatte also die Varianzen und die Verteilungsgesetze f¨ ur Parameter zu sch¨atzen, welche auf der Grundlage von Beobachtungen berechnet wurden, die ihrerseits offensichtlich dem vorausgesetzten Gesetz der großen Zahlen“ nicht gen¨ ugten. Ebenso konnte auch ” Fisher, der in einem landwirtschaftlichen Versuchszentrum arbeitete, nur auf 4
Heisenberg stellte fest, daß es nicht m¨ oglich ist, den Ort und die Geschwindigkeit eines atomaren Teilchens gleichzeitig mit beliebiger Genauigkeit anzugeben. Man kann entweder den Ort sehr genau messen, dann verwischt sich dabei durch den Eingriff des Beobachtungsinstruments die Kenntnis der Geschwindigkeit bis zu einem gewissen Grad; umgekehrt verwischt sich die Ortskenntnis durch eine genaue Geschwindigkeitsmessung, so daß f¨ ur das Produkt der beiden Ungenauigkeiten durch die Plancksche Konstante eine untere Grenze gegeben wird.
Glaubensgrad oder Langzeith¨ aufigkeit
321
der Grundlage einer beschr¨ankten Anzahl von Kontrollversuchen vorgehen. Er milderte diese Einschr¨ankung dadurch ab, daß er auf k¨ unstliche Weise eine ihrerseits kontrollierte Zuf¨alligkeit f¨ ur diejenigen Variablen schuf, die nicht zu den Variablen geh¨orten, deren Wirkung er messen wollte. Diese Technik der Randomisierung“ f¨ uhrte also die probabilistische Zuf¨ alligkeit“ direkt ” ” in die experimentelle Methode ein. Im Unterschied zu Karl Pearson sahen sich also Gosset und Fisher dazu veranlaßt, unterschiedliche mathematische Notationen zu verwenden, um einerseits den theoretischen Parameter einer Wahrscheinlichkeitsverteilung (eines Mittelwertes, einer Varianz, einer Korrelation) und andererseits die Sch¨atzung dieses Parameters zu bezeichnen, der auf der Grundlage von Beobachtungen berechnet wurde, deren Anzahl jedoch nicht ausreichte, um die Abweichung zwischen den beiden Werten – das heißt zwischen dem theoretischen Wert und dem Sch¨ atzwert – vernachl¨ assigen zu k¨ onnen. Diese Innovation hinsichtlich der Bezeichnungsweise markierte den entscheidenden Wendepunkt, der eine inferentielle (das heißt schließende) Statistik auf der Grundlage von Wahrscheinlichkeitsmodellen erm¨ oglichte. Die inferentielle Statistik entwickelte sich in zwei Richtungen. Die Parametersch¨ atzung unter Ber¨ ucksichtigung einer gegebenen Datenmenge setzte voraus, daß das Modell wahr ist. Dabei wurde der Begriff der wiederholten Stichprobennahme nicht vorausgesetzt und man konnte sich entweder auf eine Bayessche Formulierung oder auf eine Likelihood-Funktion“ st¨ utzen, von der man ” ein Maximum suchte. Die aus dem Modell abgeleiteten Informationen wurden mit Daten kombiniert, aber man machte keinerlei Aussage dar¨ uber, ob Modell und Daten gut“ u oglichten es die Hypo¨bereinstimmen. Dagegen erm¨ ¨” thesentests, diese Ubereinstimmung zu pr¨ ufen und das Modell gegebenenfalls zu ¨ andern: das war der sch¨opferische Teil der inferentiellen Statistik. Durch die Frage nach der Plausibilit¨at dessen, ob eine Ereignismenge unter der Voraussetzung der Wahrheit eines Modells h¨atte eintreten k¨ onnen, verglich man diese Menge explizit oder implizit mit derjenigen Ereignismenge, die unter der Voraussetzung der Wahrheit des Modells eingetreten w¨ are, und f¨ allte – von einem typisch frequentistischen Standpunkt aus – ein Urteil u ¨ber den Unteratzung eher mit schied zwischen diesen beiden Mengen.5 Folglich hatte die Sch¨ einem subjektiven (wenn nicht gar Bayesschen) Standpunkt zu tun, w¨ ahrend sich die Hypothesentests auf eine frequentistische Auffassung st¨ utzten (Box, 1980, [33]). 5
Dieses Urteil kann seinerseits von unterschiedlichen Standpunkten aus gef¨ allt werden, die zu lebhaften Kontroversen zwischen Fisher auf der einen Seite und Neyman und Pearson auf der anderen Seite f¨ uhrten. Der Test von Fisher ist auf Wahrheit und Wissenschaftlichkeit ausgerichtet: eine theoretische Hypothese wird als plausibel beurteilt oder sie wird angesichts der beobachteten Daten verworfen. Im Gegensatz hierzu ist der Test von Neyman und Pearson auf Entscheidung und Handeln ausgerichtet: man sch¨ atzt die Kosten der Annahme einer falschen Hypothese bzw. der Ablehnung einer wahren Hypothese in Form von Risiken erster und zweiter Art (Gigerenzer und Murray, 1987, [106]).
322
9 Modellbildung und Anpassung
Die Dualit¨ at der Standpunkte in Bezug auf die Wahrscheinlichkeitsrechnung ließ sich auch in Beziehung zu den Situationen setzen, bei denen diese Sprache ein Hilfsmittel bildete, um eine Auswahl oder Entscheidung zu bef¨ urworten. Der Frequentismus hing damit zusammen, daß ein kollektiver Entscheidungstr¨ager im Allgemeinen Probleme behandelte, f¨ ur welche die ¨ Schaffung von Aquivalenzen und Aggregationen politisch und sozial plausibel waren. Die Urne mußte konstruiert werden und die Farben der Kugeln durften nicht l¨ anger Gegenstand von Debatten sein. Taxonomische Fragen wurden gel¨ ost und in gut verschlossenen Black Boxes“ vergraben. Statistische Auf” bereitungen im Sinne des Gesetzes der großen Zahlen waren m¨ oglich. Diese statistischen Aufbereitungen unterst¨ utzten Entscheidungen, die vom Staat zur Optimierung eines kollektiven Gutes oder von einer Versicherungsgesellschaft getroffen wurden. Im letzteren Fall konnten die taxonomischen Konventionen wieder infrage gestellt werden, wenn man den Wunsch nach Hervorhebung einer Unterkategorie hatte, die einem besonderen Risiko ausgesetzt war – was ¨ zu einer Anderung des Pr¨amiensystems f¨ uhrte. Die taxonomischen Konventionen konnten auch dann infrage gestellt werden, wenn die von Unf¨ allen am wenigsten betroffenen Personen auf ihre Versicherung verzichteten und dadurch die Kosten f¨ ur diejenigen erh¨ohten, die in der Versicherung geblieben waren. Die subjektiven Wahrscheinlichkeiten wurden dagegen f¨ ur Entscheidungen mobilisiert, bei denen man keine Wiederholung voraussetzte. Dabei k¨ onnte es sich selbstverst¨ andlich um eine pers¨onliche Entscheidung handeln, aber es k¨ onnte auch um Entscheidungen eines Staates gehen: Soll ein Krieg erkl¨ art werden? Soll man einen umstrittenen Vertrag ratifizieren? Und wie sollte man dabei unter Ber¨ ucksichtigung der subjektiven Einsch¨ atzung der Risiken der beiden m¨ oglichen Entscheidungen vorgehen? Das setzte eine wenigstens approximative Ermittlung der A-priori -Wahrscheinlichkeit eines unbekannten vergangenen oder zuk¨ unftigen Ereignisses voraus. Diese Messung eines Glau” bensgrades“ – die im 18. Jahrhundert allgemein verwendet und im 19. Jahrhundert abgelehnt worden war – wurde in den 1920er und 1930er Jahren von den Engl¨ andern Keynes und Ramsey6 , vom italienischen Versicherungsmathematiker De Finetti und von den durch Savage7 (1954) inspirierten Bayesianern wieder ernst genommen und formalisiert. Die Probleme von Gerichtsentscheidungen (einen Angeklagten verurteilen oder nicht) oder medizinischen Entscheidungen (diagnostizieren und behandeln) fielen in die Zust¨ andigkeit dieser Methode. Die im vorhergehenden Kapitel beschriebene Kodierung befand sich an der Nahtstelle zwischen den beiden Standpunkten. Man konnte die Kodie6
7
Frank Plumpton Ramsey (1903–1930); Mathematiker, Logiker und Wissenschaftstheoretiker. In der Wahrscheinlichkeitstheorie erzielte Ramsey interessante Ergebnisse bez¨ uglich der Logik des partiellen Glaubens. Ferner erkannte er, daß die optimalen Verbrauchersteuers¨ atze entscheidend von den Preiselastizit¨ aten der Nachfrage nach den zu besteuernden G¨ utern abh¨ angen. Leonard Jimmie Savage (1917–1971) entwickelte den Begriff der pers¨ onlichen oder subjektiven Wahrscheinlichkeit weiter.
Zuf¨ alligkeiten und Regelm¨ aßigkeiten: Frisch und der Schaukelstuhl
323
rung hinsichtlich ihrer Wirkung auf die statistische Totalisierung betrachten (in diesem Fall sprach man von unscharfer Kodierung“) oder aber man stellte ” sich auf den Standpunkt des Individuums und der dieses Individuum betreffenden Entscheidung.
Zuf¨ alligkeiten und Regelm¨ aßigkeiten: Frisch und der Schaukelstuhl Die Originalit¨ at der Sprache der Wahrscheinlichkeitsrechnung war nicht nur darauf zur¨ uckzuf¨ uhren, daß es sich um ein nunmehr axiomatisiertes Gebiet der Mathematik handelte. Diese Sprache war jetzt auch ein flexibles Hilfsmittel bei Argumentationen und Entscheidungsfindungen – ein Hilfsmittel, das sich f¨ ur u ¨beraus verschiedenartige Anwendungen in ganz unterschiedlichen Konstruktionen eignete. Die Schnittstellensprache“ der Wahrscheinlichkeitsrechnung ” war in vielfacher Weise in den 1930er und 1940er Jahren an der Entwicklung ¨ der Okonometrie beteiligt. Mit Hilfe dieser Sprache hatte man die M¨ oglichkeit, zuf¨ allige St¨ orungen, Meßfehler, weggelassene Variable und die nicht reduzierbare Variabilit¨ at ¨okonomischer Zust¨ande zu behandeln. Um aber derartige Fragen mit Hilfe von Wahrscheinlichkeitsmodellen zu beherrschen, durfte das Problem, empirische Daten in Beziehung zu einer Wirtschaftstheorie zu setzen, nicht mehr nur als Argument in einer Polemik betrachtet werden, die sich entweder auf den Realismus der Theorie oder auf die Relevanz und Bedeutung der Daten bezog. Vielmehr mußte man u agung ¨berhaupt erst einmal in Erw¨ ziehen, daß dieses Problem einer formalisierten Antwort f¨ ahig war. Die Werkzeuge, die eine Interpretation der zwischen Theorien und Daten bestehenden Spannung durch wahrscheinlichkeitstheoretische Begriffe erm¨ oglichten, wurden in diesen Jahren konzipiert und geschaffen. Diese Werkzeuge stellten im Rahmen einer einheitlichen Theorie Formalismen zusammen, die aus verschie¨ denen Bereichen stammten. Die ersten Okonomen hatten partielle Korrelationen und multiple Regressionen berechnet, nicht aber – zum Beispiel durch die Erkl¨ arung eines Residuums der linearen Regressionen – die Abweichung zwischen den Daten und dem Modell behandelt. Zudem war die Analyse der Konjunkturzyklen durch die a priori u ¨berraschende Idee transformiert worden, daß zuf¨ allige St¨orungen regelm¨aßige Schwankungen haben k¨ onnen. Und schließlich f¨ uhrte die inferentielle Statistik von Ronald Fisher (1890–1962), Jerzy Neyman (1894–1981) und Egon Pearson (1895–1980) zur Konstruktion von Werkzeugen, die ein Messen und Pr¨ ufen der Relationen zwischen Daten und Modellen erm¨oglichten. Die Sch¨atztheorien und Hypothesentests lieferten eine standardisierte Sprache daf¨ ur, wie man einen Beweis ausdr¨ uckt, der – zumindest in den Experimentalwissenschaften – zur Untermauerung der wissenschaftlichen Aussagen notwendig war (Gigerenzer et al. 1989, [107]). Das, was die ansonsten verschiedenartigen Anwendungen der wahrscheinlichkeitstheoretischen Argumentation gemeinsam haben, wurde von Hacking
324
9 Modellbildung und Anpassung
(1990, [117]) in der bezeichnenden Formulierung Z¨ ahmung des Zufalls“ (ta” ming the chance) zusammengefaßt. Eine typische Episode aus dieser Geschichte der Rationalisierung des Zufalls“ war die Entwicklung der Theorie der ” Zufallsst¨ orungen“ (random shocks 8 ), bei der eine Reihe von unvorhersehba” ren, zuf¨ alligen“ Ereignissen in Beziehung zu relativ regelm¨ aßigen Konjunk” turzyklen gesetzt wurde (Morgan, 1990, [204], Kap. 3). Diese Auffassung vom Zufall, bei der die Intuitionen von Yule (1927, [294]), Slutksy (1927, [263]) und Frisch (1933, [99]) miteinander kombiniert wurden, f¨ uhrte zu einer vollst¨ andigen Transformation der Frage nach der Wiederholung von Konjunkturzyklen – einer Frage also, die seit Mitte des 19. Jahrhunderts immer wieder gestellt wurde. Bis dahin standen sich zwei Auffassungen bez¨ uglich der Zyklen gegen¨ uber. Es gab Versuche, Zusammenh¨ange mit periodischen Ph¨ anomenen zutage zu ¨ f¨ordern, die nicht zur Okonomie geh¨orten, zum Beispiel Zusammenh¨ ange mit den Sonnenflecken (Jevons, 1884) oder den Venusphasen (Moore, 1914, [202]) ¨ – wobei vermutet wurde, daß die Ubertragung dieser Ph¨ anomene durch meteorologische Zyklen erfolgt sein k¨onnte, die ihrerseits wieder mit der Astronomie zusammenhingen.9 Andere Autoren wiederum hatten Abstand davon genommen, allgemeine Gesetze f¨ ur Konjunkturzyklen (insbesondere f¨ ur deren Periodizit¨ at) zu entwickeln und behandelten jeden einzelnen dieser Zyklen als einmaliges Ereignis (Juglar, 1862, [141]; Mitchell, 1913, [199]). Diese beiden Interpretationen ließen sich mit zwei Familien“ von Wissenschaften verbin” den, die imstande waren, der Wirtschaft Modelle und Metaphern anzubieten: Mechanik, Astronomie und Physik zum einen und die biologischen Wissenschaften zum anderen. Dieser Gegensatz zwischen einer auf externe Faktoren zur¨ uckzuf¨ uhrenden Erkl¨ arung und der Ablehnung einer Erkl¨arung u ¨berhaupt wurde von der Idee der Selbstreproduktion quasiregul¨arer Zyklen u uckt, die von unre¨berbr¨ gelm¨ aßigen und unvorhersehbaren ¨außeren Impulsen ausgel¨ ost werden. Hierzu reichte die Annahme aus, daß der zur Zeit t beobachtete Zustand eine lineare Funktion derjenigen Zust¨ande ist, die zu fr¨ uheren Zeitpunkten beobachtet worden sind: t − 1, t − 2, . . . , t − k. Unter R¨ uckgriff auf bereits ausgearbeitete mathematische Theorien wie zum Beispiel Differenzengleichungen (f¨ ur Folgen) und Differentialgleichungen (f¨ ur stetige Funktionen) zeigten Yule und Frisch, daß unter gewissen Voraussetzungen Gleichungssysteme, bei denen die beschriebenen Zust¨ ande in linearer Weise mit Zeitverschiebungen in Verbindung gebracht werden, L¨osungen liefern, die regelm¨aßige und ged¨ ampfte Schwingungen implizieren. In diesem Fall hatten die random shocks lediglich die Aufgabe, 8 9
Man verwendet auch die Bezeichnung stochastischer Schock“. ” Modelle dieses Typs wurden als sunspot-Modelle bekannt. Dabei werden die Erwartungen von einem zuf¨ alligen exogenen und ¨ okonomisch irrelevanten Ereignis bestimmt, den sunspots“, das von allen beobachtet wird, und von dem die be” treffenden Verfasser glauben, daß es die endogenen Variablen (in diesem Falle die Preise) bestimme: Treten Sonnenflecken“ auf, dann g¨ abe es hohe Preise, anson” sten niedrige. Grunds¨ atzlich handelt es sich bei den sunspot-Modellen um Modelle sich selbst erf¨ ullender Erwartungen (vgl. Tichy [447]).
Zuf¨ alligkeiten und Regelm¨ aßigkeiten: Frisch und der Schaukelstuhl
325
erneut die Schwingungen in Gang zu setzen, deren Periode durch Eigenschaften bestimmt war, die dem System innewohnten (eine Auffassung, die dem in der physikalischen Resonanztheorie verwendeten Begriff der eigentlichen Periode nahe steht). Durch Unterscheidung der (zuf¨ alligen) Impulsmechanismen von den Mechanismen mit (periodischer) Ausbreitung war es also m¨ oglich, die Regelm¨ aßigkeit von Konjunkturzyklen zu ber¨ ucksichtigen, ohne sich auf externe Regelm¨ aßigkeiten wie zum Beispiel Sonnenflecken oder Venusphasen zu berufen. Die urspr¨ ungliche Idee zu diesem genialen Formalismus ging in indirekter Weise auf eine einfache, aber u ¨berraschende Beobachtung des russischen Statistikers Slutsky (1880–1948) zur¨ uck, die er 1927 (in Russisch mit einer englischen Zusammenfassung) in der Zeitschrift des Moskauer Instituts zur Erforschung von Wirtschaftszyklen ver¨offentlichte. Er untersuchte die Wirkung der Substitution einer Zeitreihe durch deren gleitendes Mittel , das zum Beispiel u ¨ber einen Zeitraum von zehn Monaten berechnet wurde. Dabei machte er folgende Feststellung: der u ul der Reihengl¨ attung – wodurch lang¨bliche Kalk¨ fristige Trends sichtbar gemacht werden sollten – erzeugt seinerseits Zyklen mit einer Periodizit¨ at von zehn Monaten. Durch Berechnung der gleitenden Mittel der Reihe der Ziehungen der Moskauer Lotterie stellte er eine Kurve auf, die in merkw¨ urdiger Weise den Schwankungen der Londoner B¨ orse ¨ ahnelte. Diese beunruhigende Entdeckung machte einen starken Eindruck auf einige Analysten von Konjunkturzyklen: pl¨otzlich war eine m¨ ogliche Erkl¨ arung vorgeschlagen worden, an die vorher niemand gedacht hatte. Dieser Fall leitete sich exakt aus dem oben angegebenen Modell ab: das gleitenden Mittel war ein linearer Operator, der auf eine Folge von zehn Beobachtungen angewendet wurde. Slutskys L¨osung hatte eine stabile periodische Komponente. Sein Geistesblitz wies einen Weg, wie man die Ausbreitung stabiler Zyklen auf der Basis einer zuf¨ alligen Ausgangslage analysieren kann. Im gleichen Jahr (1927) analysierte Yule die Art und Weise, in der zuf¨ allige Fehler k¨ unstlich erzeugte harmonische Reihen st¨ oren und verdecken k¨ onnen – zum Beispiel Reihen, die durch ein Pendel erzeugt werden. Dabei beobachtete er, daß bei St¨oßen, die in unregelm¨aßiger Weise auf das Pendel ausge¨ ubt werden, sich dessen Amplitude und Schwingungsphase stetig ¨ andern, nicht aber die Schwingungsperiode. Er stellte sich ein Kind vor, das in zuf¨ alliger Weise das Pendel mit Erbsen bombardiert. Zuf¨ allige St¨ orungen setzten also die Bewegung wieder in Gang, ¨anderten aber nicht die Periode, die mit den eigentlichen physikalischen Eigenschaften des Pendels zusammenhing. Das Gemeinsame dieser beiden einfachen Beweisf¨ uhrungen von Slutsky und Yule bestand darin, daß sie mit Hilfe einer Simulation arbeiteten, wobei sie mit einer Reihe von vollst¨andig zuf¨alligen Ereignissen (Lotterie-Ziehungen, Werfen von Projektilen) begannen und dann auf der Grundlage dieses reinen Zufalls Regelm¨ aßigkeiten zutage f¨orderten. Zur gleichen Zeit (in den 1920er Jahren) verwendete Fisher f¨ ur landwirtschaftliche Experimente die als kontrollierte ” Randomisierung“ bezeichneten Methoden. Auf dem Gebiet der Stichprobener-
326
9 Modellbildung und Anpassung
hebung siegte die Zufallsstichprobe endg¨ ultig u ¨ber die bewußte Auswahl“ 10 ” (vgl. Kapitel 7). Und schließlich begann man systematisch damit, im industriellen Herstellungsprozeß zuf¨allig ausgew¨ahlte Warenposten bei der Kontrolle von Standardproduktserien zu verwenden (Bayart, 1992, [9]). Auf diese Weise war es nicht nur m¨oglich, zuf¨allige Ph¨anomene mit Hilfe von Hypothesen u ¨ber ihre Verteilungen zu z¨ahmen. Die besagten Ph¨ anomene konnten vielmehr in positiver Weise auch zur Erzeugung von experimentellen Bedingungen verwendet werden, unter denen sich wissenschaftliche Tatsachen herausarbeiten und konsolidieren ließen. Das stellte eine entscheidende Transformation der Art und Weise dar, in der die wahrscheinlichkeitstheoretische Argumentation verwendet wurde. Diese Denkweise hing fr¨ uher (sogar in ihrer frequentistischen Version) mit der Vorstellung von einem unvollst¨ andigen Wissen, vom Ungewissen oder vom Unvorhersehbaren zusammen. Nun aber setzte sich die Auffassung durch, daß diese Denkweise eine Erzeugung anerkannter Fakten erm¨ oglicht. Diese grundlegende Wandlung des Standpunkts fand parallel zur radikal wahrscheinlichkeitstheoretischen Entwicklung der Physik statt, die sich insbesondere auch auf die Elementarteilchen bezog. Die neue Auffassung vom Zufall und seinen Wirkungen wurde von Ragnar Frisch (1895–1973) und Jan Tinbergen (1903–1994) aufgegriffen, um mit den alten Interpretationsweisen von Konjunkturzyklen zu brechen. Diese Interpretationen wiesen ein breites Spektrum auf – einerseits suchte man nach strengen Regelm¨aßigkeiten, die mit außer¨okonomischen Ursachen zusammenhingen (Jevons, Moore) und andererseits wurden monographische Analysen verfaßt, die jeden Zyklus isoliert betrachteten (Mitchell). Ausgangspunkt dieser Geschichte war die von Frisch (1928 und 1931) vorgeschlagene Methode zur Analyse von Zeitreihen. Techniken zur Zerlegung dieser Reihen in superponierte zyklische Komponenten mit konstanten Perioden wurden bereits seit langem angewendet – vor allem von Moore (Periodogramm-Methode). Aber der durch und durch deterministische Charakter dieser Anpassungsmethode konnte zu Interpretationen f¨ uhren, die f¨ ur absurd gehalten wurden (wie im Fall von Moore) oder aber jedenfalls f¨ ur ungerechtfertigt. Zudem erlaubte es diese Methode nicht, beobachtete Unregelm¨aßigkeiten – vor allem bez¨ uglich der Periodizit¨ at – zu ber¨ ucksichtigen. Ausgehend von der (in der N¨ ahe der Gedankeng¨ ange von Mitchell stehenden) Idee, daß jeder Zyklus lokale Eigenschaften hat, arbeitete Frisch ein Verfahren zur Sichtbarmachung superponierter Schwingungen aus, ohne jedoch a priori der Konstanz ihrer Perioden und Amplituden vorzugreifen. Der Kernpunkt seiner Methode bestand darin, nach und nach Schwingungen mit immer l¨angeren approximativen Perioden zu eliminieren. Frisch ging so vor, daß er bei jedem Schritt eine Kurve anpaßte, die durch die Wendepunkte der vorhergehenden Kurve ging. Dieses Verfahren erzeugt immer glattere Kurven und f¨ uhrt schließlich zu einem langfristigen Trend. Auf diese Weise konnten zun¨achst saisonbedingte Zyklen und danach kurzfristi10
Auch als gezielte Auswahl“ bezeichnet. ”
Zuf¨ alligkeiten und Regelm¨ aßigkeiten: Frisch und der Schaukelstuhl
327
ge Zyklen (drei bis vier Jahre), mittelfristige Zyklen (acht bis neun Jahre) usw. sichtbar gemacht werden. Analytisch lief die Methode darauf hinaus, zun¨ achst die ersten Differenzen (Xt − Xt−1 ), danach die zweiten Differenzen [(Xt − Xt−1 ) − (Xt−1 − Xt−2 )] und dann immer komplexere Linearkombinationen zeitlich verschobener Variabler zu berechnen. Ein System von linearen Operatoren erm¨oglichte es also, eine Zeitreihe in eine Menge von zeitlich ver¨ anderlichen harmonischen Reihen zu zerlegen, die nicht mehr streng periodisch wie im Periodogramm von Moore verlaufen. Frisch (1931, [98]) verglich diese Methode mit dem Ergebnis von Slutsky und untersuchte die Wirkung der linearen Operatoren in Kombination mit rein zuf¨ alligen St¨ orungen. Dabei erhielt er unregelm¨aßige periodische Schwingungen, die an tats¨ achlich beobachtete Reihen erinnerten. Das war der Ursprung des Schaukelstuhlmodells“ 11 , ¨” das er 1933 [99] in einem Artikel vorstellte. Die Uberschrift dieses Artikels spiegelte die wesentliche Intuition recht gut wider: Propagation problems ” and impulse problems in dynamic economics“. Frisch schrieb Wicksell die Metapher vom Schaukelpferd und auch die Idee zu, zwischen zwei Fragen zu unterscheiden – n¨amlich zwischen der Frage nach der Ausbreitung der Schwingungen durch systemimmanente lineare Operatoren und der Frage nach der Initialausl¨osung und der Wiederausl¨ osung dieser Schwingungen durch zuf¨allige ¨außere St¨orungen: Wicksell scheint der Erste zu sein, der die beiden Typen von Problemen der Zyklenanalyse definitiv erkannt hat, n¨ amlich das Ausbreitungsproblem und das Impulsproblem. Auch scheint er der Erste gewesen zu sein, der die Theorie formuliert hat, gem¨ aß der die Energie zur Aufrechterhaltung der Zyklen durch zuf¨ allige St¨ orungen geliefert wird. Er vertrat die Auffassung, daß das Wirtschaftssystem auf unregelm¨ aßige und ruckartige Weise vorw¨artsgetrieben wird ... Diese unregelm¨ aßigen Rucke f¨ uhren zu mehr oder weniger regelm¨ aßigen zyklischen Bewegungen. Er illustriert das durch ein einfaches und dennoch tiefsinniges Bild: wird ein h¨olzernes Schaukelpferd mit einem Stock geschlagen, dann bewegt es sich ganz anders als der Stock (Frisch, (1933, [99]), zitiert von Morgan, 1990, [204]). Bereits Jevons hatte sich eine vergleichbare Metapher zur Beschreibung der Zyklen ausgedacht: die Wogen des Meeres, die das Stampfen und Schlingern eines Schiffes verursachen. Die wesentliche Idee dabei ist, daß mehr oder we” niger regelm¨ aßige Schwankungen von einer unregelm¨ aßig wirkenden Ursache ausgel¨ ost werden k¨onnen; dies impliziert keinerlei Synchronismus zwischen 11
Das Schaukelstuhlmodell (Frisch-Modell) erkl¨ art den Konjunkturzyklus in einem gewissen Bereich in Analogie zu einem Schaukelstuhl, der nach einem Anstoß langsam ausschwingt, wenn er nicht immer wieder durch neue Anst¨ oße, die unregelm¨ aßig und unterschiedlich stark sein k¨ onnen, stets am Schwingen gehalten wird. Anstelle des Schaukelstuhls spricht man auch vom Schaukelpferd (rocking horse).
328
9 Modellbildung und Anpassung
der Anfangsursache und den Schwingungen des Systems“. Diese Sichtweise disqualifizierte die zuvor durchgef¨ uhrte Suche nach Korrelationen zwischen ¨ Ph¨ anomenen der Astronomie und der Okonomie. Mit der neuen Auffassung wurde auch folgende Idee eingef¨ uhrt: tritt ein Schock, das heißt ein unerwartetes Ereignis, erst einmal ein, dann breitet sich seine Wirkung in progressiv ged¨ ampfter Form aus und diese Ausbreitung l¨ aßt sich durch lineare Operatoren modellieren, mit denen zeitlich verschobene Variable verkn¨ upft werden. Auf diese Weise entwarf Frisch eine Formulierung, die auf zuf¨ alligen Simulationsverfahren und nicht auf einer effektiven Analyse von realen Reihen beruhte. Diese Formulierung inspirierte die ersten dynamischen makro¨ okonometrischen Modelle von Tinbergen (1937 [275] und 1939 [276]), bei denen die verschobenen Variablen angewendet wurden, die man zuerst in den Niederlanden und sp¨ ater in den Vereinigten Staaten beobachtet hatte. Der Artikel von Frisch (1933, [99]) hat großes Aufsehen erregt. Samuelson (1947, [248]) bekr¨ aftigte, daß dieser Beitrag in der Wirtschaft eine Revolution ausgel¨ ost hat, die mit ¨ dem Ubergang von der klassischen Mechanik zur Quantenmechanik vergleichbar sei. Dieser Vergleich ist f¨ ur den Einfluß der neuen Physik bezeichnend, die den Determinismus des 19. Jahrhunderts zugunsten wahrscheinlichkeitstheoretischer Konstruktionen aufgegeben hat – nicht nur vom makroskopischen und frequentistischen Standpunkt aus, sondern auch vom Standpunkt der elementaren Mechanismen (Quanten). Frisch war sich dessen bewußt, daß sein Beitrag in der Verkn¨ upfung zweier unterschiedlicher Ideen bestand, deren Vereinigung die Originalit¨at des Modells ausmachte: So erhalten wir durch die Verkn¨ upfung zweier Ideen – n¨ amlich 1.) stetige L¨ osung eines determinierten dynamischen Systems, und 2.) unstetige zuf¨ allige St¨orungen zur Lieferung der die Schwingungen aufrechterhaltenden Energie – eine theoretische Konstruktion f¨ ur eine rationale Interpretation der bei statistischen Reihen h¨ aufig beobachteten Bewegungen. Aber die L¨osung des determinierten dynamischen Systems liefert nur einen Teil der Erkl¨arung: diese L¨ osung bestimmt das System der Gewichtungen, die bei der Kumulation der zuf¨ alligen St¨ orungen verwendet werden m¨ ussen. Der andere und ebenso wichtige Teil der Erkl¨ arung liegt in der Aufhellung der allgemeinen Gesetze der Wirkung linearer Operatoren, die auf zuf¨allige St¨ orungen angewendet werden. (Ibid.)
Mittel gegen die Krise: Das Modell von Tinbergen Frisch machte einen klaren Unterschied zwischen der systeminternen deterministischen Dynamik und der Wirkung externer zuf¨ alliger St¨ orungen (random shocks) auf ein solches System. Indem er diesen Unterschied auch deutlich aussprach, bahnte er den Weg f¨ ur Operatormodelle in Bezug auf die Wirtschaftspolitik. Im Gegensatz zu den Modellbildungen der theoretischen Wirt-
Mittel gegen die Krise: Das Modell von Tinbergen
329
schaftswissenschaftler waren diese Modelle nicht mehr spekulativ. In der Krisensituation der 1930er Jahre kam die zuvor unbekannte Idee auf, daß die Regierungen auf die Gesamtbewegung der Wirtschaft und vor allem auf die regelm¨ aßig wiederkehrenden zyklischen Krisen und das in deren Gefolge entstehende Ungl¨ uck einwirken k¨onnten. Sind die Zyklen nicht vollst¨ andig deterministisch und k¨onnen sie durch random shocks gest¨ ort werden, dann ist es denkbar, entsprechend den beiden Aspekten des Modells von Frisch auf zwei unterschiedliche Weisen vorzugehen. Einerseits kann eine Regierung punktuell intervenieren, indem sie einen gewollten Schock aus¨ ubt, dessen Auswirkungen im Voraus im Modell analysiert worden sind. Andererseits k¨ onnen die internen Relationen im dynamischen System ebenfalls modifiziert werden – und zwar durch sogenannte strukturelle Umformungen“ mit Langzeitwirkung. Tinber” gen konzipierte und erarbeitete seine ersten ¨okonometrischen Modelle, um ein Werkzeug zu konstruieren, das aus der Verkn¨ upfung theoretischer Formalismen mit den verf¨ ugbaren statistischen Daten und aus der dringenden Notwendigkeit einer Wirtschaftspolitik resultierte, die sich von der vor der Krise praktizierten Politik unterschied. Diese Situation brachte ihn auf eine pragmatische Methode, eine Art theoretisch-empirischer Bastelarbeit, die sich sowohl von den formalen Geb¨auden der reinen Wirtschaftswissenschaft als auch von der deskriptiven Statistik der historizistischen Tradition unterschied, wie sie durch Mitchell oder durch die Technik der Wirtschaftsbarometer“ von Har” vard repr¨ asentiert wurde (Armatte, 1992, [6]). Als Tinbergen 1936 vom niederl¨andischen Wirtschaftsverband darum gebeten wurde, politische L¨osungen zur Bek¨ampfung des Konjunkturtiefs zu untersuchen, kam er dieser Bitte nach und antwortete, daß er die Physik, ” ¨ sein urspr¨ ungliches Spezialgebiet zugunsten der Okonomie aufgegeben habe, da er der Meinung sei, daß diese Wissenschaft f¨ ur die Gesellschaft n¨ utzlicher ist“. Seine Hauptidee bestand darin, die gesamte Wirtschaft dadurch vereinfacht darzustellen, daß man sie auf eine kleine Anzahl von Variablen und Relationen reduziert, um ein Modell zu bilden. Dieses Modell l¨ aßt sich dann experimentellen Versuchen unterziehen, so wie man es mit einem verkleinerten Flugzeugmodell im Windkanal macht. Aber der willk¨ urliche Charakter der Vereinfachung konnte nur im Laufe des eigentlichen Anwendungsprozesses in Frage gestellt werden und dieser Prozeß beinhaltete ein iteratives Hin- und Hergehen zwischen Hypothesen theoretischen Ursprungs und statistischen Sch¨ atzungen. Tinbergen faßte diese Praxis als eine Kunst“ auf, eine ” Art Kochkunst“ – und dieser Umstand sollte dem Publikum gegen¨ uber nicht ” verschleiert werden: Ich muß auf der Vereinfachung bestehen. Die Mathematik ist ein leistungsstarkes Werkzeug, darf aber nur verwendet werden, falls die Anzahl der Elemente des Systems nicht allzu groß ist. Die ganze Gemeinschaft muß schematisch in einem Modell“ dargestellt wer” den, bevor man irgendetwas N¨ utzliches machen kann. Der Schematisierungsprozeß ist mehr oder weniger willk¨ urlich und h¨ atte auch
330
9 Modellbildung und Anpassung
anders durchgef¨ uhrt werden k¨onnen. In gewissem Sinne handelt es sich um die Kunst“ der wirtschaftswissenschaftlichen Forschung ... ” Die Beschreibung des vereinfachten Modells – das zur Erkl¨ arung der Zyklen und zur Erarbeitung politischer Maßnahmen mit dem Ziel der Abschw¨achung dieser Zyklen verwendet wird – beginnt mit einer Aufz¨ ahlung der eingef¨ uhrten Variablen und setzt sich dann in der Aufz¨ ahlung der Gleichungen fort, von denen man annimmt, daß sie die besagten Variablen miteinander verkn¨ upfen. In Wirklichkeit entspricht diese Reihenfolge nicht dem angewendeten Verfahren. Man kann nicht a priori wissen, welche Variablen erforderlich sind und welche bei der Erkl¨arung des zentralen Ph¨anomens vernachl¨ assigt werden k¨ onnen. Das kann man erst im Verlauf der tats¨ achlichen Arbeit und ¨ vor allem nach der statistischen Uberpr¨ ufung der Hypothesen feststellen. In Wirklichkeit finden beide Phasen gleichzeitig statt; sie werden nur um der Klarheit willen in zwei Schritten dargestellt. Nichtsdestoweniger wirft man von Zeit zu Zeit einen Blick in die K¨ uche“, um ” den Eindruck zu vermeiden, daß Magie im Spiel ist. (Tinbergen (1937, [275]), zitiert von Morgan, 1990, [204]). Der gleichzeitig k¨ unstlerische und handwerkliche Aspekt der Arbeit Tinbergens – das heißt der Blick mit den Augen und die erforderliche Vertrautheit mit den statistischen Reihen und ihren Merkw¨ urdigkeiten – traten aufgrund des Fehlens von schnellen automatischen Rechenwerkzeugen verst¨ arkt in den Vordergrund. Man konnte sich nicht den Luxus leisten, unz¨ ahlige Regressionen zu u ufen. Tinbergen verwendete die grafische Methode der aufein¨berpr¨ ” andergeschichteten Teller“: die u ¨bereinander gezeichneten statistischen Reihen machen die Relationen sichtbar und das wiederum erleichtert die Auswahl der relevanten multiplen Regressionen und senkt den Rechenaufwand. Aber die besagte Auswahl war nicht rein empirisch, sondern richtete sich auch nach den Empfehlungen der verf¨ ugbaren Wirtschaftstheorien. Die Gleichungsabsch¨ atzungen wurden gesondert mit Hilfe der u ¨blichen Methode der kleinsten Quadrate durchgef¨ uhrt (der Begriff Simultan-Bias“ existierte noch ” nicht), aber mitunter f¨ ugte man Parameter, die bereits in einer anderen Gleichung gesch¨ atzt worden waren, in eine neue Gleichung ein. Die Abweichungen zwischen den beobachteten Variablen und den durch das Modell rekonstruierten Variablen wurden in die Grafiken u ¨bertragen und in Form von Residuen in den Gleichungen angegeben. Die statistische Verifikation“ beruhte nicht ” auf wahrscheinlichkeitstheoretischen Tests, sondern auf der Pr¨ ufung der Abweichung zwischen den Daten und dem Modell. Ein wesentliches Merkmal dieser Modellbildung bestand darin, daß die gesch¨ atzten Relationen zu einer Verkn¨ upfung der zeitlich verschobenen Variablen f¨ uhrten, wobei die Auswahl dieser Verschiebungen ein wesentlicher Bestandteil der von Tinbergen entwickelten Kochkunst“ war. Nach der Fest” legung eines Systems von 22 Gleichungen, das die gesamte niederl¨ andische Wirtschaft zusammenfassen sollte, analysierte er das System, um eine m¨ ogli-
Mittel gegen die Krise: Das Modell von Tinbergen
331
che zyklische Struktur seiner L¨osung herauszuarbeiten. Zu diesem Zweck f¨ uhrte Tinbergen eine Linearkombination der Relationen durch, um schrittweise s¨amtliche Variablen bis auf eine zu eliminieren. Das Endresultat war eine lineare Funktion, die eine Variable Zt mit ihren vorangehenden Werten Zt−1 und Zt−2 verkn¨ upfte. Diese Gleichung der zweiten Differenzen, die der im Schaukelstuhlmodell von Frisch analysierten Gleichung entsprach, f¨ uhrte unter gewissen Voraussetzungen zu ged¨ampften periodischen Schwingungen. Diese bildeten den Hintergrund der Konjunkturschwankungen, denen sich zuf¨ allige St¨ orungen oder bewußte Eingriffe der Wirtschaftspolitik u ¨berlagerten. Von der so erhaltenen zentralen Gleichung, in der die Koeffizienten der 22 Gleichungen ber¨ ucksichtigt und kombiniert waren, nahm man an, daß sie die gesamte Wirtschaftsstruktur zusammenfaßte; jedoch hatte diese Gleichung keine ¨ offensichtliche Bedeutung f¨ ur die Okonomie. Diese Technik ist als Nachtzug” analyse“ bezeichnet worden, denn sie scheint den Leser durch die Dunkelheit zu geleiten: ausgehend von ¨okonomisch interpretierbaren Relationen gelangt man zu einer zyklischen Struktur, die sich aus der Gleichung der zweiten Differenzen ergibt, durch welche ihrerseits Zt , Zt−1 und Zt−2 miteinander verkn¨ upft werden. Das zyklische Modell kann gest¨ort werden – entweder durch externe Ereignisse oder durch Regierungsentscheidungen. Im ersten Fall untersuchte Tinbergen die Wirkungen eines u ¨bernommenen internationalen Zyklus. Im zweiten Fall unterschied er zwischen zwei Typen von Entscheidungen: zum einen ging es um Entscheidungen, die sich nur auf externe Schocks bezogen (Konjunkturpolitik); zum anderen handelte es sich um tieferliegende Erscheinungen, von denen die Koeffizienten des zentralen Systems der Relationen beinflußt wurden (Strukturpolitik). Vom Standpunkt der makro¨ okonomischen Regulierung (vor allem zur Senkung der Arbeitslosigkeit) untersuchte er sechs m¨ ogliche Formen des Eingreifens durch die Regierung: Programme f¨ ur gemeinn¨ utzige Bauarbeiten, protektionistische Maßnahmen, industrielle Rationalisierungspolitik, Senkung der Monopolpreise und schließlich Lohnsenkungen und Geldabwertung. Ebenso untersuchte er Ausgleichsmaßnahmen f¨ ur einen u ¨bernommenen Zyklus durch Manipulationen des Wechselkurses oder durch ¨ offentliche Investitionen. Mit Hilfe dieser Modellbildung durch ein System von Gleichungen, in denen die zeitlich verschobenen Variablen miteinander verkn¨ upft wurden, f¨ uhrte Tinbergen starke Randbedingungen in die Debatten ein: dabei ging es um die Zusammenh¨ ange zwischen den Wirtschaftstheorien und deren Anwendungen auf Maßnahmen gegen die Krisenzyklen. Die theoretischen Hypothesen mußten ebenso wie die Regierungsmaßnahmen exakt formuliert sein, wenn man pr¨ azise Schlußfolgerungen ziehen wollte. Dar¨ uber hinaus (aber das hatte Tinbergen nicht eindeutig formuliert) mußten die Wirtschaftstheorie, die statistischen Daten und die Instrumente der Wirtschaftspolitik von nun an in einer gemeinsamen Sprache formuliert werden – in einer Sprache, die ein m¨ uheloses Zirkulieren der Ideen zwischen ¨ theorieproduzierenden Wissenschaftszentren, statistischen Amtern und Regierungskommissionen erm¨oglichte, welche die politischen Maßnahmen vorberei-
332
9 Modellbildung und Anpassung
teten. Die volkswirtschaftliche Gesamtrechnung spielte nach dem Krieg eine wesentliche Rolle bei der Koordinierung – wenn nicht gar bei der Vereinheitlichung – dieses Dreiecks aus Wissenschaft, Information und Aktion. Das niederl¨ andische Modell von 1936 fand außerhalb der Niederlande keine große Resonanz. Aber kurze Zeit sp¨ater wurde Tinbergen vom V¨ olkerbund gebeten, die von Haberler (1937) – ebenfalls auf Ersuchen des V¨ olkerbundes – gesammelte und ver¨offentlichte große Auswahl von Zyklentheorien zu testen. Die beiden aufeinanderfolgenden Berichte, die 1939 ver¨ offentlicht wurden, pr¨ asentierten einerseits eine detaillierte Diskussion der Methode und andererseits die Ergebnisse des Modells f¨ ur die Vereinigten Staaten. Die Berichte hatten eine nachhaltige Wirkung und l¨osten so manche wohlwollenden, aber auch kritischen Kommentare aus. Außerdem waren die Berichte der Ausgangspunkt f¨ ur die Tradition der makro¨okonomischen Modelle, die ihren H¨ ohepunkt in den 1960er und 1970er Jahren erreichte. Der erste Bericht testete die von Haberler gesammelten verbalen Theorien“ (das heißt die nicht durch Gleichungen for” ¨ malisierten Theorien) vom Standpunkt ihrer Ubersetzbarkeit in Relationen, die sich unter Umst¨anden durch statistische Verfahren pr¨ ufen und sch¨ atzen lassen. Besser gesagt: es handelte sich weniger darum, eine Theorie zu verifizieren, was der Statistiker laut Tinbergen gar nicht tun kann. Vielmehr ging es darum, die G¨ ultigkeitsgrenzen der betreffenden Theorie zu suchen und diejenigen F¨ alle aufzudecken, in denen sich die betreffende Theorie nicht anwenden l¨ aßt. Tinbergen vertrat also den Popperschen Standpunkt, gem¨ aß dem die Wahrheit wissenschaftlicher Fakten mit deren Nichtfalsifikation zusammenh¨ angt, das heißt mit der Stichhaltigkeit der Einarbeitung dieser Fakten ¨ in ein Netz anderer Fakten. Tinbergen pr¨azisierte also die Aufgaben des Okonomen und des Statistikers. Ferner pr¨azisierte er die Rolle der Korrelation, mit der die Relationen getestet werden, und die Rolle der Regression, mit der die St¨ arke dieser Relationen gemessen wird. ¨ Die einer Pr¨ ufung unterzogenen Theorien werden vom Okonomen geliefert, der daf¨ ur auch weiterhin die Verantwortung tr¨ agt. Ein statistischer Test kann nicht beweisen, daß eine Theorie korrekt ist – er kann lediglich beweisen, daß sie unkorrekt oder zumindest unvollst¨ andig ist, indem er zeigt, daß durch diese Theorie eine spezielle Tatsachenmenge nicht abgedeckt wird. Und selbst dann, wenn eine Theorie mit den Tatsachen u ¨bereinzustimmen scheint, kann es sein, daß sich eine andere Theorie, die ebenfalls mit den Tatsachen u ¨bereinstimmt, vom Standpunkt neuer Tatsachen oder sp¨aterer theoretischer Entwicklungen als die wahre“ Theorie erweist. Folglich ist der Sinn begrenzt, ” in dem der Statistiker die Verifikation“ einer Theorie liefern kann. ” Aber andererseits beschr¨ankt sich die Rolle des Statistikers nicht auf diese Verifikation“. Die gesuchten direkten kausalen Beziehungen ver” kn¨ upfen im Allgemeinen nicht nur zwei Reihen (eine Ursache und eine Wirkung) miteinander, sondern eine abh¨ angige Reihe und mehrere Ursachen. Wir suchen nicht nur danach, welche Ursachen wirken, son-
Ingenieure und Logiker
333
dern auch, mit welcher St¨arke jede von ihnen wirkt; andernfalls w¨ are es nicht m¨ oglich, die Endresultante der in entgegengesetzten Richtungen wirkenden Ursachen ans Licht zu bringen. (Tinbergen, (1939, [276]), zitiert von Morgan, 1990, [204]). Die Robustheit der Gesamtkonstruktion wird auf mehrere Weisen gew¨ ahrleistet und getestet. Das Modell kann auf andere L¨ ander oder auf andere Zeiten angewendet werden. Die f¨ ur mehrere Teil-Zeitr¨ aume berechneten Strukturkoeffizienten werden miteinander verglichen. Tinbergen testete auch die Nor” ¨ malit¨ at“ (das heißt die Ubereinstimmung mit einer Normalverteilung) und die zeitliche Korrelation der Residuen, um zu u ufen, ob diese mit Zie¨berpr¨ hungen in einer normalverteilten Grundgesamtheit vergleichbar sind und ob die sogenannten zuf¨alligen St¨orungen wirklich zuf¨ allig sind. Dar¨ uber hinaus berechnete er auch die Varianz der Koeffizientenabsch¨ atzungen, um sich von deren Bedeutung zu vergewissern. Aber in anderen F¨ allen erfolgte die Verifikation – oder vielmehr die Nichtfalsifikation im obengenannten Sinne – durch die Begriffe der ¨okonomischen Likelihood“ und der F¨ ahigkeit des Modells, ” beobachtete historische Entwicklungen zu ber¨ ucksichtigen. So wurde etwa eine marginale Konsumneigung verworfen, wenn sie gr¨ oßer als 1 war oder wenn sie f¨ ur Haushalte mit geringem Einkommen niedriger war als f¨ ur Haushalte mit hohem Einkommen.
Ingenieure und Logiker Die volumin¨ osen Berichte von Tinbergen an den V¨ olkerbund riefen lebhafte Kontroversen hervor. Der ber¨ uhmteste Einwand stammte von Keynes und wurde in einer 1939 ver¨offentlichten Rezension des ersten Berichts erhoben (damals kannte Keynes den zweiten Bericht noch nicht, der einige seine Kritikpunkte im Voraus beantwortetet hatte). Zwar hatte es einerseits den Anschein, daß Keynes die neuesten Entwicklungen zu den dynamischen Zyklenmodellen (vor allem das Modell von Frisch zu den random shocks) nicht kannte. Dennoch stellte er grundlegende Fragen zur statistischen Induktion und zur o ¨konomeuberstehenden Positionen waren trischen Methode.12 Die beiden sich gegen¨ f¨ ur zwei Auffassungen von den Beziehungen zwischen Theorie, Beobachtung und Handeln charakteristisch – Auffassungen, die aus unterschiedlichen intellektuellen und fachlichen Traditionen hervorgegangen waren. Die Position Tinbergens a ¨hnelte der eines Ingenieurs, der Prototypen entwirft und testet, indem er zun¨ achst reduzierte Modelle und dann Modelle wahrer Gr¨ oße verwendet. Seine Epistemologie kann mit der Auffassung Karl Pearsons und dessen Grammatik der Wissenschaft in Verbindung gebracht werden. Die wahren ” 12
Ein f¨ ur Keynes ziemlich ung¨ unstig ausfallender Kommentar zu diesem Streit stammt von Morgan, 1990, [204]. Patinkin (1976, [218]) und Bateman (1990, [8]) betonten und kommentierten die epistemologischen Probleme, die der Streit aufgeworfen hatte.
334
9 Modellbildung und Anpassung
Ursachen“ sind nicht erkennbar oder sie sind lediglich Hypothesen, die stets falsifizierbar sind. Ein Modell ist gut“, wenn es den Dingen einen stabilen ” Zusammenhalt verleiht, das Pr¨ ufen von wirtschaftspolitischen Alternativen und das Messen der entsprechenden Wirkungen erm¨ oglicht. Keynes vertrat einen ganz anderen Standpunkt, der mit seinem Werdegang zusammenhing. Dieser Standpunkt ging aus einer (vor allem von seinem ¨ Vater vertretenen) universit¨aren Tradition der politischen Okonomie und einer Erkenntnisphilosophie hervor, wie sie in Cambridge zu Beginn des 20. Jahrhunderts diskutiert worden war. Keynes verfolgte mit seinem Treatise on Probability (1921) das Ziel, eine Induktionslogik zu begr¨ unden. Seine Auffassung von der Wahrscheinlichkeitsrechnung war antifrequentistisch und stand in der N¨ ahe der Idee vom Glaubensgrad“. F¨ ur ihn war die Wahrscheinlichkeit ” eine logische Beziehung zwischen einer Behauptung und der sie st¨ utzenden Information. Die Abhandlung von Keynes f¨allt in den Bereich der Wissenschaftsphilosophie, genauer gesagt in den Bereich der Logik. Keynes hatte bereits 1910 in jungen Jahren seine Ideen zur Wahrscheinlichkeitsrechnung und zur statistischen Induktion anl¨aßlich einer Kontroverse zum Ausdruck gebracht, die ihn zum Gegner von Karl Pearson gemacht hatte. Dieser hatte eine Studie geleitet, in der nachgewiesen werden sollte, daß der Alkoholismus von Eltern keinen Einfluß auf die k¨orperlichen und geistigen F¨ ahigkeiten ihrer Kinder hat.13 In einer Reihe von Artikeln, die 1910 und 1911 im Journal of the Royal Statistical Society ver¨offentlicht wurden, kritisierte Keynes die Pearsonsche Verfahrensweise der statistischen Induktion: Pearson extrapoliert auf der Grundlage kleiner Stichproben und vor allem vergewissert er sich beim Vergleich zweier Stichproben nicht davon, daß Ursachen, die vom Alkoholismus verschieden sind, m¨oglicherweise keine Erkl¨ arung f¨ ur die aufgezeichneten Ergebnisse liefern (Bateman, 1990, [8]). Keynes hatte die theoretischen Argumente, die er gegen Pearson vorbrachte, im Treatise von 1921 entwickelt und systematisiert und 1939 in der Diskussion mit Tinbergen noch einmal aufgegriffen. Die Werkzeuge der statistischen Inferenz wurden in den 1930er Jahren transformiert (vor allem durch Egon Pearson, den Sohn von Karl Pearson), ¨ aber Keynes stellte – hinsichtlich der von nun an von den Okonometrikern und insbesondere von Tinbergen verwendeten Methoden der Korrelation und der Regression – auch weiterhin seine bereits 1910 aufgeworfene Frage nach der vollst¨ andigen Aufz¨ahlung der Ursachen: Die Analysemethode der multiplen Korrelationen ist nur dann stich¨ haltig, wenn der Okonom nicht nur eine Liste der wirkenden Ursachen geliefert hat – was auf den ersten Blick korrekt ist – sondern auch eine vollst¨ andige Liste. Nehmen wir beispielsweise an, daß drei Faktoren ber¨ ucksichtigt wurden; es reicht nicht aus, daß diese zu den wahren Ursachen geh¨oren. Zus¨atzlich muß noch gew¨ ahrleistet sein, daß es kei13
Das war eines der typischen Themen, die im Mittelpunkt der Interessen von Karl Pearson standen: er wollte zeigen, daß diese Faktoren erblich sind und nichts mit der Lebensweise der Eltern zu tun haben.
Ingenieure und Logiker
335
nen anderen wirkenden Faktor gibt. Gibt es doch noch einen weiteren, unber¨ ucksichtigten Faktor, dann kann man auch nicht die relative Bedeutung der drei ersten Faktoren messen. Folglich ist die Methode ¨ nur dann anwendbar, wenn der Okonom im Voraus eine zweifelsfrei vollst¨ andige Analyse der wirkenden Ursachen liefern kann (Keynes (1939, [151]), zitiert von Patinkin, 1976, [218]). Beim Zitieren dieser Stelle aus der Kritik, die Keynes an Tinbergen u ¨bte, f¨ ugt Patinkin hinzu: Was k¨onnte den Spezifikationsbias besser beschreiben?“ ” Anschließend wollte Patinkin zeigen, daß Keynes auf seine Weise die Haupt¨ probleme der entstehenden Okonometrie bereits intuitiv erfaßt hatte und legte den Gedanken nahe, daß Keynes durch seine Kritik der zeitlich verschobenen Variablen – die im Modell von Tinbergen eine zentrale Rolle spielen – auch die Idee des Simultan-Bias vorweggenommen hatte: Tinbergen wendet eine sequentielle Analyse mit nicht gleichzeitigen Ereignissen und Zeitverschiebungen an. Was geschieht, wenn das untersuchte Ph¨anomen seinerseits auf die Faktoren reagiert, durch die man es erkl¨ art? Zum Beispiel l¨aßt Tinbergen bei der Untersuchung von Investitionsschwankungen diese Schwankungen von Gewinnschwankungen abh¨angen. Aber was geschieht, wenn diese Schwankungen teilweise (wie es tats¨achlich der Fall ist) von den Investitionsschwankungen abh¨ angen? (Keynes (1939, [151]), zitiert von Patinkin, 1976, [218]). ¨ Von den wirkenden Ursachen, die der Okonom nicht in die einklagba” re“ vollst¨ andige Liste aufnehmen kann, erw¨ahnt Keynes explizit die folgenden: nicht meßbare Faktoren wie zum Beispiel psychologische, politische oder soziale Variable, gedankliche Vorwegnahmen und Vertrauenszust¨ ande. Aber Keynes m¨ ußte seine Terminologie nur geringf¨ ugig ¨ andern – indem er nicht ” meßbarer Faktor“ durch nicht gemessenen Faktor“ ersetzt – um von dem ” ¨ kategoriellen Realismus abzuweichen, der seine Außerungen durchdringt, und ¨ um die Konventionen zur Bezeichnungsweise, zur Aufstellung von Aquivalenzen und zur Kodierung der Objekte als integrierenden Bestandteil des Erkenntnisprozesses in Betracht zu ziehen. Der Treatise on Probability verkn¨ upft das induktive Argument nicht nur eng mit der Anzahl der F¨ alle, in denen eine Aussage verifiziert wird, sondern auch mit der Idee einer positiven oder negativen Analogie. Die Wahrscheinlichkeit einer Aussage wird durch eine neue Beobachtung nur in dem Maß erh¨oht, in dem sich diese Beobachtung von den vorhergehenden in Bezug auf Faktoren unterscheidet, die vom untersuchten Faktor abweichen. Der Begriff der negativen Analogie erm¨ oglicht es, etwaige Ursachen aus der Liste zu eliminieren. Aber diese rein logische Vorstellung, die Keynes von der Analogie hatte, setzte voraus, daß die Konstruktion der ¨ ihr zugrundeliegenden Aquivalenz außerhalb des zu untersuchenden Bereiches liegt – das war der Standpunkt eines Philosophen.
336
9 Modellbildung und Anpassung
Der methodologische Realismus von Keynes ist auch bei einer anderen Kritik erkennbar, die er dreißig Jahre sp¨ater gegen¨ uber den Methoden von Pearson und Tinbergen formulierte. Die Hauptidee dieser Kritik war das Thema der Inhomogenit¨at der Natur in Raum und Zeit. Die Wahrscheinlichkeitsur” nen“ waren von ver¨anderlicher F¨ ullung – nichts garantierte die Stabilit¨ at der von Tinbergen berechneten Strukturkoeffizienten. Keynes weigerte sich, die konventionelle und praktische Seite des Tinbergen-Modells zu sehen, die nach der Pr¨ ufresistenz und F¨ahigkeit dieses Modells beurteilt wurde, Varianten der Wirtschaftspolitik zu testen, und nicht darauf beruhte, ob das Modell die wahre Realit¨ at“ ausdr¨ uckte. Diese Kritik veranlaßte ihn, die intrinsische Va” ¨ riabilit¨ at der Natur hervorzuheben und deswegen die Aquivalenzkonventionen abzulehnen, auf die Tinbergen in seinem Modell nicht verzichten konnte. Als Keynes jedoch in seinem Treatise on Probability die logischen Voraussetzungen f¨ ur eine legitime Induktion analysierte, bemerkte er anhand fiktiver Beispiele ¨ zur Farbe der V¨ ogel, daß seine Uberlegung nur unter der Voraussetzung g¨ ultig ist, daß man eine endliche Anzahl von Vogelarten und Farben annimmt. Das impliziert jedoch, daß eine taxonomische Reduktion stattgefunden hat. Er rechtfertigte diese wesentliche Hypothese einer endlichen Zahl von Arten“ ” durch die zutreffenden Ergebnisse, die er in der Vergangenheit erzielt hatte, aber dies bleibt eine Hypothese und kann nicht bewiesen werden“ (zitiert ” von Bateman, 1990, [8]). Er war also sehr nahe daran, die taxonomischen Konventionen ernst zu nehmen. Aber der von ihm vertretene Standpunkt zur ¨ Behandlung der Induktion hinderte ihn an der Erkenntnis, daß eine Aquivalenz nicht (logisch) bewiesen, sondern – bisweilen mit großem Aufwand – konstruiert werden muß und sich anschließend auch noch als resistent gegen¨ uber Zerst¨ orungspr¨ ufungen erweisen muß.
¨ Uber den richtigen Gebrauch der Anpassung Die Diskussionen u ¨ber die Modelle von Frisch und Tinbergen gaben einer alten und st¨ andig wiederkehrenden Debatte einen neuen Inhalt – der Debatte zur relativen Rolle von Theorie und Beobachtungen, von Deduktion und Induktion in der Wirtschaftswissenschaft. Die Entwicklung der inferentiellen Statistik, die Parameter sch¨atzt und Modelle testet, erm¨ oglichte die Herstellung enger Verbindungen zwischen zwei Welten – zwischen der Welt der Theorie und der Welt der Beschreibung, die zuvor nichts voneinander wußten. In den 1930er Jahren setzte die Diversifizierung des Angebots der m¨ oglichen Diskurse u ¨ber diese Fragen ein. Zu diesem Zeitpunkt ließen sich die M¨ oglichkeiten, diese beiden Universen miteinander zu verbinden, in drei Schwerpunkten zusammenfassen: die Theorie ist prim¨ar und kann nicht falsifiziert werden; nichts Allgemeines kann behauptet werden und man kann nichts anderes tun, als die Vielfalt zu beschreiben; vorl¨aufige Modelle k¨onnen durch Tests gepr¨ uft werden. Außerdem konnten die Abweichungen zwischen den Beobachtungen und den Verallgemeinerungen (ganz gleich, ob man diese als Theorien, Gesetze,
¨ Uber den richtigen Gebrauch der Anpassung
337
Regelm¨ aßigkeiten oder Modelle bezeichnete) entsprechend den verschiedenen Rhetoriken interpretiert werden. Diese beiden unterschiedlichen, aber miteinander zusammenh¨angenden Probleme standen im Mittelpunkt der Frage nach dem Realismus der statistischen Konstruktionen. In Ermangelung einer guten“ Antwort, wie sie vom Urteil der Geschichte gef¨ allt worden w¨ are, ” k¨ onnen wir die Entwicklung der Wege beschreiben, auf denen Antworten formuliert worden sind. Vor allem aber k¨onnen wir davon abkommen, Theorien und Beobachtungen einander gegen¨ uberzustellen. Wir k¨ onnen von dieser Gegen¨ uberstellung abkommen, indem wir die Frage nach der Anwendung und Registrierung der Formalisierungen in die uns interessierenden Netze verlagern, n¨ amlich in die Netze der Messungen und der Maßnahmen.14 Es handelt sich also sowohl um eine metrologische als auch um eine politische Frage. Die Art und Weise, in der Tinbergen sein Modell konstruierte, anwendete und rechtfertigte, ist eine gute Illustration dieses Standpunkts. Von diesem Standpunkt aus waren die 1930er und 1940er Jahre entscheidend, denn in dieser Zeit wurden neue Verbindungen hergestellt – Verbindungen, auf die sich noch heute die Sprache einer ¨okonomischen Rationalit¨ at st¨ utzt, die operativ ist und nicht nur spekulativ, wie sie es fr¨ uher war. Bis zu dieser Zeit waren die Verbindungen zwischen Wirtschaftstheorie und statistischen Aufzeichnungen nur geringf¨ ugig, da beide Methoden kontr¨ ar zueinander ausgerichtet waren. Die eine Verfahrensweise beruhte auf dem Modell der physikalischen Wissenschaften und setzte a priori voraus, daß sich das individuelle Verhalten nach den allgemeinen Prinzipien der Maximierung und Optimierung richtet; hieraus wurde (zumindest theoretisch) eine deterministische Darstellung des Wirtschaftslebens abgeleitet. Die andere Verfahrensweise, die zun¨achst von Quetelet und sp¨ ater von Karl Pearson und Yule angeregt worden war, sah in den beobachteten Regelm¨ aßigkeiten und Korrelationen die einzigen Gesetze“ oder Ursachen“, von denen man ” ” als Wissenschaftler berechtigterweise sprechen konnte. Im erstgenannten Fall konnte man bestenfalls die Parameter eines theoretischen Modells messen, das a priori als wahr vorausgesetzt wurde. Im zweiten Fall konnten die Gesetze ¨ nur bei einer Uberf¨ ulle von Daten zutage treten. Eine dritte Herangehensweise war m¨ oglich, n¨ amlich das Testen einer Theorie, die einer Kritik unterzogen wird und dann auf der Grundlage von Beobachtungen best¨ atigt oder abgelehnt wird. Diese Haltung war im 19. Jahrhundert selten: Lexis vertrat diesen Standpunkt, als er die von Quetelet vorgestellten Regelm¨ aßigkeiten kritisierte (vgl. Kapitel 3). In den drei genannten F¨allen waren es unterschiedliche Rhetoriken, die eine Kombination der Sprache der Gesetze und der Sprache der statistischen Tafeln erm¨oglichten. F¨ ur diejenigen, die allgemeine theoretische Prinzipien postulierten, schien die Vorstellung, diese Prinzipien im Wirrwarr der statistischen Aufzeichnun14
Im Franz¨ osischen ist von der doppelten Bedeutung des Wortes mesure“ die Rede, ” das in diesem Zusammenhang einerseits Messung“ (metrologischer Aspekt) und ” andererseits Maßnahme“ (politischer Aspekt) bedeutet. ”
338
9 Modellbildung und Anpassung
gen wiederzufinden, lange Zeit fast utopisch und hoffnungslos zu sein. Diese Auffassung deckte sich nahezu vollst¨andig mit dem, was Cournot und Edge¨ worth sagten. Beide stellten fundierte Uberlegungen u ¨ber die Bedeutung der Wahrscheinlichkeitsrechnung zur Begr¨ undung und Untermauerung des Wissens an, verwendeten aber diese Werkzeuge in ihren Arbeiten zur Wirtschaftstheorie nicht. Keynes machte sich mit großer Energie daran, die Rolle der Wahrscheinlichkeitsrechnung bei der Induktion zu analysieren, aber er verhielt sich reserviert und skeptisch gegen¨ uber den Tinbergenschen Versuchen zur globalen Modellierung der Wirtschaft.15 Auf einer tieferliegenden Ebene war das Modell der Physik – das auf der Homogenit¨ at der Natur, der Objekte und der sie verbindenden Kr¨afte beruhte – kaum dazu geeignet, die Ver¨ anderlichkeit der Gesellschaften zu ber¨ ucksichtigen. Das Fehlen einer kontrollierten experimentellen Situation und die Nichteinhaltung der Ceterisparibus-Klausel waren ein st¨andig wiederkehrendes Thema in den wiederholten Debatten u ¨ber die M¨oglichkeit, die in den Naturwissenschaften so erfolgreichen empirischen Techniken auf die Wirtschaftswissenschaft anzuwenden. Die von den Statistikern sukzessiv entworfenen Verfahren stellten alle zu einem gewissen Zeitpunkt eine Antwort auf die Frage dar, ob es unm¨ oglich ist, die experimentelle Methode auf die Sozialwissenschaften anzuwenden: die Regelm¨ aßigkeiten und subjektiven Mittelwerte von Quetelet, der Eindeutigkeitstest der Wahrscheinlichkeitsurne“ von Lexis, die partielle Korrelation ” und die multiple Regression von Yule, sowie die Varianzanalyse und die Randomisierungstechnik von Fisher. Aber diese wiederholten Bem¨ uhungen reich¨ ten – zumindest bis in die 1920er Jahre – nicht dazu aus, die Okonomen in Versuchung zu f¨ uhren. In seinem 1913 erschienenen Buch behandelte Lenoir bez¨ uglich der Angebots- und Nachfrageelastizit¨ at die deduktive Methode und die Regressionssch¨atzung nebeneinander, ohne sie jedoch miteinander zu vermengen (aber das Bestreben, beide Verfahren miteinander zu vergleichen, war dennoch klar erkennbar). Und schließlich war Keynes, als er Tinbergen 1939 kritisierte, ganz offensichtlich der Meinung, daß ein ¨ okonometrisches Modell ¨ nicht der Ursprung neuer Ideen zur Okonomie sein konnte: empirische Arbeit bewirkt keine Entdeckungen; sie kann lediglich Theorien illustrieren oder deren Parameter sch¨atzen. Steht das Modell im Widerspruch zur Theorie, dann sind die Daten falsch, nicht aber die Theorie. Am anderen Ende des erkenntnistheoretischen Spektrums kann man als radikalstes aller Verfahren die rein deskriptive Methode und die induktive Methode ausmachen, bei der die Regelm¨aßigkeiten und Gesetze auf der Grundlage von Beobachtungen zum Vorschein gebracht werden sollten. Die erstgenannte Methode war f¨ ur die deutsche historische Schule und f¨ ur gewisse amerikanische Institutionalisten typisch. Diese Methode war durch die Auffassung charakterisiert, daß die jeweiligen Situationen inkommensurabel sind 15
Zumindest ist Keynes so anspruchsvoll hinsichtlich der Voraussetzungen f¨ ur eine legitime Induktion, daß er die ersten makro¨ okonometrischen Konstruktionsversuche zu diskreditieren scheint.
¨ Uber den richtigen Gebrauch der Anpassung
339
und daß sich keine ahistorische allgemeine Regelm¨ aßigkeit ohne irgendeinen Kunstgriff herausarbeiten l¨aßt. Die Analyse der Konjunkturzyklen war ein paradoxes Gebiet, um eine derartige Konzeption anzuwenden: Juglar (1819– 1905) und sp¨ ater Mitchell (1878–1948) versuchten, die Zyklen zu beschreiben und zu analysieren, indem sie die Auffassung vertraten, daß jeder dieser Zyklen in seiner Art einmalig ist und auf unterschiedliche Weise erkl¨ art werden muß. Das schr¨ ankte selbstverst¨andlich die Anwendung dieser Untersuchungen auf Prognosen ein. Die zweite Methode, die in umfassenderer Weise induktiv angelegt war, akzeptierte die Existenz von Regelm¨ aßigkeiten, die einer makroskopischen Ordnung zugrunde liegen, welche ihrerseits aus dem mikroskopischen Chaos entsteht. Karl Pearson formulierte in seiner Grammatik der Wissenschaft diese mitunter als instrumentalistisch bezeichnete Betrachtungsweise explizit durch seine Weigerung, sich mit der letztlichen Realit¨ at der Dinge und mit kausalen Beziehungen zu befassen. Dieser Antirealismus hatte mit Mach, den Pearson bewunderte, auch in den Naturwissenschaften sein entsprechendes Gegenst¨ uck. Von diesem Standpunkt aus reduzierten sich die Abweichungen zwischen den Beobachtungen und dem aus ihnen extrahierten Verteilungsgesetz“ auf die Residuen (die bei diesem besonderen Kausalit¨ ats” typ nicht erkl¨ art“ sind). Diese Residuen ließen sich ebenso gut als Meßfehler ” wie auch als Abbild weggelassener Variabler“ oder als ver¨ anderliche Gr¨ oße ” unbekannten Ursprungs interpretieren (was fast auf dasselbe hinausl¨ auft). Es war kein Wahrscheinlichkeitsmodell erforderlich, da die Regelm¨ aßigkeiten keinen logischen Status hatten, der sich vom Beobachtungsstatus unterschied, w¨ahrend sp¨ ater die inferentielle Statistik sorgf¨ altig zwischen dem theoretischen Zufallsraum (Urne) und der Stichprobe der beobachteten Daten (gezogene Kugeln) unterscheidet. Eine dritte m¨ogliche Auffassung bez¨ uglich der Wechselwirkung zwischen Theorien und Beobachtungen bestand darin, die Konsistenz der Modelle im Hinblick auf die Daten zu testen, oder besser noch, sich die Kostenfunktionen f¨ ur die Konsequenzen der Annahme oder der Ablehnung einer Hypothese vorzugeben, was vor allem Neyman und Egon Pearson taten. In diesem Fall entzog sich die Realismusfrage der traditionellen Alternative, welche diejenigen philosophischen Positionen gegeneinander aufgebracht hatte, die den beiden vorher genannten Auffassungen zugrunde lagen. Diese dritte Auffassung bereitete den Boden f¨ ur die rhetorische Trennung vor, die f¨ ur die modernen Anwendungen von Argumenten charakteristisch ist, welche sich ihrerseits auf empirische Beobachtungen st¨ utzen. Der linguistische Operator dieser Trennung ist der Ausdruck alles geschieht so, als ob“, der eine parallele For” mulierung zweier Ausdruckstypen – des realistischen Typs einerseits und des instrumentalistischen Typs andererseits – erm¨ oglicht (Lawson, 1989, [169]). Die mit der Annahme oder Ablehnung des Modells assoziierten Kostenfunktionen erm¨ oglichen es zumindest virtuell, die Wahrheit einer Behauptung mit einem umfassenderen Netz von Aussagen zu verkn¨ upfen – die Beurteilung der Konsistenz erfolgt dann nicht mehr in Bezug auf isolierte Behauptungen, sondern in Bezug auf das betreffende Netz. Die Erweiterung dieses Netzes und die
340
9 Modellbildung und Anpassung
Liste der dabei einbezogenen Menschen und Aussagen sind dann also sehr variabel. Die Kontroverse ¨anderte sich ihrem Wesen nach und bezog sich fortan auf diese Liste. Die Begriffe Paradigma“ oder Argumentationsstil“ verwei” ” sen auf eine ¨ ahnliche Auffassung: ein Test bezieht sich auf die Koh¨ arenz, die Solidit¨ at und die Ergiebigkeit einer Gesamtheit von Aussagen, die aus einem System von Aufzeichnungen, Definitionen und Kodierungen hervorgehen, welche ihrerseits miteinander durch das verkn¨ upft sind, was sie bedeuten und was sie veranlassen (Crombie, 1981, [52]; Hacking, 1991, [120]). Diese Auffassung erm¨ oglicht es, die im Kapitel 8 aufgeworfenen Fragen (zu den Taxonomien und zur Kodierung) sowie die im vorliegenden Kapitel genannten Fragen (zur Modellbildung und Anpassung zwischen Theorien und Daten) im Rahmen ein und derselben Problematik zusammenzufassen, w¨ ahrend diese Themen h¨ aufig in zueinander disjunkten Kontexten und Registern behandelt werden. Die Sprache der Wahrscheinlichkeitsrechnung erm¨ oglichte es ab Beginn der 1930er Jahre, das Netz der Aufzeichnungen und die A-priori -Modellbildungen in einer vollkommen neuen Art und Weise zur Geltung kommen zu lassen – ganz anders als bei dem fr¨ uheren manich¨ aischen Gegensatz zwischen dem Ganzen in der Theorie“ und dem Ganzen in den Beobachtungen“. ” ” Der Begriff Likelihood 16 wurde von Fisher als Alternative zur alten inversen ” Wahrscheinlichkeit“ von Laplace vorgelegt. Diese Alternative erm¨ oglichte es, u ¨ber den Gegensatz zwischen subjektiver und objektiver Wahrscheinlichkeit hinauszugehen. Die Hauptidee bestand darin, im Rahmen einer pr¨ azise definierten und umschriebenen Familie von Wahrscheinlichkeitsverteilungen diejenige herauszufinden, die einer Beobachtungsmenge die gr¨ oßte Plausibilit¨ at“ verleiht (das heißt diejenige dieser Verteilungen, f¨ ur welche die Wahrscheinlichkeit des Auftretens der betreffenden Beobachtungen am gr¨ oßten ist). Unter diesem Gesichtspunkt griff die Wirtschaftstheorie ein, um die Familie der Verteilungen zu definieren und zu umreißen, in deren Rahmen die Maximum” Likelihood-Methode“ angewendet wird. Diese Synthese wurde in ihrer allgemeinsten Form von Haavelmo (1944, [116]) vorgelegt und gab den Arbeiten der Cowles Commission eine bestimmte Richtung. Das in den 1940er Jahren ¨ entwickelte Programm dieser Kommission begr¨ undete die moderne Okonome¨ trie (Epstein, 1987, [85]). Die Okonometrie erm¨ oglichte zumindest im Prinzip, die Mehrzahl der fr¨ uher gegen die Verbindung von Wirtschaftstheorie und deskriptiver Statistik erhobenen Einw¨ande in ein und denselben Formalismus einzubinden. Die neue Religion“ der inferentiellen Statistik erlaubte es, diese ” Verbindung fortan willkommen zu heißen und ihr den Segen zu geben. Aus dieser Sicht lassen sich die verschiedenen Formen m¨ oglicher Abweichungen zwischen den beobachteten Werten einer zu erkl¨ arenden“ Variablen ” und ihren – mit Hilfe des optimierten Modells – berechneten (oder rekon” struierten“) Werten auf verschiedene Weise interpretieren, indem man Spezifikationsfehler von Meßfehlern unterschied. Die erstgenannten Fehler haben 16
F¨ ur eine ausf¨ uhrliche Darstellung der Geschichte des Begriffes Likelihood vgl. Edwards, 1992, [371].
¨ Uber den richtigen Gebrauch der Anpassung
341
¨ mit der Ubersetzung der Theorie in Begriffe der virtuellen Kausalbeziehungen zu tun (bei denen es sich im allgemeinen um lineare Beziehungen handelt). Die Auswahl der explikativen“ Variablen und der zwischen diesen Variablen ” beibehaltene Verkettungstyp“ – all das bildet die Spezifikation des Modells ” und f¨ uhrt zur Eingrenzung einer Familie von Wahrscheinlichkeitsverteilungen. Die Anpassungsabweichungen (oder Residuen) lassen sich als Ergebnis der Vernachl¨ assigung gewisser Relationen oder gewisser Variablen interpretieren. Insbesondere kann ein Simultan-Bias dadurch entstehen, daß mehrere Relationen gleichzeitig einige Variablen miteinander verkn¨ upfen und daß die Vernachl¨ assigung einer dieser Variablen die Eingrenzung des Raumes der m¨ oglichen Verteilungen verf¨alscht, innerhalb dessen die plausibelste Verteilung gesucht wird. Dieser Spezialfall wird durch die Geschichte der Versuche illustriert, die man zwischen 1910 und 1940 mit dem Ziel durchf¨ uhrte, Angebots- und Nachfragegesetze auf der Grundlage derjenigen Angaben zu sch¨ atzen, die f¨ ur die Preise und die eingetauschten Mengen festgestellt wurden (Christ, 1985, [46]). Die Tatsache, daß sich die beiden theoretischen Kurven unter der Einwirkung anderer Variabler (zum Beispiel: Ertrag f¨ ur die Nachfrage und Produktionskosten f¨ ur das Angebot) gleichzeitig verschoben, war der Ursprung des Puzzles, das schließlich zur Formulierung des sogenannten Modells der simultanen Gleichungen“ f¨ uhrte. ” Aber die Residuen (das heißt die Abweichungen zwischen den beobachteten und den vom Modell rekonstruierten Variablen) ließen sich durch die Begriffe der irreduziblen Variabilit¨at oder der Meßfehler interpretieren. Der erste Fall unterschied sich nicht sehr vom Fall der vernachl¨ assigten Variablen – abgesehen davon, daß man darauf verzichtete, sich Faktoren“ auszudenken, ” die diese Restvariabilit¨at rechtfertigten und erkl¨ arten. Die Liste der relevanten Entit¨ aten, welche die F¨ahigkeit zum Auftreten in dem Netz besaßen, um ¨ dessen Zusammenhalt man bem¨ uht war, ließ sich aus Gr¨ unden der Okonomie der eigentlichen Aufbereitungsarbeit nicht unbegrenzt verl¨ angern. Der Zweck der Modellbildung war, die Komplexit¨at durch eine Investition in die Auswahl und in die Standardisierung der beschriebenen Entit¨ aten zu reduzieren, wobei der erwartete Nutzen darin bestand, diese partielle Modellbildung mit einer gr¨oßeren Menge von Darstellungen und Handlungen zu verbinden. Diese Investition setzte ein Opfer voraus, bei dem es sich hier um eine Restvariabilit¨ at handelte – vergleichbar mit der internen Variabilit¨ at, die der Taxonom“ bei ” ¨ der Konstruktion einer Aquivalenzklasse verliert. Aber selbstverst¨ andlich ist es immer m¨ oglich, von dieser nichterkl¨arten Variabilit¨ at auf die Formulierung neuer explikativer Variabler zur¨ uckzugehen und dadurch die Restvarianz zu reduzieren – so wie auch der Taxonom seine Klasseneinteilung stets verfeinern17 kann. 17
In der Mathematik werden die Bezeichnungen Verfeinerung“ und Vergr¨ obe” ” rung“ in Bezug auf Zerlegungen verwendet. Man verfeinert eine durch eine ¨ Aquivalenzrelation induzierte Klasseneinteilung dadurch, daß man die gegebenen ¨ Aquivalenzklassen ihrerseits weiter zerlegt.
342
9 Modellbildung und Anpassung
Und schließlich k¨onnen die Residuen als Ergebnisse von Meßfehlern betrachtet werden. In diesem Fall wird vorausgesetzt, daß die im vorhergehenden Kapitel beschriebene Aufzeichnungs- und Kodierungsarbeit in einer Black Box“ eingeschlossen und isoliert ist, die sich von dem Netz unter” scheidet, u ochte. Sogar die ¨ber welches das Modell Rechenschaft geben m¨ Wahl des Ausdrucks Meßfehler“ impliziert eine realistische Epistemologie, ” gem¨ aß der die Objekte wenigstens theoretisch bereits vor der oben analysierten Identifikations-, Definitions- und Begrenzungsarbeit existieren. Oder zumindest wird von dieser Sequenz von Handlungen und den Entit¨ aten, die sie implizieren, vorausgesetzt, daß sie sich außerhalb der Liste der Objekte und Aussagen befinden, die als relevant beibehalten werden. Diese außerhalb der Liste befindlichen Entit¨aten lassen sich auch nicht durch den rhetorischen Operator alles geschieht so, als ob“ retten. Jedoch ist die Position, ” welche die genannte Eingrenzung und die Konstruktion dieser Liste denunziert, unhaltbar – es sei denn, man bef¨ urwortet eine andere Liste, von der man eine gr¨ oßere Vollst¨andigkeit voraussetzt. Es ist besser, die Tatsache zur Kenntnis zu nehmen, daß eine realistische Definition der relevanten Objekte sowohl ¨ okonomisch als auch kognitiv tiefgr¨ undige Rechtfertigungen hat, die in der Finalit¨ at der Modellbildung und in deren Registrierung im Rahmen von Beschreibungs- und Entscheidungsnetzen zum Ausdruck kommt. Die Hypothese, daß Objekte zeitlich vor ihrer kognitiven Konstruktion existieren, erm¨ oglicht es, diese Objekte als Bezugskonventionen zu verwenden – als Ansatzpunkte oder Elemente, um Ordnung in das Chaos zu bringen und um als objektive“ Markierungen zu dienen. Diese objektiven“ Markierungen sind ” ” nichts anderes, als gemeinsame Eigenschaften von intrinsisch verschiedenen Subjekten (Individuen). Aus dieser Sicht ist eine Gesellschaft unvorstellbar, in der die Menschen auf eine derartige realistische Haltung verzichten k¨ onnen. Die begriffliche Trennung zwischen dem Inneren der Black Box (das heißt ¨ den im Kapitel 8 beschriebenen Aufzeichnungsverfahren) und ihrem Außeren (Aufstellung von Beziehungen zwischen Ausg¨ angen geschlossener Boxen, ¨ um Boxen h¨ oherer Ordnung zu bilden) spiegelt sich in der Sprache der Okonometrie dadurch wider, daß man einerseits zwischen den Meßfehlern und andererseits zwischen der Restvariabilit¨at und den vernachl¨ assigten Variablen unterscheidet. Diese Unterscheidung mag willk¨ urlich erscheinen, aber sie steht in einem tiefgr¨ undigen Zusammenhang zu den Institutionen, zu den Beschreibungsroutinen und zu den impliziten Erkenntnistheorien, ohne die keine Rhetorik vorstellbar w¨are, die Wissenschaft und Handlung miteinander verbindet. Nichtsdestoweniger l¨osen sich diese Kodierungs- und Taxonomieroutinen in Krisen- und Innovationszeiten auf und es werden andere Aktionsweisen eingef¨ uhrt, die mit anderen Indikatoren ausgestattet sind. Genau das geschah in den 1930er Jahren, einem Jahrzehnt, das besonders fruchtbar an Innovationen dieses Typs war. Zu diesen Innovationen kann man die von Frisch und Haavelmo gepr¨ agte Formulierung einer Rhetorik z¨ ahlen, welche die beiden fr¨ uher einander gegen¨ ubergestellten Begriffe des Fundamentalgesetzes“ und ”
Autonomie und Realismus von Strukturen
343
der beobachteten Regelm¨aßigkeit umfaßte und diese Begriffe fortan durch den Begriff der Autonomie einer Relation miteinander vereinigte.
Autonomie und Realismus von Strukturen Das oben vorgestellte makrodynamische Modell von Tinbergen war explizit durch das Modell von Frisch (1933, [99]) inspiriert worden, vor allem durch die Verwendung einer Endgleichung“, die zweite Differenzen und eine einzi” ge, zeitverschobene Variable enthielt. Man vermutete, daß diese Nachtzug“” Gleichung die gesamte strukturelle Dynamik des Modells in sich vereinte. Aber dennoch u ¨bte Frisch (1938, [100]) Kritik an Tinbergen: die Relationen, die Tinbergen auf der Grundlage von Beobachtungen sch¨ atzte, seien nicht struktu” rell“, sondern konfluent“ in dem Sinne, daß sie aus einer mehr oder weniger ” komplexen Kombination der Basisrelationen resultierten, die unm¨ oglich direkt zu beobachten sind, sondern das Wesen der Ph¨ anomene widerspiegeln. Der Konfluenzbegriff war von Frisch 1934 gepr¨agt worden. Nachdem er 1933 sein Schaukelstuhlmodell auf der Grundlage fiktiver Parameter konstruiert hatte, welche die Struktur“ des zentralen Kerns dieses Modells charakterisierten, ” suchte er nach Mitteln, um diese Parameter zu sch¨ atzen. Aber w¨ ahrend er an einem System mit mehreren Gleichungen arbeitete, stolperte er u ¨ber die Frage der Multikollinearit¨at“: einige Relationen ließen sich zur Beschreibung ande” rer Relationen linear kombinieren und deswegen gab es keine Garantie f¨ ur die Stabilit¨ at der Anpassungen, die mit den Ausgangsgleichungen oder mit den kombinierten Gleichungen durchgef¨ uhrt wurden.18 Nun sind die beobachtbaren Relationen, deren Koeffizienten gesch¨atzt werden k¨ onnen, im Allgemeinen derartige Linearkombinationen von wesentlichen, aber nicht beobachtbaren strukturellen“ Relationen. In dieser Terminologie nimmt der Strukturbegriff ” die Stelle der Realit¨at“ ein, die den Beobachtungen logisch vorausgeht – ” ¨ahnlich wie bei Quetelet, bei dem der unsichtbare Durchschnittsmensch eine tieferliegende Realit¨at hatte als dessen Manifestationen, die kontingent, aber sichtbar waren. Von nun an wurde diese Realit¨ at h¨ oherer Ordnung jedoch explizit mit einem anderweitig ausgearbeiteten Konstrukt verbunden – n¨ amlich mit der Wirtschaftstheorie, was bei Quetelet nicht der Fall war. Aber auch wenn die konfluenten Relationen beobachtbar waren, hatten sie einen großen Nachteil: sie waren voneinander abh¨angig. Genauer gesagt f¨ uhrte ei¨ ¨ ne Anderung der Parameter einer Relation zu einer Anderung der Parameter der anderen Relationen. Das heißt diese Relationen waren nur geringf¨ ugig autonom“, w¨ ahrend die strukturellen Beziehungen in gr¨ oßerem Maße auto” nom waren. Frisch brachte diese Idee in seinem Kommentar zum Modell von Tinbergen klar zum Ausdruck: 18
Der von Frisch und Haavelmo verwendete Begriff der Multikollinearit¨ at umfaßte den Begriff der simultanen Gleichungen und den Begriff der Multikollinearit¨ at im heutigen Sinne. Multikollinearit¨ at im heutigen Sinne bedeutet, daß gewisse Variable ihrerseits Kombinationen von anderen Variablen sein k¨ onnen.
344
9 Modellbildung und Anpassung
Die autonomen Merkmale eines Systems sind in dem Sinne autonom, daß sie sich nicht ver¨andern, wenn die anderen Strukturmerkmale ge¨ andert werden. Die Suche nach diesen Merkmalen darf nicht nur empirisch erfolgen, sondern muß auch abstrakte Methoden nutzen. Wir werden dazu veranlaßt, eine Art Superstruktur zu konstruieren, die uns dabei hilft, diese speziellen Gleichungen aufzusp¨ uren, denen wir im obengenannten Sinne einen hohen Grad an Autonomie zuschreiben. Je h¨ oher dieser Grad an Autonomie ist, desto fundamentaler ist die Gleichung und desto tiefgr¨ undiger ist die Einsicht, die wir in die Funktionsweise des Systems haben, kurz gesagt: desto n¨ aher sind wir einer wirklichen Erkl¨arung. Derartige Relationen sind das Wesen der Theorie. (Frisch (1938, [100]), zitiert von Aldrich, 1989, [3]). ¨ Folglich gesteht der Okonom, der nach einer neuen Formulierung der deduktiven Wirtschaftswissenschaft mit Hilfe von empirischen Beobachtungen sucht, der Autonomie bei der Identifizierung der relevanten Relationen einen privilegierten Status zu. Dennoch ¨außerte Frisch zehn Jahre sp¨ ater einigen Pessimismus in Bezug auf die M¨oglichkeit, autonome Relationen zu finden. Er hatte sogar beabsichtigt, durch direkte Befragungen zum Verhalten von Individuen nach diesen Beziehungen zu suchen: Es ist selten, daß die Daten eine autonome Strukturgleichung tats¨ achlich numerisch bestimmen k¨onnen. Am h¨ aufigsten erhalten wir eine Gleichung, die schwach autonome Kovariationen widerspiegelt. Man muß nach anderen Mitteln suchen, um Informationen u ¨ber die numerischen Parameter unserer Strukturgleichungen zu bekommen. Der einzige m¨ ogliche Weg scheint darin zu bestehen, daß wir die Methode der Befragungen mehr nutzen, als wir es bisher tun: wir m¨ ussen Personen oder Gruppen befragen, was sie unter diesen oder jenen Umst¨ anden tun w¨ urden. (Frisch, (1948, [101]), zitiert von Aldrich, 1989, [3]). In diesem Fall sind wir nicht mehr sehr weit von Quetelet und seinem Durchschnittsmenschen entfernt. Die Verbindung der beiden Methoden, das heißt der theoretischen hypothetisch-deduktiven Methode einerseits und der empirischen statistisch-induktiven Methode andererseits, bleibt auch weiterhin der Gegenstand epistemologischer Kontroversen, die weder Anfang noch Ende haben (in dem Sinne, daß man nicht weiß, ob man mit der theoretischen Seite oder der empirischen Seite beginnen soll) – es sei denn, man koppelt dieses repetitive Gegen¨ uber an einen dritten Pol an, der aus der Verwendung der betreffenden Konstruktionen und ihrer Eintragung in ein Netz von Handlungen besteht, die sich auf Messungen st¨ utzen. Haavelmo ging in seinem 1944 ver¨ offentlichten programmatischen Text The probability approach in econo” metrics“ in diese Richtung. Er gab drei Gr¨ unde an, die f¨ ur die Suche nach autonomen Relationen sprechen: sie sind stabiler, sie sind verst¨ andlich (interpretierbar) und vor allem sind sie n¨ utzlich f¨ ur die Wirtschaftspolitik. Zur ¨ Illustration seiner Uberlegung verwies er darauf, wie ein Auto funktioniert:
Autonomie und Realismus von Strukturen
345
F¨ uhren wir mit einem Wagen Geschwindigkeitstests auf einer flachen und trockenen Straße durch, dann stellen wir eine pr¨ azise funktionale Beziehung zwischen dem Druck auf das Gaspedal (oder dem Abstand zwischen Pedal und Fußboden) und der entsprechenden Geschwindigkeit des Wagens her. Es reicht aus, diese Beziehung zu kennen, um mit einer gegebenen Geschwindigkeit zu fahren. M¨ ochte aber jemand wissen, wie ein Kraftwagen funktioniert, so werden wir ihm nicht raten, seine Zeit mit der Messung dieser Beziehung zu verschwenden, die den inneren Mechanismus mit dem Schleier eines undurchdringlichen Geheimnisses zudeckt; außerdem k¨onnte eine derartige Beziehung jederzeit aufh¨ oren zu wirken, sobald in einem Teil des Wagens irgendein ¨ Durcheinander auftritt oder eine Anderung durchgef¨ uhrt wird. Wir sagen, daß eine solche Beziehung eine geringe Autonomie hat, denn ihr Vorhandensein h¨angt vom gleichzeitigen Wirken einer großen Anzahl anderer Beziehungen ab, von denen manche vor¨ ubergehend auftreten. Andererseits sind die allgemeinen Gesetze der Thermodynamik und die Reibungsgesetze in hohem Grade autonom in Bezug auf den Kraftwagenmechanismus, denn sie beschreiben das Funktionieren gewisser Teile dieses Mechanismus unabh¨angig davon, was in den anderen Teilen geschieht (Haavelmo, 1944, [116]). Diese Auffassung von der Autonomie ist direkt mit der M¨ oglichkeit verbunden, das Modell zu verwenden, um die Konsequenzen wirtschaftspolitischer Entscheidungen zu testen, indem man analytisch die Wirkungen der verschiedenen Aktionen voneinander trennt: Hat das System in der Vergangenheit funktioniert, dann hilft das ent¨ sprechende Wissen dem Okonomen bei der Beurteilung der Auswirkungen eines k¨ unftigen Aktionsplans, falls er denkt, daß sich gewisse Elemente des alten Systems nicht ¨andern. Nehmen wir beispielsweise an, daß die Verbraucher ihre Eink¨ unfte unabh¨ angig von deren Ursprung in derselben Art und Weise verwenden. Selbst wenn der k¨ unftige Plan die Investitionsfunktion ¨andert, k¨onnte doch die Verbrauchsfunktion weiterhin zutreffen. (Haavelmo, 1943, [115]). Der Begriff der Autonomie spiegelt die Idee wider, daß man zumindest in Form einer intellektuellen Hypothese einen elementaren Wirtschaftsmechanismus isolieren kann, indem man die Werte der anderen Faktoren festh¨ alt. Haavelmo spricht von hypothetischen freien Variationen“, die er den durch ” ” ein System simultaner Relationen beschr¨ankten Variationen“ gegen¨ uberstellt. Diese Idee war – obwohl es den Anschein hatte – keine einfache Wiederholung der alten Ceteris-paribus-Klausel. Die Idee ist subtiler, da sie sich zum Begriff der Gleichzeitigkeit – auch als Simultaneit¨at“ bezeichnet – komplement¨ ar ” verh¨ alt. In dem Maße, wie mehrere strukturelle (und somit autonome) Beziehungen unabh¨angig voneinander auf stochastische Weise wirken, wird die Wahrscheinlichkeitsverteilung der beobachteten Daten durch dieses System
346
9 Modellbildung und Anpassung
simultaner Relationen beschr¨ankt. Die bedingten Relationen, welche die Variablen in dem auf diese Weise eingeschr¨ ankten Raum verkn¨ upfen, unterscheiden sich von den autonomen Beziehungen: die letzteren beschreiben hypothetische Relationen, die vom Gesamtsystem abstrahieren. Die Sch¨ atzungen (mit Hilfe der Maximum-Likelihood-Methode) m¨ ussen in diesem eingeschr¨ ankten Teilraum durchgef¨ uhrt werden, da sie andernfalls ein Simultan-Bias erleiden w¨ urden. Die beiden f¨ ur die Konstruktion von Haavelmo charakteristischen Begriffe der Autonomie und der Gleichzeitigkeit h¨ angen also untrennbar zusammen. In den g¨ unstigsten F¨allen kann ein System von simultanen Gleichungen oglicht die Formuliemit Hilfe der Matrizenalgebra19 gel¨ost werden. Das erm¨ rung reduzierter Gleichungen durch eine Linearkombination autonomer Relationen, woraus sich dann unverzerrte Sch¨atzungen der Strukturparameter ableiten lassen. Aber diese reduzierten – im Sinne von Frisch konfluenten“ – ” Gleichungen haben den Nachteil, daß sie nicht autonom sind. Ihre Parameter h¨ angen vom gesamten System ab und k¨onnen nicht direkt dazu verwendet werden, eine Wirtschaftspolitik zu testen. Die Tests implizieren, daß man das gesamte Modell laufen l¨aßt, das entsprechend der Anzahl der u ¨blicherweise als relevant beibehaltenen Relationen und Variablen mehr oder weniger komplex sein kann. So kam es zu Beginn der 1940er Jahre zu einer Synthese von kognitiven und politischen Elementen, die zuvor disjunkt waren: alte Wirtschaftstheorien (Gesetz von Angebot und Nachfrage) und neue Wirtschaftstheorien (Keynesianische Makro¨okonomie), statistische Aufzeichnungen, die von jetzt an als respektable Partner betrachtet wurden, Sch¨ atzungen des Nationaleinkommens, inferentielle Statistik auf der Grundlage der Wahrscheinlichkeitsrechnung, lineare Algebra und Matrizendiagonalisierungstechniken und schließlich eine wirtschaftspolitische Situation, die staatliche Eingriffe vorstellbar machte, welche ihrerseits auf eine Regulierung des globalen wirtschaftlichen Gleichgewichts gerichtet sind. Dieses neuartige Gemisch erm¨ oglichte den Erfolg der vom Tinbergenschen Modell inspirierten makro¨ okonometrischen Modelle (De Marchi, 1991, [57]), die anschließend durch die Arbeit der Mitglieder der amerikanischen Cowles Commission untermauert wurden: Haavelmo, Klein, Koopmans, Marschak und Wald. So zitierten die Letztgenannten h¨ aufig zwei F¨ alle, in denen es die Sch¨atzung eines Strukturmodells der Regierung erm¨ ogli¨ chen kann, eine optimale Entscheidung zu treffen: Anderung der Steuers¨ atze und Preiskontrolle (Epstein, 1987, [85]). Sie ließen sich von Keynesianischen ¨ Uberlegungen zur Wirtschaft leiten und betonten die Anreizeffekte etwaiger Entscheidungen, indem sie sich auf ihre Strukturmodelle st¨ utzten. Aber das in diesem Sinne verwendete Wort Struktur“ hat eine F¨ arbung, die wesentlich ” ¨ vom Sprachgebrauch anderer, vom Institutionalismus beeinflußter Okonomen ¨ abweicht, zum Beispiel vom Sprachgebrauch der Okonomen des National Bu¨ reau for Economic Research (NBER). Sprechen diese Okonomen von Struktur, dann meinen sie gesetzlich festgelegte, vorgeschriebene oder herk¨ ommliche 19
Auch Matrixalgebra“ genannt. ”
Drei Methoden zur Berechnung des Nationaleinkommens
347
Verfahren, die das Funktionieren der M¨arkte bestimmen: Antitrustgesetze, gewerkschaftliche Vorschriften, Lohnvereinbarungen, Tarifverhandlungen und ¨ Arbeitslosenunterst¨ utzung. F¨ ur die Okonometriker dagegen bezieht sich der Begriff der Struktur auf tiefgr¨ undige Wirtschaftsmechanismen, die den statistisch beobachteten Regelm¨aßigkeiten zugrundeliegen und sich theoretisch durch autonome Relationen ausdr¨ ucken lassen. Dieser Unterschied in Bezug auf den Standpunkt wirft Licht auf die Kontroverse, die 1949 in den Personen von Vining und Koopmans die Orientierungen der beiden Gruppen miteinander konfrontierte. Ihre Auffassung von Wirtschaftst¨atigkeit hinderte die Mitglieder der Cowles Commission nicht daran, mitunter Vorschl¨ age zu unterbreiten, die sich – obwohl im Rahmen des Keynesschen Standpunktes der Regulierung durch ¨offentliche Nachfrage formuliert – nichtsdestoweniger als u ¨berraschend erweisen konnten. So berichtet zum Beispiel Epstein, wie im Jahre 1945 Marschak, Klein und der Atomphysiker Teller zusammen auf Bitte einer Gruppe von Wissenschaftlern intervenierten, die wegen der Entwicklung von Kernwaffen beunruhigt waren. In ihrem gemeinsamen Text unterbreiteten sie folgenden Vorschlag: zur Minimierung der Auswirkungen eines Atomangriffs auf die Vereinigten Staaten sollte die gesamte Bev¨olkerung in neuen St¨ adten angesiedelt werden, die sich entlang von Großachsen ausbreiten – daher der Name rib” bon cities“. Die Wissenschaftler sch¨atzten, daß dieses Projekt bei j¨ ahrlichen Ausgaben in H¨ ohe von zwanzig Milliarden Dollar u ¨ber einen Zeitraum von f¨ unfzehn Jahren zu realisieren sei. Jedoch w¨ urde dieses Projekt dazu f¨ uhren, daß viele Gewohnheiten, die sich die Bev¨olkerung der großen St¨ adte im Lau” fe des vergangenen Jahrhunderts zu eigen gemacht hat, preisgegeben werden m¨ ußten“. War das ein ernst gemeintes Projekt oder handelte es sich um einen Ulk von Intellektuellen? In jedem Fall spiegelte das Projekt gewiß eine Auffassung wider, die auf die Kriegszeiten zur¨ uckging: eine massive und koordinierte Intervention seitens des Staates war vorstellbar und ließ sich durch makro¨ okonomische Argumente rechtfertigen, die von einem Beschreibungssystems neuen Typs gest¨ utzt wurden, n¨amlich von der volkswirtschaftlichen Gesamtrechnung.
Drei Methoden zur Berechnung des Nationaleinkommens Unter den Ingredienzien, die den Aufbau und Einsatz der ersten o ¨konometrischen Modelle erm¨oglichten, nahm die volkswirtschaftliche Gesamtrechnung als koh¨ arentes und exhaustives Definitionssystem einen zentralen Platz ein. Dieses System diente dar¨ uber hinaus auch zur Klassifikation und Aggregation von wirtschaftsrelevanten Handlungen, da diese mit Hilfe der genannten globalen Modelle beschrieben und zueinander in Beziehung gesetzt wurden. Durch den Umfang der Investitionen bei der Aufbereitung und Zirkulation der dabei einbezogenen statistischen Aufzeichnungen l¨aßt sich die volkswirtschaftliche
348
9 Modellbildung und Anpassung
Gesamtrechnung mit anderen großen wissenschaftlichen Operationen vergleichen, die nur durch einen ¨offentlichen Willen und eine ¨ offentliche Finanzierung gew¨ ahrleistet werden konnten – Operationen dieser Art haben seit den 1930er Jahren vor allem f¨ ur den milit¨arischen Bedarf zugenommen, wie man anhand der verst¨ arkten Forschungen auf den Gebieten der Kernphysik, Luftfahrt, Raumfahrt und Elektronik sieht. Dieser Vergleich ist nicht zuf¨ allig, denn w¨ ahrend der beiden Weltkriege und unmittelbar danach unternahmen ¨ offentliche Einrichtungen bedeutende Anstrengungen zur Berechnung des Nationaleinkommens und zu dessen Zerlegung nach verschiedenen Gesichtspunkten (in den Vereinigten Staaten erfolgte das nach dem Ersten Weltkrieg, in Großbritannien und in Frankreich nach dem Zweiten Weltkrieg). In diesen Zeiten intensiver und koordinierter Mobilisierung der individuellen Unternehmen im Rahmen eines vereinheitlichten Vorhabens erwiesen sich die Inventarisierung, Klassifizierung und Zusammenfassung der Ressourcen – und deren Verwendung in Form von nationalen Aggregaten – als koh¨ arent mit der geplanten Konzentration von Mitteln unterschiedlichen Ursprungs auf wissenschaftliche Großprojekte (Big Science). Aber auch außerhalb der kriegsbedingten Ausnahmezeiten kam es in Krisensituationen oder bei besonderen politischen Mobilisierungen zum Aufbau von koordinierten Aufzeichnungsnetzen und Nomenklaturen f¨ ur wirtschaftsrelevante Handlungen: in den Vereinigten Staaten in den 1930er Jahren, in Frankreich in den 1950er und 1960er Jahren und in Osteuropa in den 1990er Jahren (im Falle Osteuropas war das – wenn auch auf andere Weise – bereits im Rahmen der zentralisierten Planung durchgef¨ uhrt worden). Zwar wurden die ersten Versuche zur Berechnung dieser nationalen Aggregate gegen Ende des 19. Jahrhunderts unternommen (wenn wir die von William Petty und Gregory King im 17. Jahrhundert durchgef¨ uhrten Berechnungen außer Acht lassen), aber die Bedeutung dieser Berechnungen hatte sich zwischen 1900 und 1950 vollst¨andig ge¨andert. Sogar das Wort Nationalein” kommen“, das lange f¨ ur diese Form der buchhalterischen Erfassung verwendet wurde, ist signifikant. Zun¨achst betrachtete man die Einkommensbildung: Arthur Bowley (1919, [31]) konzentrierte sich bei seinen Untersuchungen auf den Ursprung der Einkommen entsprechend den T¨ atigkeitsbereichen und auf die Einkommensverteilung in den sozialen Schichten. In den 1920er und 1930er Jahren wurden dann Wesley Mitchell und Simon Kuznets (im amerikanischen NBER) sowie Colin Clark (in Großbritannien) durch die Analyse der Konjunkturzyklen angeregt, Zeitreihen zu konstruieren und die Nutzung der produzierten G¨ uter (Investition, Endverbrauch oder Zwischenverbrauch durch die Unternehmen) sichtbar zu machen – und nicht mehr nur die Eink¨ unfte, die von diesen G¨ utern generiert werden. Die von Keynes in seiner General Theory (1936) er¨ offnete Perspektive und die durch die Kriegsfinanzierung aufgeworfenen Probleme f¨ uhrten zu einer Verallgemeinerung der Zerlegung des Sozialproduktes in die drei Komponenten C, I und G der Endnutzung: Verbrauch (consumption), Investition (investment), ¨offentliche Ausgaben (government expenditure) (Patinkin, 1976, [218]).
Drei Methoden zur Berechnung des Nationaleinkommens
349
Diese verschiedenen Stufen entsprachen den unterschiedlichen Auffassungen von der Rolle und Tragweite der ¨offentlichen Wirtschaftst¨ atigkeit. Daher kam es auch zu unterschiedlichen Formulierungen der buchhalterischen Beschreibungen auf der Grundlage von Quellen, die ihrerseits große Unterschiede aufwiesen, da sie an Handlungen unterschiedlicher Finalit¨ at gebunden waren. Man findet hier bereits die drei Sichtweisen zur Berechnung des Nationaleinkommens (oder sp¨ater des Bruttosozialproduktes): den sektoriellen Ursprung (Landwirtschaft, Industrie, Dienstleistungen), die Aufteilung der Produktionsfaktoren (L¨ohne, Gewinne, Steuern) und schließlich die Nutzung – ausgedr¨ uckt durch die Endnachfrage (Verbrauch, Investition, ¨ offentliche Ausgaben).20 Die ersten beiden Sichtweisen waren typisch f¨ ur die Untersuchungen von Bowley (1919, [31]) und die allerersten Ver¨offentlichungen des 1920 gegr¨ undeten NBER. In diesen Publikationen ging es um das – sich in der Steigerung des Nationaleinkommens widerspiegelnde – langfristige Wirtschaftswachstum und um dessen Verteilung entsprechend unterschiedlichen Einteilungen (Industriearbeiter und Landwirte; Kapital und Arbeit; Gr¨ oße der Betriebe). Laut Vorwort zur ersten Arbeit des NBER (1921, [209]) ging es um die Feststellung dessen ob sich das Nationaleinkommen dazu eignet, allen einen annehmba” ren Lebensstandard zur Verf¨ ugung zu stellen, ob dieses Einkommen ebenso so schnell w¨ achst wie die Bev¨olkerung, und ob seine Aufteilung unter den Individuen mehr oder weniger ungleichm¨aßig verl¨ auft.“ Bowley nahm bei seiner Arbeit den Standpunkt der Armutsuntersuchungen ein, wie sie von den Sozialreformern des 19. Jahrhunderts durchgef¨ uhrt worden waren (Booth, Rowntree: vgl. Kapitel 7 und 8). Sein 1919 erschienenes Buch verfolgte das Ziel, den Gesamtbetrag und die Quellen der aggregierten Eink¨ unfte der britischen ” Bev¨ olkerung sowie die Anteile dieses Aggregats zu beschreiben, die an die verschiedenen Schichten gehen“. Er st¨ utzte sich vor allem auf Statistiken der Einkommensteuerbeh¨orde, bei der es nur wenige Steuerbefreiungen gab. Bowleys Untersuchungen enthielten keine Sch¨atzungen in Bezug auf Zeitr¨ aume von aufeinanderfolgenden Jahren und gingen auch nicht auf die Frage der Konjunkturzyklen ein. In einem weiteren Buch (1927) spielte Bowley auf die Instabilit¨ at der Industrie“ an, die seinen Sch¨ atzungen des Nationaleinkom” mens einen angemessenen Grad an Permanenz“ entzog. Das zeigt deutlich, ” daß er nicht die Absicht verfolgte, Konjunkturschwankungen zu analysieren, wie es seine Nachfolger am NBER und vor allem Mitchell und Kuznets taten. Der Schwerpunkt dieser Fragen, die mit den Sch¨ atzungen des Nationaleinkommens zusammenh¨angen, verlagerte sich von der Einkommensverteilung zur Erkl¨ arung der Konjunkturzyklen und dadurch ¨ anderte sich auch der Aufbau der Fragen. Mitchell (1923, [200]) und sp¨ater Kuznets (1934, [162]) sahen 20
Diese drei Sichtweisen entsprechen teilweise den historisch aufeinanderfolgenden Handlungsfinalit¨ aten des Staates, die insbesondere von Musgrave (1959, [207]) unter Verwendung der Bezeichnungen Zuteilung, Verteilung und Stabilisierung (oder Regulierung) beschrieben worden sind.
350
9 Modellbildung und Anpassung
n¨amlich in der Investitionsvolatilit¨at“ die Haupterkl¨ arung f¨ ur die Zyklenana” lyse, die ab 1929 zu einer entscheidenden Frage wurde. So erkl¨ arte beispielsweise Kuznets im NBER-Bulletin des Jahres 1934, daß die j¨ ahrliche Sch¨ atzung der Nettokapitalbildung nicht nur eine Messung der Wohlstandszunahme darstellt, sondern auch Informationen u ¨ber die zyklischen Schwankungen bei der ” Produktion von Ausr¨ ustungsg¨ utern“ liefert, wobei diese Schwankungen sehr ” weit von den Produktionsschwankungen derjenigen G¨ uter entfernt sind, die innerhalb eines kurzen Zeitraums konsumiert werden“. Die Unterschiede in den Schwankungsrhythmen dieser beiden G¨ uterkategorien dr¨ angten nachgerade dazu, das Nationaleinkommen entsprechend diesem Aspekt der Endnutzung zu zerlegen, das heißt indem man einen Unterschied zwischen Investition und Endverbrauch machte. Die genannten Kategorien waren auch in den Zyklentheorien vorhanden, die vor der Keynesschen General Theory (1936) publiziert wurden, aber das Buch von Keynes gab diesem Analysetyp einen starken Impuls. Insbesondere ging diese Theorie mit dem Anreiz einher, die Komponente G der ¨offentlichen Ausgaben in der Zerlegung C + I + G des Nationaleinkommens zu isolieren, was zuvor nicht getan wurde. Diese dritte Sichtweise auf die Analyse des Nationaleinkommens konzentrierte sich auf die Zerlegung der Endnutzungen der Produktion und eignete sich gut f¨ ur Pr¨ akeynesianische und Keynesianische Zyklentheorien, konnte sich aber – im Unterschied zu den beiden anderen Sichtweisen – nicht auf bereits existierende statistische Aufzeichnungen st¨ utzen. Die in den Vereinigten Staaten schon seit langem durchgef¨ uhrten Betriebsz¨ahlungen erm¨ oglichten eine Sch¨ atzung der von den einzelnen Branchen erzielten Mehrwerte, deren Summierung zu einem Bruttoprodukt f¨ uhrte – falls die Analyse entsprechend den Sektoren vorgenommen wurde. Die Einkommensteuerverwaltung stellte ein statistisches Nebenprodukt dar, das sich aus der Sicht der Produktionsfaktoren“ verwen” den ließ (zumindest im Fall von Großbritannien, nicht aber in den Vereinigten Staaten, wo es diese Steuer noch gar nicht gab). Dagegen implizierte der Blickwinkel Endnutzung“ die Durchf¨ uhrung neuer Untersuchungen in Bezug auf ” Haushaltskonsum, Unternehmensinvestitionen und ¨ offentliche Ausgaben. Die Ausarbeitung und Verwendung entwickelter volkswirtschaftlicher Gesamtrechnungen f¨ uhrte zu einer umfassenden Erweiterung der Aufgaben und ¨ der Rolle der Amter f¨ ur ¨offentliche Statistik. Dieser Trend begann in den Vereinigten Staaten in den 1930er Jahren, in Großbritannien in den 1940er Jahren und in Frankreich in den 1950er und 1960er Jahren. Fr¨ uher f¨ uhrten Universit¨ atslehrer (Bowley, Clark) oder nichtstaatliche Forschungsabteilungen die ersten Forschungsarbeiten zum Nationaleinkommen durch, zum Beispiel das amerikanische NBER. Jedoch organisierte Kuznets ab 1932 eine Zusammenarbeit zwischen dem NBER und dem Handelsministerium, dem die statistischen Verwaltungsbeh¨orden unterstanden, die sich in den 1930er Jahren tiefgreifend ver¨ anderten – vor allem mit den ersten Anwendungen der Methode der Stichprobenerhebungen (vgl. Kapitel 6 und 7). In Europa dagegen begannen die Entscheidungstr¨ager in Politik und Verwaltung erst w¨ ahrend des Krieges (in Großbritannien) oder nach dem Krieg (in Frankreich), sich die Sprache der
Theorien testen oder Diversit¨ at beschreiben?
351
Makro¨ okonomie und der volkswirtschaftlichen Gesamtrechnung anzueignen und diese Sprache zu sprechen. So kommentierte etwa Richard Stone, der Gr¨ undervater der britischen volkswirtschaftlichen Gesamtrechnung, im Jahre 1976 die Vorkriegssituation folgendermaßen: In Großbritannien gab es außerhalb der Universit¨ aten vor dem Krieg keinerlei Interesse f¨ ur das Nationaleinkommen. Trotz der wirtschaftlichen Schwierigkeiten der 1920er und 1930er Jahre existierte der Begriff der Nachfragesteuerung noch nicht. Die Politiker und die Beamten dachten ganz einfach nicht in diesen Begriffen. Die Idee, daß Bowley, Stamp und vor allem Clark eine f¨ ur die praktischen Ziele der Wirtschaftspolitik potentiell n¨ utzliche Arbeit geleistet hatten, w¨ are auf Unverst¨ andnis gestoßen oder h¨atte gar Spott hervorgerufen. (Stone, 1976, Brief an Patinkin). Diese neue Sprache mußte jedoch erst verstanden, u ¨bernommen und auf nat¨ urliche Weise verwendet werden. Es reichte nicht aus, daß die Idee ihren Weg ging – zus¨ atzlich mußte sie sich auch auf ein dichtes Netz von Aufzeichnungen und gesicherten Werkzeugen st¨ utzen, die diese Sprache nicht nur glaubw¨ urdig machten, sondern sie paradoxerweise auch in Vergessenheit geraten ließen, da sie in Datenbanken, Konjunkturindikatoren und in den allt¨ aglichen Argumentationen verankert war. In den 1930er Jahren existierten diese Netze noch nicht und die Zahlen erweckten noch keinerlei Vertrauen. Wir erkennen das beispielsweise an der skeptischen Einstellung, die Keynes sowohl gegen¨ uber den Sch¨atzungen von Colin Clark als auch gegen¨ uber den Modellen von Tinbergen hatte. Nach Aussage von Zeitzeugen hatte Keynes mehr Vertrauen in die eigene Intuition als in die von den Statistikern gelieferten Zahlen. Paßte ihm eine Zahl nicht, dann ¨anderte er sie; war er aber zuf¨ alligerweise mit der Zahl zufrieden, dann wunderte er sich: Da schau her, ihr habt ” die richtige Zahl gefunden!“ (Bezeugt von Tinbergen, zitiert von Patinkin.)
Theorien testen oder Diversit¨ at beschreiben? Im Jahre 1930 wurde auf Initiative von Irving Fisher und Ragnar Frisch die ¨ Gesellschaft f¨ ur Okonometrie (Econometric Society) gegr¨ undet. So entstand ¨ das Wort Okonometrie, das nach dem Vorbild der Begriffe Biometrie und ¨ Psychometrie gepr¨agt wurde. Die Okonometrie setzte sich das Ziel, Fragen ¨ der Okonomie durch Einbeziehung der statistischen Methoden und der mathematischen Beweisf¨ uhrung zu behandeln. Ein Jahr sp¨ ater, 1931, z¨ ahlte die Gesellschaft 91 Mitglieder, darunter Bowley, Schumpeter, Keynes, Tinbergen, Sraffa und die Franzosen Darmois, Divisia und Roy. Die Gesellschaft versammelte Personen mit ziemlich unterschiedlichen Traditionen, noch bevor das ¨ Wort Okonometrie“ in den 1940er und 1950er Jahren allm¨ ahlich allgemein ” akzeptiert wurde – haupts¨achlich (aber nicht nur) als Bezeichnung f¨ ur das Umfeld des Programms der Cowles Commission (Malinvaud, 1988, [185]). Die
352
9 Modellbildung und Anpassung
Kommission war 1932 von dem Gesch¨aftsmann und Investmentberater Alfred Cowles gegr¨ undet worden, der in den Zeiten der schlimmsten Krise die Gesell¨ schaft f¨ ur Okonometrie finanziell unterst¨ utzen wollte, damit sie die Ursachen der Konjunkturzyklen und Krisen erforscht und Mittel zur Vorbeugung von Krisen findet. Die von Fisher und Frisch zusammengef¨ uhrten intellektuellen und professionellen Traditionen kamen in den Ver¨ offentlichungen der 1933 gegr¨ undeten Zeitschrift Econometrica zum Ausdruck. Vereinfacht gesagt lassen sich drei recht unterschiedliche Traditionen erkennen: die Wirtschaftsstatistik, ¨ die Wirtschaftsrechnung und die mathematische Okonomie. Die bereits genannten Wirtschaftsstatistiker benutzten die Statistik in deskriptiver Weise. Diese Statistiker waren mit ihren Daten und mit den Objekten, die sie analysierten, ¨außerst vertraut – aber sie z¨ ogerten, ihre diesbez¨ uglichen Beobachtungen in einer Theorie zu verallgemeinern oder zu formalisieren. Das war die Tradition von Moore, Mitchell und auch die Tradition der Konjunkturbarometer“ von Harvard (W. Persons). Diese Richtung, die ” sich mit der Aufdeckung von statistischen Regelm¨ aßigkeiten und nicht mit ¨okonomischen Gesetzen befaßte, wurde von Frisch und Haavelmo kritisiert: die aufgestellten Beziehungen seien konfluent“ und nicht hinreichend au” ” tonom“; sie w¨ urden nichts u undigen Wirtschaftsmechanismen ¨ber die tiefgr¨ aussagen. Diese Statistiker waren skeptisch in Bezug auf allzuweit vorangetriebene Modellbildungen und bef¨ urchteten, daß man dabei das intuitive Erfassen der analysierten Situationen aus den Augen verlieren k¨ onnte. Dieses intuitive Erfassen ist seinerseits das Ergebnis der Kombination unterschiedlicher Erkenntnisweisen, die der Analytiker in sich aufgenommen hat. Den in Bezug auf Modellbildungen skeptischen Standpunkt teilten im Amerika der 1930er und 1940er Jahre eher die Mitglieder des NBER oder – in Frankreich – die Begr¨ under der Konjunkturanalyse, wie zum Beispiel Alfred Sauvy und sp¨ ater Jacques M´eraud. Aber die Ablehnung von Modellbildungen auf der Grundlage theoretischer Hypothesen konnte auch zu einer hohen Komplexit¨ at der rein deskriptiven statistischen Techniken f¨ uhren: Indexberechnungen, Zerlegungen von Zeitreihen und Korrekturen der saisonbedingten Schwankungen ab Beginn der 1930er Jahre; sp¨ater, in den 1970er Jahren, die mehrdimensionale Datenanalyse und schließlich, in den 1980er Jahren, die R¨ uckkehr zu Methoden der Reihenanalyse unter Verzicht auf die Unterscheidung zwischen explikativen“ (das heißt erkl¨arenden) und explizierten“ (das heißt erkl¨ arten) ” ” Variablen (autoregressive Vektoren). Diese Tradition der deskriptiven Wirtschaftsstatistik konnte sich also entweder auf historisches Wissen, Intuition und Vertrautheit mit den Daten oder auf vorangetriebene Formalisierungen st¨ utzen – stets war sie jedoch darauf bedacht, in Datenn¨ ahe zu bleiben. Die Wirtschaftsrechnung ist eine Ingenieurstradition, die in Frankreich seit dem 19. Jahrhundert gepflegt wird (Dupuit, Cheysson, Colson, Gibrat, Mass´e, Boiteux). Hierbei geht es – beispielsweise in den Bereichen der Investition oder Tarifgestaltung – um die Optimierung von Entscheidungen auf der Grundlage von Hypothesen der theoretischen Mikro¨okonomie (Etner, 1987, [86]). Die ¨ mathematische Okonomie geh¨orte – im Gefolge von Walras, Pareto und Mar-
Theorien testen oder Diversit¨ at beschreiben?
353
shall – zu einer u ¨berwiegend universit¨aren Tradition (nicht so in Frankreich: Allais war ebenfalls Ingenieur). Die Franzosen, die in den 1940er Jahren die ¨ ersten Seminare zur Okonometrie veranstaltet hatten, waren im Allgemeinen Vertreter dieser beiden Str¨omungen und keine Statistiker (Bungener und Jo¨el, 1989, [40]). F¨ ur keine dieser drei Gruppen stellte sich wirklich das Problem, eine Wirtschaftstheorie eng mit statistischen Daten zu verbinden, denn die erste Gruppe lehnte die Theorie ab und die beiden anderen Gruppen verwendeten dagegen so gut wie keine Statistik. Dennoch war die Frage nach der Identifikation eines ¨ okonomischen Gesetzes im Wirrwarr der Beobachtungen bereits in den Jahren nach 1910 und in den 1920er Jahren von denjenigen Forschern aufgeworfen worden, welche die Gesetze von Angebot und Nachfrage zu bestimmen versuchten: Lenoir, Lehfeldt, Moore, Elmer Working und amerikanische Land¨ wirtschaftsstatistiker (Christ, 1985, [46]). Die fr¨ uhe Okonometrie“ – die noch ” nicht diesen Namen trug – st¨ utzte sich nicht auf wahrscheinlichkeitstheoretische Hypothesen, um die den Beobachtungen innewohnende Unbest¨ andigkeit und die Residuen der linearen Anpassungen zu interpretieren, die mit Hilfe der Methode der kleinsten Quadrate durchgef¨ uhrt wurden. Eine theoretische Gesamtl¨ osung dieser Probleme wurde zu Beginn der 1940er Jahre von der Cowles Commission und vor allem auch in den programmatischen Texten von Haavelmo (1943 [115] und 1944 [116]) vorgeschlagen: hierbei spielten – auf der Grundlage theoretischer Hypothesen – die Begriffe der Gleichzeitigkeit und der Eingrenzung des Raumes der zu ermittelnden Gesetze eine Rolle. Malinvaud war es, der nach einem Aufenthalt bei der Cowles Commission in den 1950er Jahren in Frankreich das Problem aufwarf und dessen L¨ osung angab, die er auf klare und synthetische Weise neu formulierte. Seine ins Englische ¨ u ucher wurden Bestseller der Vermittlung der Okonometrie ¨bersetzten Handb¨ in der Lehrt¨ atigkeit. In einem zeitlichen Abstand von vierzig Jahren hatten sich in Frankreich Lenoir und Malinvaud ein und dieselbe Frage gestellt: die Frage nach dem Zusammenhang zwischen Theorien und Beobachtungen. Von diesem Problem konnten – aus unterschiedlichen Gr¨ unden – weder die deskrip¨ tiven Statistiker noch die mathematischen Okonomen eine Vorstellung haben. Lenoir und Malinvaud waren Beamte der statistischen Verwaltung (der SGF und sp¨ ater des INSEE) und keine Universit¨atslehrer. Diese typisch franz¨ osische Situation erkl¨art vielleicht, warum sie die Einzigen waren, die dieses Problem erkannt hatten. Die sehr allgemeine und mathematisch elegante L¨ osung von Haavelmo stellte nach 1945 den Bezugsrahmen f¨ ur alle weiteren Kontroversen dar, die sich zum Beispiel auf den Primat einer speziellen Wirtschaftstheorie (NBER), auf das Problem der Gleichzeitigkeit (Wold und rekursive Modelle) oder auf die Unterscheidung zwischen exogenen und endogenen Variablen (Sims) bezogen. Die erstgenannte dieser Kontroversen brachte in der Zeit von 1947 bis 1949 die Cowles Commission und das NBER durch den argumentationsbeladenen Meinungsaustausch zwischen Koopmans und Vining gegeneinander auf. Diese Kontroverse kann auch aus der Sicht des Zusammenhangs zwischen
354
9 Modellbildung und Anpassung
Theorien und Beobachtungen interpretiert werden. Der Ausgangspunkt war die schonungslose Kritik, die Koopmans in Bezug auf das 1946 erschienene letzte Buch von Wesley Mitchell, dem Begr¨ under des NBER, ge¨ ubt hatte. Dieses Buch (das Mitchell zusammen mit Arthur Burns verfaßt hatte) war unter dem Titel Measuring Business Cycles erschienen. Der Artikel von Koopmans (1947, [156]) hatte den Titel Measurement Without Theory. Koopmans attackierte die Richtung der deskriptiven Wirtschaftsstatistiker, die in ihren statistischen Untersuchungen keinerlei Bezug auf irgendeine Theorie nahmen und daher ihre Beobachtungen nicht prognostisch verallgemeinern konnten. Er verglich die Position von Mitchell mit der Haltung von Kepler, der – nach Meinung von Koopmans – Messungen akkumulierte, ohne ein Gesetz beweisen zu k¨ onnen, w¨ahrend Newton in den Beobachtungen von Kepler die universellen Gravitationsgesetze identifizierte; die Cowles Commission war also gewissermaßen der kollektive“ Newton der Wirtschaftswissenschaft. In dem ” Moment, als dieser Artikel erschien, erkrankte Mitchell und starb im Jahre 1948. Rutledge Vining, ein junges Mitglied des NBER, gab Koopmans im Jahre 1949 eine Antwort. Man tauschte noch zwei weitere Erwiderungen aus, die zusammen im Review of Economics and Statistics ver¨ offentlicht wurden. Das Ganze bot ein gutes Bild der verschiedenen M¨ oglichkeiten, die man damals in Erw¨ agung gezogen hatte, um eine theoretische Konstruktion oder die historische Analyse einer ¨okonomischen Situation zu untermauern. Der genannte Streit ließ sich als Wettbewerb um den Erhalt von Zusch¨ ussen der Rockefeller-Stiftung oder auch als Gegensatz zwischen zwei erkenntnistheoretischen Positionen in Bezug auf den Gegenstand der Sozialwissenschaften interpretieren: methodologischer Individualismus versus Holismus (Mirowski, 1989, [198]). Es ist richtig, daß sich gewisse Teile des Meinungsaustausches f¨ ur die letztgenannte Interpretation eignen. Beispielsweise argumentierte Vining in einer Art und Weise, die an die Durkheimsche Soziologie erinnerte, daß das Aggregat eine von seinen Bestandteilen verschiedene Existenz hat ” und ein charakteristisches Verhalten aufweist, das sich nicht vom Verhalten der Bestandteile ableitet“. Hierauf entgegnete ihm Koopmans: Formuliert eine Theorie (m¨oglicherweise unter Verwendung wahrscheinlichkeitstheoretischer Begriffe), wie sich die Entscheidungen eines jeden Individuums einer Gruppe in Antwort auf die Entscheidungen der anderen Individuen und in Reaktion auf die entsprechenden Konsequenzen (Preise, Mengen, Erwartungen) bestimmen lassen, dann ist die Gesamtheit der individuellen Verhaltensweisen logisch aquivalent zum Gruppenverhalten. Eine solche Theorie l¨ aßt keinen ¨ Platz f¨ ur irgendein neues Merkmal der Gruppe als solcher. Ein deus ex machina, der das Ergebnis beeinflussen m¨ ochte, kann das nur tun, indem er auf die individuellen Verhaltensweisen einwirkt. Das schließt nicht die Existenz von sozialen Ph¨anomenen aus, die auf Nachahmungen, Modeerscheinungen, fl¨ uchtiger Begeisterung oder Panik beruhen; oder auf Machtk¨ampfen, Preiskriegen, Absprachen oder Lobby-
Theorien testen oder Diversit¨ at beschreiben?
355
ing; oder auf einem Sozialkodex, einem Sinn f¨ ur Verantwortung oder auf einem pers¨onlichen Opfer f¨ ur ein gemeinsames Ziel. Aber diese sozialen Verhaltensweisen k¨onnen nur von Individuen als Mitgliedern einer Gruppe gezeigt werden. (Koopmans, 1949, [156]). Als Koopmans das NBER wegen dessen Messungen ohne Theorie“ kriti” sierte, erwiderte Vining, daß seine Gruppe in Sachen Theorie nicht weniger anspruchsvoll sei, ihre Theorie aber eine andere w¨ are und daß es außer der Konstruktion, auf die sich die Cowles Commission beruft, auch noch andere Konstruktionen gibt. Es sind demnach mehrere Darstellungen der Kontroverse m¨ oglich: eine externalistische Darstellung – formuliert in Begriffen der Schlacht um die Ergatterung von Zusch¨ ussen – und eine internalistische Darstellung, ausgedr¨ uckt in Begriffen eines st¨andig wiederkehrenden epistemologischen Streits zwischen Holismus und Individualismus – in Begriffen also, die f¨ ur das Problem des Zusammenhangs zwischen Daten und Theorien nicht spezifisch sind. Zwar sind beide Darstellungen aufschlußreich, aber keine von ihnen erkl¨ art, was die beiden Gruppen in Bezug auf die Frage des Status und der Verwendung des statistischen Materials in einem wissenschaftlichen Konstrukt voneinander trennt. Koopmans ¨ außerte die Meinung, daß es nicht m¨ oglich ist, aus einer Gesamtheit von statistischen Reihen verallgemeinerungsf¨ ahige Schlußfolgerungen zu ziehen, falls die Pr¨ ufung dieser Reihen nicht durch theoretische Hypothesen bez¨ uglich der Verhaltensweisen der Individuen untermauert wird. Auf keinen Fall k¨ onne der Zyklus an sich eine f¨ ur die Analyse relevante Einheit bilden. Bei Fehlen derartiger Hypothesen sind die Bewegungen der in der Wirtschafts” wissenschaft verwendeten Variablen gleichsam Eruptionen eines r¨ atselhaften Vulkans, in dessen kochend heißen Kessel niemand je eindringen kann“. Die gesammelten Daten m¨ ussen in Statistiken“ (im Sinne der inferentiellen Sta” tistik) zusammengefaßt werden, die anzahlm¨aßig kleiner sind als die Beobachtungen, damit man Parameter sch¨atzen und Hypothesen testen kann. Die Gesamtheit der Relationen muß durch ein Wahrscheinlichkeitsmodell mit simultanen Gleichungen gesch¨atzt werden. Nur diese Methode erlaubt es, u ¨ber die Akkumulation von Daten a` la Kepler hinauszugehen und – wie Newton – eine Theorie zu konstruieren, die durch Beobachtungen untermauert ist. Vining erwiderte, indem er die Phase der Erforschung und Entdeckung der Phase der Beweisf¨ uhrung und des Beweises gegen¨ uberstellte. Die statistische ” Effizienz“, auf die sich Koopmans berief, war mehr ein Attribut der Sch¨ atzund Testverfahren als ein Merkmal der inventiven Forschung: Die Entdeckung von neuen Dingen ist nie ein Bereich gewesen, f¨ ur den die Eleganz der Gestaltung und Ausstattung von erstrangiger Bedeutung waren; dieser Bereich entspricht schwerlich der Forschungsmethode, bei der man sich auf die Forderung beschr¨ ankt, daß ein durch a priori theoretische Begriffe charakterisiertes Verfahren gewisse vorgeschriebene Formen hat und Ergebnisse produziert, die sich auf direkte
356
9 Modellbildung und Anpassung
Weise den Tests der Theorie von Neyman und Pearson unterziehen lassen (Vining, 1949, [283]). Vining bef¨ urchtete, daß eine Betonung der formalen Verfahren der Theorie der inferentiellen Statistik dazu f¨ uhren k¨onnte, das Interesse f¨ ur das eigentliche Objekt und dessen vielf¨altige Aspekte aus den Augen zu verlieren: Der Nachdruck, mit dem Koopmans die Verteilungshypothesen betont, ist ” mehr von seinen Sorgen bez¨ uglich einer Sch¨atzung getragen, als von einem tats¨ achlichen Interesse an der eigentlichen Verteilung“. Zur Untermauerung seiner Verteidigung einer fein-deskriptiven“ Statistik erw¨ ahnte Vining eine ” (1942 im Journal of the Royal Statistical Society ver¨ offentlichte) Diskussion u ¨ber die Zukunft der Statistik“. Diese Diskussion fand zwischen Yule und ” Kendall statt, den beiden Autoren des damals am h¨ aufigsten verwendeten Statistikhandbuchs. Kendall hatte die Meinung vertreten, daß die Sch¨ atzung ” der Eigenschaften einer Population auf der Grundlage einer Stichprobe auf lange Zeit das wichtigste praktische Problem der Statistik ist“. Yule, der 1942 einundsiebzig Jahre alt war, widersprach, indem er die Bedeutung der inferentiellen Statistik und der Zufallsstichproben herunterspielte, die in den 1930er Jahren vor allem durch Neyman und Egon Pearson formalisiert worden waren. Kendall faßte auf seine Weise die Geschichte der Statistik zusammen – so, wie er sie ein halbes Jahrhundert lang aus eigener Erfahrung erlebt hatte: Das Hauptproblem des Statistikers besteht einfach darin, Daten zu beschreiben und auszusprechen, was diese Daten zeigen. Hierf¨ ur ist die Theorie der Stichprobenauswahl sekund¨ar ... Im Wesentlichen entwickelte sich die Theorie im Laufe meines Lebens, indem sie dieser Linie folgte. Zuerst wurden neue Methoden konzipiert und erst danach schlossen sich Forschungen zu den m¨ oglichen Fehlern“ dieser ” Beschreibungen an. In j¨ ungerer Vergangenheit sind diese methodenorientieren Forschungen mit wenigen Ausnahmen (Zeitreihen in der Wirtschaft, Faktorenmethoden in der Psychologie) vern¨ achl¨ assigt worden – demgegen¨ uber kam es zu einer v¨ollig disproportionalen Entwicklung (ja zu einem fast b¨osartigen Wachstum) der Theorie der Stichprobenauswahl. Ich hoffe, daß es einen Weg zur¨ uck zu den eigentlichen Beschreibungsmethoden gibt. Da sich diese Methoden nur im Zusammenhang mit konkreten Problemen entwickeln, impliziert das eine R¨ uckkehr zur praktischeren Arbeit, und zu einem Weniger an reiner Theorie ... Ein mit Vorsicht, gesundem Menschenverstand und Geduld ausgestatteter Forscher hat gr¨oßere Chancen, Fehlschl¨ usse zu vermeiden, als ein unbesonnener Mensch, der sich von einer mechanischen Anwendung der Regeln der Stichprobenauswahl leiten l¨ aßt. Es gibt wichtigere Fehlerquellen als Schwankungen von Stichprobennahmen ... Nein, ich kann dieser Theorie nicht den vordersten Platz zugestehen – einen vorderen Platz vielleicht, aber nicht den vordersten (Yule (1942, [295]), zitiert von Vining, 1949, [283]).
Theorien testen oder Diversit¨ at beschreiben?
357
¨ Uber das Unverst¨andnis hinaus, das Yule f¨ ur die Techniken der Stichprobenauswahl und deren entscheidende Vorteile (und sei es auch nur in Bezug auf die Erhebungskosten) erkennen ließ, ist aber auch noch etwas anderes zu beachten. Sein Beharren auf der Deskriptionsmethode“, auf die sich Vi” ning 1949 bezog, lenkte die Aufmerksamkeit auf eine andere Auffassung von statistischer Arbeit – eine Auffassung, die nicht darauf abzielt, Theorien zu testen. Diese Auffassung wurde sp¨ater von den Spezialisten f¨ ur Stichprobenerhebungen entwickelt und aus den Erhebungen leiteten sie immer subtilere Beschreibungen ab. Yule, Bowley und March stellten 1909 auf dem in Paris veranstalteten Kongreß des Internationalen Statistischen Instituts diejenigen Methoden der mathematischen Statistik vor, die aus der Biometrie hervorgegangen waren: die partielle Korrelation und die multiple Regression. National¨ okonomen, wie zum Beispiel Lenoir und Moore, griffen diese Methoden auf und versuchten, auf der Grundlage statistischer Beobachtungen die Gesetze von Angebot und Nachfrage zu identifizieren und sogar Erkl¨arungen f¨ ur Konjunkturzyklen zu finden. Die Wirtschaftstheorie begann, sich mit empirischen Aufzeichnungen zu besch¨ aftigen. Vierzig Jahre sp¨ater, im Jahre 1949, wurden die Voraussetzungen f¨ ur die M¨oglichkeit der genannten Wechselwirkung gr¨ undlich untersucht. Das Fundament f¨ ur diese Untersuchungen war in den 1930er Jahren vor allem durch die Anwendung einer neuen Art und Weise gelegt worden, u ¨ber Statistik zu sprechen, n¨amlich im Rahmen von Wahrscheinlichkeitsmodellen. Zu diesem Zeitpunkt konnten jedoch – wie die Kontroverse zwischen Koopmans und Vining zeigt – die statistischen Werkzeuge mit unterschiedlichen Rhetoriken verbunden werden und vielf¨altige intellektuelle, soziale und politische Ans¨ atze unterst¨ utzen. Es gibt nicht nur eine einzige richtige Art und Weise, die Zahlen sprechen zu lassen und sich in der Argumentation auf Zahlen zu st¨ utzen. Das ist der Grund daf¨ ur, warum eine Soziologie der Statistik unentbehrlich ist, in der jeder dieser Diskurse gleichermaßen ernst genommen wird und alle Diskurse in dem Netz zur Geltung kommen, das ihnen Zusammenhalt verleiht und von ihnen zusammengehalten wird.
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Von den Eigenschaften, durch die sich die – mit der Schule der Annales d’hygi`ene publique ab 1930 eingeleitete – Linie der offenen historischen Forschung auszeichnete, war die Bezugnahme auf die statistischen Objektivierungen bedeutsam. Aus dieser Sicht hat die quantitative Geschichte durch Vermittlung von Simiand, Halbwachs und Labrousse Teile der Durkheimschen Schule und – noch n¨aher an der Quelle – Teile der auf Quetelet zur¨ uckgehenden Denkweise geerbt, die sich auf Mittelwerte konzentrierte und die makrosozialen Regelm¨ aßigkeiten den unvorhersehbaren und stets andersartigen Zuf¨ alligkeiten der isolierten Ereignisse gegen¨ uberstellte. Mit dieser Technik hat die quantitative Geschichte versucht, u ¨ber die individuellen oder konjunkturellen Kontingenzen hinauszugehen und allgemeinere Dinge zu konstruieren, durch die man je nach Sachlage soziale Gruppen oder Ereignisse von Langzeitdauer charakterisieren kann. Das Bem¨ uhen, der chaotischen Vielfalt der singul¨ aren Beobachtungen eine Form zu geben, impliziert den R¨ uckgriff auf fr¨ uhere Quellen und auf spezifische Kodierungen, bei denen sich der Historiker zwei Fragen stellt: Sind diese Quellen verf¨ ugbar? Sind sie zuverl¨ assig? Aus dieser Sicht vergleicht man die Frage nach der Realit¨at und nach der Konsistenz der Objekte mit der Frage nach der Zuverl¨assigkeit der Messungen dieser Objekte. Die kognitiven Verallgemeinerungswerkzeuge werden als gesichert und fest konstituiert vorausgesetzt. Das einzige, was z¨ahlt, ist das kontrollierte Sammeln und die technische, gegebenenfalls automatisierte Datenverarbeitung. In diesem Buch habe ich versucht, diese klassische Beziehung zwischen Geschichte und Statistik umzukehren, indem ich das rekonstruiert habe, was Jean-Claude Perrot (1992, [227]) als konkrete Geschichte der Abstraktion“ ” bezeichnet. Die Denkweisen und die materiellen Techniken, die in den unterschiedlichen Etappen der Geschichte der Sozialwissenschaften (und vor allem der Geschichte) ihren Einfluß geltend machen, stehen ihrerseits in Beziehung zu den K¨ unsten des Tuns und Sagens, die von der allgemeinen Geschichte untersucht werden. Dar¨ uber hinaus h¨angen diese Denkweisen und materiellen Techniken mit den Debatten zusammen, die zu politischen und wissenschaftlichen Totalisierungsverfahren f¨ uhren. So stehen den statistischen und
360
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
makro¨ okonomischen Konstrukten, die in den Jahren von 1940 bis 1970 dominierten, heute mikrohistorische (Ginzburg, 1980, [110]) und mikrosoziologische Forschungen gegen¨ uber – so als ob Zweifel hinsichtlich einer allumfassenden Geschichte oder Sozialwissenschaft aufgekommen w¨ aren, die mit Hilfe großer Mengen argumentieren. Aber ist diese Entwicklung rein epistemologisch? Bezieht sie sich nicht auf kognitive Techniken, welche man unabh¨ angig von der Geschichte konzipieren kann, die mit Hilfe dieser Techniken erkl¨ art werden soll? Die Wiedereinf¨ uhrung der statistischen Argumentation als Abstraktionsweise in einer umfassenderen Sozialgeschichte oder Politikgeschichte wirft ein spezielles Problem auf, denn diese Technik ist zu einem Synonym f¨ ur ein Beweisinstrument und f¨ ur einen Bezugsrahmen geworden, die kaum noch angefochten werden. Die geistige Kehrtwendung, die eine Ber¨ ucksichtigung der Metamorphosen der statistischen Argumentation einschließt, erweist sich f¨ ur den Forscher als fast ebenso schwierig wie f¨ ur den Normalb¨ urger, der nunmehr daran gew¨ ohnt ist, die soziale Welt durch ein dichtes Netz von Indizes und Prozents¨ atzen zu sehen. Sowohl in der wissenschaftlichen als auch in der sozialen Debatte dr¨ uckte man sich fortan in einer selbstsicheren Sprache aus, deren Transformationen wir in diesem Buch gefolgt sind. Aus der Perspektive des Studiums der Anfechtbarkeit“ stelle ich hier einige der erzielten Ergebnisse ” zusammen und untersuche, wie die statistischen Werkzeuge dazu beigetragen haben, einen ¨offentlichen Raum – das heißt einen Raum f¨ ur kollektive Debatten – zu formen. Außerdem versuche ich, die Analyse der Rolle dieser Techniken u ¨ber die 1940er Jahre hinaus – die den Endpunkt der vorhergehenden Kapitel darstellen – weiterzuf¨ uhren, indem ich kurz an die relative Krise erinnere, die sich seit 1970 abzeichnet.21
Ein zu praktischen Zwecken konstruierter kognitiver Raum Der ¨ offentliche Raum als Raum, in dem die Fragen der Gemeinde in einer angt mit der Existenz stati¨offentlichen Debatte er¨ortert werden k¨onnen, h¨ stischer Informationen zusammen, die allen zug¨ anglich sind. Claude Gruson, einer der Gr¨ underv¨ater der franz¨osischen ¨offentlichen Statistik, hat das als eine notwendige Bedingung der Demokratie und der aufgekl¨ arten Debatte beschrieben und als einen unerl¨aßlichen Bezugsrahmen daf¨ ur bezeichnet, die massiven Trends“ der Gesellschaft herauszuarbeiten (Ladri`ere und Gruson, ” 21
Ich greife hier Teile von Darstellungen auf, die ausf¨ uhrlicher in zwei Artikeln ver¨ offentlicht worden sind. Der erste Artikel wurde im Courrier des statistiques publiziert und bezieht sich auf die neuere Geschichte der franz¨ osischen ¨ offentlichen Statistik (Desrosi`eres, 1989, [64]). Der zweite, in Raisons pratiques erschienene Artikel, ist Bestandteil einer dem Begriff des ¨ offentlichen Raumes“ gewidmeten ” Nummer dieser Zeitschrift (Desrosi`eres, 1992, [65]).
Ein zu praktischen Zwecken konstruierter kognitiver Raum
361
1992, [163]). Aber die Zusammenh¨ange zwischen dem ¨ offentlichen Raum und der statistischen Argumentation liegen wahrscheinlich tiefer, als Gruson andeutet. Die Konstruktion eines statistischen Systems ist untrennbar mit der ¨ Konstruktion von Aquivalenzr¨ aumen verkn¨ upft, welche sowohl die politische als auch die kognitive Konsistenz und Permanenz der Objekte garantieren, die einen Bezugsrahmen f¨ ur die Debatten liefern sollen. Der Repr¨ asentativit¨ atsraum der statistischen Beschreibungen ist nur mit Hilfe eines Raumes gemeinsamer mentaler Darstellungen m¨oglich geworden, die von einer gemeinsamen Sprache getragen werden und vor allem durch den Staat und durch das Recht abgegrenzt sind. Der ¨ offentliche Raum ist von diesem Standpunkt nicht nur eine performative und mitunter vage Idee, sondern ein historisch und technisch strukturierter und eingegrenzter Raum. Statistische Informationen fallen nicht als reines Spiegelbild einer zeitlich vor ihnen existierenden Realit¨ at“ vom Himmel. ” Ganz im Gegenteil: sie k¨onnen als die vorl¨aufige und zerbrechliche Kr¨ onung ¨ einer Reihe von Aquivalenzkonventionen in Bezug auf Entit¨ aten angesehen werden, wobei eine Vielzahl von ungeordneten Kr¨ aften st¨ andig danach trachtet, diese Konventionen zu differenzieren und zu trennen. Der Raum der sta¨ tistischen Informationen bezieht seine Uberzeugungskraft aus der doppelten Bezugnahme auf Solidifikationsprinzipien, die im Allgemeinen voneinander unterschieden werden: das Solidifikationsprinzip der Wissenschaft und das Solidifikationsprinzip des Staates. Der Raum der statistischen Informationen ist besonders signifikant, wenn man untersuchen m¨ ochte, was einen ¨ offentlichen Raum gleichzeitig m¨oglich und unm¨oglich macht. Die Spannung zwischen der Tatsache, daß statistische Informationen den Anspruch erheben, Bezugspunkte einer Debatte zu sein, und dem Umstand, daß man diese Informationen immer wieder infrage stellen kann und sie dadurch zum Debattengegenstand macht, ist eine der Hauptschwierigkeiten bei der gedanklichen Formulierung der Bedingungen, unter denen ein solcher Raum m¨ oglich ist. Man k¨ onnte diese Spannung mit der allgemeineren Spannung vergleichen, die daraus resultiert, daß sich manche Debatten sowohl um substantielle Objekte als auch um die Regeln und Modalit¨aten der Debatte drehen k¨ onnen: um die Verfassung, um den Ablauf von Versammlungen und um den Modus der Benennung von Vertretern. Jede Verfassung sieht die Regeln ihrer eigenen ¨ Anderung vor. Der springende Punkt ist jedoch, daß statistische Informationen nicht in der gleichen Weise in Erscheinung treten: unbestreitbare Tat” best¨ ande“, die von diesen Informationen geliefert werden sollen, beinhalten keine Modalit¨ aten in Bezug auf eine Diskussion der Informationen (die ihrerseits aber zur Beglaubigung der Fakten beigetragen haben). Dieser Umstand wird oft als unertr¨aglich empfunden – auf jeden Fall scheint er zumindest unertr¨ aglicher zu sein, als die Debatte u aten der Debatte. Es ¨ber die Modalit¨ handelt sich also um eine Skala der Debattierbarkeitsniveaus“ der zu behan” delnden Objekte. Die Trennung zwischen technischen Objekten und sozialen Objekten, die bis ins 17. Jahrhundert zur¨ uckgeht, ist jetzt zu einer tiefen Kluft geworden. Von dieser Warte aus eignen sich die statistischen Objek-
362
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
te – deren Best¨ andigkeit mit der Konsistenz der genannten technischen oder sozialen Objekte zusammenh¨angt – besonders gut f¨ ur eine erneute Untersuchung dieser essentiellen Aufteilung der modernen Welt. Auch eignen sich die statistischen Objekte f¨ ur eine Reflexion u ¨ber die politischen Konsequenzen der Tatsache, daß es ebenso schwierig wie unerl¨ aßlich ist, sich diese Objekte gleichzeitig als konstruiert und real, als Ergebnisse von Konventionen und als dauerhaft vorzustellen. Fehlt es an einer derartigen Vorstellungskraft, dann drohen die statistischen Informationen, endlos zwischen zwei entgegengesetzten und komplement¨aren Zust¨anden hin und her zu schwanken: zwischen einem unbestreitbaren Bezugsrahmen, der u ¨ber den Debatten steht, und einer Zielscheibe polemischer Denunziationen, von denen die komplexe Pyramide ¨ der Aquivalenzen zerst¨ort wird. Die Statistik stellt sich in ihrer gegenw¨artigen Architektur als Kombination zweier unterschiedlicher Typen von Werkzeugen dar, deren historische Bahnen nicht konvergierten und erst gegen die Mitte des 20. Jahrhunderts zu einem robusten Konstrukt gef¨ uhrt haben. Der erste Werkzeugtyp ist politischadministrativer Natur: seit dem 18. Jahrhundert wurden nach und nach Systeme zur Registrierung, Kodierung, Tabellierung und zur Publikation von Sta” tistiken“ installiert – Statistiken im Sinne der zahlenm¨ aßigen Beschreibung von unterschiedlichen Aspekten der sozialen Welt. Der zweite Werkzeugtyp ist kognitiver Natur und impliziert die Formalisierung wissenschaftlicher Begriffe (Mittelwert, Streuung, Korrelation, Zufallsstichprobe), die vor allem mit Hilfe mathematischer Werkzeuge eine f¨ ur unbeherrschbar gehaltene Diversit¨ at zusammenfassen sollten. Von diesem doppelten historischen Ursprung r¨ uhrt die Tatsache her, daß der Begriff Statistik“ je nach Kontext unterschiedliche ” Konnotationen hat: bald sind es Ergebnisse und quantifizierte Beschreibungen, bald Methoden, mathematische Formalismen und Beweisf¨ uhrungen. Dieser doppelte Weg muß beschritten werden, wenn man verstehen m¨ ochte, auf ¨ welche Weise ein kognitiver Aquivalenzund Komparabilit¨ atsraum zu praktischen Zwecken konstruiert werden konnte. Diese praktischen Zwecke und die Ad-hoc-Mittel sind Gegenstand von ¨offentlichen Entscheidungen und Debatten, die sich auf Vergleiche st¨ utzen k¨onnen. Aber diese Vergleiche stellen ¨ keineswegs das einzige verf¨ ugbare Hilfsmittel dar: statistische Uberlegungen k¨ onnen immer in Konflikt mit anderen Argumenten geraten, die nichts mit Statistik zu tun haben und mit der irreduziblen Singularit¨ at des Individuums zusammenh¨ angen. Die explizite Darstellung dieser Spannung ist eines der Hauptprobleme, wenn man den Platz des statistischen Arguments in der sozialen Debatte untersucht. Die Ideen des Vergleichs und der Gegen¨ uberstellung zu Entscheidungszwecken erm¨ oglichen es, die Bedeutungsverschiebungen des Begriffes Sta” tistik“ nachzuverfolgen. Im zersplitterten Deutschland des 18. Jahrhunderts war die Statistik ein formaler Rahmen zur Beschreibung der Staaten: eine komplexe Klassifizierung mit dem Ziel, die Tatsachen so aufzubereiten, daß sie leichter einpr¨agbar und vermittelbar sind und von der Regierung m¨ uhe” loser verwendet werden k¨onnen“. Diese Statistik beinhaltete keine Quanti-
Mittelwerte und Regelm¨ aßigkeiten, Skalen und Verteilungen
363
fizierungst¨ atigkeit (Zahlen fehlten bei ihr u ¨berhaupt) – vielmehr handelte es sich um Taxonomie. Memorieren, unterweisen, regieren: die Dinge mußten exteriorisiert werden, man mußte sie in B¨ ucher eintragen, um sie sp¨ ater wiederzuverwenden oder an andere weiterzugeben. Diese Organisations- und Ordnungst¨ atigkeit schuf eine gemeinsame Sprache. F¨ ur die moderne Statistik war diese Sprache wesentlich: sie war ihre rechnerische Komponente, an die man heute spontan als Erstes denkt. Aber das Denkschema der deutschen Statistik trug eine andere M¨ oglichkeit in sich. Es legte einen Vergleich der Beschreibungen mit Hilfe von Kreuztabellen nahe, in denen die Staaten und die standardisierten Bereiche so in Erscheinung traten, daß man die Vielfalt der Situationen und Standpunkte mit einem einzigen Blick erfassen konnte – mit einem Blick auf die beiden Dimensionen einer Buchseite. Das machte den Unterschied zwischen schriftlichen ¨ Unterlagen und m¨ undlichen Uberlieferungen, zwischen grafisch festgehaltenen Argumenten und diskursiver Argumentation aus. Aber die Verwendung von Kreuztabellen stieß auch auf Widerst¨ande. Die Tabellen zwangen dazu, sich Komparabilit¨atsr¨aume und allgemeine Kriterien einfallen zu lassen. Damit setzte man sich aber nunmehr dem Vorwurf aus, die Verh¨ altnisse so zu reduzieren, daß ihre jeweilige Singularit¨at geopfert wird und dadurch ein inhaltlicher Verlust entsteht. Die Kreuztabellen f¨ uhrten zu weiterer Kritik, da sie aufgrund ihrer inneren Logik dazu tendierten, fortan auch Zahlen einzubeziehen, die man vergleichen, handhaben und in Grafiken u ¨bersetzen konnte. Die Tabellenform l¨oste die Produktion und den Vergleich von Zahlen aus und schuf dadurch einen Raum f¨ ur Berechnungen, der nach einer neuen Statistik rief – nach einer Statistik, die sich mit quantitativen Gr¨ oßen befaßte. Der Widerstand gegen die Konstruktion eines derartigen Raumes wurde sowohl politisch als auch kognitiv begr¨ undet. Sp¨ ater wurde dieser Widerstand dadurch u aume instal¨berwunden, daß man immer einheitlichere staatliche R¨ lierte und mathematische Formulierungen verwendete, mit deren Hilfe sich die Singularit¨ aten in standardisierten Relationen abstrahieren ließen, die von einem Fall auf einen anderen u ¨bertragen werden konnten. Die Nomenklaturen und die mathematischen Formulierungen erm¨ oglichten es, die anf¨ angliche Arbeit der Reduktion von Einzelf¨allen einzukapseln“ und neue Dinge zu ” schaffen. Diese neuen Dinge waren sowohl Black Boxes“ als auch singul¨ are ” Elemente umfassenderer Mechanismen. Die Realit¨ at“ dieser Objekte ist in ” Abh¨ angigkeit davon unterschiedlich, ob man sie vom Standpunkt ihrer Genese oder aber vom Standpunkt ihrer Verwendung aus betrachtet.
Mittelwerte und Regelm¨ aßigkeiten, Skalen und Verteilungen Eine Debatte u ¨ber eine Maßnahme setzt voraus, daß man a priori inkommensurable Beziehungen zwischen Objekten oder Ereignissen explizit in einem
364
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Bezugsrahmen angibt, der eine gleichzeitige gedankliche Erfassung dieser Beziehungen erm¨ oglicht. Die Debatte kann zwischen mehreren Personen ablaufen oder sich im Falle einer einzigen Person auf unterschiedliche Momente oder alternative Aktionen beziehen. Die Koh¨arenz in sich“ wirft Probleme des ” gleichen Typs auf, wie die Erzeugung eines f¨ ur mehrere Themen gemeinsamen Objektivierungsrahmens. Die Geschichte der Wahrscheinlichkeitsrechnung des 17. und 18. Jahrhunderts illustriert diese Dualit¨ at. Wie kann man eine Beziehung zwischen zuk¨ unftigen, ungewissen Ereignissen herstellen, wie zum Beispiel: R¨ uckkehr oder Untergang eines Schiffes, Ergebnisse eines Gl¨ ucksspiels, Folgen einer Impfung und so weiter? Der Begriff des Erwartungswertes, der dem Begriff der Wahrscheinlichkeit vorausging, erm¨ oglichte die Konstruktion von derartigen Bezugsrahmen; er erm¨oglichte es auch, sowohl die Entscheidungen einer Person als auch Schiedsverfahren zwischen mehreren Personen koh¨ arent und kommensurabel zu gestalten. Diese Argumentationsweise hat die Besonderheit, daß sie sich an der Nahtstelle zwischen zwei radikal unterschiedlichen Interpretationen befand. Die eine – subjektive oder epistemische – Interpretation hing mit den Zust¨ anden des Verstandes zusammen und behandelte die Wahrscheinlichkeit als ein Maß f¨ ur Nichtwissen. Sie kennzeichnete Glaubensgr¨ unde“ und war im 19. Jahrhundert ” vorherrschend. Die andere – als objektiv oder frequentistisch bezeichnete – Argumentationsweise hing mit den Zust¨anden der Welt und den beobachteten Regelm¨ aßigkeiten des Auftretens dieser Zust¨ande zusammen. Das Gesetz der ” großen Zahlen“ und die Zweideutigkeit seiner philosophischen Interpretation symbolisieren diese frequentistische Seite des im 19. Jahrhundert dominierenden probabilistischen Programms. Das zentrale Instrument dieser Transformation war die von Quetelet um 1830 formulierte Berechnung von Mittelwerten und die Pr¨ ufung ihrer Stabilit¨ at. Die Fragen der ¨offentlichen Hygiene, der Epidemiologie und der Kriminalit¨ at implizierten administrative und politische Maßnahmen (im Sinne von Entscheidungen), deren Diskussion und Rechtfertigung sich auf Messungen (im Sinne von Quantifizierungen) der zu erreichenden Ziele und der hierzu eingesetzten Mittel st¨ utzen konnten. Die Alchimie“, die freie und zuf¨ allige ” Handlungen in bestimmte und stabile Aggregate transformiert, stellte f¨ ur die Debatten Bezugspunkte und u ¨bertragbare Objekte bereit, da sich diese Aggregate außerhalb von Personen befanden. Diese Alchimie war der Kern der statistischen Instrumentierung des ¨offentlichen Raumes. Das zeigte sich etwa in der Transformation der Art und Weise, wie man im 19. Jahrhundert mit Arbeitsunf¨ allen sozial umgegangen ist: es erfolgte eine Verschiebung von der – durch das Zivilgesetzbuch festgelegten – individuellen Haftung hin zur Versicherungshaftung des Betriebes, wobei sich die Haftung auf die Berechnungen von Wahrscheinlichkeiten und Mittelwerten st¨ utzte. Die Versicherungssysteme und die sozialen Sicherungssysteme beruhten auf dieser Transformation des individuellen Zufalls in stabile und kollektive Objekte, welche die F¨ ahigkeit besaßen, ¨ offentlich ausgewertet und debattiert zu werden. Die Argumentation von Quetelet maß jedoch den unberechenbaren Individuen keine Bedeutung
Mittelwerte und Regelm¨ aßigkeiten, Skalen und Verteilungen
365
bei, sondern konzentrierte sich auf den Mittelwert als Tr¨ ager einer beherrschbaren Aktion. Diese Argumentation erlaubte keine werkzeugm¨ aßige Ausstattung der Debatten u ¨ber die Verteilungen und die Ordnungen der Individuen. Quetelet strebte eine Reduzierung der Heterogenit¨ aten an und zeigte kein Interesse f¨ ur deren Objektivierung. Eine solche Objektivierung erwies sich jedoch gerade dann als notwendig, wenn es in der Debatte um diese Heterogenit¨ aten ging. Diese Objektivierung fand statt, als Galton die hereditaristische Darwinsche Problematik der Ungleichheiten zwischen den Individuen von der Tierwelt auf die Menschen u ¨bertrug. Dennoch enthielt das Konstrukt von Quetelet bereits eine ad¨ aquate Form dieser Objektivierung: das Normalgesetz“ der Gaußschen Verteilung der ” k¨ orperlichen oder psychischen Merkmale der menschlichen Spezies, wie zum Beispiel K¨ orpergr¨oße oder Intelligenz. Da sich Quetelet aber auf die Beschreibung (und Idealisierung) seines Durchschnittsmenschen orientierte, hat er diese Form nicht dazu verwendet, um unterschiedliche Individuen anzuordnen und zu klassifizieren. Nun eignete sich aber die Normalverteilung gut zur Bildung von eindimensionalen Ordinalskalen und deswegen auch zur Konstruktion von Bezugsr¨aumen, die einen einfachen Vergleich der Individuen erm¨ oglichen – genau das taten Galton und die seinen Spuren folgenden Eugeniker ab 1870. Diese Kehrtwendung der Interpretation der Normalverteilung vom Mittelwert hin zur Streuung der pers¨ onlichen Merkmale brachte ¨ Galton darauf, Werkzeuge zur Aufstellung von Aquivalenzen zwischen unterschiedlichen Populationen zu ersinnen – Werkzeuge, die teilweise durch eine statistische (und nicht deterministische) Korrelation miteinander verkn¨ upft waren: die K¨ orpergr¨oße der S¨ohne wurde teilweise durch die K¨ orpergr¨ oße der V¨ ater erkl¨ art. Durch die Erschließung eines neuen Kontinents f¨ ur die Objektivierung der Kausalit¨at – des Kontinents der partiellen und statistischen Kausalit¨ at – lieferten Galton und Pearson den ¨ außerst vielf¨ altigen argumentativen Debattenrhetoriken (bei denen man nicht mehr zwischen sozial“ ” und technisch“ unterscheiden kann) einen ganz neuen Werkzeugkasten“, ” ” der von den Entscheidungstr¨agern des 20. Jahrhunderts und ihren Experten in umfassender Weise genutzt werden sollte. Allgemeiner gesagt haben die aus der Biometrie hervorgegangenen Werkzeuge der mathematischen Statistik (Regression, Korrelation, Verteilungsanpassungstests, Varianzanalyse, wahrscheinlichkeitstheoretisch-¨okonometrische Modelle) zur Instrumentierung des sozio-technischen Debattenraumes beigetragen, der sich auf die Prognosen und Entscheidungen bezieht, an denen sich die soziale Welt orientiert. Diese Werkzeuge stellten verfestigte, ausgeh¨artete Objekte bereit, in Bezug auf die sich die Akteure positionieren konnten. Die Werkzeuge lieferten eine allgemeine Sprache, die mit einer elaborierten und komplexen Grammatik ausgestattet war. Die Anh¨ anger der Eugenik unter den englischen Biometrikern des sp¨ aten 19. Jahrhunderts hielten sich als Erfinder dieser zukunftstr¨ achtigen mathematischen Techniken nicht f¨ ur Statistiker“. Zuallererst waren sie f¨ ur die po” litische Sache des Hereditarismus und der Meritokratie aktiv. Gem¨ aß diesen
366
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Vorstellungen waren die k¨orperlichen und geistigen Merkmale erbbedingt und es erwies sich als w¨ unschenswert, die Geburtenzahlen der Tauglicheren“ zu ” f¨ordern und die Geburtenzahlen der ¨armsten Schichten zu beschr¨ anken. Diese wissenschaftspolitische Kriegsmaschine war einerseits gegen den grundbesitzenden Adel und gegen den Klerus gerichtet, die den modernen Wissenschaften und dem Darwinismus gegen¨ uber feindlich eingestellt waren; andererseits richtete sie sich aber auch gegen die Reformer, f¨ ur die das Elend mehr ¨okonomische und soziale als biologische Ursachen hatte, weswegen sich diese Reformer f¨ ur den Aufbau sozialer Sicherungssysteme einsetzten. F¨ ur die Eugeniker waren die sozialen Maßnahmen verh¨angnisvoll, da sie die Reproduktion der Untauglichen“ beg¨ unstigten. Die Polemik hierzu markierte im England ” des fr¨ uhen 20. Jahrhunderts den Raum der politischen Diskussionen u ¨ber die Armut und u ¨ber die Mittel dagegen. F¨ ur diese Episode der Geschichte der Statistik ist weniger die Tatsache von Bedeutung, daß die neuen Techniken von den Verfechtern einer absurden politischen Linie erfunden worden waren – einer Politik, die sp¨ ater sogar in verbrecherischer Weise umgesetzt werden sollte. Wichtig ist vielmehr die Tatsache, daß die neuen Techniken rasch (in den 1920er und 1930er Jahren) zu beinahe zwangsl¨ aufigen Durchgangspunkten f¨ ur die Verfechter anderer Ansichten wurden. Dadurch strukturierten diese Techniken sogar die in den Diskussionen verwendeten Begriffe und die im Raum der politisch-wissenschaftlichen Debatten gesprochene Sprache, obschon mit Beginn der 1940er Jahre die Problematik der biologischen Ungleichheiten weitgehend durch die Problematik der ¨okonomischen Ungleichheiten und der famili¨aren sozio-kulturellen Benachteiligungen ersetzt worden war. Die statistische Kausalit¨ at – die werkzeugm¨ aßig einerseits durch die Erhebungen der seit den 1830er Jahren existierenden statistischen B¨ uros ausgestattet war und sich andererseits in den 1920er Jahren der aus der Biometrie importierten mathematischen Formulierungen bediente – wurde mit Beginn der Krise von 1929 vor allem in den Vereinigten Staaten zum Bezugsrahmen der Debatten u ¨ber die Wirtschafts- und Sozialpolitik. Roosevelt, der 1932 zum Pr¨asidenten gew¨ahlt wurde, f¨ uhrte eine umfassende Interventionspolitik ein und gestaltete deswegen die Organisation des amerikanischen statistischen Bundesamtes um, das bis zu diesem Zeitpunkt eine ziemlich unbedeutende Beh¨orde war. Nicht nur die Volks- und Betriebsz¨ ahlun¨ gen wurden weiterentwickelt; die Statistiker und die Okonomen entschieden sich nunmehr auch endg¨ ultig f¨ ur die Methoden der mathematischen Statistik. Vor allem sind die drei wesentlichen Werkzeuge der modernen Sozial- und Wirtschaftsstatistik geschaffen worden: Umfragen mit Hilfe von repr¨ asentativen Stichprobenerhebungen, volkswirtschaftliche Gesamtrechnung und wenig sp¨ ater die Computer. Diese Gesamtheit von Techniken und ihren Anwendungen in der sozio-politischen Debatte entstand zwischen 1935 und 1950 in den Vereinigten Staaten und nahm dort ihre gegenw¨ artige Gestalt an. Nach 1945 wurden diese Techniken zuerst in Westeuropa und dann vom Rest der Welt u ¨bernommen und mit anderen spezifischen Traditionen kombiniert.
Mittelwerte und Regelm¨ aßigkeiten, Skalen und Verteilungen
367
Die Methode der Zufallsstichproben implizierte die Anwendung mathematischer Werkzeuge, die seit Beginn des 19. Jahrhunderts zur Verf¨ ugung standen. Aber diese Werkzeuge sind erst um 1900 benutzt worden – zun¨ achst experimentell in Norwegen und in England, um die Lebensbedingungen der verschiedenen sozialen Schichten zu beschreiben. Sp¨ ater, in den 1930er Jahren verwendete man die Werkzeuge im großen Maßstab in den Vereinigten Staaten, um die Arbeitslosigkeit zu messen, Marktstudien durchzuf¨ uhren und um Wahlprognosen zu erstellen. Diese zeitliche Verschiebung von einem Jahrhundert zwischen der mathematischen Formalisierung und deren Verwendung in den Sozialwissenschaften l¨aßt sich auf unterschiedliche Weise interpretieren. Wahrscheinlichkeiten sind lange Zeit mit der Vorstellung von einem unvollst¨andigen und l¨ uckenhaften Wissen in Verbindung gebracht worden, w¨ ahrend die mit der T¨ atigkeit des Staates zusammenh¨ angende Statistik Vollerhebungen voraussetzte, die das Territorium l¨ uckenlos und exakt abdeckten. Die Verwendung der wahrscheinlichkeitstheoretischen Formeln setzte eine Homogenit¨ at dieses Territoriums voraus (das heißt der Urne, aus der die Kugeln zuf¨ allig gezogen werden), aber nichts konnte diese Homogenit¨ at garantieren; ¨ die potentielle Aquivalenz der verschiedenen Regionen des Landes war nicht gesichert. Und schließlich verfolgten die Sozialenqueten des 19. Jahrhunderts die Absicht, die sozialen Beziehungen und die Ursachen der Armut auf der lokalen Ebene der Kirchengemeinden und der Stadtviertel festzustellen, weil die politische Behandlung dieser Fragen auf die Initiative der ¨ ortlichen Gemeinden zur¨ uckging. Zu Beginn des 20. Jahrhunderts ging die Behandlung der sozialen Fragen allm¨ ahlich von den Wohlt¨atigkeitseinrichtungen und vom lokalen Paternalismus auf die Zust¨andigkeit des Gesetzes u ¨ber, das im Parlament diskutiert wurde und im ganzen Land g¨ ultig war. So wurde ein nationaler Debattenraum geschaffen, in dem man u ¨ber die Ursachen der Armut und u ¨ber die juristischen und gesetzlichen Mittel zu deren Abhilfe diskutierte. Man gr¨ undete gleichzeitig Institutionen zur Behandlung dieser Fragen (Arbeits¨ amter) und der damit zusammenh¨angenden Verwaltungsaufzeichnungen (Registrierung in entsprechenden Listen) und f¨ uhrte Methoden zur Messung dieser neuen Objekte ein: die Armen wurden durch die Arbeitslosen ersetzt. Diese komplexen Registrier-, Meß- und Verarbeitungsmechanismen wurden auf der Grundlage von Standards entworfen, diskutiert und verwaltet, die im ganzen Land einheitlich waren. Die Bezugnahme auf eine landesweit gemessene Arbeitslosenquote tauchte gegen 1930 in der amerikanischen ¨ offentlichen Debatte und gegen 1950 in Frankreich auf. So erlangte der ¨ offentliche Raum, in dem man soziale Beziehungen behandelte, einen immer ausgepr¨ agter nationalen Charakter (jedoch mit Nuancen in Abh¨angigkeit von der Art und den Graden der Zentralisierung in den einzelnen L¨andern). In den Vereinigten Staaten erweiterten sich die politischen Repr¨asentations- und Ausdrucksr¨ aume immer mehr und nationalisierten“ sich (vor allem durch die Verbreitung des Radi” os), ebenso wie sich die Konsumg¨ uterm¨arkte ausdehnten (was der Eisenbahn und dem Wachstum der großen Unternehmen zu verdanken war). Das schuf
368
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
einerseits die Voraussetzungen daf¨ ur, das Bundesgebiet zu uniformisieren; andererseits f¨ uhrte es aber auch dazu, dieses Gebiet als eine relevante Gesamtheit ¨ aufzufassen – als einen Aquivalenzraum im politischen und logischen Sinne.
Ein Raum fu ¨ r Verhandlungen und Berechnungen Analoge Transformationen des Raumes f¨ ur Wirtschaftsinformationen und seiner Verwendung in der ¨offentlichen Debatte erfolgten in den 1950er Jahren in Frankreich, auch wenn die alte administrative Zentralisierung diese Entwicklung schon lange in typisch franz¨osischer Weise vorbereitet hatte. Diese Transformationen hingen mit der Einrichtung nationaler Instanzen zur Aushandlung der Lohnverh¨altnisse und ihrer relativen Vereinheitlichung (Definition des Begriffs Arbeiter“ entsprechend den Parodi-Dekreten“ (1946); Allge” ” ¨ meine Bestimmungen f¨ ur den Offentlichen Dienst (1947)), mit der Gr¨ undung der Sozialversicherung, der Landeskrankenkassen, der Kindergeldkassen und ¨ der Pensionskassen zusammen. Im Ubrigen ¨anderte sich die Natur der staatlichen Wirtschaftspolitik. Einerseits vertrat man nunmehr die Auffassung, daß das mit Hilfe der Keynesianischen Kategorien der volkswirtschaftlichen Gesamtrechnung beschriebene kurzfristige makro¨ okonomische Gleichgewicht auf uckzuf¨ uhren ist. Andererseits nahm man ¨offentliche Korrekturmaßnahmen zur¨ an, daß eine lenkende Planung der großen ¨offentlichen Investitionen und – allgemeiner gesprochen – der signifikanteren Tendenzen der mittel- bis langfristigen Entwicklung der Beziehungen zwischen den Wirtschaftssubjekten dazu f¨ uhrt, diesen Subjekten einen Bezugsrahmen f¨ ur diejenigen mikro¨ okonomischen Entscheidungen zu liefern, welche die Weichen f¨ ur die Zukunft stellen (Gruson, 1968, [113]). Das zwischen 1950 und 1970 errichtete statistische Informationssystem hing – sowohl hinsichtlich seiner grundlegenden Registrierungsabl¨ aufe und seiner Taxonomien als auch bez¨ uglich seiner Verwendung in der vor allem auf die Planung ausgerichteten ¨ offentlichen Debatte – wesentlich mit den parit¨atischen Strukturen der sozialen Sicherung, mit dem Aushandlungsmodus der Lohnverh¨altnisse (Rolle des nationalen Preisindex) und mit einer vom Keynesianismus inspirierten makro¨ okonomischen Politik zusammen. Die Konstitution eines Raumes, der gegens¨atzliche Debatten u ¨ber die Optionen der Gemeinde erm¨oglicht, setzt f¨ ur die verschiedenen Akteure ein Minimum an gemeinsamen Bezugselementen voraus: eine Sprache, um die Dinge auszusprechen, um die Zwecke und Mittel der Aktion zu formulieren und um die Ergebnisse der Maßnahme zu diskutieren. Diese Sprache existiert vor der betreffenden Debatte noch nicht. Sie wird ausgehandelt, festgeschrieben und aufgezeichnet. Im Laufe der f¨ ur einen Raum und eine historische Zeitspanne eigent¨ umlichen Interaktionen wird diese Sprache dann allm¨ ahlich deformiert und schließlich zerst¨ort. Es handelte sich dabei nicht mehr nur um ein reines Zeichensystem zur Widerspiegelung von Dingen, die mit einer Exteriorit¨ at ausgestattet sind: die Geschichte der Arbeitslosigkeit, ihrer Definition und
Ein Raum f¨ ur Verhandlungen und Berechnungen
369
der Institutionen, die den Arbeitslosen Hilfe leisten und ihre Anzahl verringern sollten, ist ein Beispiel f¨ ur die Interaktionen zwischen den statistischen Messungen und den institutionellen Verfahren zur Identifizierung und zur Kodierung der Objekte. Dieser enge Zusammenhang zwischen der Beschaffenheit einer Maßnahme und dem Funktionieren des Netzes der Verbindungen und Registrierungen, die zu diesem Netz gef¨ uhrt haben, kann mit der im Bereich der Wirtschaftsinformationen verbreiteten realistischen Epistemologie kollidieren – gerade weil diese Erkenntnistheorie in der sozialen Debatte verwendet wird. Die Polemik zum Problem der Ermittlung der Arbeitslosigkeit entbrannte seit den 1970er Jahren regelm¨aßig alle zwei oder drei Jahre, wobei fast immer die gleichen Termini verwendet wurden und werden. Diese Polemik zeigt deutlich, daß der Begriff einer klar abgrenzbaren und meßbaren Arbeitslosigkeit nunmehr ebenso fest in das Netz der allgemeinen Darstellungen integriert war, wie die Begriffe der Inflationsrate und des Bruttoinlandsproduktes der franz¨ osischen Wirtschaft. Aus dieser Sicht handelte es sich gewiß um Realit¨ aten. Die Registrierung einer Messung oder einer Maßnahme in einem System von Verhandlungen und gefestigten Institutionen (zum Beispiel durch Indexierungsregeln) kann Argumente liefern, mit denen die Objektivit¨ at und die Konsistenz gewisser statistischer Indikatoren bestritten wird. In Bezug auf die Arbeitslosigkeit ist das h¨aufig der Fall. Ebenso verhielt es sich fr¨ uher mit dem Einzelhandelspreisindex, der als Bezugspunkt f¨ ur Lohnverhandlungen diente. Diese Polemik gegen den Realismus der zu einem gegebenen Zeitpunkt – in ¨ einem institutionellen und kognitiven Netz – verwobenen Aquivalenzen zeigt, daß diese Netze niemals endg¨ ultig bestimmt sind: man kann sie angreifen und zerst¨ oren. Aber die Debatte u ost nur ¨ber die Indikatoren ist mehrdeutig: sie l¨ dann ein lebhaftes Echo aus, wenn der Realismus des Objekts nicht infrage gestellt wird, das man f¨ ur unkorrekt ermittelt h¨ alt. Die Polemik erlangt ihre Bedeutung durch die Bezugnahme auf eine wahre“ Arbeitslosenzahl, die un” bekannt ist (wenn sie nicht gar wissentlich verborgen wird). Hingegen f¨ uhrt die Behauptung, gem¨aß der die Messung einer Gr¨ oße auf die eine oder andere Weise stets aus einem konventionellen Verfahren resultiert, zu einer wesentlichen Modifizierung des Debattenraumes, das heißt der hierbei verwendeten Sprache. Die R¨ uckkehr zu den Kodierungsverfahren kann also durch unterschiedliche Rhetoriken in Abh¨ angigkeit davon ausgel¨ ost werden, ob der Realismus des Objekts – und der dieses Objekt ausdr¨ uckenden politischen und kognitiven Sprache – infrage gestellt wird oder nicht. Tats¨ achlich h¨ angt die Realit¨at eines Objekts von der Ausdehnung und von der Robustheit des umfassendsten Netzes ab, in dem dieses Objekt registriert ist. Dieses Netz besteht aus verfestigten Zusammenh¨ angen, routinem¨ aßigen ¨ ¨ Aquivalenzen und den W¨ortern, mit denen die Zusammenh¨ ange und Aquivalenzen beschrieben werden. Das Netz bildet eine Sprache, das heißt eine unterscheidbare Gesamtheit von Zusammenh¨angen, die den durch Begriffe bezeichneten Dingen einen Zusammenhalt verleihen. Die Begriffe sind ihrerseits durch eine spezifische Grammatik miteinander verkn¨ upft. In Bezug auf die Analyse des Platzes der statistischen Informationen im Raum der ¨ offentlichen
370
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
Debatte formulieren wir folgende Hypothese: Die verwendete Sprache weist in gewissen L¨ andern und f¨ ur gewisse Zeiten eine eigenst¨ andige Konsistenz auf, die ihrerseits mit der Konsistenz der Form zusammenh¨ angt, in der die sozialen Beziehungen geregelt werden. Genau diese Sprache stellt die Orientierungspunkte und den allgemeinen Bedeutungsrahmen bereit, in dem die Akteure ihre Aktionen charakterisieren und aussprechen k¨ onnen. Aus dieser Sicht gab es im Zeitraum von ca. 1950–1975 zumindest tendenziell das Bestreben, die ¨okonomische und soziale Debatte auf der Basis einer gemeinsamen Sprache zu vereinheitlichen – in der Sprache des Plans und der Keynesianischen Makro¨ okonomie, des Wachstums und der volkswirtschaftlichen Gesamtrechnung, der Soziologie der sozialen Ungleichheiten und ihrer statistischen Indikatoren, in der Sprache der vom Staat unterst¨ utzten Kollektivvertragsverhandlungen zwischen Arbeitgebern und Gewerkschaften u ¨ber die in konventionellen Tabellen eingetragenen L¨ohne und in der Sprache u atisches Umver¨ber ein parit¨ teilungssystem der sozialen Sicherung (Desrosi`eres, 1989, [64]). Die Gesamtheit der Akteure, der Verfahren und der diesbez¨ uglichen W¨ orter besitzt eine relative Koh¨arenz, zu der vor allem das Vokabularium und das Instrumentarium eines statistischen Systems beigetragen haben, das genau in dieser Zeit errichtet wurde. Die volkswirtschaftliche Gesamtrechnung war von ihren Autoren in den 1950er und 1960er Jahren explizit als Sprache vorgestellt worden, die es den in Plankommissionen und an parit¨ atischen Verhandlungstischen versammelten Sozialpartnern erm¨ oglichte, sich auf stabile und regelm¨ aßig gemessene Objekte zu st¨ utzen. Diese Objekte wurden einerseits in das koh¨ arente und umfassende Netz der buchhalterischen Beziehungen eingetragen (Fourquet, 1980, [95]) und andererseits in den ¨ okonometrischen Beziehungen festgeschrieben, die man ab 1970 in den großen makro¨ okonomischen Modellen verwendete (Malinvaud, 1991, [186]). Diese Sprache wurde ´ im Rahmen der Lehre durch die Ecole nationale d’administration (ENA), die ´ Ecole de sciences politiques, durch die Universit¨ aten, aber auch im Oberstufenunterricht verbreitet – vor allem in den neuen Programmen der Wirtschaftsund Sozialwissenschaften, deren Handb¨ ucher wesentlich von den Arbeiten und den Analysekategorien der ¨offentlichen Statistik inspiriert waren. Es sieht sogar so aus, daß die Verbreitung und Akzeptanz dieser Sprache in Frankreich gr¨ oßer gewesen sind als in anderen L¨andern. Frankreich blickte n¨ amlich auf eine ¨ altere Tradition zur¨ uck, die den Staatsingenieuren eine gr¨ oßere Bedeutung beimaß, denn sie waren die Tr¨ager einer Wissenschaft, die auf die Verwaltung eines starken und schon seit langem zentralisierten Staates angewendet ¨ wurde. So wurde beispielsweise die mathematische Okonomie in Frankreich von Ingenieuren eingef¨ uhrt und entwickelt, w¨ ahrend man in den angels¨ achsischen L¨ andern die diesbez¨ uglichen Forschungsarbeiten an den Universit¨ aten durchf¨ uhrte. Die Keynesianische Makro¨okonomie und die volkswirtschaftliche Gesamtrechnung hatten in Frankreich ein besonderes Kolorit, denn diese Gebiete wurden nicht von Professoren, sondern von hohen Beamten und Ingenieuren eingef¨ uhrt und propagiert. Die Legitimit¨ at und Autorit¨ at des Staates und der Wissenschaft verbanden sich in subtiler Weise.
Ein Raum f¨ ur Verhandlungen und Berechnungen
371
¨ Uber einen Zeitraum von etwa dreißig Jahren existierte also ein kognitiver Verhandlungs- und Berechnungsraum, der mit einer starken Legitimit¨ at ausgestattet war – der Legitimit¨at der Wissenschaft und des Staates. In diesem Raum fanden zahlreiche Debatten statt und es wurden viele technische Studien durchgef¨ uhrt, die den Entscheidungen der Wirtschaftspolitik vorangingen oder sie begleiteten. Jedoch geriet dieser relativ koh¨ arente Raum, der sich aus Institutionen, sozialen Objekten und den diesbez¨ uglichen Debattierbegriffen zusammensetzte, in den sp¨aten 1970er Jahren selbst in die Krise. Die aus ¨ Aquivalenzen bestehenden Netze, die zu politischen und statistischen Totalisierungen gef¨ uhrt hatten, l¨osten sich teilweise auf. Der Plan hatte fortan – als Ort der Konzertierung und mittelfristigen Prognose der großen ¨ offentlichen Entscheidungen – weniger Gewicht als fr¨ uher. Die ¨ okonometrischen Modelle, welche die Evolution der Beziehungen zwischen den zentralen makro¨ okonomischen und mikro¨okonomischen Objekten dieses Totalisierungssystems simulierten, werden f¨ ur die Prognose von Spannungen und Krisen oft als untauglich beurteilt. Die Debatten u ¨ber die eigentliche Messung einiger dieser Objekte und deren Signifikanz wurden mit zunehmender Heftigkeit gef¨ uhrt. Zu den Objekten dieser Debatten geh¨orten die Erwerbspersonen, die Geldmenge, die ¨ ¨ Armut und die sogenannte informelle“ Okonomie (das heißt die Okonomie, ” die sich den administrativen Kodierungen entzieht). Es gibt keine allgemeine“ und eindeutige Erkl¨ arung f¨ ur diese Entwick” lung, und zwar genau deswegen nicht, weil sich die fr¨ uhere Sprache kaum dazu eignet, u ¨ber ihre eigene Krise Rechenschaft abzulegen. Keine der Erkl¨arungen ist demnach allgemeiner, als irgendeine eine andere. Wir nennen im Folgenden einige dieser Erkl¨arungen. Die Stagnation des Wachstums hat es schwieriger gemacht, die Sozialpartner in Debatten zusammenzubringen, bei denen es nicht mehr um die Gewinnverteilung, sondern um die Verteilung der Krisenauswirkungen geht. Die umfassendere Integration der franz¨ osischen Wirtschaft in den globalen Warenaustausch verbot von nun an die Verwendung von Keynesianischen Modellen, die f¨ ur eine autonome Wirtschaft gelten. Der R¨ uckgang des repr¨asentativen Charakters der Gewerkschaftsorganisationen und der politischen Organisationen, die teilweise f¨ ur die Totalisierung der Forderungen und der Projekte in einer einheitlichen und stabilen Sprache verantwortlich waren, f¨ uhrte zu einer Schw¨achung ihrer Sprecher; diese Sprecher hatten zuvor f¨ ur die Funktionst¨ uchtigkeit eines relativ abgegrenzten ¨ offentlichen Raumes gesorgt. Der Nationalstaat als Akkumulationsort von Informationen und als Produktionsort von ad¨aquaten Vertretungen des politischen Handelns wird zunehmend zwischen zwei Polen hin und her gerissen: zwischen den Gebietsk¨ orperschaften, deren Gewicht durch die Dezentralisierungsgesetze gewachsen ist, und den europ¨aischen Institutionen und Vorschriften. Die Maßnahmen des Staates sind weniger voluntaristisch und makro¨ okonomisch; sein Vorgehen ist mehr auf die Produktion von Regeln ausgerichtet, die das freie Spiel des Marktes und des Wettbewerbs erleichtern. Die heutigen Unternehmensf¨ uhrungen orientieren sich weniger an einer Zentralisierung gem¨ aß den Prinzipien eines Taylor oder eines Ford. Diese Prinzipien beg¨ unstigten
372
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
die Standardisierung der Arbeit und der Produkte im Bereich des Massenkonsums und eigneten sich gut zum Aufbau von integrierten Systemen der Industriestatistik. Die nach japanischer Art“ dezentralisierten Management” praktiken st¨ utzen sich auf eine lokale Informationszirkulation durch direkte horizontale Kontakte zwischen den Personen. Die Kontakte folgen nicht mehr den hierarchischen Wegen und dieser Umstand verringert die Relevanz der fr¨ uheren statistischen Synthesen. Alle oben angef¨ uhrten Hypothesen (man k¨onnte noch weitere hinzuf¨ ugen) liefern keine Erkl¨arung“ f¨ ur die Krise, in die das Modell des ¨ offentlichen ” Raumes zwischen 1950 und 1970 geraten war. Aber die Tatsache, daß diese Hypothesen u arkten, trug zur Dis¨berall zirkulierten und sich gegenseitig verst¨ kreditierung des Modells bei und gef¨ahrdete dessen Status als diskussionslos“ ” akzeptiertes Bezugssystem. Das alles verh¨alt sich jedoch nur tendenziell so und große Teile des Modells existieren weiter oder besser gesagt: ein Großteil der Debatten bezieht sich auf dieses Modell, denn es stellt immer noch einen weit verbreiteten – wenn nicht gar den einzigen – Denkrahmen dar. Aus diesem Grund sind die genannten Debatten außerordentlich heterogen. Die Bandbreite erstreckt sich von Debatten, die sich vollst¨ andig im Rahmen der – durch die weite Verbreitung des Modells nahegelegten – realistischen Epistemologie ¨ befinden, bis hin zu den Debatten, in denen die Netze der Aquivalenzklassen denunziert werden – sei es, daß man diese Netze als erkenntnistheoretisch tr¨ ugerisch bezeichnet oder daß man sie stigmatisiert, weil sie durch ihr Auftreten die pers¨ onlichen Freiheiten einschr¨anken.
Statistische Argumentation und soziale Debatten Die Kontroversen zur Statistik sind eine eigenartige Kombination zweier gegens¨ atzlicher Formen, die im Allgemeinen getrennt voneinander in unterschiedlichen Diskussionskontexten behandelt werden. Die erste dieser gegens¨ atzlichen Formen trennt zwei sprachliche Register: das Register der Deskription und der Wissenschaft (es gibt) vom Register der Pr¨askription und der Aktion (man muß ). Diese Unterscheidung, die im 17. Jahrhundert durch die Autonomisierung des wissenschaftlichen Diskurses bekr¨ aftigt wurde, hinterließ tiefe Spuren in der statistischen Praxis. Eine st¨ andige Forderung der Statistiker besagt: Halte dich an die Beschreibung der Tatsachen und geh ” nicht von Werturteilen und Meinungen aus!“ Die zweite der beiden gegens¨ atzlichen Formen unterscheidet ihrerseits zwischen zwei Auffassungen in Bezug auf die Frage nach der Realit¨at: die realistische (oder objektivistische) Einstellung und die relativistische (oder historizistische) Einstellung. Der eine Fall ¨ setzt voraus, daß die Aquivalenzklassen pr¨aexistent sind, das heißt daß sie zeitlich vor der Abfolge der Registrierungen existieren. Im anderen Fall hingegen ¨ betrachtet man die Aquivalenzklassen als Konventionen und Konstruktionen. Der Gegensatz zwischen Realismus und Relativismus durchdringt zahlreiche Kontroversen in der Erkenntnistheorie der Wissenschaften. F¨ ur die Statistik
Statistische Argumentation und soziale Debatten
373
er¨ offnet dieser Gegensatz originelle Aspekte, sobald man ihn mit dem erstgenannten Gegensatz kombiniert, der zwischen der Sprache der Wissenschaft und der Sprache des Handelns unterscheidet. Durch diese Kombination lassen sich vier verschiedene Auffassungen in Bezug auf die statistische Argumentationsweise ausmachen.22 Im Rahmen der Sprache der Beschreibung postuliert die realistische Position, daß es objektive Dinge gibt, die unabh¨angig vom Beobachter existieren und u ¨ber die singul¨aren Kontingenzen hinausgehen (Fall 1). Diese Position ist typisch f¨ ur die Sprache Quetelets: es gibt Regelm¨ aßigkeiten und stabile Beziehungen. Das Ziel der Statistik besteht darin, der Realit¨ at n¨ aher zu kommen“. ” Die Statistik stellt sich die Frage nach der Zuverl¨ assigkeit der Messungen“; ” sie spricht die Sprache der Beschreibung und der Kausalit¨ at, die durch das Instrumentarium der mathematischen Statistik formalisiert wurden. Das ist die Position, die der statistische Diskurs anstreben muß, wenn er sich von seiner Genese und seinen Anwendungen reinigen“ m¨ ochte. Auf jeden Fall ist ” diese Position derjenige Punkt, an dem sich die anderen drei Positionen orientieren. Aber im Rahmen der Sprache der Wissenschaft ist es auch m¨ oglich, eine Genese und soziale Praktiken zu rekonstruieren, die zu einem verfestigten statistischen Objekt gef¨ uhrt haben (Fall 2). Es gibt historische und soziale ¨ Prozesse der Konstruktion und Verfestigung von Aquivalenzen und mentalen Schemata. Es ist die Aufgabe der Wissenschaft, diese Prozesse zu rekonstruieren und dabei zu beschreiben, wie die sozialen Tatbest¨ ande – durch Br¨ auche, durch das Recht oder auf dem Wege sozialer K¨ ampfe – zu Dingen geworden sind. Die Sprache dieser Position ist die Sprache der Sozialgeschichte oder die Sprache einer konstruktiven Wissenssoziologie.23 Die politische und administrative Sprache der Aktion und der sozialen Debatte verwendet die Statistik oder denunziert sie. Diese Sprache st¨ utzt sich auf die eine oder andere der obengenannten wissenschaftlichen Rhetoriken, unterscheidet sich von diesen jedoch durch ihre Normativit¨ at. In ihrer objektiven Version (Fall 3) u ¨bernimmt diese Sprache die in der Wissenschaftssprache beschriebenen und analysierten Objekte und l¨aßt die Aktion an diesen Objekten ausf¨ uhren. Wir brauchen Dinge, die – unabh¨angig von Partikularinteressen – einen festen Zusammenhalt aufweisen, damit wir auf diese Dinge einwirken 22
23
Diese Formulierung ist u ¨berwiegend und dankenswerter Weise auf Diskussionen mit Luc Boltanski und Nicolas Dodier zur¨ uckzuf¨ uhren. Letzterer hat eine Feinstudie der Aufzeichnungspraktiken und der statistischen Kodierung auf dem Gebiet der Arbeitsmedizin durchgef¨ uhrt (Dodier, 1993, [69]). Durkheim hatte seinerzeit jede dieser beiden Ansichten in seinem Bestreben vertreten, aus der Soziologie eine Wissenschaft zu machen. In Der Selbstmord [78] st¨ utzt er sich nach Art von Quetelet auf makrosoziale statistische Regelm¨ aßigkeiten. In seiner sp¨ ateren Zusammenarbeit mit Mauss stellt er in Quelques formes primitives de classification [79] f¨ ur primitive Gesellschaften einen Zusammenhang zwischen Taxonomie und Gesellschaft her. Aber er tut das nicht f¨ ur die westlichen Gesellschaften und f¨ ur ihre statistischen Mechanismen. Diese Mechanismen waren allerdings damals weniger entwickelt als heute.
374
Schlußfolgerung: Das Unbestreitbare in Zweifel ziehen
k¨onnen. Diese Dinge sind Handlungskategorien: Armut, Arbeitslosigkeit, Inflation, Außenhandelssaldo, Geldmenge, Fertilit¨ at. Die benutzte Sprache ist pragmatisch: sie ist ein Mittel zum Zweck. In ihrer relativistischen Version (Fall 4) kann die politische Sprache mehrere Modalit¨ aten aufweisen. Sie kann polemisch und anklagend sein. Wir m¨ ussen die Black Boxes“ ¨ offnen, um zu ” zeigen, was sie verbergen. Die statistische Produktion resultiert aus Kr¨ afteverh¨ altnissen. Sie ist ideologisch und gewissermaßen polizeilich“. Diese Mo” dalit¨ at ist instabil, denn sie bezieht sich implizit – gest¨ utzt auf die Sprache der Denunziation – auf eine potentielle Positivit¨at wissenschaftlicher oder politischer Natur. Dennoch hat man diese Sprache h¨ aufig bei Kontroversen bem¨ uht, vor allem in den 1970er Jahren. Eine weitere Anwendungsmodalit¨at der Statistik in der Sprache der Aktion ist denkbar. Diese Modalit¨at st¨ utzt sich auf die Vorstellung, daß die Konventionen, welche die Objekte definieren, tats¨ achlich Realit¨ aten erzeugen – falls diese Objekte den Zerst¨orungspr¨ ufungen und anderen Demontageversuchen standhalten. Dieses Realit¨atsprinzip erm¨ oglicht einen Ausweg aus der Sackgasse des epistemologischen Gegensatzes zwischen Realismus und Relativismus, den beiden verfeindeten, aber gleichwohl komplement¨ aren und komplizenhaften Auffassungen. Dieses Prinzip stellt die Realit¨ at von Dingen nicht in Abrede, sobald sich zahlreiche Menschen auf diese Dinge beziehen, um ihre Aktionen zu koordinieren und auf ein bestimmtes Ziel auszurichten. Aus diesem Grund ist die Statistik kraft ihrer Objekte, ihrer Nomenklaturen, ihrer Grafiken und ihrer Modelle zuallererst eine auf Konventionen beruhende Bezugssprache. Die Existenz dieser Sprache erm¨ oglicht die Entwicklung eines gewissen Typs von ¨offentlichen R¨aumen, aber u ¨ber das Vokabularium und die Syntax dieser Sprache kann debattiert werden. Die Debatte u ¨ber das Bezugssystem der Debatte und u uhrt ¨ber die W¨orter, mit denen die Debatte gef¨ wird, ist ein wesentlicher Aspekt jeglicher Kontroverse. Aber ebenso wie andere gr¨ oßere Investitionen, die aufgrund ihrer Kosten gewissermaßen irrever¨ sibel sind, entstehen auch die Aquivalenzund Permanenzkonventionen, die bez¨ uglich der grundlegenden Objekte der statistischen Praxis getroffen werden, im Ergebnis ¨außerst kostspieliger politischer, sozialer und technischer Investitionen. Eine ¨ offentliche Debatte, die statistische Argumente einsetzt – sei es zur Begr¨ undung der betreffenden Investitionen oder zu deren Diskussion – ist demnach durch kontradiktorische Zw¨ange eingegrenzt. Die Kontroverse kann ¨ einerseits dazu f¨ uhren, die Aquivalenz und die Permanenz der Objekteigenschaften infrage zu stellen. Aber andererseits ist es sehr aufwendig, andere ¨ Konventionen zu verwenden. Die hier vorgeschlagenen Uberlegungen zu den Beziehungen zwischen Statistik und ¨offentlichen R¨ aumen m¨ ochten zur expliziten Erkl¨ arung und Analyse dieser R¨aume beitragen, die eine nachhaltig verfestigte Form haben. Diese R¨aume m¨ ussen unanfechtbar sein, damit das Leben seinen Gang gehen kann, aber gleichzeitig m¨ ussen sie auch anfechtbar sein, damit das Leben seinen Lauf ¨andern kann.
Nachwort: Wie schreibt man Bu ¨ cher, die Bestand haben?
Ich habe dieses Buch zwischen 1990 und 1993 geschrieben. Seitdem sind die Forschungen zur Geschichte der Statistik in verschiedenen Richtungen weitergef¨ uhrt worden, von denen ich in den vorhergehenden Kapiteln einige genannt habe. Mehrere der zitierten Autoren haben neue B¨ ucher u ¨ber das Thema vorgelegt: Margo Anderson, Ian Hacking, Mary Morgan, Ted Porter und Stephen Stigler. Weitere Autoren sind dazugekommen, Dissertationen wurden vertei¨ digt. Im Ubrigen hat das Buch kritische Reaktionen ausgel¨ ost und Kommentare veranlaßt, deren Zusammenfassung sich als n¨ utzlich erweist, zumal die Hinweise oft treffend und anregend sind. Vor allen Dingen sind folgende Fragen aufgeworfen worden: Was ist der rote Faden, der sich durch die verschiedenen Kapitel des Buches zieht? Ist das Buch mehr als eine Aneinanderreihung von uneinheitlichen Essays? Oder, um eine Formulierung aufzugreifen, die wir im Zusammenhang mit Begriffen der Statistik verwendet hatten: Wie verfaßt man B¨ ucher, die Bestand haben? Ich versuche hier, diese Fragen zu beantworten.
Einige zwischen 1993 und 2000 ver¨ offentlichte Arbeiten Die internalistische Geschichte der mathematischen Statistik ist um die beiden großen B¨ ande von Anders Hald bereichert worden (1990 [320] und 1998 [321]), in denen die Zeit vor 1750 beziehungsweise die Zeit von 1750 bis 1930 behandelt wird. Dieses Werk ist aus der Sicht der Geschichte der Mathematik die nunmehr vollst¨andigste Arbeit. Außerdem hat Stephen Stigler 1999 [339] eine Sammlung von Essays zu bestimmten Themen ver¨ offentlicht, die den gesamten Zeitraum vom 17. Jahrhundert bis 1933 abdecken. In jedem Essay verkn¨ upft der Autor die Genese der Formalismen und der statistischen Methoden mit der Schilderung des Zauderns und der Kontroversen, die mit der Anwendung der neuen Werkzeuge einhergingen. Das Buch von Stigler ist eine Fundgrube an Informationen und Beispielen f¨ ur den Professor der Statistik, der seine Studenten zum Nachdenken u ochte, welche u ¨ber Dinge anregen m¨ ¨ber das Erlernen von Formalisierungen hinausgehen, die in den Lehrb¨ uchern – vor
376
Nachwort: Wie schreibt man B¨ ucher, die Bestand haben?
allem in Frankreich – in steriler Form dargeboten werden. In diesem Fall ist der scheinbare Umweg u ¨ber die Geschichte – der weit davon entfernt ist, eine simple Vorf¨ uhrung anschaulicher Momente zu sein – ein echtes Hilfsmittel f¨ ur die P¨ adagogik der Statistik, ein Hilfsmittel, das zum Nachdenken u ¨ber die wissenschaftlichen und sozialen Fragen der Statistik anregt. Hinsichtlich externalistischer Arbeiten zur Geschichte der Institutionen und in Bezug auf Sammlungen von Bev¨olkerungs-, Sozial- und Wirtschaftsstatistiken geben wir einige B¨ ucher an, lassen aber zahlreiche Zeitschriftenartikel und unver¨ offentlichte Dissertationen weg. Die erbitterten Debatten u ¨ber die Versuche des Bureau of the Census in den Vereinigten Staaten, ein neues Z¨ ahlungssystem vorzuschlagen (das die Umfragemethode nutzt und die immer wiederkehrenden Probleme der Auswertung von gewissen Subpopulationen l¨ osen soll), sind in anschaulicher Weise von Margo Anderson und Stephen Fienberg analysiert worden (1996 [297]). Außerdem wird allm¨ ahlich auch die Geschichte der russischen und der sowjetischen Statistik dank der Arbeiten von Alain Blum (2000 [304]), Alessandro Stanziani (1998 [338]) und Martine Mespoulet (1999 [330]) bekannt: einer der interessanten Punkte ist die Verwendung von Umfragemethoden mit Beginn des zwanzigsten Jahrhunderts. Jean-Pierre Beaud und Jean-Guy Pr´evost, Spezialisten der Geschichte der kanadischen Statistik, haben im Jahre 2000 [301] ein Sammelwerk u ¨ber Statistische Systeme und nationale Traditionen“ herausgegeben. Aus diesem ” Blickwinkel hat Silvana Patriarca (1996 [332]) den Beitrag der Schriften der Statistiker zur Errichtung der italienischen Einheit (1820–1870) analysiert. Auf den nationalen“ Charakter der statistischen Praktiken hat auch Linda ” Sangolt (1997 [335]) hingewiesen; in ihrer Arbeit vergleicht sie die Art und Weise, in der die Norweger und die Briten in den 1970er Jahren ex nihilo eine Statistik der Erd¨olindustrie der Nordsee geschaffen haben. In den Kapiteln 5 (¨ uber Großbritannien) und 8 (¨ uber die Nomenklaturen) habe ich weitgehend die Arbeiten von Simon Szreter verwendet. Szreter faßte diese Arbeiten 1996 [340] in einer Synthese zusammen, die ein gutes Beispiel f¨ ur eine historische Soziologie der Bev¨olkerungs- und Sozialstatistik des Zeitraums 1860–1940 ist. Die Geschichte der Umfragen hat Anlaß zu vielf¨ altigen Arbeiten gegeben, sei es im Sinne von Meinungsumfragen“ (opinion polls) ” im Buch von Lo¨ıc Blondiaux (1998 [303]) oder im Sinne von Stichprobener¨ hebungen (sampling) und deren Verwendung in den statistischen Amtern. Zu nennen in diesem Zusammenhang sind die Arbeiten von Emmanuel Didier u ¨ber die Vereinigten Staaten, von Einar Lie u ¨ber Norwegen und von Martine Mespoulet u ¨ber Rußland und die UdSSR. Diese Arbeiten waren zum Zeitpunkt des Erscheinens der zweiten franz¨osischen Auflage der Politik der großen Zahlen noch nicht ver¨offentlicht. Die universit¨ are Disziplin der Politikwissenschaften hat sich sehr f¨ ur die Geschichte der Statistik interessiert und erblickte dort ein besonders g¨ unstiges Untersuchungsgebiet zur Analyse der ¨ offentlichen Programme mit dem Ziel, zun¨ achst Komplikationen, Agenda und den Einsatz der erforderlichen Werkzeuge zu artikulieren, der ¨offentlichen Aktion vorzugreifen und sie einzufor-
Einige zwischen 1993 und 2000 ver¨ offentlichte Arbeiten
377
dern, diese Aktion dann zu organisieren und sie schließlich auszuwerten. Aus dieser Sicht ist die Dissertation von Luc Berlivet [302] u ¨ber die Geschichte der Kampfprogramme gegen Alkoholismus und Nikotinsucht ein gutes Beispiel. Vincent Spenlehauer [337] hat die Geschichte der Auswertung der ¨ offentlichen Programme untersucht und dabei insbesondere festgehalten, ob diese Programme auf die Statistik zur¨ uckgegriffen haben oder nicht. Fabrice Bardet [300] hat entsprechende Untersuchungen zur Regionalstatistik (und vor allem zu den Regionaldirektionen des INSEE) durchgef¨ uhrt. Außerdem hat die Zeitschrift Politix, travaux de sciences politiques unter dem Titel L’imagination statistique eine Sondernummer zur Geschichte der Statistik herausgegeben (Nr. 25, 1. Quartal 1994). Die Aufbereitung von Wirtschaftsstatistiken und deren Verwendung in ¨ der Okonometrie hat Anlaß zu mehreren neuen Arbeiten gegeben. Judy Klein (1997 [327]) hat die Geschichte der Analyse von Zeitreihen f¨ ur den Zeitraum von 1662 bis 1938 untersucht. David Hendry und Mary Morgan ver¨ offentlich¨ ten 1995 [322] eine Sammlung von Gr¨ undungstexten“ der Okonometrie. Die ” Geschichte der volkswirtschaftlichen Gesamtrechnung der englischsprachigen L¨ ander und der ihnen nahestehenden L¨ander (Niederlande, skandinavische L¨ander) ist in den von W. de Vries (1993 [312]) und Zolt´ an Kennessey (1994 [326]) herausgegebenen Sammelb¨anden untersucht worden, aber Frankreich kommt in diesen Werken so gut wie gar nicht vor. Diese L¨ ucke wurde mit dem 2001 [342] erschienenen Buch von Andr´e Vanoli geschlossen. Es zeigt sich vor allem, daß die volkswirtschaftliche Gesamtrechnung und die private Buchf¨ uhrung in den englischsprachigen L¨andern wesentlich voneinander abweichen – ganz anders als in Frankreich, das auf eine lange Tradition der Wechselwirkung zwischen nationaler Buchf¨ uhrung und Unternehmensbuchf¨ uhrung zur¨ uckblickt. Zwar ist die Geschichte der Metrologie und des damit zusammenh¨ angenden Objektivit¨ atsbegriffes nunmehr – vor allem dank der Arbeit von Lorraine Daston (1992 [307]) – gut bekannt. Aber die andere große und alte Tradition der gesellschaftlichen Nutzung der in der kommerziellen Buchf¨ uhrung verwendeten Zahlen ist in der frankophonen Welt weniger bekannt. In der anglophonen Welt dagegen, in der die soziale Praxis der verschiedensten Aktivit¨ aten des Geldverkehrs und der Buchpr¨ ufung viel ¨ alter und viel weiter verbreitet ist, gibt es – insbesondere an der London School of Economics (LSE) – die Forschungsrichtung Buchf¨ uhrung als soziale und institutionelle Praxis“, ” in der (inspiriert durch franz¨osische Autoren wie Foucault und Latour) historische, anthropologische und philosophische Gesichtspunkte amalgamiert werden. Diese Richtung artikuliert sich in der 1976 gegr¨ undeten Zeitschrift Accounting, Organizations and Society. Ein von Anthony Hopwood und Peter Miller 1994 [323] ver¨offentlichter Sammelband gibt eine Zusammenfassung dieser eigenst¨ andigen Forschungsrichtung, die sich relativ unabh¨ angig von den neueren Arbeiten zur Geschichte der Statistik, der Wahrscheinlichkeitsrech¨ nung und der Okonometrie entwickelt hat.
378
Nachwort: Wie schreibt man B¨ ucher, die Bestand haben?
Wie verbindet man die Aspekte der Geschichte der Statistik? Das Hauptziel des Buches Die Politik der großen Zahlen bestand darin, die internalistische Geschichte der Formalismen und der Werkzeuge – aus der Sicht der seit den 1970er Jahren entwickelten Wissenschaftssoziologie – mit der mehr externalistisch orientierten Geschichte der Institutionen und sozialen Anwendungen der Statistik zu verbinden. Einige Rezensenten (Rosser Matthews, 2000 [334]) haben angemerkt, daß dieses in der Einleitung bekr¨ aftigte ehrgeizige Ziel nur unvollst¨andig erreicht worden ist: vor allem w¨ urden die am ausgepr¨ agesten internalistisch“ angelegten Kapitel (3 und 4) den Eindruck ” erwecken, sich noch allzu sehr in der N¨ahe einer traditionellen Geschichte be” deutender Pers¨ onlichkeiten“ zu befinden. Auf diese teilweise berechtigte Kritik kann ich antworten, daß mein Ziel darin bestand, ein Maximum der bereits verf¨ ugbaren internalistischen und externalistischen Arbeiten abzudecken, um nach Zusammenh¨angen zwischen beiden Auffassungen zu suchen und nach M¨oglichkeit u ¨ber eine sterile Unterscheidung dieser Auffassungen hinauszugehen. Aber einstweilen spiegelt diese Unterscheidung die soziale und kognitive Trennung zwischen den Disziplinen und den Wissensgebieten wider und man kann diese Trennung nicht einfach abschaffen, indem man sie f¨ ur ungeschehen erkl¨ art. Auf einer tieferliegenden Ebene ist diese Trennung der Aufgaben und der Standpunkte das Kernst¨ uck eines im Aufbau befindlichen Forschungsprogramms zur Soziologie der Statistik. Seit 1993 haben zahlreiche Arbeiten auf verschiedenen Wegen Fortschritte in dieser Richtung erzielt. Von den Autoren sind u.a. Michel Armatte, Eric Brian, Ian Hacking, Ted Porter und Simon Szreter zu nennen. Michel Armatte hat 1995 [298] eine umfassende Dissertation verteidigt, in der er die Geschichte des linearen Modells“ vom 18. Jahrhundert bis zu den 1940er ” Jahren analysiert. Hinter diesem n¨ uchternen Titel verbirgt sich eine originelle Problembehandlung des spontanen Gegensatzes zwischen den Begriffen, die den Konzepten des Internalismus und des Externalismus vorangingen, wobei der Gegensatz in vorteilhafter Weise durch eine Analyse mit Hilfe der Syntax , der Semantik und der Pragmatik dargestellt wird: der Autor wendet die interne Grammatik des Werkzeugs – was man mit ihm sagen m¨ ochte und was es bewirken soll – und vor allem die Interdependenzen und die Interaktionen zwischen den drei genannten Analyse-Ebenen auf statistische Objekte an, die mit dem linearen Modell“ mehr oder weniger zusammenh¨ angen. Dieses ” Modell zieht sich somit als roter Faden durch eine umfassende Geschichte der ¨ Wahrscheinlichkeitsrechnung, der Statistik und der Anf¨ ange der Okonometrie. Eric Brian untersucht eine andere, f¨ ur die Geschichte der Wissenschaften und vor allem f¨ ur die Geschichte der Statistik charakteristische Spannung – die Spannung, die zwischen dem eingeordneten, kontingenten und historischen Charakter der Erkenntnismethoden und deren Anspruch auf Universalit¨ at und Permanenz in Raum und Zeit besteht. Im Falle der Statistik dr¨ ucken sich die
Wie verbindet man die Aspekte der Geschichte der Statistik?
379
beiden Spannungspole durch die Begriffe Ziffer und Zahl aus24 : Die Ziffern sind durch die Eintragung numerischer Zeichen unter besonderen Produkti” onsbedingungen“ charakterisiert, w¨ahrend sich die Zahlen dadurch auszeichnen, daß ihre Macht in effektiver Weise anderswo, nachtr¨ aglich oder in einer ” anderen Skala eingesetzt wird“. Der Autor entwickelte diese Problematik vor allem in einem Buch u ¨ber den Verkehr zwischen Gelehrten und Verwaltungsfachleuten des 18. Jahrhunderts (Brian 1994 [305]). Die Analysen von Armatte und Brian erm¨ oglichen auf ihre Weise eine Neuformulierung der alten und immer wiederkehrenden Fragen zum Status des von den Statistikern produzierten Wissens und zu den historischen Modalit¨ aten ihrer eventuellen Erfolge. Genau diese Frage nach dem Vertrauen in ” die Zahlen“ wird von Porter (1995 [333]) auf der Grundlage einiger bestimmter Konfigurationen des 20. Jahrhunderts untersucht. Gegenstand seiner Untersuchungen sind einerseits die Ingenieure f¨ ur Hoch- und Tiefbau in Frankreich und in den Vereinigten Staaten und andererseits die englischen Versicherungstr¨ ager. Die allgemeine Idee besteht in der Untersuchung bestimmter F¨ alle, in denen gesellschaftlich wirkende Kr¨afte das durch quantitative Argumente des homo scientiae“ rationalisierte Wissen dazu verwenden, anderen den Rang ” abzulaufen, die sich in traditioneller Weise auf das Wissen berufen, das sich durch seine N¨ ahe zum homo artis“ und zu dessen Intuition auszeichnet. ” Das Buch The Social Construction of What? von Ian Hacking (1999 [319]) bezieht sich nicht unmittelbar auf die Statistik. Aber die in diesem Buch in einem so lebendigen und paradoxen Stil aufgeworfenen Fragen treffen direkt mit den Fragen zusammen, die sich der Historiker und der Soziologe der Statistik stellt: Welcher Sache und wem dienen unsere Forschungen wirklich? Zielt die Tatsache, daß man den sozial konstruierten“ Charakter der von der ” ” Wissenschaft“ oder von den Experten“ verwendeten Werkzeuge nachweist, ” darauf ab, die Wissenschaft und die Experten zu relativieren und ihre Autorit¨ at herabzusetzen? K¨onnte nicht – wie Porter bemerkte – folgendes zutreffen: Ebenso wie die quantitativen Methoden im 19. Jahrhundert ein Mittel f¨ ur die Beherrschten waren, Punkte“ gegen die damals traditionell Herrschenden zu ” sammeln, so k¨ onnte auch die im letzten Drittel des Jahrhunderts stattgefundene Dekonstruktion“ ein Mittel gewesen sein, den Hochmut der an den ” Schalthebeln der Macht sitzenden Wissenschaftler zu m¨ aßigen. Die Debatten u ¨ber die Sokal-Aff¨are25 w¨aren also ein sch¨ones Forschungsgebiet zur Rekon24
25
Im franz¨ osischen Original ist von chiffres“ und nombres“ die Rede. Im Deut” ” schen kann chiffre“ u.a. Ziffer“ (im Sinne von Zahlzeichen) und Chiffre“ (im ” ” ” Sinne von Code) bedeuten, w¨ ahrend nombre“ die Bedeutung Zahl“ hat. ” ” Nachdem der Physiker Alain Sokal 1996 in der Zeitschrift Social Text den Artikel Transgressing the boundaries: Toward a transformative hermeneutics of quantum gravity ver¨ offentlicht hatte, gab er bekannt, sein Artikel sei eine Parodie, inhaltlich h¨ oherer Unfug und aus zahlreichen Zitaten bekannter franz¨ osischer Denker zusammenmontiert. Das f¨ uhrte zu einer leidenschaftlichen Debatte, ja sogar zu einem w¨ utenden Streit unter den Intellektuellen. Zusammen mit dem Physiker Jean ¨ Bricmont verfaßte Sokal 1997 ein Buch, das in deutscher Ubersetzung unter dem
380
Nachwort: Wie schreibt man B¨ ucher, die Bestand haben?
struktion der Art und Weise, in der die Wissenschaft in den 1990er Jahren zur letzten Zuflucht des Sakralen geworden war. Hacking gibt – wie es seine Art ist – keine einfache Antwort auf diese Fragen, liefert aber eine ganze Reihe von Argumenten und Beispielen, um eine Debatte voranzutreiben, die von der Sokal-Aff¨are ernstlich getr¨ ubt war. Zum Gegenstand dieser Aff¨ are verweisen wir insbesondere auch auf den von Baudoin Jurdant (1998 [325]) herausgegebenen Sammelband. Die Reaktionen, die das Buch Die Politik der großen Zahlen und dessen ¨ 1998 erschienene englische Ubersetzung ausl¨ osten, lassen sich auf zweierlei Weise analysieren. Einerseits liefert die Vielfalt der Interpretationen – vor allem entsprechend den akademischen Disziplinen – ein u ¨berraschendes Analyseschema f¨ ur die epistemologischen und die sozialen Konfigurationsunterschiede, die zwischen den Disziplinen bestehen; diese Unterschiede werden dahingehend analysiert, wie man die statistischen Methoden in den betreffenden Disziplinen anwendet und interpretiert. Andererseits weisen die Kritiken oft auf Zweideutigkeiten, unklare Punkte und Fragen hin, bei denen sich der Autor seiner Sache nicht sicher war (und es immer noch nicht ist) – aber er ist in diesem Fall nicht der Einzige, dem es so ergeht.
Wie bedienen sich die Sozialwissenschaften dieser Aspekte? Die Interpretationen polarisieren sich auf Anhieb in zwei Richtungen. F¨ ur den ersten Pol bildet die Statistik ein argumentatives Hilfsmittel und eine Methode zur Analyse gewisser Fragen. Der zweite Pol, welcher der Anwendung quantitativer Methoden oft gleichg¨ ultiger gegen¨ ubersteht, sieht dagegen in der Statistik eine Form der staatlichen T¨atigkeit und allgemeiner gesprochen eine Form der Verwaltung der sozialen Welt – zum Beispiel mit Hilfe ucke von Begriffen wie Gouvernementalit¨at“ 26 und Bio-Macht“, um Ausdr¨ ” ” von Foucault aufzugreifen, die h¨aufig von den Vertretern des zweitgenannten Pols zitiert werden. Diese Dualit¨at geh¨orte selbstverst¨ andlich zum Kernst¨ uck des Buchprojekts, aber es ist nicht sicher, daß beide Fragestellungen wirklich erfolgreich so artikuliert worden sind, wie es sich der Autor gew¨ unscht h¨ atte. Tats¨ achlich ist es auff¨allig, daß sich die Reaktionen in den Rezensionen und in den Debatten u alfte auf diese ¨ber das Buch im Wesentlichen je zur H¨ beiden Pole aufteilten, selten aber auf beide Pole gleichzeitig. Methodologie oder Geschichte: ich mußte zwischen beiden Dingen w¨ ahlen. Das kann selbstverst¨ andlich eine Folge des unzul¨anglichen Zusammenhangs zwischen den Kapiteln sein, wie einige Rezensenten festgestellt haben. Eine Rezensentin (Libby Schweber [336]) ist sehr anspruchsvoll und macht dem Buch – im Gegensatz
26
Titel Eleganter Unsinn. Wie die Denker der Postmoderne die Wissenschaft mißbrauchen erschienen ist (Deutscher Taschenbuch Verlag, M¨ unchen 2001, [441]). Mentalit¨ at und Praxis des Regierens.
Wie bedienen sich die Sozialwissenschaften dieser Aspekte?
381
zu den obengenannten Auffassungen – den Vorwurf, von einer einzigen Sorge durchdrungen zu sein: der Sorge, ein zeitlich unver¨ anderliches Wesen“ der ” Statistik herauszuarbeiten. Diese (weiter unten ausf¨ uhrlicher diskutierte) Kritik erscheint mir ungerechtfertigt, aber sie hat wenigstens das Verdienst, das Buch als Ganzes zu betrachten und sich auf das zentrale Anliegen zu richten. Auf einer tieferliegenden Ebene weist diese Dualit¨ at auf die oft prinzipiell gelobte sogenannte reflexive Methode hin. Es ist schwierig, sein Arbeitsinstrument als Objekt aufzufassen – außer auf normative Weise in den zahlreichen Diskursen u ¨ber die (richtige) Methode“, welche die guten“ Anwendungen ” ” kodifizieren und die schlechten“ exkommunizieren. Als Methodologie ist die ” Statistik bestenfalls ein Kochbuch“, das heißt eine Sammlung von Voraus” setzungen daf¨ ur, daß die Speisen von den G¨asten gesch¨ atzt werden und die ¨ statistischen Argumente u von einer auf die ¨berzeugend sind. Der Ubergang Formulierung einer Wahrheit gerichteten normativen Haltung zu einer anderen, deskriptiven und pluralistischen Haltung, verlangt die Reintegration der Welt der Anwendungen in die Analyse, das heißt in den semantischen und pragmatischen Raum dieser Anwendungen. Deswegen k¨ onnen der Staat, die Gouvernementalit¨at“ und all das, was den zweiten Pol angeht, wieder ” ber¨ ucksichtigt werden. Außerdem kann man dann auch koh¨ arente Konfigurationen von Methodologien und sozialen Anwendungen rekonstruieren. Es gibt diesbez¨ ugliche Beispiele f¨ ur Anwendungen in der Wirtschaft (Armatte, 1995 [298]; Armatte und Desrosi`eres, 1999 [299]), in der Psychometrie (Martin, 1997 [329]), in der Medizin und bei Behandlungsversuchen (Marks, 1999 [328]) sowie in der Demographie (Desrosi`eres 1997 [309]). Bez¨ uglich der verschiedenen Disziplinen der Sozialwissenschaften sind die Belange der im vorliegenden Buch diskutierten Fragen uneinheitlich; vor allem aber sind sie von ganz unterschiedlicher Natur, je nachdem ob die Statistik an der betreffenden Stelle als Quelle, als Methode, als Realit¨atsphilosophie oder als eine Art des Regierens aufgefaßt wird. Wie wir bereits gesagt hatten, besteht gerade in den Politikwissenschaften und vor allem auf dem Gebiet der sogenannten Analyse der ¨offentlichen Programme“ ein lebhaftes Interesse f¨ ur ” die Geschichte der Statistik als Aspekt der Geschichte der Formen und der Aktionen eines Staates. Freilich gibt es in dieser Disziplin einen stark quantitativistisch ausgerichteten Pol, der umfassenden Gebrauch von Umfragen macht und die Wahlergebnisse analysiert (Dupoirier und Parodi, 1997 [314]). Die Geschichte der Meinungsumfragen ist Gegenstand einer soziohistorischen Studie von Lo¨ıc Blondiaux (1998 [303]). Aber auch dort ist eine Kluft zwischen den beiden Formen des Interesses sp¨ urbar, das heißt zwischen dem Interesse f¨ ur die Statistik und dem Interesse f¨ ur ihre Geschichte. Der Standpunkt der Historiker hat sich weiterentwickelt. Zwischen 1940 ´ und 1980 sind die quantitativen Methoden – als ein von der Ecole des Annales verfochtenes Hilfsmittel f¨ ur die Wirtschafts- und Sozialgeschichte – stark gef¨ ordert worden. Man sprach damals von einer seriellen Geschichte“ oder ”
382
Nachwort: Wie schreibt man B¨ ucher, die Bestand haben?
¨ inspirierten Kliometrie“ 27 , einem von der Biometrie und der Okonometrie ” Begriff. Aber die Bedeutung dieser Werkzeuge ist in den vergangenen dreissig Jahren zur¨ uckgegangen. Jedoch hatte die anspruchsvolle Tradition der Quellenkritik“ bei den Historikern den Boden gut daf¨ ur pr¨ apariert, daß eine ” allm¨ ahliche Verschiebung der Quellenforschung“ in Richtung einer Quellen” geschichte stattfinden konnte, einer Geschichte, die immer weniger rein instrumental – das heißt ausschließlich auf die Konstruktion von Abfolgen – ausgerichtet war. Das Kolloquium zur Geschichte der Statistik, das 1976 in Vaucresson vom INSEE und von Historikern durchgef¨ uhrt wurde, markierte ein wichtiges Moment dieser Entwicklung. Aus allen diesen Gr¨ unden ist die Kluft zwischen den beiden Polen auf dem Gebiet der Geschichte weniger pr¨agnant als in anderen Disziplinen; dar¨ uber hinaus sind die Pole durch eine ¨ relative Kontinuit¨at von vertieften Uberlegungen miteinander verkn¨ upft. Die Soziologen scheinen dagegen immer mehr zwischen diesen beiden Polen aufgeteilt“ zu sein. Die Quantitativisten“ nehmen in Bezug auf die Daten ” ” und deren Verarbeitungsweisen eine Haltung ein, die sich h¨ aufig in der N¨ ahe der Auffassung der Wirtschaftswissenschaftler befindet. In den 1970er Jahren hatte es den Anschein, daß die Korrespondenzanalyse nach Art von Jean-Paul Benz´ecri eine Methodologie darstellen k¨onnte, die sich f¨ ur eine Soziologie eignet, deren Ziel darin besteht, globale Konfigurationen und Konstellationen von Eigenschaften sozialer Gruppen zu charakterisieren und nicht nur Kausalit¨ atsbeziehungen zwischen Variablen aufzustellen. Aber seit den 1980er Jahren benutzen die quantitativistischen Soziologen immer h¨ aufiger logistische ¨ Regressionsmethoden, die ihren Ursprung in der Okonometrie haben. Diese Methoden zielen darauf ab, Struktureffekte zu eliminieren“, indem sie reine ” ” Effekte“ von Variablen zerlegen, die unabh¨angig voneinander und nacheinander ber¨ ucksichtigt werden. Diese Tendenz hat unter anderem zur Folge, die Aufmerksamkeit auf den nachgelagerten Bestand der geschn¨ urten“ und ” kodifizierten Daten zu konzentrieren – zum Nachteil des vorgelagerten Datenbestandes, das heißt auf Kosten der gesamten praktischen und historischen Kette von Zwischenstationen, die zu der besonderen Kodierung gef¨ uhrt hat. Am gegen¨ uberliegenden Pol stellen andere Soziologen, die – mit wenigen Ausnahmen – kaum mit den erstgenannten Soziologen verkehren, der Statistik nicht nur Fragen dar¨ uber, was sie sagt, sondern auch dar¨ uber, was sie macht. So ist etwa der Artikel von Nicolas Dodier (1996 [313]) u ¨ber die der statisti” schen Argumentation zugewandten Sozialwissenschaften“ ein gutes Beispiel f¨ ur diese Methode. Eines der Themen einer kollektiven Forschung zur Soziologie der sozialen Anwendungen der Statistik k¨onnte darin bestehen, den Dialog 27
Unter Kliometrie“ versteht man die Anwendung der neoklassischen ¨ okonomi” schen Theorie in der Wirtschaftsgeschichte, das heißt die Erkl¨ arung des historischen Wandels als Ergebnis von Interaktionen nutzenmaximierender Individuen. Die Pionierarbeit auf diesem Gebiet wurde von Robert W. Fogel und Douglass ¨ C. North geleistet, die 1993 zusammen den Okonomie-Nobelpreis erhielten. Der erste Teil der Bezeichnung Kliometrie“ leitet sich von Klio ab, der griechischen ” Muse der Geschichte.
Wie bedienen sich die Sozialwissenschaften dieser Aspekte?
383
zwischen den beiden – mit unterschiedlichen Kulturen ausgestatteten – Polen wieder aufzunehmen. Hierzu leisten Arbeiten wie zum Beispiel der Artikel von Michel Gollac (1997 [318]) einen großen Beitrag. Auch die Entwicklung gewisser universit¨arer Studieng¨ange geht in diese Richtung. Zu nennen sind hier die Klassen, in denen man sich nach der Reifepr¨ ufung (baccalaur´eat) auf ´ die Aufnahmepr¨ ufung f¨ ur die Ecole normale sup´erieure 28 vorbereitet und der entsprechende concours“ der ENS. Auf diesen concours“ bereiten sich die ” ” in der Regel besten Bakkalaureaten“ in den classes pr´eparatoires (Vorberei” tungsklassen) vor, die in zahlreichen staatlichen und einigen wenigen privaten lyc´ees eingerichtet sind. So verwunderlich es auch erscheinen mag: die Wirtschaftswissenschaftler interessieren sich mit wenigen Ausnahmen kaum f¨ ur die konkrete Konstruktion ihrer Daten und u ¨berlassen diese Sorge den Statistikern und – im Falle der Makro¨ okonomie – den Buchhaltern der volkswirtschaftlichen Gesamtrechnung. Das ber¨ uhmte, von 1950 datierte Werk von Oskar Morgenstern u ¨ber Mea” surement in Economy“ hat – zumindest in dem die Wirtschaftswissenschaft dominierenden Pol – zu keiner bedeutenden Tradition in der Epistemologie der Messungen gef¨ uhrt: dieser Pol ist n¨amlich mehr hypothetisch-deduktiv als empirisch-induktiv orientiert. Die auf die Zukunft ausgerichtete Methodologie ¨ der Okonometrie wendet sich ihrerseits selten der eigenen Vergangenheit zu – zumindest verh¨ alt es sich in Frankreich so (in Großbritannien weniger: David Hendry und Mary Morgan sind auf diesem Gebiet sehr aktiv). Allerdings gibt es ein altehrw¨ urdiges Gebiet: die Geschichte des ¨ okonomischen Denkens“. ” Aber dieses Gebiet ist vor allem eine Geschichte der Ideen. Die Statistik und die Probleme des Messens werden dort als Bestandteil der Welt des Denkens kaum problematisiert. Wird die Statistik u ahnt, dann besten¨berhaupt erw¨ falls als Instrument und als Kennzeichen des unausweichlichen Fortschritts ” in Richtung einer gr¨oßeren Wissenschaftlichkeit“ – aus einem Blickwinkel, 29 der im angels¨ achsischen Raum als whiggish bezeichnet wird, das heißt als 28
29
´ Die renommierteste und ¨ alteste der gegenw¨ artig sechs Ecoles normales sup´erieures wurde 1794 in der rue d’Ulm gegr¨ undet. F¨ ur deren Mitglieder allein gilt die Bezeichnung und der Titel eines normalien. Anfangs nur f¨ ur die Ausbildung von Lehrern h¨ oherer Schulen vorgesehen, hat sich die ENS rue d’Ulm im 19. und 20. Jahrhundert zum Zentrum und Symbol f¨ ur die Rekrutierung der geisteswissenschaftlichen (und teilweise auch der mathematisch-naturwissenschaftlichen) Elite Frankreichs entwickelt. Sp¨ atere Gr¨ under und Mitglieder der Mathematikergruppe Bourbaki“ waren normaliens, zum Beispiel Andr´e Weil, der dem zweiten ” Kapitel seiner Autobiographie Souvenirs d’apprentissage (Weil, 1991, [450]) die ¨ Uberschrift Rue d’Ulm“ gab. ” F¨ ur genauere Ausf¨ uhrungen zum Whiggismus“ in Bezug auf die Geschichts” schreibung der Mathematik vgl. Grattan-Guinness (1990 [391]) und Dauben (1994 [362]). Etwas drastisch formuliert bedeutet whiggish history“, daß die Mathema” tiker u ¨blicherweise die Geschichte ihres Faches als die Aufzeichnung des zu mir ” f¨ uhrenden K¨ onigsweges“ ansehen; es erfolgt also eine Darstellung dessen, wie sich eine moderne Theorie aus ¨ alteren Theorien entwickelt hat, wobei man diesen ¨ alte-
384
Nachwort: Wie schreibt man B¨ ucher, die Bestand haben?
unumkehrbare Akkumulation des Fortschritts und als Licht, das die Dunkelheit vertreibt. Allgemein gesagt hat die neuere Literatur zur Geschichte der ¨ Statistik weniger die Aufmerksamkeit der Okonomen als die der Soziologen, Historiker und Politikwissenschaftler erregt – mit Ausnahme einiger Spezialisten f¨ ur die Geschichte des ¨okonomischen Denkens, die von der modernen Wissenschaftssoziologie beeinflußt waren. Zu den Spezialisten f¨ ur Geschichte der Statistik geh¨ oren nat¨ urlich die Statistiker selbst, einschließlich ihrer beiden deutlich voneinander verschiedenen Spielarten: die Universit¨atsstatistiker (bei denen es sich im Wesentlichen um Mathematiker handelt) und die Statistiker an den Institutionen f¨ ur ¨ offentliche Statistik. Einige der erstgenannten Spezialisten haben bedeutende Arbeiten zur Geschichte der mathematischen Statistik verfaßt: Benz´ecri, Hald, Stigler und davor auch Kendall, Mosteller und Fienberg. Aus deren Sichtweise auf die interne Geschichte der Formalisierungen hat das vorliegende Buch keine ganz neuen Dinge gebracht, da es selbst eher von den Arbeiten dieser Autoren profitiert hat. So hat etwa Fienberg (1999 [315]) bedauert, im Buch keine Informationen zur Vorgeschichte der Umfragen im 18. Jahrhundert und u ¨ber deren Anwendungen in den Volksz¨ahlungen gefunden zu haben. Diese Kritiken sind berechtigt und weisen auf k¨ unftige Forschungsrichtungen hin. Umgekehrt hatten wir bereits gesagt, wie unentbehrlich die Arbeiten von Stephen Stigler f¨ ur die Berufsausbildung der Statistiker sind. Mein Buch geht nicht auf die Rolle der statistischen Verwaltungseinrichtungen bei der Durchf¨ uhrung von Forschungsarbeiten zu ihrer eigenen Geschichte ein. Jedoch wurden in einigen L¨andern (Frankreich, Vereinigte Staaten, Kanada, Norwegen, Niederlande) Arbeiten zu diesem Thema verfaßt, an denen sich Universit¨atshistoriker und Statistiker gemeinsam beteiligten. Zu derartigen Arbeiten kam es beispielsweise – aber nicht immer – anl¨ aßlich von Jahrestagen der betreffenden Institutionen. Es gibt ein bedeutendes Angebot an Arbeiten dieser Art – von Autoren, die sich in erster Linie auf Gedenkfeiern und Identit¨atsbehauptung orientieren, bis hin zu Autoren, die mehr auf Wissenschaftlichkeit und Techniken ausgerichtet sind (dieses Spektrum von Arbeiten wird von Desrosi`eres (2000 [311]) beschrieben). So hat beispielsweise das INSEE anl¨aßlich seines f¨ unfzigsten Jahrestages im Jahre 1996 ein Werk verfaßt, dessen Informationsgehalt sich nicht auf eine einfache Gedenkfeier reduziert (INSEE, 1996 [324]). In Zeiten, in denen sich – insbesondere aufgrund der Weiterentwicklung der Strukturen gewisser Beh¨ orden (Erweiterung der Europ¨aischen Union, Gr¨ undung der Europ¨ aischen Zentralbank, Einf¨ uhrung des Euro, Dezentralisierung und Erh¨ ohung der Funktion von Gebietsk¨ orperschaften) – die Rolle und die sozialen Anwendungen der Statistik rasch ¨ andern, sind einige Statistiker darum bem¨ uht, diese Entwicklungen in eine lange Geschichte einzuordnen. ren Theorien kein eigenes Darstellungsrecht einr¨ aumt. Mit anderen Worten: die betreffenden Mathematiker verwechseln die Frage Wie sind wir hierher gekom” men?“ mit der hiervon verschiedenen Frage Was geschah in der Vergangenheit?“ ”
Kritiken und Diskussionsthemen
385
Kritiken und Diskussionsthemen Einige Rezensenten des Buches haben Kritiken folgender Art ge¨ außert und entsprechende Diskussionsthemen vorgeschlagen: Heterogenit¨ at und mangelnder Zusammenhang der verschiedenen Kapitel (Rosser Matthews); u aßi¨berm¨ ge Essentialisierung einer hypothetisch u ¨ber der Geschichte stehenden Statistik; fehlende Klarheit der Positionierung in Bezug auf die großen epistemologischen Alternativen, das heißt in Bezug auf Realismus, Relativismus und Konstruktivismus (Libby Schweber); Zusammenhang zwischen statistischer Totalisierung und Analyse des individuellen Handelns (Nicolas Dodier); Verwendung eines unverst¨andlichen franz¨osischen Jargons (Charles Murray). Die Kritik bez¨ uglich der Heterogenit¨at hatte ich bereits erw¨ ahnt. Diese Kritik ist nicht v¨ollig ungerechtfertigt. Eine M¨ oglichkeit, Fortschritte zu erzielen, best¨ unde darin, das Hin- und Herpendeln zwischen den – sich auf Orte, Zeiten und deutlich umrissene Situationen beziehenden – mikrosoziologischen Analysen einerseits sowie den Analysen von Totalisierungsstandpunkten und makrohistorischen Rekapitulationen andererseits zu intensivieren. In diesem Fall w¨ urden die Verbindungen und kontingenten Konfigurationen, mit deren Hilfe Akteure, Verfahren und Formalismen in – nie jemals endg¨ ultig festgelegten – kognitiven, technischen und sozialen Netzen vereinigt werden, zu engeren Zusammenh¨angen zwischen den einzelnen Kapiteln f¨ uhren, insbesondere zwischen den Kapiteln u ¨ber formale Werkzeuge und den Kapiteln u ¨ber Institutionen und Konstruktionsmethoden der hypothetischen Daten“. Hier ” liegt ein kollektives Forschungsprogramm f¨ ur die Zukunft. Die Essentialismus-Kritik (Schweber, 1996 [336]) ist etwas paradox, da das gesamte berufsm¨aßige Streben des Autors genau darauf gerichtet ist, die ¨ Thematik der historischen Kontingenz in den Kreisen der Okonomen und Statistiker einzuf¨ uhren und zu vertiefen – in Kreisen von Personen also, deren wissenschaftliche, universalistische und zeitlose Kultur in einem diametralen Gegensatz zu dieser Art von Fragestellung stand. Nichtsdestoweniger ist die Kritik interessant und verdient es, ernst genommen zu werden. Eine Hypothese zieht sich n¨amlich durch das Buch und versucht (m¨ oglicherweise erfolglos), dessen verschiedene Kapitel miteinander zu verbinden: Die statistische ¨ Totalisierung wird so aufgefaßt, daß sie mit Hilfe von zugeordneten Aquivalenzkonventionen und Kodierungen die Opferung einer Sache (ausgedr¨ uckt in Form von Singularit¨aten) impliziert – eine Opferung zugunsten der (per Konvention festgelegten) Konstituierung einer neuen, konsistenten Allgemeinheit, die sich f¨ ur das Wissen und f¨ ur die Koordinierung des Handelns als n¨ utzlich erweist. Diese Hypothese l¨aßt sich in folgender Frage zusammenfassen: Wie ” erzeugt man Dinge, die einen Zusammenhalt aufweisen?“ Und zwar einen Zusammenhalt im folgenden dreifachen Sinne: die Dinge sind best¨ andig“, sie ” ” sind miteinander verkn¨ upft“ und sie geben den Menschen Koordinaten vor“. ” Diese Hypothese scheint nicht darauf hinauszulaufen, die ganze Geschichte der Statistik in eine zeitlose und transhistorische Vision einzuschließen, sondern bildet eher ein Mittel zur Soziologisierung einer Gesamtheit von technischen
386
Nachwort: Wie schreibt man B¨ ucher, die Bestand haben?
Objekten, die auf der Grundlage zweier (scheinbar entgegengesetzter) Traditionen entweder die Tendenz zur Autonomisierung aufweisen (in der Kultur des Ingenieurs) oder die Erscheinungen der Außenwelt als Symbole bzw. als reine Macht- oder Unterscheidungsmerkmale auffassen (von Bourdieu inspirierte Soziologie der Felder). In der ersten Zeit bildete die Soziologie der Felder einen unersetzlichen Motor, um Abstand zur Kultur des Ingenieurs zu gewinnen. Hierbei hat sich diese Soziologie zwar als sehr n¨ utzlich erwiesen. Aber sie hat es in gewisser Weise auch schwer gemacht, die Objekte an sich (Formalismen, Verfahren, Codes, technische Montagen) ernst zu nehmen, da sie immer als Symbole oder Schleier behandelt wurden, die etwas anderes verbergen. Das, was als transhistorische Essentialisierung der Statistik angesehen wurde, war eher die Wahl einer soziologischen Methode, die es freilich verdiente, als solche diskutiert zu werden. Der Politik der großen Zahlen ist auch der Vorwurf gemacht worden, sich bez¨ uglich der Debatte zwischen Realismus“ und Relativismus“ nicht klar ” ” zu ¨ außern, oder vielmehr eine Wahl zu verweigern“ und somit de facto re” ” lativistisch“ zu sein (Schweber, 1996 [336]). Es stimmt, daß ich in der Einleitung hierzu zwei unterschiedliche Standpunkte vorgestellt habe, deren Zusammenhang jedoch nicht hinreichend gr¨ undlich untersucht worden ist. Der erste Standpunkt war eine Vergegenw¨artigung der Auffassung, daß die statistischen Messungen (und vor allem deren zeitliche Weiterverfolgung) eine soziologische und institutionelle Verfestigung der gemessenen Kategorien implizieren. Im Namen dieser Idee war unl¨angst die von Marchand und Th´elot unter dem Titel Zwei Jahrhunderte Arbeitsmarkt“ durchgef¨ uhrte Rekonstruktion kri” tisiert worden (Gen`eses, 9, Oktober 1992, S. 90–119). Die Autoren hatten sich f¨ ur eine Methodenoption entschieden, die untrennbar mit der Frage nach der Berechtigung der Anwendung statistischer Argumente in den Sozialwissenschaften zusammenh¨angt. Diese Wahl erm¨oglicht auch die Aussage, daß es nicht in sich widerspr¨ uchlich ist, zu behaupten, daß ein Objekt gleichzeitig konstruiert und real ist. Der zweite Standpunkt hingegen ist eher ein Programm f¨ ur eine Soziologie der statistischen Beweisf¨ uhrung. Dieses Programm schl¨ agt eine Untersuchung der sowohl in den Sozialwissenschaften als auch in der Gesamtheit der sozialen Debatten effektiv eingesetzten Realit¨atsrhetoriken vor, wobei man in zwei Schritten verf¨ahrt. Zun¨ achst unterscheidet man die F¨ alle, in denen die Realit¨at der Objekte keinem Zweifel zu unterliegen scheint und sofort und fraglos postuliert wird, von denjenigen Objekten, deren Realit¨ at ganz im Gegenteil und im Namen verschiedenartiger Argumente infrage gestellt wird. Anschließend setzt man diese Argumentationsformen zu den f¨ ur jeden Fall spezifischen Situationszw¨ angen in Beziehung. Dieses Forschungsprogramm scheint mir an sich nicht relativistisch zu sein. Nicolas Dodier (1996 [313]) positioniert sich in seinem Kommentar auf einem ganz anderen Gebiet. Er befaßt sich eingehend mit dem Begriff des Singularit¨ atsverlustes“ und untersucht, welche Implikationen die Zunahme ” des Einflusses der statistischen Denkweise“ f¨ ur die Sozialwissenschaften und ” f¨ ur die konkreten Individuen“ h¨atte. Was w¨are, wenn sich diese Denkweise ”
Kritiken und Diskussionsthemen
387
durch die Idee einer Zunahme an Allgemeinheit“ charakterisieren ließe, die ” ihrerseits ein erneuter Abstieg in das Spezielle“ sein k¨ onnte? Er weist im ” Grunde auf zwei Fragenklassen hin. Die eine betrifft den Forscher: Was macht man mit den Gegebenheiten“, mit den Residuen“, die von der Konvention ” ” links liegen gelassen wurden, welche ihrerseits die statistische Totalisierung erm¨ oglicht hat? Welche Beziehung besteht zwischen dem von der Statistik zur Schau gestellten generischen, typifizierten, kategoriellen Durchschnittsmenschen und dem konkreten Menschen, dessen relevante Eigenschaften man nicht a priori definieren kann? Aber diese Frage betrifft auch das Individuum selbst: Welche Auswirkungen haben diese Kategorisierungen und Typifizierungen auf das Individuum? Wir denken hier an die neueren Debatten u ¨ber die Verwendung ethnischer Kategorisierungen in statistischen Untersuchungen und an die damit verbundenen Gefahren. Und wir denken auch – aus anderer Sicht – an die Verbreitung der Listen der Preistr¨ ager“ von Gymnasien ” oder von Krankenh¨ausern und an die Wirkungen dieser Listen auf die Nutzer und auf das Personal dieser Einrichtungen. Es gibt da neue Entwicklungen der statistischen Argumentation“, deren Implikationen noch unzureichend ” bekannt sind. Abschließend nennen wir eine – aus der Feder von Charles Murray (1999 [331]) stammende – bissige Kritik der englischen Ausgabe des Buches. Murray hat zusammen mit Richard Herrnstein das neohereditaristische Werk The Bell Curve verfaßt, einen amerikanischen Bestseller, in dem ein Jahrhundert nach Galton dessen Ideen zum angeborenen und erblichen Charakter der F¨ ahig” keiten“ und zu den Ungleichheiten zwischen den Rassen“ recycelt werden. ” Murrays Kritik bezieht sich im Wesentlichen auf die Unleserlichkeit und den Jargon eines Buches, dessen Thema interessant zu sein scheint“, aber dessen ” m¨ oglicherweise von der franz¨osischen akademischen Tradition inspirierter“ ” ¨ Stil sich oft in einem Sumpf von W¨ortern“ verliert. Im Ubrigen findet man ” keinerlei Hinweis auf Galton und auf die amerikanische Wiederbelebung seiner ¨ Ideen. Ich f¨ uhle mich – besonders in Bezug auf die englische Ubersetzung – nicht dazu in der Lage, diese Kritik des Stils zu beurteilen. Ich glaube aber, eine kategorielle Einstufung“ zu ahnen, die durch die Anspielung auf die ” franz¨ osische akademische Tradition“ suggeriert wird – eine Einstufung, die ” sich an gewisse Kontroversen neueren Datums anschließt, bei denen anstelle von anderen Fragen offenbar nationale Kategorisierungen (Vereinigte Staaten versus Frankreich) das Gebiet besetzt haben. M¨ oglicherweise ist das ein Beispiel f¨ ur die von Nicolas Dodier genannten Auswirkungen der Zunahme an ” Allgemeinheit“. F¨ ur Lulma, ein Jahr, 26. Juli 2000
Anhang: Abku ¨ rzungen
AEA, American Economic Association. ANPE, Agence national pour l’emploi. Nationale Agentur f¨ ur Stellenvermittlung. ASA, American Statistical Association. BLS, Bureau of Labor Statistics. BSO, Business Statistical Office. C, consumption (Verbrauch). CNRS, Centre nationale de la recherche scientifique. Nationales Zentrum der wissenschaftlichen Forschung. Hat in Frankreich die Aufgaben der MaxPlanck-Gesellschaft und der großen bundesdeutschen Stiftungen. COGSIS, Committee on Government Statistics and Information Services. ´ EHESS, Ecole des hautes ´etudes en sciences sociales. Hervorgegangen 1975 aus der ehemaligen 6. Sektion der EPHE (vgl. dort). Ein wesentliches Motiv f¨ ur die Verselbst¨ andigung war der Ehrgeiz der Mitglieder dieser Sektion, sich als universit¨ are Institution zu profilieren. Aufbau und Funktionsweise der EHESS entspricht weitgehend noch der EPHE. ´ ENA, Ecole nationale d’administration. Staatliche Verwaltungshochschule. ´ Eine sogenannte Super-Grande Ecole, die den F¨ uhrungsnachwuchs f¨ ur die ¨ h¨ochsten Amter der Staatsverwaltung ausbildet. ´ ENS, Ecole normale sup´erieure. ´ ENSAE, Ecole nationale de la statistique et l’administration ´economique. Staatliche Schule f¨ ur Statistik und Wirtschaftsf¨ uhrung. ´ EPHE, Ecole pratique des hautes ´etudes. Die 1868 gegr¨ undete Anstalt wurde in den R¨ aumen der Sorbonne untergebracht, war aber durch ihre explizite Forschungsorientierung von Beginn an als eine Art Gegenmodell konzipiert.
390
Anhang: Abk¨ urzungen
Urspr¨ unglich bestand sie aus vier Abteilungen: Mathematik; Physik und Chemie; Naturgeschichte und Philosophie; historische und philologische Wissenschaften. W¨ ahrend der Kulturkampfes“ zwischen katholischer Kirche und ” laizistischer Bewegung kam 1886 eine f¨ unfte Sektion hinzu: Religionswissenschaften. Eine sechste Sektion wurde 1947 gegr¨ undet: Wirtschafts- und Sozialwissenschaften. Nach der Aufl¨osung der ersten beiden Sektionen und der Verselbst¨ andigung der sechsten Sektion zur EHESS (vgl. dort) besteht die EPHE heute nurmehr aus drei Sektionen. ETAM, Employ´es, techniciens et agents de maˆıtrise. Angestellte, Techniker und Meister. EUROSTAT, European Communities’ Statistical Office. Statistisches Amt der Europ¨ aischen Gemeinschaften (SAEG). Franz¨osische Bezeichnung: Office Statistique des Communaut´es Europ´eennes (OSCE). G, government expenditure (¨offentliche Ausgaben). GRO, General Register Office. Haupstandesamt (GB). HR, House of Representatives. Repr¨asentantenhaus (USA). I, investment (Investition). IAA, Internationales Arbeitsamt. Deutsche Bezeichnung f¨ ur ILO (vgl. dort). ICD, International Classification of Diseases, Injuries and Causes of Death. Internationale Klassifikation der Krankheiten, Verletzungen und Todesursachen. ILO, International Labor Office. Internationales Arbeitsamt (IAA). INED, Institut national d’´etudes d´emographiques. Nationales Institut f¨ ur Bev¨ olkerungswissenschaft (Paris). INSEE, Institut national de la statistique et des ´etudes ´economiques. Nationales Institut f¨ ur Statistik und Wirtschaftsstudien (gegr¨ undet 1946). IIS, Internationales Institut f¨ ur Statistik (gegr¨ undet 1885, Den Haag). IIS, Institut international de statistique. Franz¨ osische Bezeichnung f¨ ur: Internationales Institut f¨ ur Statistik. ISI, International Statistical Institute. Englische Bezeichnung f¨ ur: Internationales Institut f¨ ur Statistik. ISUP, Institut de statistique de l’universit´e de Paris. LSE, London School of Economics. NBER, National Bureau of Economic Research. OPCS, Office of Population, Censuses and Surveys.
Anhang: Abk¨ urzungen
391
PDG, Pr´esident-directeur g´en´eral. Vorstandsvorsitzender (einer Aktiengesellschaft), Generaldirektor. aischen Gemeinschaften (EUROSTAT). SAEG, Statistisches Amt der Europ¨ SEEF, Service des ´etudes ´economiques et financi`eres. SGF, Statistique g´en´erale de la France. Allgemeine Statistik f¨ ur Frankreich (von 1840 bis 1941 Name des Franz¨osischen Amtes f¨ ur Statistik). SSP, Soci´et´e de statistique de Paris. St.B.A., Statistisches Bundesamt, Wiesbaden (seit 1956). St.R.A., Statistisches Reichsamt, Berlin (bis 1945). UN, United Nations (New York). WHO, World Health Organization. Deutsche Bezeichnung: Weltgesundheitsorganisation (WGO). Franz¨osische Bezeichnung: Organisation mondiale de la sant´e (OMS).
Literaturverzeichnis
1. Abrams, P. (1968): The Origins of British Sociology, 1884–1914. University of Chicago Press, Chicago, London 2. Affichard, J. (1987): Statistiques et mise en forme du monde social. Introduction ` a l’histoire des statistiques ´ecrite par les statisticiens. In: INSEE. Pour une histoire de la statistique, tome 2: Mat´eriaux. INSEE-Economica, Paris, 9–17 3. Aldrich, J. (1989): Autonomy. Oxford Economic Papers 41 (1), Januar 1989, 15–34 4. Anderson M.J. (1988): The American Census. A Social History. Yale University Press, New Haven, London 5. Armatte, M. (1991): Une discipline dans tous ses ´etats: la statistique ` a travers ses trait´es (1800–1914). Revue de synth`ese 2, 161–205 6. Armatte, M. (1992): Conjonctions, conjoncture et conjecture. Les barom`etres ´economiques (1885–1930). Histoire et mesure, VII 1-2, 99–149 7. Balinski, M., Young, H.P., (1982): Fair Representation: Meeting the Ideal of One Man, One Vote. Yale University Press, New Haven, London 8. Bateman, B.W. (1990): Keynes, Induction and Econometrics. History of Political Economy 22, 2, 359–379 9. Bayart, D. (1992): La quantification du contrˆ ole qualit´e dans l’industrie: un point de vue sociologique et historique, communication au colloque La Qualit´e ” dans l’agro-alimentaire, Soci´et´e fran¸caise d’´economie rurale“, 26.–27. Oktober 1992, Paris, 10. Bayes, T. (1970): An Essay Towards Solving a Problem in the Doctrine of Chances. Philosophical Transactions of the Royal Society of London 53, 1764, 370–418. Neu herausgegegeben in: Pearson und Kendall (1970) [221], 131–153 11. Benz´ecri, J.P. (1973): L’Analyse des donn´ees. Dunod, Paris 12. Benz´ecri, J.P. (1982): Histoire et pr´ehistoire de l’analyse des donn´ees. Dunod, Paris 13. Bertillon, A. (1876): La th´eorie des moyennes en statistique. Journal de la Soci´et´e statistique de Paris, 265–308 14. Bertillon, J. (1895): Cours ´el´ementaire de statistique administrative. Soci´et´e d’´editions scientifiques, Paris 15. Besnard, P. (1976): Anti- ou ante-durkheimisme? Contribution au d´ebat sur les statistiques officielles du suicide. Revue fran¸caise de sociologie, XVII 2, April–Juni, 313–341
394
Literaturverzeichnis
16. Bienaym´e, I.J. (1855): Sur un principe que M. Poisson avait cru d´ecouvrir et qu’il avait appel´e loi des grands nombres. S´eances et travaux de l’Acad´emie des sciences morales et politiques 31, 379–389 17. Bloor, D. (1982): Socio-logie de la logique, ou les limites de l’´epist´emologie. Editions Pandore, Paris 18. Board Of Trade (1909): Cost of Living of French Towns. Report of an Inquiry by the Board of Trade. Darling, London 19. Boltanski, L. (1982): Les Cadres, la formation d’un groupe social. Minuit, Paris 20. Boltanski, L., Th´evenot, L. (1983): Finding One’s Way in Social Space; a Study Based on Games. Social Science Information 22 4–5, 631–679 21. Boltanski, L., Th´evenot, L. (1991): De la justification. Les ´economies de la grandeur. Gallimard, Paris 22. Booth, C. (1889): Labour and Life of the People. London 23. Borel, E. (1920): La statistique et l’organisation de la pr´esidence du Conseil. Journal de la Soci´et´e statistique de Paris, 9–13 24. Bourdelais, P., Raulot J.Y. (1987): Une peur bleue. Histoire du chol´era en France, 1832–1854. Payot, Paris 25. Bourdieu, P. (1979): La Distinction. Minuit, Paris 26. Bourdieu, P. (1980): Le Sens pratique. Minuit, Paris 27. Bourguet, M.N. (1988): D´echiffrer la France. La statistique d´epartementale ` a l’´epoque napol´eonienne. Editions des archives contemporaines, Paris 28. Bouveresse, J. (1993): L’homme probable. Robert Musil, le hasard, la moyenne et l’escargot de l’histoire. L’´eclat, 30250 Comba 29. Bowley, A. (1906): Presidential Adress to the Economic Section of the British Association. Journal of the Royal Statistical Society, 540–558 30. Bowley, A. (1908): The Improvement of Official Statistics. Journal of the Royal Statistical Society 71, 460–493 31. Bowley, A. (1919): The Division of the Product of Industry. An Analysis of National Income Before the War. Clarendon, Oxford 32. Bowley, A., Stamp, J. (1927): The National Income, 1924. Clarendon, Oxford 33. Box, G. (1980): Sampling and Bayes’ Inference in Scientific Modelling and Robustness. Journal of the Royal Statistical Society, Ser. A 143, 383–430 34. Bravais, A. (1846): Analyse math´ematique sur les probabilit´es des erreurs de situation d’un point. M´emoires pr´esent´es par divers savants ` a l’Acad´emie Royale des Sciences de l’Institut de France 9, 255–332 35. Brian, E. (1989): Statistique administrative et internationalisme statistique pendant la seconde moiti´e du XIXe si`ecle. Histoire et mesure, IV 3–4, 201–224 36. Brian, E. (1991): Le prix Montyon de statistique ` a l’Acad´emie royale des sciences pendant la Restauration. Revue de synth`ese 2, 207–236 37. Bru, B. (1988): Estimations Laplaciennes. Un exemple: la recherche de la population d’un grand Empire, 1785-1812. In: Mairesse J. (´ed.) [184], Estimation et sondages – Cinq contributions ` a l’histoire de la statistique. Economica, Paris, 7–46 38. Buckle, H. (1857): History of Civilization in England. London 39. Bulmer, M., Bales, K., Sklar, K. (1991): The Social Survey in Historical Perspective, 1880–1910. Cambridge University Press, Cambridge 40. Bungener, M., Jo¨el, M.E. (1989): L’essor de l’´econom´etrie au CNRS. Cahiers pour d’histoire du CNRS 4, 45–78
Literaturverzeichnis
395
41. Bunle, H. (1911): Relation entre les variations des indices ´economiques et le mouvement des mariages. Journal de la Soci´et´e statistique de Paris, M¨ arz, 80–93 42. Callon, M. (Hrsg.) (1989): La Science et ses r´eseaux. Gen`ese et circulation des faits scientifiques. La D´ecouverte, Paris 43. Chang, W.C. (1976): Statistical Theories and Sampling Practice. In: Owen D. (ed.) [216], On the History of Statistics and Probability. Marcel Dekker, New York, 297–315 44. Chateauraynaud, F. (1991): La faute professionnelle. Une sociologie des conflits de responsabilit´e. M´etaili´e, Paris 45. Cheysson, E. (1890): Les Budgets compar´es de cent monographies de famille. (Unter Mitarbeit von A. Toque). Botta, Rom 46. Christ, C.F. (1985): Early Progress in Estimating Quantitative Economic Relationship in America. American Economic Review 75 (6), 39–52 47. Cicourel, A. (1964): Method and Measurement in Sociology. The Free Press of Glencoe, New York 48. Clero, J.P. (1986): Remarques philosophiques sur l’essai de Bayes en vue de r´esoudre un probl`eme de la doctrine des chances. In: Publications de l’Institut de recherches math´ematiques de Rennes, IRMAR, universit´e de Rennes I 49. Converse, J. (1987): Survey Research in the United States: Roots and Emergence. University of California Press, Berkeley 50. Coumet, E. (1970): La th´eorie du hasard est-elle n´ee par hasard? Annales ESC 3, Mai–Juni, 574–598 51. Cournot, A. (1843): Exposition de la th´eorie des chances et des probabilit´es. Hachette, Paris, 1843; Neuauflage 1984. Oeuvres compl`etes de Cournot, Bd. 1, Bernard Bru, (´ed.), Vrin, Paris 52. Crombie, A.C. (1981): Philosophical Presuppositions and Shifting Interpretations of Galileo. In: J. Hintikka, D. Gruender and E. Agazzi (eds.), Theory Change, Ancient Axiomatics and Galileos Methodology. Proc. of the 1978 Pisa Conference on the History and Philosophy of Science, Reidel, Dordrecht, 284 53. Daston, L.J. (1987) The Domestication of Risk: Mathematical Probability and Insurance, 1650–1830. In: Kr¨ uger L., Daston L., Heidelberger L. (´eds) [158], The Probabilistic Revolution, vol. I, Ideas in History. Cambridge, Massachusetts, MIT Press, 237–260 54. Daston, L.J. (1988): Classical Probability in the Enlightenment. Princeton University Press, Princeton 55. Daston, L.J. (1989): L’interpr´etation classique du calcul des probabilit´es. Annales ESC 3, Mai–Juni, 715–731 56. Delaporte, F. (1990): Le savoir de la maladie. Essai sur le chol´era de 1882 ` a Paris. PUF, Paris 57. De Marchi, N. (1991): League of Nations Economists and the Ideal of Peaceful Change in the Decade of the Thirties. In: Goodwin C.D. (ed.), Economic and National Security. A History of their interaction. Duke University Press, Durham, 143–178 58. De Marchi, N., Gilbert, C. (eds) (1989): History and Methodology of Econometrics. Oxford Economic Papers 1, January 59. Desrosi`eres, A. (1977): El´ements pour l’histoire des nomenclatures socioprofessionnelles. In: Pour une histoire de la statistique, tome 1. Neu herausgegeben 1987: Economica, INSEE, Paris, 155–231
396
Literaturverzeichnis
60. Desrosi`eres, A. (1985): Histoires de formes: statistiques et sciences sociales avant 1940. Revue fran¸caise de sociologie, XXVI 2, 277–310 ´ 61. Desrosi`eres, A. (1986): L’ing´enieur d’´etat et le p`ere de famille: Emile Cheysson et la statistique. Annales des mines, s´erie G´erer et comprendre“ 2, 66–80 ” 62. Desrosi`eres, A. (1988a): Masses, individus, moyennes: la statistique sociale au e XIX si`ecle. Herm`es 2, CNRS, 41–66 63. Desrosi`eres, A. (1988b): La partie pour le tout: comment g´en´eraliser? La pr´ehistoire de la contrainte de repr´esentativit´e. In: Mairesse J. (´ed.) [184], Estimation et sondages. Cinq contributions ` a l’histoire de la statistique. Paris, Economica, 97–116 64. Desrosi`eres, A. (1989): Les sp´ecificit´es de la statistique publique en France une mise en perspective historique. Courrier des statistiques 49, 37–54 65. Desrosi`eres, A. (1992): Discuter l’indiscutable. Raison statistique et espace public. Raisons pratiques 3, 131–154 66. Desrosi`eres, A., Gollac, M. (1982): Trajectoires ouvri`eres, syst`emes d’emploi et comportements sociaux. Economie et statistique 147, 43–66 67. Desrosi`eres, A., Mairesse, J., Volle, M. (1977): Les temps forts de l’histoire de la statistique fran¸caise. In: Pour une histoire de la statistique, tome 1: Contributions, 1977. Neu herausgegeben 1987: Economica, INSEE, Paris, 509– 518 68. Desrosi`eres, A., Th´evenot, L. (1988): Les Cat´egories socioprofessionnelles. La D´ecouverte, Paris 69. Dodier, N. (1993): L’expertise m´edicale. Essai de sociologie sur l’exercice du jugement. M´etaili´e, Paris 70. Droesbeke, J.J., Tassi, P. (1990): Histoire de la statistique. PUF, Que sais-je? Nr. 2527, Paris 71. Drouard, A. (1983): Les trois ages de la Fondation fran¸caise pour l’´etude des probl`emes humains. Population 6, 1017–1037 72. Dug´e de Bernonville, L. (1916): Enquˆete sur les conditions de la vie ouvri`ere et rurale en France en 1913–1914. Bulletin de la Statistique g´en´erale de la France, tome IV 73. Dumont, L. (1983): Essai sur l’individualisme. Seuil, Paris 74. Duncan, J.W., Shelton, W.C. (1978): Revolution in United States Government Statistics, 1926–1976. US Department of Commerce, Washington 75. Dupaquier, J. (1985): Histoire de la d´emographie. Perrin, Paris ¨ 76. Durkheim, E. (1893): De la division du travail social. Paris. Deutsche Uber¨ setzung: Uber soziale Arbeitsteilung. Studie u oherer ¨ber die Organisation h¨ Gesellschaften. Dritte Auflage 1999, Suhrkamp, Frankfurt am Main 77. Durkheim, E. (1894): Les R`egles de la m´ethode sociologique. Paris. Deutsche ¨ Ubersetzung: Die Regeln der soziologischen Methode. (Herausgegeben und eingeleitet von R. K¨ onig). Erste Auflage 1984, Suhrkamp, Frankfurt am Main ´ ¨ 78. Durkheim, E. (1897): Le Suicide. Etude de sociologie. Paris. Deutsche Ubersetzung: Der Selbstmord. Erste Auflage 1983, Suhrkamp, Frankfurt am Main 79. Durkheim, E., Mauss, M. (1903): De quelques formes primitives de classification, Ann´ee sociologique, 1903. Neu herausgegeben in: Mauss M., Essais de ¨ sociologie. Minuit, Paris. In deutscher Sprache unter dem Titel Uber einige ” primitive Formen von Klassifikation“ erschienen in: Durkheim, E., Schriften zur Soziologie der Erkenntnis. Frankfurt a. M. (1987), 171–256
Literaturverzeichnis
397
80. Duvillard, E. (1989): M´emoire sur le travail du Bureau de statistique, 1806. ´ Neu herausgegeben in: Etudes et documents, 1, 1989, Comit´e pour l’histoire ´economique et financi`ere de la France. Imprimerie Nationale, Paris, 425–435 81. Edgeworth, F. (1881): Mathematical Psychics. An Essay on the Application of Mathematics to the Moral Sciences. C. Kegan Paul, London 82. Edgeworth, F. (1885): Calculus of Probabilities Applied to Psychical Research, I. Proceedings of the Society for Psychical Research 3, 190–208 83. Edgeworth, F. (1892): The Law of Error and Correlated Averages. Philosophical Magazine, 5th series 34, 429–438 und 518–526 84. Elias, N. (1973): La Civilisation des moeurs. Calmann-L´evy, Paris 85. Epstein, R.J. (1987): A History of Econometrics. North-Holland, Amsterdam 86. Etner, F. (1987): Histoire du calcul ´economique en France. Economica, Paris ´ 87. Ewald, F. (1986): L’Etat providence. Grasset, Paris 88. Eymard-Duvernay, F. (1986): La qualification des produits. In: R. Salais und L. Th´evenot, (´eds) Le Travail. March´es, r`egles, conventions. INSEE, Economica, Paris 89. Eymard-Duvernay, F. (1989): Conventions de qualit´e et formes de coordination. Revue ´economique 40 (2), 329–359 90. Fagot-Largeault, A. (1989): Les Causes de la mort. Histoire naturelle et facteur de risque. Vrin, Paris 91. Fagot-Largeault, A. (1991): R´eflexions sur la notion de qualit´e de la vie. Archives de philosophie du droit, tome 36, volume Droit et Science, 135–153 92. Feldman, J., Lagneau, G., Matalon, B. (´eds.) (1991): Moyenne, milieu, centre. ´ ´ Histoires et usages. Editions de l’Ecole des hautes ´etudes en sciences sociales, Paris 93. Fisher, R. (1925): Statistical Methods for Research Workers. Oliver and Boyd, Edinburgh ¨ 94. Foucault, M. (1966): Les Mots et les choses. Gallimard, Paris. Deutsche Ubersetzung (1971): Die Ordnung der Dinge. Eine Arch¨ aologie der Humanwissenschaften. Suhrkamp, Frankfurt am Main 95. Fourquet, F. (1980): Les Comptes de la puissance. Histoire de la comptabilit´e nationale et du Plan. Encres, Paris 96. Fox, K. (1989): Some contributions of US Agricultural Economists to Statistics and Econometrics, 1917–1933. Oxford Economic Papers 41, Januar, 53–70 97. Fr´echet, M., Halbwachs, M. (1924): Le calcul des probabilit´es ` a la port´ee de tous. Dunod, Paris 98. Frisch, R. (1931): A Method of Decomposing an Empirical Series into its Cyclical and Progressive Components. Journal of the American Statistical Association 26, 73–78 99. Frisch, R. (1933): Propagation Problems and Impulse Problems in Dynamic Economics. In: Economic Essays in Honour of Gustav Cassel. Allen and Unwin, London 100. Frisch, R. (1938): Statistical Versus Theoretical Relations in Economic Macrodynamics, 1938. In: Autonomy of Economic Relations. University of Oslo, 1948 101. Frisch, R. (1948): Repercussion Studies at Oslo. American Economic Review 39, 367–372 102. Galton, F. (1869): Hereditary Genius. An Inquiry into its Laws and Conse¨ quences. Macmillan, London. Deutsche Ubersetzung (1910): Genie und Vererbung. Leipzig
398
Literaturverzeichnis
103. Galton, F. (1886): Regression Towards Mediocrity in Hereditary Stature. Journal of the Anthropological Institute 15, 246–263 104. Galton, F. (1889): Natural Inheritance. Macmillan, London 105. Galton, F. (1909): Essays in Eugenics. Eugenics Education Society, London 106. Gigerenzer, G. und Murray, D.J. (1987): Cognition as Intuitive Statistics. Lawrence Erlbaum Associates, Hillsdale, New Jersey 107. Gigerenzer, G. et al. (1989): The Empire of Chance. How Probability Changed Science and Everyday Life. Cambridge University Press, Cambridge 108. Gille, B. (1964): Les sources statistiques de l’histoire de France. Des enquˆetes a 1870. Droz, Genf du XVIIe si`ecle ` 109. Gini, C. (1928): Une application de la m´ethode repr´esentative aux mat´erieux du dernier recensement de la population italienne (1er d´ecembre 1921). Bulletin de l’Institut International de Statistique 23, tome 2, 198–215 110. Ginzburg, C. (1980): Signes, traces, pistes. Racines d’un paradigme de l’indice. Le D´ebat 6, November, 13–44 111. Goody, J. (1979): La Raison graphique. Minuit, Paris 112. Gould, S.J. (1983): Le Mal-mesure de l’homme. Ramsay, Paris 113. Gruson, C. (1968): Origines et espoirs de la planification fran¸caise. Dunod, Paris 114. Guibert, B., Laganier, J., Volle, M. (1971): Essai sur les nomenclatures indu´ strielles. Economie et Statistique 20, 23–36 115. Haavelmo, T. (1943): The Statistical Implications of a System of Simultaneous Equations. Econometrica 11, 1–12 116. Haavelmo, T. (1944): The Probability Approach in Econometrics. Supplement to Econometrica 12, 1–118 117. Hacking, I. (1975): The Emergence of Probability. Cambridge University Press, Cambridge 118. Hacking, I. (1987): Prussian Numbers 1860-1882. In: Kr¨ uger L., Daston L. und Heidelberger L. (eds) [158], The Probabilistic Revolution, vol. I. MIT Press, Cambridge Massachusetts, 377–394 119. Hacking, I. (1990): The Taming of Chance. Cambridge University Press, Cambridge 120. Hacking, I. (1991): Statistical Language, Statistical Truth and Statistical Reason: the Self-authentification of a Style of Scientific Reasoning. In: McMullen (ed.), Social Dimensions of Sciences. University of Notre-Dame Press 121. Halbwachs, M. (1912): La classe ouvri`ere et les niveaux de vie. Recherches sur la hi´erachie des besoins dans les soci´et´es industrielles contemporaines. Alcan, Paris. 2. Auflage 1970, Paris 122. Halbwachs, M. (1913): La th´eorie de l’homme moyen. Essai sur Quetelet et la statistique morale. Alcan, Paris 123. Halbwachs, M. (1914): Budgets de familles ouvri`eres et paysannes en France, en 1907. Bulletin de la Statistique g´en´erale de la France 4, fasc. 1, 47–83 124. Hansen, M.H., Madow, W.G. (1976): Some Important Events in the Historical Development of Sample Surveys. In: Owen D. (ed.) [216], On the History of Statistics and Probability. Marcel Dekker, New York, 73–102 125. Hecht, J. (1977): L’id´ee de d´enombrement jusqu’` a la r´evolution. In: INSEE 1977. Pour une histoire de la statistique, tome 1, 1977 (Neuauflage 1987). Economica, Paris, INSEE, 21–81 126. Hecht, J. (´ed) (1979): J.P. S¨ ussmilch (1707). L’Ordre divin, aux origines de la d´emographie. INED, Paris.
Literaturverzeichnis
399
127. Hennock, E.P. (1976): Poverty and Social Theory in England: the Experience of the Eighteen-eighties. Social History (I), 67–69 128. Hennock, E.P. (1987): The Measurement of Poverty: from the Metropolis to the Nation, 1880–1920. Economic History Review, 2e s´erie, XL 2, 208–227 129. Henry, L. (1963): R´eflexions sur l’observation en d´emographie. Population 2, 233–262 ´ 130. H´eran, F. (1984): L’assise statistique de la sociologie. Economie et statistique 168, 23–35 131. H´eran, F. (1987): La seconde nature de l’habitus. Tradition philosophique et sens commun dans le langage sociologique. Revue fran¸caise de sociologie, XXVIII, 385–416 132. Hoock, J. (1977): D’Aristote ` a Adam Smith: quelques ´etapes de la statistique allemande entre le XVIIe et le XIXe si`ecle. In: INSEE 1977. Pour une histoire de la statistique, tome 1, 1977. Neu herausgegeben 1987: Economica, INSEE, Paris, 477–492 133. Hooker, R.H. (1901): Correlation of the Marriage Rate with Trade. Journal of the Royal Statistical Society 64, 485–492 134. Huber, M. (1937): Quarante ann´ees de la Statistique g´en´erale de la France, 1896–1936. Journal de la Soci´et´e statistique de Paris, 179–214 135. INSEE (1977): Pour une histoire de la statistique, tome 1: Contributions, 1977. Neu herausgegeben 1987: Economica, INSEE, Paris 136. INSEE (1987): Pour une histoire de la statistique, tome 2: Mat´eriaux, (J. Affichard, ´ed.). Economica, INSEE, Paris 137. Jensen, A. (1925): Report on the Representative Method in Statistics. Bulletin de l’Institut international de statistique 22, livre 1, 359–380 138. Jensen, A. (1925): The Representative Method in Practice, Annexe B. Bulletin de l’Institut international de statistique 22, livre 1, 381–489 139. John, V. (1884): Geschichte der Statistik. Stuttgart, Enke 140. Jorland, G. (1987): The Saint-Petersburg paradox, 1713-1937. In: Kr¨ uger L., Daston L. und Heidelberger L. (eds) [158], The Probabilistic Revolution, vol. I, Ideas in History. MIT Press, Cambridge Massachusetts, 157–190 141. Juglar, C. (1862): Des crises commerciales et de leur retour p´eriodique en France, en Angleterre et aux Etats-Unis. Paris 142. Kalaora, B., Savoye, A. (1985): La mutation du mouvement le playsien. Revue fran¸caise de sociologie, XXVI 2, 257–276 143. Kalaora, B., Savoye, A. (1987): Les Inventeurs oubli´es. Fr´ed´eric Le Play et ses continuateurs. CERFISE 144. Kang, Z. (1989): Lieu de savoir social. La Soci´et´e de Statistique de Paris au XIXe si`ecle (1860–1910). Th`ese, EHESS, Paris 145. Kendall, M. (1942): The Future of Statistics. Journal of the Royal Statistical Society, vol. CV, part II, 69–72 146. Kendall, M., Plackett, R.L. (eds.) (1977): Studies in the History of Statistics and Probability, vol. II. Griffin, London 147. Kendrick, J. (1970): The Historical Development of National-Income Accounts. History of Political Economy 2, 284–315 148. Keverberg, Baron de (1827): Notes sur Quetelet. Nouveaux M´emoires de l’Acad´emie royale des sciences et belles lettres de Bruxelles 4, 175–192 149. Keynes, J.M. (1910): Review of K. Pearson: A First Study of the Influence of Parental Alcoholism on the Physique and Ability of the Offspring. Journal of the Royal Statistical Society, July, 769–773; December 114–121
400
Literaturverzeichnis
150. Keynes, J.M. (1921): A Treatise on Probability. London 151. Keynes, J.M. (1939): Professor Tinbergen’s Method. Economic Journal 49, 558–568 und 50, 141–156 152. Kiaer, A.N. (1895): Observations et exp´eriences concernant les d´enombrements repr´esentatifs. Bulletin de l’IIS 9, 176–178 153. Kiaer, A.N. (1897): Sur les m´ethodes repr´esentatives ou typologiques appliqu´ees ` a la statistique. Bulletin de l’IIS 11, 180–185 154. Kiaer, A.N. (1901): Sur les m´ethodes repr´esentatives ou typologiques. Bulletin de l’IIS 13, livre 1, 66–70 155. Kocka, J. (1989): Les employ´es en Allemagne, 1850-1980. Histoire d’un groupe ´ social. Editions de l’EHESS, Paris 156. Koopmans, T. (1947): Measurement Without Theory. Review of Economic Statistics 29, 161–172 157. Kramarz, F. (1991): D´eclarer sa profession. Revue fran¸caise de sociologie, 32 1, 3–27 158. Kr¨ uger, L., Daston, L.J., Heidelberger, M. (eds.) (1987): The Probabilistic Revolution, vol. 1: Ideas in History. MIT Press, Cambridge Massachusetts 159. Kr¨ uger, L., Gigerenzer, G., Morgan, M.S. (eds.) (1987): The Probabilistic Revolution, vol 2: Ideas in the Sciences. MIT Press, Cambridge Massachusetts 160. Kruskal, W., Mosteller, F. (1980): Representatives Sampling IV: the History of the Concept in Statistics. 1895–1939. International Statistical Review 48, 169–195 ´ 161. Kuisel, R. (1984): Le Capitalisme et l’Etat en France. Modernisation et dirigisme au XXe si`ecle. Gallimard, Paris 162. Kuznets, S. (1934): National Income, 1929–1932. NBER Bulletin 49, New York 163. Ladri`ere, P., Gruson, C. (1992): Ethique et gouvernabilit´e. Un projet europ´een. PUF, Paris, 1992 164. Laplace, P.S. (1810): M´emoire sur les approximations des formules qui sont fonctions de tr`es grands nombres et sur leur application aux probabilit´es. M´emoires de l’Acad´emie des Sciences de Paris, 353–415 und 559–565 165. Largeault, J. (1971): Enquˆete sur le nominalisme. Paris 166. Latour, B. (1984): Les microbes. Guerre et paix, suivi de Irr´eductions. A.M. M´etaili´e, Paris 167. Latour, B. (1989): La science en action. La D´ecouverte, Paris 168. Latour, B. (1991): Nous n’avons jamais ´et´e modernes. La D´ecouverte, Paris 169. Lawson, T. (1989): Realism and Instrumentalism in the Development of Econometrics. Oxford Economic Papers 41, Januar, 236–258 170. Lazarsfeld, P. (1970): Notes sur l’histoire de la quantification en sociologie: les sources, les tendances, les grands probl`emes. In: Philosophie des sciences sociales. Gallimard, Paris, 75–162 171. Le Bras, H. (1987): La statistique g´en´erale de la France. In: Nora P. (´ed.), Les Lieux de m´emoire, tome II, La Nation. Gallimard, Paris, 317–353 172. L´ecuyer, B. (1977): M´edecins et observateurs sociaux: les Annales d’hygi`ene publique et de m´edecine legale (1820-1850). In: INSEE 1977. Pour une histoire de la statistique, tome 1: Contributions, 1977; neu herausgegeben 1987: Economica-INSEE, Paris, 445–476 173. L´ecuyer, B. (1982): Statistiques administratives et statistiques morales au XIXe si`ecle? In: Actes de la journ´ee d’´etude Sociologie et statistique“. INSEE, Paris, ” 155–165
Literaturverzeichnis
401
174. Legendre, A.M. (1805): Nouvelles m´ethodes pour la d´etermination des orbites des com`etes. Courcier, Paris, 1805 175. Le Goff, J. (1962): Marchands et banquiers au Moyen-Age. PUF, Paris 176. Le M´ee, R. (1975): Statistique de la France. La Statistique g´en´erale de la France de 1888 ` a 1870. Service de Microfilm, Paris ´ 177. Lenoir, M. (1913): Etudes sur la formation et le mouvement des prix. Giard et Bri`ere, Paris 178. L´evy, M. (1975): L’information statistique. Seuil, Paris 179. Livi, R. (1896): Sulla interpretazione delle curve seriali in antropometria. Atti della Societ` a Romana di Antropologia 3, 2152 180. Lottin, J. (1912): Quetelet, statisticien et sociologue. Paris 181. Luciani, J., Salais, R. (1990): Mat´eriaux pour la naissance d’une institution l’Office du travail (1890–1900). Gen`eses, Sciences sociales et histoire 3, 83–108 182. Mach, E. (1904): La M´ecanique, expos´e historique et critique de son d´eve´ Bertrand, Hermann, Paris. Franz¨ ¨ loppement. E. osische Ubersetzung von Die ” Mechanik in ihrer Entwicklung“ (1883) 183. Mac Kenzie, D. (1981): Statistics in Britain, 1865-1930. The Social Construction of Scientific Knowledge. Edinburgh University Press, Edinburgh 184. Mairesse, J. (Hrsg.) (1988): Estimation et sondages. Cinq contributions ` a l’histoire de la statistique. Economica, Paris 185. Malinvaud, E. (1988): Econometric Methodology at the Cowles Commission: Rise and Maturity. Econometric Theory 4, 187–209 186. Malinvaud, E. (1991): Voies de la recherche macro´economique. Odile Jacob, Paris, 187. Mansfield, M. (1988): La construction sociale du chˆ omage: l’´emergence d’une cat´egorie en Grande-Bretagne. IEPE, document de travail 8803, Paris 188. March, L. (1905): Comparaison num´erique de courbes statistiques. Journal de la Soci´et´e statistique de Paris, 255–277 189. March, L. (1910): Essai sur un mode d’exposer les principaux ´elements de la th´eorie statistique. Journal de la Soci´et´e statistique de Paris, 447–486 190. March, L. (1925): Observations sur la m´ethode repr´esentative et sur le projet de rapport relatif ` a cette m´ethode. Annexe D. Bulletin de l’IIS 22, livre 1, 444–451 191. Marietti, P.G. (1947): La statistique g´en´erale en France. Imprimerie du Gouvernement, Rufisque 192. Maroussem, P. du (1900): Les Enquˆetes. Pratique et th´eorie. Paris 193. Menard, C. (1977): Trois formes de r´esistance aux statistiques: Say, Cournot, Walras. In: Pour une histoire de la statistique, tome 1, 1977. Neu herausgegeben 1987, Economica, INSEE, Paris, 417–429 194. Merlli´e, D. (1987): Le suicide et ses statistiques: Durkheim et sa post´erit´e. Revue philosophique 3, 303–325 195. Metz, K. (1987): Paupers and Numbers: The Statistical Argument for Social Reform in Britain during the Period of Industrialization. In: Kr¨ uger L., Daston L. und Heidelberger L. (Hrsg.) [158], The probabilistic Revolution, vol. I Ideas in History. MIT Press, Cambridge Mass., 337–350 196. Meusnier, N. (1987): Jacques Bernoulli et l’Ars conjectanda. Universit´e de Haute Normandie, IREM, Rouen 197. Mirowski, P. (1989): The Probabilistic Counter-Revolution, or How Stochastic Concepts Came to Neoclassical Economic Theory. Oxford Economic Papers 41 (1), 217–235
402
Literaturverzeichnis
´ 198. Mirowski, P. (1989): The Measurement without Theory Controversy. Economie et Soci´et´es. Oeconomia 11, 65–87 199. Mitchell, W. (1913): Business Cycles and their Causes. California University Memoirs, Berkeley, vol. III 200. Mitchell, W. (1923): Business Cycles. In: NBER (ed.), Business Cycles and Unemployment. New York 201. Mols, R. (1954): Introduction ` a la d´emographie historique des villes d’Europe du XIVe au XVIIIe si`ecle. Duculot, Paris 202. Moore, H. (1914): Economic Cycles. Their Law and Cause. Macmillan, New York ´ ements de statistique, comprenant les principes 203. Moreau de Jonn`es (1847): El´ g´en´eraux de cette science et un aper¸cu historique de ses progr`es. Guillaumin, Paris 204. Morgan, M.S. (1990): The History of Econometric Ideas. Cambridge University Press, Cambridge 205. Morrisson, C. (1987): L’enseignement des statistiques en France du milieu du XIXe si`ecle ` a 1960. In: INSEE 1987, Pour une histoire de la statistique 2, INSEE, Paris. Economica, 811–823 206. Murphy, T. (1981): Medical Knowledge and Statistical Methods in Early Nineteenth Century France. Medical History 25, 301–319 207. Musgrave, R. (1959): The Theory of Public Finance. A Study in Public Economy. McGraw-Hill, New York 208. Musil, R. (2002): Die Schw¨ armer. Schauspiel in drei Aufz¨ ugen (1921). 8. Auflage, Rowohlt Taschenbuch Verlag, Reinbek bei Hamburg 209. NBER (1921): Income in the United States: Its Amount and Distribution, 1909–1919, vol. I et II. New York 210. Neyman, J. (1934): On the Two Different Aspects of the Representative Method: the Method of Stratified Sampling and the Method of Purposive Selection. Journal of the Royal Statistical Society 97, 558–606; Discussion 607–625 211. Neyman, J., Pearson, E. (1928): On the Use and Interpretation of Certain Test Criteria for Purposes of Statistical Inference. Biometrika 20A, 175–240 und 263–294 212. Nisbet, R.A. (1984): La Tradition sociologique. PUF, Paris 213. Nissel, M. (1987): People Count. A History of the General Register Office. Office of Population Censuses and Surveys, London 214. Norton, B. (1978): Karl Pearson and Statistics: The Social Origins of Scientific Innovation. Social Studies of Sciences 8 (1), Februar, 3–34 215. O’Muircheartaigh, C., Wong, T. (1981): The Impact of Sampling Theory on Survey Sampling Practice: A Review. Bulletin de l’IIS, tome XLIX, BuenosAires, 465–493 216. Owen, D.B. (ed.) (1976): On the history of statistics and probability. Marcel Dekker, New York 217. Ouzuf-Marignier, M.V. (1986): De l’universalisme constituant aux int´erˆets locaux le d´ebat sur la formation des d´epartements en France (1789–1790). Annales ESC 6, 1193–1213 218. Patinkin, D. (1976): Keynes and Econometrics: on the Interaction Between the Macroeconomic Revolutions of the Interwar Period. Econometrica 44, 1091– 1123 219. Paty, M. (1991): Mach, Ernst (1838–1916). Encyclopedia Universalis
Literaturverzeichnis
403
220. Pearson, E. (1938): Karl Pearson. An Appreciation of Some Aspects of His Life and Work. Cambridge University Press, Cambridge 221. Pearson, E., Kendall, M. (Hrsg.) (1970): Studies in the History of Statistics and Probability, vol. I. Griffin, London 222. Pearson, K. (1896): Mathematical Contributions to the Theory of Evolution, III: Regression, Heredity and Panmixia. Philosophical Transactions of the Royal Society of London (A) 187, 253–318 223. Pearson, K. (1912): La Grammaire de la science. Ins Franz¨ osische u ¨bersetzt von Lucien March, Alcan, Paris. Englischer Originaltitel (1892): The Grammar of Science. Walter Scott, London 224. Pearson, K. (1920): Notes on the History of Correlation. Biometrika 12, 25–45 225. Pearson, K., Heron, D. (1913): On Theories of Association. Biometrika 9, 159– 315 226. Perrot, J.C. (1977): La statistique r´egionale ` a l’´epoque de Napol´eon. In: INSEE, Pour une histoire de la statistique 1, 233–253 227. Perrot, J.C. (1992): Une histoire intellectuelle de l’´economie politique. EHESS, Paris 228. Perrot, M. (1974): Les Ouvriers en gr`eve. France 1871-1890. Mouton, Paris 229. Perrot, M. (1977): Premi`eres mesures des faits sociaux: les d´ebuts de la statistique ciminelle en France (1780–1830). In: INSEE, Pour une histoire de la statistique 1, 125–137. Neu herausgegeben 1987, INSEE, Economica 230. Peuchet, J. (1805): Statistique ´el´ementaire de la France. Paris 231. Piquemal, J. (1974): Succ`es et d´ecadence de la m´ethode num´erique en France, a l’´epoque de Pierre Louis. M´edecine de France 250, 11–22 ` 232. Plackett, R.L. (1972: The Discovery of the Method of Least Squares. Biometrika 59, 239–251 233. Poisson, S.A. (1837): Recherches sur la probabilit´e des jugements en mati`ere criminelle et en mati`ere civile, pr´ec´ed´ees des r`egles g´en´erales de calcul des probabilit´es. Bachelier, Paris 234. Polanyi, K. (1983): La grande transformation: aux origines politiques et ´economiques de notre temps. Gallimard, Paris 235. Pollak, M. (1985): Sociologie de la science. In: Encyclopedia Universalis. Les enjeux, 625–629 236. Pollak, M. (1986): Un texte dans son contexte. L’enquˆete de Max Weber sur les salari´es agricoles. Actes de la recherche en sciences sociales 65, 69–75 237. Pollak, M. (1993): Une identit´e bless´ee. M´etaili´e, Paris 238. Popkin, R. (1964): The History of Scepticism from Erasmus to Descartes. Van Gorkum, Assen, Netherlands 239. Porte, J. (1961): Les cat´egories socio-professionnelles. In: Friedmann G. und Naville P., Trait´e de sociologie du travail, tome I. Armand Colin, Paris 240. Porter, T.M. (1986): The Rise of Statistical Thinking. Princeton University Press, Princeton 241. Quetelet, A. (1832): Sur la possibilit´e de mesurer l’influence des causes qui modifient les ´el´ements sociaux. Lettre ` a M. de Villerm´e. Correspondance math´ematique et publique 7, 321–346 242. Quetelet, A. (1835): Sur l’homme et le d´eveloppement de ses facult´es, ou Essai de physique sociale. Bachelier, Paris 243. Quetelet, A. (1846): Lettres ` a S.A.R. le Duc R´egnant de Saxe Cobourg et Gotha, sur la th´eorie des probabilit´es, appliqu´ee aux sciences morales et politiques. Hayez, Br¨ ussel
404
Literaturverzeichnis
244. Reinhart, M. (1965): La population de la France et sa mesure, de l’Ancien r´egime au Consulat. In: Contributions ` a l’histoire d´emographique de la R´evolution fran¸caise, 2e serie, Commission d’histoire d´emographique et sociale de la R´evolution. Paris 245. Rosch, E., Lloyd, B.B. (Hrsg.) (1978): Cognition and categorization. Erlbaum, New York 246. Saenger, K. (1935): Das Preussische Statistische Landesamt, 1805–1934. Allgemeines Statistisches Archiv 24, 445–460 247. Salais, R., Bavarez, N., Reynod, B. (1986): L’invention du chˆ omage. PUF, Paris 248. Samuelson, P. (1947): Foundation of Economic Analysis. Harvard University Press, Cambridge 249. Sauvy, A. (1975): Statistique g´en´erale et Service national de Statistique de 1919 ` a 1944. Journal de la Soci´et´e statistique de Paris, 34–43 250. Savage, L.J. (1954): The foundations of statistics. New York 251. Savoye, A. (1981): Les continuateurs de Le Play au tournant du si`ecle. Revue fran¸caise de sociologie, XXII 3, 315–344 252. Schiller, J. (1963): Claude Bernard et la statistique. Archives internationales de l’histoire des sciences 65, 405–418 253. Schultz, H. (1928): Statistical Laws of Demand and Supply with Special Application to Sugar. University of Chicago Press, Chicago 254. Schumpeter, J. (1983): Histoire de l’analyse ´economique, tome 1. Gallimard, ¨ Paris. Ubersetzung der deutschen Ausgabe Geschichte der ¨ okonomischen Ana” lyse“, 1. Teilband (1965), G¨ ottingen 255. Seng You Poh (1951): Historical Survey of the Development of Sampling Theories and Practice. Journal of the Royal Statistical Society, series A 114, 214–231 256. Serverin, E. (1985): De la jurisprudence en droit priv´e. Theorie d’une pratique. Presses universitaires de Lyon, Lyon 257. Sewell, W.H. (1983): Gens de m´etier et r´evolution. Aubier-Montaigne, Paris 258. SGF (1847): Industrie 1847. Paris 259. SGF (1873): Industrie, enquˆete de 1861–1865. Paris 260. SGF (1896): Recensement de 1896. Industrie. Paris 261. Shafer, G. (1990): The Unity and Diversity of Probability. Statistical science 5 (4), 435–462 262. Simiand, F. (1908): Le salaire des ouvriers des mines de charbon. Journal de la Soci´et´e statistique de Paris, 13–29 263. Slutsky, E. (1927): The Summation of Random Causes as the Source of Cyclic Processes. The Problems of Economic Conditions 3 (1), Moskau, 34–64 und 156–161 264. Spearman, C. (1904): General Intelligence Objectively Determined and Measured. American Journal of Psychology 15, 201–293 265. Stephan, F. (1948): History of the Uses of Modern Sampling Procedures. Journal of the American Statistical Association 43, 12–39 266. Stigler, S.M. (1978): Francis Ysidro Edgeworth, Statistician. Journal of the Royal Statistical Society (A) 141, 287–322 267. Stigler, S.M. (1986): The History of Statistics. The Measurement of Uncertainty Before 1900. Belknapp Press of Harvard University Press, Cambridge 268. Stockmann, R., Willms-Herget (1985): Erwerbsstatistik in Deutschland. Campus Verlag, Frankfurt 269. Sutter, J. (1950): L’Eug´enique. Probl`emes, m´ethodes, r´esultats. Cahiers de l’INED 11, PUF, Paris
Literaturverzeichnis
405
270. Szreter, S. (1984): The Genesis of the Registrar General’s Social Classification of Occupations. The British-Journal of Sociology, vol. XXXV 4, December, 529–546 271. Szreter, S. (1991): The GRO and the Public Health Movement in Britain, 1837–1914. Social History of Medicine 4 (3), December, 435–463 272. Th´evenot, L. (1984): L’enregistrement statistique; une mesure d´ecisive. Colloque du Conseil national de la statistique 273. Th´evenot, L. (1986): Les investissements de forme. In: Les Conventions ´economiques. Cahiers du Centre d’´etudes de l’emploi 29. PUF, Paris, 21–71 274. Th´evenot, L. (1990): La politique des statistiques. Les origines sociales des enquˆetes de mobilit´e sociale. Annales ESC 6, 1275–1300 275. Tinbergen, J. (1937): An Economic Approach To Business Cycle Problems. Hermann, Paris 276. Tinbergen, J. (1939): Statistical Testing of Business-Cycle Theories; vol. I A Method and its Application to Investment Activity; vol. II Business Cycles in the United States of America, 1919–1932. Soci´et´e des Nations, Genf 277. Tocqueville, A. de (1856): L’Ancien R´egime et la R´evolution, 1856. Neuausgabe: Gallimard, 1967, Folio, Paris 278. Topalov, C. (1991): La ville, terre inconnue: l’enquˆete de Charles Booth et le peuple de Londres, 1889–1891. Gen`eses, sciences sociales et histoire 5, 5–34 279. Venn, J. (1866): The Logic of Chance. Macmillan, London 280. Vignaux, P. (1991): Nominalisme. Encyclopedia universalis 281. Villerm´e, L.R. (1845): Sur l’institution par le gouvernement belge d’une commission centrale de statistique, et observations sur les statistiques officielles publi´ees en France par les divers minist`eres. Journal des ´economistes, tome XV, 130–148 282. Villey, M. (1975): La formation de la pens´ee juridique moderne. Cours d’histoire de la philosophie du droit. Montchrestien, Paris 283. Vining, R., Koopmans, T.C. (1949): Methodological Issues in Quantitative Economics. Review of Economics and statistics 31, 77–94 284. Volle, M. (1982): Histoire de la statistique industrielle. Economica, Paris 285. Ward, R., Doggett, T. (1991): Keeping Score: The First Fifty Years of the Central Statistical Office. CSO, London 286. Westergaard, H.L. (1932): Contributions to the history of statistics. King, London 287. Witt, J. de (1671): Waerdye van Lyf-Renten Naer proportie van Los-Renten. s’Graven-Hage. Reprint in: Die Werke von Jakob Bernoulli, Vol. 3, 327–350 288. Woolf, S. (1981): Contributions ` a l’histoire des origines de la statistique en France 1789–1815. In: La Statistique en France ` a l’´epoque napol´eonienne. Centre Guillaume Jacquemyns, Br¨ ussel 289. X-Crise (1982): De la r´ecurrence des cycles ´economiques. Economica, Paris 290. Yule, U. (1897): On the Theory of Correlation. Journal of the Royal Statistical Society 60, 812–854 291. Yule, U. (1899): An Investigation into the Causes of Changes in Pauperism in England, Chiefly During the Last two Intercensal Decades, I. Journal of the Royal Statistical Society 62, 249–295 292. Yule, U. (1909): Les applications de la m´ethode de corr´elation aux statistiques sociales et ´economiques. Bulletin de VIE, premi´ere livraison, 265–277 293. Yule, U. (1911): An Introduction To the Theory of Statistics. Griffin, London, 1911.
406
Literaturverzeichnis
294. Yule, U. (1927): On a Model of Investigating Periodicities in Disturbed Series, with Special Reference to Wolfer’s Sunspot Numbers. Philosophical Transactions of the Royal Society of London, series A 226, 267–298 295. Yule, U. (1942): The Future of Statistics. Journal of the Royal Statistical Society, vol. CV, part II, S. 83 et seq. 296. Zucker-Rouvillois, E. (1986): La politique des anges: d´emographie, eug´enisme et immigrations. Milieux 23-24, 100–107
Erg¨ anzendes Literaturverzeichnis (1993–2000) (vgl. Nachwort)
297. Anderson, M.J., Fienberg, S.E. (1996): Who Counts? The Politics of CensusTaking in Contemporary America. Russell Sage Foundation, New York 298. Armatte, M. (1995): Histoire du mod`ele lin´eaire. Formes et usages en statistique et ´econom´etrie. Th`ese EHESS, Paris 299. Armatte, M., Desrosi`eres, A. (2000): M´ethodes math´ematiques et statistiques en ´economie: nouvelles questions sur d’anciennes querelles. In: J.-P. Beaud und J.-G. Pr´evost, (´eds.), L’`ere du chiffre. Syst`emes statistiques et traditions nationales. Presses universitaires du Qu´ebec, Montr´eal, 431–481 ´ ements pour une 300. Bardet, F. (2000): La statistique au miroir de la r´egion. El´ sociologie historique des institutions r´egionales du chiffre en France depuis 1940. Th`ese de science politique, universit´e de Paris-I, Panth´eon-Sorbonne 301. Beaud, J.-P., Pr´evost, J.-G. (´eds) (2000): L’`ere du chiffre. Syst`emes statistiques et traditions nationales. Presses universitaires du Qu´ebec, Montr´eal 302. Berlivet, L. (2000): Une sant´e ` a risques. L’action publique de lutte contre l’alcoolisme et le tabagisme en France (1954–1999). Th`ese de science politique, universit´e de Rennes-I, Rennes 303. Blondiaux, L. (1998): La fabrique de l’opinion. Une histoire sociale des sondages. Seuil, Paris 304. Blum, A. (2000): La purge de 1924 ` a la Direction centrale de la statistique. Annales HSS 2, 249–282 ´ 305. Brian, E. (1994): La mesure de l’Etat. Administrateurs et g´eom`etres au XVIIIe si`ecle. Albin Michel, Paris 306. Callens, S. (1997): Les maˆıtres de l’erreur. Mesure et probabilit´e au XXe si`ecle. PUF, Paris 307. Daston, L. (1992): Objectivity and the Escape from Perspective. Social Studies of Science 22, 597–618 308. Daston, L. (2000): Why statistics tend not only to describe the world but to change it. Review of The Politics of Large Numbers. London Review of Books 13, April, 35–36 309. Derosi`eres, A. (1997): D´emographie, science et soci´et´e: le cas fran¸cais. In: Chasteland, J.-C., Roussel, L., Les contours de la d´emographie au seuil du XXIe si`ecle. INED-PUF, Paris, 57–93 310. Derosi`eres, A. (1999): La commission et l’´equation: une comparaison des plans fran¸cais et n´eerlandais entre 1945 et 1980. Gen`eses 34, M¨ arz, 28–52 311. Derosi`eres, A. (2000): L’histoire de la statistique comme genre: styles d’´ecriture et usages sociaux. Gen`eses 39, Juni, 121–137 312. De Vries W. (´eds) (1993): The Value Added of National Accounting. Netherland Central Bureau of Statistics, Voorburg
Literaturverzeichnis
407
313. Dodier, N. (1996): Les sciences sociales face ` a la raison statistique (note critique). Annales HSS 2, M¨ arz–April, 409–428 314. Dupoirier, E., Parodi, J.-L. (´eds) (1997): Les indicateurs sociopolitiques aujourd’hui. L’Harmattan, Paris 315. Fienberg, S.E. (1999): Statistics in the Social World. Review of The Politics of Large Numbers. Science 283, 26. M¨ arz, S. 2025 316. Fienberg, S.E., Tanur, J.M. (1996): Reconsidering the fundamental contributions of Fisher and Neyman on experimentation and sampling. International Statistical Review 64, 237–253 317. Georgakakis, D. (1994): Compte-rendu de La politique des grands nombres. Politix 25, 153–160 318. Gollac, M. (1997): Des chiffres insens´es? Pourquoi et comment on donne un sens aux donn´ees statistiques. Revue fran¸caise de sociologie, vol. XXXVIII, 5–36 319. Hacking, I. (1999): The Social Construction of What? Harvard University Press, Cambridge, Massachusetts 320. Hald, A. (1990): A History of Probability and Statistics and Their Applications before 1750. Wiley, New York 321. Hald, A. (1998): A History of Mathematical Statistics, from 1750 to 1930. Wiley, New York 322. Hendry, D.F., Morgan, M.S. (eds) (1995): The Foundations of Econometric Analysis. Cambridge University Press, Cambridge 323. Hopwood A., Miller, P. (eds) (1996): Accounting as Social and Institutional Practice. Cambridge University Press, Cambridge, 1994. 324. INSEE (1996): Cinquante ans d’INSEE, ou la conquˆete du chiffre. Imprimerie nationale-INSEE, Paris 325. Jurdant, B. (´ed.) (1998): Impostures scientifiques. Les malentendus de l’affaire Sokal. La D´ecouverte/Alliage, Paris 326. Kennessey, Z. (ed.) (1994): The Account of Nations. IOS Press, Amsterdam 327. Klein, J.L. (1997): Statistical Visions in Time. A History of Time Series Analysis, 1662–1938. Cambridge University Press, Cambridge 328. Marks, H. (1999): La m´edecine des preuves. Histoire et anthropologie des essais cliniques (1900–1990). Les Empˆecheurs de penser en rond. Le Plessis-Robinson 329. Martin, O. (1997): La mesure de l’esprit. Origines et d´eveloppements de la psychom´etrie (1900–1950). L’Harmattan, Paris 330. Mespoulet, M. (1999): Personnel et production du bureau statistique de la province de Saratov. Histoire d’une professionnalisation interrompue (1880– 1930). Th`ese EHESS, Paris 331. Murray, C. (1999): Statistical jargon. The Public Interest, Spring, 133–135 332. Patriarca, S. (1996): Numbers and Nationhood. Writing statistics in nineteenth-century Italy. Cambridge University Press, Cambridge 333. Porter, T.M. (1995): Trust in Numbers. The Pursuit of Objectivity in Science and Public Life. Princeton University Press, Princeton 334. Rosser Matthews, J. (2000): Review of The Politics of Large Numbers. Ethics, January, 416–418 335. Sangolt, L. (1997): The Politics of Counting: producing official statistics on the North Sea oil industry in Norway and Great Britain, 1966–1986. University of Bergen 336. Schweber, L. (1996): L’histoire de la statistique, laboratoire pour la th´eorie sociale. Revue fran¸caise de sociologie, vol. XXXVII, 107–128
408
Literaturverzeichnis
337. Spenlehauer, V. (1998): L’´evaluation des politiques publiques, avatar de la planification. Th`ese de science politique, universit´e Grenoble Il-Pierre Mend`esFrance 338. Stanziani, A. (1998): L’´economie en r´evolution. Le cas russe, 1870–1930. Albin Michel, Paris 339. Stigler, S. (1999): Statistics on the Table. The History of Statistical Concepts and Methods. Harvard University Press, Cambridge Massachusetts 340. Szreter, S. (1996): Fertility, Class and Gender in Britain, 1860-1940. Cambridge University Press, Cambridge 341. Touchelay, B. (1993): L’INSEE des origines ` a 1961: ´evolution et relation avec la r´ealit´e ´economique, politique et sociale. Th`ese universit´e de Paris-XII 342. Vanoli, A. (2001): Histoire de la comptabilit´e nationale. La D´ecouverte, Paris 343. Zimmermann, B. (1994): Statisticiens des villes allemandes et action r´eformatrice (1871–1914). La construction d’une g´en´eralit´e statistique. Gen`eses 15, M¨ arz, 4–27 ¨ Zusatzliteratur zur deutschen Ubersetzung
344. Armatte, M. (2001): Developments in statistical thinking and their links with mathematics. In: [356], 137–166 345. Baltagi, B.H. (2001): The mathematical aspects of econometrics. In: [375], 67– 81 346. Barth, F., Haller, R. (1985): Stochastik. Ehrenwirth Verlag GmbH, M¨ unchen 347. Bauer, H. (1991): Wahrscheinlichkeitstheorie. de Gruyter, Berlin 348. Beck-Bornholdt, H.-P., Dubben, H.-H. (2003): Der Hund, der Eier legt. Erkennen von Fehlinformation durch Querdenken. Rowohlt Taschenbuch Verlag GmbH, Reinbek bei Hamburg 349. Beck-Bornholdt, H.-P., Dubben, H.-H. (2003): Der Schein der Weisen. Irrt¨ umer und Fehlurteile im t¨ aglichen Denken. Rowohlt Taschenbuch Verlag GmbH, Reinbek bei Hamburg 350. Bayart, D., Cr´epel, P. (1994): Statistical control of manufacture. In: [394], 1386–1391 ´ 351. Belhoste, B. (2001): The Ecole Polytechnique and mathematics in nineteenthcentury France. In: [356], 15–30 352. B¨ ottcher, M., Gross, H.E., Knauer, U. (1994): Materialien zur Entstehung der mathematischen Berufe. Daten aus Hochschulstatistiken sowie Volks- und Berufsz¨ ahlungen von 1800 bis 1990. Algorismus. Studien zur Geschichte der Mathematik und der Naturwissenschaften (Hrsg. M. Folkerts). Heft 12, Institut f¨ ur Geschichte der Naturwissenschaften, M¨ unchen 353. Bohley, P. (2000): Statistik. Einf¨ uhrendes Lehrbuch f¨ ur Wirtschafts- und Sozialwissenschaftler. 7. Auflage, R. Oldenbourg Verlag, M¨ unchen 354. Bos, H., Mehrtens, H., Schneider, I. (1981): Social History of Nineteenth Century Mathematics. Birkh¨ auser Verlag, Basel 355. Bottazzini, B. (2001): From Paris to Berlin: Contrasted images of nineteenthcentury mathematics. In: [356], 31–47 356. Bottazzini, U., Dahan Dalmedico, A. (editors) (2001): Changing Images in Mathematics. From the French Revolution to the New Millenium. Routledge, London
Literaturverzeichnis
409
357. Bourdieu, P. (1988): Homo academicus. Suhrkamp Verlag, Frankfurt. Deutsche ¨ Ubersetzung der Originalausgabe (1984). Minuit, Paris 358. Bulmer, F. (2003): Francis Galton. The Johns Hopkins University Press, Baltimore 359. Dahan Dalmedico, A. (2001): An image conflict in mathematics after 1945. In: [356], 223–253 360. Dale, A.I. (1991): A History of Inverse Probability. From Thomas Bayes to Karl Pearson. Springer-Verlag, Berlin 361. Dale, A.I. (2003): Most Honourable Remembrance: the Life and Work of Thomas Bayes. Springer-Verlag, Berlin 362. Dauben, J.W. (1994): Mathematics: an historian’s perspective. In: Sasaki, C., Sugiura, M. und Dauben, J.W. (editors) (1994): The Intersection of History and Mathematics. Birkh¨ auser Verlag, Basel, 1–13 363. Dauben, J.W., Scriba, C. (editors) (2002): Writing the History of Mathematics: Its Historical Development. Birkh¨ auser Verlag, Basel 364. Davis, M. (2001): Mathematics of financial markets. In: [375], 361–380 365. Dawid, A.P. (1994): Foundations of probability. In: [394], 1399–1406 366. Dewdney, A.K. (1994): 200 Prozent von nichts. Die geheimen Tricks der Statistik und andere Schwindeleien mit Zahlen. Birkh¨ auser Verlag, Basel 367. Doersch, F. (1959): Psychologisches W¨ orterbuch. (6. Auflage). Gemeinschaftsverlag Richard Meiner, Hamburg, Hans Huber, Bern 368. Doob, J.L. (1994): The development of rigor in mathematical probability theory (1900–1950). In: Pier, J.-P. (editor) (1994): Development of Mathematics 1900–1950. Birkh¨ auser Verlag, Basel, 157–170 369. Duden Etymologie (1989): Herkunftsw¨ orterbuch der deutschen Sprache. 2., v¨ ollig neubearbeitete und erweiterte Auflage von G. Drosdowski. Dudenverlag, Mannheim 370. Durrett, R. (2001): Probability theory. An introduction to its applications. In: [375], 393–405 371. Edwards, A.W.F. (1992): Likelihood. (2. Auflage). The Johns Hopkins University Press, Baltimore, Maryland 372. Edwards, A.W.F. (1994): Probability and statistics in genetics. In: [394], 1357– 1362 373. Edwards, A.W.F. (2002): Pascal’s Arithmetical Triangle. (2. Auflage). The Johns Hopkins University Press, Baltimore, Maryland 374. Ehrenberg, A.S.C. (1986): Statistik oder der Umgang mit Daten. Eine prakti¨ sche Einf¨ uhrung mit Ubungen. VCH, Weinheim 375. Engquist, B., Schmid W. (editors) (2001): Mathematics Unlimited – 2001 and Beyond. Springer-Verlag, Berlin 376. Esenwein-Rothe, I. (1982): Einf¨ uhrung in die Demographie. Bev¨ olkerungsstruktur und Bev¨ olkerungsprozess aus der Sicht der Statistik. Franz Steiner Verlag GmbH, Wiesbaden 377. Farebrother, R.W. (1994): Estimating and testing the standard linear statistical model. In: [394], 1309–1314 378. Farebrother, R.W. (1999): Fitting Linear Relationships. A History of the Calculus of Observations 1750–1900. Springer-Verlag, Berlin 379. Felderer, B., Homburg, S. (2003): Makro¨ okonomik und neue Makro¨ okonomik. 8. Auflage, Springer-Verlag, Berlin 380. Foucault, M. (2003): Die Ordnung des Diskurses. 9. Auflage, Fischer Taschenbuch Verlag, Frankfurt am Main
410
Literaturverzeichnis
381. Gaudill`ere, J.-P. (2001): Beyond one-case statistics: mathematics, medicine, and the management of health and disease in the postwar era. In: [356], 281– 296 382. Gericke, H. (1990): Mathematik im Abendland. Von den r¨ omischen Feldmessern bis zu Descartes. Springer-Verlag, Berlin 383. Gide, C., Rist, C. (1923): Geschichte der volkswirtschaftlichen Lehrmeinungen. Verlag Gustav Fischer, Jena 384. Gigerenzer, G. (1994): Psychology and probability: Two sides of the same coin. In: [394], 1351–1356 ¨ 385. Gigerenzer, G. (2002): Das Einmaleins der Skepsis. Uber den richtigen Umgang mit Zahlen und Risiken. Berlin Verlag 386. Gillies, D.A. (1994): Philosophies of probability. In: [394], 1407–1414 387. Gnedenko, B.V., Sheynin, O.B. (1992): The theory of probability. Kap. 4 in: Kolmogorov, A.N., Yushkevich, A.P. (1992): Mathematics of the 19th century. Birkh¨ auser Verlag, Basel, 211–288 388. Goldstine, H.H. (1972): The Computer from Pascal to von Neumann. Princeton University Press, Princeton, New Jersey 389. Goldstine, H.H. (1977): A History of Numerical Analysis from the 16th through the 19th Century. Springer-Verlag, Berlin 390. Gottwald, S., Ilgauds, H.-J., Schlote, K.-H. (Hrsg.) (1990): Lexikon bedeutender Mathematiker. Bibliographisches Institut, Leipzig. 391. Grattan-Guinness, I. (1990): Does history of science treat of the history of science? The case of mathematics. History of science 28, 149–173 392. Grattan-Guinness, I. (1990): Convolutions in French Mathematics 1800–1840. Volume I: The Settings. VEB Deutscher Verlag der Wissenschaften, Berlin 393. Grattan-Guinness, I. (editor) (1994): Companion Encyclopedia of the History and Philosophy of the Mathematical Sciences. Volume 1, Routledge, London 394. Grattan-Guinness, I. (editor) (1994): Companion Encyclopedia of the History and Philosophy of the Mathematical Sciences. Volume 2, Routledge, London 395. Hall, P. (2001): Statistical science. Evolution, motivation and direction. In: [375], 565–575 396. Harshbarger, B. (1976): History of the early developments of modern statistics in America (1920–1944). In: [216], 131–145 397. Hauser, W. (1997): Die Wurzeln der Wahrscheinlichkeitsrechnung. Die Verbindung von Gl¨ ucksspieltheorie und statistischer Praxis vor Laplace. Franz Steiner Verlag Stuttgart 398. Haussherr, H. (1954): Wirtschaftsgeschichte der Neuzeit (vom Ende des 14. bis zur H¨ ohe des 19. Jahrhunderts). Hermann B¨ ohlaus Nachfolger, Weimar 399. Heyde, C.C. und Seneta, E. (1977): I.J. Bienaym´e. Statistical Theory Anticipated. Springer-Verlag, Berlin 400. Hilgers, R.-D., Bauer, P., Schreiber, V. (2003): Einf¨ uhrung in die Medizinische Statistik. Springer-Verlag, Berlin 401. Ineichen, R. (1996): W¨ urfel und Wahrscheinlichkeit. Stochastisches Denken in der Antike. Spektrum, Akademischer Verlag, Heidelberg 402. Israel, G. (1994): Mathematical economics. In: [394], 1415–1423 403. Issing, O. (1988): Geschichte der National¨ okonomie. (2. Auflage). Verlag Franz Vahlen, M¨ unchen 404. Kaesler, D. (Hrsg.) (2003): Klassiker der Soziologie. Band 1: Von Auguste Comte bis Norbert Elias. 4. Auflage, Verlag C.H. Beck, M¨ unchen
Literaturverzeichnis
411
405. Kennedy, G. (1985): Einladung zur Statistik. Campus Verlag, Frankfurt/Main 406. Klein, S. (2004): Alles Zufall. Die Kraft, die unser Leben bestimmt. Rowohlt Verlag GmbH, Reinbek bei Hamburg 407. Kl¨ uppelberg, C. (2001): Developments in insurance mathematics. In: [375], 703–722 408. Knobloch, E. (1994): Combinatorial probability. In: [394], 1286–1292 409. K¨ onig, R. (Hrsg.) (1967): Das Fischer Lexikon Soziologie. Fischer-B¨ ucherei GmbH, Frankfurt am Main 410. Kr¨ amer, W. (1992): So l¨ ugt man mit Statistik. 4. Auflage, Campus Verlag, Frankfurt 411. Kromphardt, J. (1993): Wachstum und Konjunktur. Grundlagen der Erkl¨ arung und Steuerung des Wachstumsprozesses. 3. Auflage, Vandenhoeck Ruprecht, G¨ ottingen 412. Leibniz, G.W. (1705): Nouveaux essais sur l’entendement humain. Im Manu¨ skript vollendet um 1705. Deutsche Ubersetzung unter dem Titel Neue Abhandlungen u ber den menschlichen Verstand. Neuausgabe als Band 498 der ¨ Philosophischen Bibliothek, Felix Meiner Verlag, Hamburg, 1996. (1. Auflage 1873, als Band 56 der Philosophischen Bibliothek). 413. Lewin, C.G. (1994): Actuarial mathematics. In: [394], 1303–1308 414. Loeffel, H. (1987): Blaise Pascal. Birkh¨ auser Verlag, Basel 415. Lo`eve, M. (1985): Wahrscheinlichkeitsrechnung. Kapitel 12 in: Dieudonn´e, J. (Hrsg.) (1985): Geschichte der Mathematik 1700–1900. VEB Deutscher Verlag der Wissenschaften, Berlin 416. Mahner, M. und Bunge, M. (2000): Philosophische Grundlagen der Biologie. Springer-Verlag, Berlin 417. Maistrov, L.E. (1974): Probability theory – a historical sketch. Academic Press, New York 418. M¨ uller U. et al. (Hrsg.) (2000): Handbuch der Demographie. Bd. 1 und 2, Springer-Verlag, Berlin 419. Neyman, J. (1976): The emergence of mathematical statistics. A historical sketch with particular reference to the United States. In: [216], 147–193 420. N. Osman (Hrsg.) (2002): Kleines Lexikon deutscher W¨ orter arabischer Herkunft. (6. Auflage). Verlag C.H. Beck, M¨ unchen 421. Porter, T.M. (1994): The English biometric tradition. In: [394], 1335–1340 422. Porter, T.M. (1994): Probability, statistics and the social sciences. In: [394], 1341–1350 423. Porter, T.M. (1994): The social organization of probability and statistics. In: [394], 1392–1398 424. Reid, C. (1982): Neyman – from life. Springer-Verlag, Berlin 425. Reiß, W. (1990): Mikro¨ okonomische Theorie. Historisch fundierte Einf¨ uhrung. R. Oldenbourg Verlag, M¨ unchen 426. R´enyi, A. (1969): Briefe u ¨ber die Wahrscheinlichkeit. VEB Deutscher Verlag der Wissenschaften, Berlin 427. Riedl, R. (2000): Strukturen der Komplexit¨ at. Eine Morphologie des Erkennens und Erkl¨ arens. Springer-Verlag, Berlin 428. Rinne, H. (1996): Wirtschafts- und Bev¨ olkerungsstatistik. (2. Auflage). R. Oldenbourg Verlag, M¨ unchen 429. Rose, M.R. (2003): Darwins Welt. Von Forschern, Finken und der Evolution. Piper, M¨ unchen
412
Literaturverzeichnis
430. Rosser-Matthews, J. (1994): Probability and statistics in medicine. In: [394], 1371–1376 431. Roth, E. (Hrsg.) (1989): Sozialwissenschaftliche Methoden. Lehr- und Handbuch f¨ ur Forschung und Praxis. R. Oldenbourg Verlag, M¨ unchen 432. Sachs, L. (2002): Angewandte Statistik. Anwendung statistischer Methoden. 10. Auflage, Springer-Verlag, Berlin 433. Schneider, I. (Hrsg.) (1989): Die Entwicklung der Wahrscheinlichkeitsrechnung von den Anf¨ angen bis 1933. Einf¨ uhrungen und Texte. Akademie-Verlag, Berlin 434. Schnell, R., Hill, P.B., Esser, E. (1999): Methoden der empirischen Sozialforschung. 6. Auflage, R. Oldenbourg Verlag, M¨ unchen 435. Schwibs, B. (1988): Erl¨ auterungen zum franz¨ osischen Hochschulsystem. In: Bourdieu (1988) [357], 437–455 436. Seneta, E. (1994): Russian probability and statistics before Kolmogorov. In: [394], 1325–1334 437. Shafer, G. (1994): The early development of mathematical probability. In: [394], 1293–1302 438. Sheynin, O.B. (1974): On the prehistory of the theory of probability. Arch. Hist. Exact Sci. 12, 97–141 439. Sheynin, O.B. (1982): On the history of medical statistics. Arch. Hist. Exact Sci. 26, 241–286 440. Sheynin, O.B. (1994): Theory of errors. In: [394], 1315–1324 441. Sokal, A., Bricmont, J. (1999): Eleganter Unsinn. Wie die Denker der Postmoderne die Wissenschaften mißbrauchen. Deutscher Taschenbuch Verlag M¨ unchen 442. S¨ ollner, F. (2001): Die Geschichte des ¨ okonomischen Denkens. 2. Auflage, Springer-Verlag, Berlin 443. Swijtink, Z.G. (1994): Probability and statistics in agronomy. In: [394], 1363– 1370 444. Swijtink, Z.G. (1994): Probability and statistics in mechanics. In: [394], 1377– 1385 445. Sz´ekely, G.J. (1986): Paradoxes in Probability Theory and Mathematical Statistics. Akad´emiai Kiad´ o, Budapest 446. Tarassow, L. (1993): Wie der Zufall will? Spektrum Akademischer Verlag, Heidelberg 447. Tichy, G. (1994): Konjunktur. Stilisierte Fakten, Theorie, Prognose. 2. Auflage, Springer-Verlag, Berlin 448. Todhunter, I. (1865): A history of the mathematical theory of probability from the time of Pascal to that of Laplace. Macmillan, London. Reprint: Chelsea New York 1949, 1965; Thoemmes, Bristol, 1993 449. Wagemann, E. (1950): Narrenspiegel der Statistik. Die Umrisse eines statistischen Weltbildes. Leo Lehnen Verlag GmbH, M¨ unchen 450. Weil, A. (1991): Souvenirs d’apprentissage. Birkh¨ auser Verlag, Basel 451. Willers, A. (1951): Mathematische Maschinen und Instrumente. AkademieVerlag, Berlin 452. Worobjow, N.N. (1975): Entwicklung der Spieltheorie. VEB Deutscher Verlag der Wissenschaften, Berlin 453. Ziegler, R. (1972): Theorie und Modell. Der Beitrag der Formalisierung zur soziologischen Theoriebildung. R. Oldenbourg Verlag, M¨ unchen
Namensverzeichnis
Abrams P. 193, 194, 247 Achenwall G. 23, 30 Adanson M. 269 Affichard J. 17 Aldrich J. 344 Alexis C. von 181 Allais M. 184, 353 Amador R. d’ 94–96, 98, 115, 307 Anderson M. 15, 17, 212, 214, 215, 218, 230, 231, 375, 376 Apollo 87 Arbuthnot J. 85, 86 Armatte M. 15, 17, 35, 70, 180, 264, 329, 378, 379, 381 Arnauld A. 64 Babbage C. 174 Bales K. 233 Balinski M. 213 Barbut M. 17 Bardet F. 377 Bar`eme F. 39 Baron L¨ oringhoff F. v. 64 Bateman B.W. 333, 334, 336 Baverez N. 80, 284 Bayart D. 17, 326 Bayes T. 9, 51, 64–69, 74, 89, 101, 104, 318, 321 Beaud J.-P. 376 Bennett G. 214 Benz´ecri J.P. 15, 63, 119, 264, 265, 300, 382, 384 Berkeley G. 68 Berlivet L. 377
Bernard C. 94–96, 98, 183 Bernoulli D. 62, 63 Bernoulli Jakob 9, 65, 76, 78, 318 Bernoulli N. 60, 62, 63 Bertillon Ad. 87, 109, 152, 172, 178, 182, 265, 302, 304, 307 Bertillon Al. 142, 172 Bertillon J. 172, 173, 182, 302, 304, 307 Besnard P. 273 Bichelonne J. 179 Bienaym´e J. 78, 101–103, 115, 131, 132 Binet A. 128 Bismarck O. von 202, 204, 205, 301 Bloch M. 184 Blondel M. 177 Blondiaux L. 376, 381 Bloor D. 6 Blum A. 376 Bodio L. 255 Boiteux M. 352 Boltanski L. 17, 184, 269, 289, 296, 373 Boltzmann L. 319 Bonaparte L. 40 Boole G. 123, 195 Booth C. 128–131, 157, 160, 195, 196, 238, 245, 247–250, 284, 285, 287, 288, 290, 349 Borel E. 176–178, 313 Bortkiewicz L. von 256 Boscovich (Boˇscovi´c) R.J. 72, 73 Bottin S. 39 Bougl´e C. 184 Bourbaki N. 383
414
Namensverzeichnis
Bourdelais P. 96 Bourdieu P. 17, 61, 123, 272, 300, 386 Bourguet M.N. 15, 17, 21, 23, 30, 33, 34, 47, 293 Bouveresse J. 209 Bowley A. 173, 185, 186, 192, 196, 197, 227, 235, 247, 249, 250, 252, 256, 287, 315, 348–351, 357 Box G. 321 Bravais A. 137, 144 Brian E. 15, 91, 181, 378, 379 Bricmont J. 379 Bru B. 17, 29 Buckle H. 208 Buffon G.-L. de 266–271, 293 Bulmer M. 17, 233 Bungener M. 184, 353 Bunle H. 120, 180, 182, 315 Burns A. 354 Burt C. 163, 164 Caesar C.I. 60, 258 Callens S. 17 Callon M. 6, 17, 42, 143 Campion H. 192 Carmille R. 177 Carnap A. 51 Carnegie A. 233 Chaptal J. 39, 40, 46–48, 279, 293 Chateauraynaud F. 308 Chevalier de M´er´e 55, 56 Chevalier M. 172 Cheysson E. 139–141, 172, 178, 182, 239–242, 254, 352 Christ C.F. 341, 353 Cicourel A. 97 Clark C. 348, 350, 351 Cl´ementel E. 179 Clero J.P. 67, 68 Colbert J.B. 31, 278, 279 Colson C. 352 Comte A. 64, 90, 247 Condorcet M.J.A. 33, 42, 51, 62, 90, 100, 103, 104 Conring H. 23, 30, 32 Converse J. 233 Coquebert de Montbret C. 43, 46 Cot A. 17 Coumet E. 17, 52–56, 58
Cournot A. 78, 90, 103–108, 115, 117, 183, 302, 319, 338 Coutrot J. 184 Cowles A. 184, 352 Cramer G. 62 Crombie A. 340 Cuvier G. 267, 271 Darmois G. 177, 178, 184, 351 Darwin C. 76, 89, 110, 118, 121, 127, 130, 145, 147, 271 Daston L. 15, 17, 58, 59, 62, 377 Davenant C. 27, 28, 30 Day E. 227 De G´erando J.M. 42 Dedrick C. 227, 228 Delaporte F. 96 Desrosi`eres A. 176, 177, 269, 293, 300, 316, 360, 370, 381, 384 Dickens C. 194 Didier E. 376 Didot F. 39 Divisia F. 185, 193, 351 Dodier N. 17, 308, 373, 382, 385–387 Doggett T. 192 Donnant D.F. 23, 40 Dormoy E. 107 Droesbeke J.J. 17 Drouard A. 181 Dug´e de Bernonville L. 120, 182, 236 Dumont L. 49, 81, 111, 114, 237, 259–261 Duncan J. 15, 212, 233 Dupaquier J. 21, 27, 28 Dupoirier E. 381 Dupont de Nemours P. 34 Dupuit J. 352 Durkheim E. 2, 49, 78, 86, 90, 92, 108– 115, 139–141, 174, 176, 178, 209, 237, 239, 243, 245, 264, 271–273, 308, 359, 373 Duvillard E. 40, 42–45 Eco U. 79 Edgeworth F. 144–149, 153–155, 159, 163, 173, 319, 338 Elias N. 49 Engel E. 201–206, 210, 255, 276 Epstein R. 16, 340, 346, 347
Namensverzeichnis Espine M. d’ 303, 304 Etner F. 352 Ewald F. 17, 93, 283 Eymard-Duvernay F. 17, 259 Fagot-Largeault A. 17, 69, 302, 304, 306, 307, 309 Farr W. 187–189, 202, 276, 303, 304, 307 F´enelon F. 31, 32 Ferri`ere A. de 40, 42, 43 Fienberg S.E. 376, 384 Finance I. 174 Finetti B. de 52, 322 Fisher I. 156, 185, 351, 352 Fisher R. 14, 91, 108, 142–144, 148, 183, 238, 319–321, 323, 325, 338, 340 Fogel R.W. 382 Fontaine A. 174, 176 Ford H. 233 Foucault M. 264, 266–269, 377, 380 Fouquet A. 17 Fourquet F. 15, 17, 370 Fox K. 317 Franz von Assisi 81 Fr´echet M. 178, 243 Friedrich der Große 204, 205 Frisch R. 156, 185, 324, 326–329, 331, 333, 336, 342–344, 346, 351, 352 Galen 33 Gallup G. 227, 229 Galton F. 16, 50, 71, 76, 103, 109, 117, 118, 124, 126–143, 145–147, 149–154, 157, 160, 163, 164, 172, 180, 188, 191, 239, 244, 254, 271, 288, 365, 387 Garcia E. 18 Gauß C.F. 71, 73, 74, 78, 86, 91, 109, 144, 317 Geddes P. 182 Gibrat R. 185, 352 Giffen R. 159 Gigerenzer G. 15, 17, 52, 119, 313, 321, 323 Gille B. 38, 46, 170, 171 Gini C. 252, 257, 260 Ginzburg C. 360
415
Gollac M. 17, 300, 383 Goody J. 24 Gosset W.S. 319–321 Gott 145 Gould S.J. 131, 162 Graunt J. 22, 26–28, 30, 82 Grohmann 208 Gruner E. 177 Gruson C. 179, 185, 360, 361, 368 Guibert B. 278, 280, 282 Guillard A. 302, 304 Haavelmo T. 184, 340, 342–346, 352, 353 Haberler G. 332 Hacking I. 8, 15, 17, 51, 75, 100, 200, 204, 323, 340, 375, 378–380 Halbwachs M. 110, 176–178, 182, 184, 210, 236, 238, 239, 241, 243–246, 248, 249, 259, 315, 359 Hald A. 375, 384 Haldane J. 148 Hamilton W. 123 Hamilton W.R. 123 Hamilton-Dickson J.D. 137 Hansen M.J. 227, 236 Harding W. 216, 223 Hartley D. 61 Hecht J. 21, 23, 28, 200 Heidelberger M. 15 Heisenberg W. 183, 320 Helper H. 214 Hendry D. 383 Hennock E.P. 129, 195, 247, 249, 285 Henry D. 377 H´eran F. 12, 17, 61 Heron D. 162 Herr L. 174 Herrnstein R. 387 Herschel J. 319 Hill J. 217 Hippokrates (von Chios) 32 Hippokrates (von Kos) 32, 89 Hitler 205 hl. Augustin 53 hl. Franz von Sales 54 Hoffmann 201 Hollerith H. 174, 180, 220, 281 Hoock J. 23, 24
416
Namensverzeichnis
Hooker R.H. 315 Hoover H. 217, 223–225, 232, 233 Hopwood A. 377 Huber M. 174, 177, 178, 305 Hume D. 61, 68 Humi`eres D. d’ 18 Huygens C. 19, 22, 28, 83, 85 Huygens L. 83 Jarvis E. 215 Jefferson T. 213 Jensen A. 251, 252, 257, 258, 260 Jevons S. 324, 326, 327 Jo¨el M.E. 184, 353 John V. 25 Jorland G. 62 Juglar C. 324, 339 Jurdant B. 380 Kalaora B. 182, 294 Kang Z. 169 Kendall M. 66, 143, 150, 356, 384 Kennessey Z. 377 Kepler J. 354, 355 Kersseboom W. 28 Keufer A. 174 Keverberg A. 99, 100, 105, 235, 317 Keynes J.M. 52, 98, 179, 319, 322, 333–336, 338, 348, 350, 351, 368, 371 Kiaer A.N. 227, 235, 240, 251–257, 260 King G. 348 Klein J. 377 Klein L. 346, 347 Knapp G.F. 256 Kocka J. 301 Kolmogorow A.N. 69, 183, 318 Koopmans T. 313, 320, 346, 347, 353–357 Kramarz F. 18, 296 Kr¨ uger L. 15 Kruskal W. 252 Kuisel R. 176, 179 Kuznets S. 348–350 Labrousse E. 46, 359 Ladri`ere P. 360 Laganier J. 278, 280, 282 Lamarck J.B. 271
Laplace P.S. 11, 22, 29, 33, 64, 65, 67, 71, 73, 74, 78, 89–91, 99, 100, 103–105, 183, 235, 302, 317, 318, 340 Largeault J. 79 Latour B. 6, 17, 20, 24, 377 Lavoisier A.L. 42 Lawson T. 339 Lazarsfeld P. 21, 23, 24 Le Bras H. 178 Le Goff J. 54 Le Play F. 90, 139, 170, 172, 175, 182, 236, 238–241, 245, 246, 248, 259, 281, 294 Lebesgue H. 313 L´ecuyer B. 15, 17, 32, 94, 96, 181 Legendre A.M. 70, 71, 73, 76, 144 Legoyt A. 170, 172 Lehfeldt R. 353 Leibniz G.W. 57, 58, 60, 260, 262 Lenoir M. 120, 180, 183–185, 313, 316, 320, 338, 353, 357 Levasseur E. 172, 178, 182 L´evy M. 178 Lexis W. 78, 102, 106–108, 115, 117, 131, 142, 163, 256, 314, 337, 338 Lie E. 376 Liesse A. 177 Linn´e C. 80, 266–271, 293, 307 Livi R. 109 Lloyd B.B. 269 Locke J. 61 Lottin J. 92 Louis P. 94–96, 98, 307 Luciani J. 174 Mac Kenzie D. 17, 117, 130, 143, 144, 160, 161 Mach E. 118, 121, 124, 127, 149, 339 Magaud J. 17 Mairesse J. 16, 177 Malinvaud E. 184, 351, 353, 370 Mansfield M. 192, 284 March L. 120, 137, 149, 169, 173–182, 185, 202, 252, 261, 315, 316, 320, 357 Marchand 386 Marietti P. 39 Marks H. 381
Namensverzeichnis Maroussem P. du 175, 182 Marpsat M. 17 Marschak J. 346, 347 Marshall A. 183, 314, 353 Martin O. 381 Marx K. 90, 237 Mass´e P. 179, 352 Mauss M. 264, 271–273, 373 Maxwell J. 319 Mayer T. 72, 73 Mazodier P. 17 M´enard C. 183, 314 M´eraud J. 352 Merlli´e D. 273 Merton R. 5 Mespoulet M. 376 Metz K. 192 Meusnier N. 65 Mill J.S. 190, 195 Miller P. 377 Millerand A. 174, 176, 177 Mills F. 227 Mirowski P. 183, 320, 354 Mitchell W. 222, 315, 324, 326, 329, 339, 348, 349, 352, 354 Moivre A. de 65, 66, 76, 86, 318 Mols R. 27 Monmort P.R. de 62 Monnet J. 177, 179 Montesquieu 114 Montyon J.B.A. 32, 181 Moore H. 180, 184, 313, 315–317, 324, 326, 327, 352, 353, 357 Moreau de Jonn`es A. 96–98, 100, 105, 115, 169, 170, 201, 266 Morgan A. de 123, 195 Morgan M. 15–17, 180, 184, 233, 313, 324, 327, 330, 333, 375, 377, 383 Morgenstern O. 383 Morrisson C. 177 Mosteller F. 252, 384 Mr. Gradgrind 194 Murphy T. 94 Murray C. 385, 387 Murray D.J. 52, 119, 321 Musgrave R. 349 Musil R. VI, 209 Napoleon
46, 200
417
Neufchˆ ateau F. de 38, 39 Newton I. 73, 354, 355 Neyman J. 108, 142, 183, 227, 235, 251, 252, 257, 258, 260, 313, 319, 321, 323, 339, 356 Nicole P. 65 Nisbet R. 90, 237 North D.C. 382 Norton B. 143 O’Muircheartaigh C. 260 Ockham W. von 78–81, 83, 98, 114, 121, 123 Ozouf Marignier M.V. 37 Painlev´e P. 176 Parent-Duchatelet A. 94 Pareto A. 237, 352 Parodi A. 296, 368 Parodi J.-L. 381 Pascal B. 19, 55–57, 59, 65 Passy H. 172 Pasteur L. 304 Patinkin D. 333, 335, 348, 351 Patriarca S. 376 Paty M. 121 Paul 62 Pearson E. 66, 108, 119, 142, 143, 148, 183, 227, 313, 321, 323, 339, 356 Pearson K. 8, 14, 16, 50, 71, 76, 86, 91, 98, 103, 108, 117–127, 142–156, 160–164, 166, 178, 180, 197, 210, 239, 242, 244, 254, 271, 284, 313, 320, 321, 333, 334, 336, 337, 339, 365 Perrot J.C. 15, 17, 21, 43, 82, 83, 278, 359 Perrot M. 17, 175, 275 Perroux F. 193 Persons W. 352 Peter 62 Petty W. 27, 28, 30, 348 Peuchet J. 40–42, 44, 45 Piaget J. 264 Piquemal J. 95 Plackett R.L. 73 Planck M. 320 Poisson S.D. 62, 78, 89, 90, 100–103, 115, 131, 132, 256, 302
418
Namensverzeichnis
Polanyi K. 157, 187, 237 Pollak M. 5, 17, 207 Popkin R. 59 Popper K. 121, 332 Porte J. 296 Porter T. 15, 17, 86, 107, 319, 375, 378, 379 Pr´evost J.-G. 376 Pringsheim A. 62 Pyrrhon 58
Ramsay F.P. 322 Raulot J.Y. 96 Reinhart M. 43 Reynaud B. 80, 184, 284 Richelieu 31 Ries A. 39 Rist C. 184 Rockefeller J.D. 233 Roosevelt F.D. 217, 225, 228, 229, 366 Rosch E. 264, 269 Rosser Matthews J. 378, 385 Rossiter W. 217 Rousseau J.J. 92, 114, 115 Rowntree S. 196, 238, 247–250, 287, 349 Roy R. 184, 351 Rueff J. 184, 185
Schiller J. 95 Schl¨ ozer L. 23, 24, 30, 40 Schnapper-Arndt G. 182 Schnuse C.H. 104 Schultz J. 180 Schumpeter J. 28, 34, 79, 351 Schweber L. 380, 385, 386 Seng Y.P. 236, 252 Serverin E. 275 Sewell W. 48, 293 Shafer G. 318 Shelton W. 15, 212, 233 Siey`es E.J 37 Simiand F. 46, 174, 176–178, 184, 315, 359 Simon T. 128 Simpson T. 74 Sims C. 353 Sklar K. 233 Slutsky E. 324, 325, 327 S¨ ollner F. 208, 317 Sokal A. 379 Spearman C. 128, 131, 156, 163, 164, 242, 288 Spenlehauer V. 377 Sraffa P. 351 Stamp J. 351 Stanziani A. 376 Stephan F. 227 Stigler S. 7, 15–17, 67, 71, 73, 100, 109, 143–145, 152–155, 313, 375, 384 Stirling J. 65 Stockmann E. 203 Stone R. 192, 351 Stouffer S. 227 Student 319, 320 S¨ ussmilch J.P. 85, 86, 200 Sutter J. 291 Szreter S. 15, 17, 187, 189–191, 290, 376, 378
Saenger K. 200, 204–206 Salais R. 17, 80, 174, 284 Samuelson P. 328 Sangolt L. 376 Sauvy A. 177–179, 184, 352 Savage L.J. 52, 322 Savoye A. 175, 182, 294 Say J.B. 183
Tassi P. 17 Teller E. 347 Terray J.M. 32 Th´elot 386 Th´evenot L. 10, 17, 126, 181, 269, 289, 291, 293 Thomas A. 174, 176, 177, 179, 222 Thurstone L. 156, 163, 164
Quesnay F. 34, 35 Quetelet A. 8, 11, 13, 14, 16, 32, 49, 74, 76, 78, 80, 82, 85–92, 94, 97–100, 102, 103, 105–112, 114, 115, 117, 119, 126–131, 133, 139, 141, 142, 146, 149, 151–153, 162, 163, 166, 173, 176, 188, 189, 208, 209, 235–239, 242–247, 252, 254, 259, 264, 265, 303, 315, 317–319, 337, 338, 343, 344, 359, 364, 365, 373
Namensverzeichnis Tinbergen J. 185, 320, 326, 328–338, 343, 351 Tocqueville A. de 30, 90, 237 T¨ onnies F. 49, 237, 261 Tolosan J.F. de 279, 281, 293 Topalov C. 285 Turgot A.R.J. 33 Ullmo J.
184, 185
Val´ery P. 184 Vanoli A. 377 Vauban S. 31, 78, 82–84, 87, 88 Venn J. 123, 195 Vicq d’Azyr F. 33 Vignaux P. 79 Villerm´e L. 94, 97, 98, 171, 172 Villey M. 79, 80 Vining R. 313, 347, 353–357 Volle M. 15, 17, 177, 278, 280, 282 Vries W. de 377 Wagner R. 224 Wald A. 346 Walker F.A. 219, 220
419
Walras L. 183, 314, 352 Ward R. 192 Weber M. 207, 208, 210, 250 Weil A. 383 Weldon R. 144, 145, 147–149, 152–155 Westergaard H.L. 21 Wicksell K. 327 Wilkins J. 60 Willms-Herget A. 203 Wilson W. 216, 222 Witt J. de 28 Wold H. 353 Wong T. 260 Woolf S. 36, 46 Working E.J. 180, 353 Wundt W. 242 Young H.P. 213 Yule U. 8, 120, 144, 145, 149–152, 156–162, 173, 182, 192, 196, 197, 215, 284, 285, 315, 320, 324, 325, 337, 338, 356, 357 Zucker-Rouvillois E.
17, 148
Stichwortverzeichnis
A-posteriori-Wahrscheinlichkeit 104 A-priori-Gesetz 261 A-posteriori-Wahrscheinlichkeit 9, 52 A-priori-Modellbildungen 340 A-priori-Wahrscheinlichkeit 9, 52, 67–69, 319, 322 Abf¨ uhrmittel 94 Abstammung 259 Ad-hoc-Argumentation 113 Ad-hoc-Konstruktionen 155 Ad-hoc-Technik 170 Ad-hoc-L¨ osung 72 Aderlaß 94 Adunation 37, 38, 47 ¨ Aquivalenz 7, 12, 24, 36, 43, 46, 49, 52, 56, 70, 78, 84, 94, 209, 259–261, 263, 276, 285, 297, 306, 308, 316, 322, 335, 336, 362, 365, 367, 369, 373, 374 ¨ Aquivalenzklasse 2, 9, 10, 24, 54, 68, 70, 74, 89, 98, 102, 105, 128, 160, 162, 264, 266, 274, 277, 279, 288, 303, 305, 341, 372 ¨ Aquivalenzkonvention 14, 124, 161, 275, 336, 361, 385 ¨ Aquivalenzraum 12, 15, 25, 29, 232, 247, 267, 315, 361, 362, 368 ¨ Atiologie 189 atiologisches Prinzip 303 ¨ Aggregat 78, 98, 114, 115, 299 Aggregatrealismus 106 Agnostizismus 126 Aids-Epidemie 94
akzidentielle Ursache 89 Alchimie 126, 364 aleatorischer Vertrag 55, 58, 59, 63 Algebra 40, 44 Algebra des Menschen 33 Algebraiker 41, 42, 45 algebraische Kunstgriffe 33 Algorithmus 307–309 Alkoholismus 94, 334, 377 allgemeine Intelligenz 128, 131, 163 allgemeiner Intelligenzfaktor 288 allgemeiner Wille 114, 115 als ob 2, 13, 339, 342 American Economic Association 221 American Statistical Association 221 amtliche Statistik 19, 166–168, 170, 196, 242 Ancien R´egime 21, 30, 31, 35, 39, 241, 298 Angebots- und Nachfragekurven 180, 183, 316 Angestellter 301 anstaltsinterne Unterst¨ utzung 150 Anthropologie 138, 271 anthropologische Rekonstruktion 4 Anthropometrie 172 Antirealismus 339 antirealistisch 3 apportionment 211, 214 apportionment of a tax 211 apportionment of representatives 211 Arbeiter 301 Arbeiterbewegung 48
422
Stichwortverzeichnis
Arbeiterbewußtsein 239, 245, 259 Arbeiterhaushalt 176 Arbeiterklasse 203, 246, 247, 294 Arbeitgeberverb¨ ande 298 Arbeitnehmerschaft 292 Arbeitsh¨ auser 150, 186 Arbeitslosenquote 80, 126 Arbeitslosenzahl 369 Arbeitslosigkeit 1, 159, 161, 168, 176, 180, 186, 193, 212, 214, 222–225, 228, 232, 263, 277, 283, 284, 289, 367 Arbeitsrecht 283 Arbeitsvermittlungsb¨ uro 191 argumentative Grammatik 113 aristotelische Logik 23 arithmetisches Mittel 87 Armengesetz 129, 284 Armenkasse 156 Armut 1, 8, 186, 192, 193, 214, 247, 248, 252, 263, 283, 289, 367 Armutsgel¨ ubde 81 Arrondissement 280 Artefakt 20 au bout du compte 83 Ausbildung 193 Auto 344 Auto und Autonomie 345 autonom 344 Autonomie 345, 346 axiomatische Wahrscheinlichkeitstheorie 183 baccalaur´eat 383 Bakteriologie 304 bar`eme 39 Bauernverb¨ ande 298 Baumwollentk¨ ornungsmaschinen 220 Baumwollpreise 220 Bayesianer 322 Bayesianismus 52, 70 Bayessche Inferenz 68 Bayessche Statistik 318 Bayessches Verfahren 52 Beamtenschaft 166 Beamter 200, 301 bedingte Wahrscheinlichkeit 67 Beobachtungsfehler 33 Berufe 302
Berufsrisiko 283 Berufsverb¨ ande 298 Berufsz¨ ahlung 205 Betriebsz¨ ahlung 205 Bev¨ olkerungsbewegung 169, 170, 201, 207 Bev¨ olkerungsmultiplikator 28, 29, 33 Bev¨ olkerungssch¨ atzung 11 Bev¨ olkerungsstatistik 181, 187, 205, 212 Bev¨ olkerungswachstum 211 Beweis 142 bewußte Auswahl 236, 238, 242, 251, 257, 260, 326 Bias 238 Billardtisch 68 Billigkeit 52 Binomialverteilung 86, 87, 91, 99, 107, 135 Bio-Macht 380 Biometrie 17, 118, 127, 147, 148, 156, 160, 173, 184, 186, 191, 284, 311, 315, 320, 357, 365, 366, 382 Biometrika 161 Biometriker 365 birthright 231 Black Box 197, 289, 322, 342, 363 Board of Trade 167, 187, 192, 249 B¨ orsenkrach 223, 224 bonapartistische Tendenzen 187 Boolesche Algebra 195 Bootstrap-Verfahren 262 bottin 39 Brain Trust 222 Branchentarifvertrag 296 Bravais-Pearson-Koeffizient 137 British Association for the Advancement of Sciences 138 Brookings Institution 221 brumaire 38 Bruttoinlandsprodukt 369 Bruttosozialprodukt 349 Budget Office 218 Bundesl¨ ander 199 Bureau d’arithm´etique politique 42 Bureau de statistique de la R´epublique 40 Bureau f¨ ur allgemeine Statistik 21 Bureau f¨ ur Verwaltungsstatistik 97
Stichwortverzeichnis Bureau of Labor Statistics 226 Bureau of the Census 168, 315, 376 Burgunder 109 Business Statistical Office 192 cadres 296–299, 301 cadres salari´es 299 calcul des ˆ ages 83 Carnegie Foundation 221 causa efficiens (effektive Ursache) 23 causa finalis (Finalursache) 23 causa formalis (formale Ursache) 23 causa materialis (materiale Ursache) 23 Census Bureau 175, 213, 216, 217, 219–221, 224, 226, 232 Census Office 221 Census-Verwaltung 213 Central Statistical Office 186, 187, 192 Central Thinking Office of Statistics 197 Centre nationale de la recherche scientifique 178 Centre polytechnicien d’´etudes ´economiques 184 Ceteris-paribus-Klausel 317, 338, 345 Chance 66 Chaostheorie 209 Chi-Quadrat-Test 118 Chicagoer Schule 210 Cholera 96–98, 103, 170 Cholera-Epidemie 94 Choleravibrio 93, 96 civic worth 129, 288, 290, 292 classicompteur-imprimeur 174 Co-Relationen 142 Co-Variation 137 coenesthesischer Zustand 112 comfortable working class 286 Committee on Government Statistics and Information Services 227 Computer 173, 212, 366 Conseil national ´economique 177 Conseil sup´erieur de la statistique 172, 173 Conseil sup´erieur du travail 176 Cowles Commission 184, 313, 340, 346, 347, 351, 353–355
423
Darwinismus 366 Daten 2, 113, 141, 147, 152, 154, 171, 179, 192, 195, 211, 214, 219, 242, 256, 275, 276, 321, 323, 329–331, 337, 338, 344, 352, 355, 382, 383 Datenanalyse 196 Datensammlung 248 Datenverarbeitung 174 Debatte 1, 2, 5, 12, 14, 92, 94, 96, 144, 160, 168, 193, 197, 199, 208, 209, 211–215, 225, 230, 247, 248, 252, 256, 266, 270, 281, 292, 305, 306, 313, 322, 336, 361, 366, 368–371 Debatte u aten der ¨ber die Modalit¨ Debatte 361 Debattenraum 365, 367, 369 Debattenrhetorik 365 Debattierbarkeitsniveau 361 Dekonstruktion 379 Demographie 167, 168, 181, 200, 201, 381 Denunziation 1 deontologisches Prinzip 306 Departement 29, 36–39, 75, 105, 109, 181, 247, 259, 280 Department of Commerce and Labor 220 Der Name der Rose 79 deskriptiv 7, 9 deskriptive Statistik 21, 24 Determinismus 92, 93, 123, 209 Determinismusfrage 319 Deutsches Statistisches Reichsamt 200 Deviat 139 Dezil 141 Diagnose 69 Die Dinge des Lebens 115 Die Entstehung der Arten 145 Die Ordnung der Dinge 266 Differentialgleichung 324 Differenzengleichung 324 dˆıme royale 31 Diskontinuit¨ at 266, 270, 277, 300 Diversit¨ at 243–245, 314 double quincunx 134 Drei-F¨ unftel-Regel 213 Dritte Republik 281, 284, 297 Dritter Stand 47, 48
424
Stichwortverzeichnis
Durchschnittsmensch 8, 11, 74, 77, 83, 84, 86–88, 90, 91, 93, 102, 107–109, 111, 112, 127, 133, 163, 176, 208, 209, 242, 252, 265, 302, 315, 318, 343, 344, 365, 387 Durchschnittstyp 109, 110, 112, 114, 140 Durkheimianer 246, 247 Durkheimsche Soziologie 78, 109 Econometric Society 351 Econometrica 352 Eignungstest 163 eindimensionale Hierarchie 164 eindimensionale Kategorisierung 288 eingipflige Verteilung 109 Einwanderer 215 Einwanderung 214–216 Einwanderungsgesetz 217 Einwanderungsquoten 217 Einwanderungswellen 211 Eisenbahn 367 Elastizit¨ atsrelation 202 eleven plus 163 Ellipse 133, 137, 141 Empire 41, 42, 45 employ´e 301 employ´es, techniciens et agents de maˆıtrise 296 endokrine Sekretion 304 Engelsches Gesetz 202, 210 englisch-¨ okonomistischer Individualismus 209 englischer Wirtschaftsliberalismus 237 Enquete 29, 30, 195 entangled moduli 146 Environmentalismus 150, 290 Environmentalisten 290, 292 Epidemie 94, 96, 171, 188 Epidemiologie 190, 275, 364 epistemisch 13, 89, 364 epistemische Wahrscheinlichkeit 8 Epistemismus 5 epistemologische Revolution 125 equal proportions 214 Erbgut 128 Erbsen-Experiment 131, 133, 135, 141 Erdellipsoid 73 Erstes Kaiserreich 30
Erwartungswert 52, 56, 57 Erwerbsperson 230 es gibt 4, 372 ethnische Gruppe 109 Ethnologie 242 Eugenik 103, 118, 127, 130, 145–150, 164, 180, 191, 230, 284 Eugeniker 71, 124, 133, 141, 143, 150, 190, 191, 254, 288, 290–293, 365, 366 Eug´enique et s´election 180 Eulersche Zahl 65 Evolution 121, 147 executive 299 Exhaustivit¨ at 196, 247, 249, 252 Experimentalwissenschaft 193 experimentelle Medizin 94 extensive Methode 243 Exteriorisierung 126 Exteriorit¨ at 26, 34, 89, 289 Externalismus 143, 378 externalistisch 5, 17, 144, 263, 376, 378 Facharbeiter 294 F¨ ahigkeiten 140 Fairness 52, 55, 59, 63 fait social 2 Fakten ohne Meinung 194 Faktizit¨ at 20 Faktorenanalyse 156, 162–164, 265, 272, 300 Fakult¨ at (n!) 65 fallbezogene Intuition 95 Falsifikation 121 Fatalismus 92 Fehler 70 Fehlerrechnung 8 Feminismus 148 Fertilit¨ at 1, 217, 288, 292 Fideisten 59 Fingerabdr¨ ucke 142 formal symmetrisch 68 formale Grammatik 164 Forminvestition 12 Franziskaner 79, 81 Franziskanerorden 79, 81 franz¨ osisch-rationalistischer Individualismus 209
Stichwortverzeichnis Franz¨ osische Revolution 10, 31, 33, 42, 47, 90, 237, 241, 297 franz¨ osischer Adam Ries 39 franz¨ osisches Beamtenrechtsrahmengesetz 296 Freiberuflerverb¨ ande 298 freie Berufe 299 Freihandel 193, 249, 281, 283 Freiheit 209 Frequentismus 5, 322 Frequentisten 52, 57 frequentistisch 13, 89, 318, 364 frequentistische Wahrscheinlichkeit 8 F¨ ursorgegesetzgebung 150, 186 F¨ ursorgeunterst¨ utzung 150 F¨ ursorgeverb¨ ande 150 g-Faktor (general factor) 163 Galileische Wissenschaften 69 Galtonsches Brett 132, 135, 146 Gammafunktionen 154 Gaußsche Wahrscheinlichkeitsverteilung 11 Gaußsches Fehlergesetz 73 Gebietsk¨ orperschaft 371 Geburtenkontrolle 148 Geburtenmultiplikator 235 Gelehrtengesellschaften 166 General Register Office 15, 167, 170, 171, 173, 175, 187, 226, 290 Generalstatistik 19 Genetik 148 Genie 128, 133 Genossenschaft 192 germinal 48 Geschworenengericht 197 Geselle 48, 293, 294 Gesellschaft 86, 90, 92, 112 Gesellschaftslehre 265 Gesellschaftsvertrag 92, 114 Gesetz der großen Zahlen 9, 65, 78, 82, 88, 91, 99, 239, 240, 243, 244, 250, 318, 320, 322, 364 Gesetz von Galton 139 gesunder Menschenverstand 7, 62, 106, 126, 356 Gewerbestatistik 36, 279, 280 Gewerkschaft 245 Gewinnerwartungswert 62
425
gezielte Auswahl 251 Glaubensgrad 322, 334 Glaubensgrund 8, 11, 27, 51, 66, 318, 364 Gleichgewichtstheorie 314 gleitendes Mittel 325 Glockenkurve 86 Gl¨ ucksspiel 11, 53–55, 59, 65, 364 G¨ ottinger Schule 23, 26 g¨ ottliche Essenz 245 g¨ ottliche Ordnung 86, 200, 259 g¨ ottliche Vorsehung 85, 107 g¨ ottlicher Plan 239 Gott der Sch¨ opfer 87 Gouvernementalit¨ at 380, 381 Grad der Sicherheit 20, 27, 66, 71, 74 Grammatik 365, 369, 378 grandes ´ecoles 148 grant-in-aid 231 Gravitationsgesetze 354 Gr¨ undungsalchimie 265 Habitat 290 Habitus 61, 123 H¨ aufigkeitshistogramm 87 Handlungsroutinen 123 Handwerk 279 Harmonisierung 10 Hausknecht 294 Heiraten 11 Heiratsrate 133 Heisenbergsche Unsch¨ arferelation 183, 320 Hereditarismus 123, 365 Hereditarist 124, 290 heterogene Bev¨ olkerungsgruppen 197 Heterogenit¨ at 100, 101, 113, 293, 365 heteroklitisches Wissen 23 Hilfsarbeiter 294 hippokratisches Modell 89 Histogramm 86 historische Schule 25, 168, 210 historischer Determinismus 208 Historismus 203 Historizismus 199 historizistisch 372 historizistisch-deskriptive Statistik 17 Historizit¨ at 270, 314 History of Civilisation in England 208
426
Stichwortverzeichnis
Holismus 78, 111, 113–115, 199, 209, 237, 254, 260, 354, 355 holistisch 25, 49, 98, 246, 289 holistische Auffassung 239 Hollerith-Maschinen 174 homme moyen 84 homo 79 homo artis 379 homo scientiae 379 Homogenit¨ at 100, 153, 155, 196, 197, 314, 338, 367 Homogenit¨ atshypothesen 155 Homogenit¨ atstest 105 Hot-Deck-Verfahren 54 House of Representatives 168, 211 Hygieniker 32, 96–98, 114, 150, 187, 264, 307 Hypothesentest 321, 323 Ideenrealismus 80 Impfung 63, 364 Importz¨ olle 204 Imputation 309 in fin dei conti 83 Individualismus 78, 114, 237, 260, 354, 355 individualistisch 49, 98, 289 individuelle Freiheit 92 individuelle Person 283 individuelle T¨ atigkeit 295 Indizienwissenschaften 69 indoor relief 150, 284 Induktionslogik 334 induktive Wahrscheinlichkeit 51 Industrialisierung 167, 297 industrielle Revolution 90 Infektionisten 96 inferentielle Revolution 119 inferentielle Statistik 14, 183, 184, 321, 323, 336, 339, 340, 346, 355, 356 Inflationsrate 369 Informatik 15 Information 275 Ingenieur 333 Ingenieurschulen 297, 298 Institut de statistique de l’universit´e de Paris 177, 178 Institut national de la statistique et des ´etudes ´economiques 15, 120
instrumentalistisch 3, 339 Instrumentarium 370 Intelligenz 119, 365 Intelligenzleistung 163 Intelligenzquotient 128, 131, 216 Intelligenztest 156 Intendant 30, 31 intensive Methode 243 intermediary group 292 Internalismus 143, 378 internalistisch 5, 17, 144, 263, 375, 378 International Classification of Diseases, Injuries and Causes of Death 69 International Labor Office 173 Internationale Klassifikation der Krankheiten, Verletzungen und Todesursachen 69 Internationale Statistische Kongresse 91, 173 Internationales Arbeitsamt 173 Internationales Institut f¨ ur Statistik 91, 173, 236, 238, 251, 302 Intersubjektivit¨ at 126 Intersubjektivit¨ atstechnologie 75 intrinsische Realit¨ at 98 inverse Wahrscheinlichkeit 64, 69, 74, 340 Investition 126, 197, 341, 374 Investitionskosten 37 Investitionsprozeß 10 isol´es 295 italienische Einheit 376 Jacquard-Karte 174 Jakobiner 31 Jansenisten 65 Job-Sharing 225 Journal de la Soci´et´e de statistique de Paris 172 Journal of the Royal Statistical Society 161 Junker 207, 208 Justizirrtum 100 Katastrophentheorie 209 Kategorie 265, 271, 273–275, 278, 307 Kategorienbildung 307 Kathedersozialismus 148 Kausalit¨ at 118, 121–126, 149, 152, 320
Stichwortverzeichnis Kelten 109 Kernwaffen 347 Keynesianische Makro¨ okonomie 370 Keynesianismus 233 Kindersterblichkeit 188, 292 kinetische Gastheorie 319 Klan 271 Klassifikation 271, 272 Klassifikation der Berufe 173 Klassifikation der Krankheiten 173 Klassifizierung 24, 263 Klassifizierungsverfahren 162 klassische Wahrscheinlichkeitsrechnung 61 Klinik 93 Klio 382 Kliometrie 382 Kochkunst 329, 330 Kodierung 10, 17, 68, 78, 84, 97, 165, 263–267, 273, 274, 288, 303, 305, 307, 323, 335, 340, 359, 369, 371, 373, 382, 385 Kodierungskosten 308 K¨ onig von Preußen 87 K¨ orpergr¨ oße 86, 107, 109, 128–130, 132, 139, 141, 152, 365 kognitives Patchwork 24 Koh¨ arenz 97, 170 kollektive Person 283 kollektive T¨ atigkeit 295 kollektive Tendenzen 113 kollektiver Fatalismus 92 kollektiver Newton 354 Kollektivtyp 109, 111–114 Kommensurabilit¨ at 83, 125 Komparabilit¨ atsraum 25, 58, 169, 188, 232, 267, 315, 362, 363 Konfidenzintervall 250, 252, 256 konfluent 343, 346 Konfluenz 343 Kongreß 213, 214, 216, 218–220 Kongreßmandat 211, 222 Kongreßsitz 213, 216 Konjunkturanalyse 313 Konjunkturbarometer 352 Konjunkturdaten 219 Konjunkturindikator 316 Konjunkturschwankung 331
427
Konjunkturzyklen 224, 315, 316, 323–326, 339, 348, 349, 352, 357 konkrete Geschichte der Abstraktion 359 Konsens 309 konsistent 35, 226, 274 Konsistenz 12, 13, 20, 34, 37, 43, 48, 70, 84, 117, 129, 130, 166, 167, 171, 199, 201, 227, 263, 289, 292, 307, 312, 339, 359, 361, 362, 369, 370 konstante Ursache 88–91, 98, 99, 102, 106, 107, 114, 117, 126, 153, 163, 245 konstitutionelles Prinzip 212 konstruktiver Skeptiker 59 konstruktivistisch 3 Konsulat 30, 42 Kontagionisten 96, 98, 189 Kontingenz 7, 120, 125–127, 152, 359, 373 Kontingenztafel 124, 135 Kontinuum 60 Kontraktkurve 146 Kontrollvariable 257, 258 Konvention 1, 2, 13, 69, 78–80, 102, 103, 106, 108, 155, 162, 211, 224, 228, 335, 372, 374 Kopf oder Zahl 9, 64, 85, 318 Kopfsteuer 32 Korrelation 2, 14, 16, 71, 98, 118, 120, 124–127, 137, 142, 144, 146, 147, 149–151, 156, 157, 160, 164, 173, 180, 254, 257, 284, 315, 320, 328, 334, 365 Korrelationskoeffizient 108, 122, 144, 146, 151, 160 Korrelationsmatrix 164 Korrespondenzanalyse 382 Korsika 105 Kostenfunktion 339 Kovariation 344 Kreuztabelle 24, 25, 124, 137, 363 Kriminalit¨ at 94, 159, 168, 191, 193, 364 Kriminalit¨ atsrate 133 Krise 352 Krise des ¨ offentlichen Raumes 372 K¨ uche 330 labor force
230
428
Stichwortverzeichnis
Labor Office 220 Labour Department 192 Labour Party 291 Landwirtschaftsstatistik 36, 280 langfristiger Trend 326 Laplacescher Determinismus 183 Lappland 73 Le Monde 139 Le Temps 139 Legitimit¨ at 223, 226, 371 Lehrergewerkschaften 298 Leplaysianer 186, 238, 243, 246, 247 Libration 72 Likelihood 340 Likelihood-Funktion 321 lineare Algebra 346 lineare Regression 151, 313 lineare Relation 70 lineares Modell 378 Linearit¨ at 257 Linearkombination 346 Literary Digest 229 Literary Digest Desaster 229 Lobbying 218, 219 Lochkarte 174 Lochkartenmaschinen 174, 281 Lochkartenverfahren 174 Lochmaschinen 174 Logarithmus 74 Logik 23, 334 Logik von Port Royal 64 logisch asymmetrisch 68 Lohnarbeit 295 London School of Economics 186, 192, 377 London Statistical Society 194 Londoner B¨ orse 325 Los 53 lower middle class 286 Lumpenproletariat 207 Lyoner Seidenarbeiter 295 Machtverh¨ altnisse 263 major fractions 214 Makro¨ okonomie 351 makro¨ okonomisches Gleichgewicht 368 makro¨ okonomisches Modell 370 makroskopische Ordnung 339
makrosoziale Ursachen 244 Makrosozialpolitik 93 Makrosoziologie 239 man muß 372 manager 292, 299 manich¨ aischer Gegensatz 340 manœuvres 293 Marktstudien 259, 367 Marxismus 294 maschinelle Datenverarbeitung 15, 173, 180, 220 Massengesellschaft 97 Massenhygiene 97 massive Trends 360 Mathematical Psychics 146 mathematische Gewißheit 60 ¨ mathematische Okonomie 146 mathematische Statistik 15–17, 166 mathematischer Erwartungswert 63 Matrix der sozialen Mobilit¨ at 291 Matrix der sozialen Vererbung 291 Matrizenalgebra 346 Matrizendiagonalisierung 346 Maximum-Likelihood-Methode 2, 126, 313, 340, 346 Median 141, 173 medium 82 medizinische Statistik 94 mehrdimensionale Faktorenanalyse 119, 164 Meister 48, 293, 294 Men’s and Women’s Club 148, 152 Menschenrechte 36 menschliche Spezies 76, 109, 118, 127, 145, 271, 365 Meritokratie 365 Merkantilismus 278 Meßfehler 5, 239 Meßprobleme 16 Meßraum 10, 119, 128, 141, 142 Methode der kleinsten Quadrate 8, 16, 19, 70, 74, 76, 126, 141, 144, 151, 284, 313, 330, 353 Methodenstreit 208, 210 Methodologie 381 m´etier 293 metrisches System 36, 247 Metrologie 377 Miasma 93
Stichwortverzeichnis Miasmentheorie 189, 190 mid-parent 135, 137 middle class 292 Mikrokausalit¨ at 95 Mikro¨ okonomie 352 mikro¨ okonomische Entscheidungen 368 mikroskopisches Chaos 339 Milieu 96, 109, 164, 241 Minimierungsproblem 122 Mittelwert 2, 8, 16, 77, 80, 82, 88, 96, 97, 100, 108, 239, 240, 242, 243, 359, 364 Modell 35, 248, 323, 329, 330, 333 Modellparameter 13 Monade 260 Monadensystem 260 Mondposition 72 Monographie 170, 175, 181, 203, 210, 236–238, 240–242, 252, 255, 281 Montyon-Preis 181 moralische Gewißheit 60 moralischer Erwartungswert 63 Moralstatistik 11, 32, 92, 102, 107, 176, 181, 264 Moralstatistiker 90, 97, 170–172, 182 Moralwissenschaften 19 Morbidit¨ at 188 Mortalit¨ at 189 Moskauer Lotterie 325 Multikollinearit¨ at 343 multiple Korrelation 151, 313, 315 multiple Regression 151, 323 Multiplizit¨ at 126 multivariate Analyse 118 Nachtzuganalyse 331 National Bureau for Economic Research 221, 315, 346 nationale Identit¨ at 208 Nationaleinkommen 2, 192, 313, 348–350 Nationalit¨ atenkonflikte 211 nat¨ urliche Auslese 190 Naturalisten 80 neoklassische Wirtschaftstheorie 183 New Deal 175 nicht-realistisch 3 Nichtfalsifikation 332
429
Nichthomogenit¨ at 317 Nikotinsucht 377 Nomenklatur 9, 12, 15, 16, 23, 35, 41, 106, 119, 170, 173, 191, 200, 220, 257, 258, 264, 266, 268, 269, 274, 275, 277, 279, 297, 299, 307, 348, 363, 374 Nomenklatur¨ anderungen 278 Nominalismus 5, 79–81, 92, 114, 115, 121, 124, 126, 156, 162, 265 nominalistisch 3, 98, 269 nominalistischer Skeptizismus 68 Normalgesetz 11 Normalkurve 132 Normalverteilung 65, 73, 99, 146 N¨ utzlichkeitswert 56 numerische Methode 25, 94–96, 108, 275, 307 objektive Interpretation 318 objektive Wahrscheinlichkeit 5, 8, 61, 89, 261 objektiver Mittelwert 87–89, 97 Objektivierung 8, 14, 77, 193, 273, 365 Objektivierungsarbeit 12 Objektivismus 59 Objektivisten 12 objektivistisch 372 Objektivit¨ at 7, 13, 14, 369 Occam’s razor 79 Ockhamsches Messer 79, 123 offentliche Gesundheit 170, 172, 186, ¨ 193 offentliche Programme 376, 377, 381 ¨ offentliche Statistik 9, 167, 168, 212, ¨ 298, 370 offentlicher Dienst 298 ¨ offentlicher Raum 360, 361, 364, 367, ¨ 372, 374 ¨ Okonometrie 14, 16, 17, 76, 156, 180, 183–185, 203, 210, 212, 311–313, 315, 316, 319, 320, 323, 335, 340, 342, 351, 353, 377, 378, 382 okonometrische Beziehungen 370 ¨ okonometrisches Modell 371 ¨ ¨ Okonomie des Denkens 121, 123, 126 ¨ Okonomismus 199 Office du travail 174, 192, 220, 281
430
Stichwortverzeichnis
Office of Population, Censuses and Surveys 187, 192 Oktoberkrise 217 one with another 82 opinion polls 376 opportunities 231 Ordinalskala 141, 191, 290, 365 Ordnung 104, 267, 275 Ordnung aus Chaos 319 organizistisch 247 orthogonale Achsen 163 Osteuropa 242 ostpreußische Grundbesitzer 204 ostpreußische Landarbeiter 207 outdoor relief 150, 284 Panmixie 147 Paradigma 340 Parameter 13, 161, 344 Parametersch¨ atzung 152, 321 Pariser Kommune 284 Parodi-Dekrete 368 Parodi-Kategorien 296 pars pro toto 235 partielle Korrelation 151 partielle Regression 151 Pascalsche Wette 57 Pauperismus 151, 156–160, 192 Peergruppe 6 Pendel 325 Pensionskassen 368 Periodogramm 326, 327 Permanenz 12, 82, 361, 374 Philanthropie 150 philanthropische Gesellschaften 166 Physik 314, 319, 324, 326, 329, 338 Physik des 19. Jahrhunderts 183 physikalische Gewißheit 60 Physiokraten 34, 35, 279 Physiokratie 278 physiokratisches Denken 293 Plancksche Konstante 320 Planifikation 175, 179, 276 Plankommissariat 177, 178, 185 Pocken 160 Pockenimpfung 63, 64 Politikwissenschaft 376, 381 politische Arithmetik 19, 21–23, 26–28, 33, 45, 99
¨ politische Okonomie 193, 278, 311, 334 politischer Arithmetiker 26, 40, 85, 235, 264, 318 Polizei 265 Polizist 69, 142 polls 229 pollster 229 poor law unions 150, 285 poor laws 150 Port Royal 65 Positivismus 124 Pr¨ afekt 38, 43, 75, 169, 171, 181, 195 Pr¨ afekten-Enquete 29, 40, 42 Pr¨ afektur 37 pr¨ askriptiv 7, 9 Pragmatik 378 pre-election surveys 229 Preisbewegung 316 Preisbildung 180, 316 Preisindex 80, 126, 185 Preußisches Statistisches Bureau 201 Priorit¨ atsstreit 73, 144 probabilisierter Glaubensakt 59 probabilistische Methoden 256 probabilistische Revolution 15 probabilit´e 60 probability 60 profession 282, 292 professional classes 299 professionals 148, 292, 293, 299 professions lib´erales 299 Prostitution 94 Protektionismus 249 Protektionisten 283 protektionistische Politik 204 Psychoanalyse 242 Psychometrie 118, 156, 162, 164, 266, 381 Psychometriker 265 Psychophysiker 146 Psychophysiologie der Empfindungen 121 public health 186 public health movement 170 Punktwolke 163 Pyrrhonismus 58 Pythagoreer 128 Quadrat
133
Stichwortverzeichnis Quantenmechanik 183, 328 Quantifizierung 113 quantitative Sozialwissenschaften 97 Queteletismus 155 Quincunx 131–133, 135, 137, 146 Quotenregelung 216 Radio 367 random shocks 324, 328, 329, 333 Randomisierung 321 Rasse 124, 133, 139, 140, 180 Rassenintegration 214 rationaler Glauben 59 Rationalismus 199, 209 Realismus 5, 35, 81, 86, 92, 114, 115, 126, 152, 161, 369, 372, 374, 386 realistisch 98, 269, 274, 372 Rechtsstaat 166 reduziertes Modell 248 Regel der soziologischen Methode 2 Regelm¨ aßigkeit 11, 84–86, 90, 103, 111, 113, 208–210, 239, 265, 373 Regression 2, 14, 71, 98, 118, 120, 127, 129, 135, 137–139, 145, 150, 151, 156, 254, 284, 313, 315, 320, 330, 334 Regression zur Mitte 134 Regressionsgerade 108, 133, 141 Regressionskoeffizient 160 Reibungsgesetze 345 Reichseinigung 167, 202 Rekruten von Doubs 109, 152, 266 Relation 70 Relativismus 6, 59, 121, 372, 374, 386 Relativisten 12 relativistisch 3, 372 Relativit¨ atstheorie 208 Rentensystem 191 Rentier 48 Repr¨ asentant 24 Repr¨ asentantenhaus 211 repr¨ asentative Methode 251, 258 repr¨ asentative Stichprobe 12 Repr¨ asentativit¨ at 229, 236, 238, 242, 246–249, 252, 253, 255, 259, 260 res publica 40 Residuum 70 Rest 70 Revolutionskalender 36
431
Revue d’hygi`ene et de m´edecine infantiles 180 Revue philanthropique 180 Rhetorik 3, 92, 98, 105, 108, 110, 111, 113, 115, 117, 119, 138, 143, 149, 162, 164, 166, 318, 337, 342, 369, 373 ribbon cities 347 Risikofaktor 302, 303 Risikogruppen 94, 101 riskante Extrapolation 100 Rockefeller-Stiftung 354 rocking horse 327 Roosevelt-Regierung 217 Royal Statistical Society 138, 150, 159, 193, 196, 256 R¨ uckkehr zum Mittel 138, 141 Saint-Simonisten 148 saisonbedingte Schwankungen 352 sampling 376 Satz von Bayes 9, 51 Schafstall der Biologen 154 Schaukelpferd 327 Schaukelstuhlmodell 327, 331, 343 Scholastik 79 Schwindsucht 302 Schwurgericht 52, 62, 100, 103 Secretary of Commerce 223 Seine 105 Selbstmord 11, 102, 273 Selbstmordrate 133 Selbstmordstatistik 273 self-help 192 Semantik 378 semi-skilled worker 292 Service des ´etudes ´economiques et financi`eres 185 Sexualproportion 107 Sezessionskrieg 213 shopkeeper’s arithmetic 28 Signifikanzschwelle 105 Simulation 261, 325 Simultan-Bias 330, 346 simultane Gleichungen 2, 184, 341, 343 singul¨ ares Kolloquium 93, 95 Sinneswahrnehmungen 121 Skala 119, 129, 130, 164 skeptischer Abendessensgast 60
432
Stichwortverzeichnis
Skeptizismus 58 skilled worker 292 Sklaven 211, 213 Sklaverei 211, 214 social fact 2 Soci´et´e de statistique de Paris 139, 169, 172, 176, 180, 182 Soci´et´e royale de m´edicine 33 Sokal-Aff¨ are 379, 380 Sonnenflecken 324, 325 sortes divisoriae 53–55 Sortier- und Tabelliermaschinen 174 Sozialdarwinismus 143, 190 sozialdemokratische Bewegung 203 soziale Coenesthesia 112 soziale Gruppe 140 soziale Mathematik 33 soziale Mobilit¨ at 135 soziale Mobilit¨ atstabelle 138 soziale Physik 91 soziale Sicherung 247 soziale Ungleichheit 168, 212 soziale Welt 12, 246 Sozialenquete 207, 236, 238 Sozialenqueten 367 sozialer Tatbestand 2, 3, 165, 373 soziales Sicherungssystem 93, 204, 364, 366 Sozialgesetze 202 Sozialgesetzgebung 204 Sozialpartner 370, 371 Sozialreformer 291, 349 Sozialreformismus 284 Sozialstatistik 85, 166, 173, 246 Sozialversicherung 191, 368 Soziologie der Statistik 378 soziologischer Tatbestand 2 sozio¨ okonomische Ph¨ anomene 12 soziopolitisches Netzwerk 91 Sparkassen 192 Speenhamland Act of Parliament 156, 157, 187 Spieltheorie 64 Sprache der Wissenschaft 7 St. Petersburger Paradoxon 62, 64 Staatenkunde 200 Staatsstatistik 258, 264 Staatsstatistiker 14, 196, 250, 253 Staatswissenschaft 200
Stabilit¨ at 196 St¨ andegesellschaft 47 Standardabweichung 2, 128 Standardisierung 259 starkes Gesetz der großen Zahlen 101, 115 statista (Staatsmann) 23 Statistical Society 206 Statistical Society of London 193 Statistiker neuen Typs 142 Statistique g´en´erale de la France 97, 120, 167, 169, 281, 315 statistische Argumentation 361, 373 statistische Effizienz 355 statistische Indikatoren 369 statistische Induktion 334 statistische Inferenz 334 statistische Kultur 5 statistische Magie 81 statistische Maschinen 174 statistische Objektivierung 75, 359 statistische Wahrscheinlichkeit 51 statistischer Diskurs 373 statistischer Gottesbeweis 145 statistisches Amt 168 Statistisches Amt der Europ¨ aischen Gemeinschaft 206 Statistisches Bundesamt 200, 206 statistisches Bureau 9, 11, 14, 19, 24, 38, 165, 166, 170, 200 statistisches Manifest 193, 194 statistisches Seminar 203, 204 statistisches System 12 Sterbestatistik 96 Sterbetafel 11, 22, 28, 42, 61, 97 Sterbezettel 26 Sterilisierung 291 Stichprobenerhebung 10, 12, 15, 16, 168, 196, 212, 218, 227–229, 232, 233, 235, 237, 366, 376 Stirlingsche N¨ aherungsformel 65 Stratifizierung 227, 235, 236 Streikstatistik 175 Streuung 5, 131, 136, 239, 242 Strukturparameter 346 subjektive Interpretation 318 subjektive Wahrscheinlichkeit 5, 8, 61, 89, 261, 322 subjektiver Mittelwert 87–89, 97
Stichwortverzeichnis Subunternehmer 291, 292, 295 sunspot-Modell 324 Superintendent 218 survey 212 Survey of Current Business 223, 232 sweating system 291 Syntax 374, 378 systematischer Fehler 238, 244 Szientismus 148 Tabellenknechte 25 Tableau 266 tableau ´economique 34 Tagel¨ ohner 294 taming the chance 324 Taxonomie 68, 105, 248, 263–266, 273, 275–278, 282, 284, 285, 287, 293, 295, 296, 298, 300, 302, 307, 308, 363, 368, 373 taxonomische Reduktion 336 Teilstichprobe 261 Teilungsproblem 55 Teilzeitbesch¨ aftigung 225 teleologisches Prinzip 306 Tendenz zum Selbstmord 112 tetrachorischer Korrelationskoeffizient 161 thomistische Theologie 53 three-fifth rule 213 Todesursachen 69, 172, 189, 263, 265, 275, 290, 302, 303, 305 Todeswahrscheinlichkeit 305, 306 topographisches Prinzip 303 Totem 272 Totenschein 69, 195, 303, 305 tous comptes faits 83 traditionelle Medizin 95 Trunksucht 191 Typhus 93 ¨ Uberzeugungsgrad 59 ultraliberale Staatskonzeption 179 ungelernter Arbeiter 294 universalistisch 98 unskilled workers 292 Unterpr¨ afektur 37 upper middle class 286 Ursachenwahrscheinlichkeit 64, 66, 69, 74, 91, 101
433
Varianz 254 Varianzanalyse 108, 300 Vater-Sohn-Modell 294 Vektorraum 163 Venn-Diagramm 195 Venusphasen 324, 325 Verbrechen 11, 102, 103 Verein f¨ ur Socialpolitik 168, 202, 206, 207, 209, 210, 276, 314 Vererbung 8, 71, 76, 109, 118, 127–129, 131, 133, 138, 140, 145–147, 164, 191, 288 Vergleichbarkeit 196 Verhandlungsraum 371 Verifikation 332 Versicherungsgesellschaft auf Gegenseitigkeit 192 Versicherungsmathematiker 97, 189 Verst¨ adterung 167, 168, 188, 211, 297 Verteilung der Krisenauswirkungen 371 Vertrauensgrad 70, 71 Verwaltungsstatistik 15, 16, 180 Verwaltungsstatistiker 172, 182, 186 Verzerrung 238 Vichy-Regierung 177, 179, 182 Vierfeldertafel 160 Vitalismus 94 V¨ olkerbund 173, 332, 333 Vokabularium 370, 374 volkswirtschaftliche Gesamtrechnung 10, 15, 34, 175, 192, 212, 227, 233, 245, 332, 347, 348, 350, 351, 366, 368, 370, 377, 383 Volksz¨ ahlung 211, 216, 218, 220, 224, 229, 279, 384 Vollerhebung 29, 99, 100, 235, 255 Wahlprognosen 227, 259, 367 wahre Ursachen 334 wahre Zahl der Arbeitslosen 224 wahre Zahlen 97 Wahrnehmungsroutinen 120, 122 Wahrscheinlichkeit 2, 56, 60, 66, 75, 95, 99 Wahrscheinlichkeitsmodell 13, 183, 209 Wahrscheinlichkeitsrechnung 3, 6–8, 11, 15–17, 51, 59, 64, 103, 239, 243
434
Stichwortverzeichnis
Welt der Macht 4 Welt des Wissens 4 Weltgesundheitsorganisation 303 Wette 11 whiggish 383 Whiggismus 383 Whigs 28 Wiener Kreis 118 Wille 123 Wille aller 114 Willensfreiheit 93, 123 wir m¨ ussen 4 Wirtschaftsbarometer 329 Wirtschaftsstatistik 166, 173, 181 Wirtschaftstableau 34 Wirtschaftstheorie 17 wissenschaftlicher Diskurs 372 Wohlfahrtsstaat 190, 191, 246, 250 workhouses 150, 186 working class 292 World Health Organisation 303 W¨ urfelspiel 9 X-Crise
184, 185
Z¨ ahlmaschinen 174 Z¨ ahlung 10 Z¨ ahmung des Zufalls 324 Zahl 379 Zeitreihen 173, 325, 327, 352, 377 Zentraler Grenzwertsatz 74, 78 Zerst¨ orungspr¨ ufung 374 Ziffer 379 Zollverein 202 zu bef¨ urchtender Fehler 22, 29, 317 zuf¨ allige Auswahl 238, 251 Zufall 51, 54 Zufallsstichprobe 229, 252, 256, 326, 356 Zufallsstichprobenerhebung 232 Zunft 36, 48 Zwei-Stufen-Quincunx 134, 136, 137, 141 zweigipflige Verteilung 109, 152 Zweigipfligkeit 265 Zwischenelternteil 135, 137, 139, 140 zyklische Krise 329