A. K. Dewdney
Alles fauler Zauber? IQ-Tests, Psychoanalyse und andere umstrittene Theorien Aus dem Amerikanischen von C...
61 downloads
1311 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
A. K. Dewdney
Alles fauler Zauber? IQ-Tests, Psychoanalyse und andere umstrittene Theorien Aus dem Amerikanischen von Claudia Kubitza
Birkhäuser Verlag Basel • Boston • Berlin
Die amerikanische Originalausgabe erschien 1997 unter dem Titel „Yes, We Have No Neutrons: An Eye-opening Tour Through the Twists and Turns of Bad Science" bei John Wiley & Sons, Inc., New York, USA. © 1997 by A. K. Dewdney All rights reserved. Authorized translation from the English language edition published by John Wiley & Sons, Inc.
Die Deutsche Bibliothek - CIP-Einheitsaufnahme Dewdney, Alexander K. Alles fauler Zauber? : IQ-Tests, Psychoanalyse und andere umstrittene Theorien / A. K. Dewdney. Aus dem Amerikan. von Claudia Kubitza. - Basel; Boston ; Berlin : Birkhäuser, 1998 Einheitssacht.: Yes, we have no neutrons ISBN 3-7643-5761-4
Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechts.
© 1998 der deutschsprachigen Ausgabe: Birkhäuser Verlag, Postfach 133, CH-4010 Basel, Schweiz Umschlaggestaltung: Atelier Jäger, Kommunikations-Design, Salem Gedruckt auf säurefreiem Papier, hergestellt aus chlorfrei gebleichtem Zellstoff. TCF oo Printed in Germany ISBN 3-7643-5761-4 987654321
Inhalt Einführung: Von Neutronen, Zauberern und Lehrlingen ......................... 9 1. Das Jahrhundert beginnt Strahlen, die nie existierten........................................... 33 2. Geisterzahlen Die kuriose Theorie des Intelligenzquotienten ............. 45 3. Erträumte Theorien Der unbewußte Schwindel von Sigmund Freud ........... 67 4. Surfen im Kosmos Die Suche nach außerirdischen Intelligenzen ............... 87 5. Der Zauberlehrling bastelt ein Gehirn Metaphern führen ins Abseits..................................... 109 6. Der Geist in der Flasche Die «Entdeckung» der kalten Fusion.......................... 133 7. Die Biosphäre schlägt leck ......................................... 163 8. Wem sich die Kurve krümmt Die Rassentheorien von J. Phillipe Rushton............... 195 Danksagung...................................................................... 219 Literatur............................................................................ 221
Einführung Von Neutronen, Zauberern und Lehrlingen
Am 23. März 1989 gaben zwei Wissenschaftler namens Fleischmann und Pons der staunenden Öffentlichkeit bekannt, daß sie es geschafft hätten, eine Kernfusion in einem Gerät durchzuführen, das kaum komplizierter ist als ein Becherglas mit einigen Drähten. Die Medien erklärten, es handele sich um «kalte Fusion». Keine riesigen, Milliarden kostenden «heißen» Reaktoren würden mehr nötig sein (diese funktionierten sowieso nicht). Die Welt stand an der Schwelle eines neuen Zeitalters, das unglaublich billige Energie versprach. Einige Tage und Nächte lebten wir in einer Atmosphäre träumerischer Irrealität. Man stelle sich vor: kostenlose Energie! Es klang wie Magie. Wissenschaft ist Magie. Die immer gleiche Bahn eines Elektronenstrahles in einem magnetischen Feld, Wasserstoff, der es nie versäumt, in Bläschen aus dem Elektrolyten aufzusteigen, all die wiederholbaren Phänomene des Universums weisen auf ein zugrundeliegendes Gesetz hin, welches die Wissenschaft zu erforschen sucht. Aber Magie kann schiefgehen, wie der Zauberlehrling erfuhr. Mißlingt es, die anspruchsvolle Vorgehensweise echter Wissenschaft nachzuvollziehen, so kann es zu seltsamen Resultaten kommen, wie auch Fleischmann und Pons feststellten. Zuerst behaupteten sie, daß ihr wunderbarer Prozeß Neutronen produziere. Später stellte sich heraus, 9
daß keine Neutronen von ihrem bescheidenen Apparat ausgingen - daher der Titel dieses Buches. Alles fauler Zauber? handelt nicht von betrügerischer Wissenschaft, sondern von falsch verstandener Wissenschaft. Der eigentliche Protagonist ist also nicht der Schwindler, sondern der Pfuscher, der Anfänger oder «Lehrling», wenn Sie so wollen. Bei seinem Versuch, die Gesetze zu finden, die die physikalische Wirklichkeit bestimmen, und anhand von diesen neue Phänomene vorherzusagen, erscheint der Forscher wie ein Zauberer. Mittlerweile hat die Wissenschaft Technologien hervorgebracht, die alte Sagen wieder auferstehen lassen: durch die Luft fliegen, über Tausende von Kilometern miteinander sprechen, die Macht des Heilens. Diese modernen Errungenschaften der Wissenschaft wären den Menschen des Altertums wie dunkelste Zauberei vorgekommen. Kurz gesagt, sie hätten von der heutigen Wissenschaft genausowenig verstanden wie die breite Öffentlichkeit heutzutage. Wenn in der Wissenschaft etwas schiefgeht, ist die Hölle los. Behauptungen und Gegenbehauptungen treffen aufeinander, und die Öffentlichkeit wird immer verwirrter. Wurde uns nicht kostenlose Energie versprochen? Diejenigen, die solch ein Debakel angerichtet haben, müssen teuer für ihre Fehler bezahlen. Ihr Ruf ist dahin, und auch der der Wissenschaft leidet. Die Öffentlichkeit wird skeptisch der Forschung gegenüber, und all jene, die Wissenschaft gerne als rein soziale Betätigung ohne bedeutsamen Wahrheitsgehalt darstellen, lachen sich ins Fäustchen. Lehrlinge und Zauberer Goethe erzählt von einem Zauberlehrling, der die Magie seines Meisters nachahmte und dabei scheiterte. Mit des Meisters Zauberspruch wies er einen Besen an, ihm all die Plackereien der Lehrzeit, so auch das Wasserholen, abzunehmen. Die Sache lief aus dem Ruder, als der Besen mit 10
dem Füllen des Wassertanks auch dann noch fortfuhr, als dieser bereits voll war. In seiner Not griff der Lehrling zu einer Axt. Doch jeder Span des alten Besens wurde zu einem neuen, dem Arme und Beine wuchsen sowie ein Eimer zum Wassertragen. Walt Disney erweckte Goethes Erzählung in dem als Klassiker zu bezeichnenden Zeichentrickfilm Fantasia wieder zum Leben. Micky Maus spielte den Zauberlehrling. Wer erinnert sich nicht an das alte Schloß und Micky, gekleidet mit des Zauberers Gewand und Hut, an die psychedelische Armee von Besen und den erbarmungslosen Marsch der Symphonie von Dukas. Erst als das Schloß überflutet war, wachte der Zauberer auf und ließ das Wasser mit einem anderen Zauberspruch abfließen. Micky kam mit einem Besenhieb glimpflich davon. Ein letztes Wort zu Micky. Nachdem er den Besen zur Arbeit geschickt hatte, schlief er ein und träumte davon, das Universum zu beherrschen. Träume zukünftigen Ruhms werden in den kommenden Kapiteln noch eine Rolle spielen; aber auch die Medien, ironischerweise. Nachdem der Durst nach Ruhm gestillt ist, verbreiten Zeitungen und Fernsehen die «Entdeckungen» der Zauberlehrlinge mit peinlicher Regelmäßigkeit. Wahrscheinlich ist ihnen nicht bewußt, wie schwer es manchmal sein kann, zwischen echter Wissenschaft und Pseudowissenschaft zu unterscheiden. Wenn Wissenschaft Zauberei ist (in gewissem Sinne) und Wissenschaftler Zauberer sind, wer sind dann die Lehrlinge? Manchmal sind es die Amateure, die daraufbrennen, für Wissenschaftler gehalten zu werden, oder Menschen mit einer wissenschaftlichen Ausbildung, die außerhalb ihres Fachgebietes arbeiten. Die Verantwortlichen für das Projekt Biosphäre 2, manchmal als das «Desaster in der Wüste» bezeichnet, scheinen auf die Aufgabe, der sie sich stellen wollten, wissenschaftlich schlecht vorbereitet gewesen zu sein. Ihr übergroßes Interesse an pseudowissenschaftlicher Aufma11
chung, wie die roten Astronautenanzüge und die beeindrukkende Stahl- und Glaskonstruktion, die die sieben Bionauten ein Jahr lang in Arizona beherbergte, hat wahrscheinlich die Medien geblendet. Ganz besonders das Fernsehen hält immer nach Dingen Ausschau, die wissenschaftlich aussehen. Manchmal sind die Lehrlinge ernstzunehmende Wissenschaftler, deren Forschung in dem Moment schiefgeht, in dem sie einen essentiellen Bestandteil der wissenschaftlichen Methode vernachlässigen. Die Wissenschaftler, die die kalte Fusion einer fassungslosen Welt bekanntgaben, waren anerkannte Forscher. Aber da sie unbedingt die ersten sein wollten, die diese sensationelle neue «Erfindung» veröffentlichten, entglitt ihnen ihr Forschungsprogramm: Sie hatten nicht berücksichtigt, daß ihre experimentellen Ergebnisse im wesentlichen nicht reproduzierbar waren. Eine genauere Methodik hätte ernsthafte Zweifel aufkommen lassen, ob sie wirklich kalte Fusion erzielt hatten. Dieses Buch beschreibt noch zwei weitere Fälle, bei denen sich anerkannte Wissenschaftler wie ein Zauberlehrling verhielten. Um die Jahrhundertwende fand der französische Physiker Rene Blondlot Strahlen, die es nicht gab; erst vor kurzem suchten einige hingebungsvolle Radioastronomen nach Signalen von Außerirdischen. Es mag Außerirdische geben oder auch nicht, aber die Hypothese, daß Außerirdische uns Radiosignale senden, ist nicht falsifizierbar. Zwischen der Nachlässigkeit von Lehrlingen und den erstaunlichen Lapsus, die wirklichen Wissenschaftlern unterlaufen, gibt es einen Übergangsbereich, der auf zwei unterschiedliche Arten analysiert werden kann: Waren die Psychologen, die den IQ-Test als Maß für die «Intelligenz» einführten, vom rechten Wege abgekommene Zauberer oder waren sie vielmehr Lehrlinge, die eine Armee von Besen auf die Allgemeinheit losließen? Der Physiker Richard Feynmann beschrieb die Psychologie und verwandte Wissenschaften einst als Wissenschaften, die dem «FrachtKult» angehörten. Er bezog sich dabei auf einen Eingebo12
renenstamm in Neuguinea, der angeblich Holzflugzeuge baute, um dadurch Geschenke der himmlischen Götter anzuziehen. Diese Eingeborenen hatten während des zweiten Weltkrieges tonnenweise Güter auf den Luftwaffenstützpunkten landen sehen. Ob die Fülle von mathematischen Formeln und wissenschaftlich klingenden Ausdrükken in Veröffentlichungen echte Ergebnisse vom Himmel fallen lassen? Vielleicht besteht die Landebahn der Sozialwissenschaften einfach aus ihrer eigenen Fracht - Kisten voll wissenschaftlicher Veröffentlichungen. Diese Charakterisierung geht zwar zu weit für die Sozialwissenschaften im allgemeinen, trifft aber für einige unrühmliche Auswüchse der Forschung zu, wie zum Beispiel den Intelligenzquotienten. Wie es scheint, waren hier von Anfang an Lehrlinge am Werk. Und diese Pseudowissenschaft pflanzte sich weiter fort, als der IQ zur Grundlage ganz besonderer Rassenunterscheidungen wurde, wie die Autoren von The Bell Curve zeigten. Ob man nun Biosphäre 2, die kalte Fusion oder die Theorie der unterschiedlichen Intelligenz verschiedener Rassen betrachtet, sie alle sind Anschläge auf die Glaubwürdigkeit der Wissenschaft und bewirken eine Woge von Medieninteresse, die das alte Schloß mit unwillkommener Aufmerksamkeit überflutet. Und leider schlafen allzuoft die wirklichen Wissenschaftler unterdessen und wachen einfach nicht auf. Die drei Türen Um zu verstehen, was Wissenschaft wirklich ist und wie sie funktioniert, müssen wir drei Türen des Verständnisses durchschreiten. Hinter jeder Tür ist eine wichtige Unterscheidung verborgen, welche die folgenden Kapitel erhellen sollen. Die erste Tür ist klar bezeichnet mit: Wissenschaft und Technologie 13
Wenn wir diese Tür öffnen, finden wir dahinter eine riesige Halle mit Gegenständen und Maschinen: Antennen, Bagger, Computer, elektrische Bohrmaschinen, Erdbebendetektoren, Fabrikhallen, Fahrräder, Generatoren, Gesichtsmasken, Iglus, Kernreaktoren, Kühlschränke, Modems, Oboen, Preßlufthämmer, Rasenmäher, Röntgengeräte, Satelliten, Taucheranzüge, Telefone, Ventile, Wasserkocher, Xylophone, Yahtzee-Spiele, Zählmaschinen, Zahnseide, um nur einige zu nennen. Durch die Halle dröhnt eine monotone Stimme: «Technologie ist nicht Wissenschaft und Wissenschaft ist nicht Technologie.» In der Tat trifft dies zu. Die Unterscheidung klingt banal, bis wir realisieren, welche Verwirrung Fernsehprogramme, die hier keinerlei Unterscheidung machen, gestiftet haben. Da wird ein wundervolles, einmaliges Werk der Technologie gezeigt, wie zum Beispiel ein Tokamakreaktor, und dazu wird gesagt: Dies ist Wissenschaft. Ganz sicher ist es ein geeignetes Symbol der Wissenschaft, der großen Wissenschaft, aber es ist ebensowenig Wissenschaft, wie eine Bratpfanne ein voller Bauch ist. Um es etwas genauer zu erklären: Der Begriff Technologie steht für Gegenstände, die einem ganz bestimmten Zweck dienen. Wissenschaft hingegen besteht aus Methoden und Ergebnissen. Die Verwirrung darüber, was Wissenschaft ist, hat sich weltweit bis in die Universitäten ausgebreitet. Innerhalb der letzten Jahrzehnte haben Fachbereiche eifrig ihre Namen geändert, indem sie das Wort «Wissenschaft» hinzufügten. Das Fach Ingenieurwissenschaften zum Beispiel bezeichnet nicht wirklich eine Wissenschaft, sondern das Studium der Technologie und ihrer Techniken. Inzwischen gibt es Management-Wissenschaft, Sekretariatswissenschaft und sogar Politikwissenschaft. Das Gebiet, das sich einst Leibeserziehung nannte, wollte in Sport14
Wissenschaft umgetauft werden; da dieser Begriff jedoch bereits belegt war, hat es sich auf «Kinesiologie» festgelegt. Alle möchten Wissenschaftler sein. Die nächste Tür trägt die schmucklose Aufschrift: Die beiden Wissenschaften Hier, in einem feuchten, nur mit Kerzen erleuchteten Raum, sitzen Euklid, der griechische Philosoph und Mathematiker, und Francis Bacon, der englische Weise des siebzehnten Jahrhunderts. Euklid steht vor einer Tafel, auf die er ein Dreieck gemalt hat. Gerade schreibt er umständlich einen Beweis nieder, daß die Summe der inneren Winkel eines Dreiecks zwei rechten Winkeln, oder 180 Grad, entspricht. Bacon sitzt währenddessen vor einer Glasglocke, in der eine Kerze schwächer und schwächer glimmt und schließlich in der verbrauchten Atmosphäre erlischt. Bacon macht eine Notiz auf ein Blatt Papier, nimmt die Glasglocke ab, entzündet die Kerze erneut mit einem Feuerzeug und stellt die Glasglocke wieder darüber. Er beobachtet aufmerksam die Flamme, die wiederum langsam erlischt. Die beiden Wissenschaftler zeigen beispielhaft zum einen die deduktive, zum anderen die induktive wissenschaftliche Arbeitsweise. Zur deduktiven Wissenschaft gehören die Mathematik, die angewandte Mathematik und die mathematischen Bereiche der Informatik. Deduktiv arbeitende Wissenschaftler prüfen ihre Ideen, indem sie versuchen, sie durch Ableitung zu beweisen. Ein gültiger Beweis wie der, den Euklid soeben herzuleiten versucht, besteht aus einer Reihe von einzelnen Schritten, wobei sich jeder durch Anwendung der Logik aus einem vorhergehenden ableiten läßt. Ich bitte Euklid in tadellosem klassischen Griechisch (das Schreiben von Büchern verleiht einem ungeahnte Fähigkeiten), seinen Beweis auf englisch nochmals auszuführen. Er willigt ein, bittet mich aber zu erklären, daß das Diagramm ein ungleichmäßiges Dreieck wiedergibt, das auf einer absolut flachen Ebene liegt. Die Grundlinie des Drei15
ecks wurde über beide Ecken hinaus verlängert. Euklid hat noch eine Gerade hinzugefügt, die parallel zur Grundlinie liegend durch die dritte Ecke des Dreiecks führt. Außerdem hat er die Winkel des Dreiecks mit den Buchstaben a, b, c, und d bezeichnet.
Er schreibt folgenden Beweis nieder: Die Winkel a und d ergeben zusammen zwei rechte Winkel (l80 Grad). Die beide horizontalen Linien sind parallel, so daß aufgrund eines früheren Theorems die beiden mit c bezeichneten Winkel gleich sind. Aufgrund desselben Theorems müssen die Winkel b+c gleich dem Winkel d sein. Wenn aber a+d zwei rechten Winkeln entspricht und d gleich b+c ist, so muß a+b+c zwei rechten Winkeln entsprechen. Euklid strahlt, und Tränen treten in seine Augen. «Es ist wundervoll», sagt er, «der Gedanke, daß ewige Wahrheiten einfach dadurch entstehen, daß man nachdenkt, scheint ein Geschenk der Götter zu sein». Alle deduktiven Wissenschaften haben diese Eigenschaft gemeinsam. Wahrheiten werden durch die schrittweise Anwendung von Logik erarbeitet, wie ein Schachspiel. Wenn alle Schritte richtig sind, dann ist der Beweis gültig. Einige
16
Schritte, wie die beiden mittleren in Euklids Beweis, können sich auf frühere Ergebnisse beziehen, die ebenfalls deduktiv festgestellt wurden. So ist das weite Gebäude der deduktiven Wissenschaft errichtet worden. Wenn wir uns jetzt Francis Bacon zuwenden, stelle ich in korrektem Englisch des 17. Jahrhunderts die naheliegende Frage. «Wann werdet Ihr das Experiment beenden?» «Ich weiß es nicht», antwortet Bacon, «da ich nicht weiß, ob die Kerze nicht von selbst erlöschet oder ob sie ewiglich brennet». Der andere Hauptzweig der Wissenschaft folgt der induktiven Methode. Dazu zählen Wissenschaften wie die Physik und die Biologie. Hier versuchen Wissenschaftler, ihre Hypothesen durch Induktion zu beweisen. Wenn Bacon die Kerze in der Glasglocke erlöschen sieht, kann es sein, daß er sich dazu veranlaßt fühlt, das Experiment zu wiederholen. Erlischt die Kerze ein zweites Mal und auch ein drittes Mal, kommt er zunehmend zu der Überzeugung, daß die Kerze unter genau diesen Umständen immer ausgehen wird. Um zu belegen, daß das Experiment wiederholbar ist und immer zum gleichen Ergebnis führt, könnte er es einhundertmal wiederholen. Das würde helfen, andere davon zu überzeugen, daß das Gesehene auf einem allgemeingültigen Gesetz basiert. Aber ist es nicht möglich, daß die Kerze beim einhundertundersten Versuch fröhlich weiterbrennt, obwohl alle Bedingungen genau gleich geblieben sind wie zuvor? Das ist die brennende Frage für Bacon, den Puristen. Die meisten anderen induktiv arbeitenden Wissenschaftler hätten hier bereits aufgehört. Deduktive Wissenschaftler müssen derartige Fragen nicht fürchten. Die Summe zweier positiver ganzer Zahlen zum Beispiel ist immer positiv. Sie könnten natürlich experimentieren, indem Sie bei allen möglichen positiven ganzen Zahlen prüfen, ob ihre Summe positiv ist. Aber warum sollten Sie mit induktiven Methoden arbeiten, wenn Sie deduktive nutzen können? Ein Mathematiker kann bewei17
sen, daß die Summe zweier positiver ganzer Zahlen immer eine positive ganze Zahl sein wird. Die nie ganz auszuschließende Möglichkeit, Beobachtungen könnten einmal nicht wiederholbar sein, gibt der induktiven Wissenschaft eine etwas aufregende und schwindelerregende Qualität. Nicht alle Phänomene sind gleichermaßen vorhersagbar. Die induktiven Wissenschaften haben eine gewisse Rangordnung. Es ist allgemein üblich, sie in ein Spektrum von «hart» bis «weich» einzuteilen. hart Physik
→
→
→
Chemie
Geowissenschaften
weich
Biologie Sozialwissenschaften
Die Attribute hart und weich bezeichnen nicht den Schwierigkeitsgrad der jeweiligen Wissenschaft innerhalb dieses Spektrums, sondern beziehen sich auf die Sicherheit, mit der in der betreffenden Wissenschaft Schlußfolgerungen gezogen werden können. Das Wort hart hat hier eher die Bedeutung wie in dem Ausdruck «harte Fakten». Wenn auch «weiche Ergebnisse» oft mehr als nur ein Körnchen Wahrheit enthalten, so müssen sie doch häufig mit Vorsicht genossen werden. Es gibt nur wenige Beispiele für eine unzulängliche deduktive Wissenschaft, und das hat einen triftigen Grund. Der einzige Punkt, an dem ein deduktiver Wissenschaftler schwere Fehler machen kann, ist die Beweisführung. Jeder Beweis, der klar genug ist, daß er veröffentlicht werden kann, ist auch so klar, daß Fehler auffallen würden. Ich kenne viele Berufsmathematiker, die irgendwann in ihrer Laufbahn einen fehlerhaften Beweis aufgestellt haben. Üblicherweise fiel dies bereits vor der Veröffentlichung auf. Sobald ein Kollege auf die problematische Stelle hinwies, fühlten sich die Betreffenden zwar auf den Schlips getreten, kamen aber nicht auf den Gedanken, den Einwand zurückzuweisen. 18
Wenn das Problem klargestellt war, sagten sie allenfalls: «Oh, so ein Mist!» So eindeutig ist Mathematik. Ein Fall unzureichender deduktiver Wissenschaft war der «Beweis» des berühmten Vier-Farben-Theorems von Alfred Bray Kempe, einem englischen Rechtsanwalt. Er veröffentlichte seinen Beweis im 19. Jahrhundert, und alle Welt glaubte, daß er hieb- und stichfest sei, bis einem britischen Mathematiker, P. J. Heawood, in den 20er Jahren dieses Jahrhunderts der Irrtum auffiel. Die Jagd nach einem Beweis war damit wieder eröffnet und fand in den 70er Jahren ihren krönenden Abschluß, als der korrekte Beweis entdeckt wurde. Der Beweis hatte so viele Spezialfälle, daß man einen Computer brauchte, um sie alle zu zählen! In diesem berühmtesten Beispiel fehlerhafter deduktiver Wissenschaft gab es nie Kontroversen. Zuerst glaubten die Mathematiker, ein Beweis sei gefunden; dann glaubten sie, daß es noch keinen Beweis gebe, und schließlich glaubten sie wieder, daß ein Beweis gefunden sei. Zu keinem Zeitpunkt jedoch wurde darüber diskutiert. Um den Bereich der deduktiven Wissenschaft in mein Kompendium wissenschaftlicher Fehlleistungen im 20. Jahrhundert aufzunehmen, muß ich mich nicht den falsch angewandten Methoden, sondern der falsch angewandten Mathematik zuwenden. Es gibt viele gültige Theoreme, die die Fähigkeiten neuronaler Netzwerke beschreiben, dieser kybernetischen Wunder, von denen die Medien in den letzten Jahren so häufig schwärmten. Aber keines dieser Theoreme rechtfertigt die wilden Phantasien derer, die neuronale Netzwerke zur Lösung aller Probleme einsetzen wollen. Und in der Tat sind neuronale Netzwerke aus der Sichtweise der theoretischen Computerwissenschaften (ein eigenständiger Zweig der deduktiven Wissenschaften) ein äußerst schwaches Hilfsmittel für Berechnungen. Dieses Buch aber handelt hauptsächlich von fehlgeschlagener induktiver Wissenschaft, und so ist es an der Zeit, die dritte Tür zu durchschreiten, um die dritte grundlegende Unterscheidung kennenzulernen. 19
Ideen haben und Ideen prüfen Hinter der dritten Tür sitzt ein alter Mann in einer Wanne und seift sich fröhlich ein. Ein Stück elfenbeinfarbene Seife schwimmt (natürlich) auf dem Wasser. Der alte Mann hört auf, sich einzuseifen, starrt die Seife einen Moment lang aufmerksam an und schreit dann plötzlich auf: HEUREKA! Es ist ohrenbetäubend. Der Mann ist Archimedes, und die Worte bedeuten: «Ich hab's!»
Archimedes hatte über die Gesetzmäßigkeit schwimmender Gegenstände nachgedacht. Während er sich einseifte, dachte er nach, und plötzlich kam ihm eine Idee: War es möglich, daß das Gewicht des Wassers, das von dem Stück Seife verdrängt wird, genau dem Eigengewicht dieser Seife entsprach? Archimedes, der nur mit der deduktiven Tradition vertraut ist, steht bei der Suche nach einer Antwort auf diese Frage auf verlorenem Posten. Trotzdem hat er den Sachverhalt gedanklich richtig erfaßt und ist von dessen Richtigkeit überzeugt. Glücklicherweise kommt gerade Bacon aus dem anderen Raum herüber: 20
«Was hat dieser Schrei zu bedeuten?» Kaum daß ich ihm die Sachlage erklärt habe, rennt er schnell in sein Arbeitszimmer zurück und taucht einen Augenblick später mit einer Apothekerwaage in der einen und einem wassergefüllten Glasgefäß in der anderen Hand wieder auf. Es sieht aus, als wolle er die wissenschaftliche Methode anwenden. Hier ist die Apparatur, die Bacon aufbaut.
Archimedes hat zwei identische Stücke der elfenbeinfarbenen Seife, und so legt Bacon eines in die linke Waagschale. Das andere Stück Seife legt er in das Glasgefäß und leitet den Überlauf direkt in die rechte Waagschale. Als das Wasser aufhört zu tropfen, schwingt die Waage noch etwas hin und her und kommt dann in horizontaler Lage zur Ruhe. Archimedes, der die Bedeutung dieses Experiments sofort erfaßt, murmelt «Heureka» in seinen Bart. «Vielleicht hatten wir nur Glück», sagt Bacon und wiederholt das Experiment. Wir überlassen diese Magier des Altertums nun ihrem alten Schloß und kehren zurück zu unserem Thema:
21
Die wissenschaftliche Methodik Die dritte Unterscheidung beleuchtet die wissenschaftliche Methodik, die nur die induktiven Wissenschaften betrifft. Jede wissenschaftliche Entdeckung besteht aus folgenden zwei Teilen: ● Ideen haben (wie Archimedes in seiner Badewanne) ● Ideen prüfen (wie Bacon mit seiner Waage) Formal gesprochen bezeichnen wir eine Idee, die einer Überprüfung wert ist, als Hypothese. Es ist belanglos, wie ein Wissenschaftler zu einer Hypothese kommt. Auf der Suche nach einer neuen Idee kann ein Wissenschaftler in einem heißen Bad planschen, in einer Opiumhöhle durch das Universum schweben, einen Psychiater besuchen, strampelnd und schreiend auf dem Boden liegen, was auch immer den gewünschten Erfolg bringt. Ich will damit nicht behaupten, daß Wissenschaftler üblicherweise mehr als eine der genannten Methoden zu Hilfe nehmen, sondern daß die Art und Weise, wie ein Wissenschaftler auf eine Idee kommt, die der Überprüfung wert ist, strenggenommen nicht Teil der wissenschaftlichen Praxis ist. In vielerlei Hinsicht ist dies jedoch der Teil der Wissenschaft, der Spaß macht, der Bereich, wo Wissenschaftler frei spekulieren können über die Gesetzmäßigkeiten und das, was diesen zugrunde liegt. Um jedoch eine Hypothese wie etwa «Jeder schwimmende Gegenstand verdrängt im Wasser sein Eigengewicht» zu etablieren, muß die wissenschaftliche Vorgehensweise angewandt werden. Überspitzt gesagt ist die wissenschaftliche Praxis kaum mehr als eine ausgefeilte Überprüfung der Wirklichkeit, wie das Experiment, das Bacon mit der schwimmenden Seife machte. Korrekt durchgeführt, wirkt die wissenschaftliche Vorgehensweise als Schutz vor Irrtümern. Jeder in diesem Buch vorkommende Fall fehlerhafter Wissenschaft kann auf einen Fehler in der Methodik zurückgeführt werden. 22
Der gravierendste Fehler ist es, eine Hypothese aufzustellen und sich um deren Überprüfung überhaupt nicht zu scheren. Sigmund Freud tat genau dies und behauptete einfach weiterhin, daß die Psychoanalyse funktioniere. In einem Umfeld, das unberührt ist von der ernüchternden Wirkung realer Experimente, blühen Spekulationen auf. Stellt man die wissenschaftliche Methodik, wie im folgenden Diagramm, als eine Abfolge von Einzelschritten dar, so beginnt sie mit einer Frage: Welcher Kernprozeß ist für den Anteil an Wasserstoff verantwortlich, den wir in der Sonne beobachten? Wieviel des gefallenen Laubes wird in einem Wald allein aufgrund chemischer Mineralisierung in den Boden zurückgeführt? Welche Farben ziehen die Aufmerksamkeit eines durchschnittlichen Besuchers in einem Supermarkt am stärksten an? Was ist die höchste Temperatur, bei der Supraleitfähigkeit möglich ist? Ist das Universum ein geschlossener Raum? Frage
Ø Ø Ø
Hypothese
Experiment oder Beobachtungen
Schlußfolgerung (und Veröffentlichung) Welche Frage gestellt wird, beeinflußt deutlich den Lauf der Forschung. Wehe dem Forscher, der die falsche Frage stellt. Wehe dem Lehrling, der gar keine Frage stellt. Und schließlich muß die Frage wissenschaftlich sein, das heißt, sie muß 23
ein allgemeines Gesetz und nicht nur ganz bestimmte Bedingungen betreffen. «Können menschliche Wesen in einem verschlossenen Glashaus mit einer nachgeahmten Biosphäre leben?» ist zum Beispiel keine wissenschaftliche Frage, da sie kein allgemeines Gesetz betrifft. Es ist genaugenommen eine technologische Frage. Bei der Entwicklung des Konzeptes des Intelligenzquotienten wurde überhaupt keine Frage gestellt. Anfänglich diente er als Maß dafür, wie geeignet unterprivilegierte Kinder für die Schule seien, wuchs sich dann aber zu einem unbeholfenen sozialen Instrument aus, dessen Verfechter behaupten, es könne als Mittel zur Messung der «Intelligenz» dienen. Da aber bisher noch niemand Intelligenz zur allgemeinen Zufriedenheit definieren konnte, ist es schlichtweg unmöglich zu sagen, ob der IQ-Test Intelligenz (was immer das auch sei) mißt oder irgend etwas anderes. Stellt ein Wissenschaftler eine Frage, eine wissenschaftliche Frage, und denkt dann über diese Frage nach, so könnte sich daraus eine Hypothese ergeben. Kann die Hypothese überprüft werden, so kann die Frage konkretisiert werden. Genaugenommen muß eine Hypothese falsifizierbar sein. Der Wissenschaftler muß sich ein Experiment ausdenken können, das die Hypothese widerlegt, wenn sie falsch ist. Begab sich der Radioastronom Frank Drake auf das Niveau eines Lehrlings, als er das Projekt SETI (Search for Extraterrestrial Intelligence - die Suche nach extraterrestrischer Intelligenz) ins Leben rief? Wie ich in Kapitel 4 zeigen werde, scheint SETI sich selbst ein nicht-falsifizierbares Loch gegraben zu haben. Da es bisher nicht gelang, irgendeine extraterrestrische Nachricht einzufangen, wird einfach behauptet, daß die Suche nicht mit einer zufriedenstellenden Auflösung der Wellenlängen durchgeführt werden konnte. Dieses Spiel kann endlos betrieben werden. Beim nächsten methodischen Schritt entwirft der Wissenschaftler ein Experiment, führt es durch und protokolliert die Beobachtungen. Das Experiment muß gut durch24
dacht sein, um eine Antwort auf die Frage zu geben und die Hypothese zu belegen oder zu widerlegen. Vor allem aber muß es wiederholbar sein. Die Nicht-Wiederholbarkeit war das Hauptproblem, das sich den beiden Erforschern der kalten Fusion, Fleischmann und Pons, stellte. In Kapitel 6 werde ich beschreiben, wie aus diesen beiden Zaubermeistern wieder Lehrlinge wurden, die ihr eigenes Experiment in keinster Weise zuverlässig wiederholen konnten: Manchmal konnten sie ungewöhnliche Ströme in ihren elektrolytischen Zellen messen, manchmal nicht. Andere Gruppen, die das Experiment zu wiederholen versuchten, konnten entweder gar nichts finden oder sahen sich mit den gleichen Zufallsergebnissen konfrontiert. Am Anfang dieses Buches steht ein ähnlicher Fall, der sich zu Beginn dieses Jahrhunderts zutrug. Im Jahre 1901 entdeckte der französische Wissenschaftler Rene Blondlot (nichtexistente) N-Strahlen. Versuchten andere Wissenschaftler, jene Experimente zu wiederholen, so gelang es ihnen nicht. Hinsichtlich der Experimente besteht ein interessanter Unterschied zwischen den verschiedenen Wissenschaften. Physiker und Chemiker führen ihre Experimente meist im Labor durch, wohingegen einige Biologen und fast alle Astronomen diesen Luxus nicht haben. Sie müssen ihre formalen Experimente (ob Störche oder Sterne betreffend) durch die Beobachtung des natürlichen Systems ergänzen. Diese Ergänzung ist sinnvoll, wenn für ein Forschungsprogramm genügend Beobachtungen gemacht werden können. Das Experiment oder die Beobachtungen können Monate oder gar Jahre dauern oder auch in einem einzigen Moment durchgeführt sein. Wichtig ist letztendlich nur, daß die Ergebnisse dem Zweck des Experiments dienlich sind. Sie können die Erwartungen des Wissenschaftlers bestätigen oder sie widerlegen, auf jeden Fall aber vermehren sie das Wissen über das untersuchte Phänomen. Sie können sogar zu einer Revision der Theorie führen. Wie ich 25
im nächsten Kapitel zeigen werde, wurden wissenschaftliche Theorien zu allen Zeiten immer wieder geringfügig oder auch grundlegend überarbeitet. Entweder sind all diese Modifizierungen als «Paradigmenwechsel» zu bezeichnen, oder gar keine. Für gute Wissenschaftler ist es nicht ausreichend, ein Experiment durchzuführen, wie sorgfältig es auch immer geplant sein mag. Sie müssen es der gesamten wissenschaftlichen Welt bekanntmachen. Genaugenommen ist dies jedoch keine wissenschaftliche Anforderung; ein Wissenschaftler kann völlig alleine vor sich hin forschen und sich weigern, irgend etwas preiszugeben. So entstand der Topos des verrückten Wissenschaftlers, der durch so viele Hollywoodfilme geistert: «Die wollen mir den Nobelpreis verweigern? Denen werde ich's zeigen!» Die Veröffentlichung wissenschaftlicher Ergebnisse ist in sozialer und in wissenschaftlicher Hinsicht wichtig. Aus sozialen Gründen, weil sie es anderen ermöglicht, die gewonnenen Erkenntnisse zu teilen; aus wissenschaftlichen, weil sie anderen Wissenschaftlern die Möglichkeit gibt, die Ergebnisse zu überprüfen. Dies wiederum bietet einen weiteren Schutz vor Irrtümern. Die fraktalen Eigenschaften der Wissenschaft In meinen bisherigen Ausführungen habe ich es so dargestellt, als würde ein einziger Wissenschaftler den gesamten wissenschaftlichen Prozeß von Anfang bis Ende allein durchführen. Dies trifft jedoch nicht immer zu. Viele Wissenschaftler arbeiten in Teams, deren einzelne Mitglieder wiederum nur einen Teilbereich des jeweiligen Forschungsproblems bearbeiten. Noch viel mehr Wissenschaftler aber bilden große, «informelle» Teams, in denen sie die verschiedensten Aspekte ein und desselben Problems untersuchen und die Resultate untereinander austauschen per Korrespondenz, E-mail, Telefon oder auf Konferenzen, die das 26
gesamte Gebiet, zu dem dieses Problem gehört, zum Thema haben. Auch die deduktive und die induktive Wissenschaft selbst haben fraktale Qualitäten. Sie gliedern sich in Untergebiete und diese wiederum in Untergebiete, jedes davon mit seinen ganz speziellen Fragestellungen. Diese hierarchische Struktur reflektiert gut die Struktur wissenschaftlicher Probleme. Wenn ich auch bisher so getan habe, als hätten wissenschaftliche Probleme eine einfache, eingliedrige Struktur, so trifft dies doch im allgemeinen nicht zu. Als einfaches Beispiel hierfür kann die geologische Frage dienen, wie die heutigen Kontinente entstanden sind. Die Entdeckung der Kontinentaldrift gab eine Antwort auf eine große Frage, führte aber zu weiteren Fragen: Wie entstand der Kontinent Nordamerika? In Nordamerika nun können Geologen wiederum weitere Fragen stellen, zum Beispiel diejenige nach der Entstehung der großen inländischen Seen vor mehreren hundert Millionen Jahren. Weiter kann nun ein Geologe zum Beispiel im Tippecanoe-See die Sedimentierung untersuchen, um eine Antwort darauf zu finden, wie alt der See ist und welche Ausmaße er einst hatte. Wieder ein anderer Geologe könnte ein einzelnes Sediment untersuchen. Der Ledyard-Schiefer im Westen des Staates New York enthält das geheime Protokoll der Temperaturen und Sedimentationsraten dieses Sees. Ein Paläontologe wiederum könnte die Trilobiten des Ledyard-Schiefers untersuchen. Und so weiter und so fort, und jede einzelne Studie leistet einen Beitrag zur Erforschung des gesamten Problemfelds. Die Magie der Formeln Die deduktiven Wissenschaften stellten die Notation, die Werkzeuge und häufig auch die Modelle zur Verfügung, die für die induktiven Wissenschaften unentbehrlich geworden sind. Zahlen, Formeln, Matrizen, Tensoren, Räume und 27
sogar das präzise logische Denken selbst leiten sich aus der Mathematik ab. Woher, glauben Sie, haben die induktiven Zaubermeister wohl ihre magischen Formeln? Jedenfalls sind die induktiven Wissenschaften durchsetzt mit deduktiven Komponenten. Die Formel PV = RT bezieht sich auf den Druck (P), das Volumen (V) und die Temperatur (T) eines Gases in einem abgeschlossenen Raum. Der Buchstabe R steht für eine konstante Zahl, die Gaskonstante. Die Formel kann ungefähr eine Million verschiedener Zustände, die das Gas einnehmen kann, wiedergeben. Nimmt zum Beispiel der Druck (P) zu, so nimmt der Betrag der rechten Seite der Gleichung zu, und folglich, damit das Gleichgewicht erhalten bleibt, muß auch die linke Seite zunehmen. Anders ausgedrückt, muß entweder der Druck P oder das Volumen V (oder beides) steigen, um das Gleichgewicht aufrechtzuerhalten. Es ist verblüffend, daß die Formel mit recht hoher Genauigkeit zutrifft, natürlich nur unter der Voraussetzung, daß die Bedingungen eingehalten werden, für die sie erstellt wurde. Warum ist das so? Andere Formeln sind weniger genau, manche haben sogar nur statistische Aussagekraft. Es passiert leicht, daß jemand eine neue Formel entwickelt,, die ein allgemeines Phänomen beschreiben soll, und dann von ihrer Eleganz so geblendet ist, daß er nie die Grenzen ihrer Anwendbarkeit testet. Dies kommt um so häufiger vor, je weiter das Spektrum von den harten Wissenschaften hin zu den weichen durchschritten wird. Normalerweise haben die harten Wissenschaften über die Jahrhunderte hinweg viel Mathematik in ihre Strukturen integriert, was für die weichen Wissenschaften nicht in diesem Maße zutrifft. Diese Lektion ging an den Sozialwissenschaftlern nicht spurlos vorüber. Die letzten Jahrzehnte verbrachten sie damit, mathematische Modelle zu erstellen, in dem Irrglauben, je mehr Formeln sie in ihren Veröffent28
lichungen anhäuften, um so «wissenschaftlicher» sei ihre Arbeit. Hinter der Theorie der Rassenunterschiede, die von den Psychologen Arthur Jensen und Phillipe Rushton vorgeschlagen wurde, rattert und stottert eine statistische Maschinerie. Diese Theorie verursachte öffentliche Verwirrung (von den Rassenkonflikten ganz zu schweigen), und die Veröffentlichung des Buches The Bell Curve von Murray und Herrnstein hat das Problem nur verschärft, wie Sie in Kapitel 8 lesen werden. Die Schlußfolgerung, die diese Forscher ziehen, mag die meisten Sozialwissenschaftler abstoßen, die Methoden aber dürften ihnen nur allzu bekannt vorkommen. Unzulängliche Wissenschaft Endlich kommen wir nun zu der Frage: Was ist unzulängliche Wissenschaft? Zuerst einmal ist es wichtig, diese Art Wissenschaft von betrügerischer Wissenschaft zu unterscheiden. Zauberlehrlinge halten sich, per definitionem, allen Ernstes für Zaubermeister. Unredliche Wissenschaftler (und Möchtegernwissenschaftler) wissen genau, daß sie betrügen, wenn sie Experimente fälschen, Ideen stehlen oder falsche Behauptungen aufstellen. Sie sind eher als teuflische Magier anzusehen denn als Lehrlinge. Auch wenn sie möglicherweise von denselben Ambitionen getrieben werden wie diese, so werden sie bei Entdeckung doch zu Recht mit Verachtung und Entrüstung gestraft. Die Lehrlinge hingegen betrachte ich mit einem gewissen Mitleid und wende mich nunmehr mit Fassung dem Weiteren zu. Als vorläufige Definition könnte gelten: Unzulängliche Wissenschaft ist ganz einfach dann gegeben, wenn jemand wissenschaftliche Methoden vollkommen außer acht läßt. Dies führt zu Ergebnissen, die im schlimmsten Fall falsch und im besten Fall eine grobe Verzerrung der Wahrheit 29
sind. Ich führe dies aus, weil Wissenschaftler sehr wenig Zeit damit zubringen, die wissenschaftliche Methodik gewissenhaft zu durchdenken (welche Version sie auch immer für sich formuliert haben); sie neigen vielmehr dazu, sich irgendwie durchzuschlängeln: Unaufmerksamkeit bei der Beobachtung, falsch angewandte Formeln und so weiter. Wursteln sie sich aber allzusehr durch, so können sie eine ungeheure Bauchlandung erleiden. Eine wahre Hölle sucht einen solchen Lehrling heim, insbesondere wenn (1) die Resultate so aufsehenerregend sind, daß die Medien sich sofort auf sie stürzen, und (2) der Lehrling zu dumm ist, einen Irrtum oder einen methodischen Fehler einzugestehen. Dann ist die Bühne für wissenschaftliche Kontroversen offen. Es wird noch gezeigt werden, wie sehr die wissenschaftliche Methodik unterminiert worden ist, wenn man erst einmal an einem solchen Punkt angekommen ist. Des Zaubermeisters wahre Macht liegt nicht im Atommeiler oder dem rekombinanten Gen, sondern in einem sich immer weiter vertiefenden Verständnis für das Universum und seine Struktur. Die Zaubermeister bemühen sich um Verständnis, und häufig entspringt das, was wir als «Talent» bezeichnen, ebendiesem Bemühen. Was ist der Lehrling denn anderes als jemand, dessen Träume von Ruhm (oder Reichtum) die wahre Sorge um die Sache, verdrängen? Echte Wissenschaft hingegen bleibt wirkliche Magie. Es ist faszinierend zu sehen, wie viele physikalische Phänomene sich mit unheimlicher Genauigkeit an Theorien und Formeln halten, was nichts mit unseren Wünschen oder kreativen Impulsen, sondern mit der reinen Wirklichkeit zu tun hat. Es macht einen völlig sprachlos, wenn es sich herausstellt, daß Phänomene, die zunächst nur theoretisch begründet und mit Formeln errechnet worden sind, sich in der Folge als Realität erweisen. Warum sollte die Wirklichkeit so sein? Es ist reine Magie! Wissenschaftliche Magie aber kann sich nur dann verwirklichen, wenn der Wissen30
schaftler sich an sinnvoll angewandte Logik hält und sich nicht von persönlichen Hoffnungen oder von dem Ergebnis irritieren läßt. Ruhmesträume behält ein wirklicher Wissenschaftler, voller Skepsis, im Hinterkopf.
31
l. Das Jahrhundert beginnt Strahlen, die nie existierten
Das Jahr 1895 war ein bedeutendes Jahr für Wilhelm Konrad Röntgen, einen 51jährigen Physiker an der Universität Würzburg. Es war auch für die deutsche Wissenschaft ein bedeutendes Jahr. Röntgen hatte soeben die heute nach ihm benannten Röntgenstrahlen entdeckt. Die Auswirkungen, die diese Entdeckung damals auf die Öffentlichkeit hatte, ist heute kaum vorstellbar. Röntgen, ein aufmerksamer Beobachter (und ein echter Zaubermeister), profitierte von einem wahren Glücksfall: Als er Spannung an einen als Crookesche Röhre bekannten Glaskessel legte, beobachtete er, daß sich auf einem direkt daneben liegenden Photopapier eine dunkle Linie bildete. Nur Lichtstrahlen konnten dies bewirken. Röntgen aber hatte die Crookesche Röhre mit schwarzem Papier umwickelt (um das geisterhafte Leuchten des Inhaltes besser zu sehen). Nachdem er eine Reihe sorgfältiger Untersuchungen durchgeführt hatte, war er davon überzeugt, eine neue Strahlung entdeckt zu haben. Um nicht Ergebnisse zu veröffentlichen, die auf falschen Beobachtungen beruhten, verbrachte Röntgen mehrere Wochen damit, dieses Phänomen zu bestätigen. Er testete verschiedene Materialien und stellte fest, daß manche die neuen Strahlen besser absorbierten als andere. Röntgen vermutete korrekterweise, daß die Strahlen eine bis dahin unbekannte Form des Lichtes seien. Er nannte sie X-Strahlen, da in der Mathematik für die Unbekannte meist x steht. Nachdem er alle Untersuchungen beendet hatte, veröffentlichte er seine Entdeckung. Die Medien ergingen sich, wie 33
Medien das eben immer tun, in Mutmaßungen über die Bedeutung dieser neuen Strahlen für die Gesellschaft. Wohlerzogene Damen wurden in Schrecken versetzt, als sie erfuhren, daß Menschen, die ein Röntgengerät besitzen, ihnen durch die Wände hindurch beim Ausziehen zusehen konnten, ohne daß sie selbst etwas davon merkten. Im Jahre 1900 hatte die Nachricht von diesen Strahlen jeden Winkel des Globus erreicht. Röntgen war berühmt. Im Jahr 1901 veröffentlichte Max Planck die Quantifizierung der Energie. Dadurch stieg das Ansehen der deutschen Wissenschaft, das bereits groß war, noch weiter. Die französische Wissenschaft hingegen schien in einer Flaute zu stecken. Das Land von Lavoisier, Carnot, Gay-Lussac, den Curies und weiteren exzellenten Wissenschaftlern des 19. Jahrhunderts hatte im Aufbruch des neuen Jahrhunderts keine derart bewegenden Ergebnisse produziert. Was war nur los? Blondlot kommt zu Hilfe Rene Blondlot, ein hochangesehener französischer Wissenschaftler an der Universität von Nancy, war von den Berichten über die neuen Strahlen nicht weniger fasziniert als alle anderen. Wie viele Physiker dieser Zeit hatte auch Blondlot mit Röntgenstrahlen experimentiert und ihre Eigenschaften getestet, in der Hoffnung, zum beständig anwachsenden Wissen über sie etwas beizutragen. Vielleicht träumte Blondlot auch davon, selbst neue Strahlen zu entdecken oder wie Röntgen durch einen Glücksfall auf ein völlig neues Phänomen zu stoßen. Der Zufall begünstigt den, der darauf vorbereitet ist, so wird zumindest behauptet. Wenn Glück dem Meister zur Seite steht, so sorgt Pech dafür, daß beim Lehrling alles schiefgeht. Blondlot untersuchte die Polarisierung der Röntgenstrahlen; er suchte nach Materialien, die nichts außer Schwingungen in einer einzigen Ebene passieren lassen. Als 34
er seine Entdeckung machte, arbeitete er gerade mit einem sehr heißen Platindraht, der sich in einer fest verschlossenen Eisenröhre befand. Ein kleines Fenster aus Aluminium ließ die Strahlung in das Labor gelangen, wo ihre Eigenschaften getestet werden sollten. Es ist zwar nicht genau überliefert, wie der Zufall dem unvorbereiteten Blondlot zu Hilfe kam. Dennoch beobachtete er wohl einige Besonderheiten, die die von dem Apparat ausgehende Strahlung betrafen; es schien ihm, als ob sie die Helligkeit einer in der Nähe stehenden Gasflamme verstärkte. Außerdem bewirkten die Strahlen, daß ein mit Calciumsulfid bestrichener Bildschirm, der bereits schwach leuchtete, wahrnehmbar heller wurde. Durfte er hoffen? Wie sollte er die Strahlen nennen? Der Buchstabe X war bereits belegt, und die Strahlen mit Y zu bezeichnen hätte sie auf den zweiten Platz hinter den X-Strahlen verwiesen. So wählte er N für Nancy, die Heimat seiner Universität. Als er mit den N-Strahlen experimentierte, entdeckte Blondlot bald, daß viele Materialien N-Strahlen natürlicherweise emittieren, so zum Beispiel Eisen und die meisten Metalle. Holz hingegen gab überhaupt keine N-Strahlen ab. Wickelte er einen Ziegelstein in schwarzes Papier und setzte ihn dem Sonnenlicht aus, so sendete dieser bald selbst intensiv N-Strahlen aus und schien diese Eigenschaft über längere Zeit beibehalten zu können. N-Strahlen hatten noch weitere bemerkenswerte Eigenschaften, einschließlich der Fähigkeit, die menschliche Sehkraft zu verstärken, insbesondere dann, wenn es darum ging, die N-Strahlen selbst zu sehen! Blondlot war eindeutig auf eine Entdeckung allerersten Ranges gestoßen! Eine Entdeckung, die seinen Namen in einen der vordersten Ränge in der Welt der Wissenschaft plazieren und der Academie des Sciences wieder zu ihrem früheren Glanz verhelfen würde. N-Strahlen waren anscheinend weit subtiler und geheimnisvoller (und wichtiger) als die X- oder Röntgenstrahlen. Blondlot begann zu veröffentlichen. Bis zum Ende des Jahres 1903 hatte er mehr als zehn Artikel publiziert. Französi35
sche Kollegen schlossen sich dem Goldrausch schnell an. Der große Henri Becquerel veröffentlichte selbst zehn Artikel; Charpentier entdeckte, daß der menschliche Körper keine N-Strahlen aussendet. Noch mehr Artikel wurden veröffentlicht, als sich auch Zimmern und Broca anschlössen. In Deutschland wollte nun der Kaiser diese neuen Strahlen sehen. Zu diesem Zweck lud er Heinrich Rubens von der Universität Berlin ein. Rubens versuchte redlich, die Strahlen zu erzeugen, jedoch ohne jeglichen Erfolg. Sein Unvermögen sollte binnen Jahresfrist bittere Früchte für Blondlot tragen. Ganz gewöhnliche Lichtstrahlen werden gebrochen, wenn sie ein Glasprisma passieren, wobei manche stärker, andere schwächer abgelenkt werden. Durch diesen Vorgang entsteht das Spektrum. Die roten Lichtfrequenzen, die am stärksten abgelenkt werden, tauchen auf der einen Seite des Spektrums auf, das blaue Licht hingegen wird weniger stark abgelenkt und erscheint auf der anderen Seite des Spektrums. Soviel war schon einhundert Jahre früher, zu Newtons Zeiten, bekannt. Seither hatten Physiker weit exotischere Spektren entdeckt, die von einzelnen Elementen emittiert werden, zum Beispiel von Wasserstoff. Solche Spektren bilden keinen Regenbogen, sondern eine Reihe hellerer und dunklerer Banden. Auf diesen Beobachtungen basierte Plancks Bekanntgabe der Quantifizierung der Lichtenergie zu Beginn des Jahrhunderts. Blondlot arbeitete mit Aluminiumlinsen, um die neuen Strahlen zu bündeln, und nutzte Aluminiumprismen, um sie nach dem klassischen Experiment, das auf Newton zurückgeht, in ein Spektrum zu zerlegen. Die folgende Abbildung zeigt, wie ein Prisma aus Aluminium die Strahlen auf einen Bildschirm projiziert. Blondlot benutzte einen Rollmechanismus, bestehend aus einem Rad und einem Schneckengetriebe, der einen phosphoreszierenden Faden in minutiösen Bewegungen durch das Spektrum bewegte, um die Veränderungen der Lichtintensität der vom Spektrum ausgehenden N-Strahlen beobachten zu können. 36
Ein N-Strahlen-Spektrograph.
Die N-Strahlen werden von dem heißen Draht in der Stahlröhre emittiert und passieren dann ein undurchsichtiges Material. Der so gebündelte Strahl trifft auf das Prisma. Um einen solchen Apparat zu benutzen, muß Blondlot davon überzeugt gewesen sein, daß sich die N-Strahlen wellenförmig ausbreiteten. Prinzipiell war es nicht falsch, für das Prisma ein anderes Material als Glas zu benutzen. Blondlot nun saß in einem abgedunkelten Raum, bewegte das Rad seines Rollmechanismus, und der phosphoreszierende Faden bewegte sich durch das Spektrum. Blondlot notierte sorgfältig jedes Aufleuchten und Schwächerwerden des Fadens. Die Entdeckung dieser helleren und dunkleren Banden im Spektrum ließ den Physiker eine sehr komplexe Struktur der N-Strahlen vermuten. Wood setzt den N-Strahlen ein Ende Auf einem Treffen der British Association for the Advancement of Science (Britische Vereinigung für den Fortschritt der Wissenschaft) an der Universität Cambridge im Jahre 1904 kamen die Mitglieder des Fachbereichs Physik zusammen, um das Phänomen der N-Strahlen zu diskutieren. 37
Professor Rubens aus Berlin, der soeben seinen erfolglosen Versuch unternommen hatte, dem Kaiser die N-Strahlen vorzuführen, verfolgte dieses Gebiet mit ganz besonderem Interesse. Irgend jemand würde nach Nancy reisen müssen, um dort direkt Blondlots Experimente zu überprüfen. Da ein europäischer Wissenschaftler die äußerst sensiblen nationalen Gefühle wohl eher belastet hätte, wurde diese Aufgabe dem amerikanischen Physiker Robert W. Wood übertragen. Wood fand sich an einem Herbstmorgen in aller Frühe in Blondlots Labor ein. Blondlot zog unter den aufmerksamen Augen seines Assistenten die Rollos herunter, um das Labor in absolute Dunkelheit zu tauchen. Er zündete eine schwache Gaslampe an, um ein Minimum an Licht bereitzustellen. Wood beobachtete genau, wie Blondlot sein erstes Experiment durchführte. Ein konstanter elektrischer Funke war hinter einem Stück matten Glases plaziert, so daß dieses von ihm durchflutet wurde und Veränderungen der Lichtintensität leichter beurteilt werden konnten. Blondlot richtete nun einige N-Strahlen auf den Funken und fragte sofort, ob Wood nicht sehe, daß der Funke jetzt heller leuchtete. Wood konnte es nicht sehen. Daraufhin unterbrach Blondlot den N-Strahl mit seiner Hand und behauptete, daß dies den Funken schwächer werden lasse. Auch diesen Effekt konnte Wood nicht beobachten. Blondlot seufzte. Woods Augen seien einfach nicht empfindlich genug, meinte er. Wood hatte eine Idee: Vielleicht könnte Blondlot freundlicherweise selbst die Veränderungen der Helligkeit anzeigen, während er, Wood, mit seiner Hand den N-Strahl unterbreche, ohne daß Blondlot es sähe. «Ich schlug vor, daß Blondlot den Bildschirm beobachten und versuchen solle, genau den Moment anzugeben, in dem ich mit meiner Hand den N-Strahl unterbrach», schrieb Wood in seinem Bericht an die Zeitschrift Nature. «In keinem Fall konnte er eine korrekte Antwort geben; er gab an, Änderungen der Helligkeit zu sehen, obwohl meine Hand bewegungslos in der Bahn der N-Strahlen lag.» 38
Als nächstes zeigte Blondlot Wood Fotografien, auf denen das Hellerwerden des Funkens festgehalten war. Auch dies fand Wood nicht überzeugend, da die Platten kumulativ belichtet worden waren und so die Möglichkeit bestand, die Platten unbewußt geringfügig länger der Belichtung durch den Funken auszusetzen, wenn die N-Strahlen-Quelle «an» war. Verdrossen schlug Blondlot nun vor, die Verstärkung der menschlichen Sehfähigkeit durch die mysteriösen Strahlen zu demonstrieren. Wood stimmte begeistert zu und beobachtete, wie Blondlot eine flache Eisenfeile direkt über seine Augen hielt. Blondlot behauptete, daß er die Zeiger einer schwach erleuchteten Uhr, die auf einem Tisch am anderen Ende des Labors stand, gerade noch sehen könne, da seine Sehfähigkeit verstärkt sei aufgrund der N-Strahlen, die von der Feile wie auch von vielen anderen Metallen emittiert wurden. Wood fragte, ob er die Feile halten könne. Blondlot stimmte zu. Wood aber ersetzte in der Dunkelheit des Labors die Feile durch ein Holzlineal, das er auf dem Tisch gesehen hatte. Ja, Blondlot konnte noch immer die Zeiger der Uhr recht deutlich erkennen - und dies, obwohl doch Holz angeblich überhaupt keine N-Strahlen emittierte! Mittlerweile warf Blondlots Assistent Wood feindliche Blicke zu. Blondlot schlug vor, in den nächsten Raum zu gehen, wo sein Spektrograph aufgebaut war, ein Apparat, der mit Hilfe eines Aluminiumprismas die N-Strahlen, zerlegt in ein kontinuierliches Spektrum, auf einen Bildschirm projizieren sollte (siehe obige Beschreibung). Blondlot setzte sich an den Bildschirm, drehte das Rad und gab die Positionen an, bei denen er hellere oder dunklere Linien sah. Wood saß neben ihm, nahe dem Aluminiumprisma, und blickte skeptisch in die Dunkelheit. Als Blondlot die Positionen angab, an denen er das Maximum sah, bemerkte Wood, daß diese kaum einen Zehntel Millimeter auseinander lagen. Die Öffnung jedoch, durch die die N-Strahlen auf ihrem Weg in ihre Spektral39
banden hindurchtraten, war mehr als zwei Millimeter groß. In der Physik ist dies normalerweise unmöglich. Mit einer Lochkamera zum Beispiel könnte nie eine solche Auflösung mit einer Öffnung von zwei Millimetern erreicht werden. Alle Bildteile würden bei einem Bereich von zwei Millimetern oder mehr verschmiert werden und so ein sehr unscharfes Bild ergeben. In der Dunkelheit des Raumes legte er Blondlot diese Tatsache dar. «Dies ist eine der unerklärlichen und erstaunlichen Eigenschaften dieser Strahlen», sagte Blondlot. Er bot Wood den Platz am Mikrometer an. Wood bewegte den phosphoreszierenden Zeiger durch das Spektrum. Er konnte keinerlei Veränderungen der Helligkeit des Zeigers erkennen. Mit einem Seufzer zog er sich auf seinen vorherigen Platz zurück. Vielleicht könne es Blondlot noch einmal versuchen. In der Dunkelheit, die nur schwach von einer einzigen Gasflamme erleuchtet wurde, beobachtete Wood Blondlots Assistenten, der ihn mittlerweile voller Argwohn anstarrte. Er wartete, bis der Assistent einen Moment wegschaute, und entfernte dann flink das Aluminiumprisma von der Bank. Er wartete ab. Blondlot gab weiterhin die Maxima im Spektrum an. Wood sagte nichts. Bevor Blondlot die Vorhänge öffnete, stellte Wood das Prisma wieder an seinen Platz; der Assistent jedoch beobachtete, wie er es in seine frühere Position ausrichtete. Er stürmte empört auf Wood zu, stellte das Prisma einfach irgendwie hin, und schlug vor, daß er, der Assistent, die Maxima noch einmal angeben solle. Vielleicht könnte so der unverschämte Amerikaner davon überzeugt werden, daß das Phänomen unabhängig vom Beobachter sei. Insgeheim hatte der Assistent Wood im Verdacht, das Prisma entfernt zu haben, und er zweifelte nicht daran, daß er es wieder tun werde. Er wollte dem Amerikaner schon zeigen, wer clever war und wer nicht. Er wartete, bis Wood, absichtlich gut hörbar, zu seinem Platz zurückgekehrt war, und begann die Maxima zu suchen. Mon Dieu! Da war ja überhaupt nichts zu beobachten. 40
Ob der Amerikaner irgendein dérangement gemacht hatte? Der Trick des Assistenten, der auf der Prämisse aufbaute, daß Wood wiederum das Prisma entfernt habe, schlug fehl. Wood, wohl wissend, daß der Assistent ihn verdächtigte, hatte diesmal das Prisma nicht entfernt! Der Sturz des Zauberers Nur wenige Tage später schickte Wood einen Bericht über seinen Besuch in Blondlots Labor an die Zeitschrift Nature. Das Erscheinen dieses Artikels besiegelte Blondlots Schicksal sowie das seiner geliebten N-Strahlen. Als der französische Physiker Le Bei den Artikel las, rief er aus: «Welch eine Niederlage für die französische Wissenschaft, wenn einer ihrer angesehenen Weisen die Position von Spektrallinien mißt, während das Prisma in der Tasche seines amerikanischen Kollegen ruht!» Die Academie des Sciences aber gab den Traum von den N-Strahlen nur ungern auf und überreichte Blondlot bei ihrem Treffen im Dezember 1904 einen Preis und eine Medaille. Damit sollte, so hieß es, Blondlots Gesamtwerk geehrt werden. Einige Jahre noch erschienen Artikel über die N-Strahlen, dann verlief die Angelegenheit im Sande. Von Blondlot wird berichtet, daß er in schwere Depressionen verfiel, von denen er sich nie wieder erholte. Blondlot, der Physiker, der als erster die Leitungsgeschwindigkeit in elektrischen Drähten gemessen hatte, verlor schließlich den Verstand und starb als Folge dieses Debakels. Die französische Wissenschaft erholte sich natürlich von dieser Schlappe. Im Jahre 1900 zum Beispiel hatte Paul Villard bereits die Gammastrahlen entdeckt. Es brauchte nur einige Jahre, bis die Bedeutung, die diesen Strahlen bei Atomkernumwandlungen zukommt, angemessen gewürdigt wurde.
41
Was war schiefgelaufen? Blondlot war zweifellos ein Opfer der Selbsttäuschung. Nicht nur, daß andere Wissenschaftler - wie zum Beispiel die deutschen - die Experimente nicht wiederholen konnten, dieses Unvermögen führte auch dazu, daß schließlich die Nichtexistenz der N-Strahlen bewiesen wurde. Warum hatte nicht Blondlot selbst daran gedacht, Woods entscheidende Experimente durchzuführen? Die Wissenschaftler, die Blondlot kannten, waren sich über seine Gewissenhaftigkeit und seine Ehrlichkeit einig. Eine der folgenden Hypothesen könnte Blondlots Selbsttäuschung erklären. Die eine ist geradlinig; die andere jedoch verworren und undurchsichtig. Wenn man glaubt, eine Entdeckung von weltbewegender Bedeutung gemacht zu haben, so muß man aus dem härtesten Holz geschnitzt sein, um sich das Experiment auszudenken, das allenfalls die Träume zu Asche werden lassen kann. Andernfalls wird man unbewußt dazu tendieren, so zu arbeiten, daß die Nichtexistenz des «eigenen» Phänomens verborgen bleibt. Blondlot könnte sich ganz einfach getäuscht haben, da er in einem ziemlich dunklen Raum, nahe an der Grenze der Sehfähigkeit arbeitete. Dinge, die kaum wahrgenommen werden, erscheinen den jeweiligen persönlichen Erwartungen entsprechend mehr oder auch weniger deutlich. Die zweite, undurchsichtigere Hypothese betrifft Blondlots Assistenten. Der Physiker Cuenot behauptete: «Die ganze Entdeckung der N-Strahlen könnte von einem übereifrigen Assistenten, der sich bei seinem Professor unentbehrlich machen wollte, ins Rollen gebracht worden sein. ... Normalerweise zeichnen sich Assistenten nicht durch eine kompromißlose Liebe zur Wahrheit aus und haben wenig Hemmungen, Experimente zu manipulieren; sie sind nur allzugerne bereit, ihren Vorgesetzten mit Ergebnissen zu schmeicheln, die mit deren a priori-Erwartungen übereinstimmen.» 42
War in diesem Fall Blondlot der Lehrling oder war es sein Assistent? Wir werden es wohl nie erfahren. Vom wissenschaftlichen Standpunkt aus gesehen, hatte Blondlot ein nicht wiederholbares Experiment erzeugt. In der Physik schließt nichts subtile, schwer faßbare Phänomene per se aus, und Blondlot wußte dies ebensogut wie alle anderen. Jedoch sollte jeder Wissenschaftler, der sich mit solch subtilen Phänomenen konfrontiert sieht, um so härter daran arbeiten, sie so zu festigen, daß kein Zweifel an ihnen bestehen bleibt. Woods theatralischer Auftritt hätte von Blondlot vermieden werden können, wenn er sich selbst gefragt hätte, wie man beweisen konnte, daß dieses Phänomen nicht existierte. Er hätte ganz einfach einen anderen Wissenschaftler einladen können, seine Gasflamme zu beobachten, während er selbst, Blondlot, seine Hand im Bereich der vermeintlichen N-Strahlen hin- und herbewegt. Ohne dem anderen zu sagen, was er erwarten solle, hätte er sich dabei einer sinnvollen und erträglichen Enttäuschung ausgesetzt. Blondlot erlitt seinen Fehlschlag zu Anfang des 20. Jahrhunderts; zwei anderen Forschern sollte es gegen Ende dieses Jahrhunderts ebenso ergehen. Die berühmte «Entdeckung» der kalten Kernfusion von Fleischmann und Pons im Jahre 1986 ähnelt in ihrer Nichtreproduzierbarkeit den Experimenten von Blondlot auf geradezu unheimliche Weise (s. Kapitel 6). Blondlots Fehler gibt Anlaß zu Langmuirs Gesetz Blondlots Fehler wurde zum zentralen Thema eines Kolloquiums, das Irving, ein amerikanischer Physiker und Nobelpreisträger, im Jahre 1953 eröffnete. Langmuir hatte Fälle wissenschaftlicher Fehlleistungen bis in die 50er Jahre untersucht und deren hervorstechendste Charakteristika in Form mehrerer «Gesetze» zusammengefaßt. Diese treffen in besonderem Maße für die N-Strahlen und die kalte Kern43
fusion zu. Mit «Effekt» meint Langmuir ein Phänomen, das von Lehrlingen des einen oder anderen Schlages, zumindest scheinbar, beobachtet oder gemessen werden kann. Langmuirs Gesetze y Der maximale Effekt, der beobachtet werden kann, wird von einem Auslöser kaum meßbarer Intensität erzeugt, und die Stärke des Effektes ist nahezu unabhängig von der Intensität des Auslösers. y Der Effekt ist in seiner Stärke nahe an der Nachweisgrenze, oder es sind sehr viele Einzelmessungen notwendig, da die statistische Signifikanz der Ergebnisse sehr niedrig ist. y Äußerste Genauigkeit ist notwendig. y Phantastisch klingende Theorien, die mit der Erfahrung nicht im Einklang stehen, werden vorgeschlagen. y Kritik wird mit ad-hoc-Rechtfertigungen abgetan. y Befürworter und Kritiker der Theorie halten sich anfangs die Waage, doch geht die Zahl der ersteren dann sukzessive auf Null zurück. Als Bestätigung für seine Gesetze führt Langmuir nicht nur die N-Strahlen an, sondern auch den Allison-Effekt und das Experiment von Davis und Barnes. Vielleicht macht es Ihnen Spaß, beim Lesen der folgenden Kapitel darauf zu achten, wie viele der von Langmuir formulierten Charakteristika bei den verschiedenen Beispielen zu finden sind. Die meisten Beispiele weisen einige von ihnen auf, ein paar wenige sogar alle.
44
2. Geisterzahlen Die kuriose Theorie des Intelligenzquotienten
Im Jahre 1904, also im gleichen Jahr, in dem der amerikanische Physiker Robert Wood seinen schicksalsträchtigen Besuch im Labor von Rene Blondlot machte, wurde Alfred Binet, ein Landsmann Blondlots, vom französischen Erziehungsministerium gebeten, einen Test zu entwickeln, der helfen sollte, Schüler mit Lernproblemen zu identifizieren. Aus dieser einfach erscheinenden Nachfrage entwickelte sich auf verwinkeltem Wege ein Fall unzulänglicher Wissenschaft, der jedoch ganz andere Aspekte aufwies als jenes Debakel mit den N-Strahlen, das sich damals gerade zuspitzte. Am Anfang der Geschichte des Intelligenzquotienten stand nicht ein Lehrling, sondern ein richtiger Wissenschaftler, wenn man das so sagen möchte. Und im Gegensatz zu den kurzlebigen N-Strahlen sollte die Theorie des IQ einen äußerst langsamen Tod sterben. Genaugenommen ist sie noch immer lebendig! Binet, der Leiter des psychologischen Institutes der Sorbonne in Paris, war schon seit langem an einer wissenschaftlichen Untersuchung der menschlichen Intelligenz interessiert. Einige Jahre zuvor hatte er mit Faszination die kraniometrischen Studien (Vermessungen des Gehirns) eines weiteren Landsmannes, Paul Broca (nach dem das Brocasche Zentrum benannt ist), verfolgt, der behauptete, intelligentere Menschen hätten größere Köpfe. Entschlossen, diese Idee selbst zu testen, besuchte Binet mehrere Schulen. In jeder Klasse, die er besuchte, ließ er sich vom 45
Lehrer den klügsten und den dümmsten Schüler nennen und vermaß deren Köpfe, gewissenhaft die von Broca empfohlenen Techniken befolgend. Die Ergebnisse waren so entmutigend, daß Binet die Idee der physischen Vermessung völlig aufgab. Der mittlere Unterschied zwischen dem klügsten und dem dümmsten Schüler betrug etwa einen Millimeter, und die individuellen Werte variierten so stark, daß dumme Schüler durchaus auch größere Köpfe haben konnten als kluge. Ganz eindeutig bot diese Methode keine Möglichkeit, die intellektuelle Zukunft von Individuen vorherzusagen. Binets Ehrenhaftigkeit als Wissenschaftler ist über jeden Zweifel erhaben. Wie Stephen Jay Gould in seinem Buch Der falsch vermessene Mensch darstellt, testete Binet seine eigene Unvoreingenommenheit in einem unabhängigen Kopfvermessungsexperiment. Als er mit Entsetzen feststellen mußte, daß seine eigenen Erwartungen einen wahrnehmbaren Einfluß auf die Vermessung hatten, entschloß er sich endgültig, die Methode der Kopfvermessung aufzugeben. Die Anfrage des Ministeriums für Erziehung gab Binet Gelegenheit, einen neuen und zugleich der Psychologie wesentlich näher stehenden Ansatz zur Bearbeitung dieses Problems zu wählen. Er entwarf einen Test, der zwar an eine Prüfung erinnerte, aber keine schulischen Fragen enthielt. Im Gegenteil, die Fragen in diesem Test gaben die Fähigkeit eines Schülers wieder, über einfache Dinge wie zum Beispiel Münzen, Gesichter oder andere alltägliche Gegenstände logisch nachzudenken. Binet bemühte sich redlich, so viele verschiedene Ausdrucksweisen logischen Denkens als nur irgend möglich in seinen Test aufzunehmen, so zum Beispiel das Zählen, Ordnen, Verstehen, das Vorstellungsvermögen oder die Fähigkeit, Fehler zu korrigieren. Im Jahr 1905 hatte Binet die erste Version seines Testes erstellt, in dem er die Aufgaben ihrer Schwierigkeit nach anordnete. In seiner zweiten Version, die er im Jahre 1908 fertigstellte, ordnete Binet die Fragen gemäß dem «geistigen 46
Alter» an. Für jede Frage gab es seiner Ansicht nach ein bestimmtes Mindestalter, bei dem erwartet werden konnte, daß normal oder durchschnittlich begabte Kinder fähig sind, sie zu beantworten. Als geistiges Alter eines an diesem Test teilnehmenden Schülers wäre das Alter anzugeben, das der letzten Frage entspricht, die der Schüler korrekt beantworten konnte, bevor er in Schwierigkeiten geriet. Um sicherzustellen, daß des Schülers Fähigkeiten zu schreiben oder zu lesen keinen Einfluß auf den Ausgang des Tests hatten, wurde der Test mündlich, in einem persönlichen Gespräch, abgenommen. Die Punktzahl, die Binet jedem Schüler, der an diesem Test teilnahm, gab, war die Differenz zwischen dem chronologischen und dem geistigen Alter des Schülers, das sich aus dem Testergebnis ergab. Der deutsche Psychologe William Stern gab zu bedenken, daß es besser sei, nicht die Differenz dieser beiden Alter zu nehmen, sondern den Quotienten des geistigen geteilt durch das chronologische Alter. So wurde das Q des IQ geboren. Als hätte Binet schon im voraus gewußt, daß sein Test später einmal mißbraucht werden sollte, warnte er ausdrücklich vor möglichen Fehlinterpretationen der Ergebnisse: «Die Skala erlaubt, ehrlich gesagt, keine Messung der Intelligenz, da intellektuelle Qualitäten nicht addiert und somit nicht wie lineare Oberflächen gemessen werden können.» Was Binet am meisten fürchtete, war ein Prozeß, den Gould als «Reifikation» oder «Verdinglichung» bezeichnete. Einen Begriff für etwas zu haben heißt nicht unbedingt, daß dieser Begriff auch etwas Wirkliches oder Spezifisches bezeichnet. Bei manchen Menschen reicht der Begriff «Einhorn» aus, um eine weiße, pferdeähnliche Kreatur, der ein einziges Hörn an der Stirn entspringt, zu verdinglichen. Der «Begriff» Einhorn ist sicherlich real, das, was er bezeichnet, hingegen nicht (zumindest soweit mir bekannt ist). Binet war sich noch einer zweiten Gefahr bewußt, die der Test in sich barg: Es wäre ein leichtes, die sich aus dem 47
Test ergebende Punktzahl nicht nur dazu zu nutzen, Schüler zu ermitteln, die spezielle Hilfe benötigten, sondern sie als Kategorie einer Klassifikation, zu der diese Schüler verdammt würden, zu mißbrauchen. Für Binet war Intelligenz nicht eine feststehende Qualität oder Größe, sondern eine, die unter der richtigen Obhut wachsen kann. Aufgrund der Erfahrungen mit speziellen Klassen, die er zusammengestellt und unterrichtet hatte, stand es für Binet außer Zweifel, daß Intelligenz gefördert werden kann: «In diesem praktischen Sinne, und dies ist der einzige Zugang, den wir haben, sind wir der Ansicht, daß die Intelligenz dieser Kinder zugenommen hat. Wir haben das gefördert, worauf Intelligenz basiert: die Fähigkeit zu lernen und Anweisungen umzusetzen.» Lassen wir nun Binet weiterhin fröhlich seinen Test anwenden, um hilfsbedürftige Schüler herauszufinden, ohne daß der Begriff «Intelligenz» damit in Verbindung gebracht wird. Auf der anderen Seite des Atlantiks jedoch sollten seine Tests in den Händen von zwei Lehrlingen eine seltsame Wiedergeburt erfahren. Das «I» wird geboren Auf jener Seite des atlantischen Ozeans erfuhr der Intelligenzquotient seine erste öffentliche Beachtung im Jahre 1910. H. H. Goddard, Direktor an der Vineland Förderschule für minderbegabte Mädchen und Jungen in New Jersey, hielt Binets Test für ein ideales Hilfsmittel, um eine äußerst wichtige Unterscheidung treffen zu können. Zur Zeit Goddards definierten Psychologen «Idioten» als diejenigen, die nie die volle Sprachfähigkeit erreichten und insgesamt kaum über den Entwicklungsstand eines Dreijährigen hinauskamen. Die nächsthöhere Klassifikation, die «Schwachsinnigen», lernten ausreichend gut zu sprechen, schienen aber unfähig, lesen oder schreiben zu erlernen. Schwachsinnige hatten per definitionem ein mentales 48
Alter, das irgendwo zwischen drei und sieben Jahren anzusiedeln war. Im frühen 20. Jahrhundert waren die Wörter «Idiot» und «Schwachsinniger» sowohl in ihrem Gebrauch als auch in ihrer Bedeutung eher technische Begriffe. Langsam jedoch bekamen sie eine zunehmend negative Bedeutung. Goddards «Schule» war nicht für Idioten oder Schwachsinnige, sondern für geistig minderbemittelte Kinder. Um die Taxonomie der geistigen Zurückgebliebenheit auf den Stand der Zeit zu bringen, kreierte Goddard den Begriff «debil». Eine Stufe über den Schwachsinnigen stehend, waren die Debilen in einer Grauzone zwischen Idioten und Schwachsinnigen auf der einen Seite und den normal befähigten Menschen auf der anderen angesiedelt. Debile waren zwar fähig, schreiben und lesen zu erlernen, ihre Fertigkeit darin würde jedoch immer unzureichend bleiben. Binets neuer Test war nach Goddards Ansicht genau das richtige Mittel, um diese Gruppe herauszufinden. Die Bewegung der Eugenik, die von dem englischen Statistiker Francis Galton zwei Jahrzehnte zuvor begründet worden war, hatte mittlerweile in Amerika Fuß gefaßt. In bestimmten Schichten gab es große Bedenken, daß die gesamte Bevölkerung mit unerwünschten Genen durchsetzt würde, wenn man es den Minderbemittelten und Debilen erlaubt, sich zu vermehren und Kinder in die Welt zu setzen. Von den Idioten und Schwachsinnigen ging keine derartige Bedrohung aus, da sie scheinbar wenig Interesse an (oder wenig Erfolg bei) der Vermehrung hatten, Debile hingegen waren in dieser Beziehung etwas ganz anderes. Domestizierte Debile konnte man mittels Sterilisation oder Isolation (wie in Goddards Schule) in den Griff bekommen. Es war aber klar, daß mit der Ankunft weiterer Debiler an Amerikas Küsten noch viel leichter fertig zu werden war. Sie mußten einfach als solche erkannt und dorthin zurückgeschickt werden, wo sie herkamen. Im Jahre 1912 wurde Goddard von der Gesundheitsbehörde der Vereinigten Staaten beauftragt, die ankommenden Immigranten in der 49
berühmt-berüchtigten Einrichtung auf Ellis Island dahingehend zu testen. Goddard, der Immigranten untersuchte, die kaum Englisch sprachen und von denen die meisten sich leicht die Angst einjagen ließen, sie seien schwachsinnig, wandte Binets Test mit Begeisterung an und kam zu erschreckenden Ergebnissen. Er fand heraus, daß 87 Prozent der Russen, 83 Prozent der Juden, 80 Prozent der Ungarn und 79 Prozent der Italiener (nur um eine Auswahl zu nennen) geistig minderbemittelt waren. Aufgrund dieser Testergebnisse wurden die Deportationen immer zahlreicher. Ihre Zahl stieg 1913 um das Vierfache und 1914 nochmals um das Sechsfache an. Viel später sollte Goddard selbst zugeben, daß Binets Test seine Grenze hat und daß es vielleicht verkehrt gewesen war, so viele Menschen aufgrund der Punktzahl, die sie in diesem Test erzielt hatten, zu deportieren. Die enorme Weite des Atlantiks wurde nicht nur von Immigranten überwunden, sondern ebenso von Binets Veröffentlichungen. In den Händen von H.H. Goddard wurden sie zu dem, was ihr Autor befürchtet hatte. Goddard glaubte nämlich daran, daß «Intelligenz» eine einzelne, feststehende Größe sei, die mehr oder weniger genau meßbar sei. Außerdem glaubte er, daß Intelligenz mittels eines speziellen Gens, das von jedem der beiden Eltern stamme, übertragen werde. Diejenigen, die keine Gene für Intelligenz erhielten, wurden zu Debilen oder noch Schlimmerem. Andere, die nur ein Intelligenzgen erhielten, würden kaum in der Lage sein, anderes als «stumpfsinnige Arbeiten» zu verrichten. Binets Test gab Goddard nun die Möglichkeit, einen Intelligenzquotienten für jede getestete Person zu entwickeln, welcher schnell die Genausstattung der getesteten Personen anzeigte. Binets Anmerkungen, daß der Test nicht zur Bestimmung der «Intelligenz» angewendet werden könne, erreichten Goddard entweder gar nicht oder stießen auf taube Ohren. Möglicherweise wäre Goddard überhaupt nie auf die Idee gekommen, daß «IQ-Tests Intel50
ligenz messen», und zwar genau aus dem Grunde, der das Testen einer solchen Hypothese unnötig machte. Die Sache war ja völlig selbsterklärend. Schwierigkeiten mit der Binet-Skala und ihrer Anwendbarkeit führten dazu, daß Lewis M. Terman, ein Psychologe an der Universität von Stanford, den Binet-Test ablehnte und im Jahre 1917 sein eigenes Verfahren, heute als Stanford-Binet-Skala bekannt, entwickelte. Terman erweiterte die Anzahl der Fragen von 54 auf 90. Viele der neuen Fragen waren für «überlegene Erwachsene». Im Gegensatz zum Binet-Test, der mündlich von ausgebildeten Prüfern durchgeführt worden war, sollte der neue Stanford-Test ein schriftlicher Test sein. Außerdem sollte er nicht auf ausgewählte Schüler beschränkt sein. Terman sah bereits einen universellen IQ-Test voraus: «Welche Schüler getestet werden sollen? Die Antwort ist: alle.» Der Stanford-Binet-Test sollte als Grundlage für alle Testverfahren dienen: die Alpha- und Beta-Tests der YerkeArmee, die Wechsler-Intelligenz-Skala für Erwachsene, den California-Test der geistigen Reife, den Test für kognitive Fähigkeiten, den Lorge-Thorndike-Intelligenz-Test, den Otis-Lennon-Test für geistige Fähigkeiten und viele andere. Die Geburt des G Ungefähr zur gleichen Zeit, als Binet vom französischen Erziehungsministerium den Auftrag erhielt, seinen berühmten Test zu entwickeln, erfand der englische Statistiker Charles Spearman die Faktorenanalyse, eine Technik, mit Hilfe derer grundlegende Übereinstimmungen in einer großen Anzahl von Korrelationen herausgefunden werden können. Um verständlich zu machen, was das bedeutet, lassen Sie mich für einen Moment zurückgehen. Zwei Messungen, die sehr häufig wiederholt werden, können eine hohe, eine niedrige oder eine negative Korrelation zeigen. Messe ich die Länge der Arme und die Länge 51
der Beine von sehr vielen Menschen, werde ich eine hohe Korrelation (nahe 1,0) zwischen den beiden Messungen feststellen. Es gibt dafür einen einfachen Grund: Menschen mit längeren Beinen haben meist auch längere Arme. Sie sind insgesamt größer, und die durchschnittliche Größe der vielen gemessenen Menschen wird der Hauptgrund für die hohe Korrelation sein. Messe ich hingegen die Länge ihrer Arme und die ihrer Haare (passend definiert), so werde ich wahrscheinlich eine negative Korrelation finden. Der Grund hierfür ist, daß häufig Menschen mit längeren Armen Männer sind und Männer (auch heute noch) eher kürzere Haare haben als Frauen. Vermutlich erreicht die Korrelation nicht ganz -1,0, die theoretische untere Grenze für die Korrelation zweier Messungen. Viele positive (und entsprechend auch viele negative) Korrelationen, die veröffentlicht werden, sind völlig unberechtigt. So könnte ich zum Beispiel eine hohe Korrelation für die täglichen Aktienkurse und die Temperaturen zwischen März und August ermitteln. Vielleicht stieg aber auch einfach der Absatz stetig an, zu einer Zeit, in der in der nördlichen Hemisphäre der Winter in den Sommer überging. Es ist möglich, daß es überhaupt keinen kausalen Zusammenhang zwischen den beiden Zahlenreihen gibt, diese aber trotzdem eine hohe Korrelation zeigen. Schon wieder zeigt sich die allgegenwärtige Gefahr der Verdinglichung. Auch wenn ein plausibler Zusammenhang zwischen zwei Meßreihen mit einer hohen Korrelation vorstellbar wäre, so kann aufgrund der hohen Korrelation nur vermutet werden, daß ein kausaler Zusammenhang besteht, bewiesen werden kann er damit nicht. Bei einer hohen Korrelation kann die Mathematik kaum eine Aussage bezüglich einer Ursächlichkeit machen, bei keiner oder einer negativen Korrelation hingegen kann sie das durchaus. Zeigen zwei Messungen eine Korrelation nahe Null, so können wir 52
ziemlich sicher sein, daß die beiden gemessenen Variablen in keinem kausalen Zusammenhang stehen. Spearman suchte nach einem Weg, kausale Effekte herauszufinden, indem er die Korrelationen, die sich aus vielen Messungen ergaben, einer speziellen Analyse unterzog, so daß sie visuell als Linien in einer Punktwolke dargestellt werden konnten. Die folgende Abbildung zeigt hundert Messungen zweier Variablen, dargestellt als Punkte in einer Ebene. Wir können sagen, daß jeder Punkt eine Person repräsentiert und die Koordinaten der Punkte die beiden Messungen sind, die an dieser Person durchgeführt wurden.
Jeweils zwei Messungen wurden an 100 Personen durchgeführt.
In diesem Fall besteht eine positive Korrelation zwischen den beiden Messungen. Die Linie, die von links unten nach rechts oben geht, gibt diese Korrelation wieder. Sie kann als elementarer Bestandteil der Meßwerte bezeichnet werden. Sie gibt einen «Faktor» wieder, der in den Daten selbst enthalten ist (oder auch nicht). Eine zweite Linie, rechtwinklig zu der ersten, deutet eine zweite, negative Korrela53
tion an. Sie gibt einen zweiten «Faktor» wieder, der unabhängig vom Hauptfaktor wirkt. Als Spearman die Daten von IQ-Tests studierte, war er überrascht zu sehen, wie hoch die Korrelation zwischen den Punktzahlen war, die ein und dieselbe Person in zwei verschiedenen Tests erreichte. Gab es da einen Faktor, der all diesen Tests zugrunde lag? Um dies zu untersuchen, wendete er die Faktorenanalyse an und fand heraus, daß es wirklich einen derartigen Faktor gab. Spearman nannte ihn G, wobei G für «Allgemeine Intelligenz» (general intelligence) stehen sollte. Hier haben wir ein perfektes Beispiel für Verdinglichung. Spearman glaubte daran, daß es eine «Allgemeinintelligenz», eine angeborene Qualität gebe, und er war glücklich darüber, diesem abstrakten (und allzu häufig bedeutungslosen) Faktor von nun an einen realen Status geben zu können. In der Tat ging Spearman so weit zu behaupten, daß aufgrund seiner Entdeckung von G die Psychologie den Status einer harten Wissenschaft einnehme, vergleichbar der Physik. Spearman beanspruchte, daß G universeller Natur sei - und natürlich für sich selbst einen Platz unter den besten Wissenschaftlern. Er bemerkte: «Alle Bereiche intellektueller Aktivität haben eine grundlegende Funktion gemeinsam. ... Dieser G-Faktor ist mitnichten auf eine begrenzte Anzahl von Fähigkeiten beschränkt, deren Korrelationen zueinander soeben gemessen und in einer speziellen Tabelle notiert wurden, vielmehr zeigt er sich in allen möglichen Bereichen.» Spearman suchte nach einer perfekten, abstrakten Verallgemeinerung, die es bisher nur in der Mathematik und Physik gab. In G sah er die Rettung für die Psychologie, von seinem eigenen Aufstieg in die Spitzenränge des wissenschaftlichen Geistes ganz abgesehen. Die Last der «FrachtKult »-Wissenschaften sollte sich zwar erst in ferner Zukunft bemerkbar machen, Spearman jedoch würde zweifelsohne annehmen, daß sie nur für die verrückten statistischen Ideen seiner mühselig arbeitenden Kollegen zuträfen. Ab54
gesehen davon, daß Spearman für G eine besondere Rolle bei allen intellektuellen Vorgängen des Menschen in Anspruch nahm, tat er sich sehr schwer damit, irgendeinen spezifischen Mechanismus herauszufinden oder die Frage, was «Intelligenz» ist, näher zu beleuchten. Er war wie ein Fischer, der ein gewaltiges Gewicht an seiner Angel spürt und behauptet: «Ich habe einen Wal gefangen.» Aber war es nicht vielleicht nur die Vertäuung am Kai? Daß sowohl eine solide Hypothese für eine Definition von Intelligenz als auch Experimente, um eine solche Hypothese zu prüfen, vollkommen fehlten, wurde bereits mehrfach dargelegt. So bleibt schließlich die Frage, was «Intelligenz» ist und was ein IQ-Test eigentlich mißt. Was ist Intelligenz? Die Lehre vom Intelligenzquotienten war von Anfang an mehr oder weniger der Kritik ausgesetzt, nicht nur wegen der bereits erwähnten Gründe, sondern auch noch wegen manch anderer. Das Konzept des Intelligenzquotienten wurde von Psychologen ebenso kritisiert wie von Biologen, Physikern, Mathematikern und Wissenschaftsphilosophen. Um dieser Kritik zu begegnen, hat die Schule des Intelligenzquotienten klugerweise ihre intellektuellen Transportfahrzeuge zu einer zirkulären Wagenburg formiert. Um es mit den Worten von Edmund Boring, einem Harvard-Psychologen und frühen Anwender, zu sagen: «Intelligenz, als eine meßbare Fähigkeit, muß zunächst als die Fähigkeit definiert werden, einen Intelligenztest gut zu bestehen. Intelligenz ist das, was die Tests testen.» Diese Feststellung ist eine absolut akzeptable Definition für alles mögliche, aber nicht unbedingt für Intelligenz. Als Wissenschaftler hätte Boring sich darüber im klaren sein müssen, daß einer meßbaren Entität nicht einfach ein feststehender Begriff zugewiesen werden kann, es sei denn, die Entität ist die gleiche, für die der Begriff bisher benutzt 55
wurde. Angesichts der Tatsache, daß es in der Psychologie keine allgemein akzeptierte Theorie darüber gibt, was Intelligenz ist, war «Intelligenz» auch nicht wirklich ein feststehender Begriff. «Intelligenz» hatte (und hat auch weiterhin) eine volkstümliche Bedeutung, je nach dem Kontext, in dem Menschen das Wort benutzen. Wenn man darauf besteht zu behaupten, daß ein IQ-Test Intelligenz mißt, heißt das nicht nur implizit, die eigentliche große Frage zu umgehen, sondern auch explizit, die volkstümlichen Bedeutungen durcheinanderzubringen oder zu beeinflussen. Wenn ständig von «Intelligenztests» die Rede ist, dann bekommen Lehrer, Schüler und alle, die getestet werden oder damit etwas zu tun haben, den Eindruck, daß auch wirklich Intelligenz getestet wird. Sie fangen an zu glauben, daß diese Tests eine angeborene Fähigkeit widerspiegeln. Das bedeutet, als Resultat einer gewöhnlichen Klassenarbeit verdient ein Schüler eine gute (oder schlechte) Note, als Ergebnis eines Intelligenztests hingegen hat er einen hohen (oder niedrigen) IQ. Welch eine Macht kann ein Wort haben! Stellen Sie sich vor, Boring hätte gesagt: «Gzernmplatz ist das, was der Test testet.» Wer hätte seinen Gzernmplatz testen lassen? Welche schulischen Autoritäten hätten sich um den Gzernmplatz ihrer Schüler gekümmert? Borings Definition kann nur interpretiert werden als das Eingeständnis eines Mißerfolges, verpackt als Triumph des Verstandes. Viele Autoren haben dargelegt, daß eine Aussage der Form «X ist das, was ein X-Test mißt» als operationale Definition zwar akzeptiert werden kann, daß aber eine solche Definition die Übertragung auf andersgeartete Tests oder Messungen nicht erlaubt. Unter einer Intelligenztheorie verstehe ich eine Theorie, die Intelligenz als eine bis zu einem gewissen Grade jeder menschlichen geistigen Aktivität innewohnende Qualität definiert. Eine Mindestanforderung an solch eine Theorie ist, daß sie in der Lage ist, intelligentes Verhalten in den 56
verschiedensten natürlichen Situationen wie etwa sozialen Interaktionen, athletischen Darbietungen oder intellektueller Arbeit zu erkennen. Die Tatsache, daß eine solche Theorie zur Zeit nicht existiert, entschuldigt es nicht, daß die Tests einfach weiterlaufen ohne die geringste theoretische Grundlage. In ihrem faszinierenden Buch Die Kontroverse um den IQ stellen die Autoren N. J. Block und Gerald Dworkin folgende Anforderungen an eine Intelligenztheorie: Was sollte so eine Theorie [über Intelligenz] bieten? Sie sollte die kausale Rolle der Intelligenz bei Phänomenen erklären können, in denen Intelligenz eine kausale Rolle spielt. Sie sollte erklären, wie Intelligenz Fähigkeiten wie zum Beispiel Lernen, Probleme lösen, Verstehen, Entdekken, Erklären beeinflußt. Außerdem sollte sie die Art und Weise erklären, in der verschiedene Faktoren Intelligenz beeinflussen. Eine gute Theorie sollte etwas darüber aussagen, was Intelligenz ist und worin sich verschieden intelligente Menschen unterscheiden (Fähigkeit, Informationen zu verarbeiten? Gedächtnis?), wobei aber diese letztere Aufgabe vermutlich ein Nebenprodukt der ersteren sein würde. Dem könnte wohl hinzugefügt werden, daß manche Menschen offenbar in einem Bereich mehr und in anderen Bereichen weniger Intelligenz zeigen. So können manche Menschen ausgezeichnet soziale Beziehungen erkennen, sind aber völlig verloren, wenn von ihnen mathematische Berechnungen erwartet werden. Andere Menschen erkennen sofort Analogien zwischen Dingen, sind aber unfähig, sich neue Situationen vorzustellen. Dies sind nur einige wenige der Bereiche, in denen sich Intelligenz ausprägen kann. Ich werde diese Liste implizit erweitern, wenn wir die Tests selbst unter die Lupe nehmen. Computerwissenschaftler haben das Gebiet, das als künstliche Intelligenz (KI) bezeichnet wird, auf das genaue57
ste durchforscht, um etwas zu finden, das als intelligentes Programm bezeichnet werden könnte. Mehrere Jahrzehnte unermüdlicher Anstrengung führten dazu, daß die meisten Forscher im Bereich der KI jetzt tiefen Respekt vor den einfachsten mentalen Funktionen haben. Eine Forscherin erzählte mir, daß sogar die Imitation, wie ihr zweijähriger Sohn Smarties aus dem Gras aufsammelt, eine Leistung sei, die außerhalb der Möglichkeiten der meisten visuellen Systeme liege. Programme, die Kinderbücher lesen und verstehen können, wurden bisher nur mit geringem Erfolg entwickelt. Die Versuche, komplexe Situationen, denen Menschen in ihrem Alltag ausgesetzt sind, logisch zu analysieren und in ein Programm zu implementieren, rührten zwar zu einer befremdlichen Vielfalt von Theorien und Ansätzen, zeigten aber kaum einen wirklichen Erfolg. Nur in den Bereichen, wo es darum geht, genau definierte Situationen mit einfachen Regeln (die Stärke des Computers) zu erfassen, kann die künstliche Intelligenz einen gewissen Erfolg vorweisen. Programme, die anspruchsvolle Denkspiele wie Schach und Dame spielen können, beginnen erst jetzt, sich erfolgreich gegen erfahrenste Spieler durchzusetzen. Mit einer Myriade möglicher und recht unterschiedlicher geistiger Funktionsweisen, die unter dem Begriff «Intelligenz» zusammengefaßt werden, sind wir bei dem angelangt, was den Hauptvorwurf der meisten Kritiken bildet. Walter Lippmann, der Herausgeber von New Republic, drückte es im Jahre 1922 so aus: Die Ergebnisse werden als Zahlen wiedergegeben, und so liegt der Fehlschluß nahe zu denken, daß der Intelligenztest ein Maß ist wie ein Lineal oder eine Waage. ... Vorausgesetzt, das Lineal und die Waage stimmen mit dem ... Standardmaß und Standardgewicht im Eichamt in Washington überein, kann ihren Ergebnissen vertraut werden. Intelligenz aber ist keine abstrakte Größe wie Länge und Gewicht; sie ist ein äußerst kompliziertes Gebilde. 58
Die Durchführung des Tests Seit Binets Zeit werden Intelligenztests in zwei Schritten erarbeitet: (1) Fragen für den Test erfinden und (2) den Test so modifizieren, daß er, mit einer großen Anzahl von Menschen durchgeführt, Ergebnisse liefert, die denen des Stanford-Binet-Tests oder eines ähnlich angesehenen Tests vergleichbar sind. Die Theorie, die dem zugrunde liegt, ist einfach: Der Stanford-Binet-Test mißt Intelligenz, daher muß jeder andere Test, dessen Ergebnisse gleich verteilt sind wie die des Stanford-Binet-Tests, ebenfalls Intelligenz messen. Die folgenden Kategorien von Fragen und Aufgaben sind nur einige der vielen, die in all den Jahren in Intelligenztests aufgetaucht sind. Kategorie Welcher Begriff paßt nicht? Vervollständigen Sie diese Reihe
Beispiel Haus, Iglu, Bungalow, Büro, Hut 7 10 9 12 11 _
Wer war kein berühmter Musiker? Zotram Satsurs Revid Maleso Welche Figur fehlt? ein Quadrat über einem Kreis Visuelle Analogien ein Quadrat rechts von einem Kreis ein Quadrat unter einem Kreis sind dumme schlaue meist für schwer Bücher Enträtseln von Sätzen zu Menschen Ein Schwein ohne Schwanz Vervollständigen Ein Mann ohne Nase Sie die Bilder Ein Tennisplatz ohne Netz Ein kompliziertes Labyrinth, von oben Der Weg durch abgebildet, mit deutlichem Eingang und das Labyrinth Ausgang Anagramme
Solche Fragen sind eindeutig kulturell geprägt und können durchaus einem frisch angekommenen Immigranten, einem Stadtkind oder einem Arbeiter, der noch kaum einen 59
Stift in der Hand hatte, geschweige denn je etwas geschrieben oder gelesen hat, schwerfallen (oder vorübergehend Rätsel aufgeben). Zudem schließen IQ-Tests oft Fragen, für deren Beantwortung der gesunde Menschenverstand notwendig ist, ein, wie die folgende: y Geben Sie zwei Gründe an, weshalb die meisten Menschen lieber ein Auto als ein Fahrrad hätten. y Warum ist es besser, Rechnungen mit einem Scheck zu bezahlen als bar? y Warum ist es im allgemeinen besser, einer Wohltätigkeitsorganisation Geld zu geben als einem Bettler? Diese Fragen liegen eindeutig außerhalb des Horizontes von Stadtkindern, die noch zur Schule gehen. Wer könnte denn zum Beispiel einen Scheck dem Bargeld vorziehen? Es gibt sogar eine Frage, die lautet: «Wenn sich eine Taube mit einer Krähe einläßt, bleiben ihre Federn , ihr Herz aber wird schwarz.» Es gibt kaum einen Zweifel daran, daß IQ-Tests von Haus aus eine kulturelle Vorliebe haben, die dazu führt, daß eine sozioökonomische Klasse gegenüber einer anderen bevorzugt wird. Die Personen jedoch, die IQ-Tests durchführen, verkehren dieses Argument ins Gegenteil, indem sie behaupten, daß eine hohe Punktzahl im IQ-Test mit «Erfolg», in der jeweils untersuchten Gruppe korreliert. Die Autoren Block und Dworkin haben diese Behauptung auf die folgende interessante Art und Weise skizziert: Eine typische Korrelation zwischen IQ und Erfolg, so behaupten die Experimentatoren, sei 0,5 - keine sehr hohe Korrelation, aber auch keine, die einfach ignoriert werden kann. Wie könnte eine Argumentation aussehen, die belegt, daß eine Korrelation zwischen IQ und Erfolg von 0,5 beweist, daß der IQ-Test Intelligenz mißt? Ein Argument (A) lautet: y Erfolg ist ein Maß für Intelligenz.
60
y IQ korreliert mit Erfolg. y Daher ist IQ ein Maß für Intelligenz. Block und Dworkin haben diese Situation als Dreieck, dessen Ecken mit Erfolg, IQ und Intelligenz beschriftet sind, wiedergegeben und die Verbindungslinien bezeichnet, wie in der folgenden Abbildung dargestellt:
Erfolg, Intelligenz, und IQ. Wir wollen einmal annehmen, daß Erfolg ein perfektes Maß für Intelligenz sei, das heißt, daß die Korrelation zwischen Intelligenz (wie sie in einem absolut perfekten Intelligenztest gemessen werden könnte) und Erfolg 1,0 sei. Dann kann, da IQ und Erfolg eine Korrelation von 0,5 haben, (deduktiv) geschlossen werden, daß auch IQ und Intelligenz eine Korrelation von 0,5 haben. Das aber würde bedeuten, daß IQ-Tests ein recht schwaches Meßinstrument für Intelligenz sind, da mindesten 25% der Varianz der erreichten Punktzahl im IQ-Test auf Variationen der Intelligenz zurückzuführen wären. ... So würde zwar die Prämisse l von A und somit das ganze Argument so stark als möglich gemacht, die Schlußfolgerung daraus aber würde dadurch sehr schwach. 61
Wie stark aber muß eine Schlußfolgerung sein? Das heißt, wie hoch muß die Korrelation zwischen IQ und Intelligenz sein, damit sich daraus die Berechtigung ergibt zu sagen, daß ein IQ-Test Intelligenz mißt? ... Wir würden fordern, daß, wenn die Punktzahl des IQ vor allem die Intelligenz wiedergeben soll, ungefähr drei Viertel der Varianz in der Intelligenz über den IQ vorhergesagt werden kann. Dies würde einer Korrelation zwischen IQ und Intelligenz von 0,87 entsprechen. Block und Dworkin drehen dann die Richtung des Arguments um: Wir wollen nun zeigen, daß, wenn die Schlußfolgerung von A sehr stark gemacht wird, die Prämissen nicht mehr viel Glaubwürdigkeit besitzen. Lassen Sie uns annehmen, daß ... die Korrelation zwischen IQ und Intelligenz 1,0 sei ... woraus folgt, daß zwischen Intelligenz und Erfolg eine Korrelation von 0,5 besteht. Dann aber ist eine Person, die Argument A stützen will und die Schlußfolgerung daraus akzeptiert, dazu gezwungen zu behaupten, daß IQ Intelligenz sei, gestützt darauf, daß IQ eine Korrelation von 0,5 mit etwas (Erfolg) zeigt, was seinerseits nur eine Korrelation von 0,5 mit Intelligenz hat. Das heißt, jemand behauptet x = y, weil sowohl x als auch y zu 0,5 mit z korrelieren.
Ist der IQ erblich? Doch wenn sich der IQ (wie gemessen) als eine höchst dehnbare Größe herausstellt, kann man auch nicht behaupten, daß er in signifikantem Maße erblich sei. Die vielleicht bedeutendste Darstellung der Dehnbarkeit des IQ stammt von Bernadine Schmidt, einer jungen Sozialwissenschaftlerin aus Chicago, die im Jahre 1940 eine mittlerweile klassische Studie in der Zeitschrift Psychological Monographs veröffentlichte. Schmidts Artikel, mit einer beispiellosen Länge von 144 Seiten, beschreibt Veränderungen im sozia62
len, kulturellen und intellektuellen Verhalten von 254 Kindern im Alter zwischen zwölf und vierzehn Jahren. Die Kinder, aus benachteiligten oder nicht funktionierenden Elternhäusern im Großraum Chicago stammend, waren alle als minderbegabt klassifiziert worden. Ihr IQ lag bei durchschnittlich 52, der nationale Durchschnitt liegt im Vergleich dazu bei ungefähr 100. Schmidt unterzog diese Kinder einem dreijährigen intensiven Trainingsprogramm, wobei sie in persönlichem Verhalten, grundlegenden akademischen Fähigkeiten, der Kunst der Manipulation und in effektiven Lerngewohnheiten unterrichtet wurden. Am Ende dieses Programmes wurden die Schüler erneut getestet, wobei sich diesmal ein durchschnittlicher IQ von 72 ergab, eine Zunahme von sage und schreibe 20 Punkten. Fünf Jahre später testete Schmidt ihre Schützlinge nochmals und ermittelte diesmal einen Durchschnitt von 89, wobei ein Viertel der Schüler mehr als 50 Punkte hinzugewonnen hatte. Die Studie war erschöpfend und beeindruckend, wurde aber nie wiederholt. Ein intelligenter Schluß Im 20. Jahrhundert durchdrang die Idee, daß der IQ eine angeborene, um nicht zu sagen erbliche Qualität sei, das kollektive amerikanische Unbewußte. Während ihrer bewegten Geschichte wurden IQ-Tests nicht nur von Erziehern genutzt, die das akademische Potential ermitteln wollten, sondern auch von all jenen, die Belege für Rassenunterschiede suchten. Dieser speziellen Frage werde ich mich im 8. Kapitel widmen, in dem ich die Arbeiten von Arthur M. Jensen, Phillipe Rushton und den Autoren von The Bell Curve, einem mit Fracht-Kult-Formeln ausstaffierten Werk, sowie weitere aufregende Entwicklungen besprechen werde. Diese Autoren lösten über die Jahre hinweg Stürme kontroverser Diskussionen aus. Erst kürzlich hat es in den USA die Strömung political correctness (politische Korrekt63
heit) annähernd geschafft, die herrschende wissenschaftliche Debatte zum Schweigen zu bringen. Unter all den Kritikern, die sich gegen Jensen, Rushton und die Autoren von The Bell Curve wandten, traf nur einer den Nagel auf den Kopf. Es war Richard C. Lewontin, ein bekannter Genetiker, der mit seinem Hinweis nahezu alleine stand: Das Problem ist der IQ selbst. Seit Binets Zeit bis in die heutigen Tage hat sich im Bereich der Psychologie keine allgemein anerkannte Theorie über Intelligenz gebildet. Unser Wissensstand bezüglich dieses entscheidenden Phänomens ist während der letzten einhundert Jahre nahezu gleich geblieben. Daraus folgt der Schluß (Deduktion), daß noch niemand je bestätigt hat, daß der Intelligenztest Intelligenz mißt. Es ist durchaus möglich, daß die Forschung auf diesem Gebiet durch den Glauben, bereits zu wissen, was Intelligenz sei, verhindert wurde. IQ-Tests verlieren zur Zeit stark an Bedeutung. Wir können hoffen, daß wir im Jahre 2000 nichts mehr vom Intelligenzquotienten hören werden. Hoffentlich haben wir dann noch immer Tests, mit denen Kinder, die Hilfe brauchen, ermittelt werden können, nennen sie aber bei dem Namen, den manche ihnen heute bereits geben. Was mit IQ-Tests festgestellt werden kann, ist Schulreife und weiter nichts.
Ist «Glück» real? Ausgehend von der Methodologie, den IQ zu testen, will ich nunmehr die unabhängige Existenz von Glück bekunden, von dem jedes menschliche Wesen seinen Anteil bei der Geburt erhalten hat. Um mir dabei behilflich zu sein, wollen Sie sich bitte diese Seiten kopieren, den Fragebogen ausfüllen und ihn mir über den Verlag zustellen. Ich werde das Ergebnis all denen mitteilen, die mir ein ausgefülltes Formular schicken. 64
Ein Glücksquotient-Test (GQ-Test) Anweisung: Sie sollten alle Fragen so ehrlich und genau wie möglich beantworten. y (Eichung) Wer ist der glücklichste der folgenden drei Menschen? Derjenige, der (a) einen 10-DM-Schein findet, (b) einen 20-DM-Schein findet, (c) einen 100-DMSchein findet? y Wie oft finden Sie einen Geldschein in einem Kleidungsstück, das Sie schon lange nicht mehr getragen haben? (a) einmal im Monat, (b) einmal im Jahr, (c) nie y Waren Sie jemals an einem schweren Unfall beteiligt, ohne selbst verletzt zu werden? (a) ja, (b) nein y Haben Sie den Eindruck, daß Sie in Ihrem Beruf befördert werden, ohne danach zu fragen? (a) ja, (b) nein y Haben Sie bisher insgesamt in Lotterien mehr Geld gewonnen, als Sie dafür ausgegeben haben? (a) ja, (b) nein y (negativ) Hat jemals ein Handwerker ein schweres Werkzeug versehentlich auf Ihren Kopf fallen lassen? (a) ja, (b) nein y Kommt es vor, daß Ihnen andere Leute sagen, wünschten, sie hätten ebensoviel Glück wie Sie? (a) ja, (b) nein
sie
y Sie machen sich Gedanken über Geld: (a) sehr viel, (b) ein bißchen, (c) überhaupt nicht y (Eichung) Wer ist der unglücklichste der folgenden drei Menschen, die schwimmen gehen? Derjenige, der auf (a) eine Rettungsboje, (b) eine Ankerboje, (c) einen großen weißen Hai trifft?
65
y Waren Sie jemals an einem schweren Unfall beteiligt? (a) ja, (b) nein y Ging es Ihnen bisher gesundheitlich eher gut? (a) ja, (b) nein y Fühlen Sie sich viel häufiger, als Ihnen lieb ist, krank oder bedrückt? (a) ja, (b) nein y Wie viele Personen desjenigen Geschlechtes, an dem Sie interessiert sind, haben Ihnen gesagt, daß sie Sie anziehend finden? (a) keine, (b) zwei, (c) mehrere, (d) sehr viele Wenn Sie nun noch Ihren sozioökonomischen Status angeben, werde ich versuchen, die Korrelation zwischen Glück und Erfolg zu ermitteln. Vielleicht versuche ich sogar, die Korrelation zwischen Glück und Intelligenz zu ermitteln.
66
3. Erträumte Theorien Der unbewußte Schwindel von Sigmund Freud
Eric Kandel, heutzutage einer der führenden Neurobiologen, begann seine Laufbahn als Psychiater. In den 50er Jahren diese Jahrhunderts führte ihn sein Interesse an den Theorien von Sigmund Freud an das New York College of Medicine, wo er als Teil seiner Ausbildung an Gesprächsrunden im Bellevue Hospital teilnahm. Ein Studienkollege, Allen Silverstein, erinnert sich an diese Gesprächsrunden: «In meinem ersten Jahr als zukünftiger Psychoanalytiker versuchte ich an so vielen wichtigen psychiatrischen Gesprächsrunden als nur möglich teilzunehmen. Eine junge Epileptikerin, die an Grand-Mal-Anfällen litt, lag da, inkontinent und sich auf die Lippen beißend. Als ein Psychiater nach dem anderen aufstand und behauptete, ihre Anfälle seien eine übertriebene Form der Masturbation, beschloß ich, daß dies ganz sicher nicht mein Weg sei.» Auch Kandel wechselte die Arbeitsgebiete, um sich schließlich der Erforschung der physikalischen Grundlage des Verhaltens der Seeschnecke Aplysia zu widmen. Seinen Forschungen werde ich mich am Ende dieses Kapitels nochmals zuwenden. Ironischerweise begann auch Freud seine Karriere in der medizinischen Forschung mit dem Studium der Biologie (vor allem der Nervensysteme) von einfachen Organismen. Kandel und sein Studienkollege hatten aus erster Hand die medizinische Hinterlassenschaft von Sigmund Freud, einer der rätselhaftesten und einflußreichsten Figuren des 67
20. Jahrhunderts, erfahren. Sie können die 75jährige Lebensgeschichte Sigmund Freuds aufgreifen, wo immer Sie wollen, stets wird Ihnen einer seiner Anhänger eine verehrungswürdige Begebenheit erzählen. Unsere Geschichte ereignete sich im Jahre 1908 in Salzburg, wo der erste internationale psychoanalytische Kongreß stattfand. Freud und seine Jünger standen unter dem Druck, beweisen zu müssen, daß die Freudsche Psychotherapie funktionierte. Die psychoanalytische Bewegung, die Freud drei Jahre zuvor angestoßen hatte, wuchs beständig, trotz des Widerstands von seiten skeptischer Wissenschaftler sowohl innerhalb der psychologischen Gemeinschaft als auch außerhalb. Es war an der Zeit, zumindest einen erfolgreichen Fall zu veröffentlichen, um die Anhänger weiterhin zu binden und die Skeptiker zum Schweigen zu bringen. Auf diesem Kongreß stellte Freud den mittlerweile berühmten Fall des Rattenmannes vor: Ernst Lanzer, ein Offizier der österreichischen Armee. Er litt an einer zwanghaften Angst vor Ratten. Außerdem befürchtete er, daß seine Freundin, ebenso wie auch sein Vater, von Ratten gefressen werden. Freud interpretierte Lanzers Zwangsvorstellungen mit Hilfe von Wortassoziationen: Lanzers Vater war eine Spielratte, ein Spielsüchtiger. Seine Freundin andererseits würde möglicherweise eines Tages Lanzer heiraten. Nach Freuds Aussagen assoziierte Lanzer Ratten außerdem mit Kindern, er setzte sie sogar mit Ratten gleich. Für Freud war die ganze Sache klar: Lanzers geheimer Wunsch war es, Analverkehr sowohl mit seiner Freundin als auch mit seinem Vater zu haben. Dieser unterdrückte Wunsch hatte sich zu der zwanghaften Angst entwickelt. Freud berichtete auf dem ersten internationalen psychoanalytischen Kongreß, daß er Lanzer geheilt habe, indem er seine frühe Kindheit, basierend auf der Ödipus-Theorie, rekonstruierte: Lanzers Vater hatte die normale Sexualentwicklung gestört, weil er dem Kind mit Kastration drohte. Allein dadurch, daß Freud diese Tatsache dem Patienten 68
gegenüber erwähnte, erzielte er «die vollständige Wiederherstellung der Persönlichkeit des Patienten». In den Ohren seiner Anhänger klang Freuds Theorie absolut überzeugend, während andere Teilnehmer kopfschüttelnd vom Kongreß zurückkehrten. Leider hatten sie jedoch nicht die Macht, die Verbreitung von Freuds Theorie aufzuhalten, da diese einen immensen sozialen Nutzen für diejenigen bot, die sie sich zu eigen machten. Die liberalen Denker Wiens fühlten sich unglaublich chic, wenn sie Freud zitierten. Es gab ihren Worten den gewissen Kitzel, wodurch sie sich deutlich von der bourgeoisen, prüden österreichischen Gesellschaft absetzen konnten. Die Freudschen Ideen breiteten sich bald nach Amerika aus, wo die psychoanalytische Bewegung schnell Fuß faßte; bis zur Mitte des Jahrhunderts hatte sie die gesamte nordamerikanische Kultur durchdrungen. Das wissenschaftliche Werk Freuds läßt sich in zwei Kategorien unterteilen: die Theorien und die Fallbeispiele. Alle Theorien werde ich als das bezeichnen, was sie sind: Hypothesen. Sie machen fast das gesamte Gerüst von Freuds Schriften aus. In der medizinischen Forschung können Fallbeispiele manchmal neue und vielversprechende Forschungsbereiche aufzeigen, sie können jedoch nie gut durchdachte Experimente ersetzen. Wie allseits bekannt ist (oder bekannt sein sollte), führte Freud nie gut durchdachte psychologische Experimente durch. Bei vielen Gelegenheiten aber beanspruchte er, daß seine Arbeit «wissenschaftlich» sei und einen Beitrag zur Forschung leiste. Zu seinen bedeutenden Hypothesen werde ich später zurückkehren, weil ihre vielen wirren Strömungen ein schönes Beispiel dafür geben, wie sich Freuds Gedanken aus dem Sumpf der Mutmaßungen emporarbeiteten.
69
Die «Experimente» Unter den (nicht zu den Freudianern gehörenden) Gelehrten, die Freuds Fallbeispiele und Hypothesen aufs genaueste analysierten, waren Adolf Grünbaum von der Universität von Kalifornien in Riverside und Frank Sulloway vom M.I.T. Sulloway, Geschichtswissenschaftler und Autor von Freud, Biologist of the mind (Freud, Biologe des Geistes). Dieser weist unter anderem darauf hin, daß Lanzers Angst vor Ratten aufgrund der Erzählung eines Offizierskameraden von einer chinesischen Folter entstand, bei der dem Opfer ein Topf am nackten Hintern befestigt wurde. Dieser Geschichte, einem typischen Barackenmythos, zufolge, hatten die Folterknechte eine große, ausgehungerte Ratte in den Topf eingesperrt, die sie zusätzlich noch fortwährend reizten, indem sie sie mit einem rotglühenden Schürhaken traktierten, den sie durch ein Loch im Boden des Topfes steckten. Die Ratte hatte nur einen einzigen Ausweg: Sie mußte sich durch den Hintern des Opfers beißen, womöglich direkt durch den After. Nach Sulloways Aussage berichtete Freud dem psychoanalytischen Kongreß im Jahre 1908, daß er Lanzer über einen Zeitraum von elf Monaten gesehen habe. In Wirklichkeit aber hatte Lanzer die Therapie nach wenigen Wochen verlassen, ohne die berichtete Heilung erfahren zu haben. Zudem setzte dem Patienten Lanzer sein «Vaterkomplex» weiterhin zu, wie Freud 1909 seinem Schüler Carl Gustav Jung gegenüber zugab. Neben dieser offensichtlichen Unstimmigkeit in seinem Bericht scheint Freud außerdem auch noch einige der wichtigsten Merkmale der Analyse dahingehend verfälscht zu haben, daß sie seine Behauptungen über die Ursache von Lanzers Krankheit stützten. Diese Probleme zeigen deutlich, welche Schwierigkeiten Freud bei dem Versuch plagten, einen Weg zwischen der Freiheit zu finden, die seine Methoden brauchten, und den Anforderungen an eine wissenschaftliche Methode, einen Beweis für die aufgestellten Hypothesen zu erbringen. 70
Freuds Hypothesen basieren auf sechs veröffentlichten Fallbeispielen. Die ersten drei Fälle sind nicht schlüssig und unvollständig: y Dora, eine achtzehnjährige Frau, die an «Hysterie» litt, entzog sich der Therapie nach drei Monaten. Sie erzählte, daß ihr Vater der Frau eines Freundes der Familie nachstelle und daß eben dieser Freund ihr ungewollte Aufmerksamkeiten entgegenbringe. Ihr Vater, so vermutete Dora, unterstütze diesen Freund dabei, um von seiner eigenen Tändelei abzulenken. Freud hielt davon gar nichts. Er behauptete, Dora begehre insgeheim nicht nur diesen Freund, sondern auch ihren eigenen Vater. Sie verließ die Couch und lehnte Freuds aggressives Bestehen auf seiner Interpretation ihres Falles ab. y Eine namentlich nicht bekannte Frau, die von Freud wegen ihrer lesbischen Neigung «behandelt» wurde, «besserte» sich nie. Sie beendete die Sitzungen nach wenigen Wochen. y Der kleine Hans hatte krankhafte Angst (Phobie) vor Pferden. Freud sah diesen Jungen nur einmal, sein eigener Vater, ein ergebener Freudianer, analysierte den Jungen selbst und kam zu dem Schluß, daß dieser an ödipalen Gefühlen litt. Mit seinem gesunden Menschenverstand, der so ausgeprägt bei Fünfjährigen selten zu finden ist, versuchte der kleine Hans, sowohl seinen Vater als auch Freud davon zu überzeugen, daß er Angst vor Pferden habe, seit er den Unfall einer Pferdekutsche beobachtet hatte. Freud und der Vater schafften es, den kleinen Hans Stück um Stück dazu zu bringen, Freuds Interpretation seiner Phobie zuzustimmen. Die verbleibenden Fälle spannen sich über einen längeren Zeitraum und offenbaren mehr von Freuds psychoanalytischer Methodik. Sie umfassen den bereits beschriebenen Fall des Rattenmannes sowie zwei weitere: 71
y Daniel Schreber, ein Magistrat, den Freud niemals persönlich traf, schrieb einen Bericht über unerklärliche Erstickungsgefühle und seine Überzeugung, daß er sich langsam in eine Frau verwandele. Basierend auf diesem Bericht, diagnostizierte Freud, daß es sich bei Schreber um einen Paranoiden mit Wahnvorstellungen handele, dessen Zustand auf unterdrückte homosexuelle Gefühle seinem Vater und seinem älteren Bruder gegenüber zurückzuführen sei. Schrebers Vater war ein bekannter Erfinder für Hilfsmittel, die die Haltung von Kindern verbessern sollten. Sie bestanden meist aus starren Rahmenwerken mit Metallstreben und Gurten, welche die Kinder zu der gewünschten Haltung zwangen. Freud war zweifellos der Umgang des Vaters mit derartigen Korrekturapparaturen bekannt, doch anscheinend kam ihm nie die Möglichkeit in den Sinn, daß Schreber seinen Sohn als Versuchskaninchen für viele seiner Hilfsmittel benutzte. Zu jener Zeit war Freud besonders daran interessiert zu beweisen, daß Zwangsvorstellungen auf latente Homosexualität zurückzuführen seien. Es entspricht der Wahrheit, daß Schreber Phantasien hatte, in denen er davon träumte, eine Frau zu sein, die Geschlechtsverkehr habe, und diese Vorstellung «sehr angenehm» fand. Schrebers Krankheit indes verschlimmerte sich. Er entwickelte die Überzeugung, daß Gott dabei sei, ihn in eine Frau zu verwandeln. Schreber wurde in ein Heim für unheilbar Kranke eingewiesen. Jahrelang arbeitete er hart daran, seine Freilassung zu erreichen, und gewann schließlich seinen Fall vor einem deutschen Gericht. Zu keiner Zeit erkannte er irgendeine Heilung an, auch wenn Freud behauptete, Schreber sei teilweise geheilt worden, indem er ihn dazu gebracht habe, sich seine homosexuellen Phantasien einzugestehen. y Sergei Pankieff, der Wolfsmann, bei dem Freud eine Zwangsneurose diagnostizierte, wurde von Freud über 72
mehrere Jahre behandelt. Freuds Psychoanalyse begann mit einem Kindheitstraum Pankieffs: Ich träumte, daß es Nacht sei und daß ich in meinem Bett läge. ... Plötzlich öffnete sich das Fenster von selbst, und zu meinem Entsetzen sah ich, daß einige weiße Wölfe auf dem großen Walnußbaum vor meinem Fenster saßen. ... Entsetzt, wohl weil ich Angst hatte, gefressen zu werden, schrie ich und wachte auf. Freud schloß allein aufgrund dieses Traumes, daß der junge Pankieff seine Eltern zufällig beim Geschlechtsverkehr überrascht habe. Freuds wichtigster Schlüssel zu dieser Interpretation war, daß die Wölfe in Pankieffs Traum weiß waren, so daß sie die weiße Unterwäsche der Eltern symbolisierten. Bei einem Interview, das die österreichische Journalistin Karin Obholzer im Jahre 1970, also viele Jahre nach seiner wundersamen Heilung, mit dem mittlerweile 86jährigen Wolfsmann führte, beschwerte sich dieser, daß er zeitlebens an dem Problem gelitten habe. Er war ein zwanghafter Grübler, gelähmt durch seine Selbstzweifel. In Wahrheit hatte Freud den Wolfsmann nie von der Richtigkeit seiner Diagnose noch von seiner Traumdeutung überzeugen können. Freud hatte zum Beispiel nicht bedacht, daß im Rußland der Zeit Pankieffs die Kinder im Schlafzimmer ihres Kindermädchens und nicht in dem ihrer Eltern schliefen. «Es ist alles falsch ...», beschwerte sich Pankieff, «in Wahrheit ist die ganze Sache eine reine Katastrophe. Ich bin noch immer in derselben Verfassung, in der ich war, als ich zum ersten Mal Freud aufsuchte, und Freud gibt es heute nicht mehr.» Nach Grünbaum, Sulloway und einer Menge anderer Autoren zu schließen, stecken die Hypothesen von Sigmund Freud in größten Schwierigkeiten. Diese sechs Fallbeispiele 73
stellen die Gesamtheit aller veröffentlichten Fallbeispiele dar. Wie ich in meinen Ausführungen zur wissenschaftlichen Methodik bereits aufzeigte, sind ein gut geplantes Experiment oder eine Reihe von Experimenten und die sich daran anschließende Veröffentlichung der Ergebnisse die beiden entscheidenden Schritte der induktiven Wissenschaften. Fallbeispiele sind keine Experimente, auch wenn sie Hypothesen nahelegen können, wie dies bei Freud manchmal der Fall war. Fallbeispiele können Theorien glaubwürdig erscheinen lassen, ohne sie wirklich zu beweisen. So betrachtet, ist es um so wichtiger, überzeugende Fallbeispiele zu veröffentlichen, und zwar so viele als irgend möglich. Freud war weit davon entfernt. Anstelle von vielleicht hundert Fallbeispielen mit überwiegend positivem Ausgang veröffentlichte Freud nur sechs, und nicht eines davon unterstützt die Theorien, die er damals vertrat, wirklich! Auch wenn Freuds Theorien leicht als «unwissenschaftlich» abgetan werden können, so verbleiben doch einige faszinierende Fragen, wie zum Beispiel die, wie Freud sie entwickelte und warum sie eine so große Akzeptanz als «Theorien» erfuhren. Die eigentliche, treibende Kraft, die hinter dieser ganzen Entwicklung steht, ist das Unterthema dieses Buches: des Lehrlings Traum vom Ruhm. Die Tatsache, daß sowohl ein fundiertes experimentelles Programm als auch das kritische Hinterfragen seiner eigenen Methoden fehlten, läßt die Frage offen, ob die Hypothesen «korrekt» sind oder nicht. Daraus, daß Methoden nicht korrekt sind, läßt sich nicht zwangsläufig schließen, daß auch die Ideen nicht korrekt sind. Wenn aber Freud über die Tiefen der menschlichen Seele hauptsächlich Vermutungen anstellte, welche Chance hatte er dann, dabei richtig zu liegen? War Freud ein Schwindler, der in die Versprechungen seiner eigenen Ideen so verstrickt war, daß er unbewußt Millionen von Anhängern im 20. Jahrhundert hereinlegte? Eins ist jedenfalls sicher: Freud gingen die Ideen nie aus. 74
Die Hypothesen Bis ungefähr zum Jahre 1885 war Freud nichts weiter als ein junger, ehrgeiziger Doktor, der im Wiener Allgemeinkrankenhaus seinen Dienst tat. Oft war er bedrückt, wenn er über seine Situation nachdachte: Er war zwar ein recht guter Neuropathologe geworden, die alltägliche Arbeit aber empfand er als stumpfsinnig. Er sehnte sich danach, den großen Wurf zu machen, wie man so schön sagt. Sein erster Versuch endete in einem Desaster. Im Jahre 1884 hatte er von Experimenten mit einer neuen Droge gehört, die aus der südamerikanischen Kokapflanze gewonnen wurde. Bei einem Selbstversuch fand er heraus, daß sie auf wundersame Weise seine Depressionen heilte. Sie brachte wieder Sinn in sein Leben, verhalf ihm zu ungeahnter Energie und zeigte ihm sogar den Weg zum Erfolg: Er mußte diese Droge der Allgemeinheit zur Verfügung stellen. Die Welt würde es ihm danken. Freud drängte seine Freunde und seine Familie dazu, Kokain zu nehmen, verfaßte Artikel über dessen wunderbare therapeutische Vorzüge und machte Experimente, indem er es inhalierte, sich injizierte und sogar rauchte. Er fand heraus, daß es recht gut wirkte, wenn er daraus eine Art Zigarre machte. In dieser Zeit nahm Freud vor jedem sozialen Ereignis, an dem er teilnahm, etwas Kokain zu sich. So wurden aus langweiligen Abendessen fesselnde soziale Ereignisse von großer Bedeutung. Freud setzte sich beinahe zwei Jahre lang für Kokain ein, als unter den Medizinern in Europa Berichte von schwerer Kokainsucht in Umlauf kamen. Freud geriet in Schwierigkeiten. Er machte kehrt, äußerte sich kaum noch zu der Droge und behauptete sogar, selbst kein Kokain mehr zu nehmen. Er mußte nun ein neues Zugpferd suchen. Im Jahre 1885 bewarb sich Freud erfolgreich um ein Studium bei dem berühmten Professor Charcot an der Salpetriere, dem bekannten Lehrkrankenhaus von Paris. Was er dort kennenlernte, faszinierte ihn. Doktor Charcot 75
behandelte geistig kranke Patienten mittels Hypnose. Er erläuterte, daß manche von ihnen eine weitere Persönlichkeit hatten, von der sie selbst nichts wußten. Dies war Freuds erster Kontakt mit dem Unbewußten. Später schrieb er über diese Phase seines Lebens: «Es hat mich tief beeindruckt zu sehen, daß es machtvolle geistige Vorgänge geben könnte, die dem menschlichen Bewußtsein aber verborgen blieben.» Soweit hatte er wohl recht, auch wenn er kaum der erste Arzt war, der auf diesen Gedanken kam. Wieder zurück in Wien, veröffentlichte Freud einen Artikel über Hysterie, der den Zorn seines früheren Mentors, Theodor Meynert, auf sich zog. Freud hatte es gewagt, der Hysterie eine nicht-physikalische Ursache zuzuschreiben, als er sie dem Unterbewußtsein zuordnete - in einer Zeit, in der fast alle Ärzte nach physikalischen Ursachen geistiger Krankheiten suchten. Einer der wenigen anderen Mediziner, die Geisteskrankheiten dem Unterbewußtsein zuschrieben, war sein Wiener Kollege Josef Breuer. Schon im Jahre 1880 hatte Breuer seine «Sprechkuren» entwickelt (und war in Ärztekreisen dafür berühmt geworden). Breuers Lieblingsbeispiel war der Fall Anna O., die an Hysterie, einer damals recht verbreiteten Beschwerde litt. In hysterischem Zustand wurde sie «geistesabwesend». Breuer behauptete, sie geheilt zu haben, indem er ihr ihre Geistesabwesenheit und das, was sie während dieser Zeiten, erlebte, ins Gedächtnis zurückrief, ein Prozeß, den er als «Katharsis» bezeichnete. Freud war an diesem Fall äußerst interessiert. Anna O. hingegen zeigte kein sonderliches Interesse und blieb ihr ganzes Leben lang der Psychoanalyse gegenüber sehr skeptisch. Freud und Breuer arbeiteten ab 1885 zusammen, bis ihre Beziehung aufgrund unglücklicher Umstände ein Ende fand. Schon sehr früh fanden sie etwas, das Freud, vorsichtig genug, als «Arbeitshypothese» bezeichnete. Die beiden Doktoren stellten die Hypothese auf, «daß alle geistigen Prozesse einen oder eine Summe von Erregungen beinhalten, der alle Charakteristika einer Grö76
ße besitzt (obwohl wir sie nicht messen können), die in der Lage ist, etwas zu vermehren, zu verringern, zu verschieben oder freizusetzen, und die über das ganze Gedächtnis verteilt ist, Spuren von Ideen, die ähnlich wie eine elektrische Ladung über die Oberfläche des Körpers verteilt sind». Wenn zuviel einer «Ladung» in einer Person aufgebaut wird, dann beginnt sie Symptome einer Geisteskrankheit zu entwickeln. Die Therapie, die die Arbeitshypothese vorschlug, bestand darin, den Aufstau von psychischen Störungen, die zu Geisteskrankheiten führen, freizusetzen beziehungsweise zu verhindern. Obwohl Breuer und Freud einräumten, keine Möglichkeit zu haben, diesen neuen «Affektanteil» zu messen, fanden sie die Idee faszinierend und mit allen zur Verfügung stehenden Mitteln verfolgenswert. Zumindest würden sie die Theorie weiter verfeinern und auch an Patienten testen. Bis zum Jahre 1893 hatten Breuer und Freud sehr gut zusammengearbeitet, aber im folgenden Jahr entfremdeten sich die beiden voneinander. Freud wollte die Bedeutung der Sexualität betonen, von der er annahm, sie sei der «Affektanteil», der, wenn er auf zu viele Hindernisse stieß, verheerenden Schaden bei der psychischen Ausgeglichenheit des Menschen anrichten konnte. Breuer sagte diese neue Richtung überhaupt nicht zu, nicht etwa, wie er beteuerte, weil er prüde sei (wie einige Anhänger Freuds behauptet haben), sondern weil die Position der beiden Forscher, die im empirischen Sinne bereits auf schwachen Füßen stand, dadurch ziemlich extrem werden würde. Breuer war nicht bereit, auf der Basis der sehr kleinen Anzahl von Fällen, die die beiden analysiert hatten, eine Position zu vertreten. Unbeeindruckt schritt Freud weiter voran und veröffentlichte einen Artikel, der die Ursprünge von Psychoneurosen im Sexualleben suchte. Zu dieser Zeit entwickelte Freud die Verführungstheorie: Psychoneurosen sollten alle das Ergebnis von sexuellen Traumata in der Kindheit sein, die von Erwachsenen oder anderen, älteren Kindern verursacht 77
worden sind. In der Mitte der 90er Jahre war die Entfremdung zwischen Freud und Breuer vollkommen. Nicht nur Breuer, auch andere medizinische Kreise wurden durch Freuds Fixiertsein auf das Problem der Sexualität zunehmend alarmiert. Der Bruch mit Breuer wiederholte den Bruch mit seinem eigenen Lehrer Meynert und ließ ähnliche Ereignisse in den kommenden Jahren erahnen. Der typische Verlauf bestand aus einer engen Arbeitsbeziehung, der ein zunehmendes Mißtrauen Freuds folgte, worauf eine abweichende Theorie zum endgültigen Bruch führte, in dessen Verlauf sich der frühere Mitarbeiter mit eisiger Kälte aus dem ständig zunehmenden Kreis von Freuds Bewundern konfrontiert sah. Es ist immerhin denkbar, daß Freud, sobald er die Möglichkeit vorhersah, daß er den Ruhm für eine wichtige Entdekkung mit jemandem hätte teilen müssen, damit begonnen hat, sich selbst und seine Theorie so zu verändern, daß ein deutlicher Unterschied zwischen ihm und seinem potentiellen Rivalen entstand. Zur gleichen Zeit arbeitete Freud extrem viel, manchmal bis lange in die Nacht, entwarf seine Theorien und formte sie um. Seine Energie und sein Ehrgeiz schienen endlos. In den Jahren von 1885 bis 1895 entwickelte sich Freud langsam von einem Neurologen mit einem starken Glauben an die somatische Basis von Geisteskrankheiten zu einem rei-, nen Psychologen. Was auch immer die physische Basis einer Geisteskrankheit sein mochte, Freud fühlte zunehmend, daß eine reine Psychologie möglich sei, eine Psychologie, die nicht von neurophysiologischen Details abhing. Im Jahre 1895 unternahm er zum letzten Mal den Versuch, eine neurophysiologische Begründung für die menschliche Psychologie zu finden. Er arbeitete ohne Unterlaß an etwas, das er «Projekt einer Wissenschaftlichen Psychologie» nannte. In dieser Arbeit ging Freud von unterschiedlichen Neuronengruppen aus, die Wahrnehmung, Gedächtnis und Bewußtsein steuern würden. Für jede Gruppe von Neuronen postulierte er Funktionen. In verschiedenen Kombina78
tionen und Interaktionen schienen die Funktionen die normalen Zustände wie Verlangen, Urteil, Verteidigung, Kognition, Erwartung, Erinnerung, Beobachtung, Kritik, Theoriebildung sowie mehrere krankhafte Zustände wie Hysterie und Halluzinationen zu erklären. Er zeichnete kleine suggestive Diagramme von miteinander verbundenen Neuronen, er vergegenwärtigte sich erneut seine Fälle und dachte lange und tief über die ganze Palette des menschlichen Verhaltens, sowohl im gesunden wie im kranken Zustand nach. Am Ende wurde Freud durch eine Vision belohnt: «In einer anstrengenden Nacht in der letzten Woche, als ich mich im Zustand von schmerzhaftem Unbehagen befand, in dem mein Gehirn am besten arbeitet, hoben sich plötzlich die Schranken, die Schleier fielen, und es war möglich, die Details der Neurosen bis zu den Prägungen des Bewußtseins zu verfolgen. Alles fiel an seinen Platz, die Räder griffen ineinander, und das Ganze wirkte wie eine Maschine, die jeden Augenblick sich selbst steuert.» Zunächst betrachtete Freud dieses Projekt als einen Triumph des Denkens, aber später gestand er seinem engen Freund und Mitarbeiter Wilhelm Fliess, daß er schwere Zweifel an dem ganzen Projekt habe. Das war eine sehr vernünftige Reaktion, wenn man die unglaublich ehrgeizige Natur des Projektes und die Tatsache, daß die neuronalen Funktionen damals der Wissenschaft kaum bekannt waren, berücksichtigt. Wilhelm Fliess war ein merkwürdiger Typ in der medizinischen Gesellschaft Wiens. Auf der einen Seite war er wegen seiner Theorie, daß psychische und körperliche Reaktionen des Menschen einer komplexen Serie von Zyklen mit Periodenlängen von 23 und 28 Tagen folgten, sehr berühmt. Fliess war außerdem als Gründer einer Theorie der kindlichen Sexualität bekannt. Er bestand darauf, daß das sexuelle Leben nicht in der Pubertät, sondern in der Kindheit beginnt, eine Idee, die Freud mit großem Enthusiasmus aufgriff. Im Jahre 1899 behauptete die psychoana79
lytische Theorie, wie sie von Freud definiert wurde, daß bestimmte Typen der «kindlichen libidinösen Fixierung» die Grundlage von bestimmten Neurosen im späteren Leben bildeten. Fliess ging davon aus, daß alle Menschen zunächst bisexuell seien. Auch diese Idee nahm Freud in seine stetig anwachsende Theorie auf. Gegen Ende des 19. Jahrhunderts waren Freuds Hypothesen so kopflastig geworden, daß sogar er selbst sie allmählich etwas verwirrend fand. Über die Phantasien und die Verzerrungen der Erinnerung, die den Psychoneurosen (wie er dachte) zugrunde liegen, schreibt er: Ich lerne die Regeln kennen, die die Bildung dieser Strukturen bestimmen, und die Gründe, warum sie stärker sind als wirkliche Erinnerungen, und so erfahre ich viel Neues über die Charakteristiken der Arbeitsweise des Unterbewußtseins. Seite an Seite mit diesen Strukturen entstehen perverse Triebe, und die Unterdrückung dieser Phantasien und Triebe ... beschwört... neue Motivationen, sich an die Krankheit zu klammern, herauf. Als sich das Jahrhundert dem Ende zuneigte, verfaßte Freud sein erstes Buch, Die Traumdeutung. Zu dieser Zeit litt er selbst an einer Anzahl psychosomatischer Krankheiten und paranoider Phantasien. Seltsamerweise machte er Fliess für seine Probleme verantwortlich, obwohl er nie präzisierte, was Fliess ihm angetan hatte. Einige Wissenschaftshistoriker sind der Ansicht, daß der wahre Grund gewesen sein könnte, daß Freud Fliess inzwischen als seinen Rivalen ansah (aus ganz ähnlichen Beweggründen sollte er später auch mit Jung brechen). Der Mann, dem Freud einst erlaubt hatte, seine Nase zu operieren (wegen eines geheimgehaltenen Leidens), wurde so zu seinem erbitterten Feind. Nicht nur, daß Freud auf Fliess eifersüchtig war, nein, nach dem Bruch ihrer Zusammenarbeit behauptete er sogar, er selbst habe die Theorie der Bisexualität begründet! 80
Als das 20. Jahrhundert anbrach, wurde Freuds «Theorie» über das Unterbewußtsein immer ausgefeilter. Zwar verwarf er gelegentlich den einen oder anderen Aspekt seiner Hypothese, doch wurde es trotzdem mit der Zeit immer schwieriger, seine veröffentlichten Entwürfe zu verstehen. All jene, die die neue Arbeitsweise in ihre Therapie integrieren wollten, wurden immer abhängiger von richtungweisenden Erklärungen ihres Meisters bezüglich spezifischer Fragen der psychoanalytischen Techniken.
Methodischer Wahnsinn In den physikalischen Wissenschaften kann Selbsttäuschung eindeutig nachgewiesen werden durch das Auftreten von der Annahme widersprechenden Beweisen. In der «neuen Wissenschaft» der Psychotherapie hingegen gab es für Freuds reiche Einbildungskraft keine experimentelle Überprüfung. Zudem konnte auch nicht immer eindeutig festgestellt werden, ob ein klinischer Befund im Widerspruch zu Freuds «Theorie» stand oder nicht: Es gab keinen, auch nicht unter seinen Anhängern, der die Hypothese gut genug verstand, um mit einer Überprüfung beginnen zu können. Diese Umstände bildeten im Falle von Freud einen fruchtbaren Boden für das, was sich zu einem gigantischen Spiel mit dem Vertrauen auswachsen sollte. Wenn man annimmt, daß es sich um einen unbewußten Schwindel handelte, so läßt sich leichter verstehen, wie es zu diesem unglaublichen Erfolg kam. Der Verkäufer, der an seine Ware glaubt, verkauft mehr als derjenige, der an ihr zweifelt. Freuds Schwindel also begann bei ihm selbst. Er erkannte die Bedeutung des Glaubens für die Verbreitung seiner Ideen an, was sich darin zeigte, daß er Jung bat: «Mein lieber Jung, versprechen Sie mir, niemals die Sexualtheorie aufzugeben. Das ist das allerwichtigste. Sehen Sie, wir müssen ein Dogma daraus machen, ein unerschütterliches Bollwerk.» Freuds Charakter erwartete von An81
fang an eine eindeutige Position. Wie zahlreiche Streitigkeiten mit seinen frühen Kollegen zeigen, duldete Freud keinerlei Widerspruch gegen seine Ideen oder Methoden. Freud schützte seine Hypothesen gegen Fragen von Seiten seiner Kollegen und reservierte deren Interpretationen (falls sie überhaupt welche hatten) für sich selbst. Diejenigen, die seine Hypothesen in Frage stellten oder danach fragten, was sie wirklich bedeuteten, oder irgendeine Form von wissenschaftlichem Beweis verlangten, wurden als «abwehrend» bezeichnet. «Abwehr» war Freuds Lieblingswort bei der Verteidigung seiner Theorie. Es war eine brillante Idee, Vorwürfe (oder lediglich unschuldige Fragen) als Manifestationen psychischer Krankheit des Fragenden auszulegen. Auch kultivierte Freud die öffentliche Meinung, er sei ein «Genie». Diese Bezeichnung erlaubte es ihm, im öffentlichen Bewußtsein der Zeit (und vielleicht noch immer) nahezu alles zu behaupten, was er wollte. Die Tatsache, daß so viele der Ideen, die Freud als seine eigenen bezeichnete, aus anderen Quellen stammten, was er selbst jedoch nie zugab, wurde weder von seinen Anhängern noch von der Öffentlichkeit wahrgenommen. Bei der Entwicklung seiner psychoanalytischen Theorie duldete Freud keine Rivalen neben sich. Alle, die versuchten, beim Ausbau der Theorie kreativ mitzuarbeiten - Jung, Adler und viele andere -, beobachteten zuerst eine Entfremdung zwischen sich und Freud und fühlten sich alsbald auch angegriffen. Nur denen, die sich um Freud scharten und bei allem, was er sagte, seiner Meinung waren, schenkte er weiterhin Gehör und Aufmerksamkeit. Diese Gruppe der Jasager nannte Freud abschätzig «die Kriecher». Freuds außerordentliche Paranoia, gepaart mit seinem grandiosen Selbstbildnis, erlaubte es ihm (wie auch sympathisierenden Biographen) nicht, für die Ideen, die man heute ausschließlich ihm zuschreibt, auch anderen Lob zukommen zu lassen. Ich wage sogar zu behaupten, daß das Studium des Menschen Freud letztlich das Studium seiner Theorien an Bedeutung übertreffen wird. Freud verbrannte alle seine 82
Aufzeichnungen im Jahre 1907. So machte er einen Mythos aus sich selbst, bedeckte die Vergangenheit mit dem Schleier des Vergessens und hinterließ nichts Abwertendes oder Fragwürdiges, was künftige Leser an seiner Größe hätte zweifeln lassen.
Psychoanalyse und Psychiatrie Freuds Theorien waren nicht «wissenschaftlich». Um dies zu belegen, habe ich herausgestellt, daß er zwei der wichtigsten Schritte der wissenschaftlichen Methodik unterlassen hat. Er hat weder experimentiert noch hat er veröffentlicht. Um den Grundsätzen, die ich in der Einführung zu diesem Buch skizziert habe, gerecht zu werden, beeile ich mich, darauf hinzuweisen, daß allein die Tatsache, daß Freud es versäumt hat, seine Theorie zu untermauern (oder nur zu erklären), nicht ausreicht, sie als falsch abzutun. Auch könnte man die Rolle, die seinen Theorien bei der Linderung geistiger Krankheiten mit Hilfe der Psychoanalyse zukommt, als Quasi-Bestätigung ansehen. Nur leider beweist die Tatsache, daß viele Menschen behaupten, durch Psychoanalyse Hilfe erfahren zu haben, nichts; es gibt nämlich noch viel mehr Menschen, die behaupten, Parapsychologie habe Ihnen geholfen. Doch bislang hat noch kein Medium ernsthaft behauptet, daß die Zukunft vorherzusagen eine «Wissenschaft» im herkömmlichen Sinne sei. Freud hingegen sprach oft von der Psychoanalyse als von einer Wissenschaft und bezeichnete seine Theorien als «wissenschaftlich». Sie sind dies jedoch nicht. Wir alle haben zweifelsohne ein Unterbewußtsein. Mentale Prozesse jeglicher Art, von Körperregulationen bis hin zur Lösung anspruchsvoller Probleme, werden in Bereichen des Geistes verarbeitet, die wir nicht bewußt erfahren können. Alle, die jemals geträumt haben, haben das Unterbewußte ganz direkt erfahren. Soviel war bereits bekannt. Außerdem wissen wir, daß alle Säugetierjungen direkte 83
Hinweise auf ihr künftiges Verhalten von ihrer Umwelt und von ihren Eltern erhalten. Durch Ereignisse in ihrer Kindheit können Menschen schwerste Schäden erleiden, sogar durch solche, die rein sozialer oder psychologischer Art sind. Auch das wußten wir bereits. Jede zukünftige Theorie über menschliches Verhalten sollte auf zuverlässigeren Beweisen basieren, als dies bei den Theorien Freuds der Fall war. Und sie müssen viel weiter gehen, wenn auch nicht in dieselbe Richtung. Heute sind Freuds Theorien nur noch für wenige Psychiater von Bedeutung, doch hat sich das Gebiet irgendwie aufgeteilt. Einige Psychiater beschränken sich darauf, das Arzneimittelbuch nach Beruhigungsmitteln und anderen Drogen, die Symptome geistiger Krankheiten lindern, zu durchstöbern. Die Tatsache, daß solche Medikamente schwere Geisteskrankheiten, wie zum Beispiel Schizophrenie, zu lindern scheinen, deutet darauf hin, daß einige dieser Krankheiten trotz allem eine rein somatische Ursache haben könnten. Andere Psychiater praktizieren verschiedene neuere Formen der Psychotherapie, die bei genauerem Hinsehen ebenso windig sind wie die Freudschen. Wieder andere Psychiater haben einen eklektischen Ansatz: Manchmal versuchen sie nur, gute Zuhörer zu sein, oder sie schlüpfen in die Rolle des Ratgebers, der den gesunden Menschenverstand zu Hilfe nimmt. Es darf nicht vergessen werden, daß Ärzte, die Psychiater werden wollen, einen der schwierigsten, anstrengendsten und undankbarsten Bereiche der Medizin gewählt haben. Die Tatsache, daß wir keine funktionierenden Theorien haben, macht für die Psychiatrie als Berufszweig keinen großen Unterschied, und zwar aus dem einfachen Grund, weil wir immer Hilfe suchen, wenn wir mit etwas Schrecklichem, Unbekanntem konfrontiert werden. An dem Tag, an dem sich ein unbewußter Prozeß plötzlich in Form einer Paranoia, eines Zwanges, einer Panik, Lähmung oder gar Halluzination bemerkbar macht, würden wir sogar einen Psychoten aufsuchen. 84
Wo ist der Geist? Eric Kandel ist einer von vielen Wissenschaftlern, die versuchen, die Grundlagen der geistigen Funktionen durch das Studium des Gehirns einfacher Tiere wie der Seeschnecke Aplysia herauszufinden. Er hat Jahre mit diesem Tier verbracht, um die Funktion der ungefähr tausend Neuronen, die bei jedem dieser Tiere die gleichen sind, zu klären. Er hat eine physische Basis für das Verhalten gefunden, was auf gewisse Weise über das, was andere bei diesem und bei anderen einfachen Tieren festgestellt haben, hinausgeht. Kandels Forschung vermehrt wie die von Hunderten anderer Neurophysiologen das stetig anwachsende und immer komplizierter und verwirrender werdende Bild von wirklich winzigen Gehirnen. Der Weg, der von der Neurophysiologie der Wirbellosen zum Verständnis der menschlichen Gehirnfunktionen führt, ist lang und kurvenreich. Wird diese Forschungsrichtung uns eines Tages die physische Ursache für die mentalen Funktionen enthüllen? Wird sie zu wunderbaren neuen Therapien führen? Möglicherweise müssen weitere hundert Jahre vergehen, bevor wir ein wirklichkeitsnahes Bild von der Funktion der menschlichen Psyche haben werden. Obwohl Freud an die Möglichkeit einer unabhängigen Psychologie des Geistes glaubte, hat er doch nie die physische Grundlage der menschlichen Gehirnfunktionen in Frage gestellt, an die auch Kandel heute glaubt. Er konnte nur nicht auf die Ergebnisse warten.
85
4. Surfen im Kosmos Die Suche nach außerirdischen Intelligenzen
Es war am 8. April 1960, das eben fertiggestellte 25-MeterRadioteleskop in Green Bank, West Virginia hatte gerade den Stern Tau Ceti hinter dem Horizont verloren. Die Steuerungsmotoren summten, und die große Teleskopschüssel schwang sanft in südliche Richtung, bis das Teleskop, wie ein großes Ohr, einen anderen Stern anpeilte, Epsilon Eridani. Im Kontrollraum lauschten der Radioastronom Frank Drake und seine Kollegen gespannt den Tönen, die aus dem Lautsprecher kamen. Die Töne und Geräusche aus dem Lautsprecher ermöglichten es den Astronomen, die Signale zu hören, die das Teleskop empfing. Die elektromagnetischen Signale aus dem Kosmos, einige von Epsilon Eridani und viele von noch weiter draußen, wurden an der parabolischen Oberfläche des 2 5-Meter-Teleskops zum Zentrum des Spiegels reflektiert. Dort, unter einer zylinderförmigen Metallkappe, wurden sie von einem genau eingestellten Verstärker aufgezeichnet. Die Signale von diesem Verstärker wurden mit einem Schreiber aufgezeichnet und mittels des Lautsprechers hörbar gemacht. Es war ein günstiger Tag, der Beginn von Drakes Traum, Nachrichten von fremden Zivilisationen im All aufzufangen. Das Projekt hieß Ozma und beruhte auf Drakes Überzeugung, daß es irgendwo da draußen fremde Intelligenzen gab, die wichtige Nachrichten an weniger entwickelte Zivilisationen sandten oder wenigstens über Radio- und Fern87
sehprogramme verfügten und diese ausstrahlten. Stellt man die sehr aufgeladene Stimmung dieses ersten Abends des Projekts Ozma in Rechnung, so kann man Drake und seinen Kollegen leichter nachsehen, was dann geschah. Kaum fünf Minuten waren vergangen, bevor das ganze System förmlich explodierte. Wumm! Ein lauter Krach schoß aus dem Lautsprecher, der Schreiber zuckte hektisch kreischend über das Papier, und alle im Kontrollraum begannen vor lauter Begeisterung und Aufregung zu tanzen und zu hüpfen. Jetzt hatten wir ein Signal, ein starkes, einzigartig gepulstes Signal. Genau das, was man von einer außerirdischen Intelligenz erwarten würde, die versucht, bei anderen Zivilisationen im Kosmos Aufmerksamkeit zu erregen. Um zu überprüfen, ob das Signal wirklich von Epsilon Eridani kam, ließ Drake das Teleskop leicht verschieben. Das Geräusch verschwand daraufhin. Das bedeutete, daß dieser Stern oder ein Planet in seiner Nähe tatsächlich die Quelle des Signals gewesen sein konnte. Doch als die Forscher das Teleskop wieder auf Epsilon Eridani einstellten, war das Signal unglücklicherweise verschwunden. Diesem Ereignis folgte ein noch bedeutenderes auf dem Fuße. Einer der Teleskoptechniker erzählte einem Freund von dem Signal, und dieser Freund gab die Neuigkeit an eine Zeitung weiter. Bevor Drake sich versah, wurde er von Anfragen der Presse überschwemmt, die wissen wollte, was sich im Kontrollraum ereignet hatte. «Haben Sie wirklich eine fremde Zivilisation im Weltall entdeckt?» «Wir sind nicht sicher, und es gibt leider keine Möglichkeit, das in Erfahrung zu bringen.» Diese Antwort hätte nicht besser formuliert werden können, um die Neugier der Medien anzuheizen und dem Projekt Ozma eine enorme Publicity zu garantieren. Vernünftiger wäre folgende Antwort gewesen: «Soweit wir wis88
sen, wurde das anormale Signal von der Erde ausgesandt.» Beide Antworten sind richtig, aber die zweite hätte dem hitzigen Interesse der Medien eine rasche Abkühlung verschafft. Schließlich wußte Drake, was aus anormalen Signalen alles gemacht werden kann. Im zarten Alter von 26 Jahren hatte er die Sterngruppe der Plejaden beobachtet, als plötzlich ein neues Signal auf seinem Schreiber erschien. Drake erinnert sich: Es war ein merkwürdig regelmäßiges Signal - in der Tat zu regelmäßig, um eine natürliche Ursache zu haben. Ich hatte es noch nie zuvor gesehen, obwohl ich die Spektralmessung unzählige Male wiederholt hatte. Jetzt, völlig unerwartet, kam aus dem Spektrum dieses zusätzliche Signal, das ungewöhnlich aussah und sicherlich auf einem intelligenten Entwurf basierte. ... Selbst jetzt kann ich meine Gefühle in jenem Augenblick noch nicht adäquat wiedergeben. Vor Aufregung konnte ich kaum atmen, und bald danach begannen meine Haare weiß zu werden. Drake ist es nie mehr gelungen, ein solches Signal nochmals aufzufangen, und er vermutet heute, daß es sich wahrscheinlich um ein Militärflugzeug handelte. Seit den aufregenden ersten Tagen der Suche nach außerirdischen Intelligenzen hat sich einiges gewandelt, das Projekt Ozma wurde von SETI, der Suche nach extraterrestrischer Intelligenz, abgelöst. SETI wurde von der NASA (National Aeronautics and Space Administration) getragen und hat mittlerweile über eine Milliarde Dollar an Zuwendungen vom Parlament erhalten. Wurde dieses Geld sinnvoll ausgegeben? Bereits zu Beginn war das Projekt erheblicher Kritik ausgesetzt, und diese Kritik ist seither nicht verstummt. Doch nur wenige Kritiker haben sich die Mühe gemacht, das Projekt einmal auf Herz und Nieren zu prüfen. Wie ich Ihnen in einem späteren Abschnitt zeigen werde, liegt das Hauptproblem dieses Projektes in seinem Anfang, nämlich in der Ausgangshypothese. Nicht nur, daß diese 89
Grundannahme unweigerlich geozentristisch ist, sie ist überdies, was viel schlimmer ist, nicht falsifizierbar, man kann sie also nicht widerlegen. Es gibt eine problematische Formel, die die Ausgangshypothese in einem vernünftigeren Licht erscheinen lassen soll. Aber ich werde zeigen, daß diese Formel ein sehr zweischneidiges Schwert ist, das in Wirklichkeit die Ausgangshypothese vollständig in Frage stellt. Zum Zeitpunkt der Niederschrift dieser Zeilen (1997) hat kein einziges der SETI-Projekte auch nur das Flüstern einer kosmischen Intelligenz aufzeigen können. Das hat Drake jedoch nicht davon abgehalten, sich sehr weit aus dem Fenster zu lehnen. Er will «denkende, erwachsene Menschen auf die Ergebnisse der gegenwärtigen Suchaktivitäten vorbereiten - nämlich die bevorstehende Entdeckung von Signalen einer außerirdischen Zivilisation. Diese Entdeckung, von der ich völlig überzeugt bin, daß wir sie noch vor dem Jahr 2000 erleben werden, wird die Welt grundsätzlich verändern.» Als Drake mit dem bisherigen Stand der SETI-Projekte konfrontiert wurde, meinte er weise: «Die Abwesenheit eines Beweises ist noch kein Beweis der Abwesenheit.»
Das Absuchen des Himmels Radioteleskope ergänzen die optischen Teleskope, indem sie das Weltall mit Hilfe von Radiowellen untersuchen. Radiowellen sind, genauso wie «Licht», nur ein Ausschnitt aus dem elektromagnetischen Spektrum. Die nachstehende Abbildung zeigt das gesamte beobachtbare elektromagnetische Spektrum, beginnend mit den kürzesten Wellenlängen, den Röntgenstrahlen, bis zu den längsten Wellen, die von bestimmten Radiosendern ausgehen. Die Achse der Abbildung ist in einem logarithmischen Maßstab aufgetragen, das bedeutet, daß jedes waagrechte Teilstück der Achse das Zehnfache der numerischen Werte des links daneben 90
liegenden Segmentes umfaßt. Wie Sie leicht sehen können, ist das sichtbare Licht nur ein winziger Ausschnitt aus dem gesamten Spektrum.
Der zentrale Teil des elektromagnetischen Spektrums. (Beachten Sie, daß die Wellenlänge mit jedem Schritt nach rechts um das Zehnfache zunimmt.) Die elektromagnetische Strahlung hat zwei Aspekte: die Wellenlänge, die als Punkt auf der oben gezeigten Achse angegeben werden kann, und die Frequenz. Da alle Arten der elektromagnetischen Strahlung sich mit der gleichen Geschwindigkeit, nämliche, der Lichtgeschwindigkeit, ausbreiten, ist die Frequenz der Strahlung das Inverse der Wellenlänge. Mit anderen Worten: Wenn die Wellenlänge eines Signals w ist, dann ist die Frequenz c/w, wobei c die Lichtgeschwindigkeit ist. Mit zunehmender Wellenlänge nimmt die Frequenz also ab. Die Wellenlänge elektromagnetischer Strahlung wird mit einer geeigneten Längenangabe bezeichnet, von Nanometer (10-9m) bis Kilometer (103m). Die Frequenz einer elektromagnetischen Welle wird in Hertz (abgekürzt Hz) gemessen, das die Anzahl der Wellen angibt, die einen gegebenen Punkt in einer Sekunde passiert haben. Kurze Wellen mit hoher Frequenz können in Kilohertz (kHz) oder tausend Schwingungen pro Sekunde gemessen werden, noch kürzere Wellen werden in Megahertz (MHz) oder Millionen Schwingungen pro Sekunde gemessen. Da Lichtwellen so viel kürzer als Radiowellen sind, können sie entfernte Objekte sehr viel leichter auflösen. Das 91
Bild, das der Kosmos einem optischen Teleskop enthüllt, ist sehr viel schärfer als das Bild eines Radioteleskops. Im ersten Fall sind die Sterne und Galaxien klar und deutlich mit großer Schärfe gegen den schwarzen Nachthimmel zu sehen. In einem Bild der gleichen Himmelsgegend, das von einem Radioteleskop aufgenommen wurde, kann man nur große, verschwommene Flecken erkennen. Die Radioastronomen zeichnen diese Flecken in Umrißdiagrammen auf. Viele der Sterne, die in der optischen Aufnahme als scharfe Lichtpunkte in einer Sternenkarte eingetragen werden, sind möglicherweise als Flecken auch auf einer Karte wiederzufinden, die mit Hilfe eines Radioteleskops angefertigt wurde. Das bedeutet, daß diese Sterne nicht nur Licht aussenden, sondern auch Radiowellen. Es ist genauso möglich, daß einige der Flecken einer Radioquellenkarte keinem Stern auf der optischen Sternkarte zugeordnet werden können. Wenn dies doch einmal gelingt, stellt sich heraus, daß es sich um Gaswolken oder Zonen großer galaktischer Aktivität handelt. Die Radioteleskopie war ein unschätzbares Instrument, um mehr über die Struktur unserer eigenen Galaxie und andere Galaxien zu lernen, von den erstaunlichen Entdekkungen der Pulsare und von quasi-stellaren Objekten, wie zum Beispiel Quasaren, ganz zu schweigen. Trotzdem ist es bei den relativ langen Wellenlängen von Radiowellen sehr schwierig, mit nur einem Teleskop eine gute Auflösung der Himmelsobjekte zu erhalten. Man kann sogar sagen, daß das Signal eines Radioteleskops eindimensional ist, wie eine Tonbandaufnahme. Das Signal eines optischen Teleskops ist im Gegensatz dazu zweidimensional, wie ein Bild. Heutzutage verwenden die Radioastronomen mehrere Empfänger an weit voneinander entfernten Orten, um eine höhere Auflösung aus ihren Instrumenten zu kitzeln, oder es werden Teleskope gebaut, deren Dimensionen an Radiowellen ebensogut angepaßt sind wie die optischen Spiegelteleskope an Lichtwellen. 92
Stellen Sie sich einmal ein typisches Teleskop vor, wie es einen entfernten Stern beobachtet. Die Radiowellen fallen aus allen Himmelsrichtungen in das Teleskop ein. Einige von ihnen stammen von der Erde selbst, wie zum Beispiel abgelenkte Radio- oder Fernsehwellen, Signale von Taxifunkstationen, Lastwagen mit CB-Funk, Mobiltelefonen, Satellitentelefonen usw. Diese Signale - der einzige Hinweis auf intelligentes Leben, den wir zur Zeit haben - stammen alle von der Erde. Manchmal machen diese Wellen das Leben eines normalen Radioastronomen zur Hölle. Elektromagnetische Wellen natürlichen Ursprungs erreichen uns aus der Ionosphäre, wo energiereiche Partikel der Sonne mit den Luftmolekülen der Erdatmosphäre zusammenstoßen. Elektromagnetische Wellen werden auch von Radioquellen in unserem eigenen Sonnensystem, zum Beispiel von Jupiter und der Sonne, ausgesandt. Von weiter draußen, außerhalb unseres Sonnensystems, gelangen schwache Signale anderer Sterne in unserer Galaxie, von Pulsaren und interstellaren Gaswolken zu uns. Große Radioteleskope sind in der Lage, die äußerst schwachen und sehr alten Signale von anderen Galaxien und sogar von den unvorstellbar weit entfernten Quasaren aus der kosmischen Frühzeit aufzuzeichnen. Trotz allem ist das normale Leben eines Radioastronomen vergleichsweise einfach, da er über Techniken verfügt, die einzelnen, von der Erde ausgehenden Störsignale auszuschalten. Er kann dem zufälligen Zischen der alten Sterne oder Galaxien oder dem wiederholten Klicken der Pulsare relativ ungestört lauschen. Aber ein Radioastronom, der auf der Suche nach intelligentem Leben ist, muß die Forschungsstrategie auf den Kopf stellen, wenn er mitten im Gewittertoben des natürlichen elektromagnetischen Zischens, Kückens, Zirpens und Brummens dem Flüstern intelligenter Übertragungen nachspüren will. Für einen SETI-Astronomen sind die erdgebundenen Signale noch verführerischer, denn sie klingen genau wie die Signale, nach denen er auf der Suche ist. 93
Ist es möglich, daß irgendwo im Gemisch der Radiowellen, die aus zahllosen Quellen vom Teleskop eingefangen werden, ein oder zwei unbeschreiblich schwache Signale so etwas wie ein Flüstern von entfernten Zivilisationen darstellen? Vielleicht wiederholen die Signale ein ums andere Mal die Anleitungen für erstaunliche wissenschaftliche und technische Durchbrüche, wie einige Enthusiasten der SETI-Mission es sich erträumt haben. Während Strahlung aus einer Unzahl von Quellen vom Teleskop aufgefangen wird, vollzieht sich auch der umgekehrte Vorgang. Alle Radio- und Fernsehsignale, die mit den Signalen aus dem Kosmos interferieren könnten, werden mit Lichtgeschwindigkeit von der Erde in alle Himmelsrichtungen abgestrahlt. In ihrer Gesamtheit bilden diese Signale einen riesigen, sich ständig ausdehnenden Strahlungsball. Da die Geschichte des Radios und damit der Übertragung von Radiowellen auf der Erde vor ungefähr neunzig Jahren begann, beträgt der Radius dieses Strahlungsballes mittlerweile circa neunzig Lichtjahre. Er ist groß genug, um ein paar hundert Sterne in unserer galaktischen Nachbarschaft darin unterzubringen, obwohl er im Vergleich zu unserer gesamten Galaxie nur einen winzigen Ausschnitt darstellt. Trotzdem ist es vorstellbar, daß eine technische Zivilisation auf Alpha Centauri oder Ophiuchus diese Signale aufgefangen hat, worunter sich leider auch Aufzeichnungen der Filme «Terminator» und «Independence Day» befinden könnten, was schließlich dazu führte, daß die Erde mit einer permanenten galaktischen Quarantäne belegt würde. Die Bedeutung dieser sich rasch ausdehnenden Kugel aus elektromagnetischer Strahlung ist den Theoretikern des SETI-Projektes sicher nicht entgangen. Andere Zivilisationen, die elektromagnetische Strahlung aufzeichnen können, sollten früher oder später in der Lage sein, unsere Signale zu hören, wie schwach sie auch immer sein mögen. Sollten wir aufgrund der gleichen Überlegung nicht in der Lage sein, die Signale fremder Zivilisationen aufzufangen? Diese Aussicht birgt zweifelsohne eine gewisse Faszination. 94
Stellen Sie sich vor, wie so ein fremdes Signal aussehen würde: Es wäre Wirklichkeit gewordene «Science-fiction»! Noch bleibt jedoch die Frage: Ist es «Science» oder aber «Fiction»? Auf Drake bezogen, hieße die Frage: Verhielt er sich wie ein Meister oder wie ein Lehrjunge? Bei der Beantwortung dieser Frage hängt alles davon ab, was Sie von der Ausgangshypothese halten. Wie der bekannte Astronom Carl Sagan einmal äußerte, scheint die schier unendliche Anzahl von Sternen in unserer Galaxie jeder noch so zurückhaltenden Schätzung über die Wahrscheinlichkeit der Evolution von anderen technologischen Zivilisationen ein großes Gewicht zu verleihen. Wie hoch ist die Wahrscheinlichkeit für die Existenz von erdähnlichen Planeten? Wie hoch ist die Wahrscheinlichkeit, daß dort zufällig Leben entsteht? Selbst die Annahme sehr geringer Wahrscheinlichkeiten führt nach der Multiplikation mit der Anzahl der Sterne im Kosmos zu Zahlenwerten, die das Vorhandensein solcher Zivilisationen fast sicher erscheinen lassen. Die auf solchen Gedanken aufbauende Ausgangshypothese lautet wie folgt: Da die Wahrscheinlichkeit für Leben irgendwo in unserer Galaxie sehr groß scheint, ist damit zu rechnen, daß einige dieser Lebensformen Intelligenz und damit die Fähigkeit, mittels Radiowellen zu kommunizieren, hervorgebracht haben. Es sollte möglich sein, deren Signale auf der Erde aufzufangen. Es gibt einige kleine und eine sehr große Schwachstelle in dieser Ausgangshypothese. Die kleinen Schwächen betreffen unbestätigte Annahmen, die in die Hypothese einfließen. Ich werde eine dieser Schwachstellen im nächsten Abschnitt näher unter die Lupe nehmen. Zum schwerwiegendsten Einwand komme ich am Ende dieses Kapitels.
Der Lehrling denkt über den Kosmos nach In der Einführung dieses Buches habe ich die wissenschaftliche Methode dargestellt und gezeigt, daß sie aus einigen 95
wesentlichen Schritten besteht. Es wurde auch betont, daß insbesondere in der «großen Wissenschaft» eine gewisse Arbeitsteilung besteht, so daß viele Wissenschaftler sich auf einen Schritt dieser Abfolge beschränken müssen. So verbringen einige theoretische Physiker ihre Zeit damit, über die endgültige Struktur des Kosmos zu spekulieren. Sie setzen ihre Vorstellungsgabe ein, um hypothetische Modelle zu entwerfen, die alle beobachteten oder vermuteten Eigenschaften des Universums erklären können. Zum Beispiel stützt sich die augenblicklich favorisierte Vorstellung über die Grobstruktur des Universums auf ein mathematisches Modell, das einem Ballon nicht unähnlich ist. Diesem Modell zufolge ist das Universum gekrümmt und wird eines Tages in sich zusammenstürzen. Die beobachtenden Astronomen, die die experimentelle Seite der wissenschaftlichen Methode bearbeiten, werden möglicherweise laut ausrufen und fragen: Aber wo ist die Ursache für einen solchen Zusammensturz? Wenn wir die Masse des bekannten Universums schätzen, dann ergibt sich, daß mindestens eine Größenordnung zuwenig Masse vorhanden ist, um die Expansion des Universums aufzuhalten und in einen Kollaps umzukehren. Wo ist die fehlende Materie? Dieselben Theoretiker werden vielleicht vorschlagen, daß das Universum sehr viel mehr Neutrinos enthält, als bisher angenommen wurde, oder daß eine unbekannte, «dunkle Materie» reichlich unter die Galaxien gemischt ist. Möglicherweise gibt es mehr Wasserstoff zwischen den Sternen oder im Zentrum der Galaxien, als wir dachten. In den meisten Fällen haben die beobachtenden Astronomen die aufgeworfenen Fragen verneint: Nein, wir sehen nicht einmal annäherungsweise genug Neutrinos. Nein, wir können nicht soviel interstellares Wasserstoffgas entdekken. Nein, wir haben genug Masse in den Galaxien, um ihre dynamischen Eigenschaften erklären zu können. Die Hypothesen der theoretischen Physiker oder Kosmologen «funktionieren», weil das Modell präzise ist und man 96
sofort beurteilen kann, ob ein neu beobachtetes Phänomen das Modell bestätigt oder ob es ihm widerspricht. Wenn die Spekulation von Anfang an zu weit hergeholt war, sollten die Physiker nicht überrascht sein, wenn weitere Beobachtungen nicht dazu beitragen, das Modell zu bestätigen. Es ist möglich, daß das Universum trotz allem nicht geschlossen ist. Wichtig ist nur, daß die Hypothese falsifizierbar ist. Stellen Sie sich nun den Wissenschaftler vor, der in den Nachthimmel blickt und die alte Frage stellt: Ist da oben jemand? Die Frage erscheint absolut vernünftig. Sie bedeutet: Gibt es irgendwo im All eine andere Form von Leben, die wir intelligent nennen würden? Einmal abgesehen davon, daß wir bis jetzt noch über keine wissenschaftliche Definition für Intelligenz verfügen (siehe Kapitel 2), denken doch die meisten Menschen, daß sie Intelligenz erkennen würden, wenn sie sie sehen; wenigstens bei ihren Mitmenschen. Möglicherweise befindet sich das beste Labor, um fremde Kulturen zu studieren, hier auf der Erde. Stellen Sie sich ein Land vor, das zum Beispiel vom Zen-Buddhismus dominiert wird. Viele Menschen würden sagen, daß der ZenMönch ein sehr hohes Niveau menschlicher Entwicklung erreicht hat (ohne genau zu wissen, was das heißen soll). Wenn die Welt jedoch voller Zen-Mönche wäre, dann gäbe es wohl kein Radio. Diese Technologie trägt recht wenig zu den Einsichten bei, die für den achtgliedrigen Weg gebraucht werden. Man könnte hinzufügen, daß diese Technologie eine vollständig unnötige Ablenkung von der wahren Bestimmung eines Zen-Mönches darstellt, nämlich der Loslösung von jeglicher Bindung an die Dinge dieser Welt. Mehr als die Unterweisungen des Zen-Meisters benötigen die Zen-Mönche nicht. Mit der merkwürdigen Kurzsichtigkeit, die für die westliche Kultur bezeichnend ist, sind wir so weit gekommen, unsere Entwicklung als mehr oder weniger unvermeidlich zu empfinden, als Erweiterung des Darwinschen Imperativs in den technologischen und kulturellen Bereich hinein. 97
Die eigentliche Frage lautet: Wie hoch sind die Chancen für die Entwicklung einer westlich orientierten, wissenschaftlich-technologischen Zivilisation draußen im All? Das Adjektiv «westlich» ist in diesem Zusammenhang sehr wichtig, denn wir in der westlichen Welt leben möglicherweise unter einem Zauber, gefangen in einer irrigen Vorstellung über unseren Platz im Universum. Diese Vorstellung ist möglicherweise nicht weniger verkehrt als die vorkopernikanische Idee einer Erde, um die die Sonne kreist. Wenn der Meister verhext ist, wird er seine Sache kaum besser machen als der Lehrling.
Mit der Formel leben, mit der Formel sterben Der unangefochtene Pionier des SETI-Projektes ist der allgemein anerkannte Radioastronom Frank Drake. Schon früh in seiner Laufbahn als Radioastronom entwickelte Drake ein Interesse für die Möglichkeit von Leben auf anderen Planeten, insbesondere intelligentem Leben. Seine Neugier wurde von der Vorstellung angefacht - manche würden sagen, er war von der Idee besessen -, daß es vielleicht irgendwo draußen im All intelligente Wesen gibt, die Radiosignale in den Raum schicken, welche wir unter Umständen auf der Erde empfangen können - zu unserem unendlichen Vorteil natürlich. Intuitiv ahnte Drake, daß bei mehr als 200 Milliarden Sternen in unserer Galaxie eine recht gute Chance bestand, daß irgendwo jemand wäre, der in diesem Augenblick Signale aussandte, und er träumte davon, sie aufzufangen. Um das Projekt auf eine quantitative Basis zu stellen, entwickelte Drake die nachstehende Formel. Für einige Menschen mag sie kompliziert erscheinen, aber aus mathematischer Sicht könnte sie kaum einfacher sein. Die rechte Seite der Gleichung besteht lediglich aus einer Reihe von Variablen, die alle miteinander multipliziert werden: 98
N = R* * Fp * Ne * F1 * Fi * Fc * L Die Gleichung versucht, die Anzahl N der «Radiozivilisationen» in unserer Galaxie abzuschätzen. Eine «Radiozivilisation» ist eine intelligente Lebensform, die die Fähigkeit entwickelt hat, Nachrichten über elektromagnetische Wellen auszusenden und zu empfangen, und die dies auch regelmäßig tut. Die Gleichung schätzt die Anzahl N, indem sie verschiedene Faktoren berücksichtigt. R*
die Anzahl neuer Sterne, die jedes Jahr in unserer Galaxie entstehen Fp der Anteil der Sterne, die ein Planetensystem besitzen Ne die durchschnittliche Anzahl von Planeten, auf denen Leben entstehen könnte Fl der Anteil von Planeten, auf denen Leben tatsächlich entsteht Fi der Anteil der Lebensformen, die intelligent werden Fc der Anteil der intelligenten Lebensformen, die die Radiotechnologie entwickeln L die durchschnittliche Lebensspanne einer kommunizierenden Zivilisation. Auf den ersten Blick scheint die Formel eindeutig definiert zu sein. Wenn man den Wert jeder Variablen kennt, ist man in der Lage, N relativ problemlos zu schätzen. Wenn das Ergebnis der Schätzung einigermaßen hoch ist, könnte man die Formel dazu verwenden, den Staatshaushalt um riesige Geldbeträge zur Unterstützung der Forschung und der Suche nach intelligentem Leben zu erleichtern. Schließlich handelt es sich um eine mathematische Formel, und das bedeutet, daß es sich um harte Wissenschaft handeln muß. Die Schätzung der Größe von R* aufgrund der angenommenen Sternentstehungsrate liegt bei ungefähr zehn Sternen pro Jahr. Das ist eine äußerst grobe Schätzung, die auf momentanen Beobachtungen in Sternentstehungsregionen 99
unserer Galaxie beruht. Der wirkliche Zahlenwert hat im Laufe der Geschichte des Universums sicherlich enorm variiert; insbesondere in der Frühzeit dürften sich komplett andere Zahlen ergeben haben. Für die Formel Drakes geht es seither bergauf. Der Anteil Fp von Sternen, die ein Planetensystem besitzen, ist völlig unbekannt. Obwohl von einigen recht nahen Sternen angenommen wird, daß sie Begleiter oder Planeten haben, die Jupiter ähneln und die fast eigene Sterne sein könnten, wurde bisher noch kein einziger Stern beobachtet, der ein Planetensystem besitzt, das unserem auch nur entfernt ähnelt. Punkt. Damit ist alles dazu gesagt. Daraus folgt, daß wir nicht die leiseste Ahnung haben, wie hoch der wirkliche Wert von Fp sein könnte, und alle «Schätzungen» sollten besser als blindes Raten bezeichnet werden. Wenn wir schon keine Vorstellung davon haben, wie viele Sterne von einem Planetensystem umgeben sind, dann tappen wir bei der durchschnittlichen Anzahl von Planeten, auf denen Leben entstehen könnte, noch mehr im dunkeln. Einige Sterne mögen vielleicht solche «lebensermöglichenden» Planeten haben. Vielleicht sind aber auch alle Sterne von solchen Planeten umgeben? Oder aber ist die Sonne der einzige Stern mit einem solchen Exemplar? Wir haben einfach keine Ahnung. Würde auf einem «lebensermöglichenden» Planeten jemals Leben entstehen? Ich kann mir nicht vorstellen, wie ein Planet Leben ermöglichen könnte, wenn es auf ihm nicht schon Leben gibt. Auf der Erde gibt es zum Beispiel Sauerstoff. Jedoch nur deshalb, weil vor langer Zeit photosynthetisch aktive Mikroorganismen entstanden sind, die die Atmosphäre mit diesem (für uns) lebenswichtigen Gas anreicherten. Vielleicht wäre es am besten, die dümmliche Variable Fl gleich l zu setzen und damit ganz aus der Gleichung herauszunehmen. Wie Sie mit einem Blick auf die verbleibenden Variablen feststellen können, wird die Sache noch problematischer. Über den Anteil der Lebensformen, die intelligentes Leben 100
entwickeln, ist sogar noch weniger bekannt als von den anderen Variablen, wenn das überhaupt möglich ist. Was meinen wir überhaupt mit «intelligent»? Wie Sie vielleicht schon in Kapitel 2 entdeckt haben, sind wir noch nicht einmal sicher, was wir mit unserer eigenen «Intelligenz» meinen. Wieder einmal ist mein geschätzter Wert für Fi genauso gut oder schlecht, wie der von Frank Drake verwendete. Der Anteil Fc der intelligenten Lebensformen, die eine Radiotechnologie entwickeln, ist ebenso vollkommen unbekannt, und es macht überhaupt keinen Sinn, eine Schätzung abzugeben. Schließlich kommen wir zur Variablen L, der durchschnittlichen Lebenszeit einer Zivilisation, die in der Lage war, die Radiotechnik zu erfinden. Es ist die einzige Variable, über die wir etwas wissen, und unser Wissen wird möglicherweise sogar genauer. Wir wissen, daß unsere Radiozivilisation seit 90 Jahren besteht. Es sieht ganz so aus, als würde sie wenigstens 100 Jahre alt. Jedenfalls ist dieses eine Beispiel das einzige, aufgrund dessen wir den Wert von L schätzen können. Wie verwenden Drake und seine Schüler die Formel? Im folgenden zeige ich Ihnen zwei Beispiele, die in populären Zeitschriften zu diesem Thema erschienen sind. Ich bin ziemlich sicher, daß die geratenen Angaben direkt von den SETI-Anhängern stammen. N = 10 * 0,3 * l * 0,1 * 0,5 * 0,5 * 106 = 125.000 N = 10 * l * l * l * 0,01 * 0,1 * L = 0,01 * L Im ersten Beispiel wurde für L der Wert 106 angenommen, eine Million Jahre. Im zweiten Beispiel weigerte man sich, für L einen Wert einzusetzen. Das ist merkwürdig, wenn man bedenkt, daß wir über L bereits mehr wissen als über die anderen Variablen. Nichtsdestotrotz, wenn man den Wert für L aus dem ersten Beispiel in die Berechnung von 101
Beispiel 2 einsetzt, dann erhält man eine etwas zurückhaltendere Schätzung: N = 10.000 Damit gibt es immer noch eine beträchtliche Anzahl von Radiozivilisationen. Warum haben wir von keiner bisher eine Nachricht erhalten? Wir könnten die Antwort finden, wenn wir uns selbst einmal etwas genauer betrachteten und uns Gedanken über unsere Zukunft als Radiozivilisation machen würden. Es wird nicht die Nuklearkatastrophe sein, die einst unser Schicksal als Radiozivilisation besiegelt, so daß keine der unschätzbaren kulturellen und wissenschaftlichen Informationen mehr in den Kosmos gelangt, sondern die unglaubliche Ineffizienz von Antennenübertragungen! Wie jeder Elektronikingenieur weiß, ist die Übertragung von elektromagnetischen Wellen in alle Richtungen zum selben Zeitpunkt eine sehr verschwenderische Art, Nachrichten zu übermitteln. Obwohl die Signale von den üblichen Sendemasten in gewissem Sinne gerichtet ausgestrahlt werden können, erreicht nur ein äußerst kleiner Anteil der abgestrahlten Energie jemals eine Empfängerantenne. Die Beweise liegen immer klarer auf der Hand, daß die Erde allmählich aufhört, eine Quelle elektromagnetischer Signale zu sein. In zunehmendem Maße übertragen wir Radio- und Fernsehprogramme über Kabelverbindungen; das trifft insbesondere für den Informationsaustausch per Internet über die Telefonleitungen und Glasfaserkabel zu. Der Trend zur Übertragung von Fernsehprogrammen via Satellit ist noch eindeutiger. Die Signale, die die Satelliten zur Erde zurückstrahlen, werden komplett von der Erdoberfläche absorbiert. Durch diese neuen Technologien wird es immer weniger Radiosender geben, und die Erde wird als Quelle von Radiosignalen versiegen. 102
Wenn diese Annahmen zutreffen, dann könnte die Zahl 100 als Wert für L eine völlig vernünftige Annahme darstellen. In diesem Fall ergibt sich, wenn wir diesen Wert von L
in die zuletzt besprochene Gleichung für N einsetzen: N = 0,01 x 100 =1
Diese eine Radiozivilisation müssen wir sein! Eine andere Auswirkung der aktuellen Entwicklungen in der Technologie der Verarbeitung und Verbreitung von Informationen deutet auf eine weitere Schwachstelle in Drakes Hypothese hin. Es ist anzunehmen, daß von den vermeintlich «höher» entwickelten Zivilisationen im Universum die Abstrahlung von Radiosignalen von verschiedenen Punkten aus sehr viel genauer auf die Empfangsgeräte ausgerichtet sein wird; möglicherweise wird sogar die Präzision eines Laserstrahls erreicht sein. Das würde den Empfang solcher Signale von nicht angepeilten Empfangsgeräten erheblich erschweren oder gar verunmöglichen. Kann denn irgend jemand ernsthaft glauben, daß diese weit «überlegenen», fremden Zivilisationen eine Technologie zum Informationsaustausch verwenden würden, die so ungeheuer verschwenderisch ist wie die in alle Richtungen gleichzeitig erfolgende Abstrahlung von Radiosignalen über Sendeantennen? Die Schlußfolgerungen für SETI-Begeisterte sind klar und eindeutig: Rechnen Sie nicht damit, ein derartiges Signal jemals zu erleben! Ein Argument zum Schluß: Möglicherweise wird das SETIProjekt irgendwann Radiosignale aufzeichnen können, aber diese Signale werden uns enormes Kopfzerbrechen bereiten. Da sie sehr intelligent sein müssen, werden sie nur von Wesen verstanden werden können, die ähnliche Gedankenstrukturen hervorbringen können, was immer das genau heißen mag. Weder ich noch irgend jemand im 103
SETI-Team kann sich vorstellen, wie eine eindeutig nichtmenschliche Gedankenwelt aussehen könnte.
Neues von SETI Der Radioastronom Paul Horowitz aus Harvard hat die bisher genaueste, am besten durchdachte SETI-Version ausgearbeitet. Er nannte sie META (Megachannel Extraterrestrial Assay, Breitbanduntersuchung außerirdischer Signale). Für die Untersuchung wurde das 26-Meter-Harvard/Smithsonian-Teleskop in Harvard, Massachusetts verwendet. Was diese Beobachtung so spektakulär machte, war nicht das verwendete Teleskop, sondern die Radioelektronik, die das empfangene Signal untersuchte. Wie der Name schon andeutet, wurden sehr viele Kanäle untersucht. Im Jahre 1993 schloß Horowitz eine Fünfjahres-Beobachtung des nördlichen Himmels ab und veröffentlichte seine Ergebnisse zusammen mit Carl Sagan in der angesehenen Fachzeitschrift The Astrophysical Journal. In seinem Artikel beschreibt Horowitz die Beobachtung des Nordhimmels zwischen -30° und +60°, was den größten Teil des von Massachusetts aus sichtbaren Himmels umfaßt. Für die Untersuchung verwendete er einen hochentwickelten Empfänger, der über 8 Millionen Kanäle aufzeichnen kann. Jeder Kanal umfaßte einen sehr engen Frequenzbereich von 0,05 Hz Bandbreite. Derartige Kanäle eignen sich ideal zur Aufzeichnung der schmalbandigen Signale, die laut SETI-Theoretikern von den fremden Zivilisationen verwendet werden. Wie in dem nachstehenden Diagramm dargestellt, war der Empfänger in der Lage, Kanäle mit mehr als 400.000 Hz Gesamtbreite zu untersuchen. Die Frequenzen gruppieren sich um 1420 MHz (Wellenlänge 10,5 cm), der Frequenz von ungeladenem Wasserstoff. Das Diagramm zeigt die Wellenlängen, die diese Wellenlänge umgeben, und andere wichtige Wellenlängen. Das Diagramm ist logarithmisch, wie die Abbildung auf Sei104
te 91, die das gesamte elektromagnetische Spektrum darstellte.
Das «Wasserloch».
Trotz der Ernsthaftigkeit, mit der das ganze SETI-Projekt betrieben wird, haben einige Forscher ihren Humor bewahrt. So bezeichnen sie die Region um 1420 MHz (10,5 cm) als «Wasserloch». Diese Frequenz umfaßt einen besonders stillen Abschnitt im Frequenzspektrum bei der Übermittlung interstellarer Signale: die Region der Mikrowellen. Nahe bei der Frequenz von ungeladenem Wasserstoff (H) befindet sich die Frequenz des Hydroxylions (OH-). Diese beiden Moleküle bilden zusammen H2O, Wasser, daher der Ausdruck «Wasserloch». Es muß betont werden, daß Horowitz und Sagan nicht direkt nach Signalen gesucht haben, sondern nach einer Trägerwelle, die möglicherweise für die Signalerzeugung moduliert wurde. Das bedeutet, wenn sie ihr Teleskop in eine bestimmte Richtung eingestellt hätten und dann bei der Suche auf reproduzierbare Energieausbrüche in einem oder mehreren Kanälen gestoßen wären, dann hätten sie keine Aussagen darüber machen können, wie die enthaltene Nachricht ausgesehen hätte. Sie hätten dann einen weiteren Verstärker benötigt, um die Nachricht auf der Trägerwelle zu verstärken. Während ihrer gründlichen Suche im Nordhimmel entdeckten Horowitz und Sagan ungefähr 37 anormale Signale, die die Signatur einer Trägerwelle aufwiesen. Keines der 105
Signale konnte ein zweites Mal beobachtet werden, und die Autoren ließen es sich nicht nehmen, in einem Anflug von Verantwortungsbewußtsein darauf hinzuweisen, daß diese Signale vielleicht nicht «extraterrestrischen Ursprungs» gewesen sind. Aber Horowitz und Sagan entwickelten weitere Pläne, um die Suche mit Hilfe von BETA I zu verfeinern. BETA I sollte die «erste hochauflösende Zweistrahl-Gesamthimmelsuche» sein. Wird BETA I dort erfolgreich sein, wo META versagte? Und wenn auch BETA I zu keinem Ergebnis führt, werden die beiden Forscher dann ihre Suche einstellen? Nein. BETA II befindet sich schon im Anflug, und wenn BETA II ergebnislos bleibt, wird es bestimmt GAMMA I geben oder irgend etwas anderes, so lange, bis man mit dem ganzen griechischen Alphabet am Ende ist. Der Punkt, um den es geht, ist folgender: Es gibt unendlich viele Möglichkeiten zur Verfeinerung der Suche, die die SETI-Anhänger möglicherweise ausprobieren wollen; hinzu kommt eine unendliche Abfolge von Verbesserungen der Auflösung, die in einer endlosen Flut von Suchstrategien angewandt werden können. Per Definition wird es nie einen Punkt, außer vielleicht dem Fehlen von Steuergeldern, geben, an dem die Abwesenheit von Evidenz die Evidenz der Abwesenheit bedeutet. Wenn schon von Geld die Rede ist, sollte nicht unerwähnt bleiben, daß der Kongreß 1994 der NASA untersagte, weitere Gelder in das SETI-Programm zu investieren. Dies hat die SETI-Forscher krampfhaft nach anderen Geldquellen suchen lassen. Wenn das Programm weitergeführt wird, wird wahrscheinlich nicht mehr dabei herauskommen als eine langwierige und schmerzhafte Lektion über die Unsinnigkeit nicht-falsifizierbarer Hypothesen. Drake und seine Mitstreiter werden möglicherweise in der selbstgebauten Falle sitzen, wenn sie nicht sehr, sehr viel Glück haben. Sogar wenn die SETI-Forscher Erfolg haben sollten und auf triumphale Art und Weise den Kontakt mit einer fremden Zivilisation bekanntgeben, bedeutet dies nicht, daß die 106
dahinterstehende Wissenschaft gut war. Schließlich ist es auch dem Lehrling gelungen, den Besen für sich arbeiten zu lassen. Aber Sie werden sich erinnern: Das war erst der Anfang seiner Probleme. Persönlich erwarte ich eine große Erklärung im Jahre 1999, kurz vor dem von Drake selbst gesetzten Termin. Das Signal wird sehr kompakt sein, und es wird sich irgendein Code entziffern lassen, den niemand knacken kann. Dann wird ein brillanter Student der Cornell Universität entdekken, daß der Code so etwas wie ein Fehlerberichtigungsprogramm darstellt, das den eigentlichen Gehalt der Nachricht vor Verstümmelungen auf seiner langen Reise durchs Weltall schützen soll. Ich nehme an, es wird sich herausstellen, daß der Inhalt des Signals ein zweidimensionales Scan-Signal mit Tonspur ist. Sobald das Bild entschlüsselt ist, werden wir plötzlich das ungeheure Privileg haben, einen Blick auf einige Fremdlinge zu werfen. Es werden deren drei sein. Vielleicht sind sie klein und gelb; einer von ihnen wird einen Lockenkopf haben, einer wird seine Haare in Form einer Schüssel drapiert haben, und einer hat vielleicht gar keine Haare. Sie werden «Neep,.neep, neep» sagen und sich gegenseitig die Finger in die Augen stecken.
107
5. Der Zauberlehrling bastelt ein Gehirn Metaphern führen ins Abseits Im Jahre 1962 erregte ein merkwürdiges Buch mit dem Titel Die Prinzipien der Neurodynamik die Aufmerksamkeit der Computerfachleute. Der Autor dieses Buches, Frank Rosenblatt von der Cornell Universität, hatte eine Reihe von Maschinen konstruiert, die er Perzeptoren nannte und die scheinbar selbständig lernen konnten. Sie bestanden aus einer einschichtigen Lage von neuronenähnlichen Elementen und konnten darauf trainiert werden, Muster zu unterscheiden, die einer kleinen Schicht von Sehzellen (Retina), bestehend aus einfachen Ein/Aus-Detektoren, präsentiert wurden. Bis zu seinem tragischen frühzeitigen Tod durch einen Bootsunfall Mitte der 70er Jahre arbeitete Rosenblatt an seinen Perzeptoren und veröffentlichte Behauptungen, die vielen Computerwissenschaftlern zu schön schienen, um wahr zu sein. Der Perzeptor hat ohne jeden Zweifel die Prinzipien und die Machbarkeit von nicht-menschlichen Systemen gezeigt, so daß diese Maschinen es ermöglichen werden, menschliche kognitive Funktionen auf einem Niveau durchzuführen, das weit über dem liegt, was von heutigen Automaten [gemeint sind die digitalen Computer] erreicht werden kann.
109
Im Laufe der späten 60er Jahre wuchs in ganz Nordamerika eine neue Generation von Computerwissenschaftlern heran. Die Studenten blieben noch lange nach den offiziellen Schließzeiten der Institute in den Computerlaboren und spielten mit der neuen Technologie. Die einen entwickelten neue Informationsspeicher und -zugriffsmöglichkeiten, während andere neue Schaltkreise entwarfen. Einige jedoch sahen eine neue Ära herankommen. Die neuen Erfindungen von Denkern wie Turing, von Neumann und Wiener lagen in der Luft: Software für Roboter, selbstreproduzierende Maschinen und Zellularautomaten und außerdem Perzeptoren. Auf Tausenden von Computerbildschirmen tanzten Tausende von unterschiedlichen Bildern in das kollektive Bewußtsein dieser Generation. Einige dieser Grafiken schienen ein neues Zeitalter anzukündigen - die kybernetische Ära. Aber 1968 verdarben zwei Professoren vom M.I.T., Marvin Minsky und Seymour Papert, mit ihrem Buch Perceptrons bis zu einem gewissen Grad die Aufbruchsstimmung der Wahrnehmungsenthusiasten. Das Buch listete eine riesige Menge von Computerproblemen auf, die von Perzeptoren nicht gelöst werden konnten. Es bestand aus einer großen Sammlung von Theoremen, von denen jedes einen anderen Mangel der Perzeptoren aufzeigte. So sind Perzeptoren nicht in der Lage, eine Figur, die aus zwei miteinander verbundenen Teilen aufgebaut ist, von einer Abbildung zu unterscheiden, die nur aus einem Element besteht. Perzeptoren konnten keine einfachen logischen Operationen durchführen. Das Buch hatte somit einen sofortigen, stark abkühlenden Effekt für das ganze Gebiet. Aber wie beim verzauberten Besen entstanden in den 70er Jahren aus den Splittern der Perzeptoren die neuronalen Netze. Die neuen Netzwerke bestanden nicht aus einer Schicht, sondern aus zwei oder sogar drei Lagen. Es wurde gesagt, daß die neuen Netze in der Lage wären, die Einschränkungen, die Minsky und Papert so sorgfältig in ihrem Buch aufgeführt hatten, zu überwinden. 110
Bis Mitte der 80er Jahre war eine neue Generation von Computerwissenschaftlern herangewachsen. Die Einführung der Personalcomputer gab Millionen von Menschen, die zum Teil selbst Wissenschaftler waren oder in technischen Berufen arbeiteten, eine Rechenkapazität in die Hände, die noch ein Jahrzehnt zuvor selbst bei den größten vorhandenen Maschinen nicht vorstellbar war. Für einige Techniker waren die neuronalen Netze wie der unüberhörbare Gesang der Sirenen. Stellen Sie sich ein kleines Gehirn vor, das alles Denken für Sie übernimmt. Genau das sollten die neuronalen Netzwerke leisten. Sie würden nicht nur bisher unlösbare Probleme lösen, sondern auch die besten Aktien ermitteln, der Polizeibehörde mitteilen, welche ihrer Beamten ehrlich und zuverlässig sind, Gesichter erkennen, Muster erkennen, Terminpläne ausarbeiten und weiß der Himmel noch was. Das Bild der neuronalen Netzwerke als Minigehirne wurde in den Zeitungen, den Wissenschaftsmagazinen, im Fernsehen und sogar in einigen Hollywood-Filmen breitgetreten. Die Anhänger der neuronalen Netzwerke, auch Konnektionisten genannt, haben sich nicht ans Telefon gesetzt, um diesen wilden Spekulationen entgegenzutreten. Im Gegenteil: John Hopfield vom California Institute of Technology behauptete, das äußerst schwierige mathematische «Handlungsreisenden-Problem» gelöst zu haben. «Gute Lösungen für dieses Problem werden kollektiv berechnet innerhalb einiger weniger neuronaler Zeitkonstanten.» Es steht außer Frage, daß eine große Anzahl von Menschen solchen Behauptungen Glauben schenkte, und die Konnektionisten an der Front genossen ohne Zweifel ihre Publizität. Als Beispiel für deduktive Wissenschaft gibt es weder gegen neuronale Netze noch gegen die mit ihnen belegten Theoreme etwas einzuwenden. Diese Theoreme haben eine allgemeine Form und sind meist folgendermaßen formuliert: Unter der Voraussetzung, daß genügend Zeit zur Bearbeitung von Übungsbeispielen eingeräumt wird, wird ein gegebenes neuronales Netz sein Verhalten in der Weise 111
ändern, daß es eine annähernd richtige Antwort oder in einigen Fällen sogar eine exakte Antwort auf ein gegebenes Problem ermittelt. Aber die neuronalen Netze illustrieren trotzdem sehr gut, was passiert, wenn Leute versuchen, eine völlig neue Technologie aufzubauen, die auf einer falschen Interpretation dessen beruht, was neuronale Netze darstellen und was sie bewerkstelligen können. Das Schlimmste ist zwar falsche Mathematik, aber das Zweitschlimmste ist falsch angewendete Mathematik. Wie das Sprichwort sagt: Für jemanden, der mit einem Hammer herumläuft, sieht alles wie ein Nagel aus. Sind die Konnektionisten wirklich wie Zauberlehrlinge? Jedenfalls haben sie nichts unternommen, um den Eindruck zu korrigieren, daß neuronale Netze mächtige intellektuelle Hämmer seien. Stellen Sie sich für einen Augenblick vor, der alte Zauberer habe ein Buch besessen, in dem er seine Methoden und Formeln über all die Jahre hindurch zusammengetragen hatte. Einige der Formeln sind sehr weitreichend und vielseitig anwendbar, während andere nur Kuriositäten darstellen, die eher als Erholung und Entspannungsübungen Eingang in das Buch fanden. Während der Zauberer des Nachts schlief, blätterte der Zauberlehrling in dem Buch. Sein Geist geriet verständlicherweise ins Stolpern, als er zur Formel für neuronale Netze kam. Kaum vorstellbar, ein Gehirn in einer kleinen Schachtel! Zitternd vor Erregung konstruierte er ein neuronales Netz und probierte es an einem einfachen Problem aus, und siehe da: es funktionierte. Während meiner jahrelangen Tätigkeit als Autor der Spalte «Computerspaß» in der Zeitschrift Scientific American hatte ich sehr viel Gelegenheit, die Literatur über neuronale Netze genau zu lesen. Möglicherweise habe ich sogar mitgeholfen, die Revolution in Gang zu setzen, indem ich mehr als nur einen Artikel über dieses Gebiet schrieb. Erst jetzt kann ich sagen, was ich vorher nicht sagen durfte: Die Darstellung einer Idee im Scientific American macht diese Idee noch lange nicht zu einem epochalen Fortschritt. Die 112
Anzahl der Leute, die nicht in der Lage waren, das Wort «Spaß» in der Überschrift meiner Kolumne zu lesen, war wirklich erschreckend. Obwohl neuronale Netze in der Lage sind, einige simple Probleme zu lösen, ist ihre Rechenfähigkeit so eingeschränkt, daß ich doch überrascht bin, wie jemand sie als allgemein brauchbares Instrument zur Lösung von Problemen ernst nehmen kann. Die meisten Computerwissenschaftler, die im Bereich der Berechnungskomplexität arbeiten, verstehen dies sehr gut. Neuronale Netze haben längst den langen und langsamen Abstieg begonnen, den unzulängliche Wissenschaft oder in diesem Falle Technologie irgendwann immer erleidet, wie Irving Langmuir (siehe Ende des ersten Kapitels) es vorausgesehen hat.
Was ist ein neuronales Netz? Ein neuronales Netz ist, wie der Name schon sagt, ein Netzwerk von Neuronen. Die Art von Netzwerk, zu der die meisten Leute in den letzten Jahren etwas gelesen haben, ist in der Abbildung auf der folgenden Seite oben dargestellt. Es besteht aus einer Reihe von Kreisen, die durch horizontale Linien verbunden sind. Die Kreise stellen Neuronen dar, die Linien stehen für die Verbindungen zwischen den Neuronen. Die Neuronen auf der linken Seite erhalten einen Input aus der äußeren Welt, die Neuronen auf der rechten Seite geben den Output an die Welt weiter. Zwischen der Inputschicht und der Outputschicht besitzt ein typisches neuronales Netzwerk mehrere Schichten oder Lagen, die den größten Teil der Rechenarbeit übernehmen. Jede Schicht besteht aus so vielen Neuronen, wie Sie dort gerne haben möchten. Das neuronale Netz, das in der Abbildung dargestellt ist, soll nur als Illustration dienen und ist viel kleiner als die neuronalen Netze, die in den 80er Jahren für so großes, weltweites Aufsehen sorgten. 113
Ein einfaches neuronales Netzwerk. Die Arbeitsweise eines Netzes kann man nur verstehen, wenn man sich klarmacht, wie ein einzelnes Neuron arbeitet. Es erhält Input von allen Neuronen, die sich links von ihm befinden. Jeder Input besteht aus einer reellen Zahl, die kontinuierlich in einem bestimmten Zahlenbereich schwanken kann. Man kann diese Zahlen als eine Art neuronales Signal auffassen. Wie ich jedoch später noch deutlich machen werde, ist in keiner Weise klar, welche Art von Signal sich die Konnektionisten vorstellen. Das Neuron zählt alle empfangenen Signale einfach zusammen. Dann nimmt es die Summe und vergleicht sie mit den Werten einer sigmoiden Kurve. Diese Kurve hat ihren Namen nicht von einer Person namens Sigmoid, sondern von der Form des griechischen Buchstabens Sigma. Das nachstehende Diagramm zeigt das Schicksal von verschiedenen Ergebnissen der Signaladdition, wenn sie mit Hilfe der sigmoiden Funktion verarbeitet werden. 114
Durch die sigmoide Funktion wird die Summe der Inputsignale verarbeitet.
Die sigmoide Kurve, die große geschwungene S-Kurve, die das Inputsignal verarbeitet, liegt zwischen zwei Linien, der unteren 0-Linie und der oberen l-Linie. Ich habe drei mögliche Werte für die Summen der Inputsignale entlang der X-Achse eingetragen. Jede Summe von Inputsignalen wird von der sigmoiden Funktion in ein neues Signal verwandelt, das dann das Outputsignal des Neurons darstellt. Die Stärke des Outputs ist durch die vertikale Linie angegeben, die von der X-Achse zur Kurve verläuft. Die erste Summe von Inputsignalen an der Position l trifft dort auf die Kurve, wo diese beinahe linear ist, das heißt, sie verläuft dort annähernd in einer geraden Linie. Innerhalb dieses fast linearen Abschnitts wird das Outputsignal proportional zum Inputsignal sein, das heißt, seine Größe ist direkt von der Summe der Inputsignale abhängig. Die zweite Summe von Inputsignalen an der Position 2 trifft weiter rechts auf die sigmoide Kurve, an einer Stelle, wo diese ihre langsame, aber stetige Annäherung an die l-Linie bereits begonnen hat. Hier ist die Antwort des Neurons nicht mehr direkt von der Größe des Inputsignals abhängig; die Reaktion des Neurons nennt man deshalb nichtlinear. 115
Die Summe der Inputsignale, die mit der Stärke ankommen, wie sie an Position 3 angegeben ist, befindet sich noch weiter rechts, und der resultierende Output ist noch näher bei l, wenn auch der Unterschied zum Output des Signals an Position 2 nicht sehr groß ist. In dem vorliegenden Netzwerk liegt die Stärke des Outputs aller Neuronen zwischen 0 und l. Stellen Sie sich nun vor, daß jemand den Input unseres neuronalen Netzwerkes auf spezifische Werte setzt, die zusammengenommen ein Problem darstellen, das gelöst werden soll, wie zum Beispiel das Erkennen eines spezifischen Musters. Das Netz durchläuft eine Reihe von Rechenoperationen, bei denen jedes Neuron ein Signal von den links neben ihm befindlichen Neuronen erhält und diese in ein einzelnes Outputsignal verwandelt, das es dann an die rechts von ihm liegende Neuronenschicht weiterleitet. Am rechten Ende des Netzwerkes kann dann jemand den Output eines jeden Neurons aufzeichnen, und das stellt dann die «Lösung» des Problems dar, das am Inputeingang hineingegeben wurde. Ich habe die Dinge hier etwas zu stark vereinfacht, denn ich habe die wesentliche Komponente, das, was die neuronalen Netzwerke für viele Menschen so attraktiv macht, weggelassen. Jede Linie, die ein Neuron der einen Schicht mit einem Neuron einer anderen Schicht verbindet, besitzt eine Art von «Synapse», die in der Lage ist, das Signal, das durch sie hindurchkommt, entweder zu verstärken oder abzuschwächen. In Kürze: Eine Synapse multipliziert das Signal mit einem numerischen Wert. Diese Werte, auch Synapsenstärken genannt, können in einem neuronalen Netz verändert werden, jedoch nicht vom Netz selbst, sondern von einer Prozedur, die ich gleich beschreiben werde. In der Zwischenzeit können wir das Diagramm auf Seite 114 so verändern, daß wir die synaptischen Verstärker als kleine Dreiecke eintragen. Dabei erhält jede Linie genau ein Dreieck, wie das nachstehende Diagramm zeigt. 116
Synapsen im neuronalen Netz. Nehmen wir einmal an, daß der Output noch nicht die vollständige Lösung des Problems darstellt, mit dem das Netz konfrontiert wurde. Es gibt eine Technik, die Rückpropagation genannt wird und die die Gewichte jeder einzelnen Verbindung neu einstellt, so daß das veränderte Netzwerk ein Outputsignal produziert, das einer Lösung näher kommt. Und sollte auch diese Lösung noch nicht zufriedenstellend sein, so wird eine erneute Rückpropagation eine noch bessere Lösung ergeben. Es gibt ein interessantes neuronales Netz, das ungefähr so groß ist wie das auf Seite 114 dargestellte. Es konvertiert cartesianische Koordinaten in polare Koordinaten, mehr oder weniger jedenfalls. Diese Konstruktion wurde mir von Edward A. Rietmann und Robert C. Fryre von den AT&T Bell Laboratories 1990 zugeschickt. Cartesianische Koordinaten sind wie die Koordinaten in einer einfachen lokalen Karte. Jeder Punkt auf der Karte hat eine horizontale Koordinate (Abstand vom linken Kartenrand) und eine vertikale Koordinate (Abstand vom unteren Kartenrand). Auch polare Koordinaten bezeichnen Punkte durch zwei Zahlenangaben, aber nur eine der Zahlen stellt eine Distanz, einen Abstand dar, die andere Zahl gibt einen Winkel an. Denken 117
sie an einen runden Radarschirm, auf dem die Lages jedes Objektes durch die Angabe einer Entfernung vom Zentrum des Bildschirms und des Winkels zwischen der Verbindungslinie zu diesem Objekt und einer festgelegten horizontalen Referenzlinie definiert werden kann. Mit den richtigen Gewichtungen an allen Synapsen, den richtigen Synapsenstärken des Netzwerkes kann man die Input-Neuronen mit zwei beliebigen Zahlen (cartesianische Koordinaten) füttern, und blitzartig werden die beiden Output-Neuronen Signale liefern, deren Stärke den polaren Koordinaten dieses Punktes entspricht. Es ist wunderbar anzuschauen, und es macht mir nichts aus, daß dem Netzwerk nicht alle Umformungen ganz gelingen. Die meisten Ergebnisse sind ziemlich nahe am richtigen Resultat. Es wäre engstirnig von mir, darauf hinzuweisen, daß die gleiche Umwandlung tausendmal schneller von einem zehnzeiligen Programm auf einem herkömmlichen Computer berechnet werden könnte. Schließlich geht es mir nur darum, die Effekte eines Rückpropagationsalgorithmus zu zeigen und seine wesentlichen Merkmale zu untersuchen. Das koordinatenkonvertierende neuronale Netzwerk kurz KK-Netz genannt - beginnt sein Leben in einem Zustand, bei dem alle Synapsenstärken oder Gewichtungen zufällige Werte haben, ungefähr wie Ihr eigenes Gehirn am Montagmorgen. Dann setzt die Erziehung des KK-Netzes ein. Das Training beginnt sofort mit der Präsentation einer Folge von Punktkoordinaten am Inputeingang. Für jede dieser Koordinaten erfolgt ein Vergleich zwischen dem Output des Netzes und dem wahren Wert der polaren Version der in Frage stehenden Punkte. Jedesmal wenn es eine Abweichung gibt, paßt die Rückpropagationsprozedur die Werte der Synapsengewichtungen an, indem diese nach oben oder unten verändert werden, bis sich der Output des Netzes im Hinblick auf einen bestimmten Input verbessert hat. Natürlich kann es vorkommen, daß die für die eine Umwandlung besten Synapsengewichtungen für eine andere keine optimalen Ergebnisse liefern, aber die fortlaufen118
den Anpassungen balancieren sich gegenseitig meist so aus, daß sich ein Muster von Synapsengewichtungen ergibt, das als Ganzes in der Lage ist, alle geeigneten Umwandlungen durchzuführen, egal welche Koordinatenpunkte ins Netz eingegeben werden. Wie die übergroße Mehrzahl der neuronalen Netze ist auch das KK-Netz keine Hardware mit künstlichen Neuronen, sondern ein Softwareprogramm. Kurz gesagt, die meisten Konnektionisten schreiben Programme, die ein neuronales Netz simulieren und das gewünschte Verhalten genau nachahmen. Die synaptischen Gewichtungen, sowohl vor als auch nach dem Training, werden in einer Tabelle auf der Festplatte des Computers gespeichert. Klettern im Nebel Die kleinen Änderungen der Synapsenstärken während der Trainingsperiode sind nichts anderes als die Schritte eines Babys auf der Suche nach einem Gipfel in einem multidimensionalen Raum. Was bedeutet dieser Satz? Betrachten Sie einen Kletterer, der eingehüllt von dichtem Nebel am Fuße eines Berges steht. Kann er den Berg trotzdem ersteigen? Natürlich. Er benötigt dazu lediglich einen Kletteralgorithmus. Der Kletterer, der etwas von dem Gelände in seiner Nähe sehen oder ertasten kann, sollte seinen nächsten Schritt immer in Richtung der steilsten Aufwärtsneigung setzen. Um zu verstehen, wo die verschiedenen Dimensionen ins Spiel kommen, stellen Sie sich doch einfach vor, Sie würden auf einen Kletterer herabschauen (siehe nachstehendes Diagramm) und sähen überdies zwei verschiedene Richtungslinien, eine ost-westliche und eine nord-südliche, die über der Position des Kletterers liegen. Im allgemeinen wird die Bodenoberfläche wenigstens in einer der Hauptrichtungen nach oben gehen. Wenn der Kletterer in diese Richtung geht, wird er an Höhe gewinnen, sei es auch noch so wenig. 119
Ein Kletteralgorithmus in Aktion.
Das Problem dieser Technik besteht darin, daß der Kletterer nach all seinen Strapazen im Nebel möglicherweise auf einer kleinen lokalen Erhebung landet statt auf dem großen Gletschergipfel, den er eigentlich erreichen wollte. Nun stellen Sie sich vor, Sie klettern nicht in einem dreidimensionalen Raum, sondern in einem n-dimensionalen Raum. Natürlich ist das etwas unfair von mir. Niemand, nicht einmal Mathematiker, können sich Räume mit mehr als drei Dimensionen vorstellen. Nichtsdestotrotz kann man sich das Problem, eine Menge von optimalen Synapsengewichtungen zu finden, in dieser Art und Weise denken. Irgendwo gibt es eine ideale Menge der synaptischen Gewichtungen (den Gipfel des Mount Everest), die die Antwort des neuronalen Netzes für alle möglichen Inputwerte optimal werden läßt. Wenn diese Werte fest in das kleine künstliche Gehirn eingegeben sind, dann wird es in allen Fällen die richtige Antwort erzeugen oder wenigstens Antworten, die in einem allgemeineren Sinn die bestmöglichen Antworten darstellen. 120
Für jede Synapse gibt es eine Linie, entlang derer Sie sich alle möglichen synaptischen Werte nacheinander wie auf einem Lineal aufgereiht vorstellen können. Wenn Sie jede synaptische Linie im rechten Winkel zu allen anderen Linien legen, dann haben Sie den Untergrund für einen n-dimensionalen Kletterer geschaffen. Der gesuchte Gipfel erhebt sich «aufwärts» in Richtung einer zusätzlichen Dimension, der n+1 ten Dimension, wenn Sie so wollen. Um diesen n+1-dimensionalen Gipfel zu ermitteln, lenkt der n-dimensionale Kletterer seine Schritte in Richtung der steilsten Aufwärtsneigung des ihn umgebenden Geländes. Wieder kann es ihm passieren, daß er sich nur in einer der Hauptrichtungen bewegt, so daß er nur einen synaptischen Wert in Richtung auf eine bessere Leistung des Netzwerkes verändert. Sogar in diesem stark verarmten multidimensionalen Milieu kann der Algorithmus zu einer lokalen Erhebung im n-dimensionalen Raum führen. Tatsächlich ist es, unter sonst gleichen Bedingungen, der Fall, daß mit der Anzahl der Dimensionen die Anzahl der Möglichkeiten einer Berglandschaft, lokale Erhebungen auszubilden, ansteigt. Das ist bloß eine Metapher. Die Mathematik ist voll von Problemen, die nichts anderes darstellen als die Maximierung einer multidimensionalen Funktion. Viele solcher Funktionen neigen dazu, eine Vielzahl von Gipfeln zu haben, von denen einige etwas höher, andere etwas niedriger sein können. Wir wissen bereits, daß Kletteralgorithmen nur zuverlässig bei der Ermittlung einer Lösung arbeiten, wenn es nur einen einzelnen Gipfel gibt und das Gelände in seine Richtung steil ansteigt. Diese Bedingung ist in der Abbildung auf der nächsten Seite garantiert nicht gegeben.
121
Ein schwieriges mathematisches Problem kann viele Gipfel haben. Die Menge aller möglichen Kombinationen von synaptischen Werten bildet einen n-dimensionalen Raum, und das spezielle Problem, das gelöst werden soll, verwandelt diesen Raum in eine Berglandschaft. An jedem einzelnen Punkt im Raum, das heißt bei jeder Kombination der synaptischen Gewichte, ergibt die Eignung der Kombination eine gewisse Höhe. Deshalb gibt es zwei Probleme, mit denen ein Konnektionist konfrontiert ist. Erstens garantiert die Rückpropagation nicht unbedingt die optimalen Synapsengewichtungen für ein gegebenes Netzwerk. Zweitens und noch viel gravierender sind die optimalen Werte möglicherweise überhaupt nicht in der Nähe des Punktes, der zu einer wirklich nützlichen Lösung des augenblicklichen Problems führt.
Das n-Königinnen-Netzwerk Das Problem, wie man n Königinnen so auf einem Schachbrett anordnet, daß sie sich nicht gegenseitig angreifen, ist Schachenthusiasten wohlbekannt. Auf der nächsten Seite ist eine Lösung mit acht Königinnen auf einem normalen Schachbrett gezeigt. Keine der Königinnen greift eine an122
dere an, das heißt keine steht in derselben Reihe, Spalte oder Diagonale. Im Jahre 1985 entdeckte John Hopfield ein neuronales Netz, das dieses Problem lösen würde - wenigstens dachte er das. Zwei Jahre später, 1987, wurde mir ein Programm geschickt, das dieses neuronale Netzwerk simulierte. Ich testete es mit vier Königinnen, und es funktionierte. Dann versuchte ich es mit fünf Königinnen, und wieder funktionierte es einwandfrei. Mit sechs Königinnen führte das
Eine Lösung mit acht Königinnen, von denen keine eine andere angreift.
123
Netzwerk nur einmal zu einer Lösung. Mit noch größeren Zahlen für n produzierte das Netzwerk überhaupt keine Lösungen mehr, sondern plazierte die Königinnen wiederholt in die gleiche Reihe oder Diagonale. Aufgrund dieser Erfahrungen war ich sehr skeptisch, als ich auf einen Artikel stieß, in dem Hopfield behauptete, er habe ein neuronales Netz entwickelt, welches das berühmte Problem des Handlungsreisenden lösen könne. Dabei soll auf einer willkürlichen Landkarte, mit Städten und sie verbindenden Straßen, die kürzeste Reiseroute ermittelt werden, die durch alle Städte führt. Dieser Streckenplan ist für einen Handlungsreisenden zu entwickeln, der jede Stadt genau einmal besuchen sollte und dabei seine Fahrtkosten so gering wie möglich halten muß. Das Problem ist unter Mathematikern und Computerwissenschaftlern sehr berühmt, weil es sehr schwierig zu lösen ist. Bisher ist es niemandem gelungen, ein Computerprogramm zu schreiben, das eine rasche Lösung dieses Problems fertigbringt. Die schnellsten bekannten Programme können die kürzeste Reiseroute in einem Zeitraum finden, der proportional zu 2n ist, wobei n die Anzahl der Städte auf der Reise darstellt. Jeder, der sich mit der gefürchteten Exponentialfunktion auskennt, weiß, daß wenn ein solches Programm nur fünf Minuten benötigt, um ein Problem mit, sagen wir mal 100 Städten zu lösen, es zehn Minuten bei 101 Städten und 20 Minuten bei 102 Städten usw. benötigen wird. Der Zeitraum, den es benötigten würde, um die optimale Reiseroute durch 150 Städte zu errechnen, würde die gesamte geschätzte Lebenszeit des Universums betragen. Das Problem des Handlungsreisenden gehört zu einer Gruppe von Problemen, die alle auf die gleiche Art und Weise unlösbar sind. Außerdem haben diese Probleme ein weiteres gemeinsames Merkmal: Sollte jemand ein Programm entwickeln, das eines von ihnen in einer vernünftigen Zeit zu lösen vermag, dann wäre er auch in der Lage, alle diese Probleme in einem zumutbaren Zeitraum zu lösen. Diese Eigenschaft ist ein sehr guter Indikator dafür, 124
daß derartige Probleme in einem praktischen Sinne unlösbar sind. Wir können sie lösen, aber nur für kleine Zahlenwerte. Alle anderen Werte sind für jeden Computer völlig unzugänglich, sei er jetzt parallel, positronisch, neuronal oder was auch immer. Deshalb schlug ich der Promotionsstudentin Gail Harris vor, das Netzwerk von Hopfield mit vielen verschiedenen Problemen zu konfrontieren. Obwohl sie Hopfields eigene Anweisung zur Konstruktion des Netzwerkes verwendete, hatte Frau Harris große Schwierigkeiten, dem Netzwerk für mehr als fünf Städte Resultate zu entlocken. Die Nachfragen bei Hopfield waren nur von geringem Wert, denn seine Aussagen, wie denn das Netzwerk genau aussehen müßte, blieben recht vage. Deshalb sah sich Frau Harris dazu gezwungen, die optimalen Einstellungen der Synapsengewichtungen durch eine sehr aufwendige und anstrengende Suche durch alle möglichen Werte zu ermitteln. Sogar mit den optimalen Einstellungen war das Hopfield-Netz nicht in der Lage, die kürzesten Reiserouten zwischen acht Städten zu finden, und bei zehn Städten lieferte es gar kein Ergebnis mehr. Ich erfuhr, daß wir mit unseren Forschungen nicht alleine waren. G. V. Wilson und Stuart Pawley von der Universität Edinburgh führten ein eigenes Experiment mit dem HopfieldNetzwerk durch. Sie berichteten, daß es nur in 8% der Fälle gültige Reiserouten ermittelte und daß keine dieser Routen den kürzesten Weg darstellte. Die vom Netzwerk vorgeschlagenen Routen waren kaum kürzer als zufällig ausgewählte Wegstrekken. Auch die Forscher S. U. Hedge und J. L. Sweet von der Universität Virginia berichteten vom Versagen des HopfieldNetzes beim Handlungsreisendenproblem. Dies führte dazu, daß ich den Behauptungen der Konnektionisten zunehmend skeptisch gegenüberstand. Die Konnektionisten schienen mehr und mehr einer Sekte zu gleichen, «Voudou-Wissenschaft», wie Zenon Pylyshyn von der Rutgers-Universität es formulierte. Möglicherweise wäre die Formulierung «Voudou-Technologie» noch präziser. 125
Sind die neuronalen Netze wirklich «neuronal»? Es kann kaum bezweifelt werden: Hätte man die neuronalen Netze anders benannt, zum Beispiel «konvergente Netzwerke», sie hätten wohl kaum oder gar kein öffentliches Interesse erregt. Sie wären möglicherweise so bekannt geworden wie Skifahren auf Asphaltstraßen. Aber in der heutigen Zeit der «Wissenschaft durch Presserummel» genügt es, einer wissenschaftlichen Idee einen Namen zu geben, der am besten eine einprägsame Metapher darstellt (wie «Neuron»), um einer enormen Publicity sicher zu sein. Hinzu kommt, daß es vollkommen genügt, ein kleines Quentchen scheinbarer Beweise hinzuzufügen, damit die Sache tatsächlich funktioniert. Wie «neuronal» sind neuronale Netze? Die kürzeste Antwort auf diese Frage lautet, daß neuronale Netze so gut wie gar nichts mit wirklichen Neuronen gemein haben. Zunächst einmal müßten die Neurophysiologen den Code entschlüsseln, den die schnellen, stotternden Energieimpulse, die in einem echten Gehirn von Neuron zu Neuron fließen, darstellen. Einige Neurophysiologen glauben, daß die Neuronen einen Frequenzcode verwenden, um numerische Information untereinander auszutauschen. Das numerische Signal, das von einem Neuron zum nächsten übertragen wird, ist die Frequenz der Impulse oder Impulsspitzen, die es aussendet. Diese Hypothese stimmt ganz gewiß, zum Beispiel für Muskelfasern, denn je höher die Frequenz der Impulse ist, die ein Muskel empfängt, desto stärker ist die Kontraktion. Die künstlichen neuronalen Netze übermitteln natürlich reine Zahlenwerte. Deshalb muß man folgende Frage stellen: Wenn die Neuronen Zahlen in Form von Frequenzen übermitteln, addieren sie diese dann auch und verarbeiten sie die Zahlen mit Hilfe einer sigmoiden Funktion? Keineswegs. Echte Neuronen addieren die Frequenzen der Signale nicht, sondern sie addieren die Spannungen, die die ankommenden Signale an ihrer Plasmamembran erzeugen. Wenn 126
diese verschiedenen Spannungen zusammengenommen einen bestimmten Schwellenwert überschreiten, dann wird das Neuron selbst ein Signal weiterleiten. Die Frequenz dieses Signals steht in keiner klaren Beziehung zur Frequenz der Eingangssignale. Es sieht so aus, als habe der Zauberlehrling einen Fehler gemacht und Frequenzen addiert, wo er Spannungen hätte addieren sollen. Es gibt noch ein weiteres, schwerwiegenderes Problem mit der neuronalen Metapher. Durch die Analogie zwischen Computer und Gehirn stark beeindruckt, haben einige Neurophysiologen angenommen, daß das Neuron, wie das elektronische Tor in einem Computer, die grundlegende Einheit für die Berechnung ist, die wir «denken» nennen. Die Jury ist immer noch sehr weit davon entfernt, dies einzusehen. Warum sollte ein Objekt, das so kompliziert ist wie eine lebendige Zelle, die grundlegende Einheit von Berechnungen sein? Schließlich kann eine Zelle eine erstaunliche Vielfalt von Verhaltensweisen an den Tag legen, die nur das Ergebnis von noch grundlegenderen Einheiten sein können. Sie müssen nur einmal einer der freilebenden (einzelnen) Zellen, die man Protozoen nennt, für ein oder zwei Stunden beim Herumschwimmen in ihrer natürlichen Umgebung zuschauen, um sich darüber klarzuwerden, daß diese Zellen Entscheidungen darüber treffen, wohin sie schwimmen, wann sie Nahrung aufnehmen, wie sie sich bewegen, und all dies mehr oder weniger kontinuierlich. Ich habe persönlich ein Protozoen gesehen, das sich neben ein anderes legte. Hatte dieses ein subzelluläres neuronales Netz, das mir entgangen ist? Die neurophysiologischen Parallelen zwischen natürlichen und künstlichen Netzwerken verschwinden fast vollständig, wenn man genau hinsieht. Alles, was bleibt, ist der Aufkleber «neuronal», wie das Grinsen einer Plastikente.
127
Die synaptische Tabelle Der wichtigste Teil eines neuronalen Netzwerkes, sein Heiliger Gral, ist eine Tabelle, die die Werte der perfekt eingestellten Synapsengewichtungen enthält. Sie enthält somit das Resultat oft stundenlanger oder gar tagelanger Berechnungen, die der Rückpropagationsalgorithmus Schritt für Schritt abarbeitete, als er langsam auf den Gipfel einer lokalen Erhebung im Problemraum kletterte. Lassen Sie uns eine solche hypothetische Tabelle genauer betrachten, und zwar den Eintrag am Schnittpunkt der Zeile 385 mit der Spalte 142. Er repräsentiert die Synapsenstärke zwischen dem Neuron 385 und dem Neuron 142. Die Tabelle ist fürchterlich groß. Es ist weit verbreitet, zum Beispiel ein neuronales Netz zu haben, das aus drei Schichten mit jeweils 100 Neuronen aufgebaut ist. Das ergibt dann 10.000 Verbindungen und somit auch 10.000 Synapsengewichtungen zwischen den Neuronen der ersten beiden Schichten und nochmals 10.000 Verknüpfungen zwischen der mittleren und der letzten Schicht. Eine Tabelle mit 20.000 Einträgen ist sehr groß und sehr schwer zu analysieren. Lassen Sie uns kurz in die Träumereien eines Konnektionisten versinken. Stellen Sie sich vor, ein großes neuronales Netz sei auf zahlenverschlüsselte Beschreibungen aller Krankheiten, die der Menschheit bekannt sind, trainiert worden. Jedesmal, wenn das Netzwerk eine falsche Diagnose stellte, wurden die Synapsengewichtungen durch den Rückpropagationsalgorithmus neu eingestellt. Schließlich ist das Training des Netzes abgeschlossen, und es diagnostiziert alle bekannten Krankheiten fehlerlos. Die Tabelle mit den Synapsengewichtungen würde dann die «eingekochte» Essenz der diagnostischen Medizin enthalten und somit einen großen intellektuellen Schatz darstellen. Aber wie kommen wir an den Schatz heran? Welchen Wert hat eine undurchsichtige, unlesbare Tabelle? Das Wissen, das eine solche Tabelle repräsentierte, wäre für die Wissenschaft unzugänglich und damit als Quelle für Wissenschaft128
liche Forschungen wertlos. In der Wissenschaft geht es um verfügbares Wissen, nicht um numerischen Hokuspokus.
Die Herausforderung Das Problem, die Vergangenheitsform von englischen Verben zu finden, scheint von den Anforderungen an eine Technologie des 20. Jahrhunderts sehr weit entfernt zu sein. Doch dieses Problem ist bei experimentellen und theoretischen Psychologen und Kognitionswissenschaftlern sehr beliebt und wird als Test für ihre jeweiligen Lieblingstheorien über die Funktionsweise des Gehirns verwendet. David E. Rumelhart und James L. McClelland sind zwei sehr prominente Mitglieder der PDP-Forschungsgruppe, einer Organisation der Konnektionisten, die mehrere Universitäten und Forschungsgruppen umfaßt. Im Jahre 1986 entwickelten Rumelhart und McClelland ein neuronales Netz, das die Vergangenheitsform von englischen Verben erlernte - zumindest schien es so. Einige Kognitionswissenschaftler, die einen eher traditionellen, symbolorientierten Ansatz verfolgen, das heißt, daß sie kognitive Prozesse als die Anwendung von Regeln auf Symbole auffassen, kritisierten das Modell von Rumelhart und McClelland an verschiedenen Fronten. So warfen sie dem Modell vor, daß es nicht in der Lage sei, einige Eigenschaften des Spracherwerbs von Kindern zu reproduzieren, außerdem mache es Fehler bei der Vorhersage von Vergangenheitsformen. Zwei Konnektionisten, Brian MacWhinney und Jared Leinbach von der Carnegie Mellon University in Pittsburgh, reagierten auf diese Kritik, indem sie ein neuronales Netz entwickelten, das die Vergangenheitsformen besser bewältigte als das Modell von Rumelhart und McClelland. In einem Anflug von verständlichem Stolz auf ihre Erfindung stellten MacWhinney und Leinbach selbst eine Forderung auf: «Wenn es einer anderen Vorgehensweise gelingen sollte, den Lernprozeß noch genauer zu charakterisieren, dann 129
wären wir gezwungen, den konnektionistischen Ansatz aufzugeben ...» Viele englische Verben, genauer gesagt die regulären Verben, bilden die Vergangenheitsform dadurch, daß sie die Endung -ed an den Verbstamm anhängen. So lautet die Gegenwartsform von gehen «to walk», während die Vergangenheitsform «walked» heißt. Andere englische Verben, die sogenannten irregulären Verben, verwenden eine Reihe verschiedener Endungen, um die Vergangenheitsform zu bilden, zum Beispiel: to swim / swam (schwimmen) to do / did (tun, machen) to see / saw (sehen) und so weiter. Bei Kindern gibt es eine klassische Lernkurve, wenn sie sich mit den Schwierigkeiten von regulären und irregulären Verben auseinandersetzen. Am Anfang lernen sie langsam, und ihre sprachlichen Fähigkeiten scheinen abzunehmen, wenn sie versuchen, die -ed Endung bei allen Verben zu gebrauchen. Nach dieser Phase nimmt ihre Fähigkeit, die richtigen Formen zu wählen, mit einer konstanten Rate zu, bis sie die volle Kompetenz erreicht haben. Das neuronale Netz von MacWhinney/Leinbach bestand aus zwei Zwischenschichten, von denen jede 100 Neuronen hatte. Sie trainierten das Netzwerk mit insgesamt 1.650 Verben, von denen 1.532 reguläre und 118 irreguläre Verben waren. Nachdem sie das Netzwerk zwei ganze Tage lang trainiert hatten, was für Computer einer Ewigkeit gleichkommt, fanden sie Synapsenstärken, die dem Netz, bis auf 11 irreguläre Verben, eine völlig kompetente Verarbeitung der Verben ermöglichten. MacWhinney und Leinbach behaupteten, daß ihr Netzwerk die vollständige Kompetenz erreicht hätte, wenn der Rückpropagationsalgorithmus noch einige Tage länger gelaufen wäre. Solche Behauptungen provozieren natürlich eine Überprüfung. Als sie das Netzwerk mit 13 irregulären Verben 130
konfrontierten, denen das Netz vorher nicht begegnet war, ermittelte es nur in vier Fällen die korrekte Vergangenheitsform. Da einer der Tests von Modellen der menschlichen Denkweise darin besteht zu prüfen, ob das Modell in der Lage ist, aus früheren Erfahrungen zu schließen, scheint das MacWhinney-Leinbach-Netz noch ziemlich weit von der Arbeitsweise unseres Gehirns entfernt zu sein. Die Herausforderung, die MacWhinney und Leinbach unvorsichtigerweise bekanntgaben, wurde von Charles Ling von der Universität von Western Ontario in London, Kanada aufgegriffen. Ling entwickelte einen «Symbol-Muster-Assoziator» (oder SPA), der in allen Bereichen besser war als das MacWhinney-Leinbach-Netzwerk, sogar in seiner Fähigkeit, die Lernkurve von Kindern nachzuahmen. Theoretische Psychologen und Kognitionswissenschaftler verwenden symbolische Systeme wie das von Ling seit Jahren. Der symbolische Ansatz, Muster zu assoziieren, verwendet einfache Regeln wie die folgende: xying → xyung Solch eine Regel würde zum Beispiel auf das Verb «swing» (schwingen) Anwendung finden, wobei X dem s entspräche und Y dem w. Derartige Regeln werden zu sogenannten «Entscheidungsbäumen» zusammengefaßt, die durch wiederholte Präsentation von Beispielen von einer speziellen Prozedur konstruiert werden, wie sie von den meisten Symbol-Muster-Assoziationsprogrammen verwendet wird. Wenn das Training abgeschlossen ist, kann man derartige Programme auch mit bisher unbekannten Verben konfrontieren. Der SPA war in jeder Hinsicht besser als das MacWhinney-Leinbach-Netzwerk. Er erreichte höhere Trefferquoten mit den Trainingsverben und war viel erfolgreicher bei den bisher unbekannten Verben. Es wurden nur 70 Sekunden Computerzeit für das Training benötigt, und er ahmte die Lernkurve von Kindern viel besser nach als das MacWhin131
ney-Leinbach-Netzwerk. Und schließlich war er in der Lage, Regeln bereitzustellen, die wesentlich durchschaubarer waren als eine Tabelle mit Tausenden von bedeutungslosen Zahlenwerten. Natürlich beweist ein Beispiel nichts. Doch die Art, wie ein konkurrierendes System den Anforderungen der erfahrenen Konnektionisten gerecht wurde, macht deutlich, welch ein Trend sich am Ende durchsetzen wird. Wenn wir die wahren Fähigkeiten von neuronalen Netzen untersuchen, werden wir sicherlich viele Bereiche entdecken, in denen sie völlig zu Recht eingesetzt werden können. Aber wie viele Experimente bereits gezeigt haben, sind sie weit davon entfernt, Miniaturgehirne mit einer allgemeinen Kompetenz zu sein. Ihre Popularität wird zweifellos abnehmen, bis sie nur mehr als eine von vielen möglichen Strategien zur Lösung wirklicher Probleme betrachtet werden. Symbol-Muster-Assoziatoren werden andererseits kaum jemals populär werden, es sei denn, jemand taufte sie in «Sym-Hirn» oder etwas noch Beeindruckenderes um.
Nachwort Während des ganzen Debakels um neuronale Netzwerke haben sich viele Computerwissenschaftler erstaunlich still verhalten. Wenigstens die Forscher, die sich mit der Berechnung von Komplexität beschäftigen, müssen geahnt haben, was den Konnektionisten entgangen war. Für uns hingegen haben die neuronalen Netzwerke eine gewisse Etwas-fürnichts-Aura. Ein Flair von Faulheit und ein Mangel an Neugier darauf, was diese Berechnungssysteme zu leisten denn wirklich imstande sind, geht von ihnen aus. Keine menschliche Hand (kein Gehirn) greift ein, die Lösungen werden fast wie durch Magie gefunden, und niemand hat, so wie es aussieht, auch nur das geringste gelernt. 132
6. Der Geist in der Flasche Die «Entdeckung» der kalten Fusion
Am 23. März 1989 stellten die beiden Chemiker Martin Fleischmann und Stanley Pons die Welt der Wissenschaft auf den Kopf, als sie bekanntgaben, daß sie etwas vollbracht hatten, was Hunderten von Kernphysikern nicht gelungen war: lange anhaltende Kernfusion. Die Behauptung, einen Geist in einer Flasche gefunden zu haben, wäre kaum weniger überraschend gewesen. Auf einer Pressekonferenz an der Universität von Utah, der Heimatuniversität von Pons, beschrieben die beiden Chemiker ihre Apparatur. Es handelte sich nicht um einen Milliarden verschlingenden heißen Kernfusionsreaktor, sondern um eine einfache Elektrolytzelle aus Glas; hinzu kam etwas schweres Wasser, eine Palladium- und eine Platinelektrode. Die Gesamtkosten der Vorrichtung betrugen vielleicht einige hundert Dollar. Die Verschmelzung (Fusion) von zwei Atomen zu einem setzt eine riesige Energiemenge frei, sogar mehr als bei der Spaltung eines Atomkerns in zwei. Eine Wasserstoffbombe, die eine Kernfusion erzwingt, setzt ungeheuer viel mehr Energie frei als eine gleich schwere Atombombe. Bei der Kernspaltung entwickelten die Wissenschaftler zuerst einen funktionierenden Reaktor und dann die Atombombe; bei der Kernfusion war es genau umgekehrt. Mehrere Jahrzehnte nach der ersten erfolgreichen Zündung einer Wasserstoffbombe ist es ihnen bis heute nicht gelungen, einen Reaktor zu konstruieren, der auf der Basis der Kernfusion arbeitet. 133
Kernspaltung und Kernfusion.
In einer Welt, die immer mehr von der Zufuhr von Energie abhängt, wäre ein Fusionsreaktor ein unschätzbarer Vorteil. Im Gegensatz zur Kernspaltung werden dazu keine exotischen schweren Metalle wie Uran gebraucht. Die Kernfusion würde mit einfachen Atomen funktionieren wie zum Beispiel Wasserstoff, der dann zu Heliumatomen verschmolzen würde, eine Reaktion, die in dieser Form in unserer Sonne stattfindet. Da beinahe alle Energie, die wir heutzutage verbrauchen, direkt oder indirekt von der Sonne kommt, könnte man sagen, daß wir bereits seit Beginn des menschlichen Lebens auf der Erde einen gigantischen Fusionsreaktor verwenden. Der Brennstoff für einen Fusionsreaktor auf der Erde ist billig und in großen Mengen verfügbar, jedes Wassermolekül enthält ja zwei Wasserstoffatome. Die Idee einer erfolgreichen, langanhaltenden Fusion ist trotz deren Realisierungschancen von einer magischen Aura umgeben. Es wäre einfach genial, alle Wünsche nach Energie mit einem einfachen Knopfdruck befriedigen zu können. 134
Bei dem Prozeß, den man «heiße Fusion» nennen könnte, benötigt man große Hitze und ungeheuren Druck, um zwei Atome miteinander zu verschmelzen. Die aktuellen Entwürfe benötigen hierzu keinen Glasbecher, sondern einen runden Tank, der Tokamak genannt wird. Innerhalb des Tokamak wird ein ausgeklügeltes Plasma durch sehr starke Magnetfelder aufrechterhalten, das die darin enthaltenen Atome in einen irrwitzigen Tanz versetzt, so daß statistisch sicher ist, daß Kollisionen zwischen den Atomen und Partikeln im Plasma stattfinden. Die großen Energien sind deshalb notwendig, weil die Atomkerne die gleiche elektrische Ladung tragen und sich somit abstoßen. Kommt es dann zur Kernverschmelzung, hält die freiwerdende Energie nicht nur den Fusionsprozeß aufrecht, sondern kann auch in großen Mengen abgeführt werden. Zur Zeit der Bekanntgabe der Ergebnisse von Fleischmann und Pons im März 1989 war es den Kernphysikern nur in wenigen Reaktoren gelungen, Fusion zu erzeugen, und selbst da, wo sie in Gang gesetzt werden konnte, brach sie nach wenigen Millisekunden wieder ab. Die Reaktionen auf die Erklärung von Fleischmann und Pons reichten von Verzückung und Neid bis zu Furcht und Verachtung. Weil Fleischmann und Pons hochangesehene Wissenschaftler waren, von denen jeder zahlreiche Veröffentlichungen vorweisen konnte, fühlte sich die Presse auf sicherem Boden, als sie den Anbruch eines neuen Zeitalters mit billiger und überreichlich vorhandener Energie verkündete. Die einfachen Menschen, die die Nachrichten im Fernsehen verfolgten, spürten eine Welle der Zuversicht und des Vertrauens in die Zukunft. Mehr als 500 Firmen wurden hellhörig. Kernfusion im Glasbecher? Höchste Zeit, in dieses Geschäft einzusteigen! Innerhalb von Stunden nach der Pressekonferenz und noch Tage danach wurde die Universität von Utah mit Telefonanrufen von Firmen überschwemmt, die alle anboten, die neue Technologie zu verbreiten - wenn sie die entsprechende Lizenz erhielten. 135
Im privaten Kreis zeigten sich mehrere Kernphysiker, die annahmen, daß die Resultate bereits von ihren Kollegen überprüft worden waren, überrascht und enttäuscht. Stellen Sie sich das vor! Keine hochtechnisierten Apparate waren mehr nötig, weiteres Theoretisieren erwies sich als überflüssig. Zwei schlaue Chemiker hatten sie übertroffen, und damit schien das ganze Projekt der heißen Fusion der Lächerlichkeit preisgegeben. Aber als sie nähere Einzelheiten über das Experiment von Fleischmann und Pons erfuhren, wurden sie immer skeptischer. Es war ein bißchen so, als ob man erführe, jemand habe aus einer Suppendose einen Atomreaktor gebaut. Die Skeptiker hatten sehr viele Fragen an die beiden. Eine davon lautete, ob sie große Mengen von Neutronen und Protonen messen konnten, die aus ihrem Reaktionsgefäß hätten entweichen müssen. War dem so? Konnten sie eines der typischen Fusionsprodukte nachweisen, etwa Helium oder seine Isotope? Mehr als nur ein paar Chemiker haben, eingedenk der Tatsache, daß die große Physik seit Jahren den Löwenanteil der Schlagzeilen erhielt, in sich hineingelacht, denn sie gönnten den sich so überlegen fühlenden Physikern diese kleine Niederlage durchaus. Ohne Zweifel empfanden sie eine gewisse Schadenfreude bei dem Gedanken, daß die topmodernen Reaktoren für die heiße Fusion durch eine einfache Elektrolytzelle ersetzt werden konnten. Die Erklärung von Fleischmann und Pons und sogar der Forschungsartikel, den sie veröffentlichten, enthielt äußerst wenige Details. Innerhalb von Tagen versuchten Hunderte, wenn nicht sogar Tausende von Forschern, das Experiment nachzumachen. Obwohl es einige Labore gab, die behaupteten, sie könnten die Ergebnisse von Fleischmann und Pons wiederholen, kam die Mehrheit doch zu einem negativen Ergebnis. Tatsächlich schlugen die meisten der sorgfältigen Wiederholungsversuche fehl, was dazu führte, daß dieses Experiment als nicht wiederholbar eingestuft wurde - bei dem Stand der Dinge eine Todsünde. Die ganze Ge136
schichte hat jedoch zwei Seiten, die eine ist der technische Aspekt und die andere der menschliche. Fleischmann und Pons behaupteten, daß ihre Elektrolytzelle mehr Wärme produziere, als sie verbrauche. Sie berichteten auch von Neutronen, die sie nachweisen konnten, doch diese hatten nicht die richtige Energie, und ihre Anzahl war viel zu gering. Jedenfalls war sie viel niedriger als das, was die Physiker erwarten würden, wenn tatsächlich eine Kernfusion stattgefunden hätte. Seither sind viele Erklärungen der ungewöhnlichen Wärmeentwicklung und der niedrigen Neutronenzahl in der vergleichsweise umfangreichen Forschungsliteratur über die kalte Fusion aufgetaucht. Ist der Traum ausgeträumt? Darauf komme ich am Ende des Kapitels zurück. In der Zwischenzeit will ich die andere Hälfte der Geschichte berichten und erzählen, wie es dazu kam, daß Fleischmann und Pons glaubten, ihnen wäre eine kalte Fusion gelungen. Sie waren sich bereits der Tatsache bewußt, daß anderen eine Wiederholung ihres Experimentes nicht gelingen würde. Viel zu häufig mißlang es ihnen selbst, mit ihrer Vorrichtung die überschüssige Hitze zu erzeugen. Ihre Reaktion auf dieses frustrierende, aber unabänderliche Merkmal der kalten Fusion zeigt, was mit normalen Menschen geschieht, wenn sie in außerordentliche Ereignisse verwickelt werden: Fleischmann und Pons verloren die Geduld des Wissenschaftlers und begannen zu spielen.
Der Traum vom Geist aus der Flasche Es war Fleischmann, der als erster davon träumte, die Fusion in ein Becherglas zu zwängen. Als Elektrochemiker war er sich sehr wohl darüber im klaren, daß die sehr kleinen elektrischen Ströme, die durch chemische Lösungen fließen, Reaktionen hervorbringen können, die auf anderem Wege recht ungewöhnliche Reaktionsbedingungen voraussetzten. So würde zum Beispiel die Zerlegung von 137
Natriumchlorid (Kochsalz) in seine Atome, also Natrium und Chlor, nur durch Hitze eine Temperatur von 40.000° Celsius voraussetzen. Wenn man das Kochsalz aber einfach in Wasser löste und einen sehr moderaten Stromfluß bei 4 Volt Spannung durch die Salzlösung fließen ließe, dann würden Natrium- und Chloridionen entstehen, die entweder ein Elektron zuviel hätten (Cl-) oder denen ein Elektron fehlte (Na+). Schon jahrelang war Fleischmann von den beinahe magischen Fähigkeiten des Metalls Palladium fasziniert. Wenn es als Elektrode benutzt wird, kann es Wasserstoffionen wie ein Schwamm aufsaugen. Wäre es möglich, daß genug Ionen in das Palladium eindrangen, damit diese zur Fusion gezwungen waren? Im Jahre 1984 verabschiedete sich Fleischmann aus den Diensten der Universität von Southampton in England. In diesem Jahr besuchte er seinen ehemaligen Studenten und jetzigen Kollegen Pons in Utah. Die beiden hatten schon viele Artikel auf anderen Gebieten der Chemie gemeinsam veröffentlicht, aber dieses Mal hatten sie die Fusion im Sinn. Fleischmann fragte sich, ob es nicht an der Zeit sei, sich mit dieser verrückten Idee zu befassen. Eines Nachts, über einem Glas Whisky in Pons' Küche, sagte Fleischmann: «Es gibt eine Chance von einer Milliarde zu eins, sollen wir es trotzdem versuchen?» Pons antwortete: «Laß es uns ausprobieren.» Die beiden hatten sich schon auf Literatursuche begeben und dabei einige interessante Hinweise darauf gefunden, daß kalte Fusion trotz aller Einwände möglich war. Wußten sie, daß sie nicht die ersten waren, die davon träumten? Schon 1926 berichteten die zwei deutschen Forscher Friedrich Paneth und Kurt Peters in der Fachzeitschrift Die Naturwissenschaften von einer spontanen Transformation von Wasserstoff in Helium. Die Veröffentlichung hatte schon damals einiges Aufsehen erregt. Zwar nicht deshalb, weil der Befund auf unbegrenzte Energie aus Kernfusion hinwies, sondern weil man glaubte, eine neue Quelle für das damals sehr schwer zu erhaltende Helium gefunden zu 138
haben. Helium wurde vor allem als sicheres Füllgas für Luftschiffe gesucht. Der Paneth-Peters-Prozeß bediente sich der Adsorption von Wasserstoff an fein gemahlenes Palladium. Die beiden Wissenschaftler hatten eine kleine, aber doch sicher nachweisbare Menge an Helium gemessen, das scheinbar durch diesen Prozeß erzeugt wurde. Später mußten sie ihre Behauptung wieder zurücknehmen, weil jemand, der ihr Experiment sehr sorgfältig wiederholt hatte, nachweisen konnte, daß das Helium aus den für den Versuch verwendeten Bechergläsern stammte. Der schwedische Forscher John Tandberg verwendete den Paneth-Peters-Prozeß 1927 für Elektrolyseexperimente. Normales Wasser diente als Quelle für die Wasserstoffionen. Der elektrische Strom in der Elektrolysekammer zwang den Wasserstoff in die Palladiumelektrode, wo, wie Tandberg annahm, durch Katalyse am Metall «Helium und nützliche Reaktionsenergie» entstehen würde. In einer Patentanmeldung behauptete er, er habe «eine signifikante Zunahme an Effizienz» feststellen können. Er meinte damit, daß die Reaktion scheinbar weniger Energie verbrauchte, als erwartet werden konnte, was darauf hinwies, daß tatsächlich Energie freigesetzt wurde. Die Patentanmeldung wurde mit der Begründung zurückgewiesen, seine Beschreibung des Prozesses sei zu skizzenhaft und unvollständig. Möglicherweise aufgrund der ersten erfolgreichen Wasserstoffbomben-Tests gab es in den 50er Jahren eine erneute Welle des Interesses an der kalten Fusion. Parallel zur beginnenden Forschung an der heißen Fusion suchten einige Forscher noch immer nach einem einfachen Weg zu endloser Energie. Der argentinische Diktator Juan Peron gab 1951 bekannt, daß es einem geheimen nationalen Forschungslabor unter der Leitung des Naziwissenschaftlers Roland Richter gelungen war, einen Fusionsreaktor zu bauen. Als entdeckt wurde, daß der Reaktor nicht funktionierte, wurde Richter verhaftet, und die dreihundert Wissenschaftler, die an dem Projekt arbeiteten, wurden nach Hause 139
geschickt. Der «Reaktor» bestand aus einer riesigen Reaktionskammer, in der eine Funkenstrecke in einem Wasserstoff/Lithium-Gasgemisch die Fusion in Gang setzen sollte. Es stellte sich heraus, daß es neben der Anlagerung von Wasserstoff oder Deuterium an Metalle noch einen anderen Weg zur Niedrigenergiefusion gab. Der britische Physiker Charles Frank entdeckte 1947 ein neues Elementarteilchen, das er Mu-Meson oder kurz Muon nannte. Das neue Partikel hatte die gleiche Ladung wie ein Elektron, aber die 207fache Masse. Das bedeutete unter anderem, daß ein muonisches Wasserstoffatom, in dem ein schweres Muon das leichte Muon in seiner Umlaufbahn um das einzelne Proton ersetzte, nur ein 207tel des Durchmessers eines normalen Wasserstoffatoms haben würde. Derartige Atome konnten viel näher zusammengebracht werden, bevor sie sich gegenseitig abstießen. Die Physiker dachten, daß solche Atome möglicherweise einfacher verschmelzen würden. Louis W. Alvarez von der Universität von Kalifornien in Berkeley beobachtete 1956, daß Muone die Fusion von Deuteriumatomen katalysierten. Dieser Befund war richtig und zuverlässig, aber er führte nicht zum Bau eines Fusionsreaktors, da die Kosten zur Herstellung von Muonen einfach zu groß waren und es immer noch sind. Mit den Arbeiten von Frank und Alvarez begann eine durchaus berechtigte Forschungsrichtung, die bis heute verfolgt wird. Zu den Forschern auf diesem Gebiet zählte Steven Jones, ein Physiker, der gewissermaßen in einem etwas menschlicheren Prozeß zum Katalysator werden sollte. Er arbeitete an der Brigham-Young-Universität, die nur 80 km von der Universität Utah entfernt ist. Jones hatte sich schon mit muonkatalysierter kalter Fusion beschäftigt, hatte aber kürzlich seine Forschungsrichtung auf Drängen seines Kollegen Paul Palmer geändert. Es war 1986, als Jones und Palmer ihre Experimente mit einer Elektrolytzelle begannen. Zunächst verwendeten sie Wasser, dann 10% schweres Wasser und verschiedene andere Mischungen. Jones dachte, er habe zusätzliche Neutronenstrahlung aus 140
dem Reaktionsgefäß messen können, aber sein Neutronendetektor war zu ungenau, um zuverlässige Resultate zu liefern. Er verbrachte die nächsten eineinhalb Jahre damit, einen hochempfindlichen Neutronendetektor zu entwikkeln, und 1988 fühlte er sich in der Lage, seine früheren Experimente zu bestätigen. Er konnte einen geringen Neutronenüberschuß (über dem Hintergrundniveau) messen, der aus seiner Elektrolytzelle kam. Doch zurück zu unseren Hauptdarstellern. Als Fleischmann und Pons 1984 ihre ersten Experimente zur kalten Fusion durchführten, kamen sie überein, ihre Bemühungen geheimzuhalten. Dies war teilweise sicher dadurch begründet, daß sie sich die Peinlichkeit ersparen wollten, von einem Kollegen bei einem solch merkwürdigen Projekt beobachtet zu werden. Hinzu kam die Tatsache, daß sie, insbesondere wenn sie Geld beantragt hätten, sich an langwierige, offizielle Vorgaben und Abläufe der Universität hätten halten müssen, die dazu da waren, Wissenschaftler und andere Mitarbeiter vor verschiedenen Gefährdungen, darunter auch der Gefährdung durch radioaktive Strahlung, zu schützen. Durch ihre Entscheidung, auf diese Weise zu arbeiten, beschritten die beiden einen Weg, den sie bis zu der fatalen Veröffentlichung - und sogar noch danach - fortsetzten. Ihre obsessive Geheimniskrämerei, insbesondere als sie meinten, sie könnten regelmäßig Fusion beobachten, sollte ihre Arbeit an einem sehr kritischen Punkt untergraben. Nach einigen ersten Experimenten im Haus von Pons zogen die beiden in ein Labor im Keller des Chemischen Institutes der Universität Utah. Die erste Serie von Experimenten sollte die verschiedenen Möglichkeiten ausleuchten. Sie begannen mit einfachen Elektrolytzellen und verwendeten Lithiumdeuteroxid als Elektrolyt. Das ist eine Verbindung aus Lithium (das nächstschwerere Element nach Helium), Deuterium und Sauerstoff. Als Kathode verwendeten sie natürlich ein kleines Klötzchen aus Palladium. Sie glaubten, gute theoretische Gründe zu haben, da141
von ausgehen zu können, daß die Fusion im Palladium stattfinden würde. Indem sie eine Formel verwendeten, die als Nernstsche Gleichung bekannt ist, berechneten sie, daß, wenn es vollständig mit Deuterium beladen ist, das Palladium einen Druck von ungefähr 1.027 Atmosphären auf die Partikel ausüben würde. Ein derartiger Druck liegt weit über dem, was heutzutage in den Reaktoren für die heiße Fusion erreicht werden kann. Natürlich förderte diese Berechnung die Aufgeregtheit der beiden und steigerte ihre Erwartungen. Wie sich später herausstellte, hatten sie die Formel falsch angewendet. Der tatsächliche Druck, der sich aus der richtigen Anwendung ergibt, liegt weit unterhalb dessen, was für eine Fusion notwendig ist. Fleischmann und Pons wußten, daß möglicherweise Neutronen aus dem Palladium austreten würden, wenn es in ihrer Kammer zur Fusion käme. Deshalb bauten sie einen einfachen Neutronendetektor ein, von dem Typ, der auch zur Sicherheitsüberwachung in Atomreaktoren verwendet wird. Doch als Elektrochemiker waren die beiden natürlich mehr an der Wärmeentwicklung als an der Strahlung interessiert. Sie tauchten ihre Reaktionskammer in ein Kalorimeter ein, das im wesentlichen aus einem Wasserbad besteht, das auf konstanter Temperatur gehalten wird. Der Temperaturunterschied zwischen dem Wasserbad und der Reaktionskammer würde ihnen angeben, wie groß die Wärmeentwicklung in der Kammer war. Mit Hilfe einer Standardformel konnten sie dann die abgegebene Wärme in Watt umrechnen, einem Maß also, das ihnen die Energie anzeigte, welche die Kammer abgab. Dadurch, daß sie ja wußten, welche Spannung sie anlegten und welcher Strom durch die Kammer floß, konnten sie durch einfache Multiplikation die Energie in Watt berechnen, die sie dem System zuführten. Sie mußten nur die beiden Zahlen werte vergleichen, um herauszufinden, ob ihre Reaktionszelle mehr Energie verbrauchte, als sie produzierte. Da das Experiment nicht in einem offiziellen Rahmen stattfand, bezahlten sie die meisten Materialien und Geräte aus eigener Tasche. 142
Als sie ihre Experimente durchrührten, entdeckten sie mit großer Freude, daß ihre Apparatur manchmal überschüssige Wärme produzierte, und zwar mehr, als sie aufgrund des Stromflusses aus ihrer Spannungsquelle durch das Reaktionsgefäß berechnen konnten. Die abgegebene Wärme war auch größer als die Reaktionswärme, die bei irgendeiner bekannten chemischen Reaktion hätte entstehen können. Das Phänomen war nicht genau zu fassen und war nur dann zu beobachten, wenn die Palladiumkathode über mehrere Tage oder gar länger aufgeladen worden war. Sie fingen an, die Kathoden, die scheinbar überschüssige Wärme produzierten, als «lebendig», und die anderen als «tot» zu bezeichnen. Als erfahrenen Wissenschaftlern war Fleischmann und Pons klar, daß auch ein subtiler Effekt bei der Elektrolyse oder ein Fehler in ihren Messungen für das beobachtete Phänomen verantwortlich sein konnte. In der frühen Phase ihrer Experimente schritten sie nur langsam voran, so als ob sie nicht in den Bann einer falschen Hoffnung gezogen werden wollten. Aber eines Nachts passierte irgend etwas Seltsames in ihrem Kellerlabor: Während die Experimente unbeobachtet abliefen, explodierte eine ihrer Reaktionskammern und richtete sowohl am Boden als auch an benachbarten Geräten erheblichen Schaden an. Fleischmann war zu diesem Zeitpunkt in England, aber das Ausmaß der Erregung, das dieses Ereignis bei den beiden auslöste, läßt sich kaum vorstellen. Pons rief Fleischmann sofort an. Fleischmanns erste Reaktion war recht markig: «Am besten, wir sprechen über das Ereignis nicht am Telefon.» Hatte der Geist aus der Flasche ihnen einen Besuch abgestattet? Dieser Zwischenfall wurde nach der fatalen Pressekonferenz sehr berühmt. Die Unterstützer der kalten Fusion beriefen sich darauf und behaupteten, es habe sich um eine nukleare Explosion gehandelt, die Skeptiker äußerten, daß wahrscheinlich ein natürlicher Hohlraum im Palladium die Ursache gewesen sei. Eine hohe Deuteriumkonzentration in einem Hohlraum könnte, sogar bei den durch die 143
Nernstsche Gleichung gegebenen geringen Drücken, zu einer Explosion des Metallblockes führen, sobald die Dehnungsbelastbarkeit des Metalls überschritten wird. Fleischmann und Pons entschieden sich dafür, das Experiment in kleinerem Maßstab weiterzuführen. Sie ersetzten den Palladiumblock durch eine zylindrische Palladiumfolie. Eine neue Welle der Begeisterung hatte die beiden ergriffen, die nun mit großer Ernsthaftigkeit ihre Experimente fortführten.
Die neue Reaktionskammer für die kalte Fusion.
Zu diesem Zeitpunkt entwickelten sie ihr Standardexperiment. Die Zelle wurde über mehrere Tage betrieben, um die Palladiumelektrode mit Deuterium «aufzuladen». Dann wurden sorgfältige Temperaturmessungen vorgenommen, um festzustellen, ob die Kammer Wärme produzierte. In mehreren Fällen schien es so, als ob die Reaktionskammer 10-25% überschüssige Wärme produzierte. Durch eine Methode, die er «scaling up» (Erweiterung, Vergrößerung) nannte, berechnete Fleischmann, daß aufgrund ihrer Resultate eine viel größere Reaktionskammer 144
mit einer größeren Palladiumelektrode 4 Watt an Wärme für jedes Watt an elektrischer Leistung, das in die Zelle floß, produzieren würde. Die beiden zitierten diese Zahlen auch auf der Pressekonferenz vom 23. März, als ob sie dies wirklich gemessen hätten. Der einfache Neutronendetektor zeigte manchmal eine Neutronenstrahlung an, deren Stärke über der Hintergrundstrahlung zu liegen schien, die mit demselben Gerät gemessen wurde. Bei einer Gelegenheit lag die gemessene Strahlung um 50% über dem Hintergrund. Die beiden Forscher müssen wenigstens vage geahnt haben, daß sie bei dem gemessenen Wert an Wärmeproduktion eine sehr viel stärkere Neutronenstrahlung hätten feststellen müssen, wenn es im Reaktionsgefäß tatsächlich zur Fusion gekommen wäre. Fleischmann und Pons hatten eine Wärmeentwicklung gemessen, die weit über dem lag, was durch irgendeine bekannte chemische Reaktion hätte erzeugt werden können. Sie ergingen sich in vagen theoretischen Erklärungen und postulierten einen «unbekannten nuklearen Prozeß», bei dem nur relativ wenige oder gar keine Neutronen im Verlauf einer Fusion entstehen würden. Weil ihre Experimente sich manchmal über Wochen hinzogen, insbesondere durch das lange «Aufladen» der Palladiumelektrode, verfolgten die beiden nebenher ihre anderen wissenschaftlichen und beruflichen Interessen weiter. Das Leben ging weiter wie bisher, aber jeder von ihnen trug ein ungeheuerliches Geheimnis mit sich herum. Fleischmann und Pons beschlossen 1988 den nächsten Schritt zu wagen. Es war an der Zeit, eine Reihe von etwas durchdachteren Experimenten durchzuführen, bei denen sie gleichzeitig mehrere Parameter wie die Zusammensetzung der Elektrolytlösung, die Form der Elektrode, die Stromstärke und so weiter verändern konnten. Sie hofften, auf diesem Wege nicht nur das Problem der Unzuverlässigkeit ihres Experimentes - einmal funktionierte es, einmal funktionierte es nicht, dann funktionierte es wieder - zu 145
lösen, sondern sie wollten auch die Rahmenbedingungen für die Konstruktion eines Reaktors für die kalte Fusion ermitteln. Um so viele verschiedene Parameter zur gleichen Zeit zu variieren, hätten die beiden sehr viel mehr Reaktionskammern und eine bessere Ausrüstung benötigt, von einem neuen Neutronendetektor ganz zu schweigen. Sie entschieden sich dafür, beim Grundlagenforschungsprogramm für Energie des amerikanischen Energieministeriums (Department of Energie, DOE) Gelder zu beantragen. Wenn die Dinge ganz normal weitergelaufen wären, dann hätten Fleischmann und Pons die Gelder vom DOE erhalten und hätten damit eine neue Serie von Experimenten durchgeführt. Vielleicht hätten sie in deren Verlauf auch festgestellt, daß keine Kombination der Parameter zu einem zuverlässig reproduzierbaren Ergebnis führte. Vielleicht hätten sie sich auch einem Kernphysiker anvertraut. Aber natürlich ist es sehr schwer, jemanden ins Vertrauen zu ziehen, wenn man denkt, daß man die größte wissenschaftliche Entdeckung aller Zeiten in Händen hält. Es hat die beiden sicher eine Menge Zeit gekostet, ihren Antrag so zu formulieren, daß sie einerseits mit Geld rechnen konnten, aber andererseits nichts von ihrem tatsächlichen Vorhaben verrieten. Man braucht sich nur einen ganz normalen Egoismus vor Augen zu führen, um zu erklären, was dann geschah. Wenn man davon ausgeht, auf der wichtigsten wissenschaftlichen Entdeckung aller Zeiten zu sitzen, lebt man in der Angst, daß ein anderer Forscher einem zuvorkommen könnte. Der Vorhang öffnet sich nun für Steven Earl Jones von der nahen Brigham-Young-Universität, den Wissenschaftler, der ganz in der Nähe wohnte und der gerade ein neues Neutronenspektrometer gebaut hatte, um die Möglichkeiten von Niedrigenergiefusion zu untersuchen. Es mag sich wie Zufall ausnehmen, daß das DOE den Antrag von Fleischmann und Pons ausgerechnet an Jones schickte, um die wissenschaftliche Qualität überprüfen zu lassen. Doch in Wahrheit war diese Wahl nicht überra146
schend. Jones war für seine Arbeiten über die Niedrigenergiefusion sehr bekannt; er hatte über lange Jahre gute wissenschaftliche Arbeiten veröffentlicht, und er hatte schon andere Anträge für das DOE beurteilt. Als Jones den Antrag las, überschlug sich sein Gehirn beinahe. Zwei Chemiker in kaum 80 km Entfernung schlugen Experimente vor, die seinen eigenen beängstigend nahe kamen. Jones unternahm den außerordentlichen Schritt, den für Stipendienanträge zuständigen Direktor des DOE zu fragen, ob es Einwände dagegen gäbe, wenn er zu den Antragstellern direkten Kontakt aufnähme. Jones' Wunsch, mit den beiden Forschern Verbindung aufzunehmen, schien aus einer sehr großzügigen Haltung heraus zu erfolgen. Vielleicht waren die beiden ja daran interessiert, sein neues Neutronenspektrometer zu verwenden. Schließlich ging Jones jedenfalls nicht davon aus, die größte Entdeckung des Jahrtausends gemacht zu haben. Als Jones im Herbst 1988 mit Fleischmann und Pons in Kontakt trat, nahmen die Ereignisse einen immer schnelleren Lauf. Jones, der geplant hatte, auf einem Treffen der Amerikanischen Physikalischen Gesellschaft im Mai 1989 einen Vortrag zu halten, reichte zu Beginn des Jahres eine Kurzfassung seines Vortrages ein. Gezwungenermaßen besuchten Fleischmann und Pons Jones in seinem Labor in Brigham Young. Nachdem sie ihre Resultate diskutiert hatten, verständigten sie sich darauf, am 24. März gleichzeitig getrennte Manuskripte an das sehr angesehene Wissenschaftsjournal Nature zu schicken. Die Auswirkungen des Treffens aller drei können nur erahnt werden. Es ist einsichtig, daß der Vergleich der beiden experimentellen Ansätze jedem der beteiligten Wissenschaftler das Gefühl gab, auf dem richtigen Weg zu sein. Gleichzeitig bot die Übereinkunft aber auch fruchtbaren Grund für Verdächtigungen. Was, wenn die jeweils andere Partei nicht Wort hielt und zuerst veröffentlichte? War es nicht eine Verletzung des Geistes der Übereinkunft (wenn 147
nicht sogar dessen Wortlautes), als Fleischmann und Pons noch vor dem 24. März einen Artikel über kalte Fusion an das Journal of Electroanalytical Chemistry schickten, ohne Jones davon zu unterrichten? Der Vorhang geht auf, und die Universitätverwaltung betritt die Bühne. Als Jones sich zuerst an den Präsidenten der Universität Utah, Peterson, wandte und ihm mitteilte, daß er und Fleischmann offensichtlich einen Prozeß entdeckt hatten, der Kernfusion bei Raumtemperatur zuließ, verbreitete sich große Aufregung in der Führungsetage der Universität. Wenn die kalte Fusion funktionierte und die Behauptungen von Fleischmann und Pons zutrafen, dann würde die Universität plötzlich sehr reich und berühmt werden. Aber indem sie dem gleichen Traum von Reichtum und Ruhm verfielen wie die beiden anderen, wurden sie auch Opfer der gleichen Angst, nämlich daß jemand anderes die Ergebnisse zuerst veröffentlichen könnte. So breitete sich eine Stimmung der Verschwiegenheit in den Gängen und Büros der Universität aus. Am meisten Kopfzerbrechen machte der Verwaltung und der Rechtsabteilung der Universität Utah Steven Jones von der nahe gelegenen Brigham-Young-Universität. Fast gleichzeitig mit dem Treffen ihrer beiden Chemiker und des Physikers in Brigham Young gab es Kontakte zwischen den beiden Universitäten. Wie das im einzelnen auch gewesen sein mag, die Verwaltungschefs der Universität Utah waren über die finanziellen Aussichten weit erregter als ihre Kollegen in Brigham Young. Jones behauptete nicht, daß er die Freisetzung von großen Wärmemengen gemessen hatte, seine Resultate deuteten lediglich auf einen geringen Anstieg der Neutronenstrahlung hin, der kaum über der Hintergrundstrahlung lag. Andererseits war es völlig klar, daß bei der Frage, wem Anerkennung und Ehre an der Entdekkung gebührten, die Brigham-Young-Leute nicht bereit waren, die zweite Geige zu spielen. Sogar als die Rechtsanwälte der Universität Utah damit begannen, Unterlagen für eine Patentanmeldung zusammenzustellen, trafen sich die bei148
den Universitätsverwaltungen und einigten sich darauf, die nächsten Schritte gemeinsam zu planen. Am 6. März trafen sich die beiden Präsidenten der Universitäten mit Jones, Fleischmann und Pons in der Brigham-Universität, um das gemeinsame Vorgehen im Hinblick auf eine Publikation zu besprechen. Alle stimmten darin überein, daß jede der beiden Forschergruppen am 24. März jeweils einen Artikel an Nature schicken würde. Die beiden Forschungsarbeiten sollten im gleichen Umschlag verschickt werden. Kurz danach spukte es in der Universität von Utah. War es die Befürchtung, daß die Presse bereits Wind von den Arbeiten zur kalten Fusion bekommen hatte? Würden die Arbeiten von Jones die Patentanmeldung gefährden? Die Universität entschied abrupt, am 23. März eine Pressekonferenz abzuhalten, einen Tag vor dem vereinbarten Datum, an dem die Arbeiten eingereicht werden sollten. Die Krise war ihnen wohl langsam zu Kopf gestiegen. Bei ihrer Entscheidung, eine Pressekonferenz abzuhalten, hatten sie noch nicht einmal ihr eigenes Physikalisches Institut informiert. Jones, der erst einen Tag vorher von der Pressekonferenz erfuhr, war tief enttäuscht. So wie er die Dinge einschätzte, verbot die Übereinkunft vom 6. März ein solches Vorgehen. Pons und Fleischmann sahen die Sache ganz anders, so auch die Verwaltung der Universität von Utah. Es kam sogar so weit, daß kurz nach der Pressekonferenz ein Reporter die Direktoren der Universität Utah fragte, ob sie von irgendeiner ähnlichen Arbeit irgendwo anders wüßten, und eine verneinende Antwort erhielt. Bis zur Pressekonferenz hatte Fleischmann sowohl gute als auch schlechte Nachrichten erhalten. Einerseits hatte das DOE ihrem Antrag entsprochen und ihnen 322.000 $ zur Verfügung gestellt, und das Journal of Electroanalytical Chemistry hatte ihren Artikel zur Veröffentlichung angenommen. Der Artikel bestätigte ihre Entdeckung und würde dafür sorgen, daß die Wissenschaft ihnen die volle Autorschaft und Anerkennung an der Entdeckung zuschreiben würde. Bei einem normalen Ablauf der Ereignisse entschei149
det erst die Diskussion der Fachkollegen nach der Veröffentlichung über den wissenschaftlichen Gehalt. Die schlechten Nachrichten betrafen die Neutronendaten. Fleischmann und Pons brauchten eine Bestätigung für diese, wollten aber nicht Jones dazu heranziehen, da das bedeuten würde, ihm einen Anteil an der Entdeckung einzuräumen. Fleischmann nahm Kontakt zu Freunden in Harwell, einer der bekanntesten britischen Atomforschungseinrichtungen, auf. Er wollte sehen, ob diese seinen experimentellen Aufbau und die Neutronenmessungen wiederholen konnten. Obwohl Harwell nicht augenblicklich zur Verfügung stand, begann das berühmte englische Labor insgeheim intensive Experimente, die bis zum Juni des Jahres fortgeführt wurden. In der Zwischenzeit stellten Fleischmann und Pons einen Radiologen an, der Messungen von Röntgenstrahlen in der Nähe der Reaktionszellen durchführen sollte. Fleischmann und Pons hatten das Gefühl, noch ungefähr 18 Monate ungestörter Forschung zu benötigen, aber die Ereignisse glitten ihnen zunehmend aus den Händen. Die Einsätze in ihrem Spiel hatten sich plötzlich verdoppelt. Es war eine Sache, einige Jahre an Forschung etwas aufs Spiel zu setzen, was Fleischmann als eine «Milliarde-zu-eins»Chance bezeichnete. Schließlich hatte dieses Projekt nur einen Teil ihrer Forschungsaktivitäten ausgemacht. Solange niemand davon erfuhr, war der Schaden für ihren Ruf gering, wenn aus dem Ganzen nichts wurde. Aber jetzt hatten sie plötzlich sehr viel zu verlieren. So entschlossen sie sich offensichtlich, das Beste aus einer schlechten Situation zu machen und den totalen Bankrott zu riskieren. Wenn es ihnen wirklich gelungen sein sollte, den Geist aus der Flasche einzufangen, so blieb ihnen nur noch, ihre Ergebnisse bekanntzumachen, und andere Wissenschaftler, zumal die Physiker, würden ihre Resultate lediglich bestätigen können. Und ihnen wäre der ganze Ruhm für immer und ewig zugefallen. 150
Der Alptraum Es begann mit Lichtern, Kameras und mehr Trubel, als Pons oder Fleischmann sich je hätten träumen lassen. Auf der Pressekonferenz vom 23. März 1989 an der Universität von Utah fanden sich die Repräsentanten aller wichtigen Fernsehanstalten und Nachrichtenagenturen ein, mit Reportern aller wichtigen Zeitungen und Magazine. Dieser Versammlung teilten Fleischmann und Pons mit, daß es ihnen gelungen sei, langanhaltende Kernfusion in einem Becherglas zu erzielen. Sie hoben ganz besonders hervor, daß ihr Experiment sehr einfach zu wiederholen sei und daß es keine besonderen Schwierigkeiten geben würde, aufgrund ihrer Apparatur einen Reaktor zu bauen. Die Schlagzeilen auf der ganzen Welt trompeteten die Ankunft eines neuen Zeitalters mit nicht versiegender, billiger Energie heraus. Mitten in diesem Blitzlichtgewitter und diesen unablässigen Fragen müssen Fleischmann und Pons sich wie das «thermodynamische Duo» gefühlt haben, wie einige Reporter sie nannten. Über Nacht waren sie zu großen Berühmtheiten geworden. Die berauschende Zeit dauerte den ganzen Abend bis zum nächsten Tag und hielt wochenlang an. In der Zwischenzeit versuchten Wissenschaftler aus der ganzen Welt, mehr über das Experiment herauszufinden. Die Nachfragen ergossen sich per Post, E-mail und Telefon in die Universität von Utah. Welches sind die genauen Abmessungen der Reaktionszelle? Welche Spannung und welcher Stromfluß waren adäquat? Welche Art von Palladium hatten die beiden verwendet? Die Glücklichen unter den Fragenden erhielten einen Vorabdruck des Artikels, der im Journal of Electroanalytical Chemistry erscheinen sollte. Die Kopien des scheinbar wertvollen Abdrucks, der unvollständig und voller Fehler war, vermehrten sich wie die Lemminge. Die Pressekonferenz hatte den normalen wissenschaftlichen Ablauf geblendet. Die Versuche, das Experiment zu 151
wiederholen, beruhten oft auf unvollständigen, ungenauen oder irreführenden Beschreibungen des Experiments. Doch den Wissenschaftlern blieb nichts anderes übrig, als sich an die wenigen Angaben zu halten und die Lücken nach bestem Wissen so zu füllen, wie sie annahmen, daß es Fleischmann und Pons wohl gemacht hatten. Dies führte zu einem weiteren Mißbrauch der wissenschaftlichen Methode: Wenn es einem Wissenschaftler nicht gelang, die scheinbar richtigen experimentellen Ergebnisse zu erzielen, so konnten Fleischmann und Pons und ihre rasch zunehmende Anhängerschaft einfach behaupten, der betreffende Wissenschaftler habe nicht die richtige Ausrüstung benutzt oder eine falsche Versuchsdurchführung gewählt. Als wichtige große Laboratorien bekanntgaben, daß sie die Ergebnisse nicht wiederholen konnten, war das für Fleischmann und Pons sicher ärgerlich, aber schließlich hatte das thermodynamische Duo sich die Schuld selbst zuzuschreiben. Sie hatten der wissenschaftlichen Welt erzählt, daß die kalte Fusion möglich sei. Der Wiederholungsversuch einer Forschergruppe am Massachusetts Institute of Technology illustriert die Schwierigkeiten. Unter der Leitung des Physikers Stanley Lockhardt versuchte ein Team am M.I.T. -Plasmafusionszentrum, das Experiment zu wiederholen. Sie wollten sich nicht dem Vorwurf aussetzen, die falschen Materialien oder Methoden zu verwenden, weshalb der Vorabdruck für ihre Zwecke ungeeignet war. Die Gruppe sah sich gezwungen, ziemlich unwissenschaftliche Vorgehensweisen anzuwenden. So versuchten sie, aus Fernsehübertragungen des Campusfernsehens der Universität Utah herauszubekommen, wie viele Zellen Fleischmann und Pons verwendet hatten, wie deren Stromzufuhr geregelt war usw. Sie mußten sich ein Diagramm einer typischen Reaktionszelle aus der Financial Times in London besorgen! Nachdem die Gruppe am M.I.T. es endlich geschafft hatte, die Apparate in Gang zu bekommen, arbeitete sie eine Woche lang damit, aber keiner der von Fleischmann und 152
Pons berichteten Effekte ließ sich beobachten. Sie berichteten der Presse: «Keine Fusion.» Der Alptraum für Fleischmann und Pons begann. Aber für eine kleine Weile blieb die verträumte Atmosphäre noch erhalten. Am 10. April verkündete die Schlagzeile des Wall Street Journal: «Das Experiment zur kalten Fusion wurde erfolgreich reproduziert.» Auf einer Pressekonferenz in Dallas hatte ein Team von Wissenschaftlern der Texas-A&MUniversität berichtet, daß eine ihrer Reaktionszellen 90% überschüssige Wärme produzierte. Fleischmann und Pons waren darüber sehr erfreut und höchst aufgeregt. Um die Euphorie noch zu steigern, berichtete ein anderes Team von der Georgia-Tech-Universität, daß sie Neutronenstrahlung aus den Reaktionszellen messen konnten. In den nächsten vier Tagen trafen noch andere Bestätigungen und Teilbestätigungen von einigen nordamerikanischen, aber auch von russischen und indischen Laboratorien ein. Dann, am 15. April, gaben zwei Promotionsstudenten der Universität von Washington in Seattle, Van Eden und Wei Liu, bekannt, daß sie große Mengen von Tritiumgas, einem möglichen Nebenprodukt der Reaktion, festgestellt hatten, das von der Reaktionskammer abgegeben wurde. Auch sie veranstalteten eine Pressekonferenz. Wie ein Kolumnist es formulierte: Wissenschaft fand wohl neuerdings in Pressekonferenzen statt. Die Strategie von Fleischmann und Pons, den totalen wissenschaftlichen Bankrott zu riskieren, schien sich auszuzahlen, und Fleischmanns Zweifel lösten sich auf. Die kalte Fusion war unbezweifelbar real. Aber der Alptraum tauchte fast augenblicklich wieder auf. Am 15. April zog die Gruppe der Georgia-Tech-Universität ihre Behauptung, Neutronenstrahlung gemessen zu haben, zurück. Es stellte sich heraus, daß ihr Zähler hitzeempfindlich war. Dann, neun Tage später, noch während weitere Bestätigungen bekanntgegeben wurden, zog auch die Texas-A&M-Gruppe ihre Veröffentlichung zurück. Sie hatte vergessen, ihr Thermometer richtig zu erden, so daß 153
der durch die Reaktionskammer fließende Strom es erwärmt hatte, was zu einer falschen Ablesung führte. Zu diesem Zeitpunkt überstieg die Anzahl der Labore, die negative Resultate bekanntgaben, bereits jene mit positiven. Fleischmann und Pons waren immer zurückhaltender gegenüber der Presse. Es schien, als ob sie nur Journalisten, die an die kalte Fusion glaubten, Interviews gaben. Am 18. Mai veröffentlichte Nature einen verheerenden Artikel von Richard D. Petrasso vom M.I.T. Der Physiker zerhackte die Behauptungen von Fleischmann und Pons, Neutronen über die Messung von Gammastrahlung bei 2,224 MeV nachgewiesen zu haben. Noch schlimmer, die beiden Promotionsstudenten der Universität Washington, Eden und Lui, gaben bekannt, daß sie einen Fehler gemacht hatten: Sie hatten kein Tritium gefunden, sondern ein anderes dreiatomiges Molekül, das in dieser Umgebung sehr häufig vorkommt. Obwohl immer noch einige Labore und einzelne Wissenschaftler von Neutroneneffekten oder Wärmeproduktion berichteten, begannen die großen Labore das Totenglöcklein für die kalte Fusion zu läuten. Am 15. Juni teilte das britische Labor in Harwell, das seine millionenteuren Experimente zur kalten Fusion (unter Fleischmanns Aufsicht) endlich abgeschlossen hatte, mit, keine Fusion gefunden zu haben. Den ganzen Sommer hindurch gaben andere wichtige nationale Großforschungseinrichtungen, darunter das California Institiute of Technology und das Oak Ridge National Laboratory, bekannt, keine Fusion gefunden zu haben. Ein spezielles Gremium unter dem Vorsitz von Präsident Bush und unter der Ägide des Energieministeriums verbrachte den Sommer damit, verschiedene Labore zu besuchen, um die Hinweise auf die kalte Fusion aus erster Hand zu erhalten und auf ihre Stichhaltigkeit hin zu untersuchen. Im Herbst verlautbarte auch dieses Gremium, daß es keine Hinweise auf die kalte Fusion gab, wie von Fleischmann und Pons behauptet wurde. 154
Für die beiden Elektrochemiker muß es ein merkwürdiges Gefühl gewesen sein, als sie sich am 7. August, dem Tag, an dem die Universität Utah das erste der jährlich geplanten Meetings des Nationalen Institutes zur Kalten Fusion einberufen hatte, inmitten von zweihundert «Gläubigen» wiederfanden, denn als solche wurden die Anhänger der kalten Fusion mittlerweile bezeichnet. Jedoch von diesem Zeitpunkt an begann die Anzahl der «Gläubigen» rasch und stetig dahinzuschwinden. Der Traum verwelkte, und irgendwo (jedoch nicht in der Reaktionskammer) saß der Geist aus der Flasche und lachte sein hohles Gelächter. Am 23. Oktober war Pons nirgendwo zu finden, und sein Haus stand zum Verkauf. Am 1. Januar 1991 gab die Universität Utah bekannt, daß Pons entlassen worden war. Peterson war bereits im Sommer als Präsident der Universität von Utah zurückgetreten. Im nächsten Sommer, am 30. Juni, wurde das Nationale Institut zur Kalten Fusion für immer geschlossen. Fleischmann und Pons hatten außerordentlich hoch gepokert und verloren. Sie verloren nicht, weil sie einem Nobelpreis hinterherjagten oder großem Reichtum. Solche Faktoren können nur erklären, warum sie so hoch gepokert haben. Sie verloren das Spiel, weil sie unrecht hatten. Sie hatten unrecht mit der Neutronenstrahlung, und sie hatten offensichtlich unrecht mit ihrer Behauptung, ihre Reaktionskammern würden überschüssige Hitze abgeben.
Ja, wir haben keine Neutronen Vielleicht war der schlagendste Beweis gegen die kalte Fusion die Gegenwart von Fleischmann und Pons auf der Pressekonferenz. Sie behaupteten, daß im Verlaufe des Fusionsprozesses nicht nur Wärme, sondern auch Neutronenstrahlung abgeben würde. Sie schrieben diese Neutronenstrahlung einem nuklearen Prozeß im Palladium während der Absorption von Deuteriumionen zu. Kernphysiker, die 155
die Pressekonferenz verfolgten und die Zahlen über die Wärmeproduktion «Watt an Hitze» hörten, wußten, daß die Anzahl von Neutronen, die bei einer derartigen Wärmeentwicklung freigesetzt worden wäre, bei den beiden schon lange vor der Pressekonferenz zu sehr ernsten Gesundheitsschäden hätte führen müssen. Statt der gemessenen wenigen hundert Neutronen pro Sekunde wären die beiden einer tödlichen Strahlung von einigen tausend Milliarden Neutronen pro Sekunde ausgesetzt gewesen. Von den Physikern wurden noch weitere Einwände gemacht. Eine besonders schwerwiegende Kritik richtete sich gegen die Messungen der Neutronenstrahlung mit ihrem groben Zähler, dessen Bezeichnung BF3 lautet. Experimente, die mit diesem Zähler an der Georgia-Tech-Universität durchgeführt wurden, belegen, daß dieser Zähler sehr wärmeempfindlich ist. Wird er in die Nähe einer Wärmequelle gebracht, wobei schon eine moderate Wärmequelle ausreicht, beginnt er, eine größere Anzahl von «Neutronen» zu zählen. Das Team von der Georgia-Tech-Universität, das zuvor von einer Wiederholung des Experimentes berichtet hatte, entdeckte diesen schwerwiegenden Fehler des BF3-Zählers im Laufe seines Experimentes. Während der ganzen Neutronendebatte, als ihre «Beweise» für das Vorhandensein von Neutronenstrahlung vor ihren eigenen Augen dahinschmolzen, blieben Fleischmann und Pons bei ihrer Theorie, daß ein «aneutronischer» Prozeß für die Wärmeproduktion verantwortlich sei. Auf lange Sicht spielte die Frage nach der Neutronenstrahlung jedoch keine Rolle.
Es wird heißer und heißer Auf der Pressekonferenz hatte Fleischmann behauptet, sie hätten 4 Watt an Wärmeproduktion für jedes Watt, das 156
hineinfloß, gemessen. Am 8. Mai sollte Fleischmann das ganze Experiment noch heißer machen, indem er von Experimenten berichtete, bei denen die Reaktionskammern 50mal mehr Energie produzierten, als hineingesteckt wurde. Vielleicht wollte er den Aspekt der Wärmeproduktion noch mehr betonen, weil es um die Neutronenstrahlung so schlecht bestellt war. Aber auch die Wärmeproduktion, die sie gemessen hatten, wurde sehr bald genauso heftig attakkiert wie die fehlenden Neutronen. Als Fleischmann in Harwell fünf Tage nach der fatalen Pressekonferenz einen Vortrag hielt, fragte ihn ein Wissenschaftler aus dem Auditorium, ob er und Pons Kontrollexperimente durchgeführt hätten. Hatten sie das Experiment mit normalem Wasser in den Reaktionskammern statt des schweren Wassers durchgeführt? Fleischmann antwortete: «Ich bin nicht bereit, diese Frage zu beantworten.» Was für einen Grund konnte er haben, auf eine solche Weise zu antworten? In einer normalen wissenschaftlichen Veranstaltung würde eine solche Bemerkung lediglich kindisch wirken, etwa wie wenn ein kleiner Junge sagte: «Erzähl ich nicht.» Um diese Frage entstanden einige Kontroversen. Hatten sie das Kontrollexperiment nun durchgeführt oder nicht? Bei dem Treffen in Harwell hatte Fleischmann vielleicht gehofft, seine Zuhörer würden denken, daß mit der Antwort auf diese Frage und den Kontrollexperimenten eine Patentanmeldung verknüpft sei, was die Wissenschaftler zu verständnisvollem Kopfnicken und weisem Gemurmel veranlassen mochte. Später, als jemand Pons die gleiche Frage stellte, antwortete der, daß die Kontrollexperimente mit normalem Wasser «keine gute Ausgangsbasis» darstellten. Wenn Fleischmann und Pons tatsächlich die Kontrollexperimente durchgeführt und Resultate erhalten hätten, die denen mit schwerem Wasser nahe gekommen wären, hätte dies weitere Zweifel an ihrem Experiment nach sich gezogen. Schließlich hatten sie es immer so dargestellt, daß das schwere Wasser ein wichtiger Bestandteil des Reaktionsansatzes war. Könnte die 157
Kalorimetrie der beiden erfahrenen Chemiker und Kalorimetriker versagt haben, oder hatten sie etwas entdeckt? Soweit die Physiker die Angelegenheit beurteilten, hatte das Ganze mit Kernfusion nichts zu tun. Vielleicht werden wir nie erfahren, was dazu führte, daß einige von Fleischmanns und Pons' Reaktionszellen überhitzt waren. Jedenfalls steht fest, daß Überhitzung in anderen Reaktionskammern beobachtet (und erklärt) wurde. Frank Close, einem Physiker vom Oak Ridge National Laboratory, zufolge haben Fleischmann und Pons wahrscheinlich einen Fehler bei der Messung der Wärmeabgabe, der Kalorimetrie, gemacht. Sie verwendeten ein sogenanntes «offenes» Kalorimeter. Das bedeutet, daß die an den Elektroden entstehenden Gase in den Luftraum des Labors entweichen. Diese Gase gehen nicht in die Wärmebestimmung ein. Wenn die einzelnen Deuterium- oder Sauerstoffmoleküle das Wasser (normales oder schweres) einmal verlassen haben, können sie mit anderen Atomen reagieren. Das Deuterium oder der Wasserstoff «verbrennen» in der Gegenwart von Sauerstoff, und ein Teil der dabei entstehenden Reaktionswärme führt in Form von Strahlung zur Aufheizung der Reaktionskammer. Das könnte die Ursache für die «überschüssige» Wärme sein, die Fleischmann und Pons und viele ihrer Anhänger gemessen haben. Trotzdem ist es in vielen nachfolgenden Versuchen nicht gelungen, mit geschlossenen Kalorimetern Wärmeentwicklung festzustellen. Nathan Lewis, ein Elektrochemiker vom California Institute of Technology, war ein weiterer Wissenschaftler, der dazu beitrug, Nägel in den Sarg der kalten Fusion zu schlagen. Er stellte fest, daß man eine gültige Aussage über die Wärmeproduktion in einer Elektrolytlösung, wie sie von Fleischmann und Pons verwendet wurde, nur machen kann, wenn die Lösung ständig stark gerührt wird. Es gibt immer noch Gläubige, die trotz einer Welt, die der kalten Fusion zunehmend feindlich gegenübersteht, an diese glauben. Wenn einige Wissenschaftler über 158
Fleischmann und Pons sehr erbost sind, so kann man ihnen leichter vergeben als dem thermodynamischen Duo. Für den größten Teil des Jahres waren die wissenschaftliche Welt und ihre Abläufe auf den Kopf gestellt worden. Normalerweise haben Wissenschaftler zuerst eine Idee oder eine Entdeckung (1), dann überlegen sie, wie sich diese Idee durch eine Serie von Experimenten überprüfen läßt (2), wenn die Experimente wirklich etwas Neues bestätigen, dann schreiben die Wissenschaftler eine Veröffentlichung (3) und warten die Resultate von anderen ab, die versuchen, die Experimente zu wiederholen (4). Sollte sich in diesen Experimenten wirklich etwas Neues zeigen, stehen den Entdeckern das ganze Verdienst und die volle Anerkennung zu. Der Aufruhr, der von Fleischmann und Pons initiiert wurde, beruhte auf nichts anderem als auf einem hochentwickelten Ratespiel. Sie haben nie Schritt 2 abgeschlossen, und durch das Fehlen einer vollständigen Beschreibung ihres Experimentes wurde Schritt 3 im wesentlichen ausgelassen. Hinzu kommt, daß die Dringlichkeit, die mit einer solchen Behauptung einhergeht, die Medien und das Internet temporär in wissenschaftliche Zeitschriften verwandelt, sie also in eine Rolle drängt, für die sie besonders schlecht geeignet sind, wenn man bedenkt, wie lange es oft dauert, bis ein Experiment wiederholt worden ist. Da aber Schritt 3 ausgelassen wurde, haben die elektronischen Medien dafür gesorgt, daß Schritt 4 nicht ewig auf sich warten ließ. Das Fiasko mit der kalten Fusion illustriert wenigstens das Spiel von Theorie und experimenteller Überprüfung unter außerordentlichen Bedingungen. Als den beiden klarwurde, daß ihre Elektrolytzellen keine Neutronenstrahlung abgaben, postulierten sie einen «aneutronischen Prozeß». Das hört sich sehr wissenschaftlich an, heißt aber nichts anderes als «ein Prozeß, der keine Neutronen emittiert». Fleischmann, Pons und ihre Unterstützer verteidigten ihren Standpunkt, indem sie neuartige und phantastische Theo159
rien aus dem Hut zauberten, um damit die Hypothese von der kalten Fusion zu retten. Für John Huizinga, einen Physiker vom M.I.T., der auch einen Sitz in der Untersuchungskommission des Energieministeriums zur Untersuchung der kalten Fusion innehatte, erinnerten die neuen Behauptungen an Langmuirs Gesetze der unzulänglichen Wissenschaft (siehe Ende des 1. Kapitels), insbesondere an die Paragraphen vier und fünf: 4. Phantastische Theorien, die im Gegensatz zur bisherigen Erfahrung stehen, werden vorgeschlagen. 5. Kritik wird mit Ad-hoc-Erklärungen begegnet, die erst im Moment der Frage erfunden werden. Es gab genug gläubige Theoretiker, die gerne bereit waren, Theorien zu erfinden, die das anormale und nicht reproduzierbare Verhalten der Fleischmann-Pons-Reaktion erklärten. Wenn es denn doch zu einem Paradigmenwechsel gekommen wäre, hätten sie schließlich die Anerkennung für ihren theoretischen Durchbruch erhalten. Zur selben Zeit versuchten Skeptiker der kalten Fusion, die beobachtete Wärmeentwicklung zu erklären. Lassen Sie uns annehmen, daß wenigstens einige der Messungen korrekt waren. Wie könnte man die Wärmeentwicklung erklären, ohne anzunehmen, daß in den wenigen glücklichen Reaktionszellen der Geist aus der Flasche gesessen hat. Verschiedene Versionen der folgenden Theorie wurden ebenfalls herumgereicht. Bei Aufladung mit Deuteriumionen speichert ein unbekannter elektrochemischer Prozeß Energie. Später, wenn die Palladiumelektrode fast mit Deuterium gesättigt ist, wird diese Energie in großen Beträgen abgegeben. Mit anderen Worten: In den langen Stunden, in denen die vielen Kalorimeter scheinbar Wärme abgeben, speichern sie in Wirklichkeit potentielle Energie, etwa wie beim Aufziehen einer Uhr. Möglicherweise wird die potentielle Energie durch eine Umordnung der Gitteratome und der 160
Deuteriumionen gespeichert. Dann fällt das Gitternetz in eine neue Anordnung, in der eine Vielzahl von Atomen und Atomkernen in einem atomaren Sinn «bergab» laufen und eine neue niedrigere Energiekonfiguration einnehmen. Die dadurch freigesetzte Energie wird als Wärme abgegeben. Doch es bleibt das Problem, daß niemand mit Sicherheit sagen kann, daß nicht doch etwas Seltsames in einigen der Reaktionszellen geschehen ist. Noch immer glauben die Anhänger, unter ihnen Fleischmann und Pons, an die stetig abnehmende Wahrscheinlichkeit, daß der Geist der Fusion ihren Reaktionskammern wirklich einen Besuch abgestattet hat.
Nachtrag Das langsame Absterben des öffentlichen Interesses an der kalten Fusion war durch Langmuirs Gesetze der unzulänglichen Wissenschaft vorhergesagt worden. Aber die kalte Fusion ist immer noch nicht ganz tot, auch nicht für Fleischmann und Pons. In den frühen 90er Jahren begann Eiji Toyota, der Präsident des Automobilkonzerns Toyota, sich für die kalte Fusion zu interessieren, und er entschied sich, der Sache eine Chance zu geben. Er gründete ein komplettes Labor zur Erforschung der kalten Fusion für das dynamische Duo in der Nähe der französischen Stadt Nizza. Die letzten Nachrichten berichten, daß Fleischmann und Pons fröhlich neue Versionen ihres Experimentes entwikkeln und gerade dabei sind, einen großen, kommerziell einsetzbaren kalten Fusionsreaktor zu bauen. Was immer wir über ihre Wissenschaft denken, wie können wir ihnen kein Glück wünschen?
161
6. Die Biosphäre schlägt leck
Am 2. September 1991 betraten acht Menschen eine vollständig abgeschlossene Umgebung, die Biosphäre 2 genannt wurde, um während eines auf zwei Jahre angelegten Aufenthaltes Wissenschaftsgeschichte zu schreiben. Gebaut in der Wüste von Arizona vor dem Hintergrund der Catalinaberge, wirkte die Gebäudekonstruktion der Biosphäre 2, als ob einige Marsmännchen sich für einen kurzen Aufenthalt eingerichtet hätten. Für die meisten Menschen begann die Geschichte der Biosphäre 2 einige Monate bevor die Gebäude verschlossen wurden. Die Medien berichteten von acht wagemutigen «Bionauten», die dabei waren, eine fremde Welt zu betreten, ohne die Erde zu verlassen. Die Fernsehbildschirme und Zeitungen zeigten eine riesige futuristische Stahl- und Glaskonstruktion. Unter den Kuppeln und in den Gewölbehallen gab es einen Regenwald, einen Ozean, eine Wüste, eine Sumpflandschaft und eine Graslandschaft, insgesamt fünf «Biome». Es war eine Miniatur-Erde, die alle Naturlandschaften bis auf die Polarregionen unter einem Dach zusammenfaßte. Die Biosphärianer posierten für zahlreiche Fotos, lächelnd und voller Tatendrang in ihren leuchtendroten futuristischen Anzügen. Die Szenerie muß viele der Betrachter an den Kinofilm Close Encounters erinnert haben, in dem einige Erdlinge von kosmischen Fremdlingen ausgewählt werden, um mit ihnen ein UFO zu besteigen 163
Winkende und lachende Biosphärianer betreten die Biosphäre 2 (AP/Wide World Photos).
und unbekannte Regionen des Weltraumes kennenzulernen. Die Medien veröffentlichten eine kurze Beschreibung des Werdegangs der einzelnen Bionauten und erwähnten einige der Wissenschaftler, die hinter dem Projekt standen, so auch Carl Hodges, Direktor des Umweltforschungslabors der Universität von Arizona. Hodges, der die Forschung und Entwicklung des «landwirtschaftlichen Bioms» der Biosphäre 2 leitete, hatte dem Time-Magazin folgendes mitgeteilt: «Das ist kein akademisches Vorhaben, das nur dazu dienen soll, Material für Doktorarbeiten zu liefern.» Weiter konnte er in der Öffentlichkeit wohl nicht gehen. Die Erklärung schien eine implizite Warnung zu beinhalten, daß das Projekt gar keine wissenschaftlichen Ziele verfolgte. Aber was für Ziele sollten es sonst sein?
164
Der Zweck der Biosphäre 2, wie er in den Medien dargestellt wurde, schien sich mit jedem Bericht zu ändern. Für einige der Biosphärianer sollte das beeindruckende Bauwerk einzigartige ökologische Experimente ermöglichen. Es war ein lebendes «Labor». Mark Nelson, einer der Direktoren des Projektes, beschrieb das Ziel etwas ausführlicher. Die Biosphäre 2 sei ein «Zyklotron der Biowissenschaften», in dem sie eine ganz neue Wissenschaftsrichtung verfolgen würden, die «Biosphärik» genannt wurde. Der wissenschaftliche Direktor des Projektes, Tony Burgess, ging sogar noch weiter. Er nannte die Biosphäre 2 die «Kathedrale von Chartres der Gaia-Hypothese». Damit meinte er wahrscheinlich einen Ort, an dem man die Göttin Gaia anbeten konnte. Gaia ist der Name, den die bekannte Biologin Lynn Margulis der Erde als Ganzes, als lebendigem Organismus verlieh. Wie man den Medien entnehmen konnte, hatten andere der gesteckten Ziele einen etwas sachlicheren Hintergrund. Das Versiegeln der Biosphäre 2 war ein Experiment, mit dem überprüft werden sollte, «ob der Mensch in der Lage ist, in einer abgeschlossenen und unabhängigen Biosphäre zu leben, in der die Umwelt alles Notwendige zum Leben bereitstellt», wie das angesehene Magazin The Economist es formulierte. Die Zeitschrift New Republic sah das ganze mehr unter einem ökonomischen Gesichtspunkt und behauptete, der Sinn des Projektes bestehe darin, «eine Technologie zu entwickeln, die es ermöglicht, andere Planeten mit Biosphären zu kolonisieren.» Möglicherweise ist es gar nicht schwierig, diese beiden Ziele miteinander zu verbinden. Wer könnte schon sagen, daß der Prototyp einer Weltraumkolonie nicht auch ein Zyklotron der Biowissenschaften sein könne, von einer Kathedrale ganz zu schweigen? Aber die Leichtgläubigkeit von vielen wurde stark strapaziert, als sie erfuhren, daß die Biosphäre 2 möglicherweise noch ganz andere Ziele verfolgte. Sie war im Besitz einer privaten Firma, die sich Space Biosphere Ventures (SBV) 165
Inc. nannte, und ein Reporter behauptete, daß die SBV hoffe, ihre Ökotechnologie an die NASA und die europäische Raumfahrtagentur ESA verkaufen zu können. Der Name Biosphäre 2 stammte ebenfalls von dieser Firma, die damit den Bezug zur anderen Biosphäre herstellte, in der wir alle leben: die Erde oder Biosphäre l. Noch ein weiteres Ziel wurde in der Zeit der erhöhten Medienaufmerksamkeit vor der Versiegelung deutlich. Die SBV hatte in der Nähe der Biosphäre 2 eine weitläufige Anlage für Touristen gebaut; außerdem war ein riesiger Vergnügungspark geplant, der zusammen mit Biosphäre 2 die über 1.000 Quadratkilometer der Sunspace Ranch einnehmen sollte. Schließlich ist es leicht vorstellbar, daß der Prototyp einer Raumstation, die ein biologisches Zyklotron betrieb und gebaut worden war, um neue Raumfahrttechnologie zu entwickeln, von einem Vergnügungspark in der Nähe sicherlich nur profitieren konnte. In den Augen einiger unabhängiger Reporter war die Biosphäre 2 ohnehin schon so etwas wie ein Vergnügungspark. Eine gewisse unwirkliche Atmosphäre verstörte die beiden Reporter Jeanne Marie Laskas und Peter Menzel, die im Sommer vor der Versiegelung die Biosphäre 2 untersuchten. In einer Geschichte, die in der Augustausgabe von Life erschien, rätselten Laskas und Menzel, was denn die Aufgabe der Biosphäre 2 eigentlich sei. Den einzigen Erfolg, den sie im Hinblick auf diese Frage verzeichnen konnten, waren äußerst gewundene Antworten von Angestellten und Management. «Es gibt keine sauberen Antworten auf diese Frage. Wenn Sie die Projektleiter der Biosphäre 2 fragen, welches Problem sie untersuchen, werden Ihnen einige ziemlich verworrene Begründungen vorgesetzt. Die Antworten dieser Leute nähern sich der gestellten Frage in langen, sehr weitläufigen Tangenten. Denn plötzlich reden sie über die Zeit, als Kennedy erschossen wurde, oder über Familienplanung.» Laskas und Menzel beunruhigte auch die Sciencefiction-Atmosphäre, die das ganze Projekt zu beherrschen 166
schien. «Hier reden die Leute ganz gelassen darüber, daß sie ihr Rentenalter auf dem Mars verbringen werden, ganz so, als handele es sich dabei um Frankreich.» Was hat es mit der stolzen neuen Wissenschaft, der «Biosphärik» auf sich? Sie fragten Arthur W. Galston, einen Botaniker der Universität von Yale. Seine Antwort war: «Müll, totaler Müll.» Der Hauptpunkt von Galstons Kritik an diesem Projekt war: «Sie stellen keine wissenschaftliche Frage, sie sagen nur: <Stellt euch vor, wir bauen dieses Ding; was wird wohl passieren?> Das ist natürlich eine Frage, aber sicher keine Wissenschaft.» Es gab einen Gedanken in den Berichten über die Biosphäre 2, der die Aufmerksamkeit der Medien mehr als jeder andere fesselte. Es war die Idee einer vollständigen Trennung der Biosphäre 2 von ihrem Mutterplaneten. Kurz gesagt, die Bionauten könnten genausogut auf den Mars fliegen! Wenn die Versiegelung jemals gebrochen würde, bräche ein Fluch über sie herein. Die Arche würde in einem Meer wissenschaftlichen und öffentlichen Gelächters und Gespötts untergehen. Die Biosphärianer richteten sich in ihrer neuen Umgebung ein, mit den großen Hoffnungen und dem Tatendrang, der von einer positiven Publicity kommt. Die Reportage in Life war eine negative Welle in einem Meer von positiven Berichten. Die Zeitschrift Discover schwärmte, «die Biosphäre 2 ist das aufregendste wissenschaftliche Projekt in den Vereinigten Staaten seit dem Aufbruch zum Mond durch Präsident Kennedy». Die New York Times und der Boston Globe sowie andere große Zeitungen wurden von dem Fieber angesteckt und veröffentlichten schmeichelhafte Berichte. Für die Fernsehnetze war die Bereitstellung einer Videokopie vom großen Ereignis ideal. Acht leuchtend gekleidete, meist junge Menschen gingen in eine fremde und geheimnisvolle neue Welt. Für zwei Jahre würden sie vom Rest der Außenwelt vollständig isoliert sein! 167
Worum ging es bei Biosphäre 2? Die Verwirrung im Hinblick auf Ziel und Zweck des Ganzen, die sich bei jeder Gelegenheit zeigte, deutete auf eine andere, dunklere Zielsetzung, bei der all die offiziell bekanntgegebenen Ziele zu reinen Facetten wurden. Bei jener Mission ging es um eine Arche, Biosphäre 2, und eine quasireligiöse Gruppe, die übereingekommen war, eine neue menschliche Gemeinschaft zu gründen, welche auf einen anderen Stern auswandern sollte. Hinter SBV sehen wir eine bunte Gruppe unterschiedlichster Charaktere, die einen Traum verwirklichen wollten, der in über 25 Jahren langsam gereift war. Bevor wir uns der allzumenschlichen Seite der Geschichte der Biosphäre 2 zuwenden, bereiten wir den Schauplatz für das wissenschaftliche und technologische Desaster in der Wüste.
Wissenschaft oder Technologie? Wenn das Projekt der Biosphäre 2 überhaupt einen wissenschaftlichen Gehalt hatte, dann wurde dieser durch die Frage im Economist umschrieben, nämlich «ob die Menschheit in der Lage wäre, in einer abgeschlossenen und unabhängigen Biosphäre zu leben, in der die Umwelt alles Notwendige zum Leben bereitstellt». Aber wie der Botaniker Galston richtig bemerkte, ist dies keine wissenschaftliche Fragestellung. Eine solche würde das Testen der Hypothese voraussetzen, die man erhält, wenn man das «ob» im obigen Zitat wegläßt. Die resultierende Hypothese wäre aber nicht wissenschaftlich, da sie keine allgemeinen Aussagen ermöglichen würde. Wenn die Biosphäre 2 zum Erfolg würde, wäre die Antwort auf die Frage also ja, aber was würden wir dann wissen? Tatsächlich ist es doch so, daß schon das große Experiment mit der Biosphäre l die Frage beantwortet hatte: Ja. Aber als technologische Frage, bezogen auf die erstaunliche Stahl- und Glasstruktur in der Wüste von Arizona, 168
könnte eine Ja-Antwort für die Firma Space Biosphere Ventures eine Menge Geld wert sein. Die Firma hatte mit ihrer 60 Millionen Dollar teuren Demonstration alle ihre Marktchancen auf diese eine Karte gesetzt: Es ist möglich, eine repräsentative Kollektion des Lebens auf der Erde zusammen mit einigen Menschen einzuschließen, Sonnenlicht hinzuzugeben, und das ganze abgeschlossene Ökosystem sollte für mehrere Jahre überleben. Wie ich später zeigen werde, kannte die Gruppe einige Experimente auf diesem Gebiet, interpretierte deren Ergebnisse allerdings völlig falsch. Und die SBV hatte Technologie mit Wissenschaft verwechselt. Die Biosphäre 2 war kein wissenschaftliches Projekt, sondern ein riesiges technologisches Spiel, das vor allem deshalb fehlschlug, weil man so viel Wissenschaft, insbesondere Biologie und Ökologie ignorierte.
Plan der Biosphäre 2.
169
Trotz seiner wissenschaftlichen Mängel ist die Biosphäre 2 ein sehr beeindruckendes Bauwerk mit beeindruckendem Inhalt. Es dauerte mehr als sechs Jahre, um die T-förmige Struktur, die sich 35 Meilen nördlich von Tucson befindet, zu planen und zu bauen. Die umbauten 1,2 Hektar sind in sieben spezielle Gebiete aufgeteilt. Fünf Naturräume, Biome genannt, erstrecken sich im Querstrich des T: ein Regenwald, eine tropische Savanne, eine Wüste, ein Meer und eine Marschlandschaft. Zwei andere Gebiete, die nach SBV die menschlichen Biome darstellen, bilden den Stamm des T. Sie werden Stadt und Landwirtschaft genannt. Im Gartenbereich pflanzen die Biosphärianer den größten Teil ihrer Nahrungsmittel an, und dort befinden sich auch die Wohnquartiere der Biosphärianer und das Nervenzentrum, eine Miniaturstadt, die Micropolis heißt. Man gewinnt den Eindruck, wenn man von diesen Gebieten hört, daß da jemand eher metaphorisch träumt als objektiv nachdenkt. Es stellt sich rasch heraus, daß der ganze Komplex wie ein menschlicher Körper gebaut ist. Er hat «Lungen», ein großer runder Raum, wo der Luftdruck reguliert wird, «Nieren», in denen das Wasser gereinigt wird, indem es durch eine Algenschicht läuft, ein «Nervenzentrum», in dem Computer und andere Ausrüstungsgegenstände die Bedingungen überwachen. Es gibt sogar eine «Wirbelsäule», ein Kabelbündel, das die Signale von einem Ende der Biosphäre 2 zum anderen transportiert. Die Planer der verschiedenen Biome waren alle Experten auf ihrem Gebiet, die einen eben mehr, die anderen weniger. Die Wüste wurde von dem Botaniker Tony Burgess geplant, der sie den «Nebelwüsten» der Baja in Kalifornien nachempfand. Da es auf der Welt Nebelwüsten nur an sehr wenigen feuchten Stellen entlang den Meeresküsten gibt, stellen sie kaum das dar, was man sich üblicherweise unter einer Wüste vorstellt. Eine wirklichkeitsnähere Wüste wäre wegen der hohen Luftfeuchtigkeit im abgeschlossenen Gebäudekomplex jedoch nicht möglich gewesen. Die Nebelwüste in der Biosphäre 2 beinhaltete viele verschiedene Kakteen170
arten und andere Dickblattgewächse von Baja sowie einige Schildkröten und andere Wüstenreptilien. Eine Übergangszone mit Dornenbüschen aus Madagaskar und Mexiko führte zur Savanne, die von Peter Warshall, einem Anthropologen, entworfen wurde. Die Savanne bestand aus Pflanzen aus Afrika, Südamerika und vor allem Australien mit insgesamt mehr als 45 Grasarten. Es gab einige kleine Tiere, zum Beispiel Kröten, Eidechsen, und manchmal wanderte eine Schildkröte aus der Wüste durch die Savanne. Ein Fluß, der durch die Savanne floß, strömte in die angrenzende Marschlandschaft, die Walter Adey entworfen hatte. Er ist ein erfahrener Ausstellungsdesigner am Smithsonian Museum in Washington D.C. Unter der Leitung von Adey importierte die SBV eine große Zahl an Pflanzen und Tieren, darunter Frösche und Fische aus den Everglades in Florida. Adey, der sich auch mit der Möglichkeit befaßt hatte, eine Marschlandschaft zu bauen, willigte ein, den Ozean der Biosphäre 2 zu bauen. Seine Marschlandschaft grenzte an einen Ozean, den er eigentlich viel größer gewollt hatte, da er befürchtete, daß die geplante Größe zuwenig Sauerstoff abgeben würde. Aber die SBV scheute vor den zusätzlichen Kosten von 10 Millionen Dollar zurück. Der Ozean hatte ein Korallenriff, und in ihm lebten, zumindest zu Beginn, mehr als tausend Tier- und Pflanzenarten. Ghillean Prance, der Direktor von Kew Gardens, dem königlichen Botanischen Garten in London, entwarf den Regenwald, der auf der anderen Seite des Ozeans lag. Er hoffte, daß er gerade groß genug wäre, um lebensfähig zu sein. Aufgepfropft auf einen Miniaturberg aus künstlichem Gestein, sah der Regenwald etwas unglücklich aus, wie ein Garten zu Beginn des Frühlings. Es würde Jahre dauern, bevor einige Bäume wenigstens eine moderate Größe erreicht hätten. In der Zwischenzeit lauerten Fledermäuse und Buschbabies unter seinem Blätterdach, während Kolibris auf der Suche nach pollenbeladenen Blüten um die Äste flatterten. Hier half auch eine Termitenkolonie bei der 171
Zersetzung von abgestorbenem Material. Unsicher hing eine künstliche Wolke über dem Gipfel des künstlichen Berges im Regenwald. Sie war nicht das Resultat einer wunderbaren ökologischen Interaktion, sondern wurde von einer Nebelmaschine erzeugt, die Wasser aus dem Erdgeschoß der Biosphäre 2 als feinen Nebel wiederaufarbeitete, um den Regenwald feucht zu halten. Um fünf Biome unter ein Dach zu bringen, mußten die SBV-Mitarbeiter und ihre Berater einige unschöne Kompromisse eingehen. Ein Kompromiß bestand darin, daß sie die natürliche Umwelt, aus der sie Pflanzen für die Biosphäre 2 entnommen hatten, in ihren Biomen nicht naturgetreu nachbilden konnten. In jedem Fall mußte das Team, das für ein bestimmtes Biom verantwortlich war, sehr schwierige Entscheidungen darüber treffen, was es mit in die Arche nahm und was zurückbleiben mußte. Das Marschland-Team brachte keine Alligatoren oder Wasservögel mit, obwohl dies wichtige Jäger im Ökosystem der Everglades sind. Die relativ kleine Größe von l,2 Hektar bot nur wenig Raum für Tiere, die herumwandern. So hätte es sein können, daß die Alligatoren auf der Suche nach einer guten Mahlzeit nach Micropolis gewandert wären. Die Wasservögel hätten sich wahrscheinlich an der niedrigen Glasdecke über der Marschlandschaft das Genick gebrochen. Unten an der «Farm» bauten die Biosphärianer auf einer Fläche von circa 8.000 Quadratmetern ihre eigenen Nahrungsmittel an. In Erde und Kompost aus ihren organischen Abfällen pflanzten sie Mais, Tomaten, Sojabohnen und andere Nutzpflanzen. Jeder Biosphärianer verbrachte eine festgelegte Zeit von vier Stunden im Garten bei der Arbeit. Das schloß nicht nur Pflanzen, Kultivieren und Ernte der Nutzpflanzen ein, sondern auch das Einsammeln der Eier der freilaufenden Hühner, das Melken der Ziegen und das Erlegen der vietnamesischen Spitzbauchschweine. Es gab auch Reisfelder, in denen die eßbaren afrikanischen Tilapias-Fische lebten, die Algen und Wasserfarne fraßen und im Gegenzug durch ihre Fäkalien den Reis düngten und 172
ihm so zu besserem Wachstum verhalfen. Spinnen, Wespen, Marienkäfer wurden ebenfalls ausgesetzt, um schädliche Insekten von den Nahrungspflanzen fernzuhalten. Immer wenn im Regenwald eine Banane oder eine Papaya gereift war, konnten die Biosphärianer ihre Mahlzeiten durch frisches Obst bereichern. In der Stadt Micropolis selbst hatten die Biosphärianer je ein 33 Quadratmeter großes Apartment für sich, benutzten aber die Eßräume und die Freizeiträume gemeinsam. Im Nervenzentrum der Stadt konnten sie per Telefon, Fax oder durch eine Fernsehleitung mit der äußeren Welt kommunizieren. Hier standen auch die Computer, die sowohl mit Sensoren in der Außenwelt als auch mit unzähligen Detektoren innerhalb des Komplexes verbunden waren und die Pumpen und Ventile als Kontrollsystem überwachten. Die gesamte Luft im Gebäude wurde umgewälzt und mußte ständig im Hinblick auf die richtige Mischung aus Sauerstoff, Stickstoff und Kohlendioxid untersucht werden. Da keine Elektrizität in das Gebäude fließen sollte, wurde ein 5,2-Megawatt-Sonnenkraftwerk installiert, das offenbar genügte, um alles mit Strom zu versorgen. Schließlich bestand das Problem der Versiegelung. Wie die SBV wußte und wie jeder Ingenieur Ihnen bestätigen wird, ist es unmöglich, eine derartige Konstruktion vollständig luftdicht abzuschließen. Es wird immer wieder kleine Lecks geben. Es war die Aufgabe des ausführenden Unternehmens, die Anzahl der Lecks möglichst klein zu halten. Es verwendete einen Spezialkleber, der es erlaubte, die Glas- und Plastikelemente direkt an die Stahlkonstruktion zu kleben. Als Konstruktionsziel versuchte die SBV, eine Leckrate von einem Prozent pro Jahr als das maximal Vertretbare zu erreichen. Aber sogar diese recht moderat formulierte Vorgabe war wahrscheinlich zu anspruchsvoll und damit unrealistisch. Mit über 80 Kilometern an verglasten Flächen und 19 Kilometern Schweißnähten wäre ein einzelnes Loch von circa 2,5 mm Durchmesser ausreichend, um eine Leckrate von einem Prozent zu erreichen. Ein 173
echtes Problem stellten die Mikroporen mit circa 0,025 mm Durchmesser dar. Da sie nicht nachweisbar sind, konnten sie durchaus in genügend großer Anzahl vorhanden sein, um ein Leck von einem Prozent zu erzeugen. Das einzige, was der SBV blieb, war zu hoffen.
Das Leckschlagen der Biosphäre Innerhalb weniger Wochen nach der Versiegelung des Bauwerks begann der Ärger für die Biosphärianer in Form eines kleinen, unschuldigen Unfalls. Während sie eine Schreddermaschine im landwirtschaftlichen Biom bediente, wurde der Biosphärianerin Jane Poynter eine Fingerspitze abgerissen. Da sie ärztlich versorgt werden mußte, konnte sie die Biosphäre 2 durch die Luftschleuse verlassen. Sie kehrte zwei Tage später mit einem Verband um den Finger, aber sonst guter Dinge zurück. Nichts von all dem hätte irgendwelche Kommentare der Medien hervorgerufen, wenn sie davon gewußt hätten, vorausgesetzt, Poynter wäre so zurückgekommen, wie sie gegangen war. Natürlich hatte sie die Versiegelung gebrochen, aber wer würde ihr einen Vorwurf machen können, wenn man die Schwere der Verletzung bedenkt? Poynter jedoch hatte einen Seesack zur Biosphäre 2 mitgebracht. Gerüchte begannen zu zirkulieren, und es wurde gesagt, daß Poynter mit frischen Lebensmitteln und neuen Versiegelungen zurückgekehrt sei. Diese wären benötigt worden, munkelte man weiter, um hinterher zu «beweisen», daß die Versiegelung der Biosphäre 2 nie gebrochen worden sei. Die SBV dementierte die Gerüchte bis Ende Januar des neuen Jahres, als sie schließlich bekanntgab, daß der Unfall stattgefunden hatte und daß Frau Poynter lediglich mit einigen unwichtigen Dingen wie Plastiktüten, Büchern, Computerersatzteilen und Filmen in die Station zurückgekehrt sei. Aber das ferne Grollen des heranbrechenden Mediensturmes war schon vernehmbar, als Marc Cooper, ein Re174
porter der Zeitschrift Village Voice aus New York, seine Untersuchungen über die Biosphäre 2 und die Leute dahinter zu veröffentlichen begann. Im April 1991 und im darauffolgenden Juli, zwei Monate bevor die Biosphärianer in ihrem Komplex eingeschlossen werden sollten, erschienen die ersten Artikel von Cooper über das Projekt. Er behauptete, daß das Projekt Biosphäre 2 von einem «New-AgeKult» unter der Führung von John Allen, einem Dichter und Wirtschaftsfachmann, geplant worden sei. Cooper legte Beweise aus mehreren Quellen vor, daß Allen versuche, eine neue Menschheit zu begründen, die den Mars besiedeln würde und die dekadente westliche Zivilisation ihrem stillen Verfall überlassen wollte. Cooper war nicht allein. Andere hatten diese Spur sogar schon früher verfolgt, so der Reporter Victor Dricks von der Phoenix Gazette und der kanadischen Rundfunkgesellschaft CBC. Tatsächlich hatte die SBV der kanadischen Rundfunkgesellschaft mit einem Prozeß gedroht, wenn sie es wagen würde, Bänder ihrer Sendungen aus dem Jahre 1989 in den USA zu verkaufen. Die CBC gab kleinlaut nach. Cooper schlug mit einer zweiten Geschichte, die im November 1991 veröffentlicht wurde, erneut zu. Dieses Mal deckte er auf, daß kurz vor der Versiegelung eine Kohlendioxidwaschanlage installiert worden war. Wenig später trat der Projektkoordinator Rocky Stewart aus Protest über die CO2-Waschanlage zurück. Er erklärte außerdem, daß das Management von SBV die Öffentlichkeit über mehrere Aspekte der Biosphäre 2 falsch informiert habe. Als wolle sie die Behauptungen von Stewart bestätigen, pumpte die SBV fast 17.000 Kubikmeter Außenluft in die Biosphäre 2, um ein weiteres Abfallen des internen Luftdrucks zu verhindern. Als die Biosphärianer Linda Leigh und Roy Walford dies bemerkten, drohten sie damit, das Projekt zu verlassen, wenn die SBV keine öffentliche Erklärung abgäbe. Eines nach dem anderen begannen die Medien den neuen negativen Tenor aufzugreifen, und die SBV stellte fest, daß die Atmosphäre auf der Biosphäre l zunehmend bedeckter wurde. 175
In der Zwischenzeit veröffentlichte die Biosphärianerin und Naturkundlerin Linda Leigh aus der Biosphäre 2 heraus eine Reihe von Berichten im Umweltmagazin Buzzworm. Die Artikel zeigen ihren festen Willen, das Beste aus dem Experiment zu machen: Für mich ist die Biosphäre 2 eine Erfahrung der Welt des Lebens wie keine andere. Die unsichtbare Welt der Atmosphäre hat mit der sichtbaren Welt der Pflanzen und Tiere, der Erde und der Steine eine Verbindung eingehen müssen. Meine Erfahrungen als Naturkundlerin sind anders als alle vorherigen, da sie sich jetzt auf ein sehr kleines Gebiet konzentrieren. Ich besuche meine Untersuchungsstellen täglich, manchmal stündlich. Ich bin nicht länger als drei Minuten unterwegs, um zum Regenwald, zu der Savanne, der Wüste, dem Ozean oder in die Marschgebiete zu kommen. Meine Nahrungsmittel wachsen in unmittelbarer Nähe. Die wilden Gebiete sind genauso zugänglich wie mein Apartment, Computer, Telefone und Videobänder. Die negative Publicity, die vom Poynter-Zwischenfall herrührte, und die Enthüllungen über die CO2-Waschanlage, zusammen mit den ständigen Berichten von Cooper und Dricks, brachten Ed Bass, den Gründer des Projekts, so weit, im Frühjahr 1992 ein wissenschaftliches Beratergremium aufzufordern, Vorschläge zur Verbesserung der wissenschaftlichen Arbeiten in der Biosphäre 2 zu machen. Aber als das Gremium die wissenschaftlichen Probleme und deren Management unter die Lupe nahm, entstand in der Biosphäre 2 ein Problem, das der Glaubwürdigkeit des Projektes den Todesstoß versetzen sollte. Hier ist der Bericht von Linda Leigh, geschrieben im Frühjahr 1993, beinahe sechzehn Monate nach der Versiegelung: Bis zum 13. Januar war der Sauerstoffgehalt in unserer Atmosphäre von 21 Prozent, dem normalen Gehalt an Sauerstoff in der Erdatmosphäre, auf 14 Prozent gefallen. 176
Ich hatte dabei gemischte Gefühle. Einerseits konnte man dies als eine willkommene Überraschung ansehen, die uns Gelegenheit geben würde, die Probleme des Sauerstoffkreislaufes in derBiosphäre 2 zu studieren. Diese Probleme waren möglicherweise die gleichen, wie in der Biosphäre 1 (Erde). Andererseits befürchteten wir, daß wir dazu gezwungen sein könnten, Sauerstoff von außen zuzuführen, wenn die Tiere oder die Menschen ernste Symptome von Sauerstoffmangel zeigten. Dies war genau die spätere Entscheidung von SBV, dem System Sauerstoff zuzuführen. Das Management schloß die westliche «Lunge» und injizierte Außenatmosphäre, die auf 26% Sauerstoff angereichert war. Dies bedeutete, daß die Versiegelung ein zweites Mal gebrochen wurde. Schließlich konnten die Biosphärianer sich in die «Lunge» begeben, um wieder normal zu atmen. Sieben von uns standen am Eingang zur westlichen Lunge und warteten auf den Sauerstoffstrom, der aus der Schleuse kommen würde, sobald sie geöffnet wurde.... Ich bekam plötzlich Lust, in der «Lunge» herumzurennen, ohne bewußten Grund, es war einfach ein Impuls, der meine Beine in Bewegung setzte. Das ist merkwürdig, weil ich normalerweise nicht dazu neige herumzurennen. Als ich wieder zu meinem Ausgangspunkt zurückkam, stellte ich fest, daß ich nicht zu keuchen begonnen hatte, daß ich im Gegenteil gar kein Bedürfnis verspürte, nach Luft zu schnappen, wohingegen ich fünfzehn Minuten früher bereits schrecklich erschöpft gewesen war, nachdem ich langsam drei Meter Treppen gestiegen war. Von dieser Erfahrung war ich völlig überwältigt. Ich fühlte mich wie neu geboren. Sogar in einer atembaren Atmosphäre in der Biosphäre 2 hatten die Biosphärianer mit anderen Problemen zu kämpfen - zum Beispiel mit der Nahrungsversorgung. Das landwirtschaftliche Biom war von Roy Walford entwickelt wor177
den, der gleichzeitig der Hausarzt war und eine proteinarme Diät entwickelt hatte. Die Biosphärianer, die häufig hungrig blieben und durchschnittlich 13% ihres Körpergewichtes verloren, waren wegen des Hungers oft angespannt und gereizt. So wurden sie von dem Gedanken an Essen ganz besessen, alle Aspekte der Nahrungsbeschaffung interessierten sie, vom Wachstum über die Ernte zum Kochen und Essen. Die Gemüter erhitzten sich, wenn irgend etwas mit der Nahrungsbeschaffung schiefging, sei es das Sammeln oder das Zubereiten. Es wäre beinahe zur Meuterei gekommen, als die Erdnüsse rationiert werden mußten. Im Sommer 1992 hatte das Beratergremium, das von Bass zusammengerufen worden war, einen Bericht mit Empfehlungen zur Verbesserung der wissenschaftlichen Arbeit erstellt. Die wichtigste Empfehlung war, daß die Experimentatoren einen Doktortitel haben sollten, damit die wissenschaftliche Glaubwürdigkeit steige, und daß die SBV aufhören solle, sich als einzige Eigentümerin der experimentellen Daten zu gebärden. Wissenschaft, behauptete der Beirat, lebe vom Austausch der Daten. Trotz alldem veränderte sich sehr wenig an der Art und Weise, wie die SBV das Geschäft mit der «Marskolonie» betrieb, und Ende April 1993 trat der gesamte wissenschaftliche Beirat unter der Leitung von Thomas Lovejoy vom Smithsonian Institute zurück. Indem er die ständigen Probleme mit dem Management von SBV darstellte, kam Lovejoy frustriert zu dem Schluß: «Die Biosphärianer werden weitermachen, aber ihr Zwei-Jahres-Experiment einer autonomen und selbstversorgenden Lebensweise sieht immer weniger nach Wissenschaft und immer mehr nach einem 150 Millionen Dollar teuren Werbegag aus.» Als die Bionauten am 26. September 1993 schließlich herauskamen, erwartete sie die Welt bestenfalls mit lauem Interesse. Die Skandale und die Enthüllungen über das wirkliche Ziel der Biosphäre 2 hatten den Medienrummel merklich abkühlen lassen. Doch die Nachrichten und Berichte sollten noch schlechter werden. Viele Arten waren 178
«lokal ausgestorben», wie es in der Sprache der Biologen heißt. Die Kolibris und die Bienen waren verschwunden, ebenso einige Finken, Meeresfische und Pflanzen. Die Schätzungen über den Verlust an Arten beliefen sich auf 15 bis 30%. Gleichzeitig hatten sich einige Arten über jedes Maß hinaus vermehrt. Die Sträucher und Gräser hatten begonnen, die Wüste zu besiedeln, die Milben verzehrten die Kartoffeln und die weißen Bohnen, während die vietnamesischen Spitzbauchschweine die Vegetation zerstörten und deshalb von den Biosphärianern verspeist werden mußten. Die Triggerfische aßen zu viele ihrer Riffkollegen und mußten deshalb entfernt werden. Am schlimmsten aber war die explosionsartige Vermehrung der Schaben in den beiden Jahren. Sie waren in alle terrestrischen Biome eingedrungen, gerade so, als handele es sich um all die Apartments in New York City, die sie ebenfalls mit ihrem Besuch zu beglücken pflegen. Das von einem ökologischen Standpunkt interessanteste Ereignis, das sich in der Biosphäre 2 ereignete, war der Verlust von so viel Sauerstoff. Wissenschaftler von außen deuteten bald auf die Ursache: Die Erde in der Biosphäre 2 war mit besonders viel Dünger versehen worden. Dies wiederum hatte das Wachstum der bakteriellen Zersetzer weit über das normale Maß ansteigen lassen. Viele dieser Bakterien waren aerobisch, wie sich herausstellte, das heißt, sie verbrauchten oder veratmeten Sauerstoff. Trotz dieser Probleme und trotz des offensichtlichen Fehlschlages, für zwei Jahre ein wirklich abgeschlossenes System zu bilden, sah die SBV das Projekt als Erfolg an: Da die mangelnde Sauerstoffversorgung einige Wissenschaftler dazu angeregt hatte, über deren Ursachen nachzudenken, hatte die Menschheit in den Augen der SBV einiges gelernt.
179
Synergia-Ranch Der Startpunkt der Biosphäre 2 ist ein geheimnisvoller Ort in Texas, der in den 60er Jahren als Synergia-Ranch bekannt wurde. Für einige hatten es diese Zeiten in sich. Die Revolution der Gegenkultur, die mit dem Erscheinen von Hippies, Müsli und Rockmusik (unter anderem) sichtbar wurde, brachte auch neue kulturelle Ideen in Umlauf. Sie ermutigte ein neues politisches Bewußtsein, das die Bewegung gegen den Vietnamkrieg anfachte, sie unterstützte ein neues spirituelles Bewußtsein, das einige zu den östlichen Religionen führte, und es entstand ein neues Umweltbewußtsein, das andere in Experimenten mit selbstversorgenden Landgemeinschaften umzusetzen versuchten. Diese drei Strömungen scheinen auf der Synergia-Ranch zusammengekommen zu sein. Benannt nach dem Synergie-Konzept von R. Buckminster Fuller, wurde die Synergia-Ranch die Heimat eines «New-Age-Kultes», wie der Reporter Marc Cooper es nannte, unter der Ägide von John Allen, einem Poeten, Ingenieur und autodidaktischen Biowissenschaftler. Zum ersten Mal tauchte der Name Synergia-Ranch in einem Buch mit dem Titel The Commune Experience (Die Kommunenerfahrung) des Historikers Lawrence Veysey von der Universität Kalifornien auf. Das Buch enthüllte Einzelheiten, die später von einem früheren Mitglied, Kathelin Hoffman, einer Ex-Vertrauten von Allen, bestätigt wurden. Als Führer oder Guru leitete er die Gemeinschaft nicht als offene, kooperative Gesellschaft, sondern als streng kontrollierte Gruppe, der Allen die Lehre vom gesellschaftlichen Verfall predigte, der durch den «Schlaf», in den die Menschheit gefallen sei, verursacht werde. Allen lehrte weiterhin, daß nur die, die «aufwachten», es verdienten, dem Zerfall zu entkommen. Nur jene, die ihr volles menschliches Potential entfalteten, verdienten einen Platz unter den Sternen. Die Lehren von Allen scheinen durch die Schriften des wenig bekannten G. I. Gurgieff und seiner Anhänger inspi180
riert zu sein. Gurgieff, ein armenischer Georgier, der in den ersten drei Jahrzehnten des Jahrhunderts als mystischer Lehrer bekannt war, übte in dieser Zeit einen großen Zauber auf seine Anhänger aus. Er ermutigte zu «innerer Arbeit», durch die seine Schüler sich in den erwünschten Zustand des «Erwachens» und des «Selbst-Erinnerns» bringen konnten, der die Tür zu allen höheren Dingen eröffnete. Er beharrte bei seinen Schülern auf absolutem Gehorsam und Vertrauen. Die Mitglieder der Gruppe auf der SynergiaRanch verwendeten falsche Namen, möglicherweise um ihre bevorstehenden Verwandlungen vorwegzunehmen. Allen, der sich Johnny Dolphin nannte, übte die eiserne Kontrolle aus, die notwendig war, um den Zustand des Erwachens zu erreichen. Er gab ihnen Aufgaben, die sie völlig mit der inneren Arbeit eindeckten, er unterwarf sie langen Monologen vor den Mahlzeiten, und den Aussagen einiger Ex-Mitglieder zufolge wendete er sowohl physische als auch psychische Zwangsmethoden wie öffentliche Entkleidungen und Schläge an, um seinen Willen durchzusetzen. Er war dafür bekannt, einzelnen Mitgliedern, die - wie Gurgieff es genannt hatte - vom rechten Pfad der harmonischen Entwicklung abgewichen waren, heftige Vorhaltungen zu machen. Im Rückblick scheinen diese Ausfälle persönliche Motive gehabt zu haben. Zum Beispiel, wenn Allen ein neues weibliches Mitglied besonders anziehend fand oder wenn er den Eindruck hatte, seine Position der Stärke und Autorität würde durch einen anderen Mann gefährdet. Allen drängte seine Gruppe zu handwerklicher Tätigkeit, denn er war ohne Zweifel tief beeindruckt von der Bedeutung, die Gurgieff der praktischen Arbeit zumaß. An vielen Wochenenden kamen Besucher zur Synergia-Ranch, um Töpferwaren oder Wollkleidung zu erwerben. Einer dieser Besucher sollte grundlegende Auswirkungen auf die Gruppe haben. Im Jahre 1974 erschien ein junger Mann mit dem Namen Ed Bass auf der Synergia-Ranch, um einige handgefertigte Möbelstücke zu kaufen; doch er blieb und unterhielt sich 181
über Philosophie. Wie alle rasch erfuhren, handelte es sich um den zweiten Sohn des Öl-Multimilliardärs Perry Richardson Bass, der selbst schon Milliardär war. Plötzlich war der Himmel für Allen keine Grenze mehr. Durch das neue Mitglied der Gruppe schienen auf einmal eine ganze Reihe von Projekten möglich zu werden, und Allen brauchte nicht lange, um eines zu entwerfen, das der neuen finanziellen Schlagkraft angemessen war. Die Menschheit, die größtenteils in völligen Schlaf versunken war, würde immer blind herumtorkeln und stets aufs neue alles völlig verkehrt machen. Die Welt würde zur Hölle fahren, und nur die, welche es wert waren, gerettet zu werden, würden überleben. Aber wo würden die Auserwählten leben? Auf dem Mars, wo sonst. Die Mitglieder der Gruppe würden nicht nur zu einer neuen Form der Menschlichkeit erwachen, sondern sie würden auch ihr eigenes Entkommen aus der zerfallenden Welt steuern. Es gab keinen Zweifel, wenn Allen eine Technologie, die ein Überleben auf dem Mars ermöglichte, entwikkeln könnte und wenn er dann noch die Raumfahrtagenturen davon überzeugen könnte, diese Technologie zu übernehmen, dann würden Tausende zu ihm strömen, um Teil der neuen Menschheit zu werden. Im Laufe dieses Prozesses würde er eine neue Synthese aus Wissenschaft, Technologie, den bildenden Künsten und persönlicher Entwicklung begründen. Mit dieser Idee war die Biosphäre 2 geboren. All dies konnte man schon einem Gedichtband von Allen entnehmen, den man am Kiosk der Biosphäre 2 käuflich erwerben konnte. Lebensraum Als ein Kind, auf einer Tafel aus Ton, befehligte ich Alexanders Reich; 182
in meiner Jugend, herumwandernd in den westlichen Staaten, war ich der Khan der Leidenschaften; jetzt, sanft mit Galaxien, plane ich die Flucht aus dieser Zelle. Nachdem der Journalist Michael O'Keefe vom Magazin Buzzworm die Biosphäre 2 nach der Hälfte des ersten Experiments besucht hatte, fragte er sich in gedruckter Form: «Hat die Biosphäre 2 irgend etwas mit der Rettung dieses Planeten zu tun? Oder geht es darum, die Erde im Stich zu lassen und den Mars zu besiedeln?» Wenn die Arche, die Biosphäre 2 genannt wird, wirklich auf der Synergia-Ranch begonnen hat, dann erklärt das viel von der offensichtlichen Verwirrung im Hinblick auf den Zweck des Unternehmens und es erklärt die merkwürdige Atmosphäre, die einige Reporter später in der Biosphäre 2 bemerkten. In Übereinstimmung mit den wirklichen Zielen der Biosphäre 2 war es unbedingt notwendig, (1) die Technologie einer Arche zu entwickeln, (2) die Kontrolle über diese Technologie zu behalten, um auch die Kontrolle über die Arche auszuüben, (3) die Menschheit mit der Überlegenheit in Wissenschaft und Technologie zu beeindrucken und (4) eine Einrichtung zur direkten Anwerbung von neuen Mitgliedern zur Verfügung zu haben. Die Biosphäre 2 mußte dies alles ohne auch nur den geringsten Hauch von spirituellem Idealismus bewerkstelligen. Welch bessere Tarnung gab es, denn als Firma aufzutreten? So gesehen wäre das Hauptziel von SBV, die Funktionstüchtigkeit der Biosphäre-2-Technologie zu demonstrieren. Sie würde jedoch bestimmte Aspekte dieser Technologie geheimhalten. Das erklärt die Medieninszenierung und die geheimniskrämerische Haltung der SBV, wenn es um die Offenlegung von experimentellen Daten oder Technologie ging. Von der Paranoia wegen der negativen Berichterstat183
tung und dem Fotografierverbot der Biosphäre 2 für Touristen ganz zu schweigen. Die neue Wissenschaft der Biosphärik half in der Zwischenzeit, das Ziel 3 zu verwirklichen, und ein Vergnügungspark hätte sehr gut zu Ziel 4 gepaßt. Aber die geheimen Ziele der Biosphäre 2 erklären die wissenschaftlichen Fehlleistungen, die fast jeden Aspekt des Vorhabens durchdrangen, nicht vollständig. So müssen wir noch zwei weitere Gründe annehmen: die Bereitschaft, sich durch eine Wunschvorstellung blenden zu lassen, und die Unkenntnis der relevanten wissenschaftlichen Erkenntnisse. Zunächst waren Allen und seine Kohorten wirklich davon überzeugt, daß durch das Zusammenwerfen von fünf «Biomen» in einen Topf automatisch dasselbe geschehen werde wie auf unserem Planeten Erde. Das Ganze sollte sich - ähnlich wie die äußerst komplexe Welt der Flora und Fauna von Korallenriffen - in einem nachhaltigen, sich stets erneuernden Gleichgewicht einpendeln. Sie glaubten dies, weil einige Experimente mit geschlossenen Ökosystemen auf deren Robustheit und schier endlose Fähigkeit zur Aufrechterhaltung deuteten. Wie wir gleich sehen werden, hat Allen die Ergebnisse dieser Studie vollständig falsch interpretiert und sich nur die positiven Aussagen zu eigen gemacht, die Warnungen der Autoren hingegen hat er völlig außer acht gelassen. Trotz solcher Fehlinterpretationen bleibt unklar, wie irgend jemand glauben kann, daß fünf Biome auf so engem Raum zusammengebracht werden und danach in ihrer ursprünglichen Form weiterbestehen können. Das Problem der falschen Größenordnung durchzog das ganze Projekt. Die Ökologen kennen die Minimalgröße eines lebensfähigen Biotops noch immer nicht. Sie wissen allerdings, daß es, wenn es unter eine gewisse Größe schrumpft (gewöhnlich durch menschliche Ausbeutung), zum Untergang verdammt ist. Das gleiche gilt für kleine Populationen. Wenn die Brutgebiete einer bestimmten Art zu sehr beschnitten 184
werden, ist auch sie dem Untergang geweiht. Die natürlichen Schwankungen des Wetters, der Nahrungsversorgung oder des Lebensraumes können eine ohnehin schon kleine Population sehr leicht an den Punkt bringen, an dem ein einziger Ausfall einer Generation, ein Unglück bei der Aufzucht der Jungen etc. ein lokales Aussterben zur Folge hat, wie die Ökologen dies nennen. Im Regenwald gibt es ein Phänomen, das als Rand- oder Kanteneffekt bekannt ist. Jede abrupte Grenze (die normalerweise durch den Menschen verursacht wird) wird von der Natur durch eine Sukzession, eine Abfolge von Pflanzen und Tieren verwischt, die aus dem Grasland, den Strauchwäldern und anderen Biomen kommen und in den Wald eindringen. Gleichzeitig verändert das Fehlen eines Schattendaches die Lebensräume unter den großen Bäumen am Rand vollständig. Die Vielfalt der Lebensräume wird innerhalb einer Zone von mehreren hundert Metern stark reduziert, auch wenn langsam andere Pflanzen einwandern. Sich selbst überlassen, mitten auf einem offenen Feld im Amazonasgebiet, würde der Regenwald der Biosphäre 2 innerhalb weniger Jahrzehnte größtenteils verschwunden sein. Es ist nur wenigen bekannt, daß ungefähr 80% des Sauerstoffs auf der Erde nicht von Bäumen, sondern von marinen Algen freigesetzt werden, die als einzelne Zellen oder als Kolonien leben und Photosynthese mittels Chlorophyll betreiben. Unsere Ozeane nehmen circa 75% der Erdoberfläche ein und scheinen diesen Zweck gerade zu erfüllen. Trotzdem wurde angenommen, daß der Mini-Ozean in der Biosphäre 2 die gleiche Funktion erfüllen werde wie die Weltmeere für die Biosphäre 1. Walter Adey, der an der Planung der Biosphäre 2 mitbeteiligt war, warnte die SBV, daß der Ozean nicht einmal näherungsweise groß genug sei, um den Sauerstoff für alle Luft atmenden Lebensformen unter dem Glasdach bereitzustellen. Seine Warnungen wurden von Allen und dem SBV-Management in den Wind geschlagen. Schließlich wurde Adey sogar aus dem Projekt 185
gedrängt. David Stumpf, der Forscher von der Universität von Arizona, der mitgeholfen hatte, die landwirtschaftlichen Biome zu planen, sagte, daß er Allen schon 1986 darauf hingewiesen habe, daß die große Anzahl von Tieren in der Biosphäre voraussichtlich erhöhte CO2-Werte verursachen werde. Da die Planungen für die Biosphäre 2 bereits abgeschlossen waren, konnte Stumpf lediglich empfehlen, einen CO2-Wascher einzubauen. Das ist ein Gerät, das CO2 aus der hindurchgepumpten Luft entfernt. Stumpf erinnert sich, daß dieser Vorschlag Allen nachhaltig verstörte. Die Biosphäre 2 sollte eine selbstversorgende Einrichtung sein und nichts anderes. Stumpf wurde von Allen und Margaret Augustine, Geschäftsführerin von SBV und langjährige Gefährtin von Allen, sprichwörtlich zusammengebrüllt. Später sagte Stumpf: «Was mich wirklich irritierte, war, wie kindisch sie sich verhielten, ihre Unfähigkeit, Fehler einzusehen, außer wenn sie selbst sagten, daß sie einen Fehler gemacht hatten. ... Sobald man von dem abweicht, was ihnen eingebleut wurde, sind sie völlig verloren.» Lange vor der ersten Versiegelung war klar, daß Sauerstoff und Kohlendioxid, zwei der wertvollsten Gase in der Biosphäre l, in der Biosphäre 2 in ein erhebliches Ungleichgewicht zueinander geraten mußten. Nur die Installation eines CO2-Waschers, dem die SBV schließlich zustimmte, verhinderte ein raketenhaftes Ansteigen des CO2-Gehalts. Unglücklicherweise verhinderte dies jedoch nicht das gravierende Absinken des Sauerstoffgehalts. Um dies zu verstehen, müssen wir uns andere Ökosysteme einmal genauer anschauen.
Ökologische Systeme Das Fachgebiet der Ökologie, eine Forschungsrichtung innerhalb der Biologie, entstand im späten 19. Jahrhundert, als einigen Biologen klar wurde, daß die Natur mehr war als die Summe ihrer Teile. Man konnte einzelne Pflanzen 186
oder Tiere untersuchen und dabei einen lebenswichtigen Teil verkennen. Mehr als alles andere haben die Theorien von Charles Darwin und Alfred Russel Wallace klargestellt, daß die Interaktion verschiedener Arten, sowohl untereinander als auch mit der Umwelt als Ganzes, ein eigenes, weit über das Theoretische hinausweisendes Forschungsgebiet darstellte. Trotz des langsamen Fortschrittes der Ökologie im Hinblick auf die Klassifikation der verschiedenen Beziehungsgeflechte und der vielen Studien über die Interaktion zwischen Pflanzen und Tieren bewirkte die wachsende Sorge über die Verschmutzung und das Artensterben eine neue Dringlichkeit auf diesem Gebiet. Im gleichen Zeitraum versuchte eine kleine Anzahl von Wissenschaftlern, die genauen Beziehungen, die Ökosysteme umfaßten, herauszufinden. Sie bauten «geschlossene Systeme», das sind geschlossene Behälter, in denen nur einige wenige Organismen eine langfristige Balance mit den Umweltverhältnissen herzustellen suchen. Viele dieser Forschungsaktivitäten wurden sowohl in den Vereinigten Staaten als auch anderswo von der Marine oder von Raumfahrtagenturen finanziert. Die Anwendbarkeit der Erkenntnisse solcher Studien auf Menschen, die sich eine längere Zeit in einem abgeschlossenen Raum aufhalten, schien offensichtlich. Was ist notwendig, um ein geschlossenes Ökosystem herzustellen, das in der Lage ist, das Leben für Menschen oder, was auf dasselbe hinausläuft, für Luft atmende Tiere zu ermöglichen? Der grundlegende Kreislauf umfaßt zwei Prozesse: Photosynthese und Atmung. Bei der Photosynthese fängt ein Molekül, das Chlorophyll genannt wird, die Energie des Lichtes ein, verwandelt sie in chemische Energie und macht sie in der Form von chemischen Verbindungen wie Zucker, Stärke, Zellulose und anderen komplexen Substanzen für den Organismus verfügbar. Viele Organismen verwenden für diesen Zweck Chlorophyll, so auch die Pflanzen und viele Algen. Im Rahmen des photosynthetischen Prozesses nehmen derartige 187
Organismen Kohlendioxid (CO2) und Wasser (H2O) aus der Umwelt auf. Der photosynthetische Apparat im Chloroplasten spaltet das Wassermolekül in freien Sauerstoff (O2) und verwendet das Wasserstoffatom zusammen mit dem Sauerstoff und dem Kohlenstoff aus dem CO2, um Verbindungen wie Glucose, einen einfachen Zucker zu synthetisieren. Durch diesen Prozeß wird die Energie des Sonnenlichtes in den chemischen Bindungen des Glucose-Moleküls gespeichert. Biochemiker fassen diesen fundamentalen Vorgang in folgende Formel: 6 H2O + 6 CO2 → C6H12O6 + 6 O2 Sechs Wassermoleküle und sechs Moleküle CO2 verbinden sich zu einem Molekül Glucose und sechs Molekülen Sauerstoff. Für jedes Atom auf der linken Seite der Gleichung gibt es ein entsprechendes auf der rechten Seite der Gleichung. Die Reaktion ist keinesfalls so einfach, wie die Gleichung anzugeben scheint. Photosynthese umfaßt viele Stadien, in denen energietragende Moleküle gebildet und abgebaut werden; Protonen werden über Membranen transportiert und die Glucose in komplexere Zucker und zu Stärke verwandelt, was die Herstellung von Proteinen ermöglicht. Die andere Schlüsselreaktion von lebenden Systemen, die Atmung, verläuft in die Gegenrichtung. Die Zucker werden zu Kohlendioxid und Wasser abgebaut. Nicht jedermann schätzt die einfache und schöne Symmetrie dieser elementaren Lebensprozesse. So wie die oben angegebene Reaktion den fundamentalen Prozeß zusammenfaßt, mit dem Pflanzen Energie aus dem Sonnenlicht speichern, so gibt die Reaktion in Gegenrichtung den elementaren Prozeß wieder, der es Tieren ermöglicht, durch die Verdauung von Pflanzenmasse verwendbare Energie zu erhalten. Bei der Atmung verwenden Tiere Sauerstoff und einfache Zucker wie Glucose, um sie zu Kohlendioxid und Wasser abzubauen: 188
C6H12O6 + 6 O2 → 6 H2O + 6 CO2 Die beiden Reaktionen umfassen den grundlegenden Kreislauf, ohne den kein geschlossenes Ökosystem, das diesen Namen verdient, längere Zeit überleben könnte. Um diesen Kreislauf in Gang zu setzen, muß der abgeschlossene Bereich zumindest einen photosynthetischen Organismus und einen Luft atmenden Organismus umfassen. Eine Lichtquelle würde die photosynthetische Reaktion antreiben, und die Energie, die in den entstehenden Nahrungsmitteln gespeichert ist, würde zusammen mit Sauerstoff, der aus der Photosynthese stammt, die zweite Reaktion, die Atmung eines tierischen Organismus aufrechterhalten. Um den Kreis zu schließen, würde der atmende Organismus das Wasser und das Kohlendioxid, das vom photosynthetischen Organismus gebraucht würde, zur Verfügung stellen. Es hört sich so an, als sei dieser Kreislauf leicht herzustellen, aber nur wenige Biologen haben die Neigung verspürt, es auszuprobieren. Seit den 50er Jahren hat ein kleiner Kader von Wissenschaftlern das betrieben, was man «Erforschung abgeschlossener Ökosysteme» nennen könnte. Ständig ohne eine ausreichende Förderung, ist das Gebiet kaum den Kinderschuhen entwachsen. Typisch für die frühen Experimente waren die, welche von R.O. Bowman und F.W. Thomae an der Chance Vought Aircraft Inc. durchgeführt wurden. Schon 1960 hatten Bowman und Thomae in einem Behälter Chlorella-Algen (photosynthetischer Organismus) und eine oder zwei Mäuse (die Veratmer) zusammengebracht. Sie führten acht Versuche durch. Fünf davon mußten wegen der Entstehung eines außerordentlich hohen CO2-Levels oder eines starken Absinkens des Sauerstoffgehaltes im abgeschlossenen Behältnis abgebrochen werden. Bowman und Thomae hatten diese fünf Versuche aus rein mechanischen Gründen abgebrochen, als ein Zusammenbruch der Ausrüstung sie zur völligen Beendigung zwang. 189
Jedenfalls schien das System ein gewisse zähe Stabilität zu entwickeln. Der erfolgreichste Versuch dauerte 28 Tage. Hierbei ermöglichten vier Liter Chlorella-Kultur die Atmung einer 30 Gramm schweren Maus. In diesem Zeitraum stieg der Sauerstoffgehalt in der Kammer von 21% bis auf ein Maximum von 30%. Aber ein Nachfolgeexperiment mit zwei Mäusen unter sonst gleichen Bedingungen schlug fehl. Hier variierte der Sauerstoffgehalt für zwei Wochen ebenfalls zwischen 20 und 31%, sank dann aber auf ungeklärte Weise auf 10% ab. Bowman und Thomae stoppten das Experiment, um die Atemnot der beiden Mäuse zu lindern. Was hatte den merkwürdigen Abfall des Sauerstoffgehaltes verursacht? Nachdem die beiden Wissenschaftler das ganze System analysiert hatten, wußten sie auch den Grund dafür. Die Fäkalien der Mäuse, die zufällig die Kammer befeuchteten, hatten zur Ansiedlung von neuen, unerwünschten aeroben Bakterien geführt. Tiere sind nicht die einzigen Organismen, die Sauerstoff veratmen. Während Pflanzen und Algen im Licht Photosynthese betreiben, müssen sie in der Dunkelheit atmen, indem sie ihre eigenen Nahrungsreserven verwenden. Hinzu kommt, daß einige Bakterien die gleiche Atem-Nische besetzen wie die Tiere, das heißt, sie benötigen Sauerstoff, um zu überleben und sich vermehren zu können. Dieses Experiment hatte für das Scheitern der Biosphäre 2 eine besondere Relevanz, worauf ich oben schon hingewiesen habe. Aber sogar die Erfolge dieser Experimente zeigten so große Schwankungen, daß das ganze Konzept eines abgeschlossenen Systems in Frage gestellt werden mußte. Komplexere Systeme, die Algen, Ratten und Pilze enthielten, sind noch viel schwerer zu handhaben. Eine Frage, die sich den Wissenschaftlern mit großer Beharrlichkeit immer wieder stellte und die sowohl philosophische als auch praktische Probleme aufwarf, lautete: Was ist ein abgeschlossenes System überhaupt? Frieda B. Taub, eine Biologin von der Universität Washington in Seattle, hat die Experimente mit geschlossenen 190
Systemen von Anfang an verfolgt. Ihrer Meinung nach sollte, wenn man die Idee wörtlich nimmt, für die gesamte Versuchsdauer nichts hinzukommen und nichts abgegeben werden. Sie würde es zwar zulassen, daß Licht in das System eindringt, aber kein Laborfutter, mit dem in früheren Experimenten die Ratten und Mäuse gefüttert wurden. Eine nach einem solchen Konzept entwickelte Kammer würde man als materiell geschlossen, aber energetisch offen bezeichnen. Die besten materiell völlig abgeschlossenen Systeme wurden von Clair E. Folsome, damals an der Universität von Hawaii, und Joe A. Hanson vom Laboratorium für Düsenantriebsforschung in Pasadena, Kalifornien entwickelt. In den 70er und 80er Jahren demonstrierten die beiden Forscher, daß materiell abgeschlossene Systeme möglich waren, wenn auch nicht ohne Gefahr für die betroffenen Organismen. So berichteten Folsome und Hanson 1986 von einer Serie von Experimenten mit verschlossenen Kulturflaschen. Bei einem dieser Experimente verwendeten die Wissenschaftler eine große Anzahl von 2-Liter-Kulturflaschen, die sie mit unterschiedlichen Kombinationen einer wilden Mikrobenmischung und einer variablen Anzahl des Krebses Halocaridina rubra, einer kleinen marinen Garnele, die kaum länger als ein Zentimeter ist, kombinierten. Die wilde Mikrobenmischung bestand aus einer Handvoll hawaiischen Sandstrandes. Nahezu jede Probe von nassem Sand, Schlamm oder feuchter Erde, die von einem beliebigen Flecken der Welt entnommen wurde, wird eine riesige Anzahl von Protozoen, Algen und Bakterien enthalten. Das galt auch für die Proben von Folsome und Hanson. Die Mikrobewohner fanden sich in einer verschlossenen Kulturflasche wieder, wo sie 441 Tage Zeit hatten, ein Gleichgewicht mit den kleinen Krebsen herzustellen. Folsome und Hanson setzten die Kulturflaschen innerhalb eines 12-Stunden-Zyklus systematisch verschiedenen Bestrahlungen mit Licht aus. Nach dem Ablauf der 441 Tage 191
schienen alle Komponenten des Mini-Ökosystems lebendig und wohlauf zu sein, wenn auch in einigen Flaschen die Krebspopulation abgenommen hatte. Alle Reduktionen, die von den Forschern beobachtet wurden, schienen nach ungefähr 60 Tagen bei einer Art Gleichgewicht angekommen zu sein, so daß danach zwar eine kleinere, aber robuste Populationsgröße der Krebse aufrechterhalten werden konnte. Weder Folsome noch Hanson waren von ihren Resultaten sehr überrascht. So hatte zum Beispiel Folsome bereits ein rein mikrobielles System während mehr als 18 Jahren aufrechterhalten, während Hanson ein geschlossenes Mikroben-Krebs-System mehr als fünf Jahre lang beobachtet hatte. Obwohl die kleinen Garnelen in der Lage zu sein schienen, endlos lange unter diesen Bedingungen zu leben und sich dabei zu vermehren, war keiner der Wissenschaftler zuversichtlich, daß diese Resultate ohne sehr viel mehr Forschung auf größere Ökosysteme übertragen werden konnten. In ihrem Artikel von 1986 berichteten sie ganz eindeutig, daß «Versuche, Systeme mit größeren Metazoen (einschließlich pflanzenfressenden Fischen) einzurichten, bisher alle zu einem Absterben der Metazoen schon drei Monate nach dem Verschluß des Experimentierbehälters geführt haben». Folsome und Hanson wiesen insbesondere darauf hin, daß der Verlust von Arten als Teil eines normalen regulatorischen Prozesses betrachtet werden muß, mit dessen Hilfe abgeschlossene Ökosysteme versuchen, ein Gleichgewicht ihrer Bestandteile zu erreichen. Einige Pflanzen- oder Tierarten oder andere Organismen sind beim Öffnen der Versuchsgefäße möglicherweise nicht mehr vorhanden. John Allen und die anderen kannten die Folsome-Hanson-Experimente recht gut, aber sie hatten beschlossen, die negativen Seiten zu ignorieren. Ironischerweise hat das gar nicht so sehr abgeschlossene Ökosystem in der Biosphäre 2 möglicherweise versucht, ein neues Gleichgewicht zu erreichen: eines ohne Menschen! 192
Nachtrag In seinem Bemühen, die Biosphäre 2 in eine erfolgreiche Forschungseinrichtung zu verwandeln, entließ Ed Bass im März 1994 das gesamte Management-Team, inklusive Margaret Augustine und John Allen. Er dachte, er könne das Steuer noch herumwerfen, indem er neue Möglichkeiten einräumte, so zum Beispiel, daß er Wissenschaftlern gestattete, die Biosphäre 2 für eine beschränkte Zeit für ihre Forschungen zu nutzen. Im selben Monat begab sich ein neues Team von sechs Wissenschaftlern für einen zehnmonatigen Aufenthalt in die Biosphäre 2. Sie wollten das ganze jedoch eher wie ein großes Forschungsteleskop handhaben, das heißt, sie hielten die Instrumente und Anlagen für die besuchenden Wissenschaftler betriebsbereit und funktionstüchtig und wollten daneben auch eigene Experimente durchführen. Bass zog sich im Januar 1996 völlig aus der Verantwortung zurück und übertrug die Direktion einem Konsortium, das vom Lamont-Doherty-Erdobservatorium der Universität Columbia geleitet wird. Die Biosphäre 2 sucht weiterhin nach einem Platz auf der wissenschaftlichen Sonnenseite. Obwohl ihre Struktur es unmöglich macht, Experimente, die die Interaktion von Pflanze und Atmosphäre zum Ziel haben, zu replizieren, so sind andere Experimente sicherlich möglich. Vielleicht trägt die Biosphäre 2 eines Tages zu einer lebenswerteren Erde bei. Wer außer Weltraumenthusiasten wollte schon auf dem Mars leben?
193
7. Wem sich die Kurve krümmt Die Rassentheorien von J. Phillipe Rushton
Die Geraldo-Talkshow, normalerweise nicht der Ort, an dem wichtige wissenschaftliche Sachverhalte diskutiert werden, warb am 8. Mai 1989 mit der Ankündigung, die Rassentheorien von Professor J. Phillipe Rushton, einem bekannten Psychologen von der Universität von Western Ontario in Kanada, zu untersuchen. Rushton hatte kürzlich die Aufmerksamkeit der Medien mit einer Untersuchung geweckt, bei der er feststellte, daß bei einer Reihe von menschlichen Eigenschaften wie Gehirngröße, IQ und soziale Kontrolle bei den drei untersuchten Rassen immer das gleiche 1-2 -3-Muster auftrat. In Rushtons Sprache hieß das: Mongolide → Kaukasier → Negroide Mongolide, so behauptete er, hätten größere Gehirne (und einen höheren IQ und höhere soziale Kontrolle) als Kaukasier, und diese wiederum hätten größere Gehirne (und all die anderen Dinge) als die Negroiden. Rushton behauptete auch, eine Reihe von menschlichen Eigenschaften entdeckt zu haben, wie zum Beispiel die Größe des Penis, bei denen eine andere Reihenfolge vorherrschte: Negroide → Kaukasier → Mongolide 195
Als Erklärung für seinen Auftritt in der Geraldo-Show gab Rushton an, er wolle seine Ansichten für ein amerikanisches Publikum klarstellen. Vielleicht hatte er sich ein Diskussionsforum über die wissenschaftlichen Fragen, die durch seine Arbeit aufgeworfen wurden, vorgestellt, aber das war nicht, was ihn erwartete. Bevor die Show begann, hatte ein Produktionsassistent das Publikum darauf trainiert, seinen ehrlichen Gefühlen freien Lauf zu lassen. Es lief darauf hinaus, daß er ihnen beibrachte, ihr Mißfallen deutlich auszudrücken: «Wenn Sie etwas hören, was Ihnen nicht gefällt, dann lassen Sie es uns wissen, indem Sie zischen oder buh rufen.» Der Gastgeber Geraldo Rivera, der wahrscheinlich eine gute Möglichkeit sah, seine eigene politisch-korrekte Entrüstung anzubringen, zeigte wenig Geduld mit den wissenschaftlichen Fragen. Statt dessen griff er das Aussehen des sanften, gesitteten Professors mit den breiten Bakkenknochen auf: «Wenn ich Sie anschaue, komme ich nicht darüber hinweg, daß Sie eine Ähnlichkeit mit Clark Kent haben. Befindet sich hinter diesen Brillengläsern eine Herrenrasse?» Im Publikum saß Charles King, der Gründer des Urban Crisis Center, des Zentrums für die Krise der Stadt, in Atlanta. «Denken Sie, daß Sie besser als andere sind?» wollte er von Rushton wissen. Rushton, der die Frage eigentlich nicht beantwortete, gab ruhig zurück: «Ein Rassist kategorisiert alle Mitglieder einer Rasse auf die gleiche Art und Weise und verleumdet dann die, welche zu jener Rasse gehören.» Geraldo, der nun den Befund über die Penislänge ausführlich diskutierte, machte einfach weiter. Rushton muß an diesem Punkt innerlich geseufzt haben. Es stellte sich als unmöglich heraus, in einem öffentlichen Forum eine faire Behandlung zu erfahren. Seitdem er am 19. Januar in San Francisco seinen schicksalhaften Vortrag vor der Amerikanischen Vereinigung zur Förderung der Wissenschaften gehalten hatte, 196
befand er sich im Zwielicht. Die Medien, die zu solchen Anlässen für den Fall, daß irgend etwas Wichtiges bekanntgegeben wird, Reporter schicken, verschwendeten keine Zeit und gaben die Nachricht rasch weiter. Was daraus in Millionen von Köpfen wurde, die darüber entweder im Fernsehen oder aus der Zeitung erfuhren, ist nur schwer zu sagen, aber es ist wahrscheinlich etwa folgendes: Ein Psychologieprofessor hatte wissenschaftlich bewiesen, daß Asiaten schlauer sind als Weiße und Weiße schlauer sind als Schwarze. Aber im Fall der Penisgröße und dem Fehlen von sexueller Kontrolle war es genau andersherum. Für einige Menschen schien die Theorie vernünftig zu sein, für andere klang sie entweder beeindruckend oder rassistisch. Aber viele Leute, Schwarze, Weiße und Asiaten, haben sich wohl am Kopf gekratzt und sich im geheimen gefragt: Könnte die Theorie wahr sein? Die Medien, die eine große Verantwortung dafür haben, die Tatsachen und Hintergründe einer Geschichte herauszufinden, auch wenn es sich um eine wissenschaftliche Neuigkeit handelt, taten, was sie immer tun, wenn Zeitmangel herrscht und die Abgabetermine bedrohlich nahe rücken. Sie holten den Karteikasten mit den Namen irgendwelcher wissenschaftlicher Berater heraus und riefen diese an. Alle überfielen sie die wichtigsten nordamerikanischen Universitäten und veröffentlichten in der Folge Texte, Videostückchen und Interviewschnipsel, die mit den wirklichen Fragen kaum etwas zu tun hatten. Nur ganz gelegentlich beschwerte sich ein finster blickendes Wissenschaftlergesicht darüber, daß Rushton die «Unterschiede zwischen Gruppen» gegenüber den «Unterschieden innerhalb von Gruppen» hervorgehoben habe, aber näher kam die Debatte dem eigentlichen Ziel nie. Es wurde nicht über die Fragwürdigkeit des IQ-Konzeptes gesprochen, noch wurde über die anderen Theorien diskutiert, auf die sich Rushton so sehr stützte. Der größte Teil der Diskussion konzentrierte sich auf die Verwendung von Daten aus zweiter Hand durch Rushton, von seiner Analyse dieser Daten gar nicht zu reden. 197
Einige Psychologen und andere Sozialwissenschaftler kritisierten Rushtons Arbeit, insbesondere seine Verwendung von Statistiken aus zweiter Hand und seinen Gebrauch von Durchschnittszahlen. Um zu seinen Schlußfolgerungen zu kommen, hatte sich Rushton schließlich sehr auf Studien verlassen, die von einer Vielzahl von verschiedenen Wissenschaftlern durchgeführt worden waren. Einige dieser Studien waren möglicherweise nicht verläßlich, aber wenn man alle zusammennahm: Voilá! - plötzlich waren die Rassenunterschiede da. Ohne es vielleicht zu merken, ließen sich die Kritiker, die vor allem die statistischen Methoden angriffen, auf eine sehr haarige Sache ein. Mit jeder geäußerten Kritik zog Rushton sie tiefer hinein. Es spricht nichts gegen die Verwendung von Ergebnissen von großen Studien. Nicht nur, daß viele von ihnen ziemlich genau waren, bei der Verwendung des Durchschnitts aus großen Studien werden zudem Ungenauigkeiten ausgeglichen. Auch Statistiken aus zweiter Hand sind in der Psychologie nicht unbekannt, noch sind es Durchschnittswerte. Die von Rushton angewandten statistischen Methoden folgten nur den eingeführten Verfahren psychologischer Forschung. Dieselben Verfahren wären von jeder psychologischen Fachzeitschrift als mustergültig akzeptiert worden, wenn sie auf ein weniger kontroverses Thema angewandt worden wären. Wenn die Debatte in diese Richtung weiterverlaufen wäre, dann hätten die Kritiker zu der unbequemen Schlußfolgerung kommen müssen, daß, wenn Rushtons Arbeit schlecht war, die Methoden der psychologischen Forschung kaum besser sind. Das echte Problem lag auf einem grundlegenderen Niveau. Wackelige Grundlagen Rushtons Theorie von den Rassenunterschieden besteht aus zwei Hauptargumenten. Zunächst sind da die veröffent198
lichten Messungen der Körperteile, des IQ und der Verhaltensfaktoren, die Rushton seiner statistischen Analyse unterzog, um Durchschnittswerte sowie verschiedene Korrelationen zu ermitteln. Dann gibt es drei Theorien, die von anderen entwickelt wurden und die den interpretativen Rahmen dieser Analyse bilden: • Die Theorie des Intelligenzquotienten oder IQ, die aus seinem eigenen psychologischen Fachgebiet kommt. • Die r/K-Theorie aus dem Fachgebiet der Ökologie. • Die Theorie vom «afrikanischen Ursprung» aus der Paläoanthropologie. Das folgende Diagramm zeigt die Struktur von Rushtons gesamter Theorie über die Unterschiedlichkeit der Rassen.
Die Theorie von Rushton. Er verwendet die erste Theorie, um seine Daten zum IQ zu interpretieren. Wenn «Intelligenz» überhaupt ins Spiel kommt, gilt schließlich die Reihenfolge: Mongolide → Kaukasier → Negroide In der Abbildung ist jede Komponente der Theorie durch einen Steinblock symbolisiert. Obwohl es sich ohne Zweifel 199
um eine starke Vereinfachung handelt, stellt das Diagramm die Aspekte von Rushtons Theorie dar, die in diesem Kapitel behandelt werden. Ich habe am rechten Rand einen kleinen Block eingefügt, der die Aufschrift «Bedeutung» trägt, eine Frage, die ich zuletzt behandeln werde, wenn ich die Relevanz der Glockenkurve diskutieren werde. Die r/K-Theorie aus der Ökologie behauptet, daß die Fortpflanzungskapazität von Tieren umgekehrt proportional ist zu der Zeitdauer, die damit verbracht wird, die Jungen aufzuziehen. Rushton interpretiert sowohl den «Mangel an sozialer Kontrolle» (wie er ihn gemessen hat) als auch die Penisgröße als Indikatoren einer hohen Fortpflanzungskapazität. Im Falle der Fortpflanzungskapazität gilt die Reihenfolge: Negroide → Kaukasier → Mongolide Die Ausdrücke Negroide, Kaukasier und Mongolide werden in der anthropologischen Literatur routinemäßig verwendet. Sie beziehen sich auf Rassen, die allgemein als Schwarze, Weiße und Asiaten bekannt sind. Was immer Sie von diesen wissenschaftlichen Ausdrücken halten mögen, wenigstens sind sie dauerhaft (wie wissenschaftliche Ausdrükke sein müssen, um sinnvoll verwendet werden zu können) und werden nicht alle paar Jahre revidiert, wie das mit den allgemeinen Ausdrücken üblich zu sein scheint. Die Theorie von zwei britischen Anthropologen vertritt die Meinung, daß die menschlichen Rassen direkt oder indirekt in Afrika in drei Ausbreitungswellen entstanden sind. Als erste entwickelten sich die Negroiden; sie blieben in Afrika. Als nächstes entwickelten sich die Kaukasier; diese verließen Afrika jedoch und wanderten ins westliche Asien aus. Die Mongoliden waren die letzten, die sich entwickelten. Sie kolonisierten das östliche Asien und wurden dabei zu dem, was sie sind. Jede neu entwickelte Rasse war höher evolviert als die vorangegangene. Diese Theorie unterstützt Rushtons Schlußfolgerung, daß es im Falle des 200
Schädelvolumens (von Intelligenz ganz zu schweigen) folgende Reihenfolge gab: Mongolide → Kaukasier → Negroide Wie sich bei näherem Hinsehen herausstellt, haben alle drei Theorien, insbesondere die IQ-Theorie, sehr schwerwiegende Fehler.
Der Intelligenzquotient Wie das Kapitel 2 deutlich gemacht hat, handelt es sich bei der Theorie des Intelligenzquotienten nicht um Wissenschaft. Jede Schlußfolgerung, die auf ihr basiert, wie zum Beispiel Schwarze sind «schlauer» als Weiße ... oder Weiße sind «schlauer» als Schwarze, hat damit automatisch keine wissenschaftliche Grundlage. Während des ganzen 20. Jahrhunderts hat die Idee des IQ als einer inneren Qualität, sogar einer erblichen Qualität, unsere Kultur durchdrungen. In ihrer wechselhaften Geschichte wurden IQ-Tests nicht nur von Pädagogen angewendet, die intellektuelle Fähigkeiten feststellen wollten, sondern die Theorie wurde auch zur Etablierung von Rassenunterschieden eingesetzt. Der in dieser Hinsicht eifrigste Vorläufer von Rushton war Arthur H. Jensen, ein Professor für Pädagogische Psychologie von der Berkeley-Universität von Kalifornien. In seinem berüchtigten Artikel von 1968 in der Harvard Educational Review behauptete Jensen, daß die Unterschiede in den IQ-Testergebnissen zwischen Schwarzen und Weißen in den Vereinigten Staaten zum größten Teil auf genetisch bedingten Unterschieden der Intelligenz beruhten. Der Artikel hatte den harmlosen Titel «In welchem Maße können wir den IQ und den schulischen Erfolg steigern?». Im Gegensatz hierzu war die öffentliche Reaktion, angefacht durch einen Bericht über Jensens Arbeit in der New York Times, alles andere als harmlos. Einmal mußte sich Jensen 201
einem Studentenpublikum stellen, das ihn mit Hohn bedachte, genau so wie es Rushton zwanzig Jahre später widerfuhr. Jensens Artikel wurde so aufgefaßt, daß er das Scheitern von schulischen Unterstützungsprogrammen für Schwarze vor allem den Schwarzen selbst anlastete. Es waren insbesondere die schwarzen Gene und nicht die pädagogische Psychologie, die für das Versagen der Programme verantwortlich waren. Der Sturm der Kontroversen, die durch Jensens Behauptungen ausgelöst wurden, dauerte bis weit in die 70er Jahre hinein an. Unter all den Kritiken an Jensens Theorie stand die von Richard C. Lewontin, einem sehr bekannten Genetiker, fast allein: Das Problem war Lewontin zufolge der IQ selbst. Bei der neueren Debatte über Rushtons Ansichten tauchte der Gedanke, daß die Theorie des IQ möglicherweise fehlerhaft sei, im Medienrummel von 1989 gar nicht auf. Im Februar dieses Jahres zum Beispiel organisierte ein Zusammenschluß von Campus-Gruppen an Rushtons Heimatinstitution, der Universität von Western Ontario in London, Kanada, eine Debatte zwischen Rushton und dem Genetiker und Wissenschaftsjournalisten David Suzuki. Während die Zuhörerschaft johlte und Sprechchöre intonierte, zog Rushton ein Maßband aus der Tasche und legte es sich an den Kopf. Er klang wehleidig, als er vorschlug, alles, was die Zuhörer tun müßten, um die Richtigkeit seiner Theorie bestätigt zu finden, wäre, herumzugehen und den Kopfumfang der Leute zu messen. Suzuki gab seinem Ärger darüber Ausdruck, daß diese Art von Forschung an der Universität von Western Ontario stillschweigend geduldet wurde. Er attackierte die Universität, weil sie offenbar nicht in der Lage war, jemanden aufzubieten, der Rushtons Ansichten auf einer wissenschaftlichen Ebene diskutieren konnte. Indem er jedoch Rushtons Ideen als «rassistisch» bezeichnete, ging er dem sanften Professor in die Falle. Rushton wies höflich darauf hin, daß Suzuki im Lauf der Debatte nicht sehr viel mehr zustande gebracht hatte, als seine «moralische Entrüstung» 202
zu demonstrieren, und daß er die vielen Messungen, die Rushtons Schlüsse unterstützten, ignoriert habe. «Das ist kein wissenschaftliches Argument», sagte Rushton, und er hatte recht. Neben der Tatsache, daß es für IQ-Tests keine wissenschaftliche Begründung gibt, muß man zugeben, daß IQTests von Weißen entwickelt wurden und nicht umhin können, auf sehr subtile Weise die weißen Kinder oder Erwachsenen, die sich solch einem Test unterziehen, zu bevorzugen. Man muß nur eine ganz geringe Bevorzugung von Weißen annehmen, um die kleinen Unterschiede zwischen den Testergebnissen von Weißen und Schwarzen erklären zu können. Tatsächlich wurden inzwischen «schwarze IQTests» entwickelt, bei denen die Schwarzen normalerweise die Weißen überflügeln. Damit ist genug dazu gesagt.
Die Theorie von Rushton.
Die Theorie von r und K Von den Verhaltenscharakteristiken in Rushtons Rassentheorie waren die miteinander verknüpften Eigenschaften von sozialer Kontrolle, sexueller Kontrolle und einer ausgedehnten Erziehung des Nachwuchses mit den damit verbundenen kleineren Größen des «Wurfes» die wichtigsten. 203
In derselben Art und Weise, wie er die Theorie vom «Ursprung in Afrika» verwendete, um seine Behauptung zu stützen, daß die Gehirngröße und der IQ genetisch festgelegte Eigenschaften seien, die von mehr oder weniger evolvierten Vorfahren stammen, benutzte er die Theorie der rund K-Selektion, um seine Ansicht zu untermauern, daß höher evolvierte Rassen dazu tendieren, ein höheres Maß an sozialer Kontrolle, sexueller Kontrolle und mehr Sorge und Pflege ihres Nachwuchses zu zeigen. Die Theorie der r und K- Selektion wurde zuerst in der Ökologie entwickelt, später fand sie aber Eingang in die Anthropologie, weil sie auf einem sehr groben Niveau die Unterschiede zwischen einigen Tierarten erklären konnte. Tiere wie Mücken oder Frösche produzieren eine enorme Menge an Nachkommen, verbringen aber sehr wenig Zeit damit, sie großzuziehen. Andere Tiere wie Pferde oder Affen haben nur sehr wenige Nachkommen, häufig sogar nur einen, investieren aber sehr viel Zeit, diesen aufzuziehen und ihn auf das neue Leben vorzubereiten und zu trainieren. In beiden Fällen steht das gleiche auf dem Spiel: das Überleben der Art. Der Buchstabe r bezieht sich auf die rein reproduktive Strategie, so viele Nachkommen wie irgend möglich zu erzeugen, in der Hoffnung, daß einige davon, möglicherweise durch puren Zufall, überleben. Der Buchstabe K steht für die entgegengesetzte Qualität, wo ein Elternteil oder die Eltern nur eine sehr kleine Anzahl von Nachkommen in die Welt setzen, um sie besser bis zum Erwachsenenleben aufzuziehen. Welche Strategie ist besser? Offensichtlich keine der beiden. Jedes Tier erfreut sich der speziellen, eigenen Mischung von r und K, einer Mischung, die wahrscheinlich für die eigene Art optimal ist. Da die r-Strategie von so vielen «niederen» Tieren verwendet wird und die K-Strategie von so vielen «höheren», ist die Versuchung groß zu glauben, daß sich die Evolution in Richtung zu den K-Strategien bewegt. Es ist ganz besonders verführerisch anzunehmen, daß die Menschen, die den höchsten K-Wert von allen 204
haben, selbst mehr oder weniger hoch entwickelt sind, je nachdem, mit wieviel Hege und Pflege sie ihre geringe Nachkommenschaft überhäufen. Die Theorie von r und K hat ihren Ursprung in den Arbeiten von R. H. MacArthur und Edward O. Wilson, die sie in ihrem klassischen Artikel 1967 über Biogeographie veröffentlichten, um eine allgemein bekannte Freilandbeobachtung zu erklären, daß nämlich die Reproduktionsrate von Tieren mit zunehmendem Breitengrad ansteigt. MacArthur und Wilson entwarfen die Hypothese, daß in den höheren Breitengraden die zunehmende Wahrscheinlichkeit von katastrophalen Wettereinbrüchen die Populationen stark dezimieren kann, ohne daß dabei die genetische Ausstattung eine größere Rolle spielt. Um sich von solchen Katastrophen rasch zu erholen, müßte eine nördliche Population eine hohe Reproduktionsrate wählen, selbst wenn dies auf Kosten von anderen Überlebensstrategien wie zum Beispiel Hege und Pflege der Nachkommen ginge. Mit anderen Worten, ein hoher Wert für r würde eine angestiegene Fruchtbarkeit, erhöhte Wurfgrößen, frühere sexuelle Reife und so weiter bedeuten. Solche Eigenschaften würde man, nach MacArthur und Wilson, r-selektiert nennen. In einem freundlicheren und milderen Klima, wo das Wetter weniger heftig variiert, bleiben die Populationen näher an der Grenze für K, die durch die verfügbaren Ressourcen bedingt werden. In solchen Regionen würden solche Eigenschaften verstärkt, die die Fähigkeit der Individuen, diese Ressourcen effektiv zu nutzen oder erfolgreicher um sie zu kämpfen, erhöhen. Solche Eigenschaften würde man K-selektiert nennen. Obwohl «r- und K-Selektion einen wichtigen Platz im augenblicklichen Denken über entwicklungsgeschichtliche Muster einnehmen», bemerkt der Ökologe Robert E. Ricklefs von der Universität von Pennsylvania, «konnte eine direkte Beziehung zwischen der Populationswachstumsrate oder den Populationsfluktuationen und entwicklungsgeschichtlichen Charakteristika nicht etabliert werden.» Spä205
testens jetzt hat der aufmerksame Leser bemerkt, daß MacArthur und Wilson die hohen K-Werte den nördlichen Populationen zuschrieben, nicht den äquatorialen, genau das Gegenteil von dem, was Rushton annahm! Obwohl Ökologen keine Zeit damit verbringen, sich über menschliche r und K-Werte Gedanken zu machen, haben einige Anthropologen die Theorie zumindest schon einmal näher betrachtet. Aber sogar die verstehen, daß sie sich nur auf solche Fälle anwenden läßt, bei denen erhebliche Unterschiede zwischen den Organismen bestehen (wie bei Pferden und Fröschen), und nicht auf heutige menschliche Gruppen. Bestenfalls kann man spekulieren, daß die sehr frühen Hominiden mehr Nachkommen hatten und weniger Zeit damit zubrachten, sie aufzuziehen, als die modernen Menschen, aber das würde schon bedeuten, daß man die Tragfähigkeit einer Theorie stark beansprucht, die sowieso nur wenig Unterstützung in diesem Gebiet gefunden hat.
Die Theorie von Rushton
Jenseits von Afrika Rushtons Theorie betrifft verschiedene menschliche Charakteristika wie Schädelkapazität, gemessener 10, Aufzuchtverhalten, sexuelle Kontrolle, risikofreudiges Verhal206
ten, Größe der Genitalien und ungefähr fünfzig andere Qualitäten, alles zusammengerechnet. Seine wichtigsten Veröffentlichungen betonen die Bedeutung dieser Kennzeichen. Nachdem man eine Liste mit all diesen Charakteristika sowie die Art und Weise, wie Rushton behauptet, daß sie sich in den drei Rassen ausprägen, gesehen hat, werden sich Leser, die sich an Darwin erinnern, fragen: Hat all dies etwas mit Evolution zu tun? Nach Rushtons Meinung hat all dies sehr viel mit Evolution zu tun, insbesondere mit der neueren Evolution des Menschen. Rushton, von dem ich annehme, daß er lieber ein Anthropologe als ein Psychologe sein möchte, hat in jüngster Zeit den Rassentheorien von Galton und Jensen ein neues Detail hinzugefügt. Rushton zufolge gibt es einen Grund, daß Schwarze, Weiße und Asiaten all diese genetischen Unterschiede aufweisen. Und hier beginnt die Geschichte von Stringer und Andrews. Im Jahre 1988 veröffentlichten die beiden britischen Paläontologen vom Britischen Museum in London einen sehr einflußreichen Forschungsartikel in der renommierten Wissenschaftszeitschrift Science. In dieser Forschungsarbeit, die auf neueren Untersuchungen der DNA von Affen und Menschen verschiedener Rassen beruhte, ermittelten sie, daß zwischen 140.000 und 290.000 Jahren vor unserer Zeitrechnung die modernen Menschen wahrscheinlich in einem einzelnen Artbildungsprozeß entstanden sind. Ihr Auftauchen hat möglicherweise früher entstandene Menschentypen wie den Neandertaler und entwickelte Formen des Homo erectus verdrängt. Die neuen Menschen breiteten sich, nach Stringer und Andrews, nach und nach über Afrika hinaus aus, wo sich vor ungefähr 110.000 Jahren die kaukasoide Linie von der afrikanischen trennte. Dieser Aufteilung folgte 40.000 Jahre später die Trennung der Mongoliden vom kaukasoiden Menschenschlag, möglicherweise verursacht durch die geographische Isolierung nach der Besiedlung des fernen Ostens. 207
Was immer diese Auftrennung bedeutete, Stringer und Andrews hatten jedenfalls das Gefühl, sie würden die Entstehung der drei Rassen repräsentierten: der in Afrika zentrierten negroiden Rasse, der europäisch-westasiatischen kaukasoiden Rasse und der in Ostasien vorherrschenden mongoliden Rasse. Rushton behandelte die Theorie wie das letzte Stückchen in einem Puzzle, eines, das seine anderen Befunde in ein befriedigendes evolutionäres Szenario einbettete. Die drei Ausbreitungswellen fielen sehr schön mit seiner Aufteilung der Rassen nach Schädelkapazität, IQ, sexueller Kontrolle und dem ganzen Rest zusammen. Um zu ihrer «Ursprung in Afrika»-Theorie zu kommen, hatten Stringer und Andrews, ausgehend von den heutigen Populationen, Blutproteine und die mitochondriale DNA verglichen. Die Strategie, die Vergangenheit durch die Untersuchung rezenter Populationen zu erhellen, ist die gleiche wie in Rushtons Ansatz. Aber die Theorie von Stringer und Andrews, wenn sie denn so stimmt, zeigt nur, daß die heute vorhandenen drei Rassen unterschiedlich viel genetisches Material einer ursprünglich afrikanischen Menschengruppe geerbt haben. Sie sagt nichts darüber aus, was die Rassen unterscheidet oder unterschieden hat. Einerseits verbieten es ihre Schlußfolgerungen nicht, von ziemlich verschiedenen ursprünglichen «Rassen» auszugehen, und andererseits schließen sie die Möglichkeit nicht explizit aus, daß die drei Rassen noch immer so sind, wie sie bei ihrer Entstehung waren. Die «Ursprung in Afrika »-Theorie der neueren menschlichen Evolution mußte sich in der anthropologischen Literatur mit einer Gegentheorie, die Multiregionales Modell genannt wird, messen. Nach dieser Theorie entstand der moderne Homo sapiens mehr oder weniger überall aus einer Vorgängerpopulation eines früheren Menschentyps, der Homo erectus genannt wird. Indem Rushton die «Ursprung in Afrika»-Theorie als Unterstützung verwendete, machte er eine Reihe von Annahmen: Erstens nahm er an, daß ein größeres Schädelvo208
lumen einen evolutionären Vorteil darstellt; zweitens, daß Eigenschaften wie Schädelvolumen, die dazu verwendet wurden, die menschliche Evolution über Millionen von Jahren zu messen, sich auch auf eine Zeitspanne von einigen zehntausend Jahren anwenden lassen. Zur Unterstützung seiner Annahmen vermutete er drittens, daß ziemlich kleine Änderungen (oder Unterschiede) im Schädelvolumen in Hinsicht auf die Schlußfolgerungen die gleiche Bedeutung haben wie viel größere Unterschiede.
Die Theorie von Rushton. Wie wir noch sehen werden, haben so kleine Änderungen überhaupt keine Bedeutung.
Welche Größe hat Ihr Gehirn? Rushton war keinesfalls der erste, der Gehirngrößen und IQ von verschiedenen Rassen untersuchte. Im Gegenteil, er ist sogar der letzte in einer Reihe von Forschern, die bis zum Ende des 19. Jahrhunderts zurückreicht. Mit dem Aufkommen des Darwinismus versuchten übereifrige Verfechter dieser Theorie, eine Bestätigung für die Existenz des Kampfes um bessere Eignung und optimale Anpassung unter den menschlichen Rassen zu finden. Sie 209
interpretierten die Theorie mit einer erstaunlichen Naivität, indem sie ihre technische Zivilisation als den Höhepunkt menschlicher Entwicklung betrachteten und andere, weniger «fortgeschrittene» Völker als primitiv einstuften. Frühe Enthusiasten der Rassenunterschiede starteten eine Meßkampagne, die offenbar darauf abzielte, die Überlegenheit der Europäer über Afrikaner, Ureinwohner und all jene Menschen zu beweisen, die sich eines traditionelleren Lebensstils erfreuten. Diese Denkrichtung brachte nicht nur die Phrenologie hervor, sondern löste auch eine Meßorgie aus, die die physischen und mentalen Charakteristika der menschlichen Rassen erfassen sollte. Sie maßen alles, was gemessen werden konnte, von der Länge jedes Fußwurzelknochens der Zehen bis zu Breite, Tiefe und Umfang des Schädels. Im Rahmen dieses Prozesses gründeten sie ein Vorgehen, das sie Anthropometrie nannten. Dies ist eine größtenteils handwerkliche Fähigkeit, die heutzutage für verschiedene berechtigte Zwecke eingesetzt wird, wie zum Beispiel zum Studium des menschlichen Wachstums oder zur Herstellung von Kleidern und in ergonomischen Studien. Unter den ersten Anthropometrikern war der Statistiker Sir Francis Galton sehr berühmt, ein herausragender Wissenschaftler und Cousin von Charles Darwin. Im Jahre 1883 prägte Galton den Begriff «Eugenik». Er war der strikten Überzeugung, daß Intelligenz erblich sei und daß Großbritannien jede Anstrengung unternehmen solle, um Genies hervorzubringen. «Schwächere Arten» wurden in Galtons intellektuellem Paarungsspiel kurz abgefertigt. Obwohl er nie definierte, was er mit Intelligenz meinte, fühlte Galton sich verhältnismäßig sicher, daß sie in größtem Umfang in den bekannten Wissenschaftlern und Künstlern seiner Zeit zu finden sei. Deshalb untersuchte er Familien, in denen wissenschaftliche oder künstlerische Brillanz häufiger vorzukommen schien. Es kann keinen Zweifel daran geben, daß die Größe des Gehirns gewisse Auswirkungen auf seine gesamte Funkti210
onsfähigkeit hat. Die meisten Neurophysiologen würden zum Beispiel von einem menschlichen Wesen mit dem Gehirn eines Regenwurms nicht allzuviel erwarten. Trotzdem gab es Menschen, die viel erreicht hatten, deren Gehirn aber erheblich kleiner war als das des modernen Durchschnitts. Das durchschnittliche europäische Gehirn wiegt, nach Gould, zwischen 1.300 und 1.400 Gramm. Doch Walt Whitman, der berühmte amerikanische Dichter, hatte ein Gehirn, das nur 1.282 Gramm wog, und der französische Schriftsteller Anatole France hatte ein Gehirn, das nur 1.017 Gramm auf die Waage brachte - das liegt gerade mal im Bereich von Homo erectus, unserem menschlichen Vorfahren! Man könnte sogar noch weiter gehen und das alte Sprichwort etwas herumdrehen: Ein halber Laib ist besser als ein ganzer. Betrachten Sie den folgenden Fall, der allen, die das menschliche Gehirn erforschen, gut bekannt ist. Im Jahre 1935 klagte die weibliche Patientin E. B. über heftige Kopfschmerzen. Die Ärzte entdeckten, das ihre Stirnlappen stark verkalkt waren. Eine Reihe von drei Operationen resultierte in einer fast vollständigen Entfernung der rechten Hälfte des Gehirns von E. B. Nichtsdestotrotz kam es bei E. B. nicht nur zu einer fast vollständigen Erholung, sondern sie erreichte über 150 beim Stanford-Binet-Test (nach der Operation), und sie setzte ihr Medizinstudium erfolgreich fort. Bei einer derartigen Plastizität von Intelligenz scheint es sehr unwahrscheinlich, daß so kleine Unterschiede im Schädelvolumen einen systematischen Vorteil darstellen sollen. Die berühmten Neandertaler hatten ein Schädelvolumen, das dem des modernen europäischen Menschen ebenbürtig war, und doch gibt es sie nicht mehr. Die (angeblich) kleinhirnigeren Afrikaner aber sind alles andere als im Schwinden begriffen.
211
Die Kurve krümmt sich für dich Beinahe alle Messungen an Menschen, ob es sich um Körperteile, Leistung oder Verhalten handelt, zeigen die klassische Form einer Normalverteilung, die auch als Glokkenkurve bekannt ist. Doch die Glockenkurve ist in keiner Weise auf das Messen menschlicher Größen beschränkt, sondern man findet sie überall in der Natur. Überraschenderweise kann die Mathematik selbst einen Hinweis darauf geben, warum das so ist. Das Gesetz der großen Zahl, ein statistisches Theorem, besagt, daß jede Messung mit vielen dazu beitragenden Faktoren, von denen jeder seine eigene statistische Verteilung besitzt, dazu tendieren wird, sich einer Normalverteilung anzunähern, vollständig unabhängig davon, wie die dazu beitragenden Verteilungen auch sein mögen. Das Wachstum von Körpern und Körperteilen, das ein Resultat vieler Einflüsse und Faktoren ist, wird deshalb dazu neigen, die Summe der Einflüsse in all ihrer Verschiedenheit als Normalverteilung auszudrücken.
Die Glockenkurve. Die berühmte Glockenkurve von Normalverteilungen beschreibt eine Zahlengruppe, in der relativ viele Einzelwerte sich um einen Mittelwert gruppieren und relativ 212
wenige weit vom Mittelwert entfernt liegen. Vom Mittelwert im Zentrum der Verteilung bis zu den «Schwänzen» links und rechts geht die Anzahl der Werte langsam auf Null zurück. Wie das Wort «Verteilung» nahelegt, gibt die Höhe der Kurve über irgendeinem kleinen Segment der horizontalen Achse an, wie viele Einzelmessungen sich innerhalb dieses Segmentes befinden. Um den Anteil solcher Individuen zu ermitteln, muß man einfach die Breite eines solchen Segments mit der Höhe der Kurve über ihm multiplizieren. Ein kleines Segment im Zentrum der Kurve enthält mehr einzelne Werte als ein gleich großes Segment, das sich am linken oder rechten Ende der Kurve befindet. In der Praxis führt eine große Anzahl von Einzelmessungen, sei es der Gehirngröße oder irgendeiner anderen meßbaren Größe, nicht zu einer glatten Kurve, wie sie in der Abbildung gezeigt wurde, sondern zu der abgehackten Form eines Histogramms. Doch der Gedanke dahinter ist sehr ähnlich, weil innerhalb jedes kleinen Wertebereiches, der am Fuße des Histogramms erscheint, die einzelnen Beobachtungen gewissermaßen aufgestapelt sind, vergleichbar einem Stapel von soundso vielen Münzen. Das Histogramm in der Abbildung auf der nächsten Seite zeigt zum Beispiel die Verteilung der Körpergröße einer sehr großen Stichprobe von deutschen Männern. Auf der horizontalen Achse variiert der Wert für die Körpergröße von 150 bis 200 cm. Jeder der 50 Unterbereiche umfaßt einen Zentimeter Körpergröße, und die dazugehörige vertikale Achse repräsentiert den Anteil der Männer, deren Körpergröße innerhalb dieses Zentimeters liegt. Wenn Sie zum Beispiel den Balken, dessen Zentrum 161 cm beträgt, anschauen (genau rechts von dem mit 160 bezeichneten), dann können Sie die Prozentzahl der deutschen Männer in dieser Stichprobe, deren Körpergröße mit 161-161,9 cm bestimmt wurde, ermitteln, es sind circa ein Prozent. Mit anderen Worten, ungefähr bei einem Prozent der gemessenen Männer lag die Körpergröße in diesem Bereich. 213
Die Form des Histogramms in der Abbildung entspricht nur ungefähr einer Normalverteilung. Das ist ein Merkmal, das allen Messungen normalverteilter Populationen gemein ist. Sie können von einem Histogramm, das auf wirklich gemessenen Werten beruht, nicht erwarten, daß es einer zugrundeliegenden theoretischen Verteilung auf perfekte Weise folgt. Genausowenig können Sie erwarten, daß Sie bei 100 Münzwürfen 50mal Zahl und 50mal Kopf erhalten werden, wie es der zugrundeliegenden Wahrscheinlichkeitsverteilung entspricht. Wenn Wissenschaftler zwei Populationen (Grundgesamtheiten) vergleichen, dann müssen sie zunächst Stichproben von Ersatzgrößen für die beiden Populationen (Grundgesamtheiten) ermitteln und Meßwerte für beide Populationen (Grundgesamtheiten) sammeln, bevor sie statistische Tests anwenden, um das Maß der Überlappung der beiden zu bestimmen. Bei der nächsten Abbildung habe ich zwei Normalverteilungskurven verwendet, um diese Überlappung zu demon-
Die Verteilung der Körpergröße bei deutschen Männern (aus: Stephen Jay Gould: Der falsch vermessene Mensch). 214
strieren. Diese beiden Kurven repräsentieren zwei Populationen von Schädelvolumen, die linke die Verteilung der Schädelvolumen von Schwarzen und die rechte jene der Weißen. Diese Kurven stammen nicht von Rushton, sondern stellen meine eigene Rekonstruktion der gesamten schwarzen und weißen Bevölkerung der Vereinigten Staaten von Amerika dar. Das sind zusammengenommen so viele Menschen, daß die Histogramme bei dieser Auflösung nicht von durchgezogenen Kurven unterscheidbar sind. Ich habe die Glockenkurve als eine gute Annäherung an die realen Populationen verwendet.
Schädelvolumen bei Schwarzen und Weißen.
Alle Stichproben, die Rushton verwendete, sind der anthropometrischen Literatur entnommen, einschließlich der Stichprobe, die ich diesen Kurven zugrunde legte. Im Jahre 1988 gab die US-Armee eine Untersuchung der Kopfgrößen ihrer Angestellten in Auftrag. Vermutlich wollte sie in Erfahrung bringen, welche Helm-, Mützen- und Hutgrößen sie bestellen muß. Mit Hilfe einer Formel, die im Jahre 1901 entwickelt worden war, wandelte Rushton die Kopfmessungen dieser Armeestudie (Länge, Höhe, Breite des Schädels) in Schädelvolumen um. Dann führte er sehr ausführliche statistische Tests aufgrund dieser Zahlen durch. Unter den 215
«signifikanten» Unterschieden, die er entdeckte, waren die Mittelwerte der Schädelvolurnen von 1.378 Kubikzentimetern für die 2.871 vermessenen Kaukasier und 1.362 Kubikzentimetern für die 2.676 Negroiden. Ich habe diese Durchschnittswerte für die Abbildung verwendet. Der Unterschied bei diesen Mittelwerten von nur 16 Kubikzentimetern ist in der Abbildung durch die winzige Verschiebung der beiden Normalverteilungen gegeneinander dargestellt. Lassen Sie uns einen Moment lang annehmen, die beiden Kurven würden in der Tat die Schädelkapazitäten von Kaukasiern und Negroiden angeben. Eine genaue Überprüfung der beiden Verteilungen der Schädelvolumen erlaubt es uns, einige interessante Schlüsse nicht über die Unterschiedlichkeit, sondern über die Ähnlichkeit der schwarzen und weißen Populationen zu ziehen. Die enorme Überlappung sorgt dafür, daß die Schädelvolumen in rund 95% von beiden Populationen genau die gleichen sind. Für jeden einzelnen in der einen Stichprobe kann man in der anderen Stichprobe ein Individuum mit dem identischen Schädelvolumen finden. Da die Stichprobengrößen fast gleich sind, könnte man für jede Person in der einen Stichprobe einen «Schädelvolumenspartner» in der anderen finden. Da die beiden Verteilungen sich nicht genau überlappen, müßte es etwas wie eine Verdopplung an beiden Seiten der Verteilung geben. Zum Beispiel müßte auf der niedrigeren Seite ein kleiner Prozentsatz von Weißen zwei statt einem «Schädelvolumenspartner» akzeptieren. Das gleiche würde für Schwarze auf der hohen Seite gelten. Diese einfache Eigenschaft von Verteilungen verdeutlicht, was es mit den Unterschieden «innerhalb von Gruppen» und «zwischen Gruppen» in Verbindung mit der durch Rushtons Arbeiten aufgeworfenen Kontroverse um die Gehirngröße auf sich hat. Insbesondere zeigt es sich, daß die Unterschiede innerhalb einer Gruppe die Verschiedenheit zwischen Gruppen einfach wegfegt. Schon aus diesem einen Grund wäre jede politische Entscheidung, die auf solch 216
stark überlappenden Verteilungen basiert, von vornherein unfair. Wenn zum Beispiel beschlossen würde, daß jede schwarze Person mit einem Schädelvolumen von weniger als soundso vielen Kubikzentimetern eine spezielle Behandlung erhalten (oder nicht erhalten) soll, dann müßte genau dieselbe Behandlung den vielen Weißen mit dem gleichen Schädelvolumen zuteil werden (oder eben nicht).
Die Theorie von Rushton.
Die Reinigung der Burg J. Phillipe Rushton war nicht der erste, der eine Theorie vom Unterschied der Rassen entwickelt hat, und er wird nicht der letzte sein. Die Veröffentlichung des Buches The Bell Curve: Intelligence and Class Structure in American Life (Die Glockenkurve: Intelligenz und Klassenstruktur in der amerikanischen Gesellschaft) durch den Psychologen Richard Hernstein und den Sozialwissenschaftler Charles Murray im Jahre 1994 hat die alten Fragen wieder aufgeworfen, doch nun mit den gleichen vorhersehbaren Ergebnissen. Das Buch wiederholt viele der Studien, die von Jensen und Rushton durchgeführt wurden, und kommt in vielen Fällen zu den gleichen Schlußfolgerungen. Auch erschienen in den Medien dieselben oberflächlichen und nebensächlichen 217
Analysen. Wie ein rasches Durchsehen des Buches The Bell Curve deutlich macht, sind die Lehrlinge mal wieder dabei, Seiten um Seiten magischer Formeln zu beschwören, in der Hoffnung, daß die Wahrheit persönlich erscheint. Es ist wirklich an der Zeit, daß die Psychologie ein paar neue Besen findet, um ihre eigene Ecke in dem alten Schloß endlich rein zu fegen.
218
Danksagung
Ein fähiger Forschungsassistent verleiht einer echten Tastatur Flügel. Ich danke Anna-Lee Pittman für ihre Unterstützung bei der Recherche über die Biosphäre 2, die kalte Fusion, über Freud, Psychiatrie und IQ. Ich danke Patricia Dewdney für die vielen hilfreichen Diskussionen über Referenzstrategien. Ich danke Victor Dricks von der Phoenix Gazette, Marc Cooper von der Village Voice, Frieda B. Taub von der Universität von Washington in Seattle und Abdelhaq Harnza von der Universität von New Brunswick für ihre Untersuchungen von wissenschaftlichen und menschlichen Fragestellungen.
219
Literatur
Die folgenden Bücher und Veröffentlichungen geben gute Hintergrundinformationen für jedes der in diesem Buch ausgeführten Beispiele unzulänglicher Wissenschaft. Die Referenzenen geben, zumindest bei den Fällen, die strittig bleiben, sowohl Argumente, die belegen, das es sich um wissenschaftliche Fehlleistungen handelt, als auch solche, die für das Gegenteil sprechen. 1. Das Jahrhundert beginnt William Seabrook: Dr. Wood, Modern Wizard ofthe Laboratory. New York: Harcourt Brace, 1944. Ein Bericht über Woods Besuch in Blondlots Labor. Mary Jo Nye: N-rays: An Episode in the History and Psychology of Science. In: Historical Studies in the Physical Sciences, Vol. 11, Number l, 1980, pp. 125-156. The University of California, Berkeley. Vielleicht der ausführlichste Bericht, den es bisher über den Mißerfolg mit den N-Strahlen gibt. Irving Langmuir: Pathological Science. (Übers, und Hrsg. Robert N. Hall). In: Physics Today, October, 1989, pp. 36-44. Ein Übersichtsartikel über Langmuirs Gesetze der pathologischen Wissenschaft.
221
2. Geisterzahlen David Wechsler: The Range of Human Capacities. New York: Hafner Publishing, 1969. Wechsler verteidigt Intelligenz als eine dem Menschen angeborene Fähigkeit. Carl C. Liungman: What is IQ? Intelligence, Heredity, and Environment. London: Gordon Cremonesi Ltd., 1970. Unter anderem beschreibt dieses Buch alle wichtigen Tests. N. J. Block and Gerald Dworkin (Hrsg.): The IQ Controversy - Critical Readings. New York: Pantheon Books/Random House, 1976. Eine Sammlung von Berichten verschiedenster Autoren. Paul L. Houts (Hrsg.): The Myth of Measurability. New York: Hart Publishing, 1977. Die beste Sammlung kritischer Artikel zum IQ-Konzept. R.C. Lewontin, Steven Rose, Leon J. Kamin: Not In Our Genes: Biology, Ideology, and Human Nature. New York: Pantheon Books, 1984. Lewontin et. al. erklären die Gene sowie ihre Auswirkungen auf den menschlichen Körper und das Gehirn. Stephen Jay Gould: The Mismeasure of Man. New York: W.W. Norton & Company, 1993. (Übers. Der falsch vermessene Mensch. Frankfurt am Main: Suhrkamp Taschenbücher, 1988.) Ein detaillierter und engagierter Bericht über die Geschichte der Versuche, die geistigen Fähigkeiten des Menschen zu messen, von der Kraniometrie bis zum IQ.
222
3. Ertäumte Theorien Adolf Grünbaum: The Foundation of Psychoanalysis: A Philosophical Critique. Berkeley/Los Angeles: University of California Press, 1984. Ein Muß für all die, die sich über die dunklen Seiten der psychoanalytischen Theorie und ihrer Ursprünge gewundert haben. Susan Allport: Explorers of the Black Box. New York: W.W. Norton & Company, 1986. Ein Bericht über die Schwierigkeiten und Triumphe der Neurophysiologen, die versuchten, das einfachste Gehirn zu verstehen. Frank J. Sulloway: Reassessing Freud's Case Histories. In: ISIS, Vol. 82, Number 312, June 1991, pp. 245-275. Eine Zusammenfassung der Analysen der sechs veröffentlichten Fallbeispiele Freuds durch Sulloway. Frank J. Sulloway: Freud, Biologist of the Mind. Cambridge University Press, 1992. Geschrieben während Sulloways Auseinandersetzung mit Grünbaums Ansicht über Freud, ist dieses Buch gespickt mit faszinierenden Details über Freud und sein Werk. 4. Surfen im Kosmos Philip Morrison, John Billingham, John Wolfe (Hrsg.): The Search for Extraterrestrial Intelligence. Washington, D.C.: National Aeronautics and Space Administration, Ames Research Center, 1977. Ein gut geschriebener Artikel über die Spekulationen und technischen Details, die dem SETI-Projekt als Informationen dienten. 223
David W. Swift: SETI Pioneers. Tuscon: University of Arizona Press, 1990. Ein faszinierender Einblick in die persönlichen Motivationen vieler SETI-Pioniere. Ben Bova und Byron Preiss (Hrsg.): First Contact: The Search for Extraterrestrial Intelligence. New York: NAL Books/Penguin, 1990. Ein Buch voller Science-fiction und verrückter Ansichten. Emmanuel Davoust: Signale ohne Antwort? Die Suche nach außerirdischem Leben. Basel: Birkhäuser, 1993. Frank Drake und Dave Sobel: Is Anyone Out There? The Search for Extraterrestrial Intelligence. New York: Delacorte Press, 1992. Drakes herzerwärmender Bericht über seine Sehnsucht nach extraterrestrischen Freunden. Paul Horrowitz und Carl Sagan: Five Years of Project META: An All-Sky Narrow-Band Search for Extraterrestrial Signals. In: The Astrophysical Journal, Vol. 415, Sept. 1993, pp. 218-235. 5. Der Zauberlehrling bastelt ein Gehirn Frank Rosenblatt: Principles of Neurodynamics: Perceptions and the Theory of Brain Mechanisms. Washington, D.C.: Spartan Books, 1961. Rosenblatts Versuch, eine neue Wissenschaft oder zumindest eine neue Technologie zu definieren. Marvin Minsky und Seymour Papert: Perceptrons. Cambridge, Mass.: MIT Press, 1969. Das Buch, das beinahe der Erforschung neuronaler Netzwerke ein Ende machte. 224
David E. Rumelhart und James I. MacLelland (Hrsg.): Parallel Distributed Processing. Cambridge, Mass.: MIT Press, 1986. Eine weitschweifige Sammlung meist übereifriger Artikel über die Denkansätze zu neuronalen Netzwerken. Francis Crick: The Recent Excitement About Neural Networks. In: Nature, Vol. 337, 1989, pp. 129-132. Es scheint, daß Crick mit dieser Veröffentlichung Abstand nimmt von seinem früheren Enthusiasmus bezüglich neuronaler Netzwerke. 6. Der Geist in der Flasche Eugene F. Mallove: Fire From Ice: Searching for the Truth behind the Cold Fusion Furore. New York: John Wiley & Sons, 1991. Die beste Untersuchung der kalten Fusion von Seiten der Anhänger. John R. Huizenga: Cold Fusion: The Scientific Fiasco of the Century. Rochester, N.Y.: University of Rochester Press, 1992. Der beste Bericht mit «Hinter-den-Kulissen-Details» zur Geschichte der kalten Fusion, geschrieben von einem der wichtigsten Teilnehmer. Gary Taubes: Bad Science: The Short Life and Weird Times of Cold Fusion. New York: Random House, 1993. Ein Standardwerk über die unzulängliche Wissenschaft, die hinter der kalten Fusion steckte.
225
7. Die Biosphäre schlägt leck John Allen: Biosphere 2: The Human Experiment. New York: Viking Penguin, 1991. Diese Kaffeekränzchen-Erzählungen könnten Sie am Eröffnungstag im Biosphäre- 2- Geschenkshop gekauft haben. Johnny Dolphin: The Dream and Drink of Freedom. Bonsall, Calif.: Synergetic Press, 1987. In diesem Werk finden Sie das Gedicht «Lebensraum». Dorion Sagan und Lynn Margulis: Biospheres: From Earth to Space. Hillside, N.J.: Enslow Publishers, 1989. Eine weitsichtige Abhandlung über die Möglichkeiten menschlicher Weltraumkolonien, unter spezieller Berücksichtigung der Biosphäre 2. 8. Wem sich die Kurve krümmt Richard Leaky und Roger Lewin: Origins Reconsidered: In Search of What Makes Us Human. New York: Doubleday, 1992. Ein faszinierender Ausflug von zwei führenden Experten in die menschliche Frühgeschichte. Alan Bilsborough: Human Evolution. Tertiary Level Biology Series. London: Blackie Academic & Professional, 1992. Weitere Details für Liebhaber der frühen Hominiden. Stephen Jay Gould: The Mismeasure of Man. New York: W. W. Norton & Company, 1993. (Übers. Der falsch vermessene Mensch. Frankfurt am Main: Suhrkamp Taschenbücher, 1988.) Ein detaillierter und engagierter Bericht über die Geschichte der Versuche, die geistigen Fähigkeiten des Menschen zu messen, von der Kraniometrie bis zum IQ. 226
Richard J. Herrnstein und Charles A. Murray: The Bell Curves: Intelligence and Class Structure in American Life. New York: The Free Press, 1994. Dieser Klassiker der Fracht-Kult-Wissenschaft wird es auf schöne Art und Weise jedem Leser zurückzahlen, der von seitenlangen Formeln fasziniert ist. J. Phillipe Rushton: Race, Evolution, and Behavior: A Life History Perspective. New Brunswick, N. J.: Transaction Publishers, 1995. Rushtons Zusammenstellung der Rassenunterschiede, die er durch eine Vielzahl statistischer Analysen ermittelte.
227