Vom Urknall zum Durchknall
alexander unzicker
Vom Urknall zum Durchknall Die absurde Jagd nach der Weltformel
1C
...
226 downloads
1985 Views
4MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Vom Urknall zum Durchknall
alexander unzicker
Vom Urknall zum Durchknall Die absurde Jagd nach der Weltformel
1C
Dr. Alexander Unzicker www.vom-urknall-zum-durchknall.de
ISBN 978-3-642-04836-4 e-ISBN 978-3-642-04837-1 DOI 10.1007/978-3-642-04837-1 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 2010 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: eStudio Calamar S.L. Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Inhaltsverzeichnis
Vorwort vii
Entspannende, spannende und überspannte Physik
Teil I: Abkürzung 1
Ganz nett, Homo Sapiens, Aber … 3
2
Galilei würde ausflippen! 23
3
Die schnelle Verdauung 37
Grund zum Zweifeln: Warum etwas faul ist am State of the Art in der Physik Der Quantensprung der Messinstrumente: Warum wir in phantastischen Zeiten leben Warum die Kosmologie auf dem falschen Dampfer ist
Teil II: Kreuzung 4
Wurzelbehandlung 53
5
Bis heute ein Sphinx 71
6
Das Rätsel der kleinen Beschleunigungen 85
7
Verdunkelung 105
8
Präzision im Kaffeesatz 125
Gravitation, Einstein und Raumzeit: Um was es eigentlich geht Newtons Gravitationskonstante: Von England bis ins Universum Raumsonden und Galaxienränder: Ist im All alles da wo es sein sollte? Dunkle Materie, Dunkle Energie: Nur unsichtbar oder gar nicht da? Rauschen im Kosmos: Von der Faszination zur Überschätzung der Daten
vi inhaltsverzeichnis
Teil III: Sackgasse 9
Trübes Wasser 145
Die Kosmologie der dunklen Pixel in dunklen Zeiten. Oder: Wie man Großrechner beschäftigt
10 Aufstieg der Spekulationsblasen 159
Expansion, Inflation, Illusion. Oder: Gab es die erste Sekunde überhaupt?
11 Am Treffpunkt des Unwissens 171
Big Bang, schwarze Löcher und Quantengravitation. Oder: Ökologische Nischen für neue Theorien
12 Die ewige Verlobte 185
Das Standardmodell der Teilchenphysik. Oder: Wie die guten Sitten der Physik verdorben wurden
13 In anderen Dimensionen 207
Branen, Multiversen und andere Quantenschaumschlägereien. Oder: Des Physikers neue Kleider
14 Abschied von der Wissenschaft 225
Stringtheoretiker und andere Religionsanhänger. Oder: Von der Elite zur Sekte zur Mafia
Teil IV: Wendekreis 15 Klares Wasser 249
Rationalismus versus Zirkelschluss – wie Wissenschaft eigentlich funktionieren sollte
16 Fundamente und Anbauten 263
Komplizierung bis zum Einsturz – wie Theorien zu faulen Kompromissen werden
17 Falsch abgebogen 279
Rechner statt Denker – wie die Physik vor Jahrzehnten aus der Spur geriet
18 Die Erde ist eine Scheibe. Punkt. 297
Wir wissen ... nicht viel – was uns alles am Nachdenken hindert
19 Epilog: Sich aufregen? 319 Namensverzeichnis 323 Sachverzeichnis 327
Vorwort Entspannende, spannende und überspannte Physik
Es gibt nichts Entspannenderes als Physik. Mag der Alltag mit seiner vorgegaukelten Wichtigkeit uns noch so sehr anstrengen – die Vorstellung, wie klein alles Menschenwerk unter dem Sternenhimmel erscheint, und wie klein erst alle elementaren Bausteine sind, die unser Leben ermöglichen, dieser Gedanke ist eine Oase der Ruhe. Die Dimensionen von Raum und Zeit nötigen Respekt ab, der alle Aufregung glättet. Doch es gibt auch nichts Spannenderes als Physik. In der Mikrowelt verfügen wir schon über phantastische Beobachtungen, aber das Universum liegt heute in einem Detailreichtum vor uns, den noch keine Generation vor uns bewundern konnte, sollte es je überhaupt einer Zivilisation gelungen sein. Wir sind besser ausgerüstet als je zuvor, die Frage nach den grundlegenden Naturgesetzen zu stellen. Aber es gibt auch – leider – im Moment viel Lächerliches unter dem Namen Physik, und wenn dies hier ausführlich angesprochen wird, so behalten Sie bitte die ersten beiden Absätze doch im Gedächtnis! Die Kritik betrifft nicht die neugierig gebliebenen, die Zweifler, und ebensowenig die vielen Physiker in den Fachgebieten, von denen hier nicht die Rede ist, wie Festkörperphysik oder Thermodynamik. Erst recht darf man die fundamentale Theoretische Physik Anfang des 20. Jahrhunderts als große Leistung von Homo sapiens ansehen – aber das ist lange her. Der Großteil der heutigen Theorien hat sich dagegen in abstrusen Konstrukten verloren, und manche Beobachter haben sich zu Erbsenzählern für nicht mehr Hinterfragtes gemacht.
vii
viii vorwort
Wenn Sie allerdings Kritik an der Physik gesucht haben, die sich mit esoterischem Unsinn verbündet, legen Sie dieses Buch weg. Denn die Physik krankt heute gerade daran, dass sie sich von der naturwissenschaftlichen Methode löst. Diese Diagnose stellt sich durch Nachdenken, und mehr wird bei der Lektüre von Ihnen auch nicht erwartet. Bei aller Kritik ist aber eine Relativierung angebracht: Auch die, die in meinen Augen wirres Zeug über Phantasie-Universen erzählen, sind mir noch lieber als jene, die unsere reale Welt zerstören und damit das Abenteuer von Homo sapiens auf diesem Planeten gefährden. Verhindert werden kann dies nur mit Kompetenz aus der Physik. Aber auch deswegen darf sie ihre intellektuelle Autorität nicht verspielen, in dem sie sich in Science-Fiction-Geschichten verliert. Es gibt genug zu tun: die Welt theoretisch zu verstehen und praktisch zu erhalten. Verschiedentlich wurde mir geraten, mit drastischen Schilderungen des Wissenschaftsbetriebes nicht junge Menschen von der Physik abzuhalten. Das Gegenteil ist meine Absicht, aber man kann die Existenz der Krankheiten denen nicht verschweigen, die einmal Ärzte sein können. Sicher hat die Physik einen Generationswechsel nötig, denn im Moment findet man bei den jungen Etablierten die gefestigten Ansichten, während Skepsis gegenüber allzuviel Spekulation eher bei den älteren erhalten blieb. So hoffe ich, dass Sie auf den folgenden Seiten das Plädoyer für die Faszinationen des Universums stets begleitet. Forschen zu können, ist ein Privileg unserer Zeit. Es liegt eine große Verantwortung darin. Daher dieses Buch. Dezember 2009
Alexander Unzicker
Anmerkung Die Fußnoten ergänzen den Text, die Endnoten sind hingegen nur für den Leser interessant, der sich auch in Fachliteratur vertiefen will. Am Kapitelende findet sich weiterführende Sach- und Fachliteratur, in der der Leser auch die im Text nicht immer einzeln belegten Zitate findet.
Teil I
Abkürzung
1
Ganz nett, Homo sapiens, aber ... Grund zum Zweifeln: Warum etwas faul ist am State of the Art in der Physik
Lautstarker Applaus erhob sich im Salon III/IV des Marriott-Hotels von Crystal City im amerikanischen Bundesstaat Virginia. In dem überfüllten Konferenzraum starrten alle wie gebannt auf die Leinwand, wo nicht mehr zu sehen war als ein nüchternes Diagramm aus zahlreichen Punkten und einer geschwungenen Kurve. Nur eine eigenartige Personengruppe konnte sich davon zu Emotionen hinreißen lassen – Physiker auf der Jahrestagung der Astronomischen Gesellschaft, die ihren Begeisterungssturm noch minutenlang fortsetzten. Was war geschehen? Die im Diagramm aufgetragenen Daten bestätigten mit einer nie da gewesenen Genauigkeit ein fundamentales Naturgesetz zur Wärmeabstrahlung von heißen Körpern. 1900 von Max Planck entdeckt, leuchtete es nun in geradezu mathematischer Reinheit auf. Noch sensationeller war der Ursprung der Daten – Mikrowellensignale verschiedener Frequenzen, die nicht aus einem irdischen Labor stammten, sondern von einem heißen Urzustand des Universums! Ein Feuerball aus Wasserstoff und Helium, noch ohne jegliche Strukturen, die irgendwann Leben ermöglichen sollten, ließ damals seinem Licht freien Lauf. Mehr als zehn Milliarden Jahre war es bis zu den Detektoren des vom Menschen gebauten Satelliten COBE unterwegs, der wenige Tage zuvor die Daten übertragen hatte. Wenn ich das alles wie einen Film in meiner Vorstellung ablaufen lasse, bekomme ich immer eine Gänsehaut, als würde ich die inzwischen extrem abgekühlte Strahlung tatsächlich spüren. Ihre Gleichverteilung im Raum macht uns A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_1, © Springer-Verlag Berlin Heidelberg 2010
vom
urknall zum durchknall
auch deutlich, dass wir uns nicht einbilden dürfen, an einem besonderen Ort im Universum zu leben – intelligente Aliens könnten sich seitdem überall entwickelt haben! Sollten sie – was nicht wahrscheinlich ist – uns wirklich von Zeit zu Zeit über die Schulter schauen, dann hätten sie an jenem Nachmittag des 13. Januar 1990, als der Vortrag stattfand, bestimmt anerkennend mit ihrem großen Kopf genickt.
licht oder schon erleuchtung?
Doch auch Homo sapiens stellt sein Licht manchmal nicht unter den Scheffel. George Smoot, Projektleiter des COBE-Satelliten, kommentierte in der NASA-Pressekonferenz eine bildliche Darstellung dieser Mikrowellen-Hintergrundstrahlung in wenig säkularisiertem Ton als „das Antlitz Gottes“. „Mann, bleib auf dem Teppich!“, mag sich dazu sein bescheiden auftretender Nobelpreiskollege John Mather gedacht haben. Aber erstaunlicherweise hat sich in den letzten Jahren diese übertriebene Sprache auch unter theoretischen Physikern verbreitet. „Die Rätsel der Schöpfung“, so der berühmte Kosmologe Alan Guth, „erscheinen immer weniger wie unlösbare Mysterien. Wir wissen heute, was sich 10−35 Sekunden nach dem Urknall zugetragen hat.“ Aber nicht nur in der Kosmologie, sondern auch in der unvorstellbar kleinen Welt der Elementarteilchen meinen die Physiker vor dem Durchbruch zu stehen: „Niemand hätte in seinen wildesten Träumen gedacht, dass wir soweit kommen wie wir heute gekommen sind“, sagt der Theoretiker Brian Greene – in offenbar wachem Zustand. „Physiker kurz vor der Entdeckung der Weltformel“ oder „Astronomen entziffern das Buch der Schöpfung“ – so und ähnlich titeln die Wissenschaftsredaktionen angesehener Zeitungen, und auch in vielen Fachzeitschriften findet sich solcher Optimismus. Aber haben wir gleichzeitig mit unseren technologischen Errungenschaften wirklich so plötzlich das Universum verstanden? Stehen unsere Wahrnehmungen mit den Augen wirklich im Einklang mit den Theorien, die wir in den Mund nehmen? Liegt dazwischen nur eine logische Kette, quer durch unser hoch entwickeltes Rechenzentrum zwischen den Schläfen oder hat die Begeisterung über
1 ganz
nett, homo sapiens, aber
...
die Beobachtungen manchmal einen kleinen Kurzschluss durch die emotionalen Teile des Gehirns verursacht? Es scheint, dass wir heute, fast 15 Milliarden Jahre nach dem Urknall, mit dem Schlüssel vor dem Schloss der letzten physikalischen Erkenntnis stehen. Dieses Buch ist ein Ausdruck des Zweifels daran. Ein Zweifel, ob es sich nicht auch um ein Gedankenhäuschen handeln könnte, das wir aus der Perspektive der Gegenwart zum Tempel überhöhen. Wir glauben fast alles zu wissen. Dabei ist nur eines sicher: Wir hatten noch nie bessere Gelegenheit, das Universum in solchen Einzelheiten zu bestaunen. Denn die Daten des kosmischen Mikrowellenhintergrundes sind nur Teil einer Revolution, die in der Astronomie in den letzten Jahrzehnten stattgefunden hat. Teleskope in Satelliten befreiten die Astronomen von der trüben und flimmernden Atmosphäre wie eine Operation am grauen Star, aber noch dramatischer hat die digitale Verarbeitung die Qualität der Bilder verbessert. Sie gleicht einem Evolutionsschritt wie die Entdeckung der Fotografie oder gar wie die Anwendung des Teleskops. Wie hätten Galilei, Kepler, Newton und Einstein die heutige Zeit genossen! Ich bin mir aber sicher, sie hätten sich nicht nur für die neuesten Theorien in der Zeitschrift Physical Review interessiert, sondern auch ihre eigenen fundamentalen Erkenntnisse nochmals genau auf den Prüfstand gestellt. Denn zu gewaltig ist der Sprung, den unsere Präzisionsteleskope seitdem vom Sonnensystem über unsere Heimatgalaxie bis weit ins Universum hinaus getan haben.
das neue und das alte
Als König Friedrich Wilhelm IV. von Preußen seinen Hofastronomen launisch fragte: „Na, Argelander, was gibt’s neues am Himmel?“, entgegnete dieser: „Kennen Majestät schon das alte?“ In diesem Sinne möchte ich auch Sie bei der Lektüre dieses Buches gelegentlich zu ein paar alten Beobachtungstricks einladen, damit Sie die spektakulären Ergebnisse der Astronomie genießen, aber auch deren Rätsel verstehen lernen. Die Farbe des Lichts, das auf unsere Netzhaut trifft, erlaubt zum Beispiel einen Rückschluss auf die Bewegung von Sternen und Galaxien. Blaues
vom
urknall zum durchknall
Licht mit seiner erhöhten Frequenz zeigt uns eine Bewegung des Objekts auf uns zu, ebenso wie die Sirene eines herannahenden Krankenwagens im Ton höher erscheint. Ist dagegen die ursprüngliche Farbe zum roten Bereich des Farbspektrums verschoben, zeigt dies eine von uns weg gerichtete Bewegung an. Nach seinem Entdecker Christian Doppler wird dieser für Schall- und Lichtwellen gleichermaßen gültige Effekt „Dopplerverschiebung“ genannt. Überraschenderweise zeigt sich so, dass nur ein kleiner Teil der im Universum vorhandenen Materie in unseren Teleskopen sichtbar ist. Dies fiel zum ersten Mal 1933 Fritz Zwicky auf, einem Pionier der Galaxienforschung. Sein Lieblingsobjekt war der Coma-Haufen (Abb. 1), eine beeindruckende Ansammlung von Galaxien in 300 Millionen Lichtjahren Entfernung. Die mittels der Farbe gemessenen hohen Geschwindigkeiten der Galaxien verwunderten ihn sehr. Sie hätten diesen erlaubt, die Gravitationskraft des Galaxienhaufens zu überwinden, gleich schnellen Raketen, die das Schwerefeld der Erde verlassen können. Es musste also weitere Masse in solchen Haufen verborgen sein, die zwar unsichtbar, aber mit eiserner Hand der Gravitation die Galaxien am Entrinnen hindert. Diese wichtige Entdeckung bezeichnet man heute als „Dunkle Materie“, sie bildet einen Eckstein unseres aktuellen kosmologischen Weltbildes.
Abbildung 1: Links: Coma-Galaxienhaufen in 300 Millionen Lichtjahren Entfernung. Rechts: Fritz Zwicky, ein Pionier der Galaxienforschung.
1 ganz
nett, homo sapiens, aber
...
Zwicky hätte dafür durchaus den Nobelpreis verdient. Wie man heute noch auf Fotos erahnen kann, war er jedoch ein kantiger Querkopf, der sich durch seine verbalen Direktheiten bei vielen Kollegen unbeliebt machte. Vor allem hat ihm aber wohl geschadet, dass er gegen die kosmologische Entdeckung der 1930er Jahre seines großen Konkurrenten polemisierte: Edwin Hubble hatte durch Messungen der Rotverschiebung des Lichts der Galaxien festgestellt, dass sich praktisch alle von uns wegzubewegen scheinen, und zwar umso schneller, je weiter sie entfernt sind. Dies war der erste Hinweis auf eine Expansion des Universums, die wir auf eine frühe, explosionsartige Ausdehnung zurückführen – den Urknall.
warum die augen der astronomen leuchten
Der Applaus vom 13.01.1990 galt daher auch zum ganz wesentlichen Teil dem Urknallmodell. Denn die beeindruckende Messung bestätigte eine heiße Anfangsphase des Weltalls und sprach damit ebenfalls für die seit Hubbles Zeiten favorisierte Vorstellung einer kontinuierlichen Expansion. Der Entstehungszeitpunkt dieser kosmischen Mikrowellenhintergrundstrahlung wurde später auf 380 000 Jahre nach dem Urknall datiert – eine im Vergleich zu den folgenden 14 Milliarden Jahren sehr kurze Zeitspanne. Noch nie war man so nahe dran am Auge des Taifuns! Der Urknall gilt daher heute mehr denn je als die Basis unseres Verständnisses der Kosmologie. Die Sektlaune war noch kaum verklungen, da landeten 1998 zwei Forschergruppen bei der Beobachtung von Supernova-Explosionen einen weiteren Treffer: Kurz gesagt, eine Version de luxe von Hubbles Messungen, die ergab, dass das Weltall nicht nur expandiert, sondern dass dies auch noch beschleunigt, also immer schneller geschieht. Das bis dahin gültige Paradigma der Kosmologie war auf den Kopf gestellt und schien nur durch die Präsenz einer neuen Materieform möglich: einer „Dunklen Energie“ mit abstoßender Gravitation. Isaac Newtons in Stein gemeißelte Worte von 1687, „Gravitation ist die allen Körpern innewohnende Eigenschaft, sich gegenseitig anzuziehen“, sehen wir seit ein paar Jahren nicht mehr als gültig an. So
vom
urknall zum durchknall
führten uns die neuen Präzisionsdaten zu grundlegenden Entdeckungen, die nun das Bild des Kosmos abzurunden scheinen. Wen wundert es daher, dass alle Astronomen seit gut zehn Jahren in einer euphorischen Stimmung herumlaufen und ihre Gesichter die Daten als strahlendes Lächeln reflektieren! Bald sollte ich auch etwas davon mitbekommen.
faszination geometrie
An der Praia Vermelha in Rio de Janeiro betrachtete ich gerade die Parabelform des Zuckerhuts, als mir Straßenhändler auffielen, die frische Kokosmilch direkt aus der Nuss anboten. Geschickt legten Sie mit einem scharfen Messer in Sekundenschnelle um die Spitze drei Schnitte. Die runden Schnittkanten gaben nun den Weg ins fruchtige Innere frei, standen jedoch durch die kugelähnliche Form der Nuss praktisch senkrecht aufeinander. Ich griff sofort zu, denn einen besseren Aufhänger für meinen Vortrag hätte ich nicht finden können. Auf physikalischen Großkonferenzen muss man manchmal mit ungewöhnlichen Mitteln um Aufmerksamkeit kämpfen. Ein derartiges Treffen, das MarcelGrossmann-Meeting, benannt nach einem ungarischen Mathematiker und Freund Einsteins, fand 2003 in Rio statt, wo Gravitationsphysiker und Astronomen aus aller Welt zum Gedankenaustausch zusammenkamen. Leider war mein Vortrag in jenen Nachmittagsstunden, die ein Absacken der körperlichen und geistigen Anwesenheit in der Zuhörerschaft begünstigen. So war ich froh um die Kokosnuss und den dazugehörigen Strohhalm, mit dem man bequem ein wichtiges Konzept der Allgemeinen Relativitätstheorie veranschaulichen konnte. Dreiecke auf Kugeloberflächen können durchaus größere Winkelsummen annehmen als jene 180 Grad, die wir von Euklid aus der Schule kennen, und hier hatte der Verkäufer sogar drei rechte Winkel ausgeschnitten. Dass sich daran nichts änderte, wurde nun auch den Zuhörern klar, die vorschlugen, den Strohhalm in anderer Weise entlang der Schnittkanten zu bewegen. Derartige Diskussionen laufen manchmal erstaunlich hitzig ab; vielleicht liegt der Grund darin, dass die Allgemeine Relativitätstheorie mit ihrer Abstraktion in die Geometrie hinein irgendwie die emotionale
1 ganz
nett, homo sapiens, aber
...
Seite der Physiker anspricht. Die Vorstellung, die Massen unserer banalen Alltagsgegenstände seien Krümmungszentren der Raumzeit, hat etwas merkwürdig Reizvolles. Der russische Nobelpreisträger und Autor eines epochalen zehnbändigen Werkes über Theoretische Physik, Lev Landau, äußerte sich einmal so: Einsteins große Errungenschaft von 1915, jene geometrisch-raffinierte Verfeinerung von Newtons Gravitationsgesetz, sei „die schönste aller physikalischen Theorien“. Damals in Rio wäre es mir nicht im Traum eingefallen, dass die Allgemeine Relativitätstheorie bei einer Überprüfung mit neueren Daten Schwierigkeiten bekommen könnte – im Gegenteil, ich zählte zu jener Mehrheit der Physiker, die forsche Zweifler schon mal verdächtigte, den zweiten Band von Landaus Buchreihe, in dem die Theorie knapp, aber prägnant erklärt wird, nicht wirklich von innen zu kennen.
von der theorie zur beobachtung
Zum Glück hatten sich aber in Rio nicht nur Theoretiker, sondern auch viele beobachtende Astronomen versammelt. Schon während des Fluges ab Madrid saß ich zufällig neben Sante, einem Doktoranden aus Neapel, woraus sich eine fast ununterbrochene, neunstündige Unterhaltung ergab. Wohl nicht zufällig kamen wir über den Wolken auf eine Flugbahnabweichung der Pioneer-Raumsonden zu sprechen, zu der 2001 eine ausführliche Untersuchung der NASA publiziert worden war.i So erfuhr ich von ihm, deren Beschleunigung in Richtung Sonne sei um eine Winzigkeit größer gemessen worden als nach dem Gravitationsgesetz zu erwarten war. Damals maß ich dem noch keine große Bedeutung bei. Bei der Konferenz freundeten wir uns bald an. Da er selbst nur eine unsichere Stelle mit Zeitvertrag hatte, nahm er an meinem etwas ungewöhnlichen Namensschild, das als Institutsadresse ein Münchner Gymnasium auswies, keinen Anstoß, vielmehr erinnerte es ihn an Streiche seiner Schulzeit. Die Tagung fand übrigens in einer Militärakademie statt, und grün uniformierte Wachen mit blank geputzten Stiefeln achteten allenthalben auf Disziplin. Vor dem Eingang zur Akademie diskutierten wir gerade über einen merkwürdigen Zusammenhang der
10 vom
urknall zum durchknall
Raumsondenbeschleunigung mit der Dunklen Materie an den Rändern von Galaxien, als wir unsanft von einem Uniformierten unterbrochen wurden: Die Einfassungsmauer eines Palmenbeetes sei keine Sitzgelegenheit. Wir hatten beide die unvermeidliche Assoziation zu einem Zitat Einsteins, in dem er sich boshaft über die Überflüssigkeit des Großhirns für marschbegeisterte Militärs äußerte. Dennoch war es sicher klüger, dass wir die Diskussion über die Dunkle Materie und die Beschleunigung woanders fortsetzten. Wenn dieser Zusammenhang kein Zufall war, musste an dem ganzen Konzept der Dunklen Materie etwas faul sein, darin waren wir uns einig. Auf Santes Vorschlag hin besuchten wir auch eine Sitzung über aktuelle Messungen. Ein Vortragender gab dabei in Bezug auf die drei Komponenten des Universums Dunkle Energie – Dunkle Materie – normale Materie die Prozentwerte 72, 25 und 3 an. Die Begriffe der Dunklen Materie und Energie hatten inzwischen eine gewisse Skepsis in mir hervorgerufen, und die Genauigkeit auf Prozent schien mir doch leicht übertrieben. Zu Beginn meines Studiums galten die Astronomen mit ihren riesigen Messungenauigkeiten immer als die Schmuddelkinder der Physik, die mit ihren undurchsichtigen Korrekturfaktoren und nicht vorhandenen Fehlerangaben von Präzision wie etwa in der Quantenoptik nur träumen konnten. So neckte ich also Sante: „Ausgerechnet ihr Astronomen! Vor gut zehn Jahren wusstet ihr noch nicht, ob das Universum 10 oder 20 Milliarden Jahre alt ist. Und nun sollen die Messungen plötzlich auf Prozent genau sein?“ Er revanchierte sich mit neapoletanischen Kraftausdrücken über die Theoretiker, gab aber schließlich freimütig zu: „Weißt du, Dunkle Energie, du kannst auch Quintessenz dazu sagen, das sind alles nur Namen für etwas, was wir hinten und vorne nicht kapieren.“ Mit diesem Satz im Kopf flog ich zurück nach Deutschland.
die kosmologie des datensammelns
Kurze Zeit später saß ich in München in einer ganz anderen Konferenz – einer Zusammenkunft der Lehrkräfte meiner Schule, wie sie mehrmals im Jahr stattfindet. Die unvermeidlichen bürokratischen Themen
1 ganz
nett, homo sapiens, aber
... 11
lassen mich leider meist in Gedanken abschweifen, und so dachte ich damals über die Natur der Dunklen Materie und der Dunklen Energie nach. Vieles erschien mir bald fragwürdig, ja widersprüchlich. Aber auch bei den Teilnehmern meines Astronomie-Wahlkurses, recht aufgeweckten 15- bis 18-Jährigen, stellte ich oft fest, dass sie sich nicht mit oberflächlichen Erklärungen zufrieden geben, sondern die richtigen Fragen stellen: Aus was könnten diese dunklen Substanzen bestehen? Warum hat die Natur sie überhaupt erfunden? Viele Astronomen dagegen sehen ihre Hauptaufgabe darin, die jeweiligen Prozentanteile exakt zu vermessen. Nach dem Motto: Wenn wir schon nichts darüber wissen, dann wenigstens genau. Es gibt aber auch nachdenkliche Stimmen dazu, wie etwa Anthony Aguirre von der Universität von Kalifornien in Santa Cruz:ii „Dieses Paradigma hat durch die neuen Beobachtungen eine bemerkenswerte Bestätigung erfahren. Aber es ging doch auf Kosten der Einfachheit.“ Genauer gesagt, enthält das von den führenden Kosmologen akzeptierte „Konkordanzmodell“ nun sogar sechs Parameter: die Hubble-Konstante, die baryonische Dichte, die Dichte der Dunklen Materie und der Dunklen Energie, die skalare Fluktuationsamplitude und den skalaren spektralen Index. Sagt Ihnen das nichts? Nun, am Ende des Buches werden Sie vielleicht mehr mit diesen Begriffen anfangen können, aber das ist nicht mein eigentliches Ziel. Die Frage, die mir dagegen keine Ruhe lässt, ist: Warum wird das Universum im Großen gerade durch diese sechs Zahlen beschrieben und nicht durch andere? Und vor allem: Warum gerade sechs? Können wir vielleicht manche davon noch berechnen, und wenn nein, warum nicht? Und wer schützt uns davor, dass neue, genauere Beobachtungen weitere unerklärte Zahlen hervorbringen?
die riesige extrapolation und die zweifel daran
Je mehr ich nun recherchierte über Gaswolken an Galaxienrändern, Röntgenstrahlung aus Galaxienhaufen oder entfernte Supernovaexplosionen, desto mehr kam die Frage auf, ob man diese Beobachtungen
12 vom
urknall zum durchknall
wirklich nur mit den dunklen Substanzen interpretieren kann. Oder sollten wir sogar die anerkannten Theorien der Physik in Zweifel ziehen? In der Bibliothek stieß ich auf ein eigentlich weithin bekanntes Standardwerk über Galaxiendynamik, in dem sich der folgende Absatz findet:iii Bis hierher wurde angenommen, dass die Allgemeine Relativitätstheorie bzw. die Newtonsche Gravitation auf großen Skalen gelten. Tatsächlich gibt es aber wenig oder gar keine direkten Belege dafür, dass die konventionellen Gravitationstheorien auch auf Skalen korrekt sind, die z. B. viel größer als ein Lichtjahr sind. Die Newtonsche Gravitation funktioniert ausgezeichnet auf Skalen von 1012 Metern, also im Sonnensystem. Es ist aber hauptsächlich die Eleganz der Allgemeinen Relativitätstheorie mit ihren erfolgreichen Vorhersagen im Sonnensystem, die uns zu der gewaltigen Extrapolation auf 1021–1026 Meter führt. Das war stark! Zwei führende Experten behaupten, das Gravitationsgesetz sei nur im Sonnensystem gut überprüft – ein winziger Bruchteil des Universums, der kaum einem Sandkorn in der Sahara entspricht. Alles andere seien Vermutungen, die auf ästhetischen Betrachtungen – Stichwort: „Eleganz“ – beruhen. Schönheit ist ja nicht gerade ein solides Fundament für wissenschaftlichen Theorien. Seitdem habe ich immer wieder Physiker und Astronomen mit diesem Zitat konfrontiert. Meist ist das Resultat ein Achselzucken, und leichthin wird entgegnet: Das sei zwar schon richtig, aber warum solle das Gravitationsgesetz nicht stimmen? Bisher habe man jedenfalls nichts Besseres. Ich wage nicht zu behaupten, dass die intelligenten Außerirdischen – vielleicht gibt es sie ja gar nicht und die Sorge ist unberechtigt – über bessere Theorien verfügen, aber eines glaube ich doch: Unser Selbstbewusstsein, wir hätten die endgültige Beschreibung der Kosmologie mit dem „Konkordanzmodell“ gefunden, würde sie hämisch grinsen lassen. Und ich bin mir weiter ziemlich sicher: Dieses Grinsen würde noch wohlwollend ausfallen im Vergleich zu dem Gesichtsausdruck, der sie bei der Betrachtung weiterer Theorien von Homo sapiens möglicherweise beschleicht.
1 ganz
nett, homo sapiens, aber
... 13
der kosmologie geht’s noch gut – relativ
Trotz aller Merkwürdigkeiten befindet sich die Kosmologie noch in einem ordentlichen Zustand, wenn man sie mit dem Kernstück der Erkenntnisse vergleicht, das die Physiker aus ihren Beobachtungen der Mikrowelt zusammengetragen haben: dem Standardmodell der Teilchenphysik. Die sechs Zahlen der Kosmologie, die ich Ihnen genannt hatte, bezeichnet man als „freie Parameter“, weil man sie im Rahmen eines Modells nicht weiter erklärt, sondern den Messungen anpasst. Die Teilchenphysik benötigt davon nicht nur sechs, sondern – siebzehn. Warum siebzehn? Die Fragen zu den sechs Zahlen wiederholen sich hier in dramatischer Weise. Dabei hatte die Geschichte ähnlich hoffnungsvoll begonnen wie bei unseren heutigen Teleskopen. Ab den 1950er Jahren gab es einen Boom der Teilchenbeschleuniger, die in der Folgezeit Hunderte von Elementarteilchen zu Tage förderten. Diesen Zoo zu klassifizieren und auf „nur“ 17 Parameter zurückzuführen, beschäftigte die Teilchenphysik während der letzten Jahrzehnte, was auch mit einigen Nobelpreisen bedacht wurde. Aber können wir schon überzeugt sein, den Aufbau der Materie verstanden zu haben? Lee Smolin schreibt in seinem Buch The Trouble with Physics über jene 17 Parameter: „Die Tatsache, dass so viele frei wählbare Konstanten in einer Theorie existieren, die den Anspruch hat, fundamental zu sein, ist extrem peinlich.“iv Wollten wir die Physik in ihrer Gesamtheit verstehen, ergäben sich somit schon 23 nicht weiter erklärte Zahlen. Nach anderer Zählung – hier verlieren die Physiker schon den Überblick – sogar noch mehr. Ein Artikel,v den der britische Kosmologe Martin Rees zusammen mit dem Nobelpreisträger Frank Wilczek schrieb, zählt insgesamt 31 fundamentale Konstanten, also durch nichts begründete Zahlen. Pikanterweise veröffentlichte Rees fast gleichzeitig ein populäres Werk mit dem Titel Just Six Numbers in Anspielung auf die Parameter der Kosmologie. Sie sehen, auf diesem Gebiet lassen sich gerade noch Bücher verkaufen! Oder würden Sie eine Abhandlung über Physik mit dem Titel Nur einunddreißig Zahlen lesen wollen?
14 vom
urknall zum durchknall
ein dream team passt nicht zusammen
Bei so vielen freien Parametern, die die Natur beschreiben sollen, fühlt man sich doch an ein Zitat König Alfonsos X. von Kastilien erinnert: „Hätte mich der Herrgott bei der Schöpfung um Rat gefragt, hätte ich etwas Einfacheres empfohlen.“ Der Ausspruch entfuhr ihm, als er von den Ptolemäischen Epizyklen erfuhr, einer ungeheuer komplizierten Beschreibung der Planetenbewegungen aus geozentrischer Sicht, die später durch Newtons Gravitationsgesetz in die Rumpelkammer der Wissenschaftsgeschichte befördert wurde. Physik ist die Wissenschaft der einfachen, logischen Erklärungen. Eine einzige Gravitationskonstante bestimmt die Bewegungen von Abertausenden Himmelskörpern in unserem Sonnensystem. Hunderte von Spektrallinien der Atome, auf denen unser ganzes System der chemischen Elemente beruht, können durch die Quantenmechanik als Schwingungszustände um den Atomkern dargestellt werden – mit einer technisch anspruchsvollen, aber im Grunde einfachen Mathematik, die das Konzept der Schwingung einer Cellosaite auf den dreidimensionalen Raum überträgt. Aber auch wenn sich die Wirklichkeit in der Teilchen- und Astrophysik heute komplizierter darstellt: Sind denn weitere Umwälzungen, die unser Weltbild vereinfachen könnten, nicht mehr denkbar? Woher nehmen die Leute die Zuversicht, dass unser gut tausend Gramm schweres Gehirn den großen Rahmen der Theorie überhaupt schon erkannt hat? Dabei herrscht über ein schwerwiegendes Problem Konsens: Obwohl die Allgemeine Relativitätstheorie die Physik im Großen ebenso erfolgreich beschreibt wie die Quantenmechanik die Eigenschaften der Atome, sind die mathematischen Formalismen dazu unversöhnlich wie Feuer und Wasser. Dazu kommt, dass die Gravitationskraft eines Protons auf ein Elektron um den Faktor 1040 kleiner ist als die elektrische Kraft, die diese beiden Teilchen zu einem Wasserstoffatom zusammenhält, eine unvorstellbare Zahl mit 40 Nullen. Niemand kann sie bis heute erklären. In Erstaunen versetzte mich aber dazu der Kommentar in einem Lehrbuch der Quantenfeldtheorie:vi „In Anbetracht dessen ist der Teilchenphysiker berechtigt, die Gravitation zu ignorieren, und wegen der immensen theoretischen Schwierigkeiten ist er auch froh darüber!“ Physiker benehmen sich manchmal wie
1 ganz
nett, homo sapiens, aber
... 15
gespaltene Persönlichkeiten, die einen verlorenen Schlüssel unter einer Straßenlaterne suchen, weil es dort hell ist. Zwar wissen sie genau, dass sie ihn anderswo im Dunkeln verloren haben, aber dort hätten sie ja kaum eine Chance, ihn zu finden. Doch wenn sich das Gravitationsgesetz tatsächlich als korrekturbedürftig herausstellen sollte, würde ein Fundament der Physik in den Abgrund sinken und viele Theorien mitreißen. Dieses Verdrängen von elementaren Problemen ist ein irritierendes Phänomen des heutigen Wissenschaftsbetriebes, das mir auffiel, als ich mich intensiver mit älteren Veröffentlichungen beschäftigte. Über den bis heute unverstandenen Faktor 1040 hatten sich zum Beispiel schon die berühmten britischen Physiker Eddington und Dirac den Kopf zerbrochen. Alte Perlen wie diese gehen in der heutigen Publikationsflut meist unter, aber es lohnt sich fast immer, sie ans Tageslicht zu holen. Originalartikel von Einstein, Dirac oder Feynman sind klassische Stücke, deren Qualität sich nicht von aktuellen Hitparaden ableitet.
seit drei ßig jahren ist techno angesagt
Aber nun zur Moderne! Als mögliche Lösung des Konfliktes zwischen Quantenmechanik und Allgemeiner Relativitätstheorie wird seit etwa drei Jahrzehnten die „String-“ oder auch „Superstringtheorie“ angesehen. Sie geht davon aus, dass Teilchen Schwingungszustände von winzigen Saiten – Englisch: strings – oder Membranen sind und nicht exakt punktförmig. Zudem sollen neben den drei sichtbaren weitere Dimensionen des Raumes vorhanden sein, die auf winzigen Strukturen ‚aufgerollt‘ sind, welche sich der direkten Beobachtung entziehen. Obwohl auch indirekt noch keine experimentellen Hinweise vorliegen, äußern sich viele Physiker enthusiastisch über die Perspektive, alle Theorien zu vereinigen. So schreibt etwa der Physiker Brian Greene in seinem Buch Das elegante Universum: Nach der Superstringtheorie ist die Ehe zwischen den Gesetzen des großen und des kleinen nicht nur glücklich, sondern unvermeidlich […] die Stringtheorie ist geeignet, diese Vereinigung
16 vom
urknall zum durchknall
einen gewaltigen Schritt voranzubringen, […] sie kann die Mutter aller Gleichungen werden.vii Leider spüre ich trotz solcher Lektüre, dass ich nicht viel verstehe von Stringtheorie. Möglicherweise geht es Ihnen ebenso, aber Sie haben sich vielleicht mehr erhofft, als mit mir in einem Boot zu sitzen. Ich gelte zwar bei meinen Lehrerkollegen als Experte für Theoretische Physik und Astronomiefreak, aber Physiker und Astronomen betrachten mich eher als engagierten Pädagogen. Ein ganz kleines bisschen tröstet mich da, dass etwa Günther Hasinger, immerhin Direktor an einem Max-Planck-Institut und Träger des Leibnizpreises, nach eigener Aussageviii auch nichts von Stringtheorie versteht. Dies wirft übrigens ein sympathisch ehrliches Licht auf die so enge Zusammenarbeit zwischen Theoretikern und Beobachtern in der Astroteilchenphysik – aber davon später. Nun muss Ihnen der Name Hasinger nicht unbedingt etwas sagen. Aber sogar Richard Feynman, Nobelpreisträger und wohl der brillanteste Physiker der Nachkriegszeit, bemerkte über die Stringtheorie: Ich weiß nun, dass ältere Leute oft töricht waren, wenn sie derartiges sagten, und daher wäre ich ein Dummkopf, wenn ich behaupte, das sei Unsinn. Dennoch – ich nehme gerne in Kauf, ein Dummkopf zu sein, denn ich bin überzeugt davon, dass dies alles Unsinn ist! Es gefällt mir nicht, dass die Superstringtheoretiker ihre Ideen überhaupt nicht durch Berechnungen überprüfen. Es gefällt mir nicht, dass sie für alles, was nicht mit dem Experiment übereinstimmt, eine Erklärung aus dem Hut zaubern, womit sie dann sagen können: ‚Ja, aber es könnte trotzdem richtig sein‘.
wo die not ist, wächst auch die hoffnung
Woher kommen diese extremen Meinungen? Fakt ist, dass es für die Annahmen der Stringtheorie noch keinen einzigen experimentellen Beleg gibt, ja noch nicht einmal einen Vorschlag der Theoretiker, wie eine Messung aussehen sollte. Stattdessen wird die Theorie – manche sagen
1 ganz
nett, homo sapiens, aber
... 17
auch, es handle sich eher um ein Sammelsurium von Ideen, wie eine Theorie aussehen könnte – permanent durch ihre unglaubliche Schönheit und Eleganz gerechtfertigt, die es geradezu unmöglich mache, dass dazu kein realer Hintergrund existiere. Lee Smolin, theoretischer Physiker und „Aussteiger“ aus der Stringtheorie, hat in seinem Buch The Trouble with Physics die Auswüchse auf den Punkt gebracht: fachliche Mängel, methodische Zirkelschlüsse, Willkürlichkeiten der Konzepte, bis zu den soziologischen Aspekten wie den befremdlichen hierarchischen Strukturen in dieser Wissenschaftsgemeinde. Obwohl er die handelnden Personen respektvoll, ja mit Samthandschuhen anfasst, treibt einem die Beschreibung doch die Zornesröte ins Gesicht – zu sehr fühlt man sich an das Märchen von des Kaisers neuen Kleidern erinnert. Früher fühlte ich mich oft etwas unwohl, den hochdimensionalen Heilsversprechungen der Stringtheorie nichts abgewinnen zu können. Es hat mich einfach nicht interessiert. Nach der Lektüre von Smolins Buch bin ich ein klein wenig stolz darauf.
die infektion der astrophysik mit dem spekulationsvirus
Was aber tun ohne Stringtheorie? Wenn Sie mit eingefleischten Teilchenphysikern sprechen, klingen Ihnen die Ohren von der angeblich so tollen Übereinstimmung des Standardmodells mit den Experimenten. Besonders weh tut es, wenn dies auch noch den Jungen eingeredet wird, wie einer netten Astronomin, die ich 2002 bei der Tagung der italienischen Gravitationsphysiker in Frascati – ein wunderbares Plätzchen um Physik zu betreiben – kennengelernt hatte. Anstatt sich weiter mit den Sternen zu beschäftigen – all meine Überzeugungsarbeit half nichts – wechselte sie später auf eine Stelle am CERN, dem europäischen Mekka der Teilchenphysik. Der Misserfolg meiner Berufsberatung scheint allerdings ein Einzelfall gewesen zu sein, denn wie wir wissen, ist der Erfolg des Standardmodells mit 17 willkürlichen Zahlen erkauft, vor denen sich viele mit Grauen abwenden. Seit langem gibt es hier einen brain drain der Teilchenphysiker zur Kosmologie, was sich praktisch
18 vom
urknall zum durchknall
etwa durch die Gründung einer Arbeitsgruppe für theoretische Astrophysik realisieren lässt – so geschehen zum Beispiel beim Fermilab, einem der berühmten Beschleunigerlaboratorien in den USA. Und eine ihrer schönsten Komplizierungen, die Quintessenz, verdankt die Kosmologie einem Teilchenphysiker, der sein Handwerk beim CERN und DESY gelernt hat. Sind diese erfahrenen Forscher nicht ein Gewinn für die Astrophysik? Nein! Das Problem ist, dass sie sich Jahrzehnte lang daran gewöhnt haben, die Natur mit immer mehr Willkürlichkeiten zu beschreiben, anstatt auf grundlegende Prinzipien zu bauen, wie es etwa Einstein stets getan hat. Wer das Nachfragen verlernt hat, findet sich mit Konzepthüllen wie Dunkler Materie und Dunkler Energie leichter ab – schlimmer noch, es vergeht keine Woche, in der nicht in den Internetarchiven wieder ein ähnliches Skalarfeld hervorgezaubert wird, um ein paar widersprüchliche Beobachtungen zu „erklären“. Standardmäßige Begründung: In der Mikrophysik gebe es das ja auch …. Ich weiß, ich mache mich hier unbeliebt, aber ich behaupte, dass das Verständnis des Universums durch das Gastspiel dieser Teilchenbuchhalter nicht vorankommt. Stattdessen werde ich das Gefühl nicht los, dass nach dem Untergang der Teilchenphysik in sinnlosen Zahlen die Dämme der Wissenschaftslogik irgendwann erneut brechen und eine zweite Flut von freien Parametern die Kosmologie überschwemmen wird. Mit anderer Mathematik, aber um keinen Deut besser, arbeiten jene String-Physiker, die noch nicht jegliche Empirie durch Ideologie ersetzt haben. Wie viele Theoretiker suchen sie wenigstens praktischen Schutz vor der Widerlegung ihrer Ideen und postulieren Phänomene im Bereich der sogenannten Plancklänge von 10−35 Metern, die aus drei Naturkonstanten berechnet wird. Hält man sich dagegen die Größe von 10−15 Metern des Atomkerns, der kleinsten stabilen Struktur, vor Augen, erscheint die Hoffnung auf eine experimentelle Bestätigung vollkommen albern. Denn auf Größenskalen ist es vom Atomkern zur Plancklänge so weit wie von der Erde zum Atomkern. Aber was noch mehr beunruhigt: Falls am Gravitationsgesetz oder an der Gravitationskonstante etwas faul ist – und darauf deutet einiges hin – wäre die darauf aufbauende Konstruktion der Plancklänge kompletter Blödsinn.
1 ganz
nett, homo sapiens, aber
... 19
physik wird science fiction
Die zum Standardmodell der Kosmologie hinzugekommene Inflation, die begonnen haben soll, als das Universum kaum größer als die Planck länge war, bietet dagegen eine willkommene ökologische Nische für Theorien, die im harten Laborklima der Messungen nicht hätten überleben können. Ebenso wird den Hochenergiephysikern klar, dass der Large Hadron Collider am Forschungszentrum CERN in Genf wohl ihr letztes vom Steuerzahler finanziertes Großspielzeug sein wird. Auch sie planen, sich in einen billigeren Beschleuniger einzunisten: den Urknall, in der Tat ein einzigartiges Labor für auf Erden nicht beobachtbare Teilchen und Phänomene. Schade nur, dass man am Urknall ebenso wenig beobachten kann. Umso mehr inspiriert dies die Phantasie, was sich dann so liest:ix Die kosmische Inflation ist möglicherweise das lang gesuchte Schlüsselexperiment der Stringtheorie. Unser gesamtes beobachtbares Universum könnte sich auf einer dreidimensionalen Membran oder Bran befinden, die am Ende eines der Arme des CalabiYau-Raumes liegt. Illustriert ist das Ganze mit einer Abbildung, die wie eine Kreuzung zwischen Achterbahn und HI-Virus aussieht. Dann geht es weiter, nun ohne den lästigen Konjunktiv: Die Geometrie der Extradimensionen kann recht ungewöhnliche Formen annehmen, ähnlich einer Krake mit vielen röhrenartigen Armen. Die Bewegung durch diesen Arm schwächt die Anziehung zwischen Bran und Antibran ab. Die geringere Anziehungskraft erlaubt nun langsamere Veränderungen – langsam genug, um tatsächlich eine Inflationsphase auslösen zu können. Ich kenne viele Physiker, die von derartigem Geschwätz genervt sind, aber die meisten von ihnen arbeiten im Labor oder in der Anwendung! In der „fundamentalen“ Physik hingegen wird in diesem Stil munter
20 vom
urknall zum durchknall
spekuliert, ohne Daten, ohne Beobachtung und ohne Experiment: über neue Teilchensorten, Wurmlöcher, kosmische Strings und Membranen, primordiale schwarze Löcher, ewige oder chaotische Inflationen, gekräuselte Raumzeit, Supersymmetrien und Extradimensionen, Quantenschaum und Multiversen.
geht’s noch, homo sapiens?
Wenn ich wieder an unsere Außerirdischen denke, ich glaube sie würden uns an dieser Stelle einen Arzt schicken. Neben hochgradig überspannten Phantasien und erheblichem Realitätsverlust würde er wahrscheinlich vor allem diagnostizieren: die Wahnvorstellung, die Naturgesetze schon im wesentlichen verstanden zu haben, nebst dem dringenden Bedürfnis, dies mitzuteilen. Nach einem chinesischen Sprichwort kann ein Narr an einem Tag mehr Unsinn reden, als sieben Weise in einem Jahr widerlegen können – ein methodisches Problem vieler Wissenschaften. Aber die Physik war einmal anders. Wo ist ein Niels Bohr, dessen Intuition die Physiker der 1920er Jahre wie ein Leuchtfeuer zur Quantenmechanik führte? Wo sind Charaktere wie Einstein, Heisenberg, Dirac, Feynman geblieben? Wägt man deren Resultate, so erscheinen auch die Koryphäen der jüngeren Vergangenheit, wie Weinberg oder Hawking, als kleinere Lichter, ganz zu schweigen von manchen Eintagsfliegen, deren Sirenengesänge mit String-Begleitung wir heute hören. Sie jonglieren mit den kompliziertesten Berechnungen und merken dabei nicht, dass sie die naturwissenschaftliche Bodenhaftung längst verloren haben. In dieser im Vergleich zu früheren Zeiten leichtgewichtigen Riege tummeln sich Karrieretypen, denen zu einem Einstein nicht nur ein entsprechendes Gehirn, sondern auch das Rückgrat fehlt. Sie sind interessiert an Universitätsgeldern, Seilschaften und Sonderforschungsbereichen, aber nicht an der Frage, was die Welt im Innersten zusammenhält. Sie feiern sich selbst auf Konferenzen, anstatt allein auf einem Felsen nachzudenken, wie Heisenberg es tat, als er 1925 seine Quantentheorie entdeckte. Ihre Arroganz der Gegenwart definieren sie dreist als Avantgarde, und wenn sonst nichts mehr hilft, wird in Computermodellen das Unverständnis mit Teraflops und Terabytes geflutet.
1 ganz
nett, homo sapiens, aber
... 21
Das anstrengende Tagesgeschäft erledigen dabei meist die Wasserträger der Wissenschaft mit Zeitverträgen, die in dem gutem Glauben leben, dass die Trendsetter in Princeton oder Harvard schon alles richtig machen. Wer möchte auch dort schon anecken? Die Physik hat heute keine idealistischen Denker mehr, sondern driftende Großorganisationen, die getrieben sind von Eitelkeiten, lokaler Förderpolitik und den Spielregeln des Wissenschaftsmarktes. Eine verlorene Generation von Physikern hat längst keinen Überblick mehr, wo es eigentlich hingehen soll. Die Genies sind tot, und bei den Nachfolgern sind oft alle Sicherungen durchgeknallt. Sehr sonderbare Leute, diese Physiker (...) Nach meiner Erfahrung sind die, die nicht tot sind, irgendwie sehr krank. Douglas Adams, Der lange dunkle Fünfuhrtee der Seele
weiterführende literatur S. Singh: Big Bang, WBG Darmstadt 2005. L. Smolin: The Trouble with Physics, Houghton Mifflin 2006. i J. D. Anderson et al., arXiv:gr-qc/0104064. ii A. Aguirre et al., arXiv:hep-ph/0105083. iii J. Binney/S. Tremaine, Galactic Dynamics (Princeton University Press), S. 635. iv Smolin, S. 13. v F. Wilczek et al., arXiv:astro-ph/0511774. vi L. Ryder, Quantum Field Theory (Cambridge University Press), S. 3. vii B. Greene, Das elegante Universum (Goldmann 2006), S. 19. viii G. Hasinger, Das Schicksal des Universums (Beck 2007), S. 60. ix Spektrum 02/2008, S. 26 ff.
2
Galilei würde ausflippen! Der Quantensprung der Messinstrumente: Warum wir in phantastischen Zeiten leben
Trotz aller Zweifel, die man an den modernen Theoriebildungen haben mag, befindet sich die Physik 400 Jahre nach Galilei in einer Epoche außergewöhnlicher Beobachtungsmöglichkeiten. „Die Mutter der Liebe eifert den Gestalten Cynthias nach“ notierte er im Herbst 1610. Mit Cynthia war der Mond gemeint, dessen verschiedengestaltige Phasen von Neu- bis zu Vollmond den Astronomen seit Jahrtausenden bekannt waren. Eine gleichartige periodische Verdunkelung sah Galilei nun bei der „Mutter der Liebe“, dem Planeten Venus. Diese Tatsache sollte dem schon morschen geozentrischen Weltbild den entscheidenden Schlag versetzen. Ermöglicht wurde Galileis Beobachtung durch den flämischen Brillenmacher Hans Lippershey, der das Fernrohr erfunden hatte. Galilei verstand die Konstruktion am besten und baute in der Folge immer bessere Teleskope. Ein solches Ineinandergreifen von Physik und Technik ermöglicht erst die entscheidenden Fortschritte in der Wissenschaft – hier zusätzlich bedingt durch das vorausgegangene Verständnis der Lichtbrechung durch Glas. Astronomisch gesehen kurze Zeit später befindet sich nun das Hubble Space Telescope in einer Umlaufbahn von 590 Kilometer Höhe um die Erde und fotografiert mit nie da gewesener Auflösung – fünfhundert Mal so genau wie Galileis Fernrohr und dabei hunderttausend Mal so empfindlich wie das menschliche Auge. Ohne das Verständnis der Elektrizität durch Faraday, Ampère und Maxwell und ohne die Entdeckung der A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_2, © Springer-Verlag Berlin Heidelberg 2010
23
24 vom
urknall zum durchknall
elektromagnetischen Wellen durch Hertz 1 888 könnten wir die Bilder des Teleskops aber auch nicht durch Funk empfangen.
koevolution von physik und technik – die astronomie erntet die früchte
Bei Satelliten finden wir sogar ein wiederholtes Wechselspiel von Theorie und Anwendung. Galileis Beobachtungen begleiteten die kopernikanische Revolution bis zur Newtonschen Theorie der Gravitation. Nur in Kenntnis dieser Bewegungsgesetze konnte man eine ausgefeilte Raketen- und Satellitentechnik entwickeln. Diese wiederum wurde Voraussetzung für die Teleskope, die heute die Newtonschen Gesetze mit unerreichter Präzision testen. Neben der Gravitation und der Elektrodynamik spielt aber auch eine weitere Säule der Physik, die Quantenmechanik, eine wichtige Rolle. So war zum Beispiel auch die Entdeckung des Photoeffekts durch Einstein Voraussetzung dafür, dass wir uns heute an Hubble-Bildern wie jenem der Spiralgalaxie NGC 4243 erfreuen können. Erst nachdem man verstand, dass Quanten von Lichtenergie Elektronen aus Metallen lösen können, gelang es, das Auge und die Fotoplatten durch hoch entwickelte elektronische Speichermedien wie CCDs zu ersetzen, was 2009 durch den Nobelpreis gewürdigt wurde. Vergegenwärtigen Sie sich schließlich die rasante Entwicklung der Bildspeicher- und Computerelektronik der letzten Jahrzehnte; auch hier erntet die Astronomie heute die Früchte.
schnelle veränderungen in der astronomie
Einer der ersten, die Ende der 1970er Jahre ein Teleskop mit einem CCDDetektor kombinierten, war Rudy Schild vom Harvard-Smithsonian Center for Astrophysics. Ich lernte ihn bei einer Kosmologie-Konferenz
NGC steht für New General Catalogue. Tippen Sie doch mal bei einer Internet-Bildersuche dieses Kürzel mit einer beliebigen Zahl unter 7840 ein. Entspannung pur!
2 galilei
würde ausflippen!
25
im Juni 2008 in St. Petersburg kennen, die Yuri Baryshev vom Astronomischen Institut der dortigen Universität organisiert hatte, der mich freundlicherweise zu zwei Vorträgen einlud. Rudy hielt einen Vortrag über Quasare, die noch heute sein Lieblingsgebiet sind. Obwohl seine erste CCD-Kamera sehr grob gerasterte Bilder – 100 × 100 Pixel! – produzierte, war sie bei Quasarbeobachtungen schon nützlich. Quasare sehen punktförmig, fast wie Sterne aus, befinden sich aber weit außerhalb unserer Galaxis. Man war anfangs schockiert, als man ihre ungeheure Entfernung feststellte – heute nimmt man an, dass es sich um Kerne junger Galaxien handelt, die an Leuchtkraft ihre erwachsenen Artgenossen um ein Vielfaches übertreffen. Besonders faszinierend ist dabei auch die Beobachtung von Helligkeitsschwankungen. Seit Galilei mit der Vorstellung aufräumte, der Sternenhimmel müsse immer gleich aussehen, haben Astronomen an veränderlichen Objekten besondere Freude. Rudy erzählte, wie er eines Abends eine begeisterte Runde von Quasarbeobachtern antraf. „Schau, schon wieder leuchtet er auf!“ und „Ja genau, und jetzt wird er wieder dunkler, sagenhaft!“. Schließlich sagte jemand zu ihm: „Hast Du nichts zu tun? Was machst Du eigentlich hier?“ – „Nun, ich beobachtete auch gerade, aber als in der Höhe ein paar Wolken aufzogen, dachte ich, mache ich meine Kuppel zu.“ Das zunächst betretene Schweigen – auch durchziehende Wolken verursachen leider Helligkeitsschwankungen – wich bald allgemeiner Heiterkeit, und man machte sich in der nächsten Nacht wieder mit Enthusiasmus an die Arbeit. Dies verdeutlicht nebenbei, wie sehr die Arbeit der Astronomen erleichtert wird durch Teleskope in Satelliten, mit denen das höchst faszinierende Leuchten der Quasare ungetrübt zu beobachten ist. Schwankt die Helligkeit, so können sich die ursächlichen Mechanismen im Quasar doch nicht schneller ausbreiten als mit Lichtgeschwindigkeit. Man schätzt daher plausibel die Ausdehnung eines Quasars auf einen Lichttag, wenn sich Helligkeitsschwankungen innerhalb von 24 Stunden zeigen. Das ist sehr klein, wenn man bedenkt, dass Galaxien mit vergleichbarer Helligkeit typischerweise einen Durchmesser von 100 000 Lichtjahren haben – Quasare zeigen also eine beängstigende Materiekonzentration, die anfangs die Astronomen zweifeln ließ, ob diese Objekte tatsächlich so weit entfernt sind. All dies begann man vor wenigen Jahrzehnten
26 vom
urknall zum durchknall
zu erkennen, und heute hat man durch automatisierte Beobachtungen Zehntausende von Quasaren identifiziert, die wichtige Aufschlüsse über die Struktur und Entwicklung des Universums geben.
langsame veränderungen am sternenhimmel
Galileis Beobachtungen waren auch deswegen so revolutionär, weil sie zeigten, dass Himmelsobjekte nicht immer gleich aussehen – widersprachen doch die Venusphasen und die unterschiedlichen Konstellationen der Jupitermonde dem Dogma von der Unveränderlichkeit der Himmelssphäre. In subtilerer Weise hat man heute ein ähnliches Problem: Wir wissen noch wenig über eine mögliche langsame Veränderung des Kosmos. Bisher ist man gezwungen, die Dynamik des Weltalls aus einer „Momentaufnahme“ von einigen Jahrzehnten zu erschließen. Geht man von einem Weltalter von etwa 14 Milliarden Jahren aus und setzt dies in Beziehung zu einem Jahr Beobachtungszeit, so könnten wir jede gleichmäßige Veränderung der Naturgesetze während dieses Jahres bestenfalls in der 10. Stelle nach dem Komma sehen – das springt nicht gerade ins Auge. Wir brauchen daher extrem genaue Uhren, um der Natur auf die Finger zu schauen. Übrigens entdeckte man 1967 astronomische Objekte, die noch präziser ticken als die damaligen Atomuhren – sogenannte Pulsare. Wegen der überraschenden Regelmäßigkeit ihrer Radiosignale bezeichnete man sie zuerst scherzhaft als „kleine grüne Männchen“. In Wirklichkeit werden die Pulse durch Neutronensterne erzeugt, sehr schnell rotierende Sternleichen, die sich nach einer Supernova-Explosion auf einen Durchmesser von etwa 15 Kilometer zusammenziehen. Inzwischen haben die Atomuhren wieder aufgeholt, und weitere Fortschritte in der Ganggenauigkeit erhofft man durch die Erfindung des Frequenzkamms, für die Theodor Hänsch 2005 mit dem Nobelpreis geehrt wurde. Vielleicht kann man mit dieser Technik Uhren entwickeln, die in der 17. Nachkommastelle genau gehen. Damit hätte man zum ersten Mal realistische Chancen, eine kosmologische Veränderlichkeit von Naturgesetzen direkt nachzuweisen.
2 galilei
würde ausflippen!
27
licht und lichtgestalten der wissenschaft
Wissenschaft wird vom Menschen gemacht, und wenn wir ihren heutigen Zustand reflektieren wollen, müssen wir auch gelegentlich die dazugehörigen Wissenschaftler betrachten. Hänsch gehört zu einer Sorte von Forschern, von der man sich mehr wünscht. Schon als kleiner Junge war er hingerissen von dem gelben Aufleuchten der Flamme eines Bunsenbrenners, in die er (natriumhaltiges) Kochsalz streute, und dies zeichnete seinen Lebensweg zwischen Licht und Atomphysik vor. Zu meiner Studienzeit untersuchte ich in einem Praktikum an der Münchner Universität die Schwingungen von Kristallen, und Hänschs Versuchsaufbauten befanden sich im gleichen Flur. Eines Abends schaute er ins Labor herein, wechselte mit meinem Betreuer ein paar freundliche Worte und machte sich dann zu dessen Beunruhigung daran, die wertvollen Kristalle mit einem Feuerzeug aufzuheizen. Vielleicht ergab sich ja ein neuer Effekt? Nicht selten hat gerade ein so spielerisches Herangehen zu Entdeckungen geführt. Wenn Hänsch experimentiert, scheint er die Welt der Erwachsenen zu vergessen. Noch heute hat sein Lächeln dabei etwas von einem achtjährigen Jungen, obwohl die Landesregierung seinetwegen das Pensionsalter für Professoren anheben musste – zu peinlich wäre es gewesen, eine Koryphäe der Quantenoptik mit einem Beamtengesetz ins Ausland zu treiben. Neben dem Frequenzkamm hat Hänsch auch bei anderen Laserexperimenten Bedeutendes geleistet, und manche sagen, dass er schon 1997 den Nobelpreis verdient hatte. Seine Karriere begann übrigens, wie er einmal in einer Vorlesung erzählte, als ihm eine spektakuläre Verbesserung der Farbstofflasertechnik gelang. Dazu schlug er vor, im bisherigen Versuchsaufbau den Lichtstrahl aufzuweiten, worauf ihm die Experten erklärten, dies würde nichts bringen. Er hielt aber an der Idee fest, brachte am nächsten Tag sein privates Zeiss-Fernglas mit ins Labor und hielt es in den Strahlengang. Wenige Sekunden genügten, um die Umstehenden zu überzeugen, bevor der intensive Lichtstrahl die Linse durch Überhitzung eintrübte. Wie Hänsch amüsiert berichtete, wurde das auf diese eigentümliche Weise zerstörte Fernglas später anstandslos von Zeiss auf Garantie umgetauscht.
28 vom
urknall zum durchknall
die neue vermessung der welt
Neben der Zeit müssen wir auch den Raum genauestens vermessen, um die uns umgebende Wirklichkeit zu verstehen. Die mit Lasern möglichen präzisen Längenmessungen sind eines der vielen Beispiele, bei denen unser Verständnis aus zunächst rein technischen Fortschritten Nutzen zieht. So umrunden in dem Projekt GRACE zwei Satelliten die Erde, die dabei ihren jeweiligen Abstand auf Mikrometer genau aufzeichnen. Die Sonden mit den Spitznamen „Tom“ und „Jerry“ befinden sich auf exakt gleicher Höhe, und daher kann sich ihr Abstand einzig durch Unregelmäßigkeiten des Erdschwerefeldes ändern. Wertet man alle Abstandsveränderungen aus, erhält man eine beeindruckende Karte, auf der jede kleine Bodenerhebung und die entsprechende Schwerebeschleunigung sichtbar wird. Eine ähnliche Idee liegt einem noch ehrgeizigeren Projekt zu Grunde, dem Laser Astrometric Test Of Relativity, kurz LATOR. Dabei sollen Sonden in eine Umlaufbahn um die Sonne gebracht werden, um die gigantische Distanz dorthin – 300 Millionen Kilometer – auf Millimeter genau zu vermessen.i Sollte es auch nur eine winzige Abweichung von Einsteins Allgemeiner Relativitätstheorie geben, so wird man sie dabei feststellen. Denn die Satelliten sind nicht mehr jenen vielfältigen Schwankungen der Erdoberfläche ausgesetzt, welche die seit langem praktizierte Abstandsmessung zum Mond, das Laser Ranging, leider erschweren. Bei den Apollo-Missionen um 1970 hatte man dort Spiegel aufgestellt, die seither von leistungsfähigen Lasern angepeilt werden, und die dabei erreichte Genauigkeit der Abstandsbestimmung von wenigen Zentimetern ist eigentlich auch schon beeindruckend.
der himmel über uns und der boden unter uns
Faszination für die Wissenschaft weckt man am besten durch direkten Kontakt, und so besuche ich regelmäßig mit meinem AstronomieWahlkurs die Fundamentalstation Wettzell im Bayerischen Wald, wo wir stets freundlich und kompetent betreut werden. Unter anderem betreibt man dort Laser Ranging, und die Forscher freuen sich jedes Mal,
2 galilei
würde ausflippen!
29
wenn sie „einen Treffer landen“, d. h. ein paar rückgestreute Photonen vom Mond empfangen, oder auch von extra dafür gebauten Satelliten wie etwa LAGEOS, dessen Äußeres nur aus Spiegeln besteht. Zudem befinden sich in Wettzell weitere Instrumente, ein Ringlaser zur Messung der Erddrehung und ein supraleitendes Gravimeter, welches das Erdschwerefeld bis auf die 10. Nachkommastelle genau bestimmt. Schon die Gezeitenwirkung des Mondes verursacht dort riesige Ausschläge. Eines der ebenfalls dort betriebenen Radioteleskope wurde im schmuddeligen Februarwetter gerade vom Schnee befreit (Abb. 2). Diese Geräte empfangen elektromagnetische Wellen im Bereich bis zu mehreren Metern, und gerade hier hat sich die Winkelgenauigkeit in den letzten Jahrzehnten extrem verbessert. Dazu müssen Sie sich zuerst klar machen, was geschieht, wenn Sie das Teleskop eines Amateurastronomen mit der Hand zur Hälfte abdecken. Sieht er nur mehr das halbe Blickfeld? Nein. Er sieht weiterhin alles, nur etwas lichtschwächer, jedoch mit der gleichen Winkelgenauigkeit. Diesen Effekt kann man nun
Abbildung 2: Radioteleskop in Wettzell, von dem gerade Schnee entfernt wird. Der Name Fundamentalstation rührt daher, dass mit den Präzisionsmessungen die Basis des raumzeitlichen Koordinatensystems auf der Erde bestimmt wird.
30 vom
urknall zum durchknall
umkehren und mehrere voneinander entfernte Teleskope zusammenschalten. Man erhält dadurch nicht wesentlich mehr Licht, aber eine Winkelauflösung wie ein Fernrohr, das so groß ist wie der räumliche Abstand der zusammengeschalteten Teleskope. Nach diesem Prinzip werden die vier Very Large Telescopes VLT in den chilenischen Anden verbunden, obwohl sie mit 8 Metern Spiegeldurchmesser nicht gerade klein sind. Radioteleskope dagegen erreichen damit sogar die Größe der Erde, denn alle vorhandenen Exemplare können zeitgleich zusammengeschaltet werden, was Very Long Baseline Interferometry (VLBI) genannt wird. Neben einer genauen Positionsbestimmung etwa von Quasaren dient diese Technik auch dazu, unsere Beobachtungsbasis zu vermessen: So werden etwa winzige Variationen der Drehachse der Erde oder Schwankungen der Tageslänge im Millisekundenbereich aufgezeichnet. Zur Auswertung der Signale benötigt man allerdings wieder sehr genaue Uhren.
stolpern über die milchstraße und über den den urknall
Radiowellen galten lange Zeit als etwas sehr Menschliches, und Sendeund Empfangsanlagen dienten vornehmlich zur Telekommunikation – bis im Jahr 1931 der Physiker Karl Jansky bei den Bell Labs in New Jersey eine kleine, aber merkwürdige Störung der transatlantischen Funkverbindungen aufspürte, die sich im Rhythmus von etwas weniger als 24 Stunden zeigte. Ein Astronom erklärte ihm dann, dass die Erde, bezogen auf den Sternenhimmel, sich in genau 23 Stunden und 56 Minuten um sich selbst dreht, und so musste das Signal offensichtlich außerhalb des Sonnensystems entstanden sein – im Zentrum der Milchstraße. Später entdeckte man, dass auch viele Quasare, also entferntere Galaxienkerne, Radiowellen aussenden. In einer originellen Tradition entdeckten 34 Jahre später die Physiker Arno Penzias und Robert Wilson die kosmische Hintergrundstrahlung beim Bau einer rauscharmen Antenne – auch sie arbeiteten bei den von der Telefongesellschaft AT&T betriebenen Bell Labs. Sollten intelligente Außerirdische jemals mit uns in Kontakt treten, würde es sicher dieser Firma anstehen, die Telefongebühren zu kassieren! Und
2 galilei
würde ausflippen!
31
sollten Sie sich wieder einmal über das Krächzen in der Leitung Ihres Billiganbieters ärgern: Vielleicht wird ja die nächste astronomische Sensation daraus. Wieder aber musste jemand anders – diesmal der geniale Robert Dicke – den beiden Glückspilzen erklären, was sie eigentlich gefunden hatten. Dicke war gerade dabei gewesen, selbst eine Antenne für den Mikrowellenhintergrund zu konstruieren, aber absichtlich! Erst weitere 25 Jahre später war man in der Lage, mit den Satelliten COBE und später WMAP die kosmologischen Konsequenzen dieser Daten auszuwerten. Jansky wurde mit der Namensgebung der physikalischen Einheit des Strahlungsflusses belohnt, Penzias und Wilson mit dem Nobelpreis. Jener Astronom, der Jansky den Hinweis gab, sowie Dicke und andere, die den kosmischen Mikrowellenhintergrund schon vorhergesagt hatten, gingen leider leer aus.
die großen observatorien – umfassende beobachtung in der umlaufbahn
Von den hochenergetischen Gammastrahlen bis hin zu den Radiowellen enthält das elektromagnetische Spektrum praktisch eine Vielzahl von „Farben“, die unser begrenzter Sehsinn nicht wahrnehmen kann. In der Vielfalt dieser Informationskanäle (Abb. 3) liegt der Unterschied zwischen Astronomie und Astrophysik – mit letzterer kann man die erstaunlichsten Tatsachen über Sterne und Galaxien erschließen, die über die bloße Ortsbestimmung weit hinausgehen. Satellitenteleskope gibt es nun für fast alle Wellenlängen – ein Programm, das von der NASA als Great Observatories ins Leben gerufen wurde. Röntgenstrahlung wurde von den Satelliten Chandra, ROSAT und XMM Newton untersucht, und der Nachfolger FERMI ist bereits unterwegs. Gammablitz-Teleskope wie SWIFT praktizieren übrigens eine interessante Zusammenarbeit: Wenn SWIFT intensive Ausbrüche in einer Himmelsregion feststellt,
Ausführliche Informationen über weitere Instrumente finden sich bei Wikipedia. Da hier unmöglich alles aufgezählt werden kann, ein paar Stichworte: E-ELT, Keck, Gemini, Magellan, GTC, Spitzer, MAGIC, HESS, VERITAS, ALMA, UHURU, COMPTON, INTEGRAL, LARES, GAIA, RAVE, eROSITA, JDEM, CTA, KM3net, IceCube.
32 vom
urknall zum durchknall
Abbildung 3: Die Milchstraße in verschiedenen Wellenlängenbereichen, von oben nach unten: langwellige Radiostrahlung, atomarer Wasserstoff, kurzwellige Radio- strahlung, molekularer Wasserstoff, Infrarot, mittleres Infrarot, nahes Infrarot, optisch, Röntgenstrahlung, Gammastrahlung.
übermittelt es die Position per Email an Tausende von Amateurastronomen. Diesen gelingt es dann oft, ein Nachglühen des Gamma-Ausbruchs im sichtbaren Licht festzustellen – die wenigen Großteleskope haben kaum Zeit für diese systematische Sisyphosarbeit. So sind Amateurastronomen bis heute der Forschung eine wertvolle Ergänzung. Hochenergetische Teilchen bis zu 1020 Elektronenvolt, die die Atmosphäre ungehindert durchdringen, werden im Pierre-Auger-Observatorium, einem gigantischen Detektor in der Wüste Argentiniens, nachgewiesen. Auch sie erlauben viele astrophysikalische Rückschlüsse. Ebenso haben bei sichtbarem Licht die bodengestützten Teleskope aufgeholt: Die Bildverschmierungen durch Luftunruhe in der Atmosphäre lassen sich inzwischen durch „lucky imaging“ herausmitteln, einer Überlagerung der Einzelbilder einer Hochgeschwindigkeitskamera. Dies wird auch nützlich sein für das geplante Extremely Large Telescope der Euro‑
2 galilei
würde ausflippen!
33
äischen Südsternwarte ESO mit 42 Metern Spiegeldurchmesser, das p sogar die langsame Veränderung der kosmologischen Rotverschiebung feststellen soll. Trotzdem bleibt die Beobachtung oberhalb der Atmosphäre wichtig, denn in weiten Teilen des Infrarot- und UltraviolettBereiches ist diese undurchsichtig. Ohne Satelliten wäre dieses Fenster zum Weltraum verschlossen. So werden die nach James Webb und Herschel benannten Teleskope im Infraroten die leuchtschwächsten Galaxien bei hoher Rotverschiebung entdecken, wobei ich die Namensgebung der Europäer nach dem genialen Astronomen passender finde als die Verewigung eines NASA-Direktors samt Vornamen. Max Planck, der Urvater der Lichtquanten, hätte sich sicher über eine noch präzisere Vermessung seines Strahlungsgesetzes im Mikrowellenhintergrund gefreut, und der Nachfolger von COBE und WMAP heißt nun schlicht Planck. Er soll die größte Genauigkeit liefern, die mit der unvermeidlichen „Vordergrundverschmutzung“ durch die Milchstraße erreichbar ist.
jäger und sammler
Neben allem technischen Wandel befindet sich der Wissenschaftsbetrieb auch in einer soziologischen Umorganisation. Tycho Brahe, der Johannes Kepler die Daten für seine Planetengesetze lieferte, Galileo Galilei, Wilhelm Herschel, Edwin Hubble, Walter Baade, all diese großen Astronomen hatten eines gemeinsam: Es waren Einzelkämpfer, die in kalten Nächten bei ihren Geräten ausharrten und akribisch ihre Beobachtungen aufschrieben. Neben den großen Fragen, denen sie besessen nachgingen, waren sie Experten ihrer Instrumente, mussten Farb- und Sichtbarkeitskorrekturen anbringen, sich um die Nachführung gegen die Erddrehung kümmern und alle Widrigkeiten der astronomischen Knochenarbeit aushalten. So faszinierend die Technik der heutigen Teleskope demgegenüber ist, so wenig ist sie noch von Einzelnen zu bewältigen. So wird beispielsweise die Mehrzahl der Beobachtungen am VLT in Chile im sogenannten service mode ausgeführt, bei dem die gesamte Bedienung durch das lokale Personal erfolgt. Der Astronom, der die Beobachtungszeit erhält, übermittelt dagegen nur Instruktionen und empfängt die Daten. Noch bequemer zugänglich sollen die Bilder des geplanten Large Synoptic Sky
34 vom
urknall zum durchknall
Telescopes (LSST) werden: ein rein über das Internet gesteuertes Teleskop, das jede Nacht der Allgemeinheit Terabytes von Daten zur Verfügung stellt. Angeblich hat Bill Gates seine Unterstützung zugesagt, wobei man hoffen darf, dass uns die Software nicht den Himmel auf den Kopf fallen lässt. Aber auch auf diese Weise werden viele Astronomen noch als Eigenbrötler arbeiten, die ihre sehr spezielle Fragestellung untersuchen. Die einmal gewonnenen Daten werden kaum mehrfach genutzt, obwohl sie nach einer Frist gewöhnlich der Allgemeinheit zur Verfügung stehen. Denn wer will sich schon in die Probleme der Konkurrenz einarbeiten und einen Teebeutel zweimal aufgießen?
ackerbau
Die automatisierten Teleskope haben jedoch noch eine weitere, wahrscheinlich viel zukunftsweisendere Neuerung hervorgebracht. So reservierte man beim Hubble-Teleskop zehn Prozent der Beobachtungszeit auf ein scheinbar zielloses Unterfangen, die Aufnahme eines dunklen Feldes, das kaum bekannte Sterne und Galaxien enthielt. Bei jedem Umlauf des Satelliten wurde ein Bild belichtet, und später brachte man die zahlreichen Fotos – jedes einzelne praktisch vollkommen dunkel – mit Bildbearbeitungssoftware zur Deckung. Ergebnis: eine spektakuläre Aufnahme von Galaxien in vielen Milliarden Lichtjahren Entfernung, von denen im Mittel nur ein Photon pro Minute empfangen wurde, so als wenn Sie eine Glühbirne auf dem Mond erblickten. Dieses Hubble Deep Field bzw. Ultra Deep Field begeisterte zahlreiche Wissenschaftler. Damit wurde eine Entwicklung eingeleitet, die die Arbeitsweise der Astronomie revolutionieren wird, wenn auch nicht in technischer Art. Immer wichtiger werden Übersichtsaufnahmen, bei denen zunächst ohne konkrete Fragestellung große Teile des Himmels fotografiert und allgemein zugänglich gemacht werden. Herausragendes Beispiel dafür ist der Sloan Digital Sky Survey (SDSS), der durch ein relativ kleines, aber voll automatisiertes Teleskop in Arizona gewonnen wurde. Seine Aufnahmen decken den halben Nordhimmel ab und ein ähnliches Projekt für die Südhemisphäre ist im Gange. Nach einer sorgfältigen Auswertung der
2 galilei
würde ausflippen!
35
Rohdaten mit zahlreichen Eichungen und Korrekturen findet man nun fast 300 Millionen Objekte im Internet – Himmelskoordinaten, Rotverschiebungen, Helligkeiten, Farbspektren und Bilder von Sternen, Galaxien und Quasaren. Eine Erweiterung um die kosmologisch besonders interessanten Supernova-Explosionen ist in Vorbereitung. Ein weiterer geplanter Survey – COSMOS – wird ein ausgewähltes Feld des Himmels sogar im ganzen elektromagnetischen Spektrum darstellen, also die Bilder mehrerer Teleskope zusammenführen – phantastisch!
im schlaraffenland der internet-astronomie
Sie können also in Zukunft als Astronom arbeiten, ohne das mühselige Handwerk dazu gelernt zu haben. Mancher mag darüber unglücklich sein oder sich an ein Zitat von Einstein erinnert fühlen: „Die, (…) die sich der Wunder der Wissenschaft und Technik bedienen und nicht mehr davon geistig erfasst haben als die Kuh von der Botanik der Pflanzen, die sie mit Wohlbehagen frisst …“. Den heutigen Astronomen hätte Einstein aber wohl diesen Vorwurf kaum gemacht. Denn die Differenzierung ihres Berufs in Datensammler und „Interpreten“ der Resultate erschließt eine neue Ära, die er vielleicht genossen hätte. Wenn man auf eine sorgfältige Dokumentation der Rohdatenauswertung achtet, erleichtert diese Vorarbeit die Untersuchung der wichtigen Fragen enorm. Schon heute sind viele dieser Präzisionsdaten frei zugänglich. So kann man sich auf der HORIZONS-Webseite der NASA die Bahnen aller bekannter Himmelskörper im Sonnensystem herunterladen. Die Datenbank basiert auf Beobachtungen der Planetenbewegungen über Jahrhunderte, bis hin zu den aktuellen Daten von Raumsonden – wer könnte all dies als einzelner auswerten? Auf IERS.org erhalten Sie die mit Radioteleskopen ermittelten Daten der Erdrotation, und auf dem Server des Geoforschungszentrums Potsdam liegen die Messreihen des Netzes von zwanzig über den Erdball verteilten supraleitenden Gravimetern. All dies ist, wie es so schön heißt, nur ein paar Mausklicks entfernt.
36 vom
urknall zum durchknall
die demokratisierung der astronomie
Der sich anbahnende offene Zugang zum Wissen über das Weltall kann für den Fortschritt der Wissenschaft nicht hoch genug geschätzt werden. Versuchen Sie mal, als Inder oder Afrikaner von einer Feld-Waldund Wiesen-Universität Beobachtungszeit an einem Prestigeteleskop zu bekommen. Nicht dass es unmöglich wäre – aber man wird ein bisschen genauer hinsehen, spielen doch schon die europäisch-amerikanischen Eifersüchteleien eine große Rolle. Noch schwieriger wird es, wenn Sie sich abseits vom Mainstream befinden und etwa eine Hypothese testen wollen, die sich nicht allgemeiner Anerkennung erfreut – eine Situation, in der sich übrigens Galilei befand. Obwohl ihm sein Teleskop bekanntlich auch Ärger einbrachte, die Wahrheit kommt durch diese Instrumente früher oder später ans Licht. Wir können also beruhigt sein. Eine ganz andere Frage ist jedoch, wie viel wir von all diesen Daten schon verstehen. Trotz eines nützlichen Wettbewerbs im Beobachten ist Physik keine Weltrekordjagd nach den meisten Supernovae, dem genauesten Spektrum und dem entferntesten Quasar. Es ist gut möglich, dass die Auswertung dieser Schätze die Generation überfordert, der das Auffinden vergönnt war.
Weiterführende Literatur L. Bergmann/C. Schäfer: Lehrbuch der Experimentalphysik Bd. 8, de Gruyter 2002, Kap. 2+3. A. Unsöld/B. Baschek: Der neue Kosmos, Springer 2002, Teil II. i S. G. Turyshev et al., arXiv:gr-qc/0701102.
3
Die schnelle Verdauung Warum die Kosmologie auf dem falschen Dampfer ist
Es ist Anfang Oktober 1924, am Mount Wilson-Observatorium: Immer wieder betrachtet Edwin Hubble konzentriert eine Fotoplatte, die aus einer Aufnahme der Andromeda-Galaxie entstanden ist. Schließlich zuckt seine Hand, er streicht den Buchstaben „N“ für Nova durch und kritzelt „VAR!“ für Variabilität auf die Platte – dies muss einer der aufregendsten Momente seines Lebens gewesen sein. Er hatte einen besonderen Typ von Stern identifiziert und konnte daraus die Entfernung zu unserer Nachbargalaxie auf 900 000 Lichtjahre bestimmen – die große Debatte, ob es sich nicht auch um ein Objekt in unserer Galaxis handeln könnte, ist damit beendet. Immanuel Kant, der diese „Nebel“ bereits für Welteninseln gleich der Milchstraße gehalten hatte, hatte Recht behalten. Dadurch berühmt, macht Hubble seine zweite große Entdeckung, die die Astronomen seither berechtigt, von einem Alter des Universums zu sprechen: die nach ihm benannte Rotverschiebung des Galaxienlichts, welche man als Expansionsbewegung des Weltalls interpretiert. Je größer die Entfernung, desto schneller scheinen die fernen Welten vor uns zu fliehen. Teilt man die Geschwindigkeit durch die Distanz, ergibt sich eine „umgekehrte“ Zeit, die man als Hubblekonstante bezeichnet. Man kann nun abschätzen, wann etwa alle Galaxien ihren Abstand zu uns verdoppeln werden – oder den Film rückwärts laufen lassen bis zu dem Zeitpunkt, bei dem sich alle Galaxien annähernd an A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_3, © Springer-Verlag Berlin Heidelberg 2010
37
38 vom
urknall zum durchknall
einem Ort befanden: dem Urknall. Diese Zeit von 14 Milliarden Jahren ist eine grobe, aber heute immer noch gültige Näherung für das Alter des Universums.
300 jahre nach KOPERNIKUS – „ungeheuer weit“ wird messbar
Die Entfernungen, die wir im Universum antreffen, mögen messbar sein, vorstellbar sind sie nicht. Astronomen ringen seit Jahrhunderten darum, diese Längenangaben vertrauenswürdig zu machen – mit einem raffinierten System ineinander greifender Beobachtungen, das sie Entfernungsleiter nennen. Die erste Sprosse funktioniert so: Betrachten Sie den Daumen Ihres ausgestreckten Armes und schließen Sie abwechselnd je ein Auge – Sie werden feststellen, dass der Daumen vor dem Hintergrund scheinbar um einen bestimmten Winkel hin- und herspringt. Messen Sie diesen und den Abstand Ihrer Augen, können Sie damit die Länge des Armes zu knapp einem Meter bestimmen – was Sie wahrscheinlich nicht überraschen wird. Denken Sie sich aber nun den Daumen als Stern und Ihren Augenaufschlag abwechselnd im Frühjahr und im Herbst – was auf der Erdbahn um die Sonne einem „Augenabstand“ von 300 Millionen Kilometern entspricht – dann verändern die uns relativ nahe gelegenen Sterne tatsächlich ihre Winkelposition vor dem Hintergrund. Diese sogenannte parallaktische Messung, die 1838 erstmals Friedrich Wilhelm Bessel mit dem Stern 61 Cygni gelang, wurde mit einem Satelliten der Europäischen Weltraumorganisation ESA zur bisher größten Genauigkeit entwickelt. Er trug den Namen HIPPARCOS, einerseits für HIgh Precision PARalactiC pOSition, andererseits dem antiken Astronomen Hipparch von Nikäa die Ehre erweisend, der mit dieser Methode die Entfernung zum Mond bestimmt hatte. Daraus leitet sich übrigens eine jener dem Physiker verhassten astronomischen Längeneinheiten ab, das Parsec (pc). Es entspricht einer Parallaxe von einer Bogensekunde auf der Erdbahn und damit 3,26 Lichtjahren. Bevor der Nachfolgesatellit GAIA unsere Nachbarschaft weiter und
3 die
schnelle verdauung
39
präziser erkunden wird, beschränkt sich die dadurch mögliche Messung von Distanzen auf etwa tausend Lichtjahre. Wie geht es weiter? schwach leuchtend und nah oder hell und entfernt?
Dies ist das Grundproblem der astronomischen Entfernungsmessung – die sichtbare, relative Helligkeit eines Sterns sagt uns zunächst nicht viel. Wir wissen zwar aus geometrischer Überlegung, dass die Helligkeit eines Objektes um den Faktor 100 abnehmen muss, wenn wir es aus der 10-fachen Entfernung betrachten, jedoch nützt dies für die absolute Distanz nur dann, wenn man weiß, wie groß seine Leuchtkraft ist. Objekte, deren absolute Helligkeit man kennt, nennen die Astronomen daher liebevoll „Standardkerzen“. Die Berechnung größerer Entfernungen gelingt am besten mit einer Sorte von Sternen, die während ihrer Lebensdauer eine Art MidlifeCrisis erleben: Sie werden instabil und geraten im wahrsten Sinne in Wallung, so dass ihre Größe und Helligkeit sich sichtbar verändern – und das oft innerhalb weniger Tage. „VAR“ für Variabilität hatte Hubble auf seine Fotoplatte gekritzelt, weil er einen solchen Cepheiden identifiziert hatte. Der zeitliche Abstand zwischen zwei Maxima der Helligkeit, als Schwingungsdauer bezeichnet, gibt eine unabhängige Auskunft über seine Größe. So wie eine große Trommel langsamer schwingt als eine kleine, oszillieren große Cepheiden in Perioden bis zu 30 Tagen, während die leuchtschwachen Exemplare sogar im Tagesrhythmus ihre Helligkeit ändern. Diese Periode-Helligkeitsbeziehung war 1912 von der Astronomin Henrietta Leavitt entdeckt worden, nachdem sie die geniale Idee hatte, Cepheiden in der Kleinen Magellanschen Wolke zu vergleichen, einer Begleitgalaxie der Milchstraße. Die Entfernung dorthin gilt seither als „zweite Sprosse“ der Entfernungsleiter, auf der alle extragalaktischen Distanzen aufbauen., i Im Moment versucht man eine neue „Ankergalaxie“ NGC 4258 zu etablieren, deren Distanz man mit einer recht raffinierten Masertechnik auf etwa 4 Prozent genau kennt.
40 vom
urknall zum durchknall
eine sensation, aber noch ziemlich falsch
Hubble hatte also in Andromeda einen Cepheiden identifiziert, und es würde ihm sicher gefallen, dass eine der genauesten Messungen der Hubblekonstante auf Cepheiden in den Virgo- und Fornax-Galaxienhaufen beruht – aufgenommen vom Hubble-Teleskop. Wie kann man sich besser verewigen? Trotzdem geschah etwas, das ihm so peinlich war, so dass er befürchtete, dadurch des Nobelpreises unwürdig zu werden – übrigens zu Unrecht, denn das Komitee hatte ihn 1953 schon auserwählt, was ihm leider nicht mehr vor seinem Tod bekannt wurde. Für die Distanzen zu entfernteren Galaxien war Hubble damals noch auf andere Methoden angewiesen und bestimmte so die meisten Entfernungen viel zu kurz. Irrtümer passieren dabei übrigens fast immer in dieser Weise. Sucht man nach einer Gattung von Sternen, so entdeckt man deren helle Exemplare eben leichter und gelangt so zu einer ungerechten Auswahl, bei der die kleinen Sterne schlicht übersehen werden. Es ist so, als ob Sie aus einer dichten Menschenmenge scheinbar zufällig Personen auswählen und mit diesen die durchschnittliche Körpergröße bestimmen – Sie kommen auf ein falsches Ergebnis, weil Ihnen bei der Auswahl die Großen mehr ins Auge gesprungen waren. Dieser Effekt, die Malmquist-Täuschung, plagt die Astronomen bis heute und hat schon manche statistische Analyse zunichte gemacht. Zudem war Hubble ein recht subtiler Fehler unterlaufen: Die Schwingungsdauer der Cepheiden hängt leider nicht nur von der Größe ab, sondern auch vom Anteil an Elementen, die schwerer sind als Helium und von den Astronomen unter Nichtbeachtung jeder elementaren Chemie „Metalle“ genannt werden – auch Sauerstoff in einem Stern heißt „Metall“. Schwere Elemente im Stern vergrößern dessen Wärmekapazität, was die Energieabstrahlung erleichtert – bei gleicher Schwingungsdauer leuchtet ein metallreicher Stern also heller. So einen hatte Hubble in Andromeda aufgespürt und ihn mit den metallarmen, schwach leuchtenden Cepheiden in der Kleinen Magellanschen Wolke verglichen. Einfach Pech, aber auch eine Warnung, welche Fallstricke in der Astronomie lauern können. Hubbles Fehler bemerkte Walter Baade, der kurioserweise als Deutscher das 1944 weltweit beste Teleskop am Mount
3 die
schnelle verdauung
41
Wilson allein benutzen konnte, weil Hubble kriegsbedingt abwesend war. Letztlich konnte man Hubble nicht tadeln, befremdlich war jedoch, wie blind alle seiner Autorität vertraut hatten. Eine Zeit lang schienen die Astronomen mehr damit beschäftigt, den Rest der Astrophysik mit Hubbles Entfernungen in Einklang zu bringen als umgekehrt. Mit technisch sorgfältiger Arbeit allein ist es nicht immer getan. Denn gerade bei den oft indirekten Schlüssen in der Astronomie schleichen sich leicht systematische Fehler in Form von falschen Annahmen ein, die die bekannten Messungenauigkeiten um ein Vielfaches übersteigen. Als sich durch Baades Resultate die gemessene Größe des Weltalls so plötzlich „verdoppelt“ hatte, aber wieder alle von der Richtigkeit der Werte überzeugt waren, spottete der russische Physiker Lev Landau: „Kosmologen sind oft im Irrtum, aber nie im Zweifel“. Der Glaube der Wissenschaftsgemeinde, die aktuelle Beschreibung des Universums sei bereits im wesentlichen die endgültge, findet sich heute praktisch unverändert und man verdrängt den Gedanken, dass wir unser Weltbild schon oft gründlich revidieren mussten.
das universum verdoppelt nochmal seine größe
Baade musste ebenfalls erleben, dass seine Messung und damit der Wert für die Hubblekonstante von seinem Schüler Allan Sandage korrigiert wurde. Auch Baade war einer Täuschung in der gleichen Richtung aufgesessen, er hatte helle Wasserstoffwolken für Sterne gehalten und so die Entfernung unterschätzt. Zwar stützt man sich heute auf die zuverlässigeren Messungen mit den Cepheiden, die man noch in über 50 Millionen Lichtjahren Entfernung aufspüren kann, dennoch ist der favorisierte Wert von 72 Kilometer pro Sekunde pro Megaparsec, der 14 Milliarden Jahren entspricht, keinesfalls frei von möglichen Fehlern. Denn um die Cepheiden in unmittelbarer Nähe, deren Entfernung wir durch Parallaxen kennen, mit jenen in der Magellanschen Wolke zu vergleichen, muss man ein paar Annahmen über den Einfluss der Metalle machen, die auch falsch sein könnten. Zu der Kosmologie-Konferenz in
42 vom
urknall zum durchknall
St. Petersburg 2008 konnte der damals 82-jährige Sandage nicht mehr erscheinen, schrieb jedoch einen anrührenden Brief an Rudy Schild, den dieser den Teilnehmern in Auszügen vorlas: „… ich werde nicht mehr in die Arena kommen … aber H0 = 72 ist NICHT richtig. Falsche Cepheiden-Eichung und unverstandene Auswahlfehler …“. So geht die Diskussion also weiter, während die Schüler Sandages auf Werten um 62 insistieren, gehen die neuesten Messungen sogar von H0 = 74 km/s Mpc aus.ii Präziser als auf 5–10 Prozent kann man daher die Hubblekonstante schwerlich angeben, und das Alter des Universums erst recht nicht. Oft liest man aber von einer bis zu zehnmal höheren Genauigkeit. Das zu kritisieren mag kleinlich klingen, aber das Unterschätzen der Fehler ist zu einer ernst zu nehmenden Krankheit in der Kosmologie geworden.
supernova – die katastrophe als messlatte
Verfolgt man die Entwicklung der jüngeren Kosmologie, waren die noch weiteren Entfernungen lange sehr unsicher. In Milliarden Lichtjahren Distanz kann man unmöglich einzelne Sterne erkennen. Hier helfen uns ganz ungewöhnlich helle Ereignisse weiter: Supernova-Explosionen. Meist führt das Aufbrauchen des Brennstoffes in einem großen Stern mit anschließendem Kollaps zu diesen Katastrophen, allerdings in ganz unterschiedlicher Helligkeit. Manchmal umkreisen sich zwei Sterne aber in so geringem Abstand, dass dauernd Gas von einem zum anderen strömt. Erreicht der Schmarotzer dadurch eine kritische Größe, kollabiert das Sterninnere und es kommt ebenfalls zur Explosion, sozusagen ein Platzen durch Überfressen. Diese Supernovae vom Typ Ia sind alle ähnlich hell und lieferten seit den 80er Jahren Werte für die Hubblekonstante auch bei größeren Entfernungen. Abweichend von den anderen Messungen ergab sich regelmäßig ein kleinerer Wert, also ein älteres Universum. Das war Balsam auf die Wunden der Kosmologen, die jahrzehntelang den Spott der Physiker ertragen mussten, dass das Universum wohl jünger als sein Inhalt sei.
3 die
schnelle verdauung
43
kugelsternhaufen, die grauen haare der galaxis
Um dies zu verstehen, müssen wir ein wenig ausholen und jene wunderschönen Gebilde betrachten, die nur auf der Südhalbkugel mit bloßem Auge zu erkennen sind – Kugelsternhaufen, wie ich sie einmal in Namibia sehen konnte (Abb. 4). Ein winterlich klarer Himmel, der Lichtsmog der Hauptstadt Windhoek in sicherer Entfernung von 120 Kilometern, dazu Wüstentrockenheit in 1 800 Meter Höhe – der Sternenhimmel bot dort ein Schauspiel, das man sich unter den diffus beleuchteten Dunstglocken unserer Großstädte nicht mehr vorstellen kann. Bei diesen Sternhaufen handelt es sich um Ansammlungen von etwa einer Million Sternen, die – und das ist wichtig – sich weit außerhalb der Galaxienscheibe befinden. Wie in einem Vorort, in dem nichts los ist und der an Überalterung leidet, werden dort keine neuen Sterne geboren. Astronomen haben schon lange gelernt, Sterne anhand ihrer Farbe einzuteilen – von den kleinen, schwach rötlich glühen-
Abbildung 4: Kugelsternhaufen 47 Tucanae, rechts daneben die kleine Magellansche Wolke. Aufgenommen in Hakos, Namibia mit einem 100 Millimeter-Objektiv auf einer Kleinbildkamera. Mit freundlicher Genehmigung von Stefan Geier.
44 vom
urknall zum durchknall
den, bis zu den sehr hellen, weiß-bläulich leuchtenden. Diese Farbe hat übrigens nichts mit der Dopplerverschiebung durch Bewegung zu tun, sondern ergibt sich durch Plancks Strahlungsgesetz aus der Oberflächentemperatur – je heißer, desto bläulicher. Die Temperatur der Sonnenoberfläche ermitteln wir beispielsweise dadurch zu 5 500 Grad Celsius. Wie kommt man nun auf das Alter der Kugelsternhaufen? Nun, die großen Sterne leuchten nicht, wie man glauben möchte, länger, sondern strahlen um ein Vielfaches mehr Energie ab, so dass sie schon nach wenigen Millionen Jahren ihr kurzes, aber heftiges Leben aushauchen. Entsprechend findet man in Kugelsternhaufen keine solche blauen Exemplare mehr. Daher müssen Kugelsternhaufen, die nur noch langsam vor sich hin köchelnde rote Zwerge enthalten, ein erstaunliches Alter aufweisen – man errechnet aus den entsprechenden Farben-Helligkeitsdiagrammen bis zu 14 Milliarden Jahre. Ziemlich viel, selbst wenn man davon ausgeht, dass sich Spiralgalaxien nebst ihren Vorstädten recht schnell nach dem Urknall gebildet haben. Hier bahnte sich ein Widerspruch an.
ist das universum schon so alt wie seine sterne?
Wenn Sie nun glauben, 14 Milliarden Jahre und der Kehrwert der Hubblekonstante von 14 Milliarden Jahren, das würde gerade noch passen, dann irren Sie sich leider! Erinnern wir uns, dass wir bei der Hubblekonstante einfach die heutige Expansionsgeschwindigkeit zurückgerechnet hatten – dies ist jedoch bei genauerem Hinsehen nicht legal, da die Gravitationskraft ein expandierendes Universum abbremsen muss. Dann sollte aber das Universum in jedem Fall jünger sein – man konnte allenfalls diskutieren wie viel, eine Frage die wiederum von der Massendichte abhängt und uns später noch weitere Rätsel aufgeben wird. Die Kosmologie befand sich also in erheblicher Erklärungsnot. In den 1990er Jahren machten die Beobachter des Supernova-Typs Ia jedoch eine wichtige Entdeckung: Man stellte fest, dass die lichtschwachen Explosionen viel schneller zu Ende gingen als die hellen.
3 die
schnelle verdauung
45
Wieder waren also die Dicken langsamer – wie bei den veränderlichen Cepheiden-Sternen. Aus der Dauer der Explosion erkennt man so ihre absolute Helligkeit, was die Bestimmung der Entfernung und damit der Hubblekonstante bei großen Distanzen drastisch verbesserte. Daher ist diese Methode ähnlich bedeutend wie die von Henrietta Leavitt 1912 entwickelte Cepheiden-Messung. Das gab der Supernova-Gemeinde unter den Forschern Selbstbewusstsein, und zudem schienen ihre Ergebnisse auf ein – erwünschtes – höheres Alter des Universums hinzudeuten. Nur: Die Messungen bei kürzeren Distanzen wurden ja dadurch nicht falsch. Die Diskrepanz trat jetzt nur noch klarer zu Tage, und führte zu der peinlichen Situation, dass sich die Werte für das Weltalter der beiden Forschergemeinden um einen Faktor zwei unterschieden! Und doch handelte es sich bei den Konkurrenten um renommierte Gruppen, die nach bestem Wissen Schlüsse aus ihren Daten zogen – nur arbeiteten sie eben mit unterschiedlichen Objekten. In diesem Spagat entschloss man sich zu einer radikalen Lösung: Beide haben recht. Um die Ergebnisse in Einklang zu bringen, musste man jedoch die Annahme fallen lassen, die Expansion des Universums sei durch die Gravitation gebremst. Vielmehr scheint es – wenn man die Daten so interpretiert – seine Expansion zu beschleunigen. Diese Konsequenz lässt sich sicherlich nicht leicht verdauen, entspricht sie doch sonst gar nicht der Erfahrung: Es ist so, als ob ein nach oben geworfener Stein nicht abgebremst würde und zur Erde zurückfiele, sondern ab einer bestimmten Höhe immer schneller nach oben flöge. Dennoch war damit die Peinlichkeit der zu alten Kugelsternhaufen beseitigt und vor allem der Konflikt der H0-Messungen beigelegt. Alle waren zufrieden. In der Wissenschaftsgeschichte war aber Konsens oft gefährlich.
neues paradigma oder pyrrhussieg moderner epizyklen?
Wenn auch die Supernova-Daten überraschend waren, kam doch die Interpretation als beschleunigte Expansion gelegen – schließlich war ein bedeutender Fortschritt in der Messung erreicht worden und kei-
46 vom
urknall zum durchknall
nem der Beteiligten wurde wirklich weh getan. Nur: Was soll diese abstoßende Beschleunigung verursachen? Die Vorschlag der Dunklen Energie ist im Moment kaum mehr als eine hilflose Begriffsbildung für eine Erscheinung, die wir nicht verstehen. Dies wird sogar von den Ent deckern unumwunden zugegeben, obwohl manche Theoretiker dankbar für ein neues Arbeitsgebiet sind, in dem sie wieder viel rechnen können. Aber Physik ist einfach. Und eine unerklärte Zahl mehr – ob sie nun Dunkle Energie oder anders heißen mag – ist eine unscheinbare, aber schwerwiegende methodische Niederlage. Als man im Ptolemäischen Weltbild die beobachteten Planetendaten nicht mehr mit einfachen Kreisen um die Erde erklären konnte, führte man eine Kreisbewegung auf der Kreisbewegung ein, sogenannte Epizyklen. Als bessere Beobachtungen erneut eine Abweichung ergaben, wurden die Mittelpunkte der Hauptkreise jeweils um einen kleinen Wert verschoben, den Exzenter. Und alles stimmte wieder! Nur kann jedes fehlerhafte Modell gerettet werden, „wenn man sich auf solche Fummeleien einlässt“, wie Simon Sing in seinem ausgezeichneten Buch Big Bang schreibt.iii Heute ist man sich daher einig, dass dieses Postulieren unverstandener Mechanismen kein Fortschritt war, sondern eine Erosionserscheinung der Wissenschaft, übermalter Rost einer Konstruktion, die brüchig wurde. Damals fiel es bekanntlich schwer, ein gefestigtes Weltbild aufzugeben – das gilt heute umso mehr, als keine vernünftigen Alternativen zu existieren scheinen. Aber sollten wir nicht wenigstens gewarnt sein? Auf den Konferenzen dagegen begegnet man einer beunruhigenden Euphorie: Die beschleunigte Expansion samt ihren theoretischen Beschreibungen wie kosmologische Konstante, Dunkle Energie oder Quintessenz taucht an allen Ecken und Enden auf, jeder sieht sie nun ganz klar! „Anders sind die Röntgenbeobachtungen nicht zu deuten“ oder „Die Galaxienverteilung ist sonst nicht mit den Modellen in Einklang zu bringen“ schreibt zum Beispiel Christopher Conselice von der Universität Nottingham mit bewundernswerter Naivität.iv Dabei sollte man sich als Wissenschaftler bewusst sein: Mit einem weiteren freien Parameter, also einer Zahl mehr, die man anpassen kann, erklärt sich jeder Datensatz besser.
3 die
schnelle verdauung
47
am vorderen tore wehrt man den tiger ab, und durch die hintertür kommt der wolf ins haus (chinesisches sprichwort)
Analysiert man die bei verschiedenen Rotverschiebungen sichtbaren Supernovadaten, so ergibt sich folgendes Szenario: Zunächst, also in einer frühen Entwicklungsphase des Universums, war die Beschleunigung noch nicht wirksam und die Expansion daher gebremst. Schließlich gewann die Dunkle Energie an Bedeutung – sie wächst mit der Ausdehnung – und zu einem bestimmten Zeitpunkt ist die anfängliche Bremsung durch die Beschleunigung genau kompensiert. Nun raten Sie bitte, wann dies der Fall war: nach 14 Milliarden Jahren, also heute. Vor kurzem hat mir wieder ein Kosmologe versichert, dass dies reiner Zufall sei. Sie wundern sich? Zu recht. Diese Merkwürdigkeit heißt Koinzidenzproblem, denn das akzeptierte Modell ist schon etwas paradox: Die Phasen der Bremsung und Beschleunigung der Expansion könnten doch genauso gut so verteilt sein, dass unsere momentane Ausdehnungsrate, die Hubblekonstante, nicht viel mit dem Weltalter zu tun hat. Es ist etwa so, als ob sie auf einer längeren Autofahrt mit sehr unterschiedlichen Geschwindigkeiten unterwegs sind. Sie können dabei jederzeit die Durchschnittsgeschwindigkeit für die bisherige Strecke errechnen, aber die Wahrscheinlichkeit, dass sie in einem bestimmten Moment gerade mit dieser Durchschnittsgeschwindigkeit fahren, ist doch recht gering. Wenn wir also davon ausgehen, dass intelligentes Leben auch in einer früheren oder späteren Epoche des Universums entstehen kann, dann passiert uns gerade ein ulkiger Zufall. Oder lacht jemand da draußen? Sind wir gerade wieder der Einbildung aufgesessen, unsere bescheidene Gegenwart sei etwas besonderes? Die Dunkle Energie hat Widersprüche bezüglich des Weltalters aufgelöst, aber das Koinzidenzproblem nährt den Verdacht, dass diese Reparatur zu bequem war. Der Kosmologe Lawrence Krauss hat übrigens auf eine paradoxe Folge hingewiesen: Die beschleunigte Expansion führt dazu, dass entfernte Objekte wieder aus unserem sichtbaren Horizont verschwinden. So wird
48 vom
urknall zum durchknall
es beispielsweise in späteren Epochen des Universums unmöglich sein, den kosmischen Mikrowellenhintergrund zu beobachten.v Zukünftige Kosmologen werden also ein recht eintöniges Universum vorfinden – umso besser also, dass wir jetzt schon alles verstanden haben!
kosmologie durch mehrheitsentscheidung
Trotz dieser Merkwürdigkeiten sind die meisten Kosmologen begeistert darüber, dass sich nun alles fügt und man auf ein „festes Modell“ bauen kann. Dabei sind sogar die zuverlässigsten Daten noch rätselhaft genug. Selten hört man dazu nachdenkliche Stimmen, wie etwa in einem Vortrag von Bruno Leibundgut, der einer der bekannten Supernova-Gruppen angehört. Bei der Leopoldina-Konferenz 2008 in München zum Thema Dunkle Energie sagte er, es sei ja ein nettes Spielchen, bis zu 1 500 Supernovaeereignisse pro Jahr zu sammeln, aber die große Verschiedenheit der Explosionen gebe ihm doch Rätsel auf. „Da kann man sich doch die besten aussuchen!“ kam ein Einwand aus dem Publikum. „Das halte ich für ein gefährliches Spiel,“ antwortete Leibundgut, „und es führt auch nicht weiter, wenn wir die Variation in ein paar Diagrammen darstellen, wir müssen noch den Mechanismus verstehen!“ Er erntete jedoch Achselzucken und einer mutmaßte gar, er sei wohl an diesem Tag schlecht drauf gewesen. Nachdenklichkeit ist vielen Wissenschaftlern heute fremd, sie genießen das Wir-Gefühl der gemeinsamen Entdeckung und feiern das „Konkordanzmodell“, genannt auch consensus cosmology. Aber was bedeutet das eigentlich? Die Mahnung von Lev Landau an die Kosmologen, sie seien „oft im Irrtum, aber niemals im Zweifel“ kommt einem heute unweigerlich in den Sinn, und manche machen sich über den Ausdruck lustig, so wie Rudy Schild, den ich in einer Kaffeepause in St. Petersburg 2008 darauf ansprach. „Konsens? Welcher denn? Weißt du, wessen Konsens das war?“ Er schlürfte aus seinem kleinen Plastikbecher. „Der Konsens einer Handvoll Kerle aus Princeton, die zu viel Tee miteinander trinken!“ Er grinste schelmisch dazu, aber wahr ist jedenfalls, dass sich die neue Ansicht innerhalb kürzester Zeit in der
3 die
schnelle verdauung
49
Wissenschaftsgemeinde durchsetzte – es genügte die Übereinstimmung zweier Forschergruppen und ein Nature-Artikel im Jahr 1998, eine Art Schnellrevolution per Dekret. Wissenschaftliche Umwälzungen sahen in der Geschichte anders aus und – ließen ihre Feudalherren in der Regel auch nicht so in Amt und Würden. So leben wir also heute mit einem „einfachen“ – das kann man jedenfalls lesen – „Standardmodell“ der Kosmologie. Alle rechnen und messen damit, obwohl die wesentlichen Bestandteile wie Dunkle Materie und Dunkle Energie nur „nützliche Parameterisierungen unseres Unwissens sind“. So heißt es sogar bei dem mehrheitsfähigen Wikipedia, übrigens nicht von mir bearbeitet, nicht dass Sie meinen. Die Eigenart der Situation liegt darin, dass kaum jemand bereit ist, das System der komplizierenden Annahmen, das mit der Dunklen Energie seinen vorläufigen Höhepunkt erreicht hat, grundsätzlich in Frage zu stellen, obwohl viele der Kosmologin Ruth Durrer aus Genf Recht geben, die schreibt:vi „Es ist klar, dass wir hier etwas ernstlich missverstehen“. Alles deutet aber darauf hin, dass die moderne Kosmologie aus dem Beispiel der mittelalterlichen Epizyklen nicht viel gelernt hat. weiterführende literatur S. Singh: Big Bang, WBG Darmstadt 2005, Kap. 3. J. Kaler: Sterne, Spektrum Verlag 2000. J. Silk: Die Geschichte des Kosmos, Spektrum Verlag 1999. L. Bergmann/C. Schäfer: Lehrbuch der Experimentalphysik Bd. 8, de Gruyter 2002, Kap. 4. A. Unsöld/B. Baschek: Der neue Kosmos, Springer 2002, Teil III. i L. M. Macri et al., arXiv:astro-ph/0608211. ii www.cfa.harvard.edu/~huchra/; www.institute-of-brilliant-failures.com/ iii Singh, S. 45. iv C. Conselice, SdW 5/2007, S. 36. v L. W. Krauss et al., arXiv:0704.0221. vi R. Durrer et al., arXiv:0811.4132.
Teil II
Kreuzung
4
Wurzelbehandlung Gravitation, Einstein und Raumzeit: Um was es eigentlich geht
Die Mehrheit der Astronomen ist überzeugt, dass das Konkordanzmodell die Kosmologie im wesentlichen richtig beschreibt. Man tut dem Modell allerdings zu viel Ehre an, wenn man es als Inkarnation der Allgemeinen Relativitätstheorie betrachtet, da ihre für die Kosmologie relevanten Gleichungen sich sogar mit der Newtonschen Theorie herleiten lassen. Denn Einsteins Theorie geht für schwache Gravitationsfelder, also geringe Beschleunigungen, perfekt in das Newtonsche Gravitationsgesetz über. Das gleiche gilt für Newtons Bewegungsgesetze und die Spezielle Relativitätstheorie, die Einstein zehn Jahre früher, 1905, entwickelt hatte (wo, sehen Sie in Abb. 5). Sie baut auf einer überraschend einfachen Erkenntnis: Die Lichtgeschwindigkeit ist immer gleich groß, auch wenn man sich in einem bewegten System befindet. Ein solches Relativitätsprinzip hatte zuerst Galilei entdeckt und die Gegner des heliozentrischen Weltbildes darauf hingewiesen, dass uns Kühe und Bäume keineswegs um die Ohren fliegen müssen, wenn wir uns die Erde als bewegt vorstellen. In der Tat kann man mit keinem physikalischen Experiment zwischen dem Zustand der Ruhe und dem einer gleichförmigen Bewegung unterscheiden.
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_4, © Springer-Verlag Berlin Heidelberg 2010
53
54 vom
urknall zum durchknall
prinzip logik – bewegte uhren gehen langsamer
Einstein tat nichts anderes, als dieses Galileische Relativitätsprinzip auch bei einem modernen Experiment ernst zu nehmen, der Messung der Lichtgeschwindigkeit. Wenn Sie auf der Autobahn die Scheinwerfer einschalten, bewegt sich Licht sich trotzdem nur mit Lichtgeschwindigkeit, auch vom Straßenrand aus betrachtet. Da in bewegten Systemen Lichtlaufzeiten aber anders gemessen werden als in ruhenden, folgt merkwürdigerweise: Bewegte Uhren müssen langsamer laufen. Mit einer einfachen Überlegung und dem Satz des Pythagoras leitet man so den bekannten Faktor 1 − (v2 /c2 ) her, um den die Zeit langsamer vergeht, die Zeitdilatation. Um den gleichen Faktor werden Längen verkürzt gemessen, wenn man sich in einem bewegten System befindet, was Längenkontraktion genannt wird. All dies folgt aus elementarer Logik und bleibt auch bei anderen Gedankenexperimenten vollkommen widerspruchsfrei. Lassen Sie sich daher nicht beeindrucken, wenn im Internet irgendwelche Spinner dagegen polemisieren und mit einem fünfzeiligen Argument einen „offensichtlichen“ Fehler in der Logik Einsteins nachweisen wollen. Einstein ist nun mal eine Ikone wie Freud oder Darwin, die fast magisch pinkelnde Hunde anzieht. Aber an der Speziellen Relativitätstheorie gibt es nicht den geringsten Zweifel, alle ihre Vorhersagen wie Zeitdilatation oder die Zunahme der Ruhemasse, die sich in der berühmten Formel E = mc² ausdrückt, sind experimentell hervorragend bestätigt.
ein 17 jähriger reitet auf der lichtwelle
Die Arbeitsweise Einsteins sollte uns übrigens Anlass zu näherer Betrachtung sein. Die grundlegende Idee ging ihm schon im Kopf herum, als er als verliebter Teenager die Kantonsschule im schweizerischen Aarau besuchte – er stellte sich vor, was passieren würde, wenn er sich parallel zu einer Lichtwelle bewegte. Dies deutet darauf hin, dass das Beherrschen mathematischer Formalismen weniger wichtig ist als die
4 wurzelbehandlung 55
Abbildung 5 : Heutige Aussicht aus Einsteins Wohnung in der Kramgasse 49 in Bern, in der um 1905 seine Arbeit zur speziellen Relativitätstheorie entstand. Die markante “Zytglogge” im Hintergrund mag ihn auch dazu bewogen haben, grundlegend über die Zeit nachzudenken.
Fähigkeit, sich zu wundern und die richtigen Fragen zu stellen. In ähnlicher Art und Weise ging Einstein die Verallgemeinerung der Gravitationstheorie an. Stellen Sie sich vor, Sie halten sich in einem fensterlosen Zimmer auf, das sich irgendwo im schwerelosen Weltall befindet, aber dauernd beschleunigt ist. Ist der Antrieb stark genug, wird die Trägheit Ihres Körpers Sie auf den Zimmerboden drücken, ganz so als befänden Sie sich in einem Verlies auf der Erde – wieder handelt es sich um eine Situation, die man experimentell nicht unterscheiden kann. Dieses Gedankenexperiment ist auch mit der Frage nach der Natur der Masse eng verknüpft. Sogar ohne Gravitationsfelder spüren wir die träge Masse eines Körpers als Eigenschaft, die sich der Beschleunigung
Einstein schreibt: „Ich hatte das Glück, auf Bücher zu treffen, die es nicht allzu genau nahmen mit der logischen Strenge …“.
56 vom
urknall zum durchknall
widersetzt. Andererseits nehmen wir die schwere Masse als Kraft in einem Gravitationsfeld wahr. Handelt es sich wirklich um die gleiche Masse? Einstein wunderte sich darüber „im höchsten Grade“, wie er in seinen Erinnerungen Mein Weltbild schreibt, kam zu der Überzeugung: Ja, und baute auf der Gleichheit von träger und schwerer Masse, dem Äquivalenzprinzip, seine ganze Theorie auf. Beschleunigung führt zu Geschwindigkeit, die notwendigerweise den Zeitablauf beeinflusst. Wenn aber Beschleunigungen die gleichen Effekte wie Gravitationsfelder haben, dann müssen auch diese den Gang unserer Uhren beeinflussen, selbst wenn wir dort nur herumstehen. Die Zeitdilatation in Gravitationsfeldern ist deshalb ein zentraler Effekt der Allgemeinen Relativitätstheorie.
der fahrplan der natur – spezielle und allgemeine relativitätstheorie
Den Faktor, um den die Zeit in Gravitationsfeldern langsamer vergeht, können Sie einfach berechnen. Er ist gleich dem Faktor einer bewegten Uhr, wenn man die Bewegungsenergie mit der Energie im Gravitationsfeld gleichsetzt (siehe Formelkasten). Die Berechnung ergibt, dass in Hamburg die Zeit um zehn Mikrosekunden pro Jahr langsamer vergeht als in den Alpen – sicher nicht genug, um den gegenteiligen Effekt der Erholung auszugleichen, aber doch mit Atomuhren gut messbar. Obwohl die Überlegung mit der Energie zunächst etwas salopp erscheint, lässt sie uns die Merkwürdigkeit des Zeitablaufs in der Speziellen und Allgemeinen Relativitätstheorie noch weiter genießen. Stellen Sie sich vor, ein Stein, den Sie in die Luft werfen, hätte eine Uhr bei sich und sein Ehrgeiz wäre, diese möglichst langsam laufen zu lassen. Durch seine Abwurfgeschwindigkeit geht die Uhr nach der speziellen Relativitätstheorie schon etwas langsamer, aber es wäre dennoch ungünstig, ungebremst weiter nach oben zu fliegen: So geriete er ja in ein schwä In gleichem Maße gibt es auch eine Kontraktion der Längen; dies folgt nicht so unmittelbar wie in der Speziellen Relativitätstheorie, kann aber dennoch sehr gut überprüft werden.
4 wurzelbehandlung 57
cheres Gravitationsfeld, das seine Uhr wieder schneller ticken lässt. Es ist also günstig für den Stein, irgendwann umzukehren und immer schneller fallend (beruhigt die Uhr) sich in ein stärkeres Gravitationsfeld zu begeben (ebenso). Was ist nun der günstigste Fahrplan, bei der der Stein seine Uhr möglichst langsam ticken lässt? Genau die Bahn, die sich nach den „herkömmlichen“ Bewegungsgesetzen ergibt! So lassen sich Naturgesetze oft auf eine überraschende Weise formulieren – zwar anspruchsvoll, indem man zwei Relativitätstheorien für einen Steinwurf bemüht, aber gleichzeitig allgemeingültig.
Zeitdilatation in Spezieller und Allgemeiner Relativitätstheorie Setzt man die Bewegungsenergie gleich der potenziellen Energie im Gravi tationsfeld, so ergibt sich 21 mv2 = GMm , also v2 = 2GM , und damit wird r r 2 der Faktor der Zeitdilatation statt 1 − vc2 zu 1 − 2GM . Setzt man 2 rc
die Gravitationskonstante G = 6,67 × 10−11 (m3/kg s2), die Masse der Erde M = 5,98 × 1024 kg, die Lichtgeschwindigkeit c = 3,0 × 108 m/s, und den Erd radius r = 6 370 km ein, so ergibt sich ein um 22 Millisekunden pro Jahr langsamerer Zeitablauf als im schwerelosen Weltraum.
Daher gelten solche Prinzipien wie das der minimalen Zeit, die man mit Methoden der Mathematiker Euler und Lagrange behandelt, als Schlüssel zu konsistenten Naturgesetzen. Warum spielt die Energie in der Physik überhaupt eine so eine bedeutende Rolle? Es stellt sich heraus, dass die Summe der kinetischen, potenziellen und anderer Energieformen bei allen Gelegenheiten wie fallenden Steinen, schwingenden Pendeln oder oszillierenden Federn gleich bleibt, und uns damit komplizierte Vorgänge unabhängig von der momentanen Situation beschreiben lässt. Mit anderen Worten: Der Begriff der Energie ermöglicht Naturgesetze, die unabhängig von der Zeit sind. Vergessen wir jedoch nicht, dass alle Experimente dazu während einer astronomisch betrachtet kurzen Zeitspanne stattgefunden haben,
58 vom
urknall zum durchknall
in der Homo sapiens Physik macht. Für „momentan“ oder schnell ablaufende Prozesse ist die Energieerhaltung ein sehr gutes Naturgesetz, aber eine winzige kosmologische Korrektur würde keineswegs sofort auffallen. Daher müssen wir in der Kosmologie den Begriff der Energie hinterfragen.
mach gegen newton – kein raum ohne materie
Niemand hat sich wohl intensiver mit dem Begriff der Zeit auseinandergesetzt als der britische Physiker Julian Barbour. Seine zentrale These – die Zeit gebe es gar nicht – schien mir auf den ersten Blick sehr abstrus. Als ich hörte, dass er sich 35 Jahre lang damit beschäftigt hatte, hielt ich den Ansatz zuerst für eine misslungene Entschuldigung für die verplemperte Zeit. Aber es steckt mehr dahinter. Wenn wir sagen, eine Sekunde dauert heute gleich lang wie eine Sekunde gestern – was bedeutet das? Keinesfalls sind dies nur Wortspiele, denn all unsere Wahrnehmung der Zeit besteht aus der Beobachtung von periodisch ablaufenden Vorgängen in der Natur. Sich eine „absolute“ Zeit vorzustellen, die auch ohne materielle Vorgänge verrinnt wie ein unsichtbarer Fluss, könnte völlig falsch sein – ebenso falsch wie die Vorstellung Newtons, es gebe einen absoluten Raum ohne Materie. Newton konstatierte in einem berühmten Gedankenexperiment, dass in einem rotierenden Eimer voll Wasser die Fliehkraft den Wasserspiegel an den Wänden ansteigen lässt. Bleibt der Wasserspiegel dagegen flach, wirken keine Kräfte, und Newton definierte so einen „absolut“ ruhenden Raum. Der Physiker und Philosoph Ernst Mach kritisierte diese Interpretation jedoch mit einem tiefsinnigen Einwand: „Niemand kann sagen, wie der Versuch verlaufen würde, wenn die Gefäßwände immer dicker und massiger, zuletzt mehrere Meilen dick würden …“. Mach vermutete, dass nicht ein absoluter Raum, sondern die Bewegung der übrigen Himmelskörper „ruhende“ Bezugssysteme definiert, was Machsches Prinzip genannt wird. Modern gesprochen, könnten wir uns fragen, ob es Zufall ist, dass die entfernten Galaxien nicht um uns herum rotieren.
4 wurzelbehandlung 59 gibt es ohne materie auch keine zeit?
Julian Barbour hatte zu den Machschen Gedanken ebenfalls Bücher verfasst und 1993 sogar eine Konferenz dazu organisiert. Der in The End of Time ausgebreitete Gedanke, auch die Zeit definiere sich über Materie, ist eine verblüffende Verallgemeinerung der Machschen Prinzips. Dabei ist Barbour ein echter Querdenker – seine Theorie steht so abseits der allgemein akzeptierten Vorstellungen, dass sich wohl kein Kosmologe damit anfreunden wird. Da mich das Machsche Prinzip selbst schon länger beschäftigte, war ich neugierig auf einen Meinungsaustausch mit Barbour, zudem interessierte mich auch seine unkonventionelle Forscherpersönlichkeit. Ich freute mich daher über die Email, in der er meinen Vorschlag zu einem Treffen am Rande der Konferenz 100 Jahre Minkowski in Bad Honnef 2008 aufgriff. Barbour wollte nach seiner Doktorarbeit in der Astrophysik an grundlegenden Problemen arbeiten, fand aber in der schnelllebigen akademischen Welt dazu keine Gelegenheit. So bestritt er seinen Lebensunterhalt durch Übersetzen russischer Physikzeitschriften, während er auf einer Farm in Südengland in Ruhe seine Ideen entwickelte. Wenn man mit ihm spricht, breitet er gelassen seine Gedanken aus, ohne jeden missionarischen Eifer, den man bei Physikern mit ungewöhnlichen Thesen oft antrifft, und kann dabei auch noch zuhören. Sein ganzes Wesen ist Bescheidenheit, er trägt einen einfachen Anorak, dessen Reißverschlüsse zu streng für Taschendiebe aufgehen, wie er schmunzelnd erwähnt. Wissenschaftlich ist er selbst ein „outlaw“, aber ich habe das Gefühl, die Physik wäre in einer besseren Verfassung, gäbe es mehr Forscher seines Typs. Beeindruckt von seinem Wissen verabschiede ich mich nach einigen Stunden, in denen ich ihn noch von Bonn nach Köln begleitet hatte. Sein ganzes Handgepäck im Flugzeug ist ein Buch.
wer hat beim urknall auf die uhr geschaut?
Was können wir von Barbour lernen? Man muss sich wahrscheinlich von der Vorstellung verabschieden, Zeit sei eine „objektiver“ Begriff, der vom restlichen Geschehen im Universum nicht abhängt. Es gibt
60 vom
urknall zum durchknall
sicher keine Uhr, die vor sich hin tickt und uns anzeigt: Jetzt ist gerade der Urknall passiert, nun sind die Atomkerne entstanden und ein bisschen später der kosmische Mikrowellenhintergrund. Denn solange es keine Atome gibt, tickt auch nichts. Schon aus diesem Grund muss man gegenüber den Spekulationen 10−35 Sekunden nach dem Urknall skeptisch sein: Keine Uhr kann solche Zeitintervalle messen, und obwohl das eigentlich einleuchten sollte, halten die meisten an dieser viel zu naiven Zeitvorstellung fest. Leider ist es ein vollkommen ungelöstes Rätsel, wie man die Zeit definiert, ohne sich die Armbanduhr neben dem Urknall vorzustellen. Der bekannte Kosmologe John Barrow sagt dazu in seinem Buch The world within the world: Die Frage, ob es einen absoluten Zeitstandard gibt, der global durch die innere Geometrie des Universums definiert ist, ist eines der großen ungelösten Probleme der Kosmologie. krümmung, kürzeste wege und die verzerrte raumzeit
Wenn auch die Allgemeine Relativitätstheorie darauf noch keine Antwort geben kann, so führt doch die Veränderlichkeit von Zeit- und Längenmaßstäben direkt zur Geometrie. Was hat die Gravitation nun mit Krümmung zu tun? Das klassische Beispiel hierfür, die Oberfläche einer Kugel, benimmt sich in vieler Hinsicht anders als eine Ebene. Die kürzeste Verbindung zwischen zwei Punkten wie Rom-New York verläuft keineswegs in Ost-West-Richtung, sondern auf einer als Geodäte bezeichneten Linie, die in diesem Fall über den nördlichen Atlantik führt, wie jeder Pilot weiß. Die bekanntesten Geodäten oder Großkreise auf der Erde sind der Äquator und die Kreise durch die Pole, aber es gibt viele andere. Allerdings ist es mit diesen Geodäten unmöglich, Rechtecke auf einer Kugel zu zeichnen: Sie schließen sich nicht, probieren Sie es aus.
Markieren Sie mal bei Google Earth den Pfad zwischen zwei Punkten, die sehr weit auf der Erdkugel entfernt sind, ein lustiges Spiel. In der Nähe der maximalen Entfernung beginnt sich der Pfad wie verrückt zu drehen.
4 wurzelbehandlung 61
Man kann nun die Zeit als eine vierte Dimension neben den drei Raumdimensionen betrachten, wobei eine tickende Uhr für den Meterstab steht, mit dem zeitliche Distanzen gemessen werden. Da die Zeit in Gravitationsfeldern langsamer vergeht, schließen sich entsprechende „Rechtecke“ in der Raum-Zeit ebenfalls nicht. Die Verzerrung der Zeitund Längenmaßstäbe in der Allgemeinen Relativitätstheorie ist daher ganz analog zu einer gekrümmten Geometrie, eine faszinierende Eigenschaft der Natur.
die drehung eines vektors beim spaziergang auf dem globus
Italienische Mathematiker wie Tullio Levi-Civita haben schon im 19. Jahrhundert eine interessante Methode entwickelt, Krümmung zu beschreiben. Stellen Sie sich vor, Sie müssten auf der Erdkugel umherwandern und dabei einen Pfeil mit der Spitze stets in die gleiche Richtung des Horizonts zeigen lassen, allerdings parallel zur Erdoberfläche. Wandern Sie dabei vom Nordpol auf einem Längenkreis zum Äquator, an diesem einige tausend Kilometer entlang und dann wieder zurück, so werden Sie feststellen, dass der Pfeil nicht mehr in die ursprüngliche Richtung zeigt – selbst wenn Sie sich alle Mühe gegeben haben, ihn nicht zu drehen! Ein erstaunlicher Effekt, der daher rührt, dass Sie eine Fläche umrundet haben, die gekrümmt ist. Dieses Konzept des Vektortransports, genannt Konnexion, ist ein wichtiger Baustein der Formulierung der Allgemeinen Relativitätstheorie, die vermutlich zu Ihrer Beruhigung hier nicht weiter ausgebreitet werden soll.
Anstatt mit der sehr langen Wanderung können Sie sich dies auch mit der Kokosnuss in Kapitel 1 klar machen. Vielleicht doch noch für die näher Interessierten: Das Ergebnis der Drehung kann man auch durch Aufsummieren der Krümmungsanteile der eingeschlossenen Fläche ermitteln. Der Zusammenhang zwischen Krümmung und Konnexion ist dabei ganz analog zu den Sätzen von Stokes und Gauß in der Elektrodynamik, weshalb es auch hilfreich ist, die Relativitätstheorie differenzialgeometrisch zu formulieren.
62 vom
urknall zum durchknall
einstein, cartan, die nachfolger und die nachtwächter
Mathematische Techniken wie die hier nötige Differenzialgeometrie fielen übrigens Einstein in jungen Jahren keineswegs leicht. „dass der Zugang zu den tieferen prinzipiellen Erkenntnissen der Physik an die feinsten mathematischen Methoden gebunden war, … dämmerte mir erst allmählich, nach Jahren selbstständiger wissenschaftlicher Arbeit“, wie er in seinen Erinnerungen schreibt. So erfasste er im Jahr 1922 gar nicht sofort die Originalität einer Idee, die ihm der französische Mathematiker Ellie Cartan vorschlug – eine subtile Abänderung der Vorschrift, wie ein Vektor zu transportieren ist: Man hält ihn nicht parallel zu Großkreisen, sondern zu Breitenkreisen. Anstatt durch Krümmung beschreibt sich die Gravitation so durch Torsion, ein ähnliches, wenn auch nicht ganz so anschauliches Konzept. Erst Jahre später versuchte Einstein selbst, die Gravitation mit der Elektrodynamik zu vereinigen, und entdeckte dabei Cartans Idee neu, woraus sich ein aufschlussreicher Briefwechsel entspann. Dieser Ansatz wird übrigens heute von nahezu allen Physikern als Sackgasse abgetan – ein Professor der Gravitationsphysik äußerte sich mir gegenüber sogar noch kräftiger: Einstein habe die letzten dreißig Jahre seines Lebens nur Unsinn gemacht. Diese gelinde gesagt ambivalente Haltung zu Einsteins Werk trifft man übrigens häufig an. Einerseits werden seine anerkannten Theorien als Evangelien betrachtet, und schon eine Umformulierung mit anderen Begriffen – sogar wenn sie Einstein selbst verwendet hat – führt zum Vorwurf der Ketzerei. Andererseits sieht man die vielen kreativen Irrwege, die untrennbar mit seinen größten Leistungen verbunden sind, als altmodischen Quatsch an. So ist Einstein seiner Enkelgeneration ein Idol wie Mozart der Rockmusik. Ausgerechnet in Berlin gibt es einen bekannten Professor, der die Konnexionen von Levi-Civita und Cartan ein wenig salopp unterscheidet, aber umso engagierter seine eigene, etwas handgestrickte Version der Torsion vertritt. Seine Doktoranden stehen vor Leuten, die sich in der Differenzialgeometrie auskennen, wie Prof. Hehl aus Köln, dann oft etwas hilflos da, aber ohne Unterstützung dieser Zuarbeiter kann man in
4 wurzelbehandlung 63
zwanzig Jahren wohl auch nicht 300 Veröffentlichungen verfassen. Das klingt sehr beeindruckend, andererseits frage ich mich: Ist das immer das gleiche in neuer Verpackung, oder kann er sich einfach nicht länger als drei Wochen auf ein Thema konzentrieren? Das Geheimnis der Sache scheint mir vielmehr in einem Artikel zu liegen – wo ein damals noch unbekannter deutscher Name als Co-Autor neben dem berühmten Richard Feynman zu finden ist. Leben vom Abglanz nach einem Postdoc-Aufenthalt in den USA – so funktioniert Wissenschaft oft. Eine ganz eigene Art von Wertschätzung erfährt Einsteins Werk in der angelsächsischen Welt: Es ist allen zugänglich, die Deutsch können. So sind etwa die „Sitzungsberichte der Preußischen Akademie der Wissenschaften“, in denen Einstein in den Jahren ab 1914 zahlreiche Beiträge schrieb, bis heute nicht ins Englische übersetzt. Mein Freund José Vargas von der Universität Columbia in South Carolina, ein gebürtiger Spanier, schrieb mir schon vor über zehn Jahren erbost: „Die Russen haben die Übersetzung schon lange geschafft, trotz ihres inkompetenten Systems“. Stattdessen ist eine vielköpfige Mannschaft aus Wissenschaftlern und Historikern im Einstein Papers Project beschäftigt, jeden Buchstaben in Einsteins Notizbüchern umzudrehen und mit Hingabe zu interpretieren. Im Team benötigen sie für das genaue Lesen etwa fünfmal mehr Zeit als Einstein für das Aufschreiben. Ich bin sicher, sie werden dafür bezahlt, bis sie fertig sind. Beim gegenwärtigen Tempo dürfte das im Jahr 2060 der Fall sein. Auf der Webseite können Sie übrigens dafür spenden.
probleme bei den beschleunigungen
Aber kommen wir wieder zu den Inhalten von Einsteins Notizbüchern. Seine schlichte Begründung für das unermüdliche Suchen nach einer einheitlichen Feldtheorie war: Da es sich herausgestellt habe, dass die Gravitation durch Geometrie zu beschreiben sei, müsse man doch auch dort nach Größen suchen, die die Elektrodynamik widerspiegeln können. In der Tat hat das Coulombsche Kraftgesetz große Ähnlichkeit mit dem Newtonschen Gravitationsgesetz. Statt Massen ziehen sich in der Elektrodynamik Ladungen an, die mathematische Struktur jedoch bleibt
64 vom
urknall zum durchknall
die gleiche: Verdoppelt sich der Abstand, so sinkt der Betrag der Kraft auf ein Viertel. Verständlich, dass Einstein auch in der Elektrodynamik versuchte, die einfache Formel in einem größeren Rahmen zu beschreiben. Die klassische Elektrodynamik hat jedoch weit größere Probleme als die fehlende „Einbettung“ in eine schönere Theorie. So wissen wir etwa, dass beschleunigte elektrische Ladungen stets Energie abstrahlen – übrigens die Grundlage des Planckschen Strahlungsgesetzes, denn Wärme bedeutet nichts anderes als mikroskopische Bewegung von (geladenen) Teilchen, die durch Schwingungen und Stöße notwenig Beschleunigungen erfahren. Wenn nach dem Äquivalenzprinzip aber Schwerefeld und Beschleunigung gleich zu behandeln sind, dann müssten in einem Gravitationsfeld ruhende Ladungen „einfach so“ Energie abstrahlen – ein nicht ganz geklärtes Problem. Schlimmer noch: Vielleicht denken Sie, man könne die Energieabstrahlung berechnen, sobald die Beschleunigung einer Ladung zu jedem Zeitpunkt bekannt ist – leider existiert eine derartige Formel nicht, wie etwa Richard Feynman in seinen „Vorlesungen“ erklärt.i Feynmans Bücher unterscheiden sich von vielen anderen darin, dass sie ungelöste Probleme ansprechen, anstatt mit viel Formelkram darüber hinwegzublenden. Wie auch in Landaus Theoriewerk bemerkt, liegt der Grund für das Rätsel der Abstrahlung darin, dass die klassische Elektrodynamik widersprüchlich ist – wenn Sie die Formel der Energiedichte mit der des Kraftfeldes kombinieren, kommt für eine einzelne Ladung auf einem Elektron eine unendlich große Energie, somit nach Einsteins E = mc² sogar eine unendlich große Masse heraus. Irgendetwas muss falsch sein. Entgegen einer weit verbreiteten Ansicht löst auch die Quantenelektrodynamik, über die wir noch sprechen werden, das Problem nicht. warum gravitation besser als elektrodynamik ist
Dabei hat man heute sogar die Möglichkeiten, Ladungen bei extrem hohen Beschleunigungen zu untersuchen. Im Femtosekundenbereich gepulste Laser erzeugen unglaubliche Energiedichten – wovon man eine leise Ahnung bekommen kann, wenn man sich klarmacht, dass
4 wurzelbehandlung 65
so ein Laser die Leistung von fünfzig Kernkraftwerken benötigt – aber eben jeweils nur ein paar Femtosekunden lang. Im Jahr 1998 erschien in Nature ein Artikel,ii der beschrieb, wie Elektronen abstrahlen, die in das enorme elektromagnetische Feld eines solchen Lasers geraten. Ich wunderte mich, wie die Autoren die Abstrahlung präzise zu berechnen vermochten, und schrieb eine Email, in der ich mich nach dem Problem erkundigte, das Feynman in seinem Lehrbuch beschreibt. Prof. Lau, ein Mitglied der Arbeitsgruppe, antwortete mir nach einiger Zeit sehr freundlich, man sehe in der Abstrahlungsberechnung keine Schwierigkeit, räumte aber am Ende ein: „At this point, we do not understand the experiment“. Schön, aber wer soll es dann verstehen? Und warum sagt man das nicht den Lesern von Nature? Leider ist es immer schicker, ein hübsches Ergebnis zu präsentieren, als sich mit grundlegenden Problemen auseinanderzusetzen. Um der Elektrodynamik noch eins hineinzuwürgen: Trotz aller Eleganz der von Maxwell 1865 gefundenen Grundgleichungen reichen diese nicht aus, die Theorie zu formulieren. Man benötigt zusätzlich das nach Lorentz benannte Kraftgesetz – wenn man so will, handelt es sich um eine aus zwei Stücken zusammengeflickte Theorie, und ein Äquivalenzprinzip fehlt ihr ebenso. Die Allgemeine Relativitätstheorie ist demgegenüber aus einem Guss, sie besteht aus den Einsteinschen Gleichungen, sonst nichts: Die Materie sagt dem Raum, wie er sich krümmen soll, und die Raumkrümmung schreibt der Materie vor, wie sich zu bewegen hat, wie es John Wheeler einmal prägnant ausgedrückt hat. Lange Zeit nach ihrer Entdeckung 1915 war die Theorie nur durch eine bescheidene Datenbasis gedeckt, bestand jedoch ab den 1960er Jahren eine Reihe von beeindruckenden Experimenten, die heute unter dem Namen „vier klassische Tests“ zusammengefasst werden. einstein hatte recht – bis heute
Von diesen präzise überprüften Vorhersagen ist die Rotverschiebung der Spektrallinien in einem Gravitationsfeld noch am leichtesten verständlich – auch eine Lichtwelle muss auf dem Weg nach oben ja Energie
66 vom
urknall zum durchknall
verlieren, und da sie nicht wie Gegenstände langsamer wird, senkt sie ihre Schwingungsfrequenz ab. Im Erdschwerefeld messen konnte man den Effekt in der 15. Nachkommastelle jedoch erst mit Hilfe eines spektakulären Verfahrens, für das Rudolf Mößbauer 1961 den Nobelpreis erhielt. Die Ablenkung von Lichtstrahlen durch das Schwerefeld der Sonne wurde dagegen schon 1919 mittels einer legendären Sonnenfinsternis-Expedition bestätigt, was Einstein in die Schlagzeilen der New York Times beförderte. Er selbst war sich zu dieser Zeit allerdings seiner Theorie schon sicher – erklärte sich doch aus ihr eine Anomalie des Planeten Merkur, die seit 1859 den Astronomen ein Rätsel war: Um winzige unerklärte 43 Bogensekunden pro Jahrhundert verschob sich dessen Perihel, der sonnennächste Punkt der Ellipsenbahn. Als Einstein dies 1915 mit seiner Theorie erstmals berechnete, konnte er vor Herzklopfen nicht mehr schlafen. Von der ganzen Welt lange übersehen, entdeckte in den 1960er Jahren Irwin I. Shapiro einen weiteren Test mit einer Radarabstandsmessung zum Planeten Venus – verständlich allerdings, dass Einstein daran nicht gedacht hatte. Da sich in Gravitationsfeldern Zeit- und Längenmaßstäbe kontrahieren, musste die Laufzeit des Signals verzögert sein, wenn der Radarstrahl nahe an der Sonne vorbeiging – auch dies wurde glänzend bestätigt. Auch Einsteins Äquivalenzprinzip, nach dem die träge und schwere Masse genau gleich sein müssen, stellt sich heute den präzisesten Experimenten – bisher findet man keine noch so geringe Abweichung.
der härtetest – richtig starke gravitationsfelder
Bei klarem Juliwetter 2007 konnte ich endlich einmal meinem Astronomie-Wahlkurs einen Herzenswunsch erfüllen – eine Beobachtungsnacht mit einem recht anständigen Amateurteleskop fernab vom Großstadtsmog. Die dadurch freigesetze Motivation bei den Schülern ist erstaunlich; zwei Stunden lang wurde ich auf der Heimfahrt danach über Astrophysik ausgefragt – innerhalb der Schulmauern ist mir das noch nie passiert. Eingeladen hatte uns ein Schüler, den ich beim Wettbewerb Jugend Forscht kennengelernt hatte, wo er später den zweiten Platz im
4 wurzelbehandlung 67
europaweiten Wettbewerb erreichte. Er zeigte uns Galaxien, Sternhaufen und Nebel, sowie seinen selbst gebauten Spektrographen, mit dem er ein interessantes Doppelsternsystem vermessen hatte. Dass zwei Sterne sich umkreisen, ist nichts Ungewöhnliches, diese beiden Exemplare waren jedoch so dicht beisammen, dass man nur einen einzigen Lichtpunkt sehen konnte. Eine Analyse der Lichtwellenlängen kann in solchen Fällen aber beweisen, dass es sich tatsächlich um ein Doppelsternsystem handelt. So findet man zeitweise ein relativ einheitliches Spektrum, an anderen Tagen dagegen sind die Linien gleichzeitig blauund rot verschoben. Im diesem Fall bewegt sich ein Stern auf uns zu und der andere von uns weg, während bei unverschobenem Spektrum sich beide Sterne gerade quer zur Sichtlinie bewegen. Ein in ganz ähnlicher Weise funktionierendes Doppelsternsystem hatte 1974 für Aufregung gesorgt, weil – wahrlich ein Glücksfall – einer der Partner ein Pulsar war, eine jener schnell rotierenden Sternleichen, die aus Supernova-Explosionen entstehen. Aus der Umlaufdauer und der Frequenzverschiebung berechnete man den Abstand der Sterne und – nun der Clou – man stellte darüber hinaus eine Perihelverschiebung in einer gigantischen Größenordnung fest – 4,2 Grad pro Umlauf, über 150 000 Mal mehr als bei Merkur. Die Allgemeine Relativitätstheorie schien also auch in einem fernen Sternsystem bestätigt – klar, dass dafür der Nobelpreis fällig war, den die Entdecker Taylor und Hulse 1993 erhielten. Geht man andererseits von der Gültigkeit der Theorie aus, kann man sogar die Masse des Pulsars bestimmen – etwa das 1,4-fache der Sonne, was sehr plausibel klingt. Der Taylor-Hulse-Pulsar und andere belegen also, dass unsere Gravitationstheorien wohl in der ganzen Milchstraße und darüber hinaus auch bei starken Feldern gelten – allerdings handelt es sich dabei immer noch um Testobjekte von der Größe des Sonnensystems. Eine ganz andere Frage ist jedoch, ob die Theorien auch für Objekte von Galaxiengröße und darüber hinaus gelten, wo schwache Felder vorherrschen – dafür gibt es kaum Beobachtungsdaten.
Da ´ηλιος Sonne bedeutet, Stern aber αστρον, ist für Griechischlehrer der Begriff „Periastronverschiebung“ korrekter.
68 vom
urknall zum durchknall
gravitationswellen – man hört das gras immer noch nicht wachsen
Neben seiner Funktion als Sternenwaage ging die Karriere des TaylorHulse-Pulsars steil weiter. Nach einiger Zeit bemerkte man, dass das Sternsystem seinen Abstand verringerte – vereinbar mit einem Energieverlust durch Gravitationswellenabstrahlung, wie sie die Allgemeine Relativitätstheorie für eine so schnelle Massenschwingung vorhersagt. Auch hier hat sie theoretisch die Nase vor der Elektrodynamik, die dazu nichts ganz genaues sagen kann. Leider ist der Vorteil aber bis dato wirklich nur theoretisch, denn trotz enormer Anstrengungen ist es bisher nicht gelungen, Gravitationswellen direkt nachzuweisen. Deren Detektion gehört zu den frustrierendsten Arbeitsgebieten der Physik und wird in ihrer jahrzehntelangen Erfolglosigkeit allenfalls noch von der Kernfusionsforschung übertroffen. Die ersten Detektoren sind nun fünfzig Jahre alt, und man muss den Optimismus der Rechnungen bewundern, die vor jedem neuen Aufbau eines Experiments das ersehnte Signal prognostizierten. Im letzten Vortrag, den ich dazu hörte, wurde hoffnungsvoll berichtet, bei den verschiedensten Ereignissen – Supernovae, Pulsare, Gammastrahlen-Ausbrüche – sei man ganz knapp an der Nachweisgrenze, die Entdeckung müsse eigentlich unmittelbar bevorstehen. Das war im Jahr 2006. Bei einem starken Gamma-Ausbruch in Andromeda im Jahr 2007 war allerdings immer noch nichts zu sehen.iii Kürzlich erschien ein Übersichtsartikel,iv bei dem die Detektion bis zum Jahr 2014 versprochen wird, wir sind natürlich weiter gespannt. Bis jetzt wird der ausstehende experimentelle Nachweis der Gravitationswellen noch kaum als ein ernsthaftes Problem der Allgemeinen Relativitätstheorie wahrgenommen. Einsteins Gravitationstheorie ist einfach zu elegant und in Größenbereichen des Sonnensystems so überzeugend getestet, dass wenig Zweifel aufkommen. Dennoch muss zu denken geben, dass das sichtbare Universum etwa um den Faktor 1014 größer ist und um den Faktor 1023 mehr Masse enthält als das Sonnensystem. Um 1900 glaubte man, die Newtonsche Mechanik gelte im wesentlichen auch auf atomarer Ebene. In Kenntnis der Quantenphänomene lächeln wir heute über so viel Naivität. Es handelte sich um eine
4 wurzelbehandlung 69
Extrapolation von zehn Größenordnungen. So betrachtet, wäre man heute zehntausendfach leichtsinniger.
Weiterführende Literatur G. Beyvers/E. Krusch: Das kleine 1 × 1 der Relativität, Springer (Heidelberg) 2009. A. Fölsing: Einstein, Suhrkamp 1999. A. Einstein: Mein Weltbild, Ullstein 1988. L. Barbour: The End of Time, Oxford University Press 1999. R. Debever: Elie Cartan and Albert Einstein, Princeton University Press 1979. C. Will: Und Einstein hatte doch Recht, Springer (Heidelberg) 1989, Kap. 3–6. R. Feynman/R. Leighton/M. Sands: Vorlesungen über Physik II, Oldenbourg 2007, Kap. 27+28. L. Landau/E. Lifschitz: Lehrbuch der Theoretischen Physik II, Harri Deutsch 1997. i ii iii iv
Feynman Lectures II, Kap. 28. D. Umstadter, arXiv:physics/9810036. K. Hurley et al., arXiv:0711.1163. B. S. Sathyaprakash et al., livingreviews.org/Articles/lrr-2009-2.
5
Bis heute ein Sphinx Newtons Gravitationskonstante: von England bis ins Universum
Obwohl die Allgemeine Relativitätstheorie für die Gravitation ein ganz neues Konzept entwirft, baut sie dennoch auf die Newtonsche Gravitationskonstante G. Interessanterweise hatte Newton mit seinem Gesetz die Bewegungen der Himmelskörper präzise beschreiben können, hielt es jedoch selbst für aussichtslos, die geheimnisvolle Kraft zwischen zwei kleinen Gewichten zu messen. Erst ein Jahrhundert später, 1798, gelang Henry Cavendish ein Experiment, das fast unverändert noch heute zur Bestimmung von G verwendet wird. Cavendish war ein sorgfältiger Experimentator, und es macht Spaß, im Buch Great Experiments of Physics die Details des Experimentes zur „Bestimmung der mittleren Dichte der Erde“ nachzulesen, das man heute Torsionsdrehwaage nennt. Er nutzte dabei aus, dass sich ein gespannter Faden schon mit winzigsten Kräften verdrehen lässt. Hängt man an dem Faden ein Paar Metallkugeln geschickt auf, reagieren die Kugeln schon auf die Gravitationsanziehung gleichartiger in der Nähe aufgehängter Massen. Während man aus den Umlaufzeiten und Entfernungen der Planeten sehr präzise das Produkt GM bestimmen kann, ist die Bestimmung der Masse der Erde und jedes anderen Himmelskörpers nur möglich, wenn man unabhängig davon G direkt misst – nun war dies erstmals gelungen. Alle astronomischen Massenangaben, ja Abschätzungen für das gesamte beobachtbare Universum erfolgen relativ zur Erd- und Sonnenmasse, die wiederum auf dem Cavendish-Experiment beruhen. A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_5, © Springer-Verlag Berlin Heidelberg 2010
71
72 vom
urknall zum durchknall
Tatsächlich gibt es bis heute kaum andere Apparaturen, die eine vergleichbare Genauigkeit erreichen.
galilei hätte sich gefreut
Wenn man so will, lastet also eine gewisse Verantwortung auf diesen Experimenten, und so nahm ich in den Pfingstferien 2002 die Gelegenheit wahr, einen Workshop zu besuchen, bei dem die neuesten Ergebnisse dazu vorgestellt wurden. Sinnigerweise fand dieser in Pisa statt, einem vergleichsweise unbedeutenden Örtchen in der Toskana, das sich wie jene weithin bekannte Bildungsstudie PISA benennt, welche die katastrophalen Verhältnisse im deutschen Schulsystem aufdeckte. Für einen Physiklehrer also eine gute Gelegenheit, die den Verkündern der Bildungsapokalypse kaum mehr bekannte Tatsache in Erinnerung zu rufen, dass dort einst Galileo Galilei wirkte, der der Legende zufolge seine Fallexperimente vom Schiefen Turm aus durchführte. Seine Initialen wurden mit Newtons Konstante G zum Workshop-Namen GGG kombiniert, den die reizende und resolute Anna Nobili in einem Klostergebäude unweit des Zentrums organisierte. Sie duzte mich sofort und als sie hörte, dass ich an einem Gymnasium unterrichte, lud sie mich sofort ein, ihr Labor auch einmal mit einer Schülergruppe zu besichtigen. Dort werden Satelliten entwickelt, die Einsteins Äquivalenzprinzip auf der 17. Nachkommastelle überprüfen sollen. Leider sind solche Toskana-Exkursionen mit gravitativen PISAStudien bisher immer am Stirnrunzeln meines Chefs gescheitert.
messen ist besser als glauben
Bis wenige Jahre zuvor schienen Messungen der Gravitationskonstante nicht so spannend, um eine internationale Konferenz zu rechtfertigen. Seit Cavendish waren sie stetig verbessert worden, und ein Wert aus dem Jahr 1982 war als bester anerkannt. Aber 1995 schockierten Forscher der Physikalisch-Technischen Bundesanstalt in Braunschweig die Fachwelt mit einer umstrittenen Messung. Sie erhielten einen Wert, der um ein
5 bis
heute ein sphinx
73
Vielfaches der anerkannten Fehlergrenzen nach oben abwich. Viele hätten dies unter den Teppich gekehrt, aber die Arbeitsgruppe genierte sich nicht und publizierte die Beobachtung, die, wie sie heute wohl auch selbst überzeugt ist, einen systematischen Fehler enthielt. Viele wiederholten nun Messungen zu G, die dem hohen Braunschweiger Wert widersprachen, aber überraschenderweise konnte man auch den etablierten Wert nicht gut reproduzieren. Genauer gesagt, widersprach eigentlich jeder jedem und es herrschte eine Zeit lang ein großes Durcheinander. Die CODATA-Kommission, welche die allgemein anerkannten Werte der Naturkonstanten festlegt, sah sich sogar gezwungen, die Fehlergrenzen für G zu verzehnfachen – eine Peinlichkeit vor allem im Vergleich zu anderen Naturkonstanten, die oft bis zur zehnten Nachkommastelle bekannt sind und mit denen G heute noch nicht konkurrieren kann. Dies hinterlässt insofern ein ungutes Gefühl, als bei einer präzisen Gültigkeit der Gravitationsgesetze G immer den gleichen Wert haben sollte, auch wenn man sie unter den verschiedensten Umständen misst.
konkurrenz mit samthandschuhen: gut für die präzision?
Moderne Versionen der Torsionsdrehwaage umgehen die fehleranfällige Kraftmessung durch die Verdrehung eines Fadens, indem sie eine kompensierende Gegenkraft einsetzen, die sich elektronisch messen lässt. Überall da, wo sich altmodische Mechanik durch Elektronik ersetzen lässt, freuen wir uns über einen Zuwachs an Genauigkeit – denken Sie nur an Plattenspieler und CD-Player. Zu der neuen Methode berichteten Terry Quinn vom Bureau International des Poids et Mesures BIPM sowie Jens Gundlach aus der bekannten Eöt-wash-Gruppe in den USA Sie nennt sich Eöt-wash, was sich auf den Bundesstaat Washington bezieht und gleichzeitig den Amerikanern Nachhilfe erteilt in der richtigen Aussprache des ungarischen Barons Eötvös, der 1907 bahnbrechend genaue Experimente zu träger und schwerer Masse durchführte. Eöt-wash konnte übrigens auch schon eine Reihe von Spekulationen zu Zusatzdimensionen des Raumes widerlegen, die von Zeit zu Zeit eine größere Gravitationskraft bei kleinen Abständen vorhersagen.
74 vom
urknall zum durchknall
von ihren Messungeni der Newtonschen Konstante G. Ihre Werte waren nun viel genauer, jedoch widersprachen sie sich immer noch gegenseitig: Der kleinstmögliche nach Quinns Messungen lag weit über dem höchsten, der bei Kombination aller Fehler im Experiment der Amerikaner denkbar war. Am folgenden Abend, beim Konferenzdinner in einem stilvollen Klostergebäude, saß ich Terry Quinn gegenüber und fragte ihn, warum er denn angesichts der Diskrepanz mit Gundlach so freundlich umgehe. Er zuckte mit den Achseln, betonte die Schwierigkeit der Experimente, und fügte schließlich lächelnd hinzu: „Of course, he’s wrong!“ Dies war aber eher scherzhaft gemeint, sie wollten sich nicht wirklich weh tun.
ist die konstante eine konstante?
Mir schien das freundliche Einvernehmen, in dem Quinn und Gundlach speisten, auch daran zu liegen, dass sie ihrer eigenen Messgenauigkeit nicht ganz trauten. Gundlach, dessen Fehlerangaben noch kleiner waren, überzeugte mich auch aus einem anderen Grund nicht ganz. Er hatte die Ergebnisse verschiedener Testreihen gemittelt, um dadurch den Fehler zu verringern – eine weit verbreitete Unsitte übrigens, die dem Druck nachgibt, genauere Resultate erzielen zu müssen als die Daten hergeben wollen. Um den Effekt von herstellungsbedingten Unregelmäßigkeiten der Metallkugeln aufzuheben, orientierte er diese in sechs verschiedenen Raumrichtungen – bekanntlich existieren aber 24 Möglichkeiten, einen Gegenstand durch rechtwinklige Drehungen im Raum zu orientieren – Mathematiker nennen dies die Symmetriegruppe des Würfels. Auch die CODATA-Kommission kann sich wohl aus Sorge um die Reputation ihrer Naturkonstanten mit der behaupteten Präzision noch nicht anfreunden und gibt für G einen zehnfach größeren Fehler an als das Eöt-wash-Experiment. Seit jener vermeintlich genauen Messung von 1982, die sich als fehlerhaft herausgestellt hat, ist man dort vorsichtiger geworden. Ganz generell ist es daher auch wünschenswert, G mit ganz anderen Aufbauten als der Torsionsdrehwaage zu messen.
5 bis
heute ein sphinx
75
newton und cavendish: hundert jahre und ein faktor 1020 liegt dazwischen
Newton zweifelte an der Möglichkeit der G-Messung schlechthin, weil der Massenunterschied zwischen dem berühmten fallenden Apfel und den Himmelskörpern so immens groß ist. Streng genommen extrapolieren wir die Gültigkeit des Newtonschen Gesetzes hier über viele Größenordnungen in der Masse, da sich zum Beispiel die Dichte der Erde nur sehr ungenau über geologische Argumente erschließen lässt.ii Deswegen bemühen sich die Physiker um G-Messungen mit Massen, die jene des Apfels und der Metallkugeln deutlich übersteigen. So berichtete Federico Palmonari aus Bologna von einem originellen Experiment im Apennin. Unter dem Stausee einer Elektrizitätsgesellschaft stellte er ein supraleitendes Gravimeter auf, eines jener Wunderinstrumente, das auf den Wasserstand des über ihm liegenden Sees ganz sensibel reagierte. Die Erdbeschleunigung wurde durch die Gravitationswirkung des darüber liegenden Wassers vermindert, dessen Menge man recht gut bestimmen konnte. Der daraus errechnete Wert für G war nun plötzlich höher, aber nicht mit einer verlässlichen Genauigkeit. Später recherchierte ich Experimente, die schon in den 1980er Jahren auf eine Abweichung vom Newtonschen Gesetz hindeuteten.iii Man hatte die Veränderung der Erdbeschleunigung auf Türmen, in Bergwerken, in verschiedenen Ozeantiefen gemessen, und eine Gruppe hatte gar ein fast zwei Kilometer tiefes Loch ins grönländische Eis gebohrt, um dort ein Gravimeter zu versenken.iv Dort unten wirkt nach Newtons Gesetz nur die Gravitation einer Kugel, deren Radius durch die „Anbohrung“ entsprechend verringert wurde. Wieder konnte man in Kenntnis der Dichte des Eises G bestimmen, und zunächst deutete sich ein Widerspruch zum Newtonschen Gesetz an. Der subtile Unterschied zum Stausee-Experiment liegt jedoch darin, dass im Grönlandeis das Gravimeter bewegt wurde und damit zu unterschiedlich dichten Teilen der Erdkruste der Abstand schwankte – eine leider unvermeidliche Fehlerquelle. So zog man zur Erklärung doch lieber unerwartete Einschlüsse im Gestein vor, über die sich Geologen ja
76 vom
urknall zum durchknall
irren können, anstatt Newtons Gesetz in Zweifel zu ziehen. Eine Abweichung kann man hier sicher nicht zwingend folgern, aber zwischen ein paar Kubikkilometer Grönlandeis und der Masse eines Himmelskörpers klafft noch eine erhebliche Lücke. Die Experimente zu G auf verschiedenen Massenskalen sind daher äußerst wichtig und es wäre gefährlich, wenn das Thema wieder in einen Dornröschenschlaf versinken sollte.
naturkonstanten, die geheimnisvollen bausteine der physik
Da wir uns hier mit den Rätseln von G beschäftigen, müssen Sie sich klar machen, wie wichtig Naturkonstanten in der Physik sind. Im Gegensatz zur Siedetemperatur des Wassers oder auch zur Erdbeschleunigung g = 9,81 m/s2 handelt es sich dabei um Messwerte, die nach unserer Überzeugung im ganzen Universum gelten. Natürlich würden außerirdische Zivilisationen andere Einheiten als Meter, Sekunde, usw. benutzen, aber sicher wäre die Lichtgeschwindigkeit c dort ebenso eine fundamentale Konstante. Neben c ist vielleicht das Wirkungsquantum h mit dem winzigen Wert 6,6 × 10−34 N m s am wichtigsten, welches Max Planck erstmals in seinem berühmten Strahlungsgesetz einführte. Naturkonstanten sind rätselhafte Mitteilungen der Natur, und daher ist es stets ein revolutionärer Fortschritt, wenn es uns gelingt, zwischen ihnen Verbindungen zu erkennen und eine aus anderen zu berechnen – man hat dann eines der großen Geheimnisse entschlüsselt. So drückt sich die Erkenntnis, dass Licht eine elektromagnetische Welle ist, durch die Verbindung der Lichtgeschwindigkeit mit den elektrischen und magnetischen Feldkonstanten √ aus:Cc== 1/ 1/ ε0 µ0 . In der Diskussion, ob G möglicherweise gar keine Konstante darstellt, liegt daher natürlich einige Brisanz. Denn dies würde nahelegen, dass G sich durch andere Größen ausdrücken lässt. Aus den etwas diskrepanten Messungen von G allein lässt sich so eine weitreichende Behauptung aber sicher nicht rechtfertigen.
5 bis
heute ein sphinx
77
schwarze löcher – mehr gerechnet als gesehen
Schwarze Löcher gelten gemeinhin als eine Vorhersage der Allgemeinen Relativitätstheorie, aber ihre Existenz folgt interessanterweise schon aus Newtons Gesetz, ja sogar aus der Existenz der Gravitationskonstante. So bemerkte Pierre Simon Laplace schon 1799, dass die Fluchtgeschwindigkeit, die man zum Verlassen eines gravitierenden Körpers benötigt, die Lichtgeschwindigkeit erreichen kann. Karl Schwarzschild – er hieß wirklich zufällig so – fand 1916 die ersten Lösungen zu den Einsteinschen Gleichungen, und nach ihm ist in der Allgemeinen Relativitätstheorie jener Abstand rs = (2GM)/c2 von einem Massenzentrum benannt, bei dem die Gravitation kein Entkommen mehr gestattet. Die dort auftretenden Merkwürdigkeiten verleihen dem Schwarzschild-Radius eine besondere Aura: Die Zeit vergeht unendlich langsam, kein Körper könnte von dort mehr zurück, ja sogar entweichendes Licht würde durch die Gravitationsrotverschiebung seine Energie komplett verlieren und daher nie mehr nach draußen dringen: ein schreckliches Verlies, das alles mit geradezu mathematischer Sicherheit verschlingt. Dies mochte John Wheeler, die amerikanische Ikone der Gravitationsphysik, seinerzeit bewogen haben, den eingängigen Begriff black hole zu prägen. Schwarze Löcher sind seither ein ausuferndes Forschungsgebiet – von der Hypothese eines italienischen Theoretikers über elektrisch geladene „blake uuuls“ bis hin zu den Sorgen der Mathematiker, was denn dort mit ihren Theoremen passiert – die Natur scheint dort nämlich durch Null zu dividieren. Bei alledem sind schwarze Löcher immer noch kein quantitatives Merkmal der Allgemeinen Diese Vokabel zieht ein derartiges Interesse an, dass ich oft eine ganze Schulstunde lang Fragen beantworten muss, wenn ich unvorsichtigerweise den Begriff gebrauche. Dabei hat die Physik viel vergleichbar Spannendes zu bieten, wie Fermi-Impulse oder Bose-Kondensate. Aber nicht so einen Markennamen! Auch einer der Eindrücke vom Marcel-Grossmann-Meeting in Rio 2003: Mit einem Tross von 15 Diplomanden angereist, schaffte er es mit zwei anderen Organisatoren, sich eine volle Stunde lang selbst zu beweihräuchern, während 200 Leute auf das Buffet warteten.
78 vom
urknall zum durchknall
Relativitätstheorie, denn die Größe eines Schwarzschild-Radius hat man noch nirgendwo gemessen. Der erste, indirekte Hinweis auf ein schwarzes Loch von etwa 10 Sonnenmassen war die Röntgenquelle Cygnus X-1 im Sternbild Schwan, deren unregelmäßige Strahlung man sich nicht anders zu erklären vermochte. Im Zentrum der Milchstraße entdeckte eine Forschergruppe am Max-Planck-Institut für extraterrestrische Physik durch mehrjährige Beobachtungen äußerst schnell laufende Sterne, deren Bahnen auf eine enorme Massendichte schließen lassen, welche die eines schwarzen Loches erreichen muss. Solche schwarzen Löcher werden „supermassiv“ genannt und erreichen in Galaxienzentren Millionen von Sonnenmassen. Direkt sichtbar sind sie natürlich nicht.
wollte newton das alles?
Schwer zu verdauen, aber letztlich nur eine Konsequenz von G, ist dabei die Folgerung, dass schwarze Löcher auch eine relativ geringe Dichte haben können – im Prinzip kann man auch aus einem Sandhaufen ein schwarzes Loch formen, wenn er nur paar Lichtstunden groß wäre! Es gibt also kein typisches „Material“ aus dem schwarze Löcher bestehen, denn dann müsste die Masse wie ein Kugelvolumen in der dritten Potenz mit dem Radius anwachsen. Statt dessen ist sie aber nur proportional zum Radius, was uns die Kombination der Naturkonstanten c2/G praktisch schon vorschreibt: Sie hat die Einheit Kilogramm pro Meter. Diese rätselhafte Eigenschaft der schwarzen Löcher ist also schon untrennbar mit der Existenz der Gravitationskonstante verbunden. Während ein schwarzes Loch von Sonnenmasse wenige Kilometer groß wäre, hätte ein schwarzes Loch von Galaxienmasse schon die hundertfache Ausdehnung des Sonnensystems. Schließlich würde ein schwarzes Loch mit der Masse des Universums – darüber muss man sich wirklich wundern – etwa die Größe und Dichte des beobachtbaren Universums erreichen. Die ersten Schätzwerte hierfür gab es natürlich erst nach Hubbles Messungen um das Jahr 1930. Sir Arthur Eddington, der durch seine legendären Sonnenfinsternis-Expeditionen im Jahr 1919 Einsteins All-
5 bis
heute ein sphinx
79
gemeiner Relativitätstheorie zur Anerkennung verholfen hatte, fiel zuerst auf, dass die Gravitationskonstante mit den Daten des Weltalls zusammenhängen könnte. Teilt man das Quadrat der Lichtgeschwindigkeit durch die Gravitationskonstante, ergibt sich etwa der gleiche Wert, als wenn man die Masse des Universums durch seinen Radius teilt. Diese Begriffe sind nur ein scheinbarer Widerspruch zu der Vorstellung eines unendlichen Universums, denn seit dem Urknall konnte uns nur Information aus einer begrenzten Region erreichen, die man als Horizont bezeichnet. Er ergibt sich ganz grob aus Weltalter mal Lichtgeschwindigkeit, allerdings erfordert die Allgemeine Relativitätstheorie eine subtilere Berechnung, die wir hier aber nicht betrachten müssen. Jedenfalls sind der Horizont und die darin enthaltene Masse wohldefinierte Größen, über die sich Eddington im Zusammenhang mit G zu Recht wunderte.
das machsche prinzip – woher kommt die trägheit der massen?
Natürlich ist Eddingtons Beobachtung angesichts der großen Messfehler bei der Massenabschätzung im Weltall nur ungefähr gültig. Anderer seits sind aber bei der Rechnung derart große Zahlen im Spiel, dass schon eine Übereinstimmung in der Größenordnung bemerkenswert ist. Modern – wir werden im Kapitel 10 darauf eingehen – spricht man bei dieser Koinzidenz von der Flachheit des Universums, aber es gibt auch hier einen Zusammenhang zu den Gedanken von Ernst Mach, obwohl dieser 1887 von den Messungen noch nichts ahnen konnte. Er hatte die Vision, alle physikalischen Bewegungsgesetze in relativen Einheiten zu formulieren, und beeinflusste damit ganz maßgeblich Einstein bei den Gedanken, die diesen zur Allgemeinen Relativitätstheorie führen sollten. Trotz der Hochschätzung für Mach verwirklicht Einsteins Theorie das Machsche Prinzip aber nicht – obwohl manchmal der Lense-
Sie finden diese zum Beispiel im „Kleinen 1×1 der Relativitätstheorie“ auf Seite 313.
80 vom
urknall zum durchknall
Thirring-Effekt, eine Auswirkung der Erdrotation auf die Raumgeometrie, dafür ausgegeben wird. Denn Machs zentrale Idee, die Trägheit bzw. Gravitationskraft hänge mit der Präsenz aller Massen im Universum zusammen, kommt in der Allgemeinen Relativitätstheorie nicht vor. Eine mögliche Realisierung wäre ja gerade, die Gravitationskonstante mit den Weltallmassen in Verbindung zu bringen – G wäre dann so klein, weil die Weltallmasse so groß ist. Diese ganz radikale Idee wurde einmal von dem bekannten Kosmologen Dennis Sciama in die Welt gesetzt,v aber später nur noch von „outlaws“ wie Julian Barbour verfolgt.vi Bei der Einweihung des Dennis-Sciama-Gebäudes an der Universität Portsmouth im Juni 2009 sprach man jedenfalls über alles Mögliche, aber nicht mehr über Sciamas Reflexionen zur Trägheit. Es ist müßig zu spekulieren, ob Einstein sich für diese Idee erwärmt hätte – die wahre Größe des Universums konnte man jedenfalls erst 15 Jahre nach Vollendung der Allgemeinen Relativitätstheorie erahnen. So fristet das Machsche Prinzip heute ein Schattendasein und wird nicht selten als halbesoterischer Kram abgetan. Jener arroganten Sorte von amerikanischen Theoretikern, die die Frage nach dem Ursprung der Trägheit für historisch überholtes Gequatsche aus Old Europe halten, sei aber auf YouTube das Video „Inertia and Fathers“ von Richard Feyn man empfohlen, in dem dieser sich über eines wundert – woher die Trägheit kommt. Eigentlich ein grundlegendes Problem.
g-punkt: real oder phantom?
G-punkt ist einer jener Begriffe, dessen Google-Trefferanzahl mit Vorsicht zu genießen ist. Wenn Sie dabei nicht zuerst an die weibliche Anatomie gedacht haben, sind Sie garantiert Physiker! Für die Normalen: Ein nachgesprochenes „punkt“ bezeichnet in der Physik die zeitliche Veränderung einer Größe, und so versteht man unter „G punkt existiert“ die Hypothese, die Gravitationskonstante könne sich mit der Zeit ändern. Puritaner unter den Physikern reagieren darauf recht humorlos, während andere allein deshalb von der Existenz überzeugt scheinen, weil ihnen die Suche Spaß macht. Die oben erwähnte Vermutung
5 bis
heute ein sphinx
81
Eddingtons hatte Paul Dirac 1938 fortgeführt – übrigens mit einer noch tiefer liegenden Begründung, auf die wir später noch kommen werden. Dirac war seit 1928 eine Berühmtheit, als er mit gerade 26 Jahren Einsteins Relativitätstheorie auf die von Schrödinger gefundene Grundgleichung der Quantenmechanik übertrug. Dirac vermutete, ganz im Geiste von Ernst Mach, die Ausdehnung des Weltalls könne sich auf die Gravitationskonstante auswirken – durch den größeren Horizont, der mehr Masse enthält. Den Vorschlag zu G-punkt entwickelte er übrigens auf seiner Hochzeitsreise, was George Gamow, ein Theoretiker des frühen Universums, boshaft kommentierte: „Das passiert, wenn die Leute heiraten“. Aber in reifem Alter, im Jahr 1968, legte Dirac noch mal nach: Die Theoretiker sind eifrig dabei, verschiedene Modelle des Universums zu basteln mit Annahmen, die ihnen gerade passen. Wahrscheinlich sind diese Modelle alle falsch. Man geht normalerweise davon aus, dass die Naturgesetze immer so gewesen sind wie heute, wofür es nicht die geringste Rechtfertigung gibt. Die Gesetze könnten sich ändern und insbesondere die Größen, die wir für Naturkonstanten halten, könnten sich mit der Zeit ändern. Solche Änderungen würden die Modellierer kalt erwischen.
der mond, die wellen und die sonnenfinsternis in babylon
Diracs Hypothese hat seither zahlreiche Physiker fasziniert, und man strengte sich durchaus an, eine Veränderung von G nachzuweisen – aller dings bisher ohne Erfolg. Die ersten sehr guten Daten kamen von den Viking-Raumsonden, die in den 1970er Jahren auf dem Mars landeten und mittels der Laufzeit von Funksignalen den Abstand zu unserem Nachbarplaneten auf Zentimeter genau bestimmten. Eine Veränderung von G in der von Dirac vorhergesagten Größenordnung hätte sich hier zeigen sollen. Noch genauer kann man den Abstand zum Mond mit dem Lunar Laser Ranging dank der dort aufgestellten Spiegel messen, allerdings gibt es hier einen unangenehmen „Schmutzeffekt“. Der Mond
82 vom
urknall zum durchknall
verursacht Gezeitenberge, deren Reibung die Erde abbremst – um einen winzigen Betrag, der schwer messbar ist. Glücklicherweise muss aber der Mond durch das Naturgesetz der Drehimpulserhaltung seinen Abstand zur Erde erhöhen. Das erlaubt uns, zu berechnen, um wie viel die Erddrehung durch die Gezeitenreibung verlangsamt worden ist – was sonst ein unmögliches Unterfangen wäre. Aber gibt es noch eine davon unabhängige Messung der Erddrehung über die Jahrhunderte hinweg? Ja, hier arbeiten Physiker und Historiker wunderschön zusammen. Sonnenfinsternisse waren in allen hoch entwickelten Kulturen Respekt gebietende Ereignisse, über die penibel Buch geführt wurde, etwa von den Babyloniern, Ägyptern und Griechen – in China wurde gar einmal ein betrunkener Astronom geköpft, der es unterlassen hatte, seinem Kaiser die Unheil verkündende Verfinsterung vorherzusagen. So können die Historiker etwa 200 Sonnenfinsternisse datieren,vii und diese – etwa in Babylon – beweisen, dass die Drehgeschwindigkeit nicht gleich geblieben sein kann. Sonst hätte jene Finsternis, wie man leicht zurückrechnen kann, entlang der heutigen Costa Brava laufen müssen statt durch Babylon. Das Problem dabei: Selbst wenn die Rotation sich so verlangsamt hätte, wie es sich aus den Abstandsmessungen zum Mond ergibt, wäre die Sonnenfinsternis in einem Streifen 1 000 Kilometer westlich von Babylon sichtbar gewesen. Möglicherweise gibt es hier also eine Anomalie bei der Gravitationskonstante oder gar im Zeitablauf, die wir nicht verstehen.
das kreuz mit g
Gelegentlich wird im Zusammenhang mit Naturkonstanten behauptet, dass Leben gar nicht hätte entstehen können, wenn diese nicht die jetzigen, anscheinend genau festgelegten Werte gehabt hätten. Wir werden später zu trennen versuchen, was daran interessant und was Firlefanz ist, aber hier vorweg: Alle könnten ganz gut damit leben, wenn G zum Beispiel 20 Prozent kleiner wäre, außer ein paar Orthopäden und – der Mehrzahl der theoretischen Physiker. Denn Diracs provokante Aussage von 1968 gilt heute mehr denn je. Eine Änderung der Gravitationskonstante ist für die meisten theoretischen Ansätze ein Albtraum, der
5 bis
heute ein sphinx
83
den Standardmodellen der Kosmologie und Teilchenphysik den Boden unter den Füßen wegziehen würde. Deswegen sollte man auch etwas misstrauisch bleiben, wenn wieder einmal eine Forschergruppe die Konstanz von G aus dem Helium/Deuteriumverhältnis irgendeiner Wasserstoffwolke oder ähnlichem Kaffeesatz herauslesen will. Wir wissen es nicht. Aber die Uhren werden es irgendwann an den Tag bringen. Lässt man Hunderte von Jahren Wissenschaftsgeschichte Revue passieren, so kommt einem doch der Glaube naiv vor, wir hätten das endgültige Gravitationsgesetz schon gefunden. Wie viel Zeit musste vergehen, bis man sich über die Gestalt der Erde klar wurde, und erst viel später wurde der Begriff der Erdbeschleunigung g gebildet. Welche Kämpfe waren nötig, um dies zum heutigen Gravitationsgesetz, das auf G basiert, zu verallgemeinern! Es war eine gewaltige Leistung der Astronomen, seine Gültigkeit im gesamten Sonnensystem zu beweisen. Viele Wissenschaftler haben sich vielleicht über einen geographisch etwas unbedarften US-Präsidenten lustig gemacht, der eine geplante Marsmission als „Eroberung des Weltalls“ gepriesen hatte. Und doch benimmt sich die Gravitationsphysik mit ihrem Vertrauen auf G nicht viel anders: Das Sonnensystem, das von Newton bis Einstein als Beobachtungsgrundlage diente, ist ein verschwindendes Inselchen, wenn wir uns die Dimensionen der Galaxis oder gar des beobachtbaren Horizonts ausmalen.
Weiterführende Literatur R. Sexl/H. Urbantke: Gravitation und Kosmologie, Spektrum Verlag 2002. G. Beyvers/E. Krusch: Das kleine 1 × 1 der Relativität, Springer (Heidelberg) 2009. C. Will: Und Einstein hatte doch Recht, Springer (Heidelberg) 1989, Kap. 9. M. Shamos: Great Experiments in Physics, Dover 1998. i J. Gundlach et al., gr-qc/000643; Quinn et al., PRD 87 (2001), 111101-1. ii D. R. Mikkelsen et al., PRD 16 (1977), 919. iii J. Thomas et al., PRD 63 (1989), 1902. iv M. E. Ander et al., PRD 62 (1989), 985. v D. W. Sciama, MNRAS 113 (1953), 34. vi J. Barbour, gr-qc/0211021. vii F. Stephenson, Astron. u. Geoph. 44 (2003), 2.22.
6
Das Rätsel der kleinen Beschleunigungen Raumsonden und Galaxienränder: Ist im All alles da, wo es sein sollte?
Es ist der 3. März 1972, der Triebwerkslärm einer Rakete erschüttert Cape Canaveral. Seit der ersten Mondlandung sind noch keine drei Jahre vergangen, die NASA ist auf der Höhe ihres Erfolges, und dennoch ist der Start der Atlas-Centaur-Rakete, die die Raumsonde Pioneer 10 trägt, eine kleinere Aktion. Niemand ahnt, dass man die Mission dreißig Jahre später als „größtes Experiment der Menschheit“ bezeichnen wird,i als Pioneer 10 in der unglaublichen Entfernung von 11 Milliarden Kilometern sein letztes Funksignal zur Erde sendet. Mit lediglich wissenschaftlichem Ehrgeiz soll die Sonde das äußere Sonnensystem erforschen und wohl mehr aus Jux klebt man eine Plakette mit ein paar Informationen über die Menschheit auf – dabei gibt die Andeutung der anatomischen Unterschiede zwischen Mann und Frau im prüden Amerika der Nixon-Ära noch Anlass zur Diskussion. Nach einigen Jahren Flugzeit haben die Sonden – die baugleiche Pioneer 11 wurde 1973 in fast entgegengesetzter Richtung gestartet – ihre Hauptaufgabe erfüllt und spektakuläre Nahaufnahmen von Jupiter und Saturn zur Erde gefunkt. Um möglichen unentdeckten Himmelskörpern nachzuspüren, achtete man auf sehr genaue Navigation der Sonden, aber die Mühe schien überflüssig, nichts Neues wurde gefunden. Lediglich eine langsam anwachsende kleine Abweichung der Fluggeschwindigkeit von der Vorhersage schien sich anzudeuten. Ein derartiger „Schmutzeffekt“ konnte aber so vielfältige banale Ursachen haben, dass sich zwei Jahrzehnte A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_6, © Springer-Verlag Berlin Heidelberg 2010
85
86 vom
urknall zum durchknall
lang niemand von den Ingenieuren darum kümmerte – Hauptsache die Dinger flogen. Schließlich beschließt der Gruppenleiter John D. Anderson doch, der Sache auf den Grund zu gehen. Eine umfangreiche Auswertung der Bahndaten beginnt,ii alle denkbaren Fehlerquellen von Staub im Sonnensystem über die Gravitationseinflüsse von Asteroiden bis zur Störung der Funksignale werden analysiert, jedoch kein Fehler gefunden. Die Lichtlaufzeit des Signals zu den Sonden erlaubt die Entfernungsbestimmung, und zusätzlich ermittelt man aus der Frequenzverschiebung des rückgesendeten Signals mit der Dopplerverschiebung die Geschwindigkeit. Aus beiden Datensätzen ergibt sich: Die Sonden werden dauernd etwas langsamer als erwartet, anscheinend gebremst mit einer gleichmäßigen Beschleunigung gegen die Flugrichtung, also zur Sonne hin. Halten Sie sich aber die Winzigkeit dieser Anomalie vor Augen: Sie entspricht der Verringerung der Beschleunigung einer U-Bahn, die diese durch Mitnahme von drei Ameisen erfährt.
ein unerwarteter datumsstempel des universums?
Das Ganze zog sicher auch daher größeres Interesse auf sich, weil der numerische Wert der anomalen Beschleunigung ap = 8,74 ± 1,33 × 10−10 m/s2 so merkwürdig war. Teilt man die Lichtgeschwindigkeit c durch das Alter des Universums T u, ergibt sich ein Wert in der gleichen Größenordnung – sicherlich ein bemerkenswerter Zufall. Dennoch blieben die NASAWissenschaftler in ihren Publikationen 1998 und 2001 betont vorsichtig, und offiziell hielt die Gruppe einen systematisch-technischen Fehler am wahrscheinlichsten – guter wissenschaftlicher Stil übrigens, wenn man sich etwa an Otto Hahn und Fritz Straßmann erinnert, die ihre Ent deckung der Kernspaltung mit lauten Zweifeln veröffentlichten. Der Wert der anomalen Pioneer-Beschleunigung lud aber förmlich dazu ein, über eine Abänderung des Gravitationsgesetzes zu spekulieren – die Theoretiker sind hier sehr phantasievoll, wie die zusätzliche Beschleunigung c/T u entstehen könnte. Für alle diese Vorschläge war es sicher sehr ernüchternd, als bekannt wurde, dass Uranus und Neptun diese Beschleunigung nicht spüren.iii Deren Bahnen sind genauestens vermessen, und
6 das
rätsel der kleinen beschleunigungen
87
gerade in dieser Gegend hatte sich die Pioneer-Anomalie ganz deutlich gezeigt. Einige Autoren – Antonio Rañadaiv und Kris Kroghv – haben dagegen darauf hingewiesen, dass sich ein langsam veränderlicher Zeitablauf in unseren Uhren ebenfalls als Beschleunigung zeigen könnte – eine recht intelligente Reflexion, wenn auch solche Überlegungen als exotisch gelten.
oder doch eine konventionelle erklärung?
Während über Jahre hinweg eine konventionelle Ursache immer unwahrscheinlicher erschien – etwa weil Gasausströmung aus einem unerkannten Leck sich anders auswirken sollte – sprechen neuere detaillierte Untersuchungen wieder dafür, dass doch eine asymmetrische Abstrahlung von Wärme für den Effekt verantwortlich sein könnte.vi Stellen Sie sich vor, Sie werden von der Wärmestrahlung ihres Kachelofens weggestoßen! Es wurde zwar schon früher erwogen,vii dass in Flugrichtung etwas mehr Wärme von den Radionuklidbatterien entweichen kann, aber möglicherweise wurde von den bekannten Arbeitsgruppen die Reflexion an der Hauptantenne unterschätzt. Unklar ist aber weiterhin, ob dieser Mechanismus die Anomalie ganz befriedigend erklären kann. Wertvoll wäre es natürlich, die Flüge anderer Sonden zu analysieren, und es ist höchst ärgerlich, dass dies bei den Sonden Horizons des Jet Propulsion Laboratory der NASA und der europäischen CassiniMission bisher nicht geschah. Während man den Amerikanern noch ein gewisses Verständnis aufbringen kann – man fürchtet, das „Aufwecken“ des Bordcomputers durch die Entfernungsmessung könnte das eigentliche Ziel Pluto gefährden – ist bei der Europäischen Raumfahrtagentur ESA lediglich ein bornierter Direktor verantwortlich, der die fundamentale Wichtigkeit dieses Tests nicht begreift – schließlich geht es um die Gültigkeit des Gravitationsgesetzes. Inzwischen gibt es sogar Vorschläge, den Effekt mit einer eigens dafür geplanten Mission zu testen, leider nicht ganz billig. Wohl deswegen haben die Geldgeber des Jet Propulsion Laboratory dieses erst mal dazu verdonnert, alle Daten
88 vom
urknall zum durchknall
von Pioneer auszuwerten. Informationen zu den frühen Flugphasen in den 1970er Jahren befanden sich noch auf uralten Magnetbändern mit ebensolcher Software. Daher hat man kürzlich pensionierte Ingenieure reaktiviert, denen die Rekonstruktion der Dateien teilweise gelungen ist.viii Im Moment hilft also nichts anderes, als sich in Geduld zu üben und zu hoffen, dass die detaillierten Auswertungen ein eindeutiges Ergebnis liefern. Selbst wenn sich herausstellen sollte, dass die Anomalie sich mit konventioneller Physik erklären lässt, so ist es doch notwendig, dass wir das Gravitationsgesetz bei diesen kleinen Beschleunigungen genauer überprüfen – insbesondere im Bereich von 10−10 m/s2, der auf eine kosmologische Ursache hindeuten könnte.
noch ein rätsel – sonden beim trittbrettfahren zu schnell
In den alten Pioneer-Daten steckt übrigens mehr als die Ergänzung um ein paar weitere Jahre Flugzeit. Dazu müssen Sie sich klar machen, dass Raumsonden ihre enormen Geschwindigkeiten – etwa 50 000 Stundenkilometer und sogar 300 000 bei Horizons – nicht durch gewöhnlichen Treibstoffantrieb erreichen können, sondern durch raffinierte Manöver in der Nähe von Planeten, sogenannte Flybys. Die Sonde nähert sich dabei dem Planeten sozusagen von hinten und lässt sich wie ein Trittbrettfahrer von dessen Gravitation beschleunigen – allerdings nicht so stark, dass sie von diesem eingefangen wird, sondern nur eine kleine Ablenkung erfährt. Vom Planeten aus betrachtet hat die Sonde natürlich die gleiche Einfalls- wie Ausfallsgeschwindigkeit, im Bezug auf die Sonne wird sie jedoch erheblicher schneller, was viel Treibstoff spart. Raumsonden werden heute genauestens navigiert und drehen sogar oft mehrere Flyby-Runden, um richtig auf Touren zu kommen. Dabei fiel erneut eine winzige Unregelmäßigkeit auf – vorhin sagte ich „natürlich“, aber die Ausfallgeschwindigkeit war in einigen Fällen um einige Millimeter pro Sekunde schneller als die Einfallsgeschwindigkeit, ein grotesk erscheinendes Resultat.ix Wenn auch nicht so prominent wie die Pioneer-Anomalie, bereitet diese Flyby-Anomalie den Physikern doch
6 das
rätsel der kleinen beschleunigungen
89
Kopfzerbrechen – übrigens verdanken wir die Entdeckung ebenfalls John D. Anderson, der gegen Ende seiner Karriere alle Dinge genauer unter die Lupe nahm, die für die eigentlichen NASA-Ziele von nachrangiger Bedeutung waren.
pioneer und flyby – gemeinsame ursache?
Nach den Keplerschen Gesetzen umrunden Satelliten den Zentralkörper auf Ellipsenbahnen – so wie wir die Sonne oder der Mond die Erde, die diesen durch Gravitationsenergie gefangen hält. Überschreitet dagegen die Bewegungsenergie die Gravitationsenergie, kommt es nur zu einem etwas abgelenkten Vorbeiflug auf einer Hyperbelbahn – für Liebhaber des Vollmondes sicher eine sehr unromantische Vorstellung. Die Flyby-Anomalie wurde nun gerade dann beobachtet, als die Raumsonde von einer Ellipsenbahn um die Sonne durch das Flyby-Manöver auf eine Hyperbelbahn überging x – so als würde sie mit der Gewissheit, nun dem Sonnensystem entkommen zu sein, quasi zum Abschied unser Gravitationsgesetz veralbern. In diesem Punkt liegt die Sprengkraft, die der alte Pioneer-Datensatz enthalten könnte. Beide Pioneer-Sonden befinden sich inzwischen auf hyperbolischen Flugbahnen, und Pioneer 10 erreichte diese nach einem Flyby-Manöver bei Jupiter, das noch auf Magnetbänder aufgezeichnet worden war. Sollte die ungeklärte Beschleunigung zu jener Zeit eingesetzt haben – darauf gibt es bisher nur vage Hinweise – wäre dies ein Indiz auf den Zusammenhang zwischen den Anomalien. Dabei ist noch einen Punkt wichtig: So ausführlich das Gravitationsgesetz auf den Keplerschen Ellipsen auch getestet ist, so spärlich sind unsere Beobachtungen, was die hyperbolischen Bahnen betrifft. Logisch, dass es vergleichsweise wenige Himmelskörper gibt, die nur mal kurz an uns vorbeifliegen um den Astronomen Hallo zu sagen.
Obwohl man bei Pioneer 11 die Anomalie ebenfalls feststellte, riss der Kontakt leider schon viel früher ab.
90 vom
urknall zum durchknall
So hat man sich nie große Gedanken über diesen Fall gemacht, da er mathematisch ganz analog zur Ellipse ist. Dass jedoch gerade die hyperbolischen Bahnen bei genauem Hinsehen oft unerklärliche Abweichungen zeigen, ist doch etwas beunruhigend.
die planetenuhren als waagen – auf galaxien übertragbar?
In den vierhundert Jahren seit Galileis Teleskop konnten wir also die elliptischen Planetenbahnen um die Sonne wirklich gut kennenlernen – Rekordhalter Merkur kam auf über 1 600 Sonnenumrundungen, Mars auf 300, Jupiter immerhin noch auf 38, lediglich Pluto konnte seit seiner Entdeckung im Jahre 1930 nicht einen seiner 248 Jahre dauernden Umläufe vollenden, bevor er 2006 zum Kleinplaneten degradiert wurde. Alle diese Umlaufzeiten sind durch die Gravitation der Sonne bedingt, und im kleinen läuft dieses himmlische Uhrwerk auch um Planeten wie Jupiter ab, der von seinen nun über 50 entdeckten Monden umrundet wird. Misst man Bahnen und Umlaufzeiten, kann man daraus präzise die Masse bestimmen. Dies ist auch der Grund, warum mondlose Planeten wie die Venus mit einer relativ großen Ungenauigkeit ihrer Masse leben müssen. Obwohl eigentlich naheliegend, war es doch eine bemerkenswerte Idee, die Massenbestimmung mittels dieses Uhrwerks auf der Skala von Galaxien anzuwenden. Zwar können wir dort nicht die Millionen Jahre abwarten, die Sterne zum Umlauf um das Galaxienzentrum gewöhnlich benötigen, aber ihre Umlaufgeschwindigkeit lässt sich doch mit Hilfe der Dopplerverschiebung des Lichts gut bestimmen. Als erster wandte diese Methode 1971 Seth Shostak bei der Spiralgalaxie NGC 2403 an,xi und bemerkte in der Danksagung seiner Diplomarbeit: „Diese Studie ist den Einwohnern von NGC 2403 gewidmet, die Exemplare zum Selbstkostenpreis erhalten können“. Später machte vor allem Vera Rubin vom Carnegie Institut in Washington darauf aufmerksam, dass mit der Massenbestimmung etwas nicht stimmte – und erntete lange Zeit Spott,
6 das
rätsel der kleinen beschleunigungen
91
bevor ihre Arbeiten als Richtung weisend anerkannt und schließlich 2003 mit der Bruce-Medaille ausgezeichnet wurden.
den galaxien fehlt die masse
Betrachten wir eine Spiralgalaxie von der Kante her, sehen wir in dem Flügel, der sich auf uns zubewegt, eine relative Blauverschiebung, während auf der anderen Seite die Drehgeschwindigkeit von uns weggerichtet ist und das Licht noch weiter ins Rote verschoben wird. Sie richten Ihr Teleskop nun einfach auf den äußersten Punkt der Spiralarme, messen die Geschwindigkeit und die Distanz zum Zentrum, und schon können Sie die Masse der Galaxie berechnen. Diese Masse stimmt noch in etwa mit der überein, die Sie erhalten, wenn Sie einfach die Leuchtkraft messen und davon ausgehen, dass sie durch Sterne von Sonnenmasse zu Stande kommt. Letztere Massenabschätzung ist recht ungenau, und so störte es noch nicht besonders, dass dabei regelmäßig weniger herauskam. Als man jedoch die Geschwindigkeit von Gaswolken außerhalb der leuchtenden Galaxienarme bestimmte, wartete eine unangenehme Überraschung. Diese Wolken konnten kaum Masse enthalten, und so schien klar, dass Geschwindigkeit der Gaswolken mit zunehmendem Abstand vom Zentrum abnehmen musste (Abb. 6). Statt dessen bleiben die Geschwindigkeiten, nachdem sie einen Maximalwert erreicht haben, nahezu gleich – was man oft als „flache Rotationskurven“ bezeichnet. Die Messung legt nahe, dass in Außenbereichen der Galaxien weitere, wenn auch nicht leuchtende Masse vorhanden sein muss, die man daher als Dunkle Materie bezeichnet. Die anomal flachen Rotationskurven wurden inzwischen bei Hunderten von Spiralgalaxien nachgewiesenxii und gelten als der eindeutigste Hinweis darauf. Aus der Form der Rotationskurve lässt sich sogar die Sterne mit der doppelten Sonnenmasse leuchten mehr als zehn mal so hell wie diese, und dies macht die Schätzung schwierig. Denn die Größenverteilung der Sterne ist schwer zu bestimmen.
92 vom
urknall zum durchknall
Abbildung 6: Rotationskurve einer typischen Spiralgalaxie (NGC 3198), bei der die Rotationsgeschwindigkeit gegen den Abstand zum Zentrum aufgetragen ist. Die durchgezogene Kurve erwartet man nach dem Keplergesetz, die Messungen zeigen jedoch die gepunktete Kurve. Daher vermutet man im Bereich, in dem die Kurven auseinanderlaufen, Dunkle Materie. Wie aus den Verbindungslinien erkennbar, lassen sich Rotationskurven noch weit über den sichtbaren Bereich von 10 Kiloparsec hinaus aufnehmen.
Verteilung der Dunklen Materie ermitteln – ihre Dichte nimmt zwar nach außen ab, jedoch scheint auch in größerer Entfernung jede Kugelschale um den Galaxienkern etwa gleich viel Masse zu enthalten. Dadurch ergibt sich in vielen Galaxien ein Verhältnis der Dunkelmaterie zur „normalen“ von etwa 10:1, oft sogar höher. Das ist schon erstaunlich genug, und neue Beobachtungen reichen immer weiter über die Ausdehnung der eigentlichen Galaxie hinaus.xiii Nirgendwo hat man einen Abfall der Rotationskurve entdeckt, der das Verschwinden der Dunklen Materie andeuten würde. So scheint es, dass ihr Anteil mit der Qualität unserer Teleskope noch weiter anwachsen wird! Die anomalen Rotationskurven sind aber nur eine von vielen Beobachtungen, bei der die Bestimmung der Masse auf Widersprüche stößt.
6 das
rätsel der kleinen beschleunigungen
93
die brille für milliarden lichtjahre
Einsteins Allgemeine Relativitätstheorie fordert eine Ablenkung von Lichtstrahlen um 1,75 Bogensekunden am Rand der Sonne, die 1919 und natürlich auch später glänzend bestätigt wurde. Einsteins Theorie gilt als so gesichert, dass man den Spieß umdreht und den Betrag der Lichtablenkung zur Massenbestimmung des ablenkenden Himmelskörpers verwendet. Wie bei den Planetenuhren wagt man auch hier den Schritt über das Sonnensystem hinaus. Wir erlauben uns dies, seit man 1978 zwei dicht nebeneinander liegende Bilder eines Quasars entdeckte. Der identische spektrale Fingerabdruck machte klar, dass es sich um dasselbe Objekt handeln musste, dessen Licht links und rechts vorbei an einer massereichen Galaxie abgelenkt wurde, die dazwischen auf der Sichtlinie lag. Die Ablenkung des Lichts ist hier übrigens ganz analog zur Optik eines lichtbrechenden Glases, so dass man auch von Gravitationslinsen spricht. Einige Jahre später entdeckte jemand sogar zu dünnen Linien verzerrte Galaxienbilder. Es stellte sich heraus, dass diese auch auf Aufnahmen zahlreicher anderer Astronomen vorhanden waren, aber für Fehler gehalten und ignoriert worden waren. Da diese verzerrten Bögen den Gravitationslinseneffekt bestätigen, werden sie seither respektvoll Einstein-Bögen genannt. Wie schon bei anderer Gelegenheit zeigte sich dabei, dass die gemessene Lichtablenkung eine wesentlich größere Masse erfordert, als sich aus der Abschätzung der sichtbaren Helligkeit des Galaxienhaufens ergibt.
das intergalaktische thermometer
Eine weitere unabhängige Messung der Dunklen Materie ist ein Verdienst der Röntgensatelliten wie ROSAT. Diese entdeckten diffuse Stahlungsquellen in der Gegend von Galaxienhaufen, die auf ein sehr heißes, zum Haufen gehöriges Wasserstoffgas schließen lassen. Denn nach dem Planckschen Strahlungsgesetz lässt sich die Wellenlänge der Röntgenstrahlung leicht in eine Temperatur umrechnen. Temperatur ist anderer seits aber nur ein anderer Name für Bewegungsenergie der Teilchen, die in diesem Fall leicht ausreichen würde, den Galaxienhaufen zu
94 vom
urknall zum durchknall
verlassen. Da aber diese Gaswolken offenbar dauerhaft in Haufen zu finden sind, muss dort mehr Masse vorhanden sein, als wir nach der Analyse der Leuchtkraft vermuten – ebenfalls ein klares Indiz für Dunkle Materie. Wir treffen hier übrigens Fritz Zwickys alte Entdeckung in Miniaturform an. Er hatte Galaxiengeschwindigkeiten vermessen und ROSAT die Geschwindigkeit geladener Teilchen, das Argument mit der zu hohen kinetischen Energie bleibt jedoch das gleiche. Schließlich kann man es auch noch auf die Geschwindigkeit von Sternen anwenden. Denn die Dispersion der Geschwindigkeiten, also deren zufällige Streuung um einen Mittelwert, gibt ebenfalls an, wie anfällig Sterne sind, das Gravitationsfeld ihrer Muttergalaxie zu verlassen. In elliptischen Galaxien ist diese Dispersion sehr hoch, was erneut zeigt, dass die sichtbare Masse nicht ausreicht. Diese Methode kann man auf wieder andere Objekte übertragen. Riccardo Scarpa vom European Southern Observatory stellte so bei Kugelsternhaufen eine ungewöhnlich hohe Streuung der Geschwindigkeiten fest.xiv Dies ist zwar ein deutlicher Hinweis auf eine stärkere Gravitation, aber insofern höchst verwunderlich, als Kugelsternhaufen nach vorherrschender Meinung kaum Dunkle Materie enthalten können. massive compact halo objects – die machos im aussterben
Obwohl es an all diesen Beobachtungen keinen vernünftigen Zweifel gibt, bleiben für die „fehlende Masse“, wie man sie früher nannte, zunächst doch eine Reihe von guten Erklärungsmöglichkeiten. Da kleine Sterne bekanntlich sehr viel schwächer leuchten, sind sie auch durch die besten Teleskope auf der Distanz des Milchstraßendurchmessers nicht auszumachen. Vielleicht steckt ja doch ein Großteil der Masse der Galaxie in diesen Zwergen. Leider ist dieses Argument zu einfach, denn man weiß, dass die Dunkle Materie sich keineswegs nur in der Scheibe der Spiralgalaxien aufhält. Wenn dies so wäre – und unsere Galaxis ist wohl ein typisches Exemplar – dann müssten jene etwa 200 Kugelsternhaufen, die ihre Bahnen um die Milchstraße außerhalb der
6 das
rätsel der kleinen beschleunigungen
95
Scheibenebene ziehen, ganz anders verteilt sein.xv Aus dieser und anderen Beobachtungen schließt man, dass sich die Dunkle Materie in einer kugelförmigen Umgebung der Galaxienscheibe, genannt Halo, befindet – eine Tatsache, die vielen einfachen Erklärungsmöglichkeiten den Weg versperrt. Denn warum sollten die kleinen Sterne in den Vororten der Milchstraße geblieben sein, während sich die großen alle in einer Scheibe treffen? Dennoch gibt es Modelle, die vermuteten, dass sich wenigstens braune Zwerge im Halo aufhalten – jene verhinderten Sterne, die es wegen zu wenig Druck im Inneren gerade nicht geschafft haben, die Fusion von Wasserstoff zu Helium zu zünden, die ihnen ein leuchtendes Dasein ermöglicht hätte. Trotzdem können braune Zwerge die Helligkeit eines Hintergrundsternes kurzfristig erhöhen, indem sie dessen Licht geringfügig fokussieren – durch den Gravitationslinseneffekt, der hier als Microlensing bezeichnet wird. Nachdem diese Idee aufgekommen war, suchte man sofort intensiv und systematisch. Die registrierten Ereignisse waren jedoch viel zu selten, als dass es für die Menge der Dunklen Materie ausgereicht hätte. Seitdem ist die Hypothese der Massive Compact Halo Objects, kurz Machos, wieder auf dem Rückzug, und damit praktisch alle Versuche, „normale“ Materie zur Erklärung zu verwenden. Kleine Teilchen in Form von Gaswolken würden sich durch Lichtabsorption gut bemerkbar machen, so dass als Kandidaten praktisch nur mehr Ziegelsteine, Regenschirme oder Kaugummis übrigbleiben. Die konventionelle Materie verträgt sich sehr schwer mit den Beobachtungen, und alle plausiblen Vorschläge für die Dunkle Materie scheinen widerlegt. die schwächlinge kommen – weakly interacting massive particles (wimps)
Während die herkömmlichen Erklärungsversuche tendenziell mehr Sympathie bei den praktischen Astronomen fanden – mir scheint, dass diese ihre möglichen Messfehler noch am besten kennen – favorisierten die Theoretiker schon bald neuartige Teilchen. Die anfangs bevorzugten Neutrinos waren allerdings aus dem Rennen, sobald erste verlässliche
96 vom
urknall zum durchknall
Abschätzungen ihrer Massenobergrenze vorlagen. Um nennenswert zur Dunklen Materie beizutragen, müsste ihre Masse nach der Speziellen Relativitätstheorie durch eine Geschwindigkeit erhöht sein, die sie bald aus jeder Galaxie wegbefördert hätte. Neutrinos werden daher allenfalls noch als Notnagel in Galaxienhaufen „verwendet“. Daneben gibt es aber eine Fülle von Elementarteilchen, die als Dunkle Materie in Frage kommen. Leider wurden sie noch in keinem Labor gefunden. Weil ihre Eigenschaften so gänzlich unbekannt sind, kann man sich auch leicht Gründe ausdenken, warum sie sich nicht wie normale Materie in der Scheibe der Galaxie aufhalten, sondern gerade im Halo. So sind diese dunklen Umgebungen der Galaxien zu riesigen Projektionsflächen für die Hoffnungen auf neue Teilchen geworden, und die Theorie der Supersymmetrie sagt etwa eine ganze Reihe davon voraus. Als Kandidaten gelten Neutralinos, Photinos, Axons, Axinos und W-inos, überhaupt sind italienische Diminutive eine unerschöpfliche Hoffnungsquelle der Teilchenphysiker. Vielleicht bescheren sie uns auch noch Neutrilellos, Neutraluzzos und Neutronicchettos. Es sind so viele Vorschläge in Umlauf, dass das „weakly interacting“ manchmal in ein „weekly interacting“ umgetauft wird – jede Woche erscheint ein neues Teilchen. Nicht selten werden Sie auch die hoffnungsvolle Erwartung hören, das leichteste supersymmetrische Teilchen werde demnächst im Large Hadron Collider entdeckt. Versuchen Sie in diesem Fall Ihren Gesprächspartner auf eine Wette festzunageln. Was anderes kann man gegen diese Erfindungen kaum tun.
vollmundige vorhersagen – zum merken
Umso erstaunlicher ist es daher, wenn von einer Detektion der Dunklen Materie durch Teleskope berichtet wird. Beim bullet cluster, zwei Galaxienhaufen, die anscheinend kollidiert waren, beobachtete man sowohl Gravitationslinseneffekte als auch Röntgenstrahlung, die auf Dunkle Materie hindeuten, allerdings an unterschiedlichen Orten. In der Tat ein interessantes Ergebnis, das leider grob übertrieben als „direkte Beobachtung“ der Dunklen Materie aufgebauscht wurde, obwohl die
6 das
rätsel der kleinen beschleunigungen
97
Interpretation von zahlreichen Annahmen abhängt – etwa von der Emissivität des Gases im Röntgenbereich oder vom Prozentsatz der gewöhnlich in Gaswolken enthaltenen Materie. Dankbar muss man hingegen sein, wenn eine echte Vorhersage für einen Effekt der Dunklen Materie gemacht wird. Für gewisse Sorten von Teilchen nimmt man an, dass sie ganz gelegentlich miteinander wechselwirken und zu zwei Gammaquanten zerstrahlen – diese sollten von der nächsten Generation der Röntgenteleskope wie FERMI entdeckt werden können. Nach Berechnungen der Gruppe um Carlos Frenk von der Universität Durham sollte die entsprechende Strahlung den Dunklen Halo der Milchstraße erkennen lassen; wohl um nicht der falschen Bescheidenheit gescholten zu werden, erinnerte Frenk gleich dezent daran, dass diese Entdeckung sicher einen Nobelpreis wert wäre. Wenn wir also den Wert des Fells auch schon kennen, im Moment warten noch alle auf das Erlegen des Bären. Sollte FERMI allerdings nichts sehen, bin ich gespannt, ob man dies als Evidenz gegen Dunkle Materie interpretiert – mir scheinen schon ein paar solcher Hypothesen im Sande verlaufen zu sein, merken Sie sich also mal diese. „Es gibt noch die Möglichkeit, dass die Natur sich weigert, zu kooperieren“, wie sich ein Theoretiker ausdrückt.xvi Man kann nur hoffen, dass man ihr mit der Interpretation künftiger Beobachtungen nicht Gewalt antut.
herumdoktern am gravitationsgesetz – wie man es besser nicht macht
Über 75 Jahre lang jagt man nun schon erfolglos der Dunklen Materie nach, und manchmal scheint es, die Geschichte des Phlogistons wiederhole sich, jenes nie aufgefundenen Feuerstoffes, den die Chemie des 18. Jahrhunderts als Ursache jeder Verbrennung vermutete. Um so einem Irrweg vorzubeugen, wurde verschiedentlich auch eine Abänderung des Newtonschen Gravitationsgesetzes erwogen, etwa ab einer bestimmten Reichweite. Dies erzähle ich allerdings nur, um ein Beispiel zu geben, wie gedankenlos manchmal Physik betrieben wird – eine solche
98 vom
urknall zum durchknall
Abänderung des Newtonschen Gesetzes ist nicht nur hässlich, sondern fällt auch noch furchtbar auf die Nase, wenn man sie mit den Daten vergleicht. Die Dunkle Materie – oder Abweichung von der Theorie, wenn Sie wollen – tritt bei Spiralgalaxien nämlich nicht bei einem bestimmten Radius auf, sondern im Bereich der äußersten Sterne, und Galaxien können sehr unterschiedlich ausgedehnt sein – um den Faktor hundert. Rechnungen zu diesen Theorien führen zu der peinlichen Schlussfolge rung, dass die Leuchtkraft der Sterne in bestimmten Galaxien hundertmal kleiner sein muss als normal. „Etwas unbefriedigend für Theorien, die die Notwendigkeit von Dunkler Materie beseitigen wollen“ kommentiere Anthony Aguirre ironisch in einem Artikel,xvii der als eine Art Nachhilfe für Theoretiker gedacht war, die in Unkenntnis der Beobachtungen an Naturgesetzen herumpfuschen. Das Abändern des Gravitationsgesetzes hat sich übrigens zu einem Breitensport entwickelt, der an Willkürlichkeit den Erfindungen der Teilchenphysiker kaum nachsteht. Dabei nimmt man sich möglichst viele Freiheiten, die komplizierte Rechnungen erlauben, etwa bei der sogenannten f(R)-Gravitation, die das Maß der Raumkrümmung R in der Allgemeinen Relativitätstheorie mit einer beliebigen Funktion verändert. Warum nicht? Als so ein Vorschlag zur Lösung irgendeiner Beobachtungsanomalie auf der Leopoldina-Konferenz 2008 in München präsentiert wurde, meldete sich die Kosmologin Ruth Durrer aus Genf und kommentierte trocken: „Diese Modifikation der Gravitation ist ja interessant, aber es wäre doch noch besser, wenn sie auch mit den Daten des Sonnensystems im Einklang wäre!“ Das Theoriechen hatte im wahrsten Sinne die Bodenhaftung verloren. Obwohl die Abänderung des Newtonschen Gesetzes durch Einstein so erfolgreich war, macht dies für die neueren Beobachtungsanomalien keinen Unterschied. Denn die Allgemeine Relativitätstheorie wirkt sich bei starken Feldern aus, während bei geringen Beschleunigungen die Newtonsche und Einsteinsche Theorie identisch sind. Die dort auftretenden Anomalien sind daher besonders beunruhigend. Denn wenn, dann wären beide Theorien falsch!
6 das
rätsel der kleinen beschleunigungen
99
mond – der unternehmensberater für astronomen
Manchmal tut es gut, einen unbefangenen Blick auf ein Problem zu werfen. Im Grunde ist die Idee, bei einem bestimmten Radius die Gravitation abzuändern, sehr naiv. Ebenso könnte man zur Verkehrssicherheit vorschreiben, alle Kurven mit einem Mindestradius zu bauen, obwohl jedes Kind weiß, dass die Rutschgefahr in Kurven von der Zentripetalbeschleunigung abhängt. Aber kein Astronom kam auf diesen Aspekt, sondern Mordehai Milgrom, ein Festkörperphysiker am Weizmann Institut in Rehovot in Israel. Als er vorschlug, das Gravitationsgesetz mit dem Kunstwort MOND – MOdified Newtonian Dynamics bei einer bestimmten Beschleunigung abzuändern, erntete er zunächst nur Skepsis. Von mehreren Zeitschriften wurde sein Manuskript als abwegig eingeschätzt, und er konnte froh sein, dass es kurz vor Jahresende 1982 vom anerkannten Astrophysical Journal akzeptiert wurde. Im Gegensatz zu zahlreichen anderen Vorschlägen, die an den Daten kläglich gescheitert waren, konnte seine Formel die „flachen“ Rotationskurven der Spiralgalaxien erstaunlich gut beschreiben.xviii Milgrom nahm an, dass die übliche Gravitationsbeschleunigung g bei kleinen Werten durch das geometrische Mittel aus g und einer „fundamentalen“ Beschleunigung a0 ersetzt wird (vgl. Formelkasten). Nachdem die Theorie nun bekannt ist, gibt es praktisch niemand unter den Experten der Rotationskurven, die nicht einräumen würden, dass MOND eine hervorragende phänomenologische Beschreibung dafür darstellt.xix Zwar wurde auch bei MOND der Parameter a0 an die Daten angepasst, jedoch beschreibt hier eine einzige Zahl das Verhalten von tausend Spiralgalaxien, obwohl sich diese in ihrer Masse um einen Faktor von 10 000 unterscheiden! Wenn auch die ad-hoc-Bastelei mit a0 methodisch fragwürdig sein mag, so zog der rätselhafte numerische Wert doch erhebliches Interesse auf sich. Teilt man die Lichtgeschwindigkeit durch das Weltalter, ergibt sich eine Beschleunigung in der gleichen Größenordnung – ähnlich der, die später als Pioneer-Anomalie bekannt wurde.
100 vom
urknall zum durchknall
Beschleunigung in MOND GM Die übliche Gravitationsgeschleunigung g 0 = wird in MOND zu 2 r GMa g = 2 0 modifiziert, wenn die Gravitationsfelder schwach sind. r Der Parameter a0 = 1,1 × 10-10 m/s2 wurde dabei den Daten angepasst. Auffällig ist, dass a0 in der gleichen Größenordnung wie ap der Pioneerc Anomalie und wie liegt. Tu
Bevor ich mich hier dem Vorwurf der Zahlenmystik aussetze, muss aber klargestellt werden: MOND ist eine grausam schlechte „Theorie“, die diesen Namen kaum verdient. Sie wirft alles über Bord, was der Gravitationsphysik heilig ist, angefangen vom Newtonschen Wechselwirkungsgesetz bis zu Einsteins Äquivalenzprinzip. Zwar gibt es jüngst eine Ergänzung, die nicht ganz soviel Porzellan der Theoretischen Physik zerschlägt, aber nach wie vor wird den meisten richtig übel bei dem Gedanken. Da trifft es sich für viele gut, dass MOND auch woanders kläglich scheitert. MOND kann weder die erhöhte Masse in elliptischen Galaxien erklären, noch die Dunkle Materie in Galaxienhaufen beschreiben, von ihrer Rolle im frühen Universum ganz zu schweigen. wenn b falsch ist, muss a richtig sein
In vielen Vorträgen – vor allem dort, wo man „open-minded“ ist, wird nun MOND als Alternative erwähnt. Leider nur spreche die Evidenz da und dort sehr dagegen, worauf man erleichtert zum Standardmodell zurückkehrt und mit dessen Annahmen weiterrechnet. Ich habe diese Logik nie ganz verstanden. Um es nochmals zu sagen: MOND ist falsch und ich wäre der letzte, der der „Theorie“ eine Träne nachweint, aber sie hat doch ein unbestreitbares Verdienst: den Hinweis gegeben zu haben, dass die Anomalien der Spiralgalaxien mit geringen Beschleunigungen zusammenhängen. Es ist eine ganz unerwartete und irritierende Erkenntnis – wir verdanken sie MOND – dass das Gravitationsgesetz bei
6 das
rätsel der kleinen beschleunigungen
101
sehr kleinen Beschleunigungen unzureichend überprüft ist. Und auch wenn MOND in Galaxienhaufen und anderswo auf den Bauch fällt, haben alle Erscheinungsformen der Dunklen Materie eines gemeinsam: Die entsprechenden Bewegungen laufen sämtlich im Bereich geringster Beschleunigungen ab, meist gerade unterhalb jener „magischen“ Grenze von c/Tu. Genau diese stellte Riccardo Scarpa auch in Kugelsternhaufen fest,xx obwohl sich dort eigentlich keine Dunkle Materie befinden sollte! Ob man nun an den Zusammenhang mit dem Alter des Universums glaubt oder nicht, fest steht doch: Entweder halten uns über tausend Spiralgalaxien mit einem gleichartigen Benehmen zum Narren, oder wir haben die Gravitation ganz grundlegend noch nicht verstanden. Statt für Dunkle Materie sprechen die Daten hier ganz klar dafür, dass wir etwas am Gravitationsgesetz nicht verstehen, aber es gibt eine psychologische Barriere, die Lee Smolin treffend beschrieb:xxi „Die erste Hypothese wird vor allem deswegen bevorzugt, weil die Alternative – dass Newton und damit die Allgemeine Relativitätstheorie falsch ist – zu furchterregend ist, um wahr zu sein.“ das überfahrene warnsignal – die karawane zieht weiter
Gelegentlich veranstalten die Max-Planck-Institute einen Tag der offenen Tür, an denen die Wissenschaftler für Fragen zur Verfügung stehen und somit das Interesse der Öffentlichkeit wecken sollen. So suchte ich also im Oktober 2007 das Institut für Astrophysik in Garching auf. Als Lehrer und insofern Repräsentant der bildungsnotleidenden Schulen treffe ich unter den Experten übrigens immer äußerst hilfsbereite Gesprächspartner an, die ihre Spitzenforschung gerne nach unten weiterzugeben bereit sind. Da zufällig Simon White, einer der Direktoren, mit mir am Tisch saß, fragte ich ihn, was er denn für eine Meinung zu MOND habe. „Meinung gar keine“, antwortete er, als Wissenschaftler halte er sich nur an die Daten. Sein Minenspiel war aber so, als hätte ich aus einem Horoskop vorgelesen, und daher beeilte ich mich zu versichern, dass MOND ja widerlegt und auch theoretisch grausam sei, aber ob es uns nicht trotzdem zu denken geben müsse, dass alle
102 vom
urknall zum durchknall
Spiralgalaxien die merkwürdige Beschleunigung c/Tu in sich tragen. „Ich halte das für reinen Zufall“, antwortete er, „außerdem müssten ja dann die entfernten Galaxien, deren Vergangenheit wir betrachten, ein ganz anderes Alter des Universums anzeigen“. Ich dachte einem Moment nach, wo ich dieses Argument schon gehört hatte, schließlich fiel mir mein Wahlkurs Astronomie ein. Einige Monate vorher hatte ich dort die Beobachtungen der Dunklen Materie besprochen. Einer meiner besten Schüler – er hatte mit seinen kreativen Flugzeugkonstruktionen zweimal den Wettbewerb „Jugend Forscht“ gewonnen – kam nach kurzem Nachdenken auf den gleichen Einwand zu MOND: In der Tat sind große Distanzen gleichzeitig ein Blick in die Vergangenheit, und man müsste bei Galaxien in Milliarden Lichtjahren Entfernung eine entsprechende Zeit abziehen, wenn man die Beschleunigung c/Tu berechnet. Bei genauerem Hinsehen spricht dies natürlich keineswegs gegen die von MOND beobachtete Koinzidenz. Denn Rotationskurven, eine subtile und schwierige Messung, lassen sich nur von Galaxien der „näheren“ Umgebung gewinnen. Sonst hätte man ja bei einer Auswahl unter 100 Milliarden Galaxien im Universum auch schon mehr als 1 000 gefunden. Die untersuchten Galaxien sind also durchaus repräsentativ, aber sämtlich so nah, dass die Lichtlaufzeit keine Rolle spielt. Mein Schüler sah dies damals gleich ein, und so wunderte ich mich doch über Whites Argument. Während mir die Geschichte durch den Kopf ging, hatte er sich aber derweil einem anderen Gesprächspartner zugewandt und augenscheinlich kein Bedürfnis mehr, über die Feinheiten von MOND zu diskutieren.
besser ausblenden als aufgeben
Wieder einige Monate später dämmerte mir, dass meine unbefangene Frage ihm ein wenig zu nahe getreten sein konnte. Simon White gehört zu den meistzitierten Astrophysikern, Hunderte von Artikeln beschäftigen sich mit einem „Navarro-Frenk-White“-Profil der Dunklen Materie in Galaxien, und riesige Simulationen auf Supercomputern basieren darauf. Insofern enthielt meine naive Frage zu MOND an ihn
6 das
rätsel der kleinen beschleunigungen
103
letztlich den Untertitel: „Könnte es nicht sein, dass Sie die vergangenen fünfundzwanzig Jahre damit verbracht haben, einem Phantom nachzujagen?“ Wenn man ehrlich ist, wäre es für jeden schwierig, darauf emotionslos zu antworten. Obwohl es für einen Wissenschaftler das Berufsrisiko schlechthin ist, sich zu irren, ist der Gedanke daran doch so unangenehm, dass objektive Hinweise darauf leichtfertig ausgeblendet werden. Das Sträuben der Psyche hat für das Individuum durchaus seinen biologischen Sinn, für die Wissenschaft als Ganzes ist dieser Mechanismus jedoch verheerend. Vielleicht liegt darin das größte methodische Problem der modernen Physik – sie wird von Menschen gemacht. Die kleinen Beschleunigungen sind dagegen das inhaltliche Problem schlechthin der Gravitationsphysik. Angefangen von den Messungen der Gravitationskonstante bis hin zur Expansion des Universums gibt es keine einzige Beobachtung, die unterhalb des Wertes von c/Tu nicht auf Schwierigkeiten gestoßen wäre. Anstatt auf einer Längenskala von 10−35 Metern zu phantasieren, muss die Physik versuchen, die Beschleunigungen im Bereich 10−10 m/s2 zu verstehen: Im Gegensatz zur Plancklänge gibt es hier auch was zu sehen. Man muss allerdings bereit sein, hinzuschauen.
Weiterführende Literatur J. Feitzinger: Galaxien & Kosmologie, Kosmos Verlag 2007. L. Bergmann/C. Schäfer: Lehrbuch der Experimentalphysik Bd. 8, de Gruyter 2002, Kap. 5. A. Unsöld/B. Baschek: Der neue Kosmos, Springer 2002, Teil IV. i H.-J. Dittus et al., Physik Journal, 01/2006, S. 25. ii J.-H. Anderson et al., arXiv:gr-qc/0104064. iii L. Iorio, arXiv:gr-qc/0610050. iv A. Rañada, arXiv:gr-qc/0410084. v K. Krogh, arXiv:astro-ph/0409615. vi S. G. Turyshev, arXiv:0906.0399; Rievers et al. (New J. Phys., 11, 113032, 2009). vii L. K. Scheffer, arXiv:gr-qc/0107092. viii V. T. Toth et al., arXiv:gr-qc/0603016. ix C. Lämmerzahl et al., arXiv:gr-qc/0604052. x J. D. Anderson et al., arXiv:astro-ph/0608087.
104 vom
urknall zum durchknall
xi A. Bosma, arXiv:astro-ph/0312154. xii M. Persic et al., arXiv:astro-ph/9502091. xiii G. Gentile et al., arXiv:astro-ph/0611355. xiv R. Scarpa et al., arXiv:0707.2459. xv A. Aguirre et al., arXiv:hep-ph/0105083. xvi J. Hogan, Nature 448 (2007), 240–245. xvii A. Aguirre et al., arXiv:hep-ph/0105083. xviii R. H. Sanders et al., arXiv:astro-ph/0204521. xix G. Gentile, arXiv:0805.1731. xx R. Scarpa, arXiv:astro-ph/0601581. xxi L. Smolin, The Trouble with Physics, Houghton-Mifflin 2006, Kap. 13.
7
Verdunkelung Dunkle Materie, Dunkle Energie: Nur unsichtbar oder gar nicht da?
Neben den vielen rätselhaften Phänomenen bei geringen Beschleunigungen, die man gewöhnlich mit „kalter“ Dunkler Materie (CDM) in Zusammenhang bringt, rütteln aber auch viele andere Beobachtungen an unserer Theorie der Gravitation, die mit der Zutat der Dunklen Energie zum ΛCDM-Modell erweitert wurde. Zum Beispiel dachte man lange Zeit, Galaxien müssten sich in ihrer Helligkeit deutlich vom Hintergrund abheben, bis Gregory Bothun von der Universität von Oregon 1986 mit einer raffinierten Technik – Detektion von neutralem Wasserstoff mittels der 21-Zentimeter-Linie – eine Spiralgalaxie von riesigen Ausmaßen aufspürte, etwa zwanzig mal so groß wie die Milchstraße.i Der neu entdeckte Typ wird heute low surface brightness, kurz LSB genannt, und ist durch seine geringe Flächenhelligkeit mit normalen optischen Teleskopen meist nicht zu entdecken. Das heißt letztlich, an vielen Orten, wo wir gar nichts sehen, könnten sich noch Galaxien befinden. Dieses kleine Beispiel zeigt, dass wir in der Astrophysik immer mit Überraschungen rechnen müssen – letztlich könnten solche Kleinigkeiten etwa die WMAP-Daten durchaus beeinflussen. Die Messung
Sprich: Lambda-CDM-Modell.
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_7, © Springer-Verlag Berlin Heidelberg 2010
105
106 vom
urknall zum durchknall
des kosmischen Mikrowellenhintergrundes wäre dann weit weniger präzise, als man annimmt. die unverstandene innere dynamik der galaxien
Den Galaxienexperten bereiten die Zwerggalaxien dieser Art, die low surface brightness dwarfs – ein lustiger Name für eine Milliarde Sterne – noch größere Kopfschmerzen. Auch bei ihnen zeigte die Rotationsgeschwindigkeit ihrer Gaswolken Dunkle Materie an, allerdings einen bis zu hundertfach höheren Anteil. Mit dem Verhalten von – egal welchen – Elementarteilchen ist dies sehr schwer zu erklären. Überhaupt zeigen diese Rotationskurven (wie Abb. 6) eine ausgeprägte Systematik. Bei den großen Spiralen wird das Maximum der Geschwindigkeit schon am sichtbaren Rand erreicht, um dann ein wenig abzufallen, während diese bei den „Zwergen“ auch weit außerhalb noch langsam zunimmt. Daher muss der Anteil Dunkler Materie dort enorm sein. Liebhaber des Dunklen wie Dan Hooper in seinem Buch Dark Cosmos gehen darüber gerne hinweg, aber Paolo Salucci von der Universität Genua, der fast tausend Spiralgalaxien untersucht hat, wird leicht ärgerlich, wenn ein paar Theoretiker die vermeintlich ganz „flachen“ Rotationskurven mit einem neuen Teilchen erklären. Wenn es die Zwerggalaxien nicht gäbe, wäre das Problem der Dunklen Materie, wie er mir in einer Email schrieb, „molto, molto minore“. Andere, wie Jerry Sellwoodii von der Rutgers Universität und Wyn Evansiii aus Cambridge, haben beschrieben, wie die Erhaltung des Drehimpulses oder die Ausprägung von Balken in den Spiralstrukturen jedweder Erklärung mit einer bestimmten Teilchensorte widersprechen, während umgekehrt gezeigt wurde, dass Saluccis Beobachtungen ganz gut zu MOND passen,iv ebenso wie die merkwürdige Tully-FisherRelation: In konventionellen Modellen ist nicht verständlich, warum die Galaxienleuchtkraft mit der vierten Potenz der Rotationsgeschwindigkeit ansteigt. Mike Disney von der Universität Cardiff gab 2008 in Nature einen originellen Überblickv über die Beobachtungen – Galaxien sind offenbar viel einfacher gestrickt, als sie sein dürften. Denn
7 verdunkelung 107
trotz unterschiedlicher Massen, Radien, Drehimpulse, DunkelmaterieAnteile, chemischer Zusammensetzungen und verschiedenen Alters hängen all diese Größen unerklärlich zusammen. Es ist so, als ob die Theorie eine bunte Zirkustruppe vorhersagt und wir stattdessen eine geklont aussehende militärische Eliteeinheit beobachten – konventionell gibt es dafür keine Erklärung. Disney hat übrigens eine recht trockene Meinung zum Gravitationsgesetz außerhalb des Sonnensystems: „It simply never works“.
die perfekten kreise des ptolemäus – auch in galaxien?
Vielleicht müssen wir auch die Vorstellung von Galaxien als vergrößerte Sonnensysteme über Bord werfen. Wenn Sie im Internet Bilder von herrlichen Spiralen wie M51 sehen, kommen Sie vielleicht selbst auf ein Problem: Wenn sich alles auf Kreisbahnen um das Galaxienzentrum bewegt, bei jedem Radius aber eine andere Geschwindigkeit herrscht, wie bleiben dann jene Spiralformen erhalten? Sicher können es keine starr rotierende Scheiben nach Art von Schallplatten sein. Dieses Problem gilt mit der Theorie der sogenannten Dichtewellen als gelöst – nicht die Sterne selbst bewegen sich mit den Spiralarmen, sondern eine Druckwelle von Wasserstoffgas, aus der sich fortwährend helle, blaue Sterne bilden, die nur ein paar Millionen Jahre aufleuchten und dann verlöschen. Wir sehen also praktisch Schaumkronen als Strukturen, nicht das Wasser. Ein bisschen merkwürdig ist dabei, dass Galaxien auch nach vielen Umläufen dieser Druckwelle noch nicht „ausgelutscht“ sind – sie scheinen seit ihrer Entstehung Sterne mit ganz ähnlicher Rate zu produzieren. Äußert man jedoch wie Disney Zweifel am Gravitationsgesetz, dann muss man auch die Doktrin in Frage stellen, alle Bewegungen erfolgten annähernd auf Kreisbahnen mit gleichbleibenden Abstand vom Zentrum – sehen tun wir das nicht! Das Problem unserer kaum hundert Jahre dauernden astronomischen „Momentaufnahme“ verbindet sich hier mit der Einschränkung, dass wir Geschwindigkeiten
108 vom
urknall zum durchknall
in der Regel nur in Richtung der Sichtlinie, eben mit der Dopplerverschiebung, messen. Vor einiger Zeit erschien übrigens eine der ersten „echten“ Messungen einer Geschwindigkeit quer zur Sichtlinie durch zehn Jahre auseinander liegende Aufnahmen der Magellanschen Wolken. Ergebnis: Die „Begleitgalaxien“ unserer Milchstraße sind so schnell, dass sie an uns vorbeizufliegen scheinen. Ist das ein netter Zufall oder gibt es noch mehr Dunkle Materie? Oder verstehen wir wieder etwas nicht? Ganz generell gegen die Existenz der Dunklen Materie spricht die Verteilung dieser Satellitengalaxien der Milchstraße: Sie liegen annähernd in einer Ebene, was nach gängigen Entstehungsmodellen unmöglich sein sollte.vi
die milchstrasse für milchmädchen – dunkelheit ist zu einfach
Bis zu einem gewissen Grad ist es normal, dass Daten unterschiedlich interpretiert werden, denn natürlich sieht jeder Forscher am liebsten sein Modell bestätigt. Aber selbst wenn sie untereinander zerstritten sein mögen wie Paolo Salucci und Albert Bosma, so gibt es doch keinen Galaxienexperten, der das Modell der Dunklen Materie wirklich schätzt. Sogar Andreas Burkert, der selbst Galaxienprofile dafür entworfen hatte, steht dem Konzept durchaus skeptisch gegenüber und wundert sich ebenfalls über den Zusammenhang mit MOND. Wer sich mit Galaxien auskennt, merkt einfach, dass das Schema der Dunklen Materie die Daten schlecht beschreibt. So sagte der angesehene Astronom James Gunn: „Ich bin sicher, dass es falsch ist. Es ist zu einfach. Aber es ist das einzige, womit man rechnen kann.“vii Argyro Tasitiomi von der Universität Chicago fasste süffisant die drei Arten von Expertenmeinungen zusammen:viii 1. „Das Modell der Dunklen Materie ist zu überzeugend, um falsch zu sein“.
7 verdunkelung 109
2. „Es ist etwas falsch am Modell der Dunklen Materie“. 3. „Das Modell der Dunklen Materie ist falsch“. Insofern nervt es natürlich, wenn einer jener Stringkoryphäen wie Leonard Susskind in einem YouTube-Interviewix verkündet, die Dunkle Materie sei keineswegs ein großes Rätsel, sondern „just particles“. Er hat einfach keine Ahnung. was ist dunkle materie? gute frage, nächste frage
Wenn Sie nun glauben, die Physiker hätten nichts anderes zu tun, als sich über Dunkle Materie den Kopf zu zerbrechen, dann irren Sie sich. Eine Stichwortsuche auf den Internetarchiven ergibt fast mehr kreative Ideen der Theoretiker zur die Natur der Dunklen Energie als zur Dunklen Materie – an die ist man eben schon gewöhnt. Dennoch ist dieses Bild verzerrt, denn das Phänomen der Dunklen Materie basiert auf einer Vielzahl von Messungen, während sich die Dunkle Energie im wesentlichen auf die zu geringe Helligkeit entfernter Supernovae stützt. Sie wurde als die Wiederauferstehung von Einsteins kosmologischer Konstante Λ gefeiert, und die entsprechende Ausgabe von Nature 1998 zierte die Karikatur eines pfeifenrauchenden Einstein – keine schlechte promotion. Man darf allerdings Zweifel haben, ob Einstein mit dieser Kronzeugenrolle für die Dunkle Energie glücklich wäre. Er hatte Λ als mathematische Komplizierung in Kauf genommen, um sein physikalisch einfaches Modell des Universums zu retten, eben weil er von der Einfachheit der Natur überzeugt war. Heute ist Λ nur eine der vielen Ergänzungen zum Modell eines expandierenden Universums, ein neuer Kieselstein im Vorgarten, kein Stein der Weisen. Aber sogar wenn man Einsteins Vorschlag hier zurecht gebrauchen sollte, ist seine damalige Sparsamkeit heute ein Hemmschuh für die Begehrlichkeiten der Theoretiker, mit den neuen Daten die Modelle aufzublähen. Mehr und mehr wird statt Λ – einer einzigen Zahl – Quintessenz favorisiert, ein Feld, das in jedem Raumpunkt eine entsprechende Dichte
110 vom
urknall zum durchknall
angibt, also im Extremfall unendlich viele frei wählbare Zahlen. Natürlich lassen sich damit Beobachtungen viel „besser“ beschreiben, jedoch muss man kein Wissenschaftstheoretiker sein, um einzusehen, welches Maß an Willkürlichkeit mit einer solchen Wagenladung von freien Parametern in die Theorie eingeführt wird. Einstein hatte, zur Erinnerung, sich nach Jahren des Grübelns zu einer Zahl durchgerungen, und Max Planck, den sein Wirkungsquantum h in Selbstzweifel gestürzt hatte, hat sich wohl im Grab umgedreht, als der nach ihm benannte Forschungspreis 2005 für ein so aus der hohlen Hand postuliertes „Feld“ verliehen wurde. Vielerorts hört man, die Felder seien „natürlicher“ als eine einzelne Zahl, weil Konstrukte dieser Art auch in der Elementarteilchenphysik häufig auftreten. Ebenso könnte man sagen, Subventionen seien generell gut, weil sie in der Agrarwirtschaft so erfolgreich sind. Diese Mode der Felder sagt jedenfalls etwas mehr über die Natur von Elementarteilchenphysikern aus als über die Natur des Universums.
dunkle energie, quintessenz, oder besser leuchtschwache supernovae? Theorien scheitern, aber gute Beobachtungen dauern über die Zeiten Howard Shapley
Anstatt die Leiter der theoretischen Phantasien hochzusteigen, wäre es der Wissenschaft zuträglich, näher an die eigentliche Beobachtung der Rohdaten zu gehen. Supernovae vom Typ Ia sind deutlich zu lichtschwach für ihre mit der Rotverschiebung bestimmte Entfernung. Die Messung der absoluten Helligkeit gelingt viel genauer als früher, dennoch gibt es noch große Variationen dabei, obwohl man sich bemüht, diese über Computermodelle der Explosion zu verstehen. In vielen Supernova-Veröffentlichungen findet man „binned data“, das heißt zu einem Mittelwert zusammengefasste Datenpunkte, die dann natürlich schöner auf einer Linie liegen. Dies erinnert etwas an das Zusammenmischen von Finanzpapieren unterschiedlicher Qualität zu Zertifikaten:
7 verdunkelung 111
Was nicht so vorzeigbar ist, wird zusammen mit anderen verpackt, letztlich eine statistische Bügelprozedur ohne physikalischen Hintergrund. Damit will ich keineswegs sagen, die Daten seien als ganzes nicht aussagekräftig – sie sprechen ganz klar gegen das frühere Modell des gebremst expandierenden Universums. Bei genauem Hinsehen wirft die beschleunigte Expansion jedoch neue Fragen auf. Eine Zeit lang schien es etwa, die Messungen seien auch mit einem Modell des „leeren“ Universums verträglich, so als gäbe es Gravitation gar nicht – eine absurd erscheinende Möglichkeit, die sich in keine Theorie einbinden ließ. So ergibt sich im Moment die beste Übereinstimmung mit einem Modell der Dunklen Energie. Das im Kapitel 3 beschriebene Koinzidenzproblem – die Tatsache dass wir offenbar in einer ganz besonderen Epoche unseres Universums leben, in der die Dunkle Energie die Überhand bekommt – sollte uns schon nachdenklich machen. Dazu kommt, dass die kosmologische Expansion auf einer sehr langen Zeitskala stattfindet, und das Licht der Objekte mit einer Fluchtgeschwindigkeit nahe c fast das ganze Alter des Universums zu uns unterwegs war. Daher ist die Expansion des Universums formal wieder mit jener Beschleunigung c/Tu verknüpft, die bereits so viele Rätsel aufgegeben hat. Es gibt keine Beobachtung, die wir bei dieser Mikrodynamik ohne zusätzliche Annahmen verstehen. Außer dem „dunkel“ haben die Dunkle Materie und die Dunkle Energie aber nichts miteinander zu tun! So liefert uns dieser Zusammenhang keinen Ansatz auf eine schlüssige Theorie, aber einen neuen deutlichen Hinweis, dass wir Gravitation im kosmologischen Maßstab unzulänglich verstehen. Die Zeitspanne unserer Zivilisation erlaubt uns leider nur eine Momentaufnahme des Universums. Um daraus gleich sein Schicksal vom Anfang bis zum Ende erzählen zu wollen, wie es Kosmologiebücher gerne tun, braucht man viel Phantasie und noch mehr Optimismus. Denn die Geschichte der Astronomie hat uns immer wieder mit Umwälzungen des Die Allgemeine Relativitätstheorie erfordert eine subtilere Diskussion der Fluchtgeschwindigkeit, da es sich richtigerweise um eine Raumausdehnung handelt, die auch Überlichtgeschwindigkeit annehmen kann. Für die Betrachtung der Größenordnung tut dies aber hier nichts zur Sache.
112 vom
urknall zum durchknall
Weltbildes konfrontiert. Es wäre naiv zu glauben, die letzte hätte 1998 stattgefunden.
das rätsel des zweidimensionalen universums
Dies ist keinesfalls als Gegenthese zu den hochdimensionalen Phantasien der Stringtheorie gedacht, und auch nicht als Spott auf eine Theorierichtung, die die Gravitation zuerst in zwei Dimensionen mit der Quantentheorie vereinigen will, weil es in drei Dimensionen zu schwierig ist. Nein, es handelt sich – Sie kennen ja schon meine Vorlieben – um echte Beobachtungen. Bekanntlich ist Andromeda in zwei Millionen Lichtjahren Entfernung die weitaus am besten sichtbare Galaxie am Nordhimmel, ein stattliches Exemplar einer Spirale, die zusammen mit der Milchstraße und zwei Dutzend kleinerer Galaxien zur „Lokalen Gruppe“ zählt, vergleichbar einer bäuerlichen Großfamilie, die in ein paar verstreuten Häusern lebt. Bis zum nächsten „Dorf “, dem VirgoGalaxienhaufen, sind es dann schon etwa 60 Millionen Lichtjahre, aber diese Dinge können Sie alle nachschauen. Die interessante Frage aber lautet: Welche Struktur hat die Galaxienverteilung im Weltall? Denn auch dies gibt uns Auskunft, ob unsere Modelle der für die Strukturbildung verantwortlichen Gravitation richtig sind oder nicht. Neben Gruppen und Haufen hat man Galaxiensuperhaufen identifiziert, in denen sich mehrere tausend Galaxien konzentrieren. Dies klingt nach gut verstandener Einteilung, aber schon 1970 schriebx Gerard de Vaucouleurs, ein Wettstreiter des Hubble-Enkels Alan Sandage, nachdenklich: „Wieder haben wir mit der Entdeckung der Superhaufen geglaubt, dies seien die größten Strukturen im Universum, so wie man schon bei den Haufen, Gruppen, und Galaxien selbst dieser Meinung war …“. Während man vorher nur auf Vermutungen angewiesen war, began nen in den 1980er Jahren John Huchra in Harvard und später Margret Geller mit einer systematischen Untersuchung der Galaxienverteilung im Raum, indem sie die Rotverschiebung zur Entfernungsbestimmung nutzten. Ihr sensationeller Artikel „Eine Scheibe Universum“ enthüllte eine grundlegende Eigenschaft: Das Universum sieht wie Seifenschaum
7 verdunkelung 113
Abbildung 7: Moderne Rekonstruktion der Galaxienverteilung in einer scheibenartigen Umgebung der Milchstraße, wie sie in dieser Art zuerst von Huchra und Geller 1986 erstellt wurde. Deutlich sichtbar sind die Inhomogenitäten und großen Leerräume.
aus (vgl. Abb. 7). Neben den riesigen Leerraum-Blasen, den voids, konzentriert sich die Materie auf zweidimensionalen Strukturen, Galaxienhaufen, besser gesagt Galaxienwiesen, die offenbar wie Flächen zusammenhängen. Letztlich versteht man diese kosmischen Honigwaben noch nicht, und vorhergesagt hatte sie niemand. Margret Geller bleibt daher trotz ihrer bedeutenden Erkenntnisse bemerkenswert skeptisch:xi Ich habe das Gefühl, dass uns bei unseren Versuchen, die großräumigen Strukturen des Universums zu verstehen, irgendein wesentliches Element fehlt. Zudem gibt es auch folgendes Rätsel: Betrachtet man die kreisförmigen „Oberflächen“ der scheibenförmigen Galaxien und zählt man alle Flächen zusammen, ergibt sich ein enormer Wert. Er liegt, und darin liegt die Merkwürdigkeit, in der gleichen Größenordnung wie der der Oberfläche einer Kugel mit Radius des sichtbaren Horizonts, der
114 vom
urknall zum durchknall
„Oberfläche“ des Universums. Diese Abschätzung mag sehr ungenau sein, jedoch nimmt der Radius des Horizonts durch die Hubble-expansion dauernd zu, während die Ausdehnung der Galaxien nach ganz herrschender Vorstellung schon seit Milliarden Jahren konstant bleibt. Wieder einer dieser Zufälle der heutigen Zeit. lokales hubblegesetz, im englischen garten verfrühstückt
Jegliche Struktur in der Galaxienverteilung stellt natürlich eine Abweichung von Hubbles Gesetz der gleichförmigen Expansion des Universums dar. Denn die beobachteten Gruppen und Haufen konnten sich nur durch eine Störung des – angenommenen – homogenen Urzustands ausbilden. Dafür war natürlich die Gravitation verantwortlich, die zufällige Verdichtungen weiter zusammengeballte. Entsprechend kann man die Ausdehnungsrate, also die Hubblekonstante, nur auf sehr großen Distanzen zuverlässig messen, denn dort fallen lokale Unregelmäßigkeiten der Galaxienklumpen weniger ins Gewicht. Umso weniger erwartet man innerhalb eines Klumpens wie unserer Galaxiengruppe einen Zusammenhang zwischen Entfernung und Fluchtgeschwindigkeit – er wird ja durch Gravitation zusammengehalten und Hubble hat hier nichts verloren. Es ist nun geradezu widersinnig, dass in ganz kleinen Galaxiengruppen das Hubblesche Gesetz ebeso beobachtet wird,xii sogar mit dem gleichen Wert H0! Diese sehr irritierende Anomalie spottet jeder akzeptierten Beschreibung der Strukturbildung. Daher war es für mich aufschlussreich, einmal live mitzuerleben, wie solche Probleme unter Kosmologen diskutiert werden. Auf der Leopoldina-Konferenz zur Dunklen Energie in München 2008 stellte David Wiltshire aus Neuseeland dieses Rätsel in seinem Vortrag dar, und bot auch sogleich eine Lösung an, die vielen im Auditorium aber etwas handgestrickt vorkam. Da mein Namensschild mich als Ortskundigen auswies, fragte mich in der folgenden Mittagspause eine Gruppe um Ruth Durrer und Roy Maartens nach dem
Der Name war mir seit Santes Erzählungen in Rio ein Begriff: „Uno con i coglioni quadrati!“, wörtl. einer mit vierkantigen Hoden, ein Ausdruck höchsten Respekts.
7 verdunkelung 115
Englischen Garten, und ob sich auf dem Weg dorthin vielleicht ein kleines Lokal fände. Ich erbot mich, sie zu der nahe gelegenen Attraktion zu führen, aber ehe ich meinen Vorschlag für den Mittagsimbiss vorzeigen konnte, hatte Ruth Durrer einen der Gemüsehändler auf der Leopold straße entdeckt und entschied sich mit einem umfangreichen Einkauf für eine gesunde Verköstigung, für die sie als Schweizerin offensichtlich Vorliebe hegte. Zwei Italiener aus der Gruppe blickten sich erschrocken an, ein offenbar knurrender Magen ließ einen von ihnen aber nur noch ein „Io c’ ho fame!“ hervorstoßen, bevor sie sich ihrem Schicksal fügten. Wie groß muss der Gruppenzwang unter den Kosmologen sein, wenn Repräsentanten der mediterranen Lebensart zu Gunsten eines Picknicks mit Obst und Gemüse auf das Mittagessen verzichten! Aber zurück zur Anomalie des Hubble-Gesetzes. Als alle auf einer Wiese nahe des Monopteros Platz genommen hatten, ergriff Roy Maartens das Wort. Seine Denkerstirn in ernste Falten gelegt, spricht er stets leise, aber die anderen verstummten, als er anhob. Was er denn von Wiltshires Vortrag halte, fragte er sein Gegenüber, einen ausgeflippt aussehenden Doktoranden mit unaussprechlichem Namen. Der begriff, dass von ihm ein Zähnefletschen erwartet wurde, und entgegnete, dass ihn die These nicht überzeugt hätte, insbesondere das theoretische Modell dazu. Sogleich wandte sich das Gespräch mathematischen Themen zu wie der Frage, ob ein fester Zeitpunkt eine Hyperfläche in einer vierdimensionalen Raumzeit repräsentieren könne. Während der „Ausfrage“ naschte ich zwar ungeduldig aus der Schachtel Himbeeren, die Maartens herumreichte, wagte aber wie die anderen nicht, seine differenzialgeometrischen Erörterungen zu unterbrechen, mit denen man Wiltshires Idee beerdigte, der gewagt hatte das Standardmodell anzugreifen. Wie viele Alternativkosmologien ist sie sicher nicht das Gelbe vom Ei, aber das ändert nichts an der Tatsache, dass die erwähnte Beobachtungsanomalie dem Standardmodell der Kosmologie widerspricht. Darüber verlor man aber über den mathematischen Betrachtungen, die sich bis zum Ende der Mittagspause hinzogen, kein Wort. Wie der Englische Garten neben Schwabing beginnt in unmittelbarer Nähe unserer lokalen Galaxiengruppe übrigens einer jener riesigen Leerräume, die überall im Universum auftauchen. Ein weiteres großes Rätsel ist, wie diese so leer geworden sind – man findet dort buchstäb-
116 vom
urknall zum durchknall
lich überhaupt nichts. Sogar John Peebles, durchaus ein MainstreamKosmologe, schrieb im Jahr 2007 leicht genervt:xiii „Ich spreche nun seit zwanzig Jahren über die nicht vorhandenen Zwerggalaxien in Leerräumen. Entweder mache ich aus mir einen Narren, oder das Problem besteht fort“.
was nicht sein darf, das nicht sein kann – galaxienhaufen größer als erlaubt
Der Name der Kosmologie-Konferenz in St. Petersburg 2008, Problems of Practical Cosmology, erinnerte an eine Liste von grundlegenden Fragen, die Alan Sandage 1995 formuliert hatte. Die erste Sitzung zur kosmologischen Strukturbildung wurde von Francesco Sylos Labini aus Rom geleitet, mit dem ich mich in der Folge oft unterhielt. Francescos Vater war ein hochrangiger Wirtschaftsberater der Regierung im Italien der 1970er Jahre, bis er aus Protest gegen die Mafiaverstrickungen in der Ära Andreotti sein Amt hinwarf. Ganz ähnlich nimmt auch Francesco kein Blatt vor den Mund, wenn er in seiner geradlinigen Art argumentiert. Er analysierte die neuesten Daten zu der typischen Größe von Galaxienhaufen mit einer relativ übersichtlichen statistischen Technik, den Korrelationsfunktionen. Überraschenderweise waren diese Zusammenballungen noch größer als bisher angenommen, eine Milliarde Lichtjahre und mehr, so dass man sogar darüber nachdenken kann, ob das Universum im Ganzen eine unregelmäßige Form aufweist, die unter jeder Vergrößerung die gleichen Strukturen zeigt – ähnlich wie Wolkenformen würde es dann einem Fraktal gleichen. Dieser Gedanke erscheint jedoch vielen unerträglich, da so große Strukturen in eklatanter Weise dem kosmologischen Standardmodell widersprechen. Nach diesem sollte das Universum auf großen Skalen wieder vollkommen homogen werden, wobei die Abweichung von der Homogenität normalerweise durch
Er hatte sich in der Thermodynamik habilitiert. Dort sollte eigentlich keine andere Statistik gelten als in der Kosmologie.
7 verdunkelung 117
einen Unregelmäßigkeitsfaktor – lachen Sie nicht – beschrieben wird. Francesco hat nur eine nüchterne Analyse vorgelegt, aber das ficht einige amerikanische Forschergruppen natürlich in keiner Weise an. Das „Konkordanzmodell“ ist ihre mit vielen Parametern gewürzte Suppe, in die sie sich nicht gerne spucken lassen. Gegen Ende der Konferenz fragte ich Francesco in einer Kaffeepause nach seiner Meinung zu den neuen Begriffen des kosmologischen Standardmodells. Er faltete mit typisch süditalienischer Geste die Finger: „Wenn sie nicht einmal mit den Galaxien richtig rechnen können, che cazzo parlano della dark energy?“
woher kommt die unordnung im universum?
Wundern muss man sich in kosmologischem Zusammenhang über einen Begriff, den der geniale Ludwig Boltzmann im 19. Jahrhundert als Grundlage der statistischen Thermodynamik einführte: die Entropie, ein Maß für die Unordnung oder Durchmischung. Ein Getränk aus Bier und Limonade hat mehr Entropie als seine Bestandteile, und der zweite Hauptsatz der Thermodynamik besagt, das sich das Gemisch nicht von selbst wieder trennt, weil die Entropie nicht abnehmen kann: Versuchen Sie daher nicht, ein „Radler“ im Biergarten umzutauschen. Bekenstein und Hawking, deren Initialen sinnigerweise die Abkürzung für black hole ergeben, haben 1973 die Entropie eines schwarzen Loches berechnet und kamen zu dem Ergebnis, dass sie proportional zur Oberfläche des schwarzen Loches sein musste: Demnach gilt für die Entropie S = Ac3/8� Gh, oder S = 2GM 2/hc, wenn man die Oberfläche A durch die Masse M ausdrückt. Überraschend dabei ist, dass die Entropie im Quadrat mit der Masse anwächst, wofür letztlich wieder die Gravitationskonstante verantwortlich ist, deren Einheit m3/kg s2 der Physik an vielen Stellen Probleme bereitet. Die supermassiven schwarzen Löcher in Galaxienzentren, die oft einige Millionen Sonnenmassen aufweisen, haben somit eine
Harmlos übersetzt: „Was zum Teufel reden sie dann über Dunkle Energie?“
118 vom
urknall zum durchknall
billionenfach höhere Entropie als ein typisches schwarzes Loch mit Sternmasse. So ist allein die Entropie der supermassiven schwarzen Löcher in Galaxienzentren um 15 Zehnerpotenzen größer als zur Entstehungszeit des kosmischen Mikrowellenhintergrundes – obwohl dieser so aussieht, als sei die Materie damals schon perfekt durchmischt, also schon im Zustand sehr hoher Entropie gewesen. Auf dieses Paradox weist Roger Penrose in seinem exzellenten Buch The Road to Reality hin. Nach allem, was wir von Thermodynamik wissen, ist ein so starkes Anwachsen der Entropie im Rahmen der konventionellen kosmologischen Modelle völlig unverständlich. Der aufregendste Satz, den man in der Wissenschaft hören kann, der Satz, der neue Entdeckungen ankündigt, ist nicht „Heureka“ (Ich hab’s gefunden), sondern „Das ist komisch!“ Isaac Asimov
starker tobak in ultraschwacher aufnahme
Es gibt also viele Widersprüchlichkeiten, und manche davon wurden mit einer neuen Zahl „erklärt“ – im Moment verwendet die moderne Kosmologie mit dem ΛCDM-Modell sechs freie Parameter. Astronomen mit einem gewissen Überblick wie Mike Disney haben allerdings darauf hingewiesen, dass es auch ebenso viele unabhängige Beobachtungen gibt. Anders formuliert: Unsere Vorstellung, wir hätten schon viele Zusammenhänge erkannt, ist größtenteils Einbildung. Disney hatte übrigens die eingangs erwähnten low surface brightness Galaxien vorhergesagt, als er in einer Richtung weisenden Arbeit die Flächenhelligkeiten der Galaxien thematisierte.xiv Mit dem Hubble Ulta Deep Field, jener spektakulären Aufnahme frühzeitlicher Galaxien, ist das Thema wieder hochaktuell geworden. Die Galaxien sind im Verhältnis zu ihrer Rotverschiebung viel zu groß, ein heftiger Widerspruch zum ΛCDMModell.xv Die zahlreichen Forscher, die sich mit dem statistischen Kneten der freien Parameter beschäftigen, nehmen so etwas gewöhnlich aber nicht zur Kenntnis.
7 verdunkelung 119 fundamentale probleme und fundamentalkritik
Es ist höchst unerfreulich, dass solche unverstandenen Effekte unter den Teppich gekehrt werden, nur weil sie nicht ins Denkschema passen. Gerard de Vaucouleurs sagte dazu schon 1970: „Ich bin zunehmend besorgt über das willkürliche Zurückweisen von Evidenz, nur weil sie unseren momentan gültigen vereinfachten Modellen widerspricht.“ Inzwischen sind die Modelle komplizierter geworden, aber im gleichen Ausmaß wurden neue Widersprüche entdeckt. Es verwundert daher nicht, dass es in der Kosmologie eine beträchtliche Anzahl von „outlaws“ gibt – Leute, die das Standardmodell als grundlegend falsch ansehen und meist exotische Alternativkosmologien anbieten. Keineswegs handelt es sich in allen Fällen um Quatschköpfe (obwohl es die natürlich gibt), sondern auch um Wissenschaftler mit solider Ausbildung, die teilweise sogar dem astronomischen Establishment entstammen, wie etwa Fred Hoyle, Geoffrey Burbridge, Jayant Narlikar, Eric Lerner oder Halton Arp. So wurde etwa in der Zeitschrift New Scientist von zahlreichen Forschern ein offener Brief unterzeichnet,xvi in dem die Urknalltheorie als solche in Zweifel gezogen wird. Meines Erachtens schüttet man hier das Kind mit dem Bade aus, aber doch wäre es dumm, diese Stimmen auszugrenzen oder gar mundtot zu machen. Warum ziehen diese ausgebildeten Forscher aus den gleichen Beobachtungen ganz andere Schlüsse? Viele der von ihnen behaupteten Widersprüche zum Standardmodell der Kosmologie muss man zumindest überprüfen. Wir sollten uns nicht blenden lassen, wenn sie sich ebenfalls gelegentlich irren oder allzu blauäugig ihr eigenes Modell verfolgen. Schließlich ist es schwer, als Einzelkämpfer gegen eine Armada von Doktoranden des Standardmodells zu bestehen, die die Zeitschriften mit tausenden von belanglosen Rechnungen zuschütten, die in der Zusammenfassung enden: „Unsere Resultate sind voll vereinbar mit dem ΛCDM-Modell.“ So verrückt die Alternativkosmologien meist klingen, so ernstzunehmend sind doch die Widersprüche zu den akzeptierten Vorstellungen. Der Urknall als solcher ist im übrigen kaum eine quantifizierbare Theorie, lediglich eine wohl zutreffende Vorstellung von der Frühzeit des Universums, die im
120 vom
urknall zum durchknall
Prinzip mit einer Vielzahl von Gravitationstheorien vereinbar ist. Man muss deshalb nicht unbedingt am Big Bang zweifeln, wohl aber an der Beschreibung der weiteren Entwicklung des Kosmos mit dem ΛCDMModell, das auf der Allgemeinen Relativitätstheorie aufbaut. So schön sie sein mag, es ist hochgradig naiv, eine Theorie, die im Sonnensystem getestet wurde, auf das ganze Universum anzuwenden. ein nun einsamer ketzer
Wissenschaftliche Durchbrüche wurden oft von Querdenkern gemacht, die von der Forschergemeinde ausgegrenzt wurden – dies ist eine These des Wissenschaftshistorikers Federico di Trocchio. In seinem Buch Newtons Koffer führt er als modernes Beispiel den „Ketzer“ Halton Arp an, einen anerkannten Kosmologen, der sich in den 1970er Jahren mit dem Mainstream überworfen hatte und nun am Max-Planck-Institut für Astrophysik in Garching tätig ist. Neugierig geworden, bat ich ihn per Email um ein Treffen, das er mir freundlich gewährte. Arp ist ein hagerer Mann mit hellen, wachen Augen. Nur ein leichtes Zittern seiner Hände deutet seine achtzig Jahre an, und seine wohlgekleidete Erscheinung hebt sich von den Holzfällerhemden vieler Wissenschaftler ab. Obwohl ich recht wenig von seinen Thesen wusste, erklärte er mir geduldig Beobachtungen von Quasaren und wies mich auf eine ganze Reihe Themen hin, die Überlegung verdienen. Er sprach übrigens ganz ruhig, ohne Eifer, der unbedingt überzeugen will, gelegentlich fast resigniert. Auch andere Forscher sehen aufgrund verschiedener Widersprüchlichkeiten die Natur der Quasare noch nicht ganz geklärt. Die Theorie, die Arp favorisiert, halte ich letztlich für abwegig, aber ich war doch beeindruckt von seinem Wissen und seiner Art, Schlüsse zu ziehen. Später las ich sein Buch Seeing Red. Wenn auch manche These darin einer Überprüfung nicht standhalten mag, so erfährt man doch interessante Fragestellungen, die von der herrschenden Mode kaum untersucht werden. Solche Sichtweisen könnten uns lehren, dass astronomische Daten oft interpretationsfähig sind, und zur Vorsicht mahnen, gerade wenn sich eine Meinung allgemein durchgesetzt hat. Wer
7 verdunkelung 121
nun glaubt, Arps Erfahrung werde im Institut ehrenhaft geschätzt, irrt leider. Statt in der Cafeteria fand unser Gespräch in einem Zimmer statt, weil die Jungen, wie er sagte, sich oft unwohl fühlen, mit dem Außenseiter gesehen zu werden. Schon der bloße Kontakt mit alternativen Thesen gilt offenbar mancherorts als suspekt. Er wolle sie nicht in Schwierigkeiten bringen, sagt er rücksichtsvoll, ganz ohne Bitterkeit. Ein feiner alter Herr.
moderne Kosmologie – epizyklen als sachzwang
Bei einem Vortrag zu Gravitationslinsen traf ich vor einigen Jahren Matthias Bartelmann wieder, der einen Lehrstuhl für Astronomie in Heidelberg innehat. Wir kannten uns vom ersten Physiksemester her, er gehörte zu den besten Studenten und schrieb herausragende Klausuren in der Mechanik. Besonders beeindruckt hatte mich aber darüber hinaus, dass er der Bundeswehrzeit etwas Sinnvolles abzugewinnen verstand – er hatte dabei als 19-jähriger ein Lehrbuch über Astronomie verfasst und seine Leidenschaft im folgenden konsequent weiterverfolgt. Bei der Leopoldina-Konferenz über Dunkle Energie in München 2008 verabredeten wir uns zu einem Abendessen bei einem nahe gelegenen Italiener. „Du bist doch Mainstream-Kosmologe“, begann ich die physikalische Unterhaltung, „passen denn diese Beobachtungen wirklich so gut zusammen?“ Ja, die Übereinstimmung mit dem Modell finde er wirklich gut, er gebe allerdings zu, dass es auf vielen Annahmen beruhe, die aufeinander aufbauen. Als er sich über sein Walnusspesto hermachte, sprach ich die nächste Kontroverse an: „Die Allgemeine Relativitätstheorie ist ja wunderschön. Aber muss sie deswegen präzise gültig sein? Im Mittelalter fand man die Kreisbahnen der Planeten schön und hielt damit das geozentrische Weltbild künstlich aufrecht. Könnte es nicht sein, dass wir uns schon längst in einer ähnlichen Entwicklung wie bei diesen Epizyklen befinden?“ Zu meiner Überraschung widersprach er nicht. Aber was solle man sonst tun? Bevor vielleicht irgendwann mal
122 vom
urknall zum durchknall
ein Genie auftauche, das alles durchblickt, müsse man eben mit diesen beschreibenden Modellen fortfahren. Während ich mir nach dem Essen den Feierabend gönnte, eilte Matthias übrigens weiter zu einer Sitzung des Transregio-Forschungsbereiches „Das dunkle Universum“. Derartige Großkooperationen werden von der Forschungspolitik gefördert, um Eliten zu bündeln, aber in der Praxis wird die wichtige wissenschaftliche Meinungsvielfalt homogenisiert. Wahrscheinlich sind solche Veranstaltungen für intelligente Menschen auf Dauer ebenso schädlich wie Parteitage. Zuvor hatte ich mich aber nach einem Glas Wein aber noch weiter vorgewagt: „Sag mal, was hältst Du denn von dem Zeug wie Inflation auf einer Bran der Calabi-Yau-Mannigfaltigkeit. Es gibt doch nicht die geringste Chance, das jemals zu testen. Wieso sagt niemand etwas gegen diesen Blödsinn?“ – „Ich kann damit auch nicht soviel anfangen, aber …“, entgegnete er und beugte sich mit einem leichten Schmunzeln vor, „… ich kenne viele sehr gescheite Leute, die sich damit beschäftigen.“ Ja, wir sind alle nur Menschen! Beobachte ich doch beim Schreiben dieser Zeilen an mir selbst, wie die Sympathie mit Matthias ringt mit der klaren Aussage, dass auch er in ein Gruppendenken hineingerutscht ist, das in die falsche Richtung fährt. Gut, dass ich jene gescheiten Leute nicht persönlich kenne. Vielleicht würde mir dieses Buch dann leid tun.
dunkle energie und mehr – wohin führen uns die neuen zahlen?
Da ich am Morgen Unterricht halten musste, kam ich tags darauf erst in der Kaffeepause zur Konferenz. Diese Pausen sind allerdings der wissenschaftliche Nutzen, den man aus Tagungen ziehen kann. Vorträge könnte man ja auch im Internet anhören, aber an den kleinen Tischen muss kein Blatt vor den Mund genommen werden. Dort erblickte ich Harald Lesch, dessen Alpha-Centauri-Sendungen über Astronomie mir schon in zahlreichen Schulstunden als Zünder gedient hatten und begrüßte ihn freundlich. „Hier wird ja auch ganz schön spekuliert …“ eröffnete er das Gespräch mit einem Kommentar zu den zahlreichen Er-
7 verdunkelung 123
scheinungsformen der Dunklen Energie, die vorgestellt wurden. „Das sagen Sie?“ entgegnete ich, „Sie gehören doch nicht zu den Outlaws, die gegen das Standardmodell sind.“ „Nö, aber was ist ‚law‘?“ antwortete er, „Wir wissen es nicht. Natürlich sagt hier keiner: Der Kaiser ist nackt! Sondern: Wie könnte er denn angezogen sein? Und dann diskutiert man darüber …“. Wir sprachen dann über die neuen Berichte von einer zeitliche Änderung der Dunklen Energie und über das DAMA-Experiment, das manche schon als Beleg für zwei Arten von Dunkler Materie interpretieren. Auch Lesch widerspricht der Einschätzung nicht, die Kosmologie befinde sich in einer Phase neuer Epizyklen. Aber, auch dies sei Fortschritt gewesen, es gebe daher keine Alternative dazu, die derzeitigen Modelle weiter zu verfolgen. Später gingen mir seine Worte im Kopf herum. Mag sein, dass Kopernikus wieder in der Versenkung verschwunden wäre ohne Galilei. Aber wäre das ein Grund, am geozentrischen Weltbild nicht zu zweifeln? Heute muss man mehr denn je hinterfragen, ob unsere Gravitationstheorien außerhalb des Sonnensystems gültig sind. Deren Extrapolation ist naiv, die Beobachtungen dazu sind voller Widersprüche, und die immer zahlreicheren obskuren Hilfsannahmen ein Zeichen der Krise. Eigentlich drängen sich diese Gedanken auf. Aber ich fürchte, ihnen nachzugehen haben manche einfach keine Zeit. Vor dreißig Jahren formulierte Alan Sandage treffend: Kosmologie, die Suche nach zwei Zahlen – gemeint war die Hubblekonstante und die Materiedichte. Nun haben wir bald sieben oder acht, und die Messungen werden immer genauer. Aber ist das ein Fortschritt des Verständnisses? Bei der Betrachtung der neuen Konzepte der Kosmologie kommen mir immer die Worte von Richard Feynman in den Sinn: Korrekte Theorien in der Physik sind vollkommene Gebilde, und eine neue Theorie muss wieder ein vollkommenes Gebilde sein, nicht eine Unvollkommenheit, die zu etwas vollkommenem hinzugefügt wird. Das ist das Wesen einer ‚Revolution‘, das Ersetzen des Alten mit dem Neuen und nicht, dass man neuen Ramsch auf das Alte auflädt.
124 vom
urknall zum durchknall
Weiterführende Literatur S. Singh: Big Bang, WBG Darmstadt 2005, Kap. 4+5. J. Cornell (Hrsg.): Die Neue Kosmologie, Birkhäuser 1991. B. Parker: The Vindication of the Big Bang, Kluwer Academic 1993. E. Lerner: The Big Bang Never Happened, Vintage 1992. H. Arp: Seeing Red, Apeiron 1998. Spektrum Dossier 3/2004: Kosmologie. P. Schneider: Extragalaktische Astronomie und Kosmologie, Springer (Heidelberg) 2006, Kap. 3+6+8. i Spektrum Dossier 03/2004, Kosmologie, S. 60. ii J. A. Sellwood, arXiv:astro-ph/0009074. iii N. W. Evans, arXiv:astro-ph/0102082. iv G. Gentile, arXiv:0805.1731. v M. J. Disney, arXiv:0811.1554. vi M. Metz et al., arXiv:0903.0375. vii Parker, Kap. 15. viii A. Tasitsiomi, arXiv:astro-ph/0205464. ix YouTube: Dark Matter vs Dark Energy – Leonard Susskind. x G. de Vaucouleurs, Science 167 (1970), S. 1203 ff. xi Cornell, Kap. 3 (M. Geller), S. 101. xii I. D. Karachentsev et al., arXiv:astro-ph/0204507. xiii P. J. E. Peebles, 0712.2757. xiv M. J. Disney, Nature 263 (1976), S. 573. xv N. V. Nabokov et al., arXiv:0901.0405. xvi New Scientist, Mai 2004, cosmologystatement.org.
8
Präzision im Kaffeesatz Rauschen im Kosmos: Von der Faszination zur Überschätzung der Daten
Ich finde die Vorstellung schaurig, dass das Universum einst ein heißes Plasma war: Es bestand aus Elektronen, Protonen und wenigen Heliumkernen. Nach der Hitze des Urknalls bewegen sich alle Teilchen noch zu schnell, um die elektrische Anziehung nennenswert zu spüren, aber mit der Ausdehnung des Weltalls kühlt sich alles unweigerlich ab. Die Suche nach dem dauerhaften Partner beginnt, schließlich formen sich Elektronen und Protonen zu Wasserstoffatomen, und die aus je zwei Protonen und Neutronen bestehenden Heliumkerne holen sich zwei Elektronen in die Kleinfamilie. Für elektromagnetische Wellen, also Licht, verändert dies die Situation dramatisch: Während es im Plasma an jedem Einzelteilchen abgelenkt wurde, passiert es nun ungehindert die neutrale Materie. Mit einem Schlag wird das Universum durchsichtig wie eine verlöschende Kerzenflamme, die Temperatur ist auf 3 000 Kelvin gesunken. Unser Auge würde dies noch als schwach rotglühend wahrnehmen. Doch die Expansion des Universums hat alle Lichtwellenlängen seither um den Faktor 1 100 – man nennt ihn auch Rotverschiebung z – verlängert, in einen Bereich, den wir als Mikrowellen kennen. So entstand der Name cosmic microwave background, der uns heute nach Plancks Strahlungsgesetz die Temperatur von nur Temperatur ist letztlich nur ein anderer Name für die Bewegungsenergie der Atome. Bei Null Kelvin oder −273 Grad Celsius stehen alle Teilchen praktisch still.
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_8, © Springer-Verlag Berlin Heidelberg 2010
125
126 vom
urknall zum durchknall
mehr 2,7 Kelvin anzeigt. Dieses Szenario gilt als Erklärung für die vom Satelliten COBE 1989 so erfolgreich aufgezeichnete Strahlung. So startete man bald den Nachfolger WMAP mit verbesserter Empfindlichkeit und präziserer Winkelauflösung. Eine noch genauere Vermessung dieses faszinierenden Signals liefert die 2009 begonnene Planck-Mission. Welche Erkenntnisse gewinnen wir daraus? und das universum bewegt sich doch nicht
Natürlich gehorcht auch das Licht des kosmischen Mikrowellenhintergrundes dem Gesetz der Dopplerverschiebung. So erkennt man in den Daten die Bewegung der Erde um die Sonne, die sich als jahreszeitliche Rot- und Blauverschiebung der jeweiligen Himmelsregion bemerkbar macht. Weiter sieht man die Bewegung des Sonnensystems um das Milchstraßenzentrum, ebenso wie eine Eigenbewegung der Milchstraße auf ein Massenzentrum eines Galaxienhaufens. Interessanterweise zeigt uns der kosmische Mikrowellenhintergrund damit aber auch, dass wir die Hubble-Expansion nicht als eine Explosion missverstehen dürfen. Denn wir registrieren die Strahlung mit einer erstaunlichen Stärke. Würden wir auf frühzeitliche Gaswolken blicken, die sich von uns wegbewegen, dann hätte die Dopplerverschiebung um den Faktor 1 100 nach dem Planckschen Strahlungsgesetz gleichzeitig eine entsprechende Abnahme der Intensität zur Folge. Die kosmologische Rotverschiebung ist also keine Dopplerverschiebung, sondern resultiert aus der Raumausdehnung, einem Konzept der Allgemeinen Relativitätstheorie, das übrigens viele Fragen aufwirft.i Der kosmische Mikrowellenhintergrund zeigt uns aber eine weitere Eigenschaft des Kosmos, auf die heute selten hingewiesen wird, vielleicht weil sie von den Theoretikern gar nicht so erwünscht ist. Seit Galileis Einsichten ist klar, dass die Naturgesetze nicht von unserem Bewegungszustand abhängen. Wie Sie sich erinnern, beruht Einsteins Relativitätstheorie gerade darauf, dass man mit keinem Experiment, auch nicht durch Messung der Lichtgeschwindigkeit, unterscheiden kann, ob man „ruht“ oder sich mit gleichmäßiger Geschwindigkeit bewegt. Seit kurzem gibt es dieses Experiment doch. Die Signale des Mikrowellenhintergrundes sagen ganz klar, dass wir nicht ruhen, sondern
8 präzision
im kaffeesatz 127
uns mit 370 Kilometern pro Sekunde in Richtung des Sternbildes Becher bewegen – in Relation zur Lichtgeschwindigkeit recht gemütlich. Ob dies in der Theoretischen Physik wichtig werden kann, sei dahingestellt – aber Fakt ist, dass der kosmische Mikrowellenhintergrund ein absolutes Bezugssystem definiert. Wir wissen zum ersten mal, was Ruhe bedeutet, obwohl uns die Theorien von Galilei bis zu Einstein erklärt haben, dass wir es nicht wissen müssen. fluktuationen – verzweifelt gesuchtes bleibt im dunkeln
Die kosmische Hintergrundstrahlung erwies sich schon bei der Messung von 1989 als ungewöhnlich gleichförmig, was dem Forscherteam des COBE-Satelliten Kopfzerbrechen bereitete. Die Daten waren einfach zu perfekt! Zwar konnte man sich über die wunderbar gleichmäßige Temperatur im frühen Kosmos freuen, aber irgendwann mussten doch Galaxien entstanden sein. Leichte Unregelmäßigkeiten, genannt Fluktuationen, waren also 380 000 Jahre nach dem Urknall schon wünschenswert. Nach einer Kraftanstrengung in der Reduktion der Rohdaten fand man nach knapp zwei Jahren Analyse schließlich die gesuchten Temperaturfluktuationen, viel kleiner als erwartet im Bereich von Millionstel Kelvin. Solch winzige Unterschiede konnten aber die spätere Galaxienbildung nicht erklären. Die Hilfe kam – wie schon so oft – von der Dunklen Materie. Die pragmatische Überlegung lautet: Wenn wir in der normalen Materie keine großen Fluktuationen sehen, dann müssen diese eben in der Dunklen Materie vorhanden gewesen sein. Diese habe sich daher, praktisch vorauseilend, zusammengeballt, und die normale baryonische Materie sei ihr dann gefolgt. Viele Kosmologen sehen darin einen neuerlichen „Beweis“ für die Existenz der Dunklen Materie. Nur musste man wieder einen neuen freien Parameter einführen – im Englischen manchmal weniger respektvoll als fudge factor, das heißt Schummelparameter, bezeichnet. Die moderne Physik ist gegenüber solchen methodischen Niederlagen völlig schmerzfrei geworden. Man fragt einfach: Wie heftig müssen also die Fluktuationen der Dunklen Materie gewesen sein? Antwort: Gerade so, dass die Galaxien in ihrer heutigen Form entstehen
128 vom
urknall zum durchknall
konnten. Und damit hat man die Fluktuationen gemessen, präzise. Wenn auch die Dunkle Materie hier erneut willkommen ist, so handelt es sich doch um einen nicht gefassten Verbrecher, dem man eine beliebige Anzahl von Delikten andichten kann – solange wir aus Labormessungen keine Ahnung haben, wie sich die „dunklen“ Teilchen benehmen, dürfen sie in der Kosmologie alles tun. dunkle spuren im kosmischen mikrowellenhintergrund
Inzwischen gilt das Interesse der Wissenschaftler weniger der geringen Stärke der Fluktuationen als der Analyse ihrer räumlichen Muster, also der typischen Größe jener Flecken, mit denen man die Temperaturabweichung vom Mittelwert darstellt (Abb. 8 links). Es stellt sich heraus, dass Fluktuationen dominieren, die auf der Himmelssphäre etwa die Ausdehnung von einem Winkelgrad haben. Denken wir nun an die Zeit zurück, aus der die Signale kommen: Damals war das sichtbare Universum viel kleiner, da das Licht ja noch nicht so viel Zeit hatte, sich auszubreiten. Die Ausdehnung von einem Grad entspricht ungefähr der Größe des damaligen Horizonts. So ist es zwar einerseits verwunderlich, dass man gleichartige Signale aus allen Richtungen empfängt, andererseits auch logisch, dass sich Schwingungsmuster in der beobachteten Größe ausgebildet haben. Denn so wie in einer Orgelpfeife Dichteschwankungen der Luft Töne hervorrufen, so gab es im jungen Universum Verdichtungen des Plasmas. Die größtmögliche Wellenlänge entspricht dabei der damaligen Ausdehnung. Ein Musikinstrument erzeugt neben seiner Grundschwingung Obertöne, deren Frequenz ein Vielfaches beträgt, während die Wellenlänge sich auf einen entsprechenden Bruchteil reduziert. Entsprechend kleinere Flecken treten daher auch im kosmischen Mikrowellenhintergrund auf. Nun versucht man, mit theoretischen Modellen aus den räumlichen Oberschwingungen in der WMAP-Karte etwas über die Zusammensetzung der Materie zu erfahren. So soll die Amplitude der zweiten Oberschwingung Auskunft über den Anteil der Dunklen Materie geben. Die Messungen des entsprechenden „Obertones“ sind aber keineswegs ganz einheitlich.ii Darüber hinaus hängen diese Amplituden von fast allen
8 präzision
im kaffeesatz 129
kosmologischen Parametern ab,iii sogar von einem nicht näher begründeten „Formparameter“. Die Folgerungen daraus werden in Vorträgen gerne in Kombination mit anderen Messungen, etwa der Dunklen Energie dargestellt. Man sieht dann Diagramme mit verschiedenen farbigen Ellipsen, deren Zentren sich im Idealfall einigermaßen überlappen, was als Bestätigung des Standardmodells der Kosmologie gilt. Dabei geht man jedoch meist darüber hinweg, wie viele Annahmen diesem Modell zugrunde liegen. Zwar sind die Messungen nicht mehr widersprüchlich wie vor 1998, aber die wunderbare Selbstkonsistenz wurde durch die neu eingeführte Stellschraube der Dunklen Energie teuer erkauft. Im übrigen wird durch die schönen Diagramme keine einzige der vielen Ungereimtheiten der Dunklen Materie erklärt. Mein Bekannter Mauro Sereno von der ETH Zürich, der sich mit Tests der dunklen Substanzen im Sonnensystem befasst, schrieb mir dazu: Wenn man annimmt, dass Dunkle Materie den und den Anteil hat, dass es eine kosmologische Konstante gibt, dass die Anfangsfluktuationen adiabatisch sind, dass Neutrinos eine bestimmte Masse haben usw., ‚findet‘ man am Ende natürlich, dass die möglichen Abweichungen vom Newtonschen Gravitationsgesetz gleich null sind oder fast gleich null. Aber um die Gültigkeit eines Gesetzes zu untersuchen, dürfte man gewisse Annahmen gar nicht erst machen. wer suchet, der findet – kosmologisches konzert mit falschen tönen?
Der Entstehungszeitpunkt der kosmischen Mikrowellenstrahlung ist auch insofern besonders, als sich die Wasserstoffwolken nun auf sich selbst und ihre Gravitationswirkung besinnen konnten, anstatt dauernd vom Licht herumgestoßen zu werden – es ging ja nun durch sie hindurch. Man nennt diesen Zeitpunkt daher auch Entkopplung von Licht und Materie. Die typische Größe der damaligen Dichteschwankungen –
Ohne Wärmeaustausch, wie etwa das Auslassen der Luft aus einem Fahrradschlauch.
130 vom
urknall zum durchknall
einem Winkelgrad entsprechend – sollte sich im späteren Universum in eine typische Größe von Galaxienzusammenballungen übersetzt haben. Es lag also nahe, den Datensatz Sloan Digital Sky Survey danach zu durchsuchen, und tatsächlich wurde man fündig. Ein sogenannter akustischer Peak wurde in der gleichen Größe wie bei den WMAPDaten gefunden, und schon bald zierte alle Diagramme eine Ellipse in neuer Farbe, die wunderbar mit den andern übereinstimmte. Im Dezember 2008 wurden im SDSS-Katalog die letzten Datenlücken gefüllt, so dass jetzt auf einem Viertel des gesamten Himmels alle bekannten Galaxienpositionen abgerufen werden können. Kurze Zeit später telefonierte ich mit Francesco Sylos Labini aus Rom. Er war empört. Gerade hatte er seine Statistikprogramme mit den neuesten Daten gefüttert. Dort, wo 2005 die baryonic acoustic oscillations in der Galaxienverteilung entdeckt worden waren, fand er – nichts.iv Sind nun die Diagramme, die die Runde durch die Kosmologiekonferenzen in aller Welt gemacht haben, schlicht falsch? Ich weiß es nicht. Niemand kann behaupten, dass Francesco nicht kompetent und sauber arbeitet. Das gleiche werden aber die meisten auch von der „erfolgreichen“ amerikanischen Arbeitsgruppe denken. Übrigens ist dies eine Situation, die in der Wissenschaft relativ häufig vorkommt. Es bedeutet keineswegs, dass einer der Kontrahenten mit ganz falschen Methoden oder gar in böser Absicht gehandelt hatte, denn man glaubt nun mal leicht das, was man erwartet. Gefährlich ist jedoch, wie solche Konflikte normalerweise gelöst werden. Der angesehenere Wissenschaftler mit den besseren Verbindungen, dem es infolgedessen gelingt, seine Resultate in prestigeträchtigen Zeitschriften unterzubringen, setzt sich durch. Transparent würden alle diese Ergebnisse erst, wenn die jeweiligen Rohdaten samt Programmcode der Auswertung online zur Verfügung stünden. Bis dahin glauben aber sicher noch alle an die baryonic acoustic oscillations. gravitationslinsen – lichstrahlen auf abwegen
Eine weitere Methode zur Bestimmung der Massenverteilung im Universum basiert auf dem Gravitationslinseneffekt, allerdings noch indirekter als durch die Einstein-Bögen im Kapitel 6. Unter verschiedenen
8 präzision
im kaffeesatz 131
Winkeln betrachtet, können Spiralgalaxien kreisförmig, in der Form eines schmalen Bandes oder auch als elliptisches Fleckchen erscheinen. Große Galaxienhaufen, die als Gravitationslinsen wirken, verzerren diese Bilder, und erkennt man darin ein bestimmtes Muster, kann man so auf die Masse der Haufen schließen. In St. Petersburg 2008 hielt ein junger Amerikaner vom California Institute of Technology einen wunderbar animierten Vortrag, in dem Dunkle Materie auf diese Weise sichtbar gemacht wurde. Ich fragte ihn im Anschluss, ob die Simulationen davon ausgehen, dass die Galaxien in zufälligen Richtungen orientiert seien. Immerhin bemerkte er gleich, womit ich ihn ärgern wollte: Eine neuere Untersuchungv hatte festgestellt, dass die Drehachsen der Spiralgalaxien bevorzugt in den Begrenzungsflächen jener riesigen Leerräume liegen, die das Universum durchziehen. Das bedeutet, auch diese Leerräume können in der Statistik zu Unrecht Dunkle Materie simulieren! „Wir versuchen, dies in Zukunft zu berücksichtigen“ war seine Antwort. Leicht wird das aber nicht sein. Denn häufig trifft man in der Astronomie sogenannte inverse Probleme an, bei denen man von den Wirkungen (hier Lichtablenkung) auf die Ursache (Materie) schließen will. Meist ist dies nicht eindeutig oder nur mit zusätzlichen Annahmen lösbar, was die Messung anfällig gegen systematische Fehler der oben beschriebenen Art macht. Lässt man dagegen die vereinfachenden Annahmen fallen, bleibt oft nicht viel Resultat übrig.
ein pferdefuß im kosmos – das sonnensystem
Kehren wir zum Mikrowellenhintergrund zurück, dessen grobe räumliche Schwankungen, der Quadrupol- und Oktupolanteil, in Abb. 8 rechts dargestellt sind. Der ungewöhnlich stark ausgeprägte Oktupol schneidet die Himmelssphäre durch Knotenlinien in acht Stücke. Woher kann so eine Anomalie kommen? Eine nahe liegende Vermutung wäre, dass uns die Milchstraße einen Streich gespielt hat, denn in diesem Band am Nachthimmel konzentrieren sich unzählige Sterne, Sternhaufen und Gaswolken. Alle diese Vordergrundquellen müssen aus den Rohdaten herausgefiltert werden. Es wäre also keine allzu große Überraschung, wenn beispielsweise die Knotenlinie des Oktupols mit diesem Band zu-
132 vom
urknall zum durchknall
Abbildung 8: Links: Temperaturfluktuationen im kosmischen Mikrowellenhintergrund, von COBE und WMAP aufgenommen. Rechts: Quadrupol- und Oktupolanomalie der Temperaturverteilung, aus den WMAP-Daten extrahiert. Auffallend ist, dass deren Orientierung zusammenfällt und gleichzeitig die Ebene des Sonnensystems als eine der Knotenlinien der Schwingungen auftritt.
sammenfallen würde – eine durch unvollständige Filterung vielleicht unvermeidliche Fehlerquelle. Wo liegt aber diese Knotenlinie? In der Ekliptik, der Ebene, in der sich die Planeten des Sonnensystems bewegen. Da die Milchstraße aber ganz anders orientiert ist als die Ekliptik, ist dieses Ergebnis sehr merkwürdig. Als einzig nicht-exotische Erklärung dafür kommt nur ein Auswertungsfehler in Betracht, bei dem man Einflüsse des Sonnensystems unterschätzt hat. Überhaupt ist die Datenauswertung von WMAP ein äußerst komplexes Unterfangen, bei dem etwas mehr Transparenz wünschenswert wäre. So wurde anfangs wegen „komplexen Rauscheigenschaften“ nicht genau veröffentlicht, wie das Vordergrundsignal der Milchstraße abgezogen wurde.vi Es gibt sogar Spezialisten der medizinischen Bildverarbeitung – man benötigt dort die gleichen Techniken – welche die ganze Datenauswertung detailliert, aber heftig kritisieren.vii Mark Twains Ausspruch „Beschaffe dir zuerst mal die Fakten, dann kannst du sie nach Gusto verzerren“ wäre sicher zuviel gesagt. Aber auch bei WMAP würde ein öffentlich zugänglicher
8 präzision
im kaffeesatz 133
und im Detail dokumentierter Programmcode mehr Vertrauen schaffen. der lebensraum zwischen mathematik und physik
Mathematische Physiker sind meist angenehme Menschen. Als ich einmal eine kleine, fast familiäre Konferenz über Kontinuumsmechanik in Udine besuchte, hatte ich Gelegenheit, diese Spezies näher kennenzulernen. Da war der irische Professor mit grünen Socken in den Sandalen, der mit den Transformationen von Rotationsellipsoiden jonglierte, so als ob diese in seinem großen Kopf Platz fänden. Zwei Forscher aus Mailand wurden um Mitternacht auf der Piazza von den Pärchen bestaunt, als sie lautstark über die Quaternionen diskutierten, eine vierdimensionale Verallgemeinerung der komplexen Zahlen. Ein Mathematiker aus Verona vergaß vor lauter Begeisterung über die Kategorientheorie gar das Abendessen, während seine Zuhörer aufmerksam, aber verständnislos speisten. Ganz allgemein hat der mathematische Physiker aber eine angenehme Stellung: Unter den Mathematikern gilt seine Arbeit als nützlich weil anwendungsbezogen, während er unter Physikern den Freibrief hat, Abgehobenes zu tun. Er macht sich meist strenge Gedanken über Dinge, die jedem klar sind, etwa so wie Juristen in der Wirtschaft, gleichzeitig arbeitet er mit beschränkter Haftung, ob die Erklärung physikalisch taugt. Lässt man mathematische Physiker auf die Kosmologie los, spekulieren sie gerne über die Topologie des Weltalls im ganzen. Vielleicht hat ja das Universum die Gestalt eines Fahrradschlauchs, oder es ist wie eine mehrfach geschnittene und geklebte Hyper-Brezel geformt? Warum nicht. Jedenfalls kann man zu allen Hypothesen hübsch rechnen. Eine Arbeitsgruppe der Universität Ulm kam jüngst zu dem Ergebnis, diese nichttrivialen Topologien könnten eine Oktupol-Anomalie verursachen. Mathematik war also wichtig. Die Erklärung des eigentlichen Rätsels, warum dieser kosmische Hinweis so banal im Sonnensystem orientiert ist, wurde jedoch dem astronomischen Fußvolk übrig gelassen.
134 vom
urknall zum durchknall
der eiserne vorhang – licht und materie auf ewig getrennt
Die europäische Planck-Mission untersucht nun den kosmischen Mikrowellenhintergrund noch genauer als WMAP. Über den wissenschaftlichen Wert sind sich ausnahmsweise Enthusiasten der Hintergrundstrahlung mit jenen Skeptikern einig, denen die Auswertung der Amerikaner zu viele Fragen offen ließ. Auch zukünftige Technik der Detektoren wird aber die Planck-Resultate kaum mehr übertreffen können. Denn die Störsignale, die durch Staub in der Milchstraße entstehen, sind dann erheblich, was ein Redner bei der Konferenz The First Billion Years in Garching 2006 so auf den Punkt brachte: „The limit of background measurement is foreground.“ Obwohl diese Erkenntnis nicht gerade sensationell ist, dringt sie nur langsam ins allgemeine Bewusstsein. Zwar sind die Daten von herausragender Genauigkeit, so dass Berufseuphoriker wie Joel Primack dafür den Begriff precision cosmology geprägt haben. Andere nennen die durch die Hintergrundstrahlung vermessenen Parameter des Standardmodells auch „Evangelium nach WMAP“. Man muss sich aber klar machen, dass das Licht der Hintergrundstrahlung auf seiner Milliarden Jahre dauernden Reise einer Vielzahl von Wegelagerern ausgesetzt war, die seine heutige Aussagekraft gefährden. So wirken sich Gravitationsfelder von Galaxienhaufen, Kollisionen mit freien Elektronen und mögliche weitere Streuprozesse alle auf die Wellenlänge der Photonen aus. Neben der Schwierigkeit, alle Vordergrundquellen wie zum Beispiel Galaxien mit geringer Flächenhelligkeit zu eliminieren, hängen die Daten auch noch von dem betrachteten kosmologischen Modell ab. Trotz der schönen Präzision steckt also doch einiges unter der Decke, was wir nicht trennen können. Mit dem kosmischen Mikrowellenhintergrund blicken wir viel weiter zurück ins Universum als mit jeder anderen Beobachtung – bedenken Sie die enorme Rotverschiebung von z = 1 100 im Vergleich zu den entferntesten Galaxien und Quasaren, die etwa bei z = 10 liegen. Gleichzeitig bildet die Lichtundurchlässigkeit des Universums in den ersten 380 000 Jahren auch eine unerbittliche Grenze, mit der zukünftige Kosmologen werden leben müssen. So wie die WMAP-Karte als Babyfoto des Universums
8 präzision
im kaffeesatz 135
bezeichnet wurde, wäre gerade die Entstehungsgeschichte bis zu diesem Zustand durchaus interessant, aber der Blick in frühere Phasen ist verstellt. Leider führt das dazu, dass manche in verständlicher Neugier mehr aus den Daten herauslesen wollen, als darin steckt.
alepocephalus tenebrosus ganz klar erkennbar
Trifft ein Elektron auf sein seltenes exotisches Spiegelbild mit positiver Ladung, das Positron, beenden beide ihr Leben, indem sie sich in zwei gleichartige Gammastrahlen-Lichtblitze umwandeln. Dieser unromantische Prozess wird Paarvernichtung genannt. Ebenso können aber aus einem einzelnen Photon Paare erzeugt werden, sogar die viel schwereren Proton-Antiproton-Paare, wenn nur die Energie des Photons nach Einsteins Formel E = mc² dafür ausreicht. Diese im Alltag kaum vorkommende Antimaterie gibt der Physik eine ganze Reihe von Rätseln auf, aber sie ist stets präsent, wenn man neue Teilchen erzeugt. Bei noch schwereren Teilchen haben die Physiker oft ihre liebe Not damit, die hohen Energien zu erreichen, und so wird auch gelegentlich spekuliert, diese Teilchen hätten kurz nach dem Urknall, in der sogenannten primordialen Phase größter Hitze entstehen können. Wunderschöne Ideen, nur leider kann man sie nicht überprüfen, denn wie soll die Information 380 000 Jahre lang in einer heißen Suppe überleben? Dennoch habe ich Vorträge gehört, in denen allen Ernstes die Hoffnung genährt wird, man könne solche „Signaturen“ der Paarvernichtung im kosmischen Mikrowellenhintergrund nachweisen. Dies ist nicht nur wegen der erwähnten Fehlerquellen nach Freisetzung der Hintergrundstrahlung absurd, sondern vor allem auch daher, weil über die Zeit vorher herzlich wenig bekannt ist. Wieviele physikalische Prozesse sind denkbar, die bis dahin den Effekt überlagern und zunichte machen können! Die Datenauswertung können Sie in etwa mit jener von Satelliten vergleichen, die die Meeresoberfläche fotografieren. Man kann heute den Meeresspiegel auf Zentimeter genau bestimmen, und Infrarotaufnahmen liefern eine Temperaturmessung. Mit solchen Daten können Sie im Nordatlantik sicher den Golfstrom erkennen, vielleicht auch noch durch eine Spektralanalyse auf den Salzgehalt und Al-
136 vom
urknall zum durchknall
genanteil des Wassers schließen. Wenn Sie Glück haben, können Sie sogar aus der Kräuselung der Wellen die Windgeschwindigkeit berechnen. Aber primordiale Teilchen in der WMAP-Karte zu finden wäre etwa so, als wenn Sie aus der Bewegung der Meeresoberfläche Tiefseefische entdecken und zoologisch klassifizieren wollten. Was nicht heißt, dass sich nicht verschiedene Arbeitsgruppen damit beschäftigen ….
wie sieht man die chemie des frühen universums?
Der kosmische Mikrowellenhintergrund ist die letzte Information, die wir in verschiedenen Wellenlängen und mit einer sehr guten Winkelauflösung beobachten können. Von der Zeit vorher wissen wir nichts bis auf wenige Zahlen zur Häufigkeit der chemischen Elemente, die kurz nach dem Urknall entstanden sind. Die recht indirekten Argumente lassen aber nur eine begrenzte Genauigkeit zu. So ergeben zunächst Überschlagsrechnungen zur Sternaktivität, dass diese mit der Kernfusion nicht die Menge Helium produzieren konnte, die man im Weltall beobachtet. Wie wird dieser Anteil gemessen? Der Münchener Physiker Joseph Fraunhofer entdeckte vor 200 Jahren die nach ihm benannten schwarzen Linien im Sonnenspektrum, das heißt Linien, die im kontinuierlichen Farbspektrum fehlen. Dies passiert, wenn sich an der Sonnenoberfläche beispielsweise Heliumatome befinden, die bei „ihren“ Wellenlängen Licht schlucken und es nicht zur Erde durchlassen. Je weniger durchkommt, desto höher ist dann die Konzentration von Helium. Mit einer ganz analogen Methode misst man die Wasserstoff- und Helium-Häufigkeiten in entfernten Gaswolken, von denen man annimmt, sie seien seit der Zeit des Mikrowellenhintergrundes in ihrer Zusammensetzung unverändert. Als Hintergrund dient dabei natürlich nicht das Licht der Sonne, sondern jenes von Quasaren, die schon sehr früh im Universum vorhanden waren. Es stellt sich heraus, dass etwa 25 Prozent der Masse des Universums schon damals in Heliumkernen vorlag – noch vor jeder Sternbildung. Ebenso kann man Deuterium in sehr kleinen Mengen messen, was jedoch mit deutlich größeren Unsicherheiten behaftet ist. Denn es gibt kein Quasar-
8 präzision
im kaffeesatz 137
spektrum, das die Helium- und Deuteriumlinie gleichzeitig enthält und somit den direkten Vergleich ermöglicht. Noch winziger ist der Anteil an Lithium, der im übrigen allen gängigen Modellen widerspricht.viii
die ersten drei minuten, kurz nach der geburt der naturgesetze . . .
Wie schließt man auf so frühe Vorgänge? Man nimmt an, Protonen und Neutronen seien anfangs im Universum in gleicher Anzahl vorhanden gewesen – übrigens aus rein theoretischen Erwägungen heraus, nicht aus einer unabhängigen Messung. Es beginnt nun eine grausame Selektion. Die Neutronen zerfallen im Mittel innerhalb von 15 Minuten zu Proton, Elektron und Antineutrino, es sei denn, es gelingt ihnen, rechtzeitig mit einem Proton als Partner einen Deuteriumkern zu bilden. Während die Uhr tickt, dehnt sich aber das Universum aus und es wird mit jeder Sekunde unwahrscheinlicher, ein Proton zu finden. Deuterium kann schließlich – auch dafür steht nicht viel Zeit zur Verfügung – in einer weiteren Reaktionskette zu Heliumkernen verschmelzen. Als Ergebnis des Tanzes überlebt so nur ein Viertel der Neutronen, fast alle in Heliumkernen. Geht man davon aus, dass die Halbwertszeit der Neutronen, die Reaktionswahrscheinlichkeiten und einige andere Eigenschaften der Materie im frühen Universum die gleichen Werte wie heute haben – schon ein bisschen gewagt – dann gelingt es mit Modellrechnungen, die damalige Dichte und Expansionsgeschwindigkeit abzuschätzen. Steven Weinberg hat in seinem Buch Die ersten drei Minuten dieses Szenario der Urknall-Nukleosynthese beschrieben und dadurch ein interessantes Thema popularisiert. Gleichzeitig wurden jedoch auch etwas die Sitten verdorben, was die Verlässlichkeit dieser Rechnungen betrifft, die auf verschiedenen rein theoretischen Annahmen beruhen. Roger Penrose hat weiter darauf hingewiesen, dass alle Modelle naiv voraussetzen, der frühe Urzustand habe sich in einem thermodynamischen Gleichgewicht befunden – was möglicherweise eine ganz falsche Vorstellung ist. Selbst wenn man dagegen in diesen ersten Minuten die Gültigkeit der Thermodynamik und Kernphysik voraussetzt, sind aber
138 vom
urknall zum durchknall
Aussagen über die Entwicklung der so viel schwächeren Gravitation, die sich gelegentlich finden, an den Haaren herbeigezogen. Denn selten findet man eine Kombination von so zahlreichen Annahmen, indirekten Schlüssen und großen Messungenauigkeiten wie in dieser Ursuppe. Die Urknall-Nukleosynthese liefert daher einen qualitativen Beleg für das Urknallszenario, mehr nicht. Die Frage, ob die Naturgesetze damals völlig identisch mit den heutigen waren und ob unsere Vorstellung der Zeit stimmt, kann man dabei sogar noch ausklammern.
neutrinos von der supernova 1987a – alle wollen dabei gewesen sein
Die Urknall-Nukleosynthese klingt als solche ganz plausibel, die Zahlenwerte hängen jedoch unter anderem von der Anzahl und Masse der (Anti-)Neutrinos ab, die bei Kernumwandlungen entstehen. Die Wichtigkeit der Neutrinos für die Astrophysik wurde deutlich mit einem Ereignis am 24. Februar 1987: Shelton 19871 70224 333// 05343 16916 stand auf dem Fernschreiben, das vom Las Campanas Observatorium in Chile an die Internationale Astronomische Union geschickt wurde. Die kryptische Nachricht enthielt die Koordinaten einer Sensation – die hellste Supernova-Explosion seit jener von Kepler 1604 beobachteten war entdeckt! Obwohl noch vor dem Internetzeitalter, verbreitete sich die Meldung unter den Astronomen wie ein Lauffeuer, und alle richteten ihre Teleskope auf die große Magellansche Wolke, eine Begleitgalaxie unserer Milchstraße in nur 160 000 Lichtjahren Entfernung. Schlagartig wurde man sich auch in den großen Neutrinoobservatorien bewusst, dass die Sternexplosion mit Kernumwandlungen einhergegangen sein musste, und so begann eine fieberhafte Suche nach den Neutrinos aus der Magellanschen Wolke. Alle wurden auch in ihren Daten fündig, aber leider nicht übereinstimmend: Das Observatorium der italienisch-französischen Kooperation im Mont Blanc stellte einen Neutrinoschauer am 23. Februar 1987, 2:52 Uhr fest, die Amerikaner detektierten dagegen ein außergewöhnliches Signal um 7:35 Uhr! Ein
8 präzision
im kaffeesatz 139
russisches Observatorium berichtete von Extraneutrinos um 7:36 Uhr, obwohl Russland ja nicht gerade eine Lichtminute von den USA entfernt ist. Die kurioseste Zeitmessung kam aus Japan: Unglücklicherweise war dort gerade die Uhr ausgefallen, aber man erinnerte sich, dass sie 7:35 Uhr angezeigt hatte.ix
wunschdenken vor dem mikrowellenhintergrund
Angesichts dieser Vielstimmigkeit ist es doch verwunderlich, dass jene 11 Neutrinos von 10 Trillionen, die durch den japanischen KamiokandeDetektor gingen, zur Vergabe des Nobelpreises 2002 führten. Eigentlich wäre eine unabhängige Bestätigung des Ergebnisses wünschenswert gewesen, wie es etwa bei dem COBE-Satelliten durch die WMAP-Daten erfolgt war. Durch die amerikanisch-russisch-japanische Allianz waren die Forscher im Mont Blanc ausgegrenzt, um nicht zu sagen blamiert. Auf Konferenzen kam es zu feindseligen Debatten, und angeblich hätten sich manche nachträglich gerne aus der Autorenliste jener Publikation gestrichen. Ich frage mich allerdings, was passiert wäre, wenn es damals nur das Mont Blanc-Observatorium gegeben hätte. Wäre dann der Nobelpreis vergeben worden für etwas, was heute als eine statistische Fehlinterpretation gilt? Zwar hat sich nun eine bestimmte Vorstellung von der Natur der kosmischen Neutrinos durchgesetzt, aber von einer befriedigenden quantitativen Messung ist man noch entfernt. Demgegenüber hört man, der „Vorhang“ der Mikrowellen-Hintergrundstrahlung könnte für Neutrino-„Teleskope“ eines Tages durchlässig werden, und uns weitere Daten über die Frühzeit des Universums liefern. Das ist reichlich naiv, denn offensichtlich machen sogar die Neutrinos in unserer Nähe den Beobachtern noch große Schwierigkeiten. Ebenso wie von Neutrinos wird von Gravitationswellen behauptet, sie könnten noch aus jener Frühzeit detektiert werden. Das mag im Prinzip richtig sein, bleibt aber ebenfalls reines Wunschdenken, solange wir Gravitationswellen noch nicht einmal in der nächsten Nachbarschaft messen können.
140 vom
urknall zum durchknall
messen auf teufel komm raus
So faszinierend die moderne Beobachtungstechnik ist, so verselbständigt sich die Jagd nach Genauigkeit doch zu einem Sport, wenn das Verständnis der Daten nicht mehr Schritt hält. Nicht immer ist man mit den schwächsten Signalen automatisch an der vordersten Front der Forschung. Der Astronom Mike Disney bemerkte dazu:x Der Hauptteil der Beobachtungszeit auf allen Großteleskopen wurde zum Studium der Objekte am Beobachtungshorizont verwendet, mit, wie es mir scheint, wenig Resultat … Statistische Studien über leuchtschwache Objekte können eine Karriere über Jahre antreiben, ohne dass ein einziger origineller Gedanke dabei ist. Noch mehr gesündigt wird aber durch Korrekturen der Rohdaten, wenn ein unerwünschtes Signal entfernt werden muss. In der Bildbearbeitung lauern die verschiedensten Tücken, mit denen nicht alle vertraut sind. So bildet man sich zum Beispiel ein, in einer geplanten Kartierung der 21-Zentimeter-Linie die 10 000-fach stärkere Radiostrahlung der Milchstraße herausfiltern zu können.xi Dies bedeutet nicht, dass diese Forscher unqualifiziert oder gar unredlich arbeiten. Das Überschätzen der Genauigkeit und Interpretationen, die einer seriösen Analyse nicht standhalten, sind aber ein allgemeines Problem der Physik. Systematische Fehler in den eigenen Daten für möglich zu halten, beschädigt ja die Reputation. Und Entdeckungen sind nun mal in Zeitschriften lieber gesehen als die wissenschaftlich ehrlichere Feststellung, man sei an der Messgrenze gescheitert.
Weiterführende Literatur R. Penrose: The Road to Reality, Vintage 2004, Kap. 27. S. Weinberg: Die ersten drei Minuten, Piper 1997. P. Schneider: Extragalaktische Astronomie und Kosmologie, Springer (Heidelberg) 2006, Kap. 8.6+4.4.
8 präzision
im kaffeesatz 141
M. Rees: Das Rätsel des Universums, dtv 2006, Kap. 9. P. Murdin: Flammendes Finale (Supernova 1987a), Birkhäuser 1991. J.P. Kneller/G. Steigman: BBN for pedestrians, arXiv:astro-ph/0406320. i Y. V. Baryshev, arXiv:0810.0153. ii Schneider, S. 349. iii Schneider, S. 338. iv F. Sylos Labini et al., arXiv:0903.0950. v I. Trujillo et al., arXiv:astro-ph/0511680. vi D. N. Spergel et al., arXiv:astro-ph/0302209. vii T. P. Robitaille, Prog. Phys. 2007(1), 3 und 19; Prog. Phys. 2009 (4), 17. viii S. McGaugh, arXiv:0707.3795. ix Murdin, Kap. 9. x M. J. Disney, arXiv:astro-ph/0009020. xi Spektrum Dossier 05/2007, Kosmische Ursprünge, S. 32.
Teil III
Sackgasse
9
Trübes Wasser Die Kosmologie der dunklen Pixel in dunklen Zeiten. Oder: Wie man Großrechner beschäftigt
Aus der Dunkelheit entsteht ein farbiges Aufleuchten, ein Meer von Punkten bedeckt die Leinwand. Wie von Geisterhand bewegt, beginnen sie sich scheinbar regellos zu organisieren, während am Bildrand ein Zeitzähler läuft. Schnell wird klar, dass hier Millionen Jahre in Sekunden ablaufen, die ersten Epochen unseres Universums in einen kosmischen Zeitraffer gepackt wurden. Während die Uhr Milliarden von Jahren anzeigt, formen sich faszinierende Strukturen. Es handelt sich um Filamente von Galaxien, anscheinend zufällig wie Wolkenspiele, und doch präzise berechnet – von der Millennium-Computersimulation. Mit gigantischer Rechenleistung wurde eines der ehrgeizigsten Projekte der numerischen Astrophysik realisiert – Terabytes von Daten beschäftigten die Großrechner des Max-Planck-Institutes für Astrophysik mit einer Kapazität von Billionen Rechenoperationen pro Sekunde einen vollen Monat lang. Das Ergebnis ist etwas für die große Leinwand, Universum im Kino. Kein Wunder, dass Nature der Simulation 2005 eine Titelseite widmet. Neben der Rechenleistung berechtigt auch die Programmierarbeit zu Stolz. Wer sich je mit den Tücken von Simulationen beschäftigt und Programme geschrieben hat, weiß um die Befriedigung, die sich einstellt, wenn nach dem Ausmerzen der letzten Fehler der Rechner endlich das tut, was man wollte – und dabei auch noch schöne Ergebnisse liefert. Was lernen wir nun daraus?
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_9, © Springer-Verlag Berlin Heidelberg 2010
145
146 vom
urknall zum durchknall
werbebotschaft mit bildern oder wissenschaft mit zahlen?
Richard Feynman beschreibt in seinem Buch QED – die merkwürdige Theorie von Licht und Materie das Wesen einer guten wissenschaftlichen Theorie: Vorhersage und Beobachtung stimmen überein. So sagt die QED für das magnetische Moment des Elektrons den Wert 1,001 159 652 46 vorher, während die Beobachtung 1,001 159 652 21 zeigt. Eine Genauigkeit von 10−8 Prozent, nicht schlecht. Welches Resultat hat die Millennium-Simulation? Sie zeigte, dass im frühen Universum schon Quasare entstehen konnten, nun gut. Wie sieht es aber mit konkreten Zahlen aus? Wir beobachten ungefähr 30 Begleitgalaxien der Milchstraße, während die Simulationen jedoch etwa 1 000 produzieren, neuere Rechnungen ergeben sogar eine noch höhere Zahl. Vielleicht ist es hier nicht ganz fair, den prozentualen Fehler zu betrachten, aber nach den Simulationen müsste der Nachthimmel geradezu erleuchtet sein von diesen Satelliten unserer Heimatgalaxie. Das Bewerten der numerischen Resultate verlangt aber eine Messlatte mit Zahlen und nicht nur die Feststellung, wie schön die Bilder des frühen Universums übereinstimmen – und dann sehen sie oft nicht mehr so gut aus. Viel beunruhigender ist aber, dass Computermodelle in der Regel eine Reihe von freien Parametern verwenden – beispielsweise den sogenannten „Bias“ in der Galaxienentstehung, der beschreibt, um wieviel das frühe Universum schon mehr Struktur enthielt als wir verstehen. Je mehr methodische Tricks dieser Art man hineinsteckt, desto mehr „Vorhersagen“ kommen natürlich heraus. Gerade weil freie Parameter eine wissenschaftstheoretische Unsitte sind, die an die ptolemäischen Epizyklen erinnert, sollte man wenigstens ihre Anzahl dokumentieren. Noch nicht mal das ist aber bei den allermeisten Simulationen der Fall.
95 prozent der probleme gelöst durch 95 prozent dunkle substanzen
Trotz geballter Rechenkapazität musste man bei der MillenniumSimulation doch ein etwas grobes Raster in Kauf nehmen: Ein Teilchen repräsentierte zehn Millionen Sonnenmassen. Für normale Materie, die
9 trübes
wasser
147
sich typischerweise schon bei einer Sonnenmasse strukturiert, wäre das etwas klobig, nicht jedoch für Dunkle Materie, deren Eigenschaften wir ja noch nicht kennen. Aber ist es nicht eigenartig, dass die Modelle vor allem damit gut funktionieren? Die normale, baryonische Materie wurde in einem zweiten Schritt in die Modelle implementiert, wie man der Webseite der Simulation entnehmen kann – hätte die vorher etwa gestört? Rudy Schild berichtete auf der Petersburger Konferenz 2008 von einer Reaktion auf seine Zweifel, die er gegenüber einem numerischen Astrophysiker geäußert hatte. Dieser antwortete ihm: „Glaub mir, die Simulationen mit der Dunklen Materie und der Dunklen Energie sind korrekt. Es gibt nur ein klitzekleines Problem mit der semi-analytischen Beschreibung der baryonischen Materie. Aber das wird in ein paar Jahren ausgebügelt sein“. Rudy befürchtet hier wohl nicht zu Unrecht, dass man wieder einen neuen Parameter einführen will, der die Sache hintrimmt. Der bekannte Astrophysiker Jerry Ostriker berichtete auf einer Tagung 2007 sogar, man plane die nächsten Simulationen ganz ohne die „normale“ baryonische Materie. Weil sich die „dunklen“ Substanzen im Computer recht artig benehmen, wird also bald das letzte Detailproblem beseitigt sein: die Realität. Aber was ist eigentlich, wenn sich die Dunkle Materie als ein Phantom erweist, weil das Gravitationsgesetz falsch ist? Die dann völlig wertlosen Simulationen hätten uns in diesem Fall nur Sand in die Augen gestreut.
der computer und sein eigenleben
Die Versuche, Dunkle Materie zu simulieren, sind fast so alt wie der Computer selbst. Viele Hypothesen dazu, angefangen von den Neutrinos, sind den Bach hinunter gegangen, aber die Computer werden immer größer. So verlockend es sein mag, sich dieser Spitzentechnik zu bedienen, manchmal ist sie für Wissenschaftler keineswegs ein Segen. Während meiner Zeit in der Gehirnforschung lud uns einmal ein Direktor eines Max-Planck-Institutes zur Besichtigung der Rechneranlage ein. Stolz zeigte er uns den Keller, der bis an die Decke vollgestopft war mit den damals neuesten Maschinen von Silicon Graphics. Die Ergebnisse, die dadurch erzielt wurden, waren dagegen so mager, dass viele Forscher auf der Neurobiologie-Tagung 1998 in Göttingen nur den Kopf darüber
148 vom
urknall zum durchknall
schüttelten. Die Notwendigkeit, die Rechenmonster unbedingt benutzen zu müssen, hatte offenbar jeden kreativen Gedanken zum Versuchsaufbau erstickt. Aber zurück zur Gravitation: Können wir mit der numerisch billigen Dunklen Materie und viel Rechenleistung das Universum verstehen? Frank Wilczek, der 2004 den Nobelpreis für seine Arbeiten in der theoretischen Kernphysik bekam, meint schon:i Glücklicherweise hält uns unsere fast vollkommene Unkenntnis der Natur des größten Teils der Masse des Universums nicht davon ab, die Entwicklung seiner Dichte zu modellieren. Das geht nur, weil die vorherrschende Wechselwirkung auf großen Skalen Gravitation ist, die sich nicht um Details kümmert. Mike Disney von der Universität Cardiff dagegen, vielleicht doch etwas näher an der Astronomie als Wilczek, sieht da ein paar Details anders:ii Sie starten mit einer Menge ‚Pünktchen‘ von Dunkler Materie, die sich offensichtlich unter Einfluss der Gravitation zu Fäden formt. (…) Und dann soll man das Resultat bewundern. Welches Resultat? Wahrscheinlich sollen wir die Punkte mit den realen Strukturen identifizieren und einige physikalische Eigenschaften des Universums folgern. Aber was ist mit der Gasdynamik, den Anfangsbedingungen, der Physik der Sternentstehung, der Evolution, dem Bias, mit einer richtigen Statistik der Korrelationen, und der Wechselwirkung zwischen Strahlung und Materie? Ohne einen guten Leitgedanken bei all diesen Effekten ist diese Kosmologie der ‚Pünktchen‘ für die reale Kosmologie nicht relevanter als das Computerspiel ‚Life‘ für die Evolutionsbiologie.
universum verstanden, am kochtopf gescheitert?
Verständlicherweise zweifelt Disney hier etwas an den Simulationen des Universums, denn schon die Physik eines Sterns ist schwer genug zu verstehen. Kann man zum Beispiel in einem Supercomputer die Prozesse in
9 trübes
wasser
149
der Sonne simulieren? Nicht so einfach. Kernreaktionen, Abstrahlung, Wärmetransport, Strömungen mit Turbulenzen, Supernovaexplosionen, die schwere Kerne erzeugen, was wiederum zu anderen Wärmeleitungseigenschaften in der nächsten Sterngeneration führt, das alles macht normale Materie. Und Dunkle Materie? Nichts von alledem. Klar erleichtert dies das Rechnen: Gravitation. Sonst nichts. Aber sehen wir uns die Fähigkeiten des Computers noch an einem Beispiel von bescheidener Größe an. Kann man aus den Eigenschaften des H2O-Moleküls numerisch berechnen, bei welcher Temperatur Wasser in einem Topf zu sieden beginnt? Sie werden überrascht sein – das Problem ist noch zu schwierig für die Rechner. Derartige Phasenübergänge gehören zu den faszinierendsten, aber auch schwierigsten Problemen der Physik. Oft tritt bei Vorgängen wie Verdampfen oder Gefrieren unvorhersagbares, praktisch chaotisches Verhalten der Materie auf, das sich in fraktalen Strukturen (Schneeflocken!) zeigt, wie sie übrigens auch bei der Verteilung der Galaxien aufzutreten scheinen. Daher erscheint es reichlich blauäugig, wenn wir der vom Computer berechneten Evolution des Universums zu sehr trauen. Aber bei aller Naivität – können wenigstens die Beobachtungen die Modelle rechtfertigen? Leider arbeiten diese oft dort, wo es kaum Vergleichsdaten gibt. Denn es fällt auf, dass die erfolgreichsten Simulationen der Astrophysik sich im sogenannten dunklen Zeitalter abspielen. Diese Periode liegt zwischen dem Mikrowellenhintergrund, der ungefähr 380 000 Jahre nach dem Urknall entstand und eine Rotverschiebung z = 1 100 zeigt, und den ältesten beobachtbaren Galaxien bei z = 10, die etwa auf eine halbe Milliarde Jahre nach dem Urknall datiert werden. Was auch immer Sie hier simulieren, Sie werden wenig Widerspruch von den Teleskopen ernten.
johann jakob balmer – ein heller kopf für dunkle zeiten
Für das dunkle Zeitalter müssen Sie ein wenig vom Verhalten der Wasserstoffatome verstehen, die damals das Universum dominierten. 1885 beschäftigte sich im schweizerischen Basel der Mathematiklehrer
150 vom
urknall zum durchknall
Johann Jakob Balmer mit dessen Spektrallinien. Sie heißen deshalb Linien, weil nach dem Durchgang durch ein Glasprisma sich das Licht einer Wellenlänge auf einer Linie sammelt. Schon Wasserstoff, das einfachste Atom, zeigte eine irritierende Vielzahl von Spektrallinien. Das Phänomen schien so kompliziert, dass die Spektroskopie unter Physikern lange als eine unexakte, schmutzige Wissenschaft galt – „fast schon Chemie“, wie Theodor Hänsch einmal in einer Vorlesung scherzte. Man kann sich nur wundern, wie Balmer damals zu entdecken vermochte, dass die Wellenlängen mit den Kehrwerten der Quadratzahlen zusammenhingen – allein eine gewaltige Rechenleistung, die von einer enormen Intuition getrieben sein musste. Was für ein Gefühl musste es gewesen sein, als erster Mensch der Natur dieses Geheimnis entlockt zu haben! Serienformel und Rydberg-Konstante Alle Wellenlängen λ lassen sich aus der Formel λ1 = R[( m12 ) − ( n12 )] berechnen, wobei m und n natürliche Zahlen sind, denen man später die Bedeutung einer Schalennummer gab. R ≈ 1,097 × 107 m−1 ist die Rydbergkonstante. Durch die Quantentheorie konnte sie später aus den Massen von Elektron und Proton, me und mp, sowie den Naturkonstanten c, h, e und ε0 berechnet werden.
Balmer konnte noch nicht wissen, dass Atome in angeregte Schwingungszustände übergehen und unter Aussendung von Licht wieder auf einen weniger energiereichen Zustand zurückfallen. Zu seinen Ehren wurden jedoch jene Spektrallinien, die durch den Sprung auf den ersten angeregten Zustand ( n = 2) entstehen, Balmer-Serie genannt. Dieser Pionierleistung folgten andere wie Theodore Lyman, nach dem die Serie benannt ist, bei der das Elektron des angeregten Atoms auf den Grundzustand n = 1 zurückfällt. Damit gibt uns die Natur eine ganz besondere Lichtwellenlänge: jene, die durch die einfachste Anregung des einfachsten Atoms erzeugt wird. Sie heißt Lyman-α-Linie und liegt mit ca. 122 Nanometern im Ultravioletten.
9 trübes
wasser
151
quasarlicht scheint durch wasserstoffwolken – ein blick in die frühzeit
Mit Hilfe der Lyman-α-Linie können wir nun die Kosmologie des Zeitalters bis etwa z = 10 näher betrachten. Man ist sich einig, dass der kosmische Mikrowellenhintergrund aus einer Zeit stammt, in der sich positiv geladene Protonen und negative Elektronen zu Wasserstoffatomen zusammengefügt haben. Denn nur durch die so erreichte elektrische Neutralität wurde das Universum erstmals für Licht durchlässig. Das Licht der ersten Quasare in den folgenden Epochen sollte sich also eigentlich ungehindert ausbreiten – ausgenommen jene Lyman-α-Linie, deren Photonen buchstäblich an jeder Wasserstoffwolke hängenbleiben. Nun sind aber entfernte Quasare erheblich rotverschoben, und rotverschoben ist auch die Aufnahmebereitschaft der in der Sichtlinie liegenden Wasserstoffwolken, die damit sensibel für verlängerte Lyman-α-Linien
6
J114816.64+525150.3 z=6.43 Keck/ESI Lyα NV 4
OI+Sill
2
Lyβ+OVI Lyman Limit
0
CIV abs 600
700
800
900
104
Wellenlänge (nm)
Abbildung 9 : Spektrum des Quasars J114816.64+525150.3, der eine Rotverschiebung von z = 6,43 aufweist. Die Lyman-α-Emissionslinie des Quasars von 121,6 Nanometern ist daher um den Betrag z × 121,6 nm = 781,9 nm ins Rote verschoben und liegt somit deutlich erkennbar bei 903,5 Nanometern. Wasserstoffwolken auf der Sichtlinie bewirken eine fast vollständige Auslöschung bei etwas kürzeren Wellenlängen bzw. Rotverschiebungen knapp unterhalb von z = 6,43.
152 vom
urknall zum durchknall
werden. So gibt es zu fast jeder Wellenlänge zwischen der 122 Nanometer-Linie und dem Quasarlicht bei beispielsweise 900 Nanometern eine Wasserstoffwolke in passender Entfernung, die die Emissionen des Quasars schluckt (vgl. Abb. 9). Alle diese Wellenlängen sollten also unsichtbar sein, und diese Undurchsichtigkeit in der Nähe des Quasars nennt man Gunn-Peterson-Effekt. Umgekehrt tun sich in unserer Nähe wieder Lücken in den Wasserstoffwolken auf, weil sie sich in späteren Zeiten zu Klumpen geformt haben, so dass nicht mehr bei jeder Rotverschiebung ein Lichtschlucker zur Verfügung steht. Ganz verkürzt gesagt, zeigen die Lyman-α-Wald genannten Quasarspektren, dass das Universum mit der Zeit löchrig wie ein Schweizer Käse geworden ist – es enthält riesige Leerräume.
reionisation oder nur unverständnis der strukturbildung?
Es ist klar, dass Gravitation ein Zusammenklumpen der Materie verursacht, aber leider versteht niemand so recht, warum die dadurch entstandenen Leerräume, die man beobachtet, so vollständig freigeräumt wurden – auch die Computersimulationen schaffen dies nicht. Funktionierte die Gravitation im frühen Universum doch anders? Diese Leere können die Modelle der Strukturbildung, die auf der gängigen Kosmologie basieren, jedenfalls nicht erklären. Wasserstoff müsste demnach noch dort sein, zwar verdünnt, aber in ausreichender Menge, um das Quasarlicht zu schlucken. Tut er aber nicht. Was nun? Man behilft sich mit der Vorstellung, er könnte in diesen Gebieten in ionisierter Form vorliegen, dann wäre er für Quasarlicht plötzlich wieder durchsichtig. Wodurch könnte aber die erneute Trennung von Protonen und Elektronen, genannt Reionisation, stattgefunden haben und wann? Natürlich in der dunklen Zeit, vielleicht durch Strahlung der ersten Sterne. Zwar können wir heute in einem Sternentstehungsgebiet wie dem OrionNebel wunderbar ionisierte Wasserstoffwolken beobachten. Aber die Vorstellung, nahezu alle Atompartnerschaften zwischen Protonen und Elektronen im Universum seien in jener dunklen Zeit wieder geschieden
9 trübes
wasser
153
worden, ist schon gewöhnungsbedürftig. Gefährlich erscheint dabei, dass man sofort bereit ist, einen relativ komplizierten Mechanismus zu postulieren, weil man etwas nicht sieht. Denn die Leerräume könnten genauso gut wirklich leer sein, weil wir die Strukturbildung noch nicht verstanden haben – dafür gibt es etliche Indizien. Und: Es ist einfach bequem, den neuen Mechanismus in eine nicht gut beobachtbare Periode zu legen.
wir verstehen etwas nicht? ab in den rechner
Vor allem ist über die Entstehung der allerersten Sterne, genannt Population III, praktisch nichts bekannt. Relativ alte Sterne in Kugelhaufen gehören zur Population II, während die Sonne sich als Scheibenstern einer Spiralgalaxie der Mitgliedschaft zur metallreichen Population I erfreut. Weil es wieder mal keine Daten gibt, werden die unbekannten ersten Sterne bevorzugt in Computermodellen simuliert, woraus ohne Frage wunderbare Bilder entstehen. Gibt es aber zahlenmäßige Vorhersagen? Nun, ein Forscher behauptet, in seinem Computer eine Population 2,5 gefunden zu haben, ohne römische Ziffern. Dies ist keineswegs eine Satire auf seine numerischen Ergebnisse, sondern ein Artikel in Nature. Dan Hooper, einer der jungen amerikanischen VerdunkelungsStars, brachte jüngst eine noch interessantere Idee auf: Weil man die Reionisation nicht so recht verstehe, könnte sie doch durch Dunkle Materie oder daraus geformte Sterne hervorgerufen worden sein.iii Dunkle Materie zu dunklen Sternen im dunklen Zeitalter, warum nicht? Georg Christoph Lichtenberg sagte einmal, in einem dunklen Zimmer eine schwarze Katze zu suchen, die gar nicht darin ist, das sei Metaphysik. Allmählich bewegen wir uns darauf zu.
Inzwischen wird auch behauptet, die Reionisation sei in der Mikrowellen-Hintergrundstrahlung zu beobachten. Ganz widerspruchsfrei sind diese Daten aber nicht.
154 vom
urknall zum durchknall
spekulieren mit dunklem kapital
Physiker, die diesen eigenartigen Konsequenzen des kosmologischen Standardmodells nicht ganz linientreu folgen, werden nicht selten mit Misstrauen bedacht. Insofern ist es nicht verwunderlich, dass der erste Hinweis auf eine fraktale Struktur der Galaxienverteilung so heftige Reaktionen hervorrief. Der Doktorvater von Francesco Sylos Labini, Luciano Pietronero, hatte damit auf einer Konferenz 1996 in Princeton die Fachwelt geschockt, aber seine Argumente äußerst sorgfältig begründet. Dennoch findet die Vorstellung kaum Anhänger, nicht einmal unter alternativen Kosmologen wie João Magueijo, der schreibt: „Wenn das stimmt, weinen Sie heiße Tränen“. So hielt ich Francesco auch einmal vor: „Du brauchst Dich doch nicht zu wundern, wenn alle wie verrückt auf Dich losgehen. Ein fraktales Universum widerspricht doch eklatant der Entwicklung nach dem ΛCDM-Modell und würde somit allen Mainstream-Kosmologen den Boden unter den Füßen wegziehen. Hast Du denn wenigstens einen Vorschlag, wie man das mit einem alternativen Modell erklären könnte?“ Francesco erwiderte: Hör zu, ich will mich hier nicht gegen das Standardmodell aufspielen, sondern mache ein paar statistische Rechnungen, so wie ich es gelernt habe. Von kosmologischen Modellen verstehe ich nichts. Und glaubst Du im Ernst, eine Alternative hätte eine Chance? Die Leute können mit ihren 95 Prozent dunklen Substanzen doch so willkürlich herumjonglieren, dass sie jeden beliebigen Datensatz einigermaßen beschreiben. Was soll ich dagegen anstinken? Irgendwie kann ich Francesco verstehen. Er fühlt sich wie ein anständiger Handwerksmeister, dessen Betrieb im globalen Wettbewerb unter die Räder von schuldenfinanzierten Übernahmegesellschaften gerät. Dunkle Materie und Dunkle Energie sind dabei das mächtige Fremdkapital, von Eine nette Beschreibung derartiger soziologischer Effekte, arXiv:0812.0537, gelang Martin Lopez-Corrodeira, einem erfrischend unkonventionellen Astronomen vom Instituto de Astrofísica de Canarias – übrigens eine beneidenswerte Adresse.
9 trübes
wasser
155
dem keineswegs klar ist, dass es jemals in Form eines experimentellen Nachweises zurückbezahlt wird. Und vor allem: Alle machen es so.
verbunden werden auch die schwachen mächtig (friedrich schiller)
Die Tragik dieser kollektiven Kosmologie auf Pump ist: Von Ausnahmen abgesehen besteht die Karawane der Wissenschaftler ja keineswegs aus dummen oder charakterlosen Leuten, vielmehr unterscheiden diese sich mit ihrer Tätigkeit wohltuend von den vielen albernen Beschäftigungen der heutigen Zivilisation. Zwar gibt es den Typ des coolen Ehrgeizlings, den man auf Konferenzen schon in den ersten fünf Minuten am Tonfall des Vortrags erkennt: Das Erwähnen des Problems nur als Bühne für die Lösung, die vielen bunten Animationen, die Vereinbarkeit der Resultate mit dem ΛCDM-Modell kommt wie das Amen in der Kirche, zwischendurch das selbstbewusste everything is clear – Gehabe, das nur dann stockt, wenn bei einer kritischen Publikumsfrage der Doktorvater beispringen muss. Aber die allermeisten versuchen auch nur, in bestem wissenschaftlichem Interesse ihr Projekt ordentlich zu machen. Kaum jemand wird für sich jedoch behaupten können, in seinen Überzeugungen völlig unbeeinflusst von der Umgebung zu sein; das hat nichts mit Unredlichkeit zu tun, sondern ist ein soziologisches Faktum. Käme es gut an, wenn ein Diplomand, der an einem Projekt „Numerische Simulation von Supersymmetrie-Quintessenz-Kopplungen und ihre Signaturen im Lyman-α-Wald“ arbeitet, laut darüber nachdenkt, ob Dunkle Materie überhaupt existiert? Statt dessen finden Sie haufenweise Veröffentlichungen, in denen beispielsweise eine Gruppe von 31 Autoren und weiteren 16, deren Namen nicht mehr auf die Titelseite passen, mit einer großen Simulation zum Gravitationslinseneffekt „beweist“, dass die Dunkle Materie Teilchennatur hat.iv Im Chor singt es sich leichter.
Das ist ein von mir erfundender Titel. Aber nicht ganz frei erfunden.
156 vom
urknall zum durchknall
glänzend verstandene frühzeit oder übermalter Rost?
Das momentane Modell bietet Tausenden Brot und Arbeit, und entsprechend gering ist so die Hoffnung, dass eine Reflexion einsetzt. Die Geschicktesten werden die neuesten Techniken einsetzen und mit Computersimulationen an den Theorien weiterbasteln, die man eigentlich nachprüfen sollte. Einstein sagte einmal: „Jeder intelligente Narr kann Dinge größer, komplexer und gewaltiger machen. Es gehört eine Menge Inspiration und Mut dazu, sich in die gegenteilige Richtung zu bewegen.“ Die Chancen dafür stehen nicht gut, denn die numerische Astrophysik boomt. Der Wissenschaftskritiker John Horgan überzeichnet zwar in seinem Buch The End of Science, wenn er sagt: „Computer können, wenn überhaupt, nur das Ende der empirischen Wissenschaft beschleunigen“. Aber ein Korn Wahrheit ist leider dran. Natürlich sind Computer heute ein unentbehrliches Hilfsmittel für Wissenschaft. Ich nutze selbst begeistert ein Computeralgebrasystem beispielsweise zur Analyse von Gravimeterdaten. Der große Haken an den Simulationen aber ist, dass wir nicht sicher sein können, ob die zu Grunde liegenden Gleichungen der Gravitation überhaupt stimmen. Und der Computer tut alles andere, als uns darauf hinzuweisen. Er macht eben, was man ihm sagt, was schon Pablo Picasso bemerkte: „Computer sind nutzlos. Sie können nur Antworten geben.“ Wahrscheinlich befördern also die schön animierten Resultate nur unsere Illusion, wir hätten etwas verstanden. Denn Hinweise, dass die Gravitation bei kleinen Beschleunigungen korrekturbedürftig ist, gibt es genug. Solange man dies nicht versteht, kann man noch so viel Rechenleistung einsetzen – es bleibt ein grandioser Pfusch.
Weiterführende Literatur P. Schneider: Extragalaktische Astronomie und Kosmologie, Springer (Heidelberg) 2006, Kap. 8.5+9.4. J. Horgan: The End of Science, Addison-Wesley 1996, Kap. 8.
9 trübes i ii iii iv
F. Wilczek, arXiv:0708.4361. M. J. Disney, arXiv:astro-ph/0009020. D. Hooper, arXiv:0904.1210. L. A. Moustakas et al., arXiv:0902.3219.
wasser
157
10
Aufstieg der Spekulationsblasen Expansion, Inflation, Illusion. Oder: Gab es die erste Sekunde überhaupt?
Lange Zeit konzentrierte sich die Kosmologie auf eine Frage: Durch die Gravitation wird die Hubble-Expansion abgebremst, aber genügt dies, sie zum Stillstand zu bringen? Diesem Modell eines „geschlossenen“ Universums stellte man ein „offenes“ gegenüber, das trotz Gravitationsanziehung wegen zu geringer Materiedichte sich der dauernden Expansion nicht zu widersetzen vermag. Den Grenzfall zwischen einem offenen und geschlossenen Universum nennt man „flach“, jedoch wäre dieser Zustand äußerst instabil, gleich einer Nadel, die auf der Spitze steht. So wie diese durch die erste winzige Störung zu einer Seite fällt, hätte das Universum sein Schicksal „offen“ oder „geschlossen“ auch recht bald festlegen müssen. Die dafür bedeutsame Messung der mittleren Dichte ist allerdings irritierend: Zwar spricht sie etwas für ein offenes Universum, aber die Entscheidung hätte eigentlich schon viel früher fallen sollen – es ist so als ob wir eine Nadel beobachteten, die sich gerade etwas zur Seite neigt, jedoch vorher 14 Milliarden Jahre auf der Spitze gestanden war. Nicht gerade wahrscheinlich, doch dauerte es bis 1969, bis ein tiefer Denker der Gravitation, Robert Dicke, erstmals auf dieses Rätsel hinwies. Heute nennt man es Flachheitsproblem, da der merkwürdige Grenzfall in der Allgemeinen Relativitätstheorie durch das Verschwinden einer raumzeitlichen Krümmung beschrieben wird. Gleichzeitig liefert die Theorie jedoch keine befriedigende Begründung, warum sich das Universum so lange in einem fein austarierten, jedoch instabilen Zustand befunden haben soll. A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_10, © Springer-Verlag Berlin Heidelberg 2010
159
160 vom
urknall zum durchknall
rauchzeichen aus allen richtungen – wer gab das kommando?
Die Rätsel des Universums im Großen sind aber damit noch nicht zu Ende. Das Weltall sieht im Prinzip in alle Richtungen betrachtet gleich aus, was man Isotropie nennt. Blicken wir nun in entgegengesetzten Richtungen auf jeweils eine der entferntesten Galaxien, so fällt auf, dass diese noch nichts voneinander wissen können: Das Licht hatte ja seit dem Urknall keine Zeit, diese doppelte Distanz zu überwinden, und keine physikalische Ursache in der einen Galaxie konnte sich in der anderen bisher auswirken. Besonders auffällig ist dies im frühen Stadium des kosmischen Mikrowellenhintergrunds: Dort können Gebiete noch keine Signale austauschen, die aus unserer Sicht nur 2 Winkelgrade auseinander liegen. Warum erscheint uns dann der Mikrowellenhintergrund als eine perfekt umgerührte heiße Suppe? Für einen Temperaturausgleich war keine Zeit, die weitere Umgebung war außerhalb des sichtbaren Horizonts. Wie konnte sich also das ganze Universum auf 2,73 Grad Kelvin – die heutige Beobachtung – verabreden? Diesen ebenfalls schwerwiegenden Widerspruch nennt man Horizontproblem. Obwohl die „Flachheit“ des Universums im übertragenen Sinne zu verstehen ist, wird sie oft mit der Krümmung einer Kugeloberfläche veranschaulicht. Bei einer großen Kugel wie der Erde nehmen wir in der Tat kaum mehr die Krümmung ihrer Oberfläche wahr, sie erscheint flach. Man hatte nun die Idee, das Flachheits- und Horizontproblem mit der Vorstellung zu lösen, das Universum sei analog zu einer Kugel in frühen Zeiten aufgebläht worden – dies nennt man Inflation. Die Flachheit und die merkwürdige Gleichförmigkeit des Mikrowellenhintergrundes wäre erklärlich, wenn diese Inflation etwa ab 10−43 Sekunden nach dem Urknall ein Aufblähen um etwa 30–50 Zehnerpotenzen bewirkt hätte – mit Überlichtgeschwindigkeit. Gegen eine solche wäre prinzipiell noch nichts einzuwenden, da Ausdehnungen mit Überlichtgeschwindigkeit von der Allgemeinen Relativitätstheorie durchaus erlaubt werden. Im In Wirklichkeit muss man die Laufzeit etwas subtiler in Entfernung umrechnen, wenn wir die Expansion berücksichtigen. Das tut aber im Prinzip hier nichts zur Sache.
10 aufstieg
der spekulationsblasen
161
frühen Universum führt die Theorie dennoch zu den genannten Widersprüchen. Nahe liegend wäre daher auch die Folgerung: Die Allgemeine Relativitätstheorie kann nicht ganz richtig sein. Da man dieses Erdbeben jedoch fürchtet, glaubt man lieber an ein Szenario mit jener Aufblähung: Aber noch nie hat eine Extrapolation über so viele Größenordnungen in der Physik funktioniert. Und es ist natürlich bequem, diese Inflation in eine Zeit zu legen, die der Beobachtung erst recht nicht zugänglich ist – kurz nach dem Urknall.
invasion der einheitlichen theorien – die kühnen erobern die astrophysik
Alan Guth, der Schöpfer der Inflationstheorie, kommt aus der Hochenergiephysik. Traditionell hatte man dort weniger Probleme mit gewagten Extrapolationen zu „Großen Vereinheitlichten Theorien“, und dort hat sich wohl die Physik endgültig von jener Bescheidenheit verabschiedet, die frühere Theoretiker auszeichnete. Guth schreibt:i „Diese sensationell kühnen Theorien versuchen, unser Wissen über die Teilchenphysik auf Energien von etwa 1014 Gigaelektronenvolt auszudehnen.“ Dies mag sensationell höher sein als die der Protonenmasse entsprechende Energie von einem Gigaelektronenvolt. Aber ist eine Maus, die hofft, mit ihrem Käse im Gepäck den Atlantik durchschwimmen zu können, wirklich kühn? Oder einfach nur blöd? Wie auch immer, zu mehreren entschließt man sich leichter. So schloss sich Guth, wie er berichtet, einer Gruppe von Teilchenphysikern an, die damit begannen, sich mit der Frühphase des Universums zu beschäftigen. „Das Ziel der kosmologischen Forschung“ sagt Guth, „besteht darin, mit Hilfe der Großen Vereinheitlichten Theorien unser Wissen zurück bis 10−35 Sekunden nach dem Urknall zu festigen“. Genau an der überprüfbaren Festigkeit des Wissens hapert es heute noch ein bisschen, aber an Kühnheit ist man so sicher noch über die größten Theorien hinausgewachsen. Hören wir nochmals Guth: „Die Physik war nun tatsächlich in der Lage, über diese bizarren Klangeffekte zu sprechen, sogar Milliardstel von Milliardstel von Milliardstel von Milliardstel Sekunden nach dem
162 vom
urknall zum durchknall
Moment des Urknalls – absolut fantastisch“. Natürlich kann man über alles sprechen. Am besten mit einem Psychologen. Für die Naturwissenschaft gilt dies aber mit kleinen Einschränkungen – dort wo man beobachten kann. Also hätte Guth vielleicht besser auf den Philosophen Ludwig Wittgenstein gehört: „Wovon man nicht sprechen kann, darüber muss man schweigen“.
kann die zahl null ein messwert sein?
Im Kapitel 28 seines über 1 000 Seiten fassenden Glanzwerkes über die Theoretische Physik zerpflückt Roger Penrose die Inflationstheorie mit einer ganzen Reihe von Argumenten. Zunächst ist die Inflation nur über die Einführung eines Skalarfeldes möglich, das nichts mit anderen Feldern in der Physik zu tun hat, und „dessen spezielle Eigenschaften nur entworfen wurden, um die Inflation funktionieren zu lassen“. Ein tieferes Problem ist aber eigentlich die gemessene Krümmung Null des „flachen“ Universums. Viele tun heute so, als sei dies ein Zahlenwert wie die 43 Bogensekunden der Merkur-Perihelverschiebung oder auch wie die Feinstrukturkonstante 137,03599 … Hier wird aber vergessen, dass in der Mathematik die Zahl Null einen ganz speziellen Fall anzeigt und wir sie deswegen nicht mit einem x-beliebigen Messwert vergleichen können. Wenn wir bei der Vermessung von geometrischen Körpern immer wieder das Volumen Null feststellen, müsste man sich ja auch allmählich fragen, ob uns nicht jemand Flächen statt echte dreidimensionale Objekte untergejubelt hat. Ebenso haben wir die verschwindende Krümmung des Universums erst dann richtig verstanden, wenn wir eine Theorie finden, die alle anderen Möglichkeiten schon in ihrer Konstruktion ausschließt. Dagegen ist die Inflation ein erst nachträglich aufgesetzter ad-hocMechanismus. Das Defizit unseres Verständnisses der Gravitation könnte doch daran liegen, dass die Theorie als solche überhaupt eine Krümmung erlaubt hatte. Stattdessen nimmt man an, das Universum sei aufgeblasen worden. Warum nicht mit einem Hammer plattgeklopft? Statt solcher Willkürlichkeit könnte man die naive Vorstellung eines vom Urknall unabhängigen Zeitablaufs hinterfragen, wie es etwa Barbour getan hat.
10 aufstieg
der spekulationsblasen
163
we are british
Die Homogenität des Mikrowellenhintergrundes lässt sich bei genauerem Hinsehen keineswegs leicht mit der Inflation erklären: „Was auch immer die anfängliche Struktur war, wir können nicht erwarten, dass sie einfach durch die Physik eines Inflationsprozesses ausgebügelt wurde“ wie Penrose schreibt.ii Die ganze Idee, dass die beobachtete einheitliche Struktur durch einen Wärmeaustausch erfolgt sei, hält er für ein fehlerhaftes Konzept. Wie sehr muss ihm als einem der führenden Köpfe der Thermodynamik die immer größere Popularität der Inflationstheorie auf die Nerven gehen! Dennoch entschuldigt er sich als britischer Gentleman zehn Zeilen lang, bevor er vorsichtig formuliert: „Ich denke es gibt gewichtige Argumente, die an der untersten Basis der inflationären Kosmologie zweifeln lassen, so dass ich diese dem Leser nicht vorenthalten sollte.“ Auf Deutsch: Er hält die ganze Idee für Mist. Martin Rees beschreibt in seinem Buch Our Universe and Others sogar, dass Penrose sich mündlich deutlicher ausdrückte: „Die Inflation ist eine Mode, mit der die Hochenergiephysik die Kosmologie heimgesucht hat. Auch Erdferkel finden ihren Nachwuchs schön.“ Martin Rees selbst, Fellow der Royal Society und königlich-britischer Hofastronom, drückt dagegen seine Vorbehalte ebenfalls gentleman-like aus: „Alle diese Ideen beleuchten die Verbindung zwischen dem Kosmos und der Mikrowelt – aber sie werden nicht bestätigt werden, bevor wir nicht ein richtiges Verständnis von Raum und Zeit erreichen, den Grundlagen der physikalischen Welt.“ Generell formulieren europäische Physiker die Thesen der Inflation oft im Konjunktiv, der auf dem Weg über den Atlantik meist herausgespült wird. Daher kommt es wohl, dass ein wesentlich frecherer Kritiker der Inflation, João Magueijo, schreibt: Im Laufe der Jahre nahm die Beliebtheit der Inflation bei Physikern unaufhaltsam zu. Schließlich wurde die Inflation selbst Teil der Mainstream-Physik, so dass sie allmählich zur einzig gesellschaftlich akzeptierten Art wurde, Kosmologie zu betreiben. Alle Versuche, sie zu umgehen, galten fortan als verschroben und abwegig. Aber nicht in den Ländern Ihrer Majestät, Königin Elisabeth II.
164 vom
urknall zum durchknall
glaubt denn keiner mehr an den weihnachtsmann? die inflation hilft
Bevor wir später noch auf Magueijo zu sprechen kommen, kann ich Ihnen einen der schönsten „Beweise“ für die Inflationstheorie nicht länger vorenthalten. Er war übrigens der Hauptgrund, weswegen die Teilchenphysiker an der Inflation Gefallen fanden. Wenn Sie einen Magneten, der bekanntlich Nord- und Südpol aufweist, auseinandersägen, erhalten Sie keineswegs isolierte Pole, sondern zwei kleinere Magnete mit je Nordund Südpol. Der Grund liegt darin, dass Magnetfelder durch bewegte Ladungen verursacht sind, so dass nach den Maxwell-Gleichungen der Elektrodynamik gar keine magnetischen Ladungen oder Monopole entstehen können. Rein formal betrachtet, wären jedoch die MaxwellGleichungen symmetrischer, wenn es analog zu den elektrischen Ladungen auch magnetische gäbe. Da viele Theorien der Physik tatsächlich weitgehende Symmetrien in sich tragen, suchte man seit geraumer Zeit nach jenen Monopolen – vielleicht existieren sie ja doch bei unzugänglich hohen Energien? Aber trotz intensiver Bemühung fand man keine. Eigentlich sollte man an dieser Stelle die Natur so nehmen wie sie ist und anerkennen, dass sie vielleicht zwingende Gründe hat, das elektrische und magnetische Feld nicht ganz in einen Topf zu werfen. Leider sind die Theoretiker in den seltensten Fällen gute Verlierer. Auch wenn die experimentelle Evidenz noch so gegen ihre Ideen spricht, suchen sie die Schuld dafür nicht bei der so schönen Theorie, sondern in der Natur, die sich nicht entsprechend benimmt. So kann man zum Beispiel annehmen, dass es die Monopole gibt, nur sei ihre Dichte durch die enorme Expansion während der Inflation im Universum so gering geworden, dass wir heute praktisch keine Chance haben, je einen zu beobachten. Und nun die Krönung der Argumentation: Die Tatsache, dass wir keine sehen, ist doch ein Beleg für die Gültigkeit der Inflationstheorie! Diejenigen unter Ihnen, denen Beweise durch Nichtsehen noch nicht verdächtig erscheinen, darf ich vielleicht darauf aufmerksam machen, dass man mit dem gleichen Recht behaupten könnte, das frühe Universum sei voll Weihnachtsmänner gewesen – nur durch den (un)glücklichen Umstand der Inflation sehen wir sie so selten. Sie
10 aufstieg
der spekulationsblasen
165
können jetzt den Kopf schütteln, aber diese Art von Allianzen finden wir in der Physik nicht selten. Werden Sie also Theoretiker und erfinden Sie irgendeinen Humbug von neuem Teilchen. Sollte kein Experiment sie aufspüren können, dann kommt Ihnen ganz sicher die Inflation zu Hilfe. Darin liegt wohl ein wesentlicher Grund, warum die Inflation unter Teilchenphysikern sich einer spektakulären Beliebtheit erfreute.
inflation höchstbietend – universitäten stehen schlange
In der Tat ist die Entwicklungsgeschichte der Inflationstheorie gleichzeitig eine aufschlussreiche Beschreibung der Arbeitsweise und der Strukturen in der Hochenergiephysik Ende der 1970er Jahre. Als Guth zum ersten Mal seine Idee Leonard Susskind erzählte, kommentierte dieser ironisch: „Weißt du, die erstaunlichste Tatsache ist die, dass wir für derartige Dinge auch noch bezahlt werden“. Es ist mir rätselhaft, warum Susskind in späteren Jahren seine damals so gesunde Intuition vermissen ließ. Tatsächlich änderte er seine Meinung wohl bald, denn Guth bekam als Reaktion auf seinen Vorschlag binnen kürzester Zeit Stellen bei allen renommierten amerikanischen Universitäten angeboten: bei der University of California Santa Barbara, in Harvard, Princeton, Stanford, Cornell, am Fermilab, an den Universitäten von Pennsylvania, Minnesota, Maryland und Columbia. Schließlich richtete man ihm am Massachusetts Institute of Technology eine außerordentliche Professur ein – einen Tag, nachdem er sich dort beworben hatte. Das alles für einen hochspekulativen Ansatz, der nie die Chance auf eine experimentelle Bestätigung haben konnte. Man kann daraus nur schließen, dass die Art und Weise, wie an den führenden Instituten fundamentale Physik betrieben wurde, schon damals krank war. In Guths Buch Die Geburt des Kosmos aus dem Nichts kann man nachlesen, mit welchen Rechnungen er sich wochenlang herumschlug – komplizierte Phasenübergänge mit Unterkühlungen, die immer neue Probleme aufwarfen. Es scheint, dass heute die Arbeit eines theoretischen Physikers umso höher geschätzt wird, je komplizierter und undurchdringlicher seine Gleichungen sind.
166 vom
urknall zum durchknall
Als Erfolg gilt dann, wenn die Berechnungen in sich konsistent sind – ob die Ergebnisse noch etwas mit der Realität zu tun haben, ist dabei völlig sekundär. Diese Methodik war unter den bekanntesten Physikern jener Zeit offensichtlich schon so verbreitet, dass man Guth kaum übel nehmen kann, sich auf seine Entdeckung etwas eingebildet zu haben – die Nobelpreisträger Sheldon Glashow und Murray Gell-Mann gratulierten ihm spontan zu seiner Problemlösung und Steven Weinberg, ebenfalls Träger des Preises, war angeblich sogar eifersüchtig, nicht selbst auf die Idee der Inflation gekommen zu sein. Vielleicht entstand diese plötzliche Liebe zur Kosmologie ja, weil ihnen damals ihre Modelle der Teilchenphysik schon zum Halse heraushingen.
moderne ketzer und ein posthumes denkverbot für einstein
In den 1990er Jahren hielt sich auf den Britischen Inseln die Einordnung der Inflation als amerikanischer Hype immerhin noch so weit, dass sich Magueijo dort mit einer Alternative zu ihr beschäftigen konnte – eine Theorie mit variabler Lichtgeschwindigkeit. Die Idee ist ganz interessant, wenn er auch versäumt hat, auf frühere Versuche in dieser Richtung hinzuweisen, wie von Robert Dicke und sogar von Einstein. So ist der Vorschlag keineswegs ausgereift, und fast mehr als Magueijos eigentliche Theorie muss man die Leistung bewundern, sie in der Zeitschrift Physical Review veröffentlicht zu haben – Sie können das getrost mit der Schwierigkeit vergleichen, ein Prostituierteninserat in einer katholischen Sonntagszeitung unterzubringen. Die Lichtgeschwindigkeit gilt übrigens im heutigen Einheitensystem nicht als messbar, sondern wird mit dem Wert 299 792 458 Meter pro Sekunde definiert, während die Einheiten Meter und Sekunde zusammen über Schwingungen eines Cäsiumatoms festgelegt sind. Wo sich diese Zeit- und Längenmaßstäbe im gleichen Umfang ändern, würden wir also eine Veränderung der Lichtgeschwindigkeit Meter pro Sekunde gar nicht wahrnehmen – Meter und Sekunde ändern sich einfach mit. Dennoch bleibt die
10 aufstieg
der spekulationsblasen
167
Idee für die meisten Theoretiker ein rotes Tuch. So behauptete George Ellis von der Universität Kapstadt in einer Reaktion auf Magueijos Vorschlag, derartige Versuche würden die Spezielle Relativitätstheorie untergraben.iii Was können wir aus solchen Denkverboten lernen? Dass Einstein, der sich 1911 ebenfalls an einer variablen Lichtgeschwindigkeit versuchte, wohl keine Ahnung von den grundlegenden Prinzipien seiner eigenen Theorie gehabt haben kann ….
theorie der inflation wird zur inflation der theorien
Die erste Version der von Guth vorgeschlagenen Theorie stellte sich übrigens bald als inkonsistent heraus, was unverzüglich mit einigen zusätzlichen Annahmen repariert wurde. Seitdem erleben wir ein orchideenartiges Anwachsen von chaotischen, ewigen und sonstigen Unterarten der Inflationstheorie. Überflüssig zu sagen, dass man sich dabei großzügig freier Parameter bedient, um den Daten halbwegs zu entsprechen. Oft wurde damit im Nachhinein eine Beobachtung erklärt, die mit der Theorie anfangs unvereinbar war, so dass der Kosmologe John Barrow ätzte:iv „Diese Elastizität hat den Glauben in die Vorhersagekraft doch erheblich verringert, und manche fragen sich, ob die inflationäre Kosmologie überhaupt noch Teil der Naturwissenschaft ist“. Wie manche Astrologen scheint sie aber vom schlechten Gedächtnis der Menschen zu leben. Guth sagte in seinem Buchartikel von 1989 vorher,v die räumlichen Frequenzen des Mikrowellenhintergrundes müssen auf allen Skalen gleich stark sein – inzwischen ein Widerspruch zu den Daten der WMAP-Sonde. Dagegen wird die mit diesen Ergebnissen ziemlich gut bestätigte Flachheit des Universums als Beweis für die Inflation ausgegeben – als ob das im Jahr 1969 erkannte Flachheitsproblem eine Neuigkeit gewesen wäre, unabhängig von der verqueren Logik, die Zahl Null als Messwert zu betrachten. Demnächst wird also sicher publiziert werden, welche Resultate der Planck-Mission die Inflation schon vorher gewusst hat.
168 vom
urknall zum durchknall
und gott sprach: 0,96
Genau besehen, sind die Vorhersagen der Inflation zu den Fluktuationen des kosmischen Mikrowellenhintergrundes nur eine raffinierte Art, gar nichts zu sagen: Wenn man nichts weiß, dann sagt man eben ein vollkommene Zufälligkeit voraus. Es ist so, als wenn jemand behauptete, das Fernsehprogramm einer außerirdischen Zivilisation empfangen zu haben und als Beweis das weiße Rauschen nach Sendeschluss präsentiert. Oft tritt dies in der interessanten Formulierung auf, die Daten seien vereinbar mit den Vorhersagen der Inflation. Wissenschaftstheoretisch sagt dies nur, dass die Inflation im Moment nicht widerlegbar ist und dass sie es wahrscheinlich nie sein wird. Natürlich ist der Empfang von weißem Rauschen vereinbar mit der Vorstellung eines extraterrestrischen TV-Kanals – aber eben auch vereinbar damit, dass wir uns sinnfreien Humbug einbilden. Wenn wir trotz der im Kapitel 8 angesprochen Kontaminationen der kosmischen Hintergrundstrahlung ihrer Präzision Glauben schenken, zeigt sie inzwischen, dass die räumlichen Fluktuationen nicht ganz gleich auf allen Wellenlängen verteilt sind – man beschreibt dies durch den sogenannten skalaren spektralen Index mit dem Wert 0,96 anstatt 1, was einer Gleichverteilung entspräche. Wie alle weichen Theoriekonstrukte besitzen die verschiedenen Arten der Inflation natürlich freie Parameter, die sich mit einer undurchsichtigen Rechenorgie so hinfummeln lassen, dass der „vorhergesagte“ spektrale Index mit dem momentanen Messwert übereinstimmt. Oder folgt etwa aus der Vorstellung eines frühzeitig überlichtschnell expandierenden Universums allein durch zwingende Logik die Zahl 0,96? Für wie dumm verkauft man uns eigentlich? Solche „Belege“ gehen auch immer elegant über die Tatsache hinweg, dass die Daten des Mikrowellenhintergrundes 380 000 Jahre nach dem Urknall entstanden sind. Der für die Inflation relevante Zeitraum Wenn Ihnen das positiv vorkommt, Vorsicht! Denn der meiste Unsinn ist nicht widerlegbar. Näheres dazu im Kapitel 15.
10 aufstieg
der spekulationsblasen
169
von 10−43 bis 10−35 Sekunden ist davon 50 Zehnerpotenzen entfernt. Die Vorstellung, daraus jemals eine belastbare quantitative Aussage innerhalb vernünftiger Fehlergrenzen ableiten zu können, ist vollkommen albern. Darüberhinaus ist wahrscheinlich unsere Vorstellung eines herkömmlichen Zeitablaufs in den ersten Momenten falsch. Wir verstehen das Wesen der Zeit noch viel zu wenig. Langsam aber sicher wird jedoch dieser exotische Anbau der Inflation Teil des Standardmodells der Kosmologie (Abb. 10). Wie sagte Bertrand Russell so schön? „Die Tatsache, dass eine Meinung weithin geteilt wird, ist noch lange kein Beweis dafür, dass sie nicht absolut absurd ist.“ Die Inflation greift also unerbittlich um sich, und dass auch vernünftige Leute wie Lee Smolin sie inzwischen als „experimentell gut gesichert“ bezeichnen, lässt nur den Vergleich mit einer schleichend sich ausbreitenden Krankheit zu, eine Art kollektiver Alzheimer der theoretischen Kosmologie. Die Gesunden wie Penrose gehören zu einer aussterbenden Art.
Abbildung 10 : Eine Darstellung der Evolution des Universums, wie man sie häufig findet. Einer Vortragender bei der Konferenz St. Petersburg 2008 verglich die Graphik mit einem umgestürzten Glas Bier. Wie man leicht erkennt, stellt der kosmische Mikrowellenhintergrund den Boden dar. Aus dem Publikum kam dann der Einwurf, bei der Inflationstheorie handle es sich also um die Wissenschaft von mehr als einem Glas Bier.
170 vom
urknall zum durchknall
Weiterführende Literatur J. Cornell (Hrsg.): Die Neue Kosmologie, Birkhäuser 1991, Kap. 5. A. Guth: Die Geburt des Kosmos aus dem Nichts, WBG Darmstadt 1999. R. Penrose: The Road to Reality, Vintage 2004, Kap. 27+28. J. Horgan: The End of Science, Addison-Wesley 1996, Kap. 4. J. Magueijo: Schneller als das Licht, Goldmann 2005. i ii iii iv v
Cornell, Kap. 5 (A. Guth), S. 141, 147. Penrose, Kap. 28.5. G. F. R. Ellis, arXiv:astro-ph/0703751. J. D. Barrow et al., arXiv:gr-qc/9705048. Cornell, Kap. 5 (A. Guth), S. 182.
11
Am Treffpunkt des Unwissens Big Bang, schwarze Löcher und Quantengravitation. Oder: Ökologische Nischen für neue Theorien
Es ist eine Ironie des Schicksals, dass der Begriff Big Bang von dem Astrophysiker Fred Hoyle geprägt wurde, der zeitlebens einer der schärfsten Kritiker der Vorstellung war, das Universum habe mit einem Urknall begonnen. Hoyle wollte in einer Radiosendung ein in seinen Augen zu simples Modell verspotten – und doch hat die Urknalltheorie seine eigene Vorstellung eines stationären Universums (steady state) weit überlebt. Was bedeutet eigentlich Urknall? Trotz aller ungelösten Rätsel der Strukturbildung sehen wir unzweifelhaft eine Ausdehnung des Universums, und der kosmische Mikrowellenhintergrund lässt kaum einen anderen Schluss zu, als dass das Universum früher kleiner, heißer, dichter und homogener war. All diese Beobachtungen werden von dem Modell des Urknalls bedient, aber es ist auch klar, dass wir umso weniger wissen, je weiter wir in der Zeit rückwärts zu heißeren und dichteren Zuständen gehen. Spätestens bei Temperaturen über dem Sterninneren und bei höherer Dichte als der der Atomkerne ist die Grenze der seriösen Wissenschaft erreicht – es gibt dazu keine Beobachtung. Die Inflationstheorie hat diese Grenze noch um viele Zehnerpotenzen überschritten und bis zur Plancklänge von ca. 10−35 Meter zurückextrapoliert, die im übrigen speziell mit dem frühen Universum nicht das geringste zu tun hat. Sie folgt aus der relativ banalen Überlegung, dass die Naturkonstanten G, h und c nur auf eine Weise zu einer Länge kombiniert werden können: eben zur Plancklänge Gh/2πc3 . Diese stellt ganz allgemein eine Spielwiese
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_11, © Springer-Verlag Berlin Heidelberg 2010
171
172 vom
urknall zum durchknall
dar, auf der man perfekt vor dem Experiment geschützt ist. Sie eignet sich insofern hervorragend für Sonderforschungsbereiche der DFG wie zum Beispiel „Teilchen, Strings und das frühe Universum“, oder man kann dort, wie ein junger deutscher Theoretiker, von „raumzeitlichen Atomen“ faseln.i Dabei ist völlig unklar – zum Beispiel Sheldon Glashow betont diesii – ob die Plancklänge überhaupt eine fundamentale Bedeutung hat. Sie ist lediglich eine Grenze, jenseits derer wir garantiert nichts mehr wissen. Ein Gütesiegel der Theoretischen Physik.
die kürzeste geschichte der quantengravitation
Da die Plancklänge die Gravitationskonstante G und das Plancksche Wirkungsquantum h enthält, gilt sie als die Größenordnung, auf der „Quanteneffekte der Gravitation“ wichtig werden könnten. Lieber Leser, das war es schon. Es gibt keine Theorie der Quantengravitation, geschweige denn einen beobachtbaren Effekt dazu. Eine etwas ausführ lichere Darstellung finden Sie in Hawkings Buch Die kürzeste Geschichte der Zeit. Das Kapitel über Quantengravitation umfasst dort 21 Seiten, wovon knapp 20 Seiten der Wiederholung der Gravitation und der Quantentheorie gewidmet sind. Andrzej Staruszkiewicz, Herausgeber einer renommierten Physikzeitschrift, bemerktiii zu diesem Thema: Wenn so viele Leute über Quantengravitation publizieren, ist man versucht anzunehmen, dass sie wissen, worüber sie schreiben. Dennoch wird jeder übereinstimmen, dass es kein einziges Phänomen gibt, dessen Erklärung eine „Quantengravitation“ erfordern würde. Alle theoretischen Kochrezepte zur Vereinigung von Gravitation und Quantenmechanik sind bisher gescheitert, so etwa der ADM-Formalismus, eine Umformulierung der Einsteinschen Gleichungen. Sie hat bisher noch nichts gebracht, gilt aber gerade in den USA als Bibel, die den Weg weist. Ein großer Modeschöpfer ist auch Abhay Ashtekar, ein tausendfach zitierter Physiker, der regelmäßig Zusammenfassungen über den
11 am
treffpunkt des unwissens 173
Stand der von ihm ins Leben gerufenen Loop Quantum Gravity schreibt, Resultat:iv Sie sei „interesting“. Das ist sie schon lange. Natürlich sind ein paar theoretische Probleme geistreich durchdrungen worden, höchstwahrscheinlich sind diese aber für das Verständnis der Gravitation völlig irrelevant. Zwar kommt aus diesen Reihen berechtigte Kritik an der Stringtheorie, aber nach zwei Jahrzehnten ohne quantitative Ergebnisse ist der Ansatz eigentlich ebenso „ausgelutscht“. Erfolg sieht anders aus. Mancher klopft mit dem Hammer an der Wand herum und glaubt, er treffe jedesmal den Nagel auf den Kopf. Johann Wolfgang von Goethe zementiert die gravitationskonstante den misserfolg? Probleme kann man niemals mit derselben Methode lösen, durch die sie entstanden sind. Albert Einstein
Es scheint, dass die Theoretische Physik bei der Quantengravitation ein paar Denkverbotsschilder aufgestellt hat, die den Weg von Anfang an versperren, etwa der Glaube an eine gottgegebene unabänderliche Gravitationskonstante G. Nur deswegen quälen sich alle theoretischen Versuche durch das Nadelöhr der Plancklänge und wirken dabei wie das kräftige Anrennen gegen eine Tür, auf der „Ziehen“ steht. Vielleicht beginnen die Quanteneffekte der Gravitation ja nicht bei den „absurd kleinen“ (Roger Penrose) 10−35 Metern, sondern schon bei der Größe der Atomkerne von 10−15 Metern. Ich höre den Aufschrei der Theoretiker, aber es ist keineswegs so, dass wir diesen Bereich schon verstanden hätten. Denn die Kernphysik liefert zwar Hunderte von Messwerten, aber keinen davon kann man wirklich berechnen. Während die Bohrsche Quantentheorie für die Atomhülle Energiestufen liefert, die sich wunderbar aus Naturkonstanten ergeben, hat die Physik der Kerne Vergleichbares bisher nicht erreicht. Dies soll kein Vorwurf sein, aber man muss nüchtern feststellen, dass man hier noch keine Theorie kennt, die zahlenmäßige Vorhersagen aus fundamentalen Prinzipien heraus erlaubt. Solange diese
174 vom
urknall zum durchknall
nicht existiert, können wir auch nicht ausschließen, dass die Gravitation für die Kernphysik noch an Bedeutung gewinnt. experten des wissens und experten des publizierens
Die Tatsache, dass keine Theorie der Quantengravitation existiert, bedeutet natürlich keineswegs, dass es nicht zahlreiche Experten der Quantengravitation gibt. Für die, die solchen schon begegnet sind, oder sich gar angesprochen fühlen, sei dies hier präzisiert. Der Wissenschaftshistoriker Federico di Trocchio unterscheidet Experten erster und zweiter Klasse. Erstere sind Fachleute, die man um Rat fragt, weil sie sich bei konkreten Problemen auskennen: Etwa Professoren für Geodäsie, Wasserbau – wie übrigens Einsteins Sohn Hans Albert – oder aber auch Quantenoptik. Demgegenüber gibt es nach di Trocchio „Experten zweiter Klasse“, deren Wissen sofort überflüssig würde, sobald das Rätsel verstanden ist. Sie leben umgekehrt sogar davon, dass die ungeklärte Situation weiterbesteht und erfolglos bearbeitet wird. Gewöhnlich äußert sich dies in vielen Publikationen, was als Markenzeichen für „aktive“ Forschungsgebiete gilt. So finden wir dort Experten der theoretischen Beschreibung der Dunklen Materie und Dunklen Energie, der Quantenkosmologie und natürlich Experten der Großen Vereinheitlichten T heorie, der T heory of Everything oder auch „Weltformel“. Der betreffende Wikipedia-Eintrag trägt übrigens die rührende Aufforderung: This article needs the revision of an expert. Ich fürchte, darauf können wir lange warten. Blicken wir also lieber kurz zurück zu einem echten Experten der Quantentheorie. auf dem felsen in helgoland – die quantenmechanik wird erwachsen
Im Frühjahr 1925 wurde Werner Heisenberg von einem heftigen Heuschnupfen gequält. Er floh auf die Insel Helgoland, deren Pollenfreiheit ihm Linderung verschaffen sollte – seine Nase war derart verschwollen,
11 am
treffpunkt des unwissens 175
dass ihn die Hauswirtin einer studentischen Schlägerei verdächtigte. In ungestörter Umgebung grübelte Heisenberg über Probleme der Atomphysik nach, die damals gereift waren, und schließlich gelang ihm eine mathematische Formulierung, mit der er die rätselhafte Wellen- und Teilchennatur der Materie beschrieb. Das Bohrsche Atommodell, mit dem man Hunderte von Spektrallinien berechnet hatte, war damit erklärt, Balmers Formel aus dem Jahr 1885 fand ihren krönenden Abschluss. Sogar der stets skeptische Einstein erkannte diesen spektakulären Erfolg als „großes Quantenei“ an. In den Formeln spielte das Plancksche Wirkungsquantum eine besondere Rolle, dem Heisenberg zwei Jahre später eine noch tiefere Bedeutung entlockte, als dies Einstein mit der Energieformel für Lichtquanten E = hf gelungen war. Das Quantum h baut in der Mikrowelt eine Schranke unserer Erkenntnis auf: Ist der Ort eines Teilchens genau bekannt, so wird dadurch der Impuls, also das Produkt aus Masse und Geschwindigkeit, nicht mehr präzise bestimmbar. Bildlich gesprochen, wehrt sich jedes Elementarteilchen gegen ein Festhalten mit einer Zitterbewegung, die seiner Wellennatur entspringt. Heisenbergs Entdeckung betrifft alle Größen, deren Produkt die Einheit einer Wirkung kg m2/s hat wie h, zum Beispiel auch Energie und Zeit – übrigens ein Begriffspaar, das auch im kosmologischen Zusammenhang Rätsel aufgibt, wie im Kapitel 4 erwähnt. So kann man nach der Quantenmechanik für einen kurzen Moment aus dem Nichts die Energie E entleihen, wenn sie nur nach der Zeit t = h/E zurückbezahlt wird. Diese Heisenbergsch Unschärferelation ist daher eines der wichtigsten Gesetze der Quantentheorie, ja vielleicht der ganzen Physik.
Für diesen photoelektrischen Effekt erhielt Einstein den Nobelpreis für 1921, weil der Gutachter der Schwedischen Akademie die eigentlich bedeutendere Allgemeine Relativitätstheorie nicht verstand.
176 vom
urknall zum durchknall
hawking-strahlung: wie man mit quanten schwarze löcher überlistet
Als Stephen Hawking in den 1970er Jahren über schwarze Löcher nachdachte, fiel ihm die Heisenbergsch Unschärferelation ein. Demnach können sogar Teilchenpaare aus Energiefluktuationen des Vakuums entstehen, wenn man sie nach Einstein mit E = mc2 in eine Masse umrechnet. Normalerweise würden diese Teilchen sofort wieder zusammenfinden und somit unauffällig bleiben, im sehr starken Gravitationsfeld nahe eines schwarzen Loches hingegen ist ein anderes Szenario denkbar: Ein Partner stürzt hinein, während dem anderen ein Entkommen gelingt. Da aber Teilchen nicht auf Dauer aus dem Nichts entstehen können, muss die unbezahlte Energierechnung vom schwarzen Loch übernommen werden. Netto können also durch diesen Quanteneffekt aus dem schwarzen Loch Teilchen, sogar Photonen entkommen, was nach der klassischen Gravitationstheorie unmöglich wäre. So hübsch dieser Gedanke ist, so weit ist er doch von jeglicher Beobachtung entfernt. Denn ein schwarzes Loch mit Sonnenmasse würde so erst nach 1066 Jahren zerstrahlen. Immerhin hat Hawking den Teilchenphysikern damit die Angst vor schwarzen Mini-Löchern genommen, die sich nach seiner Formel sehr schnell auflösen müssten – allerdings gehören auch sie zu den vielen exotischen Theoriekonstrukten, die noch niemand beobachtet hat. Wie üblich vermutet man sie daher am Urknall.
leute, die fische fangen, und solche, die nur das wasser trüben
Auch ein noch so gutes Naturgesetz wie die Unschärferelation lässt sich durch Anwendung auf der Plancklänge pervertieren. Ein auf 10−35 Meter eingesperrtes Elementarteilchen hätte die Energie eines Formel-1 Autos. Dies ist doch etwas entfernt vom Experiment und auch ganz gut so. Daher wird das Konzept der Planckskala gerne auf den Urknall angewandt. Statt mit einem einzelnen, ist dies mit allen Teilchen des Universums zwar noch ein gutes Stück absurder, dafür aber ungefährlich. Am Max-
11 am
treffpunkt des unwissens 177
Planck-Institut für Physik entwickelte eine Arbeitsgruppe ein Modell „Brücke zum Urknall“, das, wie wir hören, das große Rätsel der Vereinigung der Gravitation mit der Stringtheorie löste. Auf der Webseite findet sich dazu die bescheidene Mitteilung: „Max-Planck-Forscher erklären mit der Stringtheorie, wie sich das All kurz nach seiner Geburt entwickelt hat“. Das Universum sei wegen seiner anfangs geringen Größe durch Quantenfluktuationen verschrumpelt gewesen, die sich im Laufe der Zeit dann geglättet hätten. Wow! Eine glatte Wiederentdeckung der Heisenbergschen Unschärferelation. Leider wurde der Nobelpreis dafür schon 1932 vergeben, aber trotzdem macht man den peinlichen Unsinn zur Pressemitteilung. Aber wen wundert das, wenn Physical Review Letters so eine Science-Fiction-Geschichte druckt?v
big bang auf den punkt gebracht – die mathematiker auch noch
Der Weg zum Urknall ist lang und beschwerlich. Vom Mikrowellenhintergrund weiter zurück zur Zeit der Bildung der Atomkerne, noch früher eine verwirrende Vielfalt von Effekten, bei denen unser Wissen zu immer undeutlicheren Spekulationen verschwimmt wie in der erwähnten Quantenschrumpel-Ära. Dieses trübe Wasser durchtaucht der Mathe‑ matiker und lebt mit seinem Interesse bei t = 0 wieder auf: Die Dichte wird unendlich, die Zeit nicht mehr definierbar, aber wo jede Physik ihren Sinn verliert, weidet er sich an den Problemen der Urknall-Singularität, dem mathematischen Jargon für unendliche Werte. Angeblich sei diese Singularität von der Allgemeine Relativitätstheorie vorhergesagt. Kein vernünftiger Mensch hat je vermutet, sie könne dort noch gültig sein, aber es lassen sich eine Menge anspruchsvoller Rechnungen samt Beweisen durchführen. Für die Freude an solchen Tätigkeiten ernten die Mathematiker von den Physikern gutmütigen Spott, während man diesen umgekehrt ihre Schlampigkeit in formalen Dingen vorwirft, was sich im Einzelfall schon mal auswirken kann: So hörte ich neulich einen Mathematiker sich ereifern, er würde an eine Differentialgleichung „nie einen Physiker mit seinen schmutzigen Fingern hinlassen“, wenn von
178 vom
urknall zum durchknall
der Lösung wirklich Leben und Tod abhinge. Dieses freundschaftliche Spannungsverhältnis wird von vielen Witzen auf Kosten des jeweils anderen illustriert, wobei ich natürlich klar parteiisch bin: Ein im Nebel verirrter Ballonfahrer ruft: „Wo bin ich?“ und erhält nach kurzer Zeit als Antwort: „Sie befinden sich in der Gondel eines Heißluftballons!“ An dieser Aussage erkennt man sofort den Mathematiker: Sie war durchdacht, korrekt und für die Lösung des Problems vollkommen nutzlos. So muss man es als einen Glücksfall betrachten, unter welchen Umständen Werner Heisenberg einst dem berühmten Mathematiker Ferdinand Lindemann einen Besuch abstattete. Das Gespräch verlief von Anfang an mit Hürden und Missverständnissen, und wurde schließlich durch das immer lautere Gekläffe von Lindemanns Schoßhündchen einseitig beendet. Daraufhin studierte Heisenberg bei Arnold Sommerfeld Theoretische Physik.
schwarze löcher – oasen der rechnungen
Außer der Singularität beim Urknall betrachten Mathematiker sehr gerne auch Singularitäten in schwarzen Löchern und zerbrechen sich den Kopf darüber. So praktisch der Schwarzschild-Radius rs = 2GM/c2 einer Masse ist, um allgemein-relativistische Effekte zu berechnen, so fruchtlos ist es, die Physik am Schwarzschild-Radius oder gar innerhalb des schwarzen Loches zu diskutieren. Stimmt die Allgemeine Relativitätstheorie, dann können wir vom Inneren nichts erfahren, basta. Aber schwarze Löcher ziehen seit jeher ein Interesse auf sich, das im Verhältnis zu den Beobachtungsdaten etwas übertrieben ist. Zwar lässt sich eine Vielzahl von Objekten plausibel damit erklären, aber quantitativ wurde noch nie ein Schwarzschild-Radius bestimmt, mehr noch: Es wurden noch keine schwarzen Löcher mit einer nennenswert höheren
Auf ihn geht die Feinstrukturkonstante zurück, darüber hinaus war er auch ein begnadeter Pädagoge. Es ist sicher besser, dass er im Arnold Sommerfeld Center für Theoretische Physik das Geschwafel von Vorträgen wie „Origin and fate of the universe“ und „Cosmic landscape“ nicht mehr hören musste.
11 am
treffpunkt des unwissens 179
Dichte als der der Atomkerne nachgewiesen.vi Ich sehe die Theoretiker wieder die Stirn runzeln, aber die Beobachtungen hören nun mal dort auf. Zudem zeigte Subrahmanyan Chandrasekhar – er erhielt 1983 den Nobelpreis – mit seiner Theorie der Sternentwicklung, dass kleine Sterne keine schwarzen Löcher bilden. Sie enden oft als Neutronensterne mit Kerndichte. Aber zurück zu den Experimenten: Man ist technisch sehr weit davon entfernt, die Bedingungen im Inneren eines Sternes kontrolliert zu realisieren, sonst wäre ja die Kernfusion schon gelungen. Insofern klingt es natürlich wirklich gut, wenn wir hören, bei dem derzeit leistungsfähigsten Experiment der Teilchenphysik werde der Urknall selbst simuliert – am Large Hadron Collider (LHC) des Europäischen Kernforschungszentrums CERN.
der empfindliche riese mit startschwierigkeiten
Im Internet können Sie Bilder vom ATLAS-Detektor bewundern, ein Koloss voll Technik, neben dem sich die Gestalten der Ingenieure wie Winzlinge ausnehmen. Und doch ist dies nur eines der Herzstücke eines 27 Kilometer langen Tunnels, in dem Protonen nun unerreicht nahe an die Lichtgeschwindigkeit herangebracht werden. Ein wohl nicht mehr zu übertreffender Meilenstein der Beschleunigertechnik mit drei Milliarden Euro Baukosten und dem Energieverbrauch einer halben Großstadt. Im Verhältnis zu den Schwierigkeiten und dem Aufwand, der getrieben wurde, muss man übrigens darüber keineswegs die Nase rümpfen – Allem Anschein nach haben die Wissenschaftler, die unter anderem die Renovierung ihrer Arbeitsgebäude einsparten, eine Menge an Kreativität aufgebracht, um die Kosten nicht explodieren zu lassen, wie es sonst auf jeder kommunalen Baustelle in Europa passiert. Dass solche Großprojekte vom Pech verfolgt sein können, kann man dem Aufbau auch nicht ankreiden. Ein schlampig gelötetes Es scheint aber, dass in Zukunft eine ganz andere, viel kleinere Generation von Beschleunigern dominieren wird – leistungsfähige Laser, die Teilchen durch ihre enormen elektrischen Felder beschleunigen, aber im Prinzip in einem Labor Platz finden.
180 vom
urknall zum durchknall
Kabel in einem der supraleitenden Magneten sorgte im September 2008 für eine einjährige Betriebsunterbrechung und einen immensen Folgeschaden. Solche menschlichen Einflüsse scheinen leider unvermeidlich, man erinnere sich zum Beispiel an das Hubble-Teleskop, dessen Spiegel durch eine Nachlässigkeit falsch geschliffen wurde oder – tragischer – an den Absturz der Challenger-Raumfähre durch einen nicht kälteresistenten Gummiring, was in der Untersuchungskommission übrigens durch Richard Feynman aufgedeckt wurde. So kann man nur hoffen, dass das Experiment zügig in Betrieb geht, ohne dass erneut im Detail geschlampt wird. Durch seine technische Einzigartigkeit ist der Koloss leider empfindlich, jede Reparatur ist mit monatelangen Phasen des Auftauens und Wiederabkühlens auf 4 Grad über dem absoluten Nullpunkt verbunden.
experiment gewaltig, theorie bescheiden Vorhersagen sind schwierig – besonders für die Zukunft. Niels Bohr
Die am LHC anfallende Datenmenge sprengt jede Vorstellungskraft. Da man nicht pro Sekunde Hunderte von DVDs brennen, geschweige denn analysieren kann, wird durch sogenannte Trigger nur ein winziger Teil der Daten herausgefiltert, den man für interessant hält. Prinzi‑ piell ist dies problematisch, denn oft wurden die Entdeckungen gerade dort gemacht, wo man sie nicht erwartet hatte. Andererseits versichern die Experimentatoren, dass man auf ein breites Spektrum möglicher Ergebnisse gefasst sei. Gegenüber der experimentellen Meisterleistung nehmen sich die Prognosen der Theoretiker extrem bescheiden aus. Der noch nie geglückte Schwangerschaftstest des Standardmodells, die Entdeckung des Higgs-Teilchens, wird immerhin in einem bestimmten Energieintervall von 115–190 Gigaelektronenvolt vorhergesagt, obwohl niemand dafür die Hand ins Feuer legen möchte. Die „supersymmetrischen“ Theorien hoffen auf die Entdeckung ihres leichtesten Teilchens, sind aber vorsichtig genug, keine Energie
11 am
treffpunkt des unwissens 181
anzugeben. Im schlimmsten Fall, wenn man nichts sieht, hat man eben nachgewiesen, dass die so schöne Theorie bei höheren Energien weiterlebt. Die Stringtheorie sagt wie üblich gar nichts vorher. Das heißt, sie beobachtet den Ausgang der Experimente, um vielleicht auf einer Überraschung Trittbrett zu fahren: Man habe es schon lange gewusst. Eine recht abstruse Vorhersage ist bekannt geworden, weil ein besorgter Bürger aus Hawaii mit den originellen Missbrauchsmöglichkeiten der amerikanischen Justiz den Betrieb des LHC mit dem Argument aufhalten wollte, er fürchte sich vor der Produktion schwarzer Mini-Löcher. Sollte es sie wirklich geben, dann würden sie wohl sehr bald durch Hawking-Strahlung zerfallen, ohne irgendeinen Schaden anzurichten. Physiker würden jedenfalls eher glauben, dass der Heilige Nikolaus den Schweizer Bankensumpf austrocknet, als dass der Genfer See demnächst von einem schwarzen Loch aus dem CERN verschluckt wird. Insgesamt herrscht unter den Experimentatoren eine positive Stimmung, manche hoffen zumindest auf die Widerlegung von ein paar der zahlreichen Theorien. So sagte ein mir bekannter Professor der Kernphysik: „Die Theoretiker haben sich jetzt 15 Jahre lang ihre Hirngespinste von der Seele geschrieben, jetzt kommt Butter auf die Brote!“ Ich bin vom Kalorienreichtum der Ergebnisse noch nicht ganz überzeugt. Dazu sind die Vorhersagen viel zu schwammig, mittlerweile kann man von Lisa Randall bis zu Stephen Hawking wie das Amen in der Kirche hören, der LHC werde dies entscheiden und jenes entdecken. Was denn? Bisher einigt man sich lediglich auf den Nenner: Bestimmt etwas sehr Spannendes! Aber wer will sich denn durch eine konkrete Vorhersage die Freude verderben? Theoretisch hat sich in den letzten Jahrzehnten so wenig Substanzielles ereignet, dass wir uns über den Wert der wissenschaftlichen Ausbeute keine Illusionen machen sollten. Denn der Ruf nach immer größeren Experimenten entspricht in der Politik dem Vertagen in Ausschüsse. So werden alle mit den Ergebnissen so zufrieden sein, wie politische Entscheidungsträger es gewöhnlich nach Urteilen des Bundesverfassungsgerichts sind: Man fühlt sich bestätigt. Und sollte es doch ganz anders kommen, kann man immer noch wie Konrad Adenauer sagen: „Was interessiert mich mein Geschwätz von gestern!“
182 vom
urknall zum durchknall
durch den tunnel zur parallelwelt?
Bis zu den ersten Resultaten dürfen wir uns daher noch die Lobpreisungen der neuen Ära anhören. Rolf Landua, Chef der CERN-Öffentlichkeitsarbeit, sprach vom Universum, das sich im Volumen eines Stecknadelkopfs befinde. Ungeachtet dessen, dass dies völliger Blödsinn ist, hat es jedenfalls nichts mit dem CERN zu tun. Vielleicht ist es daher klüger, nicht so exponierte Köpfe mit Vorhersagen ins Rennen zu schicken, so wie dies im Werbevideo „Urknall im Tunnel“ des LHC geschieht. Doktorandinnen mit gewinnendem Lächeln, aber noch ohne Publikation, sprechen dort von ihren Visionen. Ganz besonders gefallen hat mir eine Stelle, in der suggeriert wird, man könne ein Parallelwelten-Szenario irgendeiner Inflationstheorie testen: „There might be a world where Napoleon won the battle of Waterloo … and another one in which America is still British territory …“ Ja, schön wäre es! Möglicherweise hätte dann dieser in der Neuen Welt erfundene Quatsch gar nie die Physik infiltriert. Was man auch immer gegen das CERN sagen mag, wenigstens handelt es sich um ein Experiment, und die behauptete Simulation des Urknalls kann man mit gutem Willen noch als legitime Waschmittelwerbung in unserer reizüberfluteten Zeit entschuldigen. Immerhin bewegt man sich noch real zu höheren Energien. Ein schalkhafter Professor der Elektrodynamik, den ich im zweiten Semester hörte, drückte das so aus: „Da können wir der Frage, was die Welt im Innersten zusammenhält, wieder ein Stückchen näher kommen! Von 10−16 auf 10−17 Meter …“. Grotesk wird es aber dann, wenn der Fortschritt ausschließlich mental erfolgt. So ließ der Spiegel einem jungen deutschen Theoretiker folgende Würdigung angedeihen: „Ihm ist es mit seinen Gleichungen gelungen, näher als jemals zuvor an den Urknall heranzukommen …“. Mich erinnert das an die Reisen mit dem Finger auf der Weltkarte, die mein dreijähriger Sohn unternimmt: „Weißt Du Papi, dass ich bei den Känguluhs war?“ Aber wie schafft man im Erwachsenenalter, an den Urknall heranzukommen? Ich will Ihnen die magischen Gleichungen verraten: Beginnen Sie mit t = 5, t = 4, t = 3, und machen Sie so weiter!
11 am
treffpunkt des unwissens 183
jenseits der totalen ignoranz – die neuen einsteins
Ungeachtet dieser mathematischen Fortschritte sollten Sie sich im klaren sein, beim Urknall das totale Unwissen anzutreffen. Welche Voraussetzungen muss man dann also mitbringen, um die Zeit vor dem Urknall zu erforschen? Einen negativen Intelligenzquotienten? Oder zumindest einen rein imaginären? Stephen Hawking, sonst den Spekulationen nicht abgeneigt, schreibt, solche über die Zeit vor dem Urknall hätten in einem wissenschaftlichen Modell unseres Universums nichts zu suchen. Aber vielleicht kannte er ja noch nicht das Buch Zurück vor den Urknall, das uns auf dem Umschlag mitteilt, sein Autor sei „Einsteins Nachfolger“. John Baez, wie der neue Einstein übrigens Vertreter der Loop Quantum Gravity, führt im Internet eine crackpot index genannte Punkteliste, in der er Maßzahlen für die Wirrköpfigkeit von Möchtegern-Forschern aufstellt. Dort finden wir: Eine logisch inkonsistente Behauptung: 3 Punkte. Der Gebrauch von Science-FictionGeschichten und Mythen, so als ob es Fakten wären: 20 Punkte. Die Behauptung, Einsteins Werk zu vollenden: 30 Punkte. In den Theorien kurz nach, beim und vor dem Urknall kommt einiges zusammen.
Weiterführende Literatur W. Heisenberg: Der Teil und das Ganze, Piper 2002. F. di Trocchio: Newtons Koffer, rororo 2001. Spektrum Dossier 05/2008: Teilchenjäger und kosmische Grenzgänger. S. Hawking: Die kürzeste Geschichte der Zeit, rororo 2006. S. Hawking: Eine kurze Geschichte der Zeit, rororo 1998. P. Davies/J. Brown: Superstrings, dtv 1999. i Spektrum 05/2009, S. 26. ii Davis/Brown, S. 216.
Einem weiteren Nachfolger werden wir noch im Kapitel 14 begegnen. Wir leben wirklich in einer besonderen Zeit! Um der historischen Gerechtigkeit willen muss man einräumen, dass auch hier die Stringtheorie mit einem Buch The Universe Before the Big Bang schon der Vorreiter des Unsinns war.
184 vom iii iv v vi
urknall zum durchknall
Concepts of Physics, Vol. I (2004), S. 170, www.uni.lodz.pl/concepts. A. Ashtekar, arXiv:0812.0177. J. Erdmenger et al., arXiv:0705.1586. J. Casares, arXiv:astro-ph/0612312.
12
Die ewige Verlobte Das Standardmodell der Teilchenphysik. Oder: Wie die guten Sitten der Physik verdorben wurden
Das Standardmodell der Teilchenphysik basiert ganz wesentlich auf Überlegungen zur Symmetrie, deren bedeutende Rolle in der Physik von Emmy Noether begründet wurde. Sie war eine außergewöhnliche Mathematikerin, aber im konservativen Preußen, zu dem ihre Wirkungsstätte Göttingen um 1920 gehörte, war eine Frau als Fakultätsmitglied damals noch nicht denkbar. Selbst ihr Mentor, der berühmte Mathematiker David Hilbert, konnte mit dem Argument „Eine Universität ist doch keine Badeanstalt, meine Herren!“ ihre Habilitation zunächst nicht durchsetzen, so dass sie Vorlesungen nur als seine Assistentin halten konnte. Emmy Noether stellte fest, dass die Naturgesetze sich nicht ändern, wenn man seinen Kopf neigt und die Welt unter einem anderen Winkel betrachtet. Da Sie Ihren Kopf sogar um drei verschiedene Achsen drehen können, nennt man diese Symmetrie SO(3), die Gruppe der Drehungen im dreidimensionalen Raum. Daraus folgt überraschenderweise, dass es bei mechanischen Bewegungen eine Größe geben muss, die erhalten ist: der Drehimpuls, das Produkt aus Masse, Geschwindigkeit und Abstand von der Drehachse. Nur dadurch erreichen Eiskunstläufer übrigens ihre schwindelerregende Rotation – indem sie ihre Arme näher zur Drehachse ziehen. Emmy Noether bewies nun, dass es zu jeder Symmetrie einen Erhaltungssatz geben muss. Aus der Symmetrie der Naturgesetze gegenüber geradlinigen Bewegungen – schon von Galilei A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_12, © Springer-Verlag Berlin Heidelberg 2010
185
186 vom
urknall zum durchknall
entdeckt – folgt die Erhaltung des Impulses, und die Energieerhaltung gilt dann, wenn die Naturgesetze symmetrisch in der Zeit, also immer die gleichen sind. Letzteres ist bei kosmologischen Betrachtungen interessant, und generell sind diese Symmetrien in Miniaturform in der Heisenbergschen Unschärferelation realisiert: Jedes Begriffspaar, dessen Produkt eine Wirkung kg m2/s ergibt, wie zum Beispiel Ort und Impuls, hat eine besondere Bedeutung. Man kann hier erahnen, warum die Theoretiker Symmetrien gerne haben. Bei der Suche nach neuen Naturgesetzen trifft man daher schon eine entsprechende Vorauswahl von Gleichungen, die neben den erwähnten von Raum und Zeit eine Reihe von abstrakten Symmetrien aufweisen.
das ganze ist mehr als die summe seiner teile
Ein Beispiel für diese abstrakten Symmetrien treffen Sie in der Quantentheorie an, zunächst aber ein wichtiges Experiment dazu: Lässt man Licht durch einen engen Spalt treten und danach auf einen Schirm fallen, ergibt sich ein Wellenmuster, das umso breiter wird, je enger der Spalt ist. Dies deutet darauf hin, dass es sich um eine Welle handeln muss; öffnet man einen zweiten Spalt in der Nähe des ersten, so ergibt sich ein völlig anderes Muster als jenes, das man durch Überlagerung der Einzelspalt-Muster erhält. Dieses Doppelspaltexperiment ist schwer mit einer Teilchennatur des Lichts zu vereinbaren. Sensationell war aber, dass Elektronen an einem Spalt sich ganz entsprechend benehmen – man muss ihnen ebenfalls eine Wellennatur zugestehen, eine Kernaussage der Quantenmechanik. Louis-Victor de Broglie erhielt für die Entdeckung der nach ihm benannten Wellenlänge der Elementarteilchen 1929 den Nobelpreis. Wellen haben „Berge“ und „Täler“, und so kann es passieren, dass bei deren Zusammentreffen sich zwei Strahlen gerade auslöschen – kein Signal wird an dieser Stelle ankommen. So erfolgreich diese Beschreibung ist, so wenig kann man in diesem Fall sagen, welche der beiden Wellen in der Berg-Phase gewesen ist und welche in der Tal-Phase. Die
12 die
ewige verlobte
187
Tatsache, dass es darauf nicht ankommt, wird als U(1)-Eichsymmetrie bezeichnet. Dieses Symbol steht für die Drehungen in einer Ebene, wobei eine Umdrehung der Schwingungsperiode einer Welle entspricht.
magische veränderung ohne kraft – elektronen erahnen ein magnetfeld
Nach dieser Sicht der Dinge trägt das Elektron also eine abstrakte Symmetrie in sich, die nichts mit dem dreidimensionalen Raum zu tun hat, aber es handelt sich nachweisbar nicht nur um ein theoretisches Hirngespinst. Denn die Physiker Aharonov und Bohm erdachten ein Experiment, das sich mit klassischen Vorstellungen unmöglich verstehen lässt. Elektronen erfahren in Magnetfeldern – etwa im Inneren von stromdurchflossenen Spulen – ablenkende Kräfte, und Magnetfelder lassen sich mathematisch durch ein sogenanntes Vektorpotenzial beschreiben. Sie müssen dazu hier nur soviel verstehen, dass dieses Vektorpotenzial sogar dort auftreten kann, wo das Magnetfeld selbst verschwindet, hier also außerhalb der Spule. Lenkt man Elektronen ähnlich wie beim Doppelspalt rechts und links an einer solchen Spule vorbei, verändert sich dabei das Wellenmuster des vereinigten Strahls allein durch das Vektorpotenzial. Es übt keine Kraft aus, verändert aber den Phasenunterschied der beiden Elektronenstrahlen und damit das Streifenmuster am Schirm. Auch hier muss man also die Wellennatur als real betrachten, und zu Recht gilt daher der Aharonov-Bohm-Effekt als einer der großen Erfolge der Quantenmechanik der Nachkriegszeit. Das hier nachgewiesene Vektorpotenzial mit seiner sogenannten Symmetrie- oder Eichgruppe U(1) entspricht formal der im Kapitel 4 erwähnten Konnexion in der Allgemeinen Relativitätstheorie, die die Drehungen eines Vektors beim Transport beschrieben hatte – sicher eine schöne Analogie, auch wenn Sie zum Genießen sich etwas mit Differenzialgeometrie beschäftigen müssen. Jedenfalls gilt diese auf die Physiker Yang und Mills zurückgehende Methode der Eichsymmetrien als fundamentales Werkzeug bei der Suche nach einheitlichen Theorien.
188 vom
urknall zum durchknall
spin: drehungen, die mehr als das sind
Als ob die Welleneigenschaft nicht merkwürdig genug wäre, benehmen sich Elementarteilchen noch ausgefallener. So besitzen Elektronen einen Spin, den wir uns als Eigenrotation um eine bestimmte Achse vorstellen können – aber nur ungefähr. Denn befragt man sie nach der Richtung der Rotationsachse, stellt sich diese nur parallel oder antiparallel zu einem Magnetfeld ein, nie in einem anderen Winkel – ein kompromissloses, rätselhaftes Verhalten, das 1922 von Otto Stern und Walther Gerlach entdeckt wurde. Aber auch sonst rotieren Elementarteilchen anders als ein Spielzeugkreisel. Denn wenn sie diesen auf den Kopf stellen, also die ursprüngliche Drehachse um 180 Grad umorientieren, hat sich die Drehrichtung von „rechts herum“ auf „links herum“ geändert. Wollen Sie das gleiche mit einem Elektron tun, müssen Sie dazu die Orientierung um volle 360 Grad ändern, nicht nur um 180 Grad – äußerst verwunderlich. Dennoch kann man dies mathematisch elegant beschreiben, wenn man SO(3), die Gruppe der Drehungen im dreidimensionalen Raum, so erweitert, dass jede Drehung noch eine Partnerdrehung mit anderem Spin bekommt. Anstatt durch ein 3 × 3Zahlenschema, das die normalen Drehungen realisiert, benutzt man dazu ein 2 × 2-Schema von komplexen Zahlen, genannt SU(2). Jede der „normalen“ Raumrotationen ist in dieser Symmetriegruppe doppelt enthalten. Als Konsequenz dieser verrückten Art von Rotation trägt das Elektron auch nur die Hälfte des Planckschen Wirkungsquantums ħ als Drehimpuls. Obwohl der Anschauung schwer zugänglich, ist der Spin doch eine ganz fundamentale Eigenschaft der Natur.
die psychologie des erwarteten ergebnisses
Über die Messung des Elektronenspins ist übrigens Einstein 1915 in lehrreicher Weise gestolpert. Er erdachte zusammen mit dem Physiker de Haas ein Experiment, bei dem sie mit Magnetfeldern versuchten,
Der Balken im Buchstaben dient den Physikern zur Abkürzung: 2πħ = h.
12 die
ewige verlobte
189
Elektronen in einem Metall wie kleine Kreisel umzudrehen. Einerseits haben rotierende Elektronen jenen Drehimpuls 1/2 ħ, andererseits erzeugen sie analog zu kreisenden Strömen selbst auch Magnetfelder. Einstein und de Haas wollten das Verhältnis von erzeugtem Magnetfeld und Drehimpuls bestimmen und erwarteten den Wert 1, weil die oben erwähnte Natur des Spins noch nicht entdeckt war und sie daher von einem Drehimpuls ħ ausgingen. In einer Messreihe erhielten sie als Ergebnis 1,02, und in einer weiteren 1,45. Schnell überzeugten Sie sich, dass der Wert 1,45 einem Fehler der Apparatur entsprungen sein musste, und publizierten den Wert 1,02, in vermeintlich guter Übereinstimmung mit der Theorie, die jedoch richtigerweise 2 vorhersagt, wie sich später herausstellte. Wissenschaftshistorisch ist durch diesen Fehler nicht viel passiert. Aber man muss besonders vorsichtig sein, wenn ein Resultat die Erwartungen des Experimentators bestätigt. Erstens war der Aufbau von Einstein und de Haas recht simpel. Zudem war Einstein ein sorgfältiger Physiker, dem es nicht an Charakter gefehlt hat, anderen zu widersprechen, und schließlich hatte er es zu dieser Zeit keineswegs mehr nötig, bekannt zu werden. Drei Dinge, die bei modernen Messungen in der Teilchen- oder Astrophysik nicht automatisch zutreffen.
kernbausteine unter dem dach der analogie
Neutronen wandeln sich im Mittel nach etwa 15 Minuten in ein Proton, ein Elektron und ein Antineutrino um, der sogenannte Betazerfall. Warum gerade nach 15 Minuten und nicht nach 30, weiß man nicht, ja sogar die Ursache des Zerfalls selbst ist unbekannt. Man begnügt sich daher, die Umwandlung zu beschreiben, und verwendet dazu die Gruppe SU(2), wie beim Spin. Neutron und Proton fasst man dabei als zwei Zustände des gleichen Teilchens auf, die analog zum Spin „auf “ und „ab“ genannt werden, der „Isospin“. Obwohl die mathematische Struktur identisch ist, handelt es sich doch vornehmlich um eine Analogie, denn entsprechende Experimente wie Einstein-de Haas oder AharonovBohm gibt es dazu nicht. Als Ursache des Isospin-Umklappens von
190 vom
urknall zum durchknall
Neutron zu Proton stellt man sich eine sogenannte schwache Wechselwirkung vor – der Begriff Kraft passt hier nicht recht. Aufgrund dieser Analogie formulierten Sheldon Glashow, Abdus Salam und Steven Weinberg eine Theorie, die die elektromagnetische und die schwache Wechselwirkung zusammenführt – erstere wird durch die Drehgruppe U(1) beschrieben, letztere durch SU(2). Vorschläge für vereinheitlichte Theorien in der Physik basieren heute fast immer auf solchen abstrakten gruppentheoretischen Überlegungen zur Symmetrie. was bedeutet eigentlich hervorragende übereinstimmung?
Rechnungen zu dieser vereinigten elektro-schwachen Theorie sagten die Existenz von Elementarteilchen voraus, dem W+, W− und dem Z-Teilchen, die später in Beschleunigern identifiziert wurden. Da man Teilchenumwandlungen mit Drehungen in einem abstrakten Raum beschreibt, bezeichnen die sogenannten Mischungswinkel die Tendenz von Teilchen, sich ineinander umzuwandeln. Einer dieser Parameter, der sogenannte Weinberg-Winkel, lässt sich aus dem Massenverhältnis von W- und Z-Teilchen berechnen und ergibt damit den Wert θ = 0,4914. Wird nun dieser Weinberg-Winkel auch anderswo präzise gemessen, was immerhin einen fundamentalen Zusammenhang vermuten ließe? Jein. Frank Wilczeki gibt zum Beispiel θ = 0,4829 an, und Streuexperimenteii liefern θ = 0,5116. Wo ist also die Übereinstimmung? Nun, die elektro-schwache Theorie sagt gleichzeitig voraus, dass ihre Parameter, also auch der Weinberg-Winkel, sich mit der Energie der Messung ändern. Diese running constants werden durch die Tatsache, dass bei verschiedenen Messungen verschiedene Zahlen herauskommen, natürlich großartig bestätigt. Nun ja. Höchstwahrscheinlich werden Fans des Standardmodells dies etwas anders bewerten, aber Präzision wie etwa bei der Allgemeinen Relativitätstheorie trifft man hier sicher nicht an. Suchen Sie sich die Massen bei Wikipedia, bilden Sie das Verhältnis und drücken Sie die INV COS- Taste ihres Taschenrechners.
12 die
ewige verlobte
191
Bemerkenswert ist dagegen, dass die geladenen W+ und W− Teilchen Ähnlichkeit mit Positron und Elektron haben, während das neutrale Z dem Photon in der Elektrodynamik entspricht. Diese Muster hatte man bereits zwanzig Jahre früher in einer anderen Theorie entdeckt.
feynmans quantenelektrodynamik: kann die zeit auch rückwärts laufen?
Erinnern Sie sich daran, dass ein Photon Elektron-Positron-Paare erzeugen kann, während ein solches Paar umgekehrt unter Aussendung von Photonen zerstört wird? Eine eigentümliche Kombination dieser Geschichten finden Sie im Abb. 11b erzählt. Ein Elektron bewegt sich dort in eine Richtung und begegnet einem Positron aus einer Paarerzeugung. Natürlich zerstrahlen die beiden, so dass der einzige Überlebende der Geschichte jenes Elektron ist, das kurz vorher aus der Paarerzeugung entstanden war. Die Energie dafür wurde einen Moment früher benötigt, als sie bei der späteren Vernichtung zurückbezahlt wurde – genau dies ist aber durch die Heisenbergsche Unschärferelation möglich. Wir können uns also das Photon wegdenken, so dass im Ergebnis ein Elektron losläuft und eines ankommt (Abb. 11a) – in der Tat kann man jene blutige Geschichte experimentell nicht von einem gemütlich wandernden Elektron unterscheiden. Dennoch haben die Rechnungen mit diesen sogenannten virtuellen Prozessen zu Resultaten mit spektakulärer Präzision geführt. Die durch die Quantenelektrodynamik berechneten Werte für das magnetische Moment des Elektrons und die sogenannte Lamb-Verschiebung in der Spektroskopie des Wasserstoffatoms gehören zu den genauesten Vorhersagen in der ganzen Physik. Zu Recht erhielten Feynman, Schwinger und Tomonaga dafür 1965 den Nobelpreis. Eine witzige Interpretation gab Feynman der Abb. 11b. Stellt man sich die Bahnen als Spur eines einzelnen Teilchens vor, kann man ein Positron einfach als ein in der Zeit rückwärts laufendes Elektron auffassen. Die Umkehrpunkte
192 vom
urknall zum durchknall
x
x Q
Q
C
A
P
a
t
P
b
t
Abbildung 11: Beispiele für einfache Feynman-Diagramme. Die eindimensionale Bewegung in x-Richtung ist gegen die Zeit t aufgetragen. a) Ein Elektron bewegt sich entlang der x-Richtung von P nach Q. b) Im Punkt C wird ein Elektron-Positron-Paar erzeugt, dessen Positron mit dem ursprünglichen Elektron aus P in A zerstrahlt. Die Situation ist ununterscheidbar von der „einfachen“ Fortbewegung des Elektrons (a). Andererseits kann man (b) auch als Bahn eines Elektrons auffassen, das einen Teil der Strecke rückwärts in der Zeit läuft.
entsprechen der Paarerzeugung und -vernichtung. Dies wirft die interessante Frage auf, ob die Richtung des Zeitablaufs mit der Ladung zu tun hat. von der quantenelektrodynamik zur quantenchromodynamik
Virtuellen Teilchen, die Paarerzeugungs- und -vernichtungsprozesse hervorrufen, spielen in allen modernen Theorien eine dominierende Rolle. Früher, in der klassischen Elektrodynamik und in der Gravitationstheorie, stellte man sich Kraftfelder im Raum vor, die bei geladenen oder massebehafteten Teilchen Beschleunigungen verursachen. In der
Wenn Sie dies näher interessiert, informieren Sie sich über die CPT-Symmetrie und den Versuch von Lee und Yang (Nobelpreis 1957).
12 die
ewige verlobte
193
Quantenelektrodynamik wird die Vorstellung eines Feldes völlig zugunsten eines Teilchenaustauschs aufgegeben. Wie zwei Personen auf fahrbaren Bürostühlen, die sich gegenseitig schwere Medizinbälle zuwerfen, werden zwei Elektronen abgestoßen, die Photonen austauschen. Analog funktioniert die Anziehung, wenn auch etwas weniger anschaulich. Ob man diese Sicht der Dinge hübsch findet oder nicht, sie ist jedenfalls sehr erfolgreich in ihrer Übereinstimmung mit dem Experiment. Daher hat man versucht, mit einem ganz ähnlichen Schema die Kernkräfte zu beschreiben. Allerdings befand sich die Kern- und Teilchenphysik in den 1960er Jahren in einem verzweifelten Zustand. Beschleunigerexperimente hatten Hunderte von Elementarteilchen zu Tage gefördert, die zwar meistens nicht langlebig waren, aber deren Aufbau man überhaupt nicht verstand. Der bekannte Wissenschaftsjournalist James Gleick beschreibt dies treffend:iii Während sie immer energiereicher in das Atom schossen, sahen sie das Teilchenbild der Vorkriegszeit zerbrechen. Mit jedem neuen Teilchen verblasste der Traum von einer überschaubaren Anzahl von Bausteinen. Was ist in dieser fortwährend sich unterteilenden Welt noch wirklich elementar? Murray Gell-Mann und George Zweig – sie erhielten später den Nobelpreis – versuchten, sich einen Reim darauf zu machen und führten hypothetische Teilchen ein, aus denen die bisher kleinsten Kernbausteine, das Proton und das Neutron, bestehen sollten: Quarks. Diese sollten drittelzahlige elektrische Ladungen aufweisen, damit ergeben etwa zwei up-Quarks mit je +2/3 e und ein down-Quark mit −1/3 e zusammen das Proton. Die Quarks bilden nach der Theorie der Quantenchromodynamik die Grundbausteine der Materie. Sie werden durch Austausch von Gluonen, also „Leimteilchen“, zusammengehalten, analog zur Beschreibung der elektrischen Anziehung durch Austausch von Photonen. Obwohl viele Elementarteilchen mit diesem System beschrieben werden konnten, wurde bald die Erweiterung notwendig, dass jedes Quark in drei verschiedenen „Farben“ vorkommen sollte – eine Eigenschaft die
194 vom
urknall zum durchknall
nichts mit der realen Farbe von Photonen zu tun hat, sondern mehr aus Verlegenheit so benannt wurde.
charmante, exotische schönheiten werden getopt – die Quarksorten
Man war mit dem Quarkmodell in der Lage, die meisten der neu entdeckten Elementarteilchen zu klassifizieren, dennoch wurde die Idee lange als theoretisches Kunstprodukt angesehen. Das änderte sich, als 1974 im Brookhaven Laboratory ein Energieereignis auftrat, das man allgemein als Quark-Antiquark-Paar interpretierte, und zwar von einer dritten Sorte namens „Charm“ (c), die sich von den up- und downQuarks unterschied. Vielleicht sollte hier kurz angedeutet werden, was man sich unter „Teilchenentdeckung“ vorzustellen hat. In Beschleunigern prallen Teilchen mit hohen Energien aufeinander, und die Reaktionsprodukte werden gewöhnlich in der Umgebung absorbiert. Entstehen nur bekannte stabile Teilchen, verlieren sie ihre Energie meist in der Nähe des Aufpralls. In einigen Fällen beobachtet man jedoch nach einem Zusammenstoß, dass die direkte Umgebung relativ unbehelligt bleibt, während erst in einer bestimmten Distanz das Detektormaterial große Energieverluste anzeigt. Diese sogenannten Resonanzen interpretiert man als neu entstandene Teilchen, die erst nach einer gewissen Flugstrecke zerfallen und so nachgewiesen werden können. Nachdem man so eine Resonanz bei 3,1 Gigaelektronenvolt als Charm-Anticharm-Paar gefunden hatte, entdeckte man weitere Resonanzen bei höheren Energien, die als entsprechende Zustände für weitere Quarks interpretiert wurden: Das „beauty“ (b) und das „strange“ (s). Das theoretische Modell erforderte an dieser Stelle allerdings ein sechstes „top“-Quark (t), das 1995 nach 18jähriger intensiver Suche am Fermilab in Chicago gefunden wurde. Der Nachweis war noch wesentlich aufwändiger, so dass der Pressekonferenz anlässlich der Entdeckung angeblich eine längere nächtliche Diskussion unter den beteiligten Wissenschaftlern vorausgegangen war.iv Hochenergieexperimente werden manchmal mit dem An-die-Wand-
12 die
ewige verlobte
195
Werfen einer Armbanduhr vergleichen. Aus den dann herumfliegenden Einzelteilen den Aufbau zu verstehen, ist nicht leicht.
einfacher, aber nicht einfach
Fasst man also das Standardmodell der Teilchenphysik zusammen, so kommt man auf sechs Quarks (u, d, c, s, t, b) in jeweils drei verschiedenen „Farben“ mit den jeweiligen Antiteilchen, also auf die stattliche Anzahl von 36 verschiedenen schweren Teilchen (Hadronen). Dazu gesellen sich sechs leichte Teilchen (Leptonen) nebst Antipartnern, nicht zu vergessen die erwähnten W- und Z-Teilchen sowie die bunt gekleideten Gluonen (z. B. rot-antigrün). Für Teile dieser Modellentwicklung wurden die Nobelpreise 1969, 1979, 1984, 1999, 2004 und 2008 vergeben. Was soll man also dagegen sagen? Hinnehmen, dass die Natur so kompliziert gebaut ist, oder an den Leistungen all dieser Koryphäen Zweifel anmelden? Vielleicht verstehe ich ja eine tief liegende, verborgene Einfachheit des Standardmodells nicht, denn, wie ein bekannter deutscher Experte sich ausdrückt, für den Eingeweihten lässt sich die Theorie auf wenigen Zeilen darstellen, bildet also eine Art Weltformel, nach der in der Vergangenheit von theoretischen Physikern wie Albert Einstein oder Werner Heisenberg ohne Erfolg gesucht wurde. Die Toten können sich schlecht wehren, aber wie Murray Gell-Mann 2008 in München – übrigens in Anwesenheit des Experten – freimütig erzählte, hielt Heisenberg den ganzen Ansatz von drittelzahligen Ladungen für Unsinn. Aber auch der Experte vermochte die „wenigen Zeilen“ in seinen acht Büchern bisher nicht niederzuschreiben. War die Skepsis der Genies der Vorkriegszeit, wie die des 65-jährigen Heisenberg, denn schon Altersstarrsinn? Voreingenommen gegen die Bruchteile der drittelzahligen Ladungen konnte er wohl nicht gewesen sein, hatte Heisenberg doch als Student den halbzahligen Spin vorgeschlagen, damals ganz gegen jede etablierte Meinung. Allerdings kann man halbzahlige
196 vom
urknall zum durchknall
Spins auch beobachten, während Teile von Ladungen noch nie gesehen wurden. Darin liegt eines der größten konzeptionellen Probleme des Modells: Quarks treten nie einzeln auf. Niemand weiß, warum, obwohl man einen schönen Namen, confinement, dafür gefunden hat. Ist es sinnvoll, Objekte Teilchen zu nennen, die nicht zu Teilen werden können? Wie Roger Penrose in seinem Buch The Road to Reality anmerkt,v wurde eine zusätzliche Komplizierung nötig, weil andernfalls die Theorie in sich widersprüchlich gewesen wäre – nach einem von Wolfgang Pauli entdeckten Ausschließungsprinzip könnten sich zwei gleiche Quarks gar nicht in einem Kern aufhalten. Daher musste man neben der Untrennbarkeit ein weiteres unschönes Merkmal zur Unterscheidung der Quarks einführen: die Farbladungen oder colors, welche, wie Penrose kritisiert, prinzipiell unbeobachtbar sind. Zwar kann man die Symmetrie bezüglich der Farben mit der Gruppe SU(3), einem 3 × 3-Schema aus komplexen Zahlen, mathematisch beschreiben. Wir treffen hier aber wieder ein Beispiel an, in dem Widersprüche durch Aufblähung des Modells beseitigt wurden. die theorie der praxis oder die entdeckungen in der theorie
Normalerweise versteht man unter einer Entdeckung eine experimentelle Beobachtung, so wie etwa der Josephson-Effekt, die Quanten-HallEffekte, die Hochtemperatur-Supraleitung, für die 1972, 1985, 1998 und 1987 Nobelpreise vergeben wurden. Demgegenüber, seltener, gibt es auch Nobelpreise für die Entwicklung einer Theorie: Für die Quantenelektrodynamik 1965, für die Theorie der Supraleitung 1972. Diese Theorien erklärten aber experimentelle Ergebnisse, teilweise mit beeindruckender Präzision. Dagegen finden wir für den Nobelpreis 1999, betreffend die Renormierbarkeit von Eichgruppen wie SU(2), eine interessante Begründung: „Die zwei Forscher erhalten den Nobelpreis dafür, dass sie die Teilchenphysik auf eine festere mathematische Basis stellten. Im Dazu gibt es natürlich auch die gegenteilige Ansicht, wie zum Beispiel die eines deutschen Theoretikers, der für die colors gerne den Nobelpreis erhalten hätte.
12 die
ewige verlobte
197
besonderen haben sie gezeigt, wie die Theorie für präzise Berechnungen physikalischer Größen gebraucht werden kann“. Man hätte auch sagen können: „Sie reparierten eine widersprüchliche mathematische Technik, mit der man vielleicht in Zukunft Physik machen kann.“ Ebenso wurde 2004 eine Entdeckung in der Theorie gewürdigt: Die sogenannte asymptotische Freiheit, die besagt, dass Quarks bei geringen Abständen keine Kräfte spüren – obwohl eigentlich interessant gewesen wäre, warum Quarks ab einem bestimmten Abstand so große Kräfte spüren, dass man sie überhaupt nicht trennen kann. Diese Entdeckungen haben eines gemeinsam: Sie beschreiben nicht Beobachtungen, sondern dienen lediglich dazu, bestehende Mängel in einem Theoriegebäude zu lindern, das sonst inkonsistent wäre. Damit verlagert sich aber die Forschung von der Naturwissenschaft zur mathematischen Methodenentwicklung, die für sich allein nichts mehr mit Physik zu tun hat. eichgruppen – vom werkzeug zum spielzeug
Da eine mathematische Methode allein noch keine konkreten Zahlen vorhersagt, führt die theoretische Teilchenphysik meist nur mehr zu qualitativen Ergebnissen. Die Entdeckung des Top-Quarks wurde als Komplettierung des Standardmodells gefeiert, man verlor jedoch kein Wort über die sehr merkwürdige Folge von Massen der Quarks u, d, s, c, b, t: 0.3, 0.3, 0.5, 1.5, 4.5 und 175 (!) Gigaelektronenvolt. Warum tanzt das Top-Quark aus der Reihe, indem es zwanzig mal so schwer ist wie alle anderen zusammen? Warum hat ein Teilchen eine kurze Zerfallszeit und ein anderes eine lange? Die Beschreibung durch Symmetriegruppen, die dem Standardmodell zu Grunde liegt, beschränkt sich auf die Aussage, ob bestimmte Teilchen existieren oder nicht, letztlich eine Erbsenzählerei. Die messbaren physikalischen Eigenschaften der Teilchen werden dagegen nicht erklärt, ja noch nicht einmal der Versuch dazu unternommen. So ist die gängige Klassifikation der Elementarteilchen als physikalische Theorie ungefähr so aussagekräftig, Zitat aus der Begründung: „Sie haben die Physik einen Schritt näher gebracht zur Erfüllung eines großen Traumes … der Weltformel.“ Auch in Stockholm träumte man schon.
198 vom
urknall zum durchknall
wie für eine Autokonstruktion der Beweis, dass es auf vier Rädern stehen kann (obwohl dies auch schon manchen Firmen schwer gefallen ist). Howard Georgi, ein Physiker, der an gruppentheoretisch motivierten Großen Vereinheitlichten Theorien gearbeitet hat und daher nicht gerade der Fundamentalkritik verdächtig ist, schreibt in seinem Buch Lie Algebras in Particle Physics: „Symmetrie ist ein Werkzeug, das zum Auffinden der zu Grunde liegenden Dynamik dient, die danach den Erfolg (oder Misserfolg) der Symmetrieargumente erklären muss. Gruppentheorie ist eine nützliche Technik, aber kein Ersatz für Physik.“ Dan Hooper, wenn auch inzwischen zum Astronomen mutiert, sagte in Anlehnung an Galileis Worte, das Buch der Natur sei in der Sprache der Mathematik geschrieben: „Gruppentheorie ist der Dialekt der Teilchenphysik“. Wolfgang Pauli, der Nobelpreisträger von 1945, drückte sich dagegen etwas boshafter aus: Er bezeichnete die aufkommende Mode schlicht als „Gruppenpest“.
die große vereinigung – der gedanken
Dennoch gelten mit der gruppentheoretischen Beschreibung der Symmetrien die elektromagnetische und die schwache Wechselwirkung als vereinigt. Sheldon Glashow, einer der Preisträger, sagte dazu jedoch selbst: „Diese Theorie ist eine ad-hoc-Konstruktion, in die eine Reihe von Dingen eingebaut werden mussten, die für uns noch rätselhaft sind. Warum sind zum Beispiel die Teilchenmassen gerade so groß, wie wir sie messen?“ Feynman schrieb dazu nicht gerade respektvoll über seine Nobelpreiskollegen Weinberg und Salam, man könne in ihrer Theorie noch die „geleimten Stellen“ erkennen.vi Aber auch die noch weit lockerere Verbindung zur starken Wechselwirkung, der Kernkraft, wird heute überall als „einheitliches“ Modell bezeichnet, nur weil man die Symmetriegruppen U(1), SU(2) und SU(3) formal aneinander kleben kann. Feynman kommentierte in einem Interview trocken:vii Das sind drei verschiedene Theorien. Was hängt da zusammen? Nur wenn man Zeug dazunimmt, von dem wir nichts wissen. Es
12 die
ewige verlobte
199
gibt keine Theorie mit U(1) × SU(2) × SU(3) – was zum Teufel das auch immer ist – von der wir wissen, dass sie stimmt … Diese Kerle versuchen das zusammenzubringen. Aber getan haben sie es noch nicht. Klar? Sicher ist die Quantenchromodynamik sehr stark von der Quantenelektrodynamik inspiriert. Ob man deshalb die „Vereinheitlichung“ als Gedankenblitz feiern muss, ist aber eine andere Frage. Genießen wir dazu nochmals Feynman:viii Da kam irgendein Narr von Physiker, hielt einen Vortrag an der Uni in Los Angeles und sagte: ‚So funktioniert das, sehen Sie wie wunderbar ähnlich die Theorien sind?‘. Es ist aber nicht so, dass die Natur wirklich ähnlich wäre, es ist nur so, dass die Physiker immer und immer wieder über das verdammt gleiche Ding nachgedacht haben! Ob man das Ganze für eine Modeerscheinung oder für eine Offenbarung hält, der Wert einer Theorie entscheidet sich durch Messungen. Aber im Vergleich zur Quantenelektrodynamik sind die entsprechenden Resultate der Quantenchromodynamik auch ziemlich armselig. Nur das magnetische Moment des Neutrons wird recht und schlecht mit einer Genauigkeit von 15 Prozent getroffen, bei anderen Teilchen weicht die Vorhersage schlicht vom Experiment ab.ix Es ist daher völlig unklar, ob man mit der analogen Anwendung der Quantenelektrodynamik auf die Kerne überhaupt auf der richtigen Spur ist. Dennoch sind die Theoretiker fast ausschließlich auf diesem Trampelpfad unterwegs.
unerlaubte neutrinomassen – auch schon egal
Neben dem Hauptgebäude des Standardmodells – wenn wir es so bezeichnen wollen – gibt es inzwischen eine Reihe von Anbauten, wie die seit einigen Jahren akzeptierten drei Arten von Neutrinos, die sich nach astrophysikalischen Beobachtungen ineinander umzuwandeln
200 vom
urknall zum durchknall
scheinen. Theoretisch folgt daraus eine kleine Ruhemasse der Neutrinos – übrigens mit einem indirekten Argument, da das Modell der Umwandlungsprozesse masselose Teilchen nicht vorsieht. Dabei verbietet das ursprüngliche Standardmodell der Teilchenphysik eine Neutrinoruhemasse – aber niemand stört sich wirklich daran, bei so vielen Warzen und Pickeln kommt es darauf auch nicht mehr an.
die unerträgliche leichtigkeit des seins – woher kommen die massen?
Den größten Mangel des Standardmodells habe ich bisher aber gar nicht erwähnt. Es kann keine Vorhersage über die Masse der von ihr beschriebenen Elementarteilchen machen, ja schlimmer noch, das Modell bietet nicht den geringsten Ansatz, dieses Problem in Angriff zu nehmen. So fragt Feynman: „Warum ist das Myon gerade 206 mal so schwer und das Tau gerade 3 640 mal so schwer wie das Elektron? Die Natur gibt uns so wundervolle Rätsel!“ Niemand kümmert sich jedoch darum. Lee Smolin berichtet von einer Anekdote, die sich im Büro von John Preskill, einem führenden Teilchenphysiker, zugetragen haben soll: 1983 hatte dieser das Massenproblem spaßeshalber auf einen Zettel notiert, um sich dauernd an die Wichtigkeit zu erinnern. Fünfzehn Jahre später hing der Zettel immer noch an der Wand, allerdings zur Unkenntlichkeit verblichen! Letztlich kennzeichnet dies aber die Arbeitsweise der Theoretiker. Es gibt einfach keine Idee dazu, wenn auch gelegentlich ein bisschen Wind gemacht wird. So hörte man in den letzten Jahren Gerüchte von einer gigantischen Computersimulation zur Quantenchromodynamik, die die Massen der Kernteilchen Neutron und Proton zu berechnen versprach – es wäre ja in der Tat sensationell, wenn das Massenverhältnis von 1 838,68 zu 1 836,15 theoretisch bestimmt werden könnte! Die großspurige Ankündigung, im
Allgemein zu Neutrinos gibt es neuerdings ein kontroverses Resultat zum doppelten neutrinolosen Betazerfall. Das wäre schwer zu verdauen für die Teilchenphysik.
12 die
ewige verlobte
201
November 2008 in Science veröffentlicht, hatte jedoch ein eher bescheidenes Ergebnis: Die Massenberechnung war gerade mal auf 4 Prozent genau – etwas viel im Vergleich zu den 0,2 Prozent, die nötig gewesen wären, um Proton und Neutron überhaupt voneinander zu unterscheiden. Eine mir bekannte Theoretikerin fragte sich darüber hinaus, wie viel von diesem „Ergebnis“ vorher an Randbedingungen in das Modell „hineingesteckt“ wurde. Durchsichtig sind solche großen Computersimulationen selten.
wenn schon unfähig, dann bitte mit nachweis
Es gibt übrigens ein ganz allgemeines Argument dafür, dass so eine Massenberechnung gar nicht funktionieren kann. Ein Computer kann nur Zahlen liefern, die physikalische Einheit einer Masse muss jedoch durch eine Kombination von Naturkonstanten erzeugt werden – daran führt kein Weg vorbei, sonst hat man irgendwo geschummelt. Es gibt aber keine Kombination der fundamentalen Naturkonstanten c, ε0, e, h, die die Einheit einer Masse hätte – probieren Sie es aus. Man könnte sie nur erhalten, wenn man auch die Gravitationskonstante mit einbezieht. Das würde letztlich aber eine einheitliche Theorie mit der Gravitation erfordern – davon sind wir noch weit, weit weg. Viele Physiker schieben heute das Problem mit der Behauptung zur Seite, die Theoretische Physik erlaube keine Berechnung von Massen – eigentlich ein Eingeständnis geistiger Impotenz. Für eine Lösung müsste man über die Einheiten der Naturkonstanten nachdenken, aber vielleicht ist die Berechnung der Massen ja prinzipiell unmöglich wie die Quadratur des Kreises, der die Welt fast zwei Jahrtausende lang vergeblich nachjagte. Wenn dem so ist, dann soll man diese Unmöglichkeit aber doch bitte beweisen. Die Mathematiker haben hier ihre Hausaufgaben gemacht und dies mit einer besonderen Eigenschaft der Kreiszahl π bewiesen – eine Leistung übrigens von Ferdinand Lindemann, jenem Professor, dessen Hund sich so bleibende Verdienste um den Lebensweg von Werner Heisenberg erworben hatte.
202 vom
urknall zum durchknall
warten auf godot oder die ewige party
Wenn auch das Standardmodell keine Massen berechnen kann, so benötigt es doch wenigstens ein Konzept, das den Begriff der Masse erlaubt. Sonst wäre die Welt ein Gewirbel von trägheitslosen Teilchen! Daher entwickelte der englische Physiker Peter Higgs einen Mechanismus mit einem nach ihm benannten Teilchen. Man stellt sich dies wie folgt vor: Auf einer Party befindet sich der britische Premierminister Gordon Brown, um den sich zahlreiche Gäste drängen, die dem HiggsFeld entsprechen. Dadurch in seiner Bewegungsfreiheit eingeschränkt, vermag sich der Premierminister nur mehr langsam durch den Raum zu bewegen – er ist durch das Higgs-Feld, die Gästedichte, träger geworden, ja hat dadurch erst seine Masse erlangt. Obwohl diese Geschichte schon mit Margaret Thatcher, John Major und Tony Blair erzählt wurde, hat man das Higgs-Teilchen immer noch nicht gefunden – dabei sollte die Stärke des Higgs-Feldes als Partybeliebtheit seit der ‚Eisernen Lady‘ doch stark zugenommen haben! Da die Existenz des Higgs-Teilchens unabdingbar ist und kein Elementarteilchen des Standardmodells ohne es leben kann, wird es manchmal auch als Weinberg ’s toilet bezeichnet. Man kann nur hoffen, dass sie bald funktioniert, nimmt doch das Standardmodell mit der Zeit immer mehr den Geruch der Schlösser Ludwigs des XIV. an. Natürlich ruhen hier wie immer alle Hoffnungen auf dem Large Hadron Collider am CERN. In einem vom Max-Planck-Institut für Physik produzierten Informationsvideo wird gar von einem „Erdbeben“ in der Physik gesprochen, sollte das Higgs nicht gefunden werden. Aber doch scheint es, als ob die große Zuversicht, wie sie etwa am Ende der Nobelpreisbegründung 1999 zu finden ist, etwas schwindet. Damals schrieb die Schwedische Akademie „When can we expect the next great discovery?“, das „ob“ schien außer Frage. Versuchen Sie einmal, einen Teil Das Higgs-Teilchen wäre in diesem Bild ein Gerücht, das Menschenansammlungen verursacht. Die Supersymmetrie bereitet sich darauf vor, indem sie höherenergetische Higgs-Teilchen vorhersagt. Sie ist damit sozusagen eine „erdbebensichere“ Theorie, die von keinem Experiment mehr erschüttert werden kann.
12 die
ewige verlobte
203
chenphysiker zu einer Wette auf die Entdeckung des Higgs im LHC zu überreden. Mir ist es noch nicht gelungen, obwohl man für das Hauptziel einer Apparatur, die den Steuerzahler Milliarden kostet, schon mal hundert Euro auf die Kante legen könnte. Manchmal scheint es, dass man stillschweigend einen Plan B vorbereitet – sollte sich das Higgs nicht im vorhergesagten Energiebereich finden, dann gäbe es immer noch die theoretische Möglichkeit eines Higgs-Multipletts, das heißt mehrere Higgs-Teilchen bei höheren Energien. So steht leider zu befürchten, dass das Nichtvorhandensein des Higgs irgendwann als Entdeckung des Multipletts gefeiert wird. Nur zur Klarstellung sei daran erinnert, dass auch eine Entdeckung des Higgs-Teilchens das Problem der Massen nicht löst – anstatt nicht erklärter Zahlen für die Massen hätte man dann eben nicht erklärte „Kopplungskonstanten“ der einzelnen Teilchen mit dem Higgs-Feld.
unglaubwürdig durch wucherung Die schlechtesten Werke sind immer mit den besten Vorsätzen entstanden. Karl Kraus
Die Anzahl der freien Parameter im Standardmodell der Teilchenphysik – fast zwanzig, mit den Massen sogar wesentlich mehr – hat also eine beunruhigende Größenordnung erreicht. Den Löwenanteil dieser Komplizierung verschuldet das Quarkmodell, auch wenn es eine Vereinfachung herbeiführte. Diese war aber erst möglich, nachdem man zahlreiche Daten angehäuft hatte, die man nicht verstand. Ist so exzessives Sammeln von Daten in der Wissenschaft also überhaupt nützlich? Die eigentlichen Fortschritte wurden immer dann erzielt, wenn das Verständnis nicht allzu weit hinter den Beobachtungen zurückblieb. Offensichtlich birgt dagegen zu viel unverstandene Information die Gefahr, wohlfeile Beschreibungen als Theorie misszuverstehen. Die Parallele zu
Schon Immanuel Kant hat dies zum Test der Ernsthaftigkeit einer Überzeugung empfohlen. Auf www.bet-on-the-higgs.com werden dazu Wetten angeboten.
204 vom
urknall zum durchknall
den Epizyklen des Ptolemäus ist eigentlich hier unübersehbar, und man kann nur hoffen, dass das warnende Beispiel des festgefahrenen geozentrischen Weltbildes in der Astrophysik früher wahrgenommen wird. In der Teilchenphysik scheint Hopfen und Malz verloren, denn man hat sich zu sehr daran gewöhnt, einmal erprobte Konzepte nicht mehr zu hinterfragen. Dabei ist etwa das Problem, warum es gerade drei Teilchenfamilien gibt, noch harmlos. Vielleicht gibt es einmal ein Standardmodell mit fünf Teilchenfamilien, warum nicht? Wirklich ungeklärte Fragen wären: Was bedeutet die „Farbe“ eines Quarks? Erwin Schrödinger, einer der Begründer der Quantenmechanik, hatte schon enorme Schwierigkeiten mit dem weit weniger obskuren Dualismus zwischen Welle und Teilchen, dessen Konsequenz der plötzlichen Atomübergänge er sich nicht vorstellen konnte: „Wenn diese Quantenspringerei nicht aufhört, bereue ich, Physiker geworden zu sein und nicht Schneider oder Schuster!“
sammeln statt nachdenken – theorie auf dem Weg zum messie
Vielleicht würde ein Berufsethos wie das von Schrödinger den heutigen Theoretikern gut tun. Auch Ernest Rutherford sagte einmal, Wissenschaft sei entweder Physik oder Briefmarkensammeln – das Nobelkomitee bewies hier übrigens Humor, indem es seine Entdeckung zur Größe des Atomkerns mit dem Preis für Chemie würdigte. Ganz sicher aber hat Sammeln heute keine abschreckende Bedeutung mehr. 2008 wurde der Physik-Nobelpreis für die CKM-Matrix verliehen – sie enthält einige der berüchtigten freien Parameter, nicht gerade entscheidende Bauteile der Natur im Vergleich zu früheren Entdeckungen. Würde man diese absteigende Wichtigkeit auch auf die Nobelpreise für die Computertechnik anwenden, die 2000 für den Prozessor und 2007 für die Festplattentechnik geehrt wurde, könnten wir demnächst einen Preis für den Lüfter erwarten. Mein Freund José Vargas von der Universität von South Carolina erzählte mir einmal, das Nobelkomitee habe um 1995 beim Herausgeber
12 die
ewige verlobte
205
der Zeitschrift Acta Physica Polonica um Vorschläge für die Verleihung angefragt. Er soll geantwortet haben, man solle den Preis nicht vergeben, es gebe im Moment keine wichtigen Entdeckungen. José liebte es, sich besonders drastisch über das Standardmodell auszudrücken. Einmal bekam er eine Email eines Physikers, der behauptete, durch die Experimente sei das Standardmodell eindeutig festgelegt. „Was heißt hier eindeutig?“ ereiferte sich Josè. „Deine Exkremente sind auch durch das eindeutig festgelegt, was du am Tag vorher gegessen hast. Eine gute Theorie muss die Daten ordnen und verdauen. Alles andere ist geistiger Durchfall.“ Dies wird vielleicht den intellektuellen Kämpfen, die Vielfalt der Elementarteilchen zu verstehen, nicht ganz gerecht. Aber auch Poincaré sagte schon: „Wissenschaft ist aus Fakten gebaut wie ein Haus aus Steinen. Aber eine Ansammlung von Fakten ist noch so wenig Wissenschaft wie ein Haufen Steine ein Haus ist.“ Wenn auch das Standardmodell als ewige Verlobte einigen ein gesichertes Auskommen bietet, ist doch praktisch niemand überzeugt, dass es sich um „die richtige“ Theorie handelt. Man arrangiert sich, aber Erklärungen für die Vielzahl der eingeführten Begriffe werden nicht mehr gesucht, obwohl Physik eigentlich das zur Aufgabe hätte. „Wahrheit kann man wenn überhaupt nur in der Einfachheit finden, nie in der Vielgestaltigkeit und Vermischung der Dinge“ sagte Isaac Newton. Vielleicht hatte er noch nie so Recht wie heute.
Weiterführende Literatur R. Penrose: The Road to Reality, Vintage 2004, Kap. 25+26. R. Feynman/R. Leighton/M. Sands: QED. Die seltsame Theorie des Lichts und der Materie, Piper 2009. J. Gleick: Genius, New York 1992. Gerthsen Physik, Springer (Berlin) 2008, Kap. 13. P. Woit: Not Even Wrong, Vintage 2006. P. Davis/J.R. Browne: Superstrings, dtv 1999. Spektrum Dossier 01/2003: Vom Quant zum Kosmos. L. Lederman: The God Particle, Houghton Mifflin 2006. M. Nakahara: Geometry, Topology and Physics, IOP 1995. R. Stöcker/H. Zieschnang: Algebraische Topologie, Teubner 1994.
206 vom
urknall zum durchknall
i M. Tegmark et al., arXiv:astro-ph/0511774. ii http://en.wikipedia.org/wiki/Weinberg_angle. iii Gleick, S. 282. iv L. Randall, Verborgene Universen, Fischer 2008, S. 224. v Penrose, Kap. 25.7. vi Feynman, Kap. 4. vii Gleick, S. 433. viii Feynman, Kap. 4. ix L. Wang et al., arXiv:0804.1779.
13
In anderen Dimensionen Branen, Multiversen und andere Quantenschaumschlägereien. Oder: Des Physikers neue Kleider
„Wir glauben, dass wir Einsteins Traum verwirklichen können … die Physiker vertrauen darauf, dass wir dort weitermachen, wo Einstein aufgehört hat“ schmeichelt der Physiker Brian Greene mit YouTubeBildern aus Princeton dem Genie, das in seinen letzten Jahren dort gelebt hatte.i Aber auch ohne Musikuntermalung wird Einstein gerne als Kronzeuge für komplizierte hochdimensionale Theoriekonstrukte angerufen. Dies ist reichlich unverfroren, denn Einstein suchte asketisch nach Konzepten in der Geometrie, die alles willkürliche vermeiden und neben der Gravitation auch die elektromagnetischen Phänomene erklären sollten. Diese gedankliche Sparsamkeit könnte keinen schärferen Kontrast finden als die modernen Theorien, von denen wir in diesem Kapitel nur exemplarisch einige Auswüchse betrachten. Im Gegensatz zu diesen Phantasien behielt Einstein stets die Füße auf dem Boden und fragte nach Lösungen seiner Gleichungen, die den Elementarteilchen entsprechen sollten.ii Ob er diese Hoffnung angesichts der Teilchenblüten des Standardmodells noch gehabt hätte, ist eine andere Frage.
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_13, © Springer-Verlag Berlin Heidelberg 2010
207
208 vom
urknall zum durchknall
raus aus dem standard – der traum von der großen, weiten welt
Tatsächlich bleibt bei näherer Betrachtung des Standardmodells immer ein fader Nachgeschmack, der den Wunsch nach einer einheitlicheren, schöneren Theorie anregt – so wie öde Industrievorstädte unseren Wunsch nach Palmenparadiesen befördern wie zum Beispiel der „Supersymmetrie“. Schon der Antritt der Reise dorthin erfolgt aber unter hanebüchenen Voraussetzungen. So geht man davon aus, dass die Kopplungskonstanten des Standardmodells, jene Zahlen, die die Wechselwirkungen charakterisieren, bei hohen Energien veränderlich sind – übrigens eine methodisch nicht ganz saubere Schraube, an der man schön drehen kann. Man extrapoliert nun die Änderung dieser Parameter über elf Größenordnungen, also zu hundertmilliardenfach höheren Energien, als wir bisher in den Beschleunigern erzeugt haben. Obwohl dies eigentlich schon albern genug ist, funktioniert es noch nicht mal – die drei Geraden, die in Diagrammen die veränderlichen Werte der Kopplungskonstanten darstellen, liegen durcheinander wie achtlos hingeworfene Hochsprunglatten.iii Da eine Vereinigung aber so dringend erwünscht ist, erfindet man eine Theorie, die die Geraden so abknickt, dass sie sich in einem Punkt schneiden. Dies ist die Rechtfertigung für die Supersymmetrie, die man wissenschaftstheoretisch natürlich auch knicken kann. Oder, angenehmer formuliert: Dass die naive Ausweitung des Standardmodells nicht funktioniert, ist doch schon ein starker Beleg für die Richtigkeit der neuen Theorie. Oder? soziale und asoziale teilchen
Für ein Konzept der Supersymmetrie müssen wir wieder einen kleinen Ausflug machen, der uns nach Dhaka, damals Indien, im Jahre 1923 führt. Der Physiker Satyendra Nath Bose hatte eine Arbeit über die Statistik
Zusätzlich muss man auch noch daran glauben, dass zwischen den heute erreichbaren und diesen riesigen Energiebereichen nichts wesentliches passiert – die sogenannte „Wüstenhypothese“.
13 in
anderen dimensionen
209
von Elementarteilchen verfasst, sein Gedanke war dabei folgender: Auch eine große Zahl identischer Murmeln in einer Kiste können Sie sich im Prinzip nummeriert vorstellen, so dass man sie nach kräftigem Durchmischen immer noch identifizieren kann. Anders liegt der Fall bei Elementarteilchen. Überlagern sich deren Wellenfunktionen, so können Sie diese im Experiment prinzipiell nicht mehr unterscheiden. Unsere Alltagsvorstellung führt hier in die Irre, denn Teilchen benehmen sich auch unter diesem Aspekt wie Wellen, die ebenfalls keine Individualität besitzen. Einstein war von dieser Einsicht beeindruckt und ließ Boses Arbeit, die dieser erfolglos an Zeitschriften geschickt hatte, umgehend veröffentlichen. Leider erlebten beide nicht mehr, wie durch Laserkühlung bei ultrakalten Temperaturen die vorhergesagte BoseEinstein-Kondensation direkt verwirklicht wurde – 2001 gab es dafür den Nobelpreis. Neben den Bose-Teilchen mit ganzzahligem Spin, die gerne auf engstem Raum miteinander leben, gibt es noch eine Teilchensorte mit recht schwierigem Charakter. Benannt nach dem italienischen Physiker Fermi heißen sie Fermionen, und haben einen halbzahligen Spin, also Werte wie 1/2 ħ, 3/2 ħ …. Warum die Natur nicht ohne diese Unterscheidung existieren kann, ist übrigens unbekannt – nicht verwunderlich bei den vielen Rätseln, die dem Spin selbst anhaften. Fermionen, obwohl ebenfalls ohne Individualität, können nicht mit ihren Artgenossen eng zusammen sein, sie brauchen ihren eigenen Lebensraum, genannt Quantenzustand. Zu ihnen gehören die bekannten Protonen, Neutronen, Elektronen und viele andere.
physik im fusionsfieber – supersymmetrie als unternehmensstrategie
Mit der Sehnsucht nach Vereinigung schlägt die Supersymmetrie nun vor, dass es zu jedem Elementarteilchen einen supersymmetrischen Partner geben sollte, der das jeweils gegensätzliche Bose- und Fermi-Verhalten Erstaunlicherweise benehmen sich zwei Fermiteilchen wie Proton und Elektron, die sich zu einem Wasserstoffatom mit ganzzahligem Spin vereinigen, wieder wie Bose-Teilchen.
210 vom
urknall zum durchknall
zeigt. Zur Namensgebung stellt man ein s voran oder hängt die Endung -ino an, was zu beeindruckenden Titeln wie rot-antigrün Gluino oder blaues Beauty-Anti-Squark führt. Unzweifelhaft elementare Teilchen. Dies scheint das Unangenehme mit dem Nutzlosen zu verbinden, aber ein bedeutender Vorteil der Supersymmetrie ist sicher, dass durch sie Spannungen im Theoriegebäude gemildert werden. Denn das System der Elementarteilchen können Sie sich als ein Unternehmen mit vielen Mitarbeitern vorstellen, davon manche wichtiger oder dicker als andere, aber mit einer Reihe von Feindschaften und Eifersüchteleien untereinander gesegnet – man kann nicht immer miteinander. Die Supersymmetrie schlägt nun vor, jede Stelle solange doppelt zu besetzen, bis keiner mehr unangenehme Büronachbarn hat. Wegen Fachkräftemangel bleiben zwar die neuen Stühle leer – keines der neugeschaffenen Teilchen wurde bisher entdeckt – aber es gibt auch keinen Streit. Unternehmensberater in Form von Wissenschaftstheoretikern, die in Kosten-NutzenRechnungen die Anzahl der neuen Parameter mit den experimentellen Resultaten vergleichen, sind bei den Führungskräften der Supersymmetrie allerdings unbeliebt.
wie man als theorie dem experiment entkommt
Natürlich hat man die Idee der Supersymmetrie mit weiteren Verdopplungen zu einer Hyper-Supersymmetrie aufgebläht, in der es zu jedem leichten Elementarteilchen vom Typ Lepton ein schwergewichtiges Hadron gibt und umgekehrt, im Moment üben sich aber viele noch in Bescheidenheit mit dem minimal-supersymmetrischen Standardmodell, dessen Abkürzung MSSM wohl nicht als Persiflage auf die Symmetrie gedacht war. Es führte lediglich um die hundert freie Parameter ein für Während das Neutron, im Italienischen neutrone, einen Anklang an etwas großes besitzt, stellt die Endung -ino einen der zahlreichen Diminutive dar, der für das Neutrino Pate stand. Dies lädt zur Bildung von Begriffspaaren förmlich ein: fotone – fotino, gravitone – gravitino, W und W-ino. Das vorangestellte s deutet das Gegenteil an: piacevole gefällig und spiacevole mißraten. Damit könnte man die neuen Schöpfungen assoziieren, aber jedenfalls wurde die Teilchenphysik durch diese etymologischen Möglichkeiten erheblich beeinflusst.
13 in
anderen dimensionen
211
Teilchen, die noch niemand gesehen hat. Unter den Gruppentheoretikern tat dies der Beliebtheit jedoch keinen Abbruch, weil man mit der dazugehörigen Symmetriegruppe SU(5) wunderbar rechnen konnte, was nebenbei zu einer Reihe von Weltuntergängen führte – Gott sei Dank nur theoretischen. Denn auch diese Rechnungen können bei Bedarf beliebig hingebogen werden, um der Widerlegung zu entrinnen. Richard Feynman beschreibt eine typische Theoriebildung so: Vielleicht kann sich ja ein Quark durch Kopplung mit einem un‑ bekannten Teilchen in ein Neutrino umwandeln? Nette Idee. Aber was würde passieren? Das Proton wäre instabil. Daraus kocht je‑ mand eine Theorie. Sie machen Berechnungen und finden her‑ aus, dass es keine Protonen mehr im ganzen Weltall gibt! Also fummeln sie mit den Zahlen herum, setzen eine höhere Masse in das unbekannte Teilchen und nach großer Anstrengung sagen sie vorher, dass das Proton mit einer Rate zerfällt, die knapp unter jener liegt, zu der es gerade seine Stabilität bewiesen hat. Und wenn ein neues Experiment die Protonen noch genauer beobach‑ tet, dann reparieren sich die Theorien gerade soviel, um ihren Kopf aus der Schlinge zu ziehen. Derartige Schilderungen klingen komisch, sind aber leider exemplarisch für die heutige Physik. Passt etwas nicht, ist immer die Natur Schuld, nicht die Theorie.
die wirklichen fragen der natur – verblichen an der wand
Anstatt mit aufwändigen Rechnungen der Natur immer neue Theorien aufzudrängen, sollte man eigentlich mehr auf die Fragen hören, die sie uns stellt. Aus den Naturkonstanten h, c, ε0 und e lässt sich eine Kombination bilden, die den numerischen Wert 137,0359 … hat, eine Art Synthese aus Quantentheorie ( h), Elektrodynamik (ε0, e) und Relativitätstheorie ( c), die eine reine Zahl ergibt. Im Gegensatz zu anderen Naturkonstanten
212 vom
urknall zum durchknall
ändert sich diese Feinstrukturkonstante auch dann nicht, wenn man statt Kilogramm, Meter, usw. andere Einheiten benutzen würde. Und dennoch handelt es sich um eine im Labor gemessene Größe! Feynman schreibt dazu: Das ist eines der verdammt großen Rätsel der Physik: eine magi‑ sche Zahl, die zu uns kommt und die kein Mensch versteht (…). Wir wissen sehr genau, was wir experimentell anstellen müssen, um diese Zahl genau zu messen, aber wir haben keine Ahnung, wie wir sie mit einem Computer berechnen können. (…) Jeder gute theoretische Physiker hängt sich diese Zahl an die Wand und grübelt darüber nach. Schauen Sie sich einmal um in Physikinstituten, denen es an hervorragenden Theoretikern ja nicht mangelt, nach diesen Zetteln an den Wänden. Ich biete Ihnen hundert Euro für jedes Exemplar. Feynmans Worte sind schon lange her.
dirac, das proton und das universum
Ein weiteres Rätsel dieser Art ist fast noch mehr in Vergessenheit geraten. Außer bei der Feinstrukturkonstanten lassen sich Naturkonstanten nur noch in einem vergleichbaren Fall zu einer reinen Zahl kombinieren: dem Verhältnis der elektrischen zur Gravitationskraft, das in der Größenordnung von 1040 liegt. Gelegentlich wird es in Veröffentlichungen als Hierarchieproblem diskutiert, wobei sie aber sicher sein können, in zehn Zentimeter Umkreis um diese Vokabel keine Rechnung auf dem Papier zu finden. Denn es gibt nun mal keine plausible Mathematik, die eine Zahl in dieser Größenordnung als Ergebnis haben könnte. Ohne Rechnung bleibt aber jeder Ansatz zur Lösung des Hierarchieproblems reines Dampfgeplauder. Dirac, der solches verabscheute und die Mathematik liebte, sann deshalb nach, wo sonst in der Physik eine so große Zahl auftauchen könnte. Wenige Jahre nach Entdeckung der Hubble-Expansion kam er so auf das Verhältnis der Größe des
13 in
anderen dimensionen
213
Universums zur Größe des Protons – ebenfalls ungefähr 1040. Mit den ersten verfügbaren Dichteabschätzungen des Universums fand Dirac 1938 aber noch eine weitere Überraschung:iv Die Anzahl der Protonen im Weltall war gerade in der Größenordnung von 1080, dem Quadrat jener anderen unerklärten Zahl. Bemerkenswert dabei ist, dass diese Werte Inseln auf dem Zahlenstrahl sind, die sonst von keiner Rechnung mit Naturkonstanten erreicht werden: Es gibt keine vergleichbaren fundamentalen Eigenschaften der Materie, die Zahlen wie beispielsweise 108, 1050 oder auch 1085 erzeugen würden. Ohne eine Theorie angeben zu können, bemerkte Dirac: „Wir können sagen, dass dies eine bemerkenswerte Koinzidenz ist. Das Auftreten dieser großen Zahlen scheint auf einen tiefen Zusammenhang zwischen Kosmologie und Atomtheorie hinzudeuten“. Es ist mir unerklärlich, warum Diracs Beobachtung heute fast ausnahmslos als irrelevante Zahlenspielerei betrachtet wird. Physiker haben gelernt, virtuos mit Statistiken zu spielen, um den letzten Tropfen Signal aus einem Datenwust herauszupressen, aber kein Bewusstsein mehr für unwahrscheinliche Zusammenhänge, über deren Zufälligkeit man sich wirklich wundern muss. Schließlich treffen sich bei Diracs Vermutung nicht nur zwei Bekannte unvorhergesehen in der Wüste, sondern drei. Pascual Jordan, einer der Begründer der Quantenmechanik, bemerkte dazu im Jahr 1952: „Ich halte Diracs Gedanken für eine der größten Einsichten unserer Epoche, deren weitere Untersuchung eine der Hauptaufgaben ist“. 1938 war sicher keine gute Zeit, in der sich eine Idee in einer blühenden Forschergemeinde verbreiten konnte, und nach dem Zweiten Weltkrieg führte der Prestige- und Machtgewinn der Physiker durch die Entwicklung der Nuklearwaffen zu einer ganz neuen Ausrichtung der Forschung. Dirac konnte gelegentlich noch wie ein elder statesman mahnen, aber das Kommando hatten längst die amerikanischen Teilchenphysiker mit ihren Beschleunigern. Anstatt über unbeantwortete
Wer es genau nehmen will, spricht von der Größe des Horizonts, von dem uns Licht erreichen kann. Wenn ihnen der Originalartikel zu mühsam ist, laden Sie sich doch mal Diracs Stimme mit einem Vortrag dazu herunter: www.paricenter.com/library/download/dirac01.mp3
214 vom
urknall zum durchknall
Fragen nachzudenken wie Dirac, gaben sie viele ungefragte Antworten – jenen Haufen von Elementarteilchen, dessen Überreste wir im vorigen Kapitel besprochen haben. Zwar brachte Dirac mit einem zusätzlichen Argument die Stärke der Gravitationskonstante mit dem Weltalter in Verbindung, was man bisher nicht bestätigen konnte. Es wäre aber voreilig, deswegen den Ansatz zu verwerfen. Denn Diracs Vermutung ist bis heute die einzige quantitative Idee, wie die Gravitation mit der Mikrowelt zusammenhängen könnte.
mrs. theoretische physik – die prophetin von harvard
Kehren wir wieder zu moderner Theoriebildung zurück. Das Esquire Magazine gibt eine Liste der 75 Most Influential People of the 21st Century heraus. Eine besondere Koinzidenz ist, wenn ein dort genannter Name auch als Autor der 100 grundlegendsten Bücher auftritt, die von der New York Times gekürt wurden. Bei dem Superstar der Physik vom Großen und Ganzen ( Stern) handelt es sich um Lisa Randall, Lehrstuhlinhaberin in Havard, Trägerin von unzähligen Wissenschaftspreisen, die zeitweise meistzitierte Physikerin der Welt. Was hat sie herausgefunden? Nun, um es kurz zu machen – den Grund, warum Gravitation so schwach ist: Er liege in der geringen Krümmung einer fünften Extra-Dimension. In Randalls Modell des Weltalls ist diese zwischen zwei Branen eingeklemmt. Auf der einen Bran, genannt Schwachbran, sitzen wir. Alle Materie, alle Kräfte sind an unsere Bran gebunden – wie Wassertropfen an den Duschvorhang, wie es heißt.v Könnte es nicht auch sein, dass solche Wassertropfen entstehen, wenn jemand gebadet hat, und zwar zu heiß? Soll die geringe Krümmung der fünften Dimension eine Erklärung der Gravitation sein? Warum nicht die einer sechsten oder siebten? Genausogut könnte man die extrem schwache Gravitation mit rosa Elefanten erklären, deren große Ohren sie abschirmen. Solange Der Name ist von Membran abgeleitet. Als man bereits alle Phantasien auf Strings (Saiten) diskutiert hatte, wurden Brane als Verallgemeinerung erfunden.
13 in
anderen dimensionen
215
alles als unsichtbar postuliert wird, wie die zweite Bran und die fünfte Dimension, ist jede Erklärung gleich gut, aber eben nicht nachprüfbar. Unbestritten löste aber Randalls Idee eine Welle von Forschungsarbeit aus. Der Spiegel schreibt dazu: „In der Wissenschaft gilt die Häufigkeit, mit der ein Forscher zitiert wird, als Maß seiner Bedeutung. Wenn etwas dran ist an dieser Messmethode, dann ist der bedeutendste theoretische Physiker blond, drahtig, ziemlich klein – und weiblich.“ Lieber Spiegel, an dieser Messmethode ist leider nichts dran. An ganz anderer Stelle wurde einst im Spiegel hinterfragt, ob der Zusammenhang zwischen dem Bruttosozialprodukt der Medizin und der Gesundheit der Bevölkerung wirklich gelte. So ist auch hier die Flut von Veröffentlichungen ein Maß für das Herumdoktern, aber wichtig wird das Ganze dadurch nicht. Im Vergleich mit Diracs Gedanken bleibt die Erklärung der Gravitation ein Leichtgewicht – auch wenn noch so viele Schwachbirnen auf die Mode der Schwachbranen aufspringen. Aber, wie der Kosmologe Lawrence Krauss bemerkt, „Die bisher hypothetische Welt der verborgenen Zusatzdimensionen wurde für viele, die sich selbst Physiker nennen, schließlich überzeugender als die Welt der Erfahrung“. Der Verstand geht baden.
tests und wetten auf die zusatzdimensionen
Fast hätte ich vergessen, es nochmal zu erwähnen: Alle Experimente zur Bestätigung der Extradimensionen waren erfolglos. Um sich nicht dem Vorwurf auszusetzen, man habe den Kontakt zur Beobachtung verloren, erfinden die Theoretiker als Feigenblatt die Hypothese, eine der Extradimensionen sei groß genug um vielleicht messbar zu sein. Wenn man dann nichts findet, Pech gehabt, dann war sie eben ein bisschen zu klein, und das Spiel geht weiter. Die im Kapitel 5 erwähnte Eöt-Wash Gruppe führt seit langem Gravitationsmessungen bei immer kleineren Abständen durch, bei denen sich die zusätzlichen Dimensionen eigentlich hätten zeigen sollen,vi aber man fand nicht den geringsten Hinweis. Beim Marcel-Grossmann-Meeting 2003 in Rio berichtete Ruth Durrer von der Universität Genf von den Messungen am Taylor-Hulse-Pulsar,
216 vom
urknall zum durchknall
der auf Gravitationswellenabstrahlung schließen lässt. Durrer kam zu dem Ergebnis, dass schon eine einzige Zusatzdimension die Abstrahlung um 20 Prozent erhöht hätte, mithin also ausgeschlossen sei. Sofort kam eine Frage aus dem Publikum: „Do you mean that all these theories are dead?“ Gespannte Stille breitete sich im Saal aus. Leider beschränkte Durrer ihr Todesurteil nur auf eine Klasse von Stringtheorien, die sie näher erläuterte. „Warum haben Sie nicht einfach ‚yes!‘ geantwortet?“ fragte ich sie mit leichtem Vorwurf, als ich ihr zwei Tage später im Hotel begegnete. „Ja, viellaacht. Abr da hättn sie sech noch mähr aufgeregt.“ Doch selbst mit dieser schweizerischen Neutralität in der Bewertung fehlt jedenfalls jegliche Evidenz für die Zusatzdimensionen. Dennoch bleibt der Glaube daran fest verwurzelt, Lee Smolin berichtet etwa von dem ungläubigen Staunen, mit dem ein Teilchenphysiker seine Zweifel daran erwiderte: „Meinen Sie im Ernst, es sei möglich, dass es keine Zusatzdimensionen gibt?“ Martin Rees, so wird berichtet, würde seinen Hund wetten, dass sie existieren und der Inflationstheoretiker Andrej Linde sogar sein Leben. Der Schriftsteller Gilbert Keith Chesterton sagte, der Mensch sei bereit, für jede Idee zu sterben, vorausgesetzt, dass ihm die Idee nicht ganz klar ist. Mir ist die Idee der zusätzlichen Raumdimensionen auch nicht ganz klar, aber ich schließe mich hier eher Steven Weinberg an: Er würde sowohl Martin Rees’ Hund als auch das Leben von Andrej Linde auf die Existenz der Extradimensionen verwetten.
physik und religion
Bei dieser Diskussion um Leben und Tod streifen wir ein Thema, das populäre Physikbücher noch etwas populärer zu machen scheint: Religion. Ein offenbar von allen guten Geistern verlassener Professor der Physik erklärt zum Beispiel in einem Buch Physik des Christentums alle Wunder der Bibel rein naturwissenschaftlich, etwa das Wandeln Jesu auf dem Wasser mit einem als Raketenmotor wirkenden Neutrinostrahl. Während dies dem psychisch Gesunden als Amüsement dienen kann, ist bei allgemein anerkannten Autoren das Übersinnliche subtiler präsent. So finden wir im Kapitel 9 von Lisa Randalls Verborgene Universen Darstellungen der Symbole von fünf Weltreligionen mit dem Hinweis
13 in
anderen dimensionen
217
auf ihre Symmetrien. Dies ist zwar nicht so überraschend, dient aber als Überleitung für die große Rolle der Symmetrien in der modernen Physik, nach dem Motto: tiefes gemeinsames Wissen. Aber auch bei der Lektüre von Büchern wie Vom Urknall zum Zerfall oder Das Schicksal des Universums hat man den Eindruck, dass ein wenig begleitende Weihrauchschwaden hilfreich sind, dem Leser die mit Logik nicht so leicht fassbaren Geschichten leichter verdaulich zu machen: Da fühlt sich ein Autor beim Higgs-Feld an den „alles durchdringenden Gott“ erinnert. Vielleicht sollte man beim CERN ja ein paar Priester einstellen, damit es endlich klappt mit dem Higgs. Fakt ist, dass sich Wissenschaft und Religion von der Arbeitsmethode her nicht vertragen. „Wenn wir ehrlich sind“, sagte Dirac 1927 bei der Solvay-Konferenz, „– und das genau ist unsere Pflicht als Wissenschaftler – können wir nicht umhin zuzugeben, dass Religion ein Haufen von falschen Aussagen ist, die keinerlei reale Grundlage haben. Die ganze Idee von Gott ist ein Produkt menschlicher Phan tasie.“ Postwendend hörte Dirac Wolfgang Paulis Spott: „Die Religion unseres Feundes ist der Atheismus, und Dirac ist sein Prophet“. Dirac lachte selbst herzlich darüber, aber heute finden manche Top-Physiker eine Kooperation wieder segensreich, und es werden Symposien abge halten mit entsprechend schwammigen Titeln wie Science Meets Re‑ ligion. Besonders hervorgetan hat sich auf diesem Gebiet Antonino Zichichi, der Gründer eines wunderschön gelegenen Physikzentrums in dem kleinen Dorf Erice hoch über der Westküste Siziliens. Als ich dort vor etlichen Jahren einen Kurs über Quantenmechanik besuchte, ließ ein junger Münchner Physiker in einem Restaurant zwei Espressotassen als Souvenir mitgehen, was seine Freunde beobachteten und zu einem Streich nutzten. Über Zichichi waren zahlreiche Geschichten in Umlauf, etwa dass gestohlene Koffer sofort wieder auftauchten, wenn man ihm davon berichtete. Der Souvenirjäger fand am nächsten Tag ein – von seinen Freunden fingiertes – Schreiben von Zichichi in seinem Postfach vor, in dem er ermahnt wurde, als Gast doch bestimmte Dinge zu unterlassen. Zichichis Ruf war derart, dass der Schuldige die Tassen den verdutzten Kellnern unverzüglich zurückbrachte. „Mittelmäßiger Physiker, aber hervorragender Organisator“ sagte der Nobelpreisträger Hans Bethe über ihn.
218 vom
urknall zum durchknall
wie gott das cern rettete
In zahlreichen Radiointerviews vertrat Zichichi die Ansicht, Religion und Wissenschaft seien eigentlich das gleiche, weswegen er im katholischen Italien größte Popularität genießt und allenthalben für einen Nobelpreisträger gehalten wird. Ein Freund von mir aus Rom fasste eine jener Sendungen mit dem trockenen Kommentar zusammen: „Ha detto una marea di cazzate.“ Zichichi wäre übrigens um ein Haar im Jahr 1979 Direktor des CERN geworden, aber es scheint doch ein paar physikalische Gründe für den Ausgang der Kampfabstimmung gegeben zu haben, die die turnusmäßige italienische Besetzung verhinderte. Wenn also auch Zichichi – Gott sei Dank – kaum direkte Kontakte mehr zum Heiligen Gral der Physik hat, so doch zum Heiligen Stuhl. So spricht ein deutscher Theoretiker, der seinem autobiographisch angehauchten Wikipedia-Eintrag zufolge bedeutende Beiträge zur Quantenchromodynamik geleistet hat, in seinen Sachbüchern von einem „Gott als Einheit des Universums in der 8. Epoche“, und meint, die von ihm beschriebene Religiosität sei durchaus in der Lage, „unserem Dasein einen Sinn zu verleihen“ – kein Wunder, dass dabei ein Händedruck von Johannes Paul II. heraussprang, natürlich im Beisein dessen physikalischen Apostels Zichichi. Solche Allianzen bereiten den Boden für die manchmal exotischen Szenarien der Physik, denen gegenüber die biblische Schöpfungsgeschichte oft noch ein Muster an Kausalkette ist. Schon das Glauben an sich ist willkommen, so wie Mephisto in Goethes Faust die Gretchenfrage kommentiert: Herr Doktor wurden da katechisiert. Hoff es soll Ihnen wohl bekommen. Die Mädels sind doch sehr interessiert, Ob einer fromm und schlicht nach altem Brauch. Sie denken: Duckt er da, folgt er uns eben auch.
Eigentlich unübersetzbar; wörtl.: Er erzählte eine Flutwelle von Blödsinn.
13 in
anderen dimensionen
219
Einzig ein Bekenntnis Galileis scheint mir im Umgang mit manchen modernen Pseudo-Theorien nützlich: „Ich bin nicht verpflichtet zu glauben, dass derselbe Gott, der uns mit Sinnen, Vernunft und Verstand begabt hat, von uns verlangt, dass wir auf ihren Gebrauch verzichten“.
von shivas tanz zwischen den platten ins nirwana des quantenschaums
Viele Physikbücher sind inzwischen mit indischen Gottheiten verziert, aber eine populäre Parallele zwischen östlicher Weisheit und „westlicher“ Wissenschaft wurde schon in dem Buch Das Tao der Physik konstruiert, von einem Schüler Heisenbergs. In solchen Fällen lohnt es sich aber stets, nachzufragen, was der Betreffende außer der Schülerschaft denn herausgefunden hat. Es war die Erkenntnis, dass der Tanz des Gottes Shiva eigentlich nichts anderes sei als Quantenfluktuationen des Vakuums, die nach der Heisenbergschen Unschärferelation durch kurzzeitiges Ausborgen von Energie entstehen können. Im freien Raum können sich demnach Photonen aller Wellenlängen bilden, während in einem Raumgebiet zwischen zwei Metallplatten die langen Wellen nicht hineinpassen. So drücken etwas mehr Photonen auf die Außenseiten der Platten als von innen, wodurch diese netto minimal angezogen werden, einfach so, ganz ohne elektrische Ladungen. Dieser Casimir-Effekt, eine schöne, direkte Folgerung aus der Quantenelektrodynamik, ist inzwischen in Experimenten sehr gut bestätigt. Manche Theoretiker konnten es natürlich wieder nicht lassen, die Vorstellung dieses Teilchengewimmels mit dem Unsinn der Plancklänge von 10−35 Metern zu kombinieren. Angeblich führe dies nach der Allgemeinen Relativitätstheorie dort zu extremen Krümmungen, was ein Einreißen der glatten Raumzeit verursache. Gleich einer stürmischen See mit überschlagenden Wellen erzeuge sie so mit ihrer Gischt einen „Quantenschaum“. Diese Bezeichnung erfand übrigens John Wheeler 1955, im Todesjahr Einsteins. Das ruhige, klare Wasser, in dem dieser zu segeln liebte, war damit endgültig Vergangenheit, die berstenden Dämme der Vernunft gaben zerrissene und durchlöcherte Strukturen
220 vom
urknall zum durchknall
frei, Wurmlöcher und ähnlicher nicht messbarer Science-FictionBlödsinn quillt seitdem aus den Köpfen der Theoretiker – niemand weiß, was das sein soll, aber anything goes, die Physik wird dort postmodern.
streitpunkt quantenmechanik: schrödingers katze und hawkings flinte
Man kann sich nur wundern, wie viele erwachsene Menschen sich mit solchem Spielzeug abgeben, denn die überprüfbaren Quantenphänomene sind eigentlich interessant genug. Die Quantenmechanik berechnet aus der Wellenfunktion die Aufenthaltswahrscheinlichkeit eines Teilchens, eine Deutung, für die Max Born 1954 den Nobelpreis erhielt. Eine eigenartige Konsequenz ist dabei, dass ein Elektron sich in einem Mischzustand befinden kann, der Wahrscheinlichkeiten für einen Spin nach oben oder nach unten enthält. Erst im Moment der Messung entscheidet sich dann, in welche Richtung der Spin zeigt. Eine Aussage mit philosophischer Sprengkraft, denn hier gäbe es keine von der Beobachtung unabhängige Realität mehr. Erwin Schrödinger, dem „Vater“ der Wellenfunktion, behagte diese Vorstellung wenig, und so ersann er ein Gedankenexperiment mit einer Katze in einer Kiste, die einer Giftampulle ausgesetzt wird. Wenn das Freisetzen des Giftes mit einem Quantenprozess verbunden sei, argumentierte Schrödinger, müsse man konsequenterweise auch annehmen, die Katze befände sich in der Kiste in einem Überlagerungszustand von Leben und Tod, solange nicht ein Beobachter den Deckel aufmacht und nachsieht, was los ist. Damit hat Schrödinger ein Problem der sogenannten Kopenhagener Deutung herausgestellt, auch wenn man Gedankenexperimente oft nicht so einfach ausführen kann – denn dann müsste man von einem Teilchen auf die 1027 einer Katze extrapolieren. So ist eine längere Debatte über dieses arme Tier auch nur begrenzt fruchtbar, und Stephen Hawking bemerkte einmal genervt: „When I hear of Schrödinger’s cat, I reach for my gun“. Allerdings wurde diese Idee durch ein an sich interessantes Gedankenexperiment von Einstein zusammen mit Podolsky und Rosen 1935 etwas angedeutet.
13 in
anderen dimensionen
221
viele welten und noch mehr theorien
Für Systeme der Alltagswelt wie die Katzenkiste scheint daher der Gedanke der „Dekohärenz“ etwas realitätsnäher: Auch ohne menschlichen Beobachter würden hier schon Luftmoleküle in der Kiste dem Quantenschweben zwischen Leben und Tod ein Ende machen. Statt der Vorstellung, die Natur entscheide sich in jedem Moment zufällig für einen der vielen möglichen Fortgänge der Welt, begründete der amerikanische Physiker Hugh Everett die Dekohärenz mit einem alternativen Gedankengebäude: Alle möglichen Welten werden realisiert, aber wir leben eben – zufällig – in dieser: die many worlds- Interpretation der Quantenmechanik. Möglicherweise existiert dann auch eine Welt, in der Everett nicht zu früh an übermäßigem Alkohol- und Zigarettenkonsum starb, was man hier leider beobachten musste. Wissenschaftstheoretisch ist diese Lösung aber ungefährlich, weil die Quantenmechanik sehr erfolgreich Experimente beschreibt und den Theoretikern den Freibrief der Interpretation lässt. Natürlich fragt man sich dabei manchmal, was man über Physik lernt, und so bohrte der Spiegel zu Recht in einem Interview mit dem Theoretiker David Deutsch nach:vii Sind Sie wirklich überzeugt, dass all diese vielen Universen – diese Dino-wächst-aus-dem-Erdboden-Universen, diese Hussein-hei‑ ratet-Laura-Bush-Universen und diese Harry-Potter-Universen – dass die genauso real sind wie dasjenige, in dem wir hier sitzen und uns unterhalten? Manchmal wäre man schon mit einem Universum zufrieden, in dem David Deutsch nicht soviel redet. probiert die natur den größten berechenbaren unsinn aus?
Wie fast alle Ideen kann man auch die der Parallelwelten durch Kombination mit der Inflationstheorie pervertieren. Diese erweisen sich dort als äußerst nützlich, um irgendwelche unsinnigen Rechenergebnisse
222 vom
urknall zum durchknall
abzustellen, die im Widerspruch zur realen Welt wären. So werden in der ewigen Inflation fortwährend neue Welten erschaffen, natürlich alle unsichtbar, und dies scheint als implizite Rechtfertigung zu dienen, ewig neue Schauergeschichten über den Anfang des Universums zu erfinden. Noch praktischer erweisen sich Parallelwelten bei der vieldiskutierten Frage, warum die Naturkonstanten gerade die numerischen Werte haben, die wir beobachten. Mit einer Feinstrukturkonstante von 5,3 statt 137,036 könnten sich zum Beispiel keine Kohlenstoffatome bilden und damit auch keine theoretischen Physiker. Erklärung: Die Natur probiert es einfach aus, es gibt Universen mit allen möglichen denkbaren Naturkonstanten, die wir nicht sehen können, und wir leben halt zufällig hier. Natürlich ist mit solchen Argumenten der Willkür Tür und Tor geöffnet. Gerne wird dieser Unsinn daher auch zur Erklärung der „falschesten“ Vorhersage der Physik verwendet. Aus dem Casimir-Effekt berechnen Physiker eine abstoßende Energiedichte und identifizieren sie mit jener der kosmologischen Konstante. Leider ist letztere um 120 (!) Zehnerpotenzen zu klein – was der Schönheit dieser „einheitlichen“ Beschreibung natürlich kaum Abbruch tut, wenn man als Erklärung Paralleluniversen aus der Tasche zieht. Überhaupt ist das Ganze nur eine relativ triviale Folgerung der Plancklänge und Planckmasse, für die die Gravitationskonstante verantwortlich ist. Wenn überhaupt, kann man eine Erklärung für diese Zahl in den Diracschen Hypothesen suchen – aber die sind den Quantenfeldtheoretikern meist unbekannt.
physik, die königin der ironischen wissenschaft, und der nackte kaiser
Viele Auswüchse der modernen Theoretischen Physik entfernen sich so um viele Größenordnungen von der experimentellen Bestätigung. Statt als Beschreibung der Natur versteht sich die Physik immer mehr als Ideengeber für StarTrek, während sich die Theoriebildung zunehmend in einer Art von Übersprungshandlung auf Beweise
13 in
anderen dimensionen
223
beschränkt, dass die verwendeten mathematischen Ansätze miteinander vereinbar sind. Heftig verspottet dies Robert B. Laughlin, der 1996 den Nobelpreis für den fraktionierten Quanten-Hall-Effekt in der Tieftemperatur-Festkörperphysik erhielt. Er schlug vor, schwarze Löcher als Phasenübergänge zu beschreiben.viii Auf die Frage, ob man das denn jemals messen könnte, antwortete er: „Natürlich nicht. Es war nur als Provokation gedacht. Denn ich bin es satt, in Seminaren zu sitzen und mir Spekulationen darüber anzuhören, wenn Superstrings auf schwarze Löcher treffen. Niemand redet da über Experimente.“ Die Zeitschriften sind in der Tat voll von den Sorgen der Physiker, wie sich mehr oder weniger abstruse Theoriekonstrukte miteinander vereinbaren lassen. Ob ein hypothetisches Teilchen, genannt Cosmon, mit der dunklen Energie wechselwirkt, ob in zweidimensionaler Gravitation schwarze Löcher existieren, was für eine Topologie man für Wurmlöcher in der Raumzeit benötigt, ob eine N = 8 Supergravitation möglich ist, welcher Phasenübergang mit diesem und jenem Inflationsszenario vereinbar ist, zu all dem kann man ausgiebig rechnen. Mit Naturwissenschaft hat es nur mehr indirekt zu tun, und John Horgan prägte dafür in seinem Buch The End of Science den treffenden Begriff ironische Wissenschaft. Mit der These, die Wissenschaft als Ganzes sei wirklich schon am Ende, wie Horgan meint, muss man keineswegs übereinstimmen, aber seine Beobachtung, dass die Theoretische Physik auf der Stelle tritt, ist leider vollkommen zutreffend. Ob wir in einem fraktalen Quantenkosmos leben,ix ob die Inflation ewig oder chaotisch ist, wieviele Extradimensionen es gibt und welche Schwachbranen wie gekrümmt sind – das sind alles Hypothesen, hinter denen sich natürlich die Edelsteine der Lösung verbergen könnten. Aber wir können den Müll nicht mehr aussondern, solange kein echter Abgleich mit den Daten stattfindet. So wird Physik zum Lauschen der Erzählungen von Leuten, die Gold und Edelsteine sehen, die die Gewänder der Natur zieren. Angesichts dieser fabelhaften Entdeckungen sollten wir uns aber nicht schämen, wie die Kinder im Märchen zu sagen: Der Kaiser ist nackt.
224 vom
urknall zum durchknall
weiterführende literatur J. Horgan: The End of Science, Addison-Wesley 1996, Kap. 3. L. Randall: Verborgene Universen, Fischer 2008. R. Laughlin: Abschied von der Weltformel, Piper 2007. D. Zeh: Wozu braucht man „Viele Welten“ in der Quantentheorie? (www.zeh-hd.de). J. Gribbin: Auf der Suche nach Schrödingers Katze, Piper 2009. T. Hürter/M. Rauner: Die verrückte Welt der Paralleluniversen, Piper 2009. i YouTube: Brian Greene: The Universe on a String. ii A. Einstein, Annalen der Physik 102 (1930), S. 685–697. iii U. Amaldi et al., Phys. Lett. B 260, S. 447–455, 1991. iv P. A. M. Dirac, Proc. R. Soc. Lond. A 165, 199–208 (1938). v L. Randall, Theories of the Brane, www.edge.org vi D. J. Kapner et al., PRL 98 (2007), 021101. vii Spiegel 11/2005, 14.03.2005, S. 185. viii Spiegel 1/2008, 31.12.07, S. 120. ix Spektrum, 02/2009, S. 24.
14
Abschied von der Wissenschaft Stringtheoretiker und andere Religionsanhänger. Oder: Von der Elite zur Sekte zur Mafia
Es ist Februar 2001, als das Jahrestreffen der American Association for the Advancement of Science stattfindet, dem Herausgeber der renommierten Zeitschrift Science. In der Sitzung „The coming revolutions in particle physics“ hält David Gross einen Vortrag mit dem Titel „The power and glory of string theory“. Drei Jahre später sollte Gross den Nobelpreis erhalten – wenn auch nicht für die angekündigten Revolutionen. Gross gibt einen Rückblick auf dreißig Jahre Forschung, die für viele zu den bedeutendsten Errungenschaften des menschlichen Geistes zählt, denn sie betrifft nichts geringeres als eine physikalische Theorie der Weltformel, der Theory of Everything. Wenn sich auch alles in zusätzlichen, nicht sichtbaren Dimensionen abspielen soll, so ist es doch Realität, dass man sich an den führenden Institutionen fast ausschließlich mit Stringtheorie beschäftigt. Sie wurde verschiedentlich populär dargestellt, wie in dem Buch Das elegante Universum von Brian Greene: In großen Teilen der mathematischen und physikalischen Ge meinschaft wächst die Überzeugung, dass von der Stringtheorie der Traum von der einheitlichen Theorie zu erwarten ist. Von einem Prinzip ausgehend – dass alles auf der fundamentalsten Ebene aus Kombinationen schwingender Fäden besteht – liefert die Stringtheorie ein einziges Erklärungsmodell, das alle Materie und alle Kräfte einschließt. A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_14, © Springer-Verlag Berlin Heidelberg 2010
225
226 vom
urknall zum durchknall
Anscheinend handelt es sich um ein umfassendes Gebäude der Theoretischen Physik. Die Theorie ist sogar derart allgemein, dass noch nicht ganz klar ist, was alles entdeckt werden wird. Der Wissenschaftspublizist Gary Taubes drückte dies in einem Aufsatz so aus: „Die Stringtheoretiker haben noch keine Idee, wohin dieser Fortschritt sie führen wird“. Nur, ist es dann sicher ein Fortschritt? Unbestritten handelt es sich um ein mathematisch komplexes Gebiet mit geheimnisvollen Strukturen, in denen sich überraschende neue Theoreme offenbaren. Nach den plakativen Worten von Jeffrey Harvey, Professor für Stringtheorie an der Universität Chicago, haben allerdings die Stringtheoretiker „noch herauszufinden, was zum Teufel das alles mit der Realität zu tun hat“. „Gar nichts“ sei dabei immerhin eine mögliche Antwort, wie Dieter Zeh, Professor für Quantentheorie an der Universität Heidelberg, in einem Aufsatz anmerkte. Zeh war wie viele verwundert über die Diskrepanz zwischen den angekündigten Ergebnissen der Stringtheorie und jenen, die konkret vorliegen: nämlich gar keinen. Gerardus ’t Hooft, Nobelpreisträger von 1999, brachte die Situation mit einer Metapher auf den Punkt: Stellen Sie sich vor, ich gebe Ihnen einen Stuhl, und erkläre dabei, dass die Füße noch fehlen, während der Sitz, die Lehne und die Armstützen vielleicht bald geliefert werden. Was auch immer ich Ihnen gegeben habe, kann man es noch einen Stuhl nennen?
Großartiges Bild im leeren Rahmen
In seinem Buch The Trouble with Physics beschreibt Lee Smolin, dass es der Stringtheorie so ziemlich an allem fehlt: Zu Grunde liegende Prinzipien, mathematische Formulierung, und vor allem die experimentelle Überprüfung bleiben völlig unklar und werden durch vage Hoffnungen und Vermutungen ersetzt. Noch härter kritisiert Peter Woit, Mathematiker an der Universität Columbia, die Stringtheorie in seinem Buch Not Even Wrong. Der Titel bezieht sich auf einen Ausspruch des Nobelpreisträgers Wolfgang Pauli, der für seine spitzen Bemerkungen gefürchtet war. Er unterteilte physikalische Theorien in die Qualitätskategorien
14 abschied
von der wissenschaft
227
„richtig“, „falsch“ und „noch nicht einmal falsch“, und bezeichnete mit der letztgenannten wohlfeiles Geschwätz, das mangels Überprüfbarkeit noch hinter den widerlegten, also falschen Theorien rangiert. Pauli hatte bereits in den 1960er Jahren die optimistischen Ankündigungen einer einheitlichen Theorie durch Heisenberg mit einer Postkarte an Kollegen persifliert. Dort war ein leerer Bilderrahmen zu sehen mit der Unterschrift: „Dieses Gemälde zeigt, dass ich male wie Tizian. Nur technische Details fehlen.“ Wohl in Unkenntnis dieser Ironie wird heute oft von fra meworks gesprochen, wenn man kein handfestes Resultat hat, und rein mathematisch betrachtet, spottet Woit, sei die Stringtheorie „die Menge der physikalisch motivierten Hoffnungen, dass eine Theorie existiert“. Aber auch der hochangesehene Roger Penrose bemerkt trocken: „Wie beeindruckt bin ich, dass diese erstaunlichen mathematischen Beziehungen … eine tiefe Nähe zur Natur andeuten? (…) Ich bin sicherlich nicht überzeugt davon.“ Vielen Physikern geht es nicht anders, so dass die „Theorie von allem“ auch schon mal „Theorie von irgendetwas“ oder gar – wie von dem Kosmologen Lawrence Krauss – als „Theorie von gar nichts“ bezeichnet wird. Gerardus ’t Hooft geht sogar noch weiter: „Ich wäre noch nicht mal bereit, die Stringtheorie eine ‚Theorie‘ zu nennen, eher ein ‚Modell‘ oder noch nicht mal das: Nur eine Ahnung.“ Vom Rest der Physik dagegen haben viele Stringtheoretiker noch nicht mal diese.
Revolution als Institution – ein Blick zurück und nach vorne
Im März 1995 äußerte der berühmte Edward Witten auf einer Stringkonferenz die Vermutung, dass Versionen der Stringtheorie zueinander „dual“ seien, also mathematische Ähnlichkeiten aufweisen. Für viele musste dies eine Erleuchtung gewesen sein, denn man sprach seither von einer „zweiten Revolution“ der Stringtheorie – für ihre Verbreitung allein hatte man in den 1980er Jahren schon den Titel „erste Revolution“ reserviert. In Anbetracht des oben Gesagten ist die Vermutung einer Ähnlichkeit zwischen zwei Sorten von Hypothesen noch kein sehr nahrhaftes Resultat, dennoch dominierte es die stringtheoretische
228 vom
urknall zum durchknall
Forschung der letzten Jahre mit über 6 000 Veröffentlichungen allein dazu. Man muss sich diese Zahl auf der Zunge zergehen lassen, wie der Quantenfeldtheoretiker Bert Schroer:i Ich kenne keine nichtmetaphorische Aussage in der Geschichte der Teilchenphysik, die 6 000 Forschern erlauben würde, einen Artikel darüber zu schreiben. Man braucht ein Thema, das hin reichend vage und biegsam ist, um von so vielen Leuten massiert zu werden. In der Tat ist es schwer vorstellbar, dass noch Physik herauskommen kann, wenn so viele ihren Senf dazugeben. Physikalisch gleicht die „Revolution“ ohnehin eher einem Sturm im Wasserglas, der bis dato noch keinen Tropfen experimentelles Resultat hervorgebracht hat. Während dies von nicht wenigen kritisiert wird, merkte der Nobelpreisträger Sheldon Glashow an:ii „Die Superstringtheorie ist so ehrgeizig, dass sie entweder nur vollkommen richtig oder vollkommen falsch sein kann. Allerdings gibt es ein Problem: Ihre Mathematik ist so neu und so schwierig, dass die Frage auf Jahrzehnte offen bleiben wird.“ Die Schwierigkeiten wurden manchmal mit der Entdeckung eines Raumschiffes einer hochentwickelten außerirdischen Zivilisation verglichen, zu dem die Betriebsanleitung fehle. Diese müsse man mühsam aus dem technischen Wunderwerk erschließen. „Es ist aber keineswegs klar, ob es wirklich ein Raumschiff ist oder nur ein Toaster“ merkte Woit dazu an. Bis vor zehn Jahren waren sich aber alle einig, dass die Stringtheorie die Mathematik des 21. Jahrhunderts sei, und möglicherweise die altbackenen Physiker überfordere. Nun sind wir hier, fragen nach den Fortschritten und erwarten das 40jährige Jubiläum der Stringtheorie, die verknöchert wie die Deutsche Demokratische Republik unter den Lobpreisungen der Honeckers. In ihren Zentralkomitees ist aber ein Gorbatschow nicht in Sicht.
Man könnte hier allerdings einwenden, dass Glashows Standardmodell der Teilchenphysik sich stets damit zufrieden gab, ein bisschen richtig zu sein.
14 abschied
von der wissenschaft
229
Mathematik zu schwer, oder Theoretiker zu leichtfertig?
Vielleicht sollte man ja auch nicht unfair sein und den Stringtheoretikern sofort einen Strick aus der mangelnden Überprüfbarkeit der Theorie drehen. Die Mathematik ist eben schwer. Genauer gesagt, vermutet man aber eigentlich nur, dass sie sehr schwer sein muss. Denn man weiß noch nichts von den Gleichungen, die man lösen soll, geschweige denn von einem zu Grunde liegenden Prinzip oder der Möglichkeit, die Theorie lasse sich überhaupt formulieren. Stattdessen wird mathematische Arbeit, die zu tun wäre, durch Legendenbildung ersetzt, indem man leichtfertig unvollständige Resultate zitiert. Lee Smolin hat dies exemplarischiii an der hundertfach zitierten Behauptung gezeigt, die Stringtheorie sei endlich, obwohl in Wirklichkeit der Beweis in dem berühmten Artikel von Mandelstam 1980 unvollständig ist. Jedenfalls ist die Überzeugung, dass Elementarteilchen unbedingt saitenförmige Gebilde sein müssen, mit keiner noch so subtilen Logik zu rechtfertigen. Neben dieser vagen Idee gibt es nach Glashow keine attraktive These, die für die Theorie spricht. Er schreibt: Solange die Stringleute nicht die wahrgenommenen Eigenschaften der richtigen Welt interpretieren können, machen sie keine Phy sik. (…) Wo sollen junge Doktoren, die nur Stringexperten sind, arbeiten, wenn die Stringtheorie floppt? Sind die Stringgedanken nicht geeigneter für die Mathematikinstitute oder gar für theolo gische Fakultäten, als für Physikinstitute? Wieviele Engel können auf der Spitze einer Nadel tanzen? Wie viele Dimensionen gibt es in einer kompaktifizierten Mannigfaltigkeit, die 30 Größenord nungen kleiner ist als eine Nadelspitze? Glashows Sorge um die Arbeitsplätze hat sich als unbegründet erwiesen, denn wenn genügend Leute ihre Karriere darauf aufbauen, werden „auch unfruchtbare Ideen unsterblich“, wie Lee Smolin feststellte. Stand Glashow aber allein mit der Überzeugung, es handle sich um eine zu Absurditäten aufgeblähte vage Vermutung?
230 vom
urknall zum durchknall
Dimensionen und Dimensiönchen
Vielleicht beginne ich Sie ja mit vielen Zitaten zu langweilen, aber es gibt doch viele Leute, die nicht einfach nur zu dumm sind, die Mathematik der Stringtheorie zu verstehen. Richard Feynman etwa wunderte sich: Zum Beispiel verlangt die Theorie zehn Dimensionen. Na gut, vielleicht gibt es einen Weg, sechs Dimensionen aufzurollen. Das ist mathematisch möglich, aber warum nicht sieben? Wenn sie ihre Gleichung aufschreiben, sollte die Gleichung entscheiden, wie viele Dimensionen aufgerollt werden, nicht der Wunsch, mit dem Experiment übereinzustimmen. Feynman fasste sein Argument auch so zusammen: „Die Stringtheoretiker liefern keine Vorhersagen, sondern Entschuldigungen“, und er pflegte John Schwarz, den Erfinder der Strings, auf den Gängen des California Institute of Technology mit der Frage zu necken: „Na, John, in wievielene Dimensionen lebst Du denn heute?“ Die Willkürlichkeit der Dimensionsannahmen ist ein wunder Punkt der Stringtheorie. Wie Brian Greene im Unterkapitel „Warum drei?“ des eleganten Universums beschreibt, haben daher die Physiker Brandenberger und Vafa jüngst intensiv gerungen mit der Unfähigkeit der Stringtheorie, diese Dimensionszahl vorherzusagen: fünf Seiten lang, die in Konjunktiven enden. Ich tue sie Ihnen hier nicht an. Aber vielleicht kennen Sie schon die schönen Graphiken mit unendlich ausgedehnten Ebenen, auf denen viele kleine Kügelchen, Zylinderchen, Kreislein, oder gar exotische Calabi-Yau-Räumchen montiert sind. Die genaue Struktur dieser Dimensionsteppiche werden wir wohl nie erfahren, aber umso heftiger wird an den theoretischen Webstühlen gearbeitet. So genießt man als Leser die bizarren Welten mit Namen wie O-heterotische Strings (!), durch die man von Greene geführt wird. Klingt interessant, aber denken Sie jetzt bloß nicht an Beate Uhse! Denn zwischendurch erklärt Greene auch schön anschaulich Einsteins
Süddeutsche Zeitung: „Keiner wirbt schöner für die Weltformel.“
14 abschied
von der wissenschaft
231
berühmte Entdeckungen, und erläutert etwa über zwei Seiten, warum Elektronen beim Photoeffekt das Metall mit der gleichen Geschwindigkeit verlassen müssen.iv Sie müssen vielleicht als Leser hier nicht damit vertraut sein, aber Elektronen tun das keineswegs, wie man mit einem einfachen Experiment nachweist. Deswegen werten wir im bayerischen Abitur diese Aussage immer als Schnitzer, aber vielleicht geht das ja über den Horizont der Prüfer, wie die zusätzlichen Dimensionen, in denen sich Greene bevorzugt aufhält.
Methoden der Stringtheorie
Als Protagonist der Stringforschung lässt uns Greene auch an den Beiträgen teilhaben, die er selbst zur Stringtheorie geliefert hat. Wie bei anderen spielt sich die Geschichte einer neuen Entdeckung etwa wie folgender hypothetischer Bericht ab: Im Gespräch mit meinem Hund kam mir diese Idee, die ich zu nächst als völlig verrückt verwarf. Doch bei einem Seminar in Harvard erzählte ich sie beiläufig Prof. Deepthinker, der kurz nachdachte, dann die Augenbrauen hochzog und sagte: ‚Das klingt sehr interessant. Sie sollten die Dualität berücksichtigen!‘ Dadurch ermutigt, machte ich mich sofort mit meinem Kollegen Jeff Loophater von der Universität Minnesota an die Arbeit. Lei der kam bei unseren Berechnungen heraus, dass jedes Elemen tarteilchen aus sechsundzwanzig rosa Elefanten bestehen musste, was uns zuerst sehr deprimierte. Nach großer Anstrengung und mit einer neuartigen Rechenmethode gelang es uns aber, diese Zahl auf elf zu reduzieren, wenn man rüssellose Elefanten zu lässt, ein Resultat, das unabhängig auch von John Fastcribber und Jim Nitpicker vom Institute for Advanced Studies bestätigt wurde. Kurze Zeit später zeigte Peter Hugepainter von der Stanford Uni versität durch Anwendung einer Dualitätsrelation, dass die Farbe statt rosa auch auf hellblau gebracht werden konnte. Diese Erfolge und die breite Anerkennung zeigten uns ganz deutlich, dass wir auf dem richtigen Weg waren ….
232 vom
urknall zum durchknall
Man staunt bei solchen Schilderungen immer wieder, ob das noch Galileis Buch der Natur ist, das bekanntlich in der Sprache der Mathematik geschrieben ist. Die Stringtheoretiker freuen sich wie kleine Kinder über jede noch so marginale Verringerung der Absurditäten, die sie selbst kurz zuvor erfunden haben. Wenn auch diese Resultate der Stringtheorie noch keinen Nobelpreis wert waren – der Wissenschaftskritiker John Horgan hat übrigens gegen den Stringphysiker Michio Kaku um 2 000 Dollar gewettet, dass dies bis 2020 auch nicht passieren wird – so doch eine Fieldsmedaille, die höchste Auszeichnung der Mathematik. Sie qualifiziert einen Physiker ungefähr so wie einen Politiker der Nobelpreis für Literatur. Das wäre nicht weiter tragisch, jedoch werden im Moment in der Physik die demokratischen Wahlen außer Kraft gesetzt und die politischen Führer durch Zirkel von Literaturkritikern bestellt. Entscheidendes Kriterium ist die Fantasie eines Autors und die Fähigkeit, verworrene ScienceFiction-Geschichten auf intellektuell höchstem Niveau in eleganten Schachtelsätzen auszudrücken.
Der Guru – ein Herr der Stringe
Man kann die Stringtheorie nicht ohne Edward Witten verstehen. Die Physiker Green und Schwarz, auf die die Stringidee zurückgeht, galten jahrelang als verbohrte Einzelkämpfer, bevor sie von Witten entdeckt und ins Hollywood der Physik geholt wurden. Wittens phänomenale Intelligenz soll in Princeton eine ganze Generation von Absolventen frustriert haben, und seinem Doktorvater David Gross gingen angeblich die Rechenprobleme aus, die Witten stets aus dem Handgelenk löste. Wittens Intelligenz muss so überragend sein, dass auch für Humor nicht viel Raum bleibt. John Horgan berichtet von einem Interview mit ihm: „Witten hat alle Kennzeichen eines Forschers, der ironische Wissenschaft praktiziert: Wenn er sagt ‚Wahrheit‘, dann ist dabei nie ein ironischer Unterton, kein Lächeln; das Wort ist implizit fett gedruckt.“ Da sage Antoine de Saint-Exupéry noch einmal, Intelligenz verderbe den
14 abschied
von der wissenschaft
233
Sinn für das Wesentliche! Was ist wesentlicher als die Wahrheit in der Physik? Sogar die Stringkritiker Smolin und Woit berichten übereinstimmend, dass sie noch keinem intelligenteren Menschen als Witten begegnet sind. Darüber hinaus habe ich noch nie von jemand gehört, der Witten begegnet ist, und der nicht betont hätte, er sei niemals einem intelligenteren Menschen als Witten begegnet. Brian Greene bemerkt mit einer selbstverständlichen Beiläufigkeit, dass Witten allgemein als Nachfolger Einsteins gelte, so als handele es sich dabei um eine Lehrstuhlneubesetzung.v Ja, wahrscheinlich sei er sogar überhaupt das größte Genie aller Zeiten. Natürlich rückt dies auch die täglichen Treffen Greenes mit Witten ins rechte Licht, von denen wir erfahren. Eine Minute des Nachdenkens von Witten auf eine Frage gilt unter theoretischen Physikern als Ritterschlag, und ich fürchte, in Zukunft könnte ab einer Viertelstunde der Nobelpreis verliehen werden. Und vor allem: Was passiert, wenn er auf eine dumme Idee hin einfach einnickt? Lachen tut er ja angeblich nicht viel. Wittens Kreativität ist legendär, seine Intelligenz einzigartig, seine Produktivität unerreicht. Die, denen er zuhört, werden eingeladen, die Bücher, die er berührt, werden gelesen, seine Tastatur wird irgendwann bei Ebay versteigert werden wie der Papst-Golf. Witten das Genie, Witten der neue Einstein, Witten der größte Physiker aller Zeiten. Das Problem: Er macht keine Physik. Witten ragt unter denen heraus, die ihn umgeben. Er mag schneller, besser und kreativer arbeiten als die anderen. Aber ein chinesisches Sprichwort sagt: Das Talent trifft das Ziel, das alle verfehlen, das Genie trifft das Ziel, das keiner sieht. Damit ist zum Thema Witten und Einstein eigentlich alles gesagt. Einstein blieb einsam.
Das Kreuz mit den Strings
Während es für einen Haufen Narren relativ einfach ist, sich gelegentlich weise zu verhalten, stellt sich umgekehrt die Frage, ob sich eine intellek tuelle Elite wie die Stringtheoretiker sich auf Dauer mit Unsinn
234 vom
urknall zum durchknall
beschäftigen wird. Kann das alles Quatsch sein, wovon die Gescheitesten überzeugt sind? Ja. Nicht die Fähigkeit, schwierige Rechnungen schnell zu erledigen gibt darüber Auskunft, sondern Soziologie und Geschichte. Waren etwa die Theologen des Mittelalters keine Elite? Waren es nicht die Klügsten der Epoche, die jahrhundertelang für den Stillstand der Naturwissenschaften sorgten? Verhängnisvoll war damals, dass die hellsten Köpfe gar keine andere Wahl hatten, als ihren Verstand an Problemen der mittelalterlichen Theologie zu schärfen. In der gleichen Situation befinden sich heute theoretische Physiker. Nicht-Stringtheoretiker in den führenden Positionen findet man heute etwa so viele wie Atheisten in einer Bischofskonferenz. Leider sind die Parallelen hier nicht zu Ende: Die wundersamen Geschichten in populären String-Büchern heben sich nur durch ihre Entstehungszeit von Schöpfungsmythen ab. Wie bei Gottheiten hängt die Faszination für Strings wenig mit der Sache selbst zusammen, sondern ist vornehmlich eine Reflexion der Träume und Hoffnungen – hier wird der Mensch heute von den Stringtheorien bedient wie von den Weltreligionen. Wann kommt die neue Theorie, das Glück? Ob es sich um das neue Raumschiff der Mathematik handelt, ob um eine neue Epoche, die unser Geist noch nicht erfassen kann: Nennen wir es getrost das Jenseits, dort, wo die Versprechungen eingelöst werden. Und auf Erden? Diejenigen, die in Fachzirkeln mit ihresgleichen sich in die immer gleiche Materie vertiefen – nennen wir sie Mönche – rechnen unter größter Anstrengung mit den abstrusesten Konstruktionen. Eine intellektuelle Selbstgeißelung, die von den Beteiligten zweifellos als Bewusstseinserweiterung wahrgenommen wird. Das Fehlen des Gens der Selbstironie, wie es Horgan bei Witten diagnostizierte,vi ist übrigens auch ein gemeinsames Merkmal mit den Religionen. Oder, wie Max Frisch es ausdrückte: „Gesetzt den Fall, Sie glauben an einen Gott, haben Sie Anzeichen dafür, dass er Humor hat?“ Stringtheoretiker konnten nicht über den Vorschlag lachen, sich in der glaubensfreundlichen Bush-Ära als faith-based initiative zu bewerben. Es ist ja auch kein Witz: Stringtheorie ist längst Religion.
14 abschied
von der wissenschaft
235
Spurensuche – Wo war gleich nochmal das Experiment? Irrtümer, die auf unzureichenden Daten beruhen, wiegen leichter als solche, die auf gar keinen Daten beruhen. Charles Babage
Blickt man auf die experimentellen Belege für die Stringtheorie, kann sich der Eindruck der Religionsnähe nur erhärten. Denn im Vergleich zu den Tränen der Maria von Lourdes, dem Turiner Leichentuch oder gar zur Speisung der Armen hat sie – wenn man von dem Auskommen durch ein Professorensalär absieht – recht wenig zu bieten. Der fehlende Bezug zum Experiment wurde von vielen heftig kritisiert, zum Beispiel von Howard Georgi: Wenn wir uns betören lassen vom Sirenengesang der ‚endgültigen‘ Vereinigung bei Abständen, die so klein sind, dass unsere expe rimentellen Freunde passen müssen, dann geraten wir in ernst hafte Schwierigkeiten, weil wir auf den entscheidenden Prozess verzichten: die Ausmerzung irrelevanter Ideen, wodurch sich die Physik von so vielen anderen weniger interessanten Betätigungen unterscheidet. So gemeine Vorwürfe lassen freilich Werbetrommler wie Brian Greene nicht auf sich sitzen. Wir finden bei ihm das interessante Kapitel Der unwiderlegbare Beweis: Experimentalspuren. Die mathematische Anmerkung, dass ein widerlegbarer Beweis wohl keiner wäre, klingt hier sicher sehr pingelig. Physikalisch scheint jedoch ebenfalls ein kleines Malheur unterlaufen zu sein. Physiker suchen gewöhnlich nach Spu ren in ihren Daten, oder führen Experimente durch. Die Spurensuche nach möglichen Experimenten in einer Theorie ist dagegen noch kein Merkmal einer empirischen Wissenschaft. Dennoch werden gelegentlich ein paar Feigenblätter entwickelt, die die experimentelle Bestätigung der Stringtheorie ermöglichen sollen – jedoch meistens ‚im Prinzip‘ oder ‚in Zukunft‘. Dazu zählen etwa die kosmischen Strings,
236 vom
urknall zum durchknall
die durch das gemeinsame Umrühren der Theoriesuppe mit Inflationskosmologen aufgetaucht sind. Natürlich hat sie noch kein Astronom gesehen, aber es gibt eine Reihe von interessanten Theorien, die erklären, warum nicht, und somit natürlich indirekt die Stringtheorie bestätigen – eine Missbrauchsvokabel, um dem Hier und Jetzt der Beobachtung zu entfliehen. Unter allen Vorhersagen für den Large Ha dron Collider am CERN liefert die Stringtheorie die schwammigste: Wenn die Extradimensionen groß genug sind, sähe man möglicherwei se irgendetwas. Ein anderer Sport ist die Vorhersage von Verletzungen. Nehmen Sie irgendeine gute Theorie – die Spezielle Relativitätstheorie, das Äquivalenzprinzip oder die Quantenelektrodynamik, dann wäre eine Abweichung davon natürlich ein Erfolg der Stringtheorie. Egal was, wo und wieviel, sie hat es vorsichtshalber gewusst. Wieder treffen wir die Religion an, die dort beginnt, wo die Wissenschaft aufhört. Etwas im Dunkeln liegt die Liaison der Stringtheorie mit der Supersymmetrie. Manche sagen, ein supersymmetrisches Teilchen würde die Stringtheorie bestätigen, andere halten dagegen, Stringtheorie schließe supersymmetrische Teilchen aus. Daraus kann man nur den Schluss ziehen, dass die Stringtheorie schon vor Inbetriebnahme des Large Hadron Collider durch diesen bewiesen ist.
Die erfolgreichsten Nachhersagen
Die Stringtheorie müsste in der Tat eine große Anzahl von Teilchen in der erwähnten Planckskala von 10−35 Metern liefern – und da kleinste Längen den höchsten Energien entsprechen, kann man sich auf die Nichtentdeckung verlassen. Wie Richard Feynman bemerkt, haben wir aber auch viele Teilchen, die viel leichter als die Planckmasse sind – die, aus denen wir bestehen! Es ist also eine Legende, dass die Stringtheorie – leider, leider – noch keine Experimente zur Verfügung hat, die ihren Ruhm begründen könnten. Über zwanzig Zahlen in der Teilchenphysik, meistens Massen, harren einer Erklärung! Der Nobelpreisträger Frank Wilczek sagt dazu:vii
14 abschied
von der wissenschaft
237
Das frühere Versprechen der Superstringtheorie, diese Größen zu berechnen, ist verblasst nach Jahrzehnten von enttäuschenden Versuchen zur Beschreibung der Phänomene, die einhergingen mit der Entdeckung einer Vielzahl von theoretisch nicht widerleg baren aber empirisch inkorrekten Lösungen. Der Misserfolg wird nun grotesk mit der Aussage verkauft, die Stringtheorie könne das Standardmodell reproduzieren,viii aber wer könnte nicht dankend auf diese Aussicht verzichten – wenn man schon Luftschlösser baut, dann doch nicht in der Form von Poincarés hässlichem Steinhaufen! Aber lenken wir den Blick auf die großen Dinge. Statt sich mit die sen lästigen kleinen Massen herumzuschlagen, wartete Edward Witten mit einer bahnbrechenden Erkenntnis auf: Die Stringtheorie hat die Gravitation vorhergesagt! Der Moment, in dem ihm das klar wurde, sei der intellektuell erhabenste seines Lebens gewesen. Später sagte er gar die Existenz des Protons voraus. Die Community lauscht ihm weiter wie einem Franz von Assisi, der sich zu seinen Gotteserfahrungen zurückzieht. Aber Gravitation ist nun mal kein mystisches Erlebnis, sondern wird mit einem Gravimeter gemessen. Kurz gesagt: Komm wieder auf den Boden, Mann! Warum wurde stattdessen nicht etwas Neues vorhergesagt, wie die vielgepriesene Dunkle Energie? Obwohl die Stringtheorie – gemessen an den Veröffentlichungen – eine spektakulär ‚erfolgreiche‘ Theorie ist, wurden bisher vom Nobelkomitee immer noch andere Entdeckungen als wichtiger empfunden. Diese Standhaftigkeit bildet eine der wenigen institutionellen Hoffnungen in der heutigen Physik.
Immunisierung und Reinigung
Bei einem Abendessen mit Gravitationsphysikern bei der DPG-Tagung in Freiburg 2008 fragte ich nach dem ersten Wein in die Runde, ob man nach Erscheinen von Smolins Buch denn nun laut sagen dürfe, die Stringtheorie entspreche dem Märchen von des Kaisers neuen Kleidern. Das Schweigen verhieß mir nicht viel Zustimmung; schließlich
238 vom
urknall zum durchknall
murmelte einer, nein, das könne man wohl – noch – nicht. Ein Jahr später in München bot sich mir die Gelegenheit, Smolin zu zitieren, als ein einheimischer Stringtheoretiker einen Vortrag über „Stringtheorie und Kosmologie“ hielt. Ob man denn in Anlehnung an Wittens Entdeckung nun hoffen dürfe, dass die Stringtheorie den Urknall vorhersage, wollte ich wissen. „Ich kann mir schon vorstellen, was Sie meinen“, lautete die Antwort, „aber ich glaube trotz Smolin nach wie vor an die Vorhersagekraft der Stringtheorie“. Ja, glauben! Es ist so schwer in der heutigen Zeit. Um aus gotteslästerlichen Angriffen wie den Büchern von Woit und Smolin gestärkt hervorzugehen, empfehle ich bei Begegnung mit diesen Druckwerken ein elfdimensionales Bekreuzigen und drei Wiederholungen der folgenden Reinigung: Witten unser, der Du bist in Princeton, Publiziert werde dein Name, Dein Bran komme, Deine Theorie bestehe Wie in Dimensionen So auch auf Erden. Unsere tägliche Idee gib uns heute, Und vergüte uns unseren Kult, So wie auch wir nur geben unseren Huldigern. Und führe uns nicht zu Versuchen Sondern erlöse uns vom Beobachten Denn Dein ist der String, und die Kraft Und die Unwiderlegbarkeit In Ewigkeit. Amen. Die krudeste Methode, der Logik der empirischen Forschung zu entkommen, ist natürlich, diese abzuschaffen. Weil die Stringtheorie nun mal keine überprüfbaren Vorhersagen leisten könne, müsse man eben die engen Fesseln der Wissenschaftstheorie abschütteln, die nicht mehr zeitgemäß seien. Für mich klingt das so, als ob eine Kommission aus Öl- und Energiekonzernen das veraltete Kartellrecht reformierte. Aber es geht noch subtiler. Anstatt den auf den Wissenschaftsphilosophen
14 abschied
von der wissenschaft
239
Karl Popper zurückgehenden Kritischen Rationalismus einfach frech anzugreifen, instrumentalisieren andere – wie etwa Paul Davies und John Gribbin in ihrem Buch Auf dem Weg zur Weltformel – einen Kritiker Poppers, den Philosophen Thomas Kuhn. Der Übergang von der alten Wissenschaft zu den Strings sei ein Paradigmenwechsel, so wie der Übergang zum heliozentrischen Weltbild. Den Papst Witten für den Ketzer Galilei ausgeben – das schaffen nur Ganoven in Polizeiuniform! Aber auch Witten selbst erwartet ein Vereinheitlichungsprogramm, „das unser Verständnis der Natur ebenso gründlich verändern wird wie irgendeine der großen wissenschaftlichen Umwälzungen in der Vergangenheit.“ Geplant ist das für das 21. Jahrhundert. Wenigstens nicht für das ganze Jahrtausend. Sie ist so schön Keine Gnade mehr mit denen, die nicht erforscht haben und doch reden Bertolt Brecht
Überall kann man lesen, dass die Gesetze der Stringtheorie wunder schön seien und auch Kritiker gestehen ein, dass die mathematischen Konstruktionen eine Eleganz aufweisen, die das ästhetische Empfinden befriedigt. Ich belästige Sie hier nicht mit meiner eigenen Ansicht dazu. Bei dem einstimmigen Chor befremdet aber, dass niemand sich um die neurowissenschaftlichen Erkenntnisse der Wahrnehmung von Ästhetik schert, die dies recht schnell entmystifizieren würden. Aber dazu müsste man Bücher über Physiologie und Psychologie lesen, und nicht nur den Seufzern der Theoretiker lauschen, die die so schöne Mathematik aus ihren Herzen herauspresst. Zu einem eigenständigen Argument entwickelt wird der Gedanke der Schönheit aber nur von der Stringtheorie: Sie sei einfach zu schön, als dass sie nicht in der Natur vorkommen könne. In gleicher Weise hat Anselm von Canterbury im 11. Jahrhundert die Existenz Gottes „bewiesen“. In der Vorstellung sei Gott ein zu vollkommenes Wesen, als dass ihm eine Unvollkommenheit, der Makel der Nichtexistenz, anhaften könne. Anselm gilt als Begründer
240 vom
urknall zum durchknall
der Scholastik. Er sollte eigentlich in Darstellungen der Geschichte der Stringtheorie nicht länger übergangen werden. Wir sind so klug Alle dreißig Jahre will eine neue Generation von ge schwätzigen, in allem unwissenden Leuten das Wissen der Menschheit vertilgen, das über Jahrhunderte gesam melt wurde, und sofort halten sie sich für geschickter als die gesamte Vergangenheit. Arthur Schopenhauer
Der Nobelpreisträger Subramanyan Chandrasekhar kam 1983 bei einem Dinner in Princeton neben einem jungen Stringtheoretiker zu sitzen.ix ‚Chandra‘ erkundigte sich höflich nach dessen Arbeitsgebiet, worauf er zur Antwort erhielt: „Ich arbeite an der Stringtheorie, die der wichtigste Fortschritt in der Physik des zwanzigsten Jahrhunderts ist.“ Der Jung spund empfahl seinem Sitznachbarn dringend, sein Arbeitsgebiet auf zugeben und zur Stringtheorie zu wechseln, da er sonst riskiere, so ob solet zu werden wie jene, die nach Entdeckung der Quantenmechanik die Zeichen der Zeit nicht erkannt hätten. „Junger Mann“, antwortete Chandra, „ich kannte Werner Heisenberg. Ich kann Ihnen versichern, dass er niemals so aufdringlich gewesen wäre, jemand das Aufgeben sei nes Arbeitsgebietes zu raten und Quantenmechanik zu betreiben. Und sicherlich wäre er auch nicht so respektlos gewesen, jemandem, der vor 50 Jahren promoviert hat, zu erzählen, dass er bald unwichtig werde.“ Anekdoten von derartig bornierter Arroganz der Stringtheoretiker sind legendär. Michael Berry, berühmt für die nach ihm benannte geo metrische Phasenbeziehung in der Quantenmechanik, unterhielt sich einmal mit einem Stringtheoretiker über die Riemannsche Vermutung, ein seit 150 Jahren ungelöstes Problem, das die Nullstellen der komplex wertigen Zeta-Funktion betrifft. „Wir haben Zeta-Funktionen auch in der Stringtheorie“, wurde Berry belehrt, „die Riemannsche Vermutung wird sicher als ein Baby-Beispiel der Stringtheorie bald bewiesen sein.“ Die volle Absurdität dieser Aussage werden vielleicht nur Mathe matiker ermessen können, denen auch gelegentlich nachgesagt wird,
14 abschied
von der wissenschaft
241
sie bildeten sich etwas ein auf ihre geistigen Fähigkeiten. Peter Woit, selbst Mathematiker, schreibt dazu: „Diese Art von Arroganz unter Mathematikern verblasst aber im Vergleich zu der Arroganz, die man manchmal unter den Superstringtheoretikern antrifft. Sie scheinen oft der Meinung zu sein, nur die wirklichen Genies vermögen an der Theorie zu arbeiten, und jeder der diese Arbeit kritisiert, sei wahrscheinlich zu dumm und ignorant, um sie zu verstehen.“ Glücklicherweise gibt es auch ein paar Beispiele, die sich bescheidener geben. So wünscht sich der führende Stringtheoretiker des Albert-Einstein-Instituts auf seiner Hompage erst einmal, „die Grundlagen der Quantengravitation in der Formulierung der Stringtheorie besser zu verstehen“. Da kann man nur viel Glück wünschen.
Strings und Superstrings: Tod nach tausend Superlativen
Auffällig ist bei der Stringtheorie, wie koordiniert sich eine so große Anzahl von Forschern auf die gleichen Probleme stürzt – natürlich meist von ihrem prophetischen Leithammel geführt. „Wo Witten hin geht, folgt auch bald der Rest.“ bemerkte nicht nur Roger Penrose. Mit feiner Ironie beschreibt Julian Barbour die Stringtheoretiker: „Sie schei nen mir wie ein Rudel von Hunden auf einer extrem vielversprechen den Spur, die zu einem großen Ziel führen könnte. Aber wenn diese Spur schwächer werden und aufhören sollte, würden sie verloren im Nirgendwo herumstehen“. In diesem Fall hätte John Horgan Recht, der die Beschäftigung mit der Stringtheorie als die größte Verschwendung von Intelligenz in der Geschichte der Menschheit ansieht. Aber es gibt nur diese Alternative: Entweder die Stringtheorie liefert die Weltformel, oder sie wird zum größten Müllhaufen der Wissenschaftsgeschichte seit dem Ptolemäischen Weltbild. Hoffentlich dauert es nicht ganz so lange. An Papierausstoß wurde das komplizierte Planetenmodell, das 1 500 Jahre lang die Wissenschaft beherrschte, ohnehin schon übertroffen. Zu den ausufernden Kosten der Naturwissenschaft erzählt man sich daher
242 vom
urknall zum durchknall
folgenden Witz: „Warum steckt ihr soviel Geld in die Physikinstitute mit allen ihren Apparaten, Werkstätten und Laboranlagen? Die Mathema tiker sind viel billiger zu unterhalten, sie benötigen nur Bleistift, Papier und Mülleimer. Oder noch besser, die Stringtheoretiker: Sie brauchen nur Bleistift und Papier …“ „Eines Tages könnten wir verstehen, was Stringtheorie wirklich ist“ schrieb Witten,x aber Sinn für Humor würde ihn schneller dazu führen als seine Intelligenz.
Von der Euphorie zur Zensur – kein harmloses Spiel mehr Ihr aber schwatzet nur und seid die Glocke Eurer Taten. Schiller, Maria Stuart
Unter Wissenschaftshistorikern wird Einstein allenthalben dafür kriti siert, dass er zwanzig Jahre seines Lebens einer theoretischen Sackgasse gewidmet habe, er wäre besser Segeln gegangen, wie ein Biograph zu wissen glaubt.xi Was bei einer Einzelperson als Verbohrtheit gilt, wird ein Anlass zum Feiern, sobald es tausende von Forschern dreißig Jah re lang tun: Die Stringtheoretiker werden nun zu Geschichtsschreibern ihrer eigenen Phantasien, es erscheinen die ersten „Ich war dabei“Artikel. So ist es zum Beispiel dem ehemaligen Direktor des Aspen Center for Physics nicht zu peinlich, die Welt mit seiner Autobiographie „Memoiren eines frühen Stringtheoretikers“ zu beglücken.xii Bei alledem muss natürlich die Liturgie bis heute gerechtfertigt werden. Eines der schönsten zirkulären Argumente, die man dazu als Durchhalteparole hört, ist „the only game in town“. Es gebe eben leider keine vernünftigen Alternativen zur Stringtheorie. Nathan Seiberg, der mit Witten häufig zusammenarbeitete, drückte es so aus: „Wenn es etwas gibt, was darüber hinausgeht, dann nennen wir es Stringtheorie.“ Das war nicht als Scherz gemeint, sondern tatsächlich als eine pantheistische Absicherung. Der bekannte amerikanische Physiker John Baez äußerte sich zu dem Argument so: „Einmal fuhr ich durch Las Vegas, wo es wirklich nur ein Spiel gibt: das Zocken. Aber ich sagte
14 abschied
von der wissenschaft
243
nicht ‚na gut, es ist die einzige Unterhaltung in der Stadt‘. Sondern ich fuhr weiter.“ Die These von „the only game in town“ ist aber leider nicht harmlos – so als wenn Bill Gates treuherzig versicherte, Microsoft stelle nun mal das einzig zukunftweisende Betriebssystem her, deswegen dürfe man für andere Entwicklungen keine Ressourcen verschwenden. Die Domi nanz der Stringtheorie gräbt heute alternativen Ansätzen in der Physik das Wasser ab, selbst wenn dabei oft kein böser Wille im Spiel sein mag. Aber bei den äußerlich höflichen Reaktionen der Stringtheoretiker auf Kritik ist Vorsicht geboten. So erntete Peter Woit auf seinen ersten kritischen Artikelxiii im Jahr 2001 kaum offenen Widerspruch, aber sein Buch Not Even Wrong wurde hinter den Kulissen heftigst torpediert und konnte bei Cambridge University Press nicht erscheinen. In seinem Blog berichtet Woit von einem Stringtheoretiker, der empfahl, keine Dokto randen mehr einzustellen, die durch die Lektüre von Woit „hoffnungslos von unserer Perspektive geschieden wurden“. Obwohl Woit eine sichere Stelle als Mathematiker hat, bekam er von Lesern Warnungen bezüg lich seiner beruflichen Sicherheit, in denen die Stringtheoretiker als ‚Mafia‘ bezeichnet wurden. Nicht ganz unpassend ist diese Assoziation, wenn man die Aktivitäten von zwei Stringtheoretikern betrachtet, die im dominierenden Online-Publikationsserver ArXiv.org der CornellUniversität als „Moderatoren“ die wissenschaftliche Qualität „sichern“ sollen: Artikel, die die Stringthorie kritisieren, werden dort regelmäßig in die selten gelesene Kategorie gen-physics verschoben. Am schlimmsten sind aber vielleicht sogar diejenigen, die auf Kritik windelweich reagieren – sie hoffen den durch Smolin und Woit hervorgerufenen Sturm durch Aussitzen zu überstehen wie Politiker die Pressegewitter nach einem politischen Skandal. An der Macht sind sie. Natürlich muss niemand eine Entlassung fürchten, aber viele Wissenschaftler sind doch abhängig von der Begutachtung ihrer Anträge, deren theoretische Aspekte selten an den Stringtheoretikern vorbeikommen. Viele Forscher machen daher den Kotau vor den Strings mit zusammengebissenen Zähnen, um die Finanzierung eines Forschungsprojektes nicht zu gefährden. „Physik ist nicht Religion,“ sagte Leon Lederman, Nobelpreisträger von 1988, „sonst hätten wir es leichter, an
244 vom
urknall zum durchknall
Geld zu kommen.“ Mit der Stringtheorie öffnen sich die Geldhähne der Forschungsmittel jedoch schneller. So wurde im Jahr 2000 der höchstdotierte deutsche Forschungspreis, der Leibnitzpreis, an einen Stringtheoretiker vergeben. Auf der Hompage der Deutschen Forschungsgemeinschaftxiv sucht man vergeblich nach einer Begründung, was er eigentlich herausgefunden hat. Dass der Betreffende wenig später eine Professur in der bayerischen Landeshauptstadt antrat, muss man wohl als Hommage an den Kabarettisten Gerhard Polt sehen, der feststellte: „Die Preise suchen unerbittlich ihre Träger.“ O weh! Die Geister, die ich rief, werd’ ich nun nicht los
Auch Witten ist inzwischen aufgefallen, dass es von der Stringtheorie 101500 verschiedene Versionen gibt, zwischen denen man sich nur willkürlich entscheiden kann. Dies wird Landschaft genannt, und Witten findet die Aussicht unbehaglich, so dass manche seinen Rückzug befürchten – der Prophet geht nicht mehr in die Kirche! Gegen die idiotische, sogenannte anthropische „Lösung“ des Problems – eine dieser Theorien ist realisiert, eben weil wir dort leben – wehrt sich insbesondere David Gross in Churchillscher Manier: „Niemals, niemals aufgeben!“ Gross ist an dieser Stelle klar geworden, dass die Theorie vollkommen in die Unwissenschaftlichkeit abgleitet, obwohl er natürlich selbst maßgeblich zu diesem hoffnungslosen Ende beigetragen hat. Wie ein verirrter Bergführer steht Gross aber auf verlorenem Posten gegenüber den neuen Propheten wie Leonard Susskind, die nicht in die Schlucht schauen, sondern weiter das Blaue vom Himmel versprechen. Es scheint, dass sich neuerdings in der Stringtheorie in einer Art Negativevolution die immer noch dümmeren Ideen durchsetzen. In einem Youtube-Videoxv können Sie die Geburt der nächsten Generation von Stringtheorien mitverfolgen: Witten malt auf ein Blatt Papier eine Linie, die fünf herkömmliche Stringtheorien verbindet, und das war’s. Ach ja, ein Name kommt noch: M-Theorie, wie Witten ausführt, beziehe sich dies auf magic, mystery oder matrix. Ganz klar sei
14 abschied
von der wissenschaft
245
es aber nicht, wofür „M“ stehe. Damit lieferte er Spöttern wie Sheldon Glashow Munition, die „M“ an ein umgedrehtes „W“ für Witten erinnerte. Der freche João Maguejio assoziierte „M“ gar mit mathematischer Masturbation. Ich will diese Idee hier nicht weiterführen, aber eines fällt doch auf: Wie in einer schlechten Paarbeziehung wurden die theoretischen Physiker über Jahrzehnte immer mehr frustriert von der sich aufblähenden Hässlichkeit des Standardmodells, was irgendwann neue Wünsche befördern musste. Die Stringtheorie ist demgegenüber eine heiße Affäre, deren prickelnde Erotik jede Vorstellungskraft sprengt. Bis jetzt spielt sich aber alles nur im Kopf ab.
weiterführende literatur L. Smolin: The Trouble with Physics, Houghton Mifflin 2006. P. Woit: Not Even Wrong, Vintage 2006 P. Woit: www.math.columbia.edu/~woit/wordpress. J. Horgan: The End of Science, Addison-Wesley 1996, Kap. 3. B. Greene: Das elegante Universum, Goldmann 2005. R. Penrose: The Road to Reality, Vintage 2004, Kap. 31+34. P. Davies/J. Brown: Superstrings, dtv 1999. G. Musser: The Complete Idiot’s Guide to String Theory, Penguin 2008. L. Krauss: Hiding in the Mirror, Viking Adult 2005. i B. Schroer, arXiv:0905.4006, S. 40, siehe auch arXiv:physics/0603112. ii Greene, S. 248. iii Smolin, S. 280. iv Greene, S. 121. v Greene, S. 317. vi Horgan, Kap. 3, S. 65. vii F. Wilczek, arXiv:0708.4361, S. 18. viii Spektrum 05/2009, S. 39. ix Smolin, S. 269. x E. Witten, Nature 438 (2005), S. 1085. xi A. Fölsing: Einstein, Suhrkamp 1999, S. 628. xii P. Ramond, arXiv:0708.3656. xiii P. Woit, arXiv:physics/0102051. xiv http://www.dfg.de/aktuelles_presse/pressemitteilungen/1999 xv YouTube: Mystery Theory – Edward Witten (1 of 2); YouTube: String Theory To M-Theory (Part 07)
Teil IV
Wendekreis
15
Klares Wasser Rationalismus versus Zirkelschluss – wie Wissenschaft eigentlich funktionieren sollte
In populären Aufsätzen zur Stringtheorie hört man immer häufiger vom anthropischen Prinzip – eine geheimnisvolle Auswahlregel, der wir angeblich unsere Naturgesetze verdanken. Über die heutige Verwendung des Begriffs hätte sich einer der Urheber wohl kaum gefreut. Fred Hoyle hatte über die Entstehung der chemischen Elemente im frühen Universum nachgedacht und den Kernphysiker William Fowler zu einem Experiment überredet, wofür dieser den Nobelpreis abräumte. Hoyle hatte seine Argumentation scherzhaft damit begründet, dass im Universum Physiker beobachtet werden, die unter anderem aus Kohlenstoff bestehen. Natürlich müssen die Naturgesetze das Entstehen von Leben ermöglicht haben – diese Selbstverständlichkeit wird „schwaches“ anthropisches Prinzip genannt, während durch das Aufdröseln des Begriffs der Unsinn des „starken“ anthropischen Prinzips erfunden wurde: Die Naturgesetze seien so, weil durch sie Leben entstehen wollte. Natürlich verdreht man dabei Beobachtung und Theorie, und die Vorhersage, die Wissenschaft ausmacht, wird zur Nachhersage. Leon Lederman parodierte daher das anthropische Prinzip so: „Die Dinge sind so, wie sie sind, weil sie so waren, wie sie waren“.
Im angelsächsischen Raum auch als completely ridiculous anthropic principle, CRAP, bezeichnet.
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_15, © Springer-Verlag Berlin Heidelberg 2010
249
250 vom
urknall zum durchknall
Warum fallen alle Gegenstände nach unten? – Die, die nach oben fallen, sind schon weg
Teilweise scheinen unsere Naturgesetze so unwahrscheinlich, wie wenn jemand beim Würfeln zehn mal hintereinander eine „6“ erhält. Mit einer gewissen Berechtigung könnte man hier sagen: Vielleicht ist etwas gezinkt, das heißt wir verstehen die Gesetze dieser Würfel noch nicht. Die Anhänger des anthropischen Prinzips würden dagegen folgern, dass die Würfel schon sehr oft geworfen worden sein müssen, damit so ein unwahrscheinliches Ergebnis auch darunter ist. In der Disziplin der Logik hat dies einen recht trockenen Namen: umgekehrter Spielerfehlschluss. Ebenso soll es in der Stringtheorie nun eine unvorstellbar große Anzahl möglicher Theorieversionen, genannt „Landschaft“, geben. Niemand hat eine Begründung, warum wir von einer bestimmten der 101500 möglichen Theorien regiert werden. Daher sind die führenden Denker wie Susskind zu dem Ergebnis gekommen: Eben weil diese Theorie dazu geführt hat, dass im Universum Leben entstanden ist, wurde eine Landschaft auserwählt. In der Stringtheorie setzt sich diese Regression in die Logik eines Dreijährigen immer mehr durch: warum? – darum. Weiter stellt ein deutscher Stringtheoretiker in einem Aufsatzi fest, das anthropische Prinzip gebe dem Menschen seine Sonderrolle zurück. Man könnte auch sagen: Gott hat den Menschen auserwählt. Vielleicht gehen ja die anthropischen Versionen der Stringtheorie demnächst eine Ehe mit der Biologie des Intelligent Design ein, um in den kleinstädtischen Bildungswüsten der USA den letzten Rest von Naturwissenschaft zu katechisieren. Sollten wir tatsächlich unter der Beobachtung Außerirdischer stehen, muss man aber ernstlich um die Aberkennung des Status „Homo sapiens“ fürchten.
Ich bin da emotional nicht ganz unbeteiligt, da sich immer wieder Schüler von mir zu einem Austauschjahr dorthin verirren, um die große weite Welt kennenzulernen.
15 klares
wasser
251
Fairplay gegen Dampfgeplauder
Während im Fall des anthropischen Prinzips der leere Inhalt eigentlich nicht schwer zu erkennen ist, lohnt es sich, genauer über Merkmale einer wissenschaftlichen Theorie nachzudenken. Unter Nichtwissenschaftlern ist das Vorurteil verbreitet, die Naturwissenschaften würden nur das akzeptieren, was „beweisbar“ sei. Sie gelten dadurch als etwas arrogant, aber das Gegenteil ist der Fall. Eine wissenschaftliche Aussage erkennt man gerade daran, dass man fairerweise einräumt, sie könnte auch nicht richtig sein. Für diese Widerlegbarkeit muss man in der Regel einen möglichen Ausgang eines Experiments angeben, bei dem man sich geschlagen geben würde – das ist Fairplay. Arrogant sind also gerade diejenigen, die sich um diese Bedingung drücken, und behaupten, sie hätten in jedem Fall Recht. Diese wichtige Möglichkeit der Falsifizierung durch das Experiment benutzte der Philosoph Karl Popper zur Definition einer wissenschaftlichen Theorie. Wie verhält es sich zum Beispiel mit der Idee, dass Dunkle Materie überhaupt nur der gravitativen Wechselwirkung unterliege, also kein Licht aussendet? Popper würde fragen: Kann man daraus noch eine Beobachtung vorhersagen? Kaum. Hier nähert man sich gefährlich der Grenze, wo man nur mehr glauben will, obwohl die These natürlich nicht widerlegt ist. Sie ist aber praktisch unwiderlegbar und darin liegt schon das wissenschaftliche Todesurteil. Sind zum Beispiel übersinnliche Erfahrungen nach Poppers Kriterium widerlegt und deswegen Humbug? Nein, ein Wissenschaftler kann nur sagen: Ich weiß es nicht. Aber keine Theorie dazu wird je Fortschritte machen, weil experimentelle Überprüfungen fehlen, und er wird sich deswegen mit interessanteren Dingen beschäftigen. Sollte ich mich also im letzten Kapitel missverständlich ausgedrückt haben: Die Stringtheorie ist nicht Humbug. Es gibt nur interessantere Dinge. Wissenschaftstheorie alt und neu
Wir wollen hier die Diskussion um Poppers Kriterium nicht breittreten, unbestritten haben auch andere Philosophen, wie Thomas Kuhn oder auch Paul Feyerabend, wertvolle Beiträge zur Frage geliefert, was
252 vom
urknall zum durchknall
Wissenschaft ausmacht. Denn das humorlose Feilschen um Kompromisse zwischen diesen Ansätzen wird schnell tödlich langweilig, worauf sich Richard Feynman wohl bezog, als er sagte: „Die Wissenschaftstheorie ist für die Wissenschaftler ungefähr so nützlich wie die Ornithologie für die Vögel“. Bei einer Ölpest wie der Stringtheorie im Gefieder kann ein Ornithologe allerdings schon hilfreich sein. Ob Popper, Kuhn, oder Feyerabend: Schön wäre es, wenn sich die theoretischen Trendsetter wenigstens mit einem dieser Denker beschäftigt hätten. Stattdessen findet man Leute, die neben ihrer Arbeit als Wissenschaftler sich mal eben als Hobby-Wissenschaftstheoretiker profilieren, wie der Kosmologe Max Tegmark. Er entwickelt unter dem prägnanten Titel Shut up and calculate (Halt’s Maul und rechne!)ii die Theorie, das Universum werde nicht nur durch die Mathematik beschrieben, es sei Mathematik. Schon wieder ein neuer Galilei. Das Problem der modernen Physik scheint aber eher, dass zuviel Rechnen ohne Nachdenken stattfindet. Meine noch subtilere Theorie dazu wäre also: Just shut up.
Mein teurer Freund, ich rat Euch drum …
Während bei den nach Popper nichtfalsifizierbaren Theorien die Kette der logischen Folgerungen irgendwo beginnt, aber nirgendwo den Kontakt zum Experiment findet, gibt es auch hübsche Beispiele, wo sich die Argumentation ganz im Kreis dreht, sogenannte Zirkelschlüsse. Ein harmloser Fall ist dabei noch Lisa Randall auf der Diskussionsseite Edge.org: Zusätzliche Raumdimensionen scheinen zunächst eine wilde und verrückte Idee, aber es gibt durchschlagende Gründe zu glauben, dass sie wirklich existieren. Ein Grund besteht in der Stringtheo rie, in der gefordert wird, dass die Teilchen selbst nicht funda mental sind, sondern aus Schwingungszuständen eines funda mentalen Strings bestehen.
15 klares
wasser
253
Ach so! Es gibt also Extradimensionen, weil es Strings gibt. Allerdings gibt es konsistente Stringtheorien auch nur bei zahlreichen Extradimensionen. Ein nicht gerade durchschlagendes Argument also. Schon einen Denkschritt mehr erfordert dagegen eine ebenfalls verbreitete kreisende Logik: Die Schönheit einer Theorie spreche für die Richtigkeit. Symmetrien werden aber ganz allgemein vom Menschen als ästhetisch wahrgenommen. Und nach Symmetrien sucht man wiederum, weil man davon ausgeht, dass die Naturgesetze auf Symmetrien basieren müssen. Kurz: Die Theorie ist richtig, weil sie schön ist, schön, weil sie symmetrisch ist, und symmetrisch, weil wir eine entsprechende Vorauswahl getroffen haben, welche als richtige in Frage kommen kann. In Zirkelschlüssen ist also meist eine versteckte Annahme enthalten. Immanuel Kant hat diese zum Beispiel im Gottesbeweis von Anselm seziert: Mit dem Begriff der Vollkommenheit wurde schon die Existenz Gottes vorausgesetzt. … zuerst Collegium Logicum (Mephistopheles in Goethes Faust)
Auf den Philosophen Carl Gustav Hempel geht ein Paradox zurück, das man bevorzugt in der Astrophysik antrifft. Betrachten wir zum Beispiel die Aussage: Alle Raben sind schwarz. Streng logisch äquivalent dazu ist: Was nicht schwarz ist, kann auch kein Rabe sein. Schwieriger wird es, wenn man für dieses „Naturgesetz“ Belege finden will. Die Beobachtung eines schwarzen Rabens spricht sicher dafür, aber wenn wir an die äquivalente Aussage denken, auch die Beobachtung eines weißen Schuhs, handelt es sich doch um einen nichtschwarzen Gegenstand, der kein Rabe ist. Ihr gesunder Menschenverstand wird nun Verdacht schöpfen, dass hier etwas nicht stimmen kann, denn die Beobachtung des weißen Schuhs spräche dann ja ebenso für das Naturgesetz „alle Raben sind gelb“. Daraus kann man als Naturwissenschaftler nur folgern, dass wir, wenn wir etwas über Raben wissen wollen, am besten Raben beobachten. Entsprechend ist die Nichtbeobachtung von etwas wenig aussagekräftig, da wir daraus mit der Logik von oben buchstäblich
254 vom
urknall zum durchknall
alles folgern können. Dennoch sieht der im Kapitel 11 erwähnte Artikel in Physical Review Letters in der Nichtbeobachtung von kosmischen Strings eine Evidenz für irgendeine Quantenblähung des Universums, und die nicht gefundenen magnetischen Monopole sprechen laut Alan Guth für die Inflationstheorie. Die Nichtbeobachtung dieser Phantasien deutet aber nur auf eines hin: Dass es sie nicht gibt. Es wundert mich bis heute, wie Guth mit dieser rabenschwarzen Logik die gesamte Führungselite der US-amerikanischen Universitäten beeindrucken konnte. Dennoch breiten sich durch Nichtbeobachtung gestützte Phantasien immer mehr aus.
Ockhams Rasiermesser – lange nicht geschliffen
Ohne die Anbindung an die Beobachtung gibt es keine Wissenschaft, aber gute Wissenschaft trägt ein weiteres Merkmal: Einfachheit. Je weniger freie Parameter also eine Theorie benötigt, desto besser. Dies wird am deutlichsten beim Vergleich zwischen dem ptolemäischen und dem kopernikanischen Weltbild. Die Epizyklen beschrieben die Beobachtungen keineswegs schlecht, aber benötigten Dutzende von freien Parametern anstelle der Gravitationskonstante G, die zwar auch nur ein Parameter, aber eben nur einer ist. Hier kommt das berühmte Ockhamsche Rasiermesser, benannt nach einem Philosophen des 14. Jahrhunderts, zum Zug. Konkurrieren zwei Theorien, so soll man sich für die einfachere entscheiden: „pluralitas non est ponenda sine necessitate“. Ockhams Kriterium macht damit auch deutlich, dass wir nur hinreichend einfachen Theorien zutrauen sollten, sich auf Dauer durchzusetzen – wobei die Dauer schon mal 1 500 Jahre sein kann. Die zahlreichen Parameter des Standardmodells der Teilchenphysik sprechen hier schon für sich, und die Kosmologie folgt auf dem Weg zur Komplizierung. Gelegentlich hört man die Meinung, möglicherweise sei die Natur gar nicht einfach, und ganz in diesem Sinne wird in einem populären Sachbuch über Kosmologie am Ende allen Ernstes die Frage aufgeworfen, ob das Nachdenken über die Dunkle Energie sinnvoll sei,
15 klares
wasser
255
denn sie sei nun mal da. Dies scheint nicht für helle Köpfe geschrieben, denn Ockhams Messer gehört zur Naturwissenschaft wie das Skalpell zur Chirurgie. Es kann auch wehtun. Aber die Frage nach der Vereinfachung muss man stellen.
Popper light – die Legalisierung der Ideologie
Ein Titel wie Peter Woits Not Even Wrong legt den Finger in die Wunde der Nichtfalsifizierbarkeit der Stringtheorie, so ist es nicht verwunderlich, dass Karl Popper, auf den dieses schonungslose Kriterium zurückgeht, dort kein großes Ansehen genießt. „Popperazzi“ nennt Leonard Susskind verächtlich die Anhänger Poppers, in Anlehnung an jene Fotografen, die Prominente in unpassenden Momenten ablichten. Für einen Vorzeige-Monarchen der Stringtheorie wie Susskind ist diese Abneigung nur zu verständlich: Unter Poppers Belichtung erscheint der Kaiser nackt, was den Verkaufswert seiner wunderbaren Kleider etwas zu schmälern droht. Letztlich sind Ideologien von der Art Stringtheorie aber fast harmlos, weil sie den Bezug zur Empirie so vollständig verloren haben, dass jeder die faulen Motive hinter der „Popperazzi“Anschuldigung bemerken kann. Aber leider hört man auch anderswo, Poppers hartes Kriterium müsse gelockert, relativiert oder modifiziert werden. Denn neben der theoretischen Nichtüberprüfbarkeit gibt es auch die „nur praktische“, jene, die wir bei den zahlreichen Theorien auf der Plancklänge von 10−35 Metern antreffen. Das nährt den Verdacht, dass sich die Theoretiker in dieser Unzugänglichkeit vor dem Experiment gar nicht unwohl fühlen. Denn unbestritten wird man, wenn überhaupt, erst nach vielen Generationen diese Skala erreichen. Muss man deshalb Poppers Kriterium lockern? Nein! Wer nicht die Hoffnung verspürt, in seinem Forscherleben etwas herauszufinden, das auch bestätigt werden kann, der soll es doch bleiben lassen, als Physiker zu arbeiten. Erstens gibt es Organisationen genug, in denen man die Zukunft vorhersagen und für das Jenseits predigen kann. Zweitens ist die Hoffnung, in jener fernen Zukunft der paradiesischen Messgenauigkeit würde sich noch irgendjemand um unsere heutigen Theorien scheren,
256 vom
urknall zum durchknall
doch haarsträubend naiv. Und wer wirklich so überzeugt von seiner tollen Idee ist, muss sich eben damit abfinden, als verkanntes Genie das Zeitliche zu segnen. Dagegen nehmen die Leute die Gegenwart und vor allem sich etwas zu wichtig. Ob theoretisch oder praktisch, der unmögliche Kontakt mit dem Experiment sollte die gleiche Konsequenz haben: Und tschüß, Theorie! Man kann nicht mehr tun, als die Evolution der Messtechnik abzuwarten und bis dahin den Leuten erklären, wie man den Planeten Erde nicht schon in den nächsten Jahrzehnten zu Grunde richtet. Dann wäre es nämlich mit den schönen Theorien samt ihren Bestätigungen erst recht vorbei.
Frische Experimente für die gebeutelte Theoriebilanz
Noch tückischer sind im Grunde jene Theorien, die von Zeit zu Zeit einen Köder auslegen, der im Prinzip mit der vorhandenen Technik erreicht werden kann. Oft stellt sich hier heraus, dass die vorhandenen Apparaturen gerade nicht reichen, aber die zu diesem Zweck geplanten und finanzierten wahrscheinlich schon. So sagt die Supersymmetrie zwar die Existenz von Teilchen voraus und würde eine entsprechende Entdeckung dankbar mitnehmen. Aber wie sieht es im umgekehrten Fall aus, wenn im Large Hadron Collider kein supersymmetrisches Teilchen entdeckt wird? Nun, dann findet man sie eben in einem höheren Energiebereich in der nächsten Beschleunigergeneration – wahrscheinlich. Ein ganz ähnliches Spielchen war der im Kapitel 13 besprochene Zerfall des Protons, über dessen Theorie sich Feynman sarkastisch geäußert hatte. Sie sehen schon, all dies hat nichts mehr mit dem eingangs erwähnten Fairplay zu tun. Denn hier will jemand nur gewinnen, aber nicht verlieren. Es ist übrigens auch blauäugig zu glauben, das Standardmodell der Elementarteilchenphysik sei noch im Sinne Poppers widerlegbar. Zwar gibt es eine Vorhersage für die Energie des eigentlich unabdingbaren Higgs-Teilchens, aber man könnte jede Wette darauf eingehen, dass
15 klares
wasser
257
bei negativer Evidenz sich binnen Jahresfrist ein theoretisches Modell durchsetzt, das die Nichtbeobachtung des Higgs-Teilchens zu allgemeiner Zufriedenheit erklärt. Wie ein maroder Großkonzern, von dem Wirtschaft und Arbeitsplätze abhängen, ist das Standardmodell längst too big to fail und verschlingt so Staatsgelder im übertragenen und direktem Sinne. Ein neuer Beschleuniger wirkt wie frisches Kapital, von dem sich Hoffnungen und Spekulationen nähren. Erschwert wird die wissenschaftstheoretische Krankheitsdiagnose noch durch die Tatsache, dass uns die vom Standardmodell diktierten Experimente auch einen Fortschritt vorgaukeln. Denn alles Gemessene gilt, und sei es noch so unverstanden, als Entdeckung. Als solche wurden sicher einst auch die Epizyklen des geozentrischen Weltbildes gepriesen. Bei Dinosauriern wie dem Standardmodel treffen wir also eine praktische Nichtfalsifizierbarkeit an, die mit schleichender Erosion enorme Kräfte der Wissenschaft verschleißt. So werden drei Fliegen mit einer Klappe erwischt: Mittel gebunden, die der Physik andernorts fehlen, ein krankes theoretisches Modell am Leben erhalten und neues experimentelles Unverständnis aufgetürmt.
Simplify your science: Was, wo, wie, aber vor allem: wieviel?
Eine wissenschaftliche Theorie kann nur dann Fortschritte machen, wenn sie zahlenmäßige Vorhersagen liefert, also quantifizierbar ist. Jedenfalls wäre die Frage nach dem wieviel eine bittere Pille für die, die immer dann zu höheren Energien ausweichen, wenn man sie im Experiment festnageln will. Also, Theorie, bitte eine klare Ansage: Was wiegt Dein Teilchen? Gibst Du Dich geschlagen, wenn man es innerhalb der Fehlergrenzen nicht findet? Ich fürchte, nach dieser radikalen Kur blieben von den Modellen der modernen Physik nicht viele übrig, und so werden die Theoretiker der Forderung, endlich Zahlen auf den Tisch Ich fürchte, ein paar Winkeladvokaten können sich hier ein Gegenbeispiel ausdenken, aber das ist mir jetzt egal.
258 vom
urknall zum durchknall
zu legen, schon aus purem Selbsterhaltungstrieb nicht zustimmen. Zur Klarstellung: Ich bin nicht gegen neue Experimente. Nur sollte man sie ehrlich bezeichnen: Spielereien, bei denen wir gespannt sind, was herauskommt. Und man muss sich dann vielleicht die Frage gefallen lassen, welche wirklich grundlegenden Erkenntnisse aus den vielen anderen Spielzeugen gewonnen wurden. Quantitativ heißt auch, die Theorie nicht mit qualitativen ad-hoc Eigenschaften zu verzieren. Warum ist zum Beispiel die Dunkle Energie plötzlich abstoßend? Oder Quarks: Warum lassen sie sich nicht einzeln beobachten? Der „Erfinder“ Gell-Mann forderte die Experimentatoren dazu auf, nach freien Quarks zu suchen, hielt sich aber gleichzeitig die Hintertür offen, dass eine Nichtbeobachtung eben dann die Nichttrenn barkeit beweise. Dafür wurde er von Kollegen mit dem folgendem Spott parodiert:iii „Wenn Quarks nicht gefunden werden, erinnert Euch dass ich nie sagte, sie werden gefunden, und wenn sie gefunden werden, er innert Euch, dass ich zuerst daran dachte“.
An ihren Worten sollt Ihr sie erkennen
Es ist auf den ersten Blick nicht immer leicht, Fachpublikationen mit einer vernünftigen Anbindung zur Beobachtung von jenen zu trennen, die aus guten Gründen nur nebelhaft auf Experimente verweisen. Glück licherweise liefert uns die Sprache gelegentlich Indizien dafür, wenn weiche Theorien auf harte Fakten treffen. So ist der Name Modell ein Anzeichen dafür, dass es sich um etwas Vorläufiges handelt, das noch keine guten Erklärungen liefert. Modelle sind im Flugzeugbau sicher nützlich, in der fundamentalen Physik haben sie auf Dauer nichts ver loren. Viele Theorien stellen heute Werkzeuge oder Rüstzeuge bereit, das bedeutet, diese sind sicher noch nicht in Gebrauch. Hört man dagegen von einem Ansatz, dass er den Weg weist oder den Boden bereitet, dann können Sie sicher sein, dass er das noch lange tut, ebenso wenn auf ihm Hoffnungen ruhen: Ruhen tut dann vor allem der Fortschritt, und er härtet sich ein Bild, dann war es verdammt weich, während Vielverspre chendes noch nie etwas gehalten hat. Wenn eine Theorie dagegen schon erfolgreich auf dem Weg oder bestens etabliert ist, heißt das nur: Die
15 klares
wasser
259
Krankheit hat sich schon ausgebreitet, ist die Theorie dagegen chancen reich, gehört sie schon längst auf den Müll. Dann kann man nur noch das Verständnis vorantreiben – das geht selbst dann noch, wenn der Verstand nicht mehr so recht will. Und wenn eine Forschergruppe sich anschickt oder sich aufmacht: Dann hat sie eben kein Ergebnis, meistens noch nicht mal ein Ziel, außer dem, die Finanzierung durch die Deut sche Forschungsgemeinschaft sicherzustellen. Auf den Internetarchiven sind die Vokabeln towards, trends, tools, recent developments untrügliche Zeichen dafür, dass nichts Konkretes, geschweige denn Quantitatives vorhergesagt wird, sondern bestenfalls frameworks. Und auch wenn ein handfestes Beobachtungsergebnis völlig fehlt, kann man immer noch footprints oder signatures aus den Daten lesen. Richtig gefährlich für den Verstand wird es, wenn Daten vereinbar oder verträglich mit einer Theorie sind. Denn vielen ist die mathematische Logik unbekannt, dass sich aus etwas richtigem nichts falsches folgern lässt, wohl aber umge kehrt. Das bedeutet, dass auch der willkürlichste Unsinn nach vielen theoretischen Spülgängen vorhersagen kann, dass Wasser nass ist. Ein bekanntes Beispiel ist die Inflation, die viele durch den kosmischen Mi krowellenhintergrund bestätigt sehen. Verträglich ist er mit der Infla tion, aber nur mit einer Portion unerträglicher Logik.
Ich weiß, dass ich nichts weiß. Und nicht mal das (Karl Popper)
1894 sagte der spätere Nobelpreisträger Albert Michelson: Die fundamentalen Gesetze der Physik sind alle entdeckt, und sie stehen so fest, dass die Möglichkeit, dass sie durch neue Ent deckungen ersetzt werden, außerordentlich fern liegt … unsere zukünftigen Entdeckungen müssen wir in der sechsten Nachkom mastelle erwarten. Heute können wir über Aussagen wie diese lachen, aber in der modernen Physik treffen wir durchaus einen vergleichbaren Optimismus an. So habe ich die Einschätzung gehört, von einem 1 000 Seiten umfassen-
260 vom
urknall zum durchknall
den Buch der Natur habe man schon 900 entdeckt. Etwas weiser scheint hier wieder Karl Popper zu sein: Wir wissen nichts, das ist das Erste. Deshalb sollten wir sehr be scheiden sein, das ist das Zweite. Dass wir nicht behaupten zu wissen, wenn wir nicht wissen, das ist das Dritte. Das ist die Ein stellung, die ich gerne populär machen würde. Es besteht wenig Aussicht auf Erfolg. Popper drückt hier ein grundlegendes Merkmal wissenschaftlicher Betätigung aus: Skepsis. Im Gegensatz zur Euphorie handelt es sich dabei um ein sehr individuelles Gefühl, und entsprechend dem Massenbetrieb der Wissenschaft findet man heute selten laut formulierte Zweifel, ob wir uns unserer Theorien oder gar mancher Beobachtungen so sicher sein können. Die Skepsis von Kopernikus, Galilei, von Faraday und Einstein war es aber, die die Wissenschaft vorangebracht hat, nicht das Feiern der Erfolge der Standardmodelle, sei es zur Zeit Michelsons oder heute. Im Blick auf die großräumigen Galaxienstrukturen im Universum sagte die Entdeckerin Margaret Geller: „In jedem Stadium werden wir glauben zu verstehen, doch in jedem Stadium wird es auch die nagenden Zweifel in den Köpfen derer geben, die weiter denken.“iv Wir brauchen eine Rückkehr zu den erfolgreichen Denkprinzipien der Physik. Überprüfbarkeit, Logik, Einfachheit sind das „Freiheit, Gleichheit, Brüderlichkeit“ der Wissenschaft, und so wie Politik Moral braucht, geht es in der Wissenschaft nicht ohne Skepsis. Wir werden oft für dumm verkauft.
Weiterführende Literatur K. Popper: Die Logik der Forschung, Akademie-Verlag 2007. J. Gleick: Genius, Pantheon books, New York 1992. i ii iii iv
Spektrum 05/2009, S. 39. M. Tegmark, arXiv:0709.4024. Gleick, S. 391. J. Cornell (Hrsg.): Die neue Kosmologie, Birkhäuser 1991, S. 102.
15 klares
wasser
261
16
Fundamente und Anbauten Komplizierung bis zum Einsturz – wie Theorien zu faulen Kompromissen werden
Poppers Kriterium ist ein scharfes Messer, mit dem man echte wissenschaftliche Hypothesen von Science-Fiction-Imitaten trennen kann. Gesunde Skepsis, die Forderung nach Falsifizierbarkeit und nach quantitativen Vorhersagen, all dies sind unbestechliche Mittel der Diagnose, die man sich von Phantasten, Schaumschlägern, aber auch von Wissenschaftsverwaltern und Lobbyisten beliebig interpretierbarer Experimente nicht verwässern lassen darf. Diese Instrumente des Kritischen Rationalismus sagen, wie Wissenschaft funktionieren sollte, und halten dabei einen Spiegel vor, in dem die Krankheiten sichtbar sind. Nicht ganz glücklich dagegen war Poppers Beschreibung der Wissenschaftsentwicklung als Geschichte der korrigierten Irrtümer, denn sie beschreibt das Entstehen von Theoriegebäuden etwas unvollständig. Man beobachtet ja gerade, dass sich vieles der Widerlegung widersetzt, dass Ausflüchte gefunden werden, ehe man eine liebgewonnene Theorie über Bord wirft. Wissenschaftsentwicklung: Schritt für Schritt oder Umwälzung?
Anders als Popper hat der Wissenschaftsphilosoph Thomas Kuhn diese Dynamik zu seinem zentralen Thema gemacht. Wenn man so will, ist Popper der Moralist der Wissenschaft, der ihre Regeln formuliert und A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_16, © Springer-Verlag Berlin Heidelberg 2010
263
264 vom
urknall zum durchknall
Kuhn der Realist, der beschreibt, wie sie systematisch übertreten werden. Manche fühlen sich schon deswegen mehr von Kuhn inspiriert. Zutreffend beobachtet Kuhn, dass die Wissenschaft „normale Phasen“ durchlebt, die von kurzen, heftigen Revolutionen abgelöst werden. In den normalen Phasen sammelt man Daten über längere Zeit hinweg, interpretiert sie und passt sie an, wie etwa im ptolemäischen Weltbild. Dieses türmte schließlich so viel Unverständnis auf, dass es in seiner unübersichtlichen Kompliziertheit anfällig für einen Paradigmenwechsel war: Das geozentrische Weltbild wurde abgelöst vom heliozentrischen – die kopernikanische Revolution. Typisch für die „normalen“ Phasen der Wissenschaft sind nicht vollständig verstandene Phänomene, die mit zusätzlichen Annahmen in die bestehenden Theoriegebäude integriert werden, welche auf diese Weise langsam zu Rumpelkammern aufquellen. Den beiden Phasen der „normalen“ und „revolutionären“ Wissenschaft kann man im entsprechenden Häufigkeitsverhältnis auch Typen von Wissenschaftlern zuordnen, die Lee Smolin in teamfähige „Handwerker“ und querdenkende „Seher“ unterteilt. Ganz dreist reihen sich manche Stringtheoretiker selbst in die schmeichelhaftere zweite Abteilung der Visionäre ein. Allerdings wäre dann die Theoretische Physik zur Zeit eine Monokultur von Individualisten. Vergleichsweise ehrbar sind dagegen jene, die durch sauberes Beobachten und Messen die Wissenschaft wenigstens handwerklich voranbringen – etwa jene zahlreichen Physiker, die in Großkooperationen der Teilchenphysik oder der Kosmologie arbeiten, wenn auch die Eigendynamik des Massenbetriebes das Nachdenken oft unterdrückt. Denn typischerweise werden hier Probleme mehr beschrieben als gelöst, was sich fast immer in einer schleichenden Komplizierung niederschlägt. Deutliches Indiz dafür ist die Zunahme von freien Parametern, nicht weiter erklärten Zahlen, die uns die unverstandenen Beobachtungen aufnötigen.
Ein anderes nettes Bild ist „Hügelsteiger“ und „Talüberquerer“.
16 fundamente
und anbauten
265
Ist Wechselwirkung gleich Wechselwirkung, und warum gerade vier?
Komplizierung kann sich vielfältig äußern, sogar als neuer Mechanismus. Zum Beispiel ist die seit den 1960er Jahren gängige Klassifizierung in vier Wechselwirkungen Gravitation, Elektromagnetismus, schwache und starke Wechselwirkung (Kernkraft) schon recht eigenartig. Warum vier? Warum ist Gravitation und Kernkraft anziehend, und die elektrische Kraft auch abstoßend? Eigentlich ist schon dies nicht richtig verstanden, und es kann durchaus sein, dass wir qualitativ verschiedene Dinge in einen Topf werfen, die nicht mehr gemeinsam haben als die Elemente Feuer, Erde, Wasser und Luft von Aristoteles. Entsprechend einseitig ist auch der Versuch, alle vier Wechselwirkungen mit einem Teilchenaustausch zu beschreiben. Das für die Gravitation angeblich zuständige Graviton wurde bisher ohnehin nur in theoretischen Artikeln gefunden. Und eigentlich war es eine Lehre der Quantentheorie, dass in der Welt des Kleinsten sowohl die Vorstellung von Wellen als auch die von Teilchen unzutreffend ist. Dies scheint fast wieder in Vergessenheit geraten zu sein, insbesondere im Rausch der Teilchenentdeckungen der Nachkriegszeit. Legendär ist Enrico Fermis Bekundung in Physical Review:i In den vergangenen Jahren wurden einige neue Teilchen entdeckt, die momentan als ‚elementar‘, also strukturlos gelten. Die Wahrscheinlichkeit, dass alle solchen Teilchen wirklich elementar sind, nimmt mit ihrer Anzahl stetig ab. Fermis Kritik zielte also auf die Komplizierung. Aber auch bei den heute „offiziell“ anerkannten Teilchen des Standardmodells handelt es sich um eine erkleckliche Anzahl, die Theoretiker haben jedoch wenig Hemmungen, für neue Phänomene weitere Teilchen zu postulieren. Die Inflationstheorie benutzt gerne das Inflaton, als Kernteilchen wurde über Pomeronen und Preonen spekuliert, und für irgendeine kosmologische Anomalie könnte, wie man hört, das Cosmon verantwortlich sein. Dass man hier auf dem besten Weg zu den Göttern der Römer ist, müsste doch eigentlich auffallen. Ich vermute, dass für diese Blindheit das
266 vom
urknall zum durchknall
Theoron verantwortlich ist, das ausschließlich mit den Gehirnen der Theoretiker wechselwirkt.
Helldunkle und dunkeldunkle Materie, und was als nächstes kommt
Ein ganz aktuelles Beispiel für Unverständnis, das aus Komplizierung entsteht, sind die Resultate der DAMA/LIBRA-Experimente im Gran Sasso in den Abruzzen. Die unterirdischen Teilchendetektoren, die dort von allen Störeinflüssen der Erdoberfläche abgeschirmt sind, sind übrigens so empfindlich, dass als Techniker keine Raucher eingestellt werden, denn der kalte Qualm in der Kleidung enthält winzige Mengen an radioaktiven Substanzen, die die Messungen beeinflussen könnten. Man kann also nur hoffen, dass kein neues Teilchen von einer Zigarettenfirma gesponsort wird. Berichtet wird nun von einer jahreszeitlichen Schwankung der Detektorsignale.ii Da man gar nicht genau weiß, was man registriert, kommen natürlich eine ganze Reihe von Erklärungen in Frage. Aber auch der Abstand der Erde zum Milchstraßenzentrum schwankt bekanntlich um einen winzigen Prozentsatz, der von der Bewegung um die Sonne herrührt. Daher lautet die favorisierte Erklärung für die unerklärten Schwankungen wie folgt: Es könnte ja sein, dass es zwei Arten von Dunkler Materie gibt, und es könnte weiter sein, dass sich diejenige Sorte bevorzugt näher am Milchstraßenzentrum aufhält, die sich etwas häufiger in den Detektoren zeigt.iii Ja warum nicht? Kaum war dies publiziert, zeigten sich im PAMELA-Experiment hochenergetischen Positronen, deren große Anzahl man nicht versteht. Auch hier wurde bald die „Erklärung“ gestrickt, die Positronen könnten bei der Umwandlung einer Sorte Dunkler Materie in eine andere entstanden sein. Im Klartext: Seit 75 Jahren sucht man erfolglos nach der Dunklen Materie im Labor, und hat infolgedessen nicht die geringste Ahnung, woraus sie bestehen könnte. Aber trotzdem fangen wir an, sie in Untersorten zu klassifizieren. Man kann nun darauf warten, dass andere nachziehen und die „Entdeckung“ bestätigen – mit zwei Stellschrauben beschreiben sich bekanntlich alle Daten besser als mit einer. Was für ein Fortschritt.
16 fundamente
und anbauten
267
Dunkle Substanz oder dunkle Physik?
Eine weitere Beobachtung, die sich zu erhärten scheint, ist die Zeitentwicklung der kosmologischen Konstante Λ. Sie beziehungsweise die Dunkle Energie wurde 1998 eingeführt, weil man sich keinen anderen Reim auf die zu geringen Helligkeiten entfernter Supernovae machen konnte – die Daten waren mit der bisherigen Theorie unvereinbar. Zehn Jahre war man damit glücklich, bis die unerbittlich immer besseren Messungen nun erneut eine Diskrepanz mit dem Modell andeuten. Während für Λ der nicht mehr widersprechende Einstein als Kronzeuge gewonnen wurde, heißt der neue Parameter der zeitlichen Veränderung der Beschleunigung einfach Omega punkt. Man kann nun darauf wetten, wann die Supernovae ihr nächstes Opfer fordern. Aber warum verändert sich die Beschleunigung der Universumsexpansion? Warum ist sie beschleunigt, ja warum expandiert das Universum überhaupt? Je mehr Parameter wir entdecken, desto mehr treten die Fragen, die wir eigentlich verstehen müssten, in den Hintergrund. Auch die hohen Galaxiengeschwindigkeiten innerhalb der Haufen und die sich zu schnell drehenden Galaxienränder sind unverstandene Phänomene. Ob man Dunkle Materie mit einer bestimmten Dichte einführt, oder einen beschreibenden Parameter, wie es die MOND-Theorie mit der Beschleunigung a0 tut, wissenschaftstheoretisch handelt es sich in beiden Fällen um eine Komplizierung. Dabei ist Dunkle Materie mit ihrer anpassbaren Dichteverteilung natürlich deutlich strapazierfähiger ist als eine einzige Zahl a0. Fast alle sehen darin einen Vorteil. Die zu geringen Temperaturfluktuationen des kosmischen Mikrowellenhintergrundes galten als weiterer Beleg für Dunkle Materie, führten aber letztlich nur zu einem neuen freien Parameter, mit dem man die nicht verstandene Galaxienentstehung beschrieb. Aber vielleicht entdecken wir ja neben Dunkler Materie und Dunkler Energie weitere interessante Dinge? So würde sich die Pioneer-Anomalie sicher
Nicht zu verwechseln mit dem esoterischen Unsinn gleichen Namens, der von einem gewissen Frank Tipler propagiert wird. Hier meint man eine zeitliche Veränderung des Dichteparameters.
268 vom
urknall zum durchknall
problemlos mit einer Dunklen Substanz erklären, die sich aus noch zu erfindenden Gründen nur im Sonnensystem aufhält. Ich bin überzeugt, dass ein Flickwerk dieser Art vielen noch angenehmer wäre, als mit dem Thematisieren der geringen Beschleunigungen an den Grundfesten der Physik zu rütteln.
Vom Messfehler zum Konferenztitel – Neutrinooszillationen
Ganz ähnliche Muster findet man in der Teilchenphysik. Neutrinos, die lange Zeit als Kandidaten für Dunkle Materie galten, wurden jahrzehntelang auf der Erde nur halb so häufig registriert, wie die Kernfusionsprozesse im Sonneninneren erwarten ließen. Schließlich kam jemand auf die Idee, es gebe drei verschiedene Sorten von Neutrinos, und auf dem Weg von der Sonne zur Erde könnte sich die bisher bekannte in eine andere umwandeln, für welche die Detektoren unempfindlich waren. Bald gab es Konferenzen über diese Neutrino-Oszillationen und das Problem hatte sich in eine Entdeckung verwandelt. Moderne Beobachtungen im Kamiokande-Detektor und am kanadischen Sudbury-Neutrino-Observatorium scheinen diese Thesen zu stützen. An der Diagnose einer heftigen Komplizierung kommt man aber nicht vorbei: drei Neutrinos mit verschiedenen Massen, Wirkungsquerschnitten und Umwandlungswahrscheinlichkeiten. Wieder ein paar Zahlen mehr.
Physikalischer Phantomschmerz – die Geburt der Neutrinos
Man könnte sogar auf den ketzerischen Gedanken kommen, die Neutrinos selbst seien durch Unverständnis geboren. Um 1930, als man den Betazerfall des Neutrons in Proton und Elektron näher untersuchte, wurde bald klar, dass das Elektron nur einen Teil der Reaktionsenergie aufnahm – im Mittel die Hälfte. Trotz intensiver Suche fand man keine zufriedenstellende Begründung, so dass Wolfgang Pauli das Neutrino
16 fundamente
und anbauten
269
als Erklärung ins Spiel brachte. Nachfolgende Experimente haben ihm Recht gegeben, wenn es auch 25 Jahre dauerte, bis der Nachweis stattfand. Der Wirkungsquerschnitt eines Neutrinos ist so klein, dass uns in jeder Sekunde Milliarden von Neutrinos durchdringen, ohne dass eines davon absorbiert würde – die Frage, warum die Natur überhaupt solche Schattenteilchen herstellt, kann niemand beantworten. Unverständlich am Betazerfall ist jedenfalls, dass hier kein Photon beteiligt ist. Bei jeder anderen Gelegenheit in der Physik wird elektromagnetische Strahlung freigesetzt, sobald Ladungen beschleunigt werden: bei der Planckschen Schwarzkörperstrahlung, beim Hertzschen Dipol oder in einer Röntgenröhre. Obwohl der plötzliche Austritt des schnellen Elektrons von einer heftigen Beschleunigung begleitet sein muss, kommt kein Photon in der Reaktionsgleichung vor. Um 1930 empfand man zusätzliche Teilchen zu Recht als unerfreuliche Komplizierung: Wolfgang Pauli genierte sich für die Idee, und Enrico Fermi soll ihm scherzhaft Prügel auf die Fußsohlen dafür angedroht haben, dass er die fehlende Energie beim Betazerfall einem unbekannten Teilchen in die Schuhe schob. Der Nobelpreisträger Isidoor Isaac Rabi sagte gar bei der Entdeckung des Myons wenig erfreut: „Wer hat denn das bestellt?“ Heute sind neue Teilchen keine methodische Niederlage mehr, kein Schuldeingeständnis wie zu Paulis Zeiten. So wie sich ein Hasardeur nicht mehr um unbezahlte Rechnungen und Mahnungen kümmert, fragen wir heute nicht mehr nach dem Grund, sondern gehen mit den Beschleunigern munter weiter einkaufen.
Antimaterie – die benachteiligten Zwillinge
Aus reiner Energie entsteht in den Beschleunigern immer gleich viel Materie wie Antimaterie, aber im Universum muss sehr viel mehr Materie vorhanden sein, sonst würde man im intergalaktischen Raum mehr Paarvernichtungsstrahlung sehen. Diese Asymmetrie stellt natürlich ein Rätsel dar, wenn man sich den Urknall als einen heißen, elementaren Prozess vorstellt. Die Modelle nehmen also an, irgendwann sei beim Entstehen von Materie kurz nach dem Urknall eben zufällig mehr
270 vom
urknall zum durchknall
normale Materie übrig geblieben, etwa eines von einer Milliarde Teilchen, was mit den heutigen Beobachtungen konsistent ist. Natürlich ist dies keine Erklärung, sondern wieder ein freier Parameter – denn warum es statt einer Milliarde nicht nur tausend oder gar Trillionen hätten sein können, weiß niemand. Und zur Berechnung gibt es nicht die leiseste Idee, denn bei allen Laborexperimenten benehmen sich die Zwillinge gleichartig.
Das eben ist der Fluch der bösen Tat, daß sie fortwährend immer Böses muß gebären (Friedrich Schiller)
Bei hochenergetischen Teilchenkollisionen in den Beschleunigern kam es zu Energieresonanzen, die man nicht verstand, was letztlich dazu führte, sich die Kernteilchen Proton und Neutron aus Quarks zusammengesetzt vorzustellen. Die „heile Welt“ der up-Quarks und downQuarks, mit der man gestartet war, reichte schon bald nicht mehr und aus zwei wurden sechs Quarks. Die Forderung nach der Konsistenz der Theorie führte dann dazu, die Anzahl mit der Einführung der „Farbe“ nochmal zu verdreifachen, eigentlich eine der dramatischsten Komplizierungen des Standardmodells. Die Quarks selbst beschreiben eine große Anzahl von Elementarteilchen, und auch die Tatsache, dass Protonen bei Stößen sich nicht als kleine symmetrische Kugeln verhalten, gilt als Beweis für diese Unterstruktur. Schließlich ist das Elektron durch seinen Spin ebenfalls nicht kugelsymmetrisch, ohne dass man es sich aus anderen Teilchen zusammengesetzt vorstellt – bisher. Selbst bei der Lektüre des sonst so tiefschürfenden Richard Feynman bekommt man den Eindruck, die Natur hätte getrost auf den Spin verzichten können – die Rechnungen wären eben einfacher.iv Eine Ursache muss es aber geben. Richtig widersprüchlich ist aber folgendes: Nach der Vorstellung hätte jedes der zahlreichen „inneren“ Teilchen eines Protons einen eigenen Spin, und trotzdem addieren sich all diese wie von Zauberhand zu dem bekannten Wert 1/2 ħ, den zum Beispiel auch das Elektron aufweist. Einen vernünftigen Grund dafür gibt es nicht. Diese „Spin-Krise“ zeigt
16 fundamente
und anbauten
271
eigentlich, dass an der Basis etwas nicht verstanden wurde.v Es scheint, dass man sich mit der Lösung eines Problems ein subtileres eingekauft hat – wie jüngst das Koinzidenzproblem in der Kosmologie, nachdem man die Widersprüche des Weltalters mit der Dunklen Energie beseitigt hatte. Aber wie wird es weitergehen? Die fortwährende Unterteilung der Elementarteilchen in immer kleinere Bausteine hat eine Eigendynamik erreicht, die wir allmählich hinterfragen müssen. Wären Bestandteile von Quarks noch ein Fortschritt?
Die Erklärung des Unterschieds durch verungleichte Gleichheit
Die unverstandene Systematik der Elementarteilchen ist letztlich auch der Grund für Vorschläge wie die Supersymmetrie, die eine noch viel effizientere Komplizierung verursachen. Anstatt einen freien Parameter nach dem anderen hinzuzufügen, wie beim „üblichen“ Erosionsprozess der Wissenschaft, wird hier gleich ein ganzer Satz von Parametern verdoppelt. Lange Zeit war die Physik in diesem Fusionsfieber, aber wie in der Autoindustrie scheitern die Hochzeiten im Himmel oft kläglich: In der Bilanz der Experimente stehen vor allem Dinge, die man schuldig geblieben ist. Die Behauptung, die Supersymmetrie sei analog zu den von Dirac vorhergesagten Antiteilchen, ist grob irreführend, da damals kein einziger neuer Parameter benötigt wurde – alle Antiteilchen haben die gleiche Masse wie ihre Partner. Die Klone der Supersymmetrie sind dagegen aus irgendeinem Grund viel schwerer – man „erklärt“ dies mit einer Symmetriebrechung, einer Schwammvokabel, die Physikern inzwischen als wohlfeiler Vorwand für alles taugt. Wenn sie beim Wechselgeld betrogen werden oder Ihnen ihr linkes Bein wehtut und nicht das rechte, handelt es sich im Grunde auch um eine Symmetriebrechung. Sie können eine Nadel noch so präzise auf die Spitze stellen, sie wird nach einer Seite umfallen. Physikalisch ist die Symmetriebrechung also eine Abweichung von der Gleichbehandlung, die manchmal unvermeidlich wird. Das bedeutet leider auch, dass man jede
272 vom
urknall zum durchknall
Abweichung vom Erwarteten und jedes unverstandene Problem in der Natur mit der Brechung irgendeiner Symmetrie beschreiben kann. So „erklären“ wir das Überwiegen der Materie gegenüber der Antimaterie durch eine Symmetriebrechung im frühen Universum – das bedeutet, wir haben keine Ahnung, was eigentlich passiert ist. Anscheinend versteht die schwedische Akademie der Wissenschaften es besser, denn sie vergab den Nobelpreis 2008 für dieses offenbar so fundamentale Konzept. Wenn auch in der Thermodynamik Symmetriebrechungen ein durchaus interessantes Phänomen sind – aus einem gleichmäßig erhitzen Wassertopf steigt irgendwo zuerst eine Dampfblase auf – so nehmen diese „Erklärungen“ doch überhand. Der Dampf wird zum Geplauder.
Die Evolution des Universums: je früher, desto komplizierter?
Weil sich im Urknall das Unverständnis versammelt und man für willkürliche Erklärungen gerne Symmetriebrechungen benutzt, wimmelt es in der Inflationstheorie auch von Phasenübergängen und anderen thermodynamischen Komplikationen – unterkühlt, überhitzt, kocht, brodelt und blubbert das Universum aus den Gehirnen der Theoretiker. Letztlich kam alles daher, dass wir die Feinabstimmung des „flachen“ Universums nicht verstehen. Aber wenig später pfuscht man erneut mit einem ad-hoc-Mechanismus herum: Die riesigen Leerräume im Universum widersprechen den herkömmlichen Modellen der Strukturbildung, und so zog man die Reionisation als Erklärung hervor. Ob sie nun stattgefunden hat oder nicht, einfacher macht sie die Frühzeit des Universums nicht – ganz zu schweigen von dem Parameter der optischen Dichte, den man neu einführen muss. Gerade in den Anfangsphasen des Universums treffen wir also zahlreiche Komplizierungen an, ein nicht gerade vertrauenerweckendes Szenario.
Es ist bezeichnend, dass die letzten 30 Seiten eines Buches wie Inflation and quantum cosmology nur aus Comics bestehen.
16 fundamente
und anbauten
273
Vom Kassensturz der Konstanten zur Skepsis
Möglicherweise werden Sie nicht all die Skepsis teilen, die ich hier habe anklingen lassen, denn viele dieser Konzepte scheinen notwendig. Die Diagnose, dass sich vieles zu sehr kompliziert hat, muss man aber auch stellen, wenn das Modell durch die Daten gerechtfertigt erscheint. Vieles hat sich schleichend, über Forschergenerationen hinweg entwickelt, so dass es im wissenschaftlichen Tagesgeschäft kaum wahrgenommen wurde. Irgendwann aber kommt die Zeit der Bilanz, und dort stehen inzwischen sehr, sehr viele Zahlen, die wir nicht verstehen. Das Paradebeispiel für die Erosion eines wissenschaftlichen Gebäudes bleibt natürlich das geozentrische Weltbild mit seinen Epizyklen, aber es gibt durchaus Miniaturformen davon. Als man in den 1930er Jahren erkannt hatte, dass der Atomkern aus Protonen und Neutronen besteht, dachte man sofort an Spaltung. Jedoch herrschte das Dogma, nur mit sehr hohen Energien könne der Kern gespalten werden – die Philosophie, nur bei hohen Energien könne etwas interessantes passieren, trifft man ja bis heute an. Stattdessen spalteten sich bestimmte schwere Kerne, indem sie durch Anlagerung von langsamen Neutronen in einen instabilen Schwingungszustand gerieten. Fermi und andere stellten unwissentlich Spaltprodukte her, deren Chemie man logischerweise nicht verstand. So glaubte man, schwere Kerne jenseits des Urans, Transurane, hergestellt zu haben, was immer widersprüchlicher wurde. Fünf Jahre Forschung gingen so verloren. Das scheint nicht viel, aber im Vergleich zu den Fragestellungen der modernen Teilchen- und Astrophysik handelte sich auch um ein überschaubares Rätselchen. 1934 war die Chemikerin Ida Noddack für ihre Idee verlacht worden, die Kerne könnten gespalten worden sein – damals eine haltlose Spekulation, die in keine Theorie passte. Viel später dämmerte dann Otto Hahn und Fritz Straßmann, dass sie das Spaltelement Barium längst erzeugt hatten. Diese Geschichten sollten uns heute zu denken geben. Ironischerweise erhielt Enrico Fermi 1938 seinen insgesamt sicher verdienten Nobelpreis gerade für diese Fehlinterpretation.
274 vom
urknall zum durchknall
Merken wir gleich, wenn etwas nicht stimmt?
Ich erzähle selbst gerne, dass sich die Allgemeine Relativitätstheorie auf den Zeitablauf in der Höhe und damit auf GPS-Satelliten auswirkt, also ohne Einstein dieses System nicht funktionieren würde. Aber stimmt das wirklich? Atomuhren in Satelliten hätte man auch ohne die Relativitätstheorie gebaut, und irgendwann wäre vielleicht aufgefallen, dass die Zeitmessungen von der Höhe und Geschwindigkeit abhängen. Um dies mit zwei Parametern anzupassen, hätte man aber bestimmt keinen Einstein gebraucht. Und ich bin sicher, die Beobachtung, dass diese Parameter in der Größenordnung von GM/rc2 liegen, wäre als Zahlenspielerei abgetan worden. Es besteht durchaus die Gefahr, dass durch ein hingeschustertes Modell das Unverständnis zementiert wird und sich so das Zeitfenster wieder schließt, in dem die Wissenschaft über die echten Gründe nachdenken kann. Rudolf Clausius, einer der Urväter der Thermodynamik, sagte einmal: „Liegt der Irrtum erst wie ein Grundstein im Boden, alles wird darauf gebaut, nimmermehr kommt er ans Licht.“ Die Älteren brachten den Modellerweiterungen oft eine gesunde Skepsis entgegen, eben weil sie nicht überzeugen konnten wie wirkliche Erklärungen. So war nicht Enthusiasmus, sondern schleichende Resignation und „Wir-haben-nichts besseres“ der Fürsprecher für die neuen Konzepte. Bei Aussagen wievi „Wir werden das Standardmodell der Kosmologie genauso sicher aufbauen wie das Standardmodell der Elementarteilchen“ kommt einem das kalte Grausen. Vor allem das so quälend entstandene Modell der Teilchenphysik besitzt ja auch keine Anziehungskraft, wenn ich hier ausnahmsweise auf das Argument der Ästhetik zurückgreife. So merke ich fast täglich im Kontakt mit noch unverbildeten Menschen, wie faszinierend die Physik bis 1930 wirkt, aber welche gleichgültigen Gesichter man erntet, wenn man die modernen Anbauten erläutert. Die Schüler, denen bis dahin Physik besser als Biologie und Chemie gefallen hat, sind dann enttäuscht. Denn die Standardmodelle der Teilchenphysik und Kosmologie kann man bei aller Unverständlichkeit auswendig lernen, während man Prinzipien der Relativitätstheorie und Quantenmechanik bei aller Schwierigkeit
16 fundamente
und anbauten
275
verstehen kann. Auch das unterscheidet gute Physik von den billigen Beschreibungen.
Theorie und Beobachtung – die Koevolution des Unsinns
Das inflationäre Anwachsen der „Gesetze“ in den modernen Standardmodellen verhält sich zu den Theoremen der klassischen Physik etwa wie die Summe aller EU-Verordnungen zur UN-Menschenrechtscharta. Diese sonst höchst oberflächliche Parallele zwischen juristischen Gesetzen und denen der Natur kann nur darauf hindeuten, dass letztere im Moment wohl auch von Menschenhand stammen. Die Explosion der Unübersichtlichkeit ist ein Zeichen der Erosion, aber gleichzeitig wird es für die Kritik schwieriger, konkret anzusetzen. Mit Blick auf die Kosmologie formulierte Fred Hoyle: „Um ihre Modelle zu retten, komplizieren sie diese bis hin zur Unverständlichkeit“. Aber vor allem in der Teilchenphysik hat sich eine verhängnisvolle Koevolution ausgebildet: Viele Beobachter beschränken sich darauf, neue Daten in den Rahmen der theoretischen Modelle zu pressen und reduzieren die Tätigkeit eines Entdeckers auf statistisches Kneten, das die vielen unverstandenen Parameter rechtfertigen soll. Passt dann nach einiger Zeit wieder etwas nicht, reagieren die Theoretiker auf unverstandene Beobachtungen so: Verstehen sie nicht was, gibt es ein neues Teilchen, verstehen sie nicht, wann, hat es kurz nach dem Urknall stattgefunden, verstehen sie nicht, wo, dann war es in den Zusatzdimensionen. Verstehen sie nicht, wie, postuliert man eine neue Wechselwirkung, und verstehen sie nicht wieviel, einen freien Parameter dazu. Verstehen sie nicht warum, erklärt es eine Symmetriebrechung, verstehen sie gar nichts mehr, phantasieren sie von Strings, und interessiert sie das Verstehen an sich nicht mehr, berufen sie sich auf das anthropische Prinzip. Weit ist es gekommen. All die Kopplungen, Teilchen, Dichten, Felder, Fluktuationen und Parameter erinnern sehr an das, was Richard Feynman als Ramsch bezeichnet hat, der auf die alten Theorien aufgeladen wurde, und Isaac Newtons Worte kann man nicht oft genug wiederholen: Wahrheit findet
276 vom
urknall zum durchknall
sich in der Einfachheit. Man kann auf dieses zu komplizierte Gebäude nicht mehr vertrauen. Der Einsturz ist vorprogrammiert.
Weiterführende Literatur T. Kuhn: Die Struktur wissenschaftlicher Revolutionen, Suhrkamp 2007. S. Fuller: Kuhn vs. Popper, Columbia University Press 2005. R. Feynman/R. Leighton/M. Sands: QED. Die seltsame Theorie des Lichts und der Materie, Piper 2009. S. Singh: Big Bang, WBG Darmstadt 2005, Kap. 1. i ii iii iv v vi
Zitiert bei Gleick, S. 283. R. Bernabei et al., arXiv:0804.2741. Y. Tomozawa, arXiv:0806.1501. Feynman, Kap. 3. Spektrum Dossier 01/2003: Vom Quant zum Kosmos, S. 15. W. Hu et al., Nature, 386 (1997), S. 37.
16 fundamente
und anbauten
277
17
Falsch abgebogen Rechner statt Denker – wie die Physik vor Jahrzehnten aus der Spur geriet
Wenn Ihnen im letzten Kapitel meine Skepsis gegenüber den etablierten Konzepten der Theoretischen Physik auf die Nerven gegangen ist, dann brauchen Sie jetzt Baldrian. Aber es gibt nur zwei Möglichkeiten: Entweder man gibt sich damit zufrieden, dass sich der Aufbau der Natur wie eine unübersichtliche Zirkustruppe präsentiert oder man untersucht die Naturgesetze konsequent auf ihre Einfachheit, indem man die Frage nach den freien Parametern stellt. Mit über dreißig unerklärten Zahlen sind die Standardmodelle der Physik in einem traurigen Zustand, bringen aber gegen die Forderung nach Vereinfachung ständig neue Sachzwänge vor. Daher werde ich mit dem Gedanken, die Theoretische Physik solle irgendwann ganz ohne freie Parameter auskommen, als hoffnungsloser Illusionist dastehen. Entsprechend weit führt dieser Traum zurück in eine Zeit, in der die Physik ihre damals bescheidene Anzahl von Theorien auf wenige Naturkonstanten baute.
Quantenelektrodynamik – ein bisschen zuviel gesagt
Die in den 1940er Jahren entwickelte Quantenelektrodynamik ist gerade deswegen eine sehr gute Theorie, weil sie präzise Vorhersagen erlaubt, ohne einen zusätzlichen Parameter einzuführen. Denn die Zahlenwerte A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_17, © Springer-Verlag Berlin Heidelberg 2010
279
280 vom
urknall zum durchknall
für den Lamb-Shift und das anomale magnetische Moment des Elek trons ergeben sich allein aus Potenzen der Feinstrukturkonstante – eine großartige Entdeckung. Obwohl der Name dies suggeriert, ist die Quantenelektrodynamik damit noch keine befriedigende Synthese aus Elektrodynamik und Quantentheorie. Denn dazu fehlt die Berechnung der Feinstrukturkonstante α = e2/2hcε0 ≈ 1/137, die eine Theorie mit diesem Anspruch eigentlich leisten müsste. Könnte man diese Zahl unabhängig berechnen, hätte man damit das Plancksche Wirkungsquantum durch die elektrischen Konstanten ausgedrückt und so die Anzahl der Naturkonstanten, letztlich auch freie Parameter, um eins verringert. Entsprechend wichtig schätzte Feynman diese Frage ein, und von Dirac berichtete man gar folgendes: Wenn ein Theoretiker ihm eine neue Idee vorstellen wollte, pflegte er ihm das Wort abzuschneiden: „Können Sie damit die Feinstrukturkonstante berechnen? Nein? Dann kommen Sie wieder, wenn Sie soweit sind.“ Es gibt jedoch einen weiteren Mangel der Quantenelektrodynamik, auf den Richard Feynman selbst oft hingewiesen hat. Kombiniert man die Formel für das elektrische Feld des Elektrons mit dem Energieinhalt des Feldes, so ergibt sich ein unendlicher Wert – physikalisch unsinnig. Die Quantenelektrodynamik umgeht dieses Problem mit der Vorstellung eines „nackten“ Elektrons ohne elektrisches Feld, das schon eine unendliche negative Energie besitze. Die Differenz zwischen dieser und der unendlich großen des elektrischen Feldes ergebe dann die beobachtete endliche Ruheenergie des Elektrons. Obwohl die Konsequenzen erfolgreich waren, blieb Feynman diesem als Renormierung bezeichneten Rechentrick gegenüber skeptisch: „Ich vermute, dass die Renormierung mathematisch nicht korrekt ist. Es ist nur sicher, dass wir keinen guten mathematischen Weg haben, der die Quantenelektrodynamik beschreibt.“ Noch drastischer war der stets skeptische Dirac: „Das ist einfach keine sinnvolle Mathematik. Sinnvolle Mathematik führt zum Vernachlässigen von unendlich kleinen Zahlen, nicht von unendlich großen, die wir nicht haben wollen.“ Dennoch baut das gesamte in der Folge entwickelte Theoriengebäude der Teilchenphysik auf diesem Konzept auf – nur zur
Nur eine widersetzt sich beharrlich der Renormierung: die Gravitation. Der Grund liegt, wie manch anderes Rätsel, in den physikalischen Einheiten von G.
17 falsch
abgebogen
281
Illustration hierzu können Sie in der offiziellen Begründung für den Nobelpreis 1999 vierundzwanzig mal das Wort „Renormierung“ finden. Wieder einmal hat erfolgreiches Rechnen gegen grundlegendes Denken die Oberhand behalten. Denn die Unendlichkeiten und der Ursprung der Feinstrukturkonstante bleiben ungelöste Rätsel, die immer mehr aus dem Bewusstsein verschwinden.
Ist doch etwas faul an der Gravitationskonstante?
Einsteins Allgemeine Relativitätstheorie ist ähnlich hervorragend bestätigt wie die Quantenelektrodynamik. Ihre Vorhersagen stimmen mit den erwähnten vier klassischen Tests perfekt überein, und ebenso wie bei der Quantenelektrodynamik wird dies ohne einen zusätzlichen freien Parameter erreicht. Denn die kleinen Korrekturen zur Newtonschen Theorie enthalten alle den Term 2GM/rc2 mit den schon bekannten Konstanten G und c. Anders als die Quantenelektrodynamik kommt die Allgemeine Relativitätstheorie auch ohne innere Ungereimtheiten aus, aber – die Anzahl der Naturkonstanten verringert auch sie nicht. Dabei ist die Gravitationskonstante für eine ganze Reihe von Problemen der Physik verantwortlich, etwa für die Merkwürdigkeiten der schwarzen Löcher, deren Größe noch nie gemessen wurde. Sie gelten gemeinhin als Vorhersage der Theorie, obwohl wir keineswegs sicher sein können, dass Einstein der Extrapolation auf diese mathematischen Extremfälle vertraut hätte. Aber auch die im Kapitel 7 besprochene BekensteinHawking-Entropie, die für das ganze Universum viel zu groß ist, folgt aus der Gravitationskonstanten G. Der unverständliche Wert der Entropie hat weiter zu den unter dem Namen „holographisches Prinzip“ geführten theoretischen Hirngespinsten geführt, während die ebenfalls auf G zurückgehende Plancklänge zur Spielwiese für erfolglose Versuche zur Quantengravitation geworden ist. Wegen des unangefochtenen Status der Allgemeinen Relativitätstheorie nimmt heute kaum jemand
Mit Wohlwollen könnte man die Äquivalenz von träger und schwerer Masse als eine Reduzierung aufassen.
282 vom
urknall zum durchknall
das fehlende Hinterfragen von G als Makel wahr, obwohl Einstein anerkanntermaßen einen großen Denker vor der Tür gelassen hat, der ihn anfangs sehr inspiriert hat: Ernst Mach.
Von Newton an Mach vorbei zu Einstein
Der Kosmologe Dennis Sciama fasste Machs Kritik an Newton in einem Aufsatzi so zusammen: „Newtons Theorie enthält zwei willkürliche Elemente, nämlich die Wahl der unbeschleunigten Bezugssysteme und den Wert der Gravitationskonstanten.“ Eine Berechnung von G würde also einen freien Parameter der Natur reduzieren und die Physik vergleichbar revolutionieren wie eine Herleitung der Feinstrukturkonstante. Die Ausdehnung des Universums und die im Horizont enthaltenen Massen wären dann keine unerklärten Zahlenwerte mehr, sondern würden sich in den Bewegungsgesetzen und der Gravitationskonstante widerspiegeln. Sciama schlug dazu eine Formel vor, die von Eddingtons Beobachtung zu der Massendichte im Universum ausging. Sciamas Hypothese zur Gravitationskonstanten Näherungsweise gilt G ≈ c2 (Ru /Mu ) , wobei Ru der Radius des Horizonts, Mu die darin enthaltene Masse ist. Sciama vermutete daher 1953 2 den Zusammenhang i (mi /ri ) ≈ c /G, was dem Machschen Gedanken realisieren würde, die Trägheit von Massen resultiere aus der relativen Beschleunigung gegenüber allen anderen Massen im Universum. Allerdings sollte G damit eine leichte Veränderlichkeit zeigen.
Das erstgenannte Problem des „Newtonschen Eimers“ wurde übrigens von David LyndenBell und Jonathan Katz in einer wunderbar klar formulierten Arbeit (arXiv:astro-ph/9509158) angegangen. Eine weithin unbekannte Perle.
17 falsch
abgebogen
283
Allerdings konnte Sciama keine tragfähige Theorie entwickeln, die mit dieser Hypothese vereinbar ist. Seine Formel suggeriert jedoch eine Veränderlichkeit von G, aber wegen fehlender experimenteller Hinweise darauf schlief die Idee wieder ein. Spannend wäre im übrigen nicht die zeitliche Variation der Gravitationskonstante an sich, sondern die prinzipielle Möglichkeit, G aus anderen Daten zu berechnen. Vielleicht hat das Rätsel des Ursprungs der Massen, das die gesamte Physik durchzieht, hier seine Wurzel. Jedenfalls scheinen diese, wenn auch bisher spekulativen Ansätze der einzig denkbare Weg, die Zahl der freien Parameter in der Gravitationstheorie zu reduzieren – G wäre der Kandidat dafür.
Widersprüche in der Elektrodynamik – verdrängt, nicht gelöst
Ebenso unbehaglich wie die Unendlichkeiten, die sich bei Anwendung der Allgemeinen Relativitätstheorie auf schwarze Löcher ergeben, sind die Unendlichkeiten der Quantenelektrodynamik. Sie schob mit dem Rechentrick der Renormierung einen inneren Widerspruch der klassischen Elektrodynamik beiseite, der leider fortbesteht. Feynman und Landau stimmen überein, dass man aus diesem Grund die abgestrahlte Energie einer stark beschleunigten Ladung nicht exakt zu berechnen vermag. Wie die gesamte Hochenergiephysik mit diesem heiklen Punkt umgeht, ist mir übrigens schleierhaft. Denn wann soll die notwendige Korrektur der Gleichungen eigentlich relevant werden, wenn nicht beim Zusammenprall der Ladungen in den den größten Teilchenbeschleunigern? Macht man sich klar, dass die Beschleunigung einer Ladung stets mit einem Strahlungsverlust einhergeht, gilt das zweite Newtonsche Gesetz F = ma nur mehr eingeschränkt. Möglicherweise sind daher die „Kräfte“ in der Elektrodynamik von anderer Art als jene der Mechanik, und nur ihre Kleinheit im Alltag verführt uns dazu, sie zu einem Begriff zusammenzuwerfen.
284 vom
urknall zum durchknall
Relativität, Äther, und die Welle als Teilchen darin
Bemerkenswert ist an der Elektrodynamik, dass sie durch mathematisch einfache, lineare Gleichungen beschrieben wird, und die Widersprüche werfen die Frage auf, ob man es sich nicht doch zu einfach gemacht hat. Denn viele „reale“ Probleme der Physik müssen sich mit nichtlinearen Gleichungen herumschlagen, wie sie etwa in der Hydrodynamik oder Kontinuumsmechanik gelten. Während des ganzen 19. Jahrhunderts versuchte man übrigens, die Elektrodynamik als Kontinuumsmechanik zu beschreiben, wobei die Schwingungen eines elastischen Mediums, des Äthers, den elektromagnetischen Wellen entsprechen sollten. Die Äthertheorien verschwanden 1905 in der Versenkung, als Einsteins Relativitätstheorie und die vorherigen Versuchsergebnisse von Michelson und Morley einem Äther zu widersprechen schienen. In der Tat führt die Vorstellung, Massen würden mit hohen Geschwindigkeiten durch den Äther gleiten wie Fische durchs Wasser, zu Widersprüchen. Betrachtet man in einem elastischen Kontinuum jedoch Wellenstrukturen oder andere Unregelmäßigkeiten als Teilchen, so können diese die Schallgeschwindigkeit ebensowenig erreichen wie etwa Elektronen die Lichtgeschwindigkeit. Zudem findet man in diesem „Äther“ völlig analoge Formeln zu denen, die nach der Speziellen Relativitätstheorie für die Bewegung eines Elektrons gelten.ii Dies ist zwar hochinteressant, wurde jedoch erst in den 1950er Jahren entdeckt, als die Äthertheorien schon längst ad acta gelegt worden waren. Wie dem auch immer sei, es ist jedenfalls eine unbegründete, aber verbreitete Meinung, die Elektrodynamik müsse bei hohen Energien ihre konventionelle lineare Form behalten. Trotz allem hat die Elektrodynamik natürlich ein bleibendes Verdienst: Durch die Beschreibung von Licht als elektromagnetische Welle reduzierten sich mit der Gleichung ε0 µ0 = 1/c2, die die elektri Auch die von der Quantenelektrodynamik eingeführten Korrekturen, wie etwa die PhotonPhoton-Streuung, ändern hieran nicht viel. Maßgeblichen Anteil hatte daran der leider verstorbene Prof. Ekkehart Kröner, ein liebenswürdiger Mensch und echter Forscher.
17 falsch
abgebogen
285
schen und magnetischen Feldkonstanten enthält, drei Naturkonstanten auf zwei. Darin lag der fundamentale Fortschritt der Elektrodynamik von Maxwell: ein freier Parameter weniger.
Die radikale Vereinfachungskur durch h
Die vielleicht wichtigste Säule der modernen Physik ist die Quantenmechanik. Schon das Wirkungsquantum h in Plancks Strahlungsformel von 1900 vereinigte die Gesetze von Rayleigh-Jeans und Wien, und machte deren Konstanten überflüssig – schon hier eliminierte also die Quantenmechanik freie Parameter. Im folgenden tauchte h bei unzähligen Gelegenheiten auf, die man sonst komplizierter hätte erklären müssen: als frequenzabhängige Energie bei dem von Einstein entdeckten Photoeffekt, in der nach de Broglie benannten Wellenlänge von Elektronen oder als Drehimpuls von Elementarteilchen. Die Kette der Entdeckungen reißt bis heute nicht ab, wie zum Beispiel beim Josephson-Effekt oder Quanten-Hall-Effekt, für die es 1972 und 1985 Nobelpreise gab. Der Erfolg schlechthin für die Quantenmechanik war jedoch die mit
Abbildung 12 : Sie gingen der Konstante h nach. Links: Max Planck und Albert Einstein, 1929. Mitte: Paul Dirac und Wener Heisenberg, in Cambridge um 1930. Rechts: Paul Dirac und Richard Feynman, bei einer Konferenz in Warschau 1962, aufgenommen von John Coleman, einem Schulkameraden Feynmans.
286 vom
urknall zum durchknall
h mögliche Berechnung der Rydbergkonstante, jener geheimnisvollen Zahl, die Johann Jakob Balmer 1885 aus den Atomspektren erknobelt hatte. Abb. 12 zeigt einige Protagonisten der Konstante h.
Quantenmechanik – die am besten unverstandene Theorie
Die Quantenmechanik reduzierte also an vielen Stellen die freien Parameter, und wohl keine Theorie hat damit die Naturgesetze effektiver vereinfacht. Sie hat aber auch wie keine andere dazu beigetragen, Naturgesetze unverständlicher erscheinen zu lassen. In diesen tauchte nun erstmals der Zufall auf, und viele konnten sich nicht damit abfinden, die Natur treffe im kleinsten keine berechenbaren Entscheidungen mehr, allen voran Schrödinger und Einstein, der dies – obwohl keineswegs religiös – plakativ mit dem Satz „Gott würfelt nicht“ ausgedrückt haben soll. Auf Max Born geht eine pragmatische, aber vielleicht nicht in allem befriedigende Interpretation zurück: Die Mikrowelt besteht aus Wellen, die jedoch keine materielle Bedeutung haben, sondern lediglich zur Berechnung der Wahrscheinlichkeit dienen, ein Teilchen anzutreffen. Darüber muss man sich letztlich wundern, dennoch können rein begriffliche Interpretationsversuche furchtbar anstrengend sein, so wie in einem Vortrag auf der Tagung Advances in Quantum Mechanics 1994 in Erice. In der halben Stunde vor der Mittagspause hatte ein Redner langatmig das Konzept einer Wellenfunktion erläutert, die „geschützt“ sei, obwohl eine Überlagerung der Wellen nebst Teilchenaustausch stattfinden könne. Viele knurrende Mägen protestierten schon gegen die sich anschließende Debatte, als Michael Berry sich meldete, der seit seiner Entdeckung einer geometrische Phasenbeziehung als Koryphäe der Quantenphysik gilt. Er verhalf den Anwesenden endlich zum Mittagessen, weil sich nach seinem Einwand die Versammlung im allgemeinen Gelächter auflöste: „Die Wellenfunktion ist geschützt? Dann haben Sie das Quanten-Kondom erfunden. Es unterscheidet sich vom klassischen wie folgt: Es schützt nur dann, wenn es leck ist.“
17 falsch
abgebogen
287
Diskussionen dieser Art mögen dazu geführt haben, dass Pragmatiker wie Feynman sich nie den Kopf zerbrachen über den „Kollaps“ der Wellenfunktion, der eine mathematische Abstraktion im Augenblick der Messung zu Materie werden lässt. Obwohl man sich so auf den Vergleich von Beobachtung und Rechnung beschränken kann, kapituliert doch dabei das Vorstellungsvermögen. Es ist ein Defizit der Quantenmechanik, dass sich das Wellen- und Teilchenverhalten nicht als logische Konsequenz einer Theorie begreifen lässt. Vielleicht war sogar schon hier der Verzicht auf den Anspruch, physikalische Abläufe auch intuitiv zu durchdringen, der Beginn des Leidensweges der Theoretischen Physik. Nicht umsonst hingen fast alle Begründer der Quantenmechanik unterschiedlichen Interpretationen von ihr an. Schon zur Entstehungszeit gab es jedoch einen gewissen Dogmatismus der vorherrschenden statistischen Deutung, der etwa die hochinteressante Doktorarbeit von Louis-Victor de Broglie in Vergessenheit geraten ließ. So beschäftigen sich heute leider nur noch wenige mit den Grundlagen der Quantenmechanik. Allerdings sind all jene Versuche in Gefahr, ins Geplauder abzudriften, die die Quantentheorie nur auf der begrifflichen Ebene reformieren, ohne neue experimentelle Effekte vorherzusagen.
Warum gibt es den Spin? Woher kommt die Masse?
Dirac wandte 1928 die Spezielle Relativitätstheorie auf die Grundgleichung der Quantenmechanik, die Schrödinger-Gleichung an und erhielt eine mathematische Struktur, die sehr zutreffend den Spin beschreibt, jenes rätselhafte Merkmal der Elementarteilchen. Warum erlaubt aber die Natur keine kugelsymmetrischen Teilchen? Den Spin als Konsequenz einer Theorie zu verstehen, kann wohl auch nur eine weiterentwickelte Quantenmechanik leisten. In der jetzigen Form vermag sie dagegen viele Eigenschaften der Elementarteilchen nicht zu berechnen. So entzieht sich etwa schon das Massenverhältnis Proton/Elektron von 1 836,15 … jedem Verständnis. Ein Grund, warum die typischen Massen überhaupt in der beobachteten Größenordnung liegen, existiert
288 vom
urknall zum durchknall
ebenfalls nicht – so jedenfalls die herrschende Meinung. Aber es gibt einen Hinweis. Das Plancksche Wirkungsquantum h stimmt näherungsweise mit dem Produkt aus Lichtgeschwindigkeit, Protonenmasse und Protonenradius überein, h ≈ cmp rp , wobei rp ≈ 1,3 × 10−15 m seit den Experimenten von Rutherford im Jahr 1914 näherungsweise bekannt ist. Das Proton ist somit in gewisser Weise das „quantenmechanischste“ Teilchen. Zudem ist es stabil – im Gegensatz zu dem Zoo der Teilchen aus den Beschleunigern, denen wir trotz ihrer aberwitzig kurzen Lebensdauer so viel Bedeutung beimessen. Der Verdacht liegt eigentlich nahe, dass die Natur uns mit der Koinzidenz h ≈ cmp rp etwas sagen will. Es gibt allerdings keine Theorie, die sie erklärt. Wenn es eine solche gäbe, hätte man eine Naturkonstante aus anderen berechnet – ein freier Parameter weniger – und wäre nebenbei dem Rätsel der Massen näher gekommen.
Größe und Masse des Protons – Zufall oder eine Botschaft der Natur?
Daher erscheint es doch lohnenswert, über die Beziehung h ≈ cmp rp nachzudenken. Erstaunlicherweise führt sie (siehe Formelkasten) zu Diracs Hypotheseiii über die Anzahl der Elementarteilchen im Universum, die schon im Kapitel 13 angesprochen wurde. Dirac hatte das Verhältnis von elektrischer Kraft zu Gravitationskraft, etwa 1040, mit dem Größenverhältnis Universum/Proton, ebenfalls etwa 1040, in Verbindung gebracht, aber zusätzlich beobachtet, dass sich etwa 1080 Protonen im Universum befinden. Der interessante Zusammenhang h ≈ cmprp ist also nur eine andere Form von Diracs Vermutung. Zugleich ist sie verwandt mit der Hypothese von Sciama, die die
Man findet diese Rechnung auch in Steven Weinbergs Buch Gravitation and Cosmology, Wiley 1972, Gln. 16.4.6. Leider wurde sie aus der Neuauflage herausgespült, um Platz für die viel interessanteren Ergebnisse der neueren Forschung zu schaffen.
17 falsch
abgebogen
289
Gravitationskonstante mit dem Machschen Prinzip verstehen will, geht aber noch weiter. Denn die Flachheit des Universums G ≈ c2 (Ru /Mu ) ließe sich sowohl mit einer anderen Größe der Elementarteilchen re alisieren, als auch mit einer anderen Masse; zum Beispiel könnte das Universum mit mehr, aber dafür leichteren Teilchen gefüllt sein. Ist es aber nicht. Allein Diracs Beobachtung gibt also einen Hinweis darauf, warum die Massen der Elementarteilchen in der gemessenen Größenordnung liegen. Aus der Größenordnung von mp folgt übrigens auch, dass die von Chandrasekhar berechnete Grenzmasse für die Entstehung eines schwarzen Loches aus einem Stern etwa gleich groß ist wie die Grenze, ab der sich ein Neutronenstern formen kann. Dem eine Bedeutung beizumessen, widerspräche allerdings vollkommen der gängigen Ansicht. Diracs Hypothese der großen Zahlen Im folgenden muss man sich klar machen, dass es bei der Abschätzung der Größenordnung dieser Zahlen auf Faktoren wie 10 oder gar 100 nicht ankommt. Ziemlich genau gilt aber noch die Koinzidenz die man mit c erweitern kann:
cmp rp ≈ h,
c2 mp rp ≈ hc ≈ 137
e2 , 2ε0
wenn man die Feinstrukturkonstante e2/2hcε0 ≈ 137 verwendet. Teilt man durch G und m2p , und erweitert man rechts mit 2π, so ergibt sich: c 2 rp e2 ≈ 860 Gmp 4π ε0 Gm2p
Frank Wilczek, wenn auch mit bemerkenswerter Ignoranz bezüglich früher Geschriebenem, kam in arXiv:hep-ph/0201222v2 auf ähnliche Gedanken.
290 vom
urknall zum durchknall
Bis auf die Zahl steht nun rechts aber genau das Verhältnis von elektrischer zur Gravitationskraft zweier Protonen, etwa 1,2 × 1036, während man links mit Eddingtons Beobachtung c2/G ≈ Mu /Ru umformt: M u rp ≈ 860 × 1, 2 × 1036 ≈ 1039 . m p Ru
Da Ru /rp ≈ 1041 ist, folgt Diracs Beobachtung für die Anzahl der Protonen im Universum Mu /mp ≈ 1080 . Sie ist damit eng verwandt mit cmp rp ≈ h.
Dirac gegen den Rest der Welt
Vor allem aber widerspricht Diracs Vermutung, die Teilchenanzahl 1080 habe etwas mit dem Quadrat des Horizonts von 1040 Protonenradien zu tun, den akzeptierten Vorstellungen. Denn zum fernen Zeitpunkt einer Universumsgröße von 1050 Protonenradien wären nach dem gängigen Modell immer noch ca. 1080 Teilchen sichtbar, keineswegs 10100. Glaubt man der konventionellen Kosmologie, handelt es sich bei Diracs Beobachtungen also um reine Koinzidenzen, die zufällig die heutigen Astronomen zum Narren halten. Auf noch größeres Entsetzen würde die Diracsche Vermutung bei den Teilchenphysikern stoßen. Denn sie legt nahe, dass die Quanteneffekte der Gravitation schon in der Größenordnung des Kernradius beginnen und nicht erst bei der unbeobachtbaren Plancklänge von 10−35 Metern. Zwar versteht man die Natur der hier offiziell „zuständigen“ Kernkräfte keineswegs gut, aber diese Ansicht würden die entsprechenden Experten kaum teilen. War Dirac also ein Phantast, der die moderne Physik nicht Ich benutze hier den Konjunktiv, weil ich noch keinen kennengelernt habe, der Diracs Paper von 1938 gelesen hätte. Dass diese gerade zwanzig Größenordnungen unter dem Kernradius liegt, folgt übrigens auch aus den Diracschen Hypothesen. Dies hätte aber keinerlei fundamentale Bedeutung.
17 falsch
abgebogen
291
mehr verstand und sich mit unbegründeten Zahlenspielereien zum Affen machte? Wenn man den Standardmodellen der Physik Glauben schenkt, schon. Will man dagegen die Anzahl der freien Parameter in der Physik reduzieren, müsste man über Diracs Idee ernsthaft nachdenken. Dies würde allerdings bedeuten, dass die letzten zwei bis drei Generationen von theoretischen Physikern in eine völlig falsche Richtung gearbeitet haben.
Spekulative Beobachtungen sind nicht theoretische Spekulationen Ohne Spekulation gibt es keine neue Beobachtung. Charles Darwin
Obwohl es gegenüber dem oben Gesagten nichts neues darstellt, lässt sich die zweite Diracsche Hypothese über die Teilchenzahl auch wie folgt veranschaulichen. Legt man alle Protonen des Universums zu einem Teppich mit der Dicke ihres Durchmessers aus, so ergäbe sich eine Fläche, die den beobachteten Horizont des Universums bedeckt. Doch etwas erstaunlich. Und – darüber haben wir uns im Kapitel 7 schon gewundert – diese Fläche stimmt auch noch ungefähr mit der Summe aller Galaxienoberflächen überein. Derartige Zusammenhänge kann man zwar mit Recht spekulativ nennen, aber es ist ein großes Missverständnis, sie deswegen mit theoretischen Spekulationen wie zum Beispiel Zusatzdimensionen in einen Topf zu werfen, die von geradezu gegensätzlicher Art sind. So findet man heute zahlreiche Phantasien mit einem technisch ausgereiften Theoriegebäude, die experimentell – wenn überhaupt – nur in fernster Zukunft bestätigt werden können. Hier sollte man vielleicht doch die Beobachtung abwarten, bevor man auf diesen Theorien zu viel aufbaut. Umgekehrt liegt bei Spekulationen von Diracs Art zu einer recht offensichtlichen Beobachtung die Theorie noch völlig im Dunkeln. Die Mehrheit der Physiker hält es hier mit einem eigentlich ironisch gemeinten Ausspruch von Sir Arthur
292 vom
urknall zum durchknall
Eddington: „Man sollte diesen Beobachtungen keinen Glauben schenken, solange sie nicht von der Theorie bestätigt werden“.
Rütteln an den Fundamenten und die Angst davor
Unter den fundamentalen Theorien der Physik ist die Spezielle Relativitätstheorie am wenigsten umstritten. Vielleicht wird deswegen ihre Basis, die Konstanz der Lichtgeschwindigkeit c, in einer Art von vorauseilendem Gehorsam noch ernster genommen als es von Einstein gemeint war. c ist eine Grenzgeschwindigkeit, die in einem Punkt der Raumzeit stets gleich bleibt, auch wenn man sich in einem bewegten Bezugssystem befindet. Dennoch könnte die Lichtgeschwindigkeit von Ort zu Ort verschieden sein – Voraussetzung wäre lediglich, dass sich die Zeit- und Längenmaßstäbe, mit der wir sie messen, sich ebenfalls so verändern, dass wir keinen Unterschied wahrnehmen. Dies klingt auf den ersten Blick wie eine unsinnige Komplizierung, kann aber benutzt werden, um die Allgemeine Relativitätstheorie umzuformulieren. Denn eine unterschiedliche Lichtgeschwindigkeit ruft wie in der Optik gekrümmte Bahnen des Lichts hervor, die ja das charakteristische Merkmal der Allgemeinen Relativitätstheorie sind – manche berechnen übrigens den Gravitationslinseneffekt ganz pragmatisch unter dieser Annahme. So kann man diese Formulierung in fast allen Lehrbüchern finden,iv der erste Versuch in dieser Art wurde schon 1911 unternommen – von Einstein, und Robert Dicke entdeckte damit 1957 sogar einen Zusammenhang mit dem Machschen Prinzip.v Im Kapitel 10 haben wir allerdings gesehen, dass hier manche päpstlicher als der Papst sein wollen und im Gegensatz zu Einstein eine variable Lichtgeschwindigkeit für unvereinbar mit der Speziellen Relativitätstheorie halten. Natürlich legt so ein Ansatz auch eine zeitliche Veränderung der Lichtgeschwindigkeit nahe. Derartige Ideen sind allerdings ein Alptraum für Autoren technisch aufgemachter Physikbücher, die 500 Seiten voll von Formeln mit c enthalten. Es ist aber etwas grotesk, dass man in der Physik reihenweise andere variable Felder erfindet, anstatt über c nachzudenken.
17 falsch
abgebogen
293
Was wir verstehen wollen, muss auch veränderlich sein
Der Glaube an die Unveränderlichkeit der Naturkonstanten ist fast zu einem Dogma geworden, das an die mittelalterliche Überzeugung vom ewig gleichen Sternenhimmel erinnert. Gerade wenn man etwas verstehen will, muss man oft eine langsame Dynamik in Betracht ziehen. Schon der Gravitationskonstante haften einige Merkwürdigkeiten an, aber die anomalen Beschleunigungen der Größenordnung c/Tu sind ein Hinweis, dass wir eine kosmologische Veränderung der Naturgesetze übersehen. Vor allem aber kann man die Anzahl der freien Parameter nur verringern, wenn man sich von der Unveränderlichkeit dieser Natur-„Konstanten“ verabschiedet. Denn entweder man akzeptiert etwa Masse und Dichte des Kosmos und seine Teilcheneigenschaften als willkürliche Anfangsbedingungen, durch die das Universum gleichsam mit einem Fußtritt auf den Weg gebracht wurde, oder diese Daten stehen doch mit den Naturgesetzen im Zusammenhang. Gelänge es, diesen herauszufinden, hätte man die Zahl der willkürlichen Konstanten reduziert. Dabei müssten wir auch die Begriffe Raum, Zeit und Masse möglicherweise neu definieren und tiefer verstehen. Denn es ist naiv, sich eine von der kosmologischen Evolution unabhängig tickende Zeit vorzustellen. Mach und Dirac, aber auch Barbour haben hier einen Schritt weiter gedacht. Eine zeitliche Änderung der Naturgesetze oder ihrer Konstanten würde sich natürlich im frühen Universum am stärksten auswirken, und die damals erfolgte Strukturbildung wirft im konventionellen Modell besonders viele Fragen auf. Eine vollkommen befriedigende Theorie des Universums müsste die freien Parameter möglichst vollständig eliminieren. Ob die Natur letztlich so einfachen Gesetzen gehorcht, können wir nicht wissen, vielmehr scheinen sich heute alle mit dem Gegenteil abgefunden zu haben. Aber Einstein sagte dazu: Ich möchte gerne ein Naturgesetz formulieren, das sich im Moment auf nichts anderes gründet als auf den Glauben an die
294 vom
urknall zum durchknall
Einfachheit, das heißt die Verstehbarkeit der Natur: Es gibt keine willkürlichen Konstanten … das heißt, die Natur ist so gebaut, dass es logisch möglich ist, so stark festgelegte Gesetze aufzustellen, dass in diesen nur rational vollständig bestimmte Konstanten vorkommen. Davon sind wir ganz weit entfernt.
Zuhören, Entspannen, Nachdenken: Wo stehen wir? Die meisten Leute spekulieren lieber über schwierige Dinge, als die Wahrheit in den einfachen zu sehen. René Descartes
Wird die Menschheit überhaupt eine einheitliche Theorie entdecken, wie es von vielen schon versprochen wurde? Roger Penrose glaubt jedenfalls nach seinem über tausend Seiten langen Streifzug The Road to Reality durch die Physik nicht, dass wir schon kurz vor der Entdeckung der Weltformel stehen.10 Vieles deutet darauf hin, dass die ausgetretenen Pfade nicht zum Ziel führen, obwohl man von den Alten vielleicht mehr lernen kann als von den modernen Propheten – das heliozentrische Weltbild wurde zum Beispiel schon in der Antike von Aristarchus vorweggenommen. Selbst wenn Sie prinzipiell an einen Durchbruch glauben, werden Sie kaum mit mir einverstanden sein, dass die letzten siebzig Jahre uns von einem Verständnis der fundamentalen Physik eher weggebracht haben. Wahrscheinlich nehmen wir aber bei der Beurteilung der Dinge unsere eigene, wohl zufällig dimensionierte Lebensspanne zu wichtig. Denn die Wissenschaftsgeschichte schert sich nicht darum, ob ein paar Generationen von Forschern in eine Sackgasse geraten sind.
Gerne wird die Frage erörtert, ob wir näher an der Lösung sind als früher. Feynman brüskierte dabei einen Interviewer: „Wenn das Wissen begrenzt ist, und wir heute mehr wissen, natürlich müssen wir dann näher sein. Aber was für eine blöde Frage!“
10
17 falsch
abgebogen
295
Oder positiver formuliert: Seit langem kann man als hochangesehener Wissenschaftler das Zeitliche segnen, ohne das Verständnis der Natur auch nur einen Deut vorangebracht zu haben. Aber was will man mehr? Weiterführende Literatur E. Whittaker: The History of the Theories of Aether and Electricity, Dover 1951. R. Feynman/R. Leighton/M. Sands: Vorlesungen Band 2, Oldenbourg 2007, Kap. 27+28. R. Feynman/R. Leighton/M. Sands: QED. Die seltsame Theorie des Lichts und der Materie, Piper 2009. S. Jones: The Quantum Ten, Oxford University Press 2008. R. Penrose: The Road to Reality, Vintage 2004, Kap. 34. T. Bührke: Die Sonne im Zentrum, C.H. Beck 2009. i ii iii iv v
D. W. Sciama, MNRAS 113 (1953), 34. C. F. Frank, Proc. R. Soc. Lond. A 62 (1949), 131; P. A. M. Dirac, Proc. R. Soc. Lond. A 165 (1938), 199. J. Broekaert, arXiv:gr-qc/0405015, ref. [70]. R. H. Dicke, Rev. Mod. Phys. 29 (1957), 363.
18
Die Erde ist eine Scheibe. Punkt. Wir wissen … nicht viel – was uns alles am Nachdenken hindert
Obwohl die Theoretische Physik in den vergangenen Jahrzehnten der Natur nicht mehr viel Neues zu entlocken vermochte, entwickelten sich ihre mathematischen Methoden weiter, meist ungestört von Experimenten. Natürlich benötigt die Theoretische Physik mathematisches Handwerkszeug wie Differenzial- und Integralrechnung, Vektoranalysis zur Darstellung von Feldern wie dem elektrischen, Funktionenräume und komplexe Zahlen in der Quantenmechanik, und generell Differenzialgleichungen, welche statt Zahlen ganze Funktionen als Lösungen haben. Für letztere braucht man Variationsrechnung, und schließlich in der allgemeinen Relativitätstheorie auch etwas Differenzialgeometrie. Dagegen liegt der Schwerpunkt heute auf der Ausweitung der Differenzialgeometrie auf höherdimensionale Räume, den dadurch verursachten topologischen Komplikationen und der Betrachtung von riesigen Symmetriegruppen. Generell ist nichts dagegen einzuwenden, dass Mathematik auch schwer sein darf. Zum Beispiel beschreibt man in der Kontinuums mechanik die Deformation eines Volumenelementes mit neun zu einer Matrix angeordneten Zahlen. Sie geben Auskunft darüber, wie stark ein Stück Gummi verdreht, gedehnt oder in verschiedene Raumrichtungen verzerrt sein kann. Die Berechnung des Drehanteils dieser Deformation – sie wird polare Dekomposition genannt – ist zum Beispiel so kompli ziert, dass man dazu keine allgemeine Formel angeben kann. Und doch A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_18, © Springer-Verlag Berlin Heidelberg 2010
297
298 vom
urknall zum durchknall
handelt es sich um ein physikalisch völlig durchschaubares Problem, man kann es klar formulieren! Demgegenüber wird die Schwierigkeit der Mathematik heute oft als Vorwand dafür benutzt, den physikali schen Inhalt völlig im Nebel verschwinden zu lassen.
Methode Märchenmathematik statt Differenzialgleichungen lösen
Drei Säulen der Physik, Elektrodynamik, Quantenmechanik und Allgemeine Relativitätstheorie stehen auf den nach Maxwell, Schrödinger und Einstein benannten Differenzialgleichungen. Nach letzteren hatte Einstein jahrelang gesucht, während der Mathematiker David Hilbert sie 1915 im Handumdrehen aus einem Minimalprinzip herleitete, indem er eine Methode der Mathematiker Euler und Lagrange verwendete. Man meint heute, Hilberts elegante Arbeitsweise imitieren zu können, indem man alle möglichen Lagrangefunktionen bastelt, aber Physik macht man damit noch nicht. Erst der wesentlich beschwerlichere Teil von Einsteins Weg, das Verzahnen der Differenzialgleichung mit den physikalischen Größen und das Herausschälen der Vorhersagen, machte seinen Erfolg aus. Diese Arbeit ist heute nicht mehr modern, und daher gibt es in der Theoretischen Physik kaum mehr quantitative Resultate. Wenn es eine einheitliche Theorie der Physik geben sollte, müsste man eben Differenzialgleichungen finden, die die oben genannten als Näherungen enthalten und noch besser mit dem Experiment überein stimmen. Anders als die Maxwell- und Schrödingergleichung könnten sie nichtlinear sein, was zwar technische Schwierigkeiten macht, aber kein prinzipielles Problem darstellt. Es dient daher wohl nur zur Imagepflege der theoretischen Physiker gegenüber einer Öffentlichkeit von Laien, wenn ständig bizarre Schauermärchen erzählt werden, welche neue Welten der Mathematik man für eine einheitliche Theorie erschließen müsse. Es ist die Physik, die man noch nicht versteht. Aber es gibt nicht den geringsten Hinweis darauf, dass irgendwelche hochdimensionalen mathematischen Theorien uns dabei weiterhelfen.
18 die
erde ist eine scheibe. punkt.
299
Fünfzig Jahre Elfenbeinturm – das Jubiläum der Theoretischen Physik
Diese von der Naturwissenschaft abgekoppelten Rechnungen wurden von der Stringtheorie auf die Spitze getrieben, begannen aber schon viel früher. Sie finden sich schon in den Konstruktionen des Standardmodells, die 1960er und 1970er Jahre waren keine gute alte Zeit mehr. Rein abstrakte Mathematik ohne handfeste Vorhersagen begann damals schon die Physik aufzuweichen.i Auch hier trafen schon die Worte von John Baez zu: Aber auch als ihre Theorien sich als nicht überprüfbar oder unrichtig erwiesen, versäumten es viele Theoretiker, die Lage zu überdenken. Es ist schwer, große Sprüche öffentlich zurückzunehmen. Stattdessen heben sie mehr und mehr die Eleganz ihrer Theorien hervor, und einige wurden zu verkappten Mathematikern. Seitdem definiert sich Theoretische Physik immer mehr als Spielwiese der mathematischen Konsistenzbetrachtungen. Mit aus der Luft gegriffenen physikalischen Annahmen zerbricht man sich den Kopf darüber, ob A mit B vereinbar ist, wobei meistens beides noch nicht beobachtet wurde. Bestimmt 95 Prozent der Theoretiker sitzen diesem Realitätsverlust auf, etwa der gleiche Anteil wie die dunklen Substanzen im Universum – unsichtbar die einen, unbeirrbar die anderen.
Rechnen, bis der Arzt kommt
Die wissenschaftlichen Zeitschriften sind voll von Rechenerfolgen der Art: „Wir zeigen, dass Blablabla konsistent mit der Entropie der schwarzen Löcher ist“. Aber selbst wenn sich ein neues Ideechen widerspruchslos an eine etablierte Theorie ankleben lässt: Na und? Interessant wäre es doch, dort anzusetzen, wo unerklärte Beobachtungen die akzeptierten Theorien herausfordern. In diese konkrete Arbeit einzusteigen haben
300 vom
urknall zum durchknall
aber viele nicht das Bedürfnis. Fragen sie doch mal jemand, der die Unendlichkeiten am Schwarzschild-Radius mathematisch herausbügelt, wie man das Geschwindigkeitsprofil der Milchstraße vermisst, oder wie sich der Metallgehalt der Sterne auf die Altersbestimmung von Kugelhaufen auswirkt. Es gibt viele Merkwürdigkeiten der Beobachtung, die einer Erklärung harren. Weil das aber wirklich schwierig ist, tut man eben was man kann – rechnen, egal was. Ein für die moderne theoretische Kosmologie typischer Fall wäre zum Beispiel der Übersichtsartikel Inflation Dynamics and Reheating.ii Mit nur leichter übersetzerischer Freiheit lautet die Zusammenfassung: Wir benutzen ein Modell mit möglichst vielen wohlklingenden Parametern, das uns sowohl eine beliebige Anpassung eventueller Resultate an die Realität erlaubt, als auch unsere Rechnungen hinreichend undurchschaubar macht, als dass sie jeder kritisieren kann. Wir garnieren das Ganze mit Standardmethoden und diskutieren möglichst schwammig die Auswirkungen, wobei wir sicherstellen, unter jeder denkbaren Messgrenze zu bleiben. Gleichzeitig gelingt es uns, eine Nähe zu weiteren theoretischen Modeerscheinungen herzustellen, um mit anderen Schaumschlägern internationale Allianzen des Geschwafels zu bilden. Psychologisch handelt es sich hierbei um eine kollektive Übersprungshandlungen, und soziologisch belohnt werden sie dadurch, dass man eine korrekte Rechnung, und sei der Inhalt noch so belanglos, meist problemlos publizieren kann. Nur Physik ist es leider nicht.
Homo sapiens mathematicus?
Entgegen vielleicht mancher Eigenansicht ist die rein abstrakte Ma thematik nicht unbedingt das Gebiet, auf dem die intellektuellen Fähigkeiten von Homo sapiens am stärksten zur Geltung kommen. Denn die algebraische Manipulation von Rechenausdrücken und das Aufspüren von eindimensionalen Beweisketten hat den Neandertalern
18 die
erde ist eine scheibe. punkt.
301
viel zu wenig Evolutionsvorteile gebracht, als dass wir heute darin weiß Gott wie talentiert wären. Vielmehr sind es das räumliche Vorstellungsvermögen, die Fähigkeit zur mentalen Manipulation dreidimensionaler Objekte und das überragende Bildgedächtnis, was den Menschen auszeichnet. Selbst wenn die Natur sich also nur über mathematische Beweise erschlösse, hätten wir schlechte Karten. Eben dort, wo sich die Mathematik mit physikalischen Konzepten verbindet, bei denen wir unsere Stärken einsetzen können, beim Vorstellen von Vektorfeldern, Wellenfunktionen und Raumkrümmungen, hat man der Natur die meisten Geheimnisse entlocken können. Einstein vertraute auf solche Intuition, während ihm in Rechnungen nicht selten Fehler unterliefen. Mit Blick auf eine Veröffentlichung in den „Sitzungsberichten der Preußischen Akademie der Wissenschaften“ bemerkte er selbstironisch:iii „Mit dem Alten ist es einfach. Jedes Jahr widerruft er, was er das vorige Jahr geschrieben hat.“ Neben seiner leidenschaftlichen Neugier verfügte Einstein vor allem über mentale Stärke: „Der Herr schuf den Esel und gab ihm ein dickes Fell.“ Es war ihm völlig gleichgültig, dass alle den Weg für einen Irrtum hielten, mit dem er sich später jahrzehntelang beschäftigte. Ohne diese Sturheit hätte er aber wohl nie Revolutionen wie die Relativitätstheorie oder die Quantenhypothese losgetreten.
The beauty and the brain
Einstein hat verschiedentlich auch den Begriff der Schönheit in phy sikalischen Theorien hervorgehoben. Die Gefahren dieses Arguments liegen aber auf der Hand. Im geozentrischen Weltbild glaubte man des wegen so fest an die Epizyklen, weil sie als Kreise eine perfekte Sym metrie aufwiesen. Wie auch Smolin bemerkt,iv sind in eine praktisch identische Rolle heute die Symmetrien der Eichgruppen geschlüpft. Im Gegensatz zu den von Emmy Noether betrachteten Symmetrien der Raumzeit sind sie von abstrakter Natur. Letztlich bedeutet das nur, dass man sich von der Geometrie der Raumzeit löst und Theorien mit Begriffen bildet, die darauf aufgesetzt sind. Vielleicht haben wir aber auch
302 vom
urknall zum durchknall
einfach Raum und Zeit noch nicht genau verstanden. Die modernen Ansätze sind nicht offensichtlich falsch, so wie im Epizyklenmodell Himmelskörper sich näherungsweise auf Kreisbahnen bewegen. Die Eichsymmetrien werden aber heute mit der gleichen Brachialgewalt auf die Beobachtungen gepresst wie einst die armen Kreise, aber die Natur rächt sich in beiden Fällen mit dem Ausscheiden von immer mehr freien Parametern. Es ist daher eigentlich höchste Zeit, sich von der Ideologie der Schönheit zu verabschieden. Als Einstein oder Dirac von Schönheit sprachen, hatten sie gerade unter größten Mühen einen Gipfel erklom men und fanden keine anderen Worte, die Aussicht zu beschreiben. Heute dagegen wird die Schönheit von alpinen Massentouristen im Munde geführt, die, mit dünnen Seilen bewaffnet, die teuersten und absurdesten Expeditionen beantragen, aber nicht wissen, auf welchen Gipfel sie überhaupt wollen. Die Jagd nach der Schönheit ist heute zu einem sehr subjektiv drehbaren Instrument geworden, das leider auch den physikalisch größten Unsinn rechtfertigen kann. Ich habe wenig Geduld mit Wissenschaftlern, die ein Brett dahernehmen, sich die dünnste Stelle aussuchen, und dort einen Haufen Löcher bohren, wo es sich mühelos bohren lässt. Albert Einstein
Die Genies sind tot, es leben die Pragmatiker Do not follow where the path may lead. Go, instead, where there is no path and leave a trail. Ralph Waldo Emerson
Erstaunlich ist, wie sehr die vorherrschende Meinung auch Forscher vereinnahmt, die auf ihrem eigenen Gebiet kritische Querdenker sind. Bei meinem Treffen mit Julian Barbour 2008 in Bonn wunderte ich mich, wie sehr er die Idee der Eichtheorien in der Elementarteilchenphysik verteidigte und es entsetzte mich geradezu, wie er die experimentelle
18 die
erde ist eine scheibe. punkt.
303
Bestätigung des Standardmodells der Teilchenphysik pries. Ausgerechnet er, der mit seinen Zweifeln an der Hubble-Expansion das Standardmodell der Kosmologie gründlich auf den Kopf stellt! Vergeblich hielt ich ihm die Argumente von Smolin vor, der die vielen freien Parameter in der Teilchenphysik grausam findet. Smolin, der auf diesem Gebiet der „outlaw“ ist, schließt sich andererseits unkritisch der Mainstream-Kosmologie an: Die Inflation sei gut bestätigt.v Durch die Spezialisierung der heutigen Physik breitet sich die Meinung der Mehrheit leider oft unwidersprochen aus. Dennoch bleibt Smolin insgesamt beeindruckend kritisch:vi In den letzten fünfundzwanzig Jahren waren wir sicher sehr beschäftigt (…) Aber wenn es um die Ausweitung unseres Wissens der Naturgesetze geht, sind wir nicht wirklich weiter gekommen (…) Im Gegensatz zu früheren Generationen haben wir nichts erreicht, von dem wir überzeugt sein können, dass es uns überlebt. Für einen Forscher, der einen wesentlichen Teil seines Lebens eben diesen Versuchen gewidmet hat, wirklich eine bemerkenswerte Offenheit! Smolin beschreibt dazu die dramatischen methodischen Veränderungen in der Physik seit Mitte des zwanzigsten Jahrhunderts:vii Dieser Stil ist nüchtern und pragmatisch und zieht virtuose Berechnungen der Reflexion über wirkliche begriffliche Probleme vor. Er unterscheidet sich grundlegend von der Art, wie Albert Einstein, Niels Bohr, Werner Heisenberg, Erwin Schrödinger und andere Revolutionäre des frühen zwanzigsten Jahrhunderts Wissenschaft betrieben haben. Ihr Werk entstand aus tiefen Gedanken über die grundlegenden Fragen, die sich um Raum, Zeit, und Materie drehten, und sie sahen dies in einer breiteren philosophischen Tradition, in der sie zu Hause waren. Das Rechnen siegte über das Denken. Aber die Bilanz der Pragmatiker bleibt dürftig.
304 vom
urknall zum durchknall
Wissenschaft einst und jetzt – Spitzenleistung durch Breitensport? Man könnte von einer Gruppenintelligenz der PhysikerKollaborationen sprechen, die weit über die des einzelnen Wissenschaftlers hinausgeht. Rolf Landua, CERN Um ein tadelloses Mitglied einer Schafherde sein zu können, muß man vor allem ein Schaf sein. Albert Einstein, Bern
Es gibt aber auch eine soziale Komponente in der Arbeitsweise. Unter den Begründern der Quantenmechanik fand zwar ein reger Austausch statt, wesentliche Schritte wurden jedoch von Bohr, Heisenberg und Schrödinger allein erreicht. Überhaupt wurde noch keine bedeutende Theorie dadurch entdeckt, dass jemand unter Anleitung eines Professors Rechnungen ausgeführt hat. Nicht zuletzt war Einstein ein einsamer Arbeiter, und schrieb: „Das ahnungsvolle, Jahre währende Suchen im Dunkeln mit seiner gespannten Sehnsucht, seiner Abwechslung von Zuversicht und Ermattung und seinem endlichen Durchbrechen zur Klarheit, das kennt nur, wer es selber erlebt hat.“ Dabei behielt Einstein einen Überblick über alle wesentlichen Gebiete der Theoretischen Physik, im Gegensatz zu den Ikonen der heutigen spezialisierten Wissenschaftslandschaft. Weit verbreitet ist entsprechend die Meinung, moderne Forschung sei nur mehr im Team möglich. Das mag für die 8000 Wissenschaftler am CERN durchaus zutreffen und gilt vielleicht in der Experimentalphysik in zunehmendem Maße. Aber für die Theorie wäre dieses Argument doch überzeugender, wenn die kollektiven Bemühungen der Physiker wirkliche Erfolge gezeigt hätten. Roger Penrose sagt dazu nachdenklich:viii Im momentanen Klima der wissenschaftlichen Grundlagenfor schung ist es für Individuen viel schwieriger, echte Fortschritte zu machen, als zu Zeiten Einsteins. Teamwork, massiver Computer einsatz, Verfolgen von Ideen, die „in“ sind – das sehen wir im
18 die
erde ist eine scheibe. punkt.
305
Moment. Können wir aus diesen Aktivitäten die fundamentalen neuen Perspektiven erwarten, die notwendig sind? Mir bleiben da einige Zweifel. Wenn Sie einen authentischen Eindruck von der Arbeitsweise der Theoretiker bekommen wollen, vergleichen Sie Werner Heisenbergs Autobiographie Der Teil und das Ganze mit Alan Guths Die Geburt des Kosmos aus dem Nichts. Heisenberg diskutierte die grundlegenden Fragen der Physik auf Wanderungen mit Freunden in höchster Bescheidenheit. Guths Beschreibung der Theoretiker, die an einem Modeproblem wetteifern, erinnert dagegen an Lemminge, die sich ohne Sinn und Verstand zu Tode rechnen, aber bis zum Ende überzeugt sind, die Klugheit mit dem Löffel gefressen zu haben.
Schöne neue Welt – Physik entwurzelt und neu angebaut
Die führende Rolle in der Wissenschaft fiel in der Geschichte oft mit politischer und militärischer Macht zusammen. Die Barbarei des Nationalsozialismus zerstörte dabei auch die Zentren der Wissenschaft in Europa. Bei einem Abendessen 1934 in Göttingen fragte angeblich der neue Erziehungsminister Rust den Mathematiker David Hilbert, ob sein Institut denn unter dem Weggang der Juden gelitten habe. „Jelitten? Nee. Dat jibt es doch gar nich mehr!“ soll Hilbert entgegnet haben. Obwohl viele führende Köpfe der Physik in die USA emigrierten, gelang es ihnen dort nicht, eine wissenschaftliche Kultur der grundlegenden Fragen wie im Europa der Vorkriegszeit zu etablieren. Ein pragmatischer Ansatz begann zu dominieren, und auch der militärische Erfolg der Atombombe trug zu einer neuen Ausrichtung bei, wie James Gleick deftig formuliert:ix Ebenso treffend ist Smolins Schilderung der Supersymmetrie im Kapitel 5 von The Trouble with Physics.
306 vom
urknall zum durchknall
Die Wissenschaftler, die den Zustand der Theoretischen Physik betrachteten, fielen in einen Zustand der Düsterkeit; als Auswir kung der Bombe schien ihre Stimmung postkoital. So wurde ohne alte Wurzeln die Quantenelektrodynamik erfolgreich, die zur Blaupause für fast alle weiteren Theorien wurde. Gerade die Bilanz der letzten Jahrzehnte auf diesem Weg fällt aber bescheiden aus. Smolin schreibt: „Die Lektion dieser dreißig Jahre ist, dass die Probleme, mit denen wir heute zu tun haben, nicht mit einer pragma tischen Art, Wissenschaft zu machen, gelöst werden können.“ Insge samt kann man wohl die Beiträge zur Physik der alten und neuen Welt gewichten wie jene der Griechen und der Römer zur Philosophie. Dazu passt leider auch, dass die heutige Physik mit den Epizyklen des Standardmodells und der Scholastik der Stringtheorie ins Mittelalter zu regredieren scheint.
Was ist der Marktwert der Physik?
Der Standort Amerika schlug sich auch in anderer Art auf die Wissen schaft nieder. Gerade privaten Sponsoren gegenüber konnte sich die Gemeinde der Forscher dort nicht als vielstimmiger Chor mit konkurrierenden Meinungen präsentieren. Zielgerichtete Projekte konnten die Finanziers überzeugen, nicht aber Spielzeug. Letztlich setzt sich dies bis heute fort, wo der Large Hadron Collider mit der Werbebotschaft der Urknallsimulation präsentiert werden muss. So wenig man fundamentale Physik planen kann, so wenig vermarktungsfähig sind ihre Erkenntnisse. Vielleicht interessiert sich mal jemand in Hollywood für die Filmrechte an ein paar Inflationsszenarien, aber mit Grüblern, Zweiflern und Naturphilosophen kann man normalerweise keine Mittel locker machen, keine Massen begeistern, ja noch nicht mal Wissens-Quizsendungen machen. Stellen Sie sich Günther Jauch vor, der einem Kandidaten die Frage vorlegt: Ist die Elektrodynamik (a) widersprüchlich (b) nichtlinear (c) von begrenzter Reichweite (d) mit der Gravitation zu vereinigen? Physik heißt, Fragen zu
18 die
erde ist eine scheibe. punkt.
307
stellen, bei denen kein Telefonjoker hilft. Und Nobelpreise erhält man nicht durch Verdoppeln des Einsatzes.
Investitionen in die Talentschmiede Physik
Der Griff nach den Sternen birgt immer ein Risiko, aber im beruflichen Umfeld hat der Physiker gute Möglichkeiten. Auf der Werberückseite von Physikzeitschriften finden Sie oft großformatige Anzeigen von McKinsey oder Boston Consulting Group. Dort lädt man diplomierte Physiker schon gern mal auf einen Kennenlern-Segeltörn in die Ägäis ein, während Absolventen der Wirtschaftswissenschaften froh sein müssen, bei einem Vorstellungsgespräch zu schwitzen. Nicht selten werden Physiker mit lukrativen Verträgen auch von Investmentbanken umworben. So machte sich zum Beispiel der Nobelpreisträger Sheldon Glashow ernsthafte Sorgen,x der Theoretischen Physik könnte der beste Nachwuchs verloren gehen: „Ich sehe viele Talente, die an die Wall Street gehen“. Ich denke dagegen, man interessiert sich entweder dafür, was die Welt regiert, oder für das, was sie im Innersten zusammenhält. In der Finanzwelt waren diese Talente bekanntlich zu kollektiver Idiotie fähig, aber ich fürchte es gibt in der Physik immer noch zu viele davon. Also: Lasst sie nur gehen! Selbst wenn es dem Steuerzahler weh tut, sollten wir uns die Abwanderung dieser Köpfe ins Investmentbanking ruhig was kosten lassen.
Nicht alleine ist wichtiger als überzeugt sein
Aber wie wirkt sich Geld auf die Forschung aus? Der Wissenschafts philosoph Karl Popper gibt zu Bedenken: „Ich halte die meisten Physiker und Biologen für sehr gescheit und gewissenhaft. Aber: Sie stehen unter Druck. Diesen Druck gibt es erst seit dem zweiten Weltkrieg, seitdem so viel Geld für die Wissenschaft ausgegeben wird.“ Dieser Druck verstärkt die ohnehin immer drohende Tendenz zum Gruppendenken. Das Hinterfragen des Modells, mit dem sich alle beschäftigen, wird unerwünscht. Popper schreibt dazu:
308 vom
urknall zum durchknall
Die Intellektuellen machen aus Theorien Ideologien. Selbst in der Physik gibt es leider viele Ideologien. (…) Wer nicht mit der Mode geht, der steht bald außerhalb des Kreises derer, die ernst genommen werden. Sogar der so technische Roger Penrose widmet in The Road to Reality ein ganzes Kapitel der Mode. Leider scheint sie heute nicht ganz unwichtig. Dabei verdankt die Wissenschaft oft entscheidende Fortschritte denen, die als Phantasten galten, wie der Historiker Federico di Trocchio in Newtons Kof fer beschreibt. Bedauernswert war zum Beispiel das Schicksal von Ignaz Semmelweis, dem Entdecker der Ursache des Kindbettfiebers. Er starb 1865 in einer Wiener Irrenanstalt, nachdem seine zutreffende Theorie der Infektion durch mangelnde Hygiene bei allen führenden Medizinern der damaligen Zeit auf Ablehnung gestoßen war. Ein ähnlicher Fall von Blindheit der Fachelite ereignete sich in der Geologie. Der Polarforscher Alfred Wegener glaubte an die Bedeutung der simplen Beobachtung, dass sich die Küstenlinien von Südamerika und Afrika gut zusammenfügen, was von den Experten als reine Koinzidenz abgetan wurde: Es gab ja noch keine gute Theorie dazu. Erst lange nach Wegeners Tod auf einer Expedition wurde die Kontinentaldrift anerkannt. Hier kann man mit Jonathan Swift sagen: Taucht ein Genie auf, verbrüdern sich die Dummköpfe.
Publish or perish – der Untergang in der Flut
Obwohl zu Jonathan Swifts Beobachtung gerade Gutachter von wissen schaftlichen Zeitschriften dokumentierte Beispiele geliefert haben, wird Erfolg in der Forschung heute durch die Anzahl der Artikel in diesen gemessen. Meist berücksichtigt man auch den sogenannten impact factor, der die Wichtigkeit einer Zeitschrift durch nachfolgende Zitate errechnet. Aber auch einzelne Artikel werden danach bewertet, wie oft sie von anderen Wissenschaftlern aufgegriffen werden. Die Selbstbefruchtung dieser Zählung liegt auf der Hand: Wenn alle etwas nachplappern und gleichzeitig das zu Grunde liegende Problem nicht lösen, dann war es wichtig. Derartige Veröffentlichungen, wie etwa der Ideengeber von
18 die
erde ist eine scheibe. punkt.
309
Lisa Randall und Alan Sundrum zu Extradimensionen, heißen eigentlich mit vollem Recht influential papers: Auslöser einer wissenschaftlichen Grippewelle. Ganze Forschungsgebiete werden so klassifiziert, wie es etwa Peter Woit für die Supersymmetrie erwähnt: Sie zählt über 40 000 Veröffentlichungen. Experimentelle Resultate sind nicht vorhanden, dafür ist es in dieser Herde sicher nicht schwer, positiv gestimmte Gutachter für die nächste Finanzierung zu finden. Manchmal frage ich mich, ob eine fundamentale Theorie, die funktioniert, überhaupt noch jene Zehntausende von Physikern ernähren könnte, die sich momentan mit solchem theoretischem Geplänkel abgeben. Denn das Arbeitsgebiet dieser Experten verlöre ja seinen Sinn, sobald ein wirklicher Fortschritt erreicht wird. Eigentlich sollten die Stringtheoretiker und andere in eine Arbeitslosenversicherung einzahlen, die die versprochene Entdeckung der Weltformel sozial abfedert. Selbstorganisation des Gruppendenkens und akzeptierte Willkür Es ist schwer, jemand ins Gesicht zu sagen: Ihr Artikel ist Mist! Max Planck
Peer review bedeutet, dass bei Zeitschriften eingereichte Arbeiten von unabhängigen, dem Autor nicht bekannten Gutachtern beurteilt wer den. Da dies meist Experten des entsprechenden Gebietes sind, erhält so jede wissenschaftliche Mode ab einer bestimmten Größe eine Eigendy namik, weil kritische Fragen von außen gar nicht mehr gestellt werden. Umgekehrt schotten sich die momentan gängigen wissenschaftlichen Modelle auf diese Weise sehr effizient gegen neue Ideen ab, die das eigene Arbeitsgebiet zu untergraben drohen. Nicht immer ist böser Wille dabei, denn sich in fremde Gedanken einzuarbeiten, ist eine eher unangenehme Arbeit, die nur durch einen elektronischen Händedruck honoriert wird. Entsprechend oberflächlich sind daher auch viele Gutachten. So verwunderte es mich, dass der Editor von Astrophysics and Space Science sich bei mir einmal fast überschwänglich für eine zweiseitige Stellungnahme bedankte, die ich zu einem dort eingereichten
310 vom
urknall zum durchknall
Manuskript verfasst hatte. Zwar hatte ich ein paar Stunden damit verbracht, aber keineswegs alle Rechnungen nachgeprüft. Da viele Gutachter keine Lust haben, in neue Argumente einzusteigen, begnügt man sich oft mit der Feststellung, dass das Paper diesem oder jenem Experiment – oder auch einer etablierten Theorie (!) widerspreche – wenn man nicht die Entscheidung schon nach dem Stallgeruch des Autors trifft.xi Ein mir befreundeter Gravitationsphysiker aus Frankreich, der allerdings an einem fachfremden Institut beschäftigt ist, bekam zu einem Manuskript mehrere Ablehnungen, aber als er sich als Gastwissenschaftler an einer Universität mit gutem Namen aufhielt, wurde sein Artikel sogleich bei Physical Review D akzeptiert. Eine köstliche Realsatire auf das Geschwätz der postmodernen Philosophie gelang 1996 dem Physiker Alan Sokal. Er reichte bei der Zeitschrift Social Text einen Artikel mit dem Namen Die Grenzen überschreiten: Auf dem Weg zu einer transformativen Hermeneutik der Quantengravitation ein, der vor Unsinn nur so strotzte. Geschickt in fachsprachliche Formulierungen verpackt, wurde er aber prompt akzeptiert und gedruckt. Vielleicht haben die Herausgeber der Physikzeitschrift Classical and Quantum Gravity auch darüber gelacht, aber seit 2002 tun sie es sicher nicht mehr. Denn sie mussten einräumen, dass ein Artikel der Brüder Igor und Grischka Bogdanov nur groben Unsinn enthielt, der nicht hätte publiziert werden dürfen. Einziger Unterschied zu der Sokal-Affäre: Die Autoren insistieren, die Arbeit sei ernst gemeint, und der verwendete Jargon entstammte nicht der Postmoderne, sondern der topologischen Feldtheorie. Ein Träger der Dirac-Medaille vom Massachusetts Institute of Technology hatte sich übrigens als Gutachter besonders positiv über das Manuskript geäußert … naja. Mit Blick auf das im Kapitel 11 gesagte will ich Ihnen aber den Titel von Grischka Bogdanovs Doktorarbeit nicht vorenthalten: Quantenfluktuationen der Signatur der Metrik auf der Planckskala. Ich sehe diese würd‘gen Peers mit schnell vertauschter Überzeugung unter vier Regierungen den Glauben viermal ändern. Schiller, Maria Stuart
18 die
erde ist eine scheibe. punkt.
311
Qualität im Heuhaufen – in dubio pro publico
Der Bogdanov-Skandal entfachte unter anderem eine Diskussion in der New York Times und in Nature. Aber auch di Trocchio, Smolin, Maguejo und viele andere Autoren haben plakativ dargestellt, dass das ganze System des Peer Review krank ist. Dabei darf die Aufregung um die Bogdanovs nicht darüber hinwegtäuschen, dass eine versehentliche Publikation von Unsinn nicht wirklich schlimm ist. Wahrscheinlich sind tausende von Artikeln in Zeitschriften publiziert, die sich nur wenig von dieser Qualität abheben, aber außer einer gewissen Ressourcenverschwendung entsteht dadurch kein großer Schaden. Mit Stichwortsuchen pickt sich heute ohnehin jeder aus der unüberschaubaren Anzahl von Veröffentlichungen das für ihn Interessante heraus. Viel größer ist die Gefahr, dass eine wirklich bahnbrechende Idee heute von Zeitschriften als abwegig eingestuft und abgelehnt wird: Zum Beispiel wurde von Nature ein Artikel abgelehnt, der dann zum Medizin-Nobelpreis 1953 führte. Wie im Strafrecht scheint hier eine „Verurteilung“ zu Unrecht schlimmer, als wenn ein paar „Gauner“ un gestraft davonkommen – vielleicht sollte man daher den Grundsatz in dubio pro reo übertragen. Viele denken übrigens, dies sei durch die Möglichkeit der Online-Publikation auf dem weit verbreiteten ArXiv bereits gesichert. Doch auch dort wurde durch eine „Moderation“ eine subtile, aber recht rigide Zensur installiert, die, wie die Webseite stolz berichtet, „effectively behind the scenes“ arbeitet. So werden viele Arbeiten ohne Begründung von den spezialisierten und oft gelesenen Kategorien zum allgemeinen gen-ph verschoben, so wie die Arbeit eines renommierten deutschen Quantenfeldtheoretikers, der sich kritisch zur Stringtheorie geäußert hatte. Angeblich existieren sogar schwarze Listen von Autoren, deren Publikationen auf Grund des Namens – nicht des Inhalts – von vornherein aussortiert werden. Prominentestes „Opfer“ ist dabei der Nobelpreisträger Brian Josephson. Wie sehr er auch ins Esoterische abgedriftet sein mag, muss man die ArXiv-Leser wirklich vor seinen Artikeln schützen? So begrüßenswert die Möglichkeit der Internet-Publikation ist, so problematisch
312 vom
urknall zum durchknall
ist inzwischen die unkontrollierte Monopolstellung des ArXiv, die mit denen der Zeitschriften nicht zu vergleichen ist. ArXiv ermöglicht nach eigener Aussage Publikationen „mit geringeren Kosten“, aber auch mit geringerer Fairness.
Niemand glaubt dem Theoretiker – bis auf den Theoretiker selbst
Es ist bekannt, dass „riskante“ Ideen, die den akzeptierten Paradigmen zuwiderlaufen, schwer zu publizieren sind, während langweilige, tech nische Paper meist von den Gutachtern durchgewunken werden. Wenn man keine Fehler findet, muss nicht unbedingt eine Idee dabei sein. An wohlgemeinten Vorschlägen für Reformen fehlt es nicht – schon 1986 wurde von dem Wissenschaftskritiker Horrobin vorgeschlagen, Preise auf die Lösung von wichtigen Problemen auszusetzen, anstatt das klüngelnde Finanzierungssystem beizubehalten. Eine originelle Idee von Eric Weinstein ist, wissenschaftliche Ideen wie Finanzpapiere zu handeln – wer etwas als Unsinn begutachtet, was sich später als der große Wurf herausstellt, soll dafür haften. Nette Idee, aber sollten umgekehrt die Artikel zur Stringtheorie mal in einer Bad Bank gelagert werden, werden wir dann ähnlich wie von Josef Ackermann hören, das habe wirklich niemand vorhersehen können? Es gibt auch den gut gemeinten Vorschlag, einen bestimmten Prozentsatz der For schungsmittel für unkonventionelle Ideen zur Verfügung zu stellen, vermutlich wird er aber ähnlich umgesetzt wie die EntwicklungshilfeVersprechungen der Industrieländer. In den USA wurden schon einige Institutionen gegründet, die gezielt „riskante“, auch spekulative Forschung fördern wollen. Wer aber soll unsinnige Spekulation ohne Beobachtung unterscheiden von interessanter Spekulation über ungeklärte Beobachtungen, deren armen Verfechtern man eine wissenschaftliche Zuflucht bieten will? Schaut man sich auf den Webseiten manche Entscheidungsträger an, so kommt der Verdacht auf, dass sich hier Zuhälter und verurteilte Vergewaltiger zur Gründung eines Frauenhauses zusammengetan haben.
18 die
erde ist eine scheibe. punkt.
313
Jeder glaubt dem Experimentator – bis auf den Experimentator selbst
Experimentelle Resultate wollen gerne über jeden Zweifel erhaben sein. Doch der Publikationsdruck unter den Wissenschaftlern führt oft dazu, dass mehr aus den Daten herausgelesen wird, als darin steckt. Leicht lässt man sich mit zu simplen Annahmen zu einer übertriebenen Genauigkeit verleiten. Um Mittel und Ansehen zu bekommen, muss alles toll sein, während mit dem Eingeständnis von großen Fehlergrenzen nicht viel Reputation zu erreichen ist. So werden auch immer wieder Ergebnisse publiziert, die einer seriösen Datenauswertung Hohn sprechen. Da bei diesen nur wenige qualifiziert widersprechen können und dies keineswegs immer tun, dringen die Ergebnisse trotzdem ins allgemeine Bewusstsein. Irgendwann sterben die Fachleute und das geduldige Papier überlebt. Denn Kollegen „in die Suppe spucken“ ist eine äußerst undankbare Aufgabe, für die es praktisch keine Lorbeeren zu ernten gibt. Mein Bekannter Kris Krogh machte sich einmal die Mühe, die Datenauswertung eines Satellitenfluges zu zerpflücken, bei der ein italienischer Physiker eine völlig übertriebene Genauigkeit behauptet hatte. Obwohl die Gutachter Kris Recht gaben, wurde die Publikation erst nach langer Diskussion akzeptiert – man entgegnete sogar, die Fehler in der kritisierten Arbeit seien offensichtlich! Auch für Zeitschriften ist so ein Schritt zurück immer peinlich. Die Verbreitung von unseriösen Sensationsgeschichten wird paradoxerweise gerade von den Flaggschiffen wie Nature oder Science honoriert. Die Kürze der Artikel erlaubt eigentlich keine objektive Überprüfung – was von sorgfältigen Wissenschaftlern auch mit Argwohn beobachtet wird. Überspitzt gesagt, wenn Sie ein paar Gesteinskratzer auf dem Mars als Spuren von grünen Männchen interpretieren, können Sie bei Nature durchaus damit durchkommen. Wenn Sie aber schreiben, diese Analyse sei aus den und den Gründen Unsinn, dann wäre das nach den Kriterien der Zeitschrift not of general interest. So verlagert sich die Kompetenz des Wissenschaftlers nicht selten vom Inhalt auf die Verpackung, was natürlich nicht heißt, dass nicht auch echte Sensationen ihren Weg dorthin finden. Aber mit der Verlockung des hohen impact
314 vom
urknall zum durchknall
factors ist die Gefahr der Schaumschlägerei durch Karrieristen gerade bei Nature und Science nicht gering.
Wissensbanken und ihre Bonität
Problematisch ist vor allem, wenn die Rohdaten einer umfangreichen Beobachtung nur einer Arbeitsgruppe zur Verfügung stehen, die die gesamte Auswertung übernimmt. Die Vorstellung, dass größere Experimente, auf deren korrekte Auswertung die Physik seit Jahren oder gar Jahrzehnten vertraut, bisher unerkannte systematische Fehler enthalten könnten, ist ein Albtraum. Wie im Beispiel von Einstein und de Haas im Kapitel 12 muss man dabei keine böse Absicht unterstellen. Aber vor allem aufeinander aufbauende Beobachtungen führen zu einem kumulierten Risiko, denn nicht immer ist im neuen Versuch eine Wiederholung des früheren enthalten. Nach dem oben Gesagten wäre es aber leichtsinnig, die Publikation in einer Zeitschrift allein als Beweis für die Richtigkeit eines Resultates anzusehen. Murray Gell-Mann erzählte bei einem Vortrag in München 2008: „Ich veröffentlichte einmal zusammen mit Feynman ein Paper, das acht publizierten Experimenten widersprach. Sie waren alle falsch.“ Das war sicher mehr als Lacher gemeint, so wie ein Bonmont der Kosmologie: „Keine Theorie sollte alle Daten reproduzieren, denn einige sind bestimmt falsch“. Aber gerade moderne Beobachtungen sind von einer Komplexität, die man unabhängig oder gar als einzelner schwer durchblicken kann. Halton Arp fragte einmal: „Welche Chance hat eine Person, die einen wichtigen Widerspruch in einer wissenschaftlichen Behauptung bemerkt, dies auf der Ebene der Rohdaten nachzuprüfen?“ Die Publikation in einer Zeitschrift ist letztlich nicht mehr Wert als der Stempel einer Ratingagentur, und die höchste AAA-Bonität wird im allgemeinen von Physical Review vergeben. Forscher gewinnen durch solche Publikationen wie Fondsmanager durch Bonuszahlungen, die das langfristige Risiko nicht bewerten. Wenn die Wissenschaft anfängt, auf unseriösen Berechnungen zu bauen, ist ein Zusammenbruch aber vorprogrammiert. Schlecht getestete Resultate wären wie Derivate von faulen Krediten in den Bilanzen. Bisher kaufen
18 die
erde ist eine scheibe. punkt.
315
sich die Physiker immer noch alles ab. Ob man auf Giftmüllpapieren sitzt oder nicht, zeigt leider immer nur die Zukunft.
Zwischen Skylla und Charybdis: Verschwörung ist keine Lösung
Vor etlichen Jahren hatte ich einmal kurz Gelegenheit, mich mit dem ehemaligen Schachweltmeister Bobby Fischer zu unterhalten. Das bedauernswerte Genie war der Idee verfallen, dass die ganze Welt von einer global agierenden zionistischen Verschwörung geleitet werde, die alle Regierungen und alle Medien kontrolliere. Meiner vorsichtigen Bemerkung, ich hätte mich gerade deswegen für ein Physikstudium entschieden, weil es dort objektiv nachprüfbare Fakten gebe, begegnete er sogleich mit Warnungen und Hinweisen zu „Aufklärungsliteratur“, denen ich aber bis heute nicht nachgegangen bin. Zieht man wie Fischer alles in Zweifel, was man nicht mit eigenen Augen gesehen hat, landet man leicht in der Falle von Verschwörungsphantasien, auf die übrigens wieder das Poppersche Kriterium zutrifft: Die Annahme, alle Informationen um uns herum seien manipuliert, kann leider durch nichts mehr widerlegt werden! Wie findet man also den richtigen Mittelweg? Wenn Ihnen meine gelegentlich dargelegte Sicht als advocatus diaboli schon reichlich skeptisch vorkommt, lesen Sie mal Abschied von der Weltformel des Nobelpreisträgers Robert B. Laughlin. Die meisten Physiker dagegen werden an publizierten Resultaten wenig Zweifel haben.
Moderne Reproduzierbarkeit – der Klick auf die Rohdaten Hoffe nicht ohne Zweifel und zweifle nicht ohne Hoffnung. Seneca
Der Konflikt ist aber nicht mit Glauben oder Nichtglauben zu lösen, sondern nur durch Transparenz in den wissenschaftlichen Daten.
316 vom
urknall zum durchknall
Denn empirische Wissenschaft heißt auch, dass die Ergebnisse reproduzierbar sein müssen. Wenn sie von Experimenten in hundert Jahre alten Physikzeitschriften lesen, dann können Sie die meisten davon ohne großen Aufwand im Hobbykeller aufbauen. Seitdem sind die Dimensionen der Experimente explodiert, aber man bedient sich immer noch der gleichen altertümlichen Beschreibung. Versuchen Sie heute einmal, auch nur den Aufbau eines einzigen Experimentes aus der Lektüre von Physical Review zu verstehen. Zum Teil könnten hier Fotound Videodokumentationen Abhilfe schaffen, aber bei den komplexeren Ergebnissen liegt die Schwierigkeit fast immer bei der Computerauswertung. Es sind die öffentlich nicht zugänglichen Programme, die heute eine Nachprüfung faktisch unmöglich machen. Selbst von einer verständlichen Beschreibung der Programmstruktur sind die meisten Artikel meilenweit entfernt. Der Quellcode wird schon deshalb nicht veröffentlicht, weil oft eine ganze Karriere daran hängt, die man nicht einfach per copy+paste der Konkurrenz überlassen will. Wenn man aber davon wegkommen will, Resultate auf der Basis von Menschenkenntnis zu beurteilen, dann muss folgendes zum Standard werden: Im Internet zugängliche Rohdaten, deren sukzessive Auswertung in einem dokumentierten, für jeden verfügbaren Programmcode nachgeprüft werden kann. Wenn dabei unterschiedliche Arbeitsgruppen an der Rohdatenre duzierung und an der endgültigen Interpretation arbeiten wie beim Sloan Digital Sky Survey (SDSS), kann das einer emotionslosen Analyse nur gut tun. Der kritische Betrachter sollte jedenfalls eigene Modifikationen des Programms ausprobieren können. Das wäre echte Reproduzierbarkeit, und vielleicht findet sich in manchen Rohdaten sogar noch ein unentdeckter Schatz, weil man die Information noch nicht unter dem entscheidenden Gesichtspunkt analysiert hat, wie Roger Penrose vermutet.xii In der Astronomie hat so eine neue Datenkultur echte Chancen, denn Projekte wie SDSS weisen in die richtige Richtung. Die Elementarteilchenphysik wird sich mit dieser Forderung viel schwerer tun, aber auch dort wird irgendwann kein Weg an mehr Transparenz vorbeiführen.
18 die
erde ist eine scheibe. punkt.
317
Back to the roots: Die Theorie ist krank Selbstverständlich macht der … Berufsstand von den anderen keine Ausnahme darin, dass seine Angehörigen ihrer überwiegenden Mehrzahl nach gewöhnliche Hohlköpfe sind, bereit, zu sehen, was nicht da ist, und zu leugnen, was auf der Hand liegt. Thomas Mann, Felix Krull
Wenn die experimentelle Methodik teils leichtfertig geworden ist, mehr Anlass zur Sorge gibt die heutige Art der Theoriebildung. Die Theoretische Physik ist zwar nicht tot, wie John Horgan sagt, aber ernsthaft erkrankt. Diese Modelle werden immer komplizierter, indem sie neue unerklärte Zahlen produzieren, anstatt dass man über eine Reduzierung der freien Parameter nachdenkt. In der Methode hat sich das Rechnen gegen das Denken durchgesetzt, statt strikten Kontakt zur Beobachtung zu halten. Es ist leider bezeichnend, dass theoretische Physiker ihre Meinungsverschiedenheiten heute nicht mehr durch das Experiment ausräumen können. So herrscht eine bestimmte Mode vor, die blauäugig über absurd viele Zehnerpotenzen extrapoliert wird, und dabei folgt man immer gleichen Konzepten wie Eichsymmetrien, der modernen Version der Kreise des Epizyklenmodells. Die Rolle der unbewegten Erde im Mittelalter wird dabei von dem Glauben an die Konstanz der Naturgesetze übernommen. Fast nur Dirac hat darüber nachgedacht, und seit seine Stimme verhallt ist, wird die Physik von einem pragmatischen Rechenstil regiert, zu dem sich alle unerfreulichen Begleiterscheinungen eines Massenbetriebes gesellen. Wie miserable Psychologen versuchen wir, der Natur immer kompliziertere Theorien aufzuschwätzen, anstatt die merkwürdigen Fakten ernst zu nehmen, die sie uns mitteilt. Wir haben verlernt, unverstandene Beobachtungen anzunehmen, und fragen zuerst, ob sie uns in den theoretischen Kram passen, den wir umgekehrt nicht mehr testen. Ohne Überprüfungen regrediert aber die Physik wieder zum Dogma: Die Erde ist eine Scheibe. Punkt. Das wäre schade.
318 vom
urknall zum durchknall
Weiterführende Literatur L. Smolin: The Trouble with Physics, Houghton Mifflin 2006. R. Penrose: The Road to Reality, Vintage 2004, Kap. 34. J. Gleick: Genius, Pantheon Books, New York 1992. J. Horgan: The End of Science, Addison-Wesley 1996. F. di Trocchio, Newtons Koffer, rororo 2001. W. Heisenberg: Der Teil und das Ganze, Piper 2002. R. Jungk: Heller als tausend Sonnen, Heyne 2000. K. Popper: Ich weiß, daß ich nichts weiß, und kaum das, Ullstein TB 1994. G. Binnig: Aus dem Nichts, Piper 1992. S. Bär: Forschen auf Deutsch, Harri Deutsch 2002. J. Magueijo: Schneller als das Licht, Goldmann 2005. R. Laughlin: Abschied von der Weltformel, Piper 2007. i ii iii iv v vi vii viii ix x xi xii
Interessant dazu B. Schroer, arXiv:hep-th/9410085. B. A. Bassett et al., arXiv:astro-ph/0507632. de.wikiquote.org/wiki/Albert_Einstein. Smolin, S. 218. Smolin, S. xi. Smolin, S. xii. Smolin, S. xxii. Penrose, S. 1026. Gleick, S. 232. Horgan, Kap. 3, S. 65. Di Trocchio, S. 120. Penrose, S. 1025.
19
Epilog: Sich Aufregen?
Ich bin sogleich nicht vorbereitet, was ich als Bürger dieser Welt gedacht, in Worte Ihres Untertans zu kleiden. Schiller, Don Carlos
Zu dem Spaß, den ich beim Schreiben dieses Buches hatte, mischt sich die Erkenntnis, dass die Physik hier alles andere als erschöpfend dargestellt wurde. Zu vielfältig sind die Faszinationen des Universums, und ich kann Sie nur ermuntern, diese weiter zu erforschen. Ebensowenig erschöpfend behandelt werden konnten all jene Absurditäten, die die Theoretische Physik der letzten Jahrzehnte hervorgebracht hat und die ich Ihnen nur teilweise als entbehrlich darstellen konnte. Ich kann nur hoffen, dass sich hier niemand übergangen fühlt. Die schon kritischen Kommentare meiner mir eher wohlgesonnenen Korrekturleser erfüllen mich aber mit Zuversicht, jenen Experten genug Angriffsflächen geboten zu haben, um meine Kritik an den Konzepten der aktuellen Physik als unfundiert zu zerpflücken. Denn der Verdacht liegt natürlich nahe, dass hier ein Träumer einfach alles besser wissen will – wie jedes Kind weiß, haben Lehrer „vormittags Recht und nachmittags frei“ – vielleicht färbt ja das doch auf meine wissenschaftliche Tätigkeit ab, ohne dass ich es merke? Hoffentlich können mir dann mal Forscherkollegen, die
A. Unzicker, Vom Urknall zum Durchknall, DOI 10.1007/978-3-642-04837-1_19, © Springer-Verlag Berlin Heidelberg 2010
319
320 vom
urknall zum durchknall
durch steuerfinanzierte Konferenzteilnahmen zu überlegener Sachkompetenz gelangt sind, ein paar einfache Dinge erklären. Sollte ich sie immer noch nicht verstehen, bleibt mir nur ein Trost: Das Recht auf Meinungsäußerung ist mir ein unbefangener Genuss, denn anders als in den evaluierten Exzellenzclustern ist Unsinn nennen, was Unsinn ist, an bayerischen Gymnasien noch kein Dienstvergehen.
Naturwissenschaft ist der Glaube an die Unwissenheit der Experten (Richard Feynman)
Aber nehmen wir an, Sie teilen manche meiner Ansichten: Kann man sich denn anmaßen, über Theorien zu urteilen, wenn man kein Experte darin ist? Vielleicht doch. Die Wissenschaft ernüchtert uns damit, dass unsere Erkenntnisse über die Natur bescheiden sind, aber sie ermöglicht auch abkürzende Überlegungen. Ein Physiker braucht sich nicht im Detail mit einem Perpetuum mobile zu befassen, weil es nach dem Energiesatz nicht funktionieren kann. Ebensowenig wird er daran glauben, das man mit einem Setzsystem in einer Spielbank reich wird, auch wenn die Methode noch so kreativ, schön oder ausgefeilt ist. Und ebenso kann Wissenschaft ohne Experimente auf Dauer nicht funktionieren. Punkt. Selbst wenn die Stringtheorie noch so schwärmt von ihrer schönen Mathematik – wir müssen nicht Theologie studiert haben, um zu erkennen, was keine Naturwissenschaft ist. Ein Bausparkassenvertreter kann Ihnen stundenlang etwas vor rechnen, wenn die Antwort auf die Frage nach dem effektiven Jahreszins nicht befriedigt, dann vergessen Sie es. Beim Standardmodell der Elementarteilchenphysik lautet die Frage: Wieviel freie Parameter enthält es? Vergessen sie es ebenfalls. Die Astronomie grenzt sich von der Astrologie ab, indem sie auf deren Absurditäten hinweist: Die charaktergebenden Tierkreiszeichen sind längst verschoben, die Kräfte der Hebamme doch etwas stärker als die von Uranus, und ein klein wenig redet auch die Biologie mit. Mit dem gleichen Recht darf man die 10−35 Sekunden der Inflation mit den ersten Daten 380 000 Jahre nach dem
19 epilog:
sich aufregen?
321
Urknall vergleichen. Wir dürfen absurd nennen, was absurd ist, auch wenn noch so viele Leute Fluktuationen oder Aszendenten berechnen. Wissenschaft wird von der Skepsis getragen. Man darf zweifeln, ob eine Quantengravitation die Zahl 1040 berechnen kann, ebenso wie ein Meteorologe am hundertjährigen Kalender zweifeln darf, und die Naivität dieser Bauernregeln wäre noch nichts gegen die Extrapolationen der Teilchenphysik. Wir würden keinem Mediziner trauen, der eine Allheilpille gegen jede Krankheit zu entwickeln verspricht, aber viele glauben an die Möglichkeit der Weltformel. Die Physik ist leichtfertiger als jede andere Naturwissenschaft geworden. Zweifeln Sie. Allerdings kann man in der Physik nur konstruktiv mitreden, wenn man mit den Beobachtungen vertraut ist. Aber Resultate nützen dann wenig, wenn sie unter Annahmen interpretiert werden, die auch falsch sein könnten. Mehr denn je ist es daher notwendig, dass wir zu den Rohdaten zurückkehren, jeden Bearbeitungsschritt transparent machen und fragen: Ist dies die beste, einfachste, und einzige Erklärung? Wahrscheinlich fanden Sie einiges an meiner Skepsis übertrieben. Ich würde mich übrigens selbst wundern, wenn ich mich nicht in manchen der hier vertretenen Einschätzungen geirrt hätte. Gefährlich ist, dass wir heute zunehmend auf Glauben angewiesen sind. Zum Nachprüfen bietet das Internetzeitalter Gelegenheit, und wenn wir der Natur genauer zuhören, kann die Physik vielleicht aus der Sackgasse wieder herausfinden. Denn es gibt nur zwei Möglichkeiten: Entweder die Natur ist hässlich und hoffnungslos kompliziert, oder die Theoretische Physik der letzten siebzig Jahre baut auf falschen Konzepten. Trotzdem werden die Theoretiker weitermachen und uns noch länger mit ihren Absurditäten auf der Jagd nach der Weltformel beglücken. Aber was tun? Ihnen Diracs Artikel um die Ohren hauen? Demonstrieren, schreien, klagen? Wie Sie bemerkt haben, enthält dieses Buch keinen Vordruck mit einem Protestschreiben an Ihren Abgeordneten. Die Zeit muss reifen. Das beste, was Sie tun können: Glauben Sie nicht jeden Mist, lesen Sie, denken Sie nach, denken Sie selbst. Und betrachten Sie den Sternenhimmel. Das beruhigt. Die Sterne lächeln ein bisschen über uns. Tun wir das auch.
322 vom
urknall zum durchknall
Danksagung
Ein Buch wird mit Zeit geschrieben, die der Familie fehlt. Meiner Frau und meinen Kindern danke ich hier herzlich für das Verständnis und auch Lena für Ihre Hilfe. Weiter wäre dieses Projekt nicht ohne die hervorragende professionelle Unterstützung von Oliver Gorus, Jörg-Achim Zoll und der gesamten Agentur Gorus realisiert worden. Besonderer Dank gebührt Frau Angela Lahee vom Springer-Verlag, die das Buch nicht nur von Anfang an engagiert betreute, sondern auch kompetente Gutachter beibrachte, die wertvolle Anmerkungen machten. Zur endgültigen Form haben ganz entscheidend meine Korrekturleser beigetragen, denen ich hier ebenfalls herzlich danke: Maria und Sebastian Barthmes, Gottfried Beyvers, Friedrich Siemers, Marlis Fest, Stefan Geier, Peter Thirolf, Hannes Hoff, Pia Corvino, Cornelia Plank, Hans Hartmann und den Teilnehmern der Wettzell-Exkursion 2009. Unter allen hervorheben muss ich Karl Fabian, ohne den meine ganze Beschäftigung mit der Physik nicht denkbar gewesen wäre. Schließlich danke ich meinem Vater, der mich lehrte, nachzudenken, und meiner Mutter, die mir beibrachte, Dinge anzupacken. Abbildungsnachweise
Abbildung
Inhalt
Mit freundlicher Genehmigung von
1
Coma-Haufen; Fritz Zwicky
2 3 4 5 6
Milchstraße Radioteleskop Wettzell Kugelsternhaufen Namibia Blick aus Einsteins Wohnung Rotationskurve Galaxie NGC 3198
7 8 9
Galaxienverteilung Mikrowellenhintergrund Quasarspektrum
10 11 12
Evolution des Universums Feynman-Diagramm Einstein und Planck
Caltech, Spitzer Teleskop Fritz-Zwicky Stiftung, Glarus (CH) NASA Goddard Space Flight Center (eigene Aufnahme) Stefan Geier (eigene Aufnahme) Royal Society, Renzo Sancisi John Vickery, Jim Matthes/Adam Block/NOAO/AURA/NSF 2dF Galaxy Redshift Survey Team NASA+WMAP Science Team AAS (Astronomical Journal), Xiaohui Fan NASA+WMAP Science Team (eigene Produktion) Nachlass Brüche, Landesmuseum für Technik und Arbeit in Mannheim Emilio Segrè Archiv Emilio Segrè Archiv, John Coleman
Dirac und Heisenberg Dirac und Feynman
Namensverzeichnis
A Aguirre, Anthony 11, 98 Alfonso, King X 14 Ampère, André Marie 23 Anderson, John 86, 89 Anselm v. Canterbury 239, 253 Aristarchus, Samos von 294 Aristoteles 265 Arp, Halton 119f, 261 Ashtekar, Abay 172, 261 B Baade, Walter 33, 40f Baez, John 183, 242, 299 Balmer, Johann Jakob 149f, 175, 286 Barbour, Julian 58f, 80, 162, 241, 293, 302 Barrow, John 60, 167 Bartelmann, Matthias 121 Baryshev, Yuri 25 Berry, Michael 240, 286 Bessel, Friedrich 38 Bethe, Hans 217 Bohr, Niels 20, 303f Boltzmann, Ludwig 117 Born, Max 220, 285 Bose, Satyendranath 208f Bosma, Albert 108 Bothun, Gregory 105 Brahe, Tycho 32 Burbridge, Geoffrey 119 Burkert, Andreas 108
C Cartan, Elie 62 Cavendish, Henry 71, 75
Chandrasekhar, Subrahmanyan 179, 240, 288 Clausius, Rudolf 274 Conselice, Christopher 46 D De Broglie, Luis Victor 186, 285–287 Deutsch, David 221 Di Trocchio, Federico 120, 174, 308, 311 Dicke, Robert 31, 159, 166, 292 Dirac, Paul 15, 20, 81f, 212–215, 217, 271, 280, 285, 288–291, 302, 317 Disney, Mike 106f, 118, 140, 148 Durrer, Ruth 49, 98, 114f, 215f E Eddington, Sir Arthur 15, 78f, 81, 290, 292 Einstein, Albert 9, 15, 20, 53–56, 62–66, 78–80, 109f, 156, 166f, 175, 188f, 207, 209, 233, 242, 274, 281f, 285f, 292f, 298, 301–304 Ellis, George 167 Everett, Hugh 221 F Faraday, Michael 23, 260 Fermi, Enrico 209, 265, 269, 273 Feynman, Richard 15f, 63, 80, 123, 146, 180, 191, 198–200, 211f, 275, 280, 285, 287, 295, 314 Fischer, Bobby 315 Fowler, William A. 249 Fraunhofer, Joseph 136 Frenk, Carlos 97
323
324 namensverzeichnis G Galilei, Galileo 5, 23–26, 36, 53, 72, 123, 185, 198, 219, 260 Gamow, George 81 Geller, Margaret 112f Gell-Mann, Murray 166, 193, 195, 258, 314 Georgi, Howard 198, 235 Glashow, Sheldon L. 166, 190, 198, 228f, 307 Gleick, James 193, 305 Green, Michael 232 Greene, Brian 4, 15, 207, 225, 230f, 233, 235 Gross, David 225, 232, 244 Grossmann, Marcel 8 Gundlach, Jens 73f Gunn, James 108 Guth, Alan 4, 161f, 165–167, 254, 305 H Hahn, Otto 86, 273 Hänsch, Theodor 26f, 150 Harvey, Jeffrey 226 Hasinger, Günther 16 Hawking, Stephen 117, 172, 176, 181, 183, 220 Hehl, Friedrich W. 62 Heisenberg, Werner 20, 175–178, 195, 201, 219, 227, 240, 303–305 Herschel, Wilhelm 33 Hertz, Heinrich 24 Hilbert, David 185, 298, 305 Hipparch, Nikäa von 38 Hooper, Dan 106, 153, 198 Horgan, John 156, 223, 232, 234, 241, 317 Horrobin, David 312 Hoyle, Fred 119, 171, 249, 275 Hubble, Edwin 7, 33, 37–41, 78 Huchra 112 J Jansky, Karl 30f Jordan, Pascual 213 Josephson, Brian 311
K Kaku, Michio 232 Kant, Immanuel 37, 203, 253 Kepler, Johannes 5, 33 Kopernikus, Nikolaus 38, 123, 260 Krauss, Lawrence M. 4, 215, 227 Krogh, Kris 87, 313 Kuhn, Thomas 239, 251f, 263f
L Landau, Lev D. 9, 41, 48, 182, 283 Laplace, Pierre-Simon 77 Laughlin, Robert B. 223, 315 Leavitt, Henrietta 39, 45 Lederman, Leonhard 243, 249 Leibundgut, Bruno 48 Lerner, Eric 119 Lesch, Harald 122f Levi-Civita, Tullio 61f Lichtenberg, Georg Christoph 153 Linde, Andrei 216 Lindemann, Ferdinand 178, 201 Lippershey, Hans 23 Lorentz, Hendrik Antoon 65 M Maartens, Roy 114f Mach, Ernst 58f, 79–81, 282, 293 Magueijo, João 154, 163f, 167f, 311 Mather, John C. 4 Maxwell, James C. 23, 64, 298 Michelson, Albert A. 259, 284 Milgrom, Mordehai 99 Mößbauer, Rudolf 66 Narlikar, Jayant 119
N Newton, Isaac 5, 7, 71, 75, 205, 275, 282 Nobili, Anna 72 Noddack, Ida 273 Noether, Emmy 185, 301
namensverzeichnis
O Ockham, Wilhelm 254 Ostriker, Jerry 147 P Palmonari, Federico 75 Pauli, Wolfgang 196, 198, 226f, 268f Peebles, James 116 Penrose, Roger 118, 137, 162f, 169, 227, 241, 294, 304, 308, 316 Penzias, Arno 30f Pietronero, Luciano 154 Planck, Max 3, 76, 110, 285, 309 Poincaré, Henri 205, 237 Popper, Karl 239, 251f, 255f, 259f, 263, 307 Preskill, John 200 Primack, Joel 134 Q Quinn, Terry 73f R Rabi, Isaac 269 Rañada, Antonio 87 Randall, Lisa 181, 214–216, 252, 261, 309 Rees, Sir Martin 13, 163, 216 Rubin, Vera 90 Russell, Bertrand 169 Rutherford, Ernest 204, 288 S Salam, Abdus 190 Salucci, Paolo 106, 108 Sandage, Alan R. 41f, 112, 116, 123 Scarpa, Riccardo 94, 101 Schild, Rudolph E. 24, 42, 48, 147 Schrödinger, Erwin 81, 204, 220, 286f, 298, 303f Schroer, Bert 228 Schwarz, John H. 230, 232 Schwarzschild, Karl 77 Schwinger, Julian 191
325
Sciama, Denis 80, 282f, 288 Seiberg, Nathan 242 Sereno, Mauro 129 Shapiro, Irwin I. 66 Shostak, Seth 90 Smolin, Lee 13, 17, 101, 169, 200, 216, 226, 229, 233, 237f, 243, 264, 301, 303, 306, 311 Smoot, George F. 4 Sommerfeld, Arnold 178 Staruszkiewicz, Andrzej 172 Straßmann, Fritz 86, 273 Susskind, Leonard 109, 165, 244, 250, 255 Sylos Labini, Francesco 116, 130, 154 T ’t Hooft, Gerardus 226f Tasitiomi, Agyro 108 Tegmark, Max 252 Tomonaga, Sin-Itiro 191 V Vargas, Josè 204 Vaucouleurs, Gerard de 112, 119 W Weinberg, Steven 137, 166, 190, 216 Wheeler, John 65, 77, 219 White, Simon 101–103 Wilczek, Frank 13, 148, 190, 236, 289 Wilson, Robert B. 30f Wiltshire, David 114f Witten, Edward 232–234, 237–245, 261 Wittgenstein, Ludwig 162 Woit, Peter 226–228, 233, 238, 241, 243, 255, 309, 311 Z Zeh, H. Dieter 226 Zichichi, Antonino 217f Zweig, George 193 Zwicky, Fritz 6, 7, 94
Sachverzeichnis
A 21-Zentimeter-Linie 105, 140 Aharonov-Bohm-Effekt 187, 189 Allgemeine Relativitätstheorie 8f, 12, 14f, 28, 53, 56, 59f, 65, 67, 71, 77–80, 92f, 98, 101, 120f, 126, 159–161, 177f, 187, 219, 274, 281, 283, 292, 298 Alter des Universums – Weltalter 42 Andromeda 37, 40 Anthropisches Prinzip 222, 244, 249–251, 275 Antimaterie 135, 269, 272 Äquivalenzprinzip 55f, 63–66, 72, 236 Arxiv 311f Äther 284 B Baryonic acoustic oszillations 130 Beschleunigte Expansion 45–48, 111, 267 Betazerfall 189, 200, 268f Bogdanov-Affäre 310f Bose-Einstein-Kondensation 209 Bran 19f, 214, 223 C Calabi-Yau-Raum 19, 122 Casimir-Effekt 219, 222 Cassini-Sonde 87 CCD-Kamera 24f Cepheiden 39–42 CERN 17–19, 179–182, 202, 216f, 235, 303 COBE-Satellit 3f, 31–33, 126f, 132, 139 CODATA-Komission 73f Computermodelle 145–149, 156, 200, 277
Computersimulationen – Computermodelle 145 Colors – Farbladungen 196 COSMOS 35 D DAMA-Experiment 123, 266 Dekohärenz 221 Dichtewellen 107 Differenzialgeometrie 61f, 297 Differenzialgleichungen 297f Diracsche Hypothesen 81, 212f, 288–291 Diracsche Vermutungen – Diracsche Hypothesen 81 Doppelspaltexperiment 186 Dopplereffekt 6, 86, 90, 108, 126 Dopplerverschiebung – Dopplereffekt 6 Dunkle Energie 7, 10f, 18, 46–49, 105, 109–111, 114, 121–123, 129, 147, 154, 174, 223, 237, 254, 258, 267, 271 Dunkle Materie 6, 10f, 18, 49, 91–102, 105–109, 111, 123, 127–129, 131, 147–149, 153–155, 174, 251, 266–268 E Eichgruppe – Eichsymmetrie 187 Eichsymmetrie 187, 197, 302, 317 Einheitliche Feldtheorie 63 Einstein Papers Project 63 Einstein-de Haas-Experiment 188f Elektrodynamik 63–65, 68, 211, 283–285, 306 Elektromagnetisches Spektrum 31 Energieabstrahlung 64f Energieerhaltung 57f
327
328 sachverzeichnis Entropie 117f, 281 Epizyklen 14, 46, 49, 121, 123, 146, 203, 254, 257, 273, 301, 306, 317 Euler-Lagrange-Methode 298 Extradimensionen 19f, 214–216, 223, 236, 252, 275, 291, 309 Extrapolation 11f, 69, 75, 123, 161, 169, 183, 208 F Falsifizierbarkeit 251, 255–257, 261, 264 Farben-Helligkeits-Diagramm 44 Farbladungen 196 Feinstrukturkonstante 162, 212, 222, 280–282, 289 Feynman-Diagramm 192 Flachheit 79, 159–162, 167, 272, 289 Flachheitsproblem – Flachheit 79 Fluktuationen 127f, 168, 321 Flyby 88 Fraktal 116, 149, 154 Freie Parameter 13f, 18, 46, 110, 117f, 127, 146, 167f, 203f, 210, 254, 264, 267, 270– 272, 275, 277, 279–291, 293, 302f, 317 G Galaxienhaufen 6, 112f, 116, 131, 134 Geozentrisches Weltbild – Ptolemäisches Weltbild 14 GRACE 28 Gravimeter 29, 35, 75 Gravitationsgesetz 9, 12, 14f, 53, 63, 75, 83, 86–89, 97, 100f, 107, 147f Gravitationskonstante 14, 18, 57, 71–83, 103, 117, 172f, 201, 214, 254, 281–283, 289, 293 Gravitationslinsen 93, 95, 130f, 292 Gravitationswellen 68, 139, 216 Große vereinheitlichende Theorie – Weltformel 174 Gunn-Peterson-Effekt 152
H Halo 94–97 Hawking-Strahlung 176, 181 Heisenbergsche Unschärferelation 175– 177, 186, 191, 219 Higgs-Feld – Higgs-Teilchen 180 Higgs-Teilchen 180, 202f, 217, 256f HORIZONS 35 Horizont 47, 79, 81, 113f, 160, 282 Horizontproblem 160 Hubble-Expansion 7, 37, 45, 114, 126, 159, 212, 303 Hubblekonstante 11, 37, 41–45, 47, 114, 123 Hubble-Teleskop 23, 34, 40, 180 I Impact Factor 308, 313 Inflation 19f, 122, 159–169, 182, 221–223, 254, 259, 265, 272, 303, 306, 320 Inflationstheorie – Inflation 19 Isospin 189 K Keplersche Gesetze 89 Koinzidenzproblem 47, 111, 271 Konkordanzmodell – Standardmodell der Kosmologie 13 Konnexion 61, 187 Kontinentaldrift 308 Kontinuumsmechanik 284, 297 Kosmische Strings 235, 253 Kosmische Hintergrundstrahlung – Kosmischer Mikrowellenhintergrund 3 Kosmischer Mikrowellenhintergrund 3–5, 7, 31, 48, 106, 118, 125–129, 132–136, 139, 149, 151, 160, 167–171, 259, 267 Kosmologische Konstante 46, 109, 222, 267 Kugelsternhaufen 43f, 94f, 101, 300
sachverzeichnis
L LAGEOS 29 Lamb-Verschiebung 191 Lambda-CDM-Modell – Standardmodell der Kosmologie 13 Längenkontraktion 54 Large Hadron Collider 19, 96, 179–182, 202, 236, 256, 306 Laser Ranging 28, 81 Laser 27f, 64 LATOR 28 Leerräume 113, 115f, 131, 152f LHC – Large Hadron Collider 19 Loop quantum gravity 173, 183 LSB-Galaxien 105f Lucky imaging 32 Lyman-α-Linie 150–152 M Machsches Prinzip 58f, 79f, 282, 289, 292 Magnetische Monopole 164, 253 Malmquist-Täuschung 40 Many worlds - Viele-WeltenInterpretation 221 Massenproblem 200–203, 287 Membran – Bran 19 Metalle 40 Mikrowellen-Hintergrundstrahlung – Kosmischer Mikrowellenhintergrund 3 MOND 99–103, 106, 267 Multiversum 20, 207 N Naturkonstanten 73–76, 79–83, 171, 173, 201, 211–213, 222, 279–281, 285, 288, 293 Neutrinos 95f, 137–139, 147, 189, 199f, 268f Neutronenstern 26, 179, 289 Newtonscher Eimer 58, 282 Nukleosynthese 137
329
O Oktupol-Anomalie 131–133 P Paradigmenwechsel 264 Parallaxe 38 Parallelwelten 182, 222 Parsec 38 Peer Review 308–312 Perihelverschiebung 66, 162 Photoeffekt 231, 285 Pioneer-Anomalie – Pioneer-Sonden 9 Pioneer-Sonden 9, 85–89, 99f Plancklänge 18f, 103, 171–173, 176, 219, 222, 236, 255, 261, 281, 290, 310 Plancksches Strahlungsgesetz 3, 44, 64, 76, 93, 125, 269, 285 Plancksches Wirkungsquantum 76, 175, 188, 280, 285, 288 Planckskala – Plancklänge 18 Planck-Sonde 33, 126, 134 Proton 14, 125, 135, 150, 189f, 211–213, 287 Ptolemäisches Weltbild 14, 23, 46, 49, 121, 123, 146, 241, 254, 257, 264, 273, 301 Pulsar 26, 67 Q QED – Quantenelektrodynamik 64 Quantenchromodynamik 191–193, 199f, 218 Quantenelektrodynamik 64, 191–193, 199–201, 218f, 236, 279–281, 283, 306 Quantenfluktuationen 175, 177, 219 Quantengravitation 172–174, 241, 310, 321 Quantenmechanik 14f, 24, 172–175, 186f, 204, 211, 220f, 240, 274, 285–287, 297f, 304 Quantenoptik 10, 27 Quantentheorie – Quantenmechanik 14 Quarks 193–197, 204, 211, 258, 270, 271 Quasar 25f, 30, 93, 120, 136, 146, 151f Quintessenz 10, 18, 46, 109f
330 sachverzeichnis R Radarecho 66 Radiotelekop 29f, 35 Raumkrümmung 9, 60f, 65, 98, 159 Reionisation 152f, 272 Religion 216–218, 234–236, 243 Renormierung 280f, 283 Rotationskurven 91f, 99, 102, 106 Rotverschiebung 37, 65, 110, 118, 149, 125, 134, 151f Ruhemasse 54, 200 S Satellitenteleskope 24, 31 Schwache Wechselwirkung 190 Schwarzes Loch 77f, 117f, 176, 178f, 181, 223, 281, 283, 289 Schwarzschild-Radius 77f, 178, 300 SDSS – Sloan Digital Sky Survey 34 Skalarer spektraler Index 11, 168 Sloan Digital Sky Survey 34, 130, 316 Spezielle Relativitätstheorie 54, 56, 96, 291 Spin 188f, 209, 270, 287 Standardkerzen 39 Standardmodell der Kosmologie 13, 48f, 53, 83, 105, 115–119, 129, 154f, 169, 274, 279 Standardmodell der Teilchenphysik 13, 83, 185, 190, 195–205, 208, 237, 245, 254, 256, 259f, 265, 270, 279, 299, 303, 306, 320 Stern-Gerlach-Experiment 188 Stringtheorie 15–20, 112, 173, 177, 181, 216, 223, 225–245, 251f, 255, 261, 275, 299, 306, 312, 320 Strukturbildung 112–116, 127f, 149, 152f, 171, 272, 293 Supernova 7, 26, 42–48, 109f, 138, 267 Supersymmetrie 96, 180, 208–210, 236, 256, 271, 309 Superstringtheorie – Stringtheorie 15 Symmetrie 185f, 190, 198, 217, 253, 301 Symmetriebrechung 271, 272, 275 Symmetriegruppe – Eichsymmetrie 187
T Taylor-Hulse-Pulsar 67, 68, 215 Theory of everything – Weltformel 174 Torsion 62 Torsionsdrehwaage 71, 73f Trägheit 79f, 282 Transurane 273 Tully-Fisher-Relation 106 U Urknall 5, 7, 19, 38, 44, 59, 119, 135f, 161f, 168, 171, 176–179, 182f, 238, 269, 275 V Variable Lichtgeschwindigkeit 166f, 292 Vakuumfluktuationen – Quantenfluktuationen 177 Very Large Telescope (VLT) 30, 33 Viele-Welten-Interpretation 221 VLBI 30 Voids – Leerräume 113 W Weltalter 42, 45, 47, 79, 99, 214 Weltformel 161, 174, 195, 197f, 225, 241, 294, 309, 321 Widerlegbarkeit – Falsifizierbarkeit 251 Wissenschaftstheorie 238, 251–257, 261, 294, 299, 307f WMAP-Sonde 31, 33, 105, 126, 132, 134, 136, 139, 167 Wurmlöcher 220, 223 Y Yang-Mills-Theorie 187 Z Zeitablauf 56–60, 82, 87, 138, 162, 169, 293 Zeitdilatation 54f Zusatzdimensionen – Extradimensionen 19