Heiner Müller-Krumbhaar, Hermann-Friedrich Wagner (Hrsg.)
Heiner Müller-Krumbhaar, Hermann-Friedrich Wagner (Hrsg.)
Was die Welt
zusammenhält
Berlin · Weinheim · New York · Chichester Brisbane ·Singapore · Toronto
Impressum Herausgeber: Prof. Dr. Heiner Müller-Krumbhaar (Forschungszentrum Jülich) für die Deutsche Physikalische Gesellschaft e.V., Bad Honnef e-mail:
[email protected] Dr. Hermann-Friedrich Wagner, Bundesministerium für Bildung und Forschung (bmb+f ) e-mail:
[email protected] Autoren: Dr. Thomas Bührke (Jenseits der Milchstraße) Astrid Dähn, Frank Grotelüschen, Wolfgang Richter (Reise zum Urknall) Dr. Brigitte Röthlein (Gebändigtes Licht) Dr. Mathias Schulenburg (Stein der Weisen) Anne Hardy (Entdeckung des Zufalls) Konzept: Manfred Schmidt Redaktion: Wolfgang Richter (verantwortlich), Dr. Marcus Neitzert, Manfred Schmidt Gestaltung: Claudia Oly (verantwortlich), Dietmar Putscher iserundschmidt, Kreativagentur für PublicRelations, Bad Honnef - Berlin
Das vorliegende Werk wurde sorgfältig erarbeitet. Dennoch übernehmen Autoren, Herausgeber, Redaktion und Verlag für die Richtigkeit von Angaben, Hinweisen und Ratschlägen sowie für eventuelle Druckfehler keine Haftung.
1st edition, 2001 Die Deutsche Bibliothek - CIP Einheitsaufnahme Ein Titeldatensatz für diese Publikation ist bei der Deutschen Bibliothek erhältlich. ISBN 3-527-40329-9 © WILEY-VCH Verlag Berlin GmbH, Berlin (Bundesrepublik Deutschland), 2001 Gedruckt auf säurefreiem Papier. Alle Rechte, insbesondere die der Übersetzung in andere Sprachen, vorbehalten. Kein Teil dieses Buches darf ohne schriftliche Genehmigung des Verlages in irgendeiner Form – durch Fotokopie, Mikroverfilmung oder irgendein anderes Verfahren – reproduziert oder in eine von Maschinen, insbesondere von Datenverarbeitungsmaschinen verwendbare Sprache übertragen oder übersetzt werden. Satz: iserundschmidt, Bad Honnef - Berlin Druck und Bindung: Druckhaus Darmstadt, Darmstadt Printed in the Federal Republic of Germany
Was
hält die Welt zusammen? Dieser Frage ist die Physik seit Jahrhunderten auf der Spur. Sie wurde dadurch nicht nur zu einer der grundlegenden Wissenschaften unserer Kultur, sondern erwarb sich auch eine Schlüsselfunktion für die Weiterentwicklung der Technik und spielt damit eine wichtige Rolle für die Zukunft unserer Gesellschaft. Die Bundesministerin für Bildung und Forschung, Edelgard Bulmahn, hatte im Rahmen der Initiative „Wissenschaft im Dialog“ zusammen mit der Deutschen Physikalischen Gesellschaft das Jahr 2000 zum Jahr der Physik erklärt. Welcher Zeitpunkt könnte angemessener sein als der Beginn eines neuen Jahrtausends, um die Öffentlichkeit ausführlich über Physik und deren neueste Erkenntnisse zu informieren? Im Mittelpunkt dieser Bemühungen, die auch mit neuen Formen des Dialogs zwischen Wissenschaft und Öffentlichkeit experimentierten, standen fünf zentrale Veranstaltungen in Berlin und Bonn. Sie trugen die Titel „Jenseits der Milchstraße“, „Reise zum Urknall“, „Gebändigtes Licht“, „Stein der Weisen“ und „Entdeckung des Zufalls“. Zu jeder Veranstaltung erschien ein Themenheft, das in allgemein verständlicher Sprache die neuesten Erkenntnisse der Wissenschaft auf dem jeweiligen Gebiet darstellt. Die außergewöhnlich große und positive Resonanz auf die Hefte war der Anlass für die Herausgeber, alle fünf in einem Band zusammen zu fassen und sie damit einem noch größeren Publikum zugänglich zu machen. Allen Autoren und denjenigen, die Abbildungen und Dokumente dafür bereit gestellt haben, sowie dem Verlag WILEY-VCH und der Agentur iserundschmidt sei an dieser Stelle herzlich gedankt. Ganz besonderer Dank gebührt den wissenschaftlichen Experten auf Seiten der DPG, die durch sorgfältiges Korrekturlesen und viele wertvolle Hinweise und Ideen sehr zum Gelingen der Hefte beigetragen haben, u. a.: Gregor Morfill, Helmut Koch, Erwin Hilger, Dieter Meschede, Wolfgang Sandner, Ludwig Schultz, Klaus Wandelt und Christian Thomsen.
Heiner Müller-Krumbhaar Deutsche Physikalische Gesellschaft e. V.
Hermann-Friedrich Wagner Bundesministerium für Bildung und Forschung
3
Jenseits der Milchstrasse
Reise zum Urknall
Astronomie und Astrophysik
Kern- und Teilchenphysik
6 Die Sonne 10 Planeten, Monde und Kometen
33 Vor Abflug 34 Wie funktioniert eigentlich… ein Teilchenbeschleuniger?
14 Sterne und Nebel 36 Alles Quark: Das Standardmodell 20 Galaxien 38 Der Webfehler der Welt 28 Höchste Ansprüche 42 Geisterteilchen in der Waagschale 45 Kosmische Spuren im ewigen Eis 46 Supermikroskope für Protonen 48 Das Rätsel der kosmischen Ursuppe 51 Suche nach der Insel der Stabilität 54 Rezepte aus dem Kochbuch der Sterne 57 Schwere Geschütze gegen den Krebs 60 Teilchenbeschleuniger der Superlative 62 „Starkstrom“ für Kernforscher 63 High-Tech und Völkerverständigung 4
Gebändigtes Licht
Stein der Weisen
Entdeckung des Zufalls
Laser- und Atomphysik
Festkörperphysik
100 Jahre Quantentheorie
66 Das Doppelleben des Lichts
92 Der Stein der Weisen
118 Die Entdeckung des Zufalls
71 An der Schwelle zur Quantenwelt
96 Enthüllung der Struktur
120 Ein physikalischer Traum
76 Vom „absoluten Nullpunkt“ bis zum „Undulator“
100 Filigrane Flächen
126 Das große Quantenei
104 Abstecher ins Quantenland
130 Physikalische Zwillingsforschung
106 Physik eiskalt serviert
135 Der Untergang des Abendlandes?
108 Komplexe Materie
138 Quantenphilosophie
78 Messen mit Licht 82 Das blaue Wunder 84 Am Puls des Moleküls 113 In der Welt der Zwerge 86 Gebändigtes Röntgenlicht
5
Vorherige Seite: Jenseits der Milchstraße Bei der Galaxie ESO 510-13 blickt man unmittelbar auf die Kante. Ein Staubstreifen ist erkennbar, der vermutlich das Zentrum ringförmig umgibt. (Foto: ESO) Reise zum Urknall Spuren von Teilchen, die aus einem zentralen Zusammenstoß von zwei Bleikernen resultieren. Computerdaten aus dem Experiment „NA49“. (Foto: CERN) Gebändigtes Licht Laserschneiden eines Werkstücks (Quelle: MPI für Mikrostrukturphysik) Stein der Weisen Kristall-Küche: Silizium ist der Stein der Weisen des Computer-Zeitalters. Allerdings kommen in der Natur keine reinen Siliziumkristalle vor. Deren Produktion ist sehr aufwendig, sie müssen aus einer glühenden Schmelze über mehrere Tage hinweg „herangezüchtet“ werden. (Quelle: Wacker Siltronic) Entdeckung des Zufalls „Niels Bohr“, Claudia Schink, Öllasurmalerei, 1992 (Kontakt: Kunsthochschule für Medien Köln, KHM) Das Bild lehnt sich an Experimente zur radioaktiven Strahlung an, die zu Anfang des 20. Jahrhunderts durchgeführt wurden.
6
Seite 7 Titelbild Jenseits der Milchstraße Das wohl berühmteste Sternentstehungsgebiet – der rund 1.500 Lichtjahre entfernte Orion-Nebel (Foto: MPIA) Seite 33 Titelbild Reise zum Urknall Eine Teilchenreaktion am Elektron-Positron Beschleuniger LEP (künstlerisch bearbeitet, Vorlage: CERN) Seite 67 Titelbild Gebändigtes Licht Beugungsbild, künstlerisch bearbeitet Seite 93 Titelbild Stein der Weisen Sand und Siliziumscheibe (Wafer): Den Rohstoff für Computer-Chips gibt es „wie Sand am Meer“ – es ist einfacher Quarzsand (Quelle: Infineon Technologies) Seite 119 Titelbild Entdeckung des Zufalls Portrait von Max Planck, der vor 100 Jahren den Grundstein zur Quantentheorie gelegt hat. Sein Bild ist aufgebaut aus den Namen zweier Physiker, die maßgeblich zur Weiterentwicklung der Theorie beigetragen haben: Albert Einstein und Werner Heisenberg. (Foto: Archiv zur Geschichte der Max-PlanckGesellschaft, Berlin-Dahlem, künstlerische Bearbeitung: iser und schmidt)
7
Die
Sonne Gigantische Gasfontänen, sogenannte Protuberanzen, schießen von der Sonnenoberfläche empor. Sie verlaufen entlang von Magnetfeldlinien und können bis zu einem Jahr stabil bleiben. (Foto: NASA)
8
Sonne und Erde eine stürmische Beziehung Im März 1989 gingen in Kanada die Lichter aus, sechs Millionen Menschen saßen mehrere Stunden lang bei Außentemperaturen um minus 15 Grad in Dunkelheit und Kälte. Verursacht hatte diesen Zusammenbruch ein Sturm elektrisch geladener Teilchen, den die Sonne vier Tage zuvor ausgestoßen hatte. Als der Teilchenorkan auf das Erdmagnetfeld stieß, brachte er dieses zum Schwingen und löste darin elektrische Ströme aus. Diese induzierten ihrerseits in Überlandleitungen so hohe Spannungen, dass die Stromversorgung zusammenbrach. Geomagnetische Stürme dieser Stärke können sich jederzeit wiederholen. Denn wie die moderne Sonnenforschung gezeigt hat, ereignen sich ständig auf der Sonnenoberfläche heftige Explosionen. Innerhalb weniger Stunden breiten sie sich wie Flächenbrände über Gebiete von der Größe Europas aus. Gasfontänen schießen in Höhen empor, die ein Vielfaches des Erddurchmessers betragen.
Auch kleinere Böen im Sonnenwind wirken sich nach neuesten Untersuchungen auf technische Systeme aus. So führen Fachleute den unerwarteten Ausfall des Fernsehsatelliten Telstar im Jahr 1997 auf einen Sonnenausbruch zurück. Es wird auch vermutet, dass in Ölpipelines elektrische Ströme induziert werden, die die Stahlrohre schneller korrodieren lassen. Bei der Herstellung von Halbleitern erhöht sich laut einer Studie bei verstärktem Sonnenwind die Ausschussrate.
hundert, und der Tatsache, dass zwischen 1645 und 1715 fast keine Sonnenflecken gesichtet wurden. In jüngster Zeit behaupten dänische Meteorologen, einen Zusammenhang zwischen der Länge des Aktivitätszyklus und der Jahresmitteltemperatur auf der Nordhalbkugel gefunden zu haben. Durchschnittlich alle elf Jahre durchläuft die Sonne einen Zyklus, in dessen Maximum vermehrt Sonnenflecken und Eruptionen auftreten.
Seit einigen Jahren wird zunehmend die Frage diskutiert, ob das „Weltraumwetter“ auch langfristig gesehen einen Einfluss auf das Klima hat. Einige Forscher sehen einen Zusammenhang zwischen einer ungewöhnlich kalten Klimaphase in Europa, der „Kleinen Eiszeit“ im 17. Jahr-
Systematische Studien, wie der Teilchenwind der Sonne auf die Erde einwirkt, stehen erst am Beginn. Prallen die Partikel auf das Erdmagnetfeld, werden sie darin eingefangen und rasen mit hoher Geschwindigkeit entlang der Magnetfeldlinien zwischen den beiden Polen hin und her. Läuft dieser Magnetkäfig über, schießen die Teilchen in die Atmosphäre hinunter. Hier stoßen sie mit Atomen und Molekülen zusammen und regen diese zum Leuchten an – farbenprächtige Polarlichter entstehen.
Großes Bild links: Aus mehreren Bildern zusammengesetzte Sonnenaufnahme im UV- und Röntgenbereich. Sie zeigt neben der Sonnenscheibe die strahlenförmige Korona, die sonst nur bei totalen Sonnenfinsternissen sichtbar wird. (Foto: ESA)
Polarlichter sind die Folge heftiger Sonnenstürme, die auf die Erdatmosphäre niedergehen. Durch die langsame Bewegung dieser Lichtschleier entsteht ein eindrucksvolles Farbschauspiel. (Fotos: NASA)
9
Das Weltraumwetter von morgen U
Aufnahme der Sonne vom 14.September 1999 mit dem Weltraumobservatorium SOHO, die das rund 60.000 Grad heiße Helium-Gas zeigt. Die gewaltige Protuberanz erhebt sich soweit über den Sonnenrand hinaus, dass Erdkugeln darunter Platz fänden. (Foto: ESA)
Energieproduzent Sonne Im Innern der Sonne verschmelzen bei Temperaturen um 16 Millionen Grad Wasserstoffkerne zu Heliumkernen. Die hierbei in jeder Sekunde frei gesetzte Energie würde ausreichen, um den gesamten heutigen Energiebedarf der Menschheit eine Million Jahre lang zu decken.
m die stürmische Beziehung zwischen Sonne und Erde gezielt zu untersuchen, riefen in den achtziger Jahren Wissenschaftler der großen Raumfahrtagenturen das bislang umfangreichste internationale Programm extraterrestrischer Forschung ins Leben: das International Solar-Terrestrial Program, ISTP. Ziel dieses Forschungsprojekts ist es, die gesamte Ereigniskette von den Vorgängen im Sonneninnern über das Abströmen des Sonnenwindes bis zu dessen Einfluss auf unseren Planeten nachzuvollziehen. Irgendwann soll es möglich sein, das Weltraumwetter vorherzusagen, um vor heftigen Stürmen warnen zu können. Im Rahmen des ISTP wurden seit 1992 rund zehn Raumsonden gestartet, die in verschiedenen Entfernungen und auf unterschiedlich zum Äquator geneigten Bahnen die Erde umkreisen. Hier messen sie den Strom des Sonnenwindes, die Stärke des Erdmagnetfeldes und eine Reihe anderer physikalischer Größen. Zwei zentrale Komponenten in dieser Armada bilden das gemeinsam von
Europa und den USA gebaute Sonnenobservatorium SOHO (Solar and Heliospheric Observatory) sowie das weitgehend unter europäischer Leitung entstandene Satellitenquartett Cluster II. Die beiden Missionen bilden zusammen einen der Ecksteine im Wissenschaftsprogramm „Horizon 2000“ der Europäischen Weltraumbehörde ESA. SOHO umkreist rund 1,5 Millionen Kilometer von der Erde entfernt die Sonne. Mit bislang unerreichter Genauigkeit lässt sich mit diesem Teleskop, an dem auch deutsche Institute beteiligt sind, verfolgen, wie Partikelschwärme ins All abströmen. Auf welche Weise diese auf das Erdmagnetfeld einwirken, sollen die vier Satelliten Cluster II zeigen. Ihre Umlaufbahnen werden so gewählt, dass das Quartett im Flug die Spitzen eines gedachten gleichseitigen Tetraeders bilden. Auf diese Weise ist es erstmals möglich, die dynamischen Vorgänge in der Magnetosphäre der Erde räumlich zu messen.
Auf der Sonnenoberfläche ereignen sich ständig Explosionen, die binnen Minuten bis Stunden Energiemengen freisetzen, die dem derzeitigen Energieverbrauch der Erde über einen Zeitraum von mehreren tausend Jahren entsprechen. Am 9.Juli 1996 beobachteten Astronomen mit dem Weltraumteleskop SOHO, wie ein Ausbruch ein Sonnenbeben auslöste. Auf der Erde hätte dieses Beben eine Stärke von 11,3 auf der Richter-Skala gehabt. Es war rund 40 000mal stärker als jenes, das 1906 San Francisco zerstörte.
10
Die seismischen Wellen eines Sonnenbebens breiten sich ringförmig auf der Oberfläche der Sonne aus. Bei dem am 9. Juli 1996 beobachteten Ereignis nahm dabei die Geschwindigkeit der Wellen von 40.000 Kilometern pro Stunde auf das Zehnfache zu. (Foto: ESA)
Fotomontage der erdumkreisenden Satelliten Cluster II (Foto: ESA)
Das europäische Weltraumobservatorium SOHO in der Montagehalle (Foto: ESA)
Horizon 2000 11
Planeten
Monde und Kometen
12
Ein kilometerdicker, von Gräben und breiten Rissen durchzogener Eispanzer umschließt den JupiterMond Europa. (Foto: NASA/RPIF/DLR)
Goliath im Kometenhagel
Jupiter Gasriese mit Flecken D
er größte Planet des Sonnensystems, Jupiter, vereinigt fast drei Viertel der Masse aller Planeten allein auf sich. Über 1300 Erdkugeln fänden in ihm Platz. Bis auf einen Gesteinskern ungefähr von der Größe der Erde besteht er nur aus Gasschichten. Sichtbar ist von ihm lediglich die oberste Wolkendecke, die von farbigen, parallel zum Äquator verlaufenden Bändern durchzogen ist. Stürme umtosen den Planeten, und Tornados wirbeln wochen- und monatelang in seiner Atmosphäre umher. Im Innern des größten Wirbelsturms, des berühmten Großen
In der Jupiter- Atmosphäre dreht sich seit mindestens 300 Jahren ein Wirbelsturm, der doppelt so groß ist wie die Erde: der Große Rote Fleck. (Foto: NASA)
Roten Flecks, fänden leicht zwei Erdkugeln Platz. Seit über 300 Jahren dreht sich dieser Hochdruckwirbel unablässig. Wodurch er seine rötliche Färbung bekommt und warum er über einen so langen Zeitraum stabil bleiben konnte, ist bis heute nicht gänzlich geklärt. Nachdem die Planetenforscher jahrhundertelang lediglich Jupiters oberste Wolkendecke studieren konnten, ergab sich im Dezember 1995 erstmals die Gelegenheit, etwas tiefer in die Atmosphäre hineinzuschauen. Die Raumsonde Galileo hatte eine kleine Tochtersonde abgestoßen, an deren Bau Forscher aus deutschen Instituten maßgeblich beteiligt waren. An einem Fallschirm schwebte die Kapsel langsam in die Tiefe und übertrug eine Stunde lang Messdaten aus der Jupiter-Atmosphäre zur Erde. Erstmals ließ sich die chemische Zusammensetzung unterschiedlicher Wolkenschichten ermitteln. Sogar Blitze konnten die Forscher aufzeichnen. In über hundert Kilometern Tiefe versagte die Sonde bei einem Druck von 21 Atmosphären und wurde zerstört.
Im Juli 1994 wurden die Astronomen Zeugen eines seltenen Ereignisses. Die Bruchstücke des Kometen Shoemaker-Levy 9 rasten im Verlaufe einer Woche mit Geschwindigkeiten von über 200.000 Kilometern pro Stunde in die Jupiter-Atmosphäre und detonierten darin mit der unvorstellbaren Energie von einigen Millionen Tonnen TNT. Der schwerste Brocken erzeugte eine Explosionswolke so groß wie der zweifache Erddurchmesser. Astronomen am Calar-AltoObservatorium in Südspanien entdeckten den Einschlag des Kometen als erste und übermittelten ihre Aufsehen erregenden Bilder in alle Welt. Das detaillierte Studium der aufgewirbelten Atmosphärenschichten lieferte wichtige Hinweise auf die chemische Zusammensetzung und den Aufbau der Jupiter-Atmosphäre. Ein ähnlich verheerender Vorgang könnte heutigen Theorien zu Folge vor 65 Millionen Jahren auf der Erde zum Aussterben der Dinosaurier und einer Vielzahl weiterer Tierarten geführt haben.
Io und Europa von den Gezeiten geheizt D
er Jupitermond Io ist der vulkanisch aktivste Körper im Sonnensystem. Ständig quillt schwarzer und roter, schwefeliger Brei aus seinem Innern hervor und wälzt sich über den Boden. Aus einigen Kratern schießen Eruptioswolken bis in 300 Kilometer Höhe auf, und die Ablagerungen verteilen sich in einem Umkreis von 700 Kilometern um die Vulkane. Io ist so klein, dass sie bereits seit langer Zeit völlig ausgekühlt und somit inaktiv sein müsste. Die Forscher vermuten heute, dass Jupiter für diesen Vulkanis-
Großes Bild links: Der vulkanisch aktivste Körper im Sonnensystem, der Jupitermond Io, ist von einer Schicht aus farbigen Schwefelverbindungen überzogen. (Foto: NASA/RPIF/DLR)
mus verantwortlich ist. Er übt auf den Mond so starke Gezeitenkräfte aus, dass dessen Inneres wie ein Teig ständig durchgeknetet und erhitzt wird, ähnlich wie ein Metallstab, den man hin und her biegt. Ios Nachbar, der Jupitermond Europa, fasziniert die Wissenschaftler aus einem anderen Grund. Aufnahmen der GalileoSonde zeigen, dass der Mond von einem dicken Eispanzer umgeben ist. Lange Gräben und Brüche ziehen sich durch die mit vereinzelten Meteoritenkratern gezeichnete Eiswüste. Auffällig sind auch große Schollen von bis zu zwanzig Kilometern Durchmesser, die sich offensichtlich früher einmal gedreht und mehrere Kilometer gegeneinander verschoben haben, ähnlich wie Packeis. Die Eisschollen konnten sich nur dann bewegen,
Als am 16. Juli 1994 das erste Fragment des Kometen Shoemaker-Levy 9 auf Jupiter einschlug, war wenig später der Feuerball (links unten) im Infrarot deutlich zu sehen. Er ist heller als der Mond Io, der rechts oben erscheint. (Foto: MPIA)
wenn sie auf einer Flüssigkeit schwammen. Zahlreiche Forscher vermuten, dass sich noch heute unter dem Eis ein Ozean aus warmem Wasser ausdehnt, der ebenso wie Io durch Jupiters Gezeitenwirkung erwärmt wird. Diese Idee nährt Spekulationen darüber, ob unter Europas Eisschicht Leben entstehen konnte und noch heute existiert. Derzeit wird untersucht, ob es möglich sein könnte, eine unbemante Sonde zu Europa zu schikken, die die Eisschicht durchbohrt, Proben aus dem Wasser entnimmt und diese analysiert.
13
Titan Saturnmond mit Atmosphäre In eine ganz andere Welt führt die im Oktober 1997 gestartete amerikanischeuropäische Mission Cassini/Huygens. Während die Muttersonde Cassini den Ringplaneten Saturn umkreisen und vier Jahre lang detailliert untersuchen soll, wird Huygens auf dessen Mond Titan landen. Titan ist der einzige Mond im Sonnensystem, der von einer nennenswerten Atmosphäre umgeben ist. Seine Gashülle weist am Boden einen Druck von 1,5 Atmosphären auf und besteht zu etwa 95 Prozent aus Stickstoff sowie zu fünf Prozent aus Methan. Eine ähnliche Zusammensetzung könnte die Uratmo-
Das Satellitenduo Cassini und Huygens im Reinraum der NASA in Florida. Huygens verbirgt sich hinter dem goldfarbenen Hitzeschild. (Foto: Dornier/NASA)
sphäre der Erde gehabt haben, was der Huygens-Mission einen besonderen Reiz verleiht. Titans Oberfläche liegt verborgen unter einer dichten Smogschicht. Lediglich im Infrarotbereich ließen sich undeutlich einige größere Oberflächenformationen unbekannter Natur ausmachen. Bei den auf Titan herrschenden Temperaturen um minus 180 Grad Celsius kommt es vermutlich zu einem merkwürdigen Phänomen: In diesem Temperaturbereich kann Methan je nach den genauen Umgebungsbedingungen sowohl gasförmig, fest oder flüssig vorliegen. Diese Substanz übernimmt insofern auf diesem Mond die Rolle, die das Wasser auf der Erde spielt: Sie kann zu einer Flüssigkeit auskondensieren und in der Atmosphäre Wolken bilden. Denkbar erscheint es, dass auf Titans Oberfläche Methan-Meere feste Kontinente umspülen, während ätzendes Acetylen und Smogpartikel unablässig herabrieseln und sich am Grund der Ozeane in dicken Schlammschichten ansammeln. Im Juli 2004 wird Huygens an einem Fallschirm in der Atmosphäre niedersinken und Messdaten sowie Bilder zur Erde übertragen. Die Forscher hoffen, dass die europäische Sonde den Abstieg heil übersteht und noch eine Zeit lang Aufnahmen von der Oberfläche dieses einzigartigen Mondes zur Erde übermitteln kann.
Die Oberfläche des Saturnmondes Titan ist unter einer dichten Smogdecke verborgen. Nur im Infrarot werden Strukturen erkennbar. Worum es sich dabei handelt, soll die Sonde Huygens herausfinden. (Foto: NASA/ESA)
Rosetta – Suche nach der Urmaterie Im Januar des Jahres 2003 soll die euro-
14
Der hellste Komet der jüngeren Vergangenheit: Komet HaleBopp im Frühjahr 1997. (Foto: MPIA)
päische Raumsonde Rosetta zu einem langen Flug mit dem Ziel Komet Wirtanen aufbrechen. Wenn alles nach Plan verläuft, wird sie ihn im Frühjahr 2012 erreichen und ein Jahr lang den nur wenige Kilometer großen Kern des Schweifsterns umkreisen. Gleichzeitig soll eine Sonde auf seiner Oberfläche landen, um Bodenproben zu entnehmen und zu analysieren – ein nie zuvor gewagtes Unternehmen.
Mars kleiner Planet mit dünner Luft A
m 4. Juli 1997 landete die amerikanische Sonde Mars Pathfinder auf dem Roten Planeten. Wenig später entfalteten sich ihre Sonnenzellen, und einen Tag darauf fuhr das Roboterfahrzeug Sojourner von Bord. Zum ersten Mal hatten Menschen auf einem anderen Planeten ein ferngesteuertes Gefährt abgesetzt, das dort Steine und Staub untersuchte. Die Pathfinder-Mission, an der auch deutsche Institute beteiligt waren, bildete den Auftakt einer groß angelegten MarsKampagne, deren eines Ziel es ist, erstmals Gestein vom Roten Planeten zur Erde zu holen. Der Mars besitzt heute eine zu dünne Atmosphäre und ist zu kalt, um auf seiner Oberfläche flüssiges Wasser halten zu können. Er ist eine leblose Wüste, über die wochen- und monatelang Staubstürme hinwegfegen. Einige Forscher sind aber davon überzeugt, dass unser Nachbarplanet in seiner Anfangsphase von einer dichten Gashülle umgeben war und dort möglicherweise recht „wohnliche“ Temperaturen herrschten. Die Form einiger Marstäler, die wie ausgetrocknete Flussläufe aussehen, und theoretische Modelle zur Entstehung der Planeten unterstützen diese Vermutung. Da der Mars wesentlich kleiner ist als die Erde, konnte er seine Atmosphäre jedoch nicht dauerhaft halten.
Für die Forscher werden die Messdaten von unschätzbarem Wert sein, denn sie bohren mit ihren Instrumenten auf der Landesonde quasi ein Archiv an, das Material aus der Entstehungszeit des Sonnensystems unverändert konserviert hat. Nur auf den Kometen – ausgenommen eventuell einige Asteroiden – findet man noch solche Urmaterie. Auf der Erde und ebenso auf den anderen Planeten ist das Ausgangsmaterial, aus dem sich die
Planeten bildeten, im Laufe der vergangenen 4,6 Milliarden Jahre durch chemische, geologische und biologische Prozesse verändert worden. Jegliche Information aus der Urzeit wurde vernichtet. Kometenkerne hingegen sind so klein, dass es auf ihnen keine geologischen Prozesse, wie Erosion oder Plattentektonik, gibt. Die Forscher beschreiben diese eisigen Körper als „schmutzige
Die Vorstellung, dass auf dem Mars einst ein feucht-warmes Klima herrschte, regte nicht nur Science-Fiction-Autoren zu Romanen an, sie ist auch für die heutige Forschung durchaus ein wesentlicher Antrieb. Pathfinder konnte zwar keine Beweise für diese Hypothese liefern. NASA und ESA werden jedoch bis zum Jahre 2013 eine ganze Reihe unbemannter Mars-Sonden starten. Sie sollen beispielsweise mit Radars nach gefrorenem Wasser im Boden suchen und sogar Gestein zur Erde bringen.
Das Mars-Fahrzeug Sojourner. Mit seiner „Schnüffelnase“ konnten die Planetenforscher die chemische Zusammensetzung von Gestein und Staub auf dem Roten Planeten analysieren. (Foto: NASA/MPG)
Schneebälle“: sie sind nur lose aus Eis, Staub und Gestein zusammengefügt. Vermutlich muss man sich ihre Oberfläche wie eine verharschte Eiswüste vorstellen, übersät mit Kratern und Spalten, aus denen Eis- und Staubfontänen herausschießen. Mit Rosetta wollen die Planetenforscher die chemische Zusammensetzung des „Urnebels“ ermitteln, aus dem sich unser Sonnensystem gebildet hat.
15
Sterne und
Nebel
16
D
er 23. Februar 1987 ist ein historisches Datum der Astronomie. In einer sternenklaren Nacht entdeckte der Astronom Ian Shelton in der Großen Magellanschen Wolke eine Supernova. Seit Johannes Keplers Beobachtung im Jahre 1604 war es das erste Mal, dass ein Mensch mit bloßem Auge einen explodierenden Stern entdeckt hatte. Zudem konnte man zum ersten Mal diesen Stern auf älteren Aufnahmen genau identifizieren. Eine
Supernova-Explosion markiert das Ende eines Sterns, der seinen Brennstoff verbraucht hat und in einem gigantischen Feuerwerk sein Leben beendet. Für die Dauer einer Woche etwa kann eine Supernova heller strahlen als alle hundert Milliarden Sterne einer Galaxie zusammen. Gleichzeitig schleudert sie riesige Mengen an Materie ins All, aus dem sich später neue Sterne und Planeten bilden.
Kinder der Sterne Seit Jahrmilliarden entstehen und vergehen Sterne im Universum. Ähnlich wie in einer Gesellschaft leben auch in einer Galaxie verschiedene Sterngenerationen zusammen. Die Menschen verdanken diesem kosmischen Kommen und Gehen ihre Existenz. Der Grund: Im Urknall entstanden lediglich die leichtesten Elemente Wasserstoff und Helium. Die lebensnotwendigen Stoffe, wie Kohlenstoff, Stickstoff oder Sauerstoff, wurden erst später im Innern der Sterne erbrütet und anschließend ins All abgegeben. Jedes Kohlenstoff-Atom unseres Körpers stammt demnach aus dem Innern eines Sterns. Die Astronomen sind zu der erstaunlichen Erkenntnis gekommen, dass das Universum selbst erst eine Evolution durchmachen musste, bevor sich in ihm Leben bilden konnte.
Seit längerem schon lassen sich nicht nur Atome, sondern auch Moleküle in den interstellaren Wolken nachweisen. Rund hundert verschiedene Sorten hat man bis heute gefunden. Jedes Molekül sendet charakteristische Radiowellen oder Infrarotstrahlen aus, wenn es von den Sternen angestrahlt wird. Auf diese Weise können die Forscher die unterschiedlichen Substanzen genau identifizieren. Die Spanne reicht von einfachen Verbindungen, wie Kohlenmonoxid (CO) oder Cyan (HCN), bis hin zu komplexen organischen Molekülen, wie Cyanopolyacetylen (HC11N). Kürzlich fanden Astronomen sogar Hinweise auf eine Aminosäure – einen Baustein irdischen Lebens. Auf welche Weise die Moleküle in den „kosmischen Elementfabriken“ entstehen und welche Rolle sie bei der Sternentstehung spielen, sind Fragen, die im Mittelpunkt der heutigen Forschung stehen.
Der Planetarische Nebel mit der Bezeichnung IC4406 weist eine nahezu rechteckige Form auf. Wodurch sie zustande kommt, ist nicht abschließend geklärt. (Foto: ESO)
Großes Bild links: Der Eta-Carinae-Nebel ist ein rund 8.000 Lichtjahre entferntes Sternentstehungsgebiet. (Foto: MPIA)
Am 23. Februar 1987 leuchtete in der Großen Magellanschen Wolke eine Supernova auf. Es war das erste Mal seit fast 400 Jahren, dass ein solches Ereignis mit bloßem Auge zu sehen war. (Foto: ESO)
Rohstofflieferanten Die Sterne geben am Ende ihres Lebens schwere Elemente ans Weltall ab. Die Mengen hängen stark von der Sternmasse und von der Art des Elements ab. Die häufigsten Elemente, die gebildet werden, sind Kohlenstoff, Stickstoff, Sauerstoff, Silizium und Eisen. Ein Planetarischer Nebel liefert so viele schwere Elemente, dass daraus einige tausend Planeten von der Art der Erde entstehen könnten. Das Material einer Supernova würde sogar für mehrere hunderttausend Erdkugeln ausreichen.
17
Aus Staub geboren Sterne entstehen in großen Wolken aus Gas und Staub. Bereits mit bloßem Auge lassen sich diese Brutstätten im schimmernden Band der Milchstraße als dunkle Flecken wahrnehmen. Die größten Wolken enthalten Materiemengen bis zu einer Million Sonnenmassen. Überschreitet ein solcher Nebel eine bestimmte Größe, so zieht er sich unter dem Einfluss der eigenen Schwerkraft zusammen. Während der Kontraktion zerbricht er in mehrere kleinere Fragmente, die sich weiter verdichten. Diese Wolkenkerne drehen sich, so dass senkrecht zu ihrer Rotationsachse eine Zentrifugalkraft entsteht. Sie zieht den weiterhin kollabierenden Nebel zu einer Scheibe auseinander. Im Zentrum dieses „protostellaren“ Diskus kontrahiert das Gas immer weiter und erhitzt sich. Steigt die Temperatur bis auf mehrere Millionen Grad an, verschmelzen Wasserstoff-Atomkerne miteinander. Jetzt erzeugt das heiße Gas einen Gegendruck zur Schwerkraft, und der Kollaps des Protosterns kommt zum Stillstand. Der Stern ist entstanden. In der übrigen Staubscheibe kann sich die Materie weiter verdichten. Hier entsteht dann ein zweiter oder sogar mehrere Sterne. Unter welchen Bedingungen sich auch Planeten bilden können, ist eine zentrale Frage.
Im Innern von Dunkelwolken wie dieser entstehen neue Sterne. (Foto: ESO)
18
Lange Zeit blieb diese Vorstellung Theorie, bis Astronomen vor wenigen Jahren in dem wohl berühmtesten Sternentstehungsgebiet, dem Orion-Nebel mit dem Weltraumteleskop Hubble mehrere Staubscheiben entdeckten. Typischerweise dehnen sich die Scheiben etwa hundert Erdbahnradien weit von ihrem Zentralstern aus und beinhalten rund zehntausend Erdmassen an Staub und Gas. Die Astronomen beobachten hier junge Sternsysteme, die etwa so aussehen wie unser eigenes Sonnensystem vor etwa vier Milliarden Jahren. Schätzungen ergeben, dass mindestens die Hälfte aller jungen sonnenähnlichen Sterne von solchen Staubscheiben umgeben ist. Theoretische Überlegungen und Laborexperimente deuten darauf hin, dass der Staub in den Scheiben turbulent herumwirbelt. Dadurch stoßen immer wieder kleinste Teilchen zusammen und bleiben aneinander haften. Auf diese Weise wachsen kleinste Partikel, bis ihre Schwerkraft ausreicht, weitere Materie aus der Umgebung anzuziehen. Die auf diese Weise entstehenden „Planetesimale“ mit bis zu tausend Kilometern Durchmesser stoßen auf ihren Bahnen um den Zentralstern hin und wieder zusammen. In einigen Fällen vereinen sie sich dabei und werden noch größer. So entstehen Planeten. Bei rund zwanzig sonnennahen Sternen, die ihre Staubscheiben bereits verloren haben, ließen sich innerhalb der letzten Jahre auf indirektem Weg Planeten nachweisen. Aus astronomischer Sicht bestehen daher heute keine Zweifel mehr daran, dass es in der Milchstraße und den anderen Galaxien unzählige Planetensysteme gibt, die dem unseren mehr oder weniger ähneln. Ob auf einigen Planeten auch Leben entstehen konnte und wie hoch die Wahrscheinlichkeit dafür ist, lässt sich noch nicht beantworten. Weltweit entwickeln Astronomen jedoch Pläne, wie man die fernen Planeten beobachten und detailliert untersuchen könnte.
Das wohl berühmteste Sternentstehungsgebiet: der rund 1.500 Lichtjahre entfernte Orion-Nebel (Foto: MPIA)
Der hellste Planetarische Nebel am Nordhimmel: der Hantel-Nebel im Sternbild Füchschen (Foto: ESO)
Sterne ähnlich wie die Sonne erzeugen am Ende ihres Lebens einen Planetarischen Nebel. Dieser erhielt die Bezeichnung Schmetterlings-Nebel. (Foto: ESO)
Ende mit Feuerwerk Den Die Geisterteilchen Neutrinos entstehen zum Beispiel beim radioaktiven Zerfall oder bei Kernfusionen im Innern der Sterne. Ungewöhnlich an ihnen ist, dass sie jede Art von Materie nahezu ungehindert durchdringen. Die Wissenschaftler diskutieren im Moment heftig die Frage, ob die Neutrinos eine Masse besitzen oder nicht. Dies zu beantworten, ist eine der zentralen Aufgaben der heutigen Teilchenphysik. Auch in der Astrophysik spielen die winzigen Partikel eine große Rolle. So schießen sie, nachdem sie im Innern der Sterne entstanden sind, in den Weltraum hinaus und durchqueren das Planetensystem. Auf der Erde strömen durch jede Fläche von der Größe eines Fingernagels pro Sekunde rund 60 Milliarden Neutrinos, ohne dass wir das geringste davon merken. Da diese „Geisterteilchen“ nur zu einem ganz geringen Prozentsatz mit Materie reagieren, müssen die Forscher großen technischen Aufwand betreiben, um sie überhaupt nachzuweisen. Zur Zeit beginnt man damit, auch Neutrinos von weit entfernten Himmelskörpern aufzuspüren, zum Beispiel beim Projekt „AMANDA“. Hier werden im ewigen Eis des Südpols mehrere hundert lichtempfindliche Detektoren bis in über einen Kilometer Tiefe abgesenkt. Prallt ein kosmisches Neutrino im Eis zufällig mit einem Atomkern zusammen, entsteht ein Lichtblitz, den die Instrumente registrieren. Ziel dieser Anlage ist es, Neutrinos von Supernovae, Gamma Bursts und anderen Himmelskörpern aufzufangen, um mehr über sie zu erfahren.
weitaus größten Teil seines Lebens leuchtet ein Stern mit nahezu unveränderlicher Intensität. Wie lange diese Phase dauert, hängt von seiner Masse ab. Die Sonne wird insgesamt etwa elf Milliarden Jahre lang strahlen, während ein massereicher Stern von 20 Sonnenmassen seinen Brennstoff bereits nach wenigen Millionen Jahren verbraucht hat. Ein kleiner Stern mit etwa einer halben Sonnenmasse kann hingegen über 15 Milliarden Jahre alt werden. Im Endstadium werden die Himmelskörper instabil. Der Kern des Sterns kühlt sich ab, der Druck im Inneren verringert sich. Dieser Innendruck hatte vorher verhindert, dass die äußeren Schichten des Sterns aufgrund der Gravitationskraft nach innen stürzen. Je nach Größe reagieren die Sterne unterschiedlich: kleinere (bis zu acht Sonnenmassen) blähen sich zu Roten Riesen auf. Zusätzlich pulsieren sie, das heißt, sie dehnen sich im Rhythmus von einigen Tagen aus und ziehen sich wieder zusammen. Schließlich können sie ihre äußere Gashülle nicht mehr halten, sie strömt ins All ab. Zurück bleibt ein heißer Weißer Zwerg etwa von der Größe der Erde, der langsam ausglüht. Er heizt das ihn umgebende Gas auf, das nun seinerseits als Planetarischer Nebel aufleuchtet.
metern Durchmesser, in dem die Masse einer Sonne konzentriert ist. Ein Zuckerwürfel aus Neutronensternmaterie würde auf der Erde soviel wiegen wie ein etwa tausend Meter hoher Berg. Auf diesen extrem harten Sternrumpf, der sich blitzschnell gebildet hat, stürzt nun die Materie aus den äußeren Bereichen des Sterns. Sie prallt ab und rast wieder in die Höhe. Bis Mitte der achtziger Jahre meinten die Theoretiker, dass dieser Rückschwung ausreicht, um das Gas, wie es beobachtet wird, explosionsartig ins All zu treiben. Die Computermodelle hingegen sagten etwas anderes: Die Schockwelle läuft sich sehr schnell tot und verebbt. Erst in den neunziger Jahren wurde klar, dass man die wesentlichen Akteure vergessen hatte: Die Neutrinos, die in enormer Zahl schlagartig in der Detonationswolke frei werden. Diese Teilchen heizen die äußeren Gasschichten so stark auf, dass diese explodieren. Als japanische Astronomen 1987 einen Neutrino-Schauer auf der Erde von der Supernova in der Großen Magellanschen Wolke nachwiesen, galt dies als Sensation. Manche Forscher bezeichnen dieses Ereignis als den Beginn der NeutrinoAstrophysik.
Besonders spektakulär enden noch massereichere Sterne. Sie explodieren als Supernovae, so wie 1987 in der Großen Magellanschen Wolke. Die äußere Sternhülle wird hierbei abgesprengt und rast mit bis zu 30 000 Kilometern pro Sekunde in den Weltraum hinaus. Sie ist bis zu eine halbe Million Grad heiß und leuchtet gleißend hell auf. Was bei der Explosion mit dem Zentralbereich des Sterns passiert, lässt sich nicht beobachten. Hier können nur Computersimulationen weiterhelfen. Sie zeigen, dass beim Kollaps des Sterns der Kern innerhalb von Bruchteilen einer Sekunde in sich zusammenfällt. Die Materie verdichtet sich, und es setzen Kernreaktionen zwischen Protonen und Elektronen ein, die zu einem Neutronenstern führen. Dies ist ein schnell rotierender Himmelskörper mit nur 20 Kilo-
Die Supernova 1987 A ist von Gasringen umgeben. Wahrscheinlich handelt es sich um Material, das der Stern vor seiner Explosion abgestoßen hat, und das nun durch den Explosionsblitz selbst zum Leuchten angeregt wurde. (Foto: NASA) 19
Das Ende im Schwarzen Loch Ist ein Stern schwerer als etwa 20 Sonnen, verläuft der Zusammenbruch noch dramatischer. Nun ist der Zentralbereich des Himmelskörpers so schwer, dass keine Kraft den Kollaps aufzuhalten vermag. Die Materie bricht in Bruchteilen einer Sekunde zusammen. Da es heute keine Theorie gibt, die den Zustand der Materie unter so exotischen Bedingungen beschreiben kann, müssen die Forscher noch davon ausgehen, dass der Stern zu einem einzigen Punkt ohne räumliche Ausdehnung schrumpft. Dies ist physikalisch eigentlich unsinnig, da Materie nicht unendlich dicht werden kann.
Die Anziehungskraft dieses Objektes ist nun so stark, dass innerhalb einer bestimmten Umgebung nichts der Schwerkraft entrinnen kann, nicht einmal Licht. Ein Schwarzes Loch ist entstanden. Selbst mit den leistungsstärksten Computern ist es den Theoretikern nicht möglich, den Zusammenbruch eines Sterns zu einem Schwarzen Loch detailliert zu simulieren. Es gibt aber Hinweise darauf, dass beim Kollaps der schwersten Sterne entlang der Polachsen Materiestrahlen mit nahezu Lichtgeschwindigkeit ins All hinausschießen und dabei für wenige Sekunden intensive Röntgen- und Gammastrahlen aussenden. Da hierbei noch mehr Energie frei wird als bei einer Supernova, sprechen die Astrophysiker in diesen Fällen von Hypernovae. Einige Forscher vermuten, dass sie die mysteriösen Gamma-Bursts sein könnten.
Schwarze Löcher Das kleinste Schwarze Loch, das nach heutigen Theorien bei einer Supernova entstehen kann, ist dreimal schwerer als die Sonne. Sein Einflussbereich, auch Ereignishorizont genannt, besitzt einen Durchmesser von 20 Kilometern.
In einem Doppelsternsystem saugt ein Schwarzes Loch Gas von seinem Begleiter ab. Das Gas sammelt sich zunächst in einer Scheibe an, bewegt sich aber auf einer spiralförmigen Bahn nach Innen und stürzt schließlich in das Schwarze Loch hinein.
20
Direkt beobachten lassen sich diese Himmelskörper nicht, da sie kein Licht aussenden. Nur ihre Schwerkraft verrät sie. Werden sie von einem anderen Stern umkreist, kann man aus der Umlaufgeschwindigkeit die Masse des unsichtbaren Objekts ermitteln. Beträgt sie mehr als drei Sonnenmassen, muss es sich um ein Schwarzes Loch handeln. Außerdem ziehen Schwarze Löcher Materie von ihrem Begleitstern ab. Bevor sie im kosmischen Nichts verschwindet, heizt sie sich stark auf und sendet Röntgenstrahlung aus. An ihr erkennen Astrophysiker die Wirkung eines Schwarzen Lochs. Mittlerweile haben die Wissenschaftler eine ganze Reihe von Doppelsternen auf ihrer Liste, in denen eine Komponente vermutlich ein Schwarzes Loch ist. Sie genauer zu studieren, ist eine zentrale Aufgabe zukünftiger Forschung.
Im Computer lässt sich verfolgen, wie zwei Neutronensterne in einem Feuerball miteinander verschmelzen. (Grafik: MPA)
Das Rätsel der Gamma-Blitze G
amma-Bursts werden bereits seit den sechziger Jahren beobachtet. Sehr kurzwellige Röntgenstrahlung, die Gammastrahlung, blitzt irgendwo am Himmel unvermutet für wenige Sekunden auf und verlöscht wieder. Bis heute wurden über hundert Theorien ersonnen, um dieses Phänomen zu erklären. Erst seit 1997 sind Astronomen in der Lage, die Orte der Blitze mit großen Teleskopen auch im
sichtbaren Wellenlängenbereich zu untersuchen. Diese Beobachtungen zeigten erstmals, dass die Gamma-Bursts nicht in unserer Milchstraße entstehen, sondern in fernen Galaxien. Das bedeutet, dass es die energiereichsten bekannten Vorgänge im Universum sind. Hypernovae könnten die Gamma-Bursts eventuell erklären. Eine andere denkbare Möglichkeit stellen verschmelzende Neutronensterne dar:
Umkreisen sich zwei dieser Sternreste, so nähern sie sich langsam einander an. Irgendwann berühren sich ihre Oberflächen, und in Bruchteilen einer Sekunde verschmelzen die Körper miteinander. Die Materie heizt sich dabei auf über 100 Milliarden Grad auf, und ein Gammablitz entlädt sich.
Gravitationswellen: neues Fenster zum Universum Bislang beziehen die Astronomen alle Informationen über die Himmelskörper aus elektromagnetischen Wellen, wie Licht, Radiowellen oder Röntgenstrahlen. Mit dem Beginn des 21. Jahrhunderts wollen sie erstmals zu Gravitationswellen vorstoßen. Sie sind eine Voraussage der Relativitätstheorie, die unter anderem besagt, dass der Raum nicht starr ist, sondern sich in der Umgebung materieller Objekte verformt. Wenn zwei Massen stark beschleunigt werden, strahlen sie Gravitationswellen ab, ganz ähnlich, wie schnell bewegte Ladungen Radiowellen aussenden. Gravitationswellen durcheilen das Universum mit Lichtgeschwindigkeit und verformen dabei geringfügig den Raum, etwa so, wie die konzentrisch auslaufenden Wellen eines ins Wasser geworfenen Steins die Oberfläche kräuseln. Durchläuft eine Gravitationswelle beispielsweise ein Labor, wird der Raum darin deformiert. Für den Bruchteil einer Sekunde verändern sich die Abstände zwischen allen Punkten. Die Wirkung einer Gravitationswelle ist jedoch minimal: Die Forscher erwarten Abstandsverzerrungen, die weit unterhalb eines Atomkerndurchmessers liegen. Messen wollen sie dieses Phänomen mit Laserstrahlen, die sie über einen mehrere Kilometer langen Weg durch zwei senk-
recht zueinander verlaufende Röhren schicken und in einem Punkt zusammenführen. Eine Gravitationswelle verändert die Laufstrecken der Laserstrahlen, was sich registrieren lässt. Im Jahre 2000 werden fünf Anlagen in Betrieb gehen: zwei in den USA und jeweils eine in Italien, Japan und Deutschland. Mit ihnen wollen die Forscher erstmals Schwerkraftsignale von explodierenden Sternen oder verschmelzenden Neutronensternen und Schwarzen Löchern auffangen.
Südlich von Hannover entsteht ein Gravitationswellendetektor. Er besteht im Wesentlichen aus zwei Laserstrahlen, die in zwei senkrecht zueinander aufgestellten Metallröhren laufen. Im Zentralhaus (vorne im Bild) werden sie zusammengeführt. Das hierbei entstehende Interferenzmuster beginnt beim Durchlaufen einer Gravitationswelle zu zittern. (Foto: P. Aufmuth, Uni Hannover)
21
Galaxien 22
Wie sind die Galaxien entstanden? Wie sind sie im Weltraum verteilt? Wie wird sich das Universum weiter entwickeln? Um die großen Fragen der Kosmologie zu beantworten, gehen die Forscher an die Grenzen der Leistungsfähigkeit heutiger
Technik. Mit modernen Großteleskopen beobachten sie Galaxien in Milliarden von Lichtjahren Entfernung, auf den schnellsten Computern simulieren sie die Milliarden von Jahren währende Evolution kosmischer Strukturen.
Feuerräder im Bann der Dunklen Materie Mitte der siebziger Jahre stießen Astronomen bei der Beobachtung einiger Spiralgalaxien auf ein Phänomen, das sie bis heute beschäftigt. Die Sterne in diesen Galaxien umkreisen deren Zentren schneller als es die Astronomen erwarten. Die Umlaufgeschwindigkeit eines Sterns hängt davon ab, wieviel Materie sich innerhalb seiner Bahn befindet. Diese ermitteln Astronomen aus der messbaren Gesamthelligkeit aller Sterne in diesem Gebiet. Das Ergebnis: Die Massen in den Spiralgalaxien reichen nicht aus, um die schnellen Bewegungen der Sterne zu erklären. Auch als die Wissenschaftler die Massen von möglicherweise in der Galaxie vorhandenen Schwarzen Löchern berücksichtigten, konnte das Rätsel nicht gelöst werden. Deshalb vermuten Astrophysiker die Schwerkraftwirkung von großen Mengen an unsichtbarer Materie. Im Mittel scheinen Spiralgalaxien rund zehnmal mehr „Dunkle Materie“ als Sterne zu enthalten. Die Forscher gehen davon aus, dass sich die Dunkle Materie in einem riesigen
kugelförmigen, die Galaxie umschließenden Bereich aufhält. Dies gilt auch für das Milchstraßensystem. Die Natur der unsichtbaren Materie ist noch völlig unklar. Zum Teil könnte es sich um extrem leuchtschwache Sterne handeln, nach denen derzeit fieberhaft gesucht wird. Möglich erscheint aber auch eine ausgedehnte Wolke, die aus unbekannten Elementarteilchen besteht. Sollte es, wie die Beobachtungen vermuten lassen, wesentlich mehr dunkle als sichtbare Materie geben, so hätte sie einen entscheidenden Einfluss auf die Struktur und Entwicklung des Universums. Vieles deutet derzeit darauf hin, dass sich ohne diese Substanz gar keine Sterne und Galaxien gebildet hätten. Die Suche nach diesem geheimnisvollen Stoff ist daher zur Zeit eines der zentralen Themen der Astrophysik.
Kosmische Zeitmaschine Als es dem dänischen Astronomen Ole Römer 1675 erstmals gelang, die Lichtgeschwindigkeit zu messen, legte er den Grundstein für die moderne Kosmologie. Wenn ein Lichtstrahl unendlich schnell wäre, würden wir alle Himmelskörper zur gleichen Zeit, also in der Gegenwart, sehen. Da er aber eine bestimmte Zeit benötigt, um von einem Himmelskörper zur Erde zu gelangen, blicken die Astronomen stets in die Vergangenheit: Von der Sonne zur Erde ist Licht nur acht Minuten unterwegs. Von der Andromeda-Galaxie benötigt es zwei Millionen Jahre und von den entferntesen Sternsystemen sogar mehrere Milliarden Jahre. Mit jedem Schritt in die Tiefe des Universums schaut man also weiter in die Vergangenheit des Kosmos zurück. Das Licht wird zur „Zeitmaschine“. Auf diese Weise ist es möglich, die Entwicklung des Univerums zu rekonstruieren, ähnlich wie Paläontologen aus Versteinerungen die Evolution des Lebens erforschen.
Die rund 155 Millionen Lichtjahre entfernte Spiralgalaxie ESO 269-57 im Sternbild Centaurus. Mit einem Durchmesser von 200 000 Lichtjahren ist sie doppelt so groß wie das Milchstraßensystem. (Foto: ESO)
Großes Bild links: Die Arme der Spiralgalaxie NGC 6872 dehnen sich ungewöhnlich weit in den Raum aus. Vermutlich hat die kleine Galaxie IC 4970 (knapp oberhalb des Zentrums) an NGC 6872 die Arme bei einem nahen Vorbeiflug mit ihrer Schwerkraft herausgezogen. (Foto: ESO)
Die Spiralgalaxie NGC 1232 im Sternbild Eridanus hat eine ähnliche Form und Größe wie unser Milchstraßensystem. (Foto: ESO)
23
Kosmische Kollisionen Z
u den herausragenden Forschungsergebnissen der jüngeren Vergangenheit zählt die Erkenntnis, dass Galaxien im Laufe ihrer Existenz häufig nahe aneinander vorbeifliegen oder sogar zusammenstoßen. Markantestes Beispiel in der verhältnismäßig nahen Umgebung der Milchstraße ist die „Antennen-Galaxie” im Sternbild Raabe. Hier durchdringen sich zwei Spiralgalaxien. In der Kollisionszone wirbeln riesige Staubwolken chaotisch umher, was an vielen Stellen dazu führt, dass sich die Materie verdichtet und neue Sterne hervorbringt. Damit
Kollidierende Sternsysteme: Die Antennen-Galaxie im Sternbild Rabe. (Foto: NASA)
die riesigen Sternsysteme so verformt werden wie die Antennen-Galaxie, müssen sie sich nicht einmal durchdringen. Ein naher Vorbeiflug reicht für die Wirkung der Gezeitenkräfte bereits aus.
Die Andromeda-Galaxie ist mit 2,3 Millionen Lichtjahren Entfernung die nächste Spiralgalaxie. (Foto: MPIA)
Feuerräder im All Die ästhetischsten Gebilde im Universum sind wohl die Spiralgalaxien. Wie gewaltige bengalische Feuerräder bewegen sich die Sterne darin um das Zentrum. Auch das Sonnensystem befindet sich in einer Spiralgalaxie. Da wir im Innern dieses scheibenförmigen Gebildes leben, können wir es nicht als Ganzes wahrnehmen. Blicken wir in die Scheibenebene hinein, sehen wir viele Sterne. Sie umspannen den gesamten Himmel als Band – die Milchstraße. Senkrecht zur Scheibenebene sehen wir dagegen nur noch vereinzelt Sterne.
24
In der Vergangenheit, als das expandierende Universum kleiner war als heute, waren sich die Galaxien noch näher und galaktische Kollisionen somit häufiger. Das, so meinen heute viele Astrophysiker, hat auch dazu geführt, dass es im wesentlichen zwei Galaxientypen gibt: spiralförmige und elliptische. Es gibt Anzeichen dafür, dass zwei Spiralgalaxien zu einer elliptischen Galaxie verschmelzen können. Zum einen finden sich die großen elliptischen Galaxien in den Zentralgebieten von Galaxienhaufen, wo die Sternsysteme am dichtesten zusammen stehen. Zum anderen hat man im Innern einiger elliptischer Galaxien kleine spiralförmige Scheiben entdeckt, die genau entgegengesetzt zu den weiter außen befindlichen Sternen rotieren. Offensichtlich sieht man hier die Überreste einer verschluckten Spiralgalaxie.
Die 165 Millionen Lichtjahre entfernte Spindelgalaxie erhielt ihre außergewöhnliche Form wahrscheinlich durch einen Zusammenstoß zweier Sternsysteme, die möglicherweise zu einem verschmolzen. (Foto: ESO)
Das Universum in Farbe Wenn Astronomen Nebel und Galaxien fotografieren, verwenden sie keine Farbfilme. In den meisten Fällen setzen sie Halbleiterdetektoren ein, so genannte Charge Coupled Devices (CCD), die Licht in elektrische Ladung umwandeln. Am Ende einer Belichtung liest ein Computer das CCD aus und erstellt ein digitales Schwarz-weiß-Bild. Um ein Farbbild zu erhalten, wird das interessierende Himmelsfeld durch verschiedene Farbfilter, beispielsweise ein rotes, grünes und blaues, aufgenommen. Anschließend „färbt“ man die Einzelaufnahmen im Computer mit der Farbe des entsprechenden Filters ein und überlagert sie. Auf diese Weise entsteht ein Foto mit nahezu Echtfarben.
Schwarze Löcher schlucken Sterne N
icht alle Galaxien verhalten sich so normal wie unsere Milchstraße. Es gibt eine Reihe von Sternsystemen, die so große Energiemengen abstrahlen, dass hierfür Sterne allein nicht in Frage kommen. Die Astronomen vermuten hier die Aktivität besonders massereicher Schwarzer Löcher. Sie sitzen in den Zentren der Galaxien und ziehen aus der Umgebung Gas, Staub und ganze Sterne an. Diese Materie sammelt sich zunächst in einer Scheibe um das Schwarze Loch an und umkreist es mit großer Geschwindigkeit. Durch Reibung verliert das Gas an Bewegungsenergie, strudelt dadurch langsam auf spiralförmigen Bahnen zum Zentrum, erhitzt sich und beginnt zu strahlen. Der Durchmesser eines hundert Millionen Sonnenmassen schweren Schwarzen Lochs entspricht etwa dem der Erdbahn um die Sonne. Dieser Bereich ist viel zu klein, um in den fernen Galaxien beobachtbar zu sein. Dennoch lassen sich die Vorgänge entschlüsseln. Hierzu müssen die Astronomen die aus der nahen Umgebung des Schwarzen Lochs kommende Strahlung vom Radio- bis zum Gammabereich analysieren. Überraschend für viele Forscher war die Einsicht, dass offenbar auch im Zentrum unserer Milchstraße ein Schwarzes Loch mit etwa einer Million Sonnenmassen sitzt. Beobachtungen im Radio- und Infrarotbereich – insbesondere an deutschen Instituten – ließen die Wirkung dieses hinter dichten Staubwolken verborgenen Himmelskörpers erkennen. Dass dort dennoch keine außergewöhnlich intensive Strahlung beobachtet wird, liegt vermutlich daran, dass der Materiestrom in das Schwarze Loch zur Zeit unterbunden ist. Warum das Schwarze Loch hungern muss, ist nicht klar.
25
Kosmische Teilchenbeschleuniger
Aus dem Zentrum der 650 Millionen Lichtjahre entfernten Galaxie Cygnus A schießen zwei Jets heraus, die in riesige Wolken münden. (Foto: NRAO)
26
Mit Radioteleskopen haben Astronomen Galaxien entdeckt, aus deren Zentren ein oder zwei Teilchenstrahlen bis zu einer Million Lichtjahre weit ins All hinausschießen. Diese Jets enden in großen Gaswolken. Die Jet-Teilchen, vorwiegend wahrscheinlich Elektronen, werden in den Zentren der Galaxien nahe einem Schwarzen Loch bis fast auf Lichtgeschwindigkeit beschleunigt. Dies geschieht senkrecht zu der Scheibe, die das Schwarze Loch umgibt. Wahrscheinlich spielen Magnetfelder bei diesen Vorgängen die entscheidende Rolle.
Linsen aus Raum und Zeit
Galaxien-Clans Galaxien ziehen sich mit ihrer Schwerkraft gegenseitig an und bilden Ansammlungen mit bis zu 50 Millionen Lichtjahren Größe. Während die kleineren Gruppen nur zehn Mitglieder beinhalten, umfassen große Haufen, wie diejenigen in den Sternbildern Virgo und Coma, weit über tausend Galaxien. In einem solchen Haufen dominieren zwar die Sternsysteme das Bild. Mit Hilfe von Röntgenteleskopen wird jedoch im scheinbar leeren Raum zwischen den Galaxien ein rund hundert Millionen Grad heißes Gas erkennbar. Diese Entdeckung allein war bereits überraschend. Noch erstaunter waren die Astronomen jedoch, als sie mit dem Röntgenteleskop Rosat herausfanden, dass diese Materie in den meisten Fällen wesentlich mehr Masse besitzt als alle Galaxien zusammen. Die Herkunft dieses „Röntgengases“ ist nicht abschließend geklärt. Es wird aber vermutet, dass es von Supernovae stammt, die ihre Gashüllen mit so hoher Geschwindigkeit abgestoßen haben, dass sie aus den Galaxien entweichen konnten.
Denkbar ist aber auch, dass zumindest ein Teil des Gases noch aus der Entstehungsphase des Universums übrig geblieben ist. Aufgeheizt wird es eventuell durch die Reibung mit den Galaxien, die sich mit hohen Geschwindigkeiten durch diesen intergalaktischen Nebel bewegen. Sterne und Röntgengas bilden nur einen Teil der insgesamt in den Haufen enthaltenen Materie. Wie in den Spiralgalaxien, dominiert auch hier die Dunkle Materie. Dies ist für die Kosmologie von großer Bedeutung, denn die insgesamt im Kosmos enthaltene Masse, genauer ihre durchschnittliche Dichte, entscheidet über die zukünftige Entwicklung des Universums. Ist ein bestimmter kritischer Wert überschritten, wird die Schwerkraft in ferner Zukunft die Expansion des Raumes zum Stillstand bringen und in einen Kollaps umkehren. Das Universum wird dann wieder in sich zusammenstürzen. Im anderen Fall wird der Kosmos ewig weiter expandieren.
Eine Gruppe von vier Galaxien, die so genannte Hickson Compact Group 87. Sie wird von den gegenseitigen Gravitationskräften zusammengehalten. Die Galaxien bewegen sich dabei langsam umeinander – in Zeiträumen von Hunderten von Millionen Jahren. (Foto Nasa) Die beiden Galaxien NGC 5090 und NGC 5091 stehen so nahe zusammen, dass sie sich mit ihrer Schwerkraft gegenseitig anziehen. (Foto: ESO)
Einsteins Allgemeine Relativitätstheorie beschreibt den Raum als dynamisches, flexibles „Gebilde“, das sich in der Umgebung von Materie krümmt. Lichtstrahlen, die in ein solches Gebiet der Raumkrümmung hinein geraten, werden darin von ihrem geradlinigen Weg abgelenkt und bewegen sich auf gebogenen Bahnen – ähnlich wie im Innern einer Glaslinse. Auf diese Weise kann auch ein Galaxienhaufen mit seinem Schwerefeld als „Linse“ wirken. Als Folge hiervon sieht man hinter ihm liegende Objekte mehrfach oder kreisförmig verzerrt. Dieses Ende der achtziger Jahre entdeckte Phänomen ermöglicht es den Astronomen beispielsweise, die Masse, die innerhalb eines Haufens die Linsenwirkung hervorruft, zu ermitteln. Solche Untersuchungen bestätigen, dass sich in den Galaxienhaufen wesentlich mehr unsichtbare Dunkle Materie befindet als in Form von Sternen und Röntgengas zusammen.
In dem Galaxienhaufen CL 2244-02 erscheint nahe dem Zentrum ein leuchtender Bogen. Er ist das verzerrte Bild einer weit hinter dem Haufen stehenden Galaxie. Ursache ist das als Gravitationslinse wirkende Schwerkraftfeld des Galaxienhaufens. (Foto: ESO)
27
Die kosmische Evolution Galaxienhaufen
sind keineswegs gleichmäßig im Universum verteilt. Sie scheinen sich in gewaltigen länglichen und flächigen Strukturen mit Ausdehnungen von mehreren hundert Millionen Lichtjahren anzuordnen. Zwischen diesen „Galaxienwänden” existieren weite Lücken, in denen sich nur wenige Galaxien finden. Das Universum scheint auf großräumiger Skala eine blasenartige, schaumige Struktur zu besitzen. Wie sie sich ausbilden konnte, ist eines der größten Rätsel der Kosmologie. Problematisch wird dieses Phänomen insbesondere im Zusammenhang mit der Beobachtung der so genannten kosmischen Hintergrundstrahlung. Sie entstand bereits wenige hunderttausend Jahre nach dem Urknall. Atome im damaligen Urgas sandten die Strahlung aus, die seitdem das Universum durchzieht und den gesamten Himmel erfüllt. Sie ist die älteste Kunde, die wir aus dem Universum erhalten können. Anfang der neunziger Jahre entdeckten Astronomen schwache Strukturen in diesem Strahlungsfeld. Sie spiegeln Verdichtungen im damaligen Urgas wieder – die Keime der späteren Galaxienhaufen. Allerdings lag die Dichte in den damaligen Wolken nur einige hundertstel Promille über dem
28
Durchschnitt. Es scheint heute unmöglich, dass sich unter dem Einfluss der Schwerkraft aus diesen schwach ausgeprägten Urwolken die heutigen Galaxienhaufen bilden konnten. Einen möglichen Ausweg sehen Kosmologen in der Existenz noch unbekannter Elementarteilchen der Dunklen Materie. Diese Partikel müssten die Eigenschaft besitzen, zwar aufgrund ihrer Masse Schwerkraft auszuüben, jedoch keine Strahlung auszusenden oder zu verschlucken. So wäre es möglich, dass im Urgas bereits dichtere, unsichtbare Klumpen Dunkler Materie vorhanden gewesen sind, die aber in der Hintergrundstrahlung nicht erscheinen. Die normale Materie hätte sich in den Schwerefeldern dieser Dunklen Wolken ansammeln und weiter zu den Galaxien zusammenballen können. Ob diese Hypothese stimmt, wollen die Forscher mit zukünftigen Weltraumobservatorien, an denen auch deutsche Institute beteiligt sein werden, herausfinden. Eine andere Möglichkeit, dieses Problem anzugehen, besteht darin, die Entwicklung der Materie vom nahezu gleichmäßig verteilten Urgas zu den heutigen Galaxien und Galaxienhaufen mit den lei-
stungsstärksten Computern zu simulieren. Die derzeit umfangreichsten Rechnungen dieser Art leistet eine Gruppe von deutschen, britischen und amerikanischen Theoretikern. Sie ersetzen die Materie im Universum durch eine Milliarde virtueller Teilchen und lassen diese unter dem Einfluss der Schwerkraft frei agieren. Mit einer Milliarde Teilchen lassen sich zwar nicht einmal alle Galaxien im Kosmos darstellen, aber die Forscher bekommen einen Eindruck von der Selbstorganisation der Materie unter dem Einfluss der Schwerkraft. Damit haben die Kosmologen den vielleicht letzten Schritt auf dem Weg zur Relativierung der menschlichen Existenz getan. Kopernikus machte klar, dass die Erde nicht im Mittelpunkt des Kosmos ruht, Hubble zeigte, dass unser Milchstraßensystem nur eines unter Milliarden anderen ist und dass alle diese Sternsysteme voneinander fortstreben. Heute finden die Kosmologen immer mehr Hinweise darauf, dass alle Sterne und Galaxien nur einen Bruchteil der gesamten Materie im Universum ausmachen und eine unsichtbare Substanz die Evolution der Welt steuert.
Rund hundert Stunden Rechenzeit sind nötig, um die 13 Milliarden Jahre währende Evolution des Kosmos zu rekonstruieren. Die anfangs nahezu gleichmäßig verteilte Materie findet sich in Klumpen und länglichen Gebilden zusammen. (Foto: MPA)
Die bislang weitreichendste Himmelsaufnahme gelang Ende 1995 mit dem Weltraumteleskop Hubble. Auf einer Fläche entsprechend einem zehntel des Vollmondes entdeckte man auf einem Bild mehr als 20.000 Galaxien. (Foto: NASA/ESA)
29
Höchste Ansprüche Astronomen sind schon immer mit extremen Forderungen an die Industrie herangetreten. Auf diese Weise war diese Grundlagendisziplin in der Vergangenheit häufig Katalysator für High-Tech-Entwicklungen. So entwickelten die Schott-Glaswerke in Mainz eine spezielle Keramik für Teleskopspiegel. Heute wird dieses so genannte Zerodur nicht nur in der Astronomie verwandt, sondern ist auch Grundlage der Ceran-Kochplatten. MAN und Krupp leisteten zu Beginn der achtziger Jahre Pionierarbeit auf dem Gebiet kohlefaserverstärkter Kunststoffe für den Bau astronomischer Antennen. Heute sind die Firmen mit diesen Entwicklungen auf dem Weltmarkt führend. Die Oberfläche der großen Teleskopspiegel muss mit einer unvergleichlichen Präzision poliert werden. Denkt man sich einen solchen Reflektor auf die Fläche Berlins vergrößert, so würde keine Unre-
Alle vier Teleskope des Very Large Telescope werden Mitte 2000 betriebsbereit sein. (Foto: ESO)
30
gelmäßigkeit höher als ein zehntel Millimeter sein. Die Firma Carl Zeiss profitiert von dieser Fähigkeit in vielen Bereichen ihrer Produkte. Im Satellitenbau konnte sich das Unternehmen Dornier Satellitensysteme in Friedrichshafen in Europa einen Spitzenplatz sichern. Unter seiner Leitung entstanden nicht nur astronomische Satelliten wie Cluster oder das Röntgenteleskop XMM, sondern auch kommerzielle Telekommunikationssatelliten.
Bei den Schott Glaswerken gelang es zum ersten Mal, einen Spiegel mit 8,60 Metern Durchmesser zu gießen. (Foto:ESO)
Globalisierung in der Astronomie schon lange Standard Was sich in der Wirtschaft langsam durchsetzt, ist in der Astronomie, wie auch schon in anderen Bereichen der physikalischen Forschung, längst Alltag: die internationale Zusammenarbeit. So sind heute in der Europäischen Südsternwarte (ESO) mit Sitz in Garching acht Mitgliedsstaaten Westeuropas vereint. 14 Teleskope für den sichtbaren sowie ein 15-Meter-Teleskop für den Submillimeterbereich stehen den Astronomen auf dem 2400 Meter hohen Berg La Silla in den chilenischen Anden zur Verfügung. Die jüngste Errungenschaft: das Very Large Telescope auf dem Andengipfel Paranal. Diese aus vier 16-MeterTeleskopen bestehende Anlage wird im Jahr 2000 die leistungsfähigste Sternwarte der Erde bilden.
Das Pendant in der Weltraumforschung ist die Europäische Weltraumbehörde, ESA, in der sich 14 Staaten organisiert haben. Sie hat Mitte Dezember 1999 ihren bislang größten Wissenschaftssatelliten gestartet, das Röntgenobservatorium X-ray Multi Mirror, XMM. Die größten Projekte werden sich zukünftig indes nur noch in weltweiter Kollaboration realisieren lassen, so zum Beispiel das Atacama Large Millimeter Array (ALMA), eine Anlage aus 64 12-MeterTeleskopen, verteilt auf einer Fläche von zehn Quadratkilometern. ALMA entsteht in europäisch-amerikanischer Zusammenarbeit und wird voraussichtlich im Jahre 2009 das größte Observatorium für Beobachtungen im Bereich von Millimeterwellen sein.
Computer-Grafik des Röntgenobservatoriums XMM. Drei parallele Röntgenteleskope suchen gleichzeitig das All nach kosmischen Strahlenquellen ab. (Quelle: ESA)
31
33
34
Vor Abflug Woraus besteht die Welt? Was hält sie zusammen? Wie hat alles angefangen? Wie wird es enden? Mit diesen Fragen beschäftigen sich die Kern- und die Teilchenphysiker. Ihre Forschungen im 20. Jahrhundert haben gezeigt, dass die Vielfalt der Erscheinungsformen der Natur letztlich zurückgeht auf eine kleine Zahl fundamentaler Materie-Bausteine und auf die Wirkungen weniger elementarer Kräfte zwischen ihnen. Den faszinierenden Ergebnissen dieser Forschungen und dem Ausblick in die Zukunft ist dieses Themenheft gewidmet. Die Teilchenphysiker untersuchen die Eigenschaften und Wechselwirkungen der feinsten Strukturen der Materie – der Elementarteilchen. Mit Experimenten bei
Kristall < >
0,01 m = 10-2 m
Die Hadronen- und Kernphysiker untersuchen aus Elementarteilchen zusammengesetzte Systeme, die Atomkerne. Im Vordergrund der Forschung standen früher vor allem die stabilen Kerne, aus denen die uns umgebende Materie und wir selber bestehen. In jüngster Zeit beschäftigen sich die Wissenschaftler dieses Forschungszweiges vor allem mit instabilen Kernen, die schnell zerfallen. Sie spielen bei der Entstehung der Elemente, wie wir sie heute vorfinden, eine entscheidende Rolle. Zudem erschaffen die Forscher neue Elemente, die in der Natur nicht vorkommen. Die Hadronenphysiker beschäftigen sich mit Systemen, die aus Quarks zusammengesetzt sind und durch Mittlerteilchen, die sogenannten Gluonen, zusammengehalten werden.
tere Anwendungen kernphysikalischer Forschung vor. Computer- und Kernspintomografie sind nur zwei Schlagworte aus diesem Bereich. Mit der Methode der Ionenimplantation bei Halbleitermaterialien werden neuartige, hochintegrierte Schaltelemente hergestellt. Die Arbeitsweise bei den Experimenten der Teilchenphysik und der Kernphysik verbindet den akademischen mit dem industriellen Arbeitsstil. Die Studierenden lernen hier in besonderem Maße, sich im internationalen Rahmen zu behaupten, nach einem vorgegebenen Budget wirtschaftlich zu planen und Termine einzuhalten. Ohne solchen Nachwuchs können die Zukunftsaufgaben einer modernen Gesellschaft nicht bewältigt werden.
Molekül
Atom
Atomkern
Proton/Neutron
10-9 m
10-10 m
10-14 m
10-15 m
sehr hohen Teilchenenergien stellen sie Bedingungen her, wie sie im ganz jungen Universum unmittelbar nach dem Urknall herrschten. Hier ergänzen sich die Forschungsziele der Teilchenphysiker mit denen der Kosmologen und Astrophysiker. Partikel, die die Erde von der Sonne oder aus fernen Winkeln des Universums erreichen, lassen sich mit Hilfe von teilchenphysikalischen Apparaturen aufspüren und untersuchen.
„Plastik-Ball“-Detektor zur Untersuchung relativistischer Kern-Kern-Kollisionen. (Illustration: GSI, Grafik oben: DESY)
Beste Beispiele dafür sind das Proton, das Neutron sowie das aus Quarks und Gluonen bestehende Quark-Gluon-Plasma, die kosmische Ursuppe der Welt. Kern- und Teilchenphysik sind Grundlagenforschung. Die Geschichte hat gezeigt, dass aus ihren Erkenntnissen ungeahnte, neuartige Anwendungen entstehen können. Das jüngste Beispiel ist das WorldWideWeb. Erfunden von einem Teilchenphysiker für den Informationsaustausch in der Forschung, hat es sich rasant auf fast alle Bereiche unseres Alltags ausgebreitet. Neben der Energieerzeugung durch Kernspaltung und Kernfusion kommen vor allem in der Medizintechnik wei-
Quark Elektron < 10-18 m
Wir laden Sie ein, mit diesem Heft auf die Reise zu gehen. Es zeigt die Teilchen- und Kernphysik auf dem aktuellen Stand der Forschung. Eine Reportage aus dem Bereich der medizinischen Physik, ein Blick in die Zukunft und ein Interview mit einem Physiker über das Arbeiten in großen internationalen Kollaborationen bilden den Schluss. Doch bevor wir über den „Webfehler der Welt“ oder „Kosmische Spuren im ewigen Eis“ berichten, erhalten Sie unser Survival-Pack: wir bringen Ordnung in den Teilchenzoo und stellen die riesigen Werkzeuge vor, mit denen die Kern- und Teilchenphysiker arbeiten. Steigen Sie ein...
35
Wie funktioniert eigentlich… ein Teilchenbeschleuniger? D
er einfachste Teilchenbeschleuniger ist ein Fernseher. Dort werden die Elektronen, die das Fernsehbild auf die Mattscheibe schreiben, durch ein elektrisches Feld beschleunigt. Ein elektrisches Feld herrscht zum Beispiel zwischen zwei entgegengesetzt geladenen Metallplatten. Setzt man ein negativ geladenes Elektron zwischen die Platten, wird es von der positiv geladenen Platte angezogen und von der negativen abgestoßen.
1V
–
–
+
Ein Elektron wird im Feld zwischen zwei geladenen Metallplatten beschleunigt. Nach Durchlaufen der gesamten Strecke hat es gerade die Energie 1eV (ein „Elektronenvolt“). Diese etwas sonderbare Einheit für Energie verwenden die Kern- und Teilchenphysiker gerne, weil sie für ihre Rechnungen sehr bequem ist.
Will man ein Elektron auf höhere Energien bringen, bohrt man einfach Löcher in die Metallplatten und schaltet mehrere solcher Beschleunigungsstrecken hintereinander. Damit das Ganze funktioniert, muss man jetzt die Platten mit Hilfe einer Wechselspannung umpolen, sobald das Elektron in die nächste Beschleunigungsstrecke fliegt. Mit einem solchen Linearbeschleuniger lassen sich nicht nur Elektronen, sondern alle geladenen Teilchen auf Geschwindigkeit bringen. Also zum Beispiel auch positiv geladene Atome, sogenannte Ionen. Eine Methode, Teilchen zu beschleunigen, ohne lange Linearbeschleuniger zu bauen, ist der Ringbeschleuniger. Hier werden die geladenen Teilchen durch Magnete auf eine Kreisbahn gezwungen. Auch im Fernseher, dem Minibeschleuniger zu Hause, sind Magnete eingebaut. Sie lenken dort den Elektronenstrahl Zeile für Zeile über die
36
Mattscheibe. Die Teilchen durchlaufen die Beschleunigungsstrecke im Ring viele Tausend mal, bevor sie ihre Sollgeschwindigkeit erreicht haben. Ein Nachteil des Ringbeschleunigers ist, dass elektrisch geladene Teilchen, die sich im Kreis bewegen, Strahlung abgeben (die sogenannte „Synchrotronstrahlung“) und dadurch Energie verlieren. Auch zum bloßen Speichern eines Teilchenstrahls im Ring muss man also immer wieder etwas beschleunigen.
–
In einem solchen Linearbeschleuniger kann man Elektronen auf Energien von mehreren Milliarden Elektronenvolt bringen. Dazu muss man allerdings auch die Beschleunigungsspannungen auf einige Milliarden Volt erhöhen. Das Bild ist nicht maßstabsgetreu. Zunächst langsame Elektronen werden schneller und so muss der Abstand der Platten immer größer gemacht werden. Bei Elektronen mit nahezu Lichtgeschwindigkeit ist dies nicht mehr notwendig.
Ablenkmagnete
Ejektionsmagnet
Injektionsmagnet
Prinzipskizze eines Ringbeschleunigers. Synchron mit der Zunahme der Teilchengeschwindigkeit muss man auch die Magnetfelder der Ablenkmagnete erhöhen. Je größer nämlich der Teilchenimpuls ist, um so mehr Magnetkraft braucht man, um die Teilchen „um die Ecke“ zu bringen. Aus diesem Grund nennt man diesen Ringbeschleuniger auch „Synchrotron“. (Grafiken: i&s)
Beschleunigungsstrecke
Die schnellen, elektrisch geladenen Teilchen schießen die Forscher dann entweder auf ein festes Ziel oder sie lassen zwei Teilchenstrahlen aufeinander prallen. In den meisten Fällen wird dabei Materie in Energie umgewandelt – ein kleiner Energieblitz entsteht. Aus diesem können sich dann innerhalb von Sekundenbruchteilen neue, exotische Partikel bil-
den, die die Forscher interessieren. Für beide Umwandlungen ist die Einsteinsche Formel zuständig, die die Äquivalenz von Energie E und Masse m beschreibt: E = m · c2 (mit c = Lichtgeschwindigkeit). Die entstandenen Partikel, die nach allen Seiten wegfliegen, werden in großen Detektoren registriert, die die Physiker um die Kollisionsstelle herum gebaut haben.
Verwenden die Forscher niedrigere Energien, wirken die beschleunigten Teilchen wie Lichtstrahlen, die in einem Mikroskop auf das zu untersuchende Objekt prallen, ohne es zu zerstören. Die von diesem Objekt gestreuten Teilchen werden dann ebenfalls in Detektoren analysiert. wr
37
Alles Quark: Das Standardmodell D
as Standardmodell zählt zu den erfolgreichsten Theorien der Physik. Im Standardmodell manifestiert sich alles, was heute in der Teilchenforschung als gesichert gelten darf. Grob umrissen ruht das Standardmodell auf drei Säulen.
Die Bausteine der Materie: Heute kennt man insgesamt 12 Materieteilchen – 6 Quarks und 6 Leptonen. Zu jedem dieser Teilchen existiert wiederum ein Antiteilchen. Atome bestehen aus Elektronen sowie aus zwei Sorten von Quarks (Up-Quark und DownQuark), die die Atomkerne bilden. Die Massen sind hier über die Einsteinsche Formel E = m · c 2 in Energieeinheiten (Elektronenvolt) angegeben.
Leptonen
38
Säule 1: Die Materiebausteine Sechs „Quarks“ und sechs „Leptonen“ – aus diesen Bausteinen besteht die Welt. Der Löwenanteil der uns umgebenden Masse ist den Quarks zuzuschreiben. Dagegen machen die Leptonen („Leichtgewichte“) weniger als 0,1 Gewichtsprozent aus. Zu ihnen zählt das Elektron sowie seine schwereren Geschwister, das Myon und das Tau, ferner drei Arten von Neutrinos. Jedes dieser Partikel hat ein Antiteilchen, deshalb basiert das Standardmodell auf insgesamt 24 Materiebausteinen. Eine besondere Rolle spielen die beiden leichten Quarksorten, das „Up-“ und das „Down-Quark“. Aus ihnen sind die Bausteine der Atomkerne aufgebaut, das Proton und das Neutron. Ein Proton besteht aus zwei Up- und einem Down-Quark, das Neutron aus zwei Down- und einem UpQuark. Atomkerne sind gewöhnlich von Elektronen umhüllt; demnach besteht die normale, uns umgebende Materie aus nur drei Grundteilchen: Up-Quark, DownQuark und Elektron. Die anderen Quarksorten können nur im Labor unter extremen Bedingungen erzeugt werden.
Quarks
Elektron
Elektron-Neutrino
Up
Down
Masse 0,0005 GeV
Masse unbekannt
Masse 0,004 GeV
Masse 0,007 GeV
Myon
Myon-Neutrino
Charm
Strange
Masse 0,1 GeV
Masse unbekannt
Masse 1,5 GeV
Masse 0,15 GeV
Tau
Tau-Neutrino
Top
Bottom
Masse 1,8 GeV
Masse unbekannt
Masse 174 GeV
Masse 4,7 GeV
Säule 2: Die Kräfte Das Standardmodell kennt vier Kräfte, die zwischen den Teilchen herrschen. ■ Die elektromagnetische Kraft wird durch die elektrische Ladung eines Teilchens verursacht. Sie lässt den Strom aus der Steckdose kommen, hält sämtliche Kristalle zusammen und spielt bei allen chemischen und biochemischen Prozessen die führende Rolle. ■ Die starke Kraft wirkt zwischen den Quarks. Ihr Effekt entspricht dem eines Expanders aus dem Fitnessstudio: Je weiter man zwei Quarks auseinanderzieht, desto mehr spannt sich das Gummi zwischen ihnen, und desto stärker hat man zu ziehen. Die starke Kraft wird also mit zunehmendem Abstand größer. Dieser Effekt ist so stark, dass das Band zwischen zwei Quarks nicht ohne weiteres reißen kann. Deshalb kommen Quarks nie alleine vor, sondern nur in Quark-Antiquark-Pärchen oder als „Dreigestirn“. ■ Die schwache Kraft wirkt zwischen allen Materieteilchen. Sie löst radioaktive Zerfälle aus, indem sie bestimmte Elementarteilchen in andere verwandelt, etwa ein Down-Quark in ein Up-Quark plus ein Elektron plus ein Neutrino. Durch diese Teilchenumwandlung kommt der Zerfall von Atomkernen in Gang. Die Neutrinos können nur über die schwache Kraft mit ihrer Umgebung wechselwirken. ■ Die Gravitation, die wohlvertraute Schwerkraft, spielt im Mikrokosmos praktisch keine Rolle. Im Vergleich zu den anderen Naturkräften ist sie extrem schwach und darf in aller Regel vernachlässigt werden. Bei allen Naturkräften gehen die Physiker davon aus, dass sie durch „Botenteilchen“ übermittelt werden, die in unmessbar kurzer Zeit zwischen den Materiepartikeln hinund herflitzen. Bei der elektromagnetischen Kraft sind es Lichtteilchen (Photonen), bei der starken Kraft „Gluonen“, bei der schwachen Kraft sog. W- und Z-Teilchen. Die Vermittlerteilchen der Schwerkraft, die „Gravitonen“, konnten die Physiker bisher noch nicht experimentell nachweisen.
Säule 3: Die Masse Der dritte Zweig des Standardmodells liefert einen Erklärungsversuch für das Phänomen „Masse“. Warum Teilchen überhaupt schwer sind – das beschreibt der Higgs-Mechanismus, benannt nach dem Physiker Peter Higgs. Der britische Theoretiker hatte ein neues, allgegenwärtiges Feld postuliert. Mit diesem Feld schließen sich alle massebehafteten Teilchen kurz, um sich mit Masse „vollsaugen“ zu können. Gebilde wie das Photon zeigen sich völlig unbeeindruckt vom Higgs-Feld und bleiben masselos. Noch fehlen die Beweise für die Gültigkeit der Higgs-Theorie. Der LHC-Beschleuniger in Genf soll ab 2005 das „Higgs-Teilchen“ aufspüren. Die Entdeckung dieses Teilchens wäre der gesuchte Beweis für die Richtigkeit der Theorie.
Bislang hat sich das Standardmodell bestens bewährt. Die meisten Ergebnisse der Teilchenforschung passen sehr gut zu den Vorhersagen. Dennoch: Das Modell weist Lücken auf und vermag grundlegende Probleme nicht zu erklären: Warum zum Beispiel gibt es ausgerechnet sechs Quarks, weshalb existieren vier Naturkräfte? Warum sind die Atome neutral? Um Fragen wie diese zu beantworten, wünschen sich die Experten eine neue, umfassendere Theorie. Sie soll letztlich die Naturkräfte zu einer Art Urkraft vereinheitlichen und die Zahl der heute bekannten Elementarteilchen auf einige wenige Urteilchen reduzieren. fg
Sie halten die Welt zusammen: Die vier elementaren Kräfte werden durch Austauschteilchen übertragen, die für jede Kraftart spezifisch sind: die elektromagnetische Kraft durch die als Lichtteilchen bekannten Photonen; die zwischen den Quarks wirkende Kraft
durch die Gluonen; die schwache Kraft durch das neutrale Z-Teilchen sowie das negativ und das positiv geladene W-Teilchen; die Gravitation durch das masselose, allerdings noch nicht beobachtete Graviton. (Grafiken: i&s)
Photon
Gluon
W- und Z-Teilchen
Graviton
Träger der:
elektromagnetischen Kraft
starken Kraft
schwachen Kraft
Gravitationskraft
wirkt auf:
Quarks und geladene Leptonen
Quarks und Gluonen
Quarks und Leptonen
alle Teilchen
verantwortlich für:
Chemie, Elastizität und Magnetismus
Zusammenhalt der Hadronen und der Atomkerne
Radioaktivität
Zusammenhalt der Erde, der Sonne, des Planetensystems
–
+
39
Ein Universum voller Licht und ohne den Menschen – das wäre die Folge gewesen, hätten sich Materie und Antimaterie gleich nach dem Urknall gegenseitig vernichtet.
Der Webfehler
der Welt
40
In einer kleinen Asymmetrie des Universums sehen Physiker den Schlüssel zu unserer Existenz
Sie ist überall. Die ganze Welt besteht aus Materie. Allein der Körper eines Menschen enthält viele Milliarden Teilchen. Es gibt da nur ein Problem: Eigentlich dürfte all diese Materie überhaupt nicht existieren. Denn den Theorien der Kosmologen zufolge entstand beim Urknall zu jedem Materieteilchen auch das Gegenstück, ein Antimaterie-Teilchen. Solche Zwillinge haben genau entgegengesetzte Ladung und ähneln einander wie Bild und Spiegelbild. Berühren sie sich, zuckt ein Energieblitz auf und beide Partner zerstieben zu Strahlung. Dicht zusammengedrängt in der kosmischen Ursuppe hätten sich die Zwillingspartikel also eine heftige Vernichtungsschlacht liefern müssen, bis kein Rest mehr von ihnen übrig geblieben wäre. Überdauert hätte ein Universum voller Licht, ohne Sterne, Planeten und ohne den Menschen. Weil dieses Szenario natürlich nicht richtig sein kann, muss sich in den ersten Sekundenbruchteilen nach dem Urknall ein kleiner Materieüberschuss gebildet haben. Während die Antimaterie ausstarb, überlebte jenes überzählige Milliardstel der Materie das Inferno und verdichtete sich später zu den Gestirnen. Wie das Ungleichgewicht zwischen Materie und Antimaterie zu Stande kam, weiß bislang niemand genau. Die Physiker haben aber eine Vermutung, wo sie nach der Lösung des Rätsels suchen müssen. Bis Mitte des 20. Jahrhunderts herrschte im Reich der Physik vollkommene Symmetrie. Man nahm unter anderem an, dass sich fundamentale physikalische Prozesse nicht verändern, wenn sie spiegelverkehrt betrachtet werden und gleichzeitig alle Materie durch Antimaterie ersetzt wird – die CP-Symmetrie bleibt erhalten, wie Fachleute sagen. Zwei amerikanische Forscher, James Cronin und Val Fitch, entdeckten jedoch
1964, dass eine bestimmte Sorte kurzlebiger Teilchen, sogenannte K0-Mesonen, die Spielregeln der CP-Symmetrie missachten: Diese Teilchen und ihre Antibrüder zerfallen manchmal auf etwas unterschiedliche Weise; und zwar so, dass ein klein wenig mehr Materie als Antimaterie entsteht – für Kosmologen und Teilchenphysiker ein deutlicher Fingerzeig: Ähnliche Mechanismen könnten auch bei Zerfallsprozessen der ersten Partikel kurz nach dem Urknall für den notwendigen Materieüberschuss gesorgt haben.
Sprünge im Spiegel Drei Symmetrien spielen in der Elementarteilchenphysik eine besondere Rolle: Zeitumkehr, Spiegelsymmetrie und Symmetrie zwischen Teilchen und Antiteilchen. Invariant unter Zeitumkehr oder T-symmetrisch (T = Time, Zeit) nennt man einen physikalischen Prozess, bei dem der Beobachter nicht erkennen kann, ob der Film vorwärts oder rückwärts abläuft. Behalten die physikalischen Gesetze unter Raumspiegelung ihre Gültigkeit, heißt das im Fachjargon, die Parität oder P-Symmetrie bleibt erhalten. Ändert sich an den Gesetzmäßigkeiten nichts, wenn man alle Teilchen durch Antiteilchen ersetzt und somit sämtliche elektrische Ladungen umpolt, dann sprechen Experten von Ladungs- oder C-Symmetrie (C = Charge, Ladung).
Bis in die fünfziger Jahre glaubten die Physiker, alle fundamentalen Naturvorgänge seien P-symmetrisch. 1957 wies die chinesische Forscherin Chien-Shiung Wu jedoch nach, dass der radioaktive Zerfall von Kobalt die Parität verletzt. Wenig später entdeckte man, dass auch die Ladungssymmetrie „gebrochen“ ist. Wie die beiden amerikanischen Forscher Cronin und Fitch 1964 an K 0-Mesonen nachwiesen, verstoßen manche physikalischen Prozesse sogar gegen die Kombination von Ladungs- und Spiegelsymmetrie, gegen die CP-Symmetrie. Einzig die so genannte CPT-Symmetrie scheint bislang uneingeschränkt gültig zu sein. Sie verknüpft Raumspiegelung und Ladungsaustausch mit dem Umkehren des Zeitverlaufs. Ihr zufolge sollte ein gespiegeltes, elektrisch umgepoltes Universum denselben Naturgesetzen gehorchen wie das ursprüngliche, sofern in diesem neuen Kosmos auch die Zeit rückwärts abläuft...
41
Mesonen Mesonen bestehen aus zwei Grundbausteinen: einem Quark und einem Antiquark. Sie können über die so genannte starke Kernkraft mit anderen Teilchen in Kontakt treten. Mesonen sind jedoch nicht stabil – in der Regel zerfallen sie bereits nach wenigen Sekundenbruchteilen in andere Partikel, etwa in Elektronen, Neutrinos oder Lichtteilchen (Photonen). K0-Mesonen sind die leichtesten Teilchen mit einem Strange-Quark als Baustein. B-Mesonen enthalten anstelle des Strange-Quarks ein Bottom-Quark. Weil das Bottom-Quark ungefähr dreißig mal schwerer ist als das StrangeQuark, haben B-Mesonen eine vielfach größere Masse als K0-Mesonen.
So würde ein Proton die Aluminiumdrähte des HERA-B-Targets sehen. Die vier sehr dünnen Drähte können einzeln bewegt werden, um die Wechselwirkungsrate mit dem Protonenstrahl einzustellen. (Foto: Manfred Schulze-Alex)
42
Wissenschaftler am europäischen Teilchenbeschleuniger CERN in Genf und am Fermilab in Chicago fanden im vergangenen Jahr heraus, welche Kraft die Verletzung der CP-Symmetrie verursacht. Nach dem Standardmodell sollte sich nur eine der vier physikalischen Grundkräfte solche Extravaganzen erlauben: die so genannte schwache Wechselwirkung, die radioaktive Zerfallsprozesse in Gang bringt. Unklar war aber, ob sie allein ausreichen würde, um das eigentümliche Verhalten der K0-Mesonen zu bewirken. Oder ob zusätzlich eine fünfte, in der Theorie bisher nicht vorgesehene Kraft eingeführt werden müsste. „Unsere Experimente haben eindeutig gezeigt, dass die schwache Kraft für den Symmetriebruch genügt“, sagt der Mainzer Physikprofessor und CERN-Forscher Konrad Kleinknecht.
Doch auf die Physiker kommt noch weitere Arbeit zu. Denn wenn die K0-Mesonen gegen das Symmetrie-Gesetz verstoßen, dann müssen sich ihre schwereren Artgenossen, die B-Mesonen, genauso unorthodox verhalten. Die „CP-Verletzung“ sollte bei den massigen Teilchen sogar stärker ausgeprägt sein als bei K0-Mesonen. Gleich in mehreren Hochenergielabors auf der ganzen Welt nehmen Physiker deshalb zur Zeit B-Mesonen ins Visier. So suchen deutsche Forschungsgruppen an der Stanford-University in Kalifornien beim Experiment „BABAR“ nach der CPVerletzung bei B-Mesonen, die durch Kollisionen von Elektronen und Positronen entstanden sind. Am Deutschen Elektronen-Synchrotron (DESY) hat eine internationale Forschergruppe „HERA-B“ aufgebaut. Die Wissenschaftler lassen in
diesem Experiment Protonen aus dem vorhandenen Ringbeschleuniger „HERA“ auf feine Aluminiumdrähte prallen. Schlagen die nahezu lichtschnellen Wasserstoffkerne auf dem Draht auf, erzeugen sie eine ganze Kaskade von Partikeln, darunter häufig auch die gesuchten B-Mesonen. „CP-Verletzungen sind aber nur bei sehr seltenen Zerfallsvarianten der B-Mesonen zu erwarten“, sagt Thomas Lohse, Physiker an der Humboldt-Universität in Berlin und Mitglied des HERA-B-Teams. Bei Hundert Milliarden Zusammenstößen von Protonen mit dem Aluminiumdraht werde lediglich ein Mal der gewünschte Zerfallsprozess ausgelöst. Ein besonders leistungsfähiger Detektor bei DESY registriert die Spuren aller Trümmerteilchen, die sich beim Aufprall der Protonen auf dem Draht bilden. Um aus den unzähligen Signalen die richtigen Zerfallsprozesse herauszufiltern, läuft eine ganze Rechnerfarm Tag und Nacht auf Hochtouren. „Unser NachweisSystem muss eine Datenflut bewältigen,
die in etwa dem Informationsfluss im gesamten Netz der Telekom entspricht“, sagt Lohse. Ein leises Anzeichen dafür, dass die Teilchen tatsächlich die CP-Symmetrie brechen, gibt es bereits. Wissenschaftler am Fermilab in Chicago haben das Phänomen kürzlich an B-Mesonen beobachtet, die bei Kollisionen von Protonen mit ihren Antipartnern entstanden waren. „Die Messungen der Amerikaner sind aber zu ungenau, um sichere Schlussfolgerungen zu erlauben“, meint Dietrich Wegener, Leiter der Dortmunder HERA-B-Gruppe. Noch sei daher „völlig offen, welche Geheimnisse die B-Mesonen in sich bergen“. Vielleicht tritt die CP-Verletzung nicht in der vorhergesagten Stärke auf. Vielleicht enthüllen die Experimente auch überraschende Zusatzeffekte, die von keiner Theorie im Standardmodell beschrieben werden. Dann geriete das Weltbild der Physiker heftig ins Wanken. Und sie müssten nach neuen, bislang unbekannten Kräften oder Teilchen suchen, um die Vorherrschaft der Materie im Universum zu erklären – und das Rätsel unserer Existenz zu lösen. ad
Kranz aus 12 doppelten Szintillationszählern (orange-weiß), die jeweils in einen PhotoelektronenVervielfacher münden (schwarz). Er ist Teil des Detektors von HERA B, der die Trümmerteilchen registriert, die sich nach dem Aufprall der Protonen auf dem Draht bilden. Das Bild zeigt den Detektorkranz in einem Testaufbau. (Foto: Bilderberg, Peter Ginter)
43
Geisterteilchen
in der Waagschale
Neutrinos, die bei der Kernfusion im Innern der Sonne entstehen (hier ein Bild aufgenommen vom Sonnenobservatorium SOHO) durchdringen 1200 Meter Fels, bis sie im Untergrundlabor der Physiker ankommen. Die beiden Tanks des Experiments mit dem Namen „GALLEX“ sind in dem Gebäude im Vordergrund untergebracht. (Fotos: ESA, MPI für Kernphysik)
44
Mit ausgefeilten Experimenten versuchen Physiker, die Masse der Neutrinos zu bestimmen. Von ihr könnte das Schicksal des Universums abhängen.
D
em Physiker Wolfgang Pauli waren sie von Anfang an nicht recht geheuer. Als er 1930 erstmals „Neutrinos“ in seine Theorien einführte, um damit einige Ungereimtheiten beim Kernzerfall zu erklären, schrieb er zerknirscht an seine Kollegen: „Ich habe etwas Schreckliches getan. Ich habe ein Teilchen vorausgesagt, das sich nicht nachweisen lässt.“ Zwar sollten sich die Bedenken des Nobelpreisträgers als unbegründet erweisen: Obwohl Neutrinos fast nie mit ihrer Umgebung in Kontakt treten und deshalb zumeist spurlos durch unsere Erde hindurchsausen, wurden sie inzwischen längst aufgespürt. Kopfzerbrechen bereitet Physikern derzeit vor allem die Frage, ob Neutrinos eine Masse haben. „Die Suche nach der Neutrino-Masse ist für Teilchenforscher so etwas wie die Jagd nach dem Heiligen Gral“, sagt Till Kirsten vom Max-Planck-Institut für Kernphysik in Heidelberg. „Wenn sich herausstellt, dass die Partikel eine Masse besitzen, könnte das weitreichende Folgen haben; nicht nur für das Weltbild der Physiker, auch für das Schicksal des Universums.“ Nach Vorstellung der Kosmologen dehnt sich das All seit der gewaltigen Explosion des Urknalls fortwährend aus. Ob diese Expansion bis in alle Ewigkeit andauert oder ob das Universum in einigen Milliarden Jahren in sich zusammenfällt wie ein Ballon, aus dem man die Luft herauslässt, hängt von der Gesamtmasse des Kosmos ab. Übersteigt sie einen bestimmten kritischen Wert, reicht ihre Schwerkraft aus, um das All irgendwann zusammenzuziehen. Der Urknalltheorie zufolge schwirren durch jeden Kubikzentimeter des Weltraums ein paar hundert Neutrinos. Wenn die Partikel eine Masse hätten, könnten sie einen erheblichen Teil aller kosmischen Materie ausmachen und so den Werdegang des Universums entscheidend beeinflussen.
Allerdings ist für die Neutrinos in der Teilchenphysik eine solche Rolle als Schicksalslenker bisher nicht vorgesehen. Das Standardmodell geht nämlich davon aus, dass sie masselos sind. Den ersten Hinweis darauf, dass die Geisterteilchen vielleicht doch ein bisschen Gewicht auf die Waage bringen, bekamen Teilchenforscher von Neutrinos, die bei Kernverschmelzungen im Inneren der Sonne entstehen. Eines der größten Nachweisgeräte für die solaren Partikel steht im italienischen Untergrundlabor „Gran Sasso“. Mehr als tausend Meter tief unter den Abruzzen, gut abgeschirmt gegen störende kosmische Strahlung, hat ein internationales Wissenschaftlerteam zwei haushohe, turmförmige Kunststofftanks aufgebaut. Sie enthalten rund hundert Tonnen flüssiges Galliumchlorid. Auf jeden Quadratzentimeter der
Panorama des Gran Sasso mit einem Außengebäude des italienischen Instituts für Kern- und Teilchenphysik. Zwei Kilometer von hier beginnt der Tunnel, der in das unterirdisch gelegene Physiklabor führt – 1200 Meter tief unter den Abruzzen. Die Felsmassen sollen das Experiment vor störender kosmischer Strahlung schützen. (Foto: MPI für Kernphysik)
45
Tankoberfläche prasseln pro Sekunde etwa 60 Milliarden Sonnen-Neutrinos. Weil sich die scheuen Partikel in der Galliumlösung ausschließlich über Kernumwandlungen bemerkbar machen, registriert der Detektor trotz des dichten Teilchenregens höchstens ein Neutrino am Tag: Es prallt mit dem Kern eines GalliumAtoms zusammen und löst dabei eine nachweisbare Reaktion aus. „Aus diesen vereinzelten Treffern können wir trotzdem auf die Gesamtzahl der ankommenden Neutrinos schließen“, sagt Till Kirsten, dessen Arbeitsgruppe den Detektor mitentwickelt hat. Die Forscher kennen nämlich die Wahrscheinlichkeit für einen Kerntreffer des Neutrinos sehr genau – sie müssen also nur lange genug messen, bis die Statistik verlässlich wird. Seit rund zehn Jahren überwacht die unterirdische „Neutrino-Kamera“ den Teilchenfluss. Das Ergebnis ihrer Beobachtungen: Es treffen wesentlich weniger Sonnen-Neutrinos auf die Erde, als nach Modellrechnungen der Astrophysiker erwartet werden. Die Teilchenphysiker vertrauen aber den Berechnungen der Astronomen. Sie schlagen deshalb für das Problem eine Erklärung vor, die auf der Annahme beruht, dass Neutrinos mitunter spontan ihren Typ ändern. Laut Standardmodell gibt es nämlich nicht nur eine, sondern drei verschiedene Neutrino-Arten. Der Detektor im Gran-Sasso-Labor spricht aber bloß auf eine der drei Sorten an. Wenn sich die im Gallium-Tank eigentlich erkennbaren Neutrinos nun auf ihrem Weg von der Sonne zur Erde in eine der beiden anderen Sorten umwandeln, können sie nicht registriert werden. Solche „Oszillationen“, wie die merkwürdigen Verwandlungskünste in der Fachsprache
46
heißen, sind nach den Regeln der Quantenmechanik aber nur unter einer Bedingung erlaubt: Die Partikel müssen eine Masse besitzen! An mehreren Teilchenbeschleunigern auf der ganzen Welt laufen zur Zeit Experimente mit künstlich erzeugten Neutrinos. „Momentan sieht es so aus, als ob Neutrinos wirklich eine Masse haben“, sagt Guido Drexlin vom Forschungszentrum Karlsruhe. Er arbeitet bei einem Neutrino-Versuch an der britischen Beschleunigeranlage ISIS mit. Gleichzeitig schätzen zwei Forschergruppen in Mainz und Heidelberg schon die mögliche Masse der Neutrinos ab. Das Ergebnis der Wissenschaftler: Auch wenn die Neutrinos tatsächlich eine Masse haben, beträgt sie höchstens Mil-lionstel-Bruchteile der Masse des Elektrons. Und schon das Elektronengewicht beträgt lediglich den Millionsten Teil eines Trilliardstel Gramms. Die Neutrinos wären also kaum schwerer als Nichts. Wenn sich die Oszillations-Experimente in nächster Zeit bestätigen und Neutrinos tatsächlich eine Masse besitzen, müssen die Physiker ihr Standardmodell ergänzen, möglicherweise sogar durch eine neue, weitreichendere Theorie ersetzen. Sicher ist auch, dass die leichtgewichtigen Partikel dann einen Teil jenes unsichtbaren kosmischen Klebstoffs ausmachen, der mit seiner Schwerkraft Struktur und Bewegung aller Galaxien im Weltall beeinflusst. Ob das Universum in ferner Zukunft mit heftigem Knall in sich zusammenstürzen wird oder ob es ewig expandiert, steht jedoch weiterhin in den Sternen – irgendwo zwischen den unzähligen geisterhaften Neutrinos. ad
Höchsttemperaturen von minus dreißig Grad, schneidend kalter Wind und, so weit das Auge reicht, nichts als Eis und Himmel und Schnee – auch in dieser unwirtlichen Ecke der Welt ist das „Jahr der Physik“ vor Ort. Die vier deutschen Wissenschaftler des AMANDA-Projekts halten die Flagge (ganz rechts Christian Spiering). (Fotos: Torsten Schmidt, DESY Zeuthen)
Kosmische Spuren im ewigen Eis A
uch am Südpol wird den Geisterteilchen nachgespürt. „AMANDA“, wie die Wissenschaftler ihr Experiment nennen, soll Neutrinos detektieren, die aus den entlegensten Winkeln des Alls auf die Erde niederprasseln. Lichtstrahlen oder Elektronen bleiben auf ihrem Weg zur Erde leicht in Materiewolken stecken. Neutrinos reagieren dagegen nur extrem selten mit ihrer Umgebung und können so Kunde geben aus Regionen, von denen kaum ein anderes Signal bis zu unserem Planeten vordringt. Etwa von der gegenüberliegenden Seite unserer Milchstraße oder von den Zentren fremder Galaxien. „AMANDA“ ist ein Detektor-Feld aus vielen lichtempfindlichen Glaskugeln. Mit heißem Wasser bohren die Forscher für jede Kugel eine zweitausend Meter lange, senkrechte Röhre ins Eis. Darin lassen sie den medizinball-großen Detektor vorsichtig in die Tiefe gleiten. Wenige Stunden später schließt sich das Eis wieder. Die Kugel friert ein, bleibt aber über ein Kabel mit dem Messrechner verbunden. „Der dicke Eispanzer schirmt Stör-
signale von oben, aus der kosmischen Strahlung, weitgehend ab“, begründet Christian Spiering vom DESY Zeuthen die Standortwahl für das Experiment. „Das kristallklare Eis erlaubt uns sogar, die Herkunftsrichtung der Partikel zu bestimmen.“ Wenn ein Neutrino auf seinem Weg durch das Eis mit einem Atomkern zusammenstößt, verwandelt es sich nämlich mitunter in ein anderes Teilchen und zieht einen schwachen bläulichen Lichtkegel hinter sich her. Dieses Signal wird im durchsichtigen Eis von mehreren Detektorkugeln wahrgenommen. Ähnlich wie man aus der Bugwelle eines Schiffs auf dessen Fahrtrichtung schließen kann, lässt sich aus dem Verlauf des Lichtkegels der Einflugwinkel der Neutrinos rekonstruieren. Bisher haben die Forscher rund 700 Sensorkugeln im arktischen Boden versenkt. Bis zum Jahr 2008 sollen mehr als viertausend Kugeln hinzukommen, verteilt über eine quadratkilometergroße Fläche. ad
47
Supermikroskope für Protonen Neues aus dem Innenleben der Kernbausteine Das Proton Die gewohnte, uns umgebende Materie besteht aus Atomen; jedes Atom besitzt einen Kern und eine Hülle aus Elektronen. Atomkerne setzen sich aus zwei Sorten von Bausteinen zusammen – ungeladenen Neutronen sowie elektrisch positiven Protonen.
HERA Die Hadron-Elektron-Ringanlage HERA ist ein unterirdischer Ringbeschleuniger mit einem Umfang von 6,3 Kilometern. Er bringt Elektronen und Protonen praktisch auf Lichtgeschwindigkeit und lässt beide Teilchensorten frontal aufeinanderprallen. Die Energie der Elektronen beträgt knapp 28, die der Protonen 920 Milliarden Elektronenvolt. Die beiden haushohen Detektoren H1 und Zeus analysieren die „Stoßwinkel“ der Geschosse sowie die bei der Kollision entstehenden Reaktionsprodukte. Daraus lässt
48
sich mit einzigartiger Genauigkeit das Innenleben des Protons rekonstruieren. An den insgesamt vier HERA-Detektoren des DESY in Hamburg arbeiten rund 1200 Forscher aus 23 Ländern mit. (Foto: Manfred Schulze-Alex)
Ein Blick in den geöffneten H1-Detektor von HERA vermittelt einen Eindruck von der Komplexität der heute in der Teilchenphysik eingesetzten Nachweisgeräte. (Foto: Bilderberg, Peter Ginter)
E
inst galt es als letzter, elementarer Baustein der Natur: Gemeinsam mit dem Neutron bildet das Proton den Bausatz für sämtliche bekannten Atomkerne. Doch schon in den sechziger Jahren wurde klar: Das Proton ist nicht fundamental, sondern setzt sich aus noch kleineren Partikeln zusammen – den Quarks. Wie das „Innenleben“ des Protons im Detail beschaffen ist, versuchen Physiker mit unterschiedlichen Mitteln zu enträtseln. Ein weltweit einzigartiges „Protonenmikroskop“ ist der Teilchenbeschleuniger HERA am DESY in Hamburg. Als Sonde dienen hochenergetische, praktisch lichtschnelle Elektronen; sie prallen mit ungeheurer Wucht auf ebenfalls lichtschnelle Protonen. Damit lässt sich der Kernbaustein bis auf ein Tausendstel seines Radius genau untersuchen. Eines der Resultate: Aus Sicht von HERA sieht das Proton wesentlich komplizierter aus, als es ältere Messungen hatten vermuten lassen. Insbesondere fanden die Forscher bei den hochenergetischen Kollisionen weitaus mehr Gluonen (Klebeteilchen) als erwartet.
Zudem beobachten sie so genannte Fluktuationen: Bei den Zusammenstößen zwischen Elektron und Proton bilden sich für winzige Augenblicke Paare aus Quarks und Antiquarks, die sich flugs wieder vernichten. In den Augen von HERA bildet das Proton also ein komplexes und höchst dynamisches Gebilde, in dem es vor Quarks, Antiquarks und Gluonen nur so wimmelt. Ein weiteres Ergebnis: Vor Inbetriebnahme des Hamburger Großbeschleunigers war es fraglich, ob das Standardmodell und speziell die Theorie der Quantenchromodynamik die Geschehnisse überhaupt zutreffend beschreiben können. Die Experimente jedoch bewiesen, dass das Standardmodell selbst für die hohen Kollisionsenergien von HERA „stimmt“ – ein Resultat, mit dem nicht jeder gerechnet hatte.
Quantenchromodynamik und Confinement Quantenchromodynamik heißt diejenige Theorie, die für die starke Kraft „zuständig“ ist. Sie beschreibt das Wechselspiel der Quarks, der elementaren Bausteine der Materie. Relativ wenig wissen die Forscher bisher über das Phänomen „Confinement“: Quarks existieren niemals isoliert, sondern stets in Zweier- oder Dreiergrüppchen. Bei Großbeschleunigern wie HERA allerdings ist das Confinement nicht wirksam. Bei den hochenergetischen Kollisionen verhalten die Quarks sich so, als wären sie nicht stark aneinander gebunden.
Während HERA das Proton quasi als Teleobjektiv untersucht, beobachtet es ein anderer Beschleuniger aus der WeitwinkelPerspektive. In Mainz feuert MAMI-B ebenfalls Elektronen auf Protonen, aber mit deutlich geringerer Energie als HERA. Dadurch betrachtet MAMI nicht unmittelbar einzelne Quarks, sondern den Kernbaustein als Ganzes. Dabei erfasst er Größen wie Ausdehnung, Ladungsverteilung, magnetisches Moment und Elastizität (Steifheit). Dieselben Größen messen die Forscher auch am Neutron, dem zweiten, elektrisch ungeladenen Kernbaustein. Anhand der Messdaten können die Physiker auf die Kräfte rückschließen, die zwischen den Quarks herrschen. Anders als bei den hohen Energien an HERA erscheinen die Quarks bei den MAMI-Experimenten als fest miteinander verbundene Partikel – sie unterliegen dem Confinement. Für dieses Phänomen haben die Physiker noch keine befriedigende Erklärung; unklar ist insbesondere, ob es von der Quantenchromodynamik korrekt beschrieben wird. Experimente wie die an MAMI versuchen, Licht in dieses „theoretische Dunkel“ zu bringen. fg
MAMI-B Das Mainzer Mikrotron schießt Elektronen mit einer Energie von 850 Millionen Elektronenvolt auf Flüssigwasserstoff. Das Besondere: MAMI-B erzeugt einen hochintensiven, kontinuierlichen Elektronenstrahl, der um das Zehnfache besser gebündelt ist als Laserlicht. Diese Methode erlaubt es, äußerst viele Kollisionen zwischen den Geschossen und der Zielscheibe zu erzeugen. Mit MAMI-C nehmen die Forscher bald eine Ausbaustufe ihres Beschleunigers in Betrieb, die es auf eine Energie von 1,5 Gigaelektronenvolt bringen wird. Im Bild sieht man die Spektrometer-Halle von MAMI mit den bis zu 20 Meter hohen Detektoren. (Foto: Universität Mainz, Robertino Nikolic)
49
Das Rätsel der kosmischen Ursuppe Physiker am CERN entdecken das Quark-Gluon-Plasma
Bei der frontalen Kollision von zwei Bleikernen entsteht für Sekundenbruchteile das QuarkGluon-Plasma. Die Protonen und Neutronen der Kerne „platzen auf“ und die freien Quarks und Gluonen (bunte Kügelchen) verbinden sich zur „kosmischen Ursuppe“. (Grafik: CERN)
Quark-Gluon-Plasma Kurz nach dem Urknall vor rund 15 Milliarden Jahren befand sich der Kosmos im Ausnahmezustand: Er hatte die Größe des Sonnensystems und war gefüllt mit subatomaren Elementarteilchen, mit Quarks und Gluonen. Diese als Quark-Gluon-Plasma bezeichnete kosmische Ursuppe war millionenfach heißer als das Sonneninnere und 20 Mal dichter als ein
50
E
s ist der Materiezustand, in dem sich das Universum unmittelbar nach seiner Geburt vor etwa 15 Milliarden Jahren befunden hatte: Das Quark-Gluon-Plasma besteht aus einem unvorstellbar heißen Gemisch aus archaischen Elementarteilchen – freien Quarks sowie ihren „Klebeteilchen“, den Gluonen. Nach jahrelangen Experimenten ist es Physikern am CERN gelungen, diese „kosmische Ursuppe“ künstlich zu erzeugen. Die Entdeckung wirft nicht nur neues Licht auf die „Quantenchromodynamik“ – die Theorie, die das Wechselspiel der Quarks beschreibt. Sie könnte auch ein altes kosmologisches Rätsel lösen: Warum konnten sich im jungen Kosmos überhaupt Sterne und Galaxien bilden?
gewöhnlicher Atomkern. Die Physiker gehen davon aus, dass der Kosmos bereits einige Milliardstel Sekunden nach dem Urknall von dem Plasma dominiert wurde. Nach etwa zehn Mikrosekunden fanden sich die freien Quarks dann zu größeren Partikeln zusammen, insbesondere den Kernbausteinen Proton und Neutron.
Das Prinzip der Versuche: Ein Teilchenbeschleuniger bringt schwere Bleikerne nahezu auf Lichtgeschwindigkeit, um sie dann mit voller Wucht auf eine ebenfalls bleierne Zielscheibe zu schießen. Dabei verschmelzen zwei Bleikerne miteinander. Es entsteht eine Art Feuerball, der kurzzeitig heiß genug ist, um zum QuarkGluon-Plasma zu werden. Die Forscher können den „Film“ bis auf wenige Milliardstel Sekunden nach dem Urknall zurückspulen. Das Schwierige bei diesen Experimenten: Die Ursuppe existiert jeweils nur für einen Wimpernschlag, um sich dann wieder in normale Materie umzuwandeln. Dabei verrät sich das Plasma in den Detektoren der Forscher nicht etwa durch ein eindeutiges, zweifelsfreies Messsignal.
Indizienbeweis Bei ihrer Indizienkette konnten die CERN-Physiker unter anderem zeigen, dass ihr Beschleuniger im Prinzip genügend Kollisionsenergie liefert, um das Plasma zu erzeugen. Außerdem blieb ein bestimmtes exotisches Teilchen, was bei Kollisionen dieser Art eigentlich immer entsteht, spurlos verschwunden: Es ist von der Ursuppe „verschluckt“ worden. Schließlich beobachteten die Physiker genau die Teilchen, die sich beim Zerfall des Plasmas bilden sollten. Vorkommen und Verteilung dieser Folgeprodukte lassen sich am einfachsten durch die Existenz eines Quark-Gluon-Plasmas erklären.
CERN steht für „Europäisches Laboratorium für Teilchenforschung“. Gelegen an der schweizerisch-französischen Grenze, im Genfer Vorort Meyrin, ist es die größte Wissenschaftseinrichtung Europas. Knapp 3000 Menschen sind am CERN angestellt, 6500 Wissenschaftler kommen regelmäßig als Gastforscher nach Genf. Die deut-
schen Forscher zum Thema QuarkGluon-Plasma stammen von den Universitäten Frankfurt, Heidelberg, Marburg und Münster, von der GSI Darmstadt sowie vom MPI für Physik in München. Der große Beschleunigerring des CERN hat einen Umfang von 27 km.
Die Physiker können den extremen Materiezustand nicht „vorführen“, sondern müssen einen Indizienbeweis führen. Seit 1994 haben Forscher aus mehr als 20 Ländern an sieben verschiedenen Detektoren nach den Spuren der kosmischen Ursuppe gesucht – und haben eine ganze Kette von Indizien gesammelt, die auf die Erzeugung des Plasmas schließen lassen. Dennoch können die Experten nicht ausschließen, dass sich ihre Messdaten auch anders erklären lassen als durch die Existenz der kosmischen Ursuppe. Letzte Gewissheit sollen deshalb zwei neue Beschleuniger bringen. In diesem Jahr wird der „Relativistic Heavy Ion Collider“ (RHIC) in der Nähe von New York seinen Betrieb aufnehmen und Bleikerne mit der zehnfachen Energie aufeinanderschießen, als es in Genf möglich ist. Noch höhere Kollisionsenergien wird Ende des Jahrzehnts der „Large Hadron Collider“ (LHC) in Genf erzeugen – er soll Protonen und auch schwere Atomkerne beschleunigen. Mit beiden Anlagen lässt sich das Plasma einfacher erzeugen und detaillierter untersuchen als bislang. Doch auch die „alten“ Experimente gehen weiter. Dabei wollen die Forscher herausfinden, was geschieht, wenn sich das Plasma in die gewöhnliche, uns umgebende Materie umwandelt. Damit sollen diejenigen Prozesse aufgeklärt werden, die sich unmittelbar nach dem „Big Bang“ ereigneten, als sich das junge Universum immer weiter ausdehnte und abkühlte.
Spurendriftkammer zur Detektion von Teilchen, wie sie bei Schwerionenkollisionen (z. B. von Bleikernen) entstehen. (Fotos: CERN)
51
Reise zum Urknall
15.000 Millionen Jahre
1.000 Millionen Jahre
300.000 Jahre 3 Minuten 1 Sekunde 10-10 Sekunden 10-34 Sekunden 10-43 Sekunden
1032 K 1027 K 1015 K 1010 K 109 K Strahlung
Positron (Anti-Elektron)
Teilchen
Proton
Schwere Teilchen,
Neutron
die die schwache
Meson
Kraft vermitteln
Wasserstoff
Quark
Deuterium
Anti-Quark
Helium
Elektron
Lithium
6000 K
18 K
3K 0 K ≈ -273 °c (absoluter Nullpunkt)
Das junge Universum Wie konnten sich im jungen Kosmos überhaupt Sterne und Galaxien bilden? Fachleute vermuten, dass die Antwort in dem Augenblick steckt, als das QuarkGluon-Plasma zehn Mikrosekunden nach dem Urknall zu Protonen, Neutronen und ähnlichen Teilchen „kondensierte“. Ebenso wie bei der Kondensation von Dampf zu Wasser sprechen die Fachleute von einem Phasenübergang. Der entscheidende Punkt: Bei diesem Phasenübergang könnte es bestimmte Unregelmäßigkeiten gegeben haben, wie man sie auch beim Siedeverzug im Wassertopf
52
beobachtet. Die Folge: An einigen Stellen im jungen Kosmos könnte das Plasma bereits kondensiert sein, an anderen Stellen noch nicht. Diese Schwankungen haben womöglich als Keimzellen für die ersten Sterne gedient, zumindest aber die Bildung der ersten, leichten Atomkerne mitbestimmt. Ohne diese Dichteschwankungen hätten sich die Elementarteilchen des frühen Universums völlig gleichmäßig über den Raum verteilt und wären nicht zu Klümpchen zusammengetroffen. (Grafik: CERN) fg
D
ie Chemieköche des Mittelalters mühten sich vergeblich. Trotz aller Anstrengungen wollte es ihnen nicht gelingen, aus Blei Gold zu machen. Wesentlich mehr Erfolg mit der Bleiveredelung haben dagegen heute die Kernphysiker. Zwar können auch sie das giftige Schwermetall nicht in glänzende Nuggets verwandeln. Doch sind sie immerhin in der Lage, neue chemische Elemente daraus zu zaubern. „Superschwere Atome“, wie die Neuschöpfungen in der Fachsprache heißen, enthalten außer einer großen Zahl elektrisch ungeladener Neutronen in ihrem Kern mehr als hundert Protonen. Weil sich deren positive Ladungen abstoßen, zerfallen die Atome sehr leicht und kommen in der Natur nicht vor. „Solch ein Element im Labor zu erzeugen ist für Physiker spannender als jede Goldsuche. Denn sein Verhalten verrät uns viel über die Struktur von Atomkernen“, sagt Sigurd Hofmann von der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt. Neben dem Lawrence Berkeley National Laboratory in Kalifornien und dem Institut für kernphysikalische Forschung in Dubna bei Moskau gilt die GSI als eine der erfolgreichsten Elementschmieden der Welt. In den vergangenen zwanzig Jahren gelang es den Wissenschaftlern an der GSI, sechs neue Atomsorten herzustellen, darunter das Element 112, das bis vor Kurzem den Rekord als schwerster Beitrag zum Periodensystem hielt.
Targetrad (großes Bild) und Detektor bilden Anfangsund Endpunkt einer modernen Alchemistenküche. (Fotos: GSI)
Suche nach der Insel
der d er Stabilität
Kernphysiker erschaffen im Labor neue Elemente
553 3
elektrische Ablenkplatten elektrische Ablenkplatten
Targetrad
Detektor Linsen
Magnete
Fusionsprodukte
Strahlfänger Linsen Ionenstrahl
Was wie moderne Alchemie anmutet, stellt hohe Anforderungen an die Experimentierkunst der Physiker. Mit einem Beschleuniger schießen die Forscher relativ leichte Atomkerne auf eine dünne, zumeist aus Blei bestehende Folie. Fast alle Geschosse passieren die Metallschicht ungestört, lediglich ein paar Wenige stoßen frontal mit einem Bleikern zusammen. In diesem Fall verbinden sich beide Kerne zu einem größeren und bilden günstigstenfalls ein neues Element. Eine solche Fusion klappt jedoch nur, wenn die Geschwindigkeit der einfliegenden Teilchen genau austariert ist. Sind die Geschosse zu langsam, kommen sie nicht dicht genug an die Bleikerne heran. Haben sie zu viel Schwung, platzt der Kernverbund sofort auseinander. „Die
Atomkerne zum Verschmelzen zu bringen, ist ähnlich knifflig wie eine Kugel so den Berg hinauf zu rollen, dass sie gerade auf der im Nebel liegenden Spitze zum Stehen kommt“, erläutert Hofmann. „Bei einem einwöchigen Bombardement der Bleifolie mit Milliarden Teilchen pro Sekunde erhalten wir im Schnitt höchstens einen der gesuchten Kerne.“ Und den bekommen die Wissenschaftler noch nicht einmal direkt zu Gesicht. Schon wenige Augenblicke nach seiner Geburt zerbricht der superschwere Kandidat nämlich in leichtere Trümmer. Sie werden von einem empfindlichen Detektor registriert. Wie aus einer Indizienkette müssen die Wissenschaftler dann aus der Zerfallskaskade auf das Entstehen des neuen Elements rückschließen.
Experimentelle Anordnung zur Herstellung überschwerer Elemente. Der in einem Linearbeschleuniger erzeugte Schwerionenstrahl trifft auf das Targetrad mit dünnen Folien aus Blei oder Wismut. Zur Reduzierung der Wärmebelastung rotiert es mit hoher Geschwindigkeit. Nahezu alle Ionen durchqueren die Target-Folie ohne wesentlichen Energieverlust; nur selten verschmilzt ein Projektil- mit einem Target-Kern. Der neu gebildete Verbund-Kern fliegt in dieselbe Richtung, aber etwas langsamer als die anderen Ionen und Reaktionsprodukte. Er durchquert die zwei elektrischen und vier magnetischen Ablenkfilter des insgesamt 11 Meter langen Geschwindigkeitsfilters. Während der Ionenstrahl auf einen Strahlfänger geleitet wird, gelangen die Verbundkerne auf einen Silizium-Detektor, der Auftreffort und anschließenden Zerfall der Kerne registriert. Die magnetischen Linsen in der Anordnung dienen zur Bündelung des Strahls. (Grafik: i&s)
Ausschnitt aus der Nuklidkarte. In der dritten Dimenion ist zusätzlich die Schalenenergie der Kerne aufgetragen. Ein besonders niedriger Wert bedeutet, dass der Kern sehr stabil ist. Die größte Senke findet sich beim Blei ( 208Pb mit der Protonenzahl Z = 82). Dieser Kern hat eine vollständig gefüllte Protonenund Neutronenschale und weist daher eine extrem hohe Stabilität auf. Der Ort des letzten an der GSI hergestellten Elements mit der Protonenzahl 112 ist mit einer Fahne markiert. Die Reaktionsgleichung zeigt: ein Zink- und ein Bleikern verschmelzen unter „Abdampfung“ eines Neutrons zum Element 112. Die kleinen Zahlen links oben geben die Summe aus Protonen und Neutronen an. (Grafik: GSI)
54
Obgleich ihre Kunstprodukte bisher stets nur Millisekunden überlebt haben, treiben Physiker die Elementsynthese mit großem Einsatz voran. Ihren Vorstellungen vom Atomkern zufolge könnten nämlich einige der künftig herstellbaren Schwergewichte recht beständig sein; vielleicht sogar so beständig, dass sich aus diesen Elementen neue Werkstoffe für Materialforschung und Industrie oder zumindest interessantes Experimentiermaterial für Chemiker gewinnen ließe. Denn nach theoretischen Modellen ordnen sich Neutronen und Protonen nicht beliebig im Kern an. Ähnlich wie die Elektronen in der Atomhülle sitzen sie vielmehr in bestimmten Schalen. Sind die Schalen ganz mit Protonen oder Neutronen gefüllt, gilt der Kern als besonders stabil, die zugehörige Zahl seiner Bausteine heißt „magisch“. Die Forscher versuchen nun, immer schwerere Kerne zu erzeugen, bis sie in einen solchen magischen Bereich vordringen. Indem sie sich langsam durch den „Sumpf“ der kurzlebigen Elemente hindurchkämpfen, hoffen sie irgendwann auf eine „Insel der Stabilität“ zu stoßen.
Wie weit dieses Eiland entfernt liegt, ist bislang allerdings unklar. Der Theorie zufolge besitzt schon das Element 114 eine vollständig gefüllte Protonen-Schale. Als russische Forscher die Atomsorte im vergangenen Jahr erstmals erzeugten, haftete den Kernen aber wenig Magisches an: Auch sie zerfielen bereits nach wenigen Sekunden. Noch kürzere Zeit überdauerten die drei Kerne des Elements 118, deren Produktion unlängst aus Berkeley gemeldet wurde. Dennoch fühlen sich viele Kernphysiker von den jüngsten Experimenten angespornt. Die Versuchsreihe in Berkeley hat nämlich gezeigt, dass die Bildungswahrscheinlichkeit für das Element 118 ungewöhnlich hoch ist. Das lässt auf gute Erfolgschancen für die Herstellung weiterer schwerer Kerne schließen. Rechnungen sagen die nächsten Stabilitätszentren in der Nähe der Elemente 120 und 126 voraus.
Ob die Forscher dort tatsächlich Atomkerne finden, die länger als ein paar flüchtige Sekunden existieren, ist offen. Ein kleiner Trost bleibt den Teilchenschmieden jedoch in jedem Fall: Wenn sie ein neues superschweres Element erzeugen, dürfen sie einen Namen für ihre Schöpfung vorschlagen. So heißt das GSI-Produkt mit der Ordnungszahl „108“ inzwischen „Hassium“ nach dem Bundesland Hessen, in dem das Wissenschaftszentrum seinen Sitz hat. „Für die Physik spielt die Namensgebung natürlich überhaupt keine Rolle“, sagt Hofmann. „Aber die Entdecker erfüllt das Privileg durchaus ein bisschen mit Stolz“ – ganz gleich, wie kurz das Leben ihres Täuflings ist. ad
Nuklidkarte. Alle bekannten, knapp 2500 Atomkerne sind hier nach der Zahl ihrer Protonen (Z) und der Zahl der Neutronen (N) geordnet. Jede waagerechte Zeile enthält alle Isotope eines Elements. Nur die 263 schwarz markierten Kerne, die in der Darstellung den „Kamm“ des Gebirgszugs bilden, sind in der Natur stabil vorhanden, alle anderen wurden durch Kernreaktionen erzeugt. Waagerechte
und senkrechte Doppellinien markieren abgeschlossene Protonen- bzw. Neutronenschalen. Die in diesen Bereichen angesiedelten Kerne sind besonders stabil. An die Spitze des Festlandes oben rechts schließen sich einzelne „Inseln“ an, die vom Meer der nicht herstellbaren Elemente umgeben sind. Das Element 114 sollte nach der Theorie eine längere Lebensdauer besitzen als die anderen Inseln, da es eine vollständig besetzte Protonenschale hat. Als es im vergangenen Jahr von russischen Wissenschaftlern erzeugt wurde, zerfiel es allerdings schon nach wenigen Sekunden. (Grafik: GSI)
55
Die Überreste der Supernova aus dem Jahr 1054 bilden heute den 6000 Lichtjahre entfernten Krebsnebel. (Foto: ESO)
Rezepte
aus dem Kochbuch
der Sterne 56
Kernphysiker vollziehen im Labor nach, wie die schweren Elemente im Kosmos zusammengebraut werden
Am vierten Juli 1054 meldeten Chinas Astrologen ihrem Kaiser ein ungewöhnliches Ereignis: In der Nacht war plötzlich ein neuer, auffällig hell leuchtender Stern am Firmament aufgeflammt. Hoch erfreut ließ der Kaiser im ganzen Land Feste zu Ehren des Neuankömmlings ausrichten. Denn seine Astrologen sahen in dem „Sternengast“, wie die Himmelserscheinung in den Annalen der Sung Dynastie genannt wird, einen „Lebensspender“, der „reiche Ernten für die kommenden Jahre“ versprach. Ob Chinas Bauern in der Folgezeit tatsächlich bessere Erträge erzielten, ist nicht überliefert. Man weiß heute aber, dass die kaiserlichen Sterndeuter mit ihrer Interpretation des Himmelsphänomens als „Lebensspender“ gar nicht so unrecht hatten. Was sie beobachtet hatten, war nämlich die gewaltige Explosion einer Supernova.
Beim dramatischen Ende eines massereichen Sterns, einer sogenannten Supernova, entsteht ein großer Teil jener Atome, ohne die sich Pflanzen und Tiere auf der Erde nie entwickelt hätten. „Alle schweren Elemente auf unserem Planeten wurden in den Sternküchen des Universums zusammengebraut“, sagt KarlLudwig Kratz, Kernchemiker an der Universität Mainz. „Wollen wir verstehen, woher Kohlenstoff, Jod oder Gold stammen, müssen wir uns die Reaktionen anschauen, die im Inneren der Sterne ablaufen.“ Weil es schwierig ist, von der Erde aus in die Kochtöpfe der Sterne zu schielen, versuchen Kernphysiker das kosmische Geschehen im Labor nachzustellen. Dabei richten sie ihr Augenmerk vor allem auf die Synthese der Atome, die schwerer als Eisen sind. Denn wie die Elemente bis Eisen entstehen, ist hinlänglich bekannt. Sie bilden sich beim Verschmelzen leichterer Kerne im Zentrum der Sterne. Eisenatome sind aber so stabil, dass ein Zusammenschluss mit weiteren Kernen keinen Energiegewinn bringt und daher selten stattfindet. Massereichere Elemente müssen in den Sternen also nach anderen Kochvorschriften angerührt werden. Ein mögliches Rezept ist der Einfang von Neutronen. Normalerweise kommen übermäßig neutronenhaltige Kerne in der Natur nicht vor. Bei einer SupernovaExplosion bilden sich im Inneren des zerberstenden Sterns jedoch extrem dichte Neutronenflüsse. Wenn ein Kern in diesen Strom gerät, kann er innerhalb von wenigen Sekunden eine Vielzahl zusätzlicher Neutronen an sich binden. Es entstehen kurzlebige massereiche Kerne, die sich sogleich über so genannte BetaZerfälle weiterverwandeln – solange, bis schließlich ein neues stabiles Element zurückbleibt. Um den stellaren Schöp-
fungsakt eingehend zu studieren, erzeugen die Kernphysiker künstlich neutronenreiche Kerne. Am Beschleuniger der Gesellschaft für Schwerionenforschung (GSI) in Darmstadt werden beispielsweise Uranpartikel auf eine zentimeterdicke Metallscheibe geschossen. Die besonders neutronenhaltigen Trümmer werden in einem komplizierten Filtersystem nach Kernladung sowie Masse getrennt und anschließend untersucht. Aus den Bildungswahrscheinlichkeiten und Zerfallseigenschaften der neutronenreichen Kerne können die Wissenschaftler ermitteln, mit welcher Häufigkeit die schweren Elemente entstehen.
Mit dem „Crystal-Ball“-Detektor der GSI untersuchen die Wissenschaftler besonders neutronenhaltige Kerne. (Foto: GSI)
57
Explodierende Sterne sind allerdings nicht die einzigen Produktionsstätten für schwere Elemente im All. Auch in „Roten Riesen“ formen sich massereiche Kerne. In ihrer letzten Lebensphase zu einem gigantischen rötlich leuchtenden Feuerball aufgebläht, beziehen solche Gestirne einen Teil ihrer Energie aus dem Verschmelzen von Heliumkernen zu Kohlenstoff. Dabei werden Neutronen freigesetzt, die sich mit leichteren Atomkernen in der Gashülle des Sterns verbinden und neue stabile Elemente bilden können. Weil die Temperaturen, der Druck und die Zahl der herumschwirrenden Neutronen in Roten Riesen längst nicht so hoch sind wie bei einer Supernova-Eruption, dauert die Elementsynthese diesmal keine Sekunden, sondern Jahrtausende. In beiden Prozessen zusammen werden rund 99 Prozent aller schweren Elemente erzeugt. Die anderen bevorzugen einen exklusiveren Entstehungsweg. Anstatt Neutronen anzulagern, verleiben sie sich zusätzliche Protonen ein. Dies geschieht zum Beispiel dann, wenn Wasserstoffgas
Doppelsternsystem aus einem Roten Riesen und einem stark magnetischen Weißen Zwerg. Wasserstoffgas aus der Hülle des Roten Riesen strömt in einer „Akkretionssäule“ direkt auf die Oberfläche des Weißen Zwergs. (Grafik: i&s)
aus der Hülle eines Roten Riesen auf einen benachbarten, schon erloschenen Stern trifft. Das Gas entzündet sich an der Oberfläche dieses „Weißen Zwergs“ und es kommt zu einer Kernexplosion. In diesem Nova-Ausbruch verschmelzen Protonen aus dem Wasserstoffgas mit Atomkernen des Zwergsterns. Am Beschleunigerzentrum CERN will ein internationales Wissenschaftlerteam demnächst die so entstehenden Kerne unter die Lupe nehmen. „Denn nur wenn wir alle Prozesse genau kennen, die zur Elementsynthese im Universum beitragen, können wir die zugehörigen astrophysikalischen Theorien testen“, sagt Dieter Habs von der Universität München, der das Projekt mit dem Namen „Rex-Isolde“ mitentwickelt hat. Und nur dann läßt sich nachvollziehen, wie der Staub aus den Sternküchen einst Leben in unsere Welt gebracht hat. ad
Strahlführung innerhalb des RexIsolde-Experiments. (Foto: CERN)
58
Die Physiker und Mediziner, die an der Gesellschaft für Schwerionenforschung (GSI) Tumore bestrahlen, haben alles getan, damit ihre Patienten von den riesigen Ausmaßen der Anlage möglichst wenig mitbekommen. Der Bestrahlungsraum sieht fast aus wie das Röntgenzimmer in einer gewöhnlichen Unfall-Praxis. Doch die Teilchen, die die bösartigen Krebszellen bekämpfen sollen, werden in haushohen Hallen hergestellt und in einem unterirdischen Ringbeschleuniger von mehr als 200 Metern Länge auf nahezu Lichtgeschwindigkeit gebracht. Andrea Bayer*, die Patientin mit der Nummer 45 in dem Pilotprojekt, wird heute zum letzten Mal bestrahlt. 20 Behandlungstage hat sie schon hinter sich gebracht. Sie rutscht, mit dem Rücken auf einem schwenkbaren Tisch liegend, rückwärts in ihre Kopfmaske. „Am Anfang war das sehr schwierig“, sagt sie. „Doch mittlerweile belastet mich das eigentlich überhaupt nicht mehr.“ Die Maske aus Kunststoff, die ihren Kopf während der Bestrahlung fixieren soll, lässt sich nur dreifingerbreit öffnen, damit sich nichts verschiebt und sie immer exakt am Schädel anliegt. Die Maske bedeckt das ganze Gesicht: Mund, Augen und Ohren. Nur ein kleines Loch für die Nase ist freigeblieben.
Schwere
*Name von der Redaktion geändert.
Geschütze
gegen den Krebs Eine Reportage
Tumorbestrahlung mit schweren Ionen. Das Austrittsfenster für den Teilchenstrahl liegt links neben dem Kopf des Patienten. Mit Hilfe einer Maske wird der Kopf fixiert. Unter den Verkleidungen oben und unten befinden sich die beiden PET-Kameras, die vom Forschungszentrum Rossendorf (bei Dresden) entwickelt wurden. (Foto: GSI)
59
letzte Kontrollaufnahme. Alles ist in Ordnung, Andrea Bayer liegt genauso in der Maske wie bei der Eingangsuntersuchung im Krebsforschungszentrum.
Hier ist die biologisch effektive Dosis für Photonen (Röntgen- bzw. Gammastrahlung) und Kohlenstoff-Ionen aufgetragen über der Eindringtiefe im Gewebe. Während die Photonen ein Maximum ihrer Energie bereits auf dem Weg zum Tumor im gesunden Gewebe verlieren, geben die Ionen den Großteil ihrer Energie erst im Tumorvolumen ab. (Grafik: GSI)
Vor drei Jahren hatte Andrea Bayer plötzlich Schwierigkeiten, auf dem rechten Ohr zu hören. Was zunächst wie ein Tubenkatarrh aussah, diagnostizierten die Ärzte schließlich durch eine Computer-Tomografie als langsam wachsenden, seltenen Gehirn-Tumor. Der Chirurg machte Andrea Bayer aufmerksam auf das gemeinsame Forschungsprojekt von GSI, der Radiologischen Klinik in Heidelberg, dem Deutschen Krebsforschungszentrum (DKFZ) und dem Forschungszentrum Rossendorf. Jetzt liegt die Patientin in ihrer Maske, die fest mit dem Behandlungstisch verschraubt ist. Mit Hilfe eines millimetergenauen Messrahmens und eines LaserJustiersystems richten die Ärzte ihren Kopf aus. Eine Röntgenkamera fährt von der Decke, die Mediziner machen eine Beim Raster-Scan-Verfahren wird der Ionenstrahl – ähnlich wie der Elektronenstrahl beim Fernseher – von Magneten horizontal und vertikal abgelenkt. Auf diese Weise kann eine Schicht des Tumors Punkt für Punkt abgerastert werden. Über die Variation der Strahlenergie wird die Reichweite verändert – so ist es möglich, ein dreidimensionales Tumorvolumen mit dem Ionenstrahl haargenau abzutasten. (Grafik: i&s)
60
Jürgen Debus, Physiker und Mediziner, schaut sich auf dem Schirm im Kontrollraum noch einmal den mit Hilfe einer Computertomografie erstellten Bestrahlungsplan an. Dann gibt er den Strahl frei. Lautlos, unsichtbar und vollkommen schmerzfrei dringen elektrisch geladene Kohlenstoffatome, sogenannte schwere Ionen, für nur wenige Minuten in den Kopf der Patientin ein. Gegenüber der herkömmlichen Strahlentherapie mit Photonen hat die Verwendung von Kohlenstoffionen einen entscheidenden Vorteil: „Mit diesen Teilchen kann man punktgenau einen Tumor zerstören“, sagt Debus. „Das umliegende gesunde Gewebe wird weitestgehend geschont.“ Denn die schweren Ionen geben fast ihre gesamte Energie erst am Ende ihrer Bahn im Gewebe ab. Während Andrea Bayer allein im Bestrahlungsraum liegt, wird sie per Videokamera überwacht. Mit einem Klingelknopf in ihrer Hand kann sie sich jederzeit beim
Ärzteteam bemerkbar machen. Schon direkt nach der Bestrahlung können die Mediziner feststellen, ob die Behandlung nach Plan verlaufen ist. Über zwei so genannte PET-Kameras kann die Bahn des Ionenstrahls im Gewebe rekonstruiert werden. „Das PET-Verfahren ist zusammen mit der Raster-Scan-Methode weltweit einmalig“, sagt Gerhard Kraft, Leiter der Biophysik an der GSI. Er und seine Mitarbeiter haben 20 Jahre lang geforscht, über 100 000 Zellkulturen bestrahlt. Nach vierjähriger Bauzeit wurden Ende 1997 die ersten Patienten in der Pilotanlage behandelt. „Bisher konnten wir das Wachstum aller Tumoren stoppen“, sagt Kraft. „Wir hoffen, dass auch in den nächsten Jahren die Geschwulst bei den Patienten nicht wiederkommt.“ Mit dieser Hoffnung fährt auch Andrea Bayer zurück zu ihrem vorübergehenden Domizil, einem Wohnwagen auf einem Campingplatz im Odenwald. Dort hatte sie sich während der dreiwöchigen Behandlung mit ihrem Mann zusammen einquartiert. „Es sollte schon ein bisschen Urlaubsstimmung dabei sein“, sagt sie. „Wenn man immer an den Tumor denkt, kann man ja nur noch kränker werden.“ wr
Computertomogramm eines Patienten. Oben wurde dem Bild die aus dem Bestrahlungsplan berechnete Soll-Aktivitätsverteilung der Kohlenstoffisotope überlagert. Unten ist das Ergebnis der PET-Messung dargestellt. Der Vergleich der Bilder zeigt, wie genau die Bestrahlungsplanung durch die neue Technik realisiert werden kann. (Fotos: GSI) Das PET-Verfahren Auf seinem Weg durch das Gewebe wird ein kleiner Teil des Ionenstrahls in radioaktive Isotope umgewandelt, die fast die gleiche Reichweite haben wie der Strahl selber. Sie setzen Positronen frei, die Antiteilchen des Elektrons. Praktisch sofort nach der Aussendung stößt dieses Positron mit einem Elektron in der nächsten Umgebung zusammen und
beide werden in einem Energieblitz vernichtet. Es entstehen zwei Photonen, die unter einem Winkel von 180 Grad den Kopf praktisch ungehindert verlassen. Beide werden von den zwei gegenüberliegenden PET-Kameras zeitgleich registriert. So kann man auf den Entstehungsort und damit auf den Verlauf des Ionenstrahls im Gewebe zurückschließen.
Der nächste Schritt – Bau einer Klinik für die Schwerionentherapie Während die Pilotphase an der GSI noch läuft, planen die Wissenschaftler bereits eine Strahlenklinik, die ihre Patienten nur mit den neuen Kohlenstoff-Strahlen behandeln soll. 1000 Patienten könnten dort pro Jahr bestrahlt werden. Dafür ist keine zweite GSI erforderlich: die geringen, für die Bestrahlung benötigten Energien liefert nach dem Plan der Forscher ein kleiner Ringbeschleuniger, der in einem Gebäude mit 60 mal 80 Metern Grundfläche Platz findet. Zusätzlich werden dort drei Bestrahlungsplätze untergebracht sein. Zwei davon (soge-
nannte Gantrys) sollen eine Rotation des Strahls um den Patienten ermöglichen. Mit dieser für Ionen weltweit neuen Technik wird es möglich sein, die Patienten aus jeder beliebigen Richtung mit Ionenstrahlen zu behandeln. Auf diese Weise könnten neben dem Kopf- und Halsbereich auch andere Körperteile bestrahlt werden. Die Investitionskosten der Anlage liegen bei 150 Millionen DM. Für einen kostendeckenden Betrieb werden die Behandlungskosten vergleichbar sein mit denen einer Operation oder einer Chemotherapie. (Foto: GSI)
61
Teilchenbeschleuniger der Superlative DESY plant mit TESLA ein einzigartiges Forschungswerkzeug
E
r beginnt in Hamburg-Bahrenfeld und endet im gut 30 Kilometer entfernten Dörfchen Westerhorn. TESLA soll eine der größten Wissenschaftsmaschinen der Welt werden. Physiker des Teilchenforschungszentrums DESY in Hamburg planen gemeinsam mit 38 Instituten aus neun Ländern den Riesenbeschleuniger, um in völlig neue Bereiche der Physik vorzustoßen.
Linear Collider Bisher arbeiten die Forscher überwiegend mit kreisförmigen Beschleunigern – den Speicherringen. In ihnen laufen Teilchenpakete etwa aus Elektronen über Stunden im Kreis und werden immer wieder für Kollisionen genutzt. Aber: Die Elektronen geben so genannte Synchrotronstrahlung ab und verlieren Energie. Bislang ließ sich diese Klippe mit immer größeren Kreisbeschleunigern umschif-
fen, etwa dem 27 Kilometer umfassenden LEP am CERN. Noch größere Ringe sind jedoch zu teuer. Deshalb wollen die Experten bei TESLA die Elektronen geradeaus schicken und so die unliebsamen Strahlungsverluste vermeiden. Dabei müssen die Teilchenpakete sehr kräftig beschleunigt und gebündelt sowie äußerst präzise geführt werden, da sie ihre Rennstrecke nur ein einziges Mal durchlaufen. (Grafik: DESY)
Higgs-Teilchen: Der Higgs-Mechanismus erklärt, wie Teilchen wie Quarks zu ihrer Masse kommen. Stimmt diese Theorie, so muss es ein neues, bislang unentdecktes Partikel geben – das Higgs-Teilchen. TESLA soll dieses Teilchen erzeugen und im Detail untersuchen.
62
TESLA (Teraelektronenvolt-Superconducting-Linearaccelerator) ist ein Linear Collider, bestehend aus zwei schnurgeraden, sich frontal gegenüberstehenden Einzelbeschleunigern. Der eine soll Elektronen, der andere Positronen (Antielektronen) praktisch auf Lichtgeschwindigkeit bringen. Am Berührungspunkt prallen die Elektronen und Positronen mit enormer Wucht aufeinander. Dabei entstehen neue, exotische Teilchen, die von haushohen Detektoren nachgewiesen werden. Mit TESLA haben es die Physiker insbesondere auf zwei bislang unentdeckte Gruppen von Teilchen abgesehen: Higgs-Partikel sowie SUSY-Teilchen . Außerdem soll der Superbeschleuniger bekannte Teilchen wie das Top-Quark viel genauer untersuchen, als das bisher möglich ist. TESLAs Energie soll die des heutigen Rekordhalters LEP um das Zweieinhalbfache, später um das Fünffache übertreffen.
Supersymmetrie (SUSY): eine Theorie, die über das Standardmodell hinausgeht. In Kurzform besagt SUSY, dass jedes der heute bekannten Materieteilchen einen noch unbekannten Partner aus dem Reich der Kräfteteilchen haben muss – und umgekehrt. Damit wäre SUSY die fehlende Verbindung zwischen Materie und Kraft – ein Meilenstein auf dem Weg zu einer einheitlichen Physik.
Supraleitende Beschleunigung: In Supraleitern kann elektrischer Strom völlig verlustfrei fließen – vorausgesetzt, sie werden mit Flüssighelium auf minus 270 Grad Celsius gekühlt. Die TESLA-Forscher haben es geschafft, dieses Prinzip auf den Linear Collider zu übertragen. Dadurch kann TESLA den Strom aus dem Netz äußerst effektiv in Beschleunigerleistung umwandeln.
Röntgenlaser: Spezialmagnete (Undulatoren) sollen die schnellen Elektronen von TESLA ins Schlingern bringen und sie zum Aussenden eines hochintensiven Röntgenstrahls zwingen. Der wäre bis zu 100 Millionen mal stärker als die heutigen Röntgenquellen und hätte die Eigenschaften von Laserlicht. In Hamburg wird dieses Prinzip in einer 300 Meter langen Testanlage erprobt, die ab 2003 Forschern aus aller Welt als einzigartiger UV-Laser dienen soll. Am 21.2.2000 wurde bereits erstes Laserlicht beobachtet.
Das Prinzip eines Linear Colliders gilt als vielversprechend, auch Japan und die USA arbeiten an Prototypen. Beide Konzepte unterscheiden sich deutlich von TESLA: Sie benutzen herkömmliche, normalleitende Technologie statt der innovativen supraleitenden Beschleuniger. Ein weiteres Plus von TESLA: Er soll zusätzlich als Röntgenlaser fungieren – eine weltweit einzigartige „Superlampe“, die der Forschung ganz neue Einblicke eröffnen würde. Physiker, Chemiker, Materialforscher und Molekularbiologen könnten ihre Proben so detailliert wie noch nie unter die Lupe nehmen. Im kommenden Jahr soll ein ausgearbeiteter Projektvorschlag vorliegen. Ende des Jahrzehnts könnte der Superbeschleuniger fertig sein – eine ideale Ergänzung zum „Large Hadron Collider“ in Genf, einem Speicherring mit 27 Kilometern Umfang. Der LHC wird ab 2005 Protonen aufeinanderschießen. Damit erreicht er zwar deutlich höhere Energien als TESLA, aber die Analyse der Stoßprozesse ist ungleich schwieriger. LHC ist eine „Entdeckungsmaschine“ für Higgs- und SUSY-Partikel, TESLA ein Präzisionsinstrument, das die neuen Teilchen finden und vor allem im Detail untersuchen kann. fg
In den supraleitenden Niob-Resonatoren schwingen elektromagnetische Felder, die die Elektronen beschleunigen. (Grafik: DESY)
Test der supraleitenden Beschleunigerstruktur im Reinraum. (Foto: DESY)
63
SIS schnüren – der Ionenstrahl verliert an Intensität. Anders beim neuen Konzept: Hier sollen die Kerne „nur“ 28fach ionisiert werden. Sie behalten also einen Großteil ihres Elektronenkleides – was es den Teilchen erlaubt, im Strahl enger aneinanderzurücken. Um dennoch die gewünschte Energie zu erreichen, muss das derzeitige Beschleunigerarsenal der GSI um einen weiteren, einige hundert Meter großen Ring ergänzt werden.
„Starkstrom“ für Kernforscher GSI plant neuen Hochenergieund Höchststrombeschleuniger
Mehr Strom und mehr Energie – das wünscht sich die Gesellschaft für Schwerionenforschung GSI für ihre Schwerionenstrahlen in der Zukunft. Um den Plan in die Tat umzusetzen, entwerfen die Darmstädter Kernphysiker derzeit das Konzept für einen „Höchststrombeschleuniger“. Er soll Teilchenstrahlen auf Trab bringen, die bis zu Tausend Mal mehr Ionen enthalten als heutige Anlagen. Gleichzeitig soll die Energie der beschleunigten Partikel um mehr als das Zehnfache wachsen. Blick entlang des SIS-Beschleunigerrings der GSI, mit dem die schweren Ionen bis auf 90 % der Lichtgeschwindigkeit beschleunigt werden können. Das SIS, das einen Umfang von 216 Metern hat, wurde 1990 in Betrieb genommen. Nun soll die Anlage um einen weiteren, größeren Ring ergänzt werden.
64
Derzeit werden in Darmstadt unter anderem „nackte“ Urankerne beschleunigt; sie sind ihrer Elektronenhülle vollständig beraubt. Die Kerngeschosse tragen eine 92fache elektrische Ladung und lassen sich höchst effektiv durch elektrische Wechselfelder auf Geschwindigkeit bringen. Das Problem: Die Urankerne stoßen sich heftig ab und lassen sich deshalb nur widerwillig zu Paketen
Mit dem extrem dichten Uranstrahl ließen sich wesentlich intensivere „Sekundärstrahlen“ zum Beispiel aus kurzlebigen, radioaktiven Kernen oder aus Antiprotonen erzeugen. Mit dem neuen Gerät wollen die Forscher unter anderem folgende Probleme der aktuellen Forschung angehen: ■ Kernmaterie: Welche Kraft hält die Nukleonen im Kern zusammen? Wie verhält sich diese zur „starken Kraft“, die zwischen den Quarkteilchen wirkt? Wie verhalten sich Kerne an den Grenzen der Stabilität? ■ Nukleare Astrophysik: Wie funktioniert der „Elementkochtopf“ bei einem Supernova-Ausbruch im Detail? Was passiert mit der Kernmaterie in extrem dichten Neutronensternen? ■ Standardmodell: Zeigen sich beim Zerfall ungewöhnlicher Kerne womöglich Phänomene, die mit der „herkömmlichen“ Physik des Standardmodells nicht mehr zu verstehen sind? ■ Plasmaphysik: Taugt ein Schwerionenbeschleuniger in ferner Zukunft als Grundlage für ein Fusionskraftwerk? Innerhalb von drei Jahren könnte ein baureifer Projektvorschlag auf dem Tisch liegen. Bis dahin müssen die GSI-Experten unter anderem supraleitende Spezialmagnete entwickeln. Diese müssen, um den Ionenstrahl auf der Kurvenbahn zu halten, ihr Magnetfeld äußerst schnell auf- und abbauen können. fg
High-Tech und Völkerverständigung Ein Großexperiment zur Teilchenphysik dauert bis zu zwanzig Jahre. Mehrere hundert Wissenschaftler aus der ganzen Welt sind gewöhnlich daran beteiligt. Wie funktioniert die Zusammenarbeit in diesen riesigen, internationalen Forschergruppen? Worin besteht der Reiz solcher Projekte für junge Leute? Ein Gespräch mit dem Hamburger Teilchenphysiker Rolf-Dieter Heuer*. Weshalb benötigt man in der Teilchenforschung Teams, die aus 1500 Wissenschaftlern bestehen? Heuer: Zu erforschen, „was die Welt im Innersten zusammenhält“, ist ein wissenschaftlich und technisch enorm anspruchsvolles Vorhaben. Man muss dazu auf das Know-how von Fachleuten aus der ganzen Welt zurückgreifen, also möglichst viele Experten zusammentrommeln. Außerdem sind unsere Projekte in der Regel zu teuer, um sie im Alleingang zu bewältigen. Kein einzelnes Land könnte sich beispielsweise die Entwicklung eines neuen Linearbeschleunigers wie „TESLA“ leisten. Wie werden solche Riesenprojekte koordiniert? Heuer: Wie ein kleines Unternehmen hat jede Kollaboration – so nennen wir die Forschergruppen – eine Art Pyramidenstruktur. An der Spitze steht ein kleines Leitungsteam. Ihm arbeitet das „Collaboration-Board“ zu, ein vielköpfiges Gremium, in dem Vertreter der beteiligten Universitäten oder Länder sitzen. Zusätzlich gibt es noch technische Koordinatoren, die zum Beispiel für den Bau des Detektors zuständig sind. Anders als in der Industrie ist bei uns jedoch niemand weisungsgebunden. Die Zusammenarbeit in der Gruppe basiert allein auf der Verlässlichkeit der Beteiligten, darauf, dass die Leute freiwillig halten, was sie versprochen haben. Weil alle am Gelingen des Experiments interessiert sind, funktioniert dieses zwangfreie System extrem gut. Am Ende passen tonnenschwere Detektorbauteile, die aus
allen möglichen Ländern der Erde stammen, bis auf Zehntelmillimeter genau zusammen. Wie läuft denn so ein Experiment ab? Heuer: Unter einem Experiment in der Teilchenphysik versteht man etwas ganz anderes als unter einem Experiment im Physik- oder Chemieunterricht. In der Teilchenforschung zieht sich ein Experiment über 20 bis 25 Jahre hin. Es beginnt mit der Detektorplanung und endet mit der Analyse der letzten Signale. Dazwischen liegen viele Jahre Datennahme. Weil wir gleichzeitig ganz unterschiedlichen Fragestellungen nachgehen, liefert uns ein Experiment Hunderte verschiedene Ergebnisse. Geht man als junger Diplomand oder Doktorand in einer großen Kollaboration nicht vollkommen unter? Heuer: Nein, keineswegs. Ich denke, die großen Gruppen sind für junge Wissenschaftler eher eine Chance als ein Handikap. Wenn Doktoranden und Diplomanden am Detektor ihre Schichten schieben, manchmal auch mitten in der Nacht Daten aufnehmen, dann kann etwas von der kollektiven Begeisterung überspringen, die man als Einzelkämpfer am Schreibtisch nie hat. Die jungen Wissenschaftler üben, im direkten Wettbewerb mit ihren Forscherkollegen mitzuhalten, zügig zu arbeiten und ihre Ergebnisse bei Diskussionen innerhalb der Kollaboration gegen Einwände zu verteidigen. Das schafft gute Grundlagen für eine Karriere nicht nur in der Wissenschaft. Wie sind denn die Berufschancen für Teilchenphysiker, die nicht in der Forschung bleiben wollen? Heuer: Meiner Ansicht nach sehr gut. Die Kollaborationen sind eine tolle Schule für junge Leute, die später in die Industrie gehen möchten. Denn in den Großexperimenten übt man genau das, was in Firmen gefragt ist: Teamarbeit, Umgang mit modernster Technologie und sicheres Auftreten auf internationalem Parkett. Wer möchte, lernt bei uns nicht nur Physik,
Rolf-Dieter Heuer
sondern auch viel über die Eigenheiten anderer Kulturen, kann Freundschaften mit Wissenschaftlern aus aller Welt schließen. Nach mehr als zwanzig Jahren Mitarbeit in Kollaborationen treffe ich beispielsweise fast bei jeder Berufsreise auf Freunde oder Bekannte. Das finde ich sehr schön. Heißt das, die Teilchenphysik trägt in gewissem Sinn zur Völkerverständigung bei? Heuer: Davon bin ich überzeugt. Wenn man sich die Geschichte von CERN oder DESY anschaut, sieht man, dass dort zum Beispiel Russen, Amerikaner und Chinesen schon immer zusammengearbeitet haben. Den Kalten Krieg gab es auf wissenschaftlicher Ebene in den Kollaborationen nicht. Forscher, die an internationalen Teams beteiligt sind, berichten zuhause von ihren Erfahrungen und vermitteln ihren Landsleuten, dass die Menschen aus den anderen Ländern durchaus vertrauenswürdig sind. Das trägt sicher viel zum Abbau von Vorurteilen bei, auch heute noch.
*Rolf-Dieter Heuer ist Professor für experimentelle Teilchenphysik an der Universität Hamburg und gehört seit 1998 zum Planungskommittee des Linearbeschleunigers „TESLA“. Zuvor war er mehrere Jahre lang Leiter eines Großexperiments am europäischen Teilchenforschungslabor CERN in Genf. Das Interview mit Rolf-Dieter Heuer führte Astrid Dähn.
65
67
„Fünfzig Jahre intensiven Nachdenkens haben mich der Antwort auf die Frage ,Was sind Lichtquanten?‘ nicht näher gebracht. Natürlich bildet sich heute jeder Wicht ein, er wisse die Antwort. Doch da täuscht er sich.“ Albert Einstein, 1951
Das Doppelleben
des Lichts
68
Glühlampe (Quelle: Osram)
a)
D
as Augenlicht ist wohl für jeden von uns der teuerste unter den fünf Sinnen. Wir orientieren uns hauptsächlich mit den Augen, wir nehmen Informationen vor allem visuell auf, Licht und Farbe beeinflussen Stimmungen und Gefühle. Die Hormonausschüttung ist gekoppelt mit der Stärke der Sonneneinstrahlung. „Mehr Licht!“ sollen Goethes letzte Worte gewesen sein. Dieser Satz könnte auch der Leitspruch der modernen Physik sein. Licht ist zum wichtigsten Werkzeug der physikalischen Forschung geworden. Sein Siegeszug geht quer durch alle Disziplinen.
Teilchen oder Welle? Das Licht ist inzwischen ein ausführlich erforschtes Medium, aber es bewahrt bis heute eine Faszination, die die Gelehrten schon vor Jahrhunderten beschäftigte. Bereits zu Anfang des 18. Jahrhunderts tobte zwischen Isaac Newton und Christian Huygens ein erbitterter Streit darüber, ob Licht aus Wellen oder Teilchen bestehe. Huygens glaubte an die Wellentheorie, Newton und seine Schüler hingen der Korpuskulartheorie an. Der Streit wurde damals nicht entschieden, er geriet einfach in Vergessenheit. Nach ihm gab es in der Optik ein Jahrhundert lang keine großen Neuigkeiten, und die Physiker fanden andere Phänomene der Physik, mit denen sie sich lieber beschäftigten. Die Natur des Lichts kam erst wieder zu Beginn des 19. Jahrhunderts auf die Tagesordnung. Inzwischen hatte sich Newtons Ansicht weitgehend durchgesetzt. Licht, so dachte man, bestehe einfach aus schnell fliegenden Teilchen. Doch durch Versuche unter anderem von Thomas Young, der Licht auf einen Doppelspalt fallen ließ, zeigte sich, dass es in manchen Fällen auch Wellencharakter besitzt. Im Zuge der aufkommenden Elektrodynamik erkannte man zudem, dass Licht eine Form der elektromagnetischen Strahlung ist.
b)
Die Sache mit der Interferenz Ein grundlegender Versuch, bei dem sich Licht eindeutig als Welle und nicht als Teilchen verhält, ist die Beugung am Doppelspalt. Der Versuchsaufbau ist einfach: eine Wand mit zwei dünnen Schlitzen wird mit regelmäßigem („kohärentem“) Licht bestrahlt. In einigem Abstand zu der ersten Wand befindet sich eine zweite, auf die das Licht fällt, das durch die beiden Schlitze getreten ist. Hätte Licht ausschließlich Teilchencharakter, so wäre der Ausgang des Experiments wie in Bild (a). Statt der Lichtteilchen könnte man sich auch kleine Gewehrkugeln denken, die auf die beiden Schlitze treffen. Die meisten Kugeln würden von der Wand abprallen und nur einige durch einen der beiden Schlitze hindurchgehen. Auf der gegenüberliegenden Wand wären zwei Linien zu erkennen, die von dem Aufprall dieser Kugeln herrühren. Direkt neben den beiden Hauptlinien gäbe es auch noch einige Aufprall-Stellen, da ein paar Kugeln an den Kanten der Schlitze abprallen und dadurch zur Seite abgelenkt werden. Dieses Bild beobachtet man jedoch nicht!
c)
Bild c zeigt den Fall b von oben. (Grafiken: iser und schmidt und J. Mair) Was man tatsächlich sieht, ist in Bild (b) dargestellt. Auf der zweiten Wand entsteht ein regelmäßiges Muster aus abwechselnd hellen und dunklen Streifen. Der hellste Streifen liegt sonderbarerweise genau in der Mitte zwischen den beiden Spalten. Zu erklären ist dieses Ergebnis nur, wenn man davon ausgeht, dass das Licht sich hier als Welle verhält. Wie eine Meeresbrandung schwappt das Licht zunächst gegen die Wand mit den beiden Schlitzen. Von den Schlitzen breiten sich dann in den Raum zwischen den beiden Wänden kreisrunde Wellen aus. Wie bei Wasserwellen (Bild c), die sich überlagern, gibt es Bereiche, an denen sich gerade ein Wellenberg und ein Wellental gegenseitig auslöschen, und Stellen, an denen zwei Wellenberge zusammentreffen und sich verstärken. So entstehen die dunklen bzw. hellen Stellen auf der hinteren Wand. Diesen Effekt der Überlagerung von Wellen nennt man „Interferenz“.
69
Photoeffekt Trifft kurzwelliges Licht auf eine Metalloberfläche, kann es dort Elektronen freisetzen. Deren Anzahl ist proportional zur Intensität des einfallenden Lichts. Dies lässt sich mit der Teilchennatur des Lichts erklären: Jedes freigesetzte Elektron hat genau ein Lichtteilchen („Photon“) absorbiert. Das Licht wirkt also in diesem Fall wie ein Strom winziger Gewehrkugeln, die Elektronen aus dem Metall herausschlagen. Albert Einstein formulierte auf Grund dieses so genannten Photoeffekts die Idee der „Lichtquanten“. Der Photoeffekt findet zum Beispiel in Solarzellen aus Silizium Anwendung, wo das Sonnenlicht im Material Elektronen auslöst, die schließlich einen Stromfluss bewirken. (Quelle: Siemens)
70
Bis heute bleibt das Phänomen Licht ein Rätsel, auch wenn die Theoretiker im Rahmen der Quantenelektrodynamik sein Verhalten jetzt mathematisch beschreiben können. Manchmal verhält es sich wie eine Welle, manchmal wie ein Teilchenstrom. Aber es ist weder das eine noch das andere: es ist ein Wesen aus der Quantenwelt und entzieht sich unserer Logik. Licht lässt sich nicht festhalten, die Lichtteilchen – die sogenannten Photonen – sind masselos und bewegen sich mit Lichtgeschwindigkeit. Trotzdem ist dieses wechselhafte Medium hervorragend geeignet als Sonde, als Detektor, als Informationsträger und – bei hinreichender Intensität – auch als Erzeuger höchster mechanischer Kräfte.
Überlagerung erscheint uns dann als Licht einer bestimmten Farbe. Als Werkzeug der physikalischen Forschung ist diese „unordentliche“ Art von Licht nicht besonders gut geeignet. Wissenschaftler bedienen sich deshalb meist einer geordneten Art des Lichts. Bei diesem laufen alle Lichtwellen parallel und im Gleichtakt, das heißt, in der gleichen Phase. Man nennt dieses Licht „kohärent“, und zu seiner Erzeugung ist ein Laser ideal geeignet. Betrachtet man dieses regelmäßige Licht im Teilchenbild, so besteht es aus einem Strahl von Lichtteilchen, den Photonen, mit der gleichen Energie, die alle parallel fliegen.
Vieles weiß man heute über das Licht, und je mehr man darüber weiß, desto besser kann man es zähmen. Es beginnt schon bei seiner Erzeugung: Elektromagnetische Strahlung und damit auch Licht entsteht, wenn elektrisch geladene Teilchen beschleunigt werden. Dies können Elektronen sein, die in der Sonne oder in den Atomen eines glühenden Drahtes oszillieren oder in der Antenne eines Rundfunksenders. Normalerweise sind diese Schwingungen ungeordnet; entsprechend besteht das so erzeugte Licht aus einer Vielzahl von Einzelwellen, die sich in Richtung und „Phase“, oft auch in ihrer Wellenlänge unterscheiden. Ihre
Erzeugt wird dieses kohärente Licht auf eine besondere Art und Weise. Albert Einstein hat bereits im Jahr 1916 das Phänomen vorhergesagt, das dem Laser zu Grunde liegt: die stimulierte Emission. Vorher hatte man geglaubt, es gebe nur zwei Arten, wie ein Atom mit einem Photon umgehen kann: Entweder es schluckt das Photon und wird dabei auf ein höheres Energieniveau gehoben (angeregt), oder es sendet ein Photon aus und fällt dabei auf ein niedrigeres Energieniveau. Einstein erkannte, dass es noch eine dritte Art der Wechselwirkung gibt: Ein Photon mit passender Energie kann ein angeregtes Atom dazu bringen, dass es auf ein niedrigeres Niveau fällt und dabei ein Photon mit der gleichen Energie wie das einfallende aussendet. In der normalen Welt passiert dies relativ
Licht einer Lampe: viele Sinuswellen mit unterschiedlicher Phase und Wellenlänge, die in alle Richtungen auseinanderlaufen.
Licht eines Lasers: parallele Sinuswellen mit gleicher Wellenlänge, die alle im Gleichtakt („in Phase“) schwingen. (Grafiken: iser und schmidt)
Die Bändigung des Lichts
selten, denn da sind wesentlich mehr Atome in niedrigen als in angeregten Energiezuständen. Im Laser versetzt man eine Vielzahl von Atomen künstlich in einen angeregten Zustand, um sie anschließend durch stimulierte Emission gezielt zur Abgabe ihrer Photonen zu zwingen. So erhält man Licht einer einzigen, genau festgelegten Wellenlänge, das man beispielsweise mit Hilfe eines Spiegelsystems zu einem eng gebündelten Strahl formt.
Die Zukunft gehört dem Werkzeug Licht Mit diesem Trick ist es gelungen, das ach so flüchtige Licht zu bändigen; das Photon wurde zum Werkzeug des Quantenzeitalters. Seit der erste Laser 1960 von Theodore Maiman und Nikolai Basov gebaut wurde, verfeinerten Physiker und Ingenieure seine Technik so sehr, dass es heute fast keine Aufgabenstellung mehr gibt, der ein Laser nicht gewachsen ist. Laser gibt es heute für praktisch alle Wellenlängen des sichtbaren, infraroten und nahen ultravioletten Bereichs; der Schritt zum Röntgenlaser wird soeben vollzogen. Dauerstrichlaser erzeugen kontinuierlich stabile Lichtstrahlen, Pulslaser hingegen schießen Lichtscheibchen extremster Kürze ab. Die Größenordnungen der Apparaturen sind ebenfalls vielfältig: Sie reichen vom Diodenlaser, klein wie ein Stecknadelkopf, bis zu gigantischen Laseranlagen mit baumdicken, kilometerlangen Verstärkern. So ist das „wilde“ Licht zum Haustier des Informationszeitalters geworden – ein universelles Instrument, unentbehrlich für Messungen, für Experimente, in Technik und Alltag.
Laserstrahlen, aufgefächert durch ein mikroskopisches Gitter. (Quelle: Henning Christoph/Das Fotoarchiv)
Das Prinzip des Lasers In einem Gas befinden sich fast alle Atome oder Moleküle im Zustand möglichst geringer Energie. Pumpt man durch geeignete Maßnahmen – etwa durch das Einstrahlen von Licht oder durch eine elektrische Entladung – Energie in das Gas hinein, nehmen die Teilchen des Gases die Energie auf und gehen in einen angeregten Zustand über. Strahlt man nun passende Photonen auf die Gasteilchen, so geben diese die gespeicherte Energie in Form eines Photons wieder ab. Das besondere ist, dass das abgestrahlte Photon dieselbe Richtung und Energie hat wie das eingestrahlte. Parallele Spiegel an den Enden des Lasers reflektieren das Licht hin und her. Dabei treffen die Photonen auf weitere angeregte Teilchen und zwingen diese zur Abgabe der gleichen Energie. So werden immer mehr Photonen frei, es entsteht ein Lawineneffekt. Der Laserstrahl aus parallelen Lichtwellen wird durch einen der Spiegel, der teildurchlässig ist, nach außen gestrahlt.
Atome in einem Gas, in das Energie gepumpt wurde. Die dadurch angeregten Atome sind grün, die mit niedriger Energie silbern dargestellt. Geht ein Atom von einem angeregten Zustand in einen mit geringerer Energie über, so sendet es ein Photon aus. In welche Richtung des Photon fliegt, ist hier dem Zufall überlassen. (Grafiken: iser und schmidt)
Laserprinzip der stimulierten Emission. Die an den seitlichen Spiegeln reflektierten Photonen veranlassen angeregte Atome (grün), ein Photon in der gleichen Richtung und Phase wie das einfallende auszusenden. Die neu entstandenen Photonen treffen dann wieder auf andere angeregte Atome – ein Lawineneffekt entsteht.
71
Das elektromagnetische Spektrum Frequenz in Hz 101 102 103 104 105 106 107 108 109 1010 1011 1012 1013 1014 1015 1016 1017 1018 1019 1020 1021 1022 1023 1024 Wellenlänge in m 3-107 3-106 3-105 3-104 3-103 3-102 3-101 3-100 3-10-1 3-10-2 3-10-3 3-10-4 3-10-5 3-10-6 3-10-7 3-10-8 3-10-9 3-10-103-10-11 3-10-123-10-133-10-143-10-153-10-16
Mittel-, Hochfrequenzen,
Höchstfrequenzen
Lang-, Mittel-, Kurz-, Ultrakurzwellen Ultrarotes Licht
sichtbares Licht
Nieder-,
Ultraviolettes Licht Röntgenstrahlen Gamma-Strahlen
Beleuchtung, Kraftstrom
Nachrichtenverkehr, Rundfunk, Fernsehen
Funkmesstechnik
Sonnenstrahlen an der Erdoberfläche
Röntgenphotografie
Strahlung radioaktiver Stoffe
Das elektromagnetische Spektrum reicht von den langwelligen Radiofrequenzen über die Mikrowellen, infrarotes und sichtbares Licht bis zur UV-, Röntgenund Gamma-Strahlung. Von links nach rechts werden die Wellenlängen immer kürzer, die Frequenzen immer höher. Betrachtet man das Spektrum im Teilchenbild, nimmt die Energie der Photonen oder Quanten von links nach rechts zu.
Wellenlänge Die Frequenz der Welle gibt an, wie oft in einer Sekunde eine volle Wellenlänge von der Welle durchlaufen wird. (Grafiken: iser und schmidt)
72
sekundäre kosmische Strahlen
„Die Quanten sind doch eine hoffnungslose Schweinerei!“ Max Born in einem Brief an Albert Einstein
An der Schwelle
zur Quantenwelt D
ie Welt des Allerkleinsten gehorcht anderen Gesetzen als unsere vertraute, makroskopische Welt. Theoretische Grundlage dafür ist die Quantentheorie, die in der ersten Hälfte des 20. Jahrhunderts entwickelt wurde und die Vorgänge im Bereich mikroskopischer Maßstäbe mathematisch beschreibt und deutet. Sie stellt die Gesetze der Logik in der Natur in Frage und kippt den Menschen vom sicher geglaubten Thron des unbeteiligten Beobachters. Ein Beispiel für die Gesetze der Quantenmechanik ist der radioaktive Zerfall: Niemand kann vorhersagen, wann ein bestimmtes radioaktives Atom zerfällt; es geschieht zwar nach einem statistischen Muster, aber immer zufällig. In der Welt der Quantenphysik haben viele Vorgänge keine konkrete Ursache und gehorchen einzig und allein dem Zufallsprinzip – eine Idee, die für die Physik zu Beginn des 20. Jahrhunderts völlig neu war. Sie bricht mit der logischen Vorstellung, dass Ursache und Wirkung die Welt bestimmen, was spätestens seit Newton als ehernes Gesetz galt.
In In einer magneto-optischen Falle werden Millionen von Atomen in einer ultrakalten, leuchtenden Gaswolke gefangen. (Quelle: MPI für Quantenoptik/Philip Morris Morris)Stiftung)
73
Schrödingers Katze – tot und doch lebendig Einer der Schöpfer der Quantenmechanik war der österreichische Physiker Erwin Schrödinger. Im Jahr 1935 versuchte er, eine weitere für uns schwer vorzustellende Folge der Quantentheorie mit Hilfe eines Gleichnisses zu verdeutlichen: „Schrödingers Katze“ wurde geboren und bald weltberühmt. Schrödingers Katze In einer verschlossenen Kiste befindet sich eine Katze zusammen mit einem radioaktiven Atom und einem Fläschchen Gift. Zerfällt das Atom, löst dies einen Mechanismus aus, der die Flasche zerschlägt; die Katze atmet die Giftdämpfe ein und stirbt. Nach der Quantentheorie gibt es zwar eine statistische Wahrscheinlichkeit für den Zerfall des Atoms, wann es aber tatsächlich zerfällt, ist vollkommen dem Zufall überlassen. Wäre auch die an dieses System gekoppelte Katze ein quantenmechanisches Objekt, so wäre auch der Zustand der Katze ungewiss. Solange man die Kiste nicht öffnet, also eine Messung vornimmt, weiß man nicht, ob die Katze noch lebt oder schon tot ist. Nach den Regeln der Quantenmechanik wäre die Katze bis zum Öffnen der Kiste weder tot noch lebendig, sondern eine „Überlagerung“ der beiden Zustände „Katze tot“ und „Katze lebendig“. Erst wenn der Beobachter hineinschaut, müsste sie sich für einen Zustand „entscheiden“. In der normalen Welt mit richtigen Katzen ist das natürlich nicht so. Deshalb ist „Schrödingers Katze“ zum Glück ein rein gedanklicher Tierversuch geblieben.
74
Die Ungewissheit über den Zustand der Welt, die in diesem Gleichnis beschrieben wird, ist fundamental für die Sichtweise der Quantenmechanik. Sie arbeitet mit der Vorstellung, dass sich die verschiedenen Zustände, die ein System annehmen kann (z. B. „Katze tot“ und „Katze lebendig“) überlagern. Kein Teilchen befindet sich zu einer bestimmten Zeit genau an einem bestimmten Ort, kein Lichtstrahl ist nur hier und nicht gleichzeitig woanders, selbst das Vakuum, die absolute Leere, ist erfüllt von einer Vielzahl von Teilchen und Wellen, die aus dem Nichts kommen und nach kurzer Zeit wieder verschwinden. Diese seltsame, unbestimmte Welt des Verschwommenen und Ungenauen verwandelt sich jedoch schlagartig in unsere gewohnte, fest gefügte Welt des Erfahrbaren, wenn man daran geht, etwas zu messen. Bei der Katze ist das „Messgerät“ der Beobachter, der die Kiste öffnet und hineinschaut. Man kann also sagen, Messgeräte verändern die Welt. Sie verwandeln Ungewisses in Gewissheit und Verschwommenes in exakte Daten. Diese ungewöhnliche Idee hat schon viele philosophische Zirkel beschäftigt – vor allem der Übergang von der einen, mikroskopischen, in die andere makroskopische Welt liegt noch im Dunkeln.
Der Schritt an die Grenzen Erst in jüngster Zeit gibt es eine Reihe von Experimenten, die sich auf raffinierte Weise der Grenze zur Quantenmechanik nähern, etwa indem sie Objekte erzeugen, die zwar makroskopisch beobachtbar sind, aber trotzdem quantenmechanischen Gesetzen gehorchen. So gelang es beispielsweise in den letzten Jahren, Atome in magnetischen Fallen fast bis zum absoluten Nullpunkt (er entspricht -273,15 °C oder Null Kelvin) zu kühlen. Sie bilden dann ein so genanntes BoseEinstein-Kondensat, eine Ansammlung von Materie, für die die Gesetze der Quantenmechanik gelten, obwohl ihre Ausdehnung Millimetergröße erreicht. Rund eine Million Atome bringt man in den tiefstmöglichen Energiezustand – sie werden dadurch vollkommen ununterscheidbar und verhalten sich wie ein einziges Riesenatom! Ferner gelingt es, aus einem solchen Bose-Einstein-Kondensat mit Hilfe von Radiowellen Atome herauszulösen. Unter dem Einfluss der Schwerkraft fallen sie aus der Atomfalle heraus nach unten und bilden dabei einen kontinuierlichen Strahl. Man nennt eine derartige Anordnung einen Atomlaser. Es handelt sich um ein Gerät, das nicht wie ein Laser Photonen, sondern Atome aussendet, die völlig gleich orientiert und sehr eng gebündelt sind. Eine ganze Reihe praktischer Anwendungsmöglichkeiten
Der mit Hilfe von Radiowellen „angebohrte“ magnetische Käfig lässt Rubidiumatome als Materiewellenstrahl entkommen. (Quelle: MPI für Quantenoptik/ Philip Morris Morris)Stiftung)
Bose-Einstein-Kondensat und Atomlaser Über der Fläche, auf der sich die Atome befinden, ist die Dichte ihrer Verteilung auf dieser Fläche aufgetragen. Alle Atome sitzen in einem eng begrenzten Gebiet – dort ist die Dichte sehr hoch (Säule mit roter Spitze). Mit Hilfe von Radiowellen werden Atome aus diesem Bose-Einstein-Kondensat herausgelöst. Sie bilden einen kontinuierlichen Strahl. Er ist als Keil zu sehen, der über die Ebene verläuft. (Quelle: MPI für Quantenoptik) sind dafür denkbar: Man erwartet noch genauere Messmethoden für die Zeit und für die Stärke der Gravitation. Falls es gelingt, ihre Intensität zu steigern, könnte man mit einem Atomlaser wie mit einem Laserdrucker winzigste Strukturen direkt auf Halbleiterchips auftragen. Bis die Handhabung derartiger Atomlaser aber so ausgereift ist, dass die Geräte problemlos in der Praxis eingesetzt werden können, werden wohl noch einige Jahre vergehen. Eines Tages können Atomlaser vielleicht so klein sein wie heute Halbleiterlaser. Wenn es auch noch gelingt, den „Nachschub“ kalter Atome in der Falle kontinuierlich zu organisieren, lässt sich damit ein kontinuierlicher Laser aus Materiewellen herstellen.
75
Ein Gas aus Rubidium-Atomen wird in einer Ultrahochvakuum-Kammer mittels sogenannter Laserkühlung auf eine Temperatur nahe dem absoluten Nullpunkt abgekühlt. (Quelle: MPI für Quantenoptik/Philip Morris Morris) Stiftung)
Laser können auch kühlen Um Atome in magnetischen Fallen zu fangen, müssen sie so langsam (kalt) sein, dass die Forscher sie erwischen können. Deshalb kühlen die Physiker die bei Raumtemperatur sehr schnellen Atome zunächst vor. Dabei macht man sich die Tatsache zu Nutze, dass Atome Energie nur in Portionen einer bestimmten Größe (den „Quanten“) aufnehmen können. Diese Größe muss genau dem Abstand zwischen zwei Energieniveaus entsprechen. Man bestrahlt nun die Atome mit Laserlicht, dessen Photonen geringfügig unterhalb dieser Energie liegen, oder, anders gesagt, dessen Frequenz unterhalb der nötigen Frequenz liegt. Da sich die Atome bewegen, erkennen diejenigen, die dem Laserlicht entgegenfliegen, wegen des Dopplereffekts eine Frequenz, die etwas höher liegt. Sie entspricht dann genau der nötigen Absorptionsfrequenz: die Atome schlucken die Photonen. Bei der Aufnahme jedes Photons bekommen die Atome einen Stoß, der ihre Geschwindigkeit entgegen der Einstrahlungsrichtung des Lasers verringert. Bei der anschließenden Wiederabgabe der Photonen erhalten die Atome jedes Mal einen Rückstoß. Da dieser aber regellos ist – das heißt, in alle Richtungen gehen
a)
Dopplereffekt Der Dopplereffekt tritt immer dann auf, wenn ein Sender oder ein Empfänger sich bewegt. Bei Schallwellen ist das Phänomen allgemein bekannt: Das Martinshorn eines Polizeifahrzeugs klingt höher, wenn das Auto heranfährt, tiefer, wenn es sich entfernt. Entsprechendes lässt sich auch bei elektromagnetischer Strahlung, etwa bei Licht, beobachten. Bewegen sich Sender und Empfänger aufeinander zu, erscheint die Frequenz höher, entfernen sie sich voneinander, erscheint sie niedriger.
kann – wird dadurch im Mittel keine Beschleunigung verursacht. Die Atome werden also in einer Richtung stark abgebremst und damit gekühlt. Um die Geschwindigkeit auch in den anderen Raumrichtungen zu reduzieren, bestrahlen die Wissenschaftler das Gas aus vielen verschiedenen Winkeln. Der Trick mit dem Dopplereffekt sorgt dafür, dass nur die Atome, die sich noch entgegen der Einstrahlungsrichtung bewegen, die Laserphotonen schlucken. So kann man die Atome schließlich nahezu zum Stillstand bringen und in speziellen Käfigen einsperren. Dieses „Laserkühlung“ genannte Verfahren wurde inzwischen zu einer Standardmethode der Quantenphysiker.
b) Laserphotonen
Atom
Atom Geschwindigkeit
geringere Geschwindigkeit
regellos abgestrahlte Photonen
76
Das Verfahren der Laserkühlung. Das gezeigte Atom hat eine Geschwindigkeitskomponente entgegen der Einstrahlungsrichtung des Lasers (a). Durch den Trick mit dem Dopplereffekt kann es deshalb die Photonen des Lasers aufnehmen – es wird angeregt. Durch den bei der Aufnahme der Photonen entstehenden Stoß wird das Atom abgebremst und damit gekühlt. Die anschließende Abgabe der eingestrahlten Photonen geschieht regellos und bewirkt deshalb im Mittel keine zusätzliche Beschleunigung (b). Der Prozess der Aufnahme und Abgabe der Laserphotonen muss viele Male und aus unterschiedlichen Raumrichtungen erfolgen, bis das Atom schließlich fast zum Stillstand gekommen ist. (Grafik: iser und schmidt)
das eine Quant, dann „fühlt“ das Zwillingsquant – so weit es auch entfernt sein mag – das sofort und verändert sich ebenfalls. Der Effekt, der nach seinen Erfindern Einstein-Podolsky-Rosen-Paradoxon heißt, bringt die Physiker ins Schwärmen: Man könnte damit, so glauben sie, die simultane Kopplung von Daten in unterschiedlichen Speichern bewerkstelligen, unabhängig von äußeren Einflüssen, sozusagen in Form von Telepathie zwischen den Quanten. Dass dies keine reine Fantasterei ist, belegen erste Experimente.
Dopplereffekt: Der Sender in Ruhe strahlt grünes Licht aus. Bewegt er sich, verändert sich die Wellenlänge und damit auch die Farbe. In der Bewegungsrichtung werden die Wellen gestaucht, auf der anderen Seite auseinander gezogen. (Grafik: iser und schmidt)
Rechnen mit Quanten Selbst Anwendungen der Quantenmechanik in der Computertechnik sind heute keine Luftschlösser mehr. Information ist bekanntlich aus Bits zusammengesetzt, mit denen herkömmliche Computer rechnen. Dort kann ein Bit den Wert Null oder Eins haben, und es wird repräsentiert durch den Ladungszustand eines Schaltelements. Ähnliche Strukturen findet man in der Quantenmechanik, dort gibt es „Zustände“, die Null oder Eins entsprechen, etwa der Grund- und Anregungszustand eines Atoms oder die Drehrichtung eines kreiselnden Teilchens, Spin genannt. So liegt es nahe, diese Ähnlichkeit auszunutzen, um einen Computer zu bauen. Man nennt ihn „Quantencomputer“. Ein angeregtes Atom könnte beispielsweise einer Eins entsprechen, eines im Grundzustand einer Null. Für die Bits der Quantenwelt hat sich auch schon ein Name eingebürgert: „Qubit“. Quantenmechanische Objekte können sich jedoch – wie oben geschildert – nicht nur in einem eindeutigen Zustand, sondern auch in einer Überlagerung mehrerer möglicher Zustände zur selben Zeit befinden. Man hätte so die Möglichkeit, in allen Zuständen gleichzeitig zu rechnen – ein höchst potenter Parallelrechner wäre realisiert.
Das Problem des Rechenwerkes ist jedoch das Gesetz der Quantenmechanik, dass die Überlagerung der Zustände nur so lange anhält, bis man das System durch ein Messgerät stört. Die Überlagerung bricht dann sofort zusammen, es bleibt nur ein einziger Zustand übrig, nämlich der ermittelte Messwert. In einem Quantencomputer kann man also viele parallele Rechnungen gleichzeitig durchführen, aber man kann jeweils nur ein bestimmtes Ergebnis ablesen, da die Messung die Überlagerung zum Kollabieren bringt – das Qubit wird zum ordinären Bit.
Konkrete Hoffnungen auf einen funktionierenden Quantencomputer sind also inzwischen berechtigt. Immerhin wurde das physikalische Grundprinzip schon gezeigt, und erste Ansätze von Software sind ebenfalls im Entstehen. Wenn man bedenkt, wie primitiv 1947 der erste Transistor aussah und was bis heute daraus geworden ist, kann man, zumindest was die technische Seite betrifft, optimistisch sein.
Telepathische Zwillinge Die Lage ist ernst, aber nicht hoffnungslos, denn kreative Forscher finden immer neue Tricks. So gelang vor kurzem die Produktion von so genannten verschränkten Teilchen. Auch hier handelt es sich um einen Quanteneffekt, und zwar um einen äußerst erstaunlichen, den sich Einstein mit ein paar Kollegen 1935 zunächst als bloßes Gedankenexperiment ausgedacht hat. Werden zum Beispiel zwei Lichtquanten gleichzeitig im selben Prozess erzeugt, dann bleiben ihre Eigenschaften, etwa die Richtung ihrer Polarisation, aneinander gekoppelt („verschränkt“), auch wenn sich die beiden Quanten mit Lichtgeschwindigkeit voneinander entfernen. Verändert man
Ein Experiment mit verschränkten Photonen. Mit speziellen Lasern lassen sich Kristalle so anregen, dass sie Photonenpaare abstrahlen. Das Bild zeigt Fluoreszenslicht aus einem solchen Kristall in Falschfarben. Die Ringe einer Farbe werden jeweils durch viele Photonenpaare erzeugt, die auf den Film der Kamera treffen. Jedes Photonenpaar trägt zur Entstehung des rechten und des linken Rings bei. In den Schnittpunkten der Kreise ist jedes Photonenpaar „verschränkt“: wird an dem einen Photon etwas verändert, so reagiert darauf das zweite Photon – und zwar augenblicklich, ohne Rücksicht auf die Einschränkung durch die Lichtgeschwindigkeit. (Quelle: Institut für Experimentalphysik, Uni Wien)
77
Vom „absoluten Null bis zum Absoluter Nullpunkt Bisher unerreicht: Bei -273,15 °C oder Null Kelvin hört jede Wärmebewegung auf. Der Wellencharakter dominiert das Verhalten der Atome.
Interferenz Atomlaser Wie eine Perlenkette: Aus einem BoseEinstein-Kondensat kann man Atome mit Hilfe von Radiowellen herauslösen. Unter dem Einfluss der Schwerkraft fallen sie nach unten und bilden dabei einen kontinuierlichen Strahl, der so geordnet ist wie ein Einstein-Podolsky-RosenLaserstrahl.
Paradoxon
Bose-Einstein-Kondensat Riesen-Atom: Millionen Atome im bewegungslosen Zustand – sie sind vollkommen ununterscheidbar. Das Kondensat verhält sich wie ein einziges Riesenatom und kann einige Millimeter groß sein.
Zwillingsquanten aus Licht: Zwei Quanten, die gemeinsam entstanden sind, bleiben miteinander gekoppelt („verschränkt“), auch wenn sie sich mit Lichtgeschwindigkeit voneinander entfernen. Verändert man das eine Quant, dann „fühlt“ das Zwillingsquant das sofort und verändert sich auch.
Femtosekunden Ziemlich kurz: 0,000 000 000 000 001 Sekunden dauert eine Femtosekunde. Licht kann in dieser Zeit gerade mal eine Strecke von 0,3 Mikrometern zurücklegen.
Heisenbergsche Unschärferelation Schwankung: Bestimmte Größenpaare, wie Ort und Impuls oder Energie und Zeit, folgen einer Unschärferelation. Je genauer der Ort eines Teilchens bekannt ist, desto geringer ist die Information über seinen Impuls – und umgekehrt.
78
Verräterische Streifen: Wellen können sich gegenseitig auslöschen oder verstärken, dabei ergeben sich charakteristische Hell-dunkel-Streifen. Erstaunlicherweise erzeugen in manchen Experimenten auch Teilchen derartige Streifen, benehmen sich also wie Wellen.
Kohärenz Lichtquanten im Gleichschritt: Ein Laser erzeugt Licht, das kohärent ist. Alle Wellenzüge sind dabei parallel und im Gleichtakt.
LIDAR Radar für Licht: Mit diesem Verfahren kann man die räumliche Entfernung und die Konzentration von Schadstoffen in einem Arbeitsgang messen. Auf der Zugspitze steht eine solche Messstation.
punkt“ „Undulator“ Qubit Ein Bit Licht: Ein Quantencomputer rechnet nicht mit gewöhnlichen Bits von Null oder Eins. Quantenmechanische Objekte befinden sich immer in einer Überlagerung aller möglichen Zustände. So kann ein Qubit gleichzeitig Null und Eins sein.
Röntgenstrukturanalyse
Nanotechnik Zwergenwelt: Elektronische und neuerdings auch mechanische Strukturen werden immer kleiner. In Zukunft werden viele Sensoren und Bauelemente für Computer im Atommaßstab entstehen. Dabei treten quantenphysikalische Effekte auf.
Durchleuchtung von Molekülen: Komplizierte Substanzen, etwa in der Pharmazie, bestehen aus riesigen Molekülen. Um ihre Struktur zu ergründen, erzeugt man aus ihnen Kristalle, die man mit Röntgenstrahlen durchleuchtet. Die kurzwelligen Strahlen werden an den Kristallebenen gebeugt und ergeben ein charakteristisches Muster. Aus ihm können Experten Rückschlüsse auf den Aufbau des Kristalls und damit letztlich des Moleküls ziehen.
Photon Es steht nie still: Teilchen der elektromagnetischen Strahlung heißen Lichtquanten oder Photonen. Sie bewegen sich grundsätzlich mit Lichtgeschwindigkeit und haben keine Ruhemasse.
Plasma Der vierte Aggregatszustand: Gemische aus Ionen und Elektronen sind im Universum häufiger als feste Materie. Plasmen füllen das Weltall und bilden die Sterne. Auf der Erde müssen sie eigens erzeugt werden.
Spektroskopie Detektivarbeit mit Licht: Jedes Atom oder Molekül hat einen entlarvenden „Fingerabdruck“ aus Licht, denn es kann jeweils nur ganz bestimmte Farben aufnehmen oder abgeben. So gelingt es mit geeigneten Messgeräten, aus der Zusammensetzung des abgestrahlten oder geschwächten Lichts die Art und Anzahl der getroffenen Atome oder Moleküle zu ermitteln.
Undulator Dauerwelle mit Magneten: Eine Anordnung von Magneten, die sich so gegenüberstehen, dass sie einen Elektronenstrahl auf eine Slalombahn zwingen. Wenn der Slalomtakt kurz genug ist, kann man auf diese Weise intensive Röntgenstrahlung erzeugen, im Idealfall sogar einen Röntgenlaser bauen.
79
Messen
mit Licht
„Der Laser ist eine Lösung auf der Suche nach einer Anwendung.“ Art Schawlow, 1962
Auch von Deutschland aus werden Laserstrahlen auf den Mond geschossen. Das Lasersystem der Fundamentalstation Wettzell im Bayerischen Wald visiert den Spiegel auf dem Mond an, um die Bahn des Erdtrabanten genau zu vermessen. (Quelle: Bilderberg)
80
Mit Messlatten und Schnüren mussten die Ägypter vor 4500 Jahren auskommen, um die Geometrie beim Bau ihrer Pyramiden festzulegen. Sollte in ferner Zukunft einmal die Zeitmaschine erfunden werden, würde der Zeitreisende mit einem Laser im Gepäck im alten Ägypten wohl begeistert empfangen. Ein Laser wäre nicht nur für die exakte Ausrichtung der Steinblöcke perfekt, er würde auch wunderbar in die nächtlichen Zeremonien passen, die mit dem Pyramidenbau verbunden waren.
Der Laser – ein Lineal aus Licht Die starke Bündelung des Laserstrahls, kombiniert mit seiner hohen Lichtintensität, eröffnet ihm überall dort Anwendungsgebiete, wo man masselose Lineale braucht, also bei der exakten Ausrichtung großer Bauteile, architektonischer Elemente oder langer Tunnel.
Observatorium in Kalifornien erstmals, mit einem Laserpuls von 1,8 Millionen Kilowatt Leistung den Spiegel auf dem Mond anzuvisieren. Der Strahl war beim Auftreffen 1,6 Kilometer dick, bei seiner Rückkehr zur Erde nach etwa 2,5 Sekunden 16 Kilometer. Obwohl die Aufweitung das Licht stark abschwächt, konnte das Drei-Meter-Teleskop den reflektierten Puls noch nachweisen, und so bestimmte man damals mit Hilfe der gemessenen Laufzeit den Abstand Erde-Mond auf 20 Zentimeter genau, was einer Zeitmessung auf zehn Dezimalstellen entspricht. Mit Hilfe des Spiegels wird noch heute die Mondbahn beobachtet. Man will ermitteln, ob eventuelle Schwankungen der Bahn Hinweise auf Massenverschiebungen im Inneren des Mondes oder der Erde geben. Ähnliche Verfahren mit Satelliten benutzte man zur geodätischen Vermessung der Erde.
Abstandsmessung Erde - Mond mit Hilfe eines Laserstrahls. Ein kleiner Spiegel auf dem Mond wirft den Laser zurück. Da die Lichtgeschwindigkeit konstant ist, können die Forscher von der Laufzeit auf die Entferung schließen. (Grafik: iser und schmidt)
Überlagerte Wellen Auch für die Messung großer Entfernungen ist der Laser gut geeignet. So hilft er, die Entfernung Erde-Mond genau zu bestimmen. Schon im Juli 1969, bei der ersten Mondlandung, ließen die beiden Astronauten Neil Armstrong und Edwin Aldrin etwas auf dem Erdtrabanten zurück, was auch heute, 30 Jahre später, noch gute Dienste leistet: einen Spiegel. Er besteht aus rund 100 Katzenaugen, die so geschliffen sind, dass sie einfallendes Licht in sich selbst zurückwerfen. Im August 1969 gelang es dem Lick-
Laufzeitmessungen eignen sich nur für große Strecken. Wollen die Wissenschaftler kleine Abstandsänderungen bestimmen, verwenden sie das Prinzip der Interferometrie. Dabei teilt man einen Laserstrahl in zwei Teilstrahlen auf. Der eine Strahl wird auf das Objekt geschickt, dessen Entfernung sich ändert. Der zweite Strahl läuft auf einer festgelegten Referenzstrecke, die genauso lang ist wie die ursprüngliche Entfernung zum Messobjekt. Ändert sich des-
Bei der ersten Mondlandung ließen die Astronauten Armstrong und Aldrin etwas liegen: einen Spiegel, der aus rund 100 Katzenaugen besteht. (Quelle: NASA)
81
Hilfsspiegel
halbdurchlässiger Spiegel
Laser
beweglicher Messspiegel
Photoempfänger
Zähler
Umrechnung in Längeneinheiten
Prinzip der Interferometrie Der Laserstrahl wird in zwei Teilstrahlen zerlegt. Nach Reflexion am Hilfsspiegel bzw. am beweglichen Messspiegel werden die beiden Strahlen wieder gebündelt und in einem Photodetektor zusammengeführt. Hat sich der Messspiegel verschoben, ergibt sich ein Wegunterschied der Strahlen, der dazu führt, dass eine Phasenverschiebung zwischen beiden auftritt. Die durch die Interferenz der zwei Laserstrahlen entstehenden hell-dunkel-Wechsel werden vom Photodetektor registriert. Der Zähler stellt die Anzahl der Wechsel fest – der angeschlossene Rechner bestimmt daraus die Wegänderung des Messspiegels. (Grafiken: Iser&Schmidt)
Probe (Gas oder Flüssigkeit) Absorptionsspektrum Lichtquelle
Vergleich
Unbeeinflusster Lichtstrahl
Prinzip der Spektroskopie Beim Durchgang eines Lichtstrahls durch ein Gas oder eine Flüssigkeit absorbieren die darin vorhandenen Atome oder Moleküle ganz bestimmte Wellenlängen. Sie verändern damit den Lichtstrahl auf eine Weise, die charakteristisch ist für den jeweiligen Stoff. Der Vergleich mit dem unbeeinflussten Strahl ergibt das Absorbtionsspektrum, bei dem die Stärke der Absorbtion gegen die Wellenlänge aufgetragen ist. Spiegel zur Umlenkung der Lichtstrahlen wurden in dieser schematischen Zeichnung weggelassen.
82
sen Entfernung nun, so entsteht ein Wegunterschied und damit eine Phasenverschiebung zwischen beiden Teilstrahlen. Führt man diese jetzt wieder zusammen, kommt es zur Interferenz. Ein Photoempfänger kann die entstehenden abwechselnd hellen und dunklen Streifen erfassen. Ein Computer zählt diese Wechsel und kann daraus die Wegänderung berechnen. Dieses Verfahren benutzt man heute bei einer Vielzahl von Präzisionsmessungen für die Abstandsbestimmung. Eine andere Möglichkeit ist die Überlagerung zweier Laserstrahlen, von denen einer in seiner Frequenz verändert wurde. Man verwendet diese Methode zur Messung von Geschwindigkeiten und damit indirekt auch von Temperaturen. Das Prinzip beruht wieder auf dem Dopplereffekt (siehe Seite 12/13): Bewegen sich Sender und/oder Empfänger aufeinander zu, erscheint die Frequenz höher, entfernen sie sich voneinander, erscheint sie niedriger. Strahlt man nun Laserlicht auf ein Objekt, das sich auf den Laser zu bewegt, wirft es das Licht mit etwas erhöhter Frequenz zurück. Überlagert man diesen Messstrahl mit einem ausgekoppelten Teil des ursprünglichen Strahls, zeigt sich eine „Schwebung“. Es handelt sich um eine periodische Zu- und Abnahme der Amplitude, aus der man die Frequenzverschiebung des Messstrahls errechnen kann. Aus ihr wiederum lässt sich die Geschwindigkeit des Objekts ermitteln. Dieses Verfahren wird bei der Geschwindigkeitsmessung von Fahrzeugen eingesetzt, zur Steuerung von Werkzeugmaschinen oder bei der Beobachtung strömender Flüssigkeiten. Man kann es auch zur Temperaturmessung heißer Gase verwenden, denn die Geschwindigkeit der Gasteilchen ist ein Maß für deren Temperatur.
Licht als „Fingerabdruck“ von Atomen Abstandsmessungen sind eine der leichtesten Übungen für Laserphysiker. Die hohe Schule des Messens mit Licht beginnt eigentlich erst bei der Spektroskopie. Sie
dient in erster Linie dazu, einzelne chemische Elemente an ihrem charakteristischen Licht zu erkennen und zu unterscheiden. Normalerweise senden Atome kein Licht aus. Erst wenn man sie durch Energiezufuhr anregt, fallen sie nach einiger Zeit wieder in ihren Grundzustand zurück und geben dabei die überschüssige Energie in Form von Licht wieder ab. Aus millionenfachen Messungen ist heute der charakteristische „Fingerabdruck“ jeder Atom- und Molekülsorte bekannt. So kann man Stoffgemische analysieren und durch gezielte Anregung mit passendem Laserlicht bestimmte Atome aufspüren. Denn das „Schlucken“ von Licht – der Physiker spricht von Absorption – ist ebenso verräterisch wie das spätere Wiederabstrahlen (Emission).
Der Blick aufs Ozonloch In der Umweltüberwachung hat sich der Einsatz der Spektroskopie als sehr nützlich erwiesen. Im einfachsten Fall schießt man einen Laserpuls quer durch eine Schadstoffansammlung, etwa eine Abgaswolke, auf einen Detektor. Wenn das Licht genau die Frequenz besitzt, die das Schadstoff-Molekül absorbieren kann, stellt die
Abschwächung des Pulses ein Maß für die Menge der getroffenen Moleküle dar. Je höher die Schadstoffkonzentration, desto stärker wird der Puls geschwächt. Weitaus anspruchsvoller ist das so genannte LIDAR-Verfahren (Light Detecting and Ranging), bei dem die Messung von Schadstoffen auch aus großer Entfernung möglich ist. Man macht sich dabei die Tatsache zu Nutze, dass Atome und Moleküle auftreffendes Licht streuen, das heißt, aus seiner ursprünglichen Bahn in alle möglichen Richtungen ablenken. Ein Laserpuls, der beispielsweise in eine Schadstoffwolke gestrahlt wird, erfährt diese Streuung. Aus diesem Grund kommt ein winziger Teil des ausgesandten Lichts als Streulicht wieder zurück. Wenn es gelingt, dieses Signal aufzufangen und zu analysieren, kann man aus seiner Intensität die Konzentration der Schadstoffe ermitteln. Gleichzeitig lässt sich aus der Zeit, die zwischen dem Aussenden des Pulses und dem Eintreffen des Signals vergeht, der Abstand zur Wolke ermitteln. Dieses Verfahren ist inzwischen technisch so ausgereift, dass geringste Schadstoffkonzentrationen gemessen werden können. Es wird auch eingesetzt, um die Abnahme der Ozonkonzentration in großen Höhen zu ermitteln.
Die genauesten Uhren gehen mit Licht Selbst die Zeitmessung, die weltweit von hochgenauen Atomuhren gesteuert wird, würde nicht ohne Licht funktionieren. Das Grundprinzip jeder Atomuhr beruht darauf, eine bestimmte Lichtfrequenz konstant zu halten, die den Takt der Uhr steuert. Die heute vielfach gebräuchlichen Cäsium-Atomuhren bestehen aus einem
Atomuhr der neuesten Generation. Hier spielt nicht nur Mikrowellen-, sondern auch Laserstrahlung eine Rolle. Die Bewegungsenergie der Cäsium-Atome wird durch das Verfahren der Laserkühlung reduziert. Eine solche Uhr geht weniger als eine Sekunde in 10 Millionen Jahren fehl. (Quelle: PTB)
Messung der Ozon-Konzentration mit einem Laser. Das Lasergerät wird gerade von einem Helikopter auf der Zugspitze, dem höchsten Berg Deutschlands, abgestellt. (Quelle: MPI für Quantenoptik)
Ofen, in dem Cäsiummetall verdampft wird. So erzeugt man einen Strahl aus Cäsiumatomen, der durch ein luftleer gepumptes Rohr läuft. Ein Magnet an dessen Ende lenkt nur Cäsiumatome mit einem ganz bestimmten Energiezustand in den so genannten Resonator. In ihm werden die Atome mit Lichtquanten der Frequenz 9,19263177 Milliarden Hertz (Mikrowellen) bestrahlt. Die Atome können genau diese Frequenz absorbieren und werden dadurch angeregt. Nur diese angeregten Atome werden nun von einem zweiten Magneten in einen Detektor gelenkt. Wenn dort plötzlich weniger Atome eintreffen, muss sich die Frequenz des Lichts im Resonator etwas verschoben haben. Ein elektronischer Regelkreis wird aktiv, der diese Takt-Frequenz nachregelt, bis im Detektor wieder die maximale Anzahl an Atomen eintrifft. Auf diese extrem genaue Art und Weise wird die Frequenz der Lichtquelle gleich gehalten und so die Uhr mit hoher Genauigkeit gesteuert.
83
Das blaue Wunder
„Die Untersuchung des Lichts hat zu Leistungen der Erkenntnis, Phantasie und Erfindungsgabe geführt, die auf keinem Gebiet geistiger Betätigung übertroffen wurden.“ Sir J. J. Thomson, 1925
84
Die blaue Leuchtdiode im Labor (Quelle: Osram OS)
Manchmal gehen Revolutionen ganz langsam vor sich. Die Erfindung der blauen Leuchtdiode jedenfalls dauerte Jahrzehnte. Man kannte LEDs (Light Emitting Diodes) in den Farben rot, gelb und später auch grün, die man für Anzeigen von Computern und Instrumenten verwendet, oder für Displays, etwa in Sportarenen oder bei Leuchtreklamen. Was fehlte war Blau, denn aus Rot, Grün und Blau lassen sich alle Farben darstellen. Jeder Fernsehbildschirm tut es. Leuchtdioden bestehen aus Halbleitern, die normalerweise elektrischen Strom nicht leiten können. Wenn man sie jedoch mit bestimmten Stoffen versetzt („dotiert“), kann man ihnen beispielsweise einen Überschuss an Elektronen mitgeben. Andere Dotierungen können einen Mangel an Elektronen erzeugen, so genannte Löcher. Kombiniert man nun zwei unterschiedlich dotierte Arten von Halbleitern als dünne Schichten und legt eine geringe Spannung an, wandern Elektronen von einer Schicht in die andere und fallen in die Löcher. Dabei geben sie ihre Energie in Form von Licht ab. Um eine blaue Leuchtdiode zu bauen, muss man eigentlich nur ein Material finden, dessen Elektronen blaues Licht abgeben, wenn sie in die Löcher fallen. Eine schwierige Aufgabe, denn blaues Licht ist energiereicher als rotes, gelbes und grünes. Rund um die Welt suchten Forscher nach einem solchen Material. In den sechziger Jahren schien Galliumnitrid ein geeigneter Kandidat zu sein, doch letztlich gelang es nicht, ein geeignetes Trägermaterial für die benötigten dünnen Schichten zu entwickeln. Man gab schließlich die Versuche auf und bevorzugte nun Zinkselenid, das verheißungsvoller erschien. Erst in den achtziger Jahren wurde das Problem des Trägermaterials wenigstens prinzipiell gelöst – doch auch nach zwanzig Jahren intensivster Forschung lag der Traum einer universell einsetzbaren blauen Leuchtdiode in weiter Ferne.
Laserdioden können in sehr kleinen Abmessungen gebaut werden. Sie finden zum Beispiel in CD-Spielern Verwendung. (Quelle: Fraunhofer Gesellschaft)
Der Durchbruch kam wie im Märchen: Shuji Nakamura, Angestellter einer mittelständischen Firma im südlichen Japan, war fasziniert von der Suche nach der blauen Leuchtdiode. Er experimentierte ganz gegen den allgemeinen Trend mit dem Stoff, der in den sechziger Jahren „en vogue“ war – und hatte Erfolg. Später erzählte er: „Ich habe mir Galliumnitrid eigentlich nur deshalb ausgesucht, weil sonst kaum jemand damit arbeitete.“ Im Oktober 1996 war sein System so weit optimiert, dass Nakamura seine blaue LED einige Sekunden lang zum Leuchten brachte. Nur zwei Monate später strahlte die Diode schon 35 Stunden lang. Nun setzte international ein „run“ auf die blaue Leuchtdiode ein. Forscher auf der ganzen Welt experimentierten mit dem neuen, aber eigentlich alten Material. Auch in Deutschland schimmerte es bald blau in den Labors der Halbleiterphysiker. Und aus den blauen Leuchtdioden lassen sich endlich auch blaue Halbleiter-Laser bauen, ebenfalls ein alter Traum der Forscher. Diese blauen Laserdioden werden vielfältige Anwendungen finden: Ihre kürzere Wellenlänge ermöglicht zum Beispiel eine feinere Abtastung der CD; die Pits, mit denen die Informationen gespeichert werden, lassen sich auf der CD dann viermal so dicht packen wie bei infrarotem Licht. Dies bedeutet, dass mit blauen
Lasern ein ganzer Kinofilm im hochauflösenden Fernsehformat und in Hifi-Qualität auf einer kleinen Kunststoffscheibe Platz fände. Damit könnten digitale Videodiscs (DVD) in Zukunft die Magnetband-Videokassetten ersetzen. Und zusammen mit roten und grünen Halbleiterlasern kann die blaue Laserdiode bewegte Bilder in jeder Farbe gestochen scharf auf Bildschirme zaubern. Damit wird schließlich auch dem Traum eines deutschen Erfinders zum Durchbruch verholfen: Christian Deter, Erfinder des Laser-TV, musste vor wenigen Jahren auf Gaslaser mit einem Energieverbrauch von 20 bis 30 Kilowatt und 60 Liter Kühlwasser pro Minute zurückgreifen, um das Prinzip des laserbasierten Fernsehschirms erstmals zu demonstrieren. Mit roten, grünen und blauen Laserdioden reduziert sich der Fernseher der Zukunft auf ein zigarrenschachtelgroßes Gerät, mit dessen Hilfe das Bild an die Wohnzimmerwand oder – bei Bedarf – auch auf die Anzeigentafel eines Stadions projiziert werden kann.
Der blaue Halbleiter-Laser unter dem Mikroskop. Er wird in Zukunft der Informationstechnologie neue Möglichkeiten eröffnen. (Quelle: Osram OS)
85
„Das Licht sehen – das ist eine Metapher für das Anschauen des Unsichtbaren im Sichtbaren, die Entdeckung der feinen Vorstellungsnetze, die unseren Planeten und alle Existenz zusammenhalten.“ Arthur Zajonc, Catching the Light, 1993
Am Puls
des Moleküls
Über eine Linse wird ein Laserstrahl in eine Flüssigkeit fokussiert und steuert dort eine chemische Reaktion. (Quelle: Inst. für Experimentalphysik I, Uni Würzburg / Philip Morris Stiftung)
86
D
er Femtosekundenlaser ist ein aufregendes, neues physikalisches Werkzeug, das es den Forschern erlaubt, chemische Reaktionen wie in Zeitlupe zu verfolgen. Mit Hilfe der ultrakurzen Lichtpulse kann man beobachten, wie sich die Atome im Molekül verhalten, wenn chemische Verbindungen zerbrechen und neue entstehen. Über Jahrhunderte war die Chemie eine reine Erfahrungswissenschaft. Aus Zigtausenden von Versuchen wusste man, wie bestimmte Stoffe reagieren, wenn man sie mit anderen zusammenbringt. So lernte man, eine Vielzahl neuer Substanzen herzustellen. Bis vor kurzem lag aber immer noch im Dunkeln, was geschieht, wenn sich Atome zu Molekülen zusammentun. Zwar hatte schon Svante Arrhenius, der Chemie-Nobelpreisträger des Jahres 1903, vor mehr als hundert Jahren eine einfache Formel für die Reaktionsgeschwindigkeit als Funktion der Temperatur gefunden. In den dreißiger Jahren formulierten dann Henry Eyring und Michael Polanyi eine Theorie für die Reaktionen einzelner Moleküle. Diese nahm an, dass es einen „Übergangszustand“ gebe, einen extrem kurzlebigen Moment ohne Wiederkehr in jeder Reaktion, den die Atome irgendwann überschreiten und sich miteinander verbinden. Dass man jemals Experimente in derartig kurzen Zeitabständen machen könnte, um dieses Ereignis genauer zu untersuchen, davon konnte man damals nicht einmal träumen. Seit 1972 entwickelten Forscher jedoch Laser mit ultrakurzen Pulsen, die bald auch in den Femtosekundenbereich vorstießen. Eine Femtosekunde ist unvorstellbar kurz. Sie beträgt 10-15 Sekunden, also den millionsten Teil einer Milliardstel Sekunde; im Verhältnis zu einer Sekunde ist dies genauso wenig wie eine Sekunde im Verhältnis zu 32 Millionen Jahren. Derartig kurze Pulse eignen sich wie eine Art Stroboskop-Licht zur Zerlegung von schnellen chemischen Vorgängen in einzelne Bilder. Als Arbeitspferd der Femtochemie – wie man dieses
Gebiet neuerdings nennt – hat sich der Titan-Saphir-Laser durchgesetzt, der im infraroten oder sichtbar roten Bereich arbeitet. Er sendet Lichtblitze von einigen -zig Femtosekunden Dauer aus und trifft damit ziemlich genau die „Pulsfrequenz“ von Molekülen. Denn die Zeit, die sie benötigen, um eine Schwingung auszuführen, beträgt im Durchschnitt zehn bis 100 Femtosekunden. Wie mit einer Hochgeschwindigkeitskamera gelang es, mit derartigen Lasern Moleküle während des Ablaufs einiger chemischer Reaktionen abzubilden und ein Bild von ihnen genau dann einzufangen, wenn sie sich im Übergangszustand befanden. So konnten die Forscher nachweisen, dass es Zwischenprodukte gibt, sogenannte Intermediäre, die sich auf dem Weg zwischen den ursprünglichen Stoffen und den Endprodukten bilden. Diese Resultate halfen auch, zu verstehen, warum bestimmte chemische Reaktionen stattfinden, andere aber nicht – eine Erkenntnis von großer praktischer Bedeutung. Denn genau sie ist der Schlüssel zu einer Vielzahl nützlicher Anwendungen. Die Kunst der Chemie ist es ja gerade, aus einer Unmenge möglicher Reaktionspfade genau denjenigen anzusprechen, der zum gewünschten Produkt führt. Wenn es nun in großem Maßstab gelänge, mit genau passenden Laserpulsen Atomen so exakt Energie mitzugeben, dass sie bestimmte chemische Reaktionen ausführen, könnte dies zu einer Revolution in der Chemie führen. So sind der Fantasie in diesem Bereich kaum Grenzen gesetzt. Experten erwarten, dass sich in der Verbrennungsforschung, in der Umwelttechnik und in der medizinischen Diagnostik umwälzende Neuerungen ergeben. Auch die Synthese neuartiger Materialien, die Veredelung von Oberflächen oder die Konstruktion molekularer Maschinen ist in greifbare Nähe gerückt. So könnte es sein, dass mit dem Femtosekundenlaser die Physik einmal mehr ihrer Schwesterwissenschaft Chemie auf die Sprünge hilft.
Herzstück der Laserkontrolle chemischer Reaktionen ist der Laser-Pulsformer. Er zerlegt Licht in seine spektralen Bestandteile. (Quelle: Inst. für Experimentalphysik I, Uni Würzburg/Philip Morris Stiftung)
In den Vakuum-Kammern dieser Apparatur werden mittels eingekoppelter Laserpulse chemische Reaktionen in einem Gas ausgelöst. (Quelle: Inst. für Experimentalphysik I, Uni Würzburg / Philip Morris Stiftung)
87
Gebändigtes
„Und man siehet die im Lichte. Die im Dunkeln sieht man nicht.“ Bertolt Brecht, Die Dreigroschenoper
Röntgenlicht
88
Organisches Riesenmolekül. Diese Computergrafik wurde nach Daten aus der Röntgenstrukturanalyse erstellt. (Quelle: BASF)
In Naturwissenschaft und Technik geht der Trend an der Schwelle zum 21. Jahrhundert zu immer kleineren Abmessungen. Er zeigt sich in der Forschung, wo man mittlerweile einzelne Atome und sogar Photonen beobachten und manipulieren kann, aber auch in der Fertigungstechnik, etwa in der Mikroelektronik. So sind die Bauelemente für Computer in den letzten 30 Jahren stetig kleiner geworden. War im Jahr 1970 ein Transistor noch etwa ein Hundertstel Millimeter „groß“, ist er 1985 schon auf ein Zehntel dieser Größe geschrumpft, und heute sind seine Abmessungen erneut zehnmal winziger. Wenn der Fortschritt in der Miniaturisierung voranschreitet wie bisher, wären in 15 Jahren die elektronischen Bauelemente nur noch rund zehn Nanometer groß. Dies entspricht einer Reihe von etwa 40 Atomen in einem Kristall.
Röntgenstrahlung als Werkzeug und Sonde Das Werkzeug Licht muss mit dieser Entwicklung Schritt halten. Sichtbares Licht ist beispielsweise zur Herstellung winziger Schaltkreise im Nanometermaßstab
nicht mehr geeignet. Seine Wellenlänge, die etliche hundert Nanometer beträgt, wäre größer als die Strukturen, die es erzeugen soll. Dies entspräche dem Versuch, mit einem Vorschlaghammer eine Taschenuhr zu reparieren. Deshalb bemühen sich Forscher weltweit, Lichtquellen im Ultravioletten und im Röntgenbereich zu entwickeln. Diese wären nicht nur nützlich für die Fertigung von Nanostrukturen, sondern auch als Sonden in der Grundlagenforschung. So eignet sich extrem kurzwelliges Licht zur Untersuchung feinster biologischer Objekte, etwa für Gene, Viren oder Enzyme. Auch bei der Durchleuchtung von Kristallen zur Analyse organischer Riesenmoleküle, der so genannten Röntgenstrukturanalyse, ist intensives kohärentes Röntgenlicht unentbehrlich. Hier eröffnen sich wichtige Anwendungen in der medizinischen und pharmazeutischen Forschung. Eine besondere Herausforderung ist schließlich die Röntgenholographie, also die Erzeugung dreidimensionaler Abbilder im kurzwelligen Bereich. Ein zuverlässiger, lichtstarker Röntgenlaser wäre somit fast eine Neuausgabe von Aladins Wunderlampe.
Unter der Maske Sichtbares Licht wird heute zur Herstellung winziger Schaltkreise für die Mikroelektronik benutzt. Man belichtet dabei Siliziumscheiben, die mit lichtempfindlichem Lack abgedeckt sind. Nur an den Stellen, die von Masken geschützt wurden, bleibt der Lack erhalten. An den anderen Stellen kann das ungeschützte Silizium nun geätzt werden. Auf diese Weise entstehen Mikro-Strukturen wie zum Beispiel Leiterbahnen etc.
Die Miniaturisierung in der Mikroelektronik schreitet immer weiter voran. Hier ist ein Zoom in immer kleinere Dimensionen dargestellt. Die Maßstäbe im Bild geben die Größenordnung an. (Quelle: Institut für Halbleitertechnik II, RWTH Aachen)
89
Test der Beschleuniger-Struktur im Reinraum. (Quelle: DESY)
Elektronen auf der Slalombahn Es gibt mehrere Wege zur Erzeugung extrem kurzwelliger elektromagnetischer Strahlen: Synchrotronstrahlung, Freie-Elektronen-Laser und hocherhitzte Plasmen. Die Synchrotronstrahlung wird von Elektronen abgegeben, wenn sie sich auf Kreisbahnen bewegen, etwa in einem Beschleuniger oder Speicherring. Da diese Strahlung zwar sehr intensiv, aber nur mäßig gebündelt und vor allem nicht kohärent ist, ist sie für manche Zwecke nicht geeignet. Zur Verbesserung der Strahleigenschaften zwingt man deshalb im Freie-Elektronen-Laser hoch beschleunigte, fast lichtschnelle Elektronen durch eine Anordnung alternierender Magnete, einen so genannten Undulator, auf eine Slalombahn. Dabei geben sie ihre Strahlung weitgehend im Gleichtakt ab. Bei einem sehr kurzen Slalomtakt erzeugt dieser Laser entsprechend kurzwelliges Licht im extremen UV- oder sogar Röntgenbereich. Spiegel könnten den entstehenden
Strahl zusätzlich verstärken und bündeln. Leider gibt es aber kein Material, das sich dazu eignen würde, einen Röntgenstrahl zu reflektieren – er geht durch einen Spiegel einfach hindurch. Man hofft jedoch, mit einer Kombination sehr dünner Schichten, die man auf die Spiegel aufdampft, wenigstens einen Teil der Röntgenstrahlung zurückwerfen zu können und so optische Komponenten auch für den extrem kurzwelligen Bereich zu entwickeln.
Elektronen und Wellen im Wettlauf Ganz ohne Spiegel kommt hingegen der Freie-Elektronen-Laser nach dem SASEPrinzip (Self-Amplified Spontaneous Emission) aus. Er arbeitet mit kompakten, sehr energiereichen Elektronenpaketen, wie sie nur von besonderen Teilchenbeschleunigern erzeugt werden können. Die im Undulator entstehende spontane Strahlung der Elektronen ist etwas schneller als diese und holt deshalb die vor ihr fliegenden Teilchen ein. Sie beschleunigt einen Teil und bremst einen anderen Teil ab. Durch die Wechselwirkung mit der selbst erzeugten elektromagnetischen Welle entstehen also dünne, scheibenförmige Elektronenpakete, die synchron strahlen: ein sich selbst verstärkender Effekt. Erste Versuche mit einem 300 Meter langen FreieElektronen-Laser am Deutschen Elektronen-Synchrotron DESY in Hamburg, der nach diesem Prinzip arbeitet, verliefen erfolgreich. Es handelt sich um die Pilotanlage zu einem Röntgenlaser, der am DESY im Zusammenhang mit einem 33 Kilometer langen Linearbeschleuniger geplant ist. Weniger als eine Billiardstel Sekunde werden seine Blitze dauern, gleichzeitig werden sie mehr als eine Milliarde mal stärker sein als die besten Röntgenquellen heute. Man will mit ihnen wie in einem Film chemische und physikalische
90
In den Resonatoren des Linearbeschleunigers schwingen elektromagnetische Felder, die die Elektronen auf Geschwindigkeit bringen. (Quelle: DESY)
Reaktionen in ihrem zeitlichen Ablauf verfolgen. Vor allem die Biologen sind an dem neuen Werkzeug interessiert. Es gibt ihnen die Möglichkeit, komplizierte organische Verbindungen zu durchleuchten und zu untersuchen, wie sie an andere Moleküle andocken. Das so gewonnene Wissen kann beispielsweise dabei helfen, neue Medikamente zu entwickeln.
Heißer als das Innere der Sonne Eine ganz andere Möglichkeit zur Erzeugung kohärenten Röntgenlichts ist ein hoch erhitztes Plasma, das ist ein Gas aus geladenen Teilchen, zum Beispiel Elektronen und geladenen Atomen, den sogenannten Ionen. Die Plasmaphysik hat in den letzten Jahren einen gewaltigen Aufschwung erlebt, und Experten trauen ihr wahre Wunderdinge zu. Dies ist nicht zuletzt auf Fortschritte in der Lasertechnologie zurückzuführen, die mit Hilfe kürzester Pulse (nur wenige Femtosekunden lang) sehr hohe Lichtintensitäten erzeugen kann. Fokussiert man einen starken Femtosekundenlaser auf ein geeignetes Ziel (ein „Target“), so zerstäubt er das Material und heizt es auf sehr hohe Temperaturen auf. Wegen der extrem hohen Energiekonzentration auf engstem Raum entsteht dabei ein Gas aus geladenen Atomen. Welche Vorgänge in einem solchen Plasma genau ablaufen, wird derzeit erforscht – es sind prinzipiell dieselben Prozesse wie im Inneren von Sternen, die man auf diese Weise erstmals im Labor studieren kann. In jedem Fall sendet ein solches Plasma elektromagnetische Wellen im Röntgenbereich aus – im Laserfokus entsteht eine fast punktförmige Quelle sehr intensiver Röntgenstrahlung. Solche Quellen sind nicht nur für die Forschung, sondern insbesondere auch für die industrielle Fertigung interessant: Mit ihnen werden wahrscheinlich die Computerchips der übernächsten Generation gefertigt werden,
deren Strukturen selbst nur noch 50 Nanometer groß sind, zehnmal kleiner als die Wellenlänge sichtbaren Lichts. Durch besonders geschickte Wahl der Plasmaparameter kann man sogar Lichtverstärkung durch stimulierte Emission erreichen: Der Röntgenlaser ist realisiert. In vielen Labors untersucht man auch ein Phänomen, das eines Tages zu einer weiteren Quelle für kohärente Röntgenstrahlung führen könnte: die Frequenzvervielfachung. Unter extremen Bedingungen kann ein Laserstrahl die Atome eines Targets nicht nur in ihrer eigenen Frequenz stark anregen, sondern auch parallel dazu Oberschwingungen auslösen, ähnlich wie man dies von schwingenden Saiten kennt. Anschließend strahlen die Atome Lichtquanten ab. Deren Frequenz beträgt ein Vielfaches der Grundfrequenz und kann sich bis in den Röntgenbereich erstrecken. Die Umwandlungsrate in Röntgenlicht ist allerdings sehr gering - jenseits der hundertsten Oberwelle wird weniger als der millionste Teil des eingestrahlten sichtbaren Lichts in Röntgenstrahlung verwandelt. Wegen der hohen Strahlqualität erscheint es aber aussichtsreich, auch nach diesem Prinzip kohärente Röntgenlichtquellen zu bauen. Sie wären ideale Werkzeuge für Forschung und Diagnostik in den Mikro- und Nanowelten des kommenden Jahrhunderts.
In dieser Apparatur wird mit Hilfe eines Plasmas kohärentes Röntgenlicht erzeugt. (Quelle: Max-Born-Institut für Nichtlineare Optik und Kurzzeitspektroskopie)
Lasererzeugtes Plasma. Emission im sichtbaren Licht. (Quelle: FhG-IWS/VDI-TZ)
91
93
„Wendy“ (Régis Loisel: Peter Pan, Egmont Ehapa Comic Collection Stuttgart)
Der Stein
der Weisen
94
Rippel im Sand
Wendy im Buttermilch-Universum: Buttermilch, dezidiert „weiche Materie“, bildet, wie Bier, selbstorganisierte, charakteristische Fließmuster an der Glaswand. Selbst Bierflecken haben eine akademische Betreuung gefunden, am National High Magnetic Field Laboratory der Florida State University: http://micro.magnet.fsu.edu/beershots/ index.html. Und auch Wolken und Wellen können auffällige Strukturen zeigen. (Fotos Buttermilch und Wolken: Bergerhof Studios, Suzy Coppens)
Archäologie 2250
D
ie Szene war wie aus dem Reiseprospekt – weißgelber Strand mit Palmen, türkisfarbenes Wasser. Wendy lag bäuchlings im Sand und ließ sich von ihrer Neigung, in allem und jedem ein Muster sehen zu wollen, ablenken: sie sah die gestaffelten Schaumkämme der Wellen, Rippel und Schichten im Sand, Walzenwolken am Himmel, die regelmäßigen Buttermilch-Schlieren an den Wänden ihres Glases. Für das Erkennen von Mustern – nicht dieser – wurde sie im Moment sogar bezahlt, als Technikhistorikerin sollte sie im Sand Interessantes finden: Mikroteile, die sie zur Epochenbestimmung benutzte wie Naturhistoriker Pflanzenpollen. Wendy trug Haftschalen aus selbstformender Opto-Gallerte, die ihren Augen auf Wunsch die Eigenschaften eines Mikroskops gaben, so dass sie Zehntel Millimeter feine Details im Sand ohne Mühe erkennen konnte. Wenn sie ab und an scheinbar angestrengt die Augenbrauen zusammen zog – eine Geste, die ihr Partner immer ganz reizend fand – löste sie lediglich die Übertragung des Gesehenen in den fotografischen Speicher ihres Gedächtnisses aus. Neben Bil-
dern von ordinären Sandkörnern und naturgemachten Kalk- und Kieselpanzern hatte sich hier schon allerhand künstliches Strandgut angesammelt: Bruchteile von mikroskopisch kleinen Zahnrädern, Spindeln, Ratschen, Kanülen, Spiegeln, Manipulatoren; Bündel von Buckytubes – es war klar, dass der Strandsand die Reste von Produkten und Maschinen einer Fabrik enthielt. Nur: einer Fabrik wofür? Die Erleuchtung kam, als Wendy im Sand ein scheinbar vom Wind bewegtes Stück schwarz-grünen Gewebes sah, das bei näherem Hinsehen weder Stoff war, noch vom Wind bewegt wurde. Es war ein Fetzen mineralischen Muskelmaterials, das Licht aufsaugte und die Energie in Wellenbewegungen wieder abgab ... Smaug?! Dann würden auch die Buckytube-Bündel im Sand Sinn machen. „Smaug“ hatte bereits Sehnen aus Buckytube-Bündeln gehabt, tausendfach stärker als Stahl. Sollte hier eine Hausdrachenfabrik gewesen sein? Wendy hatte die liebsten Erinnerungen an ihren künstlichen Hausdrachen Smaug, den ihr Vater, ein Tolkien-Fan, ihr geschenkt hatte, vor fast 200 Jahren. Wenn Smaug sich mit Son-
nenlicht voll gesaugt hatte, konnte er das Kind aus eigener Kraft sicher hunderte Meter hoch tragen, in aufsteigenden Luftsäulen weiter steigen ... sie waren kreischend auf das Wasser herunter gestürzt, Smaug hatte einen Fisch gefangen ... Wir wissen nicht, ob Wendy jemals wahr wird, oder ihr Hausdrache; aber bedenken wir die These des britischen Autors Arthur C. Clarke: „Die Produkte einer hochentwickelten Technologie sind für Angehörige weniger fortgeschrittener Kulturen nicht von Zauberei zu unterscheiden.“ Funktelefone und Fernsehübertragungen hätten vor 200 Jahren als Magie gegolten, und es ist anzunehmen, dass viele der in 200 Jahren käuflichen Produkte auf uns jetzt gleichermaßen utopisch wirken würden.
95
Auf der Suche
Wikingerstein Cordierit-Kristall mit „Dichroismus“: Je nach Schwingungsrichtung des polarisierten Lichtes im Hintergrund wechselt der Kristall seine Farbe. Dieser kristalloptische Effekt diente den Wikingern als Navigationshilfe im arktischen Zwielicht, denn das Resthimmelslicht ist stark polarisiert. Und ein Kompass funktioniert in Polnähe nicht. (Quelle: Institut für Kristallographie der Uni Köln, Foto: Bergerhof Studios, Suzy Coppens)
Lichtwandlung heute: Mit höchster Effizienz kann Wismutborat infrarotes Licht in grünes, kürzere Wellenlängen sogar in blaues Licht umwandeln; die Fachwelt spricht von „Frequenzverdopplung“. Optische Effekte sind eine tragende Säule der Festkörperphysik. (Quelle: Institut für Kristallographie der Uni Köln, Foto: Bergerhof Studios, Suzy Coppens)
Das ganze technisch-wissenschaftliche Feuerwerk der Gegenwart begann mit der Suche nach dem Stein der Weisen, deren Anfänge im Dunkeln liegen. Die Suche könnte begonnen haben im Zwielicht der Arktis, etwa in der Hand des Navigators eines Wikinger-Schiffes. Tatsächlich orientierten sich die Wikinger bei Abenddämmerung mit Hilfe eines „Sonnenstein“ genannten Minerals (Cordierit): Gedreht im polarisierten Himmelslicht nach einem Sonnenuntergang, changierte dieser Stein so zwischen Gelb und Blau, dass der Sonnenstand wieder auszumachen war. Das Wechselspiel von Licht und Steinen wurde offenbar zu allen Zeiten für bedeutsam gehalten; 1603 erregte ein anderer „Sonnenstein“ Aufsehen, als Vincenzo Cascariolo, ein Bologneser Alchimist, eine Mischung von Schwerspat- und Kohlepulver erhitzte und entdeckte, dass das Reaktionsprodukt (Bariumsulfid) nachts bläulich schimmerte und sich tags wieder mit Sonnenlicht „aufladen“ ließ. Die Alchimisten hofften sogleich, den wahren Stein der Weisen gefunden zu haben, der gewöhnliche Metalle in Gold verwandeln konnte. Den bankrotten Hamburger Kaufmann und Alchimisten Henning Brand trieb die Erwartung, die Urmaterie für einen Stein der Weisen könne sich in Körperflüssigkeiten finden, gar in die Aborte Hamburger Kasernen. Nach dem Eindampfen einer Tonne Urin erhielt Brand eine rote Flüssigkeit, aus der Kristalle ausfielen. Nach deren Glühen blieb ein weißer Staub zurück, der im Dunkeln leuchtete: Brand hatte, 1669, elementaren Phosphor hergestellt, dessen Name von „phosphorus“ – Lichtträger – abgeleitet wurde. Gold freilich konnte man aus Phosphor nicht machen. Dass derlei mit einem Stein der Weisen gelingen könnte, wurde aber weiter behauptet, so auch von Johann Friedrich Böttger, einem talentierten Alchimisten im Dienste von August dem Starken.
96
Auch Böttger fand – natürlich – kein Gold. Dafür stieß er 1707, mit Ehrenfried Walter von Tschirnhaus, einem Physiker, auf das Geheimnis des echten chinesischen Porzellans. Eine Entdeckung, die den Reichtum der berühmten Meissner Manufaktur begründete. Die Idee eines Steins der Weisen für die Umwandlung von Elementen hatte also durchaus ihre Meriten, und sei es nur als Motiv, überhaupt eine Art Materialforschung in Gang zu setzen – an deren Ende heute Möglichkeiten stehen, neben denen der Traum von der Verwandlung unedler Metalle in Gold völlig verblasst. Bahnbrechende Entdeckungen hatten dabei in den meisten Fällen gar nichts mit der ursprünglichen Idee zu tun. Wer weiß, wie es geht, kann heute aus Abfall High-Tech machen: Die Elemente Silizium und Kohlenstoff kommen in den Schalen von Reiskörnern in einem so günstigen Verhältnis vor, dass beim Verkoken dieses Abfallproduktes fadenförmige, hochtemperaturbeständige Kriställchen aus Siliziumkarbid heranwachsen, die sich für die Verstärkung von Metallen wie Titan eignen. Das Material ist für die Hülle neuer Raumgleiter in der
High-Tech aus Dreck: Ein grober Siliziumkarbid-Kristall (rechts), in einem Elektroofen aus pulverisierter Kohle und Quarzsand synthetisiert. Nach sorgfältiger Rekristallisation lassen sich daraus Wafer (links) für eine schnelle, hohe Spannungen vertragende Leistungselektronik herstellen, etwa für die Steuerung von elektrischen Antrieben. Transistoren aus diesem Material funktionieren noch bei 600 Grad Celsius. (Quelle: Siemens-Pressebild)
Entwicklung – eine echte AschenputtelKarriere. Schließlich ist mit Silizium heute tatsächlich eine Art Stein der Weisen gefunden worden. In der Gestalt von ComputerChips hat das unscheinbare Element der Welt einen phantastischen Technologiesprung gebracht. Und es könnte mit etwas Glück dazu beitragen, das Ende der Ära von Dampfturbine und Explosionsmotor einzuläuten: Solarzellen stinken nicht, sie glitzern nur.
In der Zwischenwelt Das Glitzern der neuen Technologien ist ganz wesentlich das Werk der Physik der kondensierten Materie, enger: der Physik der festen Körper. Während aber Kosmologie und Elementarteilchenphysik die Phantasie durch Vorstellungen von unendlich Großem und unendlich Kleinem reizen, scheint die Wissenschaft der festen Materie eher dem Alltäglichen verhaftet. Dabei besitzt die Festkörperphysik ihre eigenen romantischen Qualitäten: In der Welt zwischen den Quarks und den Quasaren, zwischen Atomkernen und Galaxien liegt das Reich der unendlich vielen Dinge.
Die gesamte uns umgebende Natur besteht letztlich aus nur etwa 100 verschiedenen Bausteinen, den chemischen Elementen – jedoch in abermilliardenfach unterschiedlicher Zusammensetzung. Allein die daraus zusammengesetzte „tote“ Materie existiert in einer Vielzahl von Zuständen: in Kristallen und Gläsern, in Flüssigkeiten, Gasen und Dämpfen, in Nordlichtern und Blitzen. Wir finden Steine und Sanddünen, Wolken und Wasserwirbel, wir sehen sie brechen und fließen, verdampfen und gefrieren in regelmäßigen und unregelmäßigen Strukturen. Die Physik der kondensierten Materie navigiert auf einem unendlich ausgedehnten Meer kaum fassbarer Wandlungsfähigkeit und Komplexität. Dieses Heft ist die Seekarte dazu – wenn auch nur mit sehr grobem Maßstab.
Materiezustände Ein und derselbe Stoff kann – je nach Temperatur, Druck und anderen Gegebenheiten – in verschiedener Gestalt auftreten, etwa fest, flüssig oder gasförmig. Wenn fest, dann sowohl kristallin, die Atome also in Gittern wohlgeordnet; oder amorph, dann mit eher chaotisch arrangierten Atomgruppen, wie bei Glas. Je nach Art der chemischen Bindung werden metallische, ionische oder molekulare Festkörper unterschieden. Der flüssige Status kennt ebenfalls Zwischenstufen; Flüssigkristalle etwa sind teilgeordnet. Wenn die Atome hocherhitzter Gase Teile ihrer Elektronenhülle verlieren, spricht man von einem Plasma – kurzum, die Ordnungszustände der Materie sind reichhaltig und keineswegs erschöpfend erforscht.
Ich brauche nicht jeden Nagel des Schiffes zu kennen. Ich muss aber den Menschen den Drang zum Meer vermitteln ... Antoine de Saint-Exupéry
Jedoch: Nicht jeder, der nach Indien fährt, entdeckt Amerika. Erich Kästner Trotzdem: Wendy’s Hausdrachen kann fast versprochen werden.
97
Wismut, ein Metall, das bizarre Kristalle ausbildet. Das Element tritt am augenfälligsten in Verbindung mit Sauerstoff und Chlor in Erscheinung, so nämlich kann es Lippenstift, Nagellack und Lidschatten perligen Glanz geben. Ernsthafte Arbeit verrichtet es z. B. als Bestandteil von Hochtemperatur-Supraleitern. (Quelle: Institut für Kristallographie der Uni Köln, Foto: Bergerhof Studios, Suzy Coppens)
Enthüllung
der Struktur
98
... und ihre atomaren Ursachen
Turmalin Ein komplexes Borsilikat, in Holland „Asantrekker“ getauft, weil die Kristalle bei Erwärmung Oberflächenladungen ausbilden, die eben auch Asche anziehen. Dieser „pyroelektrische Effekt“ ist eine von vielen kristallinen Eigenarten, die die Neugier der Alchimisten anstachelten und schließlich von einer soliden Wissenschaft tiefgründig erklärt werden konnten. (Fotos Turmalin und Kalialaun: Bergerhof Studios, Suzy Coppens)
Rätselhafte Effekte ...
I
m Jahre 1703, so die Legende, beobachteten holländische Gelehrte einen Turmalinkristall, „welcher die Eigenschaft hätte/ dass er die Turff-Asche auf der heißen oder glühenden Turff-Kohle/... wie ein Magnet das Eisen/an sich ziehe ...“ Der so genannte pyroelektrische Effekt, eine neue Quelle statischer Elektrizität, war entdeckt; die richtige Deutung ließ allerdings fast 200 Jahre auf sich warten. Mit kräftigen Schlägen hätten die Holländer dem Turmalin elektrische Funken entlocken können. Turmalin nämlich ist – wie Quarz – nicht nur pyroelektrisch sondern auch piezoelektrisch: Bei Deformation solcher Kristalle werden elektrische Ladungen frei. Wird, umgekehrt, an einen solchen Kristall eine elektrische Spannung angelegt, dann verformt er sich.
Der piezoelektrische Effekt war eine der vielen Eigentümlichkeiten von Kristallen, die im 19. Jahrhundert entdeckt wurden. Deren Ursache schien in der inneren Struktur der Kristalle zu liegen: Forscher vermuteten, dass Kristalle aus einer regelmäßigen Anordnung von Atomen – einem so genannten Gitter – aufgebaut sind. Der unmittelbare Beweis dafür gelang jedoch erst 1912. Die Beweistechnik lässt sich am Beispiel eines glitzernden Opals erklären. In einem solchen Edelstein sind Mikrometer kleine Kügelchen aus wasserhaltigem Siliziumdioxid (aus dem auch Sand besteht) regelmäßig geschichtet – wie Orangen in einem Stapel. Trifft weißes Licht auf dieses Kugelgitter, so wird es in seine Spektralfarben aufgefächert („gebeugt“): Die unterschiedlichen Bestandteile des Lichts werden je nach Farbe, also Wellenlänge, in verschiedene Richtungen abgelenkt. Wenn das gestreute Licht wieder zusammentritt und sich die Wellenzüge der einzelnen Komponenten überlagern, leuchten manche Farbanteile stärker, manche schwächer – der Opal schillert. Aus diesem Farbmuster lässt sich im Prinzip die innere Grobstruktur des Opals rekonstruieren: die Lage der das Licht beugenden Kugelebenen sowie die Größe der Kugeln.
Opal Wenn einfarbiges Licht ein winziges Hindernis trifft, erscheinen dahinter leuchtende Flecken. Weißes Licht erzeugt ein buntes Muster, da die Auffächerung von der Wellenlänge, also der Lichtfarbe, abhängt. Wird Licht von vielen dicht aneinander liegenden Rillen gestreut, wie bei den „Pits“ einer CD, so überlagert sich das gebeugte Licht jeder Rille mit dem jeder anderen („Interferenz“); das Ergebnis sind Regenbogenreflexe. Beim Opal wird das Farbenspiel von regelmäßig angeordneten Siliziumdioxid-Kügelchen hervorgerufen. (Quelle: Institut für Mineralogie und Geochemie der Uni Köln)
Kalialaun, eine Substanz, die unter anderem zum Versiegeln von Rasierwunden verwendet wird, bildet große Kristalle. Aus deren regelmäßiger Form haben Wissenschaftler einst auf die Existenz atomarer Baublöcke geschlossen. Das Rasterelektronenmikroskop zeigt das Kugelgitter eines funkelnden Opals. Ähnlich arrangieren sich die – zehntausendfach kleineren – Atome oder Moleküle in einem Kristall. (Quelle: Institut für Mineralogie und Geochemie der Uni Köln)
99
Die Wellenlänge von Röntgenstrahlen ist tausendfach kleiner als die von sichtbarem Licht und liegt damit im Bereich atomarer Dimensionen. Eine Regel besagt, dass nennenswerte Beugungserscheinungen nur dann auftreten, wenn beugende Struktur und Wellenlänge der Strahlung ähnlich groß sind. Sollte sich mit Röntgenlicht – 1895 von Wilhelm Conrad Röntgen entdeckt – die Atomgitterhypothese beweisen, die Feinstruktur von Kristallen entschlüsseln lassen, in Analogie zum Opal? Viel mehr als das. 1912 traktierten zwei Studenten des Göttinger Physikprofessors Max von Laue auf dessen Anregung einen Kupfersulfatkristall mit Röntgenstrahlung: Auf einem Film erhielten sie eine Serie von Punktmustern, die als Beweis für die Existenz von Atomgittern gelten konnten. Ein Jahr später hatte der Brite Lawrence Bragg einen mathematischen Zusammenhang zwischen den Punktmustern und der Anordnung der Atome im Kristall hergestellt, so dass man fortan den atomaren Aufbau eines Kristalls anhand seines Beugungsmusters ermitteln konnte. Damit war die Kristallstrukturanalyse geboren und mit ihr eines der wichtigsten Instrumente der Festkörperphysik. Phänomene wie die Piezoelektrizität konnten jetzt atomar gedeutet werden.
Pyrit, aus Eisen und Schwefel zusammengesetztes Mineral, das Schatzsucher schon mal als „Katzengold“ in die Irre führt. Die innere, atomare Struktur lässt sich aus den Reflexen von Röntgenlicht rekonstruieren, hier ein so genanntes „Laue-Diagramm“ (Bild oben). Jeder Punkt repräsentiert eine atomare Ebene. (Quelle: Institut für Kristallographie der Uni Köln, Foto: Bergerhof Studios, Suzy Coppens)
100
So auch die materielle Basis des Lebens. Im April 1953 veröffentlichten James Watson und Francis Crick in der britischen Wissenschaftszeitschrift Nature die Struktur der Erbsubstanz DNS – das größte Geheimnis, das die belebte Natur zu bieten hat, gelüftet mit verfeinerten Mitteln der Kristallstrukturanalyse.
Synchrotron-Strahlung für komplexe Kristalle In einem Atom umschwirren Elektronen den Kern wie Bienen ihren Stock. Viele Materialeigenschaften – ob fester, flüssiger oder gasförmiger Stoffe – werden durch die Gestalt der Elektronenwolke bestimmt: Sie entscheidet, ob ein Material metallisch, halbleitend oder isolierend ist. Da Röntgenwellen bevorzugt von Hüllenelektronen gestreut werden, liefert die Probenanalyse mit Röntgenstrahlung wichtige Informationen über Struktur und Eigenschaften des untersuchten Materials. Wenn fast lichtschnelle, geladene Partikel in eine Kreisbahn gezwungen werden, entsteht Synchrotron-Strahlung, eine besondere Art der Röntgenstrahlung. Entlang einer Kreisbahn ändert sich beständig die Bewegungsrichtung der Ladung, die Ladung wird also beschleunigt. Beschleunigte Ladungen aber strahlen elektromagnetische Energie ab, unter den richtigen Gegebenheiten eben auch Röntgenstrahlung. Die Strahlung eines Synchrotrons ist um Größenordnungen intensiver als die gewöhnlicher Röntgenquellen. Damit ausgestattet, wagen sich Forscher an die Aufklärung der Struktur komplexer Proteine (Eiweiße). Solche Biomoleküle sind keine starren Gebilde, sie reagieren auf ihre Umgebung und können dabei blitzschnell die Form ändern. Mit der Röntgenstrukturanalyse lassen sich selbst unterschiedliche Bewegungsstadien unter die Lupe nehmen. Eines der ehrgeizigsten Ziele: die Entschlüsselung der Ribosomen; jener Mikromaschinen im Inneren der Zellen, die mit Erbsubstanzschnipseln als Programm Proteine herstellen.
Mit dem Jülicher NeutronenspinechoSpektrometer lässt sich die Bewegung von Polymermolekülen verfolgen. (Foto: FZ Jülich)
Neutronen für die Strukturanalyse Auch Neutronen sind begehrte Detektive, ähnlich wie Röntgenstrahlen helfen sie der Festkörperwissenschaft, Materialstrukturen aufzuklären. Neutronen kommen in den meisten Atomkernen vor, als Quelle freier Neutronen dienen im Allgemeinen besondere Forschungsreaktoren. Wie alle sub-mikroskopischen Partikel zeigen auch Neutronen eine Anfälligkeit zur „Persönlichkeitsspaltung“: Sie haben sowohl Teilchen- als auch Welleneigenschaften. Wobei die Wellenlängen im Bereich atomarer Distanzen liegen. Während Röntgenwellen besonders empfindlich auf die Elektronenhüllen der Atome reagieren, sind die ungeladenen Neutronen subtiler, sie erfühlen Eigenschaften der Atomkerne. So sind die stabilen Isotope des Wasserstoffs – Hydrogenium und Deuterium – zwar chemisch identisch, für Neutronen aber sehr unterschiedlich. Dies lässt sich ausnutzen, um die genaue Gestalt eines geknäuelten Polymermoleküls in einer Schmelze aus gleichen Polymermolekülen zu bestimmen. Zunächst erscheint dies so aussichtslos wie der Versuch, den Weg einer Nudel in einer Portion Spaghetti zu verfolgen. Durch Beimischung einiger mit Deuterium markierter Moleküle wird dies mit Neutronen aber leicht möglich. Messbar sind auch Kräfte zwischen Atomen sowie elastische Eigenschaften molekularer Gebilde. Neutronen sind außerdem kleine Magnetsonden: Sie spüren den Magnetismus auf atomarer Skala und erlauben einzigartige Einblicke in die mikroskopischen Eigenschaften magnetischer Materialien. Neben der Analyse mit Röntgen- oder Neutronen-Wellen ist mittlerweile eine Vielzahl weiterer „Spektroskopie-Methoden“ entwickelt worden, wie etwa die Elektronen- oder Helium-Beugung. All diese Verfahren ergänzen sich gegenseitig bei der Aufklärung der atomaren Struktur und der Dynamik der Dinge, die uns umgeben.
101
Silizium-Wafer mit modernen LogikChips (AMD K6-2). Neueste Designs bringen 35 Millionen Transistoren auf der Fläche eines Daumennagels unter. Um 2012 herum dürfte die Industrie auf eine prinzipielle Schranke für weitere Verkleinerungen stoßen: die Körnigkeit der Materie. (Quelle: Advanced Micro Devices)
Filigrane
Flächen
102
Der Ur-Transistor, ein Replikat: Zwei dicht benachbarte Kontakte, der Emitter und der Kollektor, werden mittels einer Büroklammer auf die Oberfläche eines Germanium-Kristalls, die Basis, gepresst. Das v-förmige Objekt ist
ein mit einem Goldband überzogenes Plastikdreieck, das an der Spitze mit einer Rasierklinge geritzt wurde, um die dicht benachbarten Kontakte zu schaffen. (Foto: FZ Jülich, W.P. Schneider)
finden und die bisher übliche Vakuumröhre ersetzen kann ... Es wurde aber behauptet, dass man mit dem Transistor auch Radiowellen erzeugen und empfangen könne ...“
Transistoren sind Bauelemente, mit denen sich elektronische Signale schalten und verstärken lassen. In der Regel haben Transistoren drei elektrische Kontakte – der Stromfluss über zwei dieser Kontakte lässt sich durch den dritten steuern. Heute gibt es Transistoren, die mit der Leistung eines wedelnden Ameisenfühlers einen Elektroherd schalten könnten.
Wie der Transistor in die Welt kam
Für die Elektronik war die erste Hälfte des 20. Jahrhunderts das Zeitalter der Elektronenröhre. Sie erlaubte die Entwicklung des Radios, der Telekommunikation, des Fernsehens und der ersten digitalen Computer. Letztere hatten allerdings den Stromverbrauch einer Kleinstadt und lagen häufig still – die Röhren waren unzuverlässig. Die Industrie suchte nach einer Alternative in der Gestalt eines festen, kristallinen Verstärkers für schnelle elektrische Schwingungen. Der Vorläufer der ersten wirklich tauglichen Kristallverstärker entstand am 23. Dezember 1947, als Walter Brattain in den New Yorker Bell Laboratories ein mit einer dünnen Goldschicht bedampftes Plastikdreieck nahm, mit einer Rasierklinge einen Schlitz quer über die Dreiecksspitze machte und die geschlitzte Spitze mittels einer verbogenen Büroklammer auf einen Germaniumblock presste. Diese Anordnung verschiedener Elektroden an einem Kristall verstärkte bei Zimmertemperatur Wechselspannungssignale mit Frequenzen im Kilohertz-Bereich, erreichte also das „hohe C“. Der Transistor war erfunden. Das Ergebnis schien Brattains Arbeitsgruppe, zu der noch John Bardeen und William Shockley gehörten, so bemerkenswert, dass sie das Militär zu Rate zog: ob da nicht etwas zu fördern oder gar geheimzuhalten sei. Das Militär verneinte nach einem kurzen Blick auf die Erfindung, und die Bell Laboratories stellten den Transistor am 30. Juni 1948 der Öffentlichkeit vor. Die war nicht sonderlich beeindruckt. Die New York Times schrieb anderntags auf der vorletzten Seite: „Gestern wurde von den Bell-Telephone-Laboratories, 463 West Street, zum erstenmal ein Transistor genanntes Bauelement vorgestellt, das in einem Radio Verwendung
Ein eher lauwarmer Empfang für eine der folgenreichsten Erfindungen in der Geschichte der Menschheit, die – schließlich in der Gestalt des Elements Silizium – zu einem wahren Stein der Weisen mutieren sollte.
103
Die Massenfertigung von Bauelementen aus Silizium begann um 1960, als es gelang, Silizium hochrein herzustellen. Silizium ist ein „Halbleiter“, ein Stoff mit besonderen elektronischen Eigenschaften. Das Element wurde schnell zum Material der Wahl, weil es, zum einen – als Siliziumdioxid in gewöhnlichem Quarzsand steckend – sehr verbreitet und damit billig ist. Zum anderen bildet Silizium an seiner Oberfläche einen sehr stabilen, fest haftenden, bestens isolierenden Oxidfilm aus, wenn es unter Sauerstoff erhitzt wird. Dieser Film lässt sich fotolithografisch zu einer filigranen Maske ätzen, durch deren Aussparungen Fremdatome so in das Silizium einwandern, dass kleine Transistoren und andere elektronische Komponenten entstehen. Silizium macht mithin „integrierte Schaltungen“ möglich, in denen viele miteinander verbundene Transistoren, Dioden, Widerstände, Kondensatoren auf einem Siliziumkristallstück, dem „Chip“, arrangiert sind.
Schnüffel-Chip Pfenniggroßes Herzstück einer elektronischen Nase, die unterschiedlichste Gase erschnuppern kann. (Quelle: FZ Karlsruhe)
104
Einkristall Das hochreine Material für SiliziumWafer wird durch langsames Drehen und Ziehen eines Kristallkeims aus einer Siliziumschmelze herangezüchtet. Der bislang übliche Durchmesser von 20 Zentimetern soll jetzt auf 30 Zentimeter vergrößert werden; die Industrie erhofft sich davon eine weitere Erhöhung der Produktivität. (Quelle: Wacker Siltronic)
Computergedächtnis Die Rechenleistung moderner Chips hätte wenig Wert, stünde ihr nicht ein großes, schnelles Gedächtnis in der Gestalt einer Festplatte zur Seite. Die Entwicklung der Festplattenspeicher ist ein weiterer Triumph der Festkörperphysik, die der ChipEntwicklung an Dynamik nicht nachsteht. Die Kapazität der Festplattenspeicher stieg in den 1980er Jahren bis zu 30 Prozent pro Jahr; das jährliche Wachstum beschleunigte sich in den 1990ern auf 60 Prozent. Derzeit verdoppeln sich die Festplattenkapazitäten alle neun Monate und lassen damit die Verdopplungsraten der Chip-Leistung weit hinter sich. Der rasante Fortschritt wird von einem Effekt beflügelt, der zwischen 1986 und 1988 bei Grundlagenstudien am Forschungszentrum Jülich entdeckt wurde: Magnetfelder verändern in einem Stapel hauchdünner Metallschichten den elektrischen Widerstands. Die Entdeckung dieses RiesenMagnetowiderstandseffekts (engl. giant magnetoresistance effect, kurz GMR) wurde 1998 mit dem Zukunftspreis des Bundespräsidenten ausgezeichnet. Das Phänomen lässt sich nutzen, um extrem empfindliche Magnetfeld-Sensoren herzustellen, etwa für die Leseköpfe neuer Festplattenspeicher. Wie dicht Informationen auf eine Festplatte gepackt werden können – die Kleinheit der magnetischen Schrift – hängt von der Empfindlichkeit ab, mit der ein Lesekopf Änderungen der magnetischen Feldstärke wahrnimmt. GMR-Sensoren sind hier besonders feinfühlig. Die mit GMR-Technik bald mögliche Speicherdichte wird auf mindestens zehn Gigabit pro Quadratzentimeter geschätzt. Das ist ungefähr die hundertfache Speicherdichte einer CD.
PAP auf molekularer Ebene: Die stäbchenförmigen Moleküle liegen im „unbeschriebenen“ Polymerfilm völlig ungeordnet vor (Bild oben). Um Information zu speichern, wird der Polymerfilm mit Laserlicht bestrahlt, dadurch richten sich die Moleküle aus – das PAP wird beschrieben. (Quelle: Bayer)
Optische Speicher für Hollywood
Entwicklung der Speichertechnik: Von den frühen Lochkarten (die abgebildeten sind ungestanzt) über den Ringkernspeicher aus den 1960ern (512 Byte) bis zur Festplatte Baujahr 1998 (340 Megabyte). (Quelle: FZ Jülich, W.P. Schneider und IBM)
Schreib-/Leseköpfe eines Festplattenspeichers können die beschichteten Scheiben – über die sie im Abstand des Fünftausendstels des Durchmessers eines Haares „fliegen“ – blitzschnell in winzigen, konzentrischen Arealen magnetisieren und die Magnetisierung bereits beschriebener Areale lesen; neuere Köpfe nutzen dabei den Riesen-Magnetowiderstandseffekt. Selbst schwache Magnetfelder lassen sich so über die Messung eines elektrischen Widerstands aufspüren.
Gleichermaßen interessant ist die Fortentwicklung optischer Speichermethoden. Ein neuartiges, bei Bayer-Leverkusen entwickeltes „photoadressierbares Polymer“ (PAP) wechselt unter Laserbestrahlung seine Molekülstruktur. Eine punktuelle Veränderung, die sich wiederum mit Laserlicht, diesmal abgeschwächtem, auslesen lässt. Das Material ist geeignet für die holographisch-optische Speicherung, die auch das Volumen, die Tiefe, eines Materials ausnutzt. Ein Polymerspeicher von der Größe einer CD würde mit dieser Technik mehr als das Tausendfache des Informationsgehaltes einer herkömmlichen CD tragen. Mehr noch: die Schreib- und Lesegeschwindigkeit wäre mit einigen Gigabit pro Sekunde für Multimedia-Anwendungen mehr als schnell genug; die ersten, in vielleicht fünf Jahren zu erwartenden Produkte sollen denn auch Speicher für die Filmindustrie sein.
105
Quantenblume Elektronischer Zustand einer Silberinsel mit neun Nanometern Durchmesser. Rastertunnelmikroskope ermöglichen seit wenigen Jahren eine neue Art von Experimenten bei tiefen Temperaturen: Mit hoher Energie- und Ortsauflösung können die elektronischen Zustände und Schwingungsmoden von einzelnen Atomen oder Molekülen auf Oberflächen spektroskopiert werden. (Quelle: Institut für Experimentelle und Angewandte Physik der Universität Kiel und der Universität Lausanne)
M
Abstecher
ins Quantenland
1106 06
„ oore’s Gesetz“, bereits 1965 von Gordon Moore aufgestellt, besagt, dass sich die Computerleistung ungefähr alle anderthalb Jahre verdoppelt. Ein Grund für diesen ungebrochenen Fortschritt ist die ständige Verkleinerung der ChipStrukturen, die es gestattet, immer mehr Transistoren zu integrieren – wer einen Bleistift auf einen modernen Chip setzt, darf heute bis zu hunderttausend und mehr Transistoren unter der Spitze vermuten. Eine Entwicklung, die aber vor allem immer kürzere Signallaufzeiten zur Folge hat. Die Chip-Designer rechnen tatsächlich mit jedem Millimeter; die Lichtgeschwindigkeit, die mit 300.000 Kilometer pro Sekunde einst stattlich schien, ist ihnen längst zu einer lästigen Beschränkung geworden. Der Verkleinerung der Chip-Strukturen aber ist eine natürliche Grenze gesetzt: der atomare Aufbau der Materie, ihre Körnigkeit. Und: mit den schrumpfenden Dimensionen schrumpft auch die Zuständigkeit der klassischen Physik, beginnen Quantenphänomene zu dominieren, und die sind überaus merkwürdig. So treten Photonen, die Träger des Lichtes, sowohl in Wellengestalt wie als Teilchen auf: Eine bunte Seifenblase kündet, ähnlich wie ein Opal, von der Welleneigenschaft des Lichtes. Das Foto der Seifenblase zeugt dagegen vom Partikelcharakter des Lichtes: Die mikroskopisch kleinen Silberhalogenidkörner des Films sind offenkundig von scharf lokalisierten Teilchen getroffen worden. Umgekehrt verhalten sich die atomaren Bauteile der Materie – wie Neutronen und Elektronen – nicht nur als Partikel, sondern auch als Wellen, wenn sie in Streuexperimenten Kristallgitter durchdringen.
Chip
Transistor
Clustermuster auf einem Substrat (elektronenmikroskopisches Falschfarbenbild, 10 Nanometer (10 nm))
Cluster aus 55 Goldatomen (1,4 nm)
Größenvergleich: Die filigranen Strukturen eines Computer-Chips sind mit bloßen Augen gerade noch zu erkennen. Um Cluster sichtbar zu machen, ist schon ein Elektronenmikroskop nötig. (Quelle: Institut für Anorganische Chemie der Universität GH Essen und Zeitschrift für Angewandte Chemie)
Die Quantenmechanik kann solche Phänomene in der Sprache der Mathematik präzise beschreiben. Sie ist die am genauesten überprüfte physikalische Theorie überhaupt und bietet Erklärungen über Vorgänge im Inneren eines einzelnen Atoms genauso wie über die Lebensgeschichte „Weißer Zwerge“ – jener Sternart, die das Endstadium auch unserer Sonne darstellen wird. Jedoch: Der Versuch, die Quantenmechanik mit den bewährten Mitteln des „gesunden Menschenverstandes“ auszuloten, führt in unauflösbare Paradoxa. Wirkungen ohne Zeitverzögerung scheinen möglich; ein Ding scheint an verschiedenen Orten zugleich sein zu können; verschiedene Teile treten zu einem Einzigen zusammen und können als Ganzes zwei Spalte in einer Wand durchlaufen, was nach überkommenem Denken eigentlich eine Teilung voraussetzt. Theoretiker unter den Festkörperphysikern haben dabei ihre besonderen Schwierigkeiten: Die Wechselwirkung von sehr vielen Quanten-„Teilchen“ – etwa den Elektronen eines Festkörpers – ist so schwierig zu fassen, dass bisher dafür entwickelte Theorien immer nur Teilaspekte richtig behandeln. Die Festkörperphysik hat zum einen geholfen, die experimentellen Mittel für die Erkundung von derlei Unbegreiflichem zu finden, zum anderen hat sie überaus nützliche Entdeckungen machen können, wie den „Quanten-Hall-Effekt“. Klaus von Klitzing (Nobelpreis 1985) hatte am Hall-Effekt zeigen können, dass bestimmte elektrische Eigenschaften in präzisen Sprüngen auftreten: Wenn quer zu einem stromdurchflossenen Stab ein Magnetfeld wirkt, entsteht an den Rändern des Stabes eine elektrische Spannung, die Hall-Spannung. Normalerweise ist die Kennkurve zwischen Spannung und Strom eine glatte Linie. Jedoch geht bei sehr starken Magnetfeldern und sehr tiefen Temperaturen die glatte Linie in eine präzise gestufte Treppe über. Die Sprünge sind so markant, dass sie heute weltweit zur Definition der Maßeinheit für den elektrischen Widerstand genutzt werden.
Es kamen weitere Überraschungen. Bei noch stärkeren Magnetfeldern können in Mikrostrukturen eingeschlossene Elektronen in den bizarren Zustand einer Quantenflüssigkeit geraten. Sie scheinen als Quasiteilchen plötzlich Bruchteile der eigentlich unteilbaren Elementarladung, der Ladung des Elektrons, zu tragen. Für Entdeckung und Deutung dieses Effektes gab es 1998 den Nobelpreis für Physik, unter anderem für den Deutschen Horst Störmer. Derartige Phänomene sind im Alltag durchaus nützlich. Sie befördern die ständige Verfeinerung der Mess- und Signaltechnik, was etwa das Satellitennavigationssystem GPS ermöglicht hat. Quanteneigenschaften kommen auch zutage, wenn Elektronen in Metall-Cluster, winzigen Atomhaufen, eingeschlossen werden. Solche Cluster könnten eines Tages als elektronische Schalter dienen: So wie eine Haselnuss eine Hamsterbacke beult, ändert der Zutritt einer einzigen Ladung die elektronischen Eigenschaften eines Clusters so drastisch, dass mit einzelnen Elektronen ein Schaltzustand, ein Bit, repräsentiert werden könnte – wenn sich eine zuverlässige Schreib-/Leseprozedur fände. Da sich Cluster durch Selbstordnungskräfte in einem perfekten Gitter arrangieren, wäre es möglich, auf der Fläche eines heutigen Transistors viele tausend „Quantenschalter“ unterzubringen. Könnte man diese Technik mit den Konzepten eines Quanten-Parallel-Computers verbinden, so ließe sich die Rechenleistung der größten heutigen Computer in einen Stecknadelkopf packen: Eine atemberaubende Vorstellung! Wie sich dies alles wirklich entwickeln wird, können wir heute kaum abschätzen. Doch im Übrigen gilt, was Michael Faraday, der englische Altmeister des elektrischen Experimentierens, einem Finanzminister sagte, der nach dem Sinn seines Treibens fragte: „Sir, eines Tages werden Sie es besteuern können!“
107
Physik
eiskalt serviert
Modelllok, die dank Supraleitern magnetisch in der Schwebe gehalten wird. (Quelle: IFW Dresden)
108
S
eit der Holländer Heike Kamerlingh Onnes 1911 entdeckt hatte, dass Quecksilber bei 4 Grad über dem absoluten Temperatur-Nullpunkt von minus 273,15 Grad Celsius („Null Kelvin“) jeglichen elektrischen Widerstand verliert, waren Wissenschaftler auf der Suche nach Materialien, die dieses vorteilhafte Phänomen auch bei höheren Temperaturen zeigen – denn elektrischer Widerstand verursacht Verluste bei der Übertragung elektrischer Energie. Der nur schleichende Fortschritt bei der Steigerung der kritischen Temperatur, unterhalb derer der Widerstand verschwindet, erfuhr 1986 unerwartet einen Sprung, als der Schweizer K. Alexander Müller und der Deutsche J. Georg Bednorz nach jahrelanger Forschung ein Metalloxid fanden, das auch bei 30 Kelvin – etwa minus 243 Grad Celsius – noch verlustfrei leitete. Der – mit dem Nobelpreis gewürdigte – konzeptuelle Durchbruch führte zur Entwicklung der so genannten Hochtemperatur-Supraleiter, deren Betriebstemperatur über dem Siedepunkt des flüssigen Stickstoffs, bei minus 196 Grad Celsius, liegt. Uneingeweihte müssen das immer noch als tödliche Kälte empfinden – aber Stickstoff, das war es: Wenn Supraleiter mit billigem Stickstoff gekühlt werden konnten, sollten sich, im Vergleich zur bis dahin notwendigen Helium-Kühlung, die Kühlkosten um den Faktor 100 reduzieren lassen. Der Weltrekord für die höchste kritische Temperatur liegt zur Zeit bei minus 138 Grad Celsius (135 Kelvin). In einem Supraleiter schließen sich Elektronen zu einem großen Clan, einem makroskopischen Quantenzustand zusammen. Ein supraleitendes Material verhält sich wie ein „Riesenatom“: Etwa wie die Elektronen in einem einzelnen Atom verlustfrei auf stabilen Bahnen laufen, so bewegen sie sich in Supraleitern ungestört auch über weite Entfernungen. Für normale Supraleiter ist dieses Phänomen weitgehend verstanden, doch der genaue Mechanismus der Hochtemperatur-Supraleitung ist bislang ungeklärt.
Die kritische Temperatur ist nicht die einzige Eigenschaft, die einen Supraleiter praxistauglich macht. Die Verarbeitbarkeit ist eine zweite, und da haben die neuen Supraleiter einen Nachteil: sie sind spröde. Kabel aus HochtemperaturSupraleitern werden unter hohem Aufwand produziert und sind daher sehr teuer. Dennoch kann ihr Einsatz lukrativ sein, wenn etwa in einem Ballungsgebiet die Kapazität einer vorhandenen konventionellen Kabeltrasse ohne große Baumaßnahmen vergrößert werden soll. Supraleitende Kabel könnten ein Vielfaches an Energie transportieren. Das praktische Potential solcher Kabel wird derzeit an mehreren Stellen der Welt getestet. Im Übrigen lassen sich mit Stromspulen aus Supraleitern besonders starke Magnetfelder erzeugen. Solche Spulen kommen unter anderem in Kernspin-Tomographen zum Einsatz, die in der Medizin zur schonenden Untersuchung innerer Organe benutzt werden. Bestimmte Supraleitern können sich an Magnetfeldern „festhalten“ und somit ihre Lage im Raum fixieren. Innerhalb eines ungleichmäßigen Magnetfeldes versucht ein solcher Supraleiter seine Position zu halten – er kann sogar in der Schwebe bleiben. Dank dieses Phänomens lassen sich reibungsfreie Transportsysteme und magnetische Lager konstruieren, die nicht geregelt werden müssen. Derzeit wird hierfür eine keramische Verbindung aus Yttrium, Barium und Kupferoxid favorisiert. Mit den neuen Supraleitern lassen sich auch winzige Mikrowellen-Schaltkreise für die Empfangs- oder Sendestufen von Satelliten- und Mobilfunksystemen herstellen. Schließlich sind mit Supraleitern auch SQUIDs (engl. superconducting quantum interference devices) möglich geworden – hochempfindliche Sensoren, die noch ein Milliardstel der Stärke des Erdmagnetfeldes nachweisen können. In der mit Erdmagnetphänomenen befassten Geophysik ist der Einsatz von SQUIDs mittlerweile Routine. SQUIDs sind tatsächlich so empfindlich, dass sich mit ihnen Magnetogramme einzelner Organe, etwa des Gehirns, aufzeichnen lassen.
Supraleitende Strombegrenzer können potentiell verheerende Stoßströme niedrig halten, wie sie etwa bei Kurzschlüssen auftreten. (Quelle: Siemens-Pressebild) Supraleiter in einem Magnetfeld zeigen außergewöhnliche Eigenschaften: Manche Supraleiter verdrängen Magnetfelder komplett aus ihrem Inneren. Andere wiederum schnüren Magnetfelder zu kleinen Bündeln, so genannten Flussschläuchen, die das Material durchdringen. Diese Flussschläuche können an Materialfehlern dauerhaft verankert werden, das Magnetfeld ist „eingefroren“. Während das Innere der Flussschläuche normalleitend ist, bleibt zwischen ihnen die Supraleitung bestehen. In den Flussschläuchen wird das Magnetfeld quasi eingedämmt – wird es zu stark, dann bricht die Supraleitung im gesamten Material zusammen.
Sicherheitskontrolle vor Ort: SQUIDs (Supraleitende QuanteninterferenzDetektoren) werden unter anderem zur Materialprüfung eingesetzt. Mit ihnen lassen sich verborgene Risse in der Außenhaut von Flugzeugen aufspüren. (Quelle: FZ Jülich)
109
Seifenblasen sind besonders simple selbstorganisierende Strukturen. In den Wänden stecken dicht an dicht Kaulquappen ähnliche Moleküle, deren Schwänze in die Luft, deren Köpfe in das Wasser der Seifenlösung weisen. Die verschiedenen Vorlieben der Enden der Seifenmoleküle sind der Grund für die Reinigungskraft der Seife: Seife kann Schmutzfett mit Wasser verbinden und macht es so entfernbar. (Quelle: FZ Jülich)
Komplexe
Materie
110
Als der deutsche Augenarzt Mettenheimer im Jahre 1895 flüssiges Myelin mit seinem Polarisationsmikroskop betrachtete (Myelin ist eine Nervenfasern umhüllende Substanz) sah er unter den gekreuzten Polarisatoren – besonderen Lichtfiltern, die sich auch in Sonnenbrillen finden – helle, leuchtende Farben, was für Flüssigkeiten ganz ungewöhnlich ist. Flüssigkeiten sind unter gekreuzten Polarisatoren gewöhnlich dunkel, weil sie den Polarisationszustand des Lichtes nicht verändern. Myelin dagegen verhielt sich optisch wie ein „doppelbrechender“ Kristall, der die Polarisationsebene des Lichtes beinflusst. Mettenheimer wusste diese Eigenschaft des Myelins nicht zu deuten; heute wissen wir: Myelin ist ein Flüssigkristall.
Polarisationszustand Eine auf und ab geschwungene Wäscheleine gleicht einer Welle, die nur in einer Ebene schwingt. Bei einer Lichtwelle spricht man dann von polarisiertem Licht. Normales Licht ist ein in vielen Ebenen schwingendes Wellengemisch. Polarisationsfilter machen daraus pola-
risiertes Licht. Zwei Filter hintereinander, die senkrecht zueinander schwingende Wellen erzeugen, sperren das Licht ganz aus. Liegt aber zwischen den Filtern eine Substanz, die die Polarisationsform des Lichts verändert, dann erscheint nach dem zweiten Filter meist etwas Buntes.
In vielen Kristallen, aber auch in verspannten Materialien wie einem gequetschten Pudding, teilt sich das Licht und läuft verschiedene Pfade mit verschiedenen Geschwindigkeiten entlang. Bei „gekreuzten“ Polarisationsfolien überlagern sich die Teilwellen
am Ende so, dass einzelne Farben ausgelöscht werden: die Verspannung wird als Regenbogen-Spektakel sichtbar. Die Spannungsoptik studiert mit diesem Effekt die Belastungsspitzen von Brückenkonstruktionen etc.. (Foto: Bergerhof Studios, Suzy Coppens)
Schwerkraft zu vereinigen sucht. Und die für die Elementarteilchenphysik entwickelte Theorie der „Renormierungsgruppen“ taugt auch für die Deutung der spontanen Strukturbildung in weicher und körniger Materie, die Entstehung von Wolken, Wellen, oder Riffeln im Sand.
Polymere gibt es mit einer Vielzahl von Eigenschaften, abhängig von ihrer chemischen und topologischen Struktur. Zur Stoffklasse der Polyimide gehören Materialien, die noch Temperaturen von 300 Grad Celsius standhalten; Siloxane sind noch bei minus 20 Grad Celsius flexibel.
Zu den derzeit ökonomisch attraktivsten Formen weicher Materie gehören Polymere. Polymere sind Materialien aus großen Kettenmolekülen, die wiederum meist aus Aneinanderreihungen vieler, bis zu Zehntausenden simpler Untereinheiten, so genannter Monomere, bestehen.
Auch Polymere können Flüssigkristallphasen bilden, in denen sich die Makromoleküle parallel in einer Vorzugsrichtung orientieren. Im festen Zustand sind diese Materialien – etwa Kevlar – extrem belastbar, und Fasern daraus können stärker als Stahl sein.
Flüssigkristalle Flüssigkristalline Substanzen weilen in einem eigentümlichen Zustand zwischen fest und flüssig; sie fließen wie Flüssigkeiten, jedoch sind ihre länglichen Moleküle auf bestimmte Richtungen fixiert wie die Sardinen in einem Sardinenschwarm. Diese Eigenschaften haben Flüssigkristallen ein breites Anwendungsfeld erschlossen, etwa bei Flachbildschirmen (LCDs). In der Natur sind Flüssigkristalle etwas durchaus Gewöhnliches, sogar Unentbehrliches; selbst der einfachste Einzeller hat eine Außenhaut aus Flüssigkristallen.
Weiche Materie: Polymere Flüssigkristalle sind heute zusammen mit anderen neuen und alten Materialien (wie feuchtem Ton) als „weiche Materie“ oder „weiche kondensierte Materie“ mehr und mehr Gegenstand auch der Physik. Aus teils sehr handfesten Gründen: mit Polymeren, Kolloiden und Flüssigkristallen setzt die Industrie Milliarden um. Andererseits ist „weiche Materie“ auch theoretisch reizvoll. So hat die statistische Analyse von Seifenschäumen gewisse Ähnlichkeit mit der String-Theorie, die die Quantenphysik mit den Gesetzen der
111
Leuchtende Polymere
Kolloide
Für die universelle Tapete der Zukunft stehen mittlerweile Polymere bereit, die – von einem milden Strom durchflossen – in den Farben Rot, Grün oder Blau leuchten. Mit Rot, Grün und Blau lässt sich Weiß mischen – eine Tapete aus diesen Polymeren könnte also weiß leuchten, aber auch in jeder anderen Farbe. Ließe sich die Polymertapete Punkt für Punkt ansteuern – etwa mit Hilfe feiner Leiterbahnen – so wäre sie als biegsamer Bildschirm verwendbar. Erste Bildschirme aus leuchtenden Polymeren gibt es bereits, wenn auch nur im Kleinformat.
Kolloide sind mikroskopisch kleine Partikel, fein verteilt in einem homogenen Medium. Kolloide sind allgegenwärtig: Milch und Blut sind Kolloide, Nebel (Wassertröpfchen in Luft) und Mayonnaise (Öltröpfchen in Essigwasser) ebenso, aber auch Malerfarben enthalten Kolloide. Wenn ein Material in der Form sehr kleiner Partikel vorliegt, können sich seine Eigenschaften deutlich von denen unterscheiden, die es als großer Brocken hat. Ein Grund: Bei kleinsten Partikeln liegt ein großer Teil der Atome an der Partikeloberfläche und Oberflächenatome sind, mangels Bindungspartnern, sehr reaktionsfreudig. Dies nutzt man bei der chemischen Katalyse aus. Das Institut für Neue Materialien in Saarbrücken hat Filter für Dunstabzugshauben mit Nanometer großen Teilchen entwickelt, die Küchengeruchsstoffe katalytisch zerlegen. Kolloide stabil zu halten ist bislang eher eine Kunst als eine Wissenschaft gewesen; erst in den letzten Jahren hat sich das Verhältnis umgekehrt. In der Folge ist eine chemische Nanotechnologie entstanden, die die Produktion exotischer Materialien ermöglicht. So werden Mikropartikel häufig mit einem elektrisch geladenen Schleier verhüllt, damit die Teilchen in Lösung nicht aneinander kleben. Ganz ähnlich macht es die Natur bei roten Blutkörperchen: deren Außenhaut ist negativ geladen.
Eine Cashcard für den Anfang: Leuchtende Polymere, Plastikmaterialien, werden schon bald weite Teile des DisplayMarktes bestimmen und womöglich eine Art Tapetenfernseher realisierbar machen: einen Flachbildschirm, der zugleich Lichtquelle ist, sich rollen lässt etc.. Die Entwicklung könnte so billig werden, dass die Wände jeder Keksdose eine Bildgeschichte zu erzählen beginnen. (Quelle: Siemens-Pressebild)
Schalottensud-Tröpfchen in Öl, ca. 1/10 Millimeter Durchmesser. Die Kunst, Kolloid-Systeme wie diese stabil zu halten, wissen die Produzenten von Mayonnaise, Sonnenmilch und Anstrichfarben hoch zu schätzen. (Fotos: Bergerhof Studios, Suzy Coppens)
Ein sehr angenehmes Kolloid-System ist die Sauce Bearnaise , so genannt zu Ehren des großen französischen Königs Henri IV, der 1553 in Bearn geboren wurde. In der Sauce sind wässrige und ölige Komponenten mikrometerfein topologisch auf das Wohlschmeckendste verschachtelt.
Sauce Bearnaise Drei Schalotten und zwölf Estragon-Blätter fein hacken, in einer Kasserolle zusammen mit einem Glas Weißwein und einem halben Glas Weinessig auf ein Viertel der ursprünglichen Flüssigkeitsmenge einkochen. Inzwischen zwei Eigelbe mit Salz und Pfeffer in eine Schüssel schlagen, einen halben Teelöffel Butter dazu tun. Dann den heißen Schalotten-Sud in dünnen Strähnen unter ständigem Rühren mit den Eigelben mischen und nach und nach in kleinen Portionen 200 Gramm Butter unterziehen. Das Ganze durch ein Sieb in einen Topf in einem Wasserbad schütten und cremig rühren. Zum Schluss ein paar Spritzer Zitronensaft dazu, gehackte Petersilie darüber streuen und lauwarm servieren. Henri IV von Frankreich hat dieses königliche Rezept mehr als verdient, schließlich war er es, der jedem Bewohner seines Reiches einmal in der Woche ein Huhn im Topf gewünscht hatte, was Dank seiner Regierungskunst denn auch in Erfüllung ging.
112
Zusammenspiel und Selbstorganisation: Ordnung im Chaos In der belebten Natur werden Komponenten der „weichen Materie“ – wie Flüssigkristalle, Polymere, Kolloide – in einem wilden Wirbel aus Membranen, Micellen und Vakuolen zu immer neuen Formen verwoben. Dabei ordnet sich Materie bisweilen spontan in regelmäßige Strukturen (Selbstorganisation). In harten Festkörpern wie Metallen und Keramiken können so genannte Ausscheidungen und Mikrokristallite entstehen. Werkstoffe mit solch einer Mikrostruktur widerstehen extremen Belastungen oder erinnern sich als „Gedächtnis-Legierungen“ an eingeprägte Formen. Es gibt aber auch Sand und Geröll, strömende Flüssigkeiten und Luftturbulenzen, Wanderdünen und Wolkentürme: Umformung und Bewegung im Überfluss. Steckt hier überhaupt irgendein begreifbares System dahinter? Fraktale Formen: Romanesco (Türmchenkohl), ein Verwandter des weißen Blumenkohls, zeigt auffällige Selbstähnlichkeit. Die Struktur der Röschen wiederholt sich im Großen und im Kleinen. (Foto: Institut für Theoretische Physik der Uni Gießen, Stefanie Ruß) Und auch metallische Kristallite können in auffälliger Form erstarren. (Bild rechts: FZ Jülich)
Erst in den letzten Jahrzehnten wurde erkannt, dass sich wirklich universelle Ordnungsprinzipien hinter Selbstorganisation und Strukturbildung der Materie verbergen. Selbst scheinbar zufälliges Chaos folgt solchen Regeln! Ein Schlüssel war die Entdeckung, dass solche wirren, „fraktalen“ Formen oft durch „Skalengesetze“ charakterisiert werden können: Betrachten wir eine fraktale Struktur etwa mit einem Zoom-Objektiv, so sehen wir bei beliebiger Vergrößerung – also auf allen Skalen – immer wieder das gleiche Bild. Diese Selbstähnlichkeit fraktaler Gebilde erlaubt es, sie durch recht einfache mathematische „Potenz-Gesetze“ zu beschreiben. Erstaunlich ist die Tatsache, dass diese Skalengesetze nur von ganz wenigen Eigenschaften des Systems abhängen: Die Gesetze sind nicht materialspezifisch, sie gelten jeweils für riesige Klassen von Festkörpern oder Flüssigkeiten, magnetischen oder elektrischen Phänomenen.
gruppen. Sie ist eine der bemerkenswertesten Leistungen der Physik der zweiten Hälfte des 20. Jahrhunderts. Hinter dem Verfahren steckt die Idee, Wechselwirkungen zwischen einzelnen Molekülen stufenweise durch effektive Wechselwirkungen zwischen immer größeren Molekülgruppen zu ersetzen. Durch diesen, sich wiederholenden Prozess gehen die unwichtigen mikroskopischen Details nach und nach auf in den makroskopischen Eigenschaften des Systems.
Dieser Durchbruch im Verständnis komplizierter Systeme wurde möglich dank der in der Physik entwickelten mathematischen Methode der Renormierungs-
Diese Vorgehensweise hat sich als eines der mächtigsten Werkzeuge zur genauen Beschreibung komplexer Prozesse erwiesen. Ferner symbolisiert sie den Über-
gang von einer linear geprägten Physik – mit einfachem Zusammenhang zwischen Ursache und Wirkung – zur Welt der Nichtlinearitäten. Es wird sogar vermutet, dass die Renormierungsgruppen-Methode bei der Erklärung von Mechanismen der biologischen Evolution eine wichtige Rolle spielen könnte. Für Festkörperphysik (die unendlich vielen Dinge), Elementarteilchenphysik (das unendlich Kleine) und Kosmologie (das unendlich Große) markiert die RenormierungsgruppenMethode schließlich den Beginn einer wunderbaren Freundschaft!
113
Von Fettaugen zu fernen Galaxien In den 1940er Jahren experimentierte in den Philips-Laboratorien, Niederlande, ein Wissenschaftler namens Overbeek mit Aufschlämmungen von Quarzsand, die in der Produktion eine Rolle spielten. Er fand, dass die gängige Theorie dazu nicht ganz stimmen konnte: die Kräfte zwischen den Sandkörnern fielen mit dem Abstand von Sandkorn zu Sandkorn schneller ab, als vorhergesagt.
Overbeeks Äußerungen brachten die Kollegen Casimir und Polder dazu, sich genauer mit der Theorie der Van-derWaals-Wechselwirkung zu beschäftigen. Diese schwache chemische Bindung ist für viele Lebensprozesse genauso bedeutsam wie für das Färben von Jeans, sie hält Geckos an der Decke, sie bestimmt die Form von Fettaugen auf einer Fleischbrühe und eben die Konsistenz nassen Sandes. Casimir und Polder fanden, dass sich die Sandkörner bei größeren Entfernungen in der Tat schwächer anzogen als vorhergesagt, und damit hätte es sein Bewenden haben können, hätte Casimir nicht weiter nach den physikalischen Hintergründen gefragt und Niels Bohr getroffen, den dänischen Altmeister der Atomphysik. „Nett. Etwas Neues“, murmelte der und „Nullpunktsenergie des Vakuums.“ Er setzte Casimir damit auf eine neue Spur, die zu einer merkwürdigen quantentheoretischen Rechnung führte: Zwei elektrisch leitende, aber ungeladene Metallplatten in einem gewöhnlichen Vakuum, wie man es in jeder Fernsehröhre findet, sollten sich anziehen, wenn man die Platten sehr dicht aneinander bringt. Der Effekt wurde erst 1997 glaubhaft experimentell bestätigt.
Kleine Kraft – große Wirkung: Nähern sich Atome einander an, kommt es zwischen ihnen zur so genannten van-derWaals-Wechselwirkung. Einer subtilen, meist anziehenden Kraft, benannt nach dem niederländischen Physiker Johannes Diderik van der Waals (1837 - 1923). Dieses Phänomen macht sich auch der Gecko zunutze. Er trägt an den Fußsohlen Millionen von Härchen, die in Abertausenden winziger Kissen enden. Jedes dieser mikroskopischen Kissen haftet per van-der-Waals-Wechselwirkung an den Molekülen der Unterlage, über die sich der Gecko bewegt – er kann so an Wänden und Decken entlang laufen. (Foto: dpa)
114
Der Casimir-Effekt wird heute sogar zur Deutung der Expansion des Universums herangezogen, als eine Art Antigravitation. Damit ist der Casimir-Effekt das – im Wortsinne – wohl weitreichendste Phänomen, das in der Festkörperphysik je entdeckt wurde – in einem Eimer nassen Sandes.
Nanotechnologie
In der Welt der Zwerge
Sensible Nadel: Messspitze eines Rastertunnelmikroskops über einer fingernagelgroßen Graphit-Probe (Quelle: Philip Morris Stiftung)
E
in Nanometer ist der millionste Teil eines Millimeters und damit dasjenige metrische Maß, das der Welt der Atome am nächsten ist. Atome sind nur noch etwa zehnmal kleiner. Das Wörtchen „Nano“ ist aus dem griechischen Ausdruck für Zwerg abgeleitet. Der Schlüssel zur Zwergenwelt wurde 1981 in Gestalt des Rastertunnelmikroskops (engl. scanning tunneling microscope, kurz STM) gefunden. Der deutsche Forscher Gerd Binnig und sein Schweizer Kollege Heinrich Rohrer wurden hierfür mit dem Nobelpreis für Physik ausgezeichnet. Das STM ist mit einer feinen Metallspitze ausgestattet, die mittels eines genialen Piezo-Antriebs sehr dicht an eine leitfähige Probe herangeführt und dort auf Bruchteile eines Atomdurchmessers positioniert werden kann. Ein Piezo-Kristall wird hierzu über Spannungssignale gestreckt und gestaucht und bewegt dabei die Metallspitze. Was wäre wohl passiert, hätten Forscher bereits im 19. Jahrhundert (siehe „Rätselhafte Effekte ...“, Seite 9) die Möglichkeiten erkannt? Wird eine kleine elektrische Spannung zwischen Mikroskopspitze und Oberfläche angelegt, so fließt ein so genannter Tunnelstrom: Ein eigentümliches Phänomen der Quantenphysik, denn Messnadel und Probenoberfläche berühren sich nicht – sie stehen nur extrem nahe beieinander. Der Tunnelstrom hängt stark vom Abstand zwischen Messspitze und Probe ab, so dass nur die äußersten Atome von Spitze und Oberfläche am Stromfluss teilnehmen. Die Messspitze „sieht“ deshalb immer nur einen winzigen Ausschnitt der Probenoberfläche. Die Metallspitze wird zeilenweise über die Probe geführt („gerastert“), ein Computer baut dabei Rasterpunkt für Rasterpunkt ein Abbild der Oberfläche zusammen: Unter geeigneten Bedingungen erscheinen auf dem Monitor Reihen präzise arrangierter Einzelatome und breite Terrassen mit Stufen von gerade einer Atomdicke.
115
Binnig und Rohrer werden bei ihren Messungen den Atem angehalten haben – das erste STM war außerordentlich erschütterungsempfindlich. Heute sind die Geräte robuster und haben mitunter Fingerhutformat. In der Oberflächenanalytik ist die Tunnelmikroskopie mittlerweile ein gängiges Verfahren, aus dem sich eine ganze Familie von Rastersondenmethoden entwickelt hat. Sondenmikroskope können Details sichtbar machen, die für ein normales Lichtmikroskop viel zu klein sind. Beim so genannten Kraftmikroskop erinnert die Sonde an eine miniaturisierte Plattenspielernadel, die die Oberfläche quasi ertastet. Mit diesem Mikroskop lassen sich – was mit dem STM kaum möglich ist – auch nichtleitende Werkstoffe untersuchen, ja sogar Zellen in wässriger Umgebung studieren. Und die Technik schreitet ständig voran: 1999 haben Wissenschaftler vom Max-Planck-Institut für Biochemie in Martinsried bei München herausgefunden, dass eine Sondenspitze auch die charakteristischen InfrarotSchwingungen des Oberflächenmaterials erfassen kann. Wie auch mit der an vielen Universitäten eingesetzten „Tunnelspektroskopie“ kann auf diese Weise die chemische Zusammensetzung des
Probenmaterials mit atomarer Auflösung „erfühlt“ werden. Selbst die Funktion einzelner Atom-Gruppen innerhalb eines Moleküls lässt sich unter die Lupe nehmen. Eine STM-Spitze kann Moleküle zum Leuchten bringen – die vielleicht kleinste Glühbirne der Welt ist ein einzelnes „Fußball-Molekül“ (engl. buckyball). Nanoforscher der Universität Hamburg und anderer Institute können den magnetischen Zustand einer Materialoberfläche Atom für Atom bestimmen. Und dies ist noch nicht alles. Die Spitze eines STM ist nicht nur als Messfühler verwendbar, sondern auch als Werkzeug. Einzelne Atome lassen sich damit auf Kristall-Oberflächen wie Bauklötzchen zu Mustern zusammenfügen, mit ungeahnten Perspektiven für Nano-Ingenieure: Atomare Manipulation! Würden magnetische wie andere Speicher tatsächlich einmal nur mehr ein Nanometer als Abmessung für einen Speicherpunkt benötigen, ließen sich auf einem Quadratzentimeter zehntausend Gigabyte unterbringen. Eine mit dieser Speicherdichte gesegnete CD hätte eine Musik-Laufzeit von 100 Jahren.
Buckytube Computerdarstellung einer KohlenstoffNanoröhre. Jeweils sechs KohlenstoffAtome sind zu einem Waben-Muster verstrickt. Dieses einwandige Buckytube hat einen Durchmesser von etwa einem Millionstel Millimeter. Es lassen sich auch ineinanderverschachtelte Röhrchen mit größerem Durchmesser herstellen, die ähnlich wie eine russische Puppe aufgebaut sind. Eine Röhre kann einige Millimeter lang sein. Ihre physikalischen Eigenschaften – etwa die elektrische Leitfähigkeit – hängen ab von der genauen Anordnung der Waben. Buckytubes sind unter anderem als Wasserstoff-Speicher für Brennstoffzellen und für extrem belastbare Verbundwerkstoffe im Gespräch. (Quelle: Rice University)
Nanomuskeln für Hausdrachen
Das Millennium lässt grüßen: Einzelne Kohlenmonoxid-Moleküle, die mit Hilfe eines STM auf einem Metallsubstrat arrangiert wurden. Die „Zebrastreifen“ sind einzelne Atomreihen. (Quelle: Institut für Experimentalphysik der FU Berlin)
116
Dieser Picasso ist fünfmal schmaler als ein Menschenhaar. Das Muster wurde mit einem optischen Sondenmikroskop „gezeichnet“ und mit einem Kraftmikroskop abgebildet. Auf der Fläche dieses Picassos ließe sich die molekulare Milleniumszahl millionenfach unterbringen. (Quelle: Physikalisches Institut der Uni Münster)
Natürlich ist unter den kommenden Kunststoffen auch das künstliche Muskelgewebe für Wendy's fliegenden Hausdrachen – dank Nanotechnologie: Am 21. Mai 1999 erschien im amerikanischen Wissenschaftsmagazin Science ein Artikel über Kunstmuskeln aus so genannten Buckytubes, nur Nanometer weiten Röhren aus netzartig verknüpften Kohlenstoff-Atomen. Ein synthetisches Gewebe aus diesen Kohlenstoff-Nanoröhren, so Science, verforme sich unter elektrischer Spannung – es setze somit elektrische Energie in mechanische Bewegung um. An der Entwicklung waren nicht weniger als neun hochkarätige Institutionen beteiligt, darunter das Max-Planck-Institut für Festkörperforschung in Stuttgart. Wendy‘s Hausdrachen ist offenbar keine riskante Prognose.
Mikrosystemtechnik Die für die Chip-Herstellung entwickelte Technik lässt sich auch für andere Zwecke nutzen. So entstehen die feinen Wurmlöcher des porösen Siliziums durch Selbstorganisation beim Ätzen. Auf diese Weise werden im Forschungszentrum Jülich raffinierte Lichtfilter mit einstellbarem Brechungsindex hergestellt. Die Mikrosystemtechnik, eine Spezialität des Forschungszentrums Karlsruhe, erlaubt heute die ebenso preiswerte wie präzise Massenfertigung kleinster dreidimensionaler Elemente. Mikrozahnräder, Positionierungselektroden, Spiegel, Ratschen, finden zunächst wohl weniger in Wendy‘s Drachen als in „Labs-on-a-chip“, Verwendung – winzigen, dabei hochkomplexen Analysegeräten, wirklich „weisen Steinen“. Mit solchen Mikrolaboratorien werden völlig neue Möglichkeiten der minimalinvasiven Diagnose und Therapie von Krankheiten denkbar. Was die Zukunft an neuartigen Fertigungstechniken, sogar „intelligenten“ Materialien oder Maschinen bringen wird, können wir nur ahnen. So arbeiten Ingenieure der microTEC Duisburg an winzigen U-Booten, die – eventuell mit Medikamenten beladen – eines Tages durch die menschliche Blutbahn patrouillieren könnten. Schon heute hat die Suche nach dem Stein der Weisen alle Erwartungen weit übertroffen, wenn wir die derzeitige Wertschöpfung der Wissenschaft von der kondensierten Materie sehen. In zwanzig, dreißig Jahren erwarten namhafte Fachleute nichts weniger als „Systeme, die einfachen lebenden Systemen ähneln“. Ob Wendy‘s Hausdrachen dabei ist?
Dieses „Chip-Labor“ trennt biologische Proben in ihre Bestandteile auf – und zwar mit Hilfe elektrischer Felder. Über einen angeschlossenen Computer kann der Chip bis zu 96 flüssige Substanzgemische nahezu gleichzeitig analysieren,
er kommt dabei mit winzigen Stoffmengen aus. Zwischen den kammartigen Elektroden erkennt man die haarfeinen Trennkanäle. Anwendungsgebiete: Medizinische und biochemische Forschung. (Quelle: IMM, Mainz)
Bald auf Tauchfahrt? Prototyp des so genannten „micro-UBoots“ in einer Ader (ohne Blut und außerhalb des Körpers). Das Bild wurde mit einem Elektronenmikroskop aufgenommen und nachträglich eingefärbt. (Quelle: eye of science, Oliver Meckes)
117
119
Die Entdeckung Die
des Zufalls 120
„Gala betrachtet das Mittelmeer, das sich in einer Entfernung von zwanzig Metern in das Bildnis Abraham Lincolns verwandelt (Hommage à Rothko)“, Salvador Dalí, 1976. Probieren Sie es aus! Sie werden feststellen, dass Dinge aus der Nähe betrachtet ganz andere Eigenschaften besitzen können, als wenn man sie in großem Abstand sieht. Das trifft in besonderer Weise auch auf den Unterschied zwischen Quanten- und Alltagswelt zu. (© Photo: Descharnes & Descharnes)
den Lauf der Welt vorausberechnen können – so die damalige Meinung. Nun stellte sich heraus, dass dem Zufall in der Quantentheorie mit dieser Art von Allwissenheit nicht beizukommen war. Die sogenannte Unbestimmtheitsrelation machte es grundsätzlich unmöglich, Ort und Geschwindigkeit eines Gasatoms zur gleichen Zeit exakt zu messen. Max Planck (Quelle: Archiv zur Geschichte der Max-Planck-Gesellschaft, Berlin-Dahlem)
Als Max Planck vor 100 Jahren mit einem Vortrag vor der Deutschen Physikalischen Gesellschaft in Berlin den Grundstein zur Quantentheorie legte, brachte er damit eine tiefgreifende Umwälzung des physikalischen Weltbilds in Gang. Hatten die Wissenschaftler bis dahin geglaubt, die Natur gleiche einem überdimensionalen Uhrwerk mit vorhersehbaren Abläufen, so wurden sie im Zuge der quantenmechanischen Revolution mit der Entdeckung des Zufalls konfrontiert. Die Erkenntnis, dass es zum Beispiel für den Zeitpunkt des Zerfalls eines radioaktiven Atoms keinerlei Ursache gibt, war für die Physiker zu Beginn des 20. Jahrhunderts keineswegs erfreulich. Die sogenannte deterministische, klassische Physik hatte es ihnen ermöglicht, die Natur zu verstehen und Ereignisse wie Springfluten oder Mondfinsternisse vorherzusagen. Das gab ihnen über viele Jahrhunderte ein Gefühl von Sicherheit und Macht. Das Ende des Determinismus, der Vorhersagbarkeit, war daher nur schwer zu akzeptieren. Dabei hatten statistische Theorien, die lediglich Aussagen über die Wahrscheinlichkeit eines Ereignisses machen, die Physiker in früheren Zeiten nicht beunruhigt. Man wusste, hochkomplexe Systeme wie Gase ließen sich nur über statistische Aussagen in den Griff bekommen. Denn es ist einfach unmöglich, die Orte und Geschwindigkeiten aller Teilchen eines Gases zu kennen. Würde aber ein „Superhirn“ existieren, das über sämtliche nach dem Urknall entstandenen Teilchen Bescheid wüsste, dann müsste es
Die Quantentheorie brachte aber nicht nur den Zufall ins Spiel. Es stellte sich heraus, dass quantenmechanische Dinge ein merkwürdig schemenhaftes Dasein führen, das erst durch eine Messung, also den Eingriff eines Beobachters, in einen eindeutigen Zustand überführt wird. Der Zustand eines Elektrons ist ohne eine Messung, die uns diesen Zustand offenbart, nicht nur nicht bekannt, sondern einfach nicht definiert. Hieraus ergab sich die Notwendigkeit, über erkenntnistheoretische Fragen nachzudenken. Denn nachdem sicher war, dass es keine vom Beobachter losgelöste Realität gibt, stellte sich die zentrale Frage, was wir dann überhaupt über die Natur wissen können. Was treibt ein Elektron, wenn ihm keiner zusieht? Auf diese Frage gibt es schlichtweg keine Antwort. Die Quantenmechanik ist die am besten überprüfte und bestätigte Theorie überhaupt. Gleichzeitig sind ihre möglichen Konsequenzen wie Zeitreisen, „geister-
„Quantenpunkte“ aus Millionstel Millimeter kleinen Kristallen des Halbleiters Galliumarsenid, die in eine PolymerMatrix eingebettet sind, leuchten dank quantenmechanischer Effekte in unterschiedlichsten Farben. (Quelle: Adv. Mat. 12, 1102, 2000)
Eisenbahn, die durch den quantenmechanischen Effekt der „Supraleitung“ berührungslos an einer Magnetschiene haftet. (Quelle: IFW Dresden, iser und schmidt) hafte Fernwirkungen“ oder die QuantenTeleportation mit unserem an der Alltagswelt geschulten Verstand kaum zu erfassen. Die Quantentheorie bildet die Grundlage der gesamten modernen Physik, denn erst durch sie wurde ein tieferes Verständnis der Materie möglich. Mit ihrer Hilfe können wir beispielsweise erklären, warum Atome stabil sind, wie ein Laser funktioniert und warum Metalle den Strom besser leiten als die meisten Kunststoffe. Und nicht nur für die Elektronik, Optik oder Nanotechnologie ist die Quantenphysik entscheidend – auch die Vorgänge in der Chemie und Molekularbiologie sind letztlich auf Quanteneffekte zurückzuführen. „Bei der Interpretation der Quantentheorie mag es Schwierigkeiten geben“, schreibt der britische Elementarteilchenphysiker Robert Gilmore, „aber sie funktioniert zweifellos aufs beste.“ Beispiele für Unterschiede zwischen Quantentheorie und klassischer Physik: Verlust der Genauigkeit: Man kann nicht gleichzeitig den Ort und die Geschwindigkeit eines Teilchens beliebig genau messen (Unbestimmtheitsrelation). Die Beobachtung selber beeinflusst den Ausgang des Experiments. Ende des Determinismus: Das künftige Verhalten eines Teilchens lässt sich nur noch mit einer bestimmten Wahrscheinlichkeit vorhersagen. Doppelnatur von Teilchen und Wellen: Es ist abhängig vom Experiment, welche Eigenschaft zutage tritt.
121
Ein physikalischer Ein 122
„Die Blankovollmacht“, René Magritte, 1965. Die Frau auf dem Bild scheint auf eine sonderbare Weise mit ihrem Pferd durch die Bäume hindurchzureiten. In der Quantenwelt ist es tatsächlich möglich, dass Teilchen wie durch Zauberhand Wände durchqueren können. (© Photo: National Gallery of Art, Washington)
Traum
B
is in die Nacht hinein hatte Maria mit ihren Kommilitonen Max und Victor in einer Göttinger Kneipe über die Quantentheorie diskutiert. Zahlreiche Bierdeckel waren mit Formeln bekritzelt worden, ohne dass die drei Studenten der Lösung ihres Problems näher gekommen wären. Ihre Diskussionen drehten sich um das Plancksche Wirkungsquantum , eine Naturkonstante mit dem unvorstellbar kleinen Wert von 6,62 · 10-34 Joule-Sekunden. Diese Größe ist für viele merkwürdige Effekte in der Quantentheorie verantwortlich. Zuhause fiel Maria in einen unruhigen Schlaf. Kurze Zeit später erwachte sie vom Summen einer Mücke. Sie versuchte, den Störenfried zu erwischen, schlug aber daneben. Das Insekt schien ihr auf merkwürdige Weise verschwommen, sodass sie nicht genau sagen konnte, wo es sich befand. Schließlich ließ die Mücke sich auf der Wand nieder. Maria holte aus, traf die Wand ... und fand sich plötzlich im Nachbarzimmer wieder. Statt der Zimmerwirtin saß dort am Schreibtisch ein honoriger Herr mit Schnurrbart und randloser Brille, der mit besorgter Miene über einer Rechnung brütete. Unvermittelt blickte er zu ihr auf und fragte: „Wo kommen Sie denn her?“ Maria, die in dem älteren Herrn Max Planck, den Begründer der Quantentheorie erkannte, antwortete verlegen: „Das ist mir selbst ein Rätsel, Herr Professor. Sie werden es kaum glauben, aber mir ist, als ob ich durch die Wand gerutscht wäre...“. Planck machte ein ernstes Gesicht: „Oh, das übertrifft meine schlimmsten Befürchtungen. Sehen Sie, irgendetwas stimmt nicht mit meinem Wirkungsquantum. Normalerweise ist es so klein, dass die quantenmechanischen Effekte nur in der Mikrowelt der Atome und Moleküle auftreten. Jetzt scheint es auf einmal so angewachsen zu sein, dass wir die Auswirkungen auch im Alltag spüren.“ Maria dachte kurz nach: „Meinen Sie etwa, ich bin im Schlaf durch die Zimmerwand getunnelt?“ Planck nickte.
Glühende Körper, wie hier in einem Stahlwalzwerk, leuchten je nach Temperatur in unterschiedlichen Farben. Die Untersuchung dieses Phänomens führte zur Entwicklung der Quantentheorie. (Quelle: Siemens)
Plancksches Wirkungsquantum Als Max Planck das nach ihm benannte Wirkungsquantum „h“ in die Physik einführte, tat er dies in einem „Akt der Verzweiflung“. Anders konnte er nämlich nicht beschreiben, wie die Farben eines glühenden Körpers zustande kommen (Eisen leuchtet mit zunehmender Temperatur zuerst rot, dann weiß und schließlich blau). War h ursprünglich nur als eine mathematische Hilfsgröße gedacht, so musste Planck bald einsehen, dass sie eine fundamentale Bedeutung besitzt: Wenn die Atome eines glühenden Körpers Energie in Form von Licht abgeben, so können sie dies nur in kleinen Portionen oder „Quanten“ tun. Anstatt von Lichtteilchen (eben den Quanten) zu sprechen,
kann man sich das ausgesandte Licht auch als Welle vorstellen. Die Energie E der Quanten (oder Lichtteilchen oder auch „Photonen“) hängt mit der Frequenz f dieser ausgesandten Lichtwelle über die berühmte Gleichung E = h · f zusammen. Unterschiedliche Frequenzen wiederum werden vom Auge als verschiedene Farben wahrgenommen. Je nach Experiment muss man sich zur Erklärung der Phänomene für das Wellen- oder das Teilchenbild entscheiden. Dass die Natur (Quanten-)Sprünge macht und damit eine „körnige“ Struktur besitzt, hat Planck noch viele Jahre beschäftigt. Er bemühte sich jedoch vergeblich, seine Erkenntnis mit den Gesetzen der klassischen Physik in Einklang zu bringen.
123
Max von Laue in seinem Auto (Quelle: Archiv zur Geschichte der Max-PlanckGesellschaft, Berlin-Dahlem)
Plötzlich stand ein weiterer Herr im Zimmer. Er trug eine karierte Schirmmütze und hielt das Lenkrad seines Wagens in der Hand. „Meine Güte, Herr von Laue, was ist passiert?“, fragte Planck erschrocken. Max von Laue, der nicht nur als Physiker, sondern auch als leidenschaftlicher Autofahrer bekannt war, antwortete verwirrt: „Wir haben ein neues Verfahren getestet, mit dem sich die Geschwindigkeit von Autos kontrollieren lässt. Mein Assistent schickte
124
Ein zentraler Versuch in der Quantenphysik ist das sogenannte Doppelspalt-Experiment. Es entspricht ziemlich genau dem „Torwandschießen“ in unserer Alltagswelt – nur mit sehr merkwürdigem Versuchsausgang. (Illustration: Stefanie Juras, Iser & Putscher)
ein kurzes Radarsignal auf das Heck meines Wagens. Dabei muss das Fahrzeug so stark beschleunigt worden sein, dass ich heraus katapultiert wurde.“ Marias Blick fiel durch das offene Fenster. Dort bemerkte sie ballspielende Kinder, die auf eine Torwand zielten: „Oh, sehen Sie nur, meine Herren!“ Als Planck und von Laue hinaussahen, begriffen sie Marias Aufregung: Immer wenn sich der
Ball der Torwand näherte, nahm er eine werkwürdig geisterhafte Gestalt an. Es war vollkommen unmöglich zu sagen, wo er genau war, noch durch welches der beiden Löcher er flog. Doch nun verschwamm alles vor Marias Augen und sie erwachte – diesmal in ihrem Bett. So, oder ähnlich, könnte Maria Goeppert geträumt haben, als sie in den Zwanziger Jahren mit Victor Weißkopf und Max Delb-
Unbestimmheitsrelation Es gibt physikalische Größenpaare wie Ort und Impuls (Impuls = Masse · Geschwindigkeit) oder Energie und Zeit, die man nicht gleichzeitig exakt messen kann. Je genauer man den einen Wert kennt, desto unbestimmter wird der andere. Was zunächst nur als Makel erscheint, ist für einen weiteren „Zaubertrick“ der Quantentheorie verantwortlich: So können plötzlich Teilchen aus dem Nichts er-
scheinen und wieder verschwinden. Dies ist möglich, weil auch im absoluten Vakuum durch die Energie-Zeit-Unschärfe ab und zu eine (sehr kleine) Energie für (sehr) kurze Zeit bereit steht. Diese Energie wiederum kann sich nach der Einsteinschen Relation zwischen Energie und Masse (E = m · c2, c: Lichtgeschwindigkeit) in ein Teilchenpaar aus Materie und Antimaterie umwandeln.
Die Unbestimmtheitsrelation verbietet, dass Ort und Impuls gleichzeitig exakt gemessen werden können. Was man aber messen und auch – wie in diesem Fall – berechnen kann, ist die Aufenthaltswahrscheinlichkeit eines Elektrons. Die farbigen Wolken geben dabei die Zonen an, in denen es sehr wahrscheinlich ist, das Elektron anzutreffen. Die Farbskala ist hier nur dazu da, die Orientierung im dreidimensionalen Raum zu unterstützen. Die Kantenlänge des Würfels beträgt 111 Atomabstände – das Elektron kann sich also relativ frei in dem Festkörper bewegen. Berechnet
wurde hier das Modell eines Metalls, das anfängt, sich in einen Isolator umzuwandeln. Dass die Aufenthaltswahrscheinlichkeit sehr unregelmäßig („wolkig“) verteilt ist, liegt daran, dass ein Modell mit viel „Unordung“ im Festkörper gewählt wurde (hervorgerufen zum Beispiel durch Fehler im Kristallgitter etc.). Betrachtet man Systeme mit großer Ordnung und berechnet die Wahrscheinlichkeit für eine zweidimensionale Ebene, erhält man Bilder wie das auf Seite 27. (Quelle: Rudolf A. Römer und Frank Milde, Institut für Physik, TU Chemnitz)
Maria Goeppert-Mayer (Quelle: Süddeutscher Verlag – Bilderdienst)
rück in Göttingen studierte. „Wir verbrachten manche Abende bis tief in die Nacht und versuchten, uns die Probleme klar zu machen. Das nannten wir oft ,Eine kleine Nachtphysik‘“, erinnert sich Weißkopf. Alle drei leisteten in ihrem späteren Leben bedeutende Beiträge zur Physik. Maria Goeppert-Mayer wurde als zweite Frau mit dem Nobelpreis für Physik ausgezeichnet. Ihr ehemaliger Kommilitone Max Delbrück wechselte hingegen mit großem Erfolg in die Molekularbiologie und erhielt einen Nobelpreis in Medizin.
Eine andere Welt Tatsächlich würde die Welt in ihrer heutigen Form nicht existieren, wenn das Plancksche Wirkungsquantum einen anderen Wert hätte. Nicht nur die Farbe der Sonne wäre anders, sondern auch die Eigenschaften der Atome und Moleküle. Es ist fraglich, ob unter solchen Umständen überhaupt Leben hätte entstehen könnte. In der Mikrowelt sind Marias Traumerlebnisse jedoch alltäglich. Dort sind Atome tatsächlich „verschmiert“, so dass man sie nicht genau lokalisieren kann. Dies ist eine Folge der Unbestimmtheitsrelation, die auch dafür verantwortlich ist, dass winzige Teilchen wie Elektronen oder Heliumkerne durch Wände gehen können. Die Physiker spre-
125
Bewegungsrichtung
geringer Tunnelstrom
Die feine Messspitze eines Rastertunnelmikroskops über einer fingernagelgroßen Graphit-Probe. (Quelle: Philip Morris Stiftung)
Ein- und Ausbrechern jeglicher Art käme der Tunneleffekt sehr gelegen – doch in der Praxis kommt der nur bei Elektronen und anderen mikroskopischen Teilchen vor. (Illustration: Stefanie Juras, iser und schmidt)
126
hoher Tunnelstrom
Tunneleffekt In der Quantentheorie ist es möglich, dass eingesperrte Teilchen aus ihrem Gefängnis „ausbrechen“. Die Unbestimmtheitsrelation zwischen Energie und Zeit verleiht ihnen zuweilen einen kurzen Energieschub, der dazu ausreicht, die zuvor unüberwindbaren Wände des Gefängnisses zu durchbrechen. Der Name „Tunneleffekt“ hat sich eingebürgert, weil es so aussieht, als hätten sich die Teilchen einen „Fluchttunnel“ gegraben. Auf diesem Prinzip beruht der radioaktive „Alpha-Zerfall“. Dabei löst sich ein Paket aus zwei Protonen und zwei Neutronen aus dem Inneren des Atomkerns, obwohl es eigentlich durch die Kernkräfte festgehalten werden müsste. In der Festkörperphysik wird der Tunneleffekt zur Untersuchung von Materialoberflächen benutzt: bei der Rastertunnelmikroskopie „durchtunneln“ die Elektronen an der Oberfläche der zu untersuchenden Probe einen winzigen Zwischenraum, der sie von der feinen Tastspitze des Mikroskops trennt. Das Vakuum in diesem Zwischenraum sollte eigentlich einen Stromfluss verhindern, da es ein idealer Isolator ist. Der Tunneleffekt aber macht diese undurchdringliche Trennwand aus „Nichts“ für Elektronen durchlässig. Da die Zahl der tunnelnden Elektronen empfindlich vom Abstand zur Spitze abhängt, lassen sich auf diese Weise feinste Höhenunterschiede erkennen – sogar einzelne Atome werden sichtbar.
Interferenz Wenn parallele Wasserwellen auf eine Wand mit zwei Löchern treffen, überlagern sich auf der anderen Seite der Wand zwei halbkreisförmige Wellen zu einem Interferenzmuster. Treffen zwei Wellenberge oder -täler zusammen, so verstärken sie sich gegenseitig. Ein Berg und ein Tal löschen sich dagegen aus. Dieses Phänomen lässt sich auch bei Licht- und Materiewellen beobachten. (Grafik: J. Mair/iser und schmidt)
chen vom Tunneleffekt. Ebenso können Radarwellen sich wie Billiardkugeln verhalten und beispielsweise ein Atom auf ähnliche Weise beschleunigen wie das Auto in Marias Traum. Eine „Quantenpolizei“ würde also durch ihre Kontrollen selber dazu beitragen, dass die Fahrer die Geschwindigkeit übertreten. Ein Schlüssel zu vielen merkwürdigen Aussagen der Quantentheorie liegt in der Tatsache, dass Wellen und Teilchen in der Mikrowelt eine untrennbare Einheit bilden. Recht eindrucksvoll lässt sich das anhand eines Experiments vorführen, das dem von der Torwand in Marias Traum ähnelt. Schießt man statt eines Fußballs ein Elektron auf einen Doppelspalt (eine Torwand für Elektronen), kann man beobachten, wie es an einer bestimmten Stelle auf einer Photoplatte hinter dem Doppelspalt auftrifft. Dabei schwärzt es die Platte an einem bestimmten Ort, wie man es von einem Teilchen erwartet. Beobachtet man jedoch eine Weile, wie nacheinander viele solcher einzelnen Elektronen durch den Doppelspalt gehen und anschließend auf die Photoplatte treffen, so stellt man etwas Erstaunliches fest: Die Schwärzungen, welche den Aufschlagpunkt einzelner Elektronen markieren, bilden ein Interferenzmuster, wie es für Wellen typisch ist. Verwirrend ist nicht nur, dass Elektronen sich hier einmal wie Teilchen und einmal wie Wellen verhalten. Es stellt sich auch die Frage, woher jedes einzeln ankommende Elektron ohne Absprache mit seinen Vorgängern „weiß“, an welcher Stelle es auftreffen muss. Oder liegt die Erklärung darin, dass jedes Elektron sich aufteilt und mit sich selbst interferiert? Physiker haben versucht, dem Spuk ein Ende zu
bereiten, indem sie hinter dem Doppelspalt eine starke Lichtquelle installierten. Anhand eines Lichtblitzes, der dadurch entsteht, dass ein Photon der Lichtquelle am Elektron reflektiert wird, konnten sie herausfinden, durch welchen Spalt das Elektron gegangen war. Zu ihrer Überraschung verschwand damit aber das Interferenzmuster. War das Elektron einmal dazu gebracht worden, sich wie ein Teilchen zu verhalten, löste sich seine Wellennatur in Luft auf. Ein ähnliches Experiment haben Physiker inzwischen auch tatsächlich mit Fußbällen ausprobiert – allerdings mit mikroskopisch kleinen. Eine Gruppe um den Österreicher Anton Zeilinger hat „Fußballmoleküle“ aus 60 Kohlenstoffatomen auf eine „Torwand“ mit vielen, sehr schmalen Schlitzen geschossen und dabei festgestellt, dass selbst so „große“ Moleküle wie die sogenannten Fullerene Welleneigenschaften haben. Es stellt sich die Frage, wie weit dieses Spiel auch mit größeren Objekten fortgesetzt werden kann. Noch liegt die Grenze zwischen Quantentheorie und klassischer Physik im Dunkeln.
a)
Anzahl der Treffer
b)
Anzahl der Treffer
Torwandschießen mit Elektronen: Schießt man die Elektronen einzeln auf den Doppelspalt, ohne sie dabei zu beobachten, dann treffen sie auf dem Auffangschirm so auf, dass ein für Wellen typisches Interferenzmuster entsteht (a). Beobachtet man mit einer „Lampe“ (deren Licht vom Elektron reflektiert wird), durch welchen Spalt das Elektron geht, so verschwindet sein Wellencharakter (b). Jedes Elektron, das auf den Doppelspalt geschossen wird, landet dann auf dem Schirm direkt hinter dem oberen oder unteren Spalt (einige wenige prallen an den Kanten der Schlitze ab und werden dadurch leicht zur Seite abgelenkt). (Graphik: iser und schmidt)
Ein Fußballmolekül aus 60 Kohlenstoffatomen. (Quelle: Rice University)
127
Das große
Quantenei
128
Werner Heisenberg (Quelle: Archiv zur Geschichte der Max-Planck-Gesellschaft, Berlin-Dahlem)
„Geistesblitz“: Heisenberg kurierte im Frühjahr 1925 einen Anfall von „Heufieber“ auf der Insel Helgoland aus. Nachdem er mehrere Tage damit zugebracht hatte, auf den Klippen herumzuklettern, über Physik nachzudenken und Gedichte aus Goethes West-Östlichem Divan auswendig zu lernen, kam eines nachts um drei der Geistesblitz: „Ich hatte das Gefühl, durch die Oberfläche der atomaren Erscheinungen hindurch auf einen tief darunter liegenden Grund von merkwürdiger innerer Schönheit zu schauen (...) ich war so erregt, dass ich an Schlaf nicht denken konnte.“ So erwartete er auf der Spitze eines ins Meer hineinragenden Felsenturmes den Sonnenaufgang. Seit Juni 2000 erinnert daran sogar ein Gedenkstein auf der Insel. (Foto Helgoland: Lilo Taddy)
Heisenberg hat ein großes Quantenei gelegt“, schrieb Einstein im September 1925 an seinen Freund Ehrenfest, „in Göttingen glauben sie daran (ich nicht)“. Was der erst dreiundzwangzigjährige Werner Heisenberg ausgebrütet hatte, versetzte die Physiker in eine solche Aufregung, dass Einstein sie mit einem aufgescheuchten Hühnerhof verglich. In Göttingen, das neben München eines der geistigen Zentren der Quantenphysik war, arbeitete Heisenbergs Chef Max Born den Geistesblitz seines Assistenten Heisenberg weiter aus. Gemeinsam mit Pascual Jordan, einem Schüler Borns, veröffentlichten Heisenberg und Born 1926 die berühmt gewordene „Drei-Männer-Arbeit“. Damit setzten sie die bis dahin hauptsächlich intuitiv begründete Quantenphysik auf ein solides mathematisches Fundament. Doch die Göttinger Methode, die nach dem zugrunde liegenden mathematischen Verfahren den Namen „Matrizenmechanik“ erhielt, fand nicht nur begeisterte Anhänger. Dem österreichischen
Physiker Erwin Schrödinger erschien die Matrizenrechnung zu kompliziert; er fühlte sich von ihrem „Mangel an Anschaulichkeit abgeschreckt, um nicht zu sagen abgestoßen“. Im Gegenzug entwickelte er eine Theorie für Materie, die an der Wellentheorie für Licht anknüpfte. Dazu hatte ihn eine Arbeit des französischen Physikers Louis de Broglie angeregt, der 1924 vorgeschlagen hatte, die Elektronen in einem Atom als „stehende Materiewellen“ zu beschreiben. Auf dieser Idee aufbauend entwickelte Schrödinger seine berühmte Wellen-Gleichung, die heute jeder Physikstudent lernt. Bald sollte er aber zu seinem Erstaunen feststellen, dass seine Gleichung nur eine andere mathematische Ausdrucksweise für Heisenbergs Matrizenrechnung darstellte. Allerdings war Schrödingers Formalismus einfacher und setzte sich daher bei den Physikern durch. Sogar Heisenberg zog es vor, in seinen folgenden Arbeiten die Schrödingergleichung zu verwenden.
Erwin Schrödinger (Quelle: Archiv zur Geschichte der Max-Planck-Gesellschaft, Berlin-Dahlem)
129
Werner Heisenberg (links) mit Niels Bohr im Kopenhagener Institut (Quelle: AIP Emilio Segrè Visual Archives, Foto: Paul Ehrenfest Jun.)
Fünfter Solvay-Kongress in Brüssel, 1927. Vordere Reihe (v.l.n.r.): I. Langmuir, M. Planck, M. Curie, H.A. Lorentz, A. Einstein, P. Langevin, C.E. Guye, C.T.R. Wilson, O.W. Richardson. Mittlere Reihe: P. Debye, M. Knudsen, W.L. Bragg, H.A. Kramers, P.A.M. Dirac, A.H. Compton, L. de Broglie, M. Born, N. Bohr. Hintere Reihe: A. Piccard, E. Henriot, P. Ehrenfest, E. Herzen, T. de Donder, E. Schrödinger, E. Verschaffelt, W. Pauli, W. Heisenberg, R.H. Fowler, L. Brillouin (Quelle: Solvay-Institut, Brüssel)
Schrödingers Theorie erregte sofort die Aufmerksamkeit des dänischen Physikers Niels Bohr. Der Kopenhagener Professor hatte bereits in jungen Jahren die Idee der Quantensprünge (siehe Kasten „Wirkungsquantum“ auf Seite 7) in sein äußerst erfolgreiches Atommodell eingebaut. Die Sichtweise der Heisenbergschen Theorie passte viel besser zu Bohrs Vorstellungen, als die „Wellenmechanik“ Schrödingers. Deshalb brannte er darauf, mit seinem „wisssenschaftlichen Gegner“ zu sprechen. Als Schrödinger auf Bohrs
Einladung nach Kopenhagen kam, verwickelte ihn sein Gastgeber vom frühen Morgen bis spät in die Nacht in intensive Diskussionen. Nach einigen Tagen wurde Schrödinger krank. Heisenberg, der zu dieser Zeit in Kopenhagen mit Bohr zusammenarbeitete, schildert die Hartnäckigkeit des sonst so rücksichtsvollen Gastgebers: „Frau Bohr pflegte ihn (Schrödinger) und brachte Tee und Kuchen, aber Niels Bohr saß auf der Bettkante und sprach auf ihn ein: ,Aber Sie müssen doch einsehen, dass...‘.“ Zu
Max Planck (1918) Albert Einstein (1921) Niels Bohr (1922)
einer Einigung kam es nicht. Beim Abschied auf dem Bahnhof äußerte Schrödinger fast verzweifelt: „Wenn es doch bei dieser verdammten Quantenspringerei bleiben soll, so bedaure ich, mich überhaupt jemals mit Quantentheorie abgegeben zu haben.“ Auch zwischen Bohr und Heisenberg kam es zu hartnäckigen Diskussionen über die Interpretation der Quantentheorie. Im Februar 1927 waren sie so festgefahren, dass Bohr in Ski-Urlaub fuhr und Heisenberg gegen seine Gewohnheit nicht mitnahm. So konnte jeder einmal für sich nachdenken. In dieser Zeit entstanden zwei Arbeiten, die heute die Grundpfeiler der Quantentheorie bilden: Bohr for mulierte das Komplementaritätsprinzip, Heisenberg die Unbestimmtheitsrelation.
James Franck, Gustav Hertz (1925) Arthur Compton (1927) Louis de Broglie (1929)
1915
1920
1925
1930
1935 Paul Dirac, Erwin Schrödinger (1933)
Nobelpreisträger in der Quantentheorie 130
Werner Heisenberg (1932)
1940
Die Kopenhagener Deutung In seinem Komplementaritätsprinzip formulierte Bohr die Einsicht, dass prinzipiell nicht zu versöhnende Eigenschaften ein und desselben physikalischen Objektes (wie Wellen- und Teilcheneigenschaften) sich auf der anderen Seite wechselseitig bedingen. Heisenberg drückte diesen Sachverhalt mathematisch in der Unbestimmheitsrelation aus: Je genauer der Ort eines Teilchens gemessen wird, desto unschärfer wird sein Impuls (Masse mal Geschwindigkeit) – und umgekehrt. Begriffe wie Ort und Impuls sind im Bohrschen Sinne zueinander komplementär, weil sie nicht gleichzeitig exakt bestimmbar sind. „Tag und Nacht“, M. C. Escher, 1939. Tag und Nacht, Hell und Dunkel sind zwei Seiten einer Medaille. In der Quantenphysik spricht man von Komplementarität: Zwei Gegensätze, die sich aber gegenseitig bedingen. (© Photo: 2001 Cordon Art B.V.-Baarn, Holland. All rights reserved)
Im September 1927 stellte Bohr die später als „Kopenhagener Deutung“ bezeichnete Theorie bei einer internationalen Tagung in Como vor. Die anwesenden Physiker nahmen Bohrs Gedanken zur Kenntnis, schienen sie aber in aller Konsequenz noch nicht zu durchdringen. Der für die Forschung so fruchtbare Widerspruch kam erst einen Monat später von Einstein während des 5. SolvayKongresses in Brüssel. Einstein, dessen Reaktion alle mit Spannung erwarteten, kritisierte die Quantentheorie als unvollständig. Nun kam es zu einem geistigen Duell zwischen Bohr und Einstein, das in der Geschichte der Physik seinesgleichen sucht. Über fünf Tage hinweg zog sich die „schachspielartige“ Partie. Einer der Kongressteilnehmer, Paul Ehrenfest, erinnert
1945 Wolfgang Pauli (1945) Isidor Rabi (1944) Otto Stern (1943)
1950
sich: „Einstein immer neue Beispiele ... Bohr stets aus einer dunklen Wolke von philosophischem Rauchgewölk die Werkzeuge heraussuchend, um Beispiel nach Beispiel zu zerbrechen. Einstein wie die Teuferln in der Box: jeden Morgen frisch herausspringend.“ Am Morgen des letzten Tages brachte Einstein schließlich ein Beispiel, das Bohr am Abend mit Hilfe der allgemeinen Relativitätstheorie widerlegen konnte – Einstein war mit seinen eigenen Waffen geschlagen. Damit schien von 1927 an die Kopenhagener Deutung gesichert. Einstein mochte sich damit bis zu seinem Lebensende nicht abfinden.
Niels Bohr (links) und Albert Einstein auf dem Solvay-Kongress (Quelle: AIP Emilio Segrè Visual Archives, Foto: Paul Ehrenfest Sen.)
1955 Max Born (1954)
Einstein und die Quantentheorie Über Einsteins viel zitierten Zweifeln an einem „würfelnden Gott“ wird oft vergessen, dass er selbst an der Entstehung der Quantentheorie maßgeblich beteiligt war. Tatsächlich erhielt er den Nobelpreis für seine Vermutung, dass Licht Eigenschaften eines Teilchens besitzt (und nicht für die Relativitätstheorie!). Einstein hat außerdem einen wichtigen Beitrag zur Quantenstatistik geleistet. Unter Heisenbergs Studenten kursierte über Einstein das Bonmot: „Die Quantentheorie versteht er, nur schade, dass er sie nicht mag.“
131
Physikalische Physikalische Zwillingsforschung 132
„Im Reich der Lichter“, René Magritte, 1954. Magritte schrieb zu diesem Bild: „Die Landschaft lässt an Nacht und der Himmel an Tag denken. Ich finde, diese Gleichzeitigkeit von Tag und Nacht hat die Kraft zu überraschen und zu bezaubern. Ich nenne diese Kraft Poesie.“ Das Phänomen der Gleichzeitigkeit in der Quantenwelt – die Überlagerung verschiedener Zustände – wird von vielen Physikern ähnlich empfunden. (© Photo: VG Bild-Kunst, Bonn 2000)
Polarisationsrichtung
Im Jahr 1935 holte Einstein zu seinem letzten großen Schlag gegen die Quantentheorie aus. Er wollte beweisen, dass die Dinge unabhängig von einem Beobachter eine objektive Realität besitzen. Intuitiv geben wir Einstein sofort Recht. Denn ein Auto zum Beispiel hat natürlich auch dann eine bestimmte Geschwindigkeit, wenn der Tachometer ausgefallen ist und wir sie deswegen nicht messen können. Die Quantentheorie behauptet aber, dass der Zustand mikroskopischer Objekte vor einer Messung nicht nur nicht bekannt, sondern völlig unbestimmt ist. Um diese Behauptung als unsinnig zu entlarven, erdachte Einstein gemeinsam mit seinen Mitarbeitern Boris Podolsky und Nathan Rosen ein Gedankenexperiment, das nach den Anfangsbuchstaben seiner Erfinder als EPR-Argument in die Geschichte eingegangen ist. In einer modernen Version funktioniert das Gedankenexperiment so, dass Laserlicht einer bestimmten Wellenlänge einen Kristall mit speziellen optischen Eigenschaften durchquert. Dabei entstehen im Kristall Paare von Lichtteilchen (Photonen). Gleich nachdem sich ein Paar gebildet hat, fliegen die beiden Photonen aber wieder in unterschiedliche Richtungen auseinander. Den Regeln der Quantentheorie zufolge sind die Polarisationsrichtungen dieser „ZwillingsPhotonen” unbestimmt. Das bedeutet: Erst im Augenblick der Messung „entscheidet“ sich das Licht für eine bestimmte Polarisation. Allerdings weiß man aufgrund physikalischer Erhaltungssätze, dass die Polarisationsrichtungen beider Photonen immer senkrecht aufeinander stehen. Das führt zu einer merkwürdigen Konsequenz: Wenn die Polarisationsrichtung nur eines Photons gemessen wird, muss im gleichen Augenblick auch die Polarisationsrichtung des Zwillingsteilchens festgelegt sein (nämlich senkrecht zu der gemessenen). Einstein, Podolsky und Rosen sahen darin einen Widerspruch zur Relativitätstheorie. Denn man könnte rein theoretisch so lange warten, bis die beiden Photonen sich an entgegengesetzten Enden des Universums befänden. Misst man dann das eine Photon, wird sich dieses ganz zufällig für eine Polari-
z
Filter
Lichtwelle in Z-Richtung polarisiert
Welle geht durch
y Welle bleibt stecken x
Lichtwelle in X-Richtung polarisiert
Im Wellenbild ist das Licht eine elektromagnetische Welle, deren Schwingungsebene in eine bestimmte Richtung zeigt. Diese läßt sich leicht mit einem Polarisationsfilter (z. B. einem „Pol-Filter“ eines Fotoapparates) herausfinden. Er wirkt wie ein sehr feines Gitter, das die Lichtwelle nur durchqueren kann,
sationsrichtung entscheiden. Damit wäre aber auch die Polarisationsrichtung des Zwillings automatisch festgelegt (eben senkrecht dazu). Das erste Photon müsste also dem Zwilling mit Überlichtgeschwindigkeit (nämlich augenblicklich!) mitteilen, für welche Richtung es sich entschieden hat. Da die Überschreitung der Lichtgeschwindigkeit laut Relativitätstheorie aber verboten ist, schlossen Einstein, Podolsky und Rosen, dass der Zustand jedes Photons schon vor der Messung festgelegt sein müsse. Zu Einsteins Zeit ließen sich die Widersprüche des EPR-Arguments nicht auflösen. Erst 1982 gelang es dem französichen Physiker Alain Aspect in Paris, die von Einstein bezweifelte „spukhafte Fernwirkung“ im Laborversuch glaubhaft zu bestätigen! Insbesondere konnte er nachweisen, dass der Zustand der Photonen tatsächlich vor der Messung nicht durch „verborgene Variablen“ festgelegt ist. Forschern um Nicolas Gisin von der Universität Genf gelang es (mit einem etwas komplizierten Experiment) in jüngster Zeit sogar, diese „heimliche Absprache“ zwischen Photonen über eine Entfernung von 10 Kilometern nachzuweisen. Das Zwillingspaar wurde so aufgeteilt, dass ein Photon die Strecke zwischen Genf und Bellevue durchlief, während das
wenn ihre Schwingungsebene parallel zu den „Gitterstäben“ des Polarisationsfilters ausgerichtet ist. Geht man vom Wellen- ins Teilchenbild über, sprechen die Physiker ebenfalls von einer bestimmten Polarisationsrichtung eines Photons (Lichtteilchens). (Grafik: iser und schmidt)
Die verborgenen Variablen Der theoretische Physiker John Bell überlegte sich 1964, wie man feststellen könnte, ob der Zustand von Zwillingsphotonen schon vor der Messung festgelegt ist. Wäre dies der Fall wäre, so müsste es nicht näher beschreibbare „verborgene Variablen“ geben, die quasi in den Zwillingsphotonen „versteckt“ sind und die bestimmen, wie sich das Photon bei der Messung „entscheidet“. Bell erdachte eine theoretisch mögliche Messvorrichtung und stellte einige komplizierte statistische Überlegungen an. Sein Hauptgedanke war dabei, dass die Festlegung der Messergebnisse durch verborgene Variablen und die Vorstellung, dass Wechselwirkungen zwischen Teilchen immer räumlich begrenzt sein müssen, eine größere Einengung der Natur darstellen als das Konzept der Verschränkung (siehe Kasten Seite 18). Bell entwickelte ein statistisches Kriterium für diesen Gedanken, das sich im Experiment überprüfen lassen sollte. Alain Aspect konnte schließlich einen geeigneten Versuchsaufbau realisieren und das für Bells Statistiken nötige Datenmaterial liefern. Das Ergebnis: Einsteins verborgene Variable gibt es nicht – der Zufall regiert tatsächlich die (Quanten-) Welt!
133
andere Photon sich auf den Weg nach Bernex machte. Kurz vor dem Ende der Rennstrecke durchlief jedes Photon einen Meßapparat, in dem es die Wahl zwischen mehreren Ausgängen hatte. Wählte beispielsweise eines den rechten Ausgang, so tat der Zwilling das Gleiche.
Verschränkte Photonen sichtbar gemacht. Diese Aufnahme (in Falschfarben) zeigt Licht aus einem Kristall, in dem Photonenpaare erzeugt werden. Dabei entsteht Licht in unterschiedlichen Frequenzen, das sich kegelförmig ausbreitet. Von vorne sieht man deshalb verschiedene Ringe. Ein Photonenpaar, das die Überlappungsstelle zweier gleichfarbiger Ringe auf dem Film der Kamera erzeugt hat, lag in einem verschränkten Zustand vor. (Quelle: Paul Kwiat und Michael Reck, Institut für Experimentalphysik, Universität Wien) Verschränkung Teilchen, die einmal in Wechselwirkung gestanden haben, lassen sich nicht mehr als getrennte Objekte betrachten, selbst wenn sie räumlich weit voneinander entfernt sind. Die atomare Wirklichkeit besteht demnach aus ausgedehnten „Quantenobjekten“, die nur als Ganzheit beschrieben werden können.
Wie aber lässt sich dieses außergewöhnliche Verhalten erklären, wenn eine Übertragung von Informationen mit Überlichtgeschwindigkeit ausgeschlossen ist? Die Antwort lautet: Es wird gar keine Information übertragen! Vielmehr verhalten sich die Zwillingsphotonen wie ein Würfelpaar, das bei jedem Wurf gleiche Augenzahl zeigt. Da das Ergebnis eines solchen Experiments völlig zufällig ist, lässt sich dieses Phänomen nicht dazu benutzen, irgendwelche sinnvollen Daten zu übermitteln. Man kann mit solch einer Apparatur also zum Beispiel nicht „morsen“. Die Wissenschaftler erklären den erstaunlichen Ausgang der Experimente damit, dass zwei Teilchen, die einmal miteinander in Wechselwirkung getreten sind, offenbar zu Bestandteilen eines unteilbaren Systems werden. Erwin Schrödinger hat dafür den Begriff der Verschränkung geprägt. Dieses zunächst nur hypothetische Konzept ist inzwischen durch zahlreiche Forschungsarbeiten bestätigt worden. An der Ecole
Nationale Supérieure in Paris konnte eine Forschergruppe um Serge Haroche nachweisen, dass es nicht nur verschränkte Photonen, sondern auch verschränkte Atome gibt. Der Gruppe von Anton Zeilinger in Wien gelang es in diesem Jahr sogar, vier Lichtteilchen miteinander zu verschränken. Eines der spannendsten Experimente, die auf der Verschränkung von Teilchen beruhen, ist die „Teleportation“ von Quantenzuständen.
„Beam me up, Scotty!“ Wenn dieser Funkspruch den Transporterraum der Enterprise erreicht, wissen „StarTrek“-Fans, dass sich im nächsten Augenblick Captain Kirk und seine Begleiter im Raumschiff materialisieren werden. Zwar gehört diese Vorstellung nach wie vor in den Bereich der Science Fiction, aber Charles Bennett vom IBM Forschungslabor in Yorktown Heights, USA, hat bereits 1993 einen ernstzunehmenden Vorschlag gemacht, wie die „Teleportation“ sich physikalisch realisieren ließe. Dabei spielte die Verschränkung zwischen Zwillingsphotonen eine zentrale Rolle. Bennetts Idee wurde 1997 von Anton Zeilingers Gruppe erfolgreich umgesetzt: Ihnen gelang die erste Teleportation eines Photons. Inzwischen ist die Teleportation auch bei anderen Objekten gelungen. Jeff Kimble am Caltech in Pasadena, USA, teleportierte beispielsweise ein Lichtfeld mit Hilfe zweier verschränkter Lichtstrahlen. Sein Kollege Raymond Laflamme in Los Alamos teleportierte hingegen den Zustand eines Atoms auf ein anderes. Obwohl beide Atome nur eine kurze Strecke voneinander entfernt waren – sie befanden sich innerhalb desselben Moleküls – könnte auch diese Art der Teleportation nützlich sein. Die Forscher glauben, dass so die Datenverarbeitung in künftigen Quantencomputern vonstatten gehen könnte.
Quantenkryptographie
134
Experimenteller Aufbau zur Erzeugung von Paaren aus Zwillingsphotonen. Der Kristall, in dem die verschränkten Photonen erzeugt werden, befindet sich im Kreuzungspunkt der Laserstrahlen. (Quelle: Universität Innsbruck/plus49, Marc Steinmetz)
Eine der ersten praktischen Anwendungen solcher Quantenzaubereien zeichnet sich in der Kryptographie ab – der Kunst, wie man geheime Nachrichten verschlüsselt.
Beamen für Anfänger Dialog zwischen Alice (Sender) und Bob (Empfänger)
Alice ist Physikerin. Ihr Freund Bob studiert noch. Beide sind in verschiedenen Laboratorien. Sie verständigen sich per Telefon. Alice: Hallo Bob. Ich habe gerade zwei Zwillingsphotonen erzeugt. Wollen wir damit mal eine Teleportation versuchen? Bob: Gut, dann schick’ mir eins von deinen Zwillinsphotonen rüber! Was könnten wir denn teleportieren? Alice: Ich habe hier noch ein einzelnes Photon, das sich zur Teleportation eignen könnte. Nennen wir es „Spock“. Bob: Kannst du mir Spock beschreiben? Alice: Das würde ich gern, aber wenn ich eine Messung vornehme, zerstöre ich seinen ursprünglichen Zustand. Bob: Stimmt. Aber findest du es nicht ziemlich verrückt, dass du mir etwas teleportieren willst, das du gar nicht kennst? Alice: Das ist ja gerade das Besondere an der Teleportation! Auch die Vorstellung, dass etwas bei mir verschwindet und bei dir wieder erscheint, ist nicht ganz richtig. Ich möchte vielmehr erreichen, dass Spocks Zustand sich auf dein Zwillingsphoton überträgt. Bob: Wie soll das gehen? Alice: Ganz einfach – ich stecke ihn zusammen mit meinem Zwillingsphoton in eine Messapparatur.
Bob: Aber damit veränderst du ihn doch auch? Alice: Ja, aber du wirst sehen, dass du nachher Spocks ursprünglichen Zustand wieder erzeugen kannst. Wichtig ist hier erstmal, dass Spock durch diese Messung nun auch mit deinem Zwillingsphoton verknüpft ist! Bob: Ah, auf diese Weise teleportierst du also Spocks Zustand zu mir? Alice: Genau. Und dann bist du dran. Ich rufe dich nämlich an und sage dir das Ergebnis, das bei der Messung von Spock mit meinem Zwillingsphoton herausgekommen ist. Das kannst du dazu verwenden, Spocks ursprünglichen Zustand schließlich mit Hilfe einer weiteren Messung zu rekonstruieren. Bob: Ich seh’ schon, über die Details werden wir noch etwas länger reden müssen... Dass es ohne diesen Telefonanruf von dir nicht geht, ist natürlich schade. Ich hatte schon gehofft, wir könnten doch Informationen mit Überlichtgeschwindigkeit senden. Glaubst du, wir werden bald mal etwas größeres als ein Photon teleportieren können? Alice: Gut möglich. Aber schon bei Gegenständen von der Größe einer Kaffeetasse geht nichts mehr: Wir würden dafür eine Zeit benötigen, die das Alter des Universums weit übersteigt!
Der Weltraum: unendliche Weiten. Ob sich das Beamen – die wohl eleganteste aller Reisemöglichkeiten – doch irgendwann durchsetzen wird, steht in den Sternen. (Illustration: Stefanie Juras, iser und schmidt)
Das Prinzip beruht darauf, dass man den Code, den man zur Verschlüsselung und späteren Dechiffrierung der geheimen Daten braucht, über Photonenpaare erzeugt. Alice besitzt dafür eine Apparatur, die Paare von Zwillingsphotonen herstellt. Das eine Photon wird jeweils von Alice gemessen, das zweite an Bob übermittelt und dort gemessen. Da ein Zwillingsphotonenpaar quasi einem Paar von Würfeln ähnelt, die immer die gleiche Augenzahl zeigen, können sich Alice und Bob so über einen Schlüssel für die spätere Datenübermittlung verständigen. Wenn Alice das eine Zwillingsphoton an Bob übermittelt, kann ein Lauscher in der Leitung leicht entlarvt werden, wenn man ein bestimmtes, etwas kompliziertes Verfahren anwendet. Das Grundprinzip ist jedoch einfach: das Abhören entspricht nämlich einer Messung, die den Zustand des Zwillingsphotons verändern kann. Die Besonderheit des Verfahrens liegt also nicht darin, dass es abhörsicher ist, sondern dass Alice und Bob den Lauscher bemerken (und dann noch einmal von vorn anfangen können). Die Anwesenheit des ungebetenen Mithörers stellen beide während eines Telefonats fest, in dem sie zufällig ausgewählte Ergebnisse aus ihren Messprotokollen miteinander vergleichen. Schon bei einem Abgleich von nur 10 bis 15 wahllos herausgegriffenen Messwerten ist es sehr wahrscheinlich, ein von einem Lauscher verändertes Photon festzustellen. Ist kein Fehler aufgetreten, streichen Alice und Bob die Test-Messwerte einfach aus dem Protokoll und verwenden den verbliebenen Code dann zum Senden der eigentlichen Nachrichten. Dass dieses Prinzip funktioniert, ist mehrfach experimentell bestätigt worden. Die Gruppe von Nicolas Gisin an der Universität Genf hat die Praxistauglichkeit des Verfahrens vor drei Jahren bewiesen, indem sie verschlüsselte Nachrichten durch ein Glasfaserkabel der Swisscom unter dem Genfer See hindurchschickte. Allerdings läßt sich der abhörsichere Code nicht an zwei weit voneinander entfernten Orten erzeugen. Denn dazu müsste man den „Strom“ der Photonen verstärken – und diese Verstärkung entspricht (ebenso wie das Lau-
135
Original
verschlüsselt
entschlüsselt
Nachdem Alice (Sender) und Bob (Empfänger) mittels verschränkter Photonen einen Verschlüsselungscode erzeugt haben, den niemand abgehört hat, kann die eigentliche Datenübertragung losgehen. In einem der ersten Experimente dieser Art wurde ein Bild der „Venus von Willendorf“ (ca. 25000 Jahre alt) verschickt. (Quelle: Thomas Jennewein, Institut für experimentelle Physik, Universität Wien).
schen) einer Messung! Den bisherigen Streckenrekord über 40 Kilometer hält eine Forschergruppe um Richard Hughes in Los Alamos. Dennoch könnte die Quantenkryptographie für den innerstädtischen Bereich oder innerhalb begrenzter Sicherheitsbereiche, beispielsweise in Ministerien, funktionieren: „Die Industrie zeigt an diesem Verfah-
ren zunehmend Interesse“, sagt Harald Weinfurter von der Universität München. In seiner Arbeitsgruppe wird zur Zeit ein Modul entwickelt, das für Strecken zwischen zwei und fünf Kilometern geeignet ist. Ist ein solches Gerät erst einmal in Betrieb, dann müssen sich Spione in acht nehmen. Sie könnten nämlich mit großer Wahrscheinlichkeit noch während des Lauschangriffs gefasst werden.
Der
des Ab des be 136
Keine Chance für Spione. Bei der „Quantenkryptographie“ wird ein Schlüssel für die Chiffrierung von Daten erzeugt, wobei Alice und Bob sicherstellen können, dass niemand ihre Leitung angezapft hat. Eine weitere Besonderheit bei diesem Verfahren besteht darin, dass der produzierte Schlüssel rein zufällig ist und keinerlei Muster enthält. Wählt man ihn nur genügend lang, kann man die damit chiffrierten Daten praktisch nicht „knacken“. (Illustration: Stefanie Juras, iser und schmidt)
A
n die Müdigkeit des Geistes glaubt heute niemand, so sehr wir sie schon in allen Gliedern spüren. Aber zweihundert Jahre Zivilisation und Orgien der Wissenschaftlichkeit – dann hat man es satt. Nicht der Einzelne, die Seele der Kultur hat es satt. Sie drückt das aus, indem sie ihre Forscher ... immer kleiner, enger, unfruchtbarer wählt ... in der Physik, wie in der Chemie, der Biologie, wie der Mathematik sind die großen Geister tot ...“. Diese Äußerungen des deutschen Philosophen Oswald Spengler charakterisieren eine generelle Krisenstimmung, die sich nach der Niederlage Deutschlands im Ersten Weltkrieg verbreitete. In seinem vielgelesenen Buch „Der Untergang des Abendlandes“ kritisierte Spengler insbesondere die Naturwissenschaften und die Technik. Waren diese Fächer während des Krieges noch hoch geschätzt worden, so geriet in der jungen Weimarer Republik das Vertrauen in die naturwissenschaftliche Methode zunehmend ins Wanken. Der Glaube an eine sichere, geordnete Welt war durch den Krieg erschüttert.
Untergang
endlandes?
„Widmung an Oskar Panizza“, George Grosz, 1917/18. Das Bild stellt eine Vorahnung auf die Weimarer Republik dar, die durch die Folgen des Krieges und radikale Umbrüche geprägt war. Genau in dieser Zeit vollzog sich mit der quantenmechanischen Revolution auch in der Physik ein radikaler Neubeginn – Zufall? (© Photo: Staatsgalerie Stuttgart)
Die aufkeimende Bewegung der „Lebensphilosophie“, der auch Spengler angehörte, wandte sich entschieden gegen trockene Gelehrsamkeit und eine rein vom Verstand geprägte Weltanschauung. Binnen kurzer Zeit waren die Naturwissenschaftler einer feindseligen Stimmung ausgesetzt. So wundert es nicht, dass sie versuchten, sich zu verteidigen. Wissenschaft wurde nun nicht mehr – wie im Krieg – durch ihre Nützlichkeit gerechtfertigt, sondern als Teil der Kultur interpretiert: „das Wichtigste, was man über sie (die Physik) sagen kann, ist, dass sie ein Bedürfnis ist, dass sie aus dem Menschen hinauswächst wie der Wunsch zu leben, zu spielen oder mit anderen eine Gemeinschaft zu bilden“, betonte der Physiker Hans Reichenbach 1929. Der Wissenschaftshistoriker Paul Forman hat diese Reaktion als eine Anpassung an das kulturelle Milieu der Weimarer Republik interpretiert. Seiner Meinung nach ging dies so weit, dass Physiker wie Richard von Mises und Gustav Doetsch sich der Meinung von Spengler anschlos-
137
Die allgemeine Krise der Wissenschaft in der Weimarer Republik wird hier in einer Ausgabe der Satire-Zeitschrift „Simplicissimus“ aus dem Jahr 1920 aufs Korn genommen. (Quelle: Simplicissimus 25, 595, 1920/© Photo: VG Bild-Kunst, Bonn 2000)
sen und sogar ihr eigenes Fach verabscheuten. Freilich kapitulierten Größen wie Einstein nicht so leicht vor dem „Spenglerismus“. In einem Brief an Born gesteht er: „Man lässt sich gern manchmal am Abend von ihm etwas suggerieren und lächelt am Morgen darüber.“ Doch der Historiker weist überzeugend nach, dass viele Mathematiker und Physiker von der allgemeinen Krisenstimmung ergriffen wurden. Damit stellte Paul Forman in seiner 1971 veröffentlichten, aufsehenerregenden Studie als einer der ersten die geistige Autonomie der modernen wissenschaftlichen Disziplinen in Frage.
138
Doch Forman geht noch weiter: Er behauptet, dass die Forscher nicht nur als Privatleute auf die Situation reagierten, sondern sich sogar dazu verleiten ließen, ihre wissenschaftlichen Theorien dem geistigen Milieu anzupassen. Der Philosoph Oswald Spengler hatte in den Zwanziger Jahren besonders das deterministische Weltbild der Physik als eine „Erscheinung des Hasses gegen die Mächte des Schicksals, des Unbegreiflichen“ kritisiert. Infolgedessen versuchten die Physiker, so Formans
These, ihre Theorien zu modifizieren. Sie gaben das Prinzip der Kausalität auf, ohne dass es dafür einen wissenschaftlichen Grund gegeben hätte. Zu den „Bekehrten“ gehörten der Mathematiker Hermann Weyl, die Physiker Walter Schottky und Walther Nernst sowie zeitweise auch Erwin Schrödinger. So gesehen bildete das gei-
stige Klima der Weimarer Republik einen fruchtbaren Boden für die Quantentheorie. Denn mit der Formulierung der Unbestimmtheitsrelation durch Heisenberg im Jahr 1927 wurde ein Abschied von der Kausalität auch vom physikalischen Standpunkt aus notwendig. Unter Wissenschaftshistorikern sind Formans Thesen allerdings heftig umstritten. Einer seiner Gegner, der britische Historiker John Hendry, gesteht zwar zu, dass die Forscher mit den Wertevorstellungen der Weimarer Republik vertraut waren, sieht aber ihre Ablehnung des Kausalitätsprinzips vor
Zwei Kulturen im Dialog. Zwischen dem Psychoanalytiker Carl Gustav Jung (links) und dem Physiker Wolfgang Pauli (rechts) entspann sich in den dreißiger Jahren ein intensiver Austausch über die Bedeutung des Unbewussten. (Quelle: Archiv für Kunst und Geschichte, Berlin (C.G. Jung)/Archiv zur Geschichte der Max-PlanckGesellschaft, Berlin-Dahlem (W. Pauli))
allem durch fachliche Argumente begründet. Einen ersten Hinweis auf akausale Vorgänge fanden die Physiker bereits zu Anfang des 20. Jahrhunderts bei der Interpretation des radioaktiven Zerfalls, bei dem nicht angegeben werden kann, warum ein Atom zu einem bestimmten Zeitpunkt zerfällt. Hendry schließt den Einfluss des kulturellen Umfelds nicht gänzlich aus, besteht aber darauf, dass es immer auch physikalische Gründe gibt, wenn eine Theorie verworfen oder verändert wird. So scheint also ein komplexes Geflecht aus inneren und äußeren Gründen dazu geführt zu haben, dass die Physiker sich schließlich vom Kausalitätsprinzip verabschiedeten. „Die Reaktion eines jeden Physikers auf ein gegebenes Problem wird durch einen Komplex von Motiven bestimmt, von denen viele keiner historischen Objektivierung zugänglich sind“, fasst Hendry zusammen. Zu den historisch „nicht-objektivierbaren“ Motiven zählt auch die psychologische Seite des Denkprozesses. Als Beispiel zitiert der Wissenschaftshistoriker Karl von Meyenn1 den brillianten Physiker Wolfgang Pauli, der sich als einer der wenigen Naturwissenschaftler mit der Rolle des Unbewussten befasste. Pauli pflegte einen intensiven Dialog mit dem Psychoanalytiker Carl Gustav Jung und übernahm dessen Konzept der
„Archetypen“. Dabei soll es sich um universal gültige Urbilder handeln, die jeder Mensch – unabhängig von seiner Herkunft und Bildung – in sich trägt. Jung glaubte an ein „kollektives Unbewusstes“, das alle Menschen miteinander gemeinsam haben. Als Physiker war Pauli davon besonders fasziniert. Seiner Ansicht nach waren das unbewusste und das bewusste Erleben des
Menschen im quantenphysikalischen Sinne zueinander komplementär. Das bedeutet, dass beide sich gegenseitig bedingen. Viele Forscher sind sich sicher, dass das Unbewusste auch an wissenschaftlichen Erkenntnisprozessen beteiligt ist. Auch Wolfgang Pauli glaubte, dass „Geistesblitze“ in solchen Momenten zustande kommen, wo unbewusste innere Bilder mit äußeren Objekten wie mathematischen Formeln zur Deckung gebracht werden. Der deutsche Chemiker Kekulé war auf der Suche nach der Struktur des Benzols, als er im Traum eine Kette von Kohlenstoffmolekülen tanzen sah, die sich plötzlich zu einem Ring schloss. Der Psychoanalytiker C. G. Jung erkannte darin eine Eingabe des Unterbewusstseins durch eine Verbindung zu einem archetypischen Symbol: einer Schlange, die sich in den Schwanz beißt. (Illustration: Stefanie Juras, iser und schmidt)
1
Karl von Meyenn: „Quantenmechanik und Weimarer Republik“, Verlag Vieweg
139
Quantenphilosophie 140
„Andere Welt II“, M. C. Escher, 1947. In M. C. Eschers Bild existieren drei scheinbar identische Welten nebeneinander. Drei Kopien eines rätselhaften Wesens sind zu sehen, die offenbar nichts voneinander mitbekommen. Eine Interpretation der Quantentheorie geht davon aus, dass weit mehr als drei, nämlich fast unendlich viele Welten parallel zueinander bestehen. (© Photo: 2001 Cordon Art B.V.-Baarn, Holland. All rights reserved)
D
er Theologe Adolf von Harnack (18511930) hat die theoretischen Physiker als die wahren Philosophen des 20. Jahrhunderts bezeichnet. Die Notwendigkeit zu philosophieren ergab sich vor allem durch die Schlüsselposition, die der Beobachter in der Quantentheorie einnimmt. Im täglichen Leben wird niemand behaupten, dass der Mond nur dann am Himmel steht, wenn wir ihn anschauen. Aber in der Mikrowelt entscheidet sich das Ergebnis eines Experiments tatsächlich erst durch die Messung. Oder anders herum: Bevor eine quantenphysikalische Größe gemessen wird, hat sie keinen bestimmten Wert. Beispielsweise kann ein Elektron in einem von der Umgebung isolierten Atom sich gleichzeitig auf zwei verschiedenen Kreisbahnen um den Kern bewegen. Damit besitzt es keinen bestimmten Energiewert – solange, bis der Physiker eine Messung vornimmt. Misst man direkt nach dieser Messung das Elektron noch einmal, kommt wieder der Wert aus der ersten Messung heraus. Denn durch die erste Messung ist der vorher unbestimmte Zustand eindeutig festgelegt worden. Der Österreicher Erwin Schrödinger hat die merkwürdigen Konsequenzen all dieser Überlegungen in seinem berühmten Gedankenexperiment mit der Katze auf die Spitze getrieben. In diesem wenig katzenfreundlichen Versuch stirbt das in einer Kiste eingesperrte Tier, sobald ein radioaktives Atom zerfällt, das sich ebenfalls in der Kiste befindet. Weil niemand sagen kann, wann das Atom zerfällt, beschreibt man es mathematisch als eine Überlagerung der Zustände „zerfallen“ und „nicht zerfallen“. Den Regeln der Quantenmechanik zufolge „entscheidet“ sich das Atom erst dann für einen bestimmten Zustand, wenn eine Messung vorgenommen, also der Kasten geöffnet wird. Eine noch lebende Katze bedeutet: Das Atom ist noch nicht zerfallen – eine tote, dass der Zerfall bereits stattgefunden hat. Daraus folgt aber, dass auch die Katze sich solange, wie der Deckel geschlossen bleibt, in einer Überlagerung der Zustände „tot“ und „lebendig“ befinden müsste (wobei die Wahrscheinlichkeit, eine lebende Katze vorzufinden, natürlich mit der Zeit abnimmt).
Eine solche paradoxe Situation wird aber bei einer „echten“ Katze aus zwei Gründen niemals eintreten. Zum einen lässt sich die Überlagerung von Zuständen nur in Systemen beobachten, die so gut isoliert sind, dass sie nicht mit ihrer Umgebung wechselwirken. Schon diese Bedingung kann ein Lebewesen nicht erfüllen, denn es muss zumindest atmen. Darüber hinaus sind quantenmechanische Effekte bei Objekten von der Größe einer Katze
noch nicht beobachtet worden. In modernen Experimenten ist es aber bereits gelungen, Atome zu erzeugen, die sich gleichzeitig in zwei verschiedenen Zuständen befinden. Unlängst gelang es sogar Forschern im US-amerikanischen Stony Brook, einen supraleitenden Strom zu erzeugen, der gleichzeitig in zwei verschiedenen Richtungen floss. Solche Versuche sind besonders knifflig, da man eine Möglichkeit finden muss, die überlagerten Zustände auf indirektem Weg nachzuweisen, denn eine direkte Messung würde ja die Überlagerung aufheben. Deshalb wird die „Katze“ in der Regel auf trickreiche Weise an ein weiteres physikalisches System gekoppelt, auf das sie ihren doppeldeutigen Zustand überträgt. Dieses System lässt sich messen, ohne die „Katze“ selber in ihren überlagerten Zuständen zu stören.
Schrödingers Katze. In diesem berühmten Gedankenexperiment befindet sich eine Katze zusammen mit einem radioaktiven Präparat in einer Kiste. Zur Vereinfachung nimmt man an, dass tatsächlich nur ein radioaktives Atom vorhanden ist. Zerfällt das Atom, wird dies in einem Geigerzähler registriert, der wiederum einen Hammer in Bewegung setzt, der eine Giftflasche zerschlägt – die Katze stirbt. Sinn dieser ganzen „Höllenmaschine“ ist, ein Objekt aus unserer Alltagswelt (die Katze) an ein quantenmechanisches System (das Atom) zu koppeln. Das Nachdenken über die paradoxe Situation, die sich dabei ergibt, vermittelt neue Einsichten in die Merkwürdigkeiten der Quantenwelt. (Illustration: Stefanie Juras, iser und schmidt)
141
Ein ganz besonderer Katzenbaum. Nach der Viele-Welten-Theorie muss sich ein quantenmechanisches Objekt nicht für ein Messergebnis „entscheiden“ – das Universum spaltet sich vielmehr in so viele Kopien auf, dass jedes mögliche Ergebnis realisiert werden kann. Bei Schrödingers Experiment mit der Katze gibt es nur zwei Möglichkeiten: „Katze tot“ oder „Katze lebendig“. Wiederholt man dieses Experiment immer wieder und in allen Universen, so erhält man einen „Baum“ mit fast unendlich vielen Verzweigungen. (Illustrationen: Stefanie Juras, iser und schmidt)
142
Der Einfluß des Beobachters ist in der Quantenwelt entscheidend. Wie aber sein „Eingreifen“ genau zu verstehen ist und wo die Grenze zwischen Alltags- und Quantenwelt tatsächlich liegt, ist bis heute nicht geklärt. Besitzt der Beobachter eine Sonderstellung, die ihn über die Materie erhebt, oder ist er selbst eine Überlagerung quantenmechanischer Zustände? In den Anfängen der Quantentheorie wurde von einigen Wissenschaftlern tatsächlich die „Geist-über-Materie“Interpretation vertreten: das menschliche Bewusstsein sei, so behaupteten sie, nicht den Regeln der Quantenmechanik unterworfen, da diese nur für Materie gälten. Auf Grund dieser Sonderstellung könnten wir durch bloße Beobachtung bewirken, dass Objekte von unbestimmten Zuständen in ein konkretes Dasein treten. Solch eine Erklärung würde aber bedeuten, dass Messapparate alleine keine eindeutigen Ergebnisse bei einem Experiment produzieren könnten. Es wäre immer ein menschlicher Beobachter nötig, der diese Ergebnisse registriert und sie dadurch erst von der quantenmechanischen Überlagerung in die Eindeutigkeit der Alltagswelt überführt. Diese Interpretation der Quantenphysik hätte natürlich bizarre Konsequenzen: Ein Wissenschaflter könnte dann nämlich ein Messprotokoll – ohne es anzuschauen – ver-
vielfältigen und an Physikinstitute in aller Welt verschicken. Die Ergebnisse auf den Papieren blieben solange vieldeutig, bis der erste Physiker sein Exemplar des Protokolls angesehen hätte. In diesem Augenblick wären auch die Ergebnisse auf allen anderen Kopien wie durch Zauberei festgelegt. Ein Effekt, der dem Fall der Zwillingsphotonen ähnelt, diesmal aber Objekte aus der Alltagswelt betreffen würde! Einen noch phantastischer klingenden Vorschlag zur Interpretation des Messprozesses machte 1957 der amerikanische Physiker Hugh Everett. Er ging davon aus, dass der Beobachter sich in mehrere Kopien seiner selbst aufspaltet und dadurch jeden möglichen Ausgang eines Experiments sieht. Der Beobachter merkt nur deshalb nichts davon, weil jede Kopie nach der Beobachtung in ihrem eigenen, parallel existierenden Universum weiterlebt. Da für jedes denkbare Ergebnis jeder quantenmechanischen Wechselwirkung Kopien des jeweiligen Beobachters entstehen, existieren Everetts Theorie zufolge eine fast unendliche Zahl paralleler Universen nebeneinander. Umstritten ist im Rahmen dieser Theorie die Frage, ob wir andere Universen besu-
chen könnten. Der britische Physiker David Deutsch bejaht dies und kommt zu dem überraschenden Schluss, dass Zeitreisen in Everetts „Viele-Welten-Theorie“ ohne Widersprüche möglich wären. Eines der wichtigsten Argumente gegen Ausflüge in die Vergangenheit ist nämlich, dass der Zeitreisende in der Vergangenheit seine eigene Geburt verhindern und somit ein Paradoxon erzeugen könnte. Dieses Argument ist aber in einem „Multiversum“ nicht stichhaltig: Denn ein Zeitreisender könnte sich in die Vergangenheit jedes parallelen Universums begeben und dort die Geburt seines „Doubels“ verhindern, ohne dass ein logischer Fehler auftreten würde. Die meisten Physiker sind der Überzeugung, dass die beiden vorgestellten extremen Sichtweisen bei der Interpretation der Quantentheorie noch nicht der Weisheit letzter Schluss sind. Und letztendlich ist dies eben eine philosophische Diskussion. Bereits Niels Bohr vertrat die pragmatische Sichtweise, die Physik könne lediglich Aussagen über Dinge machen, die der Messung zugänglich sind. Über den Rest empfahl er zu schweigen. Oder, wie Wolfgang Pauli es formulierte: „Ob etwas, worüber man nichts wissen kann, doch existiert, darüber soll man sich ... doch wohl ebensowenig den Kopf zerbrechen, wie über die alte Frage, wieviele Engel auf einer Nadelspitze sitzen können.“
Wahrscheinlichkeitswellen in Form eines Trilobiten: Die Existenz eines ungewöhnlich großen Moleküls aus zwei Rubidium-Atomen wurde von einer amerikanischen Forschergruppe vorhergesagt. Eine der Besonderheiten dieses Moleküls ist, dass die Aufenthaltswahrscheinlichkeit eines äußeren Elektrons zufällig genau die Form eines Trilobiten annimmt, eines urzeitlichen Tierchens, das vor 300 Millionen Jahren in den Weltmeeren gelebt hat. Die Wissenschaftler haben hier die Aufenthaltswahrscheinlichkeit für eine zweidimensionale Fläche berechnet, die Ergebnisse wurden dann in der dritten Dimension (nach oben) aufgetragen. Die jeweilige Höhe der Wellen gibt also die Wahrscheinlichkeit an, das Elektron am betreffenden Punkt der Ebene zu finden. (ComputerGrafik: Chris Greene, University of Colorado)
143
Physik
Was Sie schon immer über wissen wollten... Zwei Neuerscheinungen zum Jahr der Physik
H. Müller-Krumbhaar, H.-F. Wagner (Hrsg.)
...und Er würfelt doch! Von der Erforschung des ganz Großen, des ganz Kleinen und der ganz vielen Dinge 2001. Ca. 600 Seiten, ca. 500 Abbildungen, davon 300 in Farbe. Gebunden. DM 68,-/€ 34,77/sFr 61,ISBN 3-527-40328-0 Erscheinungstermin: März 2001
„Physik ist lebendig, aufregend und immer überraschend...“ H. Müller-Krumbhaar, H.-F. Wagner (Hrsg.)
Was die Welt zusammenhält 2001. Ca. 144 Seiten, ca. 300 Abbildungen, davon 300 in Farbe. Broschur. DM 29,80/€ 15,24/sFr 27,ISBN 3-527-40329-9 Erscheinungstermin: März 2001
Wissen Sie, wie es jenseits der Milchstraße aussieht? Oder welche Farbe der Stein der Weisen hat? Die Antworten finden Sie in diesem wunderschönen (Bilder-) Buch. Es erzählt von der Physik, wie man sie sich eben nicht vorstellt: von Feuerrädern im Bann der Dunklen Materie, vom Doppelleben des Lichts und von Blauen Wundern. Ein Buch zum Staunen, zum Genießen und zum Verschenken. Die populäre Darstellung der Physik, geschrieben von Wissenschaftsjournalisten, wird Schüler und deren Eltern, Lehrer und viele andere Leser in ihren Bann ziehen.
0345c_0101_4_gu
Beide Publikationen sind vom Bundesministerium für Bildung und Forschung (bmb+f) und von der Deutschen Physikalischen Gesellschaft (DPG) herausgegeben.
M. Bradshaw, Präsident der Deutschen Physikalischen Gesellschaft (DPG) zum „Jahr der Physik“.
Dieser Sammelband bietet einen einmaligen Überblick über die moderne Physik und ihre Bedeutung für Technik, Wirtschaft und Gesellschaft. Die Beiträge entstanden in Anlehnung an die Vorträge der fünf Hauptveranstaltungen zum „Jahr der Physik“, einer Initiative von Bundesministerium für Bildung und Forschung (bmb+f ) und Deutscher Physikalischer Gesellschaft (DPG). Exzellente WissenschaftlerInnen berichten von ihrer faszinierenden Arbeit auf den Gebieten der Astronomie, Elementarteilchenphysik, Festkörperphysik, modernen Optik und theoretischen Physik. Das ideale Geschenk für jeden Physiker, Naturwissenschaftler und interessierten Laien. Besonders praktisch sind zu jedem Themengebiet die umfangreichen Links zu passenden Webseiten.
Wiley-VCH · Postfach 10 11 61 · D-69451 Weinheim Fax: +49 (0) 62 01 – 606 184 · e-mail:
[email protected] www.wiley-vch.de