JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI Wissenschaftsjahr 2006: Jahr der Informatik „Der Computer der Zukunft wiegt viellei...
115 downloads
1278 Views
16MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI Wissenschaftsjahr 2006: Jahr der Informatik „Der Computer der Zukunft wiegt vielleicht nicht mehr als 1,5 Tonnen“ – als diese Prognose 1949 in dem Magazin „Popular Mechanics“ erschien, waren Computer gigantische, 30 Tonnen schwere und ganze Räume füllende Rechenmaschinen. Zehntausende von Vakuumröhren und hunderte von Kabelkilometern benötigte allein der 1946 gebaute ENIAC, um eine für damalige Zeit unerhörte Rechenleistung zu erreichen: Er konnte zwei zehnstellige Zahlen innerhalb von drei Millisekunden multiplizieren. Dass diese Rechenleistung einmal von Computern in der Größe eines Fingernagels um ein Vielfaches übertroffen werden würde, erschien damals noch wie reine Utopie. Doch auch fast 30 Jahre später, als die Rechner dank Transistortechnologie und Mikrochip begannen, immer kleiner und leistungsfähiger zu werden, zweifelten selbst die Großen der Computerbranche noch ernsthaft an den universellen Einsatzmöglichkeiten ihrer Produkte: „Es gibt keinen Grund, warum jemand einen Computer zu Hause haben wollen sollte“, verkündete noch 1977 Ken Olson, Gründer der Computerfirma Digital Equipment. Und auch Bill Gates war 1981 noch der Ansicht: „640 Kilobyte sollten für jeden genug sein.“ Die Wirklichkeit hat diese Vorstellungen längst überholt. Computer aller Art haben unseren Alltag erobert, aus vielen Bereichen sind sie schlicht nicht mehr wegzudenken. Ob auf unserem Schreibtisch, in den Schaltzentralen der Industrie oder auch ganz klein und verborgen in Alltagsgeräten wie Handys, Autos oder der Spülmaschine: Chips, Schaltkreise und Computer steuern, messen, regeln und schalten fast überall. Sie bilden das Herz unserer modernen „Informationsgesellschaft“. Schüler entwickeln Mikrochips 1: Arbeit am IBM 650 (1956) 2: Röhren im Inneren eines Univac I, des ersten kommerziellen Computers der USA 3: RFID-Chip 4: 11,8 Teraflop Supercomputer © Lawrence Livermore National Laboratory (1,2) Pacific Northwest National Laboratory (3,4)
2
Wie und wo Computer in den Bereichen Mobilität, Sicherheit, Kommunikation, Gesundheit, Sport, Wohnen und Kultur & Entertainment unseren Alltag prägen und auch verbessern, war das Thema der zahlreichen Aktionen des Informatikjahres. Veranstaltungen wie der Wissenschaftssommer vom 15. bis 21. Juli 2006 in München, die Woche der Informatik vom 3. bis 10. Oktober 2006 in Dresden oder Jugendwettbewerbe wie „Invent a Chip 2006“ und „Einstieg Informatik“
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER
3
JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI Die Wissenschaftsjahre Den Austausch zwischen Wissenschaft und Öffentlichkeit fördern – dies ist eines der Hauptziele der vom Bundesministerium für Bildung und Forschung (BMBF) initiierten Wissenschaftsjahre. Im Jahr 2000 machte das Jahr der Physik den Anfang, gefolgt von Lebenswissenschaften 2001, Geowissenschaften 2002, Chemie 2003, Technik 2004, dem Einsteinjahr 2005 und dem Jahr der Informatik im Jahr 2006. 2007 stehen die Geisteswissenschaften im Mittelpunkt.
machten die Technik „hinter den Dingen“ greifbar und erlebbar. „Invent a Chip“ war eine bundesweite Initiative des Bundesbildungsministeriums (BMBF) und des Verbands der Deutschen Elektrowirtschaft (VDE), die Schüler der Jahrgangsstufen 9 bis13 an die wichtigen Zukunftstechnologien der Mikro- und Nanoelektronik heranführen sollte. Aufgabe der Jugendlichen war es, 20 Fragen aus der Welt der Informatik zu beantworten und eine eigene Chipidee zu entwickeln und einzureichen. Den drei Siegerteams des Wettbewerbs „Invent a Chip 2006“ winkte ein besonderer Preis: Sie durften ihr Chipdesign, gemeinsam mit Informatikern, tatsächlich verwirklichen. Robo-Kicker besser als Klinsmanns Elf
Einer der Höhepunkte des Informatikjahres war jedoch der RoboCup 2006. Die 10. Weltmeisterschaft im Roboter-Fußball war mit über 2.600 Teilnehmern aus 36 Ländern das größte Ereignis der internationalen Robotik. Fünf Tage lang, vom 14. bis zum 20. September, wurde in Bremen gekickt, gefoult und gerettet, dann standen sie fest: die Fußball-Weltmeister der Roboter. Während sich die Fußballer der deutschen Nationalmannschaft bei der WM mit Platz drei begnügen mussten, waren ihre Kollegen aus Stahl und Silizium im RoboCup deutlich erfolgreicher: Elf der insgesamt 33 vergebenen Weltmeistertitel gingen am Ende an deutsche Teams. Am zweitstärksten schnitt China mit neun Goldmedaillen ab – Platz drei im Medaillenspiegel ging an Japan mit sechs Medaillen, Platz vier an den Iran. Bundesforschungsministerin Annette Schavan sah in dem erfolgreichen Abschneiden der deutschen Teams bei der internationalen Roboter-Fußball WM einen Beleg für technologische Spitzenleistungen. „Die deutschen Weltmeister in der Roboter-Fußball WM sind das Vorbild für Klinsmanns Elf“, erklärte die Ministerin. „Die deutschen Roboter waren im fairen Wettstreit spielerisch überzeugend und taktisch überlegen.“
Roboter der HumanoidenLiga beim RoboCup 2006 © Messe Bremen
4
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER
2006: Das UN-Jahr der Wüsten
Oben: Das Death Valley in den USA © Kerstin Fels
Wer Wüste hört, denkt an viel Sand, Trockenheit und wenig Leben. Doch dieses Bild stimmt nur zum Teil, denn Wüsten können durchaus stabile und wertvolle Ökosysteme darstellen. Die Desertifikation dagegen ist eine weltweite Bedrohung: Es ist die Ausbreitung wüstenähnlicher Verhältnisse in Gebiete hinein, in denen sie eigentlich nicht existieren sollten. Es sind Flächen, die austrocknen und unfruchtbar werden, es ist die Zerstörung der natürlichen Ressourcen Boden, Wasser und Vegetation, und es ist meist der Mensch, der die Probleme auslöst oder zumindest verstärkt. Rund eine halbe Million Hektar Land gehen jährlich durch die Wüstenbildung verloren – eine Fläche doppelt so groß wie das Saarland. Mehr als eine Milliarde Menschen in über hundert Ländern sind dadurch in ihrer Lebensgrundlage bedroht, schätzen die Vereinten
5
JANUARFEBRUARMÄRZZAPRILMAIIJUNIJULI
Im Namib-Naukluft Nationalpark türmt der Wind einige der höchsten Sandünen der Erde auf. © USGS EROS Data Center Satellite Systems
Ephedra-Strauch in der Großen Sandsee, Ägypten. Darunter: Düne im Oberlauf des Wadi el Bakht, Ägypten. © Pachur & Altmann (Die Ostsahara im Spätquartär, 2006)
Nationen. Die damit verbundenen Ernteausfälle schlagen mit 42 Milliarden Dollar jährlich zu Buche. Besonders die Entwicklungsländer leiden unter der Zerstörung von Land und Ressourcen: Allein in Afrika leben 40 Prozent der Bevölkerung in Gebieten, die akut von Desertifikation bedroht sind, in Asien 39 Prozent, in Südamerika immerhin noch knapp ein Drittel. Die Auswirkungen reichen dabei weit über die unmittelbar betroffenen Länder hinaus. Hunger und Armut nehmen weiter zu, Konflikte um Weideland und Wasser eskalieren und eine wachsende Zahl von Menschen verlässt auf der Flucht vor diesen Zuständen ihre angestammte Heimat. Nach Ansicht von Wissenschaftlern wird es in fünf Jahren 50 Millionen dieser Umweltflüchtlinge geben. Viele von ihnen werden sich auch nach Europa orientieren. Obwohl das Problem schon lange bekannt ist, gehen die internationalen Anstrengungen, es zu bekämpfen, offenbar noch nicht weit genug. Aus diesem Anlass hat die Vollversammlung der Vereinten Nationen (UN) das Jahr 2006 zum „International Year of Deserts and Desertification“ (IYDD) erklärt. In allen 191 Mitgliedsstaaten, so auch in Deutschland, fanden anlässlich des Wüstenjahres verschiedenste Veranstaltungen statt. Ziel war es dabei, über die Ursachen und gravierenden Folgen, aber auch über die Möglichkeiten zu informieren, wie Desertifikation wirksam bekämpft werden kann. Wüsten als bedrohtes Ökosystem
Es erscheint nahezu paradox: Weltweit schreitet die Desertifikation voran, und doch ist die Wüste als Ökosystem bedroht. Aber die Daten, die der Bericht „Global Deserts Outlook“ des UN-Umweltprogramms UNEP am 5. Juni 2006 präsentierte, sind eindeutig: Den Wüsten der Erde stehen dramatische Veränderungen bevor. Entgegen landläufiger Annahme sind viele Wüstengebiete der Erde durchaus nicht lebensfeindlich, sondern bieten einer Vielzahl von speziell angepassten Tier- und Pflanzenarten ein wertvolles Refugium. Die Wüstenrandgebiete, bewohnt von Millionen von Menschen, profitieren – noch – von den Wasserreservoirs der Gebirge, Gletscher sorgen durch ihr Schmelzwasser für das überlebenswichtige Nass. Doch das oft über Jahrtausende erreichte Gleichgewicht dieser sensiblen Ökosysteme ist in Gefahr. Klimawandel, steigender Wasserverbrauch, sinkende Niederschläge, Übernutzung und Versalzung bedrohen den ohnehin kargen Lebensraum.
6
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER
Rot markiert sind die von der UN im Jahr 2006 als Wüsten eingestufte Gebiete der Erde. © UNEP
Ökonomische Verluste durch Desertifikation Die Desertifikation hat für die Bewohner der betroffenen Gebiete unmittelbare wirtschaftliche Folgen: Auf den versalzten Böden sinken die Erträge, das Vieh findet immer weniger zu fressen und die Menge wild wachsender, nutzbarer Pflanzen nimmt ab. Diese Verluste machen sich schleichend, aber in ständig wachsendem Maße bemerkbar. Das Familieneinkommen einer Kleinbauernfamilie beispielsweise in den Trockengebieten Chinas schrumpft von Jahr zu Jahr, wenn sie von den Naturressourcen als einziger Einkommensquelle abhängig ist. Plötzlich auftretende Extremereignisse wie Sandstürme oder Überschwemmungen verstärken die schleichende Wüstenbildung. Bereits erodierter Boden ist dabei viel anfälliger für starke Regenfälle und Stürme – es kommt zu Erdrutschen, Verschlammung und Abtragung des Mutterbodens. Die ökonomischen Verluste sowohl für die direkt betroffenen Menschen als auch für die Staatshaushalte sind beträchtlich: In den 1980er-Jahren gingen China allein als Folge von Bodenerosion jährlich mehr als 700 Millionen US-Dollar verloren.
Projekte gegen Wüstenbildung – ein Beispiel China hat inzwischen mit deutscher Beteiligung umfangreiche Aufforstungsvorhaben gestartet – nur eines von zahlreichen internationalen Beispielen zur Desertifikationsbekämpfung. Oberstes Ziel dieser Projekte ist es, in den betroffenen Gebieten die natürlichen Ressourcen zu sichern und die Armut der ländlichen Bevölkerung zu mindern. Die durch Wüstenausbreitung (Nordchina) oder Wassererosion (Südchina) bedrohten und bereits stark degradierten Flächen können durch Aufforstung und Naturverjüngung stabilisiert oder sogar wieder in einen ökologisch „gesunden“ Zustand zurückgeführt werden. Die dort ansässigen Bauern steigern ihr Einkommen durch bezahlte Umweltdienstleistungen, durch die Erträge der Obstbäume und die Verwertung des Holzes. Darüber hinaus umfassen die Projektmaßnahmen den biologischen und mechanischen Erosionsschutz, den Ausbau der Infrastruktur, die Beschaffung von Projektausrüstungen sowie Beratung zu Forsttechnik, IT und Management – die Wissenschaftler bezeichnen das als „Capacity Development“.
7
11 / 2005 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI
11
01.11. 1952 Erste Wasserstoffbombe gezündet 04.11. 1922 Das Grab von Tutanchamun wird entdeckt 03.11. 1957 „Laika“ ist das erste Lebewesen im All
07.11. 1867 Geburtstag der Chemikerin Marie Curie 07.11. 1903 Verhaltensforscher Konrad Lorenz geboren
02.11. Klima
Sturmflut am Meer © IMSI Master Clips
08.11. 1895 W. C. Röntgen entdeckt die Röntgenstrahlung
Klimawandel lässt Sturmflutpegel steigen Durch den Klimawandel könnten Sturmfluten an der Nordsee in Zukunft noch gefährlicher werden als bisher. Neue Berechnungen ergaben, dass zwischen 2070 und 2100 ein Anstieg der maximalen Wasserstände von 80 Zentimetern entlang der gesamten deutschen Nordseeküste wahrscheinlich ist. Auslöser dafür sind stärkere Stürme sowie die temperaturbedingte thermische Ausdehnung des Meerwassers und schmelzende Eiskappen. Nach Schätzungen der Experten wird der bestehende Küstenschutz bis 2030 ausreichend sein, danach könnten weitere Schutzmaßnahmen nötig werden. (J. of Climate)
09.11. 1991 Die erste kontrollierte Kernfusion auf der Erde gelingt für zwei Sekunden
11.11.1493 Naturforscher Paracelsus geboren 13.11. 1971 Mariner 8 erreicht als erste Raumsonde einen fremden Planeten, den Mars
04.11. Bildung PISA: Erfolge oder Bankrotterklärung? Die Schülerstudie Pisa 2003-E hat vor allem in Mathematik und den Naturwissenschaften bessere Ergebnisse geliefert als die erste Pisa-Untersuchung im Jahr 2000. Trotzdem liegt Deutschland im Vergleich mit anderen Ländern nur im Mittelfeld. Nach wie vor entscheidet hierzulande die soziale Herkunft der Kinder stark über den Schulerfolg. Akademikerkinder haben eine viermal so große Chance wie Kinder aus sozial schwachen Familien das Abitur zu machen. Auch zwischen den Bundesländern gibt es noch immer starke Unterschiede in der Leistungsfähigkeit der 15-Jährigen – auch wenn die ostdeutschen Länder aufgeholt haben. (OECD)
04.11. Quantenphysik
Laseraufbau für Qantenexperiment © MPI für Quantenoptik
8
Chaos unter Quanten Bei der Ionisation von Atomen haben Wissenschaftler erstmals auch in der Quantenwelt chaotisches Verhalten nachgewiesen. Mittels Laserlicht lösten sie Elektronen in starken elektromagnetischen Feldern aus einzelnen Rubidiumatomen. Die chaotische Bewegung der Elektronen zeigte sich als Schwankung im Elektronenstrom, der so genannten Ericson-Fluktuation. Die Stärke des elektrischen und magnetischen Feldes bestimmte, wie chaotisch sich das System nach den Regeln der makroskopischen Physik verhielt. (Physical Review Letters)
04.11. Archäologie Römerinnen in die Cremedose geschaut Die Gesichtscreme der vornehmen Römerin bestand aus Tierfett und Stärke, mit einer Zinnoxidbeimischung als weißem Pigment. Das zeigt die Analyse des Inhalts einer kleinen Zinndose aus dem 2. Jahrhundert nach Christus, die bei Ausgrabungen eines römischen Tempels in London gefunden wurde. Britische Chemiker bestimmten die genaue Zusammensetzung der enthaltenen Masse und stellten sogar eine Kopie der OriginalCreme her. Während das Tierfett die Creme nach dem Auftrag zunächst fettig machte,
AUGUS UGUSTSEPTEMBER B OKTOBER OB NOVEMBERDEZEMBER B 16.11. 1869 Bau des Suezkanals abgeschlossen
21.11.1953 Der „PiltdownMensch“ wird als Betrug entlarvt 17.11.1970 Erstes Roboterfahrzeug auf dem Mond
24.11.1859 Charles Darwin veröffentlicht „Die Entstehung der Arten“ 23.11. 1969 Erste Isolierung eines einzelnen Gens
verlieh die Stärke ihr ein pudriges Gefühl auf der Haut – ein Effekt der heute noch bei der Herstellung von Kosmetika ausgenutzt wird. (Nature)
10.11. Astronomie Löste Sonne die Klimakapriolen der letzten Eiszeit aus? Während der letzten Eiszeit, die vor 120.000 Jahren begann, gab es mindestens 20 drastische und abrupte Klimawechsel. Forscher erklären diese so genannten Dansgaard-Oeschger-Ereignisse mit einer Instabilität der eiszeitlichen Meeresströmungen. Doch warum diese Ereignisse in einem nahezu regelmäßigen Abstand von 1.470 Jahren auftraten, blieb bisher rätselhaft. Deutsche Wissenschaftler haben jetzt mithilfe von Computersimulationen gezeigt, dass kleine Schwankungen der SonneneinInfrarotsicht der Sonne strahlung, ausgelöst © NASA/ESA/SOHO durch die Überlagerung von zwei solaren Zyklen – regelmäßigen Schwankungen der Sonnenaktivität – die labilen eiszeitlichen Ozeanzirkulationen störten. Diese mit Perioden von etwa 87 und 210 Jahren auftretenden Störungen lösten die Klimawechsel aus. (Nature)
24.11.1639 J.Horrocks bestimmt die Umlaufbahn der Venus
27.11.1895 Der Industrielle Alfred Nobel stiftet den Nobelpreis
27.11.1985 Der Halleysche Komet erhält Besuch von Raumsonden
CHRONIK
29.12.1912 Erster Flug eines Flugzeugs über den Südpol
28.11.1983 Ulf Merbold fliegt als erster deutscher Astronaut ins All
11.11. Medizin Windchaos auf dem Jupiter enträtselt Ein deutsch-amerikanisches Forscherteam hat ein neues Computermodell entwickelt, das die Entstehung der gigantischen Gasstürme auf dem Planeten Jupiter erklärt. Die Winde reichen danach bis zu 7.000 Kilometer in die Planetenatmosphäre hinein und werden von kleinräumigen turbulenten Strömungen angetrieben, die durch Planetenkrümmung und Rotation in Bändern organisiert werden. Darüber hinaus gibt es zwei Klassen von Stürmen auf dem Jupiter: starke, breite Jetwinde in Äquatornähe und schmale, schwächere Windgürtel in höheren Breiten. Bestimmend ist der Druck in den inneren Gasschichten, der Wasserstoffmoleküle zu einem metallischen, leitfähigen Zustand zusammenpresst. Diese Schicht wiederum beeinflusst die Windverteilung. (Nature)
Windsströmungen auf dem Jupiter © MPI für Sonnensystemforschung
11.11. Medizin Milzbrand bald heilbar? Anthrax-Bakterien können beim Menschen gefährlichen Milzbrand auslösen. Warum jedoch ist Hautmilzbrand viel harmloser als Lungenmilzbrand? Forscher haben herausgefunden, dass dafür bestimmte weiße Blutkörperchen, die so genannten Neutrophilen Granulozyten, verantwortlich sind. Diese Abwehrzellen wandern bei einer AnthraxInfektion in die Haut ein und produzieren
Ein Neutrophiler Granulozyt nimmt eine Kette von Anthrax-Bakterien auf. © MPI für Infektionsbiologie
9
11 / 2005
JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI hier ein für Milzbrand-Bakterien tödliches Protein, das alpha-Defensin. In der Lunge greift dieser Mechanismus nicht. Hier sind die neutrophilen Granulozyten zu selten und die inhalierten Sporen können ungehindert auskeimen. (PloS Pathogen)
11.11. Geowissen
Atmosphäre der Erde © NASA
Wie bildet sich Sauerstoff in der Erdatmosphäre? Neue Erkenntnisse über die SauerstoffBildung im Rahmen der Photosynthese haben Forscher der Freien Universität Berlin bei Röntgenexperimenten am europäischen Synchrotron in Grenoble gewonnen. Mit einer Zeitauflösung von nur zehn Millionstel Sekunden konnten sie den Vorgang erstmals auf atomarer Ebene verfolgen und fanden dabei einen bisher unbekannten Zwischenschritt: Dem Mangankomplex des Photosystems – dem Ort der photolytischen Wasserspaltung – werden nach der Absorption des Lichts nicht nur Elektronen sondern auch Protonen gezielt entzogen. Wohlorganisierte Protonenbewegungen ermöglichen demnach die Sauerstoffbildung von Pflanzen, Algen oder Cyanobakterien. (Science)
Knochen und Zähne – untersucht. In dieser nur über die mütterliche Linie vererbten Erbsubstanz fanden die Forscher einen DNATyp, der bei heutigen Europäern äußerst selten vorkommt. Computersimulationen bestätigten, dass die ersten Bauern auf unseren heutigen Genpool nur einen begrenzten Einfluss gehabt haben können. (Science)
14.11. Technik Deutscher Zukunftspreis für Piezo-Einspritztechnik Geringerer Spritverbrauch, weniger Schadstoffe und Feinstaubpartikel und leisere Autos: Dies sind nur einige der Vorteile der Direkteinspritztechnik von Diesel- und Benzinmotoren, bei der eine Pumpe den Kraftstoff zunächst auf einen hohen Druck bringt und ihn dann über eine Düse zum richtigen Zeitpunkt in die Brennkammer des Zylinders einschießt. Besonders präzise arbeiten so genannte Piezo-Injektoren, die von Forschern der Unternehmen Bosch und Siemens unabhängig voneinander entwickelt wurden. Die Ingenieure Friedrich Boecking, Klaus Egger und Professor Hans Meixner erhielten für ihre Erfindung den mit 250.000 Euro dotierten Deutschen Zukunftspreis 2005.
14.11. Paläontologie 17.11. Pflanzenphysiologie
Statue eines Steinzeitmenschen mit Faustkeil © Harald Frater
Steinzeitjäger Ahnen der heutigen Europäer Die Vorfahren der heutigen Europäer sind nicht wie bisher angenommen Ackerbauern, die vor etwa 7.500 Jahren nach Europa einwanderten, sondern wahrscheinlich steinzeitliche Jäger, die schon seit 40.000 Jahren in Europa ansässig waren. Das ist das Ergebnis einer Studie von deutschen und englischen Forschern. Bei 16 Skelettfunden aus einer der ältesten bäuerlichen Kulturen der Jungsteinzeit haben sie die DNA aus den Mitochondrien – aus Zellbestandteilen der
Auch Pflanzen haben eine doppelte Abwehrkette Die dauerhafte Resistenz vieler Pflanzen gegen Pilze beruht auf einer mindestens zweistufigen Abwehrkette und zeigt damit Parallelen zum Immunsystem von Tieren. Dies hat ein deutsch-amerikanisches Forscherteam herausgefunden. So genannte PEN (penetration)-Gene und das dadurch kodierte Blätter – gut geschützt vor Pilzen © IMSI MasterClips
10
AUGUS UGUSTSEPTEMBER B OKTOBER OB NOVEMBERDEZEMBER B Enzym kurbeln zunächst in der angegriffenen Pflanzenzelle die Produktion von Fungiziden an. Wenn dieser Schutzmechanismus versagt, sorgen unterschiedliche Zellproteine für die zweite Abwehrstrategie: Sie lassen die attackierte Zelle mitsamt dem Angreifer absterben. Das benachbarte Pflanzengewebe wird so vor einer Infektion geschützt. (Science)
CHRONIK
Annahmen widerspricht. So verändert sich diese unbekannte Form der Energie nicht, wenn das Universum expandiert. Zudem hat sich die Ausdehnung des Universums – angetrieben von der Dunklen Materie – im Vergleich zur Vergangenheit offenbar deutlich beschleunigt. (Astronomy and Astrophysics)
28.11. Materialforschung 21.11. Mikrobiologie Rätsel um Magnetsinn von Bakterien gelöst Auch einfache Lebewesen wie die Bakterien nutzen das Magnetfeld der Erde, um „oben“ und „unten“ zu unterscheiden. Zur Orientierung besitzen sie einen Minikompass, der aus einer Kette von Magnetitkristallen besteht. Forscher haben jetzt gezeigt, dass diese Magnetosomenkette von Genen und ihren Produkten, den Proteinen, reguliert Blick in ein Magnetbak- wird. Erst das Protein terium © MPG MamJ richtet die Magnetosomen entlang einer bisher unbekannten linearen Zellskelettstruktur aus. Fehlt es, klumpen die Magnetosomen zusammen und verlieren ihre „Kompasswirkung“. Der Nanokompass zeigt, dass Zellskelettstrukturen von Bakterien komplexe Funktionen übernehmen können. (Nature)
24.11. Physik Einsteins kosmologische Konstante rehabilitiert Im Rahmen des Projekts Supernova Legacy Survey (SNLS) haben Forscher festgestellt, dass sich die Dunkle Energie im Universum mit einer Abweichung von nur zehn Prozent genau so verhält, wie von Einsteins kosmologischer Konstante vorhergesagt – dafür aber einigen bisherigen theoretischen
Schnappschüsse an der atomaren Grenze Die Leiterbahnen von modernen Computerchips sind heute nur noch einige Dutzend Nanometer breit. Für ihre Herstellung sind Prozesse entscheidend, die sich an der Grenze zwischen flüssigen und festen Materialien abspielen. Wissenschaftler haben nun erstmals diese atomaren Wechselwirkungen am Übergang zwischen flüssigem Aluminium und festem Aluminiumoxid beobachtet. Dabei wiesen sie nach, dass Kristalle selbst bei hohen Temperaturen die Atome in benachbarten flüssigen Metallen ordnen können. Diese Erkenntnisse sind wichtig, wenn etwa Oberflächen mit Flüssigkeiten benetzt werden sollen – wie beim „Löten“ nanometerkleiner Kontaktstellen. (Science)
Übergang zwischen flüssigem Aluminium und festem Aluminiumoxid © MPI für Metallforschung
30.11. Astronomie Spiralring um den Saturn entdeckt Einer der Ringe des Planeten Saturn tanzt aus der Reihe – das zeigen neue Bilder der Raumsonde Cassini. Wie Astrophysiker entdeckt haben, bilden die Untereinheiten des F-Rings, einem der sieben Hauptringe des Saturn, eine mindestens drei Mal um sich selbst gewundene Spirale. Ausgelöst hat die Verformung wahrscheinlich eine Kollision zwischen dem aus dichten Gesteinsbrocken bestehenden „Kern“ des Rings und einem kleinen Mond. Diese Erkenntnisse geben wertvolle Einsichten in die Mechanismen der Planeten- und Mondentstehung. (Science)
Die Ringe des Saturn, ganz außen der dünne F-Ring © NASA
11
12 / 2005 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
12
01.12. 1946 Erste Herstellung von Penicillin in Deutschland
07.12. 1993 Reparatur des Weltraumteleskops Hubble
03.12. 1967 Erste Herztransplantation
02.12. 1942 Erste kontrollierte nukleare Kettenreaktion
09.12. 1868 Der Chemiker Fritz Haber wird geboren
02.12. Chemie
Kolloid-Kristall vor (links) und nach Ionenätzung (rechts). © Max-Planck-Institut für Kolloid- und Grenzflächenforschung
Goldschicht macht Farben temperatursensitiv Wissenschaftler des Max-Planck-Instituts für Kolloid- und Grenzflächenforschung haben eine neue Familie von Partikeln hergestellt, deren Bindungsverhalten sich chemisch maßschneidern lässt. Ihr Trick: Sie nutzten die durch Ionenbeschuss veränderbare Anordnung und Größe einer Teilchenschicht, so genannte Kolloide, als Schablone für eine Goldbedampfung. Dieses Verfahren könnte beispielsweise neue Lacke hervorbringen, die ihre Farbe je nach Temperatur verändern. Zugleich trägt es aber auch dazu bei, die Dynamik von Festkörpern und Molekülen besser zu erforschen. (Angewandte Chemie)
12.12.1901 Erste Telegrafenmeldung über den Atlantik 14.12.1962 9 Sonde „Mariner M e II“ umkreist re die ie Venus 14.12.1911 Roald Amundsen 11.12.1997 erreicht den Südpol Klimaschutz-Protokoll von Kyoto beschlossen
11.12.1843 Geburt des TuberkelEntdeckers Robert Koch
05.12. Informatik Immunsystem für virengefährdete Rechner Rechner könnten sich zukünftig durch eine Art Selbsthilfe gegen schädliche Computerviren schützen. Ein dafür neu entwickeltes System nutzt spezielle, mit Virenerkennungssoftware ausgerüstete Computer, so genannte Honeypots, als Virenfallen. Werden sie angegriffen, analysieren sie das Virus blitzschnell und selbstständig. Dann schicken sie seine Signatur und Informationen zur Abwehr an alle im Netzwerk angeschlossenen Rechner. So könnte sich das Antivirenprogramm sogar schneller im Internet verbreiten als das Virus selbst. (Nature online)
06.12. Physik 05.12. Neurobiologie
Das Gehirn filtert, was uns ans Ohr dringt © SXC
12
Arbeitsteilung beim Lauschangriff Spezielle Zellen im Gehirn von Säugetieren sorgen dafür, dass neue Geräusche im Umgebungslärm sofort erkannt und herausgefiltert werden. Das entdeckten Wissenschaftler bei der Untersuchung der Hirnrinde von Ratten. Die bei allen Säugern – und wahrscheinlich auch beim Menschen – existierenden Zellen reagieren immer dann, wenn Änderungen in der Tonhöhe, Lautstärke oder Länge bekannter Töne auftreten. Die Zellen liegen unterhalb der Großhirnrinde im Mittelhirn und fungieren als „Torwächter“ für akustische Reize. (European Journal of Neuroscience)
Ein Kristall aus Löchern Ein Kristall, der nur aus Löchern besteht, erscheint auf den ersten Blick unmöglich. Doch genau diesen ungewöhnlichen Materiezustand hat ein internationales Wissenschaftlerteam erstmals nachgewiesen. Abbildung des LochMithilfe von aufwänkristalls © Michael digen ComputersiBonitz /Universität Kiel mulationen gelang den Forschern die Bestätigung dieses exotischen Effekts, der nur in Halbleitern mit einer ganz bestimmten Struktur auftritt. Der „LochKristall“ besitzt Eigenschaften, die denen von
AUGUSTSEPTEMBERROKTOBERNOVEMBERDEZEMBER 20.12.1910 Erster Nachweis des Atomkerns durch Ernest Rutherford
16.12.1967 Erste Herstellung der Erbsubstanz DNA im Labor
17.12.1903 Erste Motorflüge der Gebrüder Wright
22.12.1948 Erfindung des Transistors 21.12.1968 Erste Fernseh-Übertragung aus dem All
Plasma- oder Ionenkristallen gleichen, ähnelt aber auch astrophysikalischen Phänomenen wie den Weißen Zwergen. (Physical Review Letters)
06.12. Klima Wie stabil ist der Nordatlantikstrom? Wie viel Süßwasser muss durch die Eisschmelze in den Atlantik fließen, damit der für das Klima in Europa wichtige Teil des Nordatlantikstroms zum Erliegen kommt? Dies hat ein internationales Forscherteam im Rahmen einer Temperaturbild des Golfstroms © NOAA umfangreichen Vergleichsstudie an Klimamodellen untersucht. Ergebnis: Ab einem bestimmten Schwellenwert – einem Süßwasserzustrom von durchschnittlich 0,2 Millionen Kubikmeter pro Sekunde – bricht die so genannte thermohaline Zirkulation des Atlantiks zusammen. Unsicher ist aber, wie weit das gegenwärtige Klima von diesem Schwellenwert entfernt ist. (Geophysical
22.12.1938 Erste UranKernspaltung durch Otto Hahn und Fritz Straßmann
27.12.1982 Der Computer wird vom „TimeMagazine“ zum „Mann des Jahres“ gewählt
26.12.1898 Marie und Pierre Curie entdecken das Radium
26.12.2004 Katastrophaler Tsunami vor der indonesischen Küste
CHRONIK
27.12.1949 Albert Einstein veröffentlicht seine Gravitationstheorie
den Raum hinaus schleudert. Nach Meinung von Forschern des Bildauswertungsteams der Cassini-Mission am Weltraumforschungsinstitut in Boulder, Colorado, kommen wärmere Risse in der kalten Oberfläche des Mondes – Tigerstreifen genannt – als Quelle dieser Fontänen in Frage. (NASA)
Saturnmond Enceladus schleudert eine Eisfontäne © NASA
08.12. Medizin Tumore schicken Vorhut Krebstumore bilden nicht einfach irgendwo im Körper Metastasen, sondern schicken Proteine und Stammzellen aus dem Knochenmark als Kundschafter vorweg. Die Proteine bewirken zunächst im Zielgebiet die Bildung eines Haftproteins. Die anschließend durch die Eiweiße angelockten Knochenstammzellen assistieren dann den nachfolgenden Tumorzellen bei der Anlagerung und Vermehrung. Diesen bisher unbekannten Mechanismus entdeckten Forscher der amerikanischen Cornell Universität bei Versuchen an Mäusen. (Nature)
Krebszellen © National Cancer Institute
Research Letters)
08.12. Nanoforschung
07.12. Astronomie Kalter Mond speit Fontänen Der Saturnmond Enceladus ist keine tote Eiswelt, wie bisher angenommen, sondern geologisch offenbar äußerst aktiv: Neueste Aufnahmen der Raumsonde Cassini zeigen, dass er Fontänen feiner Eispartikel in
Auch Nanoschichten können knicken Nicht nur Strohhalme und Strommasten können knicken, sondern auch Nanoschichten, wie ein internationales Wissenschaftlerteam herausfand. Die Forscher setzten Hightech-Karbonfasern unter Druck und tasteten dann mit einem Röntgenstrahl von nur
13
12 / 2005 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI 100 Nanometer Breite die Stauchungszonen ab. Dabei stellten sie fest, dass fehlende Querverbindungen zwischen den einzelnen Kohlenstoffschichten für das Knicken verantwortlich waren. (Physical Review Letters)
08.12. Genetik
Genbanden in Elektrophorese-Gel © Pacific Northwest National Laboratory
Hundegenom entschlüsselt In einer weltweiten Kooperation haben Wissenschaftler die Gensequenz des Hundes entschlüsselt. Als Sequenzierungsobjekt diente ein Boxer. Die neuen Erkenntnisse könnten dazu beitragen, Gene, die sowohl beim Menschen als auch beim Hund Krankheiten auslösen, besser aufzuspüren und zu untersuchen. Große Fortschritte erwarten sich die Wissenschaftler unter anderem bei Krebs, Herzkrankheiten, Epilepsie, Taubheit oder auch dem grauen Star. Die Identifikation ihrer genetischen Ursachen ist wegen der geringeren genetischen Variationsbreite beim Hund meist einfacher als im menschlichen Genom. (Nature) 12.12. Geowissen 12.12.
Gletscher im Norden Kanadas © NOAA
14
Helium verrät Gletschererosion Gletscher prägen nicht nur die Landschaft vieler polarer Regionen, sie haben diese stellenweise sogar stärker geformt als andere Naturgewalten. Das stellten Wissenschaftler mithilfe einer neuen Methode fest. Sie nutzen die Ausgasung des Edelgases Helium aus dem unter dem Eis liegenden Gestein als Gradmesser für die Veränderungen, denen dieses Gestein durch den Gletschereinfluss unterworfen war. Im Küstengebirge von British Columbia ergab sich daraus sogar eine bis zu sechs Mal schnellere Erosion durch Eis als durch Flüsse und Erdrutsche. (Science)
15.12. Astronomie Blitz verrät kosmischen Kannibalen Ein kurzer, aber extrem heftiger Gammastrahlenausbruch aus einer nahe gelegenen elliptischen Galaxie gab einem internationalen Team von Astronomen einen entscheidenden Hinweis: Denn sein Ursprung war ein Schwarzes Loch, das gerade einen Neutronenstern verschlang. Damit bestätigte sich die Theorie, dass solche kurzen Energiefreisetzungen durch Kollisionen extrem massereicher Himmelskörper verursacht werden. Langanhaltende Gammastrahlenausbrüche dagegen gehen offenbar auf Explosionen solcher Sterne zurück. (Nature)
16.12. Paläontologie Dinosaurier wuchs umweltab Der Dinosaurier Plateosau gelhardti konnte seine Wachstu geschwindigkeit je nach Umweltbedingungen variieren. Das widerspricht allerdings bisherigen Vorstellun- Plateosaurus © historisch gen über ein säugerartiges, schnelles Wachstum der Urzeitechsen. Stattdessen enthüllten Knochenanalysen eine Jahresring-ähnliche Abfolge schneller und langsamer Wachstumsphasen. Ob Plateosaurus damit eine Ausnahme unter allen anderen bisher bekannten Dinosauriern ist oder ob bisherige Funde falsch interpretiert wurden, ist noch unklar. (Science)
16.12. Physik Ein Experiment genügt Metalle sind Stoffe mit komplexen Eigenschaften und Verhalten. Doch um sie zu charakterisieren, genügt theoretisch schon eine einzige Größe: die mittlere Stoßzeit ihrer Elektronen. Das postuliert das so genannte Dru-
AUGUSTSEPTEMBERROKTOBERNOVEMBERDEZEMBER de-Modell. Mithilfe einer neuartigen Mikrowellenapparatur konnten Physiker der Universität Stuttgart jetzt dieses Modell erstmals experimentell bestätigen und untermauerten damit – mehr als 100 Jahre nach ihrer Formulierung – eine der wichtigsten Theorien der Festkörperphysik. (Nature)
16.12. Genetik Gen bestimmt Hautfarbe Eine Genmutation beim Zebrafisch hat Forschern zu neuem Wissen über die Entstehung der menschlichen Hautfarben verholfen. Das veränderte Gen steuert beim Fisch die Streifenfarbe. Beim Menschen findet sich ebenfalls eine Version dieses Gens – die sich jedoch bei Menschengruppen mit verschiedener Hautfarbe wie Afrikanern und Ostasiaten voneinander unterscheidet. Forscher gehen davon aus, dass das Gen eine Rolle bei der Regulation der Hautfarbe spielt. (Science)
20.12. Physik Wasserstoff gibt quantenmechanische Geheimnisse preis Zum ersten Mal hat ein internationales Wissenschaftlerteam eine quantenmechanische Lösung für eine scheinbar einfache Verbindung, das Wasserstoffmolekül H2, ermittelt. Dazu beschossen sie das Molekül zunächst mit Lichtteilchen (Photonen) und lösten so Elektronen aus dem Atomverband. Aus der Flugweite der herausgeschleuderten Elektronen konnten die Forscher den Abstand und die genaue Lage der übrig bleibenden Wasserstoff-Protonen mithilfe eines Computermodells errechnen. (Science)
21.12. Physik Milchkaffee theoretisch „entmischbar“ Werden zwei Flüssigkeiten gemischt,
CHRONIK
ist dies normalerweise irreversibel, ein „Entrühren“ gibt es nicht. Doch Forscher fanden heraus, dass sich solche Gemische unter bestimmten Voraussetzungen sehr wohl trennen lassen. In einem Experiment entmischten sie Mikrometer große Kunststoffkugeln in einer zähen Flüssigkeit durch Rühren in die entgegengesetzte Richtung. Dies funktionierte aber nur dann, wenn zuvor beim Mischen sowohl Konzentration als auch Rührzeit so niedrig waren, dass die Kügelchen dabei nicht zusammenstießen. (Nature)
22.12. Pflanzenforschung Gen-Quartett steuert Stammzellzahl Pflanzen können dank ihrer Stammzellen lebenslang neue Organe bilden. Allerdings war bisher unbekannt, wie sie dafür sorgen, dass diese weder verkümmern noch krebsartig wuchern. Wissenschaftler des Max-PlanckInstituts für Entwicklungsbiologie haben nun einen solchen Steuermechanismus entschlüsselt. Vier Gene dienen dabei als Verbindung zwischen einem wachstumsfördernden Hormon und genetischen Steuerungselementen im Bildungsgewebe. (Nature)
Arabidopsis-Keimlinge mit Genmuster im Hintergrund © MPG
23.12. Paläontologie Blick ins Mammut-Genom Eine internationale Gruppe von Wissenschaftlern hat Teile des Erbguts eines Mammuts entschlüsselt. Die Basis dafür bildeten 27.000 Jahre alte Knochen aus dem Dauerfrostboden Sibiriens. Erstmals wurde dabei mithilfe einer neuen Technik DNA aus dem Zellkern und nicht aus den Mitochondrien analysiert. Die 13 Millionen identifizierbaren Basenpaare des Wollhaarmammuts stimmten zu 98,55 Prozent mit dem Erbgut des Afrikanischen Elefanten überein und deuten damit auf einen gemeinsamen Vorfahren vor fünf bis sechs Millionen Jahren hin. (Science)
Mammut © historische Zeichnung
15
01 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
01
04.01.1634 09.01.1906 Geburt des Der deutsche Geologe und 03.01.1977 Physikers Isaac Paläontologe Karl von Steven Jobs und Newton Fritsch stirbt 11.01.1922 11. 1. Stephen WozniErstee EErs ak gründen die 08.01.1942 Behandlung BBeh a Firma Apple Geburt des Physikers eines eein in s Diabetess 01.01.1801 07.01. 1610 Stephen Hawking Patienten Pa PPat e mit Entdeckung des ersGalileo Galilei 10.01.1946 IInsulin ns l ten Kleinplaneten, entdeckt mehrere Erste UNCeres Monde des Jupiter Vollversammlung
01.01.1867 Alfred Nobel erfindet das Dynamit
05.01. Astronomie
ESA-Satellit INTEGRAL misst kosmische Strahlung © ESA
Aluminium-Isotop verrät Supernova-Häufigkeit Supernova-Explosionen liefern eine wesentliche Triebkraft für die Entstehung neuer Galaxien. Doch wie häufig diese Explosionen massereicher Sterne stattfinden, konnte bisher nur indirekt geschätzt werden. Ein internationales Astronomenteam hat jetzt mithilfe des ESA-Satelliten INTEGRAL die vom radioaktiven Aluminium 26Al ausgehende Strahlung in der Milchstraße untersucht. Den Messungen zufolge gibt es allein von diesem sehr seltenen Isotop dort etwa das Dreifache der Sonnenmasse. Um eine solche Menge zu erzeugen, müssen sich in unserer Galaxis im Durchschnitt zwei Supernova-Explosionen pro Jahrhundert ereignet haben. (Nature)
05.01. Infektionsbiologie
Ebola-Virus © CDC, Cynthia Goldsmith
16
Flughunde – Wirte des tödlichen Virus? Flughunde könnten das gefürchtete Ebolavirus auf Primaten und möglicherweise auch auf Menschen übertragen haben. Zu diesem Ergebnis kommen Wissenschaftler des Institut de Recherche pour le Développement. Im Gabun untersuchten sie Kleinsäuger, die nahe den Leichnamen von infizierten Primaten gefangen wurden. Dabei entdeckten die Forscher in Leber und Milz von drei selbst nicht infizierten Flughundearten Ebola spezifische Antikörper sowie Fragmente vira-
len Genoms. Aus Beobachtungen folgern die Wissenschaftler, dass die Primaten – Schimpansen und Gorillas – sich wahrscheinlich über den direkten Kontakt mit den Flughunden infizierten. (Nature)
06.01. Neurobiologie Polizei des Immunsystems entdeckt Magdeburger Wissenschaftler haben aufgedeckt, dass so genannte Endocannabinoide das Immunsystem im Gehirn kontrollieren. Diese werden bei Entzündungen in großen Mengen freigesetzt und schlagen dann Alarm: Sie locken Mikrogliazellen an, die am Ort der Schädigung helfend eingreifen. Anschließend halten die Endocannabinoide die Mikrogliazellen in Schach und verhindern so eine gefährliche Überreaktion des Immunsystems im Nervengewebe. Die neuen Ergebnisse könnten für die Entwicklung verbesserter Therapien, etwa gegen Multiple Sklerose, eine wichtige Rolle spielen. (Neuron)
12.01. Pflanzenforschung Auch Pflanzen produzieren Methan Auch Pflanzen produzieren Methan und setzen das Treibhausgas anschließend in die Atmosphäre frei. Diese überraschende Entdeckung machten Wissenschaftler des MaxPlanck-Instituts für Kernphysik. Die Methanerzeugung erTropischer Regenwald in Surinam © Max-Planck-Institut für Kernphysik, B. Scheeren
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER 13.01.1986 Entdeckung der Uranus-Monde Desdemona, Rosalind und Belinda
15.01.1971 Einweihung des Assuan Staudammes
14.01.2005 Raumsonde Huygens landet auf dem Saturnmond Titan
19.01.1915 Der französische Physiker Georges Claude erhält Patent auf die Neonröhre
folgt dabei erstaunlicherweise sogar in ganz normaler sauerstoffreicher Umgebung. Bisher galt, dass biogenes Methan grundsätzlich durch Mikroorganismen und unter Ausschluss von Sauerstoff, also anaerob, gebildet wird. Die Methan-Produktion in Höhe von schätzungsweise 60 bis 240 Millionen Tonnen pro Jahr verschärft jedoch nicht das Klimaproblem, da die Pflanzen das Methan schon immer freigesetzt haben. (Nature)
12.01. Chemie Flüssige Kohle statt Öl? Forscher des Max-Planck-Instituts für Kohlenforschung haben jetzt ein neues Verfahren entwickelt, mit dem erstmals auch die so genannte Magerkohle – Steinkohle mit nur geringem Gehalt an flüchtigen Bestandteilen – verarbeitet werden kann. Dieser Kohletyp kam bisher ausschließlich in Verbrennungs- und Vergasungsprozessen zum Einsatz. Dadurch wird die Technik der Kohleverflüssigung wieder wirtschaftlich interessant, so etwa für die Produktion von Pkw-Kraftstoffen und chemischen Rohstoffen. (Angewandte Chemie)
13.01. Bionik Antihaft-Beschichtung lässt Insekten keine Chance Fleischfressende Kannenpflanzen arbeiten in ihren Fallen mit einem raffinierten
23.01.1960 Tauchboot „Trieste“ taucht in den Marianengraben hinab
28.01.1986 US-Raumfähre „Challenger“ explodiert kurz nach dem Start
27.01.1967 Unterzeichnung des Vertrags zur friedlichen Nutzung des Weltraums
Zweischicht-System, um Insekten zu fangen. Wie Wissenschaftler des Max-Planck-Instituts für Metallforschung und der Universität Hohenheim herausfanden, sind die Kannen bei der tropischen Art Nepenthes gleich doppelt mit Wachs beschichtet. Während die Kristalle der oberen Wachsschicht die Haftorgane der Insekten verschmutzen, reduziert die untere Wachsschicht die Haftfläche für die Insektenfüße: Die Beutetiere rutschen in die Falle und werden dort verdaut. Die Forschungsergebnisse könnten Hinweise für die Entwicklung von neuen Materialien wie Antihaftfolien liefern. (The Journal of Experimental Biology)
CHRONIK
29.01.1886 Carl Benz erhält das Patent für das erste Benzin-Auto
29.01.1991 Erster Einsatz von gentechnisch veränderten Körperzellen gegen Krebs
Gleitfalle der Kannenpflanze Nepenthes alata © Max-Planck-Institut für Metallforschung
16.01. Zoologie Auch Ameisen gehen zur Schule Lehrer und Schüler gibt es nicht nur bei Menschen, sondern auch bei Ameisen. Das haben Wissenschaftler der Universität von Bristol am Beispiel des „Tandemlaufens“ bestimmter Arten gefunden. Dabei dirigiert eine Ameise eine Nestkollegin zu einer neu entdeckten Nahrungsquelle. Im Zuge dieses Verhaltens zeigen die Tiere alle wichtigen Kriterien des formalen Lehrens wie deutliches, wechselseitiges Feedback und gegenseitige Beeinflussung. So konnten die Wissenschaftler anhand der Ameisen zeigen, dass für die Entwicklung eines Lehrverhaltens im Tierreich weniger die Gehirngröße entscheidend ist, als vielmehr der Wert der Information für die entsprechende Population. (Nature)
Lehrverhalten bei Ameisen © USDA / Peggy Greb
17
01 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI 19.01. Kognitionswissenschaften
Eintracht oder Missgunst? © Max-Planck-Institut für evolutionäre Anthropologie
Missgunst gibt es nur beim Menschen Menschen haben den stark ausgeprägten Wunsch einander zu helfen – aber teilen wir diesen Altruismus auch mit unseren nächsten Verwandten, den Schimpansen? Forscher des Max-Planck-Instituts für evolutionäre Anthropologie sagen Nein: Zumindest bei Fütterungs-Experimenten verhielten sich die Menschenaffen weder selbstlos noch missgünstig. Beide Antriebe scheinen daher ausschließlich menschliche Eigenschaften zu sein, die sich vermutlich in den vergangenen sechs Millionen Jahren herausbildeten seit die stammesgeschichtlichen Wege von Mensch und Schimpanse getrennt verlaufen. (PNAS)
20.01. Klima
Elefantenfußgletscher in der Arktis © AlfredWegener-Institut / H. Oerter
Berggletscher schmelzen schneller Bis zum Jahr 2100 wird der Meeresspiegel aufgrund abschmelzender Eiskappen nicht so schnell ansteigen wie befürchtet. Dafür schrumpfen jedoch die Hochgebirgsgletscher im selben Zeitraum deutlich stärker als bisher angenommen. Das belegt die Studie eines internationalen Forscherteams, in der erstmals Prognosen aus globalen Klimamodellen mit Vorhersagen zur Veränderung der Eismassen kombiniert wurden. Das beschleunigte Abschmelzen der Berggletscher könnte möglicherweise schon bald zu katastrophalen Überschwemmungen in Hochgebirgsregionen wie Nepal führen. (Nature)
23.01. Biotechnologie Tabakpflanze produziert Impfstoff Wissenschaftler aus Deutschland und Frankreich haben Tabakpflanzen gentechnisch so verändert, dass sie einen Impfstoff gegen die von Zecken übertragene Infektions-
18
krankheit Borreliose produzieren. Die manipulierten Tabakpflanzen sind dabei besonders effektiv, da die Konstruktionsanleitung für den Impfstoff nicht wie üblich in den Zellkern, sondern in die Chloroplasten eingebaut wurde, von denen jede grüne Pflanzenzelle rund hundert Stück in sich birgt. Sollte das Vakzin, das bisher nur an Mäusen getestet worden ist, auch beim Menschen Wirkung zeigen, wäre die Impfstoffforschung einen bedeutenden Schritt weiter. (Nature Biotechnology)
23.01. Geowissenschaften Glühende Strömung vom Erdkern reicht bis Hawaii Die Vulkane Hawaiis werden von heißen, eng umgrenzten Magmaströmungen gespeist, die aus dem tiefen Erdinnern stammen. Doch wo genau der Ursprung dieser so genannten Magmaplumes liegt, Lava auf Hawaii © USGS ließ sich bisher nicht ermitteln. Britische Geowissenschaftler stellten nun bei der Analyse der Gesteine mithilfe von neuen, leistungsfähigeren Massenspektrometern fest, dass die Lava der hawaiianischen Vulkane auch Material aus dem Erdkern enthält. Das geschmolzene Gestein stammt aus fast 3.000 Kilometern Tiefe – weitaus tiefer, als bisher angenommen. Die Ergebnisse zeigen auch, dass der Erdmantel nicht aus mehreren isolierten Schichten besteht. Vielmehr sorgt ein großes Konvektionssystem für ständige Umwälzungen – wie in einer Suppe, die kontinuierlich umgerührt wird. (Nature)
25.01. Neurobiologie Nervenfasern auf Abwegen Die Zusammenarbeit von Nervenfasern im Gehirn ist entscheidend für unsere Fähig-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER keit zu lernen und zu erinnern. Aber wie finden neu wachsende Nervenfasern zueinander, um das entsprechende Netzwerk zu bilden? Deutsche Wissenschaftler identifizierten jetzt ein Protein, das hier als Steuermann einspringt: Der so genannte Serum Response Factor (SRF) regelt nicht nur das Auswachsen der Nervenzellausläufer im Hippocampus, einem Bereich der Großhirnrinde, sondern führt die Fasern auch auf den richtigen Weg in andere Gehirnbereiche. Zudem sorgt SRF für die gezielte Verschaltung von Nervenzellen. (Nature Neuroscience)
26.01. Astronomie Großer Bruder des Pluto entdeckt Mithilfe eines internationalen Teleskopnetzwerks wurde ein extrasolarer Planet entdeckt, der der Erde mehr ähnelt als alle rund 170 bisher beobachteten Exoplaneten. OGLE2005-BLG-390Lb, so der offizielle Name des Himmelskörpers, ist nur fünfmal so massereich wie die Erde, und seine Oberfläche besteht wie beim Pluto höchstwahrscheinlich aus Eis und Gestein. Der Fund bestätigt die Annahme der Astronomen, dass kleine, gefrorene Exoplaneten weitaus häufiger sein müssen als ihre großen Brüder. Die Entdeckung markiert einen entscheidenden Schritt in der Suche nach erdähnlichen Planeten im Kosmos. (Nature)
26.01. Mathematik Geldscheine verraten Seuchenausbreitung Wie breiten sich Seuchen aus? Diese für die Bekämpfung von Infektionskrankheiten entscheidende Frage hat ein internationales Wissenschaftlerteam jetzt mit einem ungewöhnlichem Mittel erforscht: Die Forscher – unter anderem aus dem Max-Planck-Institut für Dynamik und Selbstorganisation – nutzten Geldscheine als Marker und analysierten
deren Weg durch die Welt. Dabei entdeckten sie universelle Gesetzmäßigkeiten im Reiseverhalten des Menschen. Die neue Theorie könnte zu konkreten mathematischen Modellen führen, mit denen sich die globale Ausbreitung von Seuchen, etwa einer Grippepandemie, erstmals realistisch berechnen und beschreiben lässt. (Nature)
30.01. Materialforschung
CHRONIK
Bewegung von Geldnoten in den USA © Max-Planck-Institut für Dynamik und Selbstorganisation
Exotisches Silberatom speit Doppelprotonen Silberatome mit ungewöhnlichen Eigenschaften hat eine internationale Gruppe von Forschern gewonnen: Sie bombardierten eine dünne Folie aus Nickel mit einem Strahl von Kalziumatomen. Danach zeigten einige der entstandenen zigarrenförmigen Atome eine neue Art des radioaktiven Zerfalls: Sie stießen zwei Protonen gleichzeitig aus. Die Ergebnisse bedeuten einen wichtigen Schritt hin zu einem besseren Verständnis der nuklearen Reaktionen, die die Grundlage aller Materie bilden. (Nature)
31.01. Genetik X-Chromosom ausgezählt Zellen eines weiblichen Organismus enthalten jeweils zwei X-Chromosomen, von denen jedoch stets eines inaktiviert ist. Im männlichen Organismus liegen die X-Gene ohnehin nur einfach vor. Ein internationales Forscherteam entschlüsselte jetzt einen Mechanismus, der an der Abschaltung des zweiten weiblichen X-Chromosoms entscheidend mitwirkt. Danach kommt es immer kurz vor der Inaktivierung zu einer vorübergehenden Pärchenbildung in einer bestimmten Region der X-Chromosomen, dem so genannten X inactivating center (Xic). Auf diese Weise scheint die Zelle festzustellen, ob sie mehr als ein XChromosom enthält. (Nature Cell Biology)
X-Chromosom © MMCD
19
02 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
02
03.02.1966 Erste unbemannte Mondlandung durch „Luna 9“
08.02.1834 Der Chemiker Dimitrij Mendelejew wird geboren
08.02.1865 Gregor Mendel veröffentlicht seine Vererbungslehre
15.02.1897 Erstes Experiment mit der Braun‘schen Röhre 15.02.1564 Geburt von Galileo Galilei
14.02.1876 Patent für Alexander G. Bells erstes Telefon
03.02. Genetik Knochenkristalle konservieren urzeitliche DNA Die Analyse und Extraktion von urzeitlicher DNA aus fossilen Knochen gelingt nur selten – denn oft ist das Erbmaterial längst zersetzt oder kontaminiert. Wissenschaftler aus Tel Aviv und Harvard entdeckten jedoch eine neue Quelle für relativ unversehrte DNA: Kristalline Klumpen im Knochengewebe. Sie schützten die in ihnen eingeschlossene DNA sogar gegen eine Behandlung mit Bleichlauge. Zudem enthielten sie längere, besser erhaltene Fragmente als Vergleichsextraktionen von freier DNA aus frischen Knochen. (PNAS)
06.02. Zoologie Taufliege mit Gedächtnis-Zellen für Bilder Die Taufliege Drosophila archiviert das Bild von ihrer Umwelt nicht wie einen fotografischen Schnappschuss im Gehirn – das atz kosten. Stattdesestimmte MerkmaNeigung von Kanten age zueinander, und in zwei klar voneinabgegrenzten Zellpen im Gehirn ab. anden Forscher mitvon Experimenten n einem FlugsimulaFruchtfliege Drosophila © University of Texas
20
18.02.1913 Der Begriff „Isotop“ wird geprägt
17.2.1962 Große Flutkatastrophe an der Nordsee
19.02.1855 Erster internationaler Wetterdienst
19.02.1986 Start der russischen Raumstation Mir
tor heraus, in dem sie die Tiere in einer künstlichen Umwelt aus verschiedenen Mustern und Farben fliegen ließen. (Nature)
09.02. Astrophysik Kosmos strahlt nicht überall gleich Astrophysiker des internationalen H.E.S.S.-Projekts haben nachgewiesen, dass die kosmische Gamma-Strahlung im Zentrum der Milchstraße nicht nur eine höhere Energie, sondern auch eine höhere DichMilchstraßenzentrum te aufweist als in unim Gammastrahlenbild serem Sonnensys© H.E.S.S. tem. Eine mögliche Erklärung für dieses überraschende Phänomen könnte eine frühere Supernova-Explosion sein. Möglich wäre aber auch eine starke Beschleunigung von Teilchen durch das supermassive Schwarze Loch im Zentrum unserer Galaxie. (Nature)
09.02. Evolution Kratersee als Artenschmiede Neue Tierarten können auch ohne die geografische Isolation zweier Tiergruppen entstehen. Das zeigt eine Fischart, die Forscher der Universität Konstanz in einem kleinen Kratersee Nicaraguas neu entdeckten. Amphilophus zaliosus, so der Name der neuen Art, entwickelte sich innerhalb von weni-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER 23.02.1987 Sternen-Explosion in der Großen Magellanschen Wolke
20.02.1962 John Glenn als erster USAmerikaner im All
22.02.1828 Friedrich Wöhler synthetisiert Harnstoff
23.02.1893 Erstes Patent für Dieselmotor 26.02.1948 Gründung der Max22.02.1960 Planck-Gesellschaft Das Tauchboot zur Förderung der „Challenger“ erreicht den Wissenschaften tiefsten Punkt der Erde
ger als 10.000 Jahren aus der ursprünglichen Spezies Amphilophus citrinellus – für evolutionsbiologische Verhältnisse geradezu rasant. Diese so genannte sympatrische Artbildung wurde schon von Darwin postuliert, war aber bisher immer umstritten und kaum empirisch belegt. (Nature)
10.02. Neurobiologie Grammatik ist Teamarbeit fürs Gehirn Im menschlichen Gehirn sind zwei unterschiedliche Areale für die Grammatik der Sprache zuständig. Das konnten Wissenschaftler des Max-Planck-Instituts für Kognitions- und Neurowissenschaften mittels der funktionellen Magnetresonanztomografie nachweisen. Einfache Sprachstrukturen werden in einer evolutionär älteren, auch bei Affen vorhandenen Gehirnregion verarbeitet. Komplizierte Strukturen übernimmt dagegen das entwicklungsgeschichtlich jüngere BrocaAreal, das nur der Mensch besitzt. Beide Areale zusammen sorgen für ein umfassendes Verstehen der Sprache. (PNAS)
10.02. Klima Vulkanausbrüche bremsen Klimawandel Ohne die Aschenwolken und Aerosole aus den Vulkanausbrüchen des vergangenen Jahrhunderts wären die globalen Meerestemperaturen und der Meeresspiegel noch stärker angestiegen als ohnehin schon. Das zeig-
26.02.1966 Erster Flug einer unbemannten ApolloKapsel
CHRONIK
28.2.1958 Werner Heisenberg präsentiert die „Einheitliche Theorie der Elementarteilchen“
27.02.1932 James Chadwick entdeckt das Neutron
te sich, als ein internationales Forscherteam testete, wie die großen vulkanischen Eruptionen des 20. Jahrhunderts sich auf zwölf aktuelle Klimamodelle auswirkten. Die Wissenschaftler verglichen die Ergebnisse für den Zeitraum von 1880 bis 2000 mit tatsächlichen Beobachtungen und stellten fest, dass die vulkanischen Aerosole einen großen Teil des Sonnenlichts blockierten. Das sorgte für eine Abkühlung der Meeresoberfläche, die sich bis in tiefere Wasserschichten fortsetzte. (Nature)
10.02. Paläontologie Ältester Cousin des T. rex entdeckt In China aufgefundene Dinosaurierskelette entpuppten sich bei der Analyse der Knochen als Relikte des ältesten jemals entdeckten Verwandten des Tyrannosaurus rex. Das neue Familienmitglied wurde Guanlong wucaii getauft –„der gekrönte fünffarbige Drache“. Der nur gut drei Meter lange Dinosaurier ist 160 Millionen Jahre alt und steht damit zeitlich an der Basis dieser Verwandtschaftsgruppe. Der Fund gibt wertvolle neue Einblicke in die Evolution der Tyrannosauriden und ihrer Vorfahren. (Nature)
Lavaströme am Mauna Loa auf Hawaii © US Geological Survey
Rhesusaffen © SXC
10.02. Genetik Genom des Rhesusaffen entschlüsselt Nach dem Schimpansen entschlüsselten Wissenschaftler verschiedener amerikanischer Forschungsinstitute nun auch das Ge-
21
02 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI nom des Rhesusaffen und veröffentlichten die Sequenz in einer Datenbank. Ihr Ergebnis: Der häufig in der medizinischen Forschung eingesetzte Rhesus-Affe teilt rund 92 bis 95 Prozent seiner Gene mit dem Menschen und 98 Prozent mit dem Schimpansen. Gezielte Genvergleiche zwischen beiden könnten in Zukunft die Erforschung von Immunreaktionen bei Mensch und Affe erleichtern. (NHGRI)
13.02. Strömungsphysik
Strömung verwirbelt Polystyrol-Kugeln © Max-Planck-Institut für Dynamik und Selbstorganisation
Teilchen fliegen anders als gedacht Wie breiten sich Teilchen in starken Turbulenzen aus? Zu dieser Frage existierten bisher zwei unterschiedliche, jeweils 20 Jahre alte Theorien. In einem Experiment testete ein internationales Wissenschaftlerteam nun deren Gültigkeit. Das eigens entwickelte System von Hochgeschwindigkeitskameras zeigte, dass sich die Teilchen bei Turbulenzen insgesamt langsamer auseinander bewegten als angenommen. Damit erwies sich nur die Theorie des Australiers George Batchelor als allgemein gültig. Zukünftig lassen sich mit ihr der Transport und die Ausbreitung etwa von Chemikalien oder biologischen Substanzen besser vorhersagen. (Science)
14.02. Medizin
Kind mit Sauerstoffmaske © SXC
22
Atemkontrolle für den Notfall Schuld am plötzlichen Kindstod könnte der Ausfall einer Gruppe Nervenzellen im Gehirn sein, die als Notfallprogramm nur bei akutem Sauerstoffmangel in Aktion treten. Britische Wissenschaftler identifizierten erstmals diese Zellen und entdeckten ein Schlüsselprotein in ihrer Hülle. Dieses löst bei Atemnot normalerweise einen Natriumeinstrom in das Zellinnere aus, durch den sich die Atemmuskeln ruckartig zusammenziehen. Ist das Protein aber defekt, wird damit auch die „Notatmung“ blockiert. (Nature Neuroscience)
15.02. Physik Raubkopie im Quantenreich Im Gegensatz zu bisherigen Annahmen können auch Quanten kopiert werden. Japanischen Forschern gelang es erstmals, die Eigenschaften eines Photons nicht nur auf ein, sondern auf gleich zwei Teilchen zu übertragen. Dieses „Teleklonen“, die neuartige Kombination der Quantenteleportation mit dem Kopieren eines Photons, könnte damit auch in der vermeintlich abhörsicheren Quantenkryptographie für die illegale Aufzeichnung übermittelter Nachrichten eingesetzt werden. (Physical Review Letters)
17.02. Medizin Malariaverlauf steckt in den Genen Bestimmte Genmutationen erhöhen das Risiko für einen schweren oder sogar tödlichen Verlauf der Malaria bei Kindern im tropischen Afrika. Untersuchungen zeigen, dass bei den Betroffenen bestimmte Rezeptoren des Immunsystems verändert sind. Die Folge: Der Rezeptor erkennt den Erreger schlechter und der Aedes aegypti © CDC Körper kann ihn daher weniger wirksam bekämpfen. Diese nicht in Europa vorkommende Genänderung könnte auch Auswirkungen auf eine Malariaimpfung haben: Diese regt normalerweise die Antikörperproduktion an, indem sie ebenfalls an den betroffenen Rezeptoren andockt. (PNAS)
17.02. Chemie Mehr Saft für Elektroautos Lithium-Ionen-Akkus benötigen lange Ladezeiten, sind teuer und daher bisher nicht für Elektroautos geeignet. Doch Wissenschaftler aus dem Massachusetts Institu-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER of Technology haben un neuartige Lithiumatterien entwickelt, e trotz hoher Leistung ur zehn Minuten zum aden brauchen. Ihr Schichtaufbau der Li- Trick: Eine besondere, thiumbatterie © MIT baumkuchenartige chemische Anordnung der Metallionen Lithium, Nickel und Mangan. (Science)
den Phasengehalt, die Textur und die Grenzflächen von Materialien in drei Dimensionen untersuchen kann, haben Wissenschaftler am Max-Planck-Institut für Eisenforschung in Betrieb genommen. Damit sind erstmals direkte Einblicke in die dreidimensionale Mikrostruktur von Nanomaterialien, biologischen Werkstoffen oder auch von höchstfesten Stählen möglich. (MPG)
CHRONIK
3D-Gradienten der kristallographischen Orientierung in einem intermetallischen EisenAluminium-Kristall © Max-Planck-Institut für Eisenforschung
24.02. Paläontologie 17.02. Medizin Vogelgrippe-Alarm in Deutschland Der auch für den Menschen gefährliche Vogelgrippe-Virus H5N1 erreicht nach Österreich, Italien, Griechenland und dem Balkan auch Deutschland: Im Nordwesten der Insel Rügen werden tote, mit der Tierseuche infizierte Schwäne und Gänse gefunden. Zum Schutz der Nutztierbestände verhängt die Bundesregierung bundesweit eine sofortige Stallpflicht für alle Geflügelbetriebe. (RKI)
21.02. Klima Eisverlust in Grönland verdoppelt Das Eis Grönlands schmilzt immer schneller: Von 96 Kubikkilometern im Jahr 1996 stieg der Eisverlust auf 220 Kubikkilometer im Jahr 2005. Gleichzeitig dehnte sich auch das betroffene Gebiet weiter nach Norden bis zum 70. Breitengrad aus. Hält diese durch den Klimawandel verursachte Entwicklung an, könnte das auch zum Anstieg der Meeresspiegel beitragen. Das ergaben Analysen der Eiswanderungsbewegungen, des Schneefalls und der Schmelze. (Science)
22.02. Nanotechnologie Nanostrukturen erstmals in 3D Das weltweit erste Elektronenmikroskop, mit dem man gleichzeitig und automatisiert
Ur-Biber erstaunlich modern Wissenschaftler der Universität von Nanjing entdeckten in China die 164 Millionen Jahre alten fossilen Überreste eines Ur-Bibers. Der Zeitgenosse der Dinosaurier war seinen modernen Nachfahren sehr ähnlich und damit weitaus höher entwickelt, als man zuvor für Säuger der damaligen Zeit für möglich gehalten hatte. Der Fund ist zudem das größte Säugerfossil aus dieser Ära. Castorocauda hat einen breiten schuppigen Schwanz und Hinterläufe wie ein Biber, seine Vorderbeine erinnern eher an die eines Schnabeltiers. (Science)
28.02. Sozialwissenschaften Guter Ruf als „Köder“ Öffentliche Anerkennung kann ebenso motivieren wie finanzieller Gewinn – das fanden Max-Planck-Forscher in einem Spiel-Experiment heraus. Ihre Versuchspersonen sollten entscheiden, ob sie Geld für eine Zeitungsanzeige spenden oder das Geld behalten wollten. In der Anzeige sollten der Öffentlichkeit die Folgen klimaschädlichen Verhaltens und einfache Regeln zum Klimaerhalt aufgezeigt werden. Das Ergebnis überraschte: Alle Mitspieler spendeten Geld für die Anzeige. Die größte Bereitschaft zeigten die über den Klimawandel bereits informierten Spieler – aber nur dann, wenn sie wussten, dass ihre gute Tat öffentlich gemacht wurde. (PNAS)
Guter Ruf ist Geld wert © SXC
23
03 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI
03
02.03.1949 Erster NonstopFlug um die Erde
03.03.1910 Erstes Medikament gegen Syphilis zugelassen
03.03.1995 Entdeckung des Top-Quarks
07.03.1986 Erstes Kunstherz in Deutschland
04.03.1979 „Voyager 1“ erreicht den Jupiter
03.03. Physik
Protonen (rot) in einem Atomkern © MMCD
Laserpulse fangen Protonenbewegung ein Protonen sind Elementarteilchen, die bei chemischen Reaktionen mit enormer Geschwindigkeit ausgetauscht und umgelagert werden. Daher war ihre Beobachtung bisher kaum möglich. Britische Forscher entwickelten nun eine neue Lasertechnik, die auf extrem kurzen Lichtpulsen basiert und die schnelle Bewegung der Protonen messbar macht. Die Methode eröffnet nicht nur neue Einblicke in fundamentale Prozesse der Chemie und Biologie, sondern bietet auch viele Anwendungsmöglichkeiten wie bei der Nanofabrikation von Materialien. (Science)
06.03. Astronomie
Leuchtende Wasserstoffwolken in „Stephans Quintett“ © NASA / JPL / Caltech
Überschallknall im All In der Galaxiengruppe Stephans Quintett, dem Schauplatz einer gewaltigen kosmischen Kollision, haben Astronomen eine Schockwelle aufgespürt, die größer ist als unsere Milchstraße. Den wichtigsten Hinweis lieferte eine starke Infrarotstrahlung, die das NASA-Teleskop Spitzer gemessen hat. Sie stammt von Wasserstoffmolekülen, die bei der Kollision von Materie zum Leuchten angeregt werden. Die Entdeckung der Schockwelle liefert Astronomen neue Einblicke in die Anfänge des Universums, als Verschmelzungen und Zusammenstöße von Galaxien noch an der „Tagesordnung“ waren. (Astrophysical Journal)
24
09.03.1931 Ernst Ruska entwickelt das erste Elektronenmikroskop 10.03.1814 Joseph Fraunhofer entdeckt die ersten Spektrallinien
12.03.1933 Erste Synthese des Kunststoffs Polyethylen 13.03.1930 Entdeckung des Planeten Pluto
06.03. Zellbiologie Architektur der „Fettsäure-Fabrik“ enträtselt Fettsäuren sind an einer Vielzahl biologischer Prozesse beteiligt. So dienen sie unter anderem als Energiespeichersubstanzen und als zelluläre Botenstoffe. Die Struktur der Enzyme, die für die Bildung von Fettsäuren in höheren Organismen verantwortlich sind, haben jetzt erstmals Schweizer Forscher identifiziert. Diese so genannten Fettsäure-Synthasen zählen zu den komplexesten biologischen Synthese-Maschinen überhaupt. Die Wissenschaftler wollen mit ihrer Hilfe neue Medikamente gegen verschiedene Krebsformen, krankhaftes Übergewicht oder Pilzinfektionen entwickeln. (Science)
09.03. Ökologie Wimmelndes Leben in salziger Tiefsee In 3.300 Metern Tiefe entdeckte ein europäisches Wissenschaftlerteam im Mittelmeer ein komplexes Ökosystem mit zahlreichen bisher unbekannten Bakterien. Einige der Arten, die sich in einem nur zweieinhalb Meter breiten Grenzbereich zwischen salzarmen und salzreichen Wasserschichten aufhalten, zeigten so wenig Verwandtschaft zu anderen Lebensformen, dass die Forscher vier neue Klassen von Bakterien definieren konnten. Die Entschlüsselung ihrer komplexen Stoffwechselkreisläufe könnte möglicherwei-
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 14.03.1879 Geburt des Physikers Albert Einstein
22.03.1974 OstseeSchutzkonvention verabschiedet 16.03.1926 Die erste Rakete fliegt – immerhin 56 Meter weit
23.03.1912 Geburt des Physikers und Raketenpioniers Wernher von Braun
se neue Anwendungen in Industrie und Medizin nach sich ziehen. (Nature)
10.03. Neurobiologie Duftkombinationen bringen Gehirn „in Schwung“ Gerüche, die sich aus vielen unterschiedlichen Duftstoffen zusammensetzen, aktivieren im Riechzentrum des Gehirns andere und mehr Neuronen als einzelne Duftnoten. Bei Versuchen an Mäusen identifizierten Wissenschaftler vom Fred Hutchinson Cancer Research Center in Seattle sogar Gruppen von Nervenzellen, die ausschließlich auf Mischgerüche reagierten. Übertragen auf den Menschen könnten diese Ergebnisse erstmals erklären, warum Duftkombinationen völlig andere Geruchswahrnehmungen erzeugen, als man aufgrund der Einzelnoten vermuten würde. (Science)
10.03. Paläontologie Neu entdeckter Säuger ist lebendes Fossil Die kleinen, an Eichhörnchen erinnernden Tiere, die amerikanische Wissenschaftler im Jahr 2005 in Südostasien aufgespürt haben, gehören nicht zu einer neuen Säugetierfamilie, sondern sind „lebende Fossilien“. Skelett- und Zahnvergleiche durch Forscher des CarnegieMuseum für NaturNeu entdeckte Art Laonasthes aenigmamus über Fossil seines ausgestorbenen Verwandten stehend. © Mark A. Klingler, CMNH
CHRONIK
27.03.1845 Wilhelm Conrad Röntgen wird geboren
24.03.1882 Robert Koch entdeckt den Tuberkelbazillus
24.03.1989 Der Öltanker „Exxon Valdez“ verunglückt vor Alaska
29.03.1912 Polarforscher Robert Scott stirbt auf dem Rückweg vom Südpol
geschichte in Pittsburgh ergaben eine Zugehörigkeit zur Nagergruppe der Diatomyidae, die angeblich vor mehr als zehn Millionen Jahren ausgestorben war. Kha-Nyou, so der Name des Tieres, könnte möglicherweise neue Einblicke in die Entwicklung der Biodiversität Südostasiens liefern. (Science)
14.03. Mathematik Härte eines Kristalls „entlarvt“ Wie hart ist ein bestimmter Kristall? Um dies herauszufinden, mussten bisher aufwändige Ritz-Versuche mit Diamantspitzen durchgeführt werden. Forscher von der Tschechischen Akademie der Wissenschaften haben nun mithilfe der Mathematik eine einfachere Lösung für dieses Problem gefunden: Sie entwickelten eine Formel, mit der sich die Härte eines Kristalls theoretisch berechnen lässt. Die Formel ermittelt die Stärke der Bindungen im Gitter und damit die mechanische Widerstandsfähigkeit des Kristalls gegen Beschädigungen. (Physical Review Letters)
15.03. Nanotechnologie
Diamant – das härteste Material der Erde © US Geological Survey
Nanomotor in Bewegung © Universität Groningen
Licht treibt Nanomotor an Kann man einen Motor mithilfe von Licht antreiben? In der Nanowelt schon. Wissenschaftler aus Groningen und Eindhoven haben einen leistungsfähigen Antrieb konstruiert, der aus mehreren hantelförmigen Molekülen besteht, die bei der Bestrahlung mit
25
03 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI UV-Licht ihre Struktur verändern. Die beweglichen Moleküle sind zu diesem Zweck von einem dünnen Flüssigkristallfilm umgeben, auf dem ein Glasstäbchen liegt. Die Lichtblitze führen zu Konformationsänderungen der Motor-Moleküle und verdrehen dadurch den Film, sodass auch das eingebettete Glasstäbchen in Rotation gerät. (Nature)
16.03. Astrophysik
Vela-Pulsar mit durch leuchtende Gase sichtbaren Schockwellen und Jets. © NASA/PSU/ G.Pavlov et al.
Dunkle Materie als „Sternenanzünder“? Die rätselhafte Dunkle Materie im Kosmos besteht vermutlich aus so genannten „sterilen Neutrinos“, die durch ihren Zerfall die ersten Sterne nach dem Urknall zum Leuchten gebracht haben. Die Gesamtanzahl dieser Teilchen im Universum ist zwar nicht bekannt. Doch wenn ein solches Neutrino auch nur einige Millionstel der Masse eines Wasserstoff-Atoms besitzt, so ein deutschamerikanisches Forscherteam, wäre damit der bisher fehlende Masseanteil im Universum zu erklären. Diese Theorie könnte auch bisher rätselhafte Beobachtungsergebnisse wie die hohen Eigengeschwindigkeiten von Pulsaren und das Fehlen von Antimaterie im Universum erklären helfen. (Physical Review Letters)
16.03. Paläontologie
Das Skelett-Fossil von Juravenator starki. © Jura Museum Eichstätt / G. Janssen, Paläontologisches Museum München
26
„Jurassic Park“ bekommt Zuwachs Im rund 150 Millionen Jahre alten Plattenkalk der Fränkischen Alb entdeckte ein deutsch-amerikanisches WissenschaftlerTeam das Fossil einer neuen, nur hühnergroßen Dinosaurierart. Der Juravenator gehört zu einer Gruppe von Fleischfressern, den Theropoden, die in der Jurazeit Europas äußerst selten war. Ein Hautabdruck am Schwanz des Fossils zeigt zudem, dass das Tier, anders als nahe verwandte Arten wie der Archaeopteryx, vermutlich nicht befiedert war. Dieser Fund
wirft ein neues Licht auf die Evolution von Federn: Sie könnten entweder mehr als einmal unabhängig voneinander entstanden oder bei bestimmten Arten, wie dem Juravenator, im Lauf der Evolution wieder verloren gegangen sein. (Nature)
17.03. Materialforschung Brennstoffzelle lässt Muskeln zucken Künstliche Muskeln für Roboter und andere Maschinen könnten zukünftig auch ohne Batterieantrieb funktionieren. Dank integrierter Brennstoffzelle treiben stattdessen Wasserstoff, Methanol oder Ameisensäure die beweglichen Apparaturen an. Forscher der Universität von Texas konstruierten gleich zwei Varianten solcher Kunstmuskeln. Einer davon setzte sich aus Kohlenstoff-Nanoröhrchen zusammen und wurde mit Sauerstoff und Wasserstoff betrieben. Der zweite bestand aus einem hitzesensiblen Metall, das sich zusammenzog, sobald Methanol oder Ameisensäure in der Brennstoffzelle zu Wärme umgewandelt wurden. (Science)
17.03. Medizin Waffenarsenal der Antibiotika erschöpft? Ein deutsches Forscherteam hat erstmals die Proteine identifiziert, die an den Stoffwechselwegen der Salmonellen im Verlauf einer Infektion beteiligt sind. Sie entdeckten dabei zwar neue Angriffspunkte für die Entwicklung dringend benötigter Antibiotika gegen die Krankheitserreger – allerdings weniger als bislang gehofft. Die Analysen zeigten, dass Salmonellen erstaunlich unempfindlich gegen die Blockade einer Reihe zentraler Stoffwechselwege sind. Ursache dafür sind Ersatzenzyme, die die Rolle inaktiver Enzyme übernehmen können, sowie ein breites Nährstoffangebot des Wirtes, das den Salmonellen weitgehende Unabhängigkeit von eigenen
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B Biosynthese-Fähigkeiten verleiht. Für die Forschung bedeutet das, dass sie wirkungslose Antibiotika durch neue Substanzen mit ähnlichem, aber nicht identischem Wirkprinzip ersetzen muss. (Nature)
17.03. Neurobiologie Plaques unschuldig an Alzheimer Nicht die im Mikroskop gut sichtbaren Eiweiß-Plaques im Gehirn von Alzheimer-Patienten sind für die typischen Gedächtnislücken verantwortlich, sondern vermutlich winzig kleine Protein-Komplexe, die in erster Linie aus so genannten Abeta-Peptiden bestehen. Wie Wissenschaftler der Universität von Minnesota im Tierversuch herausfanden, treten diese Strukturen viel früher auf als die Plaques und zwar genau dann, wenn die ersten Erinnerungslücken einsetzen. Sollten sich die Ergebnisse auch beim Menschen bestätigen, könnte die Demenzkrankheit in Zukunft viel früher erkannt und vielleicht sogar mit einer vorbeugenden Therapie behandelt werden. (Nature)
CHRONIK
fluenzavirus von 1918, der 50 Millionen Menschen weltweit tötete. (Science)
24.03. Klima Eiszeitlicher „Staubfänger“ Antarktis In den Kaltzeiten der letzten 740.000 Jahre war die Antarktis von sehr viel mehr Meereis umgeben als in Warmzeiten. Gleichzeitig transportierte der Wind mehr Staub aus dem trockenen Süden Südamerikas in die Antarktis. Dies ergab die Untersuchung von Aerosolpartikeln in einem drei Kilometer langen Eiskern. Der Kern deckt mehr als acht aufeinander folgende Wechsel von Eis- und Warmzeiten ab und ist damit das längste kontinuierliche Eiskernarchiv, das jemals gewonnen wurde. Er zeigt eine ähnliche Abfolge von Änderungsprozessen bei jedem Wechsel zwischen warmen und kalten Klimabedingungen. Die Forscher schließen daraus, dass die Erde im Verlauf von Klimaänderungen bestimmten Regeln folgt. Ein besseres Verständnis dieser Regeln könnte zu einer Verbesserung der Klimamodelle und damit auch der Klimaprognosen führen. (Nature)
Das Eis der Antarktis ist ein wertvolles Klimaarchiv. © NOAA
20.03. Genetik H5N1 – durch kleine Mutation zum Menschenvirus? Noch ist die Vogelgrippe in erster Linie eine Tierseuche. Doch schon kleine Mutationen beim aggressiven Virus H5N1 könnten ausreichen, um seine Bindungsstellen zu verändern. Dadurch könnte er statt des Verdauungstrakts von Vögeln die Atemwege von Menschen befallen, wie Mikrobiologen des Scripps Research Instituts bei der Untersuchung des besonders gefährlichen H5N1Stammes Viet04 feststellten. Mithilfe der Mikroarray-Technik untersuchten sie eine spezielle Struktur auf der Virenoberfläche, das Glycoprotein Hämagglutinin. Schon jetzt ähnelt diese Struktur von H5N1 sehr stark der des In-
28.03. Bildung Sozial aktive Senioren sind geistig fitter Ältere Menschen, die viele Bekannte haben, an kulturellen Veranstaltungen teilnehmen oder Tanzen gehen, bleiben geistig fitter als andere. Dies belegen Beobachtungen der persönlichen Entwicklung bei 516 Personen im Alter von 70-100 Jahren über einen Zeitraum von bis zu acht Jahren durch Psychologen des Max-Planck-Instituts für Bildungsforschung. Danach bremst ein sozial aktiver Lebensstil den Rückgang der intellektuellen Leistungsfähigkeit von Senioren deutlich. Die Forscher lieferten damit erstmals einen direkten Beleg für den Beitrag sozialer Faktoren zur Intelligenzentwicklung im Alter. (MPG)
Sozial aktiver Lebensstil bremst den Rückgang intellektueller Leistung im Alter. © SXC
27
04 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI
04
01.04.1867 Eröffnung der Weltausstellung in Paris
05.04.1951 Erste Operation am offenen Herzen
05.04.1722 „Entdeckung“ der Osterinsel durch die Niederländer
07.04.1948 Gründung der Weltgesundheitsorganisation WHO
06.04.1909 Robert Peary erreicht als erster Mensch den Nordpol
05.04. Genetik
Große Kältetoleranz: der Kabeljau © NOAA
Gefrierschutz-Protein aus ”Junk-DNA” Ein Protein schützt Kabeljau vor extremer Kälte. Wissenschaftler der Universität Illinois entdeckten ein Gen aus der „Junk-DNA“ des Fisches, welches dieses spezielle Gefrierschutz-Protein kodiert. Bislang galten die vielfach wiederholten Sequenzen der „JunkDNA“ als genetisch funktionslos. Die Forscher erhoffen sich nun neue Erkenntnisse über Mechanismen der Gen-Entwicklung. (Society for Experimental Biology)
06.04. Physik
Tropfen schwebt auf Dampfpolster © Stout, Dow-Hygelund, Aleman, Schweickert
28
Wassertropfen fließen aufwärts Normalerweise fließt Wasser immer bergab. Doch beim so genannten „Leidenfrost-Effekt“ bleiben Tropfen auf einem Kissen aus Wasserdampf in der Schwebe und gleiten in alle möglichen Richtungen. Genau dies lässt sich auch auf einer heißen Herdplatte beobachten. Wissenschaftler der Universität von Oregon haben den Effekt modifiziert: Auf einer sägezahnartig eingekerbten Oberfläche wird der Dampf so umgeleitet, dass er eine Kraft erzeugt, die die Tropfen in eine bestimmte Richtung lenkt. Sie wandern bis zu einem Meter weit und überwinden sogar Steigungen. Dieses Phänomen ließe sich bei der Kühlung von Computerprozessoren einsetzen. (Physical Review Letters)
09.04.1906 Größte Eruption des Vesuv seit Pompeji
07.04.1795 Frankreich legt das Urmeter als Referenz für Längeneinheiten fest
12.04.1961 Gagarin umrundet als erster Mensch die Erde
13.04.1955 Zulassung des ersten Polio-Impfstoffs
07.04. Sozialwissenschaften Warum Strafen notwendig sind Normen prägen in einer Gruppe den Einzelnen stärker als das Streben nach maximalem persönlichen Gewinn. Das gilt selbst dann, wenn diese Normen persönliche Einbußen nach sich ziehen, hat ein Team aus deutschen und britischen Forschern in einer Studie mit zwei konkurrierenden Gruppen nachgewiesen. In der einen Gruppe konnte jedes Mitglied egoistisches Verhalten bei den anderen bestrafen, was allerdings mit persönlichen Kosten verbunden war. In dieser Gruppe etablierte sich eine stabile, erfolgreich zusammenarbeitende Gesellschaft. In der anderen, in der unkooperatives Verhalten nicht geahndet werden konnte, brach die Gruppenstruktur dagegen bereits nach relativ kurzer Zeit zusammen. (Science)
10.04. Zoologie Evolution der Säugetiere präzisiert Der Mensch ist mit dem Hund nicht näher verwandt als mit der Maus. Das fanden Wissenschaftler der Universität Münster heraus, als sie „springende Gene“, so genannte Transposons, verschiedener Säuger miteinander vergliHörnchen: Genauso chen. Diese zumeist nahe verwandt wie funktionsneutralen Hund © Hemera
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 14.04.1912 Untergang der Titanic
23.04.1858 Max Planck, , Begründer der Quantentheorie, wird geboren
22.04.1957 Erster Testlauf des Wankelmotors
24.04.1990 Weltraum-Teleskop „Hubble“ in der Erdumlaufbahn
24.04.1923 Sigmund Freuds Werk „Das Ich und das Es“ erscheint
Abschnitte können weitgehend unverändert sehr lange Zeiträume in den Chromosomen überstehen und erlaubten daher, die Abstammungsverhältnisse genauer als zuvor zu rekonstruieren. Der Mensch bildet demnach im Stammbaum der Säugetiere einen gemeinsamen Ast mit Spitzhörnchen, Pelzflatterern, Nagetieren und Hasenartigen, den so genannten Supraprimaten. (PloS Biology)
11.04. Medizin Glückshormon heilt Leber Eine bisher unbeannte Funktion des Horerotonin entdeckte eine europäische Wissenschaftlergruppe unter Beteiligung des Max-Planck-Instituts für molekulare Genetik. In Versuchen an Mäusen stellten sie fest, dass das in Blutplättchen enthaltene Hormon entscheidend an der Regeneration des Lebergewebes mitwirkt. Ohne Serotonin im Blut heilte das verletzte Gewebe nicht aus. Eine Behandlung mit einer Serotonin-Vorstufe konnte jedoch die Regeneration wieder anregen. Diese Entdeckung könnte zukünftig die Behandlung nach Lebertransplantationen verbessern. (Scin)
26.04.1986 Unfall im weißrussischen Kernkraftwerk Tschernobyl
27.04.1521 Tod des Weltumseglers Ferdinand Magellan auf der Philippinen-Insel Mactan 30.04.1904 Ein Vorläufer des Radars wird patentiert
bacter crescentus könnte der stärkste jemals in der Natur nachgewiesene Klebstoff sein. Er ist sogar zwei bis drei Mal haltbarer als handelsüblicher Superkleber und haftet auch unter Wasser, wie Forscher von der Indiana Universität und der Brown Universität in USA herausfanden. Wenn es gelänge, das neue Material in Massenproduktion herzustellen, könnte es in Medizin, Meerestechnologie und zahlreichen weiteren Anwendungsgebieten gute Dienste leisten. (PNAS)
30.04.1777 Geburt des Mathematikers und Physikers Carl Friedrich Gauß
Caulobacter crescentus © Yves V. Brun, Indiana University
12.04. Paläontologie Ameisen älter als gedacht Ameisen bevölkern unsere Erde schon seit 140 bis 168 Millionen Jahren – damit sind sie älter als bislang angenommen. Forscher der amerikanischen Harvard Universität rekonstruierten Stammbaum und Alter der Ameisen, indem sie die DNA von sechs Genen aus 139 repräsentativen Arten untersuchten. 19 von 20 Ameisenfamilien weltweit wurden so abgedeckt. Die Forscher schätzen, dass die Aufspaltung der Ameisen in verschiedene Arten wahrscheinlich vor rund 100 Millionen Jahren begann, gemeinsam mit dem Aufstieg der Blütenpflanzen. (Science)
15.04. Nanotechnologie
12.04. Chemie Bakterien-Superkleber entdeckt Der Kleber der winzigen Bakterie Caulo-
CHRONIK
Blattschneiderameisen können das Vielfache ihre Körpergewichts tragen. © USDA
„Nanoauto“ mit Lichtmotor Aus nur einem einzigen Molekül besteht ein von amerikanischen Nanoforschern kon-
29
04 / 2006 JANUAR U FEBRUAR B U MÄRZAPRILMAIIJUNIJULI struiertes Auto, das durch Licht angetrieben wird und so tatsächlich fährt. Das nur vier Millionstel Millimeter große Fahrzeug besteht aus genau 169 Atomen. Das Chassis bilden fünf Ringe, die Achsen bestehen aus drei drehbaren Kohlenstoffverbindungen. Der Motor ist ein seitlich angebrachtes Molekül, das sich bei Anregung durch UV-Licht dreht und so das „Nano-Auto“ über die Oberfläche schiebt. (Organic Letters) Das Nanoauto wird durch Lichtenergie angetrieben. © Rice University
18.04. Physik Laser steuert Elektronen Ultrakurze Laserimpulse im Femtosekunden-Bereich können chemische Reaktionen in Atomen auslösen. Unter dem Einfluss der Lichtpulse ändern die Elektronen ihren Quantenzustand. Dadurch werden chemische Bindungen aufgebrochen oder neu gebildet. Diese Entdeckung könnte zu einer weiteren Miniaturisierung von Bauelementen der molekularen Elektronik führen oder der Steuerung von Elektronen-Transferprozessen in DNA-Basenpaaren dienen. (Science)
18.04. Chemie
Silica-Kegel in Reih‘ und Glied © Max-Planck-Institut für Kohlenforschung
30
Lakritzschnecken im Reagenzglas Regelmäßige Muster statt zufallsverteilter Reaktionsprodukte – das zu ereichen ist in der Chemie nicht einfach. Forschern vom Max-Planck-Institut für Kohlenforschung gelang dies, indem sie Silica- oder KieselsäureTeilchen aus einer Lösung so auf einem Träger wachsen ließen, dass ein Muster winziger Kegel entstand. Jeder Kegel besteht dabei aus übereinander geschichteten Spiralen – so als würde man Hariboschnecken stapeln. Jede Spirale besteht wiederum aus Röhren, in denen sich das Silica um lange organische Moleküle gruppiert. Solche hierarchischen Strukturen, die im Kleinen wie im Großen definiert sind, kannten Wissenschaftler bislang
nur aus der Natur: von Knochen, Holz oder Muscheln. Dass sie sich jetzt im Reagenzglas herstellen lassen, könnte helfen, optische und elektronische Bauteile zu verkleinern. (Advanced Materials)
20.04. Materialforschung Silizium aus der Sprühdose Eine bestechend einfache Methode zur Herstellung hochreiner Siliziumoberflächen haben japanische Forscher entwickelt: Sie sprühten eine siliziumhaltige Flüssigkeit in Form von Leiterbahnen auf eine Oberfläche und erhitzen sie auf 500 Grad Celsius. Dabei kristallisierten die Strukturen zu hochreinem Silizium aus und bildeten so elektronische Schaltkreise. Für mikroelektronische Anwendungen ist das Verfahren nicht klein genug, es könnte sich aber zur billigen Herstellung großflächiger, zusammenrollbarer Bildschirme eignen. (Nature)
25.04. Astrophysik Das kosmische Glimmen – schwächer als gedacht Das kosmische Hintergrundleuchten gilt als Überrest des gesamten, jemals im Universum ausgestrahlten Lichts – doch es ist weitaus schwächer als bislang angenommen. Das fanden Wissenschaftler des Max-Planck-Instituts für Kernphysik mithilfe der H.E.S.S.Teleskope in Namibia heraus. Sie zeichneDas H.E.S.S. besteht aus ten die Gammaspekvier gekoppelten Spiegeltren zweier Quasateleskopen. © H.E.S.S. re auf und untersuchten, wie stark diese durch die Kollision mit Lichtteilchen des Hintergrundleuchtens abgeschwächt wurden. Erwartet wurde eine Rötung des ursprünglichen Gammaspektrums. Tatsächlich reichte die Intensität des Hinter-
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B grundleuchtens jedoch nicht aus, um die ausgesandten Gammastrahlen in den roten Wellenbereich zu verschieben. (Nature)
25.04. Neurobiologie „Süß-Geschmack“ enträtselt Nach dem Genuss von hoch dosiertem Süßstoff schmeckt dieser zunächst bitter, normales Wasser dagegen süß. Warum ist das so? Des Rätsels Lösung: Die Süßstoffe Saccharin und Azesulfam K verändern in hoher Dosierung die Struktur von Süßrezeptoren auf der Mundschleimhaut und schalten damit den „Süß-Sinn“ aus. Erst wenn das Wasser die Hemmstoffe wieder wegspült, funktionieren die Rezeptoren wieder und gaukeln so eine Süße des Wassers vor. Diese Ergebnisse eines deutsch-amerikanischen Forscherteams könnten für die Entwicklung neuer Zuckeraustauschstoffe hilfreich sein und auch dazu beitragen, bekannte Süßstoffe wirksamer einzusetzen. (Nature)
26.04. Klima Deutschland wird heißer Das Klima in Deutschland wird bis zum Jahr 2100 spürbar wärmer. Die Jahresmitteltemperaturen in Deutschland steigen zukünftig um 2,5 bis 3,5 Grad Celsius, im Südosten des Landes könnten es sogar mehr als vier Grad werden. Zudem werden die Sommer besonders im Nordosten trockener, die Winter bundesweit feuchter. Dies hat ein neues Modell des Max-Planck-Instituts für Meteorologie ergeben, das erstmals flächendeckend aktuelle und hoch aufgelöste Aussagen zu
CHRONIK
künftigen Klimaentwicklungen ermöglicht. Die neuen Daten bieten sowohl eine Basis für aktuelle Klimaschutzmaßnahmen als auch für die Entwicklung von zukünftigen Anpassungsstrategien an die Auswirkungen der Klimaerwärmung. (MPG/UBA)
27.04. Astrophysik Sternenbeben enthüllt NeutronensternAufbau Die Kruste von Neutronensternen ist nur 1,5 Kilometer dick, aber so dicht gepackt, dass ein Teelöffel dieser Materie auf der Erde zehn Millionen Tonnen wiegen würde. Das entdeckte eine internationale Forschergruppe, als sie eine starke Explosion auf dem Neutronenstern SGR 1806-20 nutzte, um mithilfe der „Sternbeben-Seismologie“ das Sterneninnere zu analysieren. Mittels eines speziellen Spektrometers registrierten die Forscher Unterschiede in den Frequenzen der quer durch die Sternenkruste und längs dazu laufenden Wellen. Diese Messungen erlaubten den Rückschluss auf Dichteunterschiede und damit auch die Dicke der Kruste. (MPG/Jahrestagung
Neutronenstern speit leuchtendes Plasma. © NASA/CXC/SAO
der American Physical Society)
28.04. Materialforschung Insektenaugen aus Kunststoff Das erste künstliche Auge nach dem Vorbild der Facettenaugen von Insekten haben amerikanische Bioingenieure entwickelt. Die Halbkugel mit nur 2,5 Millimetern Durchmesser besteht aus rund 8.700 kleinen Kunststofflinsen. Unter dem Einfluss von UV-Licht bildet sich im Kunststoffharz jeweils ein Licht leitender Kanal. Kombiniert mit Photozellen könnten die künstlichen Augen als winzige Überwachungskameras oder Endoskope eingesetzt werden. (Science)
Temperaturänderung gegenüber 19611990. Die Spannbreite reicht von 1,5°C (orange) bis 4°C (dunkelrot) © MaxPlanck-Institut für Meteorologie
31
05 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI
05
02.05. 1856 Fund des ersten Neandertalers in einer Höhle bei Mettmann 02.05.1800 Entdeckung der Elektrolyse
05.05.1981 Das erste Sonnenkraftwerk Europas geht ans Netz
09.05.1960 Die „Pille“ wird zur Empfängnisverhütung zugelassen 09.05.1876 Erster Test des Otto-Motors
09.05. Archäologie
Wissenschaftlerin prüft gereinigtes Probefeld in der Grabkammer. © Neferhotep
Laser als „Putzfrau“ für Denkmäler Zur Reinigung von stark verschmutzten Kunstdenkmälern haben Forscher der Fraunhofer-Gesellschaft erstmalig auch Laserlicht eingesetzt. Hierbei werden zunächst auf kleinen Testfeldern die Auswirkungen der hochenergetischen Strahlung auf den Untergrund wie Putz, Mörtel oder Stein geprüft. Nach der individuellen Anpassung von Frequenz, Pulsenergie und Pulsdauer lässt sich dann der Schmutz mit dem Laser präzise beseitigen. (Fraunhofer-Gesellschaft)
15.05. Physik
Laserlicht © Harald Frater
32
Licht im „Rückwärtsgang” Schon seit einigen Jahren können Wissenschaftler das Licht verlangsamen und beschleunigen. Jetzt ist es amerikanischen Forschern gelungen, noch einen Schritt weiter zu gehen: Sie gaben dem Licht eine negative Geschwindigkeit und zwangen es, rückwärts zu laufen. Dazu spalteten sie einen Laserstrahl in zwei Teile – der eine ging als Laserpuls durch eine optische Faser, der zweite lief parallel dazu als Referenzstrahl. Der Peak des Lichtpulses trat überraschend am Ende der Faser aus, bevor er ihren Anfang erreicht hatte – ein scheinbares Paradox, das aber durch ein „Rückwärtslaufen“ innerhalb der Faser erklärt werden kann. Diese noch rätselhafte Beobachtung deutet darauf hin, dass das Licht theoretisch schneller als mit Lichtgeschwin-
12.05.1941 Der deutsche Ingenieur Konrad Zuse nimmt den weltweit ersten Computer, den Z3, in Betrieb
14.05.1973 Das erste Weltraumlabor „Skylab“ startet in den Orbit 14.05.1796 Edward Jenner führt die erste PockenImpfung durch
digkeit unterwegs ist. Die Forscher vergleichen den Effekt mit dem Verhalten eines Spiegelbilds in einem Zerrspiegel: An einem bestimmten Punkt der Bewegung springt die Reflektion und erreicht das Spiegelende noch vor dem gespiegelten Original. (Science)
16.05. Bildung „Mangelhaft“ für die schulische Integration von Migranten-Kindern Der Vergleich von Mathematikleistungen sowie Aussagen zum sozialen Status und zur Lernmotivation bringt Erschreckendes zutage: Deutschland gehört zu den Staaten, in denen die Leistungsunterschiede zwischen einheimischen Schülerinnen und Schülern und denjenigen mit Migrationshintergrund am stärksMigranten © IMSI MasterClips ten ausgeprägt sind. Zu diesem Schluss kommt die Organisation für wirtschaftliche Zusammenarbeit und Entwicklung (OECD), die auf Grundlage der PISADaten aus dem Jahr 2003 in 17 Staaten eine Vergleichsstudie durchgeführt hatte. (OECD)
16.05. Geowissenschaften Rätsel um die Erdölentstehung gelüftet Bislang ging man davon aus, dass Erdöl vor allem durch Mikroorganismen entsteht, die die Kohlenstoff-Doppelbindungen des to-
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 15.05.1859 Geburt des Chemikers und Mitentdeckers des Radiums, Pierre Curie 19.05.1910 Die Erde durchquert den Schweif des Halleyschen Kometen
21.05.1927 Charles Lindbergh gelingt der erste Nonstop-Flug über den Atlantik
23.05.1707 Der schwedische Arzt und Naturforscher Carl von Linné wird geboren
24.05.1844 Das erste Telegramm wird verschickt
ten organischen Materials relativ schnell in gesättigte Verbindungen ohne Doppelbindungen umwandeln. Jetzt hat ein französisch-schweizerisches Forscherteam einen wichtigen geochemischen Prozess entdeckt, der organisches Material nach dem Absterben in Sedimenten stabilisiert und so den ersten Schritt der Erdölbildung einleitet – und zwar unabhängig von Mikroorganismen. Dabei findet das Aufbrechen der Doppelbindungen an beliebigen Stellen entlang der Kohlenstoffketten statt. Voraussetzungen sind Temperaturen von 50 bis 90 Grad Celsius und die Anwesenheit von Schwefelwasserstoff. (Science Express)
18.05. Physik Zwei Qubits lösen Algorithmus Wenn eine Münze auf dem Tisch liegt, sehen wir nur eine ihrer zwei Seiten. Um die andere Seite zu sehen, müssen wir die Münze umdrehen oder von unten betrachten. Doch in der Welt der kleinsten Teilchen, der Quanten, reicht ein „Blick“, um beide Seiten der Münze zu erkennen. Berliner Forscher belegten dies jetzt in einem Experiment, in dem zwei Qubits, die Grundbausteine eines zukünftigen Quantencomputers, auf diese Weise eine unbekannte Funktion ermittelten – durch nur einen Funktionsaufruf. (Physical Review Letters)
30.05.1873 Der deutsche Archäologe Heinrich Schliemann entdeckt die Überreste von Troja 24.05.1543 Der Astronom Nikolaus Kopernikus stirbt
CHRONIK
31.05.1879 Die erste elektrische Lokomotive beginnt ihre Fahrt
31.05.1975 Die Europäische Raumfahrtagentur ESA wird gegründet
18.05. Mikrobiologie „Resozialisierung“ für betrügerische Bakterien Auch bei Bakterien gibt es Betrüger – Stämme, die die Ressourcen anderer ausnutzen, und diesen dabei schaden. Oft geht dies so weit, dass dann die gesamte Population, Kooperative wie Betrüger gleichermaßen, ausstirbt. Nicht so bei Myxococcus xanthus: Diese Mikroben vermehren sich zwar auf Kosten ihrer kooperativeren Verwandten, schalten aber auf eine sozialere Lebensform um, bevor sie ihre eigene Existenz gefährden. Wie Tübinger Entwicklungsbiologen herausfanden, reicht dabei eine einzige Genveränderung aus, um aus den Betrügern einen neuen, „resozialisierten“ Mikrobenstamm werden zu lassen. (Nature)
Fruchtkörper von Myxococcus xanthus © Max-Planck-Institut für Entwicklungsbiologie, Jürgen Berger, Supriya Kadam
19.05. Kognitionswissenschaften Mentale Karte steuert Sozialverhalten Mithilfe der funktionellen Magnetresonanztomografie haben amerikanische Forscher eine Region im Gehirn lokalisiert, in der sich die Bildung von Vertrauen sowie die Unterscheidung zwischen dem eigenen Ich und Anderen manifestieren. Die Untersuchungen enthüllten eine neue Art von mentaler Karte im Gehirn – einem Abbild der sozialen Beziehungen zur Umwelt, das festhält, wer während einer sozialen Interaktion zwischen zwei Partnern die Initiative übernimmt. Die For-
Auch diese Beziehung ist im Gehirn festgehalten. © SXC
33
05 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI scher lokalisierten diese Karte im mittleren Bereich der Hirnrinde, im so genannten cingulaten Kortex, der eine wichtige Rolle für Bindungen und soziale Interaktionen spielt. (Science)
19.05. Genetik
Fluoreszenzmarkierte Hefezellen © CDC
Die Aufnahme zeigt drei Hautzellen, in denen sich das CyldProtein (grün) um die Zellkerne (blau) lagert und verhindert, dass das Onkogen Bcl-3 in diese eindringen kann. Die rote Struktur ist das Zytoskelett der Zellen.© Max-PlanckInstitut für Biochemie
34
Inventur der Proteine Mit modernsten Methoden gelang es Forschern erstmals, den gesamten Bestand an aktiven Proteinen in den Zellorganellen zu einem bestimmten Moment zu erfassen. Sie erhalten damit wesentliche neue Erkenntnisse zum Einsatz von Proteinen in der Zelle. Von den 1.400 verschiedenen Proteinen, die sie den einzelnen Zellorganellen eindeutig zuordnen konnten, kommen rund 40 Prozent auch in anderen Zellorganellen vor. Vergleiche mit Studien an Hefezellen zeigten, dass die Proteine „ihrer“ Zellorganelle im Laufe der Evolution treu geblieben waren, und ihre Lokalisation über Millionen von Jahren der Entwicklung von einfachen Organismen bis hin zu Säugetieren offensichtlich stabil beibehalten haben. Für die Zellbiologie bedeuten diese neuen Forschungsresultate einen Meilenstein. (Cell)
20.05. Zellbiologie Eiweiß hält Krebsgene in Schach Gene können das Wachstum von Tumoren und damit Krebs auslösen. So auch das Onkogen Bcl-3, das beim Menschen unter anderem Leukämie verursacht. Im Tierversuch konnten Wissenschaftler vom Max-Planck-Institut für Biochemie den vermutlich wichtigsten körpereigenen Gegenspieler dieses Tumorgens identifizieren: das Protein Cyld. Zugleich entdeckten sie den zellulären Signalweg, der bei einem Defekt des Cyld-Gens das unkontrollierte Zellwachstum auslöst. Dies könnte neue Wege in der Entwicklung von
spezifischen Tumorsuppressoren eröffnen, in denen das Onkogen Bcl-3 eine wichtige Rolle spielt. (Cell)
24.05. Astronomie Neuer Doppelstern strahlt „anders“ Mithilfe des internationalen MAGIC-Projektes (Major Atmospheric Gamma-ray Imaging Cherenkov) wurde erstmals ein Mikroquasar entdeckt, der seine extrem energiereiche Gammastrahlung nicht gleichmäßig, sondern stark schwankend abgibt. In dem Doppelsternsystem LSI +61 303 umkreisen sich vermutlich ein gewöhnlicher masMikroquasar sereicher Stern sowie (Illustration) © Maxein Neutronenstern Planck-Institut für Physik oder ein Schwarzes Loch. Kommen sich beide ausreichend nahe, wird Materie übertragen und Gravitationsenergie entlang der Rotationsachse in so genannten „Jets“ abgestrahlt. Die nun entdeckten Schwankungen könnten helfen zu verstehen, auf welche Weise die hochenergetische Gammastrahlung in Mikroquasaren und in Jets erzeugt und absorbiert wird. (Science)
25.05. Genetik RNA stellt Vererbung auf den Kopf Die RNA ist weitaus mehr als nur eine kurzlebige Transportform der Erbinformation DNA. Stattdessen kann sie die Expression bestimmter Gene und damit auch die von ihnen kodierten Merkmale beeinflussen. Das zeigte sich in Versuchen an Mäusen, bei denen ein Gendefekt weiße Flecken in den Mäuseschwänzen hervorrief. Wurden diese Mäuse mit normalfarbigen Artgenossen gekreuzt, traten auch bei solchen Nachkommen gefleckte Schwänze auf, die von beiden Elternteilen eine intakte Genversion geerbt hatten.
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B Die Ursache: RNA-Kopien der fehlerhaften Gene wurden über die Spermien weitergegeben und blockierten nach der Befruchtung die Ablesung der intakten Gene des Zellkerns. (Nature)
26.05. Geowissenschaften Urzeitlicher Tsunami traf Schweden Vor 145 Millionen Jahren traf ein Tsunami Schwedens Küsten, der in seiner Heftigkeit die Flutwelle vom Dezember 2004 in Südostasien vermutlich noch übertraf. Spuren dieser urzeitlichen Katastrophe entdeckten schwedische Wissenschaftler in einer 30 Meter mächtigen Sedimentschicht in Schonen, Südschweden. In den gekippten Ablagerungen fanden sie eine Lage mit gehäuften Fossilien von Fischen, Muscheln und Schnecken gemischt mit den üblichen Landpflanzenresten. Als Auslöser des Tsunami gilt ein Meteoriteneinschlag, dessen gewaltiger Krater bereits 1996 am Grund der Barentssee gefunden worden war. (Natural Science)
26.05. Materialforschung Forscher entwickeln Tarnkappe Ein Umhang, der Personen oder sogar Gebäude unsichtbar werden lässt? Bisher gab es das nur im Reich der Märchen und Sagen. Doch nun haben amerikanische Forscher eine solche Tarnkappe entwickelt – zumindest theoretisch. Die Grundlage bilden so genannte Metamaterialien, exotische künstliche Komposite, die mit maßgeDavid R. Smith, einer schneiderten elektroder Entwickler der magnetischen Eigen„Tarnkappe“ schaften angefertigt © Duke University werden können. Der Clou: Licht wird vom Metamaterial so umgeleitet, dass es auf der anderen Seite ankommt, als habe es gerade ei-
CHRONIK
nen leeren Raum passiert. Wenn diese Technik auch in der Praxis funktioniert, könnte sie in der drahtlosen Kommunikation zur Überwindung von Hindernissen eingesetzt werden. (Science)
29.05. Medizin 3D-Blick auf Aidsvirus Hoch auflösende, dreidimensionale Bilder des Aids-Virus könnten die Impfstoffforschung einen großen Schritt voran bringen. Denn erstmals zeigen diese Aufnahmen deutlich die Art und Lage der HIV-1-Proteine an der Oberfläche des Erregers. Diese viralen „Spikes“ bilden das „Hauptwerkzeug“, mit dem das Aids-Virus an seine Wirtszellen bindet und in sie eindringt. Zwar ist die Bedeutung dieser Oberflächenproteine schon länger bekannt, doch erst mithilfe der Kryoelektronen-Mikroskopie-Tomografie konnte nun ihre komplexe Anordnung auf der Oberfläche durch ein Forscherteam der Florida State University aufgedeckt werden. (Nature)
3D Bild der Virenoberfläche mit Hüllproteinen © Kenneth Roux
31.05. Medizin Überlebensprotein für Tuberkulose-Erreger identifiziert Jedes Jahr fordert die Tuberkulose weltweit zwei Millionen Todesopfer, ein Drittel der Weltbevölkerung gilt als infiziert. Nun wurde ein weiterer Ansatzpunkt für die Entwicklung neuer Antibiotika gegen die zunehmend resistenten Stämme des Erregers Mycobacterium tuberculosis gefunden. Mithilfe hochenergetischer Synchrotronstrahlungsquellen erstellten Forscher eine atomare Karte der Struktur des LipB-Proteins. Dieses Protein brauchen die gefährlichen Bakterien, um in den menschlichen Zellen zu überleben. Die Strukturkarte könnte zur Entwicklung eines Wirkstoffes beitragen, der das Protein blockiert und somit das Bakterium abtötet. (PNAS)
Vereinfachte atomare Struktur des Proteins LipB © EMBL
35
06 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI
06
01.06.1831 James Clark Ross entdeckt den magnetischen Nordpol 02.06.1992 Neutrinos erstmals experimentell nachgewiesen
05.06.1981 07.06.1982 AIDS wird als Weltweit erstes 03.06.1492 ImmunschwäAufwindkraftwerk Der Nürnberger che-Krankheit eingeweiht Kaufmann und erkannt Geograf Martin 06.06.1850 Behaim stellt den Der deutsche 10.06.1907 ersten realistischen Physiker Karl Die Gebrüder Lumière Weltglobus vor Ferdinand Braun stellen ein Verfahren für wird geboren Farbfotografien vor
01.06. Ökologie
Präriegras © Trulyfreestock
Artenreiche Ökosysteme sind stabiler Ökosysteme, die viele verschiedene Pflanzenarten enthalten, sind nicht nur produktiver als artenärmere Systeme, sie können auch besser widrigen Bedingungen wie Klimaextremen, Krankheiten und Schädlingen widerstehen. Das ist das Ergebnis einer amerikanischen Langzeitstudie an Präriepflanzen. Sie liefert erstmals genügend Daten, um die 50 Jahre dauernde Debatte, in wieweit Artenvielfalt Ökosysteme stabilisiert oder nicht, zu beenden. (Nature)
01.06. Chemie
Die Struktur der neuartigen Eisenverbindung © Max-Planck-Institut für bioanorganische Chemie, John F. Berry
36
Elektronenklau schafft „armes“ Eisen Wissenschaftler vom Max-Planck-Institut für bioanorganische Chemie haben jetzt eine Verbindung hergestellt, in deren Zentrum ein Eisenatom besonderer Art sitzt: Es hat sechs seiner acht äußeren Elektronen abgegeben – drei bis vier mehr als normalerweise bei diesem Element üblich. Seine Oxidationsstufe, die Zahl der Elektronen, die ein Atom in einer Verbindung an seine Partner abgibt, ist daher ungewöhnlich hoch. In der Leber baut ein Enzym mit einem Eisenkern organischen Müll ab, der sich im Körper gesammelt hat. Biochemiker vermuten, dass das Eisen in seinem Zentrum auch so ungewöhnlich hohe Oxidationsstufen annehmen kann. (Science)
06.06. Archäologie „Hobbit”-Mensch schlau genug für Werkzeuge? Die Entdeckung des Homo florensis, des „Hobbit“-Menschen auf der indonesischen Insel Flores im Jahr 2004, warf die Frage auf, ob es sich hierbei um eine eigenständige Menschenart handelt. Einige Wissenschaftler halten ihn aufgrund seiner geringen Gehirngröße nicht für intelligent genug, um die neben den fossilen Skeletten gefundenen Werkzeuge selber herzustellen. Die Entdeckung weiterer, mehr als 800.000 Jahre alter Werkzeuge auf Flores deuten jetzt aber darauf hin, dass der Homo florensis tatsächlich direkt aus der Frühmenschenart Homo erectus hervorgegangen sein könnte. Die Übereinstimmungen in der Art, wie die Klingen der Feuersteinwerkzeuge gefertigt sind, belegen nach Ansicht der Wissenschaftler, dass es auf der Insel eine eigenständige Tradition von Werkzeugherstellung gab – und das diese vermutlich direkt vom Homo erectus an den Homo florensis weitergegeben worden ist. (Nature)
07.06. Geowissenschaften Einzeller überlebten „Schneeball Erde“ Vor rund 2,3 Milliarden Jahren war die irdische Atmosphäre erstmals sauerstoffreich genug, um höheres Leben zu ermöglichen. Zur gleichen Zeit aber begann eine Eiszeit, die möglicherweise große Teile des Planeten
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 11.06.1910 Geburt des französischen Meeresforschers Jacques Cousteau
19.06.1922 Der spätere PhysikNobelpreisträger Niels Bohr wird geboren
16.06.1963 Die Kosmonautin Valentina Tereshkova ist die erste Frau im Weltall
mit einer bis zu 800 Meter dicken Eisschicht bedeckte. Eine Antwort auf die lange strittige Frage, ob sich Einzeller mit Zellkern vor oder nach dieser Vereisung entwickelten, hat ein australisch-amerikanisches Forscherteam jetzt gefunden. Sie analysierten im Gestein eingeschlossene fossile Öltröpfchen aus der Zeit 50 bis 100 Millionen Jahre vor der Vereisung und fanden tatsächlich Hinweise auf eukaryotische Einzeller. (Geology)
08.06. Paläontologie „Mini-Dinos“ im Harz entdeckt Einen rätselhaften Knochenfund in einem Steinbruch im Harz haben Paläontologen entschlüsselt: Entgegen bisherigen Vermutungen handelt es sich bei den ungewöhnlich kleinen Dinosaurierfossilien nicht um die Überreste von Jungtieren, sondern um ausgewachsene Exemplare – die kleinsten Riesendinosaurier, die je gefunden wurden. Mit einem geschätzten Maximalgewicht von einer Tonne waren sie vermutlich nur knapp ein Fünfzigstel so schwer wie ihre nächsten Verwandten, die Brachiosaurier. (Nature)
22.06.1633 Galileo Galilei widerruft sein heliozentrisches Weltbild vor dem Inquisitionsgericht
26.06.1824 Geburt des Physikers William Thomson, Lord Kelvin 28.06.1939 Start des ersten transatlantischen Linienflugs
dringen und wehrt sie ab. Dieser jetzt entdeckte Mechanismus liefert auch die Erklärung, warum gentechnisch veränderte Bakterien weniger Proteine produzieren als erwartet: Die künstlich eingepflanzten menschlichen Gene werden von den Mikroorganismen offenbar als fremd erkannt und teilweise blockiert. (Science)
29.06.1990 Internationales FCKW-Verbot ab dem Jahr 2000 beschlossen
Fluoreszenz-Aufnahme von Salmonellen © CDC
13.06. Astronomie Planeten im Gleichtakt Wenn zwei Planeten um einen sonnenähnlichen Stern kreisen, sind ihre Bahnen dann besonders stabil, wenn die Umlaufdauer beider im Verhältnis zweier ganzer Zahlen zueinander steht. In den bisher bekannten extrasolaren Planetensystemen treten jedoch Variationen dieser so genannten Resonanz auf, deren Ursachen Astronomen nur teilweise kennen. Ein Faktor dabei sind Wechselwirkungen zwischen den jungen Planeten und der protoplanetaren Staubscheibe, wie sich jetzt gezeigt hat. Dazu gehören beispielsweise Kollisionen mit anderen Objekten oder plötzliche Lücken in der Materiedichte der Scheibe. (Astronomy & Astrophysics)
08.06. Mikrobiologie 19.06. Medizin Bakterien besitzen Immunabwehr Auch Bakterien besitzen ein Immunsystem: Bei Salmonellen erkennt das spezielle Wächterprotein H-NS fremde DNA beim Versuch, die Zellwand der Bakterien zu durch-
CHRONIK
„Proteinklemme“ schützt Tollwutvirus Gegen die Tollwut gibt es bis heute kein Heilmittel. Auslöser der tödlichen Krankheit ist, wie bei Ebola und Masern auch, ein RNA-
Zwei Planeten bewegen sich in einer protoplanetaren Scheibe. © Institut für Astronomie und Astrophysik, Wilhelm Kley
37
06 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIJUNIJULI
Proteinschutzschild des Tollwutvirus © EMBL
Virus, dessen Erbinformation in einer aus nur einem Strang bestehenden RNA steckt. Französische Wissenschaftler haben jetzt ein detailliertes Strukturbild von einem Protein erstellt, dass es dem Virus ermöglicht, in den Zellen zu überleben und sich zu vermehren: Dieses Nucleoprotein umfasst den RNAStrang wie eine „Klemme” und macht ihn so unzugänglich für die angreifenden Enzyme des menschlichen Immunsystems. Um seine Vermehrung zu ermöglichen, muss jedoch die „Klemme“ geöffnet werden, damit das Replikationsenzym ansetzen kann. Gelänge es, dieses Öffnen zu blockieren und die „Proteinklemme“ in permanent geschlossenem Status zu halten, könnte die Replikation des Virus verhindert und so seine Ausbreitung gestoppt werden. (Science)
21.06. Neurobiologie
Elektronenmikroskopische Aufnahme eines photonischen Kristalls aus Polymerkugeln mit 260 Nanometer Durchmesser © TU Chemnitz
Töne als neuronales Mosaik Das Gehirn filtert, was wir hören. Dadurch können wir beispielsweise die Stimme eines Gesprächspartners trotz lauter Umgebung problemlos heraushören. Dem Gehirn gelingt dies, weil einzelne Gruppen seiner Neuronen nur auf bestimmte Frequenzen reagieren. Das zeigte sich, als Neurobiologen eine Frequenzkarte für Bereiche der Hörrinde mithilfe der funktionellen Kernspintomografie erstellten. Einige der neuronalen Felder „feuerten“ dabei nur bei Einzelfrequenzen, andere bei Frequenzgemischen. (PLoS Biology)
21.06. Physik Licht-Computer näher gerückt Das Innenleben von neuartigen Halbleitermaterialien, den so genannten photonischen Kristallen, haben Physiker jetzt erstmals direkt erkundet. Die komplexe dreidimensionale Struktur der lichtleitenden Kristalle verhinderte bisher einen genaueren Einblick.
38
Leuchtende Quantenpunkte dienten den Forschern als eine Art „Mini-Scheinwerfer“ und ermöglichten Aufnahmen der lokalen optischen Eigenschaften. Ihre Kenntnis ist die Voraussetzung für die Entwicklung von zukünftigen optischen Computern und Speichermodulen. (Physical Review Letters)
22.06. Physik Physik erklärt Artensterben Wenn Arten aussterben, geschieht dies oft gleichzeitig selbst in weit verstreuten Populationen. Indische Physiker haben dafür nun eine Erklärung gefunden: Mithilfe der nichtlinearen Dynamik konnten sie zeigen, dass ein externer Faktor – wie beispielsweise das Klima oder ein Räuber – dabei als Synchronisator wirkt. Vergleichbar ist dies mit zwei alten Standuhren mit Pendel, die in synchrone Schläge verfallen, weil winzige, über den Boden übertragene Vibrationen die Pendelschläge des einen zum anderen übertragen. Das erklärt, warum Arten in vorher gehenden Massenaussterben meist gleich global ausgerottet wurden und nährt nicht gerade die Hoffnung von Artenschützern, dass von bedrohten Arten vielleicht einige Gruppen überleben könnten. (Physical Review Letters)
23.06. Klima Südpolarmeer als Kohlenstoffpumpe Was verursachte die Schwankungen des atmosphärischen Kohlendioxids in der Erdgeschichte? Eine überraschende Antwort auf di l di k ti t F td kt Wi
AUGUS UGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B einer der entscheidenden Regulatoren für den irdischen CO2-Haushalt zu sein. Dabei nimmt eine Richtung Süden fließende Meeresströmung das Treibhausgas aus der Luft auf und verfrachtet es für lange Zeit tief in die unteren Meeresschichten. (Nature)
26.06. Zellbiologie Zellkraftwerke ohne Kurzschlüsse Mitochondrien sind die Kraftwerke aller tierischen und menschlichen Zellen. Dafür müssen sie eine sehr große elektrische Spannung aufrechterhalten und Proteinmoleküle mit hohen Ladungsunterschieden transportieren. Deutsche Wissenschaftler fanden nun heraus, dass die innere Mitochondrienmembran Feldstärken von rund 1.000.000 Volt pro Zentimeter aufrechterhalten kann und dadurch elektrische Kurzschlüsse und Lecks verhindert. Diese Ergebnisse erlauben, ein sehr detailliertes Bild über den lebensnotwendigen Import von Proteinen in die Mitochondrien zu gewinnen und beispielsweise zu erklären, unter welchen Bedingungen der programmierte Zelltod eingeleitet wird. (Science)
27.06. Zellbiologie „Kinderstube“ der T-Zellen erneuerbar Der Thymus ist ein kleines, aber sehr wichtiges Organ unseres Immunsystems, denn er reguliert die Ausbildung der T-Zellen. In der Thymusumgebung „lernen“ diese Abwehrzellen unter anderem, zwischen fremden und körpereigenen Eiweißen zu unterscheiden. Ist diese Lernumgebung, das so gee Stroma, defekt oder fehlt sie, können mmunerkrankungen die Folge sein. Form Max-Planck-Institut für Immunbion Freiburg haben herausgefunden, dass ferzellen für das Stroma auch noch im s von Erwachsenen existieren. Mit eipeziellen genetischen Modell konnten
CHRONIK
sie zeigen, dass einzelne Vorläuferzellen auch nach der Geburt die Bildung eines vollständigen Thymus initiieren können. (Nature)
30.06. Astronomie Sternen-Kreißsaal kartiert Eine neue Radiokarte der Andromedagalaxie könnte neue Antworten auf die zentrale Frage der Astronomie liefern: Wie entstehen Sterne? Mehr als 800 Stunden lang beobachtete ein internationales Wissenschaftlerteam mithilfe der Millimeter-Radioastronomie die rund 2,5 Millionen Lichtjahre entfernte Nachbargalaxie. Die Karte zeigt unter anderem die Bewegung von kalten Gaswolken mit Temperaturen von unter minus 220 Grad Celsius, die als Baumaterial für die Entstehung neuer Sterne gelten. (Astronomy & Astrophysics)
Links: Verteilung des kalten Gases in der Andromedagalaxie M 31 als Radiobild, rechts: die Galaxie im sichtbaren Licht. © Nieten et al. (links), Tautenburg Observatorium (rechts)
30.06. Zoologie Wüstenameisen zählen Schritte Die Wüstenameisen der Art Cataglyphis fortis sind nicht nur schnell, sie haben auch ein extrem effektives Navigationssystem. Zur Orientierung im Gelände benutzen sie einerseits einen inneren Kompass, der anhand der für uns unsichtbaren Polarisationsmuster am Himmel die Richtung bestimmt. Zusätzlich aber misst Cataglyphis die Länge der zurückgelegten Strecke, indem sie die durchgeführten Schritte zählt. Die Wissenschaftler veränderten operativ die Beinlänge der Ameisen vor dem Zurücklaufen von einer Futterstelle zum Nest. Die Folge war, dass die derart manipulierten Tiere die Distanz über- beziehungsweise unterschätzten – und zwar genau um den Betrag, um den sich ihre Schrittlänge durch die Beinverkürzung verändert hatte. Als nächstes wollen die Autoren untersuchen, wie die Schrittzahl sinnesphysiologisch gemessen und neurophysiologisch verrechnet wird. (Science)
Navigationskünstler Wüstenameise © Universität Zürich
39
07 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
07
04.07.2005 06.07.1988 NASA-Sonde Deep 14.07.1965 01.07.1646 Explosion und Brand „Mariner 4“ Geburt des Philo- Impact beobachtet 11.07.1979 zerstören Ölbohrinsendet erste sophen und Uni- Aufschlag eines Absturz der ersten sel Piper Alpha in der Projektils auf dem genaue Bilder versalgelehrten amerikanischen Nordsee vom Mars Gottfried Wilhelm Kometen Tempel 1 Raumstation „Skylab“ Leibniz 10.07.1976 05.07.1996 02.07.1906 Größter Chemieunfall Klonschaf „Dolly“ Der Atomphysi12.07.1776 Europas in Seveso wird in Schottland ker und NobelpreisJames Cook auf letzter geboren träger Hans Bethe Entdeckungsfahrt wird geboren
04.07. Pflanzenforschung
Der grüne Blattfarbstoff Chlorophyll ist der Hauptakteur der Photosynthese.© IMSI MasterClips
Überraschung für Photosynthese-Forscher Die ersten Schritte der pflanzlichen Photosynthese – jener elementaren Reaktion, bei der mithilfe des Blattgrüns Chlorophyll aus Kohlendioxid, Sonnenlicht und Wasser Sauerstoff und der Glucose entstehen – laufen anders ab als bisher angenommen. Wie Bochumer Wissenschaftler zusammen mit ihren Kollegen vom Max-Planck-Institut für bioanorganische Chemie herausgefunden haben, wird der erste Reaktionsschritt im Zentrum des Photosystems II, die Wasserspaltung, nicht von einem Molekülpaar eingeleitet, sondern von einem einzelnen Chlorophyll, welches nach bisheriger Überzeugung gar nicht dafür eingeplant war. Damit haben die Wissenschaftler endlich auch eine Erklärung für die Fähigkeit des Photosystems II, sehr energieaufwändige chemische Oxidationen durchführen zu können, da die Oxidationskraft eines einzelnen Chlorophyllmoleküls größer ist als die eines Paares. (PNAS)
05.07. Chemie
Getreide als Rohstoff für Kunststoff? © USDA
40
Kunststoff aus Getreide? Aus dem Zucker von Apfelsaft oder Getreide Kunststoffe herzustellen, das haben jetzt Wissenschaftler der Universität von Wisconsin erfolgreich versucht. Sie entwickelten eine neue chemische Methode, mit der sie Fruktose in 5-Hydroxymethylfurfural (HMF)
umwandeln können. Dieses lässt sich für die Kunststoffproduktion nutzen und könnte beispielsweise Polyethylenterephthalat (PET) ersetzen. In einem nächsten Schritt soll eine erste Pilotanlage zur preiswerten industriellen HMF-Herstellung entstehen. Die Chemiker wollen aber auch Verfahren entwickeln, um andere Zucker in HMF umzusetzen. (Science)
05.07. Neurobiologie Neue Drähte im Gehirn Das Gehirn eines Erwachsenen ist vermutlich viel regenerationsfähiger als bisher angenommen. Wie Wissenschaftler im Tierversuch zeigen konnten, kommt es nach Schädigungen der Netzhaut innerhalb von einem Jahr zu einer weit reichenden Umorganisation der Sehrinde. Dabei werden nach und nach die „erblindeten“ Gehirnzellen mit anderen, gesunden Bereichen der Netzhaut „verdrahtet“ und so wieder aktiviert. Diese „Neuverdrahtung“ belegt eine erstaunliche Plastizität des erwachsenen Gehirns gegenüber bestimmten Ausfällen. (PNAS)
05.07. Medizin Minikapseln mit „Sesam-Öffne-Dich“Funktion Wie „schmuggelt“ man Wirkstoffe in Krebszellen hinein und setzt sie dann gezielt frei? Der Lösung dieses Problems sind deut-
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER 16.07.1945 Weltweit erste Atombombe gezündet
20.07.1976 Raumsonde Viking I landet auf dem Mars und sendet erste Farbbilder
18.07.1966 Start der amerikanischen Weltraummission Gemini 10
21.07.1970 Vollendung des Assuan-Staudamms in Ägypten
sche Wissenschaftler jetzt einen Schritt näher gekommen: Sie verpackten eine Substanz in winzige Kapseln, deren Wände aus mehreren Schichten geladener Polymere bestanden und die so die Zellwand der Tumorzellen ungehindert passieren konnten. Zusätzlich rüsteten die Forscher die Kapseln mit einer Art „Sesam-Öffne-Dich“ aus, indem sie geladene Metallteilchen unter die Wandmoleküle mischten. SoMikrokapseln in einer Zelle vor (a) und nach bald die Tumorzel(b) Laserbelichtung. len die Mikrokapseln Pfeil: Fokus des Lasers. © MPI für Kolloid- und aufgenommen hatGrenzflächenforschung ten, wurden sie mit einem Infrarotlaser bestrahlt. Die Metallionen gaben dabei die Wärme des Lichts an ihre Umgebung weiter und heizten so die Kapselwände auf. Dadurch brachen die Bindungen zwischen den Polymeren der Hülle und die Kapseln rissen auf – quasi wie auf Kommando. Eine Steuerung, die die Minikapseln gezielt zu den kranken Organen bringt, fehlt bisher noch. (Angewandte Chemie)
10.07. Paläontologie Genvariante machte Mammuts blond Mithilfe einer neuen Technik ist es Wissenschaftlern vom Max-Planck-Institut für evolutionäre Anthropologie erstmals gelungen, ein komplettes Mammut-Gen aus einer Vielzahl kleiner DNA-Bruchstücke zu re-
28.07.1976 Das folgenschwerste Erdbeben des 20. Jahrhunderts fordert in China 242.000 24.07.1911 Todesopfer Hiram Bingham 29.7.1958 entdeckt in Peru die Gründung der USInkastadt Machu Weltraumbehörde Picchu NASA
22.07.1925 Patentanmeldung zur Gewinnung von Benzin aus Kohle
konstruieren. Die Bruchstücke hatten die Paläogenetiker aus den Knochen eines vor ungefähr 43.000 Jahren gestorbenen Tieres isoliert. Bei der anschließenden Sequenzierung und Analyse des Erbguts fanden sie heraus, dass Mammuts, in denen dieses Gen verändert war, sehr wahrscheinlich ein blondes Fell hatten. Funde blonder Mammuthaare im sibirischen Permafrostgebiet unterstützen diese Vermutung. Möglicherweise haben sich die Mammuts mit ihrer hellen Fellfarbe an die Bedingungen der Eiszeit angepasst. (Science)
CHRONIK
30.07.1971 Apollo-15 landet auf dem Mond
Links: blonde Mammuthaare, rechts: normal gefärbte Haare © Staatliches Naturhistorisches Museum Braunschweig, Ulrich Joger
12.07. Palöontologie Dinos waren „heißblütig“ Forscher haben wichtige offene Fragen über den Stoffwechsel der Dinosaurier geklärt. Danach waren die Riesenechsen zwar wie die heutigen Reptilien wechselwarm, aber ihre Körpertemperatur lag trotzdem nahe an oder sogar über den Werten der heutigen Säugetiere. Wahrscheinlich sorgte die gewaltige Körpermasse dafür, dass Wärme nur langsam nach außen abgegeben wurde und sich der Körperkern stark aufheizte. Besonders „heißblütig“ war offenbar der rund 5,4 Tonnen schwere Sauroposeidon proteles mit rund 48°C. Für den Tyrannosaurus rex errechneten die Wissenschaftler immerhin Werte von circa 33°C. Die Ergebnisse deuten darauf hin, dass die Dinosaurier im Verhältnis zu ihrer extremen Größe doch sehr aktiv gewesen sein müssen. (PLoS Biology)
Triceratops: Eine höhere Körpertemperatur verhalf ihm zu einem aktiven Leben. © MMCD
41
07 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI 13.07. Klima
Bis zu einem gewissen Grad kann sich die Atmosphäre selbst von Luftverschmutzung reinigen. © IMSI MasterClips
Sonne steuert Waschkraft der Atmosphäre Die Atmosphäre steuert ihre Selbstreinigung erheblich effizienter als bisher angenommen. Dabei bestimmt überraschenderweise die Intensität der Sonneneinstrahlung und nicht die Schadstoffmenge, wie viel „Waschmittel“ in Form des Hydroxyl-Radikals (OH-Radikal) in der Schutzhülle der Erde vorhanden ist. Das hochreaktive Molekül startet den Abbau der meisten gefährlichen Substanzen und wird dabei auch selbst verbraucht. Deutsche Wissenschaftler fanden in einer Langzeitstudie keinen Hinweis darauf, dass die Menge des OH-Radikals insgesamt abnimmt und die Atmosphäre die global steigende Luftverschmutzung daher nicht mehr verkraftet. (Nature)
14.07. Neurobiologie
Sandlawinen sind die Ursache für das „Singen“ mancher Dünen. © IMSI MasterClips
Gedankenkraft steuert Bewegungen Durch die Implantation eines winzigen Sensors direkt in das Gehirn haben Wissenschaftler einem Gelähmten zu völlig neuer Autonomie verholfen: Der Patient kann jetzt nur durch seine Gedanken einen Cursor auf dem Bildschirm steuern oder mit einem Roboterarm Gegenstände erreichen. Wie die Studie zeigte, ist das Abgreifen von neuronalen Signalen direkt im Gehirn mithilfe der in diesem Fall verwendeten neuromotorischen Prothese (NMP) deutlich effektiver als bisher eingesetzte, nicht-invasive Verfahren, bei denen Nervenreize nur von außen über die Kopfhaut registriert werden. (Nature)
18.07. Geowissenschaften Geheimnis der singenden Dünen gelüftet Schon vor vielen Jahrhunderten berichteten Weltreisende wie Marco Polo von Sandbergen, denen der Wind laute Geräusche ent-
42
lockte. Jetzt ist ein internationales Wissenschaftlerteam den Ursachen für die rätselhaften singenden Dünen auf den Grund gegangen: Danach bringen synchronisierte Bewegungen von Sandlawinen einer bestimmten Größe und Geschwindigkeit die Töne hervor und nicht – wie eine bisher lang gehegte Theorie behauptete – Vibrationen der gesamten Dünen. (Physical Review Letters)
20.07. Ökologie Biodiversitäts-Forscher warnen vor globaler Krise Mit der Warnung, dass sich die Erde am „Rande einer großen Biodiversitäts-Krise“ befindet, haben 19 der renommiertesten Forscher dieses Fachgebiets zu einer global koordinierten Aktion gegen das Artensterben aufgerufen. In ihrer Deklaration fordern sie, die Kluft zwischen der biologischen Forschung und dem politischen Handeln so schnell wie möglich zu schließen und schlagen deshalb die Einrichtung eines internationalen Gremiums vor. In den kommenden 18 Monaten wollen die Wissenschaftler gemeinsam Vorschläge ausarbeiten, wie ein solches „Kontrollorgan“ aussehen könnte. (Nature)
20.07. Materialforschung Graphit jetzt „scheibchenweise“ Graphit besteht aus einzelnen Kohlenstoffschichten mit starken chemischen Bindungen innerhalb der einzelnen Schichten, aber nur schwachen Bindungen zwischen ihnen. Die Einzelschicht – das Graphen – gilt als viel versprechendes Material für die Zukunft. Doch bisher war die Herstellung der hauchdünnen, nur ein Atom dicken Schichten aus Graphit extrem schwierig. Ein amerikanisches Wissenschaftler-Team hat nun eine Methode entwickelt, um das Ausgangsmaterial Graphit auf chemischem Wege in einzelne
AUGUSTSEPTEMBEROKTOBERRNOVEMBERDEZEMBER Kohlenstoffschichten aufzuspalten. In ein Trägermaterial, wie beispielsweise ein Polymer, eingebettet, könnte aus ihnen so eine neue Klasse von Kompositmaterialien entstehen, die „graphenbasierten Materialien“. (Nature)
24.07. Physik Spin-Signale von Elektronen erstmals nutzbar In Halbleitern, wie sie heute in Computern eingesetzt werden, bildet der Fluss von Elektronen die Basis aller Funktionen. Doch auch bloße Eigenschaften von Elektronen, wie die als „Spin“ bezeichnete Eigendrehung, können im Halbleiter weitergegeben werden, ohne dass das Elektron selbst seine Position verändert. Physiker der Universität Elektronenspin Bochum haben erst© MMCD mals die Voraussetzungen dafür geschaffen, dass die Spinausrichtung der Elektronen gezielt manipulierbar wird und lange genug anhält, damit sie künftig in Bauelementen wie Transistoren zusätzlich zur Ladungseigenschaft technisch verwertet werden können. (Science)
25.07. Zellbiologie Wie Moleküle „auf Reisen“ gehen Moleküle werden meist über spezielle Kanäle oder Poren durch die Zellmembranen geschleust. Unklar war bislang, ob die Molekülbindungsstellen im Kanal den Transport unterstützen oder behindern. In einem einfachen theoretischen Modell konnte nun gezeigt werden, dass die anziehenden Kräfte einer „Andockstelle“ die Wanderung der Moleküle verstärken – aber nur bis zu einer gewissen Schwelle. Werden die Kräfte größer, wirken sie als Hindernis. Auf diese Weise wird der Stofftransport durch die Membranen steuer-
CHRONIK
bar. Das Modell verbessert nicht nur das Verständnis von Vorgängen in der Zelle, sondern könnte auch für die Nanotechnologie eine Rolle spielen. So ist vorstellbar, dass sich die „Drehzahl“ molekularer Motoren über die Stärke von Bindungsstellen steuern lässt. (PNAS)
27.07. Astronomie Regen auf Titan entdeckt Der Saturnmond Titan besitzt nicht nur eine der Urerde ähnliche Stickstoffatmosphäre, sondern es fällt sogar Regen aus seinen Wolken. Im Gegensatz zur Erde besteht dieser Niederschlag allerdings aus Methan und nicht aus Wasser. Dies hat ein internationales Forscherteam bei der Auswertung von Messdaten der europäischen Sonde Huygens entdeckt. Der Nieselregen erreicht sogar die Oberfläche des Saturntrabanten und speist dort vermutlich Flüsse und Seen. Damit konnte erstmals ein geschlossener „hydrologischer“ Kreislauf auf dem Titan nachgewiesen werden. (Nature)
Landung der Sonde Huygens auf dem Titan (Künstlerische Darstellung) © ESA, D. Ducros
27.07. Astronomie Heiße Pulsar-Pole enträtselt Pulsare gleichen Leuchttürmen, die mithilfe von komplexen Prozessen elektromagnetische Strahlung erzeugen. Wie diese kosmischen Kraftwerke aber funktionieren, war lange Zeit ein Rätsel. Zumindest eine Teilantwort haben nun deutsche Forscher mithilfe des Röntgenobservatoriums XMM-Newton entdeckt. Demnach stammt die Energie für die Entstehung der Millionen Grad heißen Polkappen jüngerer Pulsare überwiegend aus dem Innern der Sterne. Bisher hatte man angenommen, dass die Pulsar-Pole ausschließlich durch ein Bombardement hochenergetischer, geladener Teilchen aus der Magnetosphäre aufgeheizt werden. (Astrophysical Journal)
Leuchtende Magnetosphäre eines Pulsars © MPI für extraterrestrische Physik
43
08 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI
08
03.08.1787 Eine Vermessung etabliert den Mont Blanc als höchsten Berg Europas 01.08.1744 Naturforscher Jean Baptiste de Monet Lamarck wird geboren
05.08.1963 Abkommen über den Stopp oberirdischer Atomwaffenversuche
01.08. Evolution
Embryo eines Katzenhais © University of Florida
Was haben Haiflossen und Beine gemeinsam? Ein wichtiger Schritt in der Evolution der Tiere war vor Jahrmillionen die Entstehung der paarigen Flossen und später der Beine. Denn sie ermöglichten ganz neue Arten der Bewegung. Jetzt haben Wissenschaftler nachgewiesen, dass die paarigen Extremitäten und die bei primitiven Wirbeltieren vorkommenden Mittelflossen mithilfe des gleichen entwicklungsphysiologischen Programms entstehen. Erstmals wird damit die seit dem 19. Jahrhundert postulierte, aber bisher nie belegte Hypothese unterstützt, dass alle Flossen und Beine aus diesen Mittelflossen hervorgegangen sind. (Nature)
02.08. Geowissenschaften
Untersuchung einer Sedimentprobe von einem hydrothermalen Schlot © University of Florida, Kristen Bartlett
08.08.2001 Das cholesterinsenkende Mittel Lipobay wird nach Todesfällen vom Markt genommen 09.08.1945 USA wirft 08.08.1709 Atombombe Erster flugfähiger über Nagasaki Heißluftballon startet ab
07.08.1912 Der Physiker Victor Franz Hess entdeckt die kosmische Strahlung
Mittelmeer-„Geysir“ spuckt australisches Blei Am unterseeischen Marsili-Vulkan im Mittelmeer haben amerikanische Forscher deutliche Belege für von Menschen gemachte Umweltveränderungen gefunden. In Sedimentproben entdeckten sie ungewöhnlich hohe Bleigehalte, die nach massenspektrometrischen Untersuchungen nicht aus europäischen Quellen stammen konnten. Stattdessen wies das Blei ähnliche Isotopen-Signaturen auf, wie das einer australischen Mine. Vermutlich wurde das Metall in Australien ab-
gebaut, mit dem Schiff nach Europa gebracht und dort als Benzin-Beimischung eingesetzt. Nach der Verbrennung im Automotor gelangte es über die Luft ins Meerwasser und von dort schließlich zum hydrothermalen Schlot. (Marine Geology)
03.08. Nanotechnologie Ein Schalter für Nanoröhrchen Die elektrische Leitfähigkeit von Kohlenstoff-Nanoröhrchen lässt sich offenbar über einen großen Bereich chemisch manipulieren. Amerikanische Forscher legten in einem Experiment eine elektrische Spannung an die ein solches Röhrchen umgebende Flüssigkeit an und lösten dadurch gezielt Redoxreaktionen aus. Diese Reaktionen veränderten den Elektronengehalt des Röhrchens und damit auch seine Leitfähigkeit. Da nach Ansicht der Forscher auch Biomoleküle solche Reaktionen auslösen könnten, sind biomedizinische Anwendungen, beispielsweise in Form von winzigen Sensoren, denkbar. (Physical Review Letters)
04.08. Zellbiologie Reißverschluss für Zellmembranen Um Informationen von einer Nervenzelle zur anderen weiterzugeben, werden an den Kontaktstellen zwischen den Zellen, den Synapsen, nach
Ein Vesikel dockt an der Membran der Nervenzelle an. © Max-Planck-Institut für biophysikalische Chemie
44
AUGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B 16.08.1809 Gründung der HumboldtUniversität in Berlin 12.08.1887 Der Physiker Erwin Schrödinger wird geboren 15.08.1914 Panamakanal eröffnet
17.08.1978 Erste Atlantiküberquerung im Heißluftballon
Einlaufen eines Signals innerhalb von Millisekunden Botenstoffe aus winzigen membranumhüllten Vesikeln ausgeschüttet. Dabei verschmelzen diese Bläschen mit der synaptischen Membran. Noch nicht endgültig geklärt war, warum dieser Prozess so schnell ablaufen kann. Wissenschaftler haben jetzt Belege dafür gefunden, dass sich Proteine auf der Vesikelhülle und auf der Nervenzellmembran wie eine Art biochemischer Reißverschluss miteinander verzahnen. Dasselbe Prinzip könnte auch bei anderen Membranfusionen wirksam sein. (Science)
15.08. Physik Silberatom „mutiert“ zum Transistor Elektronische Bauteile werden immer kleiner. Einen Meilenstein in dieser Entwicklung setzten nun deutsche Forscher, denn sie entwickelten den weltweit ersten atomaren Transistor. Ein Silberatom übernimmt dabei die Funktion des Schalters: Auf zwei Metallelektroden, zwischen denen eine winzige Lücke existiert, wird so lange Silber abgeschieden, bis ein einzelnes Silberatom die beiden Pole verbindet. Dadurch wird der Stromkreis geschlossen und Strom fließt. Wird dieses Atom hin- und her geklappt, ist der Stromkreis entweder geöffnet oder geschlossen. Dieser neue Ansatz in der Transistorentwicklung bietet neue Perspektiven für die atomare Elektronik und maßgeschneiderte quantenelektronische Systeme. (Universität Karlsruhe)
18.08.1932 Der Physiker Auguste Piccard unternimmt den ersten Messflug in die Stratosphäre
24.08.79 Ein Ausbruch des Vesuv begräbt die Stadt Pompeji 25.08.1768 James Cook geht auf seine erste Weltreise
CHRONIK
27.08.1976 Herstellung des ersten künstlichen Gens als Kopie einer natürlichen Vorlage
17.08. Astronomie Blick in die Kinderstube des Universums gelungen Große Scheibengalaxien, die unserer Milchstraße ähneln und sich in vergleichsweise kurzer Zeit nach dem Urknall bildeten, hat ein internationales Astronomenteam entdeckt. Mithilfe des neuartigen Infrarot-Spektrometers SINFONI studierten sie am Very Large Telescope der Europäischen Südsternwarte die Anatomie einer dieser Galaxien mit einer Rekordauflösung. Dabei entstanden zum ersten Mal detailreiche Bilder der Gasbewegungen in einem elf Milliarden Lichtjahre entfernten Sternsystem. Die neuen Erkenntnisse könnten die Theorie der Galaxienbildung und -entwicklung weiter verbessern. (Nature)
Wasserstoff-Emission der rund elf Milliarden Lichtjahre entfernten Galaxie BzK-15504 © ESO, Genzel et. al.
18.08. Sozialwissenschaften USA bald „Darwin–freie Zone”? Ein Drittel aller Amerikaner glaubt nicht an die Evolution. Dies haben repräsentative Umfragen eines internationalen Forscherteams ergeben. In europäischen Ländern und Japan akzeptieren dagegen rund 80 Prozent die wissenschaftlich etablierte Evolutionstheorie als Erklärung für die Entstehung und Entwicklung des Lebens. Grund für die DarwinSkepsis der Amerikaner sind unter anderem der große Einfluss fundamentalistisch-christlicher Strömungen und mangelndes Wissen über genetische Grundlagen. (Science)
45
08 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI 21.08. Ökologie
Süßwasserfisch Prochilodus mariae © Brad Taylor
Schon eine Art macht den Unterschied Schon das Verschwinden einer einzigen Art kann empfindliche Störungen in einem Süßwasser-Ökosystem verursachen. Ökologen entfernten eine Fischart aus einem Flussabschnitt, die sich von organischen Abfällen ernährt und daher eine wichtige Rolle beim Abbau und Transport von Kohlenstoffverbindungen spielt. Dieser Eingriff veränderte den Kohlenstofffluss, ein wichtiges Maß für die Funktionsfähigkeit eines Ökosystems, erheblich. Ohne den Fisch sammelte sich der organische Kohlenstoff flussaufwärts und wurde dort von Bakterien abgebaut. Flussabwärts stand damit den Lebewesen kaum noch etwas davon zur Verfügung. Die neuen Ergebnisse widersprechen bisherigen Annahmen, nach denen andere Arten die Nische einer fehlenden Spezies schnell besetzen und diese somit ersetzen können. (Science)
23.08. Medizin
HI-Viren verlassen eine infizierte Körperzelle © CDC
46
HIV legt Schalter in T-Killerzellen um Einem grundlegenden Rätsel der AidsEpidemie könnte ein internationales Forscherteam auf die Spur gekommen sein. Danach ist ein molekularer Schalter in den T-Zellen dafür verantwortlich, dass das Immunsystem es nicht schafft, die HIV-Infektion zu kontrollieren. Das HI-Virus stellt diesen Schalter einfach auf „Aus“ und legt so die Abwehrzellen lahm. Bei Versuchen an Mäusen zeigte sich, dass die chronische Infektion die T-Zellen aktiv hemmt, indem sie das Zelltodprogramm PD-1 („Programmed Death-1“) aktiviert. In Laborversuchen konnten die Wissenschaftler den PD-1 Stoffwechselweg blockieren und so die deaktivierten T-Zellen wieder funktionstüchtig machen. Die Frage ist nun, ob man diesen Stoffwechselweg bei HIV-Infizierten gezielt manipulieren kann, um die
T-Zellen wieder anzuschalten, die für die Bekämpfung der HIV-Infektion entscheidend sind. Wirkstoffe um PD-1 zu blockieren sind bereits für die Krebstherapie entwickelt worden. (Nature)
23.08. Astronomie Abschied von Planet Pluto Unser Sonnensystem besteht ab jetzt nur noch aus acht Planeten: Denn Pluto wurde dieser Status auf der Vollversammlung der Internationalen Astronomischen Union aberkannt. Nach der dort erstmals festgelegten wissenschaftlichen Definition des Begriffs Planet zählt er nun, wie der Asteroid Ceres, zu den so genannten Zwergplaneten. „Echte“ Planeten dagegen sind nur die Himmelskörper, die in einer kreisnahen Bahn ein Zentralgestirn umrunden und ausreichend Masse haben, um durch ihre eigene Schwerkraft eine annähernd kugelförmige Gestalt anzunehmen. Darüber hinaus müssen sie während der Entwicklung unseres Sonnensystems ihre Umgebung von anderem kosmischen Material frei geräumt haben. Letzteres trifft auf Pluto, der jetzt „134340 Pluto“ heißt, nicht zu. (DLR)
29.08. Sozialwissenschaften Zu viele Männer sind nicht gut für die Gesellschaft Haben Gesellschaften einen deutlichen Männerüberschuss, kann dies nach neuen Erkenntnissen von Sozialwissenschaftlern zu schwerwiegenden Problemen führen. So werden unverheiratete Männer in Ländern wie Indien oder China, wo der Status stark von Ehe und Familie abhängt, schnell zu Außenseitern. Sie reagieren dann häufig mit Gewalt und erleben einen sozialen Abstieg. Nehmen unsoziale Verhaltensweisen überhand, können dadurch sogar Sicherheit und Stabilität
AUGUSTSEPTEMBER B OKTOBER OB RNOVEMBER O B DEZEMBER B der gesamten Gesellschaft ins Wanken geraten. (PNAS)
30.08. Paläontologie Vogel fraß Frühmensch Große Greifvögel könnten vor einigen Millionen Jahren Jagd auf die ersten Frühmenschen gemacht haben. Darauf deutet ein Vergleich von Affenschädeln aus den Nestern heutiger afrikanischer Kronenadler mit den fossilen Knochen des „Kinds von Taung“ hin. Diese sterblichen Überreste eines Australopithecus africanus wurden 1924 in einer südafrikanischen Höhle gefunden. Beide Funde zeigen dieselben eindeutigen Schnabel- und Krallenspuren. Anthropologen hatten für die Löcher und Kratzer im Schädel des Urmenschen bisher Raubtierattacken verantwortlich gemacht. Die Ergebnisse legen nahe, dass Greifvögel somit ein Selektionsfaktor in der Primatenevolution gewesen sind. (American Journal of Physical Anthropology)
31.08. Neurobiologie Forscher löschen Erinnerungen Das Molekül Proteinkinase M zeta ist der entscheidende Akteur bei der Speicherung von Langzeiterinnerungen. Dies haben amerikanische Forscher im Tierversuch entdeckt. Das Enzym verstärkt die synaptischen Verbindungen zwischen Nervenzellen im Hippocampus, einer der Hauptschaltstellen des Gehirns. Eine Blockade von Proteinkinase M zeta führte bei Ratten zum Verlust von Erinnerungen, die für einen Tag oder sogar einen Monat gespeichert worden waren. Die neuen Erkenntnisse könnten bei der Behandlung von Phantom- und anderen Nervenschmerzen helfen, die auf überstark ausgeprägte synaptische Verbindungen zurückzuführen sind. (Science)
CHRONIK
31.08. Ökologie „Stress and the City“ – Stadtvögel bleiben cool Wirbeltiere reagieren auf ungünstige Umweltbedingungen mit einer akuten, durch schnelle Hormonausschüttung gekennzeichneten Stress-Antwort. Unter anhaltendem Stress können chronisch erhöhte Stresshormone jedoch erhebliche gesundheitliche Folgen haben. Ökologen sind daher der Frage nachgegangen, ob Stadtamseln unter den negativen Folgen des sehr stressreichen Stadtlebens leiden oder ihre Reaktion angepasst haben. Tatsächlich zeigen Stadtamseln eine geringere hormonelle Antwort auf akuten Stress als waldlebende Amseln. Diese Ergebnisse belegen erstmals, dass das Stadtleben verhaltensphysiologische Mechanismen in Wildtieren deutlich verändert. Die Anpassung ist vermutlich genetisch bedingt und das Ergebnis der extremen Selektionsfaktoren in der Stadt. Einen Vorteil haben dabei die Individuen, die besser mit den „urbanen Stressfaktoren“ zurechtkommen. (Ecology)
Flügges Amsel-Junge © MPI für Ornithologie, Ingo Teich
31.08. Astronomie Todeskampf im Weltall Zum ersten Mal haben Astronomen in Echtzeit beobachtet, wie ein Stern in rund 440 Millionen Lichtjahren Entfernung zu einer Supernova wurde. Die gewaltige Explosion, die das Ende seines Lebenszyklus markiert, überstrahlte kurzzeitig sogar eine ganze Galaxie und löste einen Gammastrahlenausbruch aus. Das NASA Weltraumobservatorium Swift fing mit seinen Teleskopen die verschiedenen Stadien des stellaren Todeskampfes ein. Die Beobachtungen geben nicht nur Aufschluss über die frühe Entwicklung einer Supernova, sie zeigen auch, wie sich das bei der Explosion ausgeschleuderte Material über die nächsten Tage und Wochen entwickelt. (Nature)
Modell einer Supernova © NASA, Dana Berry
47
09 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI
09
01.09.1985 Entdeckung des Titanic-Wracks vor Neufundland
04.09.1837 Samuel Morse stellt seinen elektromagnetischen Schreibtelegrafen vor
04.09.1802 Georg Friedrich Grotefend entschlüsselt die altpersische Keilschrift
08.09.1907 Papst Pius X. erlässt eine Enzyklika, in der er die moderne Wissenschaft verurteilt
01.09. Zellbiologie
Escherichia coli -1 Darmbakterien © CDC, Janice Carr
Helicobacter pylori (rötlich) infiziert Magenschleinhautzellen. © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
48
08.09.1522 Ende der ersten Weltumsegelung und damit Beweis für die Kugelform der Erde
Bakterien mit „Quetschpumpe“ gegen Antibiotika Viele Bakterien „wehren“ sich gegen Antibiotika, indem sie sie einfach aus ihren Zellen pumpen. Bisher war die Medizin dagegen machtlos. Jetzt haben Wissenschaftler den Bauplan einer solchen Pumpe aufgedeckt. Sie besteht aus einem Tunnelsystem, das zuerst nur an der zum Zellinneren gerichteten Seite geöffnet ist, um das Antibiotikum aus der Zelle zu fischen. Ist die Substanz im Tunnel gefangen, schließt sich die „Pforte“ und gleichzeitig öffnet sich der Kanal an der Außenseite der Zelle. Anschließend wird das Antibiotikum mithilfe der Peristaltik nach außen „gequetscht“. Die neuen Erkenntnisse könnten zur Entwicklung eines Hemmstoffs führen, der solche Pumpen blockiert und damit die Bildung von Antibiotika-Resistenzen verhindert. (Science)
06.09. Medizin Cholesterin hält Magen fit Das Magenschleimhautentzündungen und Magenkrebs auslösende Bakterium Helicobacter pylori benötigt Cholesterin für seinen Stoffwechsel – es kann den Stoff allerdings nicht selbst herstellen und saugt ihn deshalb aus den Membranen der Magenschleimhautzellen, wandelt den größten Teil leicht ab und baut die so veränderte Form
12.09.1909 Patentierung des ersten künstlichen Kautschuks 11.09.1822 Die katholische Kirche erkennt das heliozentrische Weltbild des Kopernikus an
in seine Zellhülle ein. Doch ein Zuviel dieser Substanz kann der Mikrobe auch schaden, wie jetzt deutsche Wissenschaftler herausfanden. Denn das Lipid macht die Bakterien sensibel gegenüber der körpereigenen Abwehr: So lässt ein Cholesterinüberschuss die so genannten Antigen präsentierenden Zellen besonders gut arbeiten. Diese nehmen den Erreger auf und präsentieren Teile von ihm auf ihrer Oberfläche. Auf diese Weise alarmieren sie T-Zellen, die eine spezifische Immunantwort gegen den Erreger einleiten. Wie genau Cholesterin jedoch die Antigen präsentierenden Zellen stimuliert, ist noch unklar. (Nature Medicine)
06.09. Nanotechnologie Nanoschalter aus Blattgrün Im Zuge der Miniaturisierung von Bauteilen müssen auch die Schalter immer kleiner werden. Jetzt haben Nanowissenschaftler einen nur molekülgroßen, komplexen biologischen Schalter aus dem grünen Farbstoff Chlorophyll erzeugt. Dafür injizierten sie ein einzelnes Elektron in das Molekül und manipulierten es so, dass es vier verschiedene Zustände einnahm. Das Chlorophyll verformte sich dabei von gerade zu gekrümmt in unterschiedlicher Geschwindigkeit. Die Studie ist für die Grundlagenforschung von Bedeutung, da die Konfiguration der Moleküle und Proteine wichtige biologische Prozesse reguliert. Gleichzeitig aber zeigt sie auch neue Schritte
AUGUS UGUSTSEPTEMBEROKTOBER OB RNOVEMBER O B DEZEMBER B 14.09.1769 Alexander von Humboldt wird geboren
14.09.1990 Erste erfolgreiche Gentherapie bei Erbkrankheit
14.09.1929 Die erste „Eiserne Lunge“ wird vorgestellt
23.09.1846 Der Astronom Gottfried Galle entdeckt den Planeten Neptun
16.09.1736 Todestag von Daniel Fahrenheit, dem Erfinder des QuecksilberThermometers
auf für die Erzeugung von logischen Schaltkreisen oder mechanischen Schaltern im Nanomaßstab. (PNAS)
07.09. Kognitionsforschung Wie dachten unsere Vorfahren? Wie verstanden unsere Urahnen ihre Welt? Welche Strategien benutzten sie zum Beispiel, um Nahrung wieder zu finden? Merkten sie sich den Standort oder nutzten sie die Merkmale eines Objekts? In Verhaltensexperimenten konnten Max-Planck-Wissenschaftler zeigen, dass alle vier Menschenaffenarten und einjährige Menschenkinder den Ort als Hinweis bevorzugten, um Verstecktes wieder zu finden. Offenbar ist diese Präferenz schon seit 15 Millionen Jahren Bestandteil unserer kognitiven Struktur. Dreijährige Kinder dagegen merkten sich im Versuch das Aussehen des Objekts, unter dem ein bestimmter Gegenstand versteckt war – unabhängig von seinem Platz. Da einjährigen Kindern und Menschenaffen die Fähigkeit für diese Strategie nicht fehlt, sondern sie lediglich den Einsatz der anderen Strategie bevorzugen, gehen die Wissenschaftler davon aus, dass die weitere kognitive Entwicklung beim Menschen dazu geführt hat, dass er diese Präferenzen neu wiegt. (Current Biology)
Orang-Utan im Experiment © Max-PlanckInstitut für evolutionäre Anthropologie, Knut Finstermeier
23.09.1949 Die UdSSR wird Atommacht und beendet damit das US Atom-Monopol
24.09.1852 Der erste Flug eines motorisierten Luftschiffes glückt 25.09.1820 Der Physiker André Marie Ampère entdeckt die Kraftwirkung zwischen zwei stromdurchflossenen Leitern
CHRONIK
29.09.1954 Das Forschungszentrum der Europäischen Organisation für Kernforschung, CERN, wird in Genf eröffnet
08.09. Materialforschung Halbleiter leuchtet und erzeugt Strom in einem Halbleiter sind Materialien, die unter bestimmten Bedingungen in ihrem Inneren Elektronen austauschen und so leitfähig werden. Sie dienen daher unter anderem als Grundbausteine für die Schaltkreise von Computern. Jetzt haben Wissenschaftler erstmals organische Halbleiter produziert, die statt der Elektronen Ionen, also geladene Atome und Moleküle, austauschen. Die Besonderheit dieser „Ionic Junction“: Sie könnte sowohl als Schalter als auch als Leuchtdiode eingesetzt werden, da sie je nach Lichteinfall Energie entweder in Form von Elektronen oder aber in Form von Licht abgibt. (Science)
13.09. Geowissenschaften Wie entsteht eine „Monsterwelle“? Zehn schwere Schiffsunglücke gehen jährlich auf so genannte „freak waves“ zurück. Wie diese bis zu 30 Meter hohen Riesenwellen entstehen, war bislang noch umstritten. Nun haben Forscher ein neues Modell zur Wellenberechnung entwickelt, dass dieses Phänomen erklärt: Treffen zwei Wellen in einem bestimmten, relativ kleinen Winkel aufeinander, können sie sich gegenseitig „aufschaukeln“ und die normalen, stabilisierenden physikalischen Effekte des Wassers außer Kraft setzen. Im Falle dieses nicht-linea-
Schiffsbug wird von „Monsterwelle“ überspült. © NOAA
49
09 / 2006 JANUAR U FEBRUAR B U MÄRZ ZAPRILMAIIJUNIJULI ren Verhaltens entsteht eine neue Instabilität. Begünstigt durch starke Strömung und einen von vorne kommenden, starken Wind baut sich daraus dann die gigantische Welle auf. Die neuen Erkenntnisse könnten die Vorhersage und Frühwarnung von „freak waves“ verbessern. (Physical Review Letters)
wärmung hätte eine bis zu fünfmal stärkere Sonnenaktivität erfordert. Die Forscher schließen allerdings nicht aus, dass ultraviolette Sonnenstrahlung zum Klimawandel beiträgt – dazu existieren bislang aber noch keine zuverlässigen physikalischen Modelle. (Nature)
18.09. Physik 15.09. Pflanzenforschung
Balsampappel © Utah State University
Erste Baumart öffnet „Buch des Lebens“ Die Genome von etlichen Tieren, Pflanzen und Mikroorganismen und auch das des Menschen sind bereits seit einiger Zeit entschlüsselt. Ein internationales Wissenschaftlerteam hat jetzt erstmals auch die genaue Abfolge der Basenpaare in der DNA einer Baumart, der amerikanischen Balsampappel, ermittelt. Die Suche nach Genen, die speziell nur in Bäumen vorkommen, ist – auch nach Auswertung der Rohdaten – noch nicht zu Ende. Denn danach besitzen Bäume weder mehr Erbanlagen als krautige Pflanzen, noch gibt es rein auf Bäume beschränkte Gengruppen. Auch Erbgutbausteine zur Holzbildung finden sich in allen Pflanzen. Allerdings ist ihre Vielfalt im jetzt sequenzierten Pappelgenom größer als beispielsweise in der einjährigen Modellpflanze Arabidopsis. (Science)
15.09. Klima Aufnahme eines Sonnenflecks © Institute for Solar Physics of the Royal Swedish Academy of Science, Göran Scharmer
50
Sonne nicht schuld am Klimawandel Es gibt Überlegungen, wonach die schwankende Sonnenaktivität mindestens ebenso stark zur Erderwärmung beiträgt wie der Mensch oder natürliche Veränderungen des Klimas. Wissenschaftler haben nun vorhandene Messdaten und neue theoretische Erkenntnisse zusammengefasst und damit neue Klimamodelle berechnet. Danach scheint die Sonnenfleckenaktivität als Auslöser des Klimawandels auszuscheiden. Grund: Die seit dem 17. Jahrhundert beobachtete Er-
Kosmischer „Doppel-Leuchtturm“ bestätigt Einstein Die theoretischen Berechnungen der Allgemeinen Relativitätstheorie von Albert Einstein sind bis auf 0,05 Prozent genau und korrekt. Dies hat eine Beobachtung des Doppelpulsars PSR J0737-3039 A und B Umeinander kreisende mithilfe von RadioPulsare (Illustration) teleskopen gezeigt. © John Rowe Animations Das System liegt rund 2.000 Lichtjahre von der Erde entfernt in der Konstellation Puppis und ist das einzige bisher bekannte, bei dem sich zwei Radiopulsare gegenseitig umkreisen. Ähnlich kosmischen Leuchttürmen emittieren diese Sterne starke fokussierte Strahlen von Radiowellen, die von der Erde aus als Radiopulse beobachtet werden können. Die Astronomen maßen nun die leichten Variationen in den Ankunftszeiten der Radiopulse und stellten dabei fest, dass diese exakt den Voraussagen der Einsteinschen Relativitätstheorie für zwei einander umkreisende massereiche Objekte entsprachen. (Science)
19.09. Ökologie Wenn Parasiten drohen, schlüpfen Jungs später Um das Überleben ihrer Jungen zu sichern, nutzen einige Vogelarten eine besondere Strategie: Wenn Vogelmilben und andere Parasiten ihren Nachwuchs bedrohen, le-
AUGUS UGUSTSEPTEMBEROKTOBER OB RNOVEMBER O B DEZEMBER B gen Hausgimpelmütter gezielt erst weibliche, dann männliche Eier. Denn die kräftigeren Weibchen können den Blutsaugern besser widerstehen, auch wenn sie früher schlüpfen. Obwohl die Männchen dadurch ein paar Tage weniger im Nest gefüttert werden, sind sie am Ende der Nistperiode überraschenderweise genauso groß wie ihre früher geborenen weiblichen Geschwister. Die männlichen Jungen machen – gesteuert durch die Mütter – einen größeren Teil ihrer Entwicklung im Ei durch und schlüpfen daher in einem reiferen Zustand. Ursache für die Manipulationen der Legereihenfolge und der Eientwicklung sind Veränderungen im Hormonhaushalt der Mutter, die durch den Milbenbefall ausgelöst werden. (PNAS)
20.09. Ökologie Meereswurm überlebt durch „Outsourcing“ Der Meereswurm Olavius algarvensis besitzt weder Mund, Magen, Darm oder Nieren. Nahrungsaufnahme und Abfallentsorgung werden deshalb von speziellen Symbiosepartnern übernommen. Doch wie funktioniert dieses „Outsourcing“? Um diese Frage zu beantworten, haben Forscher zunächst das Genom der vier an dieser Lebensgemeinschaft beteiligten Bakterien entschlüsselt und darüber deren Stoffwechsel rekonstruiert. Dabei zeigte sich, dass die Symbionten sich gegenseitig bei der Entsorgung der „Wurmabfälle“ unterstützen: Zwei Arten erzeugen Schwefelverbindungen, die den anderen beiden als Nahrung dienen. Alle vier arbeiten aber zusammen, um den wertvollen Stickstoff zu recyceln. (Nature)
CHRONIK
21.09. Neurobiologie Wenn Nervenzellen kontaktscheu sind Einige Formen des Autismus könnten ihre Ursache in einer blockierten Signalübertragung an den Verbindungsstellen der Gehirnzellen, den Synapsen, haben. Erstmals erlaubt nun ein neues Tiermodell, die Ursachen dieser Störung nachzuvollziehen. Es zeigt, dass Mutationen in Genen, die die Proteine Neuroligin-3 und Neuroligin-4 kodieren, die Reifung der Synapsen stören. Bei Mäusen rief diese Störung tatsächlich Autismus-ähnliche Symptome hervor. Allerdings ist dieser Gendefekt Ursache nur bei einigen wenigen der zahlreichen verschiedenen Autismus-Formen.
Neuroligin-1-Nervenzellen in Kultur (rot angefärbt) © Universität Heidelberg, Thomas Dresbach/ Max-Planck-Institut für experimentelle Medizin, Nils Brose
(Neuron)
22.09. Neurobiologie Forscher stecken Mäuse mit Alzheimer an Ein charakteristisches Merkmal der Alzheimer-Krankheit ist die Ablagerung von falsch gefalteten Eiweißen im Gehirn, den so genannten Amyloid-Plaques. Jetzt haben Tübinger Wissenschaftler in einem Experiment nachgewiesen, dass Gehirnextrakte verstorbener Alzheimerpatienten, aber auch erkrankter Mäuse, Alzheimer auslösen, wenn diese in die Gehirne gesunder Mäuse gespritzt werden. Obwohl dieser Mechanismus große Ähnlichkeiten mit dem der Prionen-Erkrankungen (BSE) aufweist, bei der abnormal gefaltete Prion-Eiweiße die Krankheit auslösen, gibt es bisher keinen Beweis dafür, dass Alzheimer übertragbar ist. Der Befund, dass die Krankheit in Mäusen exogen induzierbar ist, gibt aber neuen Spekulationen Raum, dass Umwelteinflüsse neben genetischer Vorbelastung eine Rolle bei der Entstehung von Alzheimer spielen könnten. (Science)
Versuchstier Maus © National Cancer Institute
Olavius algarvensis unter dem Mikroskop © Max-Planck-Institut für marine Mikrobiologie, Hydra Institut, C. Lott
51
10 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
10
1953 Fritz Lipmann Entdeckung des Koenzym A und dessen Bedeutung für den Zwischenstoffwechsel
1956 Werner Forßmann Entdeckungen zur Herzkatheterisierung und zu den pathologischen Veränderungen im Kreislaufsystem
1964 Feodor Lynen Mechanismus und Regulation des Stoffwechsels von Cholesterin und Fettsäuren
1969 Max Delbrück Entdeckung des Vermehrungsmechanismus und der genetischen Struktur von Viren
Nobelpreis für Physiologie/Medizin
RNA als Blockadefaktor Der Nobelpreis für Physiologie und Medizin geht in diesem Jahr an Forscher, die einen fundamentalen Kontrollmechanismus im Fluss der genetischen Information in den Zellen entdeckten – und gleichzeitig eine Methode, diesen gezielt zu blockieren. 1998 publizierten die amerikanischen Wissenschaftler Andrew Fire und Craig Mello diese Entdeckung der so genannten RNA-Interferenz.
Auszeichnung für die Enteckung der RNA-Interferenz: die Nobelpreisträger Andrew Fire (oben) und Craig Mello © Stanford University, University of Massachussetts
52
Der genetische Code der DNA bestimmt, welche Proteine von der Zelle produziert werden und reguliert damit letztlich den gesamten Stoffwechsel. Die Bauanleitungen für die Proteine werden von der DNA abgelesen und in eine „Transportform“, die Boten- oder messenger RNA (mRNA), übersetzt. Diese verlässt den Zellkern und wandert zu den Proteinfabriken der Zelle, den Ribosomen. Rätsel der Blütenentfärbung Dieser Ablauf war zwar bereits in den 1990er-Jahren bekannt, doch es traten immer wieder Effekte auf, die sich damit nicht erklären ließen: So versuchten Pflanzengenetiker die Blütenfarbe einer Petunienart zu verstärken, indem sie ein Gen für ein rotes Pigment in die Pflanzenzellen einschleusten. Statt die Farbe zu intensivieren, führte diese Genmanipulation jedoch zu einem Verlust der Fär-
bung – die resultierenden Petunienblüten waren weiß. Erst Fire und Mello entdeckten den Mechanismus, der diesen rätselhaften Effekt hervorrief. Sie untersuchten, wie die Genexpression beim Nematoden Caenorhabditis elegans reguliert wird. Die Injektion von mRNA-Molekülen, die ein Muskelprotein kodierten, löste keinerlei Verhaltensänderung bei den Tieren aus. Ebenso wenig geschah etwas, wenn die Forscher das genau komplementäre Gegenstück zu dieser einsträngigen RNA injizierten, die so genannte „antisense“-RNA. Doch als die Wissenschaftler „sense“ und „antisense“ -RNA zu einer zweisträngigen RNA zusammenfügten und diese injizierten, beobachteten sie seltsame zuckende Bewegungen beim Wurm – ähnlich wie sie auch bei Nematoden auftreten, denen das Gen für dieses Muskelprotein komplett fehlt.
AUGUSTSEPTEMBEROKTOBERNOVEMBERDEZEMBER 1973 Karl von Frisch, Konrad Lorenz: Organisation und Auslösung von individuellen und sozialen Verhaltensmustern
1984 Georges Jean Franz Köhler Entdeckung des Prinzips der Produktion von monoklonalen Antikörpern
Doppelstrang-RNA als Blockadefaktor Offensichtlich hatte die injizierte RNA den Informationsfluss von der DNA zum Protein unterbrochen – aber wie? Um herauszufinden, ob tatsächlich die doppelsträngige RNA für diese Blockade verantwortlich war, testeten Fire und Mello den Effekt noch mit zahlreichen anderen Genen. Und tatsächlich: In jedem Fall blockierten die RNA-Stücke das Gen mit dem entsprechenden Proteincode. Das Protein wurde nicht mehr gebildet. Dieser Prozess erklärte auch das Rätsel der „verschwundenen“ Blütenfarbe bei den Petunien: Das eingeschleuste Pigmentgen wirkte wie eine Doppelstrang-RNA: Statt das in der Pflanze vorhandene Pigmentgen zu ersetzen, blockierte es dieses und unterband damit jede Pigmentbildung. In weiteren Experimenten stellten die Wissenschaftler fest, dass diese RNA-Interferenz nicht nur spezifisch für jeweils das Gen ist, dessen Code in der RNA verwendet wird, sondern dass sich die Wirkung sogar zwischen den Zellen und Zellgenerationen ausbreitet. Es reichte aus, winzige Mengen der RNA zu injizieren, um den Effekt zu erzielen – für die Forscher ein Hinweis darauf, dass es sich hier um einen katalytischen Prozess handeln musste. Während der folgenden Jahre wurde der zugrunde liegende Mechanismus weiter aufgeklärt.
1991 Bert Sakmann, Erwin Neher Direkter Nachweis von Ionenkanälen in Zellmembranen
1995 Christiane Nüsslein-Volhard Grundlegende Erkenntnisse über die genetische Kontrolle der frühen Embryoentwicklung
„Falle“ für mRNA Es zeigte sich, dass die DoppelstrangRNA an einen Proteinkomplex bindet, der sie in Fragmente teilt. Ein anderer Proteinkomplex, RISC, bindet an diese Fragmente und eliminiert jeweils einen der beiden Stränge. Der zweite bleibt erhalten und dient, gebunden an den RISC-Komplex, als „Sonde“, die sich an die entsprechende Boten-RNA anlagern kann. Geht eine mRNA in diese „Falle“ wird sie vom Komplex zerstört und damit auch die ProteinBauanleitung, die sie transportiert. Inzwischen hat sich diese Methode zu h k d b l
CHRONIK
1999 Günter Blobel Entdeckung der in Proteinen eingebauten Signale, die ihren Transport und die Lokalisierung in der Zelle steuern
Die deutschen MedizinNobelpreisträger der letzten 50 Jahre
Einsträngige RNA © MMCD
53
10 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
10
1954 Max Born Forschungen in der Quantenmechanik, statistische Interpretation der Wellenfunktion Walter Bothe Entwicklung der Koinzidenzmethode
1961 Rudolf Ludwig Mössbauer Forschungen über die Resonanzabsorption der Gamma-Strahlung und Entdeckung des Mössbauer-Effekts
1963 Johannes Hans Daniel Jensen Entdeckung der nuklearen Schalenstruktur
1985 Klaus von Klitzing Entdeckung des quantisierten HallEffekts
1986 Ernst Ruska Konstruktion des ersten Elektronenmikroskops Gerd Karl Binnig Konstruktion des ersten Rasterelektronenmikroskops
Nobelpreis für Physik
Der kosmischen Hintergrundstrahlung auf der Spur Der Nobelpreis für Physik 2006 geht an Forscher, die ein wichtiges „Fenster“ in die Frühzeit unseres Universums geöffnet haben. Mithilfe von Daten des Satelliten COBE erweiterten John C. Mather vom Goddard Space Flight Center der NASA und George F. Smoot von der University of California in Berkeley die Erkenntnisse über den Ursprung von Galaxien und Sternen, aber auch über die Geschehnisse beim Urknall.
Verantwortlich für die Erfolge von COBE: Nobelpreisträger George F. Smoot (oben) und John C. Mather © University of California, Berkeley, NASA
54
Noch in den 1940er-Jahren waren sich Forscher nicht sicher, ob das All wirklich einen Anfang hatte. Zwei Theorien standen sich gegenüber: Der Urknall, bei dem alle Materie in einem einzigen Ereignis entstand und sich anschließend langsam immer weiter ausdehnte, und die Steady-State-Theorie, wonach das Universum schon immer in einem stabilen Zustand existierte. 1964 verschaffte dann die Entdeckung der kosmischen Hintergrundstrahlung der Urknall-Theorie den entscheidenden Durchbruch. Denn die von den Forschern Arno Penzias und Robert Wilson nachgewiesene Mikrowellenstrahlung war gewissermaßen das schwache Nachglühen der extremen Hitze und Strahlungsintensität, die im Kosmos unmittelbar nach dem Urknall herrschten.
Doch erst der im Jahr 1989 ins All gestartete Satellit COBE ermöglichte quantitative Messungen dieser Hintergrundstrahlung und eröffnete damit eine neue Ära, in der die Kosmologie, die Lehre vom Ursprung des Universums, zur exakten Wissenschaft werden konnte. Wie die Forscher um John C. Mather und George F. Smoot mithilfe der COBE-Daten herausfanden, lässt sich das Universum unmittelbar nach dem Urknall mit einem so genannten idealen Schwarzen Körper vergleichen, bei dem die Verteilung der Strahlung über die verschiedenen Wellenlängen nur von der Temperatur abhängt. Das bedeutet im Umkehrschluss, dass es ausreicht, nur die Temperatur im frühen Universum zu kennen, um daraus auf die vorkommenden Strahlungsarten und auch auf die Bedingungen zu dieser Zeit schließen zu können.
AUGUSTSEPTEMBEROKTOBERNOVEMBERDEZEMBER 1987 J. Georg Bednorz Entdeckung von Supraleitung in keramischen Materialien
1989 Wolfgang Paul Entwicklung der PaulFalle, eines elektrischen Vierpolfeldes zum Einschluss weniger Elektronen
1998 Horst Ludwig Störmer Entdeckung einer neuen Art von Quantenflüssigkeit mit fraktionell geladenen Anregungen
Das Universum als Schwarzkörper Das Spektrum dieser Strahlung hat eine spezielle, als Schwarzkörperstrahlung bezeichnete Form. Sie kann auch im Labor erzeugt werden und wurde erstmals von dem deutschen Physiker Max Planck beschrieben. Unsere Sonne ist ebenfalls ein – wenn auch unvollkommener – Schwarzkörper, denn auch ihr Spektrum weist diese spezielle Form auf. Dank der durch die COBE-Messungen enthüllten Schwarzkörperspektren haben die beiden Nobelpreisträger herausgefunden, dass die Temperaturen in der Frühzeit des Universums bei fast 3.000 Grad Celsius lagen. Seither hat sich der Kosmos nach und nach abgekühlt, während er sich ausdehnte. Die Strahlung, die wir heute messen, entspricht einer Temperatur, die gerade einmal 2,7 Grad über dem absoluten Nullpunkt liegt. Winzige Unterschiede erzeugen Materie Doch COBE verhalf den Wissenschaftlern noch zu einer weiteren Erkenntnis: Seine Auflösung reichte aus, um noch winzige Variationen in den Temperaturen der Hintergrundstrahlung zu ermitteln – in einer Größenordnung von nur einem hunderttausendstel Grad. Diese so genannte Anisotropie liefert entscheidende Hinweise darauf, wie die ersten Galaxien entstanden. Denn erst durch diese geringen lokalen Ungleichverteilungen im Strahlungs- und damit auch Energiegehalt des Kosmos konnte sich im Laufe
2000 Herbert Kroemer Entwicklung von Halbleiterstrukturen für Hochgeschwindigkeitselektronik
2001 Wolfgang Ketterle Entdeckung der Bose-Einstein Kondensation in verdünnten Gasen von Alkali-Atomen
der Zeit Materie bilden, zusammenballen und letztlich zur Entstehung von Himmelskörpern führen. Erfolg durch Teamarbeit Der Erfolg des COBE-Satelliten beruhte auf der Arbeit eines mehr als tausendköpfigen Teams von Forschern, Ingenieuren und anderen Teilnehmern des Projekts. Stellvertretend für diese und als die Hauptverantwortlichen hat das schwedische Nobel-Komitee den beiden Physikern den Nobelpreis zuerkannt. John Mather koordinierte die gesamte Arbeit des COBE-Projekts und trug die Verantwortung für das entscheidende Experiment, das zeigte, dass die Hintergrundstrahlung einer Schwarzkörperstrahlung entspricht. George Smoot hatte die Hauptverantwortung für die Messung der feinen Temperaturschwankungen in der Mikrowellenstrahlung. Inzwischen führen andere, noch genauere Mikrowellen-Observatorien wie WMAP die
CHRONIK
2005 Theodor Hänsch Entwicklung des Laserfrequenzkamms
Die deutschen PhysikNobelpreisträger der letzten 50 Jahre
Mithilfe von COBEDaten erstellte Karte des kosmischen Mikro-
55
10 / 2006 JANUARFEBRUARMÄRZ ZAPRILMAIIJUNIJULI
10
1950 Kurt Adler und Otto Paul Hermann Diels Entdeckung und Entwicklung der Dien-Synthese
1953 Hermann Staudinger Entdeckungen auf dem Gebiet der makromolekularen Chemie
1963 Karl Ziegler Entdeckungen auf dem Gebiet der Chemie und der Technologie der Hochpolymeren
Nobelpreis für Chemie
Transkription auf „frischer Tat“ ertappt
Nobelpreisträger Roger Kornberg: Sein Vater Arthur Kornberg erhielt im Jahr 1959 den Nobelpreis für Physiologie / Medizin. © Standford News Service, Linda Cicero
Auch der Nobelpreis in Chemie steht im Jahr 2006 ganz im Zeichen der Genetik: Der Chemiker Roger Kornberg von der Stanford University erhält die Auszeichnung für seine Forschungen zur molekularen Basis der Transkription bei eukaryotischen Zellen. Er entdeckte nicht nur einen entscheidenden Mitspieler der Transkription, den „Mediator“, seine Strukturbestimmungen ermöglichten erstmals auch die Rekonstruktion – Atom für Atom – des wichtigsten Enzyms der Transkription, der RNA-Polymerase. Die Transkription ist einer der grundlegendsten Prozesse allen Lebens. Dabei werden Bauanleitungen für Proteine, die auf der DNA in Form von Genen vorliegen, abgelesen und umkopiert in eine so genannte Botenoder messenger RNA. Dieses einsträngige RNA-Stück mit der komplementären Basensequenz transportiert die Bauanleitung aus dem Zellkern zu den im Zellplasma liegenden Ribosomen, den Proteinfabriken der Zelle. Ursprung der Vielfalt Doch die Transkription bildet nicht nur die Grundlage der Proteinproduktion, sie ist ist auch daran beteiligt, die Vielzahl der verschiedenen Zelltypen unseres Körpers hervorzubringen. Die große Variationsbreite entsteht dadurch, dass immer nur ein Teil der
56
gesamten genetischen Information abgelesen wird – und zwar für jeden Zelltyp spezifisch. Damit unterscheiden sich die Proteine, die in den einzelnen Zellen produziert werden und das beeinflusst ihre Gestalt, Funktion und Entwicklung. Wie die Transkription bei den zellkernlosen Bakterien funktioniert, entdeckten Forscher schon in den 1960er-Jahren, 1965 erhielten Jacques Monod, André Lwoff und François Jacob dafür den Nobelpreis in Physiologie / Medizin. Sie fanden heraus, dass zusätzlich zur RNA-Polymerase ein weiteres Molekül, Sigma-Faktor genannt, eine entscheidende Rolle spielt: Es „sagt“ der Polymerase, wo das abzulesende Gen beginnt und wo es endet. Lange Zeit vermutete man, dass dieser Prozess auch in den Zellkern-tragenden
AUGUSTSEPTEMBEROKTOBERNOVEMBERDEZEMBER 1967 Manfred Eigen Untersuchungen von extrem schnellen, durch kurze Energieimpulse ausgelösten chemischen Reaktionen
1973 Ernst Otto Fischer Chemie der metallorganischen Sandwich-Verbindungen
eukaryotischen Zellen der höheren Lebewesen gleich abläuft, doch niemandem gelang es, den Sigma-Faktor in diesen Zellen nachzuweisen. Mediator als An-Aus-Schalter Nach und nach stellte sich dann heraus, dass bei Eukaryoten gleich fünf unterschiedliche Molekülkomplexe existieren, die gemeinsam die Rolle des bakteriellen Sigma-Faktors übernehmen. Wie sie aber genau ineinander greifen und welche molekularen Akteure möglicherweise noch beteiligt sind, blieb unklar. In mühevoller, zehnjähriger Arbeit entwickelte Kornberg dann eine Methode um Hefezellen als Modell für die Eukaryotentranskription einzusetzen und die Prozesse in ihrem Inneren im Detail zu analysieren. Dank dieses Modellsystems entdeckte er einen weiteren Molekülkomplex, der eine entscheidende Rolle als An-Aus-Schalter für die Transkription spielt. Dieser „Mediator“ genannte Komplex reguliert letztlich, im Wechselspiel mit gewebespezifischen Substanzen und speziellen „Verstärkern“ die Genexpression. Polymerase in Aktion eingefangen Und noch einen weiteren Meilenstein lieferten Kornbergs Arbeiten: Denn er entwickelte eine Methode, mit der er erstmals einzelne Zwischenstadien im komplexen Transkriptionsprozess gleichsam „einfrieren“ und dann mittels Kristallographie abbilden konnte. Bisher war dies nur entweder mit den Aus-
1979 Georg Wittig Entwicklung von Borbzw. Phosphorverbindungen in wichtigen Reagenzien innerhalb organischer Synthesen
CHRONIK
1988 Johann Deisenhofer, Robert Huber und Hartmut Michel Erforschung des Reaktionszentrums der Photosynthese bei einem Purpurbakterium
gangsstoffen oder aber mit dem Endprodukt möglich gewesen. Kornberg blockierte die Reaktion durch Zugabe bestimmter biochemischer Substanzen gezielt in einer bestimmten Phase und konnte so zum Beispiel die RNA-Polymerase in Aktion „einfangen“. Die resultierenden Bilder waren so genau, dass sogar einzelne Atome sichtbar werden. Mit dieser Methode und der Entwicklung eines Modells zur Untersuchung des Transkriptionsprozesses bei Eukaryoten hat Kornberg einen wichtigen Grundstein zur Erforschung der Transkription gelegt. Insbesondere auch für die Medizin haben diese Erkenntnisse weit reichende Bedeutung, da zahlreiche Krankheiten wie Krebs, Herzerkrankungen aber auch Entzündungen mit Störungen in der Transkription in Verbindung stehen.
Die deutschen ChemieNobelpreisträger der letzten 50 Jahre
Struktur eines RNA-PolymeraseII-TranskriptionsKomplexes. DNA (blau), neu synthetisierte RNA (rot), Metall im aktiven Zentrum des Enzyms (pink), Brückenhelix (grün) © Nobel Foundation
57
58
KOSMOS Gewaltige Sternexplosionen, tödliche Teilchenstürme, gefräßige Schwarze Löcher – das Weltall ist alles andere als ein ruhiger Ort. Gleichzeitig aber ist es die Wiege von Planeten wie dem unsrigen, und damit sind wir ein – wenngleich winziger – Teil des Ganzen. Mehr über die Prozesse, Phänomene und Gesetzmäßigkeiten des Alls zu erfahren ist daher essenziell, um die Welt zu begreifen. Wichtige Fortschritte erzielten Astronomie und Astrophysik inzwischen in der Erforschung der Schwarzen Löcher. Erstmals haben Forscher mithilfe von Weltraumteleskopen eindeutig nachgewiesen, dass auch im Zentrum unserer Nachbargalaxie, der Andromedagalaxie, eine solche Singularität existiert. Und das Verhältnis von Schwarzen Löchern zu ihren Muttergalaxien konnten die Astronomen ebenfalls aufklären. Noch allerdings bleiben viele Fragen offen. Erstaunliche neue Erkenntnisse lieferte auch die Cassini-HuygensMission zum Gasplaneten Saturn und seinen Monden: So kamen die beiden Raumsonden etwa dem Ursprung der geheimnisvollen Saturnringe auf die Spur. Auf dem Trabanten Enceladus wiesen sie Eisgeysire nach, die große Mengen an Partikeln ins All schleudern und damit den riesigen E-Ring speisen. Und auf dem Saturnmond Titan entdeckten sie eine verblüffend „irdische“ Welt mit Flussläufen, Tälern, Küstenlinien und Dutzenden von Seen.
Schwarze Löcher: rätselhafter denn je
60
Besuch beim Herrn der Ringe: Cassini und Huygens am Saturn
66
Junge Sterne in der kleinen Magellanschen Wolke © NASA, ESA und A. Nota (STScI/ESA)
59
So könnte ein Aktiver Galaxienkern (AGN) aussehen. © NASA/CXC, M.Weiss
Schwarze Löcher: rätselhafter denn je Kosmische „Staubsauger“, Eintrittspforten zu anderen Dimensionen, alles vernichtende Todesstrudel – Schwarze Löcher gehören zu den faszinierendsten Objekten in unserem Universum. Sie sind nicht nur das Thema unzähliger Science-Fiction Romane und Filme, sie fesseln auch die Aufmerksamkeit der Wissenschaftler – und dies heute mehr denn je. Denn gerade in den vergangenen Jahren haben neue Erkenntnisse ein wenig mehr über die Schwarzen Löcher im Kosmos verraten, aber auch jede Menge neuer Fragen aufgeworfen. Eine physikalische Unglaublichkeit
Schon vor 222 Jahren vermutete der Geistliche John Michell die Existenz von Himmelskörpern, die eine so große, dicht gepackte Masse besitzen, dass ihre Anziehungskraft nichts entweichen lässt – nicht einmal das Licht. Vor rund 100 Jahren untermauerte der geniale Physiker Albert Einstein diese Vorstellung wissenschaftlich mit seiner Allgemeinen Relativitätstheorie. Demnach verbiegt ein Schwarzes Loch den Raum so stark, dass er sich schließt und dabei gleichsam abkapselt. Alle Strukturen mit
60
Ausnahme von Masse und Drehimpuls gehen verloren, während im Zentrum des Schwarzen Lochs eine so genannte Singularität entsteht. Soweit die Theorie. Doch die Praxis, die Bestätigung der theoretischen Überlegungen, steht bis heute auf mehr als wackeligen Füßen. Denn trotz modernster Technologien und Teleskope hat noch niemand ein Schwarzes Loch direkt beobachtet, geschweige denn sein Inneres erforschen können. Sie sind trotz ihrer gewaltigen Dichte einfach zu klein. Nachweisen lassen sie sich nur indirekt: durch die Auswirkungen auf ihre Umgebung.
KOSMOS
Nachbargalaxie hilft auf die Sprünge
Aber ist das, was sich wie ein Schwarzes Loch verhält, auch wirklich immer eines? Immerhin könnten viele der beobachteten Effekte theoretisch auch durch sehr kompakte Haufen aus Neutronensternen oder Weiße Zwerge verursacht worden sein. Um dies auszuschließen, richteten Wissenschaftler des Max-Planck-Instituts für extraterrestrische Physik in Garching die scharfen „Augen“ des Weltraumteleskops Hubble auf das Zentrum unserer Nachbargalaxie M31, den Andromedanebel. Hier hatten frühere Beobachtungen bereits einen Doppelhaufen roter Sterne sowie ein rätselhaftes blaues Leuchten direkt im Kern der Galaxie ausgemacht. Aber lag hier auch ein Schwarzes Loch? Die Antwort lieferten die neuen Daten der Hubble-Detektoren: Zum einen fanden die Forscher im Galaxienzentrum keinerlei Anzeichen eines kompakten Sternhaufens aus Neutronensternen oder Weißen Zwergen. Die zuvor beobachteten Effekte mussten daher tatsächlich von einem Schwarzen Loch herrühren. Damit war dies nicht nur für die Milchstraße, sondern erstmals auch für eine andere Galaxie nachgewiesen. „Andromeda ist die erste Galaxie, in der wir alle astrophysikalischen Alternativen zu einem supermassereichen Schwarzen Loch mithilfe des Hubble Weltraumteleskops und denselben Methoden, durch die wir fast alle anderen mutmaßlichen Schwarzen Löcher in Galaxien gefunden haben, ausschließen können“, erklärt der Astrophysiker Ralf Bender in einer Veröffentlichung des Max-Planck-Instituts für extraterrestrische Physik. Zum anderen zeigte sich, dass das rätselhafte blaue Leuchten von 200 sehr heißen, „nur“ 200 Millionen Jahre alten Sternen ausgeht. Eng gepackt kreisen sie mit der rasenden Geschwindigkeit von 3,6 Millionen Kilometern pro Stunde um ein gemeinsames Zentrum. Damit würden sie in 40 Sekunden
die Erde umrunden und in sechs Minuten den Mond erreichen. Für eine Umrundung des Schwarzen Lochs brauchen sie immerhin 500 Jahre. Mithilfe dieser Geschwindigkeit konnten die Wissenschaftler nun auch die Masse des Schwarzen Lochs erstmals näher bestimmen. Denn nur die Anziehungskraft eines mindestens 140 Millionen Sonnenmassen umfassenden Schwarzen Lochs konnte die Sterne so stark beschleunigen. „Schwarzer Fleck“ im Milchstraßenzentrum als erster Direktnachweis?
In naher Zukunft könnten zumindest supermassereiche Schwarze Löcher in der näheren kosmischen Umgebung vielleicht sogar direkt beobachtet werden. Ein Kandidat wäre etwa das Schwarze Loch im Zentrum der Milchstraße. Der Raum um das Loch herum strahlt starke Synchrotronstrahlung aus – eine von schnellen hochenergetischen Teilchen, die sich in einem Magnetfeld bewegen, in Flugrichtung abgegebene elektromagnetische Strahlung. Der in dieser Strahlung von der Singularität erzeugte Schwarze Fleck könnte daher im Prinzip mit Radioteleskopen „sichtbar“ gemacht werden. Das Raum-Zeit-Gefüge Nach der Vorstellung von Albert Einstein bilden die drei Dimensionen des Raumes mit der Zeit eine Matrix, ein Grundgewebe, in dem alle Materie eingebettet ist. Diese Raumzeit-Matrix kann durch die unterschiedlichen Massen im Kosmos verformt werden wie ein Gummituch: Wird ein schwerer Gegenstand in die Mitte eines gespannten Gummituches gelegt, dellt sie das Tuch durch ihr Gewicht ein. Auf die gleiche Weise verzerrt auch ein Himmelskörper die Raumzeit des Kosmos. Nähern sich andere Objekte aber auch Lichtstrahlen dieser Kuhle, werden sie in ihrer Bahn abgelenkt, sie bewegen sich in einer Kurve oder laufen, wenn sie zu leicht und ihre Geschwindigkeit zu niedrig ist, sogar auf die Delle zu und „fallen“ hinein. Ein Schwarzes Loch erzeugt nicht nur eine Delle in der Raumzeit, sondern durchbricht sie, bildet quasi einen Trichter. © MMCD
61
SDSS Der Digital Sloan Sky Survey ist ein gemeinsames Projekt mehrerer astronomischer Einrichtungen in den USA, Japan, Europa, China und Korea. Das Max-Planck-Institut für Astrophysik in Garching ist seit 2001 dabei. Ziel der am Ende ein Viertel des Himmels umfassenden Durchmusterung ist es, die Positionen und Helligkeiten von mehr als 100 Millionen Himmelsobjekten zu vermessen. Auch die Entfernung von rund einer Millionen Galaxien und Quasaren wird ermittelt.
Schon jetzt lassen sich im Rahmen des VLBI ( Very Long Baseline Interferometry) weltweit zahlreiche Radioteleskope so miteinander verbinden, dass sie wie eine einzige, nahezu erdgroße Antenne wirken. Noch allerdings ist die Auflösung dieses „Megateleskops“ um den Faktor zwei zu niedrig. Wissenschaftler vom Max-Planck-Institut für extraterrestrische Physik (MPE) in Garching um Reinhard Genzel arbeiten an der Entwicklung von Gravity, einem Gerät, das alle vier Teleskope der Europäischen Südsternwarte VLT zusammenschaltet und so die Beobachtung von Materiebewegungen in unmittelbarer Nähe eines Schwarzen Lochs ermöglicht. Astrophysiker Andreas Müller, Forscher am gleichen Institut, schätzt, dass Fortschritte in der Teleskoptechnologie schon in den nächsten Jahren den direkten Nachweis des Schwarzen Flecks einer Singularität ermöglichen könnten. Wellen im Raum-Zeit-Gefüge
Eine weitere Chance, einen „Blick“ auf Schwarze Löcher zu erlangen, bietet ein ganz neues Feld der astrophysikalischen Forschung: Die Beobachtung von Gravitationswellen. Diese „Rippel“ im RaumzeitGefüge des Universums entstehen durch
Aufbau eines Schwarzen Lochs Singularität: Eine Art Ausnahmezustand im Universum bildet das Zentrum des Schwarzen Lochs, in dem die Materie so stark komprimiert ist, dass physikalische Gesetze dort nicht definiert sind. Ereignishorizont: Die Grenze des Bereichs einer Singularität, aus dem weder Strahlung noch Materie jemals wieder herauskommen. Akkretionsscheibe: rotierende, scheibenförmige Wolke um das Schwarze Loch. Die Materie in der Akkretionsscheibe spiralt schließlich in das Schwarze Loch hinein und verschwindet aus unserer Welt. Jet: Bei einigen Schwarzen Löchern, darunter Quasare und aktive Galaxienkerne (AGN) schleudern Energie und Magnetkräfte des Schwarzen Lochs konzentrierte Ströme von Materie und Strahlung weit ins All hinaus.
62
extrem beschleunigte Massen, etwa bei Sternenexplosionen oder dann, wenn ein Stern ein Schwarzes Loch umtanzt. Gravitationswellen wurden schon von Einstein postuliert, bisher aber noch niemals direkt nachgewiesen – unter anderem deshalb, weil es keine geeigneten Observatorien für diese Wellen gab. Heute sind jedoch bereits vier Gravitationswellen-Detektoren weltweit in Betrieb. Einer von ihnen ist GEO600 in der Nähe von Hannover, an dem Wissenschaftler des MaxPlanck-Instituts für Gravitationsphysik federführend beteiligt sind. Große Hoffnungen knüpfen die Astrophysiker auch an die 2015 in Betrieb gehende Laser Interferometer Space Antenna (LISA), ein von NASA und ESA entwickeltes weltraumgestütztes Gravitationswellen-Observatorium. Dabei bilden drei in Erdnähe stationierte Messsatelliten einen virtuellen Detektor von fünf Millionen Kilometern Armlänge. Im Gegensatz zu ihren irdischen Gegenstücken können diese dann auch Gravitationswellen sehr großer Wellenlängen registrieren – und damit vielleicht endlich auch Schwarze Löcher... „Todesstrudel“ im Labor
Was geschieht mit Materie, die in ein Schwarzes Loch gezogen wird? Verliert sie ihre Eigenschaften und wird nur noch „Masse ohne Materie“? Und wie sieht es im Inneren und in der unmittelbaren Umgebung eines Schwarzen Lochs aus? Auf diese Fragen haben die Astrophysiker heute noch keine Antwort. Zwar existieren auch hier mehrere, teilweise widerstreitende Theorien, aber belegen lässt sich bislang keine. Weltweit arbeiten mehrere Forschergruppen daran herauszufinden, wie sich Materie verhält, wenn sie extrem stark komprimiert wird. Diese exotischen Bedingungen lassen sich unter anderem in Teilchenbeschleunigern erzeugen; dabei entstehen
KOSMOS
Die Anlage GEO600 besteht aus dem Zentralhaus mit dem Lasersystem und zwei jeweils 600 Meter langen im Boden verlaufenden Edelstahlröhren; sie funktioniert nach dem Prinzip des Michelson-Interferometers. © GEO 600
durch die Kollision sehr schnell beschleunigter Teilchen für Sekundenbruchteile starke Drucke. Rein theoretisch könnten sich sogar künstliche Schwarze Löcher formen. Im Unterschied zu den kosmischen Löchern hätten diese jedoch nur Teilchenformat: Sie wären winzig klein und extrem kurzlebig. Noch allerdings ist man nicht soweit, um die nötigen Energien zu erzeugen. Große Hoffnungen setzen die Teilchenphysiker daher auf die Beschleuniger der nächsten Generation, wie den noch im Bau befindlichen Large Hadron Collider (LHC) am Forschungszentrum CERN in der Schweiz, der 2007 in Betrieb gehen soll. Das kosmische „Henne-Ei“-Problem
Aber nicht nur die Schwarzen Löcher selbst, auch ihre Rolle im Gesamtkosmos, ihr Zusammenspiel im Wachsen und Vergehen von Sternen und Galaxien ist noch weitgehend ungeklärt. Waren etwa supermassereiche Schwarze Löcher die „Geburtshelfer“ für Galaxien? Oder waren die Galaxien zuerst da und in ihren Zentren ballte sich die Materie so weit zusammen, dass ein Schwarzes Loch entstand? Wer beeinflusste hier wen? Diesem klassischen „Henne-Ei“-Problem sind neben den Wissenschaftlern des Max-Planck-Instituts für extraterrestrische Physik auch ihre Kollegen von der Astrophysik in Garching auf der Spur. Im Rahmen des Sloan Digital Sky Survey (SDSS) haben sie die Beziehung zwischen dem Wachstum von superschweren Schwarzen Löchern im Zentrum von Galaxien und dem Anwachsen ihrer Muttergalaxien untersucht.
Weltraum-Laserinterferometer LISA: Drei Satelliten sollen 50 Millionen Kilometer hinter der Erde herfliegen und dabei ein Dreieck mit fünf Millionen Kilometern Seitenlänge aufspannen. © NASA/JPL
Gekoppeltes Wachstum
Die Wissenschaftler um Guinevere Kauffmann analysierten hunderttausende Galaxienspektren von mehr als 80.000 Galaxien
63
Junge Sterne im Umfeld eines Schwarzen Lochs (Modell) © NASA/CXC/ M.Weiss
und entdeckten schließlich einen klaren Zusammenhang: Je schneller das Schwarze Loch im Inneren einer Galaxie wuchs, desto höher war auch die Sternenbildungsrate – und damit auch ihr Wachstum. Besonders schnell legten dabei Schwarze Löcher mit weniger als 100 Millionen Sonnenmassen zu. Kaum veränderten sich dagegen sehr massereiche Schwarze Löcher im Zentrum der älteren, sehr großen Galaxien in unserer unmittelbaren kosmischen Umgebung. Galaxie und Schwarzes Loch scheinen dabei jeweils in einer Art Rückkopplung zueinander zu stehen: Je mehr Energie das Schwarze Loch ausstößt, etwa durch heiße Gasströme,
desto stärker behindert das die Sternenentstehung der Galaxie. Dies wiederum hemmt den Energieausstoß der kosmischen Schwerkraftfalle und fördert damit neues Wachstum – sowohl der Galaxie als auch des Schwarzen Lochs. Dieses Ergebnis löst zwar noch nicht das „Henne-Ei“-Problem, trägt aber immerhin dazu bei, die Wechselwirkung zwischen beiden besser zu verstehen. Möglicherweise wird der SDSS, der bei seinem Abschluss ein Viertel des Himmels kartiert und die Positionen und Helligkeiten von mehr als 100 Millionen Himmelsobjekten vermessen haben soll, hier noch für einige Überraschungen sorgen.
WAS SONST NOCH GESCHAH Kollision Schwarzer Löcher simuliert
Die große Schwierigkeit bei der Erstellung von Modellen Schwarzer Löcher und ihres Verhaltens liegt in deren Außerordentlichkeit: Raum und Zeit verschieben sich, die Dichte wird unendlich und die Zeit kann stehen bleiben. Was aber geschieht, wenn zwei solche Singularitäten miteinander verschmelzen? Nach der Theorie von Albert Einstein entstehen dabei Schwerkraftwellen unterschiedlicher Stärke und Wellenlänge – je nach dem, welche Massen beteiligt sind. Allerdings gestalten sich die Versuche, Einsteins Postulat solcher Gravitationswellen durch Berechnungen und Computermodelle nachzuvollziehen, wegen der Komplexität der Rechen–
64
operationen extrem schwierig. In den vergangenen 30 Jahren ging es mit dem Forschungsgebiet nur langsam voran, aber seit kurzer Zeit haben verschiedene Arbeitsgruppen weltweit große Erfolge erzielt. Ein erster Meilenstein war dabei die Berechnung eines vollständigen Orbits von zwei sich auf spiralförmigen Bahnen immer enger umkreisenden Schwarzen Löchern sowie der anschließende Nachweis, dass nach der Kollision ein einzelnes rotierendes Schwarzes Loch entsteht. Weitere Erfolgsmeldungen folgten Schlag auf Schlag: Die ersten Signalformen für die bei dieser kosmischen Kollision entstehenden Gravitationswellen wurden 2005 auf unabhängigen Wegen berechnet, und schon ein Jahr später berichteten mehrere Arbeitsgruppen von der Simulation mehrerer Umkreisungen. Offensichtlich ist der Bann gebrochen, die Probleme mit der Stabilität der numerischen Rechnungen scheinen im Wesentlichen gelöst. Unter dem Eindruck dieser Ergebnisse stand auch die Konferenz „New Frontiers in Numerical Relativity“, die im Juli 2006 am Max-Planck-Institut für Gravitationsphysik (Albert-Einstein-Institut) in Potsdam stattfand – die Stimmung unter den dort versammelten weltweit führenden Arbeitsgruppen jedenfalls war enthusiastisch. (PHYSICAL REVIEW LETTERS, April 2006, Juli 2006)
KOSMOS
Wissen hoch 12: Im Herzen der Milchstraße soll
Warum verschlingt dieses Schwarze Loch nicht
sich ein Schwarzes Loch befinden. Woher weiß
alle nahe gelegenen Sterne?
man das?
Wie unsere Gruppe vor einigen Jahren nachweisen konnte, verschlingen die Schwarzen Löcher tatsächlich ab und zu einmal Sterne, die ihnen zu nahe kommen. In einer Galaxie wie der Milchstraße sollte das etwa alle hunderttausend Jahre passieren. Andere Sterne werden durch die Gravitationskraft des Schwarzen Lochs auch aus ihrer Galaxie hinausgeworfen. Üblicherweise ziehen aber die Sterne um die Zentralmasse ihre regelmäßigen Bahnen, genauso wie die Planeten um die Sonne. Die Sonne ist also vor dem Schwarzen Loch relativ sicher. Nur wenn eine Störung von außen kommt, zum Beispiel eine Verschmelzung mit einer anderen Galaxie, könnte etwas passieren.
Das Schwarze Loch im Galaktischen Zentrum kann man zwar nicht direkt sehen, aber es verrät sich durch die Wirkung auf seine Umgebung, besonders seine dramatische Anziehungskraft. Mein Kollege Reinhard Genzel und seine Gruppe, aber auch ein Team in USA, haben seit Jahren mit immer besser aufgelösten Infrarotaufnahmen die Sterne in unmittelbarer Nähe des Zentrums beobachtet und dabei festgestellt, dass eine unsichtbare Masse, fast vier Millionen mal so schwer wie die Sonne, diese Sterne mit Geschwindigkeiten bis zu mehreren tausend Kilometern pro Sekunde herumschleudert. Außerdem verrät sich das Schwarze Loch dadurch, dass es etwa jeden Tag einmal eine Materiemenge von der Masse eines Berges verschluckt und dabei im Röntgenbereich und im Infrarot für kurze Zeit hell aufleuchtet. Woher weiß man, ob im Zentrum aller Galaxien ein Schwarzes Loch sitzt?
Tatsächlich findet man bei der Beobachtung naher Galaxien mit dem Hubble Space Teleskop, zum Teil auch mit Radioteleskopen, Hinweise auf Schwarze Löcher in fast allen größeren Galaxien. Interessanterweise gibt es einen unmittelbaren Zusammenhang zwischen der Größe der Galaxie und der Masse des zentralen Schwarzen Lochs, die darauf hindeutet, dass beide eine gemeinsame Entwicklungsgeschichte durchgemacht haben. Die ersten massigen Schwarzen Löcher im Universum sind dabei schon genauso früh entstanden, wie die ersten Galaxien. Der ganze Himmel ist im Röntgenlicht von einem diffusen Leuchten erfüllt, das wir in viele einzelne schwache Lichtpunkte auflösen konnten, die sich überwiegend als weit entfernte, aktiv fressende und deshalb hell leuchtende Schwarze Löcher herausgestellt haben.
Wie lange „lebt“ ein Schwarzes Loch? Kann es sich auch auflösen oder verschwinden?
Nach Steven Hawking kann ein Schwarzes Loch durch Quanten-Prozesse in seiner Umgebung Energie verlieren, allerdings nur in extrem geringen Mengen. Trotzdem kann deshalb ein Schwarzes Loch nicht unendlich lang leben. Für alle praktischen Anwendungen lebt es dennoch „ewig“ lange. Ein Schwarzes Loch mit einer Sonnenmasse zerstrahlt nach etwa 1067 Jahren. Eines der größten Schwarzen Löcher das wir kennen, M87 im Zentrum des uns benachbarten VirgoHaufens, kann annähernd 10100 Jahre leben. Bis dahin hat es dann vermutlich sämtliche bis dahin noch existierende Materie in seiner weiteren Umgebung verschlungen, inklusive unserer Galaxie. Sehr kleine Schwarze Löcher leben demgegenüber nur extrem kurz. Möglicherweise kann der bald in Betrieb gehende Large Hadron Collider winzig kleine Schwarze Löcher erzeugen und dann ihre HawkingStrahlung direkt messen.
Interview
Prof. Dr. Günther Hasinger, Direktor am Max-PlanckInstitut für extraterrestrische Physik, Träger des Leibnitz Preises 2005, entdeckte als Student seine Liebe zur Astronomie bei der Beobachtung einer Sternenexplosion. Heute stehen die Erforschung des Weltalls mittels Röntgensatelliten und die extragalaktische Astrophysik im Mittelpunkt seiner Arbeit. © Max-PlanckInstitut für extraterrestrische Physik, Felix Brandl
65
Cassini und Huygens am Saturn © ESA, D. Ducros
Besuch beim Herrn der Ringe: Cassini und Huygens am Saturn Er gilt als Herr der Ringe, er besitzt eine ganze „Herde“ an Monden und aufgrund seiner geringen Dichte könnte er sogar in Wasser schwimmen. Der Saturn gehört zu den rätselhaftesten Himmelskörpern in unserem Sonnensystem. Eine Mission, zwei Sonden Die Mission besteht aus zwei Sonden, dem Orbiter Cassini und dem „Huckepack“ mitgenommenen Landemodul Huygens, die am 1. Juli 2004 das Saturnsystem erreicht haben. Während Cassini noch bis zum Ende des Projekts am 30. Juni 2008 am Saturn aktiv ist – bis dahin wird das Raumschiff den Planeten mehr als 70-mal umkreist und rund 50 nahe Vorbeiflüge an verschiedenen Monden absolviert haben –, ist die Aufgabe von Huygens bereits jetzt erfüllt. Die Sonde war ausschließlich dafür gedacht, den Saturnmond Titan näher zu erforschen, auf dem sie am 14. Januar 2005 landete. Während des Sinkflugs und nach der Ankunft auf der Oberfläche führte die Sonde zahlreiche Messungen zur chemischen Zusammensetzung der Titanatmosphäre und -oberfläche durch.
66
Schon seit der Antike fasziniert der mit bloßem Auge am Firmament sichtbare Gasriese die Astronomen und Himmelsgucker. Wie unsere Sonne besteht er zum großen Teil aus Wasserstoff und Helium sowie Spuren von Methan, Ammoniak und diversen anderen Gasen. Seine Zusammensetzung ähnelt damit noch heute der des solaren Urnebels, aus dem vor 4,6 Milliarden Jahren unser Sonnensystem entstand. Dies und vieles andere mehr über den Saturn weiß man erst seit rund 25 Jahren. Damals kamen zum ersten Mal „Besucher“ von der Erde zu dem – nach Jupiter – zweitgrößten Planeten des Sonnensystems: Die Raumsonden Pioneer 11 (September 1979), Voyager 1 (November 1980) und Voyager 2 (August 1981) lieferten die ersten aussagekräftigen Bilder vom Saturn und seinen Monden, führten aber auch zahlreiche andere Messungen durch, die zum besseren Verständnis des Saturnsystems beitragen konnten. Bekannt ist seitdem beispielsweise die Struktur der äußeren Atmosphäre, in der gewaltige Wolkenbänder parallel zum Äquator um den Planeten ziehen. Und dass auf dem Saturn heftige Winde wehen, die Geschwindigkeiten von bis zu 1.800 Kilometern in der Stunde erreichen. Die Sonden wiesen zudem die enorme Komplexität und Vielgestaltigkeit der Saturnringe nach, die aus Eis- und Staubteilchen bestehen.
KOSMOS
Doch wie ist die innere Atmosphäre des Gasriesen aufgebaut? Auf welche Art und Weise sind die Saturnringe entstanden? Woher stammen die Saturnmonde? Ist der Trabant Titan mit seiner dichten Atmosphäre ein Abbild der Urerde? Diese und viele andere Rätsel um den Saturn konnten auch Pioneer und Voyager nicht lösen. Um endlich Licht ins Dunkel zu bringen, initiierten die NASA, die Europäische Weltraumorganisation (ESA) und die italienische Raumfahrtbehörde ASI die 3,4 Milliarden Dollar teure Cassini-HuygensMission und schickten sie 1997 – nach 15 Jahren Planungszeit – auf den Weg zum Saturn. Die Wissenschaftler erhofften sich von CassiniHuygens aber nicht nur Informationen über den Ringplaneten, sondern auch eine Antwort auf die Frage nach dem Ursprung des Sonnensystems und nach den Faktoren, die die Entwicklung von Leben und damit unsere Existenz ermöglichten.
Mit Swing-by-Manövern zum Saturn Um möglichst schnell zum Saturn zu gelangen, ist Cassini-Huygens mehrere „Swing-byManöver“ geflogen – zweimal an der Venus und je einmal an Erde und Jupiter. Dabei nutzte das Raumfahrzeug die Schwerkraft der Himmelskörper aus, um „Schwung“ zu holen und die für die Reise ins äußere Sonnensystem notwendige Geschwindigkeit zu erreichen. Erst durch dieses Prinzip des „Gravity Assist“, das große Mengen an Treibstoff spart, die zurück gelegte Flugstrecke aber erheblich verlängert, sind Reisen in die äußeren Bereiche unseres Sonnensystems möglich.
Ankunft am Herrn der Ringe
Am 1. Juli 2004 kamen die beiden Raumsonden Cassini und Huygens schließlich nach fast siebenjähriger Reise durchs All und 3,5 Milliarden zurückgelegten Kilometern wohlbehalten am Ringplaneten an. Seitdem haben sie so viele Daten von Saturn, seiner Umgebung und seinen Monden gesammelt, dass die Wissenschaftler mit der Auswertung der Bilder und Messergebnisse trotz modernster Computer in den Bodenstationen kaum hinterher kommen. 2005 und 2006 brachten aber schon eine ganze Flut an wichtigen Erkenntnissen über den Herrn der Ringe. Teilweise bestätigten Cassini und Huygens dabei die bisherigen Vermutungen der Wissenschaftler, die Sonden deckten aber auch eine Reihe von bisher unbekannten Phänomenen auf...
Geheimnisvolle Ringe Sensationelle neue Ergebnisse lieferte Cassini etwa über den Ursprung der Saturnringe. Bisher gab es dazu zwei unterschiedliche Hypothesen: Laut der „Kollisionstheorie“ gehen die Ringe auf den Zusammenstoß des Planeten mit einem Kometen oder Asteroiden zurück. Sie könnten aber auch die verstreuten Trümmer von früheren Saturnmonden sein, die durch Kollisionen oder Meteoriteneinschläge auseinanderbrachen. Für die Anhänger der „Relikttheorie“ dagegen ist das Ringmaterial ein Überbleibsel aus der Frühzeit der Planetenentstehung vor Milliarden von Jahren. Die Staub- und Eisbrocken wären demnach einfach erhalten geblieben, als die Planeten und Monde aus der großen Staubund Gasscheibe des Sonnensystems kondensierten. Physiker der Universität Potsdam haben im April 2006 Indizien dafür gefunden, dass die Kollisionstheorie stimmt. Cassini spürte
Titans Oberfläche aus der „Fischaugen-Perspektive“ © ESA/NASA/JPL/University of Arizona
67
Pioniere der Saturnforschung: Cassini und Huygens Der Name Cassini-Huygens für die Mission von NASA, ESA und ASI geht zurück auf zwei Pioniere der Astronomie und speziell der Saturnforschung: den französisch-italienischen Wissenschaftler Giovanni Domenico Cassini und seinen niederländischen Kollegen Christiaan Huygens. Während Huygens Mitte des 17. Jahrhunderts den größten Saturnmond Titan entdeckte und die wahre Natur der Saturnringe erkannte, spürte Cassini nur wenige Jahre später vier weitere bis dahin unbekannte Trabanten auf: Iapetus, Rhea, Tethys und Dione. Er wies aber auch erstmals nach, dass die Saturnringe durch eine schmale Lücke – die so genannte Cassini-Teilung – in zwei Gruppen getrennt sind.
A-Ring des Saturn © NASA/JPL/University of Colorado
68
mittlerweile sechs so genannte Moonlets in den Saturnringen auf – Objekte mit einer Größe von einigen Hundert Metern bis zu einigen Kilometern Durchmesser, die sich durch propellerartige Strukturen in den Ringen bemerkbar machen. Solche Moonlets entstehen jedoch fast ausschließlich bei einer kosmischen Kollision. Eisgeysire speisen E-Ring
Auch bei der Frage, woher der beständige Nachschub an Eis- und Staubpartikeln für die Ringe stammt, sind die Wissenschaftler seit Cassini einen Schritt weiter – zumindest was den E-Ring betrifft. Geholfen hat ihnen dabei der Cosmic Dust Analyzer (CDA) an Bord der Raumsonde. Der Staubdetektor wurde am Max-Planck-Institut für Kernphysik speziell für die Mission entwickelt und analysiert die Teilchen auf ihre elektrische Ladung, Geschwindigkeit, Flugrichtung und Masse. Er kann aber auch erstmals die chemische Zusammensetzung der Partikel bestimmen. Wie die Messungen des CDA in Kombination mit Computersimulationen ergaben, wird der riesige E-Ring von bisher unbekannten Eisgeysiren auf dem Saturnmond Enceladus gespeist. Verschiedene internationale Forscherteams unter Beteiligung des
Max-Planck-Instituts für Kernphysik konnten im März 2006 nachweisen, dass die Eisgeysire aus der Südpolregion andauernd Eisteilchen in den Weltraum schleudern. Die Partikel bildeten sich vermutlich in tiefen Spalten der Mondoberfläche aus Wasserdampf. Die Existenz der Eisgeysire wurde auch durch fotografische Aufnahmen vom Südpol bestätigt, auf denen deutlich geologisch junge Strukturen zu erkennen waren. Infrarotaufnahmen deuteten zudem auf eine erhöhte Wärmeabstrahlung in deren Umgebung hin. Sensation für die Fachwelt
„Die Entdeckung der Staubquelle auf Enceladus war für die Fachwelt eine Sensation“, kommentierte der Astrophysiker Alexander Krivov von der ebenfalls beteiligten Universität Jena die Ergebnisse. Bisher hatte man vermutet, dass die Eisteilchen durch das Bombardement der Mondoberfläche mit winzigen Meteoriten oder mit Ringteilchen hochgeschleudert werden. Die Wissenschaftler fanden damit aber nicht nur eine Erklärung für das „Überleben“ des Rings, sondern wiesen zudem bereits zum dritten Mal (nach der Erde und dem Jupitermond Io) aktiven Vulkanismus im Sonnensystem nach.
KOSMOS
Eine tiefgefrorene Urerde? – der Saturnmond Titan 47 Monde und damit so viele wie kein anderer Planet in unserem Sonnensystem besitzt der Saturn. Einer von ihnen ist für die Astronomen jedoch besonders interessant: Titan. Er wurde nicht nur als erster Trabant überhaupt entdeckt und übertrifft mit 5.150 Kilometern Durchmesser sogar Merkur und Pluto an Größe; er besitzt auch als einziger Mond im Sonnensystem eine dichte Atmosphäre. Die Schutzhülle von Titan reicht zehnmal so weit ins All wie die irdische und besteht vor allem aus Stickstoff, Methan und verschiedenen weiteren Gasen. So ähnelt die Atmosphäre jener der Urerde vor mehr als drei Milliarden Jahren, als die ersten primitiven Organismen entstanden. Bis zur Ankunft von Cassini-Huygens war der Saturnmond für die Astronomen jedoch wie ein Buch mit sieben Siegeln, denn ein Schleier aus rötlichen Schwebteilchen verbirgt seine Oberfläche vollständig. Bietet Titan trotz der eisigen Kälte von -178 °C günstige Bedingungen für die Entstehung von Leben? Gibt es dort erdähnliche Landschaften oder Wetterphänomene wie Regen und Schnee? Und welche Zusammensetzung hat die Gashülle des größten Saturnmondes genau? Diese Fragen sollte CassiniHuygens beantworten. Der Orbiter Cassini „durchleuchtete“ dazu mithilfe seines Radars die Atmosphäre und lieferte erste spektakuläre Bilder von der Oberfläche des Titan. Die Landesonde Huygens dagegen sammelte während ihres Sinkfluges und auch für mehr als eine Stunde nach der Landung große Mengen an Daten über die Zusammensetzung der Atmosphäre und die Struktur der Oberfläche. Mithilfe des Descent Imager/Spectral Radiometer (DISR) an Bord von Huygens gelangen zudem klare und scharfe Bilder von der Mondoberfläche. DISR besteht aus einem Verbund von 14 Kameras,
Spektrometern für sichtbares und infrarotes Licht sowie Fotometern und wurde extra für diese Mission entwickelt. Flüsse, Seen, Küsten
Was auf den Radarbildern und DISR-Aufnahmen zum Vorschein kam, entpuppte sich auf den ersten Blick als tatsächlich verblüffend „irdische“ Welt. So existieren beispielsweise ausgetrocknete Flussläufe, die aus einem höher gelegenen Gebiet in ein tiefes, flaches Terrain führen, begrenzt durch eine Art Küstenlinie, wie ein internationales Wissenschaftlerteam unter Beteiligung des MaxPlanck-Instituts für Sonnensystemforschung im Dezember 2005 feststellte. Wenige Monate später, im Juli 2006, spürte Cassini in den arktischen Regionen des Mondes zudem mehrere Dutzend Seen auf. Sie sind zwischen einem und 30 Kilometer breit und nach Ansicht der Wissenschaftler von NASA und dem U.S. Geological Survey vermutlich mit flüssigem Methan und/oder Ethan gefüllt. Der größte See erreicht sogar eine Länge von fast 100 Kilometern, scheint aber teilweise ausgetrocknet zu sein. Wie die Auswertung der Daten weiter ergab, übernimmt Methan in der exotischen Titanwelt die Rolle des Wassers auf der Erde und ist sowohl in festem, flüssigem und gasförmigem Zustand reichlich vorhanden. Wissenschaftler konnten im Juli 2006 sogar einen
Cassini-Falschfarbenbild des Saturnmonds Enceladus mit durch Eisvulkanismus erzeugter Staubfontaine. © NASA/JPL/ Space Science Institute
Falschfarbenaufnahme des Saturnmonds Titan © NASA/JPL/Space Science Institute
69
Ein Sammelsurium an Instrumenten 18 wissenschaftliche Instrumente befinden sich an Bord von Cassini und Huygens. Zu den wichtigsten Geräten zählen unter anderem das Cassini-Radar, das selbst durch die dichte Titanatmosphäre hindurch sehen kann, der Staubdetektor „Cosmic Dust Analyzer“ (CDA) und der „Descent Imager/Spectral Radiometer“ (DISR), der die Aufgabe hat, Aufnahmen von Titans Aerosolschicht, der Atmosphäre und der Oberfläche zu „schießen“. Das Instrument LEMMS, einer der drei Detektoren des so genannten „Magnetospheric Imaging Instruments“ (MIMI), ist dagegen in der Lage, Energie und Richtung von Ionen und Elektronen in der Saturn-Magnetosphäre zu ermitteln. Viele der Geräte wurden speziell für diese Mission entwickelt und kommen zum ersten Mal unter realen Bedingungen zum Einsatz.
weit gehend geschlossenen Methankreislauf nachweisen, der große Ähnlichkeit mit dem irdischen Wasserkreislauf aufweist. Vor allem aus Methan bestehen auch die dünnen Schleierwolken, aus denen beständig ein mit den Huygens-Instrumenten entdeckter, leichter Nieselregen fällt. Computersimulationen deuten darauf hin, dass diese Wolken in vielen Regionen des Mondes zu finden sind. Der Regen erodiert die Oberfläche und trägt sie im Laufe der Zeit ab. Wie spektrale Untersuchungen ergaben, sammeln sich die Niederschläge vermutlich anschließend zusammen mit dem Oberflächenmaterial in großen Seen.
So überraschend die Entdeckungen von Cassini-Huygens auch sein mögen, Hinweise auf Leben auf dem Titan haben die Sonden bisher nicht gefunden. Dennoch ziehen Wissenschaftler schon jetzt ein positives Fazit: „Die geologischen Hinweise auf Niederschläge, Erosion, mechanische Abtragungen und andere Fließvorgänge zeigen, dass die physikalischen Prozesse, die die Oberfläche des Titan formen, sich kaum von denen auf der Erde unterscheiden“, fasst Martin Tomasko, Hauptwissenschaftler des DISR die bisherigen Ergebnisse zusammen. Daten in Hülle und Fülle – die Cassini-Huygens
Steine aus Wassereis
Mission geht weiter
Huygens-Bilder aus einem solchen – zum Zeitpunkt der Aufnahme allerdings ausgetrockneten – See belegen diese Annahme. Sie zeigen auffällige, bis zu 15 Zentimeter große Trümmer, deren abgerundete Form und Größenverteilung darauf schließen lassen, dass sie durch eine Flüssigkeit dahin transportiert wurden. Nach Ansicht der Wissenschaftler bestehen diese Brocken vor allem aus Wassereis, das bei -178 °C auf dem Titan hart wie Stein geworden ist.
Obwohl die Cassini-Huygens-Mission die Erwartungen schon jetzt mehr als übertroffen hat, hoffen die Astronomen in Zukunft auf weitere spannende Ergebnisse. Denn die Auswertung der bisher von Cassini und Huygens gesammelten Daten ist noch längst nicht abgeschlossen. Und mit jeder Umkreisung des Saturn, mit jedem Nahe-Vorbeiflug von Cassini an einem der Monde bis zum Ende der Mission im Juni 2008 kommen neue hinzu.
WAS SONST NOCH GESCHAH Enceladus: Eisfontänen mit Fernwirkung Der kleine Mond Enceladus speist mit seinem Eisvulkanismus nicht nur den E-Ring des Saturn, die Auswirkungen des Phänomens können sogar noch in einer Million Kilometer Entfernung vom Trabanten nachgewiesen werden. Dies haben Wissenschaftler des Max-Planck-Instituts für Sonnensystemforschung mithilfe eines selbst entwickelten Detektors an Bord der Raumsonde Cassini entdeckt. Wie die Astronomen im März 2006 berichteten, sorgen die permanenten Eis- und Gasfontänen dort für „Löcher“ in der Magnetosphäre des Saturn. (SCIENCE, März 2006)
Eismond Enceladus
© NASA/JPL
70
Höhen-Sturm auf dem Titan Auf dem Saturnmond Titan stürmt es kräftig – zumindest 120 Kilometer hoch oben in der Atmosphäre. Messungen der Huygens-Sonde haben dort Windgeschwindigkeiten von bis zu 430 Kilometer pro Stunde ermittelt. Damit rotiert die Atmosphäre hier sogar schneller als der Mond selber, so ein internationales Forscherteam unter Beteiligung der Ruhr-Universität Bochum im Dezember 2005. In Bodennähe dagegen gibt es nur noch ein laues Lüftchen, das gerade mal drei bis vier Kilometer pro Stunde erreicht. Rätselhaft ist allerdings noch ein „Flautenloch“ in den mittleren Höhen der Atmosphäre, wo die Windgeschwindigkeiten beinahe bis auf Null absinken. (NATURE, Dezember 2005)
KOSMOS
Wissen Hoch 12: Mehr als zwei Jahre erforscht die Cassini-Huygens-Mission mittlerweile den Saturn und seine Monde. Wie fällt ihre erste
schaftler auf Teammeetings oder internationalen Tagungen, wo dann über die Ergebnisse ausgiebig diskutiert wird.
Interview
Zwischenbilanz aus?
Die Mission ist ein voller Erfolg und hat auch schon einige sehr unerwartete neue Ergebnisse geliefert: erste Bilder der Oberfläche des Mondes Titan mit Flussläufen in denen sehr wahrscheinlich Methan fließt, Schluchten auf dem Mond Enceladus aus denen Wasser herauskommt, Details aus den Ringsystemen mit zuvor nie erreichter Auflösung, Variationen der so genannten Plasmaumgebung des Saturn, die mit der gleichen Rotationsperiode wie der Planet variieren, Entdeckung von vielen neuen Monden im Saturnsystem – um nur einige zu nennen. Es heißt ja, die Atmosphäre des Titan und jene der Urerde würden sich gleichen. Wie weit gehen denn die Ähnlichkeiten? Und liefert der Blick auf die Titanhülle tatsächlich Einblicke in die frühe
Viele der wissenschaftlichen Instrumente an Bord der Raumsonden wurden extra für diese Mission gebaut. So war das MPI für Sonnensystemforschung beispielsweise an der Planung und Entwicklung des „Magnetospheric Imaging Instruments“ (MIMI) beteiligt. Welche Aufgabe hat MIMI?
MIMI misst geladene und neutrale Teilchen in der so genannten Magnetosphäre des Planeten. Innerhalb dieser Magnetosphäre ist der Einfluss des Saturnmagnetfeldes bestimmend und es laufen sehr dynamische Prozesse ab, die man mit dem bloßen Auge nicht sehen kann. Veränderungen in den Teilchenpopulationen lassen Rückschlüsse auf diese Prozesse zu. Das Instrument arbeitet sehr gut und liefert uns täglich neue Daten aus etwa 800 Millionen Kilometern zurück zur Erde.
Geschichte unseres Planeten?
Es ist richtig, dass die Zusammensetzung der Titanatmosphäre ähnlich derjenigen ist, wie auf der Erde vor mehr als vier Milliarden Jahren. Allerdings gibt es wesentliche Unterschiede. Titan ist etwa zehnmal so weit von der Sonne entfernt wie die Erde, das heißt nur etwa ein Prozent des Sonnenlichtes erreicht den Saturnmond. Die Oberflächentemperaturen auf Titan liegen bei etwa -180° C. Die Entwicklung beider Himmelskörper verlief aus diesen und anderen Gründen unterschiedlich. Welche Prozesse genau abgelaufen sind, wird Cassini vielleicht ein Stück weit erklären können. An der Auswertung der Cassini-Huygens-Daten
Voraussichtlich bis Ende Juni 2008 wird die Raumsonde Cassini noch Daten und Bilder vom Saturnsystem liefern. Erwarten Sie noch spekta-
Dr. Norbert Krupp ist Mitarbeiter der Abteilung Planeten und Kometen des MPI für Sonnensystemforschung. Sein Schwerpunkt ist die Analyse wissenschaftlicher Daten von Raumsonden, insbesondere Daten der Magnetosphären von Jupiter und Saturn, aber auch bodengebundener Beobachtungen der Photosphäre und Chromosphäre der Sonne. © Norbert Krupp
kuläre Ergebnisse?
Cassini hat und wird auch in den folgenden Jahren wissenschaftlich hoch interessante Daten liefern. In den nächsten beiden Jahren wird sich die Bahn der Raumsonde im Saturnsystem verändern. Im Laufe des nächsten Jahres wird Cassini über Nord- und Südpol des Planeten fliegen. Da kann man sicher neue Ergebnisse erwarten. Man redet auch schon über eine mögliche Verlängerung der Mission für die Dauer von weiteren zwei Jahren. „The show has just begun“, wie die Amerikaner sagen.
sind Wissenschaftler aus der ganzen Welt beteiligt. Wie klappt die Zusammenarbeit?
Die Zusammenarbeit im Projekt Cassini/ Huygens verläuft sehr gut. In regelmäßigen Abständen treffen sich die beteiligten Wissen-
71
72
ERDE, WETTER, KLIMA Die Erde ist ein unruhiger Planet, der durch Erdbeben, Tsunamis, Stürme oder Vulkane ständig verändert und zum Teil neu geschaffen wird. Viele der Prozesse und Mechanismen, die das Antlitz unseres Planeten formen, sind jedoch noch immer nicht endgültig verstanden. Wissenschaftler weltweit untersuchen deshalb das System Erde, seine Dynamik sowie die vielen Wechselwirkungen zwischen der Atmosphäre, dem Meer und der festen Erde. Die Erwärmung der Erde könnte dazu beitragen, dass wir in Zukunft mehr Hurrikans der Kategorie 4 oder 5 erleben. Ist die Zunahme von Extremwetterereignissen ein Vorbote des Klimawandels? Wie viel Schuld an der globalen Erwärmung trägt der Mensch mit seinen enormen Treibhausgasemissionen? Und: Wie wird das Klima der Zukunft aussehen? Immer präzisere Antworten auf diese Fragen liefern neue Klimasimulationen, die mithilfe leistungsfähiger Supercomputer und verbesserten Modellen durchgeführt wurden. Fazit: Der Klimawandel wird in den kommenden 100 Jahren vermutlich so rasant voranschreiten wie noch nie – auch in Deutschland. Naturkatastrophen haben die Menschen schon immer bedroht. Ihre Vorhersage und damit die Einleitung entsprechender Schutzmaßnahmen stehen daher im Mittelpunkt der Arbeiten zahlreicher Geowissenschaftler. Doch weder für einen Tsunami noch für einen Vulkanausbruch oder ein Erdbeben gibt es bisher die Möglichkeit einer präzisen Prognose. Allerdings sind die Geowissenschaftler bei der Erforschung der Mechanismen, die bei diesen Ereignissen ablaufen, einen erheblichen Schritt weitergekommen. Sie könnten damit zumindest zum Ausbau von Frühwarnsystemen beitragen, die helfen sollen, die Zahl der Opfer zu reduzieren.
Die Erde aus dem All © NASA/NOAA/USGS
Klimawandel – so rasant wie noch nie?
74
Naturkatastrophen: frühere Warnung, bessere Überwachung
85
73
Klimawandel: Ungemütliche Aussichten © NOAA, Grant W. Goodge
Klimawandel – so rasant wie noch nie? „Deutschland muss sich spätestens zur Mitte des Jahrhunderts auf die Zunahme extremer Wetterereignisse wie starke Sommergewitter oder längere Trockenperioden einstellen. Der globale Klimawandel, in dem wir uns befinden, hat definitiv auch Auswirkungen bei uns“, prophezeit Daniela Jacob vom Max-PlanckInstitut für Meteorologie in Hamburg. Doch das ist längst noch nicht alles: Die Durchschnittstemperaturen hierzulande werden nach Angaben der Klimaforscherin in den kommenden 100 Jahren voraussichtlich um 2,5 bis 3,5 °C steigen – je nachdem, wie sich die Treibhausgas-Emissionen in Zukunft entwickeln. Die Vorboten dieser Entwicklung haben Deutschland möglicherweise schon erreicht. Denn die so genannten Jahrhundertsommer häufen sich. Auch im Jahr 2006 gab es im Juni und Juli Temperaturen von weit über 30 °C, kaum Wolken, geschweige denn Regen – und das wochenlang am Stück. Zuletzt hatte 2003 eine ähnliche extreme Hitzewelle sogar für viele tausend Tote und Ernteschäden in Milliardenhöhe gesorgt. Aber nicht nur die Sommer, sondern auch die Winter drohen nach den Erkenntnissen der Klimaforscher in Zukunft ungemütlicher zu werden. „Wir müssen mit 20 bis 30 Prozent mehr Niederschlägen rechnen, ein Großteil davon als Regen“, sagt Jacob. Für die Alpen erwartet sie in Zukunft deutlich weniger Schnee. Grund: Durch die
74
ERDE, WETTER, KLIMA
höheren Temperaturen fällt der Niederschlag auch im Gebirge in erster Linie in Form von Regen. Soweit die Prognosen der Klimaforscher. Doch wieso können die Meteorologen überhaupt so präzise Aussagen über das Klima der nächsten 100 Jahre machen, wenn selbst der Drei-Tage-Wetterbericht mitunter noch falsche Vorhersagen enthält? Und: Wie sicher sind ihre Prognosen? Modelle: Das Handwerkszeug der Klimaforscher
Bei der Antwort auf diese Fragen kommen so genannte Klimamodelle ins Spiel. Dabei handelt es sich um komplexe Gleichungssysteme mit zahlreichen Variablen wie Temperatur, Luftdruck, Windgeschwindigkeit und Gehalt an Wasserdampf in der Atmosphäre, die das Klimageschehen beschreiben. Um eine möglichst hohe räumliche Auflösung zu erreichen, teilen die Forscher das Modell der Erde und Atmosphäre zuvor in Würfel. Für jeden einzelnen Würfel berechnet der Computer dann ein „lokales“ Klima – einen der vielen Puzzlesteine, die sich schließlich zu einem aussagekräftigen Gesamtbild der Klimaentwicklung zusammenfügen. Je höher die Auflösung der Klimamodelle, desto genauer und realistischer werden die Szenarien. Für eine exakte Abbildung der Natur müssten die Forscher das Modell in unendlich viele kleine Würfel teilen. In diesem Fall würde der Computer aber auch unendlich lange benötigen, um das Klima zu berechnen. Die Forscher müssen sich deshalb bei ihren gekoppelten globalen Klimamodellen mit einer räumlichen Auflösung von 100 bis 200 Kilometern (das entspricht der Kantenlänge eines Würfels) begnügen. Der Rechner benötigt dann knapp einen Monat, um das Klima für die kommenden 100 Jahre zu simulieren.
Bild: Elbehochwasser 2006 in Hitzacker © Harald Frater „Jahrhunderthochwasser“ als Vorbote des Klimawandels? Das „Jahrhunderthochwasser“ an der Elbe traf im April 2006 die meisten Anrainer unerwartet heftig. In vielen Orten Norddeutschlands übertraf die Flut sogar die Rekordwerte der letzten Elbeflut im Jahr 2002. Zwei schwere Hochwasserkatastrophen innerhalb von vier Jahren – Zufall oder doch ein Beleg dafür, dass der Klimawandel bereits begonnen hat? Während Umweltorganisationen glauben, dass die erneute Jahrhundertflut genau den prognostizierten Szenarien des Klimawandels entspricht, sind die Wissenschaftler vorsichtiger. Sie warnen davor, solche Extremwetterereignisse gleich auf die globale Erwärmung zurückzuführen, und begründen dies mit der natürlichen Schwankungsbreite des Klimas. Erst wenn solche Extremereignisse über einen längeren Zeitraum gehäuft auftreten, könnte ein Klimawandel als Ursache in Betracht kommen.
75
Wie gut sind die Klimamodelle?
Um die Qualität ihrer Klimamodelle beurteilen zu können, berechnen die Forscher Klimaszenarien der Vergangenheit und vergleichen die Ergebnisse mit den tatsächlichen Beobachtungsdaten. Nur bei ausreichender Übereinstimmung können sie davon ausgehen, dass ihr Computermodell auch gut genug ist, um das Klima der Zukunft vorherzusagen. „Auf diese Weise konnten die theoretischen Modelle an die Wirklichkeit angepasst werden“, erläutert Jochem Marotzke, Direktor am Max-Planck-Institut für Meteorologie. Gekoppelte Modelle
In den vergangenen Jahren haben die Forscher ihre Handwerkszeuge, die Klimamodelle, in entscheidenden Punkten verbessert – und damit auch die Qualität ihrer Prognosen. Mittlerweile werden die einzelnen Komponenten des Erdsystems, also Ozeane, Atmosphäre und die feste Erde nicht mehr isoliert voneinander betrachtet und erforscht. Denn zwischen diesen Komponenten gibt es eine Vielzahl von Wechselwirkungen – jede Änderung einer Komponente beeinflusst das ganze System. Klimaforscher setzen deshalb auf so genannte gekoppelte Modelle. Wird zum Beispiel die Zusammensetzung der Atmosphäre durch Zugabe von Kohlendioxid verändert, so erwärmt sich das Klima, der Meeresspiegel steigt und Pflanzen wachsen schneller. Diese Veränderungen wiederum beeinflussen die Zusammensetzung der Atmosphäre, wodurch vielfache Rückkopplungen entstehen. „Lange Zeit ging man davon aus, dass das physikalisch-geologische Klimasystem das Primat besitzt und sich biologische Prozesse diesem unterordnen“, erklärt Marotzke. „Tatsächlich besitzt die Biosphäre auf der Erde aber das Potenzial, das Erdsystem wesentlich zu beeinflussen.“ So stellen beispielsweise Änderungen in der Stärke der „biologischen Pumpe“
76
der Ozeane über längere Zeiträume einen der wichtigsten Kontrollmechanismen der atmosphärischen Kohlendioxid-Konzentration dar. Dabei nehmen marine Mikroorganismen Kohlendioxid auf und verfrachten es – wenn sie absterben – als organische Kohlenstoffverbindungen in die Tiefe. Ohne diese „biologische Pumpe“ läge nach Schätzung der Hamburger Experten die CO2-Konzentration in der Atmosphäre heute bei 580 statt bei 380 ppm (parts per million). Darüber hinaus fügen die Forscher ihren Klimarechnungen heute auch noch andere wichtige Variablen hinzu. Unberechenbare Aerosole?
Neue „Mitspieler“ in den Klimasimulationen sind beispielsweise Aerosole. Diese winzigen Teilchen (ein mittelgroßes Aerosolpartikel misst etwa 100 Nanometer) gelangen über die Gischt der Ozeane, die Staubfracht von Stürmen, bei Vulkanausbrüchen oder durch die Verbrennung fossiler Energieträger in die Atmosphäre. Hier streuen oder absorbieren die feinen Partikel Licht- und Wärmestrahlung und behindern dadurch den Energiefluss von der Sonne auf die Erde sowie umgekehrt von der Erde zurück in den Weltraum. Tendenziell wirken Aerosole in der Atmosphäre abkühlend. „Seit Beginn der Industrialisierung haben sie vermutlich die Durch-
Globale Wolkendicke, Temperaturanomalien im Pazifik durch El Nino und Verteilung von Waldbränden – erstellt auf der Basis von Daten verschiedener Satelliten und Sensoren © R.B. Husar, Washington University; Landoberfläche: SeaWiFS Project; Feuerkarten: European Space Agency; Meeresoberflächentemperaturen: Naval Oceanographic Office‘s Visualization Laboratory; Wolken: SSEC, U. of Wisconsin
ERDE, WETTER, KLIMA
77
Klimaschutz: Guter Ruf als Köder Kann man Menschen davon überzeugen, Geld für den Kampf gegen die globale Erwärmung und ihre Folgen zu spenden? Dieser Frage sind Max-Planck-Wissenschaftler im Jahr 2006 in Spielexperimenten mit Studenten nachgegangen. Ergebnis: Firmenchefs, Manager oder „Normalbürger“ engagieren sich vor allem dann für den Klimaschutz, wenn sie über das Thema gut informiert sind und ihre gute Tat – beispielsweise eine größere Investition – bekannt gemacht wird. Die Geber erhalten so öffentliche Anerkennung, die ihnen offenbar mindestens genauso wichtig ist wie das gezahlte Geld. „Tue Gutes, wenn andere das auch sehen können“ – diese Grundeinstellung des Menschen müssen Politiker und Umweltschützer berücksichtigen, wenn Strategien und Aktionen zum Klimaschutz Erfolg haben sollen. (PNAS, Februar 2006)
schnittstemperaturen auf der Erde um 0,4 °C Celsius gesenkt und damit die globale Erwärmung in den letzten 100 Jahren auf 0,6 °C begrenzt“, so Johannes Quaas, Nachwuchsgruppenleiter am Max-Planck-Institut für Meteorologie. Doch die Aerosole und ihre Rolle im Klimageschehen sind nach wie vor nicht ausreichend untersucht und gelten daher noch immer als erhebliche Unsicherheitsfaktoren in Klimamodellen. So wirken Aerosole unter bestimmten Bedingungen nicht abkühlend, sondern können den Treibhauseffekt sogar noch verstärken. Und auch ihr Einfluss auf die Wolkenbildung ist längst nicht abschließend geklärt. Manchmal fördern sie die Wolkenentstehung, manchmal jedoch hemmen sie diese auch. Wissenschaftler vom Goddard Space Flight Center der NASA in Kalifornien und vom israelischen Weizman Institut haben im Juli 2006 erstmals entdeckt, warum dies so ist. Offenbar ist die Färbung der Aerosolpartikel entscheidend: Wenn helle, Licht reflektierende Aerosole in der Atmosphäre vorherrschten, gab es auch viele Wolken. Deutlich weniger Wolken registrierten die Messinstrumente immer dann, wenn dunklere, Licht absorbierende Aerosole dominierten – eine Erkenntnis, die in Zukunft auch in die Klimamodelle mit einfließen wird. Die Forschung an Aerosolen ist deshalb „einer der wesentlichen Schlüssel für bessere Klimamodelle“, sagt Quaas. „Nur wenn wir die Aerosoleffekte verstehen, können wir langfristige Klimaveränderungen vorhersagen.“ Mehr Teraflops für bessere Simulationen
Ohne HLRE geht in der deutschen Klimaforschung gar nichts. HLRE steht für „Höchstleistungsrechnersystem für die Erdsystemfor-
Die Auflösung der Klimamodelle nimmt immer weiter zu: Von einem Gitterabstand von rund 500 km (T21) über 250 km (T42) zu heute 180 km (T63). Zukünftig soll eine Auflösung von 110 km (T106) erreicht werden© Max-Planck-Institut für Meteorologie, Norbert Noreiks
78
ERDE, WETTER, KLIMA
schung“, und dieses ist am Deutschen Klimarechenzentrum (DKRZ) in Hamburg zu Hause. Erst Anfang 2004 wurde „das zentrale Arbeitsgerät der Forscher, die mit Klima- und Erdsystemmodellen das vergangene, das heutige und das zukünftige Klima untersuchen“, so Michael Böttinger vom DKRZ, endgültig fertig gestellt. Jahrelang hatten die Klimaforscher auf ihren neuen, 34 Millionen Euro teuren Supercomputer gewartet. Dieser hat mit 1,5 Teraflops hundertmal so viel Rechenleistung wie sein Vorgänger, die CRAY 90. HLRE verkürzt die Zeit, die für die Klimarechnungen benötigt wird, deutlich und macht andere, noch viel datenintensivere Simulationen überhaupt erst möglich. Bei der alten CRAY kamen schnell 100 Tage Rechenzeit für 100 Jahre Simulation zusammen – selbst bei geringerer Auflösung der Klimamodelle. Der neue HLRE konnte seine enorme Leistungsfähigkeit mittlerweile unter Beweis stellen. So haben die Wissenschaftler um Daniela Jacob damit die neuen Klimaszenarien für Deutschland mit einer Auflösung von zehn Kilometern berechnet. Und zwischen Mai 2004 und Mai 2005 kam der Supercomputer ebenfalls zum Einsatz, um wichtige Szenarien für den 4. Klima-Statusbericht des IPCC (Intergovernmental Panel on Climate Change) zu ermitteln. „Mit gekoppelten AtmosphäreOzean-Modellen wurden in 18 einzelnen Experimenten insgesamt etwa 5.000 Jahre simuliert“, so DKRZ-Experte Böttinger. Höhere Temperaturen, steigender Meeresspiegel
Die IPCC-Studie erscheint zwar erst im Jahr 2007, doch die Ergebnisse der Modellrechnungen sind schon jetzt eindeutig: Das Klima wird sich aller Voraussicht nach im 21. Jahrhundert so schnell ändern wie noch nie in der jüngeren Erdgeschichte. Die Simulationen sagen einen Anstieg der globalen
Temperatur um bis zu vier Grad Celsius innerhalb der nächsten zehn Dekaden voraus. Als Folge der Erwärmung wird sich der Meeresspiegel durchschnittlich um bis zu 30 Zentimeter erhöhen – mindestens. „Das wesentliche Ergebnis der Zukunftsszenarien ist die fortschreitende Erhöhung der globalen Mitteltemperatur und die damit verbundene Verschiebung von Klimazonen“, kommentiert Erich Roeckner, Projektleiter der Hamburger Modellrechnungen, die Resultate der Simulationen. Die Wissenschaftler konnten damit die Vermutung bestätigen, dass der Mensch einen großen und bislang nie da gewesenen Einfluss auf unser Klimageschehen hat. Die Folgen eines derart gravierenden Klimawandels für Mensch und Natur wären enorm. In der Arktis beispielsweise werden die Eisbären vermutlich nicht mehr lange von Eisscholle zu Eisscholle wandern, da es dort wegen des schmelzenden Meereises in einigen Jahrzehnten gar keine Schollen mehr geben wird. Eine Studie des Nationalen Schnee- und Eisdatenzentrums der USA (NSIDC), die Ende 2005 vorgestellt wurde, unterstützt diese Annahme. Die Wissenschaftler kommen darin zu dem Schluss: „Wenn der derzeitige Schwund des Meereises anhält, könnte die Arktis bis zum Ende des Jahrhunderts im Sommer komplett eisfrei sein.“
Offene Stellen im Meereis der Antarktis © NOAA
79
ECMWF (European Centre for Medium-Range Weather Forecasts) Wo: Reading/Großbritannien Maximale Rechenleistung: zwei Supercomputer mit jeweils 9,241 TFlop/s Aufgabe: Wetter- und Klimaforschung
The U.S. Department of Energy‘s National Energy Research Scientific Computing Center (NERSC) / Lawrence Berkeley National Laboratory (NERSC/LBNL) Wo: Berkeley/USA Maximale Rechenleistung: 7,304 TFlop/s Aufgabe: unter anderem Wetter- und Klimaforschung
National Centers for Environmental Prediction Wo: Camp Spring/USA Maximale Rechenleistung: zwei Supercomputer mit jeweils 4,379 TFlop/s Aufgabe: Wetter- und Klimaforschung NCAR (National Center for Atmospheric Research) Wo: Boulder/USA Maximale Rechenleistung: 4,713 TFlop/s Aufgabe: Wetter- und Klimaforschung
Standorte von Supercomputern für die Klimaforschung
80
Geoscience (E) Wo: Houston/USA Maximale Rechenleistung: 12,312 TFlop/s Aufgabe: Geophysikalische Forschung
ERDE, WETTER, KLIMA
China Meteorological Administration Wo: Peking/China Maximale Rechenleistung: 10,31 TFlop/s Aufgabe: Wetter- und Klimaforschung Japan Meteorological Agency Wo: Tokio/Japan Maximale Rechenleistung: zwei Supercomputer mit jeweils 9,036 TFlop/s, ein weiterer mit 4,993 TFlop/s Aufgabe: Wetter- und Klimaforschung
Korea Meteorological Administration
Earth Simulator (NEC)
Wo: Seoul/Südkorea Maximale Rechenleistung: 15,706 TFlop/s Aufgabe: Wetter- und Klimaforschung
Wo: Yokohama/Japan Maximale Rechenleistung: 35,860 TFlop/s Aufgabe: Simulation von geophysikalischen, klimatischen und wetterbedingten Phänomenen
Forschungszentrum Jülich / Blue Gene (JUBL) Der zurzeit schnellste Supercomputer der Welt für die freie Forschung steht im Forschungszentrum Jülich. Der Jülicher Blue Gene (JUBL) hat eine maximale Rechenleistung von 37,33 Teraflops pro Sekunde (TFlop/s). Dies sind 37,33 Billionen Rechenschritte pro Sekunde oder weit mehr als das 10.000-fache der Leistung eines modernen Personal Computers. JUBL wird beispielsweise zur Simulation der Schadstoffausbreitung im Erdreich und in der Atmosphäre eingesetzt.
81
Aber nicht nur die Polregionen müssten dem atemberaubend schnellen Tempo des Klimawandels Tribut zollen, auch für viele andere Regionen weltweit sagen Forscher schwerwiegende Folgen voraus. Da die Ozeane nicht nur immer mehr Wasser führen, sondern auch wärmer werden, verstärken sich in vielen Regionen der Welt die Tropischen Wirbelstürme. So hat sich die Zahl der Hurrikans der Kategorien 4 und 5 in den letzten 35 Jahren nahezu verdoppelt – für die Forscher des Georgia Institute of Technology in den USA eine eindeutige Folge des Klimawandels. Ein Modell für das System Erde
Messturm in Sibirien Seit September 2006 ist in Zentralsibirien eine neue Klimaforschungsstation in Betrieb. Dabei handelt es sich um einen 300 Meter hohen Messturm, die Zotino Tall Tower Observation Facility (ZOTTO). Die Wissenschaftler des Max-Planck-Instituts für Biogeochemie in Jena und vom Max-Planck-Institut für Chemie in Mainz wollen von ihm aus mindestens 30 Jahre lang die für das Weltklima relevanten chemischen Bestandteile der Atmosphäre, insbesondere das Kohlendioxid (CO2) messen. Der Turm ergänzt ein Messnetz aus rund 30 über ganz Europa verteilten Stationen, mit dem die EU die Rolle des Kontinents im globalen Kohlenstoffkreislauf klären will. ZOTTO beobachtet dabei die Weite Westsibiriens, die Daten von der Turmspitze sind repräsentativ für ein Gebiet von bis zu einer Million Quadratkilometer. Bei der Prognose des Weltklimas gehören die endlosen Wälder Sibiriens bisher zu den großen Unbekannten. Denn nach wie vor ist nicht geklärt, ob sie mehr CO2 aufnehmen oder abgeben. Hinzu kommt, dass die globale Erwärmung die Permafrostböden Sibiriens auftauen könnte. Bakterien wären dann in der Lage, den Humus besser anzugreifen und damit mehr CO2 und andere Treibhausgase freizusetzen – mit „potenziell ernsten Konsequenzen“, wie die Max-Planck-Forscher befürchten. Andererseits könnten höhere Temperaturen aber auch zu stärkerem Pflanzenwachstum und damit zu einer vermehrten Bindung von CO2 führen. Außer den Treibhausgasen tragen die Wälder Sibiriens aber auch zur atmosphärischen Aerosolbelastung bei. Vor allem die vielen Waldbrände in Sibirien erzeugen gewaltige Rauchwolken, die oft weite Teile der Region einhüllen. Die dabei freigesetzten Rußteilchen beeinflussen die Strahlungsbilanz und die Bildung von Wolken und Niederschlag. Auch der Effekt dieser Prozesse auf das Klima ist bisher nur unvollständig bekannt. Um ihre Computersimulationen zu prüfen und zu verbessern, brauchen die Forscher die Daten von ZOTTO. Denn dass die Atmosphäre sich erwärmt, ist mittlerweile Konsens – nur um wie viel, darüber klaffen die Prognosen noch weit auseinander. Bild: Messturm in Nordostsibirien © MPG
82
So genau die Klimaprognosen heute auch schon sein mögen, den Forschern ist das noch nicht genug. Sie wollen ihre Modelle in den kommenden Jahren weiter verbessern. Am Ende soll ein umfassendes Erdsystemmodell stehen, das alle Prozesse in der Atmosphäre, in den Weltmeeren, in der Biosphäre und in den Eismassen berücksichtigt – einschließlich der Wechselwirkungen zwischen den verschiedenen Komponenten. Und es wird auch den Einfluss des Menschen auf das System Erde einbeziehen und erklären, wie wir mit unseren Treibhausgas- und Aerosolemissionen das Weltklima verändern. Allerdings reicht dafür die Rechenkapazität von HLRE und anderer Höchstleistungsrechner weltweit nicht aus. Der Wettlauf um mehr Teraflops wird daher auch in Zukunft weitergehen, um den Klimawandel im 21. Jahrhundert noch präziser vorherzusagen und die „richtigen“ Klimaschutzmaßnamen in die Wege zu leiten.
Gewinner und Verlierer Ökologische und ökonomische Auswirkungen des Klimawandels in Deutschland Schäden durch Wetterextreme:
Für Schäden in Höhe von 16,5 Milliarden Euro haben extreme Wetterereignisse in den letzten zehn Jahren in Deutschland gesorgt. Tendenz stark steigend. Nach Schätzungen des Umweltbundesamtes könnte der Klimawandel 2050 bereits 27 Milliarden Euro jährlich kosten. Landwirtschaft:
Am schlimmsten betroffen vom drohenden Klimawandel in Deutschland ist vermutlich die Landwirtschaft. Durch steigende Temperaturen und vor allem Dürreperioden drohen besonders im Nordosten des Landes Ernteausfälle von bis zu 40 Prozent. Auch Obstbauern und Forstwirte müssen in Zukunft mit deutlich geringeren Erträgen rechnen. Viele unserer heimischen Baumarten werden
ERDE, WETTER, KLIMA
in einem heißeren Klima weniger Früchte beziehungsweise Holz liefern oder sogar ganz verschwinden. In Süddeutschland, aber auch in anderen Regionen des Landes, raten Experten deshalb beispielsweise bei Neuanpflanzungen schon heute zu wärmetoleranten Obstbaumsorten, die auch Trockenzeiten gut überstehen. Tourismus:
Weniger Schnee in den Alpen, das bedeutet auch einen Rückgang des Tourismus – vor allem im Winter während der Skisaison. Die deutsche Nord- und Ostseeküste und die vor gelagerten Inseln dagegen würden vom Klimawandel möglicherweise sogar profitieren. Höhere Temperaturen und mehr Sonne könnten die Urlauber künftig noch zahlreicher an die Strände von Baltrum bis Usedom locken. Biodiversität:
Die erwarteten Klimaänderungen werden dafür sorgen, dass viele heute bei uns heimische Tier- und Pflanzenarten in kühlere Gefilde abwandern oder sogar aussterben. Nach den Prognosen von Wissenschaftlern und Naturschützern könnten bis 2050 zwischen fünf und 30 Prozent aller Pflanzenarten aus Deutschland verschwinden. Doch auch für „Nachschub“ hinsichtlich der Artenvielfalt sorgt der Klimawandel:
Schon jetzt werden in Deutschland zahlreiche Tiere und Pflanzen gesichtet, die eigentlich viel weiter südlich zuhause sind. Dazu gehört beispielsweise der Dornfinger, eine nachtaktive Webspinne, die bis in die 1960er-Jahre nicht nördlich des Mains gefunden wurde. In den letzten Jahrzehnten hat sie ihr Areal jedoch bis nach Berlin ausgeweitet. Gleiches gilt für den Bienenfresser, der sich ebenfalls in Europa in Richtung Norden ausbreitet, und von dem mittlerweile in Dänemark schon Brutpaare beobachtet wurden. Im Juli 2006 konnte man vor der Küste Cornwalls sogar eine Gruppe von 19 Mondfischen beobachten, die sich vermutlich aufgrund der gestiegenen Wassertemperaturen dort eingefunden hatte. Dieser drei Meter lange und vier Meter hohe, weltweit größte Knochenfisch kommt normalerweise in den warmen Meeren Asiens, Afrikas und Australiens vor. Auf manch andere Zuwanderung würden wir jedoch gerne verzichten: In Griechenland, Spanien und Italien werden Ärzte durch die Einwanderung der Anopheles-Mücke aus Afrika künftig häufiger mit Malaria und anderen Tropenkrankheiten zu kämpfen haben.
Krankheitsübertragende Stechmückenarten wie hier Aedes aegypti könnten zukünftig auch in Deutschland häufiger auftreten. © CDC, James Gathany
Klimaschutz: Schnelles Handeln lohnt sich Wenn möglichst viele Länder jetzt schnell in den Klimaschutz investieren, würde sich dies auch wirtschaftlich lohnen. Das geht aus neuen Modellrechnungen des Umweltbundesamtes und des Potsdam-Instituts für Klimafolgenforschung hervor. Danach würde es nur ein Prozent der weltweiten Wirtschaftsleistung kosten, den globalen Ausstoß an Treibhausgasen bis 2050 um 50 Prozent gegenüber 1990 zu senken und so den globalen Temperaturanstieg auf 2°C zu begrenzen. Dies ist nach Ansicht von Klimaforschern nötig, um den Klimawandel zu bremsen und die sich daraus ergebenden Folgen auf ein erträgliches Maß zu beschränken. Ein weiteres Zögern beim Klimaschutz würde dagegen teuer: Geht die globale Erwärmung ungebremst weiter, drohen Klimaschäden in Höhe von mindestens zehn Prozent der Weltwirtschaftsleistung.
83
Interview
Wissen hoch 12: Wie geht die Entwicklung
Ist die globale Erwärmung noch in den Griff zu
weiter? Wann wird es ein umfassendes Erdsys-
bekommen?
temmodell zur Simulation des Weltklimas
Einige künftige Klimafolgen des menschengemachten CO2-Ausstoßes, wie eine gewisse Erwärmung und ein Anstieg des Meeresspiegels, sind bereits nicht mehr zu vermeiden, und die Menschheit muss sich diesen Veränderungen anpassen. Andere Folgen sind durch eine Verringerung des CO2-Ausstoßes vielleicht abwendbar.
geben, das alle Komponenten berücksichtigt und zudem auch noch die Aktivitäten des Menschen erfasst?
Prof.Dr. Jochem Marotzke ist Direktor am Max-Planck-Institut für Meteorologie und Sprecher des Zentrums für Marine und Atmosphärische Wissenschaften (ZMAW). © MPG
Einige Klimaauswirkungen menschlicher Aktivitäten werden in unserem Erdsystemmodell heute schon erfasst. Bei vorgegebenem CO2-Ausstoß berechnet ein Teilmodell für den Kohlenstoffkreislauf die künftigen CO2Konzentrationen. Wir können diesen CO2Ausstoß für die Zukunft jedoch bisher nur annehmen, nicht vorhersagen. Dafür braucht man mathematische Modelle, die zukünftiges kollektives Verhalten vorhersagen, z.B. die Auswirkung technologischer Innovationen, den weltweiten Energieverbrauch und das Bevölkerungswachstum. Ich glaube, dass dies in Zukunft möglich sein wird, wenn auch wohl erst in Jahrzehnten. 69 Prozent der Bundesbürger sind nach neuen Umfragen fest davon überzeugt, dass der Welt eine Klimakatastrophe bevorsteht. Wie schätzen Sie die Lage ein?
Sieht es für die Zukunft nicht düster aus, da die Menschen nicht entsprechend handeln, um die globale Erwärmung zu bremsen?
Diese Überlegung scheint naheliegend. Doch es gibt auch Aspekte, die Hoffnung machen. So hat eine Studie mit meinen Kollegen vom MPI für Limnologie in Plön gezeigt, dass sich Menschen unter bestimmten Bedingungen auch altruistisch für den Erhalt eines öffentlichen Guts einsetzen. Wir fanden heraus, dass Menschen sich vor allem dann für gemeinnützige Ziele einsetzen, wenn sie gut informiert sind und ihre gute Tat öffentlich gemacht wird – denn so gewinnen sie öffentliche Anerkennung, die so viel wert sein kann wie Geld.
Blick in eines der vier roboterbetriebenen Datensilos des Deutschen Klimarechenzentrums: Jedes dieser Silos bietet 6.000 Stellplätze für Magnetband-Kassetten, die jeweils bis zu 200 Gigabytes fassen. © Deutsches Klimarechenzentrum (DKRZ)
84
ERDE, WETTER, KLIMA
Naturkatastrophen: frühere Warnung, bessere Überwachung
Ausbruch des Stromboli-Vulkans © USGS, B. Chouet
5.749 Tote, zehntausende Verletzte und Gesamtschäden in Höhe von 3,1 Milliarden U.S. Dollar – dies ist die Bilanz des schweren Erdbebens vom 27. Mai 2006 auf der indonesischen Insel Java. Der Erdstoß hatte eine Stärke von 6,3. Das Epizentrum lag 20 Kilometer südöstlich der Millionenstadt Yogyakarta. Das Erdbeben in Indonesien war jedoch nur eine von vielen hundert Naturkatastrophen, die in den letzten zwölf Monaten eine Spur der Verwüstung hinterließen. Ein erneuter heftiger Erdstoß vor Java – dieses Mal sogar mit Tsunami –, Erdrutsche auf den Philippinen und Hochwasser an Elbe sowie Donau: Alle diese Extremereignisse forderten ebenfalls zahlreiche Menschenleben und brachten die betroffenen Regionen oft an den Rand des Ruins.
Immer mehr Menschen, immer mehr Gefahren
Dass Naturereignisse immer schwerwiegendere Auswirkungen haben und vor allem immer mehr Menschen in Mitleidenschaft ziehen, ist auch Folge der zunehmenden Besiedlung von Räumen, die eigentlich zu den Gefahrenregionen zählen. Und ein Ende dieser Entwicklung ist nicht in Sicht. Aufgrund der nach wie vor stark steigenden Weltbevölkerung werden künftig sogar noch mehr Menschen an den Hängen von Vulkanen oder
85
24.03. bis 12.04. 2006 Hochwasser Wo: Deutschland/Tschechien Starke Regenfälle und Schneeschmelze sorgten für ein Jahrhunderthochwasser entlang der Elbe. Pegel erreichten zum Teil Rekordstände. Folgen: Mehrere Orte – wie Hitzacker in Niedersachsen – vollständig überflutet, Schäden in zweistelliger Millionenhöhe.
30.12.2005 bis 03.01.2006 Wintersturm Wo: USA, Kanada Heftige Regenfälle lösten Erdrutsche und Überschwemmungen aus. Folgen: 8 Tote, 200 Millionen US-Dollar Gesamtschäden
25. bis 27.11.2005 Wintersturm Thorsten Wo: West- und Nordwestdeutschland Starker Regen- und Schneefall, Eisregen, Stromausfälle, Flug- und Straßenverkehr waren stark betroffen. Folgen: 300 Millionen US-Dollar Gesamtschäden
28.11.2005 Tropischer Sturm Delta Wo: Spanien: Kanarische Inseln. Marokko Sturzfluten, Erdrutsche, Strom- und Telefonverbindungen wurden unterbrochen. Folgen: 20 Tote, 375 Millionen US-Dollar Gesamtschäden
13.07.2006 Ölpest Wo: Libanon, Syrien Israelische Raketen beschädigten Öl-Tanks des Kraftwerkes Jiyyeh, 35.000 Tonnen Schweröl flossen ins Meer. Folgen: Bis zu 300 Kilometer ölverseuchte Küstenabschnitte und Strände im Libanon und Syrien, Gesamtschäden: mindestens 40 bis 50 Millionen US-Dollar.
Erdbeben, Tsunami, Hurrikans – schwere Naturkatastrophen weltweit
86
© NASA/GSFC
03. bis 30.08.2006 Hochwasser Wo: Äthiopien Wochenlange sintflutartige Regenfälle führten zu schweren Überschwemmungen der Flüsse Omo und Awash. Folgen: 870 Tote und tausende von zerstörten Häusern.
ERDE, WETTER, KLIMA
15. bis 30.04. 2006 Hochwasser Wo: Rumänien Schneeschmelze und ergiebige Niederschläge ließen die Donau und ihre Nebenflüsse auf Rekordniveau steigen und sorgten für Deichbrüche und Überschwemmungen. Folgen: Mindestens vier Tote, tausende von Häusern in 400 Orten zerstört, mehr als 5.000 Menschen evakuiert, über 170.000 Hektar Land überflutet.
10.08.2006 Taifun Wo: China / Provinzen Zhejiang, Fujian und Jiangxi Stärkster tropischer Wirbelsturm in China seit Beginn der Aufzeichnungen, Windgeschwindigkeiten von mehr als 216 Stundenkilometern, vielerorts gab es Erdrutsche und Überschwemmungen. Folgen: Mindestens 400 Tote und Vermisste, zehntausende Menschen verloren ihr Dach über dem Kopf, mindestens 50.000 zerstörte Häuser.
17.02.2006 Erdrutsch Wo: Philippinen / Insel Leyte Lang anhaltender Starkregen und leichtes Erdbeben sorgten für einen schweren Bergrutsch. Folgen: Hundert Häuser und eine Grundschule verschüttet; mindestens 141 Tote, mehr als 1.000 Vermisste (vermutlich tot).
16.06.2006 Vulkanausbruch Wo: Indonesien / Insel Java Heiße Gerölllawine am Vulkan Merapi verschüttet Bunker im Dorf Kaliadem. Folgen: zwei Tote.
17.07.2006 Erdbeben und Tsunami Wo: Indonesien / Insel Java
27.5.2006 Erdbeben Wo: Indonesien / Insel Java
Seebeben der Stärke 7,7 südlich der Insel Java im indischen Ozean löste einen Tsunami aus.
Erdstoß mit einer Stärke von 6,3 auf der Moment-Magnitude
Folgen: Mindestens 650 Todesopfer; über 30.000 Obdachlose.
Folgen: 5.749 Tote, 38.568 Verletzte und mehr als 600.000 Obdachlose vor allem in der Region Bantul-Yogyakarta. Das Erdbeben zerstörte 130.000 Häuser, 451.000 wurden beschädigt; Gesamtschäden: 3,1 Milliarden U.S. Dollar.
87
Erdbebenschäden © FEMA, Marty Bahamonde
in anderen katastrophenanfälligen Gebieten leben. Das gilt beispielsweise für den gefährlichen Feuerberg Merapi auf der indonesischen Insel Java. In den vergangenen 450 Jahren brach der Merapi durchschnittlich alle sieben Jahre aus. 32 der 67 dokumentierten historischen Eruptionen waren mit Glutlawinen verbunden – diese Häufigkeit ist für keinen anderen Vulkan der Welt bekannt. Zurzeit tritt dieses Phänomen durchschnittlich einmal pro Jahr auf. Auch 2006 stand der Feuerberg wieder kurz vor einem heftigen Ausbruch. Wegen der fruchtbaren Böden in seiner Umgebung ist der Merapi bis in große Höhen besiedelt. Nach Schätzungen des MerapiObservatoriums leben circa 70.000 Menschen in der „verbotenen“ Zone an den Hängen des Feuerberges. Für weiter entfernt siedelnde Menschen geht die größte Gefahr von den Flusstälern aus, in denen die Glutwolken und die so genannten Lahars (Schlammlawinen) sich mit rasender Geschwindigkeit ihren Weg bergabwärts suchen. Etwa drei Millionen Menschen leben damit in der engeren Gefah-
Hochrisikovulkan Merapi in Indonesien © GFZ Potsdam, M. Westerhaus
renzone des Merapi. Weltweit suchen Geowissenschaftler daher nach Möglichkeiten, um die verheerenden Folgen von Naturkatastrophen zumindest einzudämmen. Intensive Grundlagenforschung wird beispielsweise in geologisch besonders aktiven Zonen entlang der Plattengrenzen betrieben. Ziel ist es, die Prozesse und Mechanismen, die bei einem Erdbeben oder einem Vulkanausbruch auftreten, besser zu verstehen. Auf der Basis dieser Erkenntnisse versuchen die Forscher dann bessere Frühwarnsysteme oder präzisere Vorhersagen zu entwickeln. Vorher oder sofort danach?
Doch was ist der Unterschied zwischen einem Frühwarnsystem, von dem beispielsweise im Zusammenhang mit Tsunamis immer wieder die Rede ist, und der Voraussage? Oder handelt es sich dabei um das Gleiche? Geowissenschaftler unterscheiden da penibel. Ein Frühwarnsystem weist auf ein Naturereignis hin, das bereits stattgefunden hat, dessen Auswirkungen gefährdete menschliche Siedlungen aber noch nicht erreicht haben. Ein Beispiel: Wissenschaftler, die im Rahmen der Vulkanbeobachtung eine Eruption und eine die Vulkanhänge herunter rasende Glutlawine erkennen, geben eine Frühwarnung, damit sich die Menschen in
88
ERDE, WETTER, KLIMA
den bedrohten Regionen rechtzeitig in Sicherheit bringen können. Oft haben die Betroffenen dabei für das Aufsuchen von Bunkern oder ähnlichen Schutzräumen nur wenige Minuten Zeit. Nach einem Erdbeben bleiben in der Regel sogar nur Sekunden, um zumindest durch automatisch arbeitende technische Systeme den drohenden Schaden zu vermindern. So sollen in einem solchen Fall in Istanbul zukünftig beispielsweise Ampel-
anlagen vor Brücken auf Rot gestellt werden. Von einer Vorhersage dagegen sprechen Wissenschaftler, wenn Zeit und Ort einer Naturkatastrophe bereits vor dem Eintritt des Ereignisses bekannt sind. Während die Prognose von tropischen Wirbelstürmen aufgrund deutlicher Verbesserungen in der Satellitentechnik heute bereits 48 Stunden vor deren Auftreten möglich ist, sieht das allerdings bei Erdbeben noch völlig anders aus.
Erdbeben – Vorhersagbar oder aus heiterem Himmel? Schon seit Jahren versuchen Forscher mit seismischen und geodätischen Messmethoden so genannten Vorläufersignalen für Erdbeben auf die Spur zu kommen. Dabei handelt es sich zum Beispiel um geologische Veränderungen der Erdoberfläche, wie langsame Gesteinsbewegungen oder schleichende Verformungen, die möglicherweise ein großes Beben ankündigen könnten. Bisher jedoch blieben die Bemühungen ohne durchschlagenden Erfolg. „Viele Menschen denken, wir könnten eines Tages einen Weg finden, um Erdbeben sicher vorherzusagen. Aber ich befürchte, es ist vielleicht gar nicht möglich. Nicht alle Prozesse sind vorhersagbar“, sagt Michael Bevis von der Ohio State University in Columbus. Und er steht mit seiner Meinung nicht alleine da. Viele Seismologen sind ähnlich skeptisch was die genaue Prognose von Ort und Zeit zukünftiger Erdbeben betrifft. Das hindert sie jedoch nicht daran, die geologischen Vorgänge vor, während und nach einem Erdbeben auf das Genaueste zu untersuchen und so mehr über das Phänomen zu erfahren. Bevis selbst interessiert sich beispielsweise für die kalifornische San-AndreasVerwerfung – dem „Mekka“ für Erdbebenforscher weltweit. Schon seit Jahren warten Wissenschaftler hier auf den nächsten
heftigen Erdstoß, der aus ihrer Sicht längst überfällig ist. Die bekannteste Katastrophe ereignete sich im Jahr 1906, als ein Erdbeben mit einer Stärke von 7,8 San Francisco in Brand setzte und 3.000 Menschen starben. Im Jahr 2005 hat Bevis nun den SanAndreas-Graben einer Inventur aus der Luft unterzogen. Durch eine Kombination von hoch auflösender GPS-Technologie und Lasermessungen mit dem LIDAR (light detection and ranging) Instrument vom Flugzeug aus, hat er neue Einblicke in die Verwerfung gewonnen und bisher unbekannte Detailstrukturen enthüllt. Die Bilder, die er anschließend auf der Herbsttagung der Amerikanischen Geophysikalischen Union in San Francisco präsentierte, waren so genau, dass man so gar die GPS-Empfänger am Boden erkennen konnte. Allerdings ist die Kartierung nur der erste Teil des Projektes. Nach dem nächsten großen Erdstoß wollen Bevis und seine Kollegen den San-Andreas-Graben erneut vermessen und anschließend die Vorher- mit den NachherBildern vergleichen. Grund: Die Forscher wissen heute zwar mehr oder weniger gut, was sich bei einem Erdbeben im Untergrund abspielt. Doch die Geschehnisse in und nahe einer Verwerfung sowie die Frage, wie ein Erdbeben seinen Anfang nimmt, liegen noch
Erdbeben in San Francisco 1906 © P. E. Hotz collection, USGS, T.L. Youd
89
San Andreas Graben © USGS, R.E Wallace
im Dunkeln und werden unter Wissenschaftlern heiß diskutiert. „Durch diese hoch auflösenden Bilder vor und nach einem Beben könnten wir einen Teil dieser Debatten beenden“, erklärt Bevis. Auch bei der Verbesserung von Erdbebenprognosen und -frühwarnungen könnten die Ergebnisse zumindest ansatzweise weiterhelfen. Megacity Istanbul in Gefahr
Solche Langzeituntersuchungen zum Thema Erdbeben gibt es aber nicht nur jenseits des Atlantiks in den USA, sondern auch quasi „vor unserer Haustür“ in der Türkei. An einem Frühwarnsystem für die Megacity Istanbul arbeiten dort seit einiger Zeit Wissenschaftler um Jochen Zschau vom GeoForschungsZentrum Potsdam (GFZ) zusammen mit Kollegen vom Kandilli Observatorium in Istanbul und dem Katastrophen-Management der Stadt. Die Metropole am Bosporus mit ihren rund zehn Millionen Einwohnern gehört zu den am stärksten von Erdbeben bedrohten
90
Großraum Istanbul mit Bosporus © NASA/JSC
Großstädten der Welt. Denn die Türkei liegt im Kollisionsbereich zwischen der afrikanischen und der eurasischen Platte. Afrika bewegt sich auf Europa zu und ein Teil von Afrika, die arabische Platte, sogar noch ein bisschen schneller als der Rest. „Der zentrale Bereich der Türkei wandert mit zwei bis drei Zentimetern pro Jahr nach Westen mit, aber ein Teil des oberen Randes hängt fest an Asien und verhakt dort an einer großen tektonischen Störung, der Nordanatolischen Verwerfung. Dieser Teil geht nicht kontinuierlich mit, sondern bleibt zurück und springt dann immer ruckartig hinterher, wenn die Spannung zu groß geworden ist“, beschreibt Zschau die geologische Situation rund um den Bosporus. Die Folge sind zum Teil heftige Erdbeben, deren Epizentren entlang der Nordanatolischen Verwerfung in den letzten Jahren immer weiter nach Westen Richtung Istanbul „gewandert“ sind. Nach Ansicht der Forscher ist es nur noch eine Frage der Zeit bis die türkische Metropole von einem schweren Erdstoß erschüttert wird. Die Geowissenschaftler um Zschau wollen deshalb im Rahmen von Langzeitbeobachtungen zunächst einmal alle Erdbeben relevanten Daten sammeln und aufbereiten. Dazu gehört unter anderem eine geologische „Inventur“ der Region vom Marmara Meer bis rund 50 Kilometer östlich von Izmit sowie die Ergänzung und Verbindung von bestehenden seismischen Netzwerken. Die Forscher spielen in Computersimulationen aber auch verschie-
ERDE, WETTER, KLIMA
dene Erdbebenszenarios durch, um mit den Folgen eines zukünftigen zerstörerischen Erdstoßes besser fertig zu werden. Das Frühwarnsystem soll darüberhinaus nach einem Erdstoß möglichst schnell die Erdbeben-Herde und -stärken automatisch aufspüren. Bereits jetzt sind solche wertvollen Informationen innerhalb von etwa zehn Sekunden verfügbar. Im Rahmen des neuen europäischen Forschungsprojekts „SAFER“ (Seismic Early Warning For Europe) sollen nun die Methoden zur Frühwarnung weiter verbessert und in Istanbul – aber auch in anderen Städten – getestet werden.
Doch noch besteht viel Forschungsbedarf. So ist beispielsweise die Quelle des stillen Tremors bis heute unbekannt. Auch, ob die Intensität der dadurch ausgelösten Erdbeben mit der Zeit zunimmt, konnten die Forscher bisher nicht ermitteln. Der Geophysiker appelliert deshalb an seine Kollegen weltweit „zurück zu den Subduktionszonen zu gehen“ und die langsamen Verschiebungen genauer zu untersuchen. Vielleicht können die stillen Beben dann irgendwann einen Hinweis darauf geben, wenn sich irgendwo ein katastrophaler Erdstoß zusammenbraut.
Achtung stille Beben!
Warnung vor der großen Welle
Weitere Fortschritte bei der Erdbebenfrühwarnung und -prognose verspricht ein neues Phänomen, das erst in den letzten fünf, sechs Jahren in den Mittelpunkt des Interesses der Geowissenschaftler gerückt ist. Dabei handelt es sich um so genannte stille oder aseismische Erdbeben, die man unter anderem auf der Hauptinsel Hawaiis aufgespürt hat. Die langsamen, ohne messbare Erschütterungen ablaufenden Ereignisse sind keineswegs so harmlos wie es auf den ersten Blick scheint. Denn sie sorgen offenbar für ganze Schwärme von Minibeben der Stärke 2 bis 3. Das könnte nach Ansicht der Forscher ein Indiz dafür sein, dass der so genannte „stille Tremor“ eine Verwerfung unter zusätzliche Spannung setzt, die sich vielleicht irgendwann mit einem Ruck – in Form eines starken Erdbebens – löst. „Stille Beben wurden kürzlich in den Subduktionszonen des pazifischen Nordwestens, Japans, Mexikos und auch anderswo entdeckt. Es ist wahrscheinlich, dass diese stillen, langsamen Verschiebungen das Risiko eines starken seismischen Ereignisses erhöhen“, so Paul Seagull von der Stanford University im Juli 2006 im Wissenschaftsmagazin NATURE.
„Die tragischen Ausmaße der jüngsten Erdbebenkatastrophe in der Kaschmirregion oder des Tsunami im Indischen Ozean haben der Welt die Aktualität des Themas Katastrophenfrühwarnung erneut dramatisch vor Augen geführt“, sagte Bundesaußenminister Frank-Walter Steinmeier bei der Eröffnung der dritten Internationalen Konferenz zur Frühwarnung vor Naturkatastrophen am 27. März 2006 in Bonn. „Überall da, wo Schadensreduzierung entscheidend von Frühwarnung abhängt, sollen konkrete Maßnahmen eingeleitet werden.“ So wie im Indischen Ozean vor der Küste Indonesiens. Dort bauen deutsche Wissenschaftler unter Federführung des GeoForschungsZentrums Potsdam seit 2005 ein neues Frühwarnsystem auf. Es soll die Menschen vor gefährlichen Tsunamis warnen, die nach heutigem Wissensstand immer dann entstehen können, wenn ein Seebeben eine Stärke von mindestens 7 erreicht und sich der Erdbebenherd in weniger als 20 Kilometern Tiefe befindet. „Das Tsunami Early Warning System TEWS besteht aus mehreren Komponenten. Einmal
Die „lange Hafenwelle“ Der Begriff Tsunami stammt aus dem Japanischen und bedeutet „lange Welle im Hafen“. Er geht auf frühe Beobachtungen von japanischen Fischern zurück. Während ihrer Arbeit auf hoher See hatten sie meist keine größeren Wellen bemerkt, bei ihrer Heimkehr in den Hafen fanden sie jedoch ihre Dörfer und Felder von Riesenwellen verwüstet vor. Ausgelöst werden Tsunamis vor allem durch Seebeben, Vulkanausbrüche oder Erdrutsche im Meer. Von ihrem Ursprungsort breiten sich die zunächst sanften Wogen mit einer Geschwindigkeit von mehreren hundert Kilometern pro Stunde kreisförmig aus. In Küstennähe reduziert sich das Tempo im flacher werdenden Wasser drastisch, während die Höhe der Welle stark zunimmt und bis zu 30 Meter erreichen kann. Meist handelt es sich bei Tsunamis nicht um eine einzelne Welle, sondern um eine Reihe von Wellen, die nacheinander auf die Küste treffen. Sie sind durch extrem tiefe Wellentäler voneinander getrennt. Oft kündigen sich die ersten Wellenkämme durch eine sehr tiefe Ebbe an, denen dann die Woge folgt.
91
Komponenten des Tsunami-Frühwarnsystems © GITEWS-Team
aus einem landgestützten Seismometer-Netz zur Erkennung von Erdbeben und aus ozeanographischen Instrumenten zur Erkennung einer Tsunamiwelle im Ozean“, erklärt Projektkoordinator Jörn Lauterjung vom GFZ. Bojen, Simulationen, SMS
Erste Boje wurde am Eingang der Sunda Strait ausgesetzt. © GFZ Potsdam
92
Herzstück des Systems sind insgesamt zehn Messbojen mit hochpräzisen GPS-Instrumenten und Ozeanbodendruckmessgeräten, die an strategisch wichtigen Positionen im Meer verankert werden. Hinzu kommen 25 neue Pegelstationen an den Küsten, die ebenfalls Wellenbewegungen und Wasserstandsänderungen registrieren. Alle Systeme übermitteln ihre Daten an das neu geschaffene Kontrollzentrum in Jakarta. Zu einer Tsunami-Warnung kommt es nur dann, wenn die Geräte sowohl ein schweres Erdbeben, als auch ein unnatürliches Wellenereignis registrieren. Ein weiteres zentrales Element des Frühwarnsystems ist die Simulation von Flutwellen auf Basis der Messergebnisse. Um im Ernstfall keine Zeit mit aufwändigen Modellrech-
nungen zu verschenken, werden schon jetzt verschiedene Szenarien mit unterschiedlichen Parametern – Erdbebenstärke, Geschwindigkeit und Richtung der Flutwelle – durchgespielt. Bei einer Naturkatastrophe müssen die Wissenschaftler dann nur noch die aktuellen Messergebnisse mit denen der bereits errechneten Szenarien vergleichen und können dann schnell eine Warnung für die besonders gefährdeten Gebiete herausgeben. Sorgen bereitet den Wissenschaftlern allerdings noch das letzte Glied in der Frühwarnkette: Wie informiert man am sichersten und schnellsten die betroffenen Menschen über eine drohende Flutwelle? In vielen Regionen Indonesiens sind moderne Kommunikationsgeräte wie Handys oder Internet längst nicht ausreichend etabliert. Hier sollen neben SMS auch Radio, Fernsehen, Lautsprecher oder Sirenen zum Einsatz kommen. Die Welle war schneller...
Wie dringend ein funktionstüchtiges Tsunami-Frühwarnsystem gebraucht wird, zeigte der 17. Juli 2006. Zum zweiten Mal
ERDE, WETTER, KLIMA
nach der verheerenden Katastrophe vom 26. Dezember 2004 traf ein Tsunami die Küsten Indonesiens. Dieses Mal starben mehr als 650 Menschen auf der Insel Java in den Wassermassen. Ein Seebeben der Stärke 7,7 hatte den Tsunami ausgelöst. Die bis zu vier Meter hohe Flutwelle traf auf einen rund 180 Kilometer langen Küstenabschnitt im Süden der Insel und verwüstete dort zahlreiche Fischerdörfer und Hotelanlagen. Das noch im Aufbau befindliche TsunamiFrühwarnsystem konnte – obwohl schon im Oktober und November 2005 die ersten Bojen zu Testzwecken installiert wurden – noch nicht zum Einsatz gebracht werden. Es wird
voraussichtlich erst Mitte 2008 vollständig fertig sein. Trotzdem wäre es am 17. Juli 2006 möglich gewesen, viele Menschenleben zu retten. Denn das meteorologische Zentrum in Japan hatte bereits unmittelbar nach dem Erdbeben die Gefahr eines Tsunamis an den Küsten Sumatras und Javas erkannt. Obwohl die Meldung auch an die Behörden in Jakarta gesandt wurde, erreichte die Warnung die Bewohner vor Ort nicht rechtzeitig. Ob die Angst vor einem Fehlalarm die Zuständigen lähmte oder die Weitergabe der Informationen an fehlenden Notfallplänen scheiterte, ist bis heute unklar.
WAS SONST NOCH GESCHAH Mathematik enthüllt Tsunami-Irrtümer Eine ganze Reihe der landläufigen Annahmen über „typische“ TsunamiEigenschaften sind schlichtweg falsch. Das hat jetzt der Mathematiker Walter Craig von der McMaster University im kanadischen Hamilton anhand neuer Berechnungen und Modelle bestätigt. So ist keineswegs die erste Welle immer die größte. Es kann wie beim verheerenden Tsunami vom 26. Dezember 2004 in Sri Lanka auch die dritte oder vierte sein. Einen weiteren Irrglauben spülte Craigs Modellierung ebenfalls davon: Die Annahme, dass einer Tsunami-Welle immer ein anormal weiter Rückzug des Wassers voraus geht. Das passiert nach den Ergebnissen des Wissenschaftlers, der sich auf Wellengleichungen spezialisiert hat, nur in rund der Hälfte der Fälle. Denn ob dies so ist oder nicht, hängt von der Wellenlänge ab und davon, ob das Tal oder der Scheitel der Welle die Küste zuerst erreicht. In 50 Prozent der Fälle kommt eben der Wellenberg zuerst an. (NATURAL SCIENCES AND ENGINEERING RESEARCH COUNCIL, Februar 2006) Erdbeben haben ein Gedächtnis
Forscher um den Gießener Physiker Armin Bunde haben einen bisher unbekannten Zusammenhang zwischen einzelnen Erdbeben einer bestimmten Region entdeckt. Danach zeigen die Erdstöße eine Art „Gedächtnis“. War beispielsweise der zeitliche Abstand zwischen zwei Beben gleicher Stärke besonders kurz, dann trifft auch das nächste Beben meist überdurchschnittlich schnell ein. Der Zusammenhang gilt aber auch umgekehrt: Wenn ein Beben besonders lange auf sich hat warten lassen, dann sind die Aussichten gut, dass auch das Folgebeben erst nach einer überdurchschnittlich langen Zeit eintrifft. Wie dieser Gedächtnis-Effekt zu erklären ist, ist bisher für den Forscher noch unklar. (PHYSICAL REVIEW LETTERS, November 2005)
Sumatra-Beben veränderte Erdschwerkraft Ein starkes Erdbeben erschüttert nicht nur den Untergrund, es verändert auch die Schwerkraft der Erde. Das haben Wissenschaftler der Ohio State University anhand von Daten der Grace-Satelliten und einem seismischen Computermodell für das Sumatra-Beben vom Dezember 2004 nachgewiesen. Zum einen löste das Beben eine massive Anhebung des Meeresbodens aus, die die Geometrie der gesamten Region veränderte und starke Abweichungen von vorherigen GPS-Messungen bewirkte. Zum anderen aber veränderte die Plattenbewegung auch die Dichte des Gesteins unter dem Meeresboden und damit auch die Schwerkraft an diesen Stellen, so die Geoforscher um Shin-Chan Han, C.K. Shum and Michael Bevis. Westlich der Sumatra-Verwerfung komprimierten die Verschiebungen im Untergrund das Gestein und erhöhten so die Dichte, östlich davon sank sie ab. Das Modell zeigte deutlich die dadurch veränderten Schwerkraftwerte. (SCIENCE, August 2006) Wie Sedimente die Erdbebengefahr erhöhen Starke Erdstöße, wie das Beben vor Sumatra im Dezember 2004, könnten durch eine Anhäufung von Sediment über einer Subduktionszone ausgelöst worden sein. Diese Theorie vertreten Geologen um Mark Brandon von der Yale University und Christopher W. Fuller sowie Sean D. Willett von der Washington University. Ihre neuen Computersimulationen zeigen, dass das auf der oben liegenden Platte deponierte Sediment das Aneinandervorbeigleiten der Platten stört, indem es die Vorderkante der oberen Platte verstärkt und ein spannungsabbauendes Deformieren verhindert. Nach Ansicht der Forscher könnte das die Bewegungen an dieser Plattengrenze für längere Zeit unterbrechen und die Subduktion dadurch anfälliger machen für plötzliche Entladungen der Spannung, also für Erdbeben. Die neuen Erkenntnisse könnten möglicherweise zu neuen Ansätzen bei der Vorhersage schwerer Beben führen. (GEOLOGY, Januar 2006)
93
Interview
Wissen hoch 12: Sie arbeiten seit einiger Zeit zusammen mit türkischen Kollegen an der Erdbebenfrühwarnung für die Megacity Istanbul, die in einer stark Erdbeben gefährdeten Region liegt. Welchen Schutz wird das Frühwarnsystem der Bevölkerung, aber auch der ortsansässigen Industrie bieten?
Prof. Jochen Zschau ist Direktor des Departments „Physik der Erde“ des GeoForschungsZentrums Potsdam (GFZ) und leitet zudem die Sektion „Erdbebenrisiko und Frühwarnung“. © GFZ
Schon jetzt ist das dort existierende Frühwarnsystem in der Lage einen Erdbebenherd in der Nordanatolischen Verwerfung südöstlich von Istanbul innerhalb von zehn bis 15 Sekunden aufzuspüren. Rein technisch könnten dann noch vor dem Eintreffen der zerstörerischen Wellen zum Beispiel Ampeln vor gefährdeten Brücken auf Rot gestellt werden. Welche Schwierigkeiten sind noch zu überwinden?
Im Moment basiert das bisherige seismische Überwachungssystem auf guten, aber daher leider sehr teuren Messsensoren. Daher ist das Beobachtungsnetz aus Kostengründen heute längst noch nicht so dicht, wie wir uns das wünschen würden. Hinzu kommt, dass noch viele juristische Fragen offen sind. Wer haftet beispielsweise für Unfälle, die sich aufgrund der Frühwarnung und den damit verbundenen Notfallmaßnahmen ereignen? Und wer kann für wirtschaftliche Schäden zur Rechenschaft gezogen werden, wenn einmal ein Alarm unnötig war? Da besteht noch immenser Klärungsbedarf. Wann wird das Frühwarnsystem endgültig fertig sein?
Nie. Denn es wird immer wieder Möglichkeiten geben, das Frühwarnsystem zu verbessern oder mit neuen Geräten zu bestücken und damit die Leistungsfähigkeit zu steigern. Ziel ist es zurzeit, das seismologische Überwachungssystem weiter auszubauen. Das geht aber wohl nur, wenn wir es schaffen, Erdbebensensoren so preiswert zu machen – unter
94
100 Euro -, dass sie nahezu für jedermann erschwinglich sind. Solche „Billigsensoren“ könnten dann in jedem Haus oder Industriebetrieb der Region installiert werden und ihren Dienst tun. Gekoppelt zum Beispiel mit der Steuerung von Heizungsoder elektrischen Anlagen könnten sie bei einem Erdstoß Alarm auslösen und vor allem den entscheidenden Impuls für ein rechtzeitiges Abschalten solcher Geräte geben. Die Messgeräte sollen nach Möglichkeit nicht unabhängig voneinander arbeiten, sondern könnten auch zusammen mit vielen anderen Sensoren in der Region zu einem neuartigen, extrem dichten Netzwerk verbunden werden. Die einzelnen Geräte spüren darin sowohl selbstständig Erdbeben auf, sie melden solche Ereignisse aber auch sofort an die nächstgelegene Station weiter. Fällt ein Sensor in der Kette aus, sucht das System automatisch den nächsten Empfänger aus. Ein Prototyp eines solchen sich selbst organisierenden Systems wird zurzeit im Rahmen eines neuen EU-Programms entwickelt und soll dann in Istanbul getestet werden. Noch sind Ort und Datum eines Erdbeben nicht vorhersagbar. Wird dies irgendwann einmal der Fall sein?
Daran glaube ich fest. Allerdings wahrscheinlich nicht in der Form, dass man irgendwann einmal sagen kann „Am 15. Dezember wird in dem Ort xyz um 16.13 Uhr ein Beben der Stärke 8,7 auftreten“, sondern eher mithilfe von immer präziseren Wahrscheinlichkeitsangaben. So weiß man heute, dass schwere Erdbeben andere Beben auslösen oder zumindest die Eintretenswahrscheinlichkeit solcher Folgestöße erhöhen können. So war beispielsweise das verheerende Erdbeben vor Sumatra mit einer Stärke von 9,3 im Dezember 2004 verantwortlich für das heftige Seebeben der Stärke 8,7 drei Monate später. Dieses ereignete sich unmittelbar südlich des frischen
ERDE, WETTER, KLIMA
Bruchs des ersten Bebens. Ursache dafür ist, dass Erdbeben nicht, wie gemeinhin angenommen, die Spannung in einer Verwerfung vollständig entlasten. Vor allem an den Enden des frischen Bruches können auch zusätzliche Spannungen aufgebaut werden. Dort wird dann ein kritischer Wert viel früher erreicht und die Gefahr für einen schweren Erdstoß steigt immens.
Eine solche bedrohliche Situation hat sich durch das Izmit-Beben am 17.08.1999 mit einer Stärke von 7,8 auch an der Nordanatolischen Verwerfung ergeben. Ein Beben im Großraum Istanbul wurde dadurch, da sind wir sicher, um Jahrzehnte vorverlegt. Die Verbesserung des Frühwarnsystems für die Metropole ist deshalb ein Muss.
Erdbebenschäden © FEMA
95
96
KÖRPER, GEIST, GEHIRN In der Medizin und den Neurowissenschaften haben Forscher in den vergangenen Jahren immer mehr molekulare Details offen gelegt. Diese Erkenntnisse ermöglichen die Entwicklung vollkommen neuer therapeutischer Ansätze, beispielsweise bei der Bekämpfung von Infektionskrankheiten oder Krebs. Noch immer sind viele Erreger nicht besiegt, neue Epidemien drohen. Bisher jedoch profitierte die Entwicklung neuer Impfstoffe nur wenig vom rasanten Erkenntnisfortschritt der Grundlagenforschung. Eine neue Generation von Impfmedikamenten wird aber dringend gebraucht. Ein Beispiel dafür ist ein Impfstoff gegen Tuberkulose, der Anfang 2007 in klinischen Tests seine erste Bewährungsprobe bestehen soll. Auch Krebsforscher betrachten heute einen Tumor nicht mehr nur auf makroskopischer Ebene, sondern untersuchen die komplexen Wirkungsketten in und zwischen den Zellen – dem Bereich, in dem der Krebs ansetzt. Im Juni 2006 wurde ein auf dieser Forschung basierendes Krebsmedikament in Deutschland zugelassen, das die Kommunikation der Krebszellen stört und damit das Tumorwachstum hemmt. Aber nicht nur die tiefere Kenntnis über das Geschehen in den Zellen, sondern auch neue Techniken und Methoden brachten entscheidende Fortschritte: Zu einem der wichtigsten diagnostischen Werkzeuge ist in den vergangenen Jahren die funktionelle Magnetresonanztomografie (fMRT) avanciert. Sie erlaubt den Blick in das arbeitende Gehirn. Neuere Untersuchungen haben jetzt die Aussagekraft der „bunten Bilder“ präzisiert.
Mit Gentechnik gegen die Infektion
98
Krebs – Kampf dem Tumor
106
Der neue Blick ins Gehirn
112
links: Normale Zellen (oben) und Krebszellen im Vergleich © National Cancer Institute (NCI)
97
Makrophage (blau) umschlingt TuberkuloseErreger (rot) © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
Mit Gentechnik gegen die Infektion Rund 17 Millionen Menschen, mehr als ein Viertel aller Todesfälle weltweit, sterben jährlich an einer Infektionskrankheit. Trotz der enormen Fortschritte in der Medizin ist ein dauerhafter Erfolg bei der Bekämpfung dieser Krankheiten bisher ausgeblieben.
HIV-1 Viren treten aus Lymphzyten aus © CDC, C. Goldsmith
Denn anders als Gifte oder Schadstoffe können Bakterien und Viren nicht nur Resistenzen gegen bestehende Medikamente aufbauen, sondern auch ganz neue Strategien entwickeln, um die Abwehrmechanismen des Körpers zu unterlaufen. Darüber hinaus tauchen vollkommen neue, bis dahin unbekannte Krankheitserreger auf, wie beispielsweise das Aids-Virus (HIV), das vor 25 Jahren erstmals diagnostiziert wurde und nach wie vor nicht wirksam behandelt werden kann. Ansatzstellen gesucht
Um in diesem Wettlauf Schritt zu halten, suchen Wissenschaftler verstärkt nach neuen Ansatzstellen für Impfstoffe und Therapien. Dabei fahnden sie vor allem nach den so genannten „targets“ – Zielmolekülen. Diese
98
Zielmoleküle – meist Proteine – sind an chemischen Prozessen und damit an allen biologischen Vorgängen beteiligt, die eine Krankheit erst ermöglichen oder aber abwehren können. Im Idealfall bindet ein wirksames Medikament oder ein Impfstoff an ein solches Molekül und blockiert damit seine Funktion. Als Folge kann beispielsweise ein Virus nicht in die Zelle eindringen, weil ihm ein entscheidendes Enzym fehlt, oder aber das Immunsystem kann ein eingedrungenes Bakterium effektiver bekämpfen, weil seine „Tarnung“ aufgedeckt wird. Experten schätzen, dass es etwa 200 chemische Prozesse im Körper geben könnte, in denen verschiedene potenzielle Zielmoleküle existieren. Doch die bisherigen Wirkstoffe
KÖRPER, GEIST, GEHIRN
nutzen nur wenige dieser möglichen Ansatzstellen; die derzeit hundert wichtigsten Medikamente greifen beispielsweise nur 43 Zielmoleküle an. Hier neue Ansatzstellen – und die dazu passenden Wirkstoffe – zu identifizieren, ist eine der großen Herausforderungen der modernen Medizinforschung. Waffen gegen die „großen Drei“
Besonders dringend ist der Bedarf an neuen „Waffen“ im Kampf gegen die „großen Drei“ – Aids, Malaria und Tuberkulose. Sie gehören zu den großen, noch immer unbesiegten Seuchen der Erde, denn für keine dieser drei Erkrankungen gibt es bisher wirksame Impfstoffe, teilweise fehlen sogar effektive Therapien. Jährlich sterben an diesen drei Krankheiten etwa sechs Millionen Menschen
– das ist die Zahl der Robert Koch und das Tuberkel-Bazillus Toten, die zu zählen Der Mediziner Robert Koch war der erste, der Mikroben als wären, wenn jede Auslöser der „Schwindsucht“ in Erwägung zog. Nach langwieStunde ein vollberigen Versuchen gelang ihm die Isolierung des Erregers. Am 24. März 1882 präsentierte er einer skeptischen Ärzte-Gemeinde setzter Jumbo-Jet Mycobacterium tuberculosis, den Tuberkel-Bazillus, als den abstürzen würde. Verursacher der Infektion. Zu dieser Zeit war die Tuberkulose die Ziel einer neuen Ursache für fast ein Drittel aller Todesfälle in den Hauptstädten Europas. Impfstoffgeneration ist die Aktivierung der so genannten T-Lymphozyten, spezifische Abwehrzellen des Immunsystems. Sie müssen den Erreger oder genauer seine Proteine erkennen, um ihn wirksam bekämpfen zu können. Die Wissenschaftler versuchen Erregerproteine zu identifizieren, die von Schutz vermittelnden T-Zellen erkannt werden. Dazu müssen sie jedoch zunächst einmal die Erkennungsmechanismen „knacken“.
Kampf dem Tuberkel Auf der Suche nach einem neuen Impfstoff gegen die Tuberkulose Intrazelluläre Erreger, wie der TuberkelBazillus oder das Aids-Virus, sind die „listenreichen“ unter den Keimen. Sie entziehen sich dem Abwehrsystem, indem sie sich in den Immunzellen selbst einnisten – bei den Tuberkulose-Bakterien in den Fresszellen des Immunsystems, auch Makrophagen genannt. Einmal über die Atemluft in die Lungen des Infizierten gelangt, lässt sich der TuberkuloseErreger in den Vakuolen, flüssigkeitsgefüllten Bläschen im Inneren der Fresszellen, häuslich nieder, überlebt und vermehrt sich dort. Seine Anwesenheit verrät er nur durch Proteine, etwa solche, die er im Makrophagen freisetzt. Bruchstücke dieser Proteine gelangen an die Oberfläche der Wirtszelle und werden dort als Antigene präsentiert. Eine solche Präsentation setzt die weitere Immunabwehr in Gang: Abwehrzellen, speziell T-Lymphozyten, werden aktiviert. Es beginnt ein Kräftemessen zwischen Erreger und Wirt. Bei 90 bis 95
Den Erregern auf der Spur: Arbeit an einer Cleanbench © MPG
Prozent aller infizierten Menschen gelingt es den T-Lymphozyten, den Tuberkuloseerreger in Schach zu halten. Der Herd wird eingekapselt. Es entwickelt sich ein so genanntes Granulom oder Tuberkel – eine Läsion, in der Makrophagen unter der Kontrolle von TLymphozyten die Erreger eindämmen.
99
Infektionsrate pro 100.000 (alle TB-Formen) 0-24 25-49 50-99 100-299 300 oder mehr keine Angaben
Geschätzte Verbreitung der Tuberkulose weltweit (WHO, 2003) Quelle: Robert-KochInstitut (RKI)
Die Gefahr bleibt
Beseitigt ist der Erreger damit aber nicht, er kann jederzeit wieder die Oberhand gewinnen und ausbrechen – insbesondere dann, wenn das Immunsystem geschwächt ist, wie beispielsweise bei HIV-Infizierten. „Wie instabil dieses Gleichgewicht ist, zeigen alarmierende Zahlen“, erklärt Tuberkuloseforscher Stefan Der BCG-Impfstoff H. E. Kaufmann vom Der Impfstoff BCG (Bacille Calmette-Guérin) wurde 1927 von Max-Planck-Institut Albert Calmette und Camille Guérin aus einem Erregerstamm für Infektionsbiologie der Rindertuberkulose gewonnen. Bis heute besteht BCG aus in Berlin: Fast zwei dem lebenden Erreger, der aber so weit abgeschwächt und damit verändert ist, dass er zwar eine Immunreaktion, nicht aber die Milliarden Menschen, Krankheit auslöst. also ein Drittel der Die BCG-Impfung wird von der Ständigen Impfkommission We l t b e vö l k e r u n g, (STIKO) am Robert Koch-Institut seit 1998 für Deutschland nicht sind mit Mycobactemehr empfohlen. Gründe sind die begrenzte Wirksamkeit des Impfstoffs bei rückläufiger Tuberkulose-Fallzahl in Deutschland rium tuberculosis infiund die relative Häufigkeit von Impfkomplikationen. ziert, pro Jahr bricht bei acht Millionen Menschen die Tuberkulose aus, rund zwei Millionen jährlich sterben daran.
100
Zwar gibt es Medikamente zur Behandlung der Tuberkulose. Die Therapie ist jedoch außerordentlich aufwändig und kostenintensiv: Sechs Monate lang müssen drei bis vier Medikamente täglich geschluckt werden. Viele Menschen vor allem in den ärmsten Ländern können sich das kaum leisten. Häufig kommt es daher zu einem verfrühten Abbruch der Therapie. Damit steigt das Risiko, dass sich resistente Erregerstämme bilden. In einigen Regionen, z. B. in Osteuropa und Russland, beträgt ihr Anteil bereits mehr als 15 Prozent aller Tuberkulosefälle. Diese sind sehr schwer oder gar nicht behandelbar. Ändern könnte dies nur ein effektiver Impfstoff – doch den gibt es zurzeit noch nicht. Der heute gebräuchliche TuberkuloseImpfstoff BCG, der aus abgeschwächten Erregern der Rinder-Tuberkulose besteht, schützt zwar Kleinkinder, bleibt aber bei Erwachsenen weitgehend wirkungslos. Er verhindert nämlich nicht, dass der Tuberkuloseerreger
Resistenztest an M. tuberculosis. Helle Bakterienkolonien zeigen unwirksame Medikamente an. © Centers for Disease Control (CDC)
KÖRPER, GEIST, GEHIRN
den Körper infiziert und dann dort latent ruht. Bei geschwächtem Immunsystem kann die Krankheit daher jederzeit ausbrechen. Und genau hier setzt der neue Impfstoffkandidat der Max-Planck-Forscher an. Der Weg zum Impfstoff-Kandidaten
Am Max-Planck-Institut für Infektionsbiologie in Berlin erforschen die Wissenschaftler um Stefan H. E. Kaufmann Infektionsmechanismen, um sie für eine neue Generation von Impfstoffen zu nutzen. Einen ersten Erfolg hat die Forschergruppe bereits für sich verbucht: Nach erfolgreich absolvierten Tierversuchen geht ein von den Berlinern entwickelter Impfstoffkandidat gegen die Tuberkulose Anfang 2007 in den klinischen Test der Phase 1. Der Impfstoff wurde an die Vakzine Projekt Management lizenziert, die gemeinsam mit den Max-Planck-Forschern die klinischen Studien durchführen wird. Er basiert auf dem herkömmlichen Tuberkulose-Impfstoff BCG, wartet aber mit einigen „Extras“ auf.
von Bakterien und Viren stammenden Proteinbruchstücke, die Antigene, zur Stimulierung einer Immunantwort an die Oberfläche der Wirtszelle bringen. Die Antigene von Bakterien werden von einem Shuttle-Typ, den so genannten MHC-II -Molekülen, an die Zelloberfläche der Fresszellen transportiert und aktivieren dort spezielle Immunzellen, die CD-4-T-Lymphozyten, auch T-Helfer-Zellen genannt. Diese sorgen
Aktuelles Plakat der Deutschen Lepra- und Tuberkulosehilfe e.V. zum Welt-TuberkuloseTag am 24. März 2006 © DAHW
Viren-„Trick“ gegen Bakterium
Der neue Impfstoffkandidat nutzt einen Mechanismus aus, von dem die Fachwelt bisher annahm, dass ihn das Immunsystem nur bei der Abwehr von Viren einsetzt, nicht aber gegen Bakterien. Normalerweise sind es unterschiedliche Shuttle-Moleküle, die die Die Initiative Stop-TB Ende Januar 2006 verabschiedete die „Stop TB Partnership“, eine übergreifende internationale Initiative zur Bekämpfung der Tuberkulose, einen „Global Plan 2006-2015“ . Er hat zum Ziel, in den kommenden zehn Jahren 50 Millionen Menschen von TB zu heilen und 14 Millionen Menschenleben zu retten. Dazu sollen auch neue Medikamente und ein effizienter Impfschutz entwickelt werden. Das von der WHO unterstützte Netzwerk hat errechnet, dass dafür 56 Milliarden US-Dollar nötig sind. Bis Juli 2006 war jedoch nicht einmal die Hälfte zugesagt.
101
Tuberkuloseerreger in einer Fresszelle © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
vor allem für die Einkapselung des Tuberkulose-Bakteriums, vernichten es aber nicht. Der Erreger bleibt damit im Körper. Virusantigene dagegen werden im Zellplasma durch MHC-I-Moleküle „aufgegriffen“ und aktivieren an der Zelloberfläche einen anderen Immunzelltyp, die CD-8-T-Lymphozyten. Diese Killerzellen zerstören dann die Wirtszelle mitsamt den in ihr enthaltenen Viren. Der Erreger ist damit beseitigt. „Ausstiegsluken“ ins Verderben
Doch es gibt auch Ausnahmen von dieser Verteilung. Eine davon entdeckte Kaufmann bei Arbeiten an dem Erreger Listeria monocytogenes, Bakterien, die beim Menschen Hirnhautentzündungen hervorrufen können. Listeria stimuliert nicht nur die für die Bakterien-Abwehr typischen CD-4-T-Zellen, sondern auch die CD-8-T-Zellen. Der Erreger kann In der Pipeline Tb-Impfstoffe im klinischen Test 2006/2007 bringt für gleich sechs verschiedene Tuberkulose-Impfstoffe den Start klinischer Tests. Für einige ist es die Phase 1 (Verträglichkeitstests an gesunden Probanden), andere beginnen bereits mit der 2. Phase, in der geprüft wird, ob überhaupt eine Immunantwort ausgelöst wird. Ein Kandidat basiert auf dem herkömmlichen BCG-Impfstoff, ist aber gentechnisch verändert. Er besteht aus einem besonders stark immunstimulierend wirkenden Antigen des Bakteriums (AG85), das von BCG überexprimiert wird (Aeras gemeinsam mit UCLA, Los Angeles). Diese Isolation einzelner Antigene des Tuberkulosebakteriums in so genannten Spaltvakzinen halten einige Forscher für eine viel versprechende Ergänzung zum Lebendimpfstoff. Einer der klinischen Tests soll daher zeigen, ob aus dem Tuberkulose-Erreger isolierte Antigene die Effektivität des bereits vorhandenen BCG- Impfstoffs verstärken. (University of Oxford, UK; Intercell Smart Vaccines, Wien gemeinsam mit Staten Serum Institut, Kopenhagen; GlaxoSmithKline) Der sechste Kandidat ist das „Super-BCG“ der Max-Planck-Forscher, das die Bakterien im Inneren der Fresszellen enttarnt und dadurch angreifbar macht. (Max-Planck-Institut für Infektionsbiologie, Berlin)
sich nämlich mithilfe eines Poren bildenden Proteins, dem Listeriolysin, „Ausstiegsluken“ aus den Vakuolen der Fresszellen schaffen. Das wiederum löst den „programmierten
102
Zelltod“ des Makrophagen aus – die Zelle zerlegt sich quasi selbst. Dabei werden Antigene des Bakteriums in winzige Bläschen, die Vesikel, eingeschlossen und freigesetzt. Umliegende Zellen nehmen diese Vesikel – und damit die Bakterienantigene – in ihr Zellplasma auf. Hier treffen diese auf MHC-I-Shuttles, die sie quasi als Virus behandeln und an der Zelloberfläche den CD8-Killerzellen präsentieren. Diese sind damit aktiviert und können nun gezielt die Bakterien vernichten. Der Trick der Impfstoffforscher bestand darin, den herkömmlichen BCG-Impfstoff durch gentechnische Manipulation mit dem entsprechenden Gen für das Enzym Listeriolysin auszustatten. Dadurch wird das Poren bildende Enzym auch vom abgeschwächten Tuberkulose-Impferreger produziert und die Killerzellen des Immunsystems können aktiviert werden. Erste Tests erfolgreich
Dass das tatsächlich funktioniert, zeigte sich bereits sowohl in Zellkulturversuchen als auch im Tierversuch: Der „Super-BCG“Impfstoff schützte tatsächlich gegen Lungentuberkulose und sogar gegen die aggressiven Vertreter der meist resistenten BeijingStämme – gegen beide ist die herkömmliche Vakzine wirkungslos. „Wir hoffen, dass wir mit dem neuen Impfstoff eine wirksame Waffe gegen die Tuberkulose gefunden haben“, sagt Kaufmann. Ob sich dieser Erfolg allerdings auf den Menschen übertragen lässt, ohne dass allzu viele Nebenwirkungen auftreten, müssen die Anfang 2007 beginnenden klinischen Tests zeigen.
KÖRPER, GEIST, GEHIRN
Wissen hoch 12: Was unterscheidet den von Ihnen entwickelten Impfstoffkandidaten vom herkömmlichen BCG?
Wir haben den klassischen Impfstoff BCG stärker immunogen gemacht. Das heißt, wir haben ihn mithilfe molekularbiologischer Methoden so verändert, dass die durch den Impfstoff ausgelöste Immunantwort den Tuberkulose-Erreger besser bekämpfen kann. Obwohl BCG durchaus eine Immunantwort induziert, die ausreicht, die schlimmsten Formen der Tuberkulose bei Kleinkindern zu verhindern, ist diese Immunantwort nicht in der Lage, die häufigste Krankheitsform – nämlich die Lungen-Tuberkulose bei Erwachsenen – einzudämmen. Die Immunität gegen Tuberkulose wird von T-Zellen getragen und zwar von unterschiedlichen T-Zell-Untergruppen. Der neue BCG-Impfstoff ist sowohl qualitativ als auch quantitativ besser, das heißt er stimuliert ein breiteres Spektrum an T-Zellen, die eine stärkere Immunantwort induzieren. Wie gehen Sie bei der Suche nach Ansatzstellen vor und warum erschienen Ihnen die Makrophagen besonders interessant?
Der Tuberkulose-Erreger ist ein intrazelluläres Bakterium, d.h. er überlebt in Makrophagen. Damit unterscheidet er sich von den meisten anderen bakteriellen Krankheitserregern, die von aktivierten Makrophagen abgetötet werden. Makrophagen werden durch T-Zellen koordiniert, die die Makrophagen aktivieren, sie also in die Lage versetzen, besser mit den Erregern intrazellulär fertig zu werden. Bei der Tuberkulose spielen Makrophagen eine Doppelrolle: Sie sind die wichtigsten Effektorzellen gegen Tuberkulose. Aber es gelingt ihnen lediglich die Tuberkulose-Erreger am Wachstum zu hemmen. Die Erreger können im Makrophagen überdauern. Ja, sie nutzen ihn regelrecht als bevorzugten Lebensraum. Darüber hinaus sind Makrophagen sowie ein
weiterer Zelltyp – die dendritischen Zellen – für die antigen-spezifische Stimulation der T-Zellen zuständig. Unser neuer Impfstoff löst bei Makrophagen wahrscheinlich den programmierten Zelltod aus – so sieht es zumindest aus. Die absterbenden Zellen bilden kleine Vesikel, in denen die Impfantigene stecken. Die dendritischen Zellen nehmen diese Bläschen auf und können dann wirkungsvoller die T-Zellen stimulieren, die spezifisch für diese Impfantigene sind. Während der Impfstoff BCG für das Immunsystem teilweise nicht erkennbar ist, werden die Antigene des neuen Impfstoffs vom Immunsystem besser erkannt. Und das führt zu einer stärkeren Immunantwort gegen den Erreger. Wie ordnen Sie diesen Impfstoffkandidaten gegenüber den anderen jetzt in der klinischen Phase befindlichen ein?
Interview
Prof. Dr. Stefan H. E. Kaufmann ist Direktor der Abteilung Immunologie am MaxPlanck-Institut für Infektionsbiologie in Berlin. Er erforscht unter anderem die Wechselwirkungen zwischen Immunsystem und Krankheitserregern. © MPG
Unser Impfstoff ist als Ersatz für den klassischen BCG-Impfstoff gedacht. Andere Impfstoffe, die derzeit gegen Tuberkulose entwickelt werden, sind Spaltvakzinen, die in präklinischen Untersuchungen keinen besseren Schutz gegen Tuberkulose als BCG hervorrufen, die aber den durch BCG induzierten Impfschutz möglicherweise verstärken. Dieses Impfschema wird als heterologes „Prime/Boost-Schema“ bezeichnet. Man setzt einen „Prime“ mit BCG und kommt später mit einem „Boost“ mit einem Impfstoff, der ein oder zwei Antigene enthält. Unser Impfstoff dagegen stimuliert einen Schutz, der in präklinischen Untersuchungen deutlich besser ist als der durch BCG induzierte. Wie lange wird es Ihrer Einschätzung nach dauern, bis ein umfassend wirksamer Impfstoff
gegen
die
Tuberkulose
auf
dem
Markt ist?
Die ersten klinischen Studien der Phase I haben für mehrere Tuberkulose-Impfstoffkan-
103
didaten begonnen. Dabei wird die Sicherheit und Verträglichkeit des Impfstoffs überprüft. Ein Impfstoff-Kandidat wird bald in eine klinische Studie Phase II treten. In diesen Untersuchungen soll über die Messung der Immunantwort festgestellt werden, wie gut das Impfstoffpotenzial eigentlich ist. Frühestens 2008 geht es dann in die ersten großen Phase III Studien, die prüfen, ob ein Schutz induziert wird. Danach muss man mit weiteren zehn Jahren rechnen. Unser Impfstoff wird mit aller Wahrscheinlichkeit Anfang 2007 in Phase I eintreten, sodass wir mit ersten eindeutigen Resultaten nicht vor Ablauf von zehn bis zwölf Jahren rechnen können.
Biosignaturen sollte es uns erlauben, schon während früher Phasen der Impfstudien die Effektivität der getesteten Impfstoffe abzuschätzen. Damit können wir bereits früh Kombinationen aus unterschiedlichen Impfstoffen voraussagen, die dann wiederum in klinischen Phasen als „Prime/Boost-Schema“ auf ihre Effektivität getestet werden können. * Unter Biomarkern versteht man charakteristische Substanzen des Stoffwechsels, wie zum Beispiel bestimmte Enzyme und Proteine, die sich durch die Einwirkung beispielsweise von Medikamenten oder Giften verändern.
Welche aktuellen Ansätze in der Impfstoffentwicklung allgemein halten Sie für besonders
Wie
könnte
die Tuberkulose-Impfung
der
Zukunft aussehen?
Aus meiner Sicht stellt sich die ideale Tuberkulose-Impfung als ein „Prime/Boost-Schema“ mit dem bestmöglichen „Prime-Kandidaten“ und dem bestmöglichen „Boost-Kandidaten“ dar. Ich bin guter Hoffnung, dass unser Impfstoff der beste Prime-Kandidat sein wird. In vergleichenden Impfstudien muss herausgefunden werden, welcher Kandidat sich als bester „Boost-Impfstoff “ erweist. Das dauert natürlich einige Zeit. Deshalb müssen wir von Beginn an Biomarker charakterisieren und definieren, die es uns ermöglichen, die Effektivität der einzelnen Impfstoffkandidaten so früh und so genau wie möglich zu bestimmen. Mit Unterstützung der Bill und Melinda Gates Stiftung versuchen wir mit sieben Partnern in Afrika und mehreren Partnern in Europa und den USA so genannte Biosignaturen zu definieren, die für Schutz und Schaden bei der Tuberkulose zumindest charakteristisch sind und hoffentlich sogar vorhersagenden Wert haben. Unter Biosignaturen verstehen wir eine Gruppe von Biomarkern*, die in ihrer Gesamtheit Aussagen über Schutz bzw. Schaden ermöglichen. Die Kenntnis solcher
104
viel versprechend?
Alle unsere heutigen Impfstoffe sind das Ergebnis von Arbeiten des letzten Jahrhunderts. Die meisten wurden in den 50er-Jahren des 20. Jahrhunderts entwickelt. Dies alles geschah empirisch. Die Empirie hat nun aber mehr oder weniger ihre Grenzen erreicht. Die Impfstoffe, die auf diese Weise entwickelt werden können, wurden gefunden. Nun müssen wir auf rationale Impfstoff-Entwicklungen bauen und hier können wir in erster Linie auf unser erweitertes Wissen in der Immunologie, der Molekularbiologie und der Zellbiologie setzen. Insbesondere die neueren Erkenntnisse in der Immunologie haben uns gezeigt, wie wir gezielt die Immunogenität verbessern können. Früher haben wir uns hauptsächlich auf die Identifizierung so genannter protektiver Antigene fokussiert, also welche Antigene im Impfstoff präsentiert sein müssen. Heute wissen wir, dass das für die Krankheiten, für die wir noch keine Impfstoffe haben, nicht ausreicht. Neben die Auswahl des protektiven Antigens, muss die Verbesserung der Immunogenität treten, d. h. die Stärke des Schutzes, die ein Impfstoffantigen induziert, muss deutlich verbessert werden.
KÖRPER, GEIST, GEHIRN
Wir lernen dabei von den Abwehrkräften, die sich bei natürlichen Infektionen entwickeln. Häufig reicht das aber nicht und wir müssen Wege entwickeln, diese natürliche Immunantwort weiter zu verstärken, das heißt wir müssen besser sein als die Natur. Trotz weltweiter Bemühungen ist bisher kein effektiver Aids-Impfstoff in Sicht. Warum?
Bei Aids kommen alle Schwierigkeiten zusammen. Erstens müssen wir eine starke Immunantwort auslösen, die sowohl von Antikörpern als auch von T-Zellen getragen wird. Zweitens verändert sich der Erreger sehr rasch und häufig, sodass wir meist mit dem Impfschutz hinterher hinken: Sobald eine einigermaßen gute Immunität aufgebaut ist, ist der Erreger für das Immunsystem schon wieder unsichtbar geworden, weil er sich verändert hat. In der Vergangenheit hat man sich – anlehnend an die klassischen Impfstoff-Entwicklungen – in erster Linie auf die antikörpervermittelte Immunität fokussiert. Das ist weitgehend fehlgeschlagen. Wie so häufig in
der Wissenschaft ist man dann zu rasch auf den nächsten Zug aufgesprungen und hat versucht nur T-Zellen zu stimulieren. Das ist sehr viel schwieriger und die entscheidenden Probleme habe ich bereits angesprochen. Aber auch T-Zellen reichen bei Aids nicht aus, und mit aller Wahrscheinlichkeit brauchen wir sowohl Antikörper als auch T-Zellen für einen guten Impfschutz. Hinzu kommt der Wechsel des Antigenmusters beim HI-Virus. Diese Problematik ist äußerst schwierig zu lösen. Es gibt aber erste Untersuchungen, die zeigen, dass die Veränderungen sich nicht zufällig vollziehen, sondern gewissen Regeln folgen. Sollten wir diese Regeln entschlüsseln können, so können wir einen Impfstoff entwickeln, der unterschiedliche Antigene enthält, die noch Schutz gegen HIV bieten, nachdem sich der Erreger mehrfach verändert hat. Aber auch mit dem größtem Optimismus: Bei Aids wird es noch einige Zeit dauern, bis wir einen Impfstoff verfügbar haben, der zufrieden stellend funktioniert.
Makrophage bei der Aufnahme des verbesserten BCG-Impfstoffs © Max-Planck-Institut für Infektionsbiologie, Volker Brinkmann
105
Ein Blutgefäß wird von einem Tumor (links) angelockt. © MPI für Biochemie
Krebs – Kampf dem Tumor Krebs ist das Damoklesschwert unserer Zeit. Millionen von Menschen weltweit leiden an der Krankheit mit den vielen Gesichtern, täglich müssen sich Tausende neu mit der Diagnose auseinandersetzen. Denn trotz modernster Technologien und Therapien bedeutet sie in vielen Fällen noch immer ein Todesurteil. Entsprechend fieberhaft suchen Mediziner nach neuen Strategien im Kampf gegen den „Amoklauf “ der Zellen. In den letzten Jahren sind dabei besonders die genetischen und biochemischen Mechanismen der Tumorentwicklung und des Tumorwachstums in den Mittelpunkt des Forscherinteresses gerückt. Denn sie bieten erstmals die Möglichkeit, gezielt den Krebs zu bekämpfen, ohne dabei gesunde Zellen zu schädigen, wie dies bei den bisher gängigen Therapien Bestrahlung, Chemotherapie und Operation der Fall ist. Drei Strategien gelten zurzeit als besonders viel versprechend und werden entsprechend intensiv erforscht.
dern. Ein Beispiel dafür sind Wirkstoffe auf der Basis der so genannten RNA-Interferenz. Sie bestehen aus Negativkopien der Boten-RNA, dem Molekül, das eine Abschrift der Bauanleitung des Proteins vom Zellkern an die „Proteinfabriken“ der Zelle liefert. Die Kopien lagern sich an die Boten-RNA an und unterbinden so das Ablesen und damit die Produktion des entsprechenden Proteins. Im Jahr 2002 vom Wissenschaftsmagazin SCIENCE als eine der Entdeckungen des Jahres gefeiert, sind inzwischen die ersten Wirkstoffe auf dieser Basis in klinischen Tests.
Interferenz blockiert Proteinproduktion
In einem ersten Ansatz versuchen Wissenschaftler, bestimmte Proteine der Krebszellen zu blockieren und damit ein Wachstum oder eine Ausbreitung von Tumoren zu verhin-
106
Antikörper als Abwehrhilfe
Andere Forscher setzen am Immunsystem des Patienten an und hoffen, durch die Aktivierung bestimmter Abwehrzellen
KÖRPER, GEIST, GEHIRN
oder die gezielte Gabe bestimmter Immunfaktoren, wie beispielsweise Antikörper, den Krebs durch körpereigene Mittel zu zerstören oder zumindest seine Ausbreitung zu stoppen. Ein Beispiel für einen Wirkstoff auf Antikörperbasis ist Rituximab (MabThera), das gegen das Non-Hodgkin-Lymphom eingesetzt wird. Die Antikörper binden an einen Rezeptor, der nur auf den vom Krebs befallenen B-Zellen der Immunabwehr vorkommt und „markieren“ ihn damit für zellzerstörende Chemotherapeutika. Da unreife B-Vorläuferzellen diesen Rezeptor nicht besitzen, bleiben sie verschont und können nach der Chemotherapie neue, gesunde B-Zellen generieren. „Blutentzug“ gegen Tumorwachstum
In einem dritten Ansatz verfolgen Wissenschaftler die Möglichkeit, den Tumor buchstäblich „auszuhungern“. Denn um über eine Größe von wenigen Millimetern hinaus über-
leben zu können, muss der Tumor mit Nährstoffen und Sauerstoff und somit mit Blut versorgt sein. Um dies sicherzustellen, produziert er bestimmte Proteine, die als Wachstumsfaktoren auf das umliegende Gewebe wirken und die Entwicklung neuer Blutgefäße anregen. Sollte es gelingen, die Neubildung von Blutgefäßen, die so genannte Angiogenese, zu unterbinden, wäre das ein potenzieller Ansatzpunkt für eine Krebstherapie. Und genau diesen Ansatz nutzt ein 2006 neu zugelassenes Präparat gegen fortgeschrittenen Nierenkrebs und eine seltene Magen-Darmkrebsart, das gastrointestinale Stromakarzinom. Die wissenschaftliche Grundlage dafür wurde von deutschen Wissenschaftlern gelegt: Im Labor des Krebsforschers Axel Ullrich am MaxPlanck-Institut für Biochemie in Martinsried.
Blut versorgt auch den Tumor mit Nährstoffen und Sauerstoff. Hier zu sehen: rote Blutkörperchen, neutrophile Leukozyten (weiße Blutkörperchen) und Blutplättchen. © National Cancer Institute (NCI)
Angriff auf breiter Front Multispezifische Wirkstoffe – ein neuer Trend in der Krebstherapie Die Forschungen von Ullrich und seinem Team zielen auf einen der komplexesten, aber auch wichtigsten Bereiche des Tumorwachstums – auf die Kommunikation der Zellen. Denn erst die vielfältigen Signale, die von einer Zelle zur anderen, aber auch innerhalb der Zelle selber ausgetauscht werden, ermöglichen ihr normales Funktionieren. Ist diese Kommunikation gestört, geht nichts mehr – oder aber zuviel: Es wächst etwas, wo es nicht wachsen sollte – Krebs entsteht.
die als Botenstoffe und Wachstumsfaktoren fungieren und mit speziellen Bindungsstellen in der Zellmembran von Gefäßwandzellen reagieren. Eine dieser Bindungsstellen, den Flk1/VEGFR2-Rezeptor, hat Ullrich schon in den 1980er-Jahren genauer untersucht. Wie ein
In seinen Forschungsarbeiten beschäftigt sich Axel Ullrich mit der molekularen Signalübertragung. © MaxPlanck-Institut für Biochemie
Signalkaskade setzt Teilung in Gang
Die Krebszellen wiederum beeinflussen über chemische Signale ihre Umgebung. Um ihre Blutversorgung zu optimieren, geben sie den „Befehl“ für die Entwicklung neuer Blutgefäße. Dabei bilden sie bestimmte Proteine,
107
Tumorzellen wachsen in Kulturschalen als Einzelzellen (li.). Ist die Bildung von Prohibitin abgeschaltet – das Protein kontrolliert die Metastasenbildung -, entwickeln sich die gleichen Tumorzellen in dreidimensionalen Verbünden. © MaxPlanck-Institut für Infektionsbiologie
108
„Y“ sitzt er in der Zellwand und „angelt“ mit den beiden kurzen, nach außen ragenden Ärmchen nach passenden VEGF-Wachstumsfaktoren. Bindet ein solches Protein, verändert das „Y“ seine Form und der „lange Arm“ auf der Membraninnenseite aktiviert das Enzym Tyrosinkinase. Dieses startet nun seinerseits eine ganze Kaskade von Proteinaktivierungen, die das Signal bis in den Zellkern weiterleiten und dort die Zellteilung auslösen. Das Resultat dieser Kette von Ereignissen ist letztlich die Vermehrung der Gefäßwandzellen und damit das Gefäßwachstum. Hemmstoff blockiert Tyrosinkinasen
Genau an dieser Stelle sahen die Wissenschaftler ihre Chance zum Eingriff : Denn wird der Flk-1/VEGFR2-Rezeptor blockiert, wäre damit auch die Blutversorgung des Tumors
gestört – der Tumor würde „verhungern“ und nicht mehr weiter wachsen. Die Wissenschaftler begannen einen möglichst spezifischen Angiogenese-Hemmer – gewissermaßen einen „Appetitzügler“ für Tumore – zu entwickeln. Doch es zeigte sich sehr rasch, dass ein „Aushungern“ allein nicht zum Erfolg führen würde. Offenbar war ein Angriff an mehreren Fronten notwendig, um den Krebs nachhaltig zu schädigen. Tatsächlich gelang es den Max-Planck-Forschern einen Hemmstoff zu entwickeln, der bereits den Beginn der Signalkaskade und damit eine ganze Reihe von wichtigen Kommunikationsprozessen blockiert, nämlich die Aktivierung der Tyrosinkinasen. Allerdings gab es da einen Haken: Eine so breite Wirkung könnte – so jedenfalls die allgemeine Annahme – auch gesunde Zellen
KÖRPER, GEIST, GEHIRN
in Mitleidenschaft ziehen und schwere Nebenwirkungen hervorrufen. Doch die Versuchsergebnisse widersprachen dem: Die Nebenwirkungen waren sogar geringer als angenommen. „Das ist die große Überraschung der letzten fünf bis zehn Jahre“, erklärt Ullrich. „Wir haben immer gedacht, es sei wichtig, möglichst spezifische Medikamente einzusetzen.“ Der von den Max-Planck-Forschern entdeckte TyrosinkinaseHemmer blockiert nicht nur die Bildung von Blutgefäßen in Tumoren, sondern noch weitere krankheitsrelevante Enzyme im Signalnetzwerk der Tumorzellen. Die ersten Schritte zum eigentlichen Wirkstoff wurden bei einem kleinen kalifornischen Biotechnologie-Unternehmen gemacht, der von Ullrich zusammen mit der New York University gegründeten Firma Sugen Inc., und schließlich – nach der Übernahme von Sugen – vom Pharmakonzern Pfizer unter dem Präparatnamen Sutent® (Wirkstoff Sunitinib) zur Marktreife gebracht. Zulassung 2006 erfolgt
Klinische Tests bei Patienten mit gastrointestinalem Stromakarzinom haben inzwischen gezeigt, dass die Zeit bis zum erneuten Wachstum der Tumoren unter Behandlung mit Sunitinib vier Mal so lang ist wie bei einer Placebo-behandelten Kontrollgruppe. Bei Patienten mit fortgeschrittenem Nierenzellkarzinom offenbarten die Studien sogar eine Reduktion der Tumorgröße. Bei jedem dritten Patienten mit Nierenzellkarzinom schrumpfte der Tumor um mehr als die Hälfte. In den USA wurde Sunitinib im Januar 2006 als Medikament gegen diese beiden Krebsarten offiziell zugelassen. „Bereits im Vorfeld der Zulassung können durch das beschleunigte Verfahren der FDA mehr als 1.700 Patienten mit dem neuen Präparat behandelt werden“, freut sich Ullrich. In Deutschland erfolgte die Zulassung und Markteinführung am 20. Juli 2006.
Steckbrief: Sutent® (Sunitinib) Hersteller: Pfizer Indikation: fortgeschrittenes Nierenzellkarzinom und gastrointestinales Stromakarzinom (GIST) Zulassung: Im Januar 2006 durch die amerikanische Arzneimittelbehörde FDA, in Europa bisher bedingte Marktzulassung, wenn andere Therapien (Interferon Alpha oder Interleukin -2) fehlgeschlagen sind. Weitere klinische Tests laufen derzeit mit Patienten, die an fortgeschrittenen Formen von Blasenkrebs, Brustkrebs, Gebärmutterhalskrebs, Dickdarmkrebs, Speiseröhrenkrebs, Kopf- und Nacken-Tumoren, Leberkrebs, Lungenkrebs, Melanom, Eierstockkrebs, Bauchspeicheldrüsenkrebs, Prostatakrebs und Hodenkrebs leiden. Die Studien befinden sich 2006 in verschiedenen Phasen der klinischen Prüfung (Phase I bis III) und werden meist in Kombination mit anderen Therapeutika durchgeführt. Bild: © MPG
Multispezifische Wirkstoffe im Trend
„Die Behandlung mit multispezifischen Wirkstoffen, die die Signalübertragung bei Tumorzellen hemmen, stellt einen neuen Meilenstein in der Krebstherapie dar, weil sie in vielfältiger Weise kritische Krebszell-Funktionen angreift und von den Patienten gut vertragen wird“, fasst Ullrich den Trend der Forschung zusammen. Und er muss es wissen – denn der Wissenschaftler ist der erfolgreichste Krebsforscher Deutschlands. 60 angemeldete Patente und vier Ausgründungen von Biotechnologie-Unternehmen zieren mittlerweile seine Bilanz.
VEGF-Rezeptor © MMCD
109
Was sonst noch geschah Contergan-Wirkstoff Thalidomid als Krebsmittel
In den 1960er-Jahren erlangte Thalidomid unter dem Markennamen Contergan traurige Berühmtheit, weil es schwere Missbildungen auslöste. Doch jetzt feiert es eine Renaissance als Krebsmedikament. In mehreren Ländern, darunter den USA, Australien und der Türkei ist es als Wirkstoff gegen das Multiple Myelom, eine Krebserkrankung des Knochenmarks, zugelassen. Zahlreiche Studien – allein 80 im Jahr 2005/2006 – untersuchen zurzeit weitere Anwendungsmöglichkeiten in der Krebstherapie. (National Cancer Institute, Mai 2006) Neues Zielgen für Krebstherapie Immunfluoreszenzmikroskopische Aufnahme einer sich teilenden menschlichen Zelle. Die Chromosomen sind blau, die Mikrotubuli der Teilungsspindel grün und die beiden Zentrosomen gelb/orange eingefärbt. Skala: 10 Mikrometer © Max-Planck-Institut für Biochemie
Krebsforscher der Johann Wolfgang Goethe-Universität in Frankfurt am Main haben mit dem Protein Polo-like kinase 1 (Plk1) ein Krebsgen entdeckt, das sich als Zielgen für die gezielte molekulare Therapie von Tumoren eignet. Das Protein Plk1 wird für die Reifung der Zentrosomen, für die Ausbildung des Spindelapparates, die Trennung der Chromosomen und für die Trennung der bei der Mitose entstehenden Tochterzellen benötigt. Hemmt ein Medikament Plk1, ist keine Zellteilung mehr möglich. Ein Pharmaunternehmen entwickelt bereits erste Hemmstoffe gegen Plk1 und testet diese in klinischen Versuchen an Patienten. (NATURE REVIEWS CANCER April 2006) Impfung mit Krebszellen gegen Krebs
Eine Impfung mit körpereigenen Krebszellen kann die Überlebenszeit von Patienten mit bestimmten Hirntumoren, dem Glioblastom, verlängern. Die Krebszellen werden dafür entnommen und mit einem für Menschen unschädlichen Vogelvirus markiert. Damit sind sie für das Immunsystem „enttarnt“ und aktivieren die Abwehr gegen das Glioblastom. In einer ersten Studie am Menschen zeigte das Verfahren Wirkung. (Universität Heidelberg/ Deutsches Krebsforschungszentrum, November 2005)
Sterbende Krebszelle © National Cancer Institute (NCI)
110
KÖRPER, GEIST, GEHIRN
Wissen hoch 12: Der auf Ihren Forschungsar-
Ist bei diesen nicht die Gefahr von Nebenwir-
beiten beruhende Wirkstoff Sunitinib setzt an
kungen größer?
der Angiogenese, der Bildung neuer Blutgefäße
Die Gefahr besteht, doch wie die Erfahrungen mit den ersten derartigen Medikamenten in den letzten zehn Jahren klinischer Prüfung gezeigt haben, sind die Nebenwirkungen schwächer als erwartet.
für die Versorgung des Tumors an. Was können Angiogenesehemmer zukünftig möglicherweise leisten – und was nicht?
Spezifische Angiogenesehemmer werden in der Zukunft hauptsächlich als Bestandteile von Kombinationstherapien eingesetzt werden. Da Sutent® ein multispezifisches Krebsmedikament darstellt, also nicht nur die Tumorangiogenese blockiert, sondern auch andere für wichtige Krebszelleigenschaften essenzielle Proteine inaktiviert, bewirkt es diesen Kombinationseffekt bereits alleine. Ihr Tyrosinkinase-Hemmstoff zielt auf die Blockade der zellulären Kommunikation. Warum gerade die Tyrosinkinase? Sehen Sie noch weitere potenzielle Ansatzstellen in der Signal-
Interview
Welche aktuellen Ansätze bei der Suche nach neuen Krebsmedikamenten halten Sie noch für besonders Erfolg versprechend?
Die Entwicklung weiterer multispezifischer Kinasehemmer, die in der Zukunft dem Onkologen ein Breitbandspektrum von Medikamenten zur Verfügung stellt, welches je nach Krebstyp eingesetzt werden kann. Außerdem halte ich die Weiterentwicklung von Wirkstoffen für essenziell, die das Immunsysten stärken und damit dem Körper die Möglichkeit geben, sich selbst zu wehren.
Prof. Axel Ullrich, Direktor am MaxPlanck-Institut für Biochemie in Martinsried, zählt zu den erfolgreichsten Krebsforschern weltweit. Auch das Brustkrebsmedikament Herceptin® geht auf seine Forschungen zurück. © MPG
kaskade?
Tyrosinkinasen sind Enzyme, die bei der Vermittlung von zellulären Signalen eine zentrale Rolle spielen. Abnorme Veränderungen in ihrer Funktion, die zum Beispiel durch Mutationen in den entsprechenden Genen verursacht werden können, spielen häufig eine kausale Rolle bei der Krebsprogression und stellen daher ideale Zielmoleküle für die Entwicklung von neuartigen Krebsmedikamenten dar.
Wird die Medizin eines Tages den Krebs komplett besiegen können? Oder müssen wir auch zukünftig mit diesem „Damoklesschwert“ leben?
Wenn wir es schaffen würden Krebs zu einer chronischen Krankheit zu machen, mit der wir leben können, wäre das schon ein großer Sieg. Krebspatientin bei der Chemotherapie © National Cancer Institute (NCI)
Was macht die multispezifischen Wirkstoffe – zu denen Sunitinib gehört – so interessant?
Krebs ist eine äußerst komplexe Erkrankung, die durch Defekte in einer Vielzahl von zellulären Signalübertragungsprozessen verursacht wird. Dieser Komplexität wird durch die multispezifische Wirksamkeit von Sutent® Rechnung getragen. Der Krebstumor wird also an mehreren Fronten angegriffen.
111
Ein Schachbrettmuster (links) als visueller Reiz ruft Neuronenaktivität im Gehirn hervor, die mit Elektroden (vorne) und funktioneller Magnetresonanztomographie (hinten) aufgezeichnet wurde. © Max-PlanckInstitut für biologische Kybernetik
Der neue Blick ins Gehirn Unser Gehirn ist nicht nur in der Lage, unsere Bewegungen im Raum zu steuern, sondern es koordiniert auch die Informationen unserer fünf Sinne über die Umwelt; es erlaubt uns zu sprechen, zu denken und zu fühlen – ohne dieses oberste Steuerungs- und Schaltorgan wären wir nichts. Aber was passiert in unseren Köpfen wenn wir denken? Welche Signale lassen Bilder oder Sätze im Kopf entstehen? Und wie formt sich aus den vielen Eindrücken das Bewusstsein unserer selbst und unserer Umwelt? Antworten auf diese Fragen suchen Wissenschaftler schon seit Jahrhunderten. Inzwischen ist das Wissen um die Vorgänge in unserem Kopf zwar gewachsen, aber noch immer klaffen große Lücken in der „Landkarte des Bewusstseins“. Um diese zu füllen, setzen Hirnforscher heute vor allem auf so genannte
112
bildgebende Verfahren – Techniken, die einen immer genaueren Einblick in die Vorgänge in unserem Gehirn ermöglichen. Dem Gehirn beim Denken zusehen
Mithilfe der Computertomografie (CT) und der Magnetresonanztomografie (MRT)
KÖRPER, GEIST, GEHIRN
können viele Details im Gehirn sichtbar gemacht und so beispielsweise Tumore oder Blutgerinnsel identifiziert werden. Für die medizinische Diagnostik sind sie heute daher unverzichtbar geworden. Tatsächlich werden hierbei aber nur Strukturen sichtbar – Informationen über die Gehirnfunktionen, die ja die Grundlage unseres Denkens und Fühlens bilden, erhält man auf diesem Wege nicht. Aufschluss über die Gehirnaktivität liefern funktionelle Verfahren wie die Positronen-Emissions-Tomografie (PET) oder die funktionelle Magnetresonanztomografie (fMRT). Aus der modernen Neurowissenschaft kaum mehr wegzudenken, zeigen diese farbigen Aufnahmen, wo im Gehirn beispielsweise beim Lesen oder Hören hohe oder niedrige Aktivität herrscht. Sie erlauben es den Wissenschaftlern gewissermaßen, dem Gehirn beim Denken zuzusehen – bis auf weniger als einen Millimeter genau können Forscher die Aktivitätsmuster im Gehirn studieren und so die Entwicklung neuronaler Netzwerke für das Sehen, Sprechen und Hören untersuchen.
Professor Dr. Nikos K. Logothetis, Direktor am Max-Planck-Institut für biologische Kybernetik, erforscht die neuralen Mechanismen unserer Wahrnehmung. © Max-Planck-Institut für biologische Kybernetik
Wie aussagekräftig sind die Aufnahmen?
Nach einer Phase der Euphorie macht sich unter Wissenschaftlern allerdings Skepsis breit, wie aussagekräftig die bunten Bilder wirklich sind. Mit der fMRT lassen sich zwar Unmengen von Daten produzieren, vielfach fehlt es aber an Hintergrundinformationen oder Grundlagen, um die Messwerte richtig interpretieren zu können. So klafft eine große Lücke zwischen der räumlich aufgelösten Betrachtung der Hirnaktivität mittels funktioneller Magnetresonanztomografie und den vielen auf der Basis elektrophysiologischer Ableitungen am Tiermodell errungenen Erkenntnissen. Nikos K. Logothetis und seinen Mitarbeitern vom Max-PlanckInstitut für biologische Kybernetik in Tübingen ist es gelungen, das Verständnis für die Grundlagen der fMRT maßgeblich zu erweitern und damit die kognitive Neurobiologie einen entscheidenden Schritt voranzubringen.
Taktile Reize der Hörrinde. Experimente mithilfe der hochauflösenden Magnetresonanztomografie zeigen, dass akustische Aktivität in der Hörrinde durch gleichzeitige Stimulation der Hand verstärkt wird. Diese sensorische Integration (blaue Region) findet nicht in der primären Hörrinde (rote Region) statt, sondern außerhalb dieser, in der sekundären Hörrinde (gelb umrahmtes Gebiet). © Max-Planck-Institut für biologische Kybernetik
113
fMRT Mehr als nur bunte Bilder Die funktionelle Magnetresonanztomografie (fMRT) misst die räumlichen und zeitlichen Veränderungen des Blutzuflusses und der Sauerstoffkonzentration im Gehirn. Sie misst damit quasi Sekundärsignale, denn die Gehirnaktivität selbst wird so nur indirekt erfasst. Richtig interpretieren können die Hirnforscher die fMRT-Signale daher nur dann, wenn sie die Beziehung zwischen diesen Signalen und der ihnen zugrunde liegenden neuronalen Aktivität verstehen. Eingangssignale sichtbar gemacht
fMRT-Aufnahme der primären Sehrinde eines Patienten mit Netzhautverletzung. Vorne: Signale vom Punkt des schärfsten Sehens der Netzhaut werden im roten Bereich verarbeitet. Der von Konturen umgebene gräuliche Bereich ohne Aktivität entspricht der im Hintergrundbild weißlichen Netzhautverletzung. © Max-Planck-Institut für biologische Kybernetik
114
Ein wichtiger Schritt hin zu diesem Verständnis gelang Logothetis und seinen Mitarbeitern am Max-Planck-Institut für biologische Kybernetik. Sie wiesen mithilfe von Spezialelektroden und einer aufwändigen Datenverarbeitung nach, dass die Signale der funktionellen Magnetresonanztomografie tatsächlich Veränderungen der Neuronenaktivität widerspiegeln. Man kann sogar zwischen ein- und ausgehenden Nervenimpulsen unterscheiden: Denn die Forscher stellten fest, dass Änderungen des Sauerstoffgehalts das Einlaufen von Signalen in die jeweilige Hirnregion und deren Verarbeitung widerspiegeln, nicht aber die Ausgangssignale, die an andere Hirnregionen weitergegeben werden. „Wir haben jetzt erstmals die Möglichkeit, zu verstehen, was einzelne Neurone tun und wie sie ihre Aufgabe im Kontext funktionsspezifischer neuronaler Netzwerke erfüllen“, sagt Logothetis.
Das Gehirn rechnet auch ohne fMRT-Signal
Die experimentellen Untersuchungen der Tübinger ergaben außerdem, dass das Signal-Rausch-Verhältnis bei fMRT-Daten sehr viel kleiner ist als bei elektrophysiologischen Ableitungen. Ein Teil des „echten“ Signals kann also vom Hintergrundrauschen nicht getrennt werden und wird deshalb nicht erkannt. „Dies hat zur Folge, dass bei der üblichen statistischen Auswertung menschlicher fMRT-Daten die Ausdehnung der neuronalen Aktivität im Gehirn unterschätzt wird“, so Logothetis. Kognitionswissenschaftler müssen sich daher in Zukunft bei der Interpretation ihrer fMRTDaten darauf einstellen, dass das scheinbare Fehlen eines fMRT-Signals nicht unbedingt bedeutet, dass in diesem Hirnbereich keine neuronale Informationsverarbeitung stattfindet. Vom Nutzen negativer Signale
Immer wieder registrieren die Wissenschaftler in ihren Studien auch Fälle, in denen Blutfluss und Sauerstoffgehalt des Gehirns anhaltend vermindert sind. Was aber ist hierfür die Ursache? Auch das konnten die Max-Planck-Wissenschaftler in ihren jüngsten Untersuchungen zeigen: Die fehlenden Signale sind nicht etwa auf einen „Stealing effect“ zurückzuführen – das heißt eine Abnahme des Blutflusses in einem Areal aufgrund der Zunahme in einem anderen – sondern werden tatsächlich durch eine Abnahme der neuronalen Aktivität ausgelöst. Das eröffnet wertvolle Einblicke gerade auch in krankhafte Veränderungen des Hirnstoffwechsels: „Unsere Studie ermöglicht es den Forschern, die negativen Signale der funktionellen Hirnbildgebung zu nutzen, um daraus auf Abschwächungen der Hirnaktivität in Verbindung mit bestimmten kognitiven Aufgaben oder neurologischen Erkrankungen zu schließen“, erklärt Logothetis.
KÖRPER, GEIST, GEHIRN
PET-Aufnahme eines gesunden Gehirns. Deutlich sind die Unterschiede in der Glukoseanreicherung zwischen grauen Gehirnzellen (rötlich-gelb) und weißen Gehirnzellen (bläulich-grün) erkennbar. © National Cancer Institute (NCI)
Magnetresonanz-Schnittbild durch das Gehirn eines Patienten mit Gehirnmetastase (hellblau) im Hinterkopf. © National Cancer Institute (NCI)
Positronen-Emissions-Tomographie (PET)
Funktionelle Magnetresonanztomographie (fMRT)
Eingesetzte Strahlung: keine Marker/Kontrastmittel: Radionuklide – radioaktive Isotope der Elemente Fluor, Kohlenstoff, Stickstoff und Sauerstoff. Am häufigsten als Marker eingesetzt wird eine mit radioaktivem Fluor markierte Glukoseform (18F-Fluor-Desoxyglukose (FDG)).
Eingesetzte Strahlung: Magnetfelder und Radiowellen
Funktionsweise: Nach Injektion oder Inhalation des Markers liegt der Patient in einem Ring aus Detektoren. Im Verlauf des radioaktiven Zerfalls entstehen Photonen – Lichtteilchen – die von den Sensoren registriert und deren Quelle lokalisiert wird. Aus der Gesamtheit aller Treffer entsteht durch Berechnungen ein dreidimensionales Modell und ein Schnittbild.
Funktionsweise: Die MRT, auch Kernspintomografie genannt, beruht auf den magnetischen Eigenschaften von Atomkernen. Mit starken Magnetfeldern werden die Wasserstoffatome im Körper zunächst einheitlich ausgerichtet. Radiowellenpulse stören diese Ausrichtung kurzzeitig, bei Abschaltung der Radiowellen fallen die Atome jedoch wieder in die ursprüngliche Ausrichtung zurück und senden dabei ein messbares Signal aus. In aufwändigen Rechenoperationen entsteht aus diesen ein dreidimensionales Bild. Das Magnetverhalten unterscheidet sich zum Beispiel auch bei sauerstoffreichem und -armem Blut und macht damit auch die stärkere Durchblutung von aktiven Gehirnbereichen sichtbar.
Anwendungen: Onkologie: Diagnose, Stadium und Lage von Tumoren; Neurologie: Gehirnstoffwechsel; Kardiologie: Durchblutung des Herzmuskels Räumliche Auflösung: gering (4-5 Millimeter) Zeitliche Auflösung: gering
Marker/Kontrastmittel: nicht essenziell, Flüssigkeiten mit abweichenden magnetischen Eigenschaften werden zur Erhöhung des Kontrasts eingesetzt.
Anwendungen: vor allem in der Neurologie und Neuropsychiatrie, zeigt zum Beispiel Unterschiede im Gehirnstoffwechsel bei Aktivität, aber auch bei psychischen Erkrankungen. Räumliche Auflösung: etwa 1 Millimeter Zeitliche Auflösung: gering
115
Helfer an der Südseite der Wittower Fähre auf Rügen © Holger Vonberg
Vogelgrippe – das Virus erreicht Deutschland Am 16. Februar 2006 bestätigte das Nationale Referenzlabor für aviäre Influenza am Friedrich-Loeffler-Institut (FLI) die ersten Fälle von Vogelgrippe in Deutschland. Spaziergänger hatten einige Tage zuvor im Norden der Insel Rügen nahe der Wittower Fähre zwei tote Schwäne gefunden. Veterinärmedizinische Untersuchungen ergaben, dass die Tiere mit dem Erreger H5N1 infiziert waren. Damit wurde endgültig Wirklichkeit, was Wissenschaftler ohnehin längst befürchtet hatten: Dass nämlich die Ausbreitung des Vogelgrippe-Virus über infizierte Zugvögel von Südostasien nach Europa auch vor den deutschen Grenzen nicht halt machen würde. In vielen Bundesländern darunter Bayern, Baden-Württemberg und Brandenburg wurden in den folgenden Tagen und Wochen
116
weitere Fälle von Vogelgrippe bei Wildvögeln registriert. Vor allem Höckerschwäne waren betroffen. Später starben an dem Virus auch drei Hauskatzen und – weltweit erstmals – ein Steinmarder. Um die Gefahr für den Menschen so gering wie möglich zu halten und vor allem ein Übergreifen der Tierseuche auf Zuchtgeflügel zu verhindern, leiteten die zustän-
KÖRPER, GEIST, GEHIRN
digen Behörden in den betroffenen Gebieten umgehend entsprechende Maßnahmen ein. Die Fundorte von verendeten Tieren wurden abgeriegelt und Sperrzonen errichtet. Sogar die Bundeswehr musste beim Kampf gegen die Tierseuche helfen. Zusammen mit dem Technischen Hilfswerk desinfizierten die Soldaten tagelang Fahrzeuge und Menschen, die nach Rügen oder von der Insel auf das Festland fahren wollten. Vogelgrippe auch bei Zuchtgeflügel
Weder diese Maßnahmen noch die Stallpflicht für Hühner, Puten und Gänse und ein Verbot für Geflügelmärkte konnten letztlich das Einschleppen des Virus auf eine Geflügelfarm in Mutzschen bei Leipzig verhindern: Am 4. April 2006, rund zwei Monate nach dem ersten Auftreten der Seuche in Deutschland, diagnostizierte das FLI dort einen Befall des Tierbestandes mit H5N1. 800 Puten starben an der Vogelgrippe, mehrere tausend Puten, Gänse und Hühner mussten von Spezialisten getötet werden, um eine weitere Ausbreitung der Seuche und damit enorme Schäden in der Landwirtschaft zu verhindern. Die Ursache für diesen Virus-Ausbruch ist bis heute nicht endgültig geklärt, vermutet wird eine Ansteckung durch direkten oder indirekten Kontakt mit infizierten Wildvögeln. Mit Mutzschen aber war der Höhepunkt des ersten Vogelgrippe-Ausbruchs in Deutschland bereits erreicht. Die Keulungen und andere Maßnahmen zur Eindämmung der Seuche zeigten Wirkung. Innerhalb von wenigen Wochen flaute die Epidemie ab und kam schließlich ganz zum Erliegen.
starben 54 der bislang in diesem Jahr gemeldeten 84 infizierten Personen. Anders als das humane Grippevirus ist H5N1 aber für den Menschen in der Regel nicht ansteckend, weil es auf Geflügel spezialisiert ist. Lediglich Personen, die in sehr engen Kontakt zu Geflügel kommen – wie beispielsweise auf den Geflügelmärkten Asiens –, können sich infizieren. Während das Vogelgrippe-Virus für Schlagzeilen in den Tageszeitungen und Fernsehnachrichten sorgte, blieb völlig unbeachtet, dass die Zahl der Menschen, die jedes Jahr an der ganz „normalen“ Grippe sterben weit höher liegt: Im Durchschnitt verursachen Influenzawellen jedes Jahr schätzungsweise 10.000 Todesfälle in Deutschland. Das Grippevirus hat sich dabei eine besonders clevere Strategie ausgedacht, um sich auszubreiten: Es verändert sich laufend – und das ist auch der Grund, warum wir jedes Jahr einen neuen Grippe-Impfstoff benötigen.
H5N1-Virionen © CDC, Cynthia Goldsmith, Jackie Katz
Vogelgrippe-Virus H5N1 (gold eingefärbt) © CDC, Cynthia Goldsmith
Zwischen Hysterie und berechtigter Sorge
Das Vogelgrippe-Virus ist für den Menschen bereits heute äußerst letal, das heißt, wer sich infiziert, kann daran sterben: im Jahr 2005 überlebten 41 von 95 Menschen die Infektion nicht, bis Anfang Juni 2006
117
Ausbruchs- und Verdachtsfälle von aviärem Influenzavirus © Friedrich-Loeffler-Institut (FLI)
118
KÖRPER, GEIST, GEHIRN
Trojanische Pferde verbreiten das Virus
Die eigentliche Gefahr bei der Vogelgrippe besteht darin, dass sich eine an Grippe erkrankte Person über den Kontakt mit Geflügel mit dem Virus H5N1 infiziert. Die beiden Virus-Arten könnten dann Gene miteinander austauschen. Dabei könnte ein neues Super-Virus entstehen, das die hohe Ansteckungskraft des humanen und die Letalität des Vogelgrippe-Virus besitzt. Die Frage wäre dann: Wer ist schneller – das sich ausbreitende Virus oder die Impfstoffentwickler? Etwa fünf bis sechs Monate benötigen wir heute, um einen neuen Grippe-Impfstoff zu entwickeln und zu produzieren. Zur Verbreitung des Virus tragen vor allem jene Organismen bei, die sich zwar infizieren, aber selber nicht erkranken. Für das Vogelgrippe-Virus stellen Enten ein solches trojanisches Pferd dar. Sie sind relativ widerstandsfähig gegenüber einer Infektion mit H5N1 und erkranken daran nicht mehr. Da sie aber trotzdem das Virus über Kot und Sekrete ausscheiden, hat sich der Erreger hier ein kaum kontrollierbares stilles Reservoir erobert. Springt das Virus über?
Doch auch ohne einen Gen-Austausch mit humanen Influenzaviren könnte das Vogelgrippe-Virus auf den Menschen überspringen: Amerikanische Wissenschaftler haben den Erreger der Spanischen Grippe untersucht, die zwischen 1918 und 1920 grassierte und weltweit Millionen Todesopfer forderte. Dieser Erreger gehört zum Subtyp H1N1. Er enthielt, wie die Forscher zeigen konnten, keine Abschnitte von humanen Influenzaviren, war also ein reines Vogelvirus, das es durch eine Reihe genetischer Veränderungen geschafft hatte, sich an den Menschen anzupassen. Ein Vergleich zeigte, dass einzelne genetische Merkmale des Erregers der Spanischen
Grippe inzwischen auch bei H5N1 zu finden sind, allerdings bislang nie im selben Virus. Und diese Mutationen scheinen vorübergehender Natur zu sein, die sich nicht in den zirkulierenden H5N1-Stämmen festgesetzt haben. Trotzdem sind sich Wissenschaftler wie Stefan H. E. Kaufmann vom Max-PlanckInstitut für Infektionsbiologie sicher, dass das Vogelgrippe-Virus irgendwann auf den Menschen überspringen wird: „Es ist keine Frage, ob es passiert“, sagt der renommierte Immunologe, „sondern wann es passiert.“
WAS SONST NOCH GESCHAH H5N1: Durch kleine Mutation zum Menschenvirus Das H5N1 Virus ist hoch ansteckend und tödlich – für Vögel. Bisher traten Infektionen mit Vogelgrippe bei Menschen dagegen nur in begrenztem Umfang auf und eine Übertragung von Mensch zu Mensch ist bisher nicht nachgewiesen. Doch das könnte sich schon bald ändern. Wie Wissenschaftler um Ian Wilson vom Scripps Forschungsinstitut im März 2006 in einer Studie belegten, könnten schon kleine Mutationen des aggressiven Virenstamms H5N1 seine Bindungsstellen so verändern, dass er statt des Verdauungstrakts von Vögeln die Atemwege von Menschen befällt. Damit wäre der Weg frei für eine Mensch-Mensch-Übertragung und die Gefahr einer weltweiten Grippeepidemie mit möglicherweise viele Millionen Toten würde sich deutlich erhöhen. (SCIENCE, März 2006) Wer soll bei Pandemien zuerst geimpft werden? Pandemien haben nicht nur verheerende Folgen, sie stellen die Gesundheitsbehörden und Ärzte auch vor eine schwierige Entscheidung: Wer soll bei knappen Impfstoffen bevorzugt geimpft werden? Sollte die Vogelgrippe sich von einer Tierseuche zu einer von Mensch zu Mensch übertragbaren Krankheit verändern, könnten Millionen erkranken. Im ersten Jahr einer Pandemie, so schätzen Experten, wären wegen Engpässen bei der Impfstoffproduktion bis zu 90 Prozent der Bevölkerung ungeschützt. Bei der Verteilung der knappen Impfstoffdosen sollte das oberste Ziel sein, so viele Leben wie möglich zu retten. Nach bisherigen Richtlinien sollen neben den Beschäftigten im Gesundheitswesen und Katastrophenschützern, Kleinkinder unter zwei Jahren und ältere Menschen ab 65 als erstes mit Impfstoffen versorgt werden.
Wissenschaftler der Universität von Vermont und der amerikanischen National Institutes of Health (NIH), haben nun in der Fachzeitschrift SCIENCE in Frage gestellt, ob diese Strategie wirklich die meisten Leben retten könnte. Ihrer Ansicht nach gibt es einen großen Unterschied zwischen dem Retten der meisten Leben und dem der meisten noch zu erwartenden Lebensjahre. Sie plädieren daher dafür, vor allem junge Erwachsene zu impfen, denn diese hätten noch viele Lebensjahre vor sich und wären im Gegensatz zu Kleinkindern auch schon alleine überlebensfähig. „Es wäre schön, wenn wir gar nicht erst vor eine solche Entscheidung gestellt werden würden“, betonen die Wissenschaftler, „aber an einem bestimmten Punkt wird es nun mal wahrscheinlich, dass wir mit einer Pandemie oder etwas ähnlichem konfrontiert werden, die uns vor ein solches Dilemma stellt.“ (SCIENCE, Mai 2006)
119
120
QUANTEN, LASER, ZAHLENSPIELE Woraus besteht unsere Materie? Wie hat alles begonnen? Und was hält die Welt im Innersten zusammen? Bis heute haben Physiker auf diese Fragen keine eindeutigen Antworten. Selbst geniale Forscher wie Albert Einstein, Max Planck oder Erwin Schrödinger konnten nur Teilantworten liefern. Zwar gibt es heute mit der Stringtheorie und der Schleifen quantengravitation zwei viel versprechende Anwärter für ein neues, umfassendes Erklärungsmodell der Physik, beide aber sind zurzeit noch reine Gedankengebäude. Von 2007 an jedoch könnte sich dies ändern: Denn dann nehmen technische Instrumente und Geräte ihre Arbeit auf, die erstmals die Chance bieten, Indizien für die eine oder andere Theorie experimentell zu belegen. Der Herbst 2005 brachte ein besonderes Ereignis für die deutsche Physikergemeinde: Denn der renommierte Laserforscher Theodor W. Hänsch erhielt den Physik-Nobelpreis. Ausgezeichnet wurde der MaxPlanck-Direktor für die Entwicklung des Laserfrequenzkamms – einer völlig neuartigen Methode, mit der sich zum ersten Mal die Frequenz von Lichtwellen direkt und genau messen lässt. Gleichzeitig eröffnet dieses „Laserlineal“ neue Möglichkeiten, auch die Zeit exakter zu bestimmen. Damit schafft es gleichzeitig eine wichtige Voraussetzung für zukünftige experimentelle Tests der beiden konkurrierenden physikalischen Theorien.
Mit Fädchen oder Schleifen zum neuen Bild der Welt
122
Ein Lineal für das Licht
130
Spiegelaufbau für ein Laserexperiment mit Nanopartikeln © Harald Frater
121
Künstlerische Darstellung des gequantelten Raums, wie ihn die Schleifenquantengraviation postuliert. © Max-Planck-Institut für Gravitationsphysik
Mit Fädchen oder Schleifen zum neuen Bild der Welt Wir leben in einer zweigeteilten Welt – zumindest in Bezug auf die Theorien, auf denen unser Weltbild gründet. Während Einsteins Theorie der Allgemeinen Relativität die Kräfte beschreibt, die den Kosmos zusammenhalten, regelt die Quantentheorie die Gesetzmäßigkeiten im Reich der kleinsten Teilchen. Beide Theorien funktionieren für sich genommen wunderbar, versagen aber komplett in der Welt der jeweils anderen. Gleichzeitig gibt es noch immer Phänomene, die sich weder mit der einen noch mit der anderen Theorie befriedigend erklären lassen. Daher suchen die Physiker fieberhaft nach einer allgemeingültigen Theorie. In den vergangenen Jahren konzentrierten sie sich dabei vor allem auf zwei Kandidaten: die Stringtheorie und die Schleifen-Quantengravitation. Beide faszinieren durch neue Ideen, beide bieten Lösungen für bisher Unerklär-
122
bares, unterscheiden sich jedoch in ganz grundsätzlichen Eigenschaften voneinander. Für beide aber könnte 2007 ein entscheidendes Jahr werden, denn dann sind erstmals Experimente möglich, die Indizien für die Richtigkeit der einen oder anderen Theorie liefern könnten.
QUANTEN, LASER, ZAHLENSPIELE
Strings statt Billardkugeln
Das Grundprinzip der Stringtheorie geht davon aus, dass nicht kugelförmige Teilchen die Grundbausteine aller Materie und ihrer Wechselwirkungen sind, sondern Strings – winzigste Fädchen. Die nur rund 10-33 Zentimeter langen Strings schwingen ähnlich wie die Saiten einer Geige oder eines Klaviers und erzeugen dadurch verschiedene „Töne“ und „Resonanzen“. Je nach Resonanzmuster dieser Schwingungen entsteht so entweder ein Elektron oder ein Quark oder eines der vielen anderen Grundbausteine der Materie. Auch die Kräfte der Natur und ihre Überträger gehen, so die Vorstellung der Stringtheoretiker, auf die Vibrationen der Strings zurück. Dieser auf den ersten Blick elegante Ansatz hat jedoch einige Haken: Zum einen gibt es bisher nicht die eine Stringtheorie, die alle physikalischen Phänomene erklärt, sondern mehrere, sich teilweise deutlich unterscheidende Ansätze. So gehen einige von offenen, andere von zu Ringen geschlossenen Strings aus, einige benötigen zusätzliche Teilchenarten, andere nicht. Ein weiteres Problem: Die Stringtheorie bräuchte mindestens zehn Dimensionen, um auch alle Gesetzmäßigkeiten der Quantenphysik integrieren zu können. Das wirft allerdings die Frage auf, wo sich denn diese sechs zusätzlichen Dimensionen in unserer vierdimensionalen Welt verstecken. Hier gibt es zurzeit zwei Hypothesen: Nach der so genannten Kaluza-Klein-Kompaktifizierung könnten die sechs zusätzlichen Raumdimensionen so winzig klein zusammengerollt sein, dass sie sich mit der heutigen Technik nicht nachweisen lassen. Die Braneworld-Theorie geht dagegen von der Existenz eines höherdimensionalen Raumes aus, in dem unsere vierdimensionale Welt eine Untereinheit, eine Membran (kurz: „Bran“) bildet. Da fast alle Materie und Kräfte unseres Universums in dieser Bra umgebenden höherdimensionalen Raumzeit als Schleifengebrodel
Im Gegensatz zur Stringtheor mals 1987 vorgestellte Schleife tation (Loop Quantum Gravity) lierten vier Dimensionen aus. Alle ziert sie diese gegenüber Einstein Raumzeitgefüge ist nun nicht me lich, sondern in winzige, unteilba gegliedert – den Loops oder Sc Schleife hat in etwa die Ausdehnu Zentimetern; das entspricht der einer bereits in der Quantentheo kleinsten Einheit. Wegen dieser e
Die Art der Schwingungen – hier von geschlossenen Strings – bestimmen, welches Elementarteilchen sie bilden. © MMCD
Strings als kleinste „Bausteine“ von Elementarteilchen wie hier Quarks © MMCD
Mit solchen Bildern lässt sich die Konstruktion des gequantelten Raums verdeutlichen. Oben ein Spin-Netzwerk aus Polyedern, unten die zeitliche Entwicklung von Spins. © MaxPlanck-Instistut für Gravitationsphysik
verändernden winzigen Verknüpfungen. Doch auch bei dieser Theorie bleiben bisher Fragen offen. Denn sie funktioniert möglicherweise nur, wenn einige der fundamentalen Postulate der Allgemeinen Relativitätstheorie zu Licht und Geschwindigkeit außer Kraft gesetzt werden. So impliziert die Schleifen-Quantengravitation, dass die Lichtgeschwindigkeit energieabhängig ist. Dies ist aber bisher weder theoretisch fundiert noch experimentell bewiesen. An den Grenzen der Zeit…
Größe sind die Schleifen für uns weder zu sehen noch zu spüren. Ein Netzwerk aus miteinander verbundenen Schleifen bildet sozusagen das Grundgewebe des Universums. Die bekannten Elementarteilchen entsprechen in der Schleifen-Quantengravitation KnotenBausteine der Schleifen-Quantengravitation punkten mit Das kleinste denkbare Volumen in der Raumvorstellung der bestimmten EigenSchleifen-Quantengravitation umfasst 10-99 Kubikzentimeter schaften, die Beweoder ein Volumenquant. Dieses steht über Flächen mit angrengungen der Teilchen zenden Volumenquanten in Verbindung. Dieses zusammengesetzte Gebilde und seine Gesetzmäßigkeiten lassen sich auch als entsprechen Veränso genanntes Spin-Netzwerk darstellen. Dabei entsprechen die derungen in der Knoten den Volumenquanten, die Graphen (Linien) den GrenzTextur dieses Netzes. flächen. Zahlen an den Graphen geben die Anzahl der angrenDadurch ist der zenden Flächenquanten an. Beliebige Volumina lassen sich so als komplizierte Spin-Netzwerke darstellen. Die Knoten und Graphen gesamte Raum kein in diesem Netzwerk sind jedoch nicht konstant, sondern veränstarrer Hintergrund, dern sich über die Zeit: Knoten werden zu Graphen und umgesondern ähnelt eher kehrt. Das dadurch wabernde Raumzeitgebilde wird auch als einem Gebrodel aus Spin-Schaum bezeichnet. sich fortwährend
124
Beide neuen Theorien bieten Lösungen für einige der nach der bisherigen Physik nicht erklärbaren Phänomene an. Eines davon ist der Urknall. Hier stoßen Astrophysiker an die Grenzen des Weltbilds: „Wenn wir das auf der Basis von Einsteins Relativitätstheorie extrapolieren, finden wir ein totales Desaster. Dinge brechen vollständig zusammen und die Theorie ergibt keinen Sinn mehr“, erklärte David Gross, Physik-Nobelpreisträger des Jahres 2004 in einem Interview des USSenders PBS. „Unsere Schlussfolgerung ist nicht, dass das Universum keinen Sinn macht, aber dass die Gleichungen falsch sind. Sie sind vielleicht auf spätere Phasen anwendbar, nicht aber auf den Beginn des Universums.“ Dieses Problem haben die beiden neuen Theorien nicht. Sie lösen es auf jeweils unterschiedliche Weise, sind sich jedoch darin einig, dass der Urknall wahrscheinlich nicht der Beginn von allem war. Wie von Thomas Thiemann vom MaxPlanck-Institut für Gravitationsphysik, einem der weltweit führenden Vertreter der LoopTheorie, gezeigt wurde, wird die Dichte auch dann nicht unendlich, wenn der gesamte Raum auf einen Punkt zusammenschrumpft. Dieses Resultat hat weitreichende Konsequenzen für die Kosmologie: „Der Raum wird praktisch in sich selbst umgestülpt. Das kann mit einem ideal kugelförmigen Luftballon
QUANTEN, LASER, ZAHLENSPIELE
veranschaulicht werden, aus dem die Luft entweicht“, erklärt Martin Bojowald, Loop-Theorie-Forscher vom Institute for Gravitational Physics and Geometry. Beim Urknall bewegten sich, in einem vereinfachten Modell betrachtet, die Wände des Ballons aufeinander zu, bis sie sich berührten und sogar durchdrangen. Dadurch kehrte sich das Innere nach außen, die Schwerkraft wurde negativ und wirkte nun abstoßend statt anziehend. Dieser Rückstoß dehnte den Ballon wieder aus und das Universum, wie wir es kennen, entstand. Auch für Stringtheoretiker ist der Urknall nicht gleichbedeutend mit dem Anfang von allem. Nach der Braneworld-Theorie wäre er stattdessen die Folge einer Kollision zweier Branen im höherdimensionalen Raum. Die Bewegungsenergie der Branen wird beim Aufprall in Materie und Strahlung umgewandelt und bildet so das Universum in der uns bekannten Form. …und der Materie
Wird ein Materieteilchen in einem Schwarzen Loch zu unendlicher Dichte zerquetscht, wie es die Allgemeine Relativitätstheorie postuliert? Oder entkommt es diesem Zustand, weil seine Position bis zuletzt unsicher ist, wie es die Quantentheorie besagt? Eine Antwort auf diese Fragen glauben sowohl die Stringtheorie als auch die Schleifen-Quantengravitation gefunden zu haben. Die mathematischen Modelle beider Theorien heben die von Einstein postulierte unendliche Dichte auf und räumen Materie zudem eine Chance ein, der Singularität zu entkommen. Dies könnte etwa die so genannte Hawking-Strahlung erklären, ein von Stephen Hawking postulierter Energiestrom, der von Schwarzen Löchern ausgeht. Noch allerdings sind Stringtheorie und Schleifen-Quantengravitation reine Spekulation. Direkte experimentelle Beweise kann keine der beiden Theorien vorweisen.
Unser Universum entspricht einer „Scheibe“ im höherdimensionalen Raum der Braneworld. Die gesamte Materie und drei der vier Grundkräfte unseres Universums sind in unserer „Bran“ gefangen. Nur die Gravitationskraft kann aus ihr entweichen. © MMCD/NASA
Die Sonde Wilkinson Microwave Anisotropy Probe (WMAP) misst den Mikrowellen-Hintergrund des Kosmos und liefert so auch indirekte Daten über den Urknall und die Frühzeit des Universums. © NASA/ WMAP Science Team
125
Im Inneren eines Schwarzen Lochs greifen Einsteins Gleichungen nicht mehr. ©NASA/CXC, M.Weiss
Gravitation: Ausreißer im Teilchenzoo Das heutige Standardmodell der Physik kann drei der vier Grundkräfte der Natur in einem Erklärungsmodell zusammenfassen. In diesem existieren zwei Grundtypen von Teilchen: einerseits die Materieteilchen oder Fermionen und andererseits die Überträger von Kräften, die Bosonen. Zu den Fermionen gehören beispielsweise Quarks und Elektronen. Jeder der drei integrierten Kräfte sind jeweils eines oder mehrere Arten von Bosonen zugeordnet. So sind die Photonen Träger der elektromagnetischen Anziehungskräfte, Gluonen bewirken die starke Wechselwirkung, die Kraft, die den Atomkern zusammenhält. Völlig außen vor bleibt bisher jedoch die vierte Grundkraft, die Gravitation. Genau diese Integration versuchen sowohl Stringtheorie als auch Schleifen-Quantengravitation. Abschließend gelungen ist dies jedoch bisher keinem der beiden Modelle.
126
Hoffnung auf kollidierende Teilchen
Doch das könnte sich bald ändern: Im Jahr 2007 geht in Genf in der Schweiz der Large Hadron Collider (LHC) in Betrieb, ein Teilchenbeschleuniger, der tiefer in die Geheimnisse der Materie vordringt als das jemals zuvor möglich war. In ihm können die Physiker Protonen und Bleikerne mit extrem hoher Energie aufeinanderprallen lassen und durch diese Kollisionen auch bisher unentdeckte Teilchenarten und Phänomene nachweisen – so jedenfalls die große Hoffnung. Genau darauf setzen die Stringtheoretiker. Sie erhoffen sich vom Teilchenbeschleuniger endlich erste Indizien dafür, dass ihre Theorie kein reines Gedankengebäude ist. „Wenn einige der Vorhersagen der Stringtheorie durch Experimente im Large Hadron Collider bestätigt werden, dann wäre es durchaus möglich, dass die Stringtheorie einmal genauso akzeptiert werden könnte wie heute die Allgemeine Relativität“, erklärt Brian Greene, Physiker an der Columbia Universität und einer der bekanntesten Vertreter der Stringtheorie.
Hinweis auf die versteckten Dimensionen geben könnten. „Wenn der Energieverlust genau dem entspricht, was wir erwarten, könnte das ein sehr starker Beweis dafür sein, dass die Energie in diesen Extradimensionen versickert ist“, so Greene. Ein weiteres Indiz für die Stringtheorie wäre der Beleg für eine Supersymmetrie. Nach dieser muss es für jedes heute bekannte Elementarteilchen der Materie einen bisher unbekannten Partner in Form eines Wechselwirkungsteilchens geben. Aus diesen könnte etwa die Dunkle Materie zusammengesetzt sein – ein Phänomen, das sich mit dem bisherigen physikalischen Weltbild ebenfalls noch nicht erklären lässt. „Wir haben eine Liste, eine Art Periodensystem von allen Teilchen in unserer Theorie. Aber die Astronomen haben entdeckt, dass der größte Teil der Materie im Universum nicht auf unserer Liste vorkommt. Sie ist etwas anderes und wir haben keine blasse Ahnung, was“, erklärt Sheldon Glashow, Physik-Nobelpreisträger des Jahres 1979. Da die von der Supersymmetrie postulierten aber noch fehlenden „Superpartner“ sehr energiereich und schwer sind, ließen sie sich mit bisherigen Teilchenbeschleunigern nicht nachweisen. Mit dem LHC aber rückt das zumindest in den Bereich des Möglichen. „Wenn diese Teilchen gefunden werden, beweist das noch nicht die Richtigkeit der Stringtheorie. Es zeigt vielmehr, dass der Aspekt der Supersymmetrie der Theorie korrekt ist“, so der Stringtheoretiker Greene. „Aber es könnte ein starkes Indiz dafür sein, dass die Stringtheorie auf dem richtigen Weg ist.“ Gammastrahlen als Lichtgeschwindigkeitsmesser
Versteckte Dimensionen und Supersymmetrie
Greene und seine Mitstreiter hoffen beispielsweise, dass winzigste Energieverluste in den Hochenergie-Kollisionen einen
Doch auch für die Vertreter der SchleifenQuantengravitation kann das Jahr 2007 möglicherweise den entscheidenden Durchbruch bringen. Denn dann soll das Gamma-
QUANTEN, LASER, ZAHLENSPIELE
strahlenobservatorium GLAST (Gamma-ray Large Area Space Telescope) in die Umlaufbahn starten. Der Satellit soll energiereiche Strahlung messen, die Milliarden Jahre lang im Weltall unterwegs war – und könnte damit genau die experimentellen Belege liefern, die bisher noch fehlen. Denn die von der Theorie postulierte Rasterung des Raums in minimale Einheiten von einer Planck-Länge könnte bedeuten, dass die Lichtgeschwindigkeit nicht immer absolut gleich ist, wie noch von Einstein postuliert. Stattdessen müsste sie je nach Energiegehalt der Strahlung variieren – allerdings um einen extrem geringen Wert. Messen könnte man dies beispielsweise, indem man vergleicht, wie lange zwei Photonen unterschiedlicher Energie aus einem zehn Milliarden Lichtjahre entfernten Gammastrahlenausbruch bis zur Erde unterwegs waren. Die Theorie der Schleifen-Quantengravitaton impliziert, dass das etwas rötere, weil energieärmere Photon um ein Weniges früher ankommen müsste als
das blauere, energiereichere Photon. Sollte sich dies bestätigen, wäre es ein wichtiges Indiz für die Richtigkeit der Schleifen-Quantengravitation.
Das Licht dieser Milliarden von Lichtjahren entfernten Sterne und Galaxien stammt aus der Frühzeit des Universums. ©NASA/STScI
Hoffen auf experimentelle Bestätigung
Noch stehen die beiden großen Theorien als konkurrierende Modelle anscheinend unvereinbar nebeneinander. Beide haben zahlreiche Verfechter, beide sind bisher reine Gedankengebäude. Die neuen Versuche müssen nun zeigen, ob demnächst eine von beiden die entscheidende experimentelle Bestätigung erhält, oder ob vielleicht sogar beide falsch liegen. „Das Gute an der Wissenschaft ist, dass man diese Schocks aus der realen Welt erhält“, so Lee Smolin, der Mitbegründer der Schleifen-Quantengravitation, zu den Experimenten. „Man kann für ein paar Jahre in einer imaginären Welt leben, aber am Ende ist es die Aufgabe der Wissenschaft, das zu erklären, was wir auch wirklich beobachten.“
Kryomagneten wie dieser sorgen für die Beschleunigung der Teilchen im LHC. © CERN, Maximilien Brice
127
Interview
Wissen hoch 12: Stringtheorie und SchleifenQuantengravitation (LQG) werden zurzeit als viel versprechende Kandidaten für eine umfassende Theorie gehandelt, die sowohl quantenmechanische als auch relativistische Phänomene erklären kann. Wo sehen Sie den Hauptunterschied zwischen beiden?
Dr. Thomas Thiemann arbeitet am MaxPlanck- Institut für Gravitationsphysik in Potsdam und gehört zu den weltweit renommiertesten Vertretern der SchleifenQuantengravitation. © MPG
1. Stringtheorie und Schleifen-Quantengravitation sind schon in ihrem Grundansatz fundamental verschieden: Die SchleifenQuantengravitation baut das fundamentale Prinzip der so genannten Hintergrundabhängigkeit manifest ins Theoriegebäude ein, in der derzeitigen Formulierung der Stringtheorie ist dieses Prinzip explizit verletzt. Die Hintergrundunabhängigkeit ist ein Grundpfeiler der Einstein’schen Gravitationstheorie (Allgemeine Relativitätstheorie) und besagt, dass die Raumzeit kein starres Gebilde ist, sondern ein dynamisches Objekt, dass sich fortlaufend in tandem mit der umgebenden Materie verändert. Genau das ist der Inhalt der Einstein‘schen Grundgleichungen der Gravitation. 2. Die Schleifen-Quantengravitation ist ein universeller Rahmen zur Vereinigung zweier Prinzipien: der Allgemeinen Relativitätstheorie und der Quantenmechanik. Stringtheorie ist der Versuch einer vereinheitlichten Deutung aller Teilchen, inklusive des Gravitons, als Anregungen eines Objektes, des Strings. Es geht hier also eher um die Vereinigung der Teilchen als um die Vereinigung der Prinzipien. 3. Stringtheorie funktioniert nur supersymmetrisch und in zehn Dimensionen. SchleifenQuantengravitation kommt ohne Supersymmetrie aus und funktioniert auch in vier Dimensionen. 4. Stringtheorie sagt den Teilchengehalt der Welt voraus, wenn man zusätzlich noch
128
vorschreibt, wie man die Theorie kompaktifiziert – wofür es viele (10500) Möglichkeiten gibt. Die Schleifen-Quantengravitation will dies bewusst nicht tun, denn zwischen der Energieskala des LHC und der Planck-Skala klaffen 16 Größenordnungen, also mehr als zwischen einem Millimeter und der Längenskala eines Quarks; und es wäre überraschend, wenn wir da nicht noch Substrukturen finden würden. Schleifen-Quantengravitation funktioniert mit jedem Teilchengehalt, sie will ja nur Prinzipien vereinigen, nicht Teilchenspezies. 5. Die Schleifen-Quantengravitation benötigt keine Zusatzannahmen, sondern geht nur von bekannten Naturprinzipien aus. Sind beide Theorien wirklich komplett unvereinbar oder könnte die Wahrheit nicht vielleicht doch irgendwo in der Mitte liegen? Wäre eine Kombination beider denkbar und möglich?
Wie in Frage 1 angedeutet basieren beide Theorien auf entgegengesetzten Grundannahmen. Ich sehe derzeit keine Möglichkeit die Theorien zusammenzuführen. Was wäre für Sie ein sicheres Anzeichen dafür, dass die Schleifen-Quantengravitation komplett daneben liegt? Und woran ließe sich erkennen, dass die Stringtheorie falsch sein muss?
Die Schleifen-Quantengravitation ist eine ganz bestimmte Inkarnation einer viel allgemeineren Methode, Quantenmechanik und Allgemeine Relativitätstheorie zusammenzuführen. Um diese Methode der so genannten kanonischen Quantisierung praktisch anzuwenden, muss man gewisse Wahlen treffen. Diese Wahlen sind klassisch alle äquivalent, aber nicht mehr notwendigerweise in der Quantentheorie. Sollte also Schleifen-Quantengravitation nicht funktionieren, dann würde das eine konkrete Realisierung der kanonischen Quantisierung ausschließen, aber nicht die Methode überhaupt.
QUANTEN, LASER, ZAHLENSPIELE
Sicheres Zeichen für ein Versagen der Schleifen-Quantengravitation oder Stringtheorie wäre es, wenn es nicht gelänge, die bekannten Naturphänomene bei niederen Energien (Standardmodell) zu reproduzieren. Der Kontakt mit der Niederenergiephysik ist in beiden Theorien aus unterschiedlichen Gründen schwierig: Die Schleifen-Quantengravitation benötigt eine nicht störungstheoretische Formulierung, während die Physik des Standardmodells störungstheoretisch beschrieben wird. Hier besteht also ein Sprachproblem. In der Stringtheorie besteht das Problem darin, dass man den Teilchengehalt des Standardmodells finden muss, insbesondere müssen alle Superpartner bei niedrigen Energien abwesend sein. Bisher hat man noch keine Kompaktifizierung gefunden, die das in allen Details leistet. Wie schätzen Sie die Entwicklung der nächsten Jahren ein?
Ich verspreche mir viel vom Large Hadron Collider und von den Hochpräzisionsmessungen der Kosmologie wie beispielsweise durch die Satelliten WMAP (NASA) und PLANCK (ESA), die den Nachhall des Urknalls in Form der kosmologischen Hintergrundstrahlung messen. Sollte der Large Hadron Collider keine Supersymmetrie finden, wäre die Stringtherie zwar nicht widerlegt, aber es wird zunehmend schwieriger zu zeigen, dass es eine Stringtheorie gibt, die bei niedrigen Energien keine Superteilchen enthält, da diese zerfallen sind. Es wäre auch spannend, das Higgs Teilchen nicht zu finden, denn dann müsste man die gesamte Elementarteilchenphysik neu überdenken. Von WMAP oder PLANCK erhoffe ich mir, dass sie einen Fingerabdruck der Quantengravitationseffekte, die zweifellos am Urknall zum Tragen kommen, aufzeigen, damit man einen experimentellen Bezug der Schleifen-Quantengravitation hat. Ebenfalls interessant werden
weitere Messungen zur ominösen Dunklen Materie und Dunklen Energie, unter anderem durch diese Satelliten, und wie diese durch die Theorie beschrieben werden können. Kann es überhaupt eine endgültige „Theorie von Allem“ geben?
Viele Physiker glauben aus ästhetischen Gründen an die große Vereinheitlichung aller Naturphänomene unter ein Grundprinzip. Dass Quantenmechanik und Allgemeine Relativitätstheorie irgendwie miteinander harmonisieren müssen, steht außer Frage, da beide experimentell bestätigt sind. Ich bin jedoch skeptisch gegenüber der Überzeugung, dass alle Teilchenarten sich deuten lassen als verschiedene Anregungen eines Urteilchens. Es gibt keinen logischen Grund, der dies erzwingt – obwohl ich dies aus ästhetischen Gründen ebenfalls sehr begrüßen würde. Man kann natürlich in jeder Theorie hinterfragen, warum bestimmte ihrer Bestandteile so sind und nicht anders. Das hört entweder niemals auf oder man gelangt zu einer mathematisch eindeutigen Theorie, in der alles so sein muss wie es ist, aus Gründen der mathematischen Konsistenz. Es fällt mir schwer zu glauben, dass die Natur der Mathematik folgt, Mathematik ist meines Erachtens nur die Sprache der Physik.
Der PLANCK-Satellit der ESA soll ab Anfang 2007 wertvolle Daten über die kosmische Hintergrundstrahlung sammeln und dadurch Erkenntnisse über die Struktur des Universums liefern. © ESA
129
Nobelpreisträger Theodor Hänsch arbeitet am Prototyp des Laserfrequenzkamms. © MPG
Ein Lineal für das Licht Bis zum Jahr 1960 lag das Maß aller Dinge in Paris: Denn hier wurde – und wird bis heute –, streng gesichert hinter Schloss und Riegel, der Urmeter aufbewahrt. 102 Zentimeter lang ist er, x-förmig und besteht aus edelsten Metallen: Eine Legierung aus 90 Prozent Platin und zehn Prozent Iridium sorgt für größtmöglichste Stabilität und Konstanz. Die Messstriche auf diesem Eichstab ergaben bei Null Grad die damals weltweit gültige Bezugsgröße für das Längenmaß Meter. Da sich die Messtechniken jedoch zunehmend verfeinerten, reichte die Genauigkeit dieses Meterprototyps nicht mehr aus – ein neues Maß musste her. Dieses stammte zunächst aus dem Reich der kleinsten Teilchen: Die Generalkonferenz für Maß und Gewicht wählte dafür das 1.650.763,73fache der Wellenlänge, mit der
130
das Edelgas Krypton bei einem Übergang zwischen zwei bestimmten Zuständen Licht aussendet. Diese Messweise war immerhin um eine Größenordnung genauer als das
QUANTEN, LASER, ZAHLENSPIELE
Urmeter. Doch es ging noch besser: Seit 1983 ist das Meter definiert als die Strecke, die das Licht in 1/299.792.458 Sekunden durchläuft. Diese neue Definition genügte endlich auch den höchsten Ansprüchen der modernen Wissenschaft und Technik. Licht: Das unmessbare Messinstrument?
Wirklich allen Ansprüchen? Nicht ganz: Denn für manche Messungen fehlte immer noch ein passendes Lineal: für die Wellenlänge des Lichts zum Beispiel. Sichtbares Licht, beispielsweise im grünen Bereich, schwingt mit einer Wellenlänge von 500 Nanometern und einer Frequenz von 600.000 Gigahertz. Diese Schwingungsrate liegt um mehr als das Hunderttausendfache über allem, was elektronische Geräte erfassen können. Die Frequenz eines Lichtstrahls direkt zu messen, ist damit absolut unmöglich. Gleichzeitig ist das Licht seinerseits eines der wichtigsten Messinstrumente der modernen Astronomie, aber auch der Chemie und Physik: Die Wellenlänge des von Atomen oder Molekülen ausgesendeten Lichts zu messen, die Spektroskopie, verrät viel etwa über die Zusammensetzung von Gaswolken und fremden Himmelskörpern im All. Auch in das Verhalten von Atomen bei chemischen Reaktionen erhalten die Forscher mithilfe der Spektroskopie Einblick. Bisher allerdings konnten die Forscher die Wellenlänge nicht genau genug bestimmen, um mit diesen Messungen alle ihre Fragen zu beantworten – wie beispielsweise die quantenmechanische Beschreibung des Verhaltens einfacher Atome.
Bis 1960 der UrmeterPrototyp: Ein x-förmiger Balken aus einer PlatinIridium-Legierung. © National Institute of Standards and Technology
Spiegel
teildurchlässiger Spiegel Elektroden (Energiezufuhr) Resonator
Lichtlineal gesucht…
Ein Lichtlineal musste her. Aber wie? Am besten wäre es, die Lichtfrequenz zu messen. Sie lässt sich einfach in die Wellenlänge umrechnen und ist, weil sie die Zeit als Bezugsgröße hat (definiert als Schwingungen pro Zeiteinheit), genauer zu bestimmen als die Wellenlänge. Aber wie lässt sich die unglaublich schnelle Schwingungsrate in etwas mit unseren Messinstrumenten Erfassbares umwandeln? Lange schien das unmöglich, doch 2001 präsentierte der Physiker Theodor Hänsch vom Max-Planck-Institut für Quantenoptik in Garching eine geniale Lösung: Sein neu entwickelter Laserfrequenzkamm übersetzt eine hohe Frequenz in eine für unsere Elektronik messbare Mikrowellenschwingung. Für diese Erfindung erhielt Hänsch gemeinsam mit zwei amerikanischen Kollegen im Herbst 2005 den Nobelpreis für Physik. Herzstück des neuen Lichtlineals ist ein so genannter Titan-SaphirFemtosekundenlaser. Er emittiert eine Kette von ultrakurzen, tiefroten Laserlichtpulsen mit einer Pulswiederholfrequenz von einem Gigahertz. Jeder Puls dauert nur 25-mal eine Billiardstel Sekunde – eine
Laserstrahl Gas (z.B. Kohlendioxid)
Schematischer Aufbau eines einfachen Gaslasers Im Gegensatz zum Licht einer Glühlampe besteht Laserlicht aus Lichtwellen der gleichen Richtung, Wellenlänge und Phase. Ein Gaslaser erzeugt diese Lichtwellen, indem zunächst die Atome eines Gases durch Energiezufuhr angeregt werden. Photonen (Lichtteilchen) passender Wellenlänge befördern die Atome dann aus dem energiereichen zurück in den energieärmeren Zustand. Diese geben dabei ihrerseits Photonen ab. Das Licht wird verstärkt, da die Photonen im Resonator zwischen zwei Spiegeln hin- und herlaufen und dabei weitere Atome stimulieren, Photonen auszusenden. Gleichzeitig werden die Atome immer wieder in den energiereichen Zustand angeregt. Über den teildurchlässigen Spiegel treten einige Photonen als Laserstrahl aus dem System aus. Dieser Laserstrahl kann je nach Lasertyp kontinuierlich oder gepulst sein.
131
Oben: Spielarten des elektronmagnetischen Spektrums: rotes Laserlicht (links), Sonnenlicht (Mittte), Sonne betrachtet vom Ultraviolett Observatorium EIT (rechts) © Harald Frater, IMSI MasterClips, SOHO (NASA / ESA)
Wellenlänge
Frequenz
Radiowellen
< 10 km
> 30 kHz
Langwelle (LW)
< 10 km
> 30 kHz
Langwellenfunk
Mittelwelle (MW)
< 650 m
> 650 kHz
Mittelwellenfunk
< 10 m
> 30 MHz
Rundfunk, Fernsehen, Magnetresonanztomografie
1 mm - 1 m
300 MHz - 300 GHz
30 µm - 3mm
0,1 THz - 10 THz
Infrarotstrahlung (Wärmestrahlung)
780 nm - 1,0 mm
> 300 GHz
IR-Spektrometer, Infrarotastronomie, Nah-Infrarot: Fernbedienung, CD
sichtbares Licht
380 nm - 780 nm
> 384 THz
Beleuchtung, Laser, Farbwahrnehmung
Rot
640 - 780 nm
384 - 468 THz
Orange
600 - 640 nm
468 - 500 THz
Gelb
570 - 600 nm
500 - 526 THz
Grün
490 - 570 nm
526 - 612 THz
Blau
430 - 490 nm
612 - 697 THz
Violett
380 - 430 nm
697 - 789 THz
1 nm - 380 nm
> 789 THz
UV-Licht, Spektroskopie, Fluoreszenz, Phosphoreszenz, Banknotenprüfung
Röntgenstrahlen
10 pm - 1 nm
> 300 PHz
medizinische Diagnostik, Sicherheitstechnik, Röntgen-Strukturanalyse, Röntgen-Beugung
Gammastrahlen
< 10 pm
> 30 EHz
Ultrakurzwelle (UKW) Mikrowellen Terahertzstrahlung
UV-Strahlen
Das elektromagnetische Spektrum und seine Anwendungen © MMCD
132
technische Anwendungen
Bezeichnung
Radar Radioastronomie, Spektroskopie, Abbildungsverfahren
DVD, Laserpointer
Blu-ray-Disc
QUANTEN, LASER, ZAHLENSPIELE
für uns nicht auflösbare Abfolge von Laserblitzen. Im Laserfrequenzkamm werden diese kurzen Laserpulse durch eine Quarzfaser mit spezieller innerer Struktur geleitet. Die Faser wirkt wie ein Synthesizer: Sie verändert das Laserlicht durch bestimmte nichtlineare Prozesse, sodass an ihrem Ende aus dem tiefroten einfarbigen Laser ein weiß scheinendes Licht geworden ist. Das Besondere daran: Das Spektrum dieses Lichts besteht nun aus einem besonders dichten, gleichmäßigen Kamm von hunderttausenden einzelner scharfer Spektrallinien. Schwebende Welle übersetzt Frequenzen
Wie aber messen die Physiker damit die zuvor unmessbaren Lichtfrequenzen? Sie machen sich dafür das Phänomen der Schwebung zunutze. Diese entsteht etwa, wenn sich zwei nahe beieinander liegende Töne in der Musik zu einer Klangwelle überlagern. Deren Tonhöhe verändert sich dann leicht und der Ton scheint zu leiern – beim Stimmen einer Gitarre ist dies zu hören. In ähnlicher Form geschieht dies auch bei Messungen mit dem Laserfrequenzkamm: Die Lichtwelle unbekannter Frequenz überlagert sich mit der nächstliegenden Frequenzzinke des Kamms. Die extrem schnellen Lichtschwingungen
erzeugen eine schwebende Welle, die rund eine Million mal langsamer schwingt. Sie liegt im Bereich der Mikrowellen und kann von einem Frequenzzähler gemessen werden. Wollen die Wissenschaftler nun beispielsweise einen Laserstrahl unbekannter Frequenz analysieren, synchronisieren sie die Pulse des Frequenzkammlasers mit den Wellen des zu bestimmenden Lasers. Dadurch wird die sehr schnelle Schwingung des zu messenden Lasers um einen genau bekannten Faktor, zum Beispiel eine Million, herunter gesetzt. Die Anzahl der Pulse pro Sekunde wird dann mithilfe einer Cäsium-Atomuhr gemessen und diese Zahl mit dem Faktor multipliziert, um die Frequenz des Einfarbenlasers zu erhalten.
schwebende Welle
t
Amplituden der sich überlagernden Wellen
Prinzip einer schwebenden Welle Eine Überlagerung zweier Wellen von nahe beieinander liegender Frequenz erzeugt eine umschließende langsamer schwingende Welle. Die Amplitude dieser Schwebung nimmt periodisch zu und ab – je näher die Frequenzen beieinander liegen, desto langsamer schwingt die resultierende Welle. Dieser Effekt wird beispielsweise beim Stimmen von Musikinstrumenten ausgenutzt.
Wasserstofflinie im Visier
Mithilfe dieser Methode haben die MaxPlanck-Forscher um Hänsch bereits einen wichtigen Beitrag zur Quantenmechanik geleistet: Sie haben eine sehr schmale, im ultravioletten Strahlungsbereich liegende Spektrallinie des Wasserstoffs auf 14 Stellen genau vermessen. Der ermittelte Wert stimmte mit den von der Quantenmechanik vorhergesagten theoretischen Werten überein und trug so dazu bei, die Gültigkeit dieser physikalischen Grundtheorie erneut zu belegen.
Wesentliche Komponenten eines optischen FrequenzkammSynthesizers: modengekoppelter Titan-SaphirFemtosekundenlaser (Mitte), grüner Festkörperlaser (rechts), Spektralfarben des durch eine mikrostrukturierte Quarzfaser verbreiterten Lichts (oben). © Max-Planck-Institut für Quantenoptik
133
genau eine Million Zyklen = genau ein Pulsabstand
umlaufender Lichtpuls
Spektrometer
Frequenzkamm
Einfarbenlaser mit unbekannter Frequenz
genau bekannte Pulsrate: z.B. eine Milliarde Pulse pro Sekunde Elektronik zur Pulssynchronisation
Titan-Saphir-Pulslaser
© Max-Planck-Institut für Quantenoptik
Funktionsprinzip des optischen Frequenzkamms Nach jedem Umlauf in der Spiegelanordnung eines Titan-Saphir-Lasers (unten links) verlässt eine Kopie des umlaufenden Pulses den Laser durch einen teildurchlässigen Spiegel. Die dadurch entstehende Pulsabfolge lässt sich mithilfe der Frequenzkammtechnik und des Prinzips der „schwebenden Welle“ so mit der Frequenz eines Einfarbenlasers (oben links) synchronisieren, dass beispielsweise genau eine Million Zyklen dieses Lasers zwischen zwei Pulsen
liegen. Ist dies erreicht, so muss nur noch die Anzahl der kurzen Pulse pro Zeiteinheit, die jetzt im Gigahertzbereich liegt und damit einer elektronischen Erfassung zugänglich ist, gezählt und die sich daraus ergebende Frequenz mit einer Million multipliziert werden. Der Name der Technik rührt daher, dass das Spektrum des von dem Pulslaser emittierten Lichtes einem Kamm mit scharfen äquidistanten Zinken ähnelt.
Lineal als Uhrwerk
Der Frequenzkamm dient jedoch nicht nur als Lineal für Licht, er kann auch die Zeit in bisher nie erreichter Genauigkeit messen. Die genauesten Zeitangaben, darunter auch unsere offizielle Weltzeit, stammen heute von Cäsium-Atomuhren. Sie sind immerhin so genau, dass sie innerhalb von rund 13 Milliarden Jahren, ungefähr der Zeit, die seit dem Urknall vergangen ist, nur um fünf Minuten vor oder nachgehen würden. Pendel oder
Eine der weltweit genauesten CäsiumAtomuhren vom LPTF/ Paris im Garchinger Labor © Max-PlanckInstitut für Quantenoptik
134
Taktgeber dieser Atomuhren sind die regelmäßigen Schwingungen von Cäsiumatomen beim Übergang zwischen zwei energetischen Zuständen. Genau 9.192.631.770-mal in der Sekunde tickt diese Uhr. Das Pendel eines auf einem Frequenzkamm basierenden Uhrwerks könnte dagegen noch hunderttausendmal schneller schwingen – und so eine noch genauere Zeitunterteilung ermöglichen. Erste experimentelle optische Uhren sind bereits – unter anderem am Physikalisch-Technischen Bundesamt in Braunschweig – in Betrieb. Einen ersten Schritt hin zu einer noch genaueren optischen Uhr machten die Garchinger Physiker Ende 2005, als sie die bisher hauptsächlich im sichtbaren und infraroten Wellenbereich anwendbare Frequenzkammtechnik weit in den ultravioletten Strahlenbereich ausdehnten – und damit die Voraussetzungen für eine „Röntgenuhr“ mit noch höheren Pendelfrequenzen schufen.
QUANTEN, LASER, ZAHLENSPIELE
Vom Prototyp zur Anwendung
Der Prototyp des Laserfrequenzkamms im Max-Planck-Institut für Quantenoptik füllte mit seinem Gewirr von Kabeln, Lasern und Messapparaturen noch ein großes Labor. Inzwischen aber wird das Laserlineal auch kommerziell hergestellt und hat nur noch die Größe eines Schuhkartons. Die Grundlagen für neue Anwendungen sind damit gelegt. Zukünftig, so die Schätzungen der Forscher, könnte die neue Präzision in der Frequenzmessung überall dort große Fortschritte bringen, wo Entfernungen oder Zeiten
mit extrem hoher Genauigkeit gemessen werden müssen. So etwa in Empfängern des Global Positioning System (GPS) oder bei der Synchronisation von Prozessen in Hochgeschwindigkeitsdatennetzen. Doch nicht nur auf der Erde, auch im Weltraum gibt es potenzielle Einsatzmöglichkeiten: Auf LangzeitWeltraummissionen kann sich jede minimale Kursabweichung während der jahrelangen Flugdauer potenzieren – die Genauigkeit von optischen Uhren wäre auch hier ein Gewinn.
WAS SONST NOCH GESCHAH Laserpinzette sortiert Atome Auf dem Weg zum Quantencomputer haben Physiker eine weitere wichtige Hürde genommen: Mittels einer „Laserpinzette“ ist es ihnen gelungen, bis zu sieben Atome in Reih‘ und Glied zu sortieren. Ihren Erfolg dokumentierten sie in einem Film und berichteten im Juli 2006 in der renommierten Fachzeitschrift NATURE darüber. In dem Experiment bremste das Team um Dr. Arno Rauschenbeutel und Professor Dr. Dieter Meschede von der Universität Bonn mehrere Cäsiumatome für eine Dauer von etlichen Sekunden soweit ab, dass sie sich fast nicht mehr bewegten, und lud sie dann auf ein Förderband aus Laserstrahlen um. Dabei handelte es sich um eine stehende Lichtwelle aus aneinander gereihten Bergen und Tälern des elektromagnetischen Feldes – vergleichbar mit einem Stück Wellpappe. Die Atome setzen sich in die Täler dieser stehenden Lichtwelle. Ein zweites ähnliches Förderband verwendeten die Wissenschaftler als Pinzette, mit dem sie falsch platzierte Atome aus den Wellentälern des ersten Förderbands herauslösten und in andere Täler umlagerten. Atome so genau platzieren zu können, ist eine Voraussetzung, um mit ihnen in einem Quantencomputer zu rechnen. (NATURE, Juli 2006) Freie-Elektronen-Laser erreicht Rekordleistung bei kleinsten Wellenlängen Beim weltweiten Wettlauf um die höchste Laserleistung bei kürzesten Wellenlängen hat die FLASH-Anlage beim Forschungszentrum DESY in Hamburg im Sommer 2006 einen neuen Weltrekord aufgestellt: Der Freie-Elektronen-Laser erzeugt Laserstrahlen der extrem kurzen Grundwellenlängen zwischen 13,1 und 40 Nanometern. Die mittlere Energie dieser Laserlichtblitze erreicht dabei bis zu 70 Mikrojoule bei einer Wiederholrate von 150 Pulsen pro Sekunde. FLASH ist damit die einzige Laseranlage weltweit, die schnell gepulste, leistungsstarke und ultrakurze Lichtblitze im Röntgenbereich liefert. 2007 wollen die Forscher FLASH so umbauen, dass er noch kürzere und beliebig regelbare Grundwellenlängen liefert. (DESY, September 2006)
Arno Rauschenbeutel gelang das Sortieren von Atomen mittels einer „Laserpinzette“. © Universität Bonn
135
Interview
Wissen hoch 12: Wo liegen die Grenzen des Laserfrequenzkamms? Welche Frequenzen sind beispielsweise zu hoch oder zu niedrig um mit dem Instrument erfasst zu werden?
Dr. Thomas Udem ist Leiter des FrequenzkammProjekts am MaxPlanck-Institut für Quantenoptik in Garching und gehört dort zur Forschungsgruppe des Nobelpreisträgers Theodor Hänsch. © Thomas Udem
Die Grenzen der Genauigkeit des Frequenzkamms sind bislang unmessbar klein und deutlich kleiner als die Genauigkeit der besten Atomuhren. Das bedeutet: Der Vergleich von optischen Frequenzen mit einer CäsiumAtomuhr kann mit der vollen Genauigkeit der Atomuhr durchgeführt werden, selbst dann, wenn es sich um die weltbeste Atomuhr handelt. Die messbaren Frequenzen sind nach unten nicht beschränkt. Das bedeutet: Es gibt keine Lücke, wie zum Beispiel den TerahertzBereich, den der Frequenzkamm nicht abdecken könnte. Zu hohen Frequenzen ist die Anwendbarkeit durch die verfügbaren so genannten nichtlinearen Kristalle beschränkt, die gewöhnlich zum Vervielfachen von Laserfrequenzen (zum Beispiel um einen grünen Lasertrahl für einen Laserpointer zu erzeugen) eingesetzt werden. Diese Technologie hat bei etwa 200 Nanometer (1.500 Terahertz) ihre Grenze, weil es keine transparenten Kristalle in diesem Wellenlängenbereich gibt.
der Perioden des Pendels in Einheiten von Sekunden, Minuten und Stunden auf dem Ziffernblatt anzeigt. Die sehr viel schnelleren Perioden der Quarzuhr und die noch schnelleren Schwingungen der Atomuhr werden elektronisch gezählt. Aus dem Vergleich der verschiedenen Uhren erkennt man bereits, dass bessere Uhren schnellere „Pendel“ haben. Das ist seit langem bekannt und lässt sich auch theoretisch untermauern. Deswegen versucht man, die „Pendelfrequenz“ weiter zu steigern. Bei der optischen Atomuhr werden die Schwingungen der Elektronen statt der Rotation des Atomkerns ausgenutzt. Diese ist, je nach Atom, typischerweise 100.000-mal so schnell. Da die elektronischen Zähler bei den herkömmlichen Atomuhren bereits nah am Limit arbeiten, war es lange Zeit unklar, wie das „Uhrwerk“ der optischen Atomuhr funktionieren könnte. Mit dem Frequenzkamm ist dieses Problem nun auf einfache Weise gelöst. Optische Uhren „ticken“ schneller und könnten daher zukünftig genauer sein als die bisher gebräuchlichen Atomuhren. Wird die offizielle Weltzeit bald auf einer optischen Uhr beruhen? Was glauben Sie, wann das der Fall sein könnte?
Warum erleichtert bzw. ermöglicht der Frequenzkamm die Entwicklung einer optischen Uhr?
Jede Uhr besteht aus zwei Komponenten: Einem Taktgeber in Form eines periodischen Vorgangs (das „Pendel“) und einem Zähler (das „Uhrwerk“), der über die Anzahl der Perioden Buch führt. Verwendete periodische Vorgänge sind die Erdrotation (Sonnenuhr), Pendel (Pendeluhr), die Vibrationen eines Quarzkristalls (Quarzuhr) und die Rotation eines Atomkerns (Atomuhr). Die verwendeten Zähler sind genauso verschieden wie die Uhren. Eine Sonnenuhr hat gewöhnlich einen menschlichen Zähler, der die Anzahl der vergangenen Tage notiert. Eine Pendeluhr hat einen mechanischen Zähler, der die Anzahl
136
Durch die Entwicklung des Frequenzkamms wird sicherlich die Realisierung der Weltzeit und die Definition der SI-Sekunde geändert werden. Wann das geschehen wird, ist allerdings nicht so einfach vorherzusagen. Darüber entscheidet das Weltstandard Institut BIPM in Paris. Weil von diesen Entscheidungen die Normen und Maße, wie sie die Industrie weltweit verwendet, abhängen, werden diese Entscheidungen nicht leichtfertig gefällt und kommen oft erst viele Jahre, nachdem eine bahnbrechende Entwicklung den Stand der Technik verändert hat. Die ersten optischen Atomuhren existieren bereits und sind schon aus dem Stand um den Faktor zehn besser als die besten Cäsium-Atomuhren, die
QUANTEN, LASER, ZAHLENSPIELE
immerhin über 60 Jahre ständig verbessert wurden. Bevor sich das BIPM auf eine Neudefinition der SI-Sekunde einlässt, müssen allerdings noch andere Kriterien erfüllt sein. Ein wichtiger Punkt dabei ist der Aufwand, der notwendig ist, um eine Uhr, die auf der neuen Definition beruht, zu bauen, sowie die Auswahl des besten atomaren Taktgebers. Derzeit wird an einer ganzen Reihe solcher Taktgeber geforscht und es ist noch nicht klar, welches die beste Wahl sein wird. Was sind die nächsten Schritte? Woran arbeiten
metern (5.000 Teraherz) im extremen ultravioletten Bereich nachweisen. Die zu erwartende Kammstruktur bei diesen kurzen Wellenlängen sollte es ermöglichen, einzelne Moden des Kamms für die Spektroskopie zu verwenden. Weil bisher in diesem Wellenlängenbereich gar keine Laser zur Verfügung stehen, konnten für die Theorie wichtige Übergangsfrequenzen bisher nicht vermessen werden. Der neue kurzwellige Frequenzkamm könnte dies ändern und vielleicht sogar in ferner Zukunft ein Uhrwerk für eine Röntgenuhr bereit stellen.
Sie und ihre Kollegen jetzt?
Im Moment arbeiten wir an der Erzeugung von Frequenzkämmen mit sehr viel kürzeren Wellenlängen, als bisher durch die Verwendung von nichtlinearen Kristallen möglich ist. Der Prozess, der dies ermöglicht, findet statt bei der Fokussierung des Pulszugs, der den Frequenzkamm in einem Jet von Edelgasatomen erzeugt. Mittlerweile können wir mit der Methode Licht von bis zu 60 Nano-
Heute werden Frequenzkämme bereits kommerziell hergestellt und vertrieben. Sie haben nur noch die Größe eines Schuhkartons. © Max-Planck-Institut für Quantenoptik
137
138
SCHICHTEN, STOFFE, NANORÖHRCHEN Neue Techniken erfordern neue Materialien: Ohne sie lassen sich weder elektronische Bauteile weiter miniaturisieren noch Oberflächen optimieren. Doch um sie zu entwickeln, müssen Wissenschaftler heute nicht nur in den Bereich von nur mikro- und nanometergroßen Strukturen vordringen, sie arbeiten auch viel stärker als früher interdisziplinär. Chemiker, Physiker, Biologen und Ingenieure gemeinsam haben so beispielsweise die Kräfte und Strukturen enträtselt, die den Gecko an senkrechten Wänden halten. Aus den dabei gewonnenen Erkenntnissen entstehen nun neue Haftstrukturen für technische Anwendungen. Kohlenstoffnanoröhrchen gelten als viel versprechende Bausteine zukünftiger Computer und Elektronikbauteile. Denn sie sind so winzig, dass sich Mikrochips mit ihnen möglicherweise weiter verkleinern lassen als dies mit siliziumbasierten Schaltkreisen möglich ist. 2006 entstanden gleich mehrere Varianten und Prototypen von Transistoren und Bauteilen, in die Nanoröhrchen auf jeweils unterschiedliche Art und Weise integriert wurden.
Bionik – die Natur als Lehrmeister
140
Nanoröhrchen – Kohlenstoffwinzlinge als Bausteine für Computer der Zukunft
147
Graphitschichten im Modell © Chris Ewels www.ewels.info
139
Dank ungefähr einer Milliarde hierarchisch organisierter Nanohärchen an seiner Fußsohle kann der Gecko – im Unterschied zum Menschen – auch an Wänden und Decken spazieren gehen. © Max-Planck-Institut für Metallforschung
Bionik – die Natur als Lehrmeister Die Natur hat eine phantastische Vielfalt biologischer Konstruktionen hervorgebracht, deren Raffinesse nur Erstaunen auslösen kann: Verglichen mit den akrobatischen Flugkünsten der Stubenfliege muss selbst der modernste und wendigste Hubschrauber passen. Die hohle, sich selbst tragende Turmkonstruktion eines einfachen Grashalms können die menschlichen Architekten bisher in dieser Form nicht nachbauen und auch die komplexe, aber anpassungsfähige Struktur der tierischen und menschlichen Sinnesorgane ist technischen Sensoren noch immer weit überlegen.
400 bis 600 Mikrometer lange Lamellen an den Zehen des Geckos (Ausschnitt) © Max-PlanckInstitut für Metallforschung
Die Natur scheint ein geradezu unerschöpfliches Reservoir an genialen – und oft genial einfachen – Lösungen parat zu haben. Denn ihre Konstruktionen sind vor allem eins: effektiv bei maximaler Energie- und Materialausnutzung. Schließlich sind sie das Ergebnis eines seit Jahrmillionen ablaufenden „Optimierungsprozesses“ – der Evolution. Eine bloße 1:1 Kopie reicht nicht
Was liegt näher, als sich diese zum Vorbild zu nehmen? Die Bionik, eine Wissenschaft an der Grenze zwischen Technik und Biologie, tut genau dies. Als Grenzgänger zwischen den Disziplinen forschen die Wissenschaftler
140
dabei nach den Gesetzmäßigkeiten, die hinter den Konstruktionen der Natur stehen und versuchen, diese in die Technik und Materialforschung zu übertragen. Dabei geht es jedoch nicht darum, die Natur exakt nachzuahmen. „Die Natur liefert keine Blaupausen für die Technik. Die Meinung, man muss die Natur lediglich kopieren, führt in eine Sackgasse“, so Werner Nachtigall, einer der renommiertesten deutschen Bioniker. Ähnlich formuliert es auch der englische Forscher Julian Vincent: „Eine exakte Kopie der Natur wäre unklug, denn die Natur ist nicht nur unglaublich komplex, in ihr herrschen auch völlig andere Bedingungen.“
SCHICHTEN, STOFFE, NANORÖHRCHEN
Die richtigen Fragen stellen
Wer daher fliegen will wie ein Vogel, muss zunächst analysieren, warum der Vogel überhaupt fliegen kann, welche Gesetzmäßigkeiten dahinter stecken. Erst dann kann die daraus gewonnene Erkenntnis in eine technische Struktur umgesetzt werden. „Entscheidend ist“, so betont auch Werner Nachtigall, „dass wir mit dem Know-how der Technik und Physik an die Natur herangehen und die richtigen Fragen stellen.“ So arbeiten am Max-Planck-Institut für Metallforschung in Stuttgart Materialwissenschaftler und Biologen gemeinsam daran zu klären, wie sich mikromechanische Konzepte, Theorien und Methoden auf biologische Phänomene anwenden lassen. Die Forscher um Eduard Arzt untersuchen dabei die Struktur und Funktion von biologischen Haft-, Reibungs- und Verklammerungssystemen auf einer Skala von wenigen Mikro- bis Nanometern. Die große Herausforderung besteht vor allem darin, den Untersuchungsgegenstand bei diesen Größenordnungen überhaupt experimentell fassbar zu machen. Ihre Studienobjekte sind vor allem Insekten, die über eine Vielzahl ganz unterschiedlicher Haftsysteme verfügen, aber auch Wirbeltiere wie der Gecko.
Naturpatent Klettverschluss In Ausnahmefällen kann auch das direkte „Abgucken“ von der Natur zu funktionierenden Ergebnissen führen. Eines dieser Beispiele ist der Klettverschluss. Die Idee dazu kam dem Belgier Georges de Mestral, als er seinem Hund zum x-ten Mal Kletten aus dem Fell entfernen musste. Er legte sie unter das Mikroskop und entdeckte, dass die scheinbar gerade endenden Stacheln der Klette in Wirklichkeit an ihrer Spitze winzige elastische Häkchen trugen. Mestral sah in diesem System eine Möglichkeit, auf einfache Weise zwei Materialien reversibel zu verbinden: Wenn eine Seite des Verschlusses das Prinzip der elastischen Häkchen kopiert und die andere die Schlingen eines Stoffes, haften beide aneinander, können aber auch wieder gelöst werden, ohne das Material zu zerstören. Der Klettverschluss war geboren.
Je kleiner desto „klebriger“
Der Gecko kann sich kopfüber an nahezu allen Oberflächen festhalten. Deshalb wird das feinhaarige Haftsystem seines Fußes intensiv erforscht: An der Sohle eines Gecko-Fußes sitzen etwa eine Milliarde so genannter Spatulae – winzige, etwa 200 Nanometer breite und ebenso lange Hafthärchen. Diese sind für den direkten Kontakt des Geckos mit seiner Umgebung verantwortlich. Die Nano-Hafthärchen sitzen an den so genannten Setae, die etwa 100 Mikrometer lang sind und mit einer Breite von sechs Mikrometern gerade einmal ein Zehntel des Durchmessers eines menschlichen Haares erreichen. Die reihenförmig angeordneten Setae bilden wiederum 400 bis 600 Mikrometer lange
Nano-skalige Fibrillenstrukturen in den haarigen Haftungsstrukturen von Käfer, Fliege, Spinne und Gecko. Die Zahl der Oberflächenhaare erhöht sich mit dem Körpergewicht der Tiere. Dabei verfügt der Gecko über die höchste Dichte unter allen bisher untersuchten Tierarten. © Max-Planck-Institut für Metallforschung, Gorb
141
Lamellen, die bereits mit dem menschlichen Auge gut zu sehen sind. Dieses sich über drei Ebenen immer feiner verästelnde Haftsystem erlaubt es dem Gecko, mit seinen Füßen auf nahezu allen Oberflächen zu haften und selbst kopfüber an der Zimmerdecke zu marschieren. Würde der Gecko alle Hafthaare zugleich an die Wand drücken, könnte er bis zum Zehnfachen seines Körpergewichts tragen. Die Maxime scheint zu lauten: Je kleiner, desto „klebriger“. Das jedenfalls haben die Max-Planck-Wissenschaftler schon im Jahr 2004 festgestellt, als sie die Haftstrukturen von Käfern, Fliegen, Spinnen und Geckos verglichen: Mit wachsendem Körpergewicht der „Haftkünstler“ nimmt die Feinheit und Dichte der Strukturen zu. Streit um die Haftkraft
Der dünne Wasserfilm zwischen dem Substrat und der Spitze bewirkt eine Anziehung, die Kapillarkraft.Der Meniskus entsteht durch die Oberflächenspannung des Wassers. © MMCD
Doch was lässt diese feinen Härchen so extrem gut haften? Um zwei Oberflächen – in diesem Fall den Geckofuß und eine Wand – in engem Kontakt aneinander zu binden, kommen theoretisch immerhin elf verschiedene Kräfte und Wechselwirkungen in Frage. strat Aber welche davon nutzt der Gecko? Als aussichtsreichste Kandidaten gelten einerseits die Kapillarkraft, andererseits die so genannten van-der-WaalsKräfte. Ladungsunterschiede oder Wasserkraft?
Van-der-Waals-Kräfte treten zwischen zwei Atomen oder Molekülen auf, deren elektrische Ladung asymmetrisch verteilt ist: an einem Ende des Moleküls überwiegt die negative Ladung, am anderen die positive. Die Anziehungskräfte zwischen den jeweils entgegen gesetzten Ladungen zweier Mole-
142
küle sorgen für eine schwache Bindung zwischen ihnen. Diese Kraft wirkt jedoch nur auf sehr kurze Entfernungen, die Moleküle müssen sich dafür fast berühren. Unebenheiten oder Verunreinigungen schwächen diese Anziehungskraft, von Natur aus stark asymmetrische, polare Substanzen stärken die Ladungsdifferenzen und damit auch die Haftkraft. Kapillarkräfte dagegen beruhen auf der Bildung eines dünnen Wasserfilms zwischen zwei Oberflächen. Sie lassen beispielsweise das Wasser in den dünnen Leitungsbahnen der Pflanzen oder einem Glasröhrchen in die Höhe steigen. Gleichzeitig bewirken sie aber auch eine Anziehung – Adhäsion – zwischen den beiden durch den Wasserfilm verbundenen Oberflächen. Voraussetzung für die Entstehung von Kapillarkräften ist jedoch das Vorhandensein von Wasser. Klar war jedoch, dass das „trockene“ Haftsystem des Geckos in jedem Fall ohne eigene Sekretausscheidung – wie man sie zum Beispiel von Fliegen kennt – funktioniert. 1:0 für van-der-Waals
Eine Forschergruppe um Kellar Autumn am Lewis & Clark College in Portland, Oregon hält daher die van-der-Waals-Kräfte für entscheidend. Im Jahr 2002 führten die Wissenschaftler Experimente durch, bei denen sie die Haftung von ganzen Geckozehen, aber auch einzelnen Setae an verschiedenen Wasser abweisenden und Wasser anziehenden Oberflächen testeten. In weiteren Versuchen spannten sie künstlich hergestellte Geckohaare aus Polymeren in eine Messapparatur ein, um auch deren Haftverhalten zu ermitteln. Das Ergebnis: Die „Klebkraft“ sowohl der ganzen Zehen als auch
SCHICHTEN, STOFFE, NANORÖHRCHEN
der einzelnen Setae war an Wasser abweisenden und Wasser anziehenden Oberflächen nahezu gleich. Wären aber Kapillarkräfte im Spiel, müsste die Haftung an den Wasser abweisenden Oberflächen deutlich geringer ausfallen. Für Autumn stand daher fest: „Nach diesen Versuchen können wir nun endlich die 30 Jahre alte Theorie der Wasseradhäsion widerlegen.“ Für die Bioniker folgte daraus, dass der Entwicklung von „trockenen“ künstlichen Haftstrukturen nichts mehr im Wege stand. Stehen van-der-Waals-Kräfte im Vordergrund, könnten solche Materialien unter Wasser sogar genauso gut „kleben“ wie an der Luft. Hafthärchen im Visier
Photodetektor
Laserstrahl
Abtastnadel ("Cantilever") Spitze
Oberfläche
Doch noch war das letzte Wort in dieser Sache nicht gesprochen: Denn Ende 2005 erschienen gleich zwei Veröffentlichungen, die Autumns van-der-Waals-Theorie eindeutig widerlegten. Eine davon stammt von den Stuttgarter Max-Planck-Forschern um Eduard Arzt und ihren Kollegen der Universitäten des Saarlands. Gemeinsam war es den Wissenschaftlern gelungen, das Haftverhalten nicht nur einzelner Setae, sondern sogar einzelner Spatulae, der nur 200 Nanometer kleinen Hafthärchen des Geckofußes, gezielt zu analysieren – ein technisches Meisterstück. Mithilfe einer Nadelspitze trennten die Forscher dazu zunächst eine einzelne Seta ab und fixierten das isolierte Haar unter dem Binokularmikroskop mittels eines Klebstofftropfens an der Abtastnadel eines Rasterkraftmikroskops. Dieser Tropfen besaß in etwa die Größe der für den Transfer verwendeten Spitze einer menschlichen Wimper und wurde samt Seta nun in einem Focussed Ion Beam-Mikroskop, einem modifizierten Elektronenmikroskop weiter bearbeitet, bei dem der Elektronenstrahl durch einen wesentlich stärkeren GalliumIonen-Strahl ersetzt ist. Mit diesem Ionenstrahl können die Forscher – ähnlich einer Laserkanone, nur viel kleiner – gezielt einzelne Bereiche des Probematerials herausschneiden. In diesem Fall schnitten sie entlang der Seta an jeder Haarverzweigung einen Ast ab und reduzierten so die Anzahl der Spatulae von ursprünglich mehreren hundert auf weniger als fünf. Geckos – Kletterkünstler dank Mikrostrukturen an den Füßen © Silke Golembski
Atome der Spitze Kraft
Oberflächenatome Funktionsprinzip eines Rasterkraftmikroskops © MMCD Rasterkraftmikroskop Das Rasterkraftmikroskop (engl. Atomic Force Mikroscope, kurz AFM) erlaubt das fast atomgenaue mechanische Abtasten von Oberflächen und gehört damit zusammen mit dem Rastertunnelmikroskop zu den auflösungsstärksten Werkzeugen der Wissenschaft. 1986 von Gerd Binnig, Calvin Quate und Christoph Gerber entwickelt, bildet es nicht nur morphologische, chemische und magnetische Eigenschaften von Strukturen ab, es kann auch zur Messung von Anziehungs- oder Reibungskräften eingesetzt werden. Dabei wird gemessen, wie viel Kraft aufgewendet werden muss, um die Spitze der Messsonde nach dem Kontakt mit einer Probenoberfläche wieder von ihr zu lösen.
143
1:1 unentschieden?
Schale von Haleotis laevigata. In den Kreisen sind Einblicke in die Feinstruktur des Perlmutts mit von links nach rechts steigender Vergrößerung gezeigt. Rot: Rasterelektronenmikroskopische Aufnahme, gelb: Aufnahme mit dem Transmissionselektronenmikroskop (TEM). Orange: Hochaufgelöste TEM-Aufnahme. © Max-Planck-Institut für Kolloid- und Grenzflächenforschung
Arzt und seine Kollegen führten nun verschiedene Versuchsreihen durch: Zum einen testeten sie, wie stark die einzelnen Hafthärchen an Wasser anziehenden beziehungsweise Wasser abweisenden Oberflächen„klebten“, zum anderen, wie sich dieses Haftverhalten bei verschiedenen Luftfeuchtigkeiten und damit einhergehend dem Benetzungsgrad der Oberfläche veränderte. Als Messinstrument diente das Rasterkraftmikroskop, an dessen Spitze die Hafthärchen befestigt waren und gezielt auf die einzelnen Oberflächen abgesenkt wurden. Dabei zeigte sich Überraschendes: Im Gegensatz zu den Ergebnissen der amerikanischen Forscher hafteten die Härchen auf den Wasser anziehenden Oberflächen sehr viel besser als auf Wasser abweisenden. Gleichzeitig verstärkte sich die „Klebkraft“ mit steigender Luftfeuchtigkeit. „Dieses auffallende Verhalten deutet darauf hin, dass die ultradünnen Wasserschichten zwischen Spatulae und Substrat einen eindeutigen Einfluss auf die Stärke der Haftkräfte ausüben“, so das Fazit von Arzt. Im Klartext hieß das: Nicht nur van-der-Waals-Kräfte, sondern auch Kapillarkräfte sind hier am Werk. Steht es also jetzt unentschieden im Disput um die Haftkräfte des Geckos? Lehren für die Technik
Multifunktionale Materialien In der Technik hat meist jedes Bauteil eine bestimmte Funktion. Anders in der Natur: Hier übernehmen die meisten Materialien gleich mehrere Aufgaben. So verbindet das Perlmutt der Muschelschalen enorme Festigkeit mit interessanten optischen Eigenschaften und verhindert gleichzeitig, dass sich Verunreinigungen festsetzen können. Grundlage für diese Multifunktionalität bilden Mikrostrukturen des „Baustoffs“. Die Forschung arbeitet daran, aus diesen Grundprinzipien neue künstliche Materialien zu entwickeln. Potenzielle Anwendungen dafür finden sich in der Optik, Mikroelektronik und Sensorik, aber auch in Form von stark verbesserten Strukturmaterialien für den Flugzeug-, Hochhaus- und Brückenbau.
144
Augenfällig ist zurzeit zumindest eines: Das „klebrige Geheimnis“ des Geckos beruht primär auf der extrem feinen Struktur seiner Hafthärchen an den Fußsohlen, lässt sich aber durch Feuchtigkeit noch weiter verbessern – eine Erkenntnis, die gerade bei der Entwicklung künstlicher Haftstrukturen wichtig ist. Die Stuttgarter Forscher haben inzwischen aus ihren Erfahrungen mit Fliege, Gecko und Co. mathematische Modelle entwickelt, die die Hafteigenschaften von Materialien – egal ob biologisch oder künstlich – theoretisch beschreiben. Der große Vorteil: Mithilfe dieser Gesetzmäßigkeiten können sie nun technische Oberflächen mit ähnlich guten Hafteigenschaften entwickeln. „Geckohaftung“ statt Kleben und Schweißen
Und der Bedarf ist da: Denn Verbindungstechniken wie Schweißen oder Kleben sind zwar stabil, aber auch aufwändig und teuer. Einmal auf diese Weise verbundene Bauteile lassen sich zudem nicht mehr ohne Materialverlust voneinander lösen – ungünstig, wenn Reparaturen durchgeführt werden müssen oder aber der Werkstoff recycelt werden soll. Eine Alternative wären Klettverschlüsse, diese müssen aber immer einen entsprechend angepassten „Haftpartner“ haben und verfilzen mit der Zeit.
SCHICHTEN, STOFFE, NANORÖHRCHEN
Und genau hier setzen Arzt und seine Kollegen an: Sie haben bereits ein Verfahren entwickelt und patentieren lassen, mit denen sie eine Art Verschluss nach dem Vorbild der Natur erzeugen können. Diese Haftsysteme erlauben Verbindungen von Werkstoffen so fest wie Schweißen oder Kleben, aber reversibel. Darüber hinaus verschmutzen die neuen Haftstrukturen im Gegensatz zu konventionellen Klebebändern nicht so leicht. Und im Vergleich zu herkömmlichen Klettverschlüssen benötigen sie kein speziell strukturiertes Gegenüber mehr. Die Wissenschaftler können zudem die feinen Strukturen auf der Materialoberfläche, wie die Dicke der Säulen, die Abstände, die Elastizität und Form, gezielt modifizieren. Die Hafteigenschaften der Oberflächen lassen sich so exakt auf die jeweiligen technischen Anforderungen einstellen – beste Voraussetzungen für vielfältige Einsatzmöglichkeiten im Alltag.
Gleitfalle der Kannenpflanze Nepenthes alata. Im Hintergrund: Rasterelektronenmikroskopische Aufnahme der oberen und unteren Wachsschicht. Die eingefügten Schemata erklären, auf welche Weise die beiden Wachsschichten die Haftkraft der Insekten reduzieren. © MaxPlanck-Institut für Metallforschung
WAS SONST NOCH GESCHAH Antihaft-Beschichtung lässt Insekten keine Chance Nicht eine möglichst gute Haftung, sondern das genaue Gegenteil stand im Mittelpunkt einer gemeinsamen Studie von Wissenschaftlern der Universität Hohenheim und des Max-PlanckInstituts für Metallforschung: Sie untersuchten die Struktur der Antihaft-Beschichtung an der „Fangkanne“ der fleischfressenden Kannenpflanze Nepenthes. Am oberen Innenrand der Kanne liegt eine Gleitzone, auf der angelockte Insekten ausrutschen und in die Verdauungsflüssigkeit hinabfallen. Es zeigte sich, dass das Wachs der Gleitzone die Beute gleich durch eine Doppelstrategie abstürzen lässt: Die Kristalle der oberen, weicheren Wachsschicht verschmutzen die Haftorgane an den Füßen der Insekten und verringern so deren Halt. Die zweite, darunter liegende Wachsschicht besteht aus schrägen Plättchen, die die Oberfläche uneben machen und die Haftfläche für die Beutetiere reduzieren. (JOURNAL OF EXPERIMENTAL BIOLOGY, Januar 2006) „Nano-Pfosten“ senken Reibung Eine neue extrem wasserabweisende Oberfläche, entwickelt von Forschern der University of California in Los Angeles, könnte zukünftig Unterseeboote oder andere Wasserfahrzeuge nahezu reibungsfrei durch das Wasser gleiten lassen. Die Nanostrukturen des neuen Materials erzeugen eine Art stabiles Luftpolster zwischen der Flüssigkeit und der festen Oberfläche und minimieren so die Reibung. Auf einem Grundsubstrat sitzen dabei winzige, nur einen Mikrometer hohe, angespitzte „Pfosten“ aus einem wasserabweisenden Material. Sie sind so dicht gepackt, dass sich zwischen ihnen ein dünnes Luftpolster halten kann. Wasser hingegen kann wegen seiner Oberflächenspannung nicht in die Zwischenräume der Nano-Pfosten eindringen und so bleibt der Luftraum erhalten. Ähnliche Ansätze, den Reibungs-
widerstand zu senken, gab es zwar auch zuvor schon, doch erst den kalifornischen Wissenschaftlern gelang es, die Nano-Pfosten so dicht zu setzen, dass das Prinzip selbst bei Flüssigkeiten unter Druck noch funktioniert. (PHYSICAL REVIEW LETTERS, Februar 2006) Was Miesmuscheln so klebrig macht Dihydroxyphenylalanin, kurz Dopa, ist der Schlüsselfaktor bei der Bildung des Klebstoffs, den beispielsweise Miesmuscheln nutzen, um sich festzusetzen. Das kleine Molekül verknüpft unter anderem die verschiedenen Eiweißfäden im zuerst flüssigen Haftmittel fest miteinander und härtet den Bioklebstoff auf diese Weise. Die Substanz, die interessanterweise als Wirkstoff für die Behandlung der Parkinson-Krankheit eingesetzt wird, gilt auch als wichtigster Faktor für die ungewöhnlich hohe Haftfähigkeit des Klebstoffs auf nassen Oberflächen. Wie genau Dopa diese gute Haftung ermöglicht, war bislang allerdings nicht bekannt. Forscher der Northwestern University fanden heraus, dass Dopa unter den im Meer herrschenden Bedingungen in zwei verschiedenen Formen vorkommt, und sie konnten mithilfe des Rasterkraftmikroskops zeigen, dass eine dieser Varianten sehr gut an Metallen oder Mineralien haftet, während die andere eine starke Bindung mit organischen Materialien aller Art eingeht. Auf diese Weise gelingt es den Muscheln, sowohl metallische Schiffsrümpfe als auch Holz oder gar die Haut von Walen zu besiedeln. Die Forscher hoffen, durch das bessere Verständnis des Muschelklebers dessen ungewöhnliche Eigenschaften in einer künstlichen Variante nachahmen und so beispielsweise Klebstoffe für medizinische Implantate verbessern zu können. (PNAS, August 2006).
145
Interview
Wissen Hoch 12: Warum arbeiten Wissenschaftler an einem Institut für Metallforschung an Geckos, Fliegen und Käfern?
Es geht um die Übertragung von Prinzipien zwischen Materialforschung und Biologie. Dies ist eine spannende, grundlegende Forschung mit großer Anwendungsrelevanz. Ist die Diskussion um van-der-Waals- versus Kapillarkräfte beim Gecko nun entschieden? Prof. Dr. Eduard Arzt Direktor am MaxPlanck-Institut für Metallforschung. An diesem Institut forschen Materialwissenschaftler und Biologen gemeinsam daran, wie sich mikromechanische Konzepte und Methoden auf biologische Phänomene anwenden lassen. © MPG
Oder erwarten Sie da noch neue Entwicklungen?
Es hat sich gezeigt, dass beide Mechanismen etwa gleich viel beitragen können – je nach Oberfläche und Feuchtigkeit. Welche konkreten Anwendungen sind für diese Art der Oberflächenhaftung denkbar? – oder vielleicht schon in der Entwicklung?
Interessant ist auf jeden Fall die technische Nutzung beispielsweise in Medizin, Bauwesen, Mikrotechnik oder Robotik. Woran arbeiten Sie zurzeit?
Wir arbeiten daran, die Kapillarität technisch zu nutzen.
146
Die Fasern des Glasschwamms Euplectella sind über viele Größenordnungen und insgesamt sieben hierarchische Ebenen optimal miteinander verknüpft – ein Bauprinzip der Natur, das Wissenschaftler erforschen, um daraus neuartige technische Materialien zu entwickeln. © Max-Planck-Institut für Kolloid- und Grenzflächenforschung
SCHICHTEN, STOFFE, NANORÖHRCHEN
Perlen aus amorphem Kohlenstoff haben sich an Nanokohlenstoffröhrchen abgesetzt. © Max-Planck-Institut für Metallforschung
Nanoröhrchen – Kohlenstoffwinzlinge als Bausteine für Computer der Zukunft Sie sind winzig und hohl, bestehen aus reinem Kohlenstoff und haben Potenzial für viele Anwendungen – die Kohlenstoffnanoröhrchen: Obwohl sie nur aus einem zusammengerollten Kohlenstoffnetz bestehen, sind die nur zwischen einem und 50 Nanometer dünnen Röhrchen zehnmal zugfester als ein Stahldraht derselben Dicke wäre. Und sie sind fast doppelt so hart wie Diamant, der als das härteste Material der Welt galt, ehe Kohlenstoffröhrchen 1991 entdeckt wurden. Zudem verhalten sich die bis zu mehrere Millimeter langen Kohlenstoffröhren mal wie ein Leiter, mal wie ein Halbleiter – und sind damit prädestiniert für einen Einsatz in zukünftigen Nanotransistoren und anderen elektronischen Bauteilen. Genau das macht sie auch für die Computerindustrie interessant. Denn bald werden die Transistoren auf einem Siliziumchip so eng zusammengerückt sein, dass sie sich nicht weiter verkleinern lassen.
Das Moore‘sche Gesetz besagt, dass sich die Anzahl der Transistoren auf einem Chip etwa alle zwei Jahre verdoppelt. Entsprechend müssen die Transistoren auf immer geringere Größen schrumpfen. Doch mit den heute verwendeten Materialien ist das unmöglich. „Die Herausforderung, der sich die Industrie seit langer Zeit gegenüber sieht, besteht in der schwierigen Identifizierung und Integration neuer Materialien als Ersatz für Siliziumdioxid, um Grenzen zu überwinden. Manch
Kohlenstoffnanoröhrchen © Chris Ewels
147
Wie klein ist Nano? Die Welt des Allerkleinsten, das ist für die Nanoforscher das Reich der Atome und Moleküle. Ihre Größenordnung ist der Milliardste Teil eines Meters, das Nanometer. Ein Nanometer entspricht gerade einmal zehn in einer Reihe nebeneinander gelegten Wasserstoffatomen. Ein Bakterium, immerhin eines der kleinsten Lebewesen auf der Erde, ist bereits tausendmal größer. Und eine Nadelspitze ist im Vergleich geradezu gigantisch groß: sie misst bereits eine Million Nanometer.
einer hat diese Herausforderung mit der Herztransplantation für den Chip verglichen“, erklärt Sunlin Chou, Senior Vizepräsident des ChipHerstellers Intel. In Labors weltweit basteln und tüfteln Forscher daher, um die winzigen Röhrchen aus Kohlenstoff als Ersatz für Silizium-basierte Bauteile einzuspannen. Und die ersten Erfolge gibt es bereits: Vom Schaltkreis mit einem Nanoröhrchen...
Im März 2006 stellten Forscher des IBM Forschungsinstituts im amerikanischen White Plains in der Zeitschrift SCIENCE den ersten Schaltkreis vor, der rund um ein einzelnes Nanoröhrchen errichtet ist. Integriert in eine konventionelle Halbleiterarchitektur dient das Kohlenstoffröhrchen dabei als verbindender Kanal zwischen mit Palladium und Aluminium-versetzten Silizium-Komponenten. Dieser neue Schaltkreis leitet Strom zwar noch nicht so schnell wie heutige Silizium-Chips, aber immerhin gut eine Million Mal schneller als die bisher getesteten Schaltkreise aus mehreren Nanoröhrchen. „Dieser Durchbruch repräsentiert den ersten Schritt, um zu demonstrieren, dass man Nanotubes auch in konventionelle Schaltkreisarchitekturen einbauen kann“, konstatierte IBM-Forscher Zhihong Chen im Magazin SEMICONDUCTOR INTERNATIONAL. Denn genau an diesem Punkt scheiden sich zurzeit noch die Geister, wie Chen erklärt: „Die Frage ist, ob wir ein neues Konzept brauchen, um eine komplett andere Elektronik zu bauen oder ob wir die Vorteile der weit entwickelten Siliziumtechnologie nutzen können, indem wir einfach die bisherigen Materialien durch Nanotubes ersetzen.“
Nahansicht des Nanoröhrchen-Ringoszillators vom CMOS-Typ. Der obere Ausschnitt zeigt das zwei Nanometer dicke Nanoröhrchen. © IBM
148
Größenvergleich zwischen dem Nanotube-Schaltkreis und einem menschlichen Haar © IBM
SCHICHTEN, STOFFE, NANORÖHRCHEN
Schematischer Aufbau eines MOSFET-Transistors © MMCD
-
+
-
+
Halbleiter Isolierschicht (Siliziumdioxid) Gate (Metall)
-
n
+
-
+
Substrat (p)
n
-
+
...zum All-Carbon-Transistor
Transistoren – Grundbausteine der Elektronik
Während IBM zunächst bei der konventionellen Chip-Architektur bleibt, gehen Wissenschaftler des Max-Planck-Instituts für Festkörperforschung in Stuttgart noch einen Schritt weiter: Sie haben bereits einen AllCarbon-Transistor entwickelt, bei dem nicht nur der leitende Kanal aus einem Nanoröhrchen besteht, sondern auch die Gate-Elektrode. Dieses Transistorbauteil liegt dem Kanal auf und bestimmt zusammen mit dem Gate-Dielektrikum, der dünnen Isolierschicht zwischen beiden Teilen, die Leitungseigenschaften des Transistors. Die Forscher verbanden dafür Nanoröhrchen zu speziellen „T-Stücken“ und erzeugten damit einen Transistor mit dem weltweit kleinsten Gate, das nur aus einem Molekül besteht.
Transistoren sind die Grundbausteine aller Chips und elektronischen Bauteile. In Radio- und Fernsehgeräten dienen sie als Verstärker, in Mikroprozessoren dagegen als winzige An-Aus-Schalter für den binären Code. Grundlage aller Transistorformen sind Halbleiter, Materialien wie Silizium, die unter normalen Bedingungen keinen Strom leiten, ab einem bestimmten Schwellenwert aber zu besonders guten Leitern werden. Zwei verschiedene Halbleiter, einer mit Elektronenüberschuss, einer mit Elektronenmangel, werden jeweils für einen Transistor gebraucht.
Nanoröhrchen als Erbsenschoten
Doch inzwischen sind längst nicht mehr nur einfache Kohlenstoffröhrchen im Spiel. Wissenschaftler experimentieren auch schon mit verzweigten, mehrwandigen oder auch gefüllten Röhrchen. Eine besondere Form dieser gefüllten Nanotubes haben die Stuttgarter Max-Planck-Forscher gemeinsam mit Kollegen aus Japan und Hongkong hergestellt und für Feldeffekt-Transistoren eingesetzt. Die Peapods bestehen aus einem Nanoröhrchen, in dem mehrere Fullerene, kugelige Moleküle aus 60 Kohlenstoffatomen, neben-
Die am weitesten verbreitete Art des Transistors ist der MOSFET (Metall-OxidHalbleiter Feldeffekttransistor). Bei diesem fungiert eine Gate-Elektrode als eine Art Tor: Wird dort eine sehr niedrige positive Ladung angelegt, zieht sie Elektronen aus dem Halbleitersubstrat in den Kanal zwischen den beiden Anschlüssen Quelle (Source) und Ableitung (Drain). Zwischen beiden fließt nun Strom, der Transistor ist aktiv. Im Computer bedeutet das: Der Transistor schaltet vom Signal „0“ auf „1“ um.
einander liegen wie Erbsen in einer Schote. Diese Erbsen wiederum dienen als Käfige für Metallatome, die Elektronen an die Fullerene und über diese auch an die Nanoröhrchen übertragen. Nanoröhrchen mit dieser komplizierten Struktur könnten sich für Transistoren noch besser eignen, da sie Eigenschaften unterschiedlicher Transistortypen in sich vereinen und daher flexibler reagieren können. Nanotubes verbinden Chip-Stockwerke
Doch bis tatsächlich ganze Transistoren und Chips auf der Basis halbleitender Nanoröhrchen – ob nun hohl oder gefüllt – in der Praxis eingesetzt werden, wird es nach
149
Nanoröhrchen aus Kohlenstoff Kohlenstoffnanoröhrchen oder „Nanotubes“ sind hohle Röhren aus Kohlenstoff, die ein bis 50 Nanometer Durchmesser, aber bis zu mehreren Millimetern Länge erreichen können. Ihre Wände bestehen aus sechseckigen Kohlenstoffringen, die ähnlich wie im Graphit miteinander verbundenen sind und deren Muster einem Maschendrahtzaun ähnelt. Die Art, wie diese Kohlenstoffschicht zur Röhre gerollt ist – mit schräg verlaufendem Sechseckmuster oder gerade – bestimmt die Eigenschaften des Nanoröhrchens, ob es beispielsweise metallisch oder halbleitend ist. Neben einwandigen Kohlenstoffröhrchen sind inzwischen auch mehrwandige, verzweigte und geknickte in Laboren erzeugt und nachgewiesen worden. Bild: Hochdichte Nanoröhrchen © NFS Nanowissenschaften, Universität Basel, Christian Schönenberger
150
Einschätzung der Wissenschaftler noch einige Zeit dauern. Dagegen könnten metallische Kohlenstoffröhren schon recht bald als Leiterbahnen in herkömmlichen Chips dienen. In einem Verbundprojekt des Bundesforschungsministeriums (BMBF) gelang es Wissenschaftlern des Max-Planck-Instituts für Festkörperforschung gemeinsam mit Forschern des Chip-Herstellers Infineon bereits, mehrwändige Nanoröhrchen in Siliziumchips so einzubauen, dass sie senkrecht aus diesen herausragen. Zukünftig könnten sie die herkömmlichen chipinternen Leiterbahnen aus Kupfer zwischen verschiedenen Stockwerken des Chips ersetzen. Der Vorteil: Die Kohlenstoffröhrchen vertragen tausendmal größere Stromdichten als die Kupferleiter. Zudem sind sie weniger anfällig gegenüber der so genannten Elektromigration, einem Prozess, bei dem sich kleine Metallteilchen vom Draht ablösen und im Schaltkreis herumwandern. Fast unsichtbar
leitenden Kohlenstoffwinzlingen herzustellen. Der Haken an der Sache: Bisher ist es nicht möglich, gezielt leitende oder halbleitende Nanotubes herzustellen. Auch trennen lassen sich die beiden Sorten nicht. Die Netzwerke bestehen daher zurzeit noch aus einer Mischung beider Röhrchentypen und sind noch nicht effektiv genug. Um das zu ändern, sind Grundlagenforscher wie die Stuttgarter NanoröhrchenWissenschaftler gefragt. Sie forschen aber nicht nur nach Wegen, die Eigenschaften der Nanotubes gezielt zu beeinflussen, sondern auch nach Methoden, mit denen sie einzelne Kohlenstoffröhrchen, aber auch ganze Röhrchenverbände besser charakterisieren können. So haben sie bereits Messungen der elektrischen, elektrochemischen und physikalischen Eigenschaften mit elektronenmikroskopischen Untersuchungen an ein und demselben Röhrchen kombiniert. Ihre Ergebnisse könnten letztlich vielleicht sogar die Grundlage für eine neue Ära der Computertechnologie bilden – basierend auf Kohlenstoffröhrchen statt auf Silizium.
Da die Nanoröhrchen kleiner sind als die Wellenlänge des sichtbaren Lichts, sind sie auch im Lichtmikroskop nicht zu sehen: Das sichtbare Licht dringt ungehindert durch sie durch. Daher sind Nanotubes aussichtsreiche Kandidaten WAS SONST NOCH GESCHAH für transparente leitfähige Schichten Nanopaddel für Kohlenstoff– zum Beispiel für Röhrchen Solarzellen oder Einen neuen Meilenstein in Sachen Miniaturisierung haben Wissenschaftler Leuchtdioden, wo am Stuttgarter Max-Planck-Institut für möglichst wenig Festkörperforschung gesetzt. Ihnen ist es Licht verloren gehen gelungen, mikroskopisch kleine „Paddel“ soll. Verschiedene aus Metall schwenkbar auf Kohlenstoffnanoröhrchen von nur eineinhalb MilliFo r s c h e r g r u p p e n onstel Millimeter Durchmesser zu lagern. arbeiten inzwischen Derartige Bauteile könnten als Funktionselemente in nanoelektromechanischen daran, transparente Systemen dienen – als winzige bewegliche Spiegel in optischen Anwendungen, leitfähige Schichten beispielsweise für die Telekommunikation. Ebenso ließen sie sich als Sensoren verwenden, da bereits sehr kleine Kräfte den Metallblock drehen und damit aus ganzen Netzauch das Nanoröhrchen verformen. (SCIENCE, September 2005) werken von metalBild: Nanoröhrchen mit „Paddel“ © Max-Planck-Institut für Festkörperforschung lischen und halb-
SCHICHTEN, STOFFE, NANORÖHRCHEN
Wissen hoch 12: Gibt es auch Nanokohlenstoff-
Welche
röhrchen in der Natur? Oder sind sie eine Erfin-
zukünftig haben, außer in Schaltkreisen und
dung des Menschen?
Computern?
Nanoröhrchen gibt es auch in der Natur. Sie entstehen immer bei unvollständiger Verbrennung, auch im Auspuff von Dieselfahrzeugen. Allerdings sind die Nanoröhrchen hier mit so vielen anderen Rußpartikeln gemischt, dass sie uns nicht auffallen.
Als Massenprodukt werden Nanoröhrchen vor allem in Verbundwerkstoffe gehen, wo sie die bekannten Leit-Rußpartikel ersetzen werden. Etwas höhere Anforderungen stellen transparente leitende Filme als Deckelektroden von Solarzellen oder Leuchtanzeigen. Noch aufwändiger sind Nanoröhrchen als kalte Elektronenquellen, zum Beispiel für Bildschirme. Die größten Anforderungen bestehen natürlich in der Halbleitertechnik.
Wie stellt man die Nanoröhrchen her? Was ist das komplizierte daran?
Das ist eigentlich gar nicht kompliziert. Mehr als 100 Forschergruppen in aller Welt stellen Nanoröhrchen her. Man muss nur Graphit verdampfen oder Kohlenwasserstoffe thermisch zersetzen. Das einfachste Verfahren ist ein Lichtbogen zwischen zwei Graphitelektroden. Diese Bogenlampen hat man schon in den 1920er-Jahren in Kinoprojektoren verwendet. Wenn man den Lichtbogen nicht in Luft, sondern in Edelgas brennen lässt, zum Beispiel in Helium, dann rußt er und es entstehen unter anderem Fullerene und Nanoröhrchen.
Einsatzmöglichkeiten
könnten
sie
Was sind die größten Hürden bei der Entwicklung von Anwendungen mit Nanoröhrchen?
Für Massenanwendungen ist heute noch der Preis das größte Hindernis. Und in der Halbleitertechnik ist es die genaue Platzierung der einzelnen Schaltelemente.
Interview
Dr. Siegmar Roth gehört zur Arbeitsgruppe des Physik-Nobelpreisträgers Klaus von Klitzing am MaxPlanck-Institut für Festkörperforschung. © Siegmar Roth
Wann wird es einen ersten Computer auf Nanoröhrchenbasis auf dem Markt geben? Wird es ihn geben?
In zehn oder zwanzig Jahren – wenn sich die Menschheit dann noch dafür interessiert und nicht schon längst nach anderen Zielen strebt.
Virtueller Blick in das Innere eines Kohlenstoffnanoröhrchens © Chris Ewels
151
152
ZELLEN, GENE, DNA Stammzellen sind schon seit einigen Jahren das große Thema in der Zellbiologie und Genetik. Dabei versuchen die Forscher, das „Wesen“ der Stammzellen besser zu verstehen. Im Mittelpunkt der Untersuchungen steht aber vor allem die Suche nach einer Alternative zur ethisch umstrittenen Stammzellgewinnung aus Embryonen. Inzwischen haben sich vier potenzielle Ansätze herauskristallisiert, in denen versucht wird, die Stammzellen durch eine „Rückprogrammierung“ direkt aus normalen Körperzellen abzuleiten. Erfolge und wichtige Fortschritte gab es 2006 bei allen vier Methoden – noch aber stehen einer konkreten Anwendung etliche ungelöste Probleme im Weg. Die Erkenntnisse in der Stammzellforschung, aber auch auf anderen zellbiologischen Gebieten, profitieren ebenfalls von den neuen Möglichkeiten der Fluoreszenzmikroskopie, mithilfe derer die Vorgänge im Inneren von Zellen sichtbar werden. Die Wissenschaftler arbeiten an einer ständigen Verbesserung dieser optischen Technik und treiben dabei die Auflösungsgrenze der Mikroskopie immer weiter nach unten: Im Sommer 2006 gelang es ihnen, Strukturen von der Größe von nur 20 Nanometern abzubilden. Zuvor galten solche Auflösungen als unerreichbar für die Lichtmikroskopie. Erstmals erhalten die Forscher damit die Chance, lebende Zellen und die in ihnen ablaufenden Stoffwechselprozesse direkt „bei der Arbeit“ zu beobachten. Die ersten Einsätze dieser Technologie sorgen bereits für erstaunliche Erkenntnisse – und weitere Überraschungen sind vorprogrammiert.
Stammzellen – im Bann der „Alleskönner“
154
Moleküle im Visier
164
Rasterelektronenmikroskopische Aufnahme von Chromsomen während der Zellteilung © MPG
153
Einzelne Stammzellen in einer rasterelektronenmikroskopischen Aufnahme © MaxPlanck-Institut für molekulare Biomedizin
Stammzellen – im Bann der „Alleskönner“ 1981 gelang es Wissenschaftlern erstmals, Stammzellen aus den Embryonen einer Maus zu gewinnen. Doch es dauerte noch einmal fast 20 Jahre – bis zum Jahr 1998 – bis amerikanische Forscher auch aus menschlichen Embryonen Stammzellen isolieren und in Kultur halten konnten. Damit schufen sie die Voraussetzung für einen ganz neuen Forschungszweig – und weckten zugleich große Hoffnungen. Embryonale Stammzellen sind die „Alleskönner“ unter den Zellen: Sie besitzen noch das Potenzial, sich in alle Zelltypen des Körpers zu entwickeln und so zerstörte oder falsch funktionierende Gewebe und Zellen zu ersetzen. Man bezeichnet sie daher als pluripotent. Eine Therapie auch für bisher unheilbare Krankheiten wie Parkinson, Alzheimer oder Diabetes rückte damit in greifbare Nähe – so glaubte man. Nach wie vor gelten Stammzellen als die größten Hoffnungsträger in der Medizin. Forschern ist es inzwischen gelungen, die Entwicklung von embryonalen Stammzellen in Kultur so zu steuern, dass aus
154
Blutzellen © MaxPlanck-Institut für Entwicklungsbiologie, Jürgen Berger
ihnen verschiedene Zell- und Gewebetypen entstehen. In Tierexperimenten konnten sie Vorläuferzellen für die Isolierscheiden von Nervenzellen, Insulin bildenden Zellen, Herzmuskelzellen und Blutzellen produzieren.
ZELLEN, GENE, DNA
Weltweit waren Mitte 2006 allein in der Datenbank „Clinical Trials“ der amerikanischen Gesundheitsbehörden knapp 500 Studien registriert, in denen stammzellbasierte Wirkstoffe und Therapien bereits an Menschen getestet werden. Rätsel um Reprogrammierungs-Mechanismus
Die Frage ist: Geht es auch umgekehrt? Unter Stammzellforschern kursiert dazu eine heiß diskutierte Zahl: Die einen schätzen sie auf „etwa drei“, andere auf „sieben bis zehn“ oder „vielleicht auch 20“. Gemeint ist die Zahl der Proteine in einem „magischen“ Cocktail, der erwachsene Körperzellen wieder zu pluripotenten Stammzellen umfunktionieren könnte. Auf diesem Wege ließen sich „maßgeschneiderte“, das heißt vom Patienten selber stammende und entsprechend genetisch angepasste Stammzellen herstellen. Ein solches „Elixier“ würde aber auch ein anderes, grundlegendes Problem lösen: Bisher sind die begehrten Stammzellen nur aus Embryonen zu gewinnen. Genau diese „verbrauchende Embryonenforschung“ aber sorgt für ethische Bedenken. Die Nutzung embryonaler Stammzellen zu Forschungszwecken ist daher in vielen Ländern streng reglementiert. In Deutschland ist sie sogar auf die Stammzelllinien beschränkt, die vor dem 1.1.2002 hergestellt worden sind. Bei der Reprogrammierung von Körperzellen sind die Wissenschaftler bisher weitestgehend auf Versuch und Irrtum angewiesen. 2006 erklärten Stammzellforscher im renommierten Wissenschaftsmagazin NATURE: „Im Prinzip bleibt die Reprogrammierung größtenteils phänomenologisch; zukünftige Bemühungen sollten daher darauf zielen, die Reprogrammierung auf molekularer und biochemischer Ebene zu verstehen.“
Stammzell-Gewinnung: Auf vier Wegen zum Erfolg?
Wie ist die Akzeptanz? Eine Umfrage (Eurobarometer 2005) zeigt: Die Stammzellforschung unter strengen Kontrollvorschriften wird von den Europäern mehrheitlich befürwortet. Dies gilt sowohl für Stammzellen aus der Nabelschnur (65 Prozent) als auch für embryonale Stammzellen (59 Prozent). Die Spannbreite der Meinungen reicht von 73 Prozent Zustimmung bei Belgiern bis zu nur 33 Prozent bei Esten. Deutschland liegt mit 54 Prozent im Mittelfeld. Nach einer Umfrage des Magazins Frontal 21 (6/2005) sind 50 Prozent der Männer, aber nur 41 Prozent der Frauen für eine Nutzung embryonaler Stammzellen. Jeweils rund ein Drittel der Befragten war in dieser Frage allerdings noch unentschlossen.
Reprogrammierung Bezeichnet einen Zuwachs an Potenz, das heißt der Differenzierungsfähigkeit von Zellen eines erwachsenen Organismus. Einige Tierarten können von Natur aus ganze Organe bzw. Organteile neu bilden. Manche Molche können nicht nur amputierte Gliedmaßen oder Schwänze regenerieren, sondern sogar Herzmuskelgewebe. Wissenschaftler wollen nun jene Moleküle identifizieren, die die Regenerationsfähigkeit des Molchherzens steuern. Mit solch einem „molekularen Cocktail“ sollte es möglich sein, auch das Differenzierungspotenzial von Säugerzellen zu beeinflussen.
Vier verschiedene Strategien verfolgen die Wissenschaftler zurzeit, um Körperzellen wieder zu Stammzellen zu machen: Durch den Transfer von Zellkernen in entkernte Eizellen, die Fusion von Körperzellen mit embryonalen Stammzellen sowie die Reprogrammierung nur durch Zellextrakte oder durch bestimmte Kulturverfahren. Während die letzen beiden Methoden erst in den Anfängen stecken, werden Kerntransfer und Fusion bereits in vielen Arbeitsgruppen weltweit eingesetzt – auch und vor allem, um die grundlegenden Mechanismen der Stammzellentwicklung besser zu verstehen.
Molche sind wahre „Regenerationskünstler“. Wie sie dies schaffen , ist aber noch ungeklärt. © MPG
155
Kerntransfer: „Dolly“ und die Tücken
Der Transfer des Zellkerns einer erwachsenen Körperzelle in eine entkernte Eizelle ist das Verfahren, dem auch Klonschaf „Dolly“ seine Existenz verdankte. Denn wird ein durch Kerntransfer erzeugter Embryo in einen mütterlichen Organismus implantiert, so können ganze Klontiere herangezogen werden. Dieses reproduktive Klonen ist nicht nur bei Schafen und Rindern, sondern auch bei Hunden bereits gelungen. Aus den frühesten Stadien eines durch Kerntransfer erzeugten Embryos lassen sich jedoch auch Stammzellen gewinnen. Da auf diese Weise schließlich auch Zellen und Gewebe für medizinische Anwendungen am Menschen gezüchtet werden sollen, muss die Sicherheit dieser Anwendungen gewährleistet sein. Die Wissenschaftler versuchen daher herauszufinden, warum die aus dem Zellkerntransfer hervorgehenden Klone so häufig schwere Missbildungen und eine extrem verkürzte Lebensdauer zeigen. Neueste Studien deuten darauf hin, dass die reprogrammierten Zellen offenbar eine Art „epigenetisches Gedächtnis“ besitzen: Informationen über das ursprüngliche Alter und die Funktion des übertragenen Zellkerns sind dabei nicht in den Genen, wohl aber in bestimmten, an die Erbsubstanz DNA angelagerten Molekülgruppen konserviert. Diese beeinflussen, welche Gene abgelesen werden, und könnten so auch für Fehlfunktionen der resultierenden Zellen oder Klonorganismen verantwortlich sein. Wie dieses zelluläre Gedächtnis gelöscht werden kann, ist Gegenstand zahlreicher Studien. Epigenetische Veränderungen machen das reproduktive Klonen extrem ineffizient, und selbst die überlebenden Organismen stecken voller Fehler. Die epigeneti-
156
schen Probleme, die im Falle des Organismus auftreten, muss es aber nicht unbedingt beim therapeutischen Klonen geben. Während es in dem Fall um einen lebensfähigen Organismus geht, ist das Ziel des therapeutischen Klonens die Gewinnung von funktionsfähigen Stammzellen. Fusion: Reprogrammierung durch Verschmelzung
Eine zweite, zurzeit intensiv erforschte Strategie ist die Reprogrammierung von Körperzellen durch die Fusion mit Stammzellen. Hierbei wird der Zellkern der erwachsenen Körperzelle nicht in eine Eizelle eingepflanzt, sondern mit bereits vorhandenen embryonalen Stammzellen verschmolzen. Gelänge dies reibungslos, so hätte das zwei Vorteile: Die Wissenschaftler erhielten maßgeschneiderte, weil mit dem Erbgut des Zellkernspenders ausgestattete Stammzellen, benötigten andererseits aber keine neuen Eizellen. Erste Erfolge gibt es bereits: Nach zahlreichen
ZELLEN, GENE, DNA
Nahezu unbeschränkt – Gewinnung embryonaler Stammzellen aus Embryonen erlaubt, Erzeugung „maßgeschneiderter“ Stammzellen durch Kerntransfer (therapeutisches Klonen) ebenfalls. Reproduktives Klonen ist jedoch verboten.
Flexibel, wenig Einschränkungen – Kerntransfer ist verboten, Gewinnung von Stammzellen aus von Reproduktionskliniken gespendeten Embryonen aber erlaubt.
Restriktiv oder nicht geregelt – die Spannbreite reicht vom vollständigen Verbot der Stammzellforschung über das Verbot von Stammzellimporten bis zum Verbot der Erzeugung neuer Stammzelllinien und der Erlaubnis der Forschung nur an wenigen, bereits etablierten Stammzelllinien.
Rechtliche Lage der Stammzellforschung weltweit © MMCD
157
Wer ist wer unter den Stammzellen? Adulte Stammzellen Quelle: Knochenmark; Entnahme aus dem Beckenkamm oder Mobilisierung von Stammzellen aus dem Knochenmark und Isolation aus dem peripheren Blut Vorteile: sofort verfügbar; große Anzahl von Zellen; ethisch unbedenklich Nachteile: nicht pluripotent; Fremdspenden müssen in bestimmten Zelleigenschaften mit dem Empfängergewebe übereinstimmen, um eine Abstoßung zu vermeiden; geringere Vermehrungskapazität; hohes Risiko einer Infektionskrankheit Stammzellen aus Nabelschnurblut Quelle: Plazenta und Nabelschnurblut nach der Geburt des gesunden Babys Vorteile: sofort verfügbar; keine Spenderrisiken; gewisse Vermehrungskapazität; es treten geringere Abstoßungsreaktionen bei Fremdspenden auf; geringeres Risiko einer Infektionskrankheit Nachteile: nicht pluripotent, Anzahl der Zellen limitiert durch das geringe Volumen des gesammelten Blutes (~ 80 ml) Embryonale Stammzellen Quelle: Innere Zellmasse der Blastozyste von frühen Embryonen, die bei künstlichen Befruchtungen „übrig bleiben“ oder von Embryonen, die zu diesem Zweck geklont wurden Vorteile: pluripotent, können verschiedene Zelltypen des Organismus bilden; weitgehend unbegrenzte Vermehrungskapazität Nachteile: Nutzung menschlicher Embryonen ist ethisch umstritten; starke Reglementierung; Gefahr der Tumorbildung nicht differenzierter Zellen; Öffentliche Akzeptanz unterschiedlich, wächst jedoch langsam
158
erfolgreichen Versuchen mit Zellen der Maus, verschmolzen im Sommer 2005 die Forscher Kevin Eggan und Douglas A. Melton von der Harvard University in Boston in ihren Experimenten Hautzellen des Menschen mit embryonalen Stammzellen und untersuchten die resultierende Stammzellchimäre, die doppelt so viele Chromosomen besaß wie normale Körperzellen: 92 statt 46. Schlüsselergebnis der Studie war dabei, dass die aus der Fusion entstandenen Zellen tatsächlich auch die Eigenschaften von embryonalen Stammzellen hatten. „Noch umgehen wir damit nicht den Bedarf an menschlichen Eizellen, aber es zeigt, dass dieser Ansatz der Zellfusion interessant genug ist, um weiter verfolgt zu werden“, so Eggan in der Zeitschrift SCIENCE. Stammzellen gegen Herzkrankheiten
Ebenfalls mit der Fusionsmethode arbeiten Wissenschaftler mehrerer deutscher Universitäten und Forschungseinrichtungen im Rahmen eines Verbundprojekts. Koordiniert wird es von Hans Schöler, Direktor am Max-Planck-Institut für molekulare Biomedizin in Münster. Schöler, einer der renommiertesten Stammzellforscher weltweit, hatte erst 2003 für Schlagzeilen gesorgt, als es ihm gelang, aus embryonalen Mäusestammzellen Eizellen zu erzeugen. Ziel des aktuellen Projekts ist es, mithilfe von embryonalen Stammzellen Zelllinien aus Körperzellen zu gewinnen, um Herzerkrankungen, wie zum Beispiel Herzinfarkte zu behandeln. Diese Verfahren werden an Mäusen entwickelt und sollen später auf Menschen übertragen werden. Versuche an der Universität Köln hatten gezeigt, dass sich Teile einer Herzinfarktnarbe bei der Maus durch gezielt differenzierte embryonale Stammzellen ersetzen lassen. Die Zellinjektion
Die Abbildung zeigt in der Bildmitte das Produkt der Fusion einer Herzmuskelzelle (rot gefärbt) mit einer multipotenten, adulten Stammzelle, die durch die Expression eines grün fluoreszierenden Proteins markiert ist.
ZELLEN, GENE, DNA
führte zu einem nachweisbaren Kraftzuwachs im kleinen Mäuseherz. Gibt es ein „nukleäres Gedächtnis“
Die Wissenschaftler in Schölers Arbeitsgruppe wollen jedoch auch ganz grundsätzliche Fragen klären. Offen ist beispielsweise, ob auch das Erbgut der aus einer Fusion hervorgegangenen Stammzellen eine Art „nukleäres Gedächtnis“ besitzt. Wäre dies der Fall, könnten einige Eigenschaften der Ursprungszelle und ihrer Spezialisierung erhalten bleiben – und möglicherweise langfristig für Folgeschäden sorgen. Andererseits aber könnte dies auch eine Chance eröffnen. Denn wenn beispielsweise Herzmuskelzellen als Ausgangszellen einen Teil ihrer Eigenschaften an die Stammzellen „vererben“, wäre es vielleicht leichter, diese Stammzellen zur Therapie von Herzkrankheiten einzusetzen. Ob dies wirklich so ist, müssen kommende Versuche aber noch zeigen. Obwohl es noch viele Hürden zu überwinden gilt, ist Hans Schöler zuversichtlich: „Eines Tages werden Stammzellen Krankheiten heilen.“ Auch der Entwicklungsbiologe und Vizepräsident der Max-PlanckGesellschaft Herbert Jäckle ist sich sicher, dass es den gewünschten Ersatzteilkasten aus Stammzellen eines Tages geben wird. „Ich bin optimistisch, dass es funktioniert“, so Jäckle. „Aber ich bin absolut pessimistisch, was die Zeit anbelangt – dass es schon in fünf oder zehn Jahren so weit sein kann.“
Oben: Entwicklung klonaler Mausembryonen nach Zellkerntransfer vom 2-Zell-, 4-Zell- und 8-Zell-Stadium über die Morula bis zur Blastozyste. © MaxPlanck-Institut für molekulare Biomedizin Unten: Zellen in Kultur. © National Cancer Institute
Potenz Mit dem Wort Potenz beschreiben Entwicklungsbiologen die Fähigkeit bestimmter Zellen und Gewebe sich zu differenzieren.
Adulte Stammzellen, sind im Vergleich zu den „Alleskönnern“ eher „Spezialisten“.
Am wenigsten festgelegt ist die befruchtete Eizelle: Sie kann
Manche adulte Stammzellen sind multipotent, beispielsweise solche aus dem Knochenmark, die immerhin noch alle Zelltypen eines Gewebes bilden können, etwa die verschiedenen Blutzellen.
sich noch in einen vollständigen Organismus verwandeln – sie ist totipotent. Diese Fähigkeit hält etwa bis zum 4- oder 8-Zellstadium an. Embryonale Stammzelle gelten dagegen als pluripotent:
Diese zellulären „Alleskönner“ können zwar noch nahezu alle Zell- und Gewebetypen hervorbringen, aber keinen vollständigen Organismus mehr.
Andere sind oligopotent, ein Beispiel dafür sind neurale Stammzellen, deren Differenzierungsfähigkeit auf wenige Zelltypen des Hirngewebes beschränkt ist. Unipotente Stammzellen dagegen, wie die der Haut, bringen nur Zellen ihres eigenen Typs hervor.
159
Hürden auf dem Weg zur Stammzelltherapie Wie potent eine Zelle wirklich ist, sieht man ihr nicht an. Es kann nur an ihrem Verhalten abgelesen werden – und dafür gibt es bisher nur zwei Testmöglichkeiten: Die Wissenschaftler injizieren die Zellen in eine tierische Gewebekultur. Formt sich dann ein Tumor aus Zelltypen aller drei embryonalen Zellschichten (Ektoderm, Mesoderm, Endoderm), so ist die Zelle pluripotent. Die potenziellen Stammzellen können aber auch mit Fluoreszenzmarkern gekennzeichnet und in einen sich entwickelnden tierischen Embryo injiziert werden. Tauchen später markierte Zellen in allen Gewebetypen auf, war die Zelle ebenfalls pluripotent. Beide Verfahren kommen jedoch aus ethischen Gründen nicht für menschliche potenzielle Stammzellen infrage, da dabei tierische mit menschlichen Zellen vermischt werden. Benötigt werden daher verlässliche Kennzeichen, beispielsweise anhand der Genexpression, mit denen die Potenz festgestellt werden kann.
Dieser Zellklumpen besteht aus Stammzellen. © Max-Planck-Institut für molekulare Biomedizin
In der Pipeline 11,6 Millionen Euro lässt sich das Bundesministerium für Bildung und Forschung (BMBF) die Stammzellforschung allein im Bereich „zellbasierte, regenerative Medizin“ kosten. 46 Projekte haben im Herbst 2005 mit der Arbeit begonnen und laufen noch bis 2008. Gesucht werden zum einen Einsatzmöglichkeiten für Stammzellen in der Therapie von verschiedenen Erkrankungen des Zentralnervensystems wie Parkinson, aber auch in der Regeneration nach Schlaganfällen. Herz und Leber stehen im Mittelpunkt weiterer Projekte. Hier sollen Stammzellen Herzmuskelgewebe ersetzen, das durch einen Herzinfarkt zerstört wurde, aber auch Gewebe bilden, die später zum Ersatz beschädigter Herzklappen genutzt werden können. Mithilfe neuer Kulturverfahren wollen Wissenschaftler zudem Vorläuferzellen für Lebergewebe züchten. Erleichterungen bei der Transplantation von Organen oder Geweben erhoffen sich weitere Forschergruppen von mesenchymalen Stammzellen (Vorläuferzellen des Bindegewebes). Sie beeinflussen die Toleranz des Immunsystems gegenüber Fremdzellen, aber auch gegenüber eigenen – wie, das sollen diese Projekte herausfinden.
160
Ein weiteres Problem bei der Stammzelltherapie sind Abstoßungsreaktionen. Um eine Abstoßung zu vermeiden, müssen die Stammzellen nämlich genetisch mit dem Patienten übereinstimmen. Das kann nur durch Kerntransfer oder Fusion erreicht werden. Nach wie vor besteht hier erheblicher Forschungsbedarf (siehe Kerntransfer: „Dolly und die Tücken“). Hat man ausreichend potente Stammzellen gewonnen, so muss der aus ihnen gezüchtete Zelltyp auch korrekt funktionieren. 2001 erzeugten Forscher vermeintlich erfolgreich Insulin produzierende Inselzellen, die, wie sich später herausstellte, gar kein Insulin erzeugen konnten. Offenbar fehlen also noch geeignete Funktionstests. Darüber hinaus ist es auch gar nicht so einfach, die Stammzellen an ihren Einsatzort im Körper zu lotsen. Werden Stammzellen einfach nur in die Nähe des gewünschten Einsatzortes gespritzt, so können sie sich an falscher Stelle ansiedeln oder Tumore auslösen. Auch hier suchen die Forscher noch nach entsprechenden Methoden.
ZELLEN, GENE, DNA
WAS SONST NOCH GESCHAH Erstes Tier aus „Stammzell-Spermien“ Eine Mäuse-Zucht der besonderen Art ist Wissenschaftlern der Universität Göttingen im Juli 2006 gelungen: Sie produzierten Mäuse-Nachkommen nicht aus normalen Eizellen und Spermien, sondern erzeugten die Spermien durch Differenzierung aus embryonalen Stammzellen. Zum ersten Mal sind aus einem solchen Verfahren lebende Organismen hervorgegangen. Mithilfe bestimmter Wachstumsfaktoren im Kulturmedium hatten die Forscher die Entwicklung embryonaler Mäuse-Stammzellen in Richtung männlicher Keimzellen angeregt. Die so erzeugten Spermien-ähnlichen Zellen waren unbeweglich und mussten daher wie bei der künstlichen Befruchtung mit einer feinen Kanüle in befruchtungsfähige Mäuse-Eizellen eingebracht werden. Aus 65 erfolgreichen Befruchtungen entstanden letztlich sieben Mäuse. Diese besaßen allerdings genetische Defekte, aufgrund dessen sie alle entweder kleiner oder größer als ihre Artgenossen waren und nicht lange lebten. (DEVELOPMENTAL CELL, Juli 2006) Eizellen aus der Haut Dass sich Stammzellen der Haut zu Eizellen entwickeln können, konnten kanadische Forscher der Universität in Guelph beim Schwein zeigen. Die Ausbeute war zwar klein, von 500 000 Zellen entwickelten sich im Labor nur zehn bis 70 zu den besonderen Zellen. Doch diese besitzen sogar eine Zona pellucida , eine Eihülle. Allerdings ließen sich die Follikel noch nicht befruchten. Mittels Parthenogenese entwickelten sich embryoartige Gebilde. Augenscheinlich sind die gezüchteten Oozyten den natürlichen Eizellen sehr ähnlich. Aber ihre Funktion haben sie noch nicht übernehmen können. Das bremst auch die Hoffnung, in den Zellen aus adulten Quellen tatsächlich potente Alleskönner zu finden. Was unterscheidet sie also von natürlichen Eizellen? Dieser Frage wollen die kanadischen Wissenschaftler jetzt in einem anderen Tiermodell nachgehen, das sich leichter handhaben lässt: der Maus. Dabei sollen auch Merkmale identifiziert werden, mit denen sich die Zellen besser charakterisieren lassen. Noch ist zum Beispiel nicht geklärt, ob die in der Haut entdeckten Eizellen dort nicht eine Art Versteck besitzen und ursprünglich aus der Keimbahn stammen und nicht aus dem so genannten Soma. (NATURE CELL BIOLOGY, März 2006) Stammzellen mit „unsterblicher“ DNA Mithilfe spezieller Videotechniken konnten Wissenschaftler des Forschungskonsortiums EuroStemCell am Pasteur Institut in Paris zeigen, dass Stammzellen
bei ihrer Teilung – im Unterschied zu ausdifferenzierten Körperzellen – zwei verschiedene Tochterzellen produzieren: eine Stammzelle und eine spezialisierte Zelle. Die Forscher bezeichnen das als „asymmetrische Teilung“. Die Stammzelle behält den originalen DNAStrang – er bleibt über viele Zellgenerationen hinweg erhalten und ist damit quasi „unsterblich“ –, während die andere Tochterzelle die, durch fehlerhafte Duplikation möglicherweise schadhafte DNA-Kopie erbt. Sie differenziert sich zu bestimmten Zelltypen aus und gehört damit nicht mehr zum Stammzellenpool. Bisher hatten die Wissenschaftler angenommen, dass das genetische Material zufällig verteilt wird. Offensichtlich kann die zelluläre Maschinerie aber zwischen „alter“ und „neuer“ DNA unterscheiden. (NATURE CELL BIOLOGY, Juli 2006) Adulte Stammzellen werden pluripotent Bestimmte adulte Stammzellen können im Reagenzglas in einen Zustand gebracht werden, der den Eigenschaften von embryonalen Stammzellen entspricht. Das stellten Forscher der Universität Göttingen im März 2006 fest. Die aus dem Hodengewebe von Mäusen isolierten spermatogonialen Stammzellen bildeten in Kultur nach einigen Tagen Herzmuskelzellen, konnten aber auch in Dopaminproduzierende Nervenzellen, sowie Gefäßzellen, Hautzellen, Leberzellen, Bauchspeicheldrüsenzellen und Blutzellen differenziert werden. Nach Angaben der Forscher ergeben sich aus ihren Ergebnissen neue Möglichkeiten für den Einsatz von Stammzellen in der Medizin. Die beschriebene Lösung vermeidet zudem die ethischen und immunologischen Probleme beim Einsatz von embryonalen Stammzellen in der medizinischen Forschung. Allerdings käme diese Methode vorerst nur bei männlichen Patienten in Betracht. (NATURE, März 2006)
Isolierung der DNA © Harald Frater
Versuchstier Maus © National Cancer Institute (NCI)
161
Interview
Wissen hoch 12: Bei Klonschaf Dolly, aber auch anderen Klontieren hat man verfrühte Alterserscheinungen, Fettleibigkeit und eine verkürzte Lebensdauer festgestellt. Weiß man inzwischen, woran es liegt?
Prof. Hans Schöler, Direktor am MaxPlanck-Institut für molekulare Biomedizin in Münster, wurde 2003 vom Magazin SCIENCE zu einem der führenden Wissenschaftler des Jahres gewählt. 2004 kehrte er nach fünf Jahren erfolgreicher Arbeit in den USA nach Deutschland zurück. © MPG
Man ist sich immer noch nicht sicher, ob es sich bei den frühen Alterserscheinungen um technische Folgen der Klonierung handelte, oder ob das Material, das beim Klonen in eine entkernte Eizelle verwendet wurde, schlichtweg zu alt war. So wissen wir, dass die Verpackung des Erbgutes der Zelle eines erwachsenen Organismus Fehler aufweisen kann. Neben solchen epigenetischen Problemen gibt es aber sicherlich auch eine genetische Komponente. Beispielsweise altert die DNA im Verlaufe des Lebens durch Mutationen, etwa Punktmutationen. Man hat aber auch die Enden der Chromosomen, Telomere genannt, von Dolly untersucht. Die Telomere von Dolly waren kürzer als in gleichaltrigen normalen Schafen, aber sie waren etwa so lang wie die des alten Schafes, aus dessen Körperkern Dolly entstanden ist. Das ist deshalb interessant, weil die Telomere gleichsam als Stabilisatoren der Chromosomen dienen. Die Telomere werden im Laufe der vielen Zellteilungen im Leben eines Organismus immer kürzer. Andere Tierarten zeigten aber nach dem Klonen längere Telomere. Was auch immer die Ursache für den frühen Tod von Dolly war, im Zusammenhang mit dem Klonen werden viele mögliche Probleme diskutiert. Sie arbeiten zurzeit intensiv an der Erzeugung von pluripotenten Stammzellen durch
CELL wurde ein Cocktail von vier Faktoren veröffentlicht, der eine Teilverjüngung von Zellen bewirken kann. Ein Ziel unserer Arbeiten ist es, neben einem molekularen Verständnis, therapeutisch nutzbare Zellen zu entwickeln, die von einem Patienten nicht abgestoßen werden. Es wird sicherlich interessant sein, ob sich solche Zellen aus Fusionen in Tiermodellen einsetzen lassen. Aber wie beim Klonen müssen wir die Qualität der DNA im Auge behalten. Daher favorisieren wir momentan Nabelschnurblut, das in viel geringerem Umfang als andere Zellen schädigenden Ereignissen ausgesetzt wurde. Unsere Idee ist es, eine Bank von Nabelschnurblut in eine Bank von pluripotenten Zellen umzuwandeln. Es wäre ein Traum, wenn eine solche Bank von Alleskönnern therapeutisch nutzbar wäre, weil man so sehr vielen Menschen helfen könnte. Die bei der Fusion entstehenden Zellen haben doppelt so viele Chromosomen wie normale Körperzellen, 92 statt 46. Kann das nicht zu Problemen führen?
Eine Reihe von Experimenten lassen darauf schließen, dass solche fusionierten Zellen mit einem doppelten Chromosomensatz sich in Bezug auf ihre Pluripotenz ähnlich verhalten wie embryonale Stammzellen. Doppelte Chromosomensätze sorgen wahrscheinlich für mindestens zwei Gefahren, nämlich Abstoßung und Tumore. Daher ist es notwendig, den Chromosomensatz der Zelle, mit der man reprogrammiert hat, zu entfernen. Wir arbeiten im Moment an einer Lösung, zunächst mit Mäusezellen.
Fusion von Körperzellen und embryonalen
162
Stammzellen. Können dabei ähnliche Effekte
Wie bewerten Sie die gegenwärtige deut-
auftreten?
sche Rechtsprechung im Bereich Stammzell-
Wir versuchen mit den Fusionsexperimenten Faktoren in den embryonalen Stammzellen zu identifizieren, die das Programm der erwachsenen Körperzellen verjüngen. Im Magazin
forschung? Fühlen Sie sich dadurch in ihrer Forschung behindert?
Die Gesetzeslage in Deutschland erlaubt zurzeit keine Forschung an humanen embry-
ZELLEN, GENE, DNA
onalen Stammzellen aus Zelllinien, die nach dem 1. Januar 2002 gewonnen wurden. Diese Stichtagsregelung könnte zu verfälschten Ergebnissen führen, weil die „alten“ Zellen verunreinigt und mutiert sind. Für viele Aspekte der Grundlagenforschung mögen zwar embryonale Stammzelllinien ausreichen, die schon ein paar Jahre alt sind. Bei der Entwicklung von Therapien benötigt man jedoch exzellente humane embryonale Stammzellen. Sonst kann man bei Fehlversuchen nicht ausschließen, ob es an der Handhabung oder an dem Alter der kultivierten Zellen liegt. Eine solche Ungewissheit könnte auftreten, wenn beispielsweise ein Affe nach Transplantation menschlicher Zellen, die von humanen embryonalen Stammzellen stammen, einen Tumor bekommt. Es ist aber auch so, dass Forscher in Deutschland durch die gegenwärtige deutsche Rechtsprechung behindert werden, mit anderen europäischen Gruppen zusammen zu arbeiten. Das macht Deutschland als Forschungsstandort ausgesprochen unattraktiv. Die Stichtagsregelung behindert daher gute Forschung an und mit embryonalen Stammzellen und isoliert Deutschland als Forschungsstandort.
Welche rechtliche Regelung würden Sie sich wünschen?
Ich wünsche mir eine Änderung der Stichtagsregelung. Ideal wäre eine Abschaffung. Deutsche Forscher sollten aber wohl auch mit einem nachlaufenden, sich verändernden Stichtag international wettbewerbsfähig sein und mit anderen europäischen Gruppen arbeiten können. Eine veränderte Stichtagsregelung sollte auch dazu führen, dass deutsche Forscher straffrei bleiben, wenn sie an europäischen Forschungsverbünden mitarbeiten, die mit deutschem Geld gefördert werden. Wann glauben Sie, wird es erste Therapien mit „Ersatzzellen“ oder „-geweben“ auf Stammzellbasis geben? Welche Krankheiten sind für Sie da die aussichtsreichsten Kandidaten?
Stammzellen werden aller Wahrscheinlichkeit nach zuerst therapierend eingesetzt werden können bei Erkrankungen, bei denen eine bestimmte Funktion oder bestimmte Zellen verloren gegangen sind. Das sind z.B. die Parkinsonsche Krankheit, vielleicht auch Querschnittslähmungen. Mit Erfolgen bei solchen Erkrankungen rechnet man in mittelfristiger Zukunft. Von der Nachzucht ganzer Organe sind wir aber noch sehr weit entfernt.
Somatischer Kerntransfer: Der Kern einer Körperzelle wird in eine Eizelle injiziert. © Max-Planck-Institut für molekulare Biomedizin
163
Durch ein Labyrinth aus Linsen und Blenden verfolgt der Wissenschaftler Marcus Dyba den Laserstrahl. © Max-Planck-Institut für biophysikalische Chemie
Moleküle im Visier Die Zellbiologie ist bunt geworden: Durch die Entwicklung neuer fluoreszierender Substanzen, die spezifisch an jene Moleküle binden, die an Schlüsselprozessen des Stoffwechsels beteiligt sind, können Forscher heute in den verschiedenen Geweben von Organismen nicht mehr nur die morphologischen Strukturen, sondern erstmals auch gezielt bestimmte Stoffwechselvorgänge und sogar Moleküle beobachten. Mit dem „molekularen Imaging“ erfahren sie nicht nur, wo in einem Organ etwas passiert, sondern auch, was dort geschieht und welche Substanzen beteiligt sind. Langfristiges Ziel dieser Forschungen ist es, Marker zukünftig sogar zu therapeutischen Zwecken einzusetzen – indem sie Wirkstoffe zielgenau
164
zu bestimmten Molekülen oder Zellen transportieren. Darüber hinaus sind in letzter Zeit aber auch die Verfahren der Bildgebung und Mikroskopie entscheidend erweitert und verbessert worden. Neue Techniken, Detektoren und Sensoren erhöhen die Empfindlichkeit
ZELLEN, GENE, DNA
Effekt STED-Strahl
Effekt Anregungsstrahl
Linse Detektor 200nm
AnregungsStrahl
STED-Strahl
resultierender Fluoreszenz-Bereich