Quantenmechanik Prof. Dr. Wolfgang von der Linden Georg Fantner Bernhard Schaffer 3. Dezember 2000
2
Inhaltsverzeich...
45 downloads
865 Views
2MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Quantenmechanik Prof. Dr. Wolfgang von der Linden Georg Fantner Bernhard Schaffer 3. Dezember 2000
2
Inhaltsverzeichnis I Mathematische Voraussetzungen 1
Mathematische Grundlagen 1.1 Wahrscheinlichkeitstheorie . . . . . . . . . . . . . . . . 1.2 Lineare Vektorräume . . . . . . . . . . . . . . . . . . . . 1.2.1 Der lineare Vektorraum . . . . . . . . . . . . . . 1.2.2 Das Skalarprodukt . . . . . . . . . . . . . . . . . 1.2.3 Der Dualraum . . . . . . . . . . . . . . . . . . . . 1.2.4 Entwicklung in einer Orthonormalbasis . . . . . 1.2.5 Folgen und Konvergenz . . . . . . . . . . . . . . 1.3 Lineare Operatoren . . . . . . . . . . . . . . . . . . . . . 1.3.1 Der Kommutator . . . . . . . . . . . . . . . . . . 1.3.2 Adjungierter Operator . . . . . . . . . . . . . . . 1.3.3 Der Projektionsoperator . . . . . . . . . . . . . . 1.3.4 Die Spur eines Operators . . . . . . . . . . . . . 1.3.5 Selbstadjungierte Operatoren . . . . . . . . . . . 1.3.6 Unitäre Operatoren . . . . . . . . . . . . . . . . . 1.3.7 Aktive und passive Transformationen . . . . . . 1.4 Eigenwertprobleme . . . . . . . . . . . . . . . . . . . . . 1.4.1 Das Eigenwertproblem . . . . . . . . . . . . . . . 1.4.2 Zwei Orthogonalisierungsverfahren . . . . . . . 1.4.3 Spektraltheorem . . . . . . . . . . . . . . . . . . 1.5 Der Statistische Operator . . . . . . . . . . . . . . . . . . 1.5.1 Reine Zustände . . . . . . . . . . . . . . . . . . . 1.5.2 Wahrscheinlichkeitsverteilungen . . . . . . . . . 1.6 Kommutatoren . . . . . . . . . . . . . . . . . . . . . . . 1.6.1 Eigenwertproblem kommutierender Operatoren 1.6.2 Kommutatoren der Orts- und Impulsoperatoren 1.6.3 Die Unbestimmtheitsrelation . . . . . . . . . . . 1.7 Der Hilbertraum . . . . . . . . . . . . . . . . . . . . . . . 1.8 Der Produktraum . . . . . . . . . . . . . . . . . . . . . . 3
15 . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . .
17 18 23 23 26 29 29 30 31 31 34 35 36 39 40 41 42 42 44 47 60 61 62 65 65 69 71 74 78
1.8.1 1.8.2 1.8.3 1.8.4 2
II 3
Das Tensor-Produkt . . . . . . . . . . Vollständige Basis im Produkt-Raum Orthonormierung im Produkt-Raum . Operatoren im direkten Produktraum
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
. . . .
78 79 79 81
Näherungsverfahren 2.1 Zeitunabhängige Störungstheorie . . . . . . . . . . . 2.1.1 Nicht entartete Störungstheorie . . . . . . . . 2.1.2 Störungstheorie für (fast) entartete Zustände 2.2 Brillouin-Wigner Störungstheorie . . . . . . . . . . . 2.3 Variationsansatz . . . . . . . . . . . . . . . . . . . . . 2.4 Zeitabhängige (Diracsche) Störungstheorie . . . . . 2.4.1 Das Wechselwirkungsbild . . . . . . . . . . . 2.4.2 Harmonische oder konstante Störung . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
. . . . . . . .
83 83 84 93 98 102 108 108 112
Quantenmechanik
119
Der Formalismus der Quantenmechanik 3.1 Quantenphysik am Doppelspalt . . . . . . . . . . . . . . . . . 3.1.1 Experiment mit klassischen Teilchen . . . . . . . . . . 3.1.2 Experiment mit Welle . . . . . . . . . . . . . . . . . . 3.1.3 Experiment mit Elektronen . . . . . . . . . . . . . . . 3.1.4 Experiment zur Bestimmung der Trajektorie . . . . . 3.1.5 Grundprinzipien der Quantenmechanik . . . . . . . 3.2 Wahrscheinlichkeitsamplituden . . . . . . . . . . . . . . . . . 3.2.1 Kombination von Amplituden . . . . . . . . . . . . . 3.2.2 Doppelspaltexperiment plus Lichtquelle . . . . . . . 3.2.3 Streuung an einem Kristall . . . . . . . . . . . . . . . 3.3 Das Stern – Gerlach Experiment . . . . . . . . . . . . . . . . . 3.3.1 Der quantenmechanische Zustandsvektor . . . . . . . 3.3.2 Erweiterung auf Atome mit höherem magnetischen Moment . . . . . . . . . . . . . . . . . . . . . . . . . . 3.3.3 Darstellung des Spin 12 Operators . . . . . . . . . . . . 3.3.4 Eigenschaften der Pauli-Matrizen . . . . . . . . . . . 3.4 Abschließende Diskussion . . . . . . . . . . . . . . . . . . . . 3.5 Drehungen von Basiszuständen . . . . . . . . . . . . . . . . . 3.6 Drehoperatoren . . . . . . . . . . . . . . . . . . . . . . . . . . 3.6.1 Der Erzeuger der Drehung . . . . . . . . . . . . . . . 3.6.2 Drehungen von Spin 12 . . . . . . . . . . . . . . . . . 3.6.3 Drehmatrizen für Spin 12 Teilchen . . . . . . . . . . . . 4
121 121 121 122 124 126 127 130 130 134 137 141 151 155 159 162 164 167 169 169 171 174
3.7
4
Ort, Impuls und Verschiebung . . . . . . . . . . . . . . . . . . 3.7.1 Die Ortsdarstellung . . . . . . . . . . . . . . . . . . . 3.7.2 Verschiebung . . . . . . . . . . . . . . . . . . . . . . . 3.7.3 Der Impulsoperator als Erzeuger der Translation . . 3.7.4 Der Impulsoperator in der Orstdarstellung . . . . . . 3.8 Vollständige Orthogonalbasen . . . . . . . . . . . . . . . . . . 3.8.1 Wichtigste Relationen endlicher Vektorräumen . . . . 3.8.2 Abzählbare Basissätze im L2 . . . . . . . . . . . . . . 3.8.3 Überabzählbase Basissysteme . . . . . . . . . . . . . . 3.8.4 Verallgemeinerung auf drei Dimensionen . . . . . . . 3.9 Quanten-Dynamik: Schrödingergleichung . . . . . . . . . . . 3.9.1 Die Bedeutung des Hamilton-Operators . . . . . . . . 3.9.2 Energie-Eigenzustände . . . . . . . . . . . . . . . . . 3.9.3 Zeitabhängigkeit der Erwartungswerte . . . . . . . . 3.9.4 Beispiel: Spin-Präzession . . . . . . . . . . . . . . . . 3.9.5 Schrödinger-Bild ↔ Heisenberg-Bild . . . . . . . . . . 3.10 Postulate der Quantenmechanik . . . . . . . . . . . . . . . . 3.11 Eigenschaften der Einteilchen-Wellenfunktion . . . . . . . . 3.11.1 Ortsraumdarstellung . . . . . . . . . . . . . . . . . . . 3.11.2 Kontinuitätsgleichung . . . . . . . . . . . . . . . . . . 3.11.3 Randbedingungen der Ortsraum-Wellenfunktion . . 3.11.4 Zur Entartung eindimensionaler Systeme . . . . . . . 3.11.5 Existenz reellwertiger Wellenfunktionen . . . . . . . 3.11.6 Parität der Wellenfunktionen bei symmetrischen Potentialen . . . . . . . . . . . . . . . . . . . . . . . . . . 3.11.7 Untere Schranke für die Energien eines Potentialproblems . . . . . . . . . . . . . . . . . . . . . . . . . . . .
220
Anwendungen I 4.1 Der harmonische Oszillator . . . . . . . . . . . . . 4.1.1 Methode von Dirac . . . . . . . . . . . . . . 4.1.2 Konsequenzen der Unschärferelation . . . 4.1.3 Eigenzustände . . . . . . . . . . . . . . . . 4.1.4 Grundzustand in der Ortsdarstellung . . . 4.1.5 Angeregte Zustände in der Ortsdarstellung 4.1.6 Dynamik des harmonischen Oszillators . . 4.2 Einfache Potential-Probleme . . . . . . . . . . . . . 4.2.1 Freie Teilchen . . . . . . . . . . . . . . . . . 4.2.2 Gebundene Zustände im Potentialtopf . . . 4.2.3 Streuung an einem Potential . . . . . . . . 4.2.4 Aufenthaltswahrscheinlichkeiten . . . . . .
223 223 225 230 232 234 238 242 244 244 246 255 267
5
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
. . . . . . . . . . . .
176 176 177 180 183 185 185 186 186 191 192 196 198 199 200 203 210 212 212 213 216 218 219 220
5
6
7
8
Drehungen und Drehimpulsoperator 5.1 Drehmatrizen im R3 . . . . . . . . . . . . . . . . . . . . . 5.2 Vertauschungsrelationen von Drehungen . . . . . . . . . 5.3 Skalare und Vektor-Operatoren . . . . . . . . . . . . . . . 5.3.1 Ganzzahligkeit des Bahndrehimpulses . . . . . . 5.3.2 Beweise . . . . . . . . . . . . . . . . . . . . . . . . 5.4 Eigenwertproblem der Drehimpulsoperatoren . . . . . . 5.5 Der Bahndrehimpuls . . . . . . . . . . . . . . . . . . . . . 5.5.1 Vertauschungsrelationen . . . . . . . . . . . . . . . 5.5.2 Ortsraumeigenfunktionen des Bahndrehimpulses 5.5.3 Ganzzahligkeit des Bahndrehimpulses . . . . . . 5.6 Die Schrödingergleichung im Zentralfeld . . . . . . . . . 5.7 Wasserstoff und H-ähnliche Probleme . . . . . . . . . . . 5.7.1 Entartung . . . . . . . . . . . . . . . . . . . . . . . 5.7.2 Energieschema des H-Atoms (Z=1) . . . . . . . . 5.7.3 Lichtemission . . . . . . . . . . . . . . . . . . . . . 5.7.4 Wasserstoff-Wellenfunktion . . . . . . . . . . . . .
. . . . . . . . . . . . . . . .
Anwendungen II 6.1 Kovalente Bindung . . . . . . . . . . . . . . . . . . . . . . . 6.1.1 Das H+ 2 Molekül. . . . . . . . . . . . . . . . . . . . . 6.1.2 Optimierung der (Variations-)Wellenfunktion in einem Teilraum . . . . . . . . . . . . . . . . . . . . . . 6.1.3 Muonisch katalysierte Fusion . . . . . . . . . . . . . 6.2 Van-der-Waals-Wechselwirkung . . . . . . . . . . . . . . . 6.3 Systeme mit zwei Spin 12 Teilchen . . . . . . . . . . . . . . . 6.4 Drehimpulsaddition . . . . . . . . . . . . . . . . . . . . . . Identische Teilchen 7.1 Das Pauli-Prinzip . . . . . . . . . 7.2 Anyonen . . . . . . . . . . . . . . 7.3 Elektron plus Spin . . . . . . . . . 7.4 Das Helium-Atom . . . . . . . . . 7.5 Angeregte Zustände von Helium
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . . . . . . . . . . . . .
271 271 272 276 279 281 286 293 293 294 300 306 309 315 316 316 319
323 . 323 . 323 . . . . .
326 333 334 339 344
. . . . .
345 348 349 349 352 357
Einstein-Podolsky-Rosen-Paradoxon 363 8.1 Lokale verborgene Parameter / Bellsche Ungleichung . . . . 365 8.2 Ein nicht quantenmechanisches Modell und die Bellsche Ungleichung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366 6
9
Wechselwirkung von Elektronen mit elektro-magnetischen Feldern 373 9.1 Lagrange-Funktion geladener Teilchen im el.-mag. Feld . . . 373 9.2 Hamilton-Funktion geladener Teilchen im el.-mag. Feld . . . 375
10 Eine kurze Einführung in die Feynman’schen Pfadintegrale 377 10.1 Aharonov-Bohm-Effekt . . . . . . . . . . . . . . . . . . . . . . 380 10.2 Quanten-Interferenz aufgrund von Gravitation . . . . . . . . 381 11 Zustandspräparation und Messung 11.1 Zustandspräparation . . . . . . . . . . . . . 11.2 Messung und Interpretation des Zustandes 11.3 Allgemeine Theorie des Meßprozesses . . . 11.3.1 Spin-Rekombinationsexperiment . . 12 Literatur 12.1 Lehrbücher (für eine Grundvorlesung) . . 12.2 Übungsbücher . . . . . . . . . . . . . . . . 12.3 Fortgeschrittene Kapitel der Q.M. . . . . . 12.4 Mathematische Methoden der Q.M. . . . 12.5 Zur Interpretation der Quantenmechanik
7
. . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . . . . . . .
. . . .
385 385 386 387 391
. . . . .
393 393 394 394 394 395
8
Abbildungsverzeichnis 1.1 1.2 1.3 1.4 1.5 1.6
Projektion auf einen Unterraum . . . . . . . . . . . . . . Orthonormierung nach Gram-Schmidt . . . . . . . . . . Nicht-hermitesches Eigenwertproblem . . . . . . . . . . Verhalten einer kontinuierlichen Funktion für |x| → ∞. Folge von Funktionen, die gegen δ(x) konvergiert . . . Stufenfunktion . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . .
. . . . . .
. . . . . .
2.1 2.2 2.3 2.4
Eigenwertspektrum . . . . . . . . . . . . . . . . . . . . Harmonisches Potential und Gaußsches Wellenpaket Beiträge zur Energie des H.O. . . . . . . . . . . . . . . Plot der Funktion ∆t (ω) . . . . . . . . . . . . . . . . .
. . . .
. . . .
. 94 . 104 . 107 . 114
3.1 3.2 3.3 3.4 3.5 3.6 3.7 3.8 3.9 3.10 3.11 3.12 3.13 3.14 3.15 3.16 3.17 3.18 3.19 3.20
Doppelspalt mit Kugeln . . . . . . . . . . . . . . . . . . . Doppelspalt plus Photonen . . . . . . . . . . . . . . . . . Doppelspalt plus Photonen . . . . . . . . . . . . . . . . . Doppelspalt plus Photonen . . . . . . . . . . . . . . . . . Komplexeres Spaltexperiment . . . . . . . . . . . . . . . . Doppelspalt plus Licht . . . . . . . . . . . . . . . . . . . . Neutronenbeugung am Kristall . . . . . . . . . . . . . . . Beugung am Kristallgitter . . . . . . . . . . . . . . . . . . Beugung an Kristallen mit ferromagnetischen Momenten Aufbau des Stern-Gerlach-Experiments . . . . . . . . . . Magnetfeld beim S-G Versuch . . . . . . . . . . . . . . . . Klassisch erwartete Häufigkeitsverteilung . . . . . . . . . Beobachtete Häufigkeitsverteilung . . . . . . . . . . . . . Erstes Stern-Gerlach-Experiment . . . . . . . . . . . . . . Zweites Stern-Gerlach-Experiment . . . . . . . . . . . . . Drittes Stern-Gerlach-Experiment . . . . . . . . . . . . . . Viertes Stern-Gerlach-Experiment . . . . . . . . . . . . . . Modifiziertes Stern-Gerlach-Experiment . . . . . . . . . . Modifiziertes Stern-Gerlach-Experiment mit Blende . . . Fünftes Stern-Gerlach-Experiment . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . .
9
. . . .
37 44 47 53 55 56
121 122 124 126 132 134 137 138 139 142 143 144 145 145 146 147 147 148 148 154
4.1 4.2 4.3 4.4
223 231 237
4.9 4.10 4.11 4.12 4.13 4.14 4.15 4.16 4.17 4.18
Harmonischer Oszillator . . . . . . . . . . . . . . . . . . . . . Energiebeiträge zum harmonischen Oszillator . . . . . . . . Aufenthaltswahrscheinlichkeit des H.O. (Grundzustand) . . Aufenthaltswahrscheinlichkeit des H.O. (angeregte Zustände) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Potentialtopf mit unendlich hohen Wänden . . . . . . . . . . Wellenfunktionen des Potentialtopfes mit unendlichen Wänden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Potentialtopf endlicher Tiefe . . . . . . . . . . . . . . . . . . . Graphische Bestimmung der Energie-Eigenwerte im Potentialtopf . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Gebundene Eigenzustände im Potentialtopf . . . . . . . . . . Streuung an der Potential-Barriere . . . . . . . . . . . . . . . Klassische Potential-Barriere . . . . . . . . . . . . . . . . . . . Streuung an der Potential-Barriere (E < V0 ) . . . . . . . . . . Raster-Tunnel-Mikroskop . . . . . . . . . . . . . . . . . . . . STM-Spitze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . α-Zerfall . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . Streuung an der Potential-Barriere (E > V0 ) . . . . . . . . . . Transmissionskoeffizient im Streuproblem . . . . . . . . . . . Aufenthaltswahrscheinlichkeiten beim Streu-Problem . . . .
5.1 5.2 5.3 5.4 5.5
|Y00 (θ, ϕ = 0)|2 . . . . . . . . . |Ym1 (θ, ϕ = 0)|2 für m = 0, 1 . . |Ym2 (θ, ϕ = 0)|2 für m = 0, 1, 2 . Coulomb-Potential . . . . . . Energieniveaus des H-Atoms
303 304 305 310 317
6.1 6.2 6.3 6.4
Skizze des H2+ Moleküls . . . . . . . . . . . . . . . . . . . . . 324 H2+ -Wellenfunktionen mit gerader und ungerader Parität . . 329 Optimaler Variationsparameter Z opt (R) als Funktion von R . 332 Geometrie zur Berechnung der van-der-Waals-Wechselwirkung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334
7.1 7.2 7.3 7.4
Teilchenaustausch im R2 . . . . . . . . . . . . . . . . . . . Teilchenaustausch im R2 . . . . . . . . . . . . . . . . . . . Geometrie des Helium-Atoms . . . . . . . . . . . . . . . . Energieaufspaltung der angeregten Zustände im Helium
8.1 8.2
EPR-Experiment . . . . . . . . . . . . . . . . . . . . . . . . . . 364 Spezielles Dreibein für Bellsche Ungleichung . . . . . . . . . 371
4.5 4.6 4.7 4.8
10
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . . .
. . . .
. . . . .
. . . .
241 247 248 250 253 254 255 256 261 262 263 263 265 266 269
349 350 352 360
10.1 Aharonov-Bohm-Effekt . . . . . . . . . . . . . . . . . . . . . . 383 11.1 Spin-Rekombinationsexperiment . . . . . . . . . . . . . . . . 391
11
12
Tabellenverzeichnis 2.1
Beiträge zur Störungstheorie . . . . . . . . . . . . . . . . . . .
5.1 5.2 5.3
Quantenzahlen des Drehimpulsoperators . . . . . . . . . . . 290 Die ersten Kugelflächenfunktionen . . . . . . . . . . . . . . . 301 Quantenzahlen des H-Atoms mit Wertebereichen . . . . . . 315
8.1
Klassisches Quantenmodell (Bellsche Ungleichung) . . . . . 368
13
93
14
Teil I Mathematische Voraussetzungen
15
Kapitel 1 Mathematische Grundlagen
17
1.1
Wahrscheinlichkeitstheorie
Die Quantenmechanik erlaubt es i.d.R. nicht mehr, Vorhersagen für Einzelereignisse zu machen. Vielmehr können nur Wahrscheinlichkeitsaussagen über den möglichen Ausgang von Messungen gemacht werden. Deshalb spielt die Wahrscheinlichkeitstheorie und deren korrekte Interpretation in der Quantenmechanik eine wichtige Rolle. In diesem Abschnitt sollen die wesentlichen Grundlagen der Wahrscheinlichkeitsrechnung wiederholt werden. Wir betrachten Propositionen (Aussagen, die entweder wahr oder falsch sind) A, B und C. P (A|B) ist die bedingte Wahrscheinlichkeit, daß die Proposition A wahr ist, vorausgesetzt B trifft zu. Im Falle von kontinuierlichen Variablen kann eine Proposition A z.B. bedeuten „der Wert der Variablen liegt im Intervall (x, x + dx)”. In diesem Fall wird man die Wahrscheinlichkeit aufspalten in Wahrscheinlichkeitsdichte mal Intervall-Breite, d.h. die Wahrscheinlichkeit, daß der Wert der Variablen in dem angegebenen Intervall liegt, ist P (A|B) = p(x|B)dx
.
Die Wahrscheinlichkeiten sind so normiert, daß eine falsche Aussage die Wahrscheinlichkeit 0 und eine wahre Aussage die Wahrscheinlichkeit 1 hat. Es gibt zwei fundamentale Gesetze in der Wahrscheinlichkeitstheorie, die Summen- und die Produktregel. Die Summenregel besagt p(A ∨ B|C) = P (A|C) + P (B|C) − P (A, B|C)
(1.1)
Das Symbol ∨ steht für das logische „oder”. Wenn sich die Propositionen A und B gegenseitig ausschließen, vereinfacht sich die Summenregel zu p(A ∨ B|C) = P (A|C) + P (B|C). Gl. (1.1) besagt dann, daß die Wahrscheinlichkeit dafür, daß entweder A oder B richtig ist, durch die Summe aus den Wahrscheinlichkeiten für A und für B gegeben ist. Alle drei Wahrscheinlichkeiten setzen voraus, daß eine weitere Proposition C wahr ist. Die Summe kann sofort auf einen ganzen Satz sich gegenseitig ausschließender Propositionen Ai mit i = 1, . . . , N erweitert werden S UMMENREGEL
P(
N W
i=1
Ai |C) =
N X i=1
18
P (Ai |C)
.
(1.2)
Wenn der Satz von Propositionen zusätzlich vollständig ist, d.h. eine der N W Propositionen ist definitiv richtig ( Ai = wahr), dann erhalten wir die i=1
M ARGINALISIERUNGSREGEL
P (B|C) = P ({
N W
Ai } , B|C) =
i=1
N X
P (Ai , B|C)
(1.3)
.
i=1
Das logische „und” zweier Propositionen A und B haben wir als A , B geschrieben. Die zweite Regel der Wahrscheinlichkeitstheorie ist die P RODUKTREGEL
P (A , B|C) = P (A|B , C)P (B|C) = P (B|A , C)P (A|C)
.
(1.4)
Sie erlaubt es, verbundene Wahrscheinlichkeiten durch bedingte Wahrscheinlichkeiten auszudrücken.
Interpretation von Wahrscheinlichkeiten Es gibt zwei unterschiedliche Interpretationen der Bedeutung des Begriffs Wahrscheinlichkeit. Mit der Begründung der quantitativen Wahrscheinlichkeitstheorie durch Laplace wurde Wahrscheinlichkeit als ein Maß für die Plausibilität eines Ereignisses gesehen, dessen Ausgang ungewiß ist. In diesem Zusammenhang ist es wichtig zu erkennen, daß die Ungewißheit nicht eine physikalische Eigenschaft, sondern eine Folge mangelnder Information ist. Z.B. ist der Ausgang beim Wurf einer Münze nicht deshalb „zufällig”, weil der Zufall der Münze anhaftet, sondern weil wir i.d.R. 19
nicht die nötige Information haben, um den Ausgang aus den Gesetzen der klassischen Physik zu berechnen. Die ursprüngliche Deutung der Wahrscheinlichkeitstheorie hatte jedoch anfänglich Probleme. Zum einen war nicht klar, inwiefern die obigen Regeln tatsächlich auf das Maß der Plausibilität zutreffen, und ob dieses Maß überhaupt konsistent definiert werden kann. Darüber hinaus gab es mathematische Probleme bei der Behandlung der sogenannten AprioriWahrscheinlichkeit. Man hat deshalb den Begriff Wahrscheinlichkeit und deren Anwendbarkeit drastisch eingeschränkt. Er bekam die Bedeutung einer relativen Häufigkeit eines Zufallsereignisses Zahl positiver Ereignisse bei N Versuchen N →∞ N
p = lim
Diese Interpretation hat gravierende Mängel. Sie ist nur auf solche Situationen anwendbar, in denen relative Häufigkeiten definiert werden können und in denen die Zahl N zumindest sehr groß ist. Das ist aber gerade bei vielen interessanten Problemen nicht der Fall. Des weiteren beruht sie auf dem Konzept der Zufallsvariablen. Wie bereits oben erwähnt, ist dieses Konzept physikalisch fragwürdig, denn die Ungewißheit des Ausgangs eines Experiments ist i.d.R. nicht intrinsisch zufällig, sondern hängt von unserem Kenntnisstand ab. In den letzten Jahrzehnten ist es gelungen, die Probleme der Laplaceschen Deutung der Wahrscheinlichkeit zu beseitigen. Es gibt eine eindeutige und konsistente Theorie, in der Wahrscheinlichkeit als Maß für die Plausibilität verstanden wird. Für das Rechnen mit diesem Maß gibt es aufgrund von Konsistenzforderungen nur eine konsistente Theorie, die Wahrscheinlichkeitstheorie, wie sie oben beschrieben wurde. Aus der Produktregel folgt das für viele Anwendungen wichtige Bayessche Theorem P (A|B , C) =
P (B|A , C)P (A|C) P (B|C)
.
(1.5)
Mit dem Bayesschen Theorem kann man inverse Probleme lösen. D.h., man kann die Wahrscheinlichkeit P (A|B , C) für A, gegeben B und C über die sogenannte Likelihood P (B|A , C), d.h. die „Vorwärts-Wahrscheinlichkeit” für B, gegeben A und C ausdrücken. Es ist ganz wichtig, festzuhalten, daß bedingte Wahrscheinlichkeiten P (A|B) keine physikalischen Abhängigkeiten, sondern logische Folgerungen beschreiben. Insbesondere besteht keine Zeitordnung zwischen den beiden Propositionen A und B. Das wird besonders eindrucksvoll klar, wenn man 20
folgendes Urnen-Problem betrachtet. In einer Urne befinden sich N Kugeln, davon sind Nr rot und Nb blau. Wir entnehmen der Urne nacheinander zwei Kugeln. Wir bezeichnen mit R1/2 die Proposition, daß die (1/2)-te Kugel rot ist. Die Wahrscheinlichkeit, beim ersten Zug eine rote bzw. blaue Kugel zu ziehen ist Nr N Nb P (R1 |Nr , Nb ) = N P (R1 |Nr , Nb ) =
(1.6)
,
wobei A die Negation der Proposition A bedeutet. Wir wollen nun die Wahrscheinlichkeit ermitteln, im zweiten Zug eine rote Kugel zu ziehen, wenn die erste Kugel rot bzw. blau war. Da beim zweiten Ziehen eine rote bzw. blaue Kugel bereits fehlt ist offensichtlich Nr − 1 N −1 Nr P (R2 |R1 , Nr , Nb ) = N −1 P (R2 |R1 , Nr , Nb ) =
(1.7)
.
Hier liegt tatsächlich auch eine Kausalkette vor. Anders sieht es aus bei der Wahrscheinlichkeit P (R1 |R2 , Nr , Nb ), daß die erste Kugel rot war, wenn die zweite rot ist. Hier beschreibt die bedingte Wahrscheinlichkeit logische aber keine physikalischen Abhängigkeiten. Die Tatsache, daß die experimentelle Ermittlung der Daten, die hinter dem Bedingungsstrich stehen (im vorliegenden Fall die Proposition R2 ), zeitlich nach der Bestimmung der Daten, die vor dem Bedingungsstrich stehen, stattfindet hat hierbei keine Bedeutung. Es soll ausdrücklich betont werden, daß bedingte Wahrscheinlichkeiten P (A|B), die Wahrscheinlichkeit, daß A wahr ist vorausgesetzt B ist wahr nicht zu verwechseln sind mit physikalischen Kausalketten: gegeben die Anfangsbedingung A, wie groß ist die Wahrscheinlichkeit, daß sich dann das System in den Zustand B entwickelt! Diese offensichtliche und trivial anmutende Unterscheidung ist ganz entscheidend für die richtige Interpretation der Quantenmechanik. Die Wahrscheinlichkeit P (R1 |R2 , Nr , Nb ) erhält man aus dem Bayesschen Theorem P (R1 |R2 , Nr , Nb ) = P (R2 |R1 , Nr , Nb )
P (R1 |Nr , Nb ) P (R2 |Nr , Nb )
.
(1.8)
Die einzig unbekannte Größe ist die Wahrscheinlichkeit P (R2 |Nr , Nb ), daß die zweite Kugel rot ist, unabhängig von der Farbe der ersten Kugel. Man 21
erwartet, daß diese Wahrscheinlichkeit dieselbe ist wie P (R1 |Nr , Nb ). Diese Vermutung läßt sich leicht mit der Marginalisierungsregel (MR) und der Produktregel (PR) unter Ausnutzung von Gl. (1.6) und Gl. (1.7) beweisen MR
P (R2 |Nr , Nb ) = P (R2 , R1 |Nr , Nb ) + P (R2 , R1 |Nr , Nb ) PR
= P (R2 |R1 , Nr , Nb ) P (R1 |Nr , Nb )
+ P (R2 |R1 , Nr , Nb ) P (R1 |Nr , Nb ) Nr − 1 Nr Nr Nb + = N −1 N N −1 N Nr Nr (Nr + Nb −1) = = N (N − 1) | {z } N N
= P (R1 |Nr , Nb )
.
Dadurch wird aus Gl. (1.8) P (R1 |R2 , Nr , Nb ) = P (R2 |R1 , Nr , Nb )
.
Proposition, die zeitlich nacheinander folgende Ereignisse beschreiben, bedingen sich dennoch in symmetrischer Weise, was logische Konsequenzen angeht. Es würde den Rahmen der Quantenmechanik-Vorlesung sprengen, noch ausführlicher auf die Wahrscheinlichkeitstheorie einzugehen.
22
1.2
Lineare Vektorräume
Gewisse mathematische Theorien sind für die Quantenmechanik wesentlich, nicht nur als rechnerisches Hilfsmittel, sondern insbesondere, um eine effiziente Sprache zur Formulierung der Quantenmechanik zu haben. Die lineare Algebra spielt eine Schlüsselrolle wegen der Linearität der Schrödingergleichung. Es wurde von Caticha gezeigt, daß die Linearität aus Konsistenzgründen zwingend nötig ist. Die Strukturen zur Beschreibung der Quanten-Physik, des 3N-dimensionalen Raumes der NTeilchenprobleme mit zusätzlichen diskreten inneren Freiheitsgraden (z.B. Spin), sind lineare Operatoren auf Vektorräumen. Diese Einsicht geht auf P.A.M. Dirac zurück. Ausgehend von dem wohlvertrauten Konzept des Vektors als ein Objekt, das eine Länge und eine Richtung besitzt, werden die wesentlichen Eigenschaften dieser Größe extrahiert und eine allgemeinere Klasse konstruiert.
1.2.1 Der lineare Vektorraum Def. 1.1 (lin.Vektorraum) Menge V von Elementen (Vektoren), die bezüglich einer Addition der Vektoren miteinander und einer Multiplikation mit einem Skalar abgeschlossen ist. Für zwei beliebige Elemente |Φi, |Ψi des Vektorraums V und beliebiger skalarer Größen a, b soll gelten: 1) Abgeschlossenheit bezüglich Addition: |Φi + |Ψi ∈ V 2) Abgeschlossenheit bezüglich Multiplikation: a|Φi ∈ V 3) Distributivgesetz der Multiplikation: a(|Ψi + |Φi) = a|Φi + a|Ψi 4) Distributivgesetz der Multiplikation: (a + b)|Ψi = a|Ψi + b|Ψi 5) Assoziativgesetz der Multiplikation: b(a|Φi) = (ab)|Φi 6) Kommutativgesetz der Addition: |Ψi + |Φi = |Φi + |Ψi 7) Assoziativgesetz der Addition: |Ψi + (|Φi + |ψi) = (|Ψi + |Φi) + |ψi 8) Existenz des Nullvektors |0i : |Φi + |0i = |Φi ; |0i ∈ V 9) Existenz des inversen Elements |−Φi : |Φi + |−Φi = |0i ; ∀|Φi ∈ V 10) Bei der Multiplikation mit der Eins soll gelten: 1 · |Φi = |Φi Def. 1.2 a,b werden Elemente des Körpers genannt, über denen der Vektorraum definiert ist. 23
a, b ∈ R ⇒ reeller Vektorraum a, b ∈ C ⇒ komplexer Vektorraum Die Vektoren sind als abstrakte Objekte weder reell noch komplex! Es wurde bewußt eine neue Notation |Ψi für Vektoren gewählt, um zu implizieren, daß es sich um eine abstrakte Verallgemeinerung der vertrauten Vektoren handelt. Aus den Eigenschaften eines Vektorraumes folgt: • |0i ist eindeutig • 0|0i = |0i • |−Φi ist eindeutig • |−Φi = −|Φi Beispiele für Vektorräume: A) Vektoren im Rn Die bekannten Vektoren (Pfeile) mit Länge und Richtung. Addition bedeutet verbinden der Pfeile: Ende des einen Pfeils ist Anfang des zweiten. Multiplikation mit Skalar a bedeutet Streckung um den Faktor a. Nullvektor ist der Vektor der Länge 0. Inverser Vektor ist ein Pfeil in umgekehrte Richtung. B) 2x2 Matrizen Auch 2x2 Matrizen sind Vektoren im verallgemeinerten Sinn. Φ11 Φ12 Ψ11 Ψ12 Φ11 + Ψ11 Φ12 + Ψ12 Addition: + = Φ21 Φ22 Ψ21 Ψ22 Φ21 + Ψ21 Φ22 + Ψ22 Φ11 Φ12 aΦ11 aΦ12 Multiplikation mit Skalar: a = Φ21 Φ22 aΦ21 aΦ22 0 0 Nullvektor: 0 0 −Φ11 −Φ12 Inverses Element: −Φ21 −Φ22 24
Somit sind alle Eigenschaften eines Vektorraumes erfüllt.
Def. 1.3 (lin.Unabhängigkeit) Eine Menge von Vektoren |Φi i i = 1, 2...n heißt linear unabhängig, wenn gilt: n X
αi |Φi i = |0i ⇔ αi ≡ 0
.
(1.9)
i=1
Ansonsten heißt sie linear abhängig. Z.B. sind zwei nicht parallele Vektoren (Pfeile) in der Ebene linear unabhängig. Jeder weitere Vektor hingegen muß dann linear abhängig sein, da er durch Linearkombination der beiden anderen Vektoren aufgespannt werden kann. Die Dimension des Raumes ist lediglich zwei. Das bringt uns zur allgemeinen Definition der Dimension: Def. 1.4 (Dimension) Ein Vektorraum hat die Dimension n, wenn es in ihm maximal n linear unabhängige Vektoren gibt. Notation: V n (R) n-dimensionaler reeller Vektorraum V n (C) n-dimensionaler komplexer Vektorraum Beispiel: Der Vektorraum der 2x2 Matrizen ist 4-dimensional, da 1 0 0 1 0 0 0 0 |Φ1 i = ; |Φ2 i = ; |Φ3 i = ; |Φ4 i = 0 0 0 0 1 0 0 1 offensichtlich linear unabhängig sind und hieraus alle 2x2-Matrizen aufgebaut werden können. Theorem 1.1 Jeder Vektor |Φi in einem n-dimensionalen Vektorraum kann als Linearkombination von n linear unabhängigen Vektoren |Ψi i i = 1, 2..., n geschrieben werden: |Φi =
n X
Φi |Ψi i
(1.10)
i=1
Def. 1.5 (Basis) Eine Menge n linear unabhängiger Vektoren in V n heißt Basis des V n . Def. 1.6 Die Entwicklungskoeffizienten Φi heißen Komponenten des Vektors in der gewählten Basis. 25
Theorem 1.2 Die Entwicklung eines Vektors in einer linear unabhängigen Basis ist eindeutig. |Ψi ist die abstrakte Notation eines Vektors. Erst in einer gewählten Basis nimmt der Vektor seine konkrete Form in Gestalt seiner Komponenten Φi an. Wird die Basis gewechselt, ändern sich die Zahlenwerte, aber die Beziehung der Vektoren untereinander bleibt immer dieselbe. In den Komponenten gelten die altbekannten Regeln für Vektoren: n n P P mit: |Φi = Φi |Ψi i ; |χi = χi |Ψi i i=1
gilt: |Φi + |χi =
n P
i=1
(Φi + χi )|Ψi i
i=1
Beispiel: Ein Vektor ~a erhält erst durch seine Koordinaten (Komponenten) in einem bestimmten Koordinatensystem (=Basis) eine Bedeutung: 2 P a1 ~a = bedeutet ~a = a1 e~x + a2 e~y = ai e~i a2 i=1 Beim Wechseln des Koordinatensystems ändern sich die Zahlenwerte, aber nicht die Beziehungen der Vektoren untereinander (z.B. Winkel). Def. 1.7 (Unterraum) Gegeben sei ein Vektorraum V. Eine Untermenge von V, die selber einen Vektorraum bildet, wird Unterraum genannt. Addition und Multiplikation sind im Unterraum genauso definiert, wie im Vektorraum V.
1.2.2
Das Skalarprodukt
Bisher existiert in dem betrachteten Vektorraum noch keine Definition für die Länge oder Richtung eines Vektors. Wir wollen das nun nachholen. Dazu definieren wir zuerst einmal das innere Produkt oder Skalarprodukt. Def. 1.8 (Skalarprodukt) Das Skalarprodukt ist eine komplexwertige Funktion zweier Vektoren |Φi,|Ψi. Es wird mit hΦ|Ψi gekennzeichnet und hat folgende Eigenschaften: • hΦ|Ψi = hΨ|Φi∗ • hΦ|Φi ≥ 0 ; hΦ|Φi = 0 ⇔ |Φi = |0i 26
• hΦ|aΨ + bχi = hΦ|aΨi + hΦ|bχi = ahΦ|Ψi + bhΦ|χi Das Skalarprodukt ist linear im 2.Argument • haΨ + bχ|Φi = haΨ|Φi + hbχ|Φi = a∗ hΨ|Φi + b∗ hχ|Φi Das Skalarprodukt ist anti-linear im 1.Argument Die vierte Eigenschaft folgt unmittelbar aus den ersten drei Eigenschaften. Es kann leicht überprüft werden, daß das bekannte Skalarprodukt von Vektoren im Rn diese Eigenschaften erfüllt. Mit Hilfe des Skalarprodukts läßt sich nun in Anlehnung an die Bedeutung der Vektoren des Rn eine Norm (Länge) von Vektoren definieren. Def. 1.9 (Norm) Die Norm eines Vektors |Φi ist: kΦk =
p
hΦ|Φi
Ebenso läßt sich die Eigenschaft der Orthogonalität mit Hilfe des Skalarprodukts verallgemeinern. Def. 1.10 (Orthogonalität) Zwei Vektoren |Φi,|Ψi heißen orthogonal, wenn gilt: hΦ|Ψi = 0
Def. 1.11 (Orthonormalbasis) Basisvektoren |Ψi i mit kΨi k = 1 ∀ i und mit hΨi |Ψj i = δij ∀ i,j heißen orthonormal. Eine solche Basis heißt Orthonormalbasis.
Beispiel: Wir betrachten das Skalarprodukt der Vektoren |Φi,|χi in einer Orthonormalbasis |Ψi i. Es sei: hΨi |Ψj i = δij |Φi =
P
i
Φi |Ψi i
|χi =
P
j
χj |Ψj i 27
Dann gilt: ! X
hΦ|χi = h
Φi |Ψi i |
i
! X
χj |Ψj i i
j
! =
X
X
χj h
j
=
X
=
X
hΦ|χi =
X
Φi |Ψi i |Ψj i
i
Φ∗i χj hΨi |Ψj i
i,j
Φ∗i χj δij
i,j
Φ∗i χi
i
In diesem Beispiel wurde eine unübliche Schreibweise verwendet, um die Bedeutung des Skalarprodukts besser hervorzuheben. Das Skalarprodukt ist eine Funktion, die zwei Vektoren eine Zahl zuweist. In dem Beispiel wurden nur Umformungen nach Def.1.8 vorgenommen. Anhand des Rn P wird die letzte Zeile schnell verständlich. Dort bedeutet sie: ~a · ~b = i ai bi Das Skalarprodukt erfüllt zwei wichtige Ungleichungen: Schwarzsche Ungleichung:
|hΦ|Ψi|2
≤ hΦ|ΦihΨ|Ψi = kΦk2 kΨk2 (1.11)
Dreiecksungleichung:
k(Φ + Ψ)k
≤ kΦk + kΨk
(1.12)
Vektorräume können auch ∞-dimensional sein.
Beispiel: f (x) sei eine im Intervall 0 ≤ x ≤ L definierte komplexwertige Funktion. Die Addition und skalare Multiplikation seien definiert mit: (f + g)(x) := f (x) + g(x) (punktweise Addition) (αf )(x) := αf (x) Das Nullelement ist: f (x) ≡ 0 ∀ x ∈ [0, L] Das inverse Element ist: −f (x) Ein mögliches Skalarprodukt zweier solcher Vektoren |fi,|gi ist: Z L hf |gi = f ∗ (x)g(x)dx 0
28
(1.13)
1.2.3 Der Dualraum Zu jedem linearen Vektorraum V existiert ein sogenannter Dualraum linearer Funktionale auf V . Ein Funktional weist jedem Vektor |Ψi einen skalaren Wert zu. Ein lineares Funktional erfüllt zusätzlich: F (a|Φi + b|Ψi) = aF (|Φi) + bF (|Ψi) ∀a, b ∈ C
und ∀|Φi, |Ψi
Ein einfaches Beispiel für ein lineares Funktional ist das Integral. Es weist jedem Vektor f (x) einen Skalar zu und ist linear. Die Menge aller linearen Funktionale bildet einen linearen Vektorraum V 0 (den Dualraum), wenn wir definieren: (F1 + F2 )(|Φi) = F1 (|Φi) + F2 (|Φi) Das folgende Theorem setzt nun den Vektorraum und den dazugehörigen Dualraum in eine eindeutige Beziehung zueinander: Theorem 1.3 (RIESZsches Theorem) V und V 0 sind isomorph. D.h. es gibt eine eineindeutige Beziehung zwischen den linearen Funktionalen F in V 0 und den Vektoren |ϕi in V . Alle linearen Funktionale haben die Form F (|Φi) = hϕ|Φi, wobei |ϕi ein fester Vektor und |Φi ein beliebiger Vektor ist. Das Funktional F läßt sich deswegen als hϕ| schreiben! In anderen Worten besagt das Rieszsche Theorem also, daß sich jedes lineare Funktional des Dualraumes als Skalarprodukt mit einem bestimmten Vektor aus V darstellen läßt. Dies begründet die suggestive DIRACsche Schreibweise des Skalarprodukts hΦ|Ψi als Kombination eine Vektors hΦ| ∈ V 0 mit einem Vektor |Ψi ∈ V . Wegen des englischen Wortes bracket für die Klammer hΦ|Φi werden hΦ| Bra-Vektoren und |Φi Ket-Vektoren genannt. Das Theorem 1.3 führt zu einer anti-linearen Beziehung: Wenn: hΦ| ⇔ |Φi Dann gilt: c|Φi ⇔ c∗ hΦ|
(1.14)
1.2.4 Entwicklung in einer Orthonormalbasis Wir gehen von der Darstellung des Vektors |Φi in der Basis |Ψi i gemäß Theorem 1.1 aus: |Φi =
n X
Φi |Ψi i
i=1
29
Jetzt multiplizieren wir die Gleichung von links mit hΨj | und erhalten so eine Formel zur Berechnung der Entwicklungskoeffizienten: ! n n n X X X hΨj |Φi = hΨj | Φi |Ψi i = Φi hΨj |Ψi i = Φi δij = Φj i=1
i=1
i=1
Φi = hΨi |Φi
1.2.5
(1.15)
Folgen und Konvergenz
Aus der Norm kΦk läßt sich ein Abstandsbegriff zweier Vektoren |Ψi und |Φi und eine Metrik im Vektorraum definieren: Def. 1.12 (Abstand) Der Abstand zweier Vektoren |Ψi, |Φi ist definiert durch: d(Φ, Ψ) := kΦ − Ψk
(1.16)
Diese Abstandsdefinition erfüllt die notwendigen Bedingungen einer Metrik: 1. d(Φ, Ψ) ≥ 0 ; d(Φ, Ψ) = 0 ⇔ |Ψi = |Φi 2. d(Φ, Ψ) ≤ d(Φ, χ) + d(χ, Ψ)
∀ χ ∈ V (Dreiecksungleichung)
3. d(Φ, Ψ) = d(Ψ, Φ) Mit Hilfe des Abstandsbegriffes ist es erst möglich, über die Konvergenz von Folgen zu sprechen. Def. 1.13 (konvergente Folge) Eine Folge |Φn i mit |Φn i ∈ V , n ∈ N heißt konvergent, wenn gilt: • ∃|Φi ∈ V mit • lim d(Φn , Φ) → 0 n→∞
• |Φi ist eindeutig Def. 1.14 (Cauchy-Folge) Im Gegensatz dazu muß eine Cauchyfolge kein Grenzelement in V haben. Es muß aber gelten, daß d(Φm , Φn ) → 0 für m, n → ∞. Bzw.: Für jedes > 0 existiert ein N mit d(Φm , Φn ) < ∀n, m > N
Die Tatsache, daß der Abstand zwischen den Vektoren einer Cauchy-Folge gegen Null geht, heißt noch nicht, daß das Grenzelement existiert. Z.B. ist (1 + na )n eine Cauchy-Folge im Raum der rationalen Zahlen; das Grenzelement ea existiert aber nicht in diesem Raum. 30
1.3
Lineare Operatoren
Ein Operator Aˆ bildet Vektoren auf Vektoren ab. ˆ D.h. Wenn |Φi ein Vektor ist, ist auch |Ψi := A|Φi ein Vektor. Ein Operator ist vollständig und ausschließlich durch seine Wirkung auf alle |Φi ∈ V (bzw. alle Vektoren seines Definitionsbereiches) definiert. Da wir es in der Quantenmechanik nur mit linearen Operatoren zu tun haben werden, werden wir sie in Zukunft einfach als Operatoren bezeichnen. Wir notieren Operatoren mit einem ˆ. Def. 1.15 (linearer Operator) Ein linearer Operator erfüllt ˆ 1 i + bA|Φ ˆ 2i Aˆ (a|Φ1 i + b|Φ2 i) = aA|Φ
(1.17)
Es genügt somit, die Wirkung eines Operators auf einen Satz von Basisvektoren zu kennen, da jeder beliebige Vektor als Linearkombination geschrieben werden kann. ˆ bedeutet, daß A|Φi ˆ ˆ Die Identität zweier Operatoren (Aˆ = B) = B|Φi für alle Vektoren aus dem gemeinsamen Definitionsbereich gilt.
Def. 1.16 Wir definieren weiter ˆ ˆ ˆ (Aˆ + B)|Φi = A|Φi + B|Φi ˆ ˆ B|Φi) ˆ AˆB|Φi = A(
(1.18) (1.19)
1.3.1 Der Kommutator ˆB ˆ C) ˆ = (AˆB) ˆ Cˆ Die Operator-Multiplikation ist assoziativ A( ˆ 6= B ˆ Aˆ aber im allgemeinen nicht kommutativ AˆB Deswegen definieren wir die folgende, in der Quantenmechanik wesentliche, Größe ˆ B ˆ ist defiDef. 1.17 (Kommutator) Der Kommutator zweier Operatoren A, niert als h i ˆ B ˆ := AˆB ˆ −B ˆ Aˆ A, (1.20) Eine Eigenschaft von Kommutatoren ist für praktische Rechnungen sehr nützlich 31
ˆ C] ˆ = A[ ˆ B, ˆ C] ˆ + [A, ˆ C] ˆB ˆ [AˆB,
(1.21)
,
ˆ B ˆ und Cˆ beliebige Operatoren sind. wobei A, Beweis von Gl. (1.21): ˆ C] ˆ = [AˆB, = = =
ˆ Cˆ − Cˆ AˆB ˆ AˆB ˆ Cˆ − AˆCˆ B ˆ + AˆCˆ B ˆ − Cˆ AˆB ˆ AˆB ˆB ˆ Cˆ − Cˆ B) ˆ + (AˆCˆ − Cˆ A) ˆB ˆ A( ˆ B, ˆ C] ˆ + [A, ˆ C] ˆB ˆ A[
ˆ −1 eines Operators O ˆ ist definiert Def. 1.18 (Inverser Operator) Das Inverse O als ˆO ˆ −1 = O ˆ −1 O ˆ = 1ˆ1 O (1.22) Es existiert keineswegs immer das Inverse eines Operators! Es kann auch passieren, daß kein Inverses bzw. nur das Rechts- oder Linksinverse eines Operators existiert. Weiter gilt ˆ · · · Z) ˆ −1 = Zˆ −1 · · · B ˆ −1 Aˆ−1 (AˆB (1.23)
Beispiele für Operatoren 1. Operatoren in Funktionenräumen sind oft Differential- oder Integraloperatoren. Z.B. können wir im Raum der differenzierbaren Funktionen definieren ˆ := d ˆ (x) := df D also: Df dx dx ˆ ˆ X := x also: Xf(x) := xf(x) Damit wird ˆX ˆ = 1ˆ1 + X ˆD ˆ D Denn ˆ Xf ˆ (x) D
d d = (xf(x) ) = f(x) + x f(x) = dx dx 32
d 1ˆ1 + x dx
f(x)
Man erkennt nun h
i ˆ X ˆ =D ˆX ˆ −X ˆD ˆ = 1ˆ1 D,
(1.24)
2. Eine wichtige Darstellung des Einheitsoperators 1ˆ1 läßt sich finden, wenn man die Entwicklung von Vektoren in einer Basis genauer betrachtet. Es wurde bereits gezeigt, daß sich ein Vektor in einer Basis darstellen läßt durch n X |Φi = Φi |Ψi i i=1
und daß die Entwicklungskoeffizienten berechnet werden mit Φi = hΨi |Φi Es ergibt sich damit durch Einsetzen |Φi =
n X
hΨi |Φi |Ψi i =
i=1
n X
|Ψi ihΨi |Φi =
i=1
n X
|Ψi ihΨi | |Φi
i=1
Der letzte Schritt ist wegen des eingeführten Dualraumes möglich, denn das Skalarprodukt läßt sich als eine Abbildungsvorschrift auf Vektoren |Φi deuten, die mit dem Bra-Vektor hΨi | bezeichnet wird. Ein Vergleich der linken und rechten Seite ergibt schließlich 1ˆ1 =
n X
|Ψi ihΨi |
(1.25)
i=1
Das Ergebnis ist für jede beliebige, orthonormale Basis gültig. Jeder Operator in einem n-dimensionalen Vektorraum kann als eine n × nMatrix dargestellt werden. Es sei n n X X |Φi = Φi |Ψi i ; |χi = χi |Ψi i ; hΨi |Ψj i = δij i=1
i=1
ˆ |Φi = |χi M n n X X ˆ M Φi |Ψi i = χi |Ψi i i=1 n X
i=1 n X
i=1
i=1
ˆ |Ψi i = Φi M 33
χi |Ψi i
Multiplizieren von links mit hΨj | liefert hΨj |
n X
ˆ |Ψi i = hΨj | Φi M
n X
i=1 n X
χi |Ψi i
i=1
ˆ |Ψi i = Φi hΨj |M
i=1
n X
χi hΨj |Ψi i =
i=1
n X
χi δji = χj
i=1
ˆ |Ψi i mit Mji so läßt sich die GleiBezeichnet man das Matrixelement hΨj |M chung in der Basis |Ψi i schreiben als X ~ χi = Mij Φj bzw. χ ~ = MΦ j
Dasselbe kann für ∞-dimensionale Vektorräume gemacht werden. Wir müssen hierbei jedoch auf die Konvergenz von unendlichen Summen achten, deshalb wird dieser Punkt erst später diskutiert.
1.3.2
Adjungierter Operator
Wir wissen bereits, wie ein Operator nach rechts wirkt (nämlich gemäß seiner Definition). Wir wollen nun auch eine Wirkung des Operators nach links definieren. Diese definiert sich über ! ˆ hΦ|Aˆ |Ψi = hΦ| A|Ψi ˆ Wenn wir nun A|Ψi = |ωi nennen, so existiert der dazugehörige Bra† Vektor hω| = hΨ|Aˆ . Dieser definiert den adjungierten Operator Aˆ† . Ein Beweis für die Existenz und Eindeutigkeit des adjungierten Operators findet sich in diversen Lehrbüchern. Eine äquivalente Definition ist Def. 1.19 (adjungierter Operator) Der adjungierte Operator Aˆ† ist definiert durch ˆ hχ|A|Ψi = hχ|ωi = hω|χi∗ = hΨ|Aˆ† |χi∗ (1.26) Aus dieser Definition folgen unmittelbar folgende Rechenregeln ˆ † = c∗ Aˆ† (cA) ˆ † = Aˆ† + B ˆ† = B ˆ † + Aˆ† (Aˆ + B) ˆ · · · Z) ˆ † = Zˆ † · · · B ˆ † Aˆ† (AˆB 34
(1.27)
Beispiel: Als Übung beweisen wir die letzte dieser Gleichungen. ˜ hΨ|
z }| { † ˆ ˆ ˆ ∗ hΦ|(AB) |Ψi = hΨ|Aˆ B|Φi ˜ B|Φi ˆ ∗ = hΦ|B ˆ † |Ψi ˜ = hΦ|B ˆ † Aˆ† |Ψi = hΨ| ˜ := hΨ|Aˆ definiert und daraus auf |Ψi ˜ = Als Zwischenschritt wurde hΨ| Aˆ† |Ψi geschlossen. Neben dem inneren Produkt, das zwei Vektoren in einen Skalar abbildet, gibt es auch das äußere Produkt, das zwei Vektoren auf einen Operator abbildet. Def. 1.20 (äußeres Produkt) Das äußere Produkt zweier Vektoren |Ψi, |Φi ist definiert als |ΨihΦ| . (1.28) Es besitzt die Eigenschaft |ΨihΦ| = (|ΦihΨ|)†
(1.29)
Die Wirkung dieses Operators auf einen Vektor |χi ist |ΨihΦ| |χi = |Ψi hΦ|χi
1.3.3
Der Projektionsoperator
Def. 1.21 (Projektionsoperator) Ein Projektionsoperator ist definiert über die Eigenschaft Pˆ 2 = Pˆ (Idempotenz). Wir beweisen leicht, daß Pˆ := |Ψi ihΨi | ein Projektionsoperator ist, wenn kΨi k = 1 gilt. 2 Pˆi = |Ψi ihΨi | · |Ψi ihΨi | = |Ψi i hΨi |Ψi i hΨi | = |Ψi ihΨi | = Pˆi
Der Einheitsoperator Gl. (1.25) ist ebenfalls ein Projektionsoperator, denn 2 es gilt 1ˆ1 = 1ˆ1 L P Auch Pˆ = |Ψi ihΨi | mit hΨi |Ψj i = δij ist ein Projektionsoperator. Er i=1
35
projiziert in den Unterraum, der durch die Vektoren |Ψi i (i = 1, . . . , L) aufgespannt wird. Pˆ 2 =
L X
|Ψi ihΨi ||Ψj ihΨj | =
i,j=1
L X
|Ψi iδij hΨj | =
i,j=1
L X
|Ψi ihΨi | = Pˆ
i=1
Die Wirkung des Projektionsoperators wird durch folgendes Beispiel veranschaulicht. Beispiel: Betrachte |Φi in einem n-dimensionalen Vektorraum mit der Basis |Ψi i n X |Φi = Φi |Ψi i i=1
Nun wird folgender Projektionsoperator angewandt Pˆ =
L X
|Ψj ihΨj |
L≤n
j=1
Pˆ |Φi =
=
n X
L X
Φi
i=1
j=1
n X
L X
Φi
i=1
=
n X i=1
=
L X
! |Ψj ihΨj | |Ψi i ! |Ψj ihΨj |Ψi i
j=1
Φi
L X
|Ψj iδij
j=1
Φj |Ψj i
j=1
Es wird also der Anteil der orthonormalen Vektoren herausprojiziert, der in Pˆ enthalten ist. Die Abbildung 1.1 veranschaulicht den Sachverhalt für Vektoren des R3 .
1.3.4
Die Spur eines Operators
Def. 1.22 (Spur) Die Spur eines Operators ist definiert als n X ˆ := ˆ ii Sp(A) hΨi |A|Ψ i=1
36
Abbildung 1.1: Projektion auf einen Unterraum
Hierbei ist |Ψi i eine beliebige Orthonormalbasis. Theorem 1.4 Die Spur eines Operators ist in jeder Basis gleich. Beweis: alte Orthonormalbasis: neue Orthonormalbasis: X
|Ψi i |Φi i
ˆ ii = hΨi |A|Ψ
X
=
X
=
X
=
X
=
X
i
X ˆ hΨi |A |Φj ihΦj | |Ψi i
i
j
ˆ j i hΦj |Ψi i hΨi |A|Φ
i,j
ˆ ji hΦj |Ψi i hΨi |A|Φ
i,j
X ˆ ji hΦj | |Ψi ihΨi | A|Φ
j
i
ˆ ji hΦj |A|Φ
j
Theorem 1.5 Die Spur ist invariant bezüglich zyklischer Vertauschung. ˆ Cˆ · · · Z) ˆ = Sp(B ˆ Cˆ · · · Zˆ A) ˆ = Sp(Cˆ · · · Zˆ AˆB) ˆ Sp(AˆB
37
(1.30)
Beweis:
ˆ Cˆ · · · ) Sp(AˆB
=
X
ˆ Cˆ · · · |Ψi i = hΨi |AˆB
i
=
X
=
X
=
X
i
X
ˆ Cˆ · · · |Ψi i hΨi |Aˆ1ˆ1B
!i hΨi |Aˆ
X
ˆ Cˆ · · · |Ψi i |Ψj ihΨj | B
j
ˆ j ihΨj |B ˆ Cˆ · · · |Ψi i hΨi |A|Ψ
i,j
ˆ Cˆ · · · |Ψi ihΨi |A|Ψ ˆ ji hΨj |B
i,j
! =
X
=
X
ˆ Cˆ · · · hΨj |B
j
ˆ ii |Ψi ihΨi | A|Ψ
i
ˆ Cˆ · · · 1ˆ1A|Ψ ˆ ii = hΨj |B
j
ˆ Cˆ · · · ) Sp(AˆB
X
X j
ˆ Cˆ · · · A) ˆ = Sp(B etc
38
ˆ Cˆ · · · A|Ψ ˆ ii hΨj |B
1.3.5 Selbstadjungierte Operatoren Def. 1.23 (hermitesche Operatoren) Ein Operator, der gleich seinem adjungierten Operator ist, heißt hermitesch. Es gilt also Aˆ = Aˆ† ∗ ˆ ˆ d.h.: hΦ|A|Ψi = hΨ|A|Φi
∀ |Φi, |Ψi ∈ V
Für hermitesche Matrizen gilt Mij = Mji∗ ˆ für Def. 1.24 (selbstadjungierte Operatoren) Ein hermitescher Operator A, den der Definitionsbereich von Aˆ mit dem Definitionsbereich von Aˆ† übereinstimmt, heißt selbstadjungiert. Der Definitionsbereich ist die Menge der Vektoren ˆ {|Ψi}, für die A|Ψi definiert ist. Der Unterschied zwischen hermiteschen und selbstadjungierten Operatoren wird nur in ∞-dimensionalen Räumen wichtig. Wir werden im folgenden daher immer den Begriff hermitesch verwenden, und auf den feinen Unterschied verweisen, wenn es nötig ist. Theorem 1.6 Bereits die Diagonalterme eines Operators legen die Hermitezität fest. Wenn Dann gilt
ˆ ˆ ∗ hΨ|A|Ψi = hΨ|A|Ψi Aˆ = Aˆ†
∀ |Ψi ∈ V
Beweis: Betrachte |Ψi = a|Φ1 i + b|Φ2 i a, b ∈ C ˆ ˆ 1 i + |b|2 hΦ2 |A|Φ ˆ 2 i + a∗ bhΦ1 |A|Φ ˆ 2 i + ab∗ hΦ2 |A|Φ ˆ 1i hΨ|A|Ψi = |a|2 hΦ1 |A|Φ | {z } | {z } | {z } | {z } T1
T2
T3
T4
ˆ ˆ ∗ ⇒ hΨ|A|Ψi ˆ hΨ|A|Ψi = hΨ|A|Ψi ∈R 2 2 ˆ j i ∈ R ⇒ T1 , T2 ∈ R |a| , |b| ∈ R ; hΦj |A|Φ ⇒ T3 + T4 ∈ R Da die obige Gleichung für beliebige |Ψi ∈ V gilt, sollte sie insbesondere für (a = 1, b = 1) und (a = 1, b = i) gelten 1. a = b = 1 : ˆ 2 i + hΦ2 |A|Φ ˆ 1 i =! hΦ1 |A|Φ ˆ 2 i∗ + hΦ2 |A|Φ ˆ 1 i∗ ⇒ hΦ1 |A|Φ 39
(1.31)
2. a = 1 b = i : ˆ 2 i − hΦ2 |A|Φ ˆ 1 i =! −i hΦ1 |A|Φ ˆ 2 i∗ − hΦ2 |A|Φ ˆ 1 i∗ ⇒ i hΦ1 |A|Φ !
ˆ 2 i − hΦ2 |A|Φ ˆ 1 i = hΦ2 |A|Φ ˆ 1 i∗ − hΦ1 |A|Φ ˆ 2 i∗ (1.32) hΦ1 |A|Φ ˆ 2 i = hΦ2 |A|Φ ˆ 1 i∗ . Addition von Gl. (1.31) und Gl. (1.32) liefert hΦ1 |A|Φ Die bemerkenswerte Tatsache, daß aus der Annahme der Spezialfälle für die Diagonalelemente der Allgemeinfall folgt, liegt daran, daß komplexwertige Skalare verwendet wurden. Im rein Reellen geht das nicht. Def. 1.25 (anti-hermitesche Operatoren) Ein Operator heißt anti-hermitesch, wenn Aˆ = −Aˆ†
.
Ein wichtiges Beispiel eines anti-hermiteschen Operators ist der Kommuˆ B] ˆ zweier hermitescher Operatoren Aˆ und B ˆ tator [A, ˆ B] ˆ † = (AˆB) ˆ † − (B ˆ A) ˆ †=B ˆ † Aˆ† − Aˆ† B ˆ† = B ˆ Aˆ − AˆB ˆ = −[A, ˆ B] ˆ . (1.33) [A,
1.3.6
Unitäre Operatoren
Def. 1.26 (unitäre Operatoren) Ein Operator Uˆ heißt unitär, wenn Uˆ † Uˆ = 1ˆ1 = Uˆ Uˆ †
Eine wichtige Eigenschaft unitärer Operatoren ist Uˆ Φ = kΦk Unitäre Transformationen entsprechen Drehungen oder Spiegelungen. Sie bilden Basistransformationen von einer Orthonormalbasis zu einer neuen Orthonormalbasis, denn alte Orthonormalbasis: neue Orthonormalbasis:
|Ψi i ˜ ii Uˆ |Ψi i = |Ψ ˜ i |Ψ ˜ j i = hΨi | Uˆ † Uˆ |Ψj i = hΨi |Ψj i = δij ⇒ hΨ |{z} =1ˆ1
40
Die Spur eines Operators ist invariant gegenüber unitären Transformationen, denn es gilt ˆ Sp(Uˆ † AˆUˆ ) = Sp(AˆUˆ Uˆ † ) = Sp(Aˆ1ˆ1) = Sp(A) Bemerkung: Für hermitesche, anti-hermitesche und unitäre Operatoren läßt sich eine Analogie zu den komplexen Zahlen herstellen: Ein hermitescher Operator entspricht einer reellen Zahl, ein antihermitescher Operator einer rein imaginären Zahl, und ein unitärer Operator entspricht einer komplexen Zahl auf dem Einheitskreis (eiϕ ).
1.3.7 Aktive und passive Transformationen Wir unterwerfen alle Vektoren |Ψi i eines Vektorraumes einer unitären Transformation U |Ψi → U |Ψi . Bei dieser Transformation modifizieren sich die Matrixelemente eines Operators Aˆ wie folgt ˆ j i → hΨi |Uˆ † Aˆ Uˆ |Ψj i hΨi |A|Ψ
.
Das heißt, wir erhalten dasselbe Ergebnis, wenn wir die Vektoren nicht verändern und dafür alle Operatoren gemäß Aˆ → Uˆ † Aˆ Uˆ transformieren. Den ersten Fall nennt man eine AKTIVE T RANSFORMATION und den zweiten eine PASSIVE T RANSFORMATION. Diese Bezeichnung ist in Bezug auf die Vektoren zu sehen, je nachdem ob an ihnen aktiv etwas getan wird oder eben passiv.
41
1.4
Eigenwertprobleme
Eigenwertprobleme spielen in der Quantenmechanik eine Schlüsselrolle. Sie sagen z.B. aus, welche Werte bei einer Messung überhaupt beobachtet werden können.
1.4.1
Das Eigenwertproblem
Def. 1.27 (Eigenwert, -vektor) Wenn für einen Operator Aˆ und einen Vektor |Φi aus V, der nicht der Nullvektor ist, gilt ˆ A|Φi = a|Φi mit a ∈ C
,
dann nennt man |Φi Eigenvektor von Aˆ zum Eigenwert a. Aus der antilinearen Beziehung zwischen Bra- und Ket-Vektoren (1.14) und der Definition des adjungierten Operators (1.26) folgt: hΦ|Aˆ† = a∗ hΦ|
Theorem 1.7 Für hermitesche Operatoren gilt: a) Hermitesche Operatoren haben nur reelle Eigenwerte. b) Eigenvektoren zu unterschiedlichen Eigenwerten sind orthogonal. c) Eigenvektoren zu gleichen (entarteten) Eigenwerten können immer orthogonal gewählt werden. d) Die Eigenvektoren eines hermiteschen Operators in einem abzählbaren Vektorraum bilden eine vollständige Basis (vollständigen Satz von Eigenzuständen). Beweis: a) Für hermitesche Operatoren gilt: ˆ hΦ|A|Φi hΦ|a|Φi ahΦ|Φi a 42
= = = =
ˆ ∗ hΦ|A|Φi hΦ|a|Φi∗ a∗ hΦ|Φi a∗
b) Betrachte zwei Eigenvektoren |Φ1 i, |Φ2 i von Aˆ mit den Eigenwerten a1 , a2 : ˆ 1 i = a1 |Φ1 i A|Φ ˆ 2 i = a2 |Φ2 i A|Φ
.
Da Aˆ hermitesch ist, gilt: ˆ 2i hΦ1 |A|Φ hΦ1 |a2 |Φ2 i a2 hΦ1 |Φ2 i a2 hΦ1 |Φ2 i
= = = =
ˆ 1 i∗ hΦ2 |A|Φ hΦ2 |a1 |Φ1 i∗ a∗1 hΦ2 |Φ1 i∗ a1 hΦ1 |Φ2 i
.
Für a1 6= a2 folgt: hΦ1 |Φ2 i = 0, Zustände zu verschiedenen Eigenwerten sind orthogonal. c) Wir betrachten nun den Fall der Entartung. O.B.d.A. können wir die Zustände umnumerieren, so daß die ersten L Eigenwerte entartet sind a1 = a2 = · · · = aL = a. Jede Linearkombination der Eigenvektoren |Φ1 i · · · |ΦL i ist ebenfalls Eigenvektor von Aˆ zum Eigenwert a: |Ψi =
L X
ci |Φi i
i=1
ˆ A|Ψi = Aˆ
L X i=1
ci |Φi i =
L X
ˆ ii = ci A|Φ
i=1
L X i=1
ci a|Φi i = a
L X
ci |Φi i = a|Ψi
i=1
Linear unabhängige Vektoren (|Φ1 i · · · |ΦL i) lassen sich aber immer orthogonalisieren! Wir können also in dem Unterraum orthogonale Zustände konstruieren. Vorausgesetzt, die Zustände haben eine endliche Norm, so können sie auch auf eins normiert werden. In dem Fall können wir immer eine Orthonormalbasis aufstellen. d) Es wird häufig stillschweigend angenommen, daß die Eigenzustände eines hermiteschen Operators eine vollständige Basis bilden, d.h. den Raum vollständig aufspannen. Das ist nicht notwendig der Fall und muß noch separat untersucht werden. Für endlich-dimensionale Vektorräume kann das in der Tat gezeigt werden. Für ∞-dimensionale Vektorräume ist das nicht immer der Fall, wie wir später sehen werden. 43
Abbildung 1.2: Orthonormierung nach Gram-Schmidt
1.4.2
Zwei Orthogonalisierungsverfahren
Im Nachfolgenden bezeichnet ˆ orthonormierte Vektoren. 1. Das Verfahren nach Gram-Schmidt Bei diesem iterativen Verfahren wird zuerst ein Vektor normiert. Dann wird von einem zweiten Vektor die Komponente in Richtung des ersten abgezogen, und das Ergebnis wird ebenfalls normiert. Vom nächsten Vektor werden alle Komponenten in die bereits normierten Richtungen abgezogen, bevor normiert wird. Das Verfahren wird durchgeführt, bis alle Vektoren orthonormiert sind. Abbildung 1 veranschaulicht das Verfahren. ˆ 1i = |Φ
|Φ1 i kΦ1 k
˜ n i = |Φn i − n > 1 : |Φ
n−1 X
ˆ i ihΦ ˆ i |Φn i |Φ
i=1
˜ ˆ n i = |Φn i |Φ
˜
Φn ˆ n i⊥|Φ ˆ j i, was wir mittels vollständiger Induktion Für alle j < n gilt |Φ 44
beweisen wollen: Induktionsanfang:
ˆ 1 |Φ ˆ 2 i = hΦ ˆ 1 |Φ2 i − hΦ ˆ 1 |Φ ˆ 1 ihΦ ˆ 1 |Φ2 i 1 = 0 hΦ
˜ | {z }
Φ2 =1 Induktionsannahme: ˆ j |Φ ˆ i i = δji ∀ j, i ≤ n hΦ Induktionsschluß (j ≤ n):
n X
1 ˆ j |Φ ˆ i ihΦ ˆ i |Φn+1 i
hΦ
| {z } ˜
Φn+1 i=1 δij ˆ j |Φn+1 i − hΦ ˆ j |Φn+1 i 1 = 0 = hΦ
˜
Φn+1
ˆ j |Φ ˆ n+1 i = ˆ j |Φn+1 i − hΦ hΦ
ˆ j |Φ ˆ m i = δjm ∀ j, m ≤ n + 1 ⇒ hΦ 2. Löwdin-Orthogonalisierung Dieses in der Quantenchemie oft eingesetzte Verfahren kann in vielen Fällen besonders nützlich sein. Wir definieren die Überlapp-Matrix: Sij = hΦi |Φj i, mit der man orthonormierte Vektoren über die lineare Transformation n X − 12 ˆ |Φi i (1.34) |Φl i = S li
i=1
erhält. Beweis: ˆ l |Φ ˆ l0 i = hΦ
X
S
− 21
X
1
S− 2
X
1
S− 2
i,j
=
l0j
1
S− 2
l0j
l0j
ji
S− 2 · S · S− 2 − 12
ji
1 S S− 2 1
1
hΦi |Φj i
S
il
i,j
=
S
− 12
li
i,j
=
∗
l0 l
il
= 1ˆ1 l0 l = δl0 l
Es wurde ausgenutzt, daß S hermitesch ist, da S diese Eigenschaft hat. Natürlich darf S keinen Eigenwert Null besitzen, da sonst die Inverse nicht existiert. Das ist dann und nur dann erfüllt, wenn die ursprünglichen Vektoren linear unabhängig sind. Anderenfalls spannen die ursprünglichen Vektoren nicht den ganzen Raum auf und 45
es kann aus ihnen dann auch keine vollständige Orthonormalbasis konstruiert werden. Beispiel: Wir betrachten eines beliebigen hermiteschen das Eigenwertproblem ˆ Operators Aˆ A|Ψi = E|Ψi in einer nicht orthogonalen Basis |Φi i. P Der Eigenvektor läßt sich in dieser Basis schreiben als: |Ψi = ci |Φi i i
Aˆ
X
ci |Φi i =
i
X
ˆ ii = E ci A|Φ
i
hΦj |
X
X
ˆ i i = hΦj | E ci A|Φ
i
X i
ci |Φi i
i
X
ci |Φi i
i
ˆ i = E ci hΦj |A|Φ | {z i} Aji
X i
ci hΦj |Φi i | {z } Sji
In einer nicht orthogonalen Basis erhalten wir also das verallgemeinerte Eigenwertproblem: A~c = ES~c ˆ so Verwenden wir statt dessen die Löwdin-orthogonalisierte Basis Φ erhalten wir 1 1 S − 2 AS − 2 · ~c˜ = E~c˜ Abschließende Bemerkung: Das Theorem 1.7 gilt nur für hermitesche Operatoren! Es kann im allgemeinen passieren, daß die Säkulargleichung det(H − λ1) in λ eine n-fache Wurzel (Eigenwert) besitzt, aber der Entartungsgrad dieses Eigenwertes nur m < n ist. Wir wollen diese beiden Punkte am Beispiel der 2×2-Matrix 0 1 2 0 studieren. Um das Eigenwertproblem der Matrix zu lösen, benötigen wir die Nullstellen des charakteristischen Polynoms (Säkulargleichung): −λ 1 2 2 ! 2 −λ = λ − = 0 Eigenwerte: λ = ± 1 Eigenvektoren: ± 46
Abbildung 1.3: Eigenvektoren zu > 0 (a) und = 0 (b)
Im Grenzfall → 0 geht die Matrix über in 0 1 . 0 0 Das charakteristische Polynom hat einezweifache Nullstelle bei λ = 0. Es 1 existiert aber nur noch ein Eigenvektor . 0
1.4.3 Spektraltheorem Wir werden uns in diesem Abschnitt ausführlich mit vollständigen Basissystemen und deren Nutzen auseinandersetzen. Zunächst werden wir uns mit endlichen Vektorräumen beschäftigen. Die Erweiterung auf ∞dimensionale (abzählbare, bzw. überabzählbare) Vektorräume werden wir im Anschluß diskutieren. Wir wissen bereits, daß in endlichen Vektorräumen vollständige, orthonormale Basissysteme existieren {|Ψi i}, die es erlauben, den Einheitsoperator Gl. (1.25) wie folgt auszudrücken 1ˆ1 =
n X
|Ψi ihΨi |
.
(1.35)
i=1
Jeder hermitesche Operator Aˆ kann außerdem über seine Eigenwerte und Eigenvektoren ˆ i i = ai |Ψi i A|Ψ
,
die eine vollständige Orthonormalbasis bilden, in der S PEKTRALDARSTEL LUNG ausgedrückt werden: Aˆ =
n X
ai |Ψi ihΨi |
i=1
47
(1.36)
Beweis: P P Aˆ = 1ˆ1Aˆ1ˆ1 = |Ψi ihΨi | Aˆ |Ψj ihΨj | i
=
j
P i,j
ˆ ihΨ | |Ψi ihΨi | A|Ψ | {z j} j aj |Ψj i
=
P i,j
aj |Ψi i hΨi |Ψj ihΨj | | {z } δij
=
n X
ai |Ψi ihΨi |
i=1
Funktionen von Operatoren Wir wollen nun zu den hermiteschen Operatoren auch Funktionen dieser Operatoren einführen. Die Bedeutung der Operatorfunktion Aˆn n ∈ N ist sofort einsichtig und bedarf keiner weiteren Definition. Es ist die mehrfache Anwendung des Operators Aˆ (AˆAˆ · · · ). Es muß jedoch erst definiert werden, was man unter einer Funktion eines Operators versteht. Jede analytische Funktion einer komplexen Variablen ∞ P x läßt sich als Potenzreihe schreiben: ci xi . Man erweitert nun die Wiri=0
kung dieser Funktionen auf Operatoren mit der naheliegenden Definition: Def. 1.28 (Funktion eines Operators) ˆ = f (A)
∞ X
ci Aˆi
(1.37)
i=0
Die ci übernimmt man aus der Reihenentwicklung der Funktion f (x) für x ∈ C. Diese Definition ist für praktische Rechnungen weniger geeignet als die S PEKTRALDARSTELLUNG, die wir nun ableiten werden. Für ganzzahlige Potenzen gilt: n X m ˆ am (1.38) A = j |aj ihaj | j=1
Beweis: Vollständige Induktion Induktionsanfang (m = 0): Induktionsannahme:
Aˆ0 Aˆm
= =
1ˆ1 n P j=1
48
am j |aj ihaj |
∀m ≤ M
AˆM +1 = AˆM Aˆ =
n X
haj |Aˆ | {z }
aM j |aj i
j=1
=
n X
+1 aM |aj ihaj | j
j=1
haj |a∗j =haj |aj
q.e.d. Mit Gl. (1.37) und 1.38 ergibt sich für Operator-Funktionen: ! ∞ n ∞ ∞ n X X X X X ˆ = f (A) ci Aˆi = ci ai |aj ihaj | = ci ai |aj ihaj | j
i=0
i=0
j
j=1
j=1
i=0
|
ˆ = f (A)
n X
{z
f (aj )
}
f (ai )|ai ihai |
(1.39)
i=1
Wenn wir Gl. (1.39) als Definition der Funktion eines Operators verwenden, können wir auch nichtanalytische Funktionen f zulassen. Wir fassen die Ergebnisse für Operatoren in abzählbaren Vektorräumen zusammen: S PEKTRALDARSTELLUNG IN ABZÄHLBAREN V EKTORRÄUMEN
1ˆ1 =
X
Aˆ =
X
|ϕi ihϕi |
(1.40a)
ai |ϕi ihϕi |
(1.40b)
f (ai ) |ϕi ihϕi |
(1.40c)
i
i
ˆ = f (A)
X i
Die Gleichung (1.40c) enthält die beiden anderen Gleichungen als Spezialfälle. Allerdings folgen die Gleichungen (1.40a) und (1.40b) aus den elementaren Eigenschaften der linearen Vektorräume, wohingegen Gl. (1.40c) eine weitere Definition zugrunde liegt. Aus Gl. (1.37) leitet man leicht das Verhalten von Funktionen bei Transformationen ˆ Uˆ f (Uˆ † AˆUˆ ) = Uˆ † f (A) 49
(1.41)
mit einem unitären Operator Uˆ ab. Nicht nur in der Q.M. sondern auch in anderen Gebieten spielen Funktionen von Matrizen eine wichtige Rolle. Deshalb soll die Spektraldarstellung für Matrizen explizit untersucht werden. Wir betrachten die Darstellung der Operatoren in einer Orthonormalbasis {|Φi i}.
ˆ ji = hΦi |f (A)|Φ
∞ X
cν hΦi |Aˆν |Φj i
ν=0
hΦi |1ˆ1|Φj i = hΦi |Φj i = δij ˆ j i = Aij hΦi |A|Φ ˆ j i = hΦi |Aˆ1ˆ1A|Φ ˆ j i = hΦi |Aˆ hΦi |AˆA|Φ
n X
ˆ ji |Φl ihΦl |A|Φ
l=1
=
n X
ˆ l ihΦl |A|Φ ˆ ji = hΦi |A|Φ
n X
Ail Alj = (AA)ij = (A2 )ij
l=1
l=1
.. . hΦi |Aˆν |Φj i = (Aν )ij ˆ j i = (f (A)) hΦi |f (A)|Φ
ij
ˆ
z.B.: hΦi |eiA |Φj i =
eiA
ij
In der Regel ist es das einfachste, Funktionen von Matrizen über
ˆ j i = hΦi | hΦi |f (A)|Φ
n X
! f (aν )|aν ihaν | |Φj i =
ν=1
n X ν=1
zu berechnen. 50
f (aν )hΦi |aν ihaν |Φj i
Es sollen noch einige nützliche Eigenschaften von Determinanten angegeben werden. Wir unterscheiden drei Typen von n × n Matrizen, beliebige A (B), hermitesche H und unitäre U . E IGENSCHAFTEN VON D ETERMINANTEN
|det(U )| = 1
(1.42a)
det(A† ) = det(A)∗ det(A B) = det(A) · det(B)
(1.42b) (1.42c)
det(A) = det(U † A U ) Y det(H) = λi
(1.42d)
i Sp(ln(H))
det(H) = e
(1.42e) (1.42f)
Hierbei sind die λi die Eigenwerte der Matrix H. Determinanten sind nur für quadratische (n×n) Matrizen definiert1 . Dennoch ist die Determinante des Produktes AB zweier nicht-quadratischer Matrizen definiert, wenn das Produkt eine quadratische Matrix liefert. Das heißt, wenn A eine n×mund B eine m × n-Matrix ist. Allerdings gilt in diesem Fall Gl. (1.42c) nicht mehr in dieser einfachen Form. Die Determinante ist auf jeden Fall Null, wenn m < n.
Die Spektraldarstellung haben wir für abzählbare Vektorräume abgeleitet. Es stellt sich nun die Frage, ob diese Form auch für ∞-dimensionale Vektorräume gilt. Voraussetzung hierzu ist, daß die nötigen Eigenvektoren in V n existieren. Wir wissen bereits, daß sich jeder Operator in V n durch eine n×n Matrix darstellen läßt. Damit M Ψ = λΨ eine nicht-triviale Lösung be! sitzt, muß gelten: det(M − λ1ˆ1) = 0. Dies ist ein Polynom n-ten Grades in λ 1
Determinanten nicht-quadratischer Matrizen werden manchmal dadurch definiert, daß man die Matrix quadratisch ergänzt, d.h. die fehlenden Elemente zur quadratischen Form mit Nullen auffüllen. Die Determinante dieser Matrizen ist zwar Null aber immerhin definiert.
51
und besitzt als solches genau n Nullstellen. Es kann auch gezeigt werden, daß die n Eigenvektoren eines hermiteschen Operators eine vollständige Basis bilden. Diese Argumentation kann aber nicht auf den V ∞ übertragen werden. Das Polynom wird dort zu einer Potenzreihe, und diese muß keine Nullstellen aufweisen, selbst dann nicht, wenn sie konvergiert. Ein Beispiel soll illustrieren, daß die betrachtete Spektraldarstellung nicht immer existieren muß. Beispiele: d 1) Wir betrachten den Differentialoperator D = i dx , der auf dem Raum der differenzierbaren Funktionen im Intervall (a, b), wobei a = −∞ und/oder b = ∞ sein kann, definiert ist. D† ist definiert über: ∗ Z b Z b ∗ † ∗ Φ (x) D Ψ(x)dx = Ψ (x) DΦ(x)dx a a ∗ b Z b ∗ ∗ = iΨ (x) Φ(x) − Φ(x)DΨ(x) dx a a b Z b ∗ = −iΨ(x)Φ (x) − Φ(x)∗ |{z} D∗ Ψ(x)dx a
b = −iΨ(x)Φ∗ (x) + a
a
Z
=−D
b
Φ(x)∗ DΨ(x)dx
a
Wenn die Randbedingungen geeignet gewählt werden, so daß Ψ(x)Φ∗ (x)|ba = 0 gilt, dann ist D hermitesch: hΦ|D† |Ψi = hΦ|D|Ψi. ˆ lautet: i d Θλ (x) = λΘλ (x) Die Eigenwertgleichung von D dx Die Lösung dieser Gleichung ist: Θλ (x) = c e−iλx Wenn wir die Eigenwertgleichung als Eigenwertgleichung des Operators D betrachten, sind wir allerdings nur an den Eigenvektoren interessiert, die einen vollständigen Vektorraum aufspannen. Es sind unterschiedliche Vektorräume denkbar: a) keine Randbedingung Alle komplexen λ sind Eigenwerte. Da D hier nicht hermitesch ist, ist dieser Fall für die Quantenmechanik uninteressant. b) a = −∞ ; b = +∞ ; |Φ(x)| −→ C |x|→∞
(siehe Abb.(1.4)) ⇒ Ψ(x)Φ∗ (x)|+∞ −∞ = 0 52
; mit 0 < C < ∞
Abbildung 1.4: Verhalten einer kontinuierlichen Funktion für |x| → ∞.
⇒ reelle Eigenwerte. Die Eigenvektoren Θλ (x) sind aber nicht normierbar, denn Z
+∞ 2
Z
+A
|Θλ (x)| dx = −∞
2
Z
−A
|Θλ (x)| dx + −A
| −∞
2
Z
C dx + {z
→∞
+∞
A
C 2 dx }
A muß so groß gewählt werden, daß Θλ (x) nicht mehr von C zu unterscheiden ist. Die Funktionen Φ(x) bilden dennoch eine vollständige Basis, da jede Funktion als Linearkombination dargestellt werden kann. (Fouriertransformation!) c) a = − L2 ; b = + L2 ; periodische Randbedingung Φ(− L2 ) = Φ( L2 ) n ; n = · · · , −1, 0, 1, · · · . Die Eigenwerte bilden ein diskretes Spektrum λ = 2π L Die Eigenfunktionen bilden ein vollständiges Orthonormalsystem. (Fourierreihen!) d) a = −∞ ; b = +∞ ; |Φ(x)| → 0 für |x| → ∞ D ist hermitesch, aber in dem betrachteten Raum liegen keine Eigenfunktionen, da |θλ (x)| = |c| nie Null wird. Wir sehen, daß ein hermitescher Operator in V ∞ nicht immer eine vollständige Basis von Eigenvektoren besitzt und die Spektraldarstellung nicht anwendbar ist. Das gleiche gilt für den 53
ˆ f (x) := x · f (x). 2) Multiplikationsoperator Q Das Eigenwertproblem dieses Operators lautet ˆ Θλ (x) = λΘλ (x) Q x Θλ (x) = λΘλ (x)
⇒
.
(1.43)
Das heißt, die Eigenfunktion Θλ (x) darf nur für x = λ ungleich Null sein. Als gewöhnliche Funktion betrachtet, ist sie im Sinne des Lebesgue Integrals identisch Null. In der Quantenmechanik ist es üblich, auch Distributionen zuzulassen, und die Eigenfunktionen des Multiplikationsoperators (1.43) in der Form Θλ (x) = δ(x − λ) (1.44) zu verwenden. Es sei an die Eigenschaften der Diracschen Delta-Funktion erinnert Z ∞ f (x)δ(x − c) = f (c) −∞
Die Deltafunktion ist nicht wirklich eine Funktion. Unter anderem ist ihre Bedeutung nur unter einem Integral definiert. Für das Weitere reicht jedoch folgende anschaulich Bedeutung der Deltafunktion aus. Sie kann verstanden werden als der Limes → 0 einer Folge von Funktionen mit der Fläche 1. Eine mögliche Funktionen-Folge ist δ(x − c) = lim √ →0
1 2π2
e−
(x−c)2 22
Diese Eigenfunktion ist allerdings nicht quadratintegrabel und liegt nicht im Hilbertraum, das ist der Vektorraum, der für q.m. Probleme naheliegt. Auf die genaue Definition des Hilbertraumes und seiner Erweiterung gehen wir später ein.
Wir können also nicht generell davon ausgehen, daß die Zustände, die in die Konstruktion der Spektraldarstellung eingehen, die Eigenzustände eines hermiteschen Operators im erlaubten Definitionsbereich sind. Wir wollen uns daher eine modifizierte Form der Spektraldarstellung überlegen, die sich auf kontinuierliche Spektren übertragen läßt. 54
Abbildung 1.5: Folge von Funktionen, die gegen δ(x) konvergiert.
Das Spektraltheorem Es gibt zwei gängige, alternative Sichtweisen. Die erste geht auf VON N EU MANN zurück. Wir betrachten zunächst weiterhin einen abzählbaren Vektorraum und konstruieren einen Projektionsoperator, der in den Unterraum der entarteten Eigenzustände zum Eigenwert ai = a projiziert: Pˆ(a) =
n X
|Φi ihΦi |δa,ai
(1.45)
i=1
Mit diesem Projektionsoperator kann Gl. (1.36) geschrieben werden als X Aˆ = aPˆ(a) , (1.46) a
wobei die Summe sich über alle unterschiedlichen Eigenwerte a erstreckt. Wir wollen nun Gl. (1.46) in eine Form bringen, die auch auf kontinuierliche Spektren anwendbar ist. Das kann man bequem über das Stieltjes Integral erreichen, das folgendermaßen definiert ist Z b n X g(x)dσ(x) = lim g(xi ) (σ(xi ) − σ(xi−1 )) n→∞ a (1.47) i=1 mit xi − xi−1 −→ 0 ∀i . n→∞
Aus der nicht fallenden Funktion σ(x) erhält man das Maß dσ(x). Wenn dσ(x) existiert, gilt dx Z b Z b dσ(x) g(x)dσ(x) = g(x) dx dx a a {z } | {z } | Riemann
Stieltjes
55
Für den speziellen Fall σ(x) = x wird Gl. (1.47) zum gewöhnlichen RiemannIntegral: Z b Z b Z b Z b dx dσ(x) g(x)dσ(x) = g(x) dx = g(x) dx = g(x)dx dx dx a a a a
Beispiel: Das Stieltjes-Integral wird dann interessant, wenn σ(x) Unstetigkeiten aufweist. Zum Beispiel bei σ(x) = hΘ(x − c), wobei Θ die Heavisidesche Stufenfunktion ist (siehe Abb. (1.6)) ( 1 x>c Θ(x − c) =
1 2
x=c 0 x c > xi−1 .
Abbildung 1.6: Stufenfunktion In diesem Fall ist σ(xi ) − σ(xi−1 ) = h und das Stieltjes-Integral liefert: ( Z b Z b hg(c) a < c < b g(x)dσ(x) = g(x)d(h Θ(x − c)) (1.48) 0 sonst a a Wir definieren nun das Stieltjes-Integral für Projektionsoperatoren: Z ∞ n X ˆ g(λi ) Pˆ (λi ) − Pˆ (λi−1 ) (1.49) g(λ)dP (λ) = lim −∞
n→∞
i=1
Jetzt können wir das Spektraltheorem in allgemein gültiger Form angeben:
56
Theorem 1.8 (Spektraltheorem) Zu jedem selbstadjungierten Operator Aˆ gibt es eine eindeutige Familie von Projektionsoperatoren P (λ) (λ ∈ R) mit folgenden Eigenschaften: 1. Pˆ (λ1 )Pˆ (λ2 ) = Pˆ (λ2 )Pˆ (λ1 ) = Pˆ (min(λ1 , λ2 )) 2. Für > 0 gilt: lim Pˆ (λ + )|Ψi = Pˆ (λ)|Ψi →0
3. 4.
lim Pˆ (λ)|Ψi = 0
λ→−∞
lim Pˆ (λ)|Ψi = |Ψi,
λ→+∞
S PEKTRALTHEOREM Z+∞ Aˆ = λ dPˆ (λ) −∞
Die 5. Gleichung stellt eine Verallgemeinerung von Gl. (1.46) für beliebige selbstadjungierte Operatoren mit diskretem und/oder kontinuierlichem Spektrum dar. Weiter gilt auch Z ˆ = f (λ) dPˆ (λ) f (A)
Beispiel zur Veranschaulichung: ˆ den wir zuvor definiert haWir betrachten den Multiplikationsoperator Q, ˆ selbstadjungiert ist. Wir verwenden ben. Wir beweisen zunächst, daß Q hierbei das Skalarprodukt Gl. (1.13). Z ∗ † ∗ ∗ ˆ ˆ ˆ hΨ|Q |Φi = hΦ|Q|Ψi = Φ (x) QΨ(x)) dx Z ∗ ∗ = Φ (x)xΨ(x)dx Z Z ∗ ˆ = Φ(x)xΨ (x)dx = Ψ∗ (x)QΦ(x)dx ˆ = hΨ|Q|Φi 57
Da dies für beliebige Vektoren |Ψi, |Φi des Definitionsbereiches gilt, haben ˆ =Q ˆ † und die Hermitezität des Multiplikatiwir die Operatoridentität Q onsoperator bewiesen. Als Eigenfunktion zum Eigenwert λ kann δ(x − λ) verwendet werden. Es sei noch einmal daran erinnert, daß die Eigenwertgleichung nur verlangt, daß die Eigenfunktion für x 6= λ verschwindet, der Wert oder das Verhalten an der Stelle x = λ hängt mit der Wahl des Vektorraumes zusammen. Man kann zeigen, daß die für das Spektraltheorem benötigten Projektionsoperatoren folgende Eigenschaft haben Pˆ (λ)Ψ(x) = Θ(λ − x)Ψ(x) = Das Spektraltheorem ist erfüllt, weil Z ∞ Z ˆ ˆ QΨ(x) = λ dP (λ) Ψ(x) =
n Ψ(x) x ≤ λ 0 x>λ
∞
λ d Pˆ (λ)Ψ(x) −∞ | {z } d wirkt nur auf λ Z
−∞
∞
λd (Θ(λ − x)Ψ(x))
= Z−∞ ∞ = −∞
|
λd (Θ(λ − x)) Ψ(x) = xΨ(x) {z } x
Im letzten Schritt wurde das Ergebnis aus Gl. (1.48) übernommen. Wir sehen also, daß das Spektraltheorem tatsächlich das richtige Ergebnis liefert und es wurde an keiner Stelle ausgenutzt, daß der Definitionsbereich nur normierte Zustände enthält. Die eben durchgeführte Rechnung kann anschaulich leicht interpretiert werden. Der Projektionsoperator Pˆ (xi ) − Pˆ (xi−1 ), der in die Definition des Stieltjes-Integrals Gl. (1.49) eingeht, hat eine ganz einfache Bedeutung. Wenn man ihn auf eine beliebige Funktion f (x) anwendet, liefert er eine neue Funktion f˜(x), ( f (x) wenn x ∈ (xi−1 , xi ) f˜(x) := , 0 sonst die im Intervall (xi−1 , xi ) mit f (x) übereinstimmt und ansonsten Null ist. Der Projektionsoperator schneidet sozusagen ein Intervall aus der Funktion heraus. Wenn man diese Funktionsstücke aller Intervalle wieder zusammensetzt, erhält man natürlich wieder die ursprüngliche Funktion. P Das erklärt die Darstellung des Einheitsoperators 1ˆ1 = i (Pˆ (xi )−Pˆ (xi−1 )). 58
Ebenso sieht man unmittelbar ein, daß mit abnehmenden Intervallbreiten das Spektraltheorem gilt n X
xi (Pˆ (xi ) − Pˆ (xi−1 )) Ψ(x) −→ x Ψ(x) n→∞
i=1
Die meisten Versuche, die Quantenmechanik mathematisch rigoros zu begründen, haben die ursprünglichen Ideen der Quantenmechanik so eingeschränkt oder revidiert, daß sie im Hilbertraum formuliert werden können. Eine davon ist die eben beschriebene von-Neumannsche Vorgehensweise. Eine attraktive Alternative, die auf Dirac zurückgeht, bietet die Erweiterung des Hilbertraumes, so daß auch Vektoren unendlicher Norm konsistent behandelt werden können. Die genaue Definition des Hilbertraumes und dessen Erweiterung werden wir im nächsten Abschnitt besprechen. Die Diracsche Methode ist verwandt zu der für abzählbare Vektorräume und hat den Vorteil, daß sie einfacher zu handhaben ist und man sich in der praktischen Rechnung weniger mit mathematischen Subtilitäten herumschlagen muß. Sie kann ebenso rigoros im Rahmen der Distributionen-Theorie gerechtfertigt werden. Man schreibt z.B. die Spektraldarstellung für den Multiplikationsoperator in der Form Z ∞ ˆ λ |λihλ| dλ . (1.50) Q= −∞
Hierbei sei |λi der Eigenzustand des Multiplikationsoperators zum Eigenwert λ ˆ Q|λi = λ|λi . Die „Eigenfunktion” in der „Ortsdarstellung” ist wie bereits erwähnt Θλ (x) = δ(x − λ). Diese Funktionen können nicht normiert werden. Sie sind jedoch in einem erweiterten Sinne orthonormiert: hλ|λ0 i = δ(λ − λ0 )
.
(1.51)
Interessanterweise kann Gl. (1.50) auch aus dem Spektraltheorem erhalten werden, wenn man den Projektionsoperator |λihλ| auf die nicht-normierbaren ˆ Zustände zuläßt. Denn es gilt dPdλ(λ) = |λihλ|. Im Hilbertraum wäre dieser Projektionsoperator nicht erlaubt und somit auch nicht die Ableitung. Bevor wir den Hilbertraum und dessen Erweiterung genau definieren, wollen wir zuvor noch allgemeine Eigenschaften von Kommutatoren und die Konsequenzen kommutierender Operatoren untersuchen.
59
1.5
Der Statistische Operator
Es wird im Abschnitt (3.3.2) des Physikteil des QM-Skriptums gezeigt, daß sich das gesamte Wahrscheinlichkeitskonzept der Quantenmechanik mit statistischen Operatoren ρˆ formulieren läßt. Ein statistischer Operator ist wie folgt definiert D EFINITION EINES
STATISTISCHEN
O PERATORS
hermitesch: ρˆ† = ρˆ
(1.52a)
Eigenwerte: λi ∈ [0, 1]
(1.52b)
X
λi = 1
(1.52c)
i
Die Eigenwerte haben die Bedeutung von Wahrscheinlichkeiten. Sie sind nicht-negativ und addieren sich zu Eins. Man sieht unmittelbar, daß statistische Operatoren folgende Eigenschaften haben E IGENSCHAFTEN S TATISTISCHER O PERATOREN
λ∗i = λi
(1.53a) (1.53b)
Sp(ˆ ρ) = 1 hψ|ˆ ρ|ψi ∈ [0, 1] hψ|ψi
∀|ψi
(1.53c)
Die Menge aller statistischen Operatoren bildet eine konvexe Menge. Das 60
bedeutet, daß jede Linearkombination X ρˆ = ci ρˆi i
von zwei oder mehr statistischen Operatoren ρˆP i wieder einen statistischen Operator bildet, vorausgesetzt 0 ≤ ci ≤ 1 und i ci = 1. Ein solcher Operator wird konvexe Kombination der Menge {ρˆi } genannt. Der statistische Operator enthält die gesamte Wahrscheinlichkeitsinformation eines Quantensystems. Insbesondere ist der Erwartungswert einer Observablen A, zu der der Operator Aˆ korrespondiert, gegeben als ˆ hAi = Sp(ˆ ρA)
.
(1.54)
1.5.1 Reine Zustände In der Menge aller Zustände gibt es eine besondere Klasse, die REINEN Z USTÄNDE. Ein statistischer Operator für reine Zustände hat, per definitionem, die Form ρˆ = |ψihψ| , (1.55) wobei der normierte Vektor |ψi Zustandsvektor genannt wird. Der Erwartungswert einer Observablen A geht dann in die einfachere Form ˆ hAi = hψ|A|ψi
(1.56)
über. Der Zustandsvektor |ψi ist nicht eindeutig. Alle Vektoren der Form eiϕ |ψi, mit beliebiger Phase ϕ, sind physikalisch äquivalent. Der statistische Operator ρˆ zum diesem reinen Zustand ist jedoch eindeutig. Eine weitere, notwendige und hinreichende Charakterisierung eines reinen Zustandes ist die Bedingung ρˆ2 = ρˆ
.
Sie ist notwendig, da Gl. (1.55) das unmittelbar verlangt. Daß sie hinreichend ist sieht man über die Spektraldarstellung ein X X ! ρˆ2 = λ2i |ψi ihψi | = λi |ψi ihψi | . i
i
Das bedeutet, daß die Eigenvektoren |ψi des statistischen Operators orthonormal sind, λ2i = λi . 61
Also sind nur die Eigenwerte 0 oder 1 verträglich. Wegen Gl. (1.52c) muß genau ein Eigenwert 1 sein und der Rest Null. Das bedeutet, daß in der Spektraldarstellung nur genau ein Projektionsoperator vorkommt. Theorem 1.9 Eine reiner Zustand kann nicht als nicht-triviale konvexe Kombination anderer Zustände ausgedrückt werden. Allgemeine (nicht-reine) Zustände hingegen können immer als nicht-triviale Kombination anderer Zustände geschrieben werden. Der Beweis des zweiten Teils des Theorems ist trivial, da die Spektraldarstellung des statistischen Operators bereits eine solche Zerlegung liefert. Diese konvexe Zerlegung ist nicht eindeutig, da bei der konvexen Kombination nicht verlangt wird, daß die involvierten Zustände „orthogonal sind”. Wir betrachten z.B. den statistischen Operator ρˆ = c |ψihψ| + (1 − c) |ψ 0 ihψ 0 |
,
mit 0 < c < 1 und zwei beliebigen, orthonormalen Vektoren |ψi und |ψ 0 i. Wir definieren zwei neue Zustände √ √ |ϕi = c |ψi + 1 − c |ψ 0 i √ √ |ϕ0 i = c |ψi − 1 − c |ψ 0 i . Man sieht sofort, daß ρˆ =
1 2
|ϕihϕ| +
1 2
|ϕ0 ihϕ0 |
eine andere, konvexe Kombination zweier Zustände darstellt. Ein allgemeiner Zustand kann gewissermaßen als STATISTISCHES G EMISCH reiner Zustände betrachtet werden. Dieser Begriff ist jedoch etwas irreführend, da die Zerlegung in reine Zustände nicht eindeutig ist.
1.5.2
Wahrscheinlichkeitsverteilungen
Die Formel für den Erwartungswert Gl. (1.54) reicht aus, daraus alle Wahrscheinlichkeitsverteilungen abzuleiten. Wir betrachten hierzu eine belieˆ eines Operators A. ˆ Es sei p(a) da die Wahrscheinlichbige Funktion F (A) keitsdichte, daß der Wert der Observablen A in (a, a + da] liegt. Die Definition der Wahrscheinlichkeitsdichte besagt Z ∞ hF (A)i = F (a0 ) p(a0 ) da0 . (1.57) −∞
62
Gemäß Gl. (1.54) gilt ebenfalls ˆ hF (A)i = Sp(ˆ ρ F (A))
(1.58)
.
Durch geeignete Wahl der Funktion F (A) kann die Wahrscheinlichkeitsdichte ermittelt werden. Wir betrachten diskrete und kontinuierliche Spektren separat. D ISKRETE S PEKTREN Aˆ sei ein selbstadjungierter Operator mit der Spektraldarstellung X Aˆ = ai |ai ihai | . i
ˆ = Θ(a − A). ˆ Der ErwartungsWir betrachten speziell die Funktion F (A) wert dieser Funktion ist gemäß Gl. (1.57) Z a hΘ(a − A)i = p(a0 ) da0 = P (A < a|ˆ ρ) . −∞
Das ist gerade die Wahrscheinlichkeit, daß der Wert der Observablen kleiner als a ist. Andererseits erhalten wir aus Gl. (1.54) ˆ hΘ(a − A)i = Sp(ˆ ρ Θ(a − A)) X = Sp(ˆ ρ Θ(a − ai ) |ai ihai |) i
=
X
hai |ˆ ρ|ai i Θ(a − ai )
.
i
Die Wahrscheinlichkeitsdichte ist in diesem Fall ∂ p(a) = P (A < a|ˆ ρ) ∂a X = hai |ˆ ρ|ai i δ(a − ai )
.
i
Wir sehen, daß die Wahrscheinlichkeitsdichte verschwindet, wenn a kein Eigenwert von Aˆ ist. Die Wahrscheinlichkeit ist also Null, daß eine dynamische Variable einen Wert annimmt, der nicht zu einem Eigenwert des korrespondieren Operators gehört. Die Wahrscheinlichkeit, daß eine dynamische Variable A im Zustand ρˆ den Wert a annimmt ist P (A = a|ρ) = lim P (A < a + ε|ˆ ρ) − P (A < a − ε|ˆ ρ) ε→0 X = hai |ˆ ρ|ai i δa,ai . i
63
In einem reinen Zustand ρˆ = |ψihψ| erhalten wir für einen nicht-entarteten Eigenzustand |ai i das bekannte Ergebnis P (A = ai |ρ) = |hai |ψi|2
K ONTINUIERLICHE S PEKTREN ˆ mit einem rein kontinuierlichen Spektrum läßt sich in der Der Operator A, Diracschen Formulierung schreiben als Z ˆ A= a0 |a0 iha0 | da0 . Seine nicht normierten Eigenvektoren erfüllen die „Orthogonalitätsbeziehung” ha0 |a00 i = δ(a0 − a00 ). Die Wahrscheinlichkeitsdichte erhalten wir, wie zuvor, aus dem Mittelwert der θ-Funktion Z a hΘ(a − A)i = p(a0 ) da0 −∞
= P (A < a|ˆ ρ)
.
Wir haben aber auch die Beziehung ˆ hΘ(a − A)i = Sp(ˆ ρ Θ(a − A)) Z ∞ = Sp(ˆ ρ Θ(a − a0 ) |a0 iha0 | da0 ) Z a −∞ ha0 |ˆ ρ|a0 i da0 . = −∞
∂ P (A < a|ρ) = ha|ˆ ρ|ai . (1.59) ∂a Für den Spezialfall eines reinen Zustandes ρˆ = |ψihψ| wird hieraus p(a) =
p(a) = |ha|ψi|2
.
Sowohl im diskreten, wie auch im kontinuierlichen Fall besteht die Wahrscheinlichkeit(sdichte) aus 2 Beiträgen. Einer charakterisiert den Zustand (hier |ψi) und der andere einen Teil des Spektrums der dynamischen Variablen (hier |ai), d.h. einer Zustands- und einer Filterfunktion. Der Zustandsvektor gehört zum Hilbertraum und muß normierbar sein. Die Filterfunktion hingegen gehört nicht zum Hilbertraum, sondern zum erweiterten Raum H∗ . 64
1.6
Kommutatoren
1.6.1 Eigenwertproblem kommutierender Operatoren ˆ deren Kommutator verschwinWir betrachten zwei Operatoren Aˆ und B, h i ˆ B ˆ = 0, und überlegen uns die daraus resultierenden Konsequendet, A, zen für die Eigenwertprobleme der beiden Operatoren ˆ = a|ai A|ai ˆ = b|bi B|bi
(1.60a) (1.60b)
Wir beginnen mit Gl. (1.60a) und nutzen aus, daß die Operatoren vertauschen. ˆ ˆ ˆ A|ai ˆ = a B|ai ˆ = AˆB|ai =B Aˆ B|ai (1.61) |{z} a|ai
ˆ ist also gleichzeitig Eigenvektor von Aˆ zum Eigenwert a. Wenn dieser B|ai ˆ Eigenwert nicht entartet ist, heißt das B|ai ∝ |ai. Somit ist |ai gleichzeitig ˆ Eigenvektor von B ˆ B|ai = b |ai (1.62) Komplizierter wird die Angelegenheit, wenn der Eigenwert a entartet ist. Z.B. a1 = a2 = · · · = al = a. (Wenn die entarteten Vektoren andere Indizes haben, kann man sie immer zunächst umnumerieren.) In diesem Fall spannen die zugehörigen Vektoren einen Unterraum V a auf. Beweis: Es ist zweckmäßig, die entarteten Eigenvektoren mit einem zusätzlichen Entartungsindex zu versehen |a, ii i = 1, 2, · · · , l Es gilt weiterhin ˆ ii = a|a, ii A|a,
i = 1, 2, · · · , l
1. Jede Linearkombination der Vektoren aus dem Unterraum V a |Ψi =
l X
ci |a, ii
i=1
ist Eigenvektor von Aˆ zum Eigenwert a und somit Element von V a ˆ A|Ψi =
l X
ˆ ii = ci A|a,
i=1
l X i=1
65
ci a|a, ii = a|Ψi
2. Zu jedem Vektor |Ψi ∈ V a existiert das Inverse in V a , |−Ψi = −|Ψi (−|Ψi) + |Ψi = |0i
.
3. Das Nullelement liegt ebenfalls in V a . ˆ = 0|0i = a|0i A|0i
.
ˆ Aus Gl. (1.61) folgt, daß B|Ψi ebenfalls Eigenvektor von A zum Eigenwert ˆ a ist. Demzufolge gilt B|Ψi ∈ V a ∀ |Ψi ∈ V a ˆ im Unterraum V a diagonalisieren, d.h. es gibt Wir können daher auch B P eine Linearkombination |a, bi = li=1 ci |a, ii mit der Eigenschaft ˆ bi = a|a, bi A|a, ˆ bi = b|a, bi B|a, Hieraus ergibt sich unmittelbar Theorem 1.10 (kommutierende Operatoren) Wenn zwei selbstadjungierte ˆ B ˆ einen vollständigen Satz von Eigenvektoren besitzen und auOperatoren A, ˆ=B ˆ Aˆ , dann existiert ein vollständiger Satz ßerdem vertauschbar sind AˆB von gemeinsamen Eigenvektoren mit den Eigenschaften ˆ bi = a|a, bi • A|a, ˆ bi = b|a, bi • B|a, P ˆ1 (Vollständigkeit) • i,j |ai , bj ihai , bj | = 1 • hai , bj |ai0 , bj 0 i = δi,i0 δj,j 0 Wir können immer die Notation |a, bi verwenden, auch wenn keine Entartung vorliegt. In diesem Fall ist eine der „Quantenzahlen” jedoch redundant. Das Theorem h i läßt h sichi auch h aufidrei Operatoren ausdehnen. ˆ B ˆ = B, ˆ Cˆ = A, ˆ Cˆ = 0 , dann existiert ein gemeinsamer Satz Wenn A, von Eigenvektoren |a, b, ci mit ˆ b, ci = a|a, b, ci A|a, ˆ b, ci = b|a, b, ci B|a, ˆ b, ci = c|a, b, ci C|a, 66
Die Verallgemeinerung läßt sich für beliebig viele Operatoren fortsetzen, allerdings gibt es eine Höchstzahl kommutierender Operatoren. Ist diese erreicht, so ist jede Entartung der Vektoren aufgehoben, und die Eigenwerte charakterisieren den Zustand eindeutig. Ein derartiger Satz von Operatoren heißt vollständiger Satz kommutierender Operatoren. Alle weiteren kommutierenden Operatoren lassen sich dann durch die bereits gefundenen Operatoren ausdrücken. Diese Aussage wird weiter unten genauer besprochen. Anstatt die Eigenvektoren durch alle Eigenwerte zu kennzeichnen ( |a, b, c, · · ·i) verwendet man oft einen kollektiven Index (z.B. |ki), insbesondere wenn es sich um „verwandte” Quantenzahlen handelt. Es gilt dann |ki = |a, b, c, · · ·i hk|k 0 i = δk,k0 = δa,a0 δb,b0 δc,c0 · · · X X 1ˆ1 = |kihk| = |a, b, c, · · ·iha, b, c, · · ·| k
.
a,b,c,···
Zum Auffinden einer vollständigen Basis geht man folgendermaßen vor. Nehmen wir an, der Operator Aˆ sei bereits diagonalisiert worden, d.h. das ˆ Eigenwertproblem A|ai = a|ai sei gelöst. Allerdings sei mindestens ein Eigenwert a entartet. Die Eigenwerte werden nun mit einem zusätzlichen ˆ ii = a |a, ii. Wendet man nun einen mit Aˆ komIndex durchnumeriert A|a, ˆ auf |a, ii an, so liefert dies zwar nicht unbedingt mutierenden Operator B |a, ii zurück, aber es muß sich um einen Vektor im Unterraum, der von den entarteten |a, ii aufgespannt wird, handeln. D.h. X ˆ ii = B|a, cj |a, ji j
ˆ und erhalten schließlich In diesem Unterraum diagonalisieren wir B ˆ bi = b|a, bi B|a, ˆ bi = a|a, bi A|a,
.
Wenn die Entartung nun vollständig aufgehoben ist, hat man den vollstänˆ B ˆ gefunden. Andernfalls läßt sich das Verfahren mit einem digen Satz A, ˆ kommutierenden Operator fortsetzen. weiteren mit Aˆ und B
67
Beispiele 1. Der Spin eines Spin- 12 Teilchens ist vollständig durch die Eigenwerte von Sˆz bestimmt, da gilt i h Sˆz , Sˆx 6= 0 h i Sˆz , Sˆy 6= 0 2. Bezieht man noch den Ort eines freien Teilchens mit ein, so ist der Zustand gekennzeichnet durch |x, y, z, σi = |~x, σi . h i ˆi , Xˆj = 0 ist, d.h. alle kartesiWir werden später noch sehen, daß X schen Koordinaten charakterisieren den Zustand. Allerdings können gemäß Theorem (1.12) nicht gleichzeitig h i die Impulskoordinaten des ˆi , Pˆi 6= 0. Teilchens angegeben werden, da X |~x, σi bildet eine vollständige Basis. Ebenso bildet |~p, σi oder z.B. |x, y, pz , σi eine vollständige Basis. Theorem 1.11 Jeder Operator, der mit allen Elementen eines vollständigen Satzes kommutierender Operatoren vertauscht, ist eine Funktion der Operatoren dieses Satzes. Beweis: ˆ Cˆ · · · } sei ein vollständiger Satz kommutierender Operatoren mit L = {AˆB den Eigenvektoren |a, b, c, · · ·i Fˆ sei ein Operator, der mit allen Operatoren aus L vertauscht. Da L ein vollständiger Satz ist, müssen die Vektoren |a, b, c, · · ·i bereits Eigenvektoren von Fˆ sein Fˆ |a, b, c, · · ·i = fa,b,c,··· |a, b, c, · · ·i
.
Der Eigenwert fa,b,c,··· ist eine eindeutige Funktion F der Eigenwerte fa,b,c,··· = F(a, b, c, · · · ) Nach dem Spektraltheorem gilt aber Z ˆ F = fa,b,c,··· dPˆ (a, b, c, · · · ) Z = F(a, b, c, · · · ) dPˆ (a, b, c, · · · ) ˆ B, ˆ C, ˆ ···) = F(A,
68
Theorem 1.12 Operatoren, die nicht vertauschen, haben keinen vollständigen Satz gemeinsamer Eigenvektoren! Beweis: Wir führen den Beweis indirekt. |a, bi sei ein gemeinsamer Satz von Eigenvektoren. Dann gilt aber ˆ bi = AˆB|a, = ˆ bi − B ˆ A|a, ˆ bi = AˆB|a, ˆ −B ˆ Aˆ |a, bi = AˆB i h ˆ B ˆ |a, bi = A,
ˆ ˆ bi = ba|a, bi Ab|a, bi = bA|a, ˆ bi = Ba|a, ˆ ˆ A|a, ˆ bi ab|a, bi = aB|a, bi = B 0 0 0
h i ˆ B ˆ = 0, also ein Widerspruch. Wenn dies für alle |a, bi gilt, dann wäre A, Es kann daher keinen vollständigen Satz gemeinsamer Eigenvektoren geben. Allerdings kann es einen Unterraum gemeinsamer Eigenvektoren geben!
1.6.2
Kommutatoren der Orts- und Impulsoperatoren
In der Quantenmechanik spielen die Ortsoperatoren Xˆα und die Impulsoperatoren Pˆα eine zentrale Rolle. Hierbei bezieht sich der Index α = {x, y, z} (bzw. α = {1, 2, 3}) auf die kartesischen Koordinaten. Zwischen diesen Operatoren gelten die fundamentalen Vertauschungsrelationen F UNDAMENTALE V ERTAUSCHUNGSRELATIONEN
h
i Xˆα , Xˆβ = 0 h i Pˆα , Pˆβ = 0 h i ˆ ˆ Xα , Pβ = i~δα,β 1ˆ1
Für analytische Funktionen f und g dieser Operatoren gilt 69
(1.63)
∂ ~ˆ ˆ ~ˆ [f (X), Pα ] = i~ f (X) ˆα ∂X ∂ ~ ~ ˆ g(Pˆ ) [g(Pˆ ), X α ] = −i~ ∂ Pˆα ~ˆ ˆ [f (X), Xα ] = 0 ~ [g(Pˆ ), Pˆα ] = 0
∂ ~ˆ g(O) ist zu verstehen als ˆ ∂ Oα
(1.64) (1.65) (1.66) (1.67)
∂ ~ | g(O) ˆα . Oα →O ∂Oα
Für den Beweis von Gl. (1.64) nutzen wir aus, daß wir eine analytische Funktion in den drei kartesischen Koordinaten wie folgt entwickeln können ∞ X ∞ X ∞ X C(n1 , n2 , n3 ) · xn1 1 xn2 2 xn3 3 f (~x) = n1 =0 n2 =0 n3 =0
Unter Verwendung von Gl. (1.21) und Gl. (1.64) erhalten wir somit ~ˆ ˆ [f (X), Pα ] =
X
ˆ αnα , Pˆα ] C(n1 , n2 , n3 ) · [X
n1 ,n2 ,n3
Y
ˆ nβ X β
β6=α
Wir berechnen zunächst den Kommutator [Xαnα , Pˆα ], wobei wir den Index α vorübergehend unterdrücken ˆ n−1 , Pˆ ]X ˆ ˆ n , Pˆ ] = X ˆ n−1 [X, ˆ Pˆ ] +[X [X | {z } i~1ˆ1
ˆ n−1 + [X ˆ n−1 , Pˆ ]X ˆ = i~X n−1 n−2 ˆ ˆ , Pˆ ] · X ˆ2 = i~ · 2X + [X .. . n ˆ ˆ ˆ n−1 [X , P ] = i~ n X .
(1.68)
Das vervollständigt zusammen mit Gl. (1.63) ~ˆ ˆ [f (X), Pα ] = i~
X
ˆ αnα −1 C(n1 , n2 , n3 ) · nα X
n1 ,n2 ,n3
Y β6=α
70
ˆ nβ X β
den Beweis von Gl. (1.64). Die Gl. (1.68) kann als Spezialfall von Gl. (1.64) betrachtet werden. Die Beweise von Gl. (1.65)-Gl. (1.67) gehen ganz analog.
1.6.3 Die Unbestimmtheitsrelation Wir definieren zunächst Def. 1.29 (Varianz) Im Zustand, der durch den statistischen Operator ρˆ beschrieben wird, ist die Varianz (Dispersion, Unbestimmtheit) einer Observablen A, der der hermitesche Operator Aˆ zugeordnet ist, definiert als ˆ 2i := h(∆A) mit ˆ ∆Aˆ = Aˆ − hAi ˆ ˆ hAi = Sp(ˆ ρ A)
var(A)
.
Es gilt auch für Operatoren die bekannte Beziehung 2 ˆ2 h ∆Aˆ i = hAˆ2 i − hAi
.
Die Unbestimmtheitsrelation besagt Theorem 1.13 (Unbestimmtheitsrelation) Im Zustand, beschrieben durch den statistischen Operator ρˆ, erfüllen die Varianzen zweier Observablen A und B, die ˆ beschrieben werden, die Undurch die selbstadjungierten Operatoren Aˆ und B gleichung ˆ ˆ 2 h[A, B]i
var(A) · var(B) ≥
4
.
(1.69)
Beweis: Für einen beliebigen Operator Tˆ gilt die Ungleichung hTˆ Tˆ† i = Sp(ˆ ρ Tˆ Tˆ† ) ≥ 0
.
Diese Ungleichung ist sofort einsichtig, wenn wir für ρˆ die Spektraldarstellung verwenden X Sp(ˆ ρ Tˆ Tˆ† ) = λi hϕi |Tˆ Tˆ† |ϕi i ≥ 0 . |{z} | {z } i
≥0
71
≥0
Die Eigenwerte des statistischen Operators liegen bekanntlich zwischen 0 und 1 und der Mittelwert hϕi |Tˆ Tˆ† |ϕi i in den Eigenvektoren |ϕi i des Zustandsoperators ρˆ kann als Normquadrat des Vektors Tˆ† |ϕi i aufgefaßt ˆ ˆ wobei α eine beliebige reelle werden. Wir wählen speziell Tˆ = ∆A+iα∆ B, Zahl sein soll. Die Ungleichung liefert dann ˆ 2 ) − iαSp(ˆ ˆ ∆B]) ˆ + α2 Sp(ˆ ˆ 2) ≥ 0 hTˆ Tˆ† i = Sp(ˆ ρ (∆A) ρ [∆A, ρ (∆B)
.
Der Kommutator kann umgeformt werden in ˆ ∆B] ˆ = [A, ˆ B] ˆ =: iCˆ [∆A,
.
Kommutatoren hermitescher Operatoren sind anti-hermitesch2 . Cˆ ist deshalb hermitesch und besitzt nur reelle Eigenwerte. Somit wird aus der Ungleichung ˆ 2 ) + α2 Sp(ˆ ˆ 2 ) + αSp(ˆ ˆ ≥0 hTˆ Tˆ† i = Sp(ˆ ρ (∆A) ρ (∆B) ρ C)
.
Alle Terme in dieser Ungleichung sind also reell und die ersten beiden sind sogar positiv. Die linke Seite beschreibt eine nach oben geöffnete Parabel in α. Die Ungleichung muß für alle Werte von α erfüllt sein. Deshalb ist es eine notwendige und hinreichende Bedingung, wenn die Ungleichung am Minimum, also für α=−
ˆ ρ C) 1 Sp(ˆ ˆ 2) 2 Sp(ˆ ρ (∆B)
,
erfüllt ist. In diesem Fall liefert die Ungleichung die gesuchte Unbestimmtheitsrelation 2 ˆ Sp(ˆ ρ C) 2 2 ˆ ˆ Sp(ˆ ρ (∆A) )Sp(ˆ ρ (∆B) ) ≥ 4 Die physikalische Konsequenz der Unbestimmtheitsrelation ist sehr weitreichend. Die Unbestimmtheitsrelation besagt u.a., daß Meßgrößen, die durch nicht kommutierende Operatoren beschrieben werden (etwa Impuls und Ort), nicht gleichzeitig beliebig genau angegeben werden können. Beispiel: Der Erwartungswert des Kommutators vom Orts- und Impulsoperator 2
siehe Gl. (1.33)
72
ˆ ˆ ˆ ˆ (X, P ) in einer Raumrichtung ist gemäß Gl. (1.63) h[X, P ]i = ~. Daraus folgt die Unschärferelation var(X) · var(P ) ≥
73
~2 4
1.7
Der Hilbertraum
Wir haben einen linearen Vektorraum definiert als eine Menge von Elementen, die unter Addition und Multiplikation mit Skalaren abgeschlossen ist. Bemerkenswerter Weise sind alle endlich-dimensionalen Vektorräume gleicher Dimension isomorph3 . Bei unendlich-dimensionalen Vektorräumen, solche sind in quantenmechanischen Anwendungen relevant, muß man jedoch Unterscheidungen machen. Wir betrachten einen ∞-dimensionalen Satz von Basisvektoren |Φn i n ∈ N. Hieraus konstruieren wir einen Vektorraum V , der aus allen Vektoren der Form X |Ψi = ci |Φi i (1.70) i
aufgebaut ist, in denen allerdings nur endlich viele Koeffizienten ungleich Null sind. Mit anderen Worten, es sind beliebige, endliche Linearkombinationen der Basisvektoren erlaubt. Die Grenzelemente von Cauchy-Folgen in diesem Vektorraum V liegen nicht unbedingt in V . Die Konvergenz einer Folge haben wir bereits im Abschnitt 1.2.5 definiert. Zum Beispiel sind alle Vektoren der Form
|Ψi i =
i X
cn |Φn i
n=1
für beliebige, endliche Werte i in V enthalten. Der Grenzvektor für i → ∞ ist jedoch kein Element von V , da er unendlich viele Basisvektoren enthält.
Wenn wir zu V die Grenzelemente aller konvergenten, unendlichen Folgen von Vektoren in V hinzunehmen, erhalten wir einen größeren Vektorraum. Vektorraum wird H ILBERTRAUM H genannt, wenn zusätzP Dieser 2 lich i |ci | < ∞. Wir betrachten zunächst den P Vektorraum Ω, der alle beliebigen Linearkombinationen der Form |Ψi = cn |Φn i enthält. Für phyn
sikalische Anwendungen sind vor allem normierbare Vektoren relevant, da sie die Definition von Wahrscheinlichkeiten erlauben. Der Hilbertraum ist ein Unterraum von Ω, bei dem nur Linearkombinationen mit einer endlichen Norm zugelassen sind. 3
Ein endlicher Vektorraum V n mit einem darauf definierten Skalarprodukt heißt unitärer Raum.
74
Def. 1.30 (Hilbertraum) Ein linearer Vektorraum heißt Hilbertraum H, wenn • in ihm ein Skalarprodukt definiert ist (Unitärer Raum) • jede Cauchy-Folge ein Grenzelement in ihm besitzt (Vollständigkeit). Wir hatten bei der Diskussion des Spektraltheorems bereits gesehen, daß es für einige Probleme rechentechnisch sinnvoll oder sogar physikalisch notwendig ist, auch nicht-normierbare Vektoren zu erlauben. Für die folgenden Überlegungen benötigen wir folgende Definition: 4 Def. 1.31 (konjugierter Raum W ∗ ) Der P zum Vektorraum W konjugierte Raum ∗ W ist die Menge aller Vektoren |χi = bn |Φn i für die gilt n
hΨ|χi < ∞ X d.h.: c∗n bn < ∞
∀ |Ψi ∈ W
n
und für die hΨ| ein stetiges Funktional auf W ∗ ist. Es soll zunächst gezeigt werden, daß der Hilbertraum zu sich selbst konjugiert ist. Das heißt, jedes Element aus H ist auch Element aus H∗ und umgekehrt H = H∗ Zum Beweis gehen wir vom Gegenteil aus. Wir nehmen an, es gäbe einen Vektor |χi ∈ / H, für den gilt hΨ|χi < ∞. Da dies für beliebige |Ψi gelten muß, wählen wir |Ψi speziell so, daß seine Entwicklungskoeffizienten bj dieselben Phasen haben wie der Vektor |χi. Das soll bedeuten bj = |bj | eiϕj cj = |cj | eiϕj Dann gilt also X
|bj |2 = ∞
(1.71a)
j
X
|cj | |bj | < ∞
.
(1.71b)
j 4
Es besteht eine enge Verwandtschaft zwischen dem Dualraum und dem konjugierten Raum. Der einzige, wichtige Unterschied ist der, daß die Beziehung zwischen W und dem Dualraum anti-linear ist, wohingegen ein strikter Isomorphismus zwischen W und W ∗ besteht.
75
Gl. (1.71b) besagt aber, daß es in H einen Vektor |Ψ(1) i mit den Koeffizien(1) ten cj = |cj |1/2 |bj |1/2 eiϕj gibt, da dessen Norm nach Gl. (1.71b) ebenfalls endlich ist. Dann können wir aber statt |Ψi den Vektor |Ψ(1) i in Gl. (1.71b) verwenden. Das bedeutet nun aber wieder, daß es in H einen Vektor |Ψ(2) i (2) mit den Koeffizienten cj = |cj |1/4 |bj |3/4 eiϕj gibt. Dieses Argument kann iteriert werden und besagt nach n Wiederholungen: Es gibt in H einen −n −n (n) Vektor |Ψ(n) i mit den Koeffizienten cj = |cj |2 |bj |1−2 eiϕj . Alle Vektoren |Ψ(n) i liegen in H. Da wir gefordert haben, daß hΨ|χi ein stetiges Funktional auf H sein soll, muß auch |Ψ(∞) i := limn→∞ |Ψ(n) i = |χi ∈ H. Damit haben wir einen Widerspruch zu unserer anfänglichen Annahme und somit gibt es keinen Vektor |χi ∈ H∗ , der nicht auch in H enthalten ist.
Wir definieren nun den Raum W aller Vektoren der Form |ωi =
P
ωn |Φn i
n
mit der Einschränkung X |ωn |2 nm < ∞ ∀ m ∈ N0
.
n
W ist ein P Unterraum von H. Der konjugierte Raum W ∗ enthält alle Vektoren |νi = νn |Φn i mit n
hω|νi =
X
ωn∗ νn < ∞ ∀ |ωi ∈ W
n
hω| ist ein stetiges Funktional auf W ∗ . Offensichtlich ist W ∗ wesentlich größer als W, denn es sind auch Vektoren enthalten, deren Entwicklungskoeffizienten so schnell wie eine beliebige Potenz von n für n → ∞ ansteigen. W ∗ heißt erweiterter (rigged) Hilbertraum, und es gilt also W ⊂ H = H∗ ⊂ W ∗ Es kann gezeigt werde, daß für jeden selbstadjungierten Aˆ in H ein vollständiger Satz von Eigenvektoren in W ∗ existiert. Wir haben somit zwei Lösungen für das Problem, daß ein selbstadjungierter Operator nicht immer eine vollständige Eigenbasis im Hilbertraum mit endlicher Norm besitzt: 1. Basierend auf dem Spektraltheorem: Transformiere die Gleichungen in solche mit Projektionsoperatoren, die im Hilbertraum wohldefiniert sind, selbst wenn sie nicht als äußeres Produkt (|xihx|) geschrieben werden können. 76
2. Erweiterung des betrachteten Vektorraums über quadratintegrabele Funktionen hinaus. (→ W ∗ ). In diesem Raum existiert immer eine vollständige Orthonormalbasis. Mit dieser Erweiterung kann der Bra-Ket-Formalismus generell angewendet werden. Diese Alternative wird im weiteren Teil des Skriptums verfolgt. Beispiel: Der Raum der Funktionen einer Variablen Ψ(x). Die Funktionen spannen einen Vektorraum auf. Konstruktion eines Hilbertraumes über quadratintegrabele Funktionen Z |Ψ(x)|2 dx < ∞ Konstruktion des W-Raumes von Funktionen Ψ(x) ist Z |Ψ(x)|2 (1 + |x|)m dx < ∞ ∀ m = 0, 1, 2, · · · Konstruktion des W ∗ -Raumes χ(x) ∈ W ∗ Z Ψ(x)∗ χ(x)dx < ∞ ∀ Ψ(x) ∈ W W ∗ enthält zu den quadratintegrabelen Funktionen auch solche, die nicht schneller als eine beliebige Potenz von x divergieren. d W ∗ enthält eikx , die Eigenfunktion des Operators −i dx ˆ W ∗ enthält die δ-Funktion, die Eigenfunktion des Ortsoperators Q.
77
1.8
Der Produktraum
Viele physikalischen Probleme bestehen aus Teilsystemen bzw. mehreren Freiheitsgraden. Z.B. bestehen Atome aus Atomkern und Elektronen. Elektronen wiederum besitzen eine Ortskoordinate und einen Spin-Freiheitsgrad. Es ist zweckmäßig, von den Hilberträumen H1 , H2 , · · · der einzelnen Teilsysteme/Freiheitsgrade auszugehen und daraus den Hilbertraum des gesamten Systems aufzubauen. Beispiel: Elektron: HR für den Ort (gebundener Zustand): R Menge aller Funktionen f (~x) mit |f (~x)| d3x < ∞ HS für Spin: Vektorraum, der durch die Eigenzustände von Sˆz der Spin-Operatoren aufgespannt wird.
1.8.1
Das Tensor-Produkt
Wir greifen aus den Vektoren zweier verschiedener Hilberträume 1 und 2 je einen Vektor |Φi1 und |Ψi2 heraus und bilden aus ihnen formal ein Produkt(kein Skalarprodukt und auch kein äußeres Produkt), das kommutativ sein soll. Für das Produkt schreiben wir: |Φ, Ψi := |Φi1 ⊗ |Ψi2 = |Ψi2 ⊗ |Φi1
.
(1.72)
Das soll einfach bedeuten: Das Teilsystem 1 befindet sich im Zustand |Φi das Teilsystem 2 befindet sich im Zustand |Ψi. Auf die Reihenfolge kommt es hierbei nicht an. Dieses Produkt, das direktes oder Tensor- Produkt genannt wird, soll wieder ein Vektor aus einem linearen Vektorraum sein, der die Physik zusammengesetzter Systeme beschreiben soll. Offensichtlich liegt der Vektor weder in H1 noch in H2 . Er liegt in einem sogenannten Produktraum H = H1 ⊗ H2
.
H wird von allen Vektoren (1.72) und deren Linearkombinationen aufgespannt. Aus der Distributivität von |Φi1 soll folgen: Wenn: |Φi1 = a|Φ1 i1 + b|Φ2 i1 |Φi1 ⊗ |Ψi2 = a|Φ1 i1 ⊗ |Ψi2 + b|Φ2 i1 ⊗ |Ψi2 Dasselbe gilt für |Ψi2 . 78
Def. 1.32 (Skalarprodukt im Produktraum) Das Skalarprodukt zweier Produktvektoren ist definiert als das Produkt der Skalarprodukte in den beiden Teilräumen: hΦ1 , Ψ1 |Φ2 , Ψ2 i = hΦ1 |Φ2 i hΨ1 |Ψ2 i
(1.73)
1.8.2 Vollständige Basis im Produkt-Raum Wenn |Φk i eine vollständige Basis in {H1 } und {|Ψl i} einen vollständige Basis in H2 ist, dann ist {|Φk i1 ⊗ |Ψl i2 } vollständige Basis des Produktraumes H1 ⊗ H2 . Im Produktraum numerieren die Indextupel (k,l) die Vektoren durch. Wenn die Dimension von Hα durch Nα gegeben ist, dann ist die Dimension des Produktraumes H1 ⊗ H2 gleich N1 · N2 . Dieses Konzept kann auch auf ∞-dimensionale Teilräume angewandt werden.
1.8.3 Orthonormierung im Produkt-Raum Aus den orthonormierten Vektoren der Teilräume folgt mit Gl. (1.73) sofort hΦk , Ψl |Φk0 , Ψl0 i = hΦk |Φk0 ihΨl |Ψl0 i = δk,k0 δl,l0 Wenn |Φk i, |Ψl i vollständige Orthonormalbasen in H1 , H2 sind, dann gilt Z X Z X |Φk , Ψl ihΦk , Ψl | dk dl = 1ˆ1 k
Z X
l
soll entweder eine Summe oder ein Integral über die Variable k darstel-
k
len, je nachdem, ob es sich um eine diskrete oder kontinuierliche Größe handelt. Ein beliebiger Vektor im Produktraum läßt sich entwickeln als Z X Z X (1) (2) |ϕ , ϕ i = hΦk , Ψl |ϕ(1) , ϕ(2) i |Φk i1 ⊗ |Ψl i2 dk dl {z } | k
l
=ϕ(k,l)
79
Beispiele: 1. Elektron mit Spin: |Ψi beschreibt den Ort (Basis: Ortsraumeigenzustände |~x i) |χi beschreibt den Spin (Basis: Sˆz -Eigenzustände |σi = |±zi) |Ψ, χi = |Ψi ⊗ |χi beschreibt den Gesamtzustand des Elektrons. Die sogenannte W ELLENFUNKTION ist dann ψ(~x, σ) := h~x, σ|Ψ, χi = h~x | ⊗ hσ| |Ψi ⊗ |χi = h~x|Ψi hσ|χi = Ψ(~x) · χ(σ) Eine mögliche Wellenfunktion ist aber auch ˜ x)χ(σ) ψ(~x, σ) = Ψ(~x)χ(σ) + Ψ(~ ˜
.
Sie beschreibt einen VERSCHRÄNKTEN Zustand. 2. Zwei Elektronen ohne Spin: |Ψ1 i beschreibt den Ort des ersten Elektrons. |Ψ2 i beschreibt den Ort des zweiten Elektrons. |Ψ1 , Ψ2 i beschreibt den Gesamtzustand. (Basis: |~ x 1 , x~ 2 i) Die Wellenfunktion ist ψ(~ x 1 , x~ 2 ) = h~ x 1 , x~ 2 |Ψ1 , Ψ2 i = ψ 1 (~ x 1 ) · ψ 2 (~ x 2) Auch hier ist eine verschränkte Wellenfunktion möglich ψ = ψ 1 (~ x 1 )ψ 2 (~ x 2 ) + ψ˜1 (~ x 1 )ψ˜2 (~ x 2) (verschränkter Zustand, klassisch undenkbar) Man sieht sofort, daß nicht alle Vektoren in H1 ⊗ H2 ein bloßes direktes Produkt der Gestalt |Φi1 ⊗ |Ψi2 sind. Das ist der Grund, warum im Produktraum auch Wechselwirkungen der Teilchen erfaßt werden können. Zustände vom |Ψi ⊗ |Φi-Typ beschreiben unkorrelierte Teilchen. Man nennt diese Vektoren auch ELEMENTARE T EN SOREN. Zustände, die nicht so dargestellt werden können, nennt man ’verschränkte’ (entangled) Zustände. Zum Beispiel können sich zwei Spins im Zustand |Ψi = |+zi1 ⊗ |−zi2 + |−zi1 ⊗ |+zi2 80
befinden. Es ist keines der Teilchen im Eigenzustand der zugehörigen Operatoren Sˆ1z , Sˆ2z : z z Sˆ1 |Ψi = Sˆ1 |+zi1 ⊗ |−zi2 + |−zi1 ⊗ |+zi2 ~ −~ |+zi1 ⊗ |−zi2 + |−zi1 ⊗ |+zi2 2 2 ~ ~ = |+zi1 ⊗ |−zi2 − |−zi1 ⊗ |+zi2 6= |Ψi 2 2 =
Nur für elementare Tensoren gilt: hΦk , Ψl |Φk0 , Ψl0 i = hΦk |Φk0 i1 hΨl |Ψl0 i2 Unitäre Transformationen lassen sich direkt auf Produkträume übertragen. Das Konzept des direkten Produktes läßt sich sofort auf eine beliebige Zahl von Teilräumen erweitern. |Ψ1 , Ψ2 , · · · , Ψn i = |Ψ1 i1 ⊗ |Ψ1 i2 ⊗ · · · ⊗ |Ψn in =
n N
|Ψi ii
i=1
H = H1 ⊗ H2 ⊗ · · · ⊗ Hn
1.8.4
Operatoren im direkten Produktraum
Alle bisherigen Überlegungen über lineare Operatoren gelten auch für Operatoren in Produkträumen. Betrachte einen Operator Lˆ in den Basiszuständen |Φk , Ψl i := |Φk i1 ⊗ |Ψl i2 ˆ k0 , Ψl0 i L(kl;k0 l0 ) := hΦk , Ψl |L|Φ Wenn Lˆ nur in H1 wirkt, wird er in H1 ⊗ H2 eingebettet als: 1 1 1 ˆ ˆ ˆ ˆ ˆ ˆ L := L ⊗ 11 ⇒ L ⊗ 11 |Φk , Ψl i = L |Φk i1 ⊗ |Ψl i2
.
ˆ nur auf Vektoren im Raum H2 wirkt, wird Analog, wenn der Operator M er im Produktraum wie folgt eingebettet ˆ 2 := 1ˆ1 ⊗ M ˆ ˆ |Φk , Ψl i = |Φk i1 ⊗ M|Ψ ˆ l i2 M ⇒ 1ˆ1 ⊗ M . 81
Die Matrixelemente von Lˆα sind in der Produktraumbasis ˆ k0 i · δll0 L1(kl;k0 l0 ) = hΦk |L|Φ ˆ l0 i L2 0 0 = δkk0 · hΨl |M|Ψ (kl;k l )
Operatoren verschiedener Teilsysteme kommutieren! h i ˆ2 =0 Lˆ1 , M ˆ 2 = Lˆ ⊗ M ˆ gilt: Für die Matrixelemente des Produktoperators Lˆ1 M ˆ 2 |Φk0 , Ψl0 i = hΦk |L|Φ ˆ k0 i · hΨl |M|Ψ ˆ l0 i hΦk , Ψl |Lˆ1 M
Als Beispiel betrachten wir die Spin-Bahnkopplung, die bei der relativistischen Behandlung der Atom-Wellenfunktionen ein wichtige Rolle spielt. ~ ~ˆ dem Der Operator, der die Kopplung beschreibt, ist proportional zu SˆL, Produkt aus Spin- und Drehimpuls-Vektoroperator. Als Basiszustände für den Spin können die Eigenvektoren |σi von Sˆz verwendet werden. Eine mögliche Basis für den Bahnanteil bilden die gemeinsamen Eigenˆz. vektoren |l, mi von Lˆ2 und L Die elementaren Tensorprodukte sind |l, m, σi = |l, mi⊗|σi. In dieser Basis sind die Matrixelemente des z-Anteils der Spin-Bahnkoppluing hl, m, σ|Lˆz Sˆz |l0 , m0 , σ 0 i = hl, m|Lˆz |l0 , m0 i · hσ|Sˆz |σ 0 i ~ = ~ m δm,m0 δl,l0 · σ δσ,σ0 2
82
.
Kapitel 2 Näherungsverfahren 2.1
Zeitunabhängige Störungstheorie
Eine ganz zentrale Aufgabe beim Lösen quantenmechanischer Probleme ist die Bestimmung der Eigenwerte und Eigenvektoren hermitescher Operatoren ˆ n i = En |Φn i H|Φ
(2.1)
.
Es ist allerdings nur in den wenigsten Fällen möglich, das Eigenwertproblem analytisch exakt zu lösen. Neben analytisch exakten Lösungen gibt es eine Reihe sehr leistungsstarker Verfahren zum Lösen von Eigenwertproblemen. Zunächst stellen wir das Eigenwertproblem in einer endlichen Basis {|ψi i} (i = 1, 2, . . . , N ) dar H~x(n) = En~x(n) N X (n) mit |Φn i = xi |ψi i
(2.2)
i=1
ˆ ji und Hij = hψi |H|ψ
.
Entweder ist der betrachtete Vektorraum endlich oder er wird durch eine physikalisch motivierte, endliche Basis approximiert. Wenn die Dimension des Hilbertraumes nicht „zu groß” ist, kann man das Eigenwertproblem der Hamilton-Matrix Gl. (2.2) numerisch lösen. Hierbei gibt es je nach Größe von N unterschiedliche Verfahren. 83
N ≤ 103 103 ≤ N ≤ 1010 1010 ≤ N
: Standardverfahren der numerischen Mathematik, liefern vollständiges Spektrum und alle Eigenvektoren : Lanczos-Verfahren, exaktes Verfahren für tiefliegende Eigenwerte und -zustände : Quanten-Monte-Carlo-Verfahren zur Bestimmung des Grundzustandes und tiefliegender Eigenzustände sowie dynamischer Eigenschaften. Statistisch exakt, d.h. E0QM C = E0exakt ± √NσM C
Ein alternatives, approximatives Verfahren zur Lösung des Eigenwertproblems bietet die Störungstheorie. Dazu muß ˆ =H ˆ0 + H ˆ1 1. der Hamiltonoperator sich aufspalten lassen in: H ˆ1 H ˆ 0” 2. die ’Störung’ klein sein: „H ˆ 0 gelöst sein 3. die Eigenwertgleichung von H (0) (0) ˆ 0 |Φ(0) H n i = En |Φn i
(2.3)
.
ˆ in der Tat so zerlegen. Bei vielen praktischen Problemen läßt sich H Um die Ordnung des Störterms in der Reihenentwicklung identifizieren zu können, schreibt man formal ˆ =H ˆ 0 + λH ˆ1 H
(2.4)
.
Wir werden die Eigenwertgleichung nach Potenzen von λ sortieren. Dieses Näherungsverfahren nennt man S CHRÖDINGERSCHE S TÖRUNGSRECH NUNG .
2.1.1
Nicht entartete Störungstheorie (0)
Wir gehen zunächst davon aus, daß En nicht entartet ist. Weiter nehmen wir an, daß die Eigenwerte und Eigenvektoren nach λ entwickelt werden können |Φn i = |Φ(0) n i En =
En(0)
+ λ|Φ(1) n i +
λEn(1)
+ λ2 |Φ(2) n i
+
···
2
+
···
+ λ 84
En(2)
(2.5)
Die Bedeutung von λ soll noch etwas genauer erläutert werden. So wie Gl. (2.4) geschrieben ist, ist λ = 1 und nicht wirklich klein. Die Reihenentwicklung nach λ macht dennoch Sinn, da hierdurch gleichzeitig nach ˆ 1 entwickelt wird. Potenzen von H ˆ˜ schreibt ˆ 1 = λH Besser zu verstehen ist die Vorgehensweise, wenn man H 1 ˆ ˆ ˜ und λ die "Größe"von H1 angibt. H1 ist dann von der gleichen Ordnung ˆ 0 . Dadurch ist λ wirklich eine kleine Größe und wir sind in der Lage, wie H auch die Zustände nach dem Einfluß des Störterms zu entwickeln. ˆ 1 gibt, Es soll aber auch darauf hingewiesen werden, daß es Störungen H die zu einem nichtanalytischen Ergebnis führen, das sich nicht nach λ um a λ = 0 entwickeln läßt (z.B. e− λ ). In den meisten Fällen existiert jedoch die Entwicklung in Gl. (2.5). Einsetzen der Reihenentwicklung Gl. (2.5) in die Eigenwertgleichung Gl. (2.1) liefert ˆ 0 + λH ˆ 1 |Φ(0) i + λ|Φ(1) i + λ2 |Φ(2) i + · · · = H n n n (1) 2 (2) = En(0) + λEn(1) + λ2 En(2) + · · · |Φ(0) n i + λ|Φn i + λ |Φn i + · · · Daraus folgt ˆ 1 |Φ(1) i + H ˆ 0 |Φ(2) i + . . . = ˆ 1 |Φ(0) i + H ˆ 0 |Φ(1) i + λ2 H ˆ 0 |Φ(0) i + λ H H n n n n n (1) (1) (0) (0) En(0) |Φ(0) n i + λ En |Φn i + En |Φn i (1) (1) (0) (2) + λ2 En(2) |Φ(0) i + E |Φ i + E |Φ i + . . . (2.6) n n n n n Da die Taylorentwicklung für beliebige λ gelten soll, müssen die einzelnen Ordnungen individuell verschwinden. (0) (0) ˆ 0 |Φ(0) H (2.7a) n i = En |Φn i ˆ 1 |Φ(0) i + H ˆ 0 |Φ(1) i = E (1) |Φ(0) i + E (0) |Φ(1) i O(λ1 ) : H (2.7b) n n n n n n ˆ 1 |Φ(1) i + H ˆ 0 |Φ(2) i = E (2) |Φ(0) i + E (1) |Φ(1) i + E (0) |Φ(2) i (2.7c) O(λ2 ) : H n n n n n n n n
O(λ0 ) :
Energiekorrektur erster Ordnung Die Gleichung 0-ter Ordnung (2.7a) entspricht dem Eigenwertproblem des ungestörten Hamiltonoperators. Um die Energiekorrektur erster Ordnung 85
(0)
zu erhalten, multiplizieren wir Gl. (2.7b) von links mit hΦn | (0) ˆ (1) (0) (0) (1) (1) (0) (0) ˆ (0) hΦ(0) n |H1 |Φn i + hΦn |H0 |Φn i = En hΦn |Φn i + En hΦn |Φn i | {z } | {z } (0)
1
(0)
En hΦn |
Die Energiekorrektur erster Ordnung ist somit lediglich der Erwartungs(0) wert des Störoperators im Eigenzustand |Φn i des ungestörten Systems. E NERGIEKORREKTUR
ERSTER
O RDNUNG
ˆ (0) En(1) = hΦ(0) n |H1 |Φn i
(2.8)
Das bedeutet auch, daß die Gesamtenergie bis zur ersten Ordnung durch den Erwartungswert des Gesamt-Hamiltonoperators ˆ (0) En = hΦ(0) n |H|Φn i (0)
im Eigenzustand |Φn i des ungestörten Systems gegeben ist.
Vektorkorrektur erster Ordnung Als nächstes soll die Korrektur für den Eigenvektor gefunden werden. Da(0) zu multiplizieren wir Gl. (2.7b) von links mit hΦm | für m 6= n (0) ˆ (1) (0) (0) (1) (1) (0) (0) ˆ (0) hΦ(0) m |H1 |Φn i + hΦm |H0 |Φn i = En hΦm |Φn i + En hΦm |Φn i | {z } | {z } (0)
=0
(0)
Em hΦm |
ˆ (0) hΦ(0) m |H1 |Φn i = (1) ⇒ hΦ(0) m |Φn i =
86
(0) (1) En(0) − Em hΦ(0) m |Φn i
(0) ˆ (0) hΦm |H 1 |Φn i (0)
(0)
En − Em
(2.9)
Wenn wir
(1) |Φn i
n o (0) nach |Φm i entwickeln, erhalten wir
|Φ(1) n i =
X
(0) (1) |Φ(0) m ihΦm |Φn i
m →Gl.(2.9)
X
(0) (0) (1) |Φ(1) n i = |Φn ihΦn |Φn i +
z }| { (0) (1) |Φm i hΦ(0) m |Φn i
m6=n
(0)
(0) (0) (1) |Φ(1) n i = |Φn ihΦn |Φn i +
X
|Φ(0) m i
m6=n (0)
(0)
ˆ 1 |Φn i hΦm |H (0)
(0)
En − Em
(2.10)
(1)
Der Entwicklungskoeffizient hΦn |Φn i kann aus Gl. (2.7b) nicht bestimmt werden. Um diesen Entwicklungskoeffizienten festzulegen, muß die Normierung des Vektors |Φn i in der betrachteten Ordnung in λ berücksichtigt werden (0)
(1)
|Φn i + λ|Φn i + O(λ2 ) |Φn i = 1/2 (0) (1) (0) (1) hΦn | + λhΦn | + O(λ2 ) |Φn i + λ|Φn i + O(λ2 ) (0)
(1)
|Φn i + λ|Φn i + O(λ2 )
=
1/2 (0) (0) (1) (1) (0) 2) hΦ(0) |Φ i +λ hΦ |Φ i + hΦ |Φ i +O(λ n n | n {z n } | n {z n } =1
=:κ
1 (1) 2 = 1 − λκ + O(λ2 ) |Φ(0) i + λ|Φ i + O(λ ) n n 2 κ (0) (1) 2 = |Φ(0) n i + λ |Φn i − |Φn i +O(λ ) | {z2 }
(1)
˜n i |Φ
(1)
˜ n i für einen normierten Vektor Das heißt, die Korrektur erster Ordnung |Φ |Φn i ist κ (0) (1) ˜ (1) |Φ |Φ i (2.11) n i = |Φn i − 2 n (0)
Die Entwicklung nach |Φm i lautet ˜ (1) i = |Φ n
X
(0) ˜ (1) (0) (0) ˜ (1) |Φ(0) m ihΦm |Φn i = |Φn ihΦn |Φn i +
m
X m6=n
87
(0) ˜ (1) |Φ(0) m ihΦm |Φn i
Mit Gl. (2.11) wird daraus =:ξ
z
}| { κ (0) (0) (0) (0) (1) (1) ˜ |Φn i = |Φn i hΦn |Φn i − hΦn |Φn i 2 | {z } =1 X κ (0) (0) (0) (0) (1) + |Φm i hΦm |Φn i − hΦm |Φn i | {z } 2 | {z } m6=n
=0
→Gl.(2.9)
˜ (1) i = ξ |Φ(0) i + |Φ n n
X hΦ(0) ˆ (0) m |H1 |Φn i |Φ(0) m i (0) (0) E − E n m m6=n
1 (1) (0) (1) (1) (0) hΦ(0) |Φ i − hΦ |Φ i + hΦ |Φ i n n n n n n 2 1 (1) (1) (0) = hΦ(0) n |Φn i − hΦn |Φn i 2 1 (0) (1) (1) ∗ = hΦn |Φn i − hΦ(0) |Φ i (a, b ∈ R) 2 | {z } | n {z n }
ξ =
a+ib
a−ib
= ib
Die Korrektur erster Ordnung läßt sich also schreiben als ˜ (1) i = ib|Φ(0) i + |Φ n n
X hΦ(0) ˆ (0) m |H1 |Φn i m6=n
(0) En
−
(0) Em
|Φ(0) m i
Der gesuchte Eigenvektor ist somit 2 ˜ (1) |Φn i = |Φ(0) n i + λ|Φn i + O(λ ) (0) ˆ (0) X (0) hΦm |H1 |Φn i +O(λ2 ) |Φn i = (1 + ibλ)|Φ(0) i + λ |Φ i n m (0) (0) − Em } m6=n | En {z =:cmn
Unter Verwendung der Reihenentwicklung der Exponentialfunktion eibλ = 1 + ibλ + O(λ2 ) 88
folgt |Φn i = eibλ |Φ(0) n i+λ
X
2 cmn |Φ(0) m i + O(λ )
m6=n
−ibλ = eibλ |Φ(0) n i + λe | {z }
X
2 cmn |Φ(0) i + O(λ ) m
=λ+O(λ2 ) m6=n
= eibλ |Φ(0) n i+λ
X
2 cmn |Φ(0) i + O(λ ) m
m6=n
Da der konstante Phasenfaktor beliebig gewählt werden kann, setzen wir b = 0 und erhalten schließlich die Korrektur erster Ordnung zum Eigenvektor K ORREKTUR ERSTER O RDNUNG
DES
E IGENVEKTORS
(0)
|Φ(1) n i =
X
|Φ(0) m i
m6=n (1) hΦ(0) n |Φn i = 0
.
(0)
ˆ 1 |Φn i hΦm |H (0)
(0)
En − Em
(2.12) (2.13)
ˆ1 H ˆ 0 "bedeutet. Damit Gl. Wir können nun auch quantifizieren, was "H (2.12) eine gute Näherung ist, muß gelten (0) hΦ(0) |H m ˆ 1 |Φn i |cmn | = (0) ∀m = 6 n (2.14) 1 (0) En − Em Bei der Störungstheorie geht man nur selten über die Korrektur erster Ordnung für die Vektoren hinaus. Allerdings ist es notwendig, für die Energiekorrektur bis zur zweiten Ordnung zu gehen, insbesondere wenn der Beitrag erster Ordnung (aus Symmetriegründen) verschwindet. Wenn die Störung klein ist, genügt es, den ersten nicht-verschwindenden Beitrag zu berechnen. Falls die Reihe nicht schnell genug konvergiert, kann es nötig werden, bestimmte Beiträge zur Störungstheorie bis zu unendlicher Ordnung aufzusummieren. Hierfür gibt es sogenannte diagrammatische Methoden.
89
Energiekorrektur zweiter Ordnung (0)
Wir multiplizieren Gl. (2.7c) von links mit hΦn | und erhalten (0) (2) (0) En hΦ n |Φn i , z }| { (0) ˆ (1) (0) ˆ (2) hΦn |H1 |Φn i + hΦn |H0 |Φn i
0 (Gl.(2.13)) , z }| { (1) (0) (0) (2) (1) (0) = En + En hΦn |Φn i +En hΦn |Φ(2) n i
ˆ (1) En(2) = hΦ(0) n |H1 |Φn i Einsetzen der Gl. (2.12) liefert somit X ˆ (0) En(2) = hΦ(0) n |H1 |Φm icmn m6=n
=
(0) ˆ (0) (0) hΦm |H1 |Φn i (0) ˆ hΦn |H1 |Φm i (0) (0) En − Em m6=n
X
E NERGIEKORREKTUR
En(2) =
ZWEITER
O RDNUNG
N X
(0) ˆ (0) 2 hΦm |H1 |Φn i
m=1
En − Em
(0)
(0)
.
.
(2.15)
m6=n
• Die Korrektur zum Grundzustand (n=0) ist immer negativ, da (0) (0) E0 − Em < 0 ∀ m 6= 0 • Die Korrektur zum obersten Zustand (n=N) ist immer positiv, da (0) (0) EN − Em > 0 ∀ m 6= N • Paare von Niveaus i, j stoßen sich ab!(Anti-level-crossing!)
90
B EISPIEL : S PIN -1/2 T EILCHEN IM EXTERNEN M AGNETFELD Wir wollen nun ein einfaches Beispiel exakt lösen und anschließend mit dem Ergebnis der Störungstheorie vergleichen. ~ = Wir betrachten ein Spin-1/2 Teilchen in einem externen Magnetfeld B ˆ = −gBz Sˆz . B~ez in z-Richtung. Der Hamiltonoperator dieses Systems lautet H Die Eigenvektoren sind gleichzeitig Eigenvektoren von Sˆz , d.h. |±zi, mit den Eigenwerten ∓gBz ~/2. Als Störung schalten wir nun ein schwaches B-Feld in x-Richtung hinzu. Der Hamiltonoperator lautet nun ˆ = −gBz Sˆz − gBx Sˆx , mit |Bx | |Bz |. In der Sz -Basis ist die HamiltonH Matrix |+zi |−zi (2.16) |+zi −gBz ~2 −gBx ~2 |−zi −gBx ~2 gBz ~2 Die Eigenwertgleichung lautet daher in Matrixform g~ Bz Bx − ~x = E~x . Bx −Bz 2
(2.17)
Eine nicht triviale Lösung existiert nur, wenn g~ Bz Bx − ˆ1E = E 2 − (g ~ )2 (Bx2 + Bz2 ) =! 0 − 1 2 Bx −Bz 2
.
(2.18)
Daraus folgt ~ = ±g B p 2 B := Bx2 + Bz2
E±
.
Dieses Ergebnis ist unmittelbar einsichtig. Da das physikalische Problem rotationsinvariant ist, kann man die z-Achse auch in Richtung des GesamtMagnetfeldes legen. Als nächstes bestimmen wir noch die Eigenvektoren. Einsetzen der Eigenwerte ±g~B/2 in die Eigenwertgleichung (2.17) liefert Bz Bx ˆ ± 11B ~x = 0 Bx −Bz Aufgrund der verschwindenden Determinante genügt es, die erste Gleichung zu erfüllen, (Bz ± B) x1 + Bx x2 = 0. Bis auf die Normierung lautet 91
der Eigenvektor also ~x =
Bx −(Bz ± B)
.
Zum späteren Vergleich entwickeln wir nun die Lösung nach dem kleinen Parameter λ := Bx /Bz . E± = ±
Bz g~ √ 1 Bz g~ 1 + λ2 = ± (1 + λ2 + O(λ4 )) 2 2 2
.
(2.19)
Das heißt, die Energie in nullter Ordnung in λ ist ±Bz g~/2. Die Energiekorrektur erster Ordnung verschwindet, und die Korrektur zweiter Ordnung lautet ±(Bz g~/4)λ2 . Ohne Beschränkung der Allgemeinheit haben wir Bz > 0 angenommen. Für den Eigenvektor zu E+ lautet die Reihenentwicklung 1 1 λ − λ2 ~x+ = = 2 Z+ −(2 + O(λ2 ))) Z˜+ 1 + O(λ ) r λ . (2.20) Z˜+ = ( )2 + (1 + O(λ2 ))2 = 1 + O(λ2 ) 2 λ 1 0 − 2 + O(λ3 ) λ ~x+ = = −2 + O(λ2 ) 2 1 0 1 + O(λ ) Der erste Vektor auf der rechten Seite von 2.20 stellt den Beitrag nullter Ordnung und der zweite Term den erster Ordnung dar. Analog ergibt die Reihenentwicklung für den Eigenvektor zu E− 1 1 λ 1 ~x− = = 1 2 1 λ + O(λ4 ) λ + O(λ3 ) Z− Z˜− 2 2 p . (2.21) Z˜− = 1 + O(λ2 ) = 1 + O(λ2 ) 2 1 + O(λ ) 1 0 ~x− = = + λ2 + O(λ2 ) λ 3 0 1 + O(λ ) 2
Wir wollen nun das Problem störungstheoretisch behandeln. Wir identiˆ 0 = −gBz Sˆz und H ˆ 1 = −gBx Sˆx . Die Eigenlösung von H ˆ 0 ist fizieren H (0)
|Φ1,2 i = |±zi ;
(0)
E1,2 = ∓ 92
~gBz 2
(1)
(0)
(0)
Die Energiekorrektur erster Ordnung verschwindet wegen En = hΦn |Sˆx |Φn i = 0. Hier haben wir es also mit dem Fall zu tun, daß es notwendig ist, die Korrektur zweiter Ordnung zu bestimmen. Für die Nichtdiagonalelemenˆ 1 gilt hΦ(0) ˆ (0) te von H n |H1 |Φm i = −g~Bx /2 und somit (0) ˆ (0) 2 2 |Φ i X hΦm |H n 1 ~gBx 1 (2) = En = (0) (0) (0) 2 En − Em 2En m6=n (2)
E1/2 = ∓
~gBx2 4Bz
Die Korrektur erster Ordnung für den Eigenzustand lautet: |Φ(1) n i
=
(0) ˆ (0) X |Φ(0) m ihΦm |H1 |Φn i (0)
(0)
En − Em
m6=n
=−
g~Bx 1 X (0) Bx X (0) |Φ i = ± |Φ i 2 2En(0) m6=n m 2Bz m6=n m
In Tabelle 2.1.1 sind die Ergebnisse für die Eigenwerte und Eigenvektoren zusammengefaßt. Sie stimmen in der betrachteten Ordnung mit den exakten Ergebnissen in den Gl. (2.19,2.20 und 2.21) überein. (0)
n |Φn i 1 2
|+zi |−zi
(0)
En
(0)
(2)
En + En
(1)
|Φn i
(2.22)
~gBz 1 2 λ z − ~gB − 1 + λ |−zi 2 2 2 2 ~gBz ~gBz 1 2 λ 1 + λ − |+zi 2 2 2 2
Tabelle 2.1: Beiträge zur Störungstheorie.
2.1.2 Störungstheorie für (fast) entartete Zustände Wir wenden uns nun dem Fall zu, daß es für den betrachteten Zustand hΦ(0) |Hˆ |Φ(0) i (0) (0) |Φn0 i mindestens einen weiteren Zustand |Φm i gibt, für den gilt n0(0) 1 (0)m 6 En0 −Em 1. In diesem Fall bricht der bisher betrachtete Formalismus zusammen. Den (0) (0) Extremfall stellen entartete Zustände dar, bei denen En0 − Em = 0 für bestimmte m 6= n ist. In diesem Fall ist die Abhängigkeit vom Störparameter λ im allgemeinen nicht analytisch, denn für λ = 0 liegt irgendeine beliebiˆ 0 |Φ(0) i = En(0) |Φ(0) i i = 1 · · · l ge Linearkombination der entarteten Zustände H n,i n,i 93
vor, wobei i ein zusätzlicher Index ist, der die entarteten Zustände durchnumeriert. ˆ 1 die Entartung aufgehoben wird, gibt es genau einen Satz Wenn durch H (0) von orthonormierten Zuständen in dem Raum, der durch die |Φn,i i aufgespannt wird. D.h. beim Übergang von λ = 0 zu einem infinitesimal kleinen λ springen die Zustände in die Eigenzustände des Störoperators. t
t
t
(0) Ena
ttt tt
t
t
(0) En0
t
t
(0) Enb
-
E
Abbildung 2.1: Eigenwertspektrum ˆ 0 (Abb.2.1) und wählen einen Wir betrachten das Eigenwertspektrum von H Referenz-Zustand n0 und dessen Nachbarschaft na < n0 < nb so, daß gilt (0) hΦ(0) |H n0 ˆ 1 |Φn i ∀ n∈ /N , (0) 1 En0 − En(0) mit der Definition der Indexmenge N = {na , na + 1, · · · , n0 , · · · , nb }. P (0) (0) Wir definieren den Projektions-Operator Pˆ = |Φi ihΦi |, der in den i∈N
Raum der Zustände projiziert, die mit n0 (fast) entartet sind. ˆ = 1ˆ1 − Pˆ = P |Φ(0) ihΦ(0) |. Wir teilen nun H ˆ Das Komplement von Pˆ ist Q i i i∈N /
wie folgt auf ˆ (Pˆ + Q) ˆ =H ˆ + Pˆ H ˆ Pˆ + Pˆ H ˆ Q ˆ+Q ˆH ˆ Pˆ + Q ˆH ˆ 1Q ˆ ˆ =H ˆ 0 + (Pˆ + Q) ˆ H H {z1 } | {z } 1 | {z } | 0 {z 1 } | 1 ˆ ˆ =1ˆ1 =1ˆ1 =H˜0 =H˜1 ˆ˜ . Wegen Zunächst lösen wir das Eigenwertproblem von H 0 ( 0 n∈ /N Pˆ |Φ(0) (0) n i = |Φn i n ∈ N erhalten wir ˆ˜ |Φ(0) i = H ˆ 0 |Φ(0) i + Pˆ H ˆ 1 Pˆ |Φ(0) i H 0 n n n ( 0 n∈ /N ˆ = En(0) |Φ(0) (0) n i+P ˆ H1 |Φn i n ∈ N Es gibt nun zwei unterschiedliche Fälle 94
a) n ∈ / N: (0) (0) ˆ ˜ 0 |Φ(0) H n i = En |Φn i d.h. die alten, ungestörten Zustände bleiben Eigenzustände. b) n ∈ N ˆ˜ |Φ(0) i = E (0) |Φ(0) i + Pˆ H ˆ 1 |Φ(0) H n n n n i 0 (0)
Multiplikation mit hΦm | von links ergibt ˆ˜ (0) (0) (0) ˆ ˆ (0) hΦ(0) m |H0 |Φn i = En δnm + hΦm |P H1 |Φn i ( 0 m∈ /N (0) wobei hΦm |Pˆ = (0) hΦm | m ∈ N
,
d.h. es gibt nur nicht-verschwindende Matrixelemente für die Zu(0) stände |Φm i mit m ∈ N . ˆ˜ hat somit folgende Blockgestalt: Die Matrixdarstellung von H 0 N N N A 0 N 0 ∆
(2.23)
Hierbei ist A in der Regel eine vollbesetzte Matrix mit den Matrixelementen 0 ˜ mn ˆ (0) Amn = H = δmn En(0) + hΦ(0) m |H1 |Φn i
Im nicht-diagonalen Block sind alle Matrixelemente Null und ∆ ist eine (0) Diagonalmatrix ∆nn0 = δnn0 En . Das Eigenwertproblem von A stellt in der Regel kein Problem dar, da der Raum der (fast) entarteten Zustände klein ist. (Dimension < 1000). Somit haben wir für die Störungsrechnung einen neuen Ausgangspunkt ˆ˜ + H ˆ˜ mit H ˆ˜ = H ˆ˜ = Pˆ H ˆ =H ˆ 0 + Pˆ H ˆ 1 Pˆ und H ˆ 1Q ˆ+Q ˆH ˆ 1 Pˆ + Q ˆH ˆ 1 Q. ˆ H 0 1 0 1 ˆ˜ betrachten wir nun als gelöst. Dabei ist zu Das Eigenwertproblem zu H 0 (0)
beachten, daß die Vektoren |Φn i für n ∈ / N weiterhin Eigenvektoren von ˜ˆ H 0 sind. Die Eigenvektoren zu n ∈ N ergeben sich aus der Linearkombination X (0) ˜ (0) i = |Φ ci |Φi i . n i∈N
Es soll noch einmal daran erinnert werden, daß wir ursprünglich am Zustand n0 interessiert waren. Wir können aber auch gleich die Korrektur 95
für andere Zustände in n ∈ N , die „nahe bei no ” liegen, mit berechnen. Hierfür ergibt die Energiekorrektur erster Ordnung ˆ˜ |Φ ˜ (0) |H ˜ (0) i En(1) = hΦ 1 n n ˆΦ ˜ 0n i = 0 weil |Φ ˜ 0n i eine LinearkombinatiDa wir nur n ∈ N zulassen, gilt Q| on der Zustände n ∈ N , d.h. der Zustände aus dem von Pˆ aufgespannten ˆ˜ vorkommt, gilt ˆ in jedem Term von H Raum ist. Da Q 1 E NERGIEKORREKTUR
ERSTER
En(1) = 0 ;
O RDNUNG
n∈N
BEI
E NTARTUNG
,
(2.24)
ˆ˜ enthalten. ˆ 1 sind bereits in H d.h. die linearen Einflüsse von H 0 Für n ∈ N gilt weiter |Φ(1) n i =
X
˜ (0) i |Φ m
m6=n
˜ (0) ˜ (0) Pˆ |Φ n i = |Φn i ˆΦ ˜ (0) Q| n i = 0
|Φ(1) n i
)
ˆ˜ ˜ (0) ˜ (0) hΦ m |H1 |Φn i (0) (0) E˜n − E˜m
ˆ˜ |Φ ˜ (0) ˆ ˆ ˜ (0) ⇒H 1 n i = QH1 |Φn i
˜ (0) ˆ ˆ ˜ (0) (0) hΦm |QH1 |Φn i ˜ = |Φm i (0) (0) E˜n − E˜m m6=n X
˜ (0) |Q ˆ=0 m ∈ N ⇒ hΦ (m (0) ˜ (0) hΦ m | = hΦm | m∈ /N ⇒ (0) (0) E˜m = Em Somit sieht die Energiekorrektur zweiter Ordnung beim (fast-)entarteten Spektrum von H0 formal ähnlich aus wie beim nicht entarteten Spektrum. 96
ENTARTETE
|Φ(1) n i
S TÖRUNGSRECHNUNG ERSTER O RDNUNG
˜ (0) ˆ ˜ (0) (0) hΦm |H1 |Φn i ˜ = |Φm i (0) ; (0) ˜n − E˜m E m∈N / X
n∈N
.
(2.25)
Mit denselben Überlegungen erhalten wir E NERGIEKORREKTUR ZWEITER O RDNUNG
En(2) =
˜ (0) ˆ ˜ (0) 2 X hΦ m |H1 |Φn i m∈N /
(0) (0) E˜n − E˜m
;
BEI
n∈N
E NTARTUNG
.
(2.26)
P Durch m∈N sind die / Grundlagen für die Anwendbarkeit der Störungs(0) ˆ hΦ(0) theorie ( m(0)|H1 |Φ(0)n i 1) sichergestellt. E −E n
m
Die Energien und Eigenvektoren zu n ∈ / N müssen separat berechnet werden; also entweder mit den Formeln der nicht-entarteten Störungstheorie oder indem in den obigen Überlegungen n als neuer Bezugspunkt n0 gewählt wird.
97
2.2
Brillouin-Wigner Störungstheorie
Die Schrödingersche Störungstheorie hat den Nachteil, daß es mit sehr viel Mühe verbunden ist, zu höherer Ordnung zu gehen und der Fall der Entartung separat behandelt werden muß. Eine alternative Vorgehensweise bietet die Brillouin-Wigner Störungstheorie. Hierbei werden in allen Termen Beiträge teilweise bis zu unendlicher Ordnung im Störoperator ˆ 1 aufsummiert. Die Brillouin-Wigner Störungstheorie hat den Vorteil, H daß Korrekturen höherer Ordnung bequem angegeben und auch entartete Probleme im selben Formalismus behandelt werden können. Wie bei der Schrödingerschen Störungstheorie ist der Ausgangspunkt das ungestörte Eigenwertproblem Gl. (2.3). Die Eigenwertgleichung Gl. (2.1) des gesamten Hamilton-Operators wird in die Form ˆ 0 )|Φn i = H ˆ 1 |Φn i (En − H
(2.27)
gebracht. Der nicht normierte n-te Eigenvektor kann immer in der Form ⊥ |Φn i = |Φ(0) n i + |Φn i
(2.28)
bestehend aus dem Beitrag nullter Ordnung und einem dazu orthogona(0) (0) ⊥ len Vektor |Φ⊥ n i geschrieben werden. D.h. hΦn |Φn i = 0 und hΦn |Φn i = 1. Das kann bei der Bestimmung des Eigenwertes En ausgenutzt werden. (0) Wir multiplizieren hierzu Gl. (2.27) von links mit dem Bra-Vektor hΦn | und erhalten ˆ (2.29) En = En(0) + hΦ(0) n |H1 |Φn i Für die folgenden Überlegungen wird der Projektionsoperator benötigt X (0) ˆ = 1ˆ1 − |Φ(0) ihΦ(0) | = Q |Φ(0) , (2.30) n n m ihΦm | m6=n (0)
der in den Raum orthogonal zu |Φn i projiziert. Offensichtlich vertauscht ˆ mit Hˆ0 , so daß die linksseitige Multiplikation von Gl. (2.27) mit Q ˆ Q ˆ n i = (En − H ˆ 0 )−1 Q ˆH ˆ 1 |Φn i Q|Φ
(2.31)
liefert. Der inverse Operator ist über die Reihenentwicklung definiert. Gleiˆ multipliziert chung (2.28) von links mit Q ˆ n i = Q|Φ ˆ (0) i + Q|Φ ˆ ⊥ i = |Φ⊥ i Q|Φ n | {zn } | {zn } 0
|Φ⊥ ni
98
ˆ erlaubt es, den orthogonalen Anteil |Φ⊥ n i in Gl. (2.28) durch Q|Φn i und diesen wiederum durch Gl. (2.31) zu ersetzen ˆ −1 Q ˆH ˆ 1 |Φn i |Φn i = |Φ(0) n i + (En − H0 )
.
Damit kann der gesuchte Eigenvektor |Φn i =
ˆ 0 )−1 Q ˆH ˆ1 1ˆ1 − (En − H
−1
|Φ(0) n i
(2.32)
durch den Vektor nullter Ordnung ausgedrückt werden. Wir setzen diesen Ausdruck in Gl. (2.29) ein, um auch den Eigenwert En =
En(0)
+
ˆ hΦ(0) n |H1
ˆH ˆ1 ˆ 0 )−1 Q 1ˆ1 − (En − H
−1
|Φ(0) n i
(2.33)
ausschließlich durch den Vektor nullter Ordnung auszudrücken. Dieser Ausdruck erlaubt eine systematische Entwicklung nach Potenzen von Hˆ1 (0) ˆ ˆ (0) ˆ −1 Q ˆH ˆ 1 |Φ(0) En = En(0) + hΦ(0) n |H1 |Φn i + hΦn |H1 (En − H0 ) n i
+
ˆ hΦ(0) n |H1
ˆ 0 )−1 Q ˆH ˆ 1 · (En − H ˆ 0 )−1 Q ˆH ˆ 1 |Φ(0) i + . . . (En − H n
(2.34)
Aus der ersten Zeile folgt der Eigenwert in zweiter Ordnung BrillouinWigner Störungstheorie
ˆ (0) En = En(0) + hΦ(0) n |H1 |Φn i +
(0) ˆ (0) 2 X hΦn |H 1 |Φm i (0)
m6=n
En − Em
.
(2.35)
(0) (0) ˆ 0 |Φ(0) Hierbei wurde Gl. (2.30) und H n i = En |Φn i verwendet. Der Ausdruck in Gl. (2.35) hat große Ähnlichkeit mit dem der Schrödingerschen Störungstheorie. Man beachte aber, daß hier im Nenner der exakte Eigenwert En steht. Das bedeutet, daß diese Gleichung selbst-konsistent gelöst werden muß. Insofern enthält der Term zweiter Ordnung in der BrillouinWigner Störungstheorie bereits Teilsummen bis zu unendlicher Ordnung ˆ 1 . Entwickelt man auch den Eigenwert En , der im Nenner von Gl. in H ˆ 1 , so erhält man die unhandlichen (2.35) vorkommt, nach Potenzen von H Terme der Schrödingerschen Störungstheorie. Das Vorhandensein des Eigenwertes En im Nenner von Gl. (2.35) erlaubt es, auch entartete Probleme zu behandeln. Das soll an einem einfachen Beispiel illustriert werden. Wir
99
untersuchen die n × n Matrix d1 e e e . . . d1 0 0 e d2 0 0 . . . 0 d2 0 H = e 0 d3 0 . . . = 0 0 d3 e 0 0 d4 0 0 0 .. .. .. .. .. .. ... . . . . . . {z | H0
0 0 ... 0 . . . e 0 . . . + e d4 e .. ... . } |
e 0 0 0 .. .
e e 0 0 0 0 0 0 .. . {z H1
... . . . . . . ... }
mit di , e ∈ R. Diese Matrix kommt in der Festkörperphysik im Zusammenhang mit Streuungen von Elektronen an Verunreinigungen bzw. bei Hybridisierung vor. Die Eigenvektoren nullter Ordnung sind offensichtlich 0 .. . 1 ← i ~ (0) = Φ i 0 . .. 0 mit dem Eigenwert di . Die Brillouin-Wigner Störungstheorie zweiter Ordnung liefert für den ersten Eigenwert E1 = d1 + 0 +
n X i=2
e2 E1 − di
.
Uns interessiert insbesondere der Fall di = d, bei dem alle Energien von ˆ 0 entartet sind. In der Schrödingerschen Störungsrechnung ist es notH wendig, diese Matrix exakt, vollständig zu diagonalisieren. Die BrillouinWigner Störungsrechnung hingegen kann problemlos angewandt werden und liefert über (n − 1)e2 E1 − d = E1 − d das Ergebnis E1 = d ±
√
n − 1e
,
das gleichzeitig mit dem exakten Ergebnis übereinstimmt. Die Matrix besitzt neben diesen beiden Eigenwerten noch den (n-2)-fach entarteten, unverschobenen Eigenwert d. Man erhält die anderen Energie ebenfalls aus der Brillouin-Wigner Störungstheorie, indem man den Formalismus auf die anderen Ausgangszustände nullter Ordnung anwendet. 100
Die Brillouin-Wigner Störungsrechnung liefert natürlich nicht in allen Fällen das exakte Ergebnis. Sie ist aber fast immer der Schrödingerschen Störungsrechnung überlegen. Es gibt in Vielteilchen-Rechnungen jedoch das Problem der G RÖSSENKONSISTENZ. Das bedeutet, die Gesamtenergie sollte mit der Systemgröße linear anwachsen. Bei der Brillouin-Wigner Störungsrechnung ist die Größenkonsistenz nicht gewährleistet. Dieses Problem kann mit K UMMULANTENTECHNIKEN behoben werden.
101
2.3
Variationsansatz
Die Schrödingersche Störungstheorie ist gut anwendbar, wenn der Hauptteil des Hamiltonoperators bereits exakt diagonalisiert werden kann. Dies ist allerdings nicht immer der Fall. Eine Alternative bietet die Variationsmethode, die besonders dann hilfreich sein kann, den Grundzustand eines Systems abzuschätzen, wenn die exakte Lösung nicht bekannt ist und wenn kein kleiner Störterm vorliegt. Die Idee des Variationsansatzes besteht darin, eine physikalisch motivierte „Testfunktion” mit freien Parametern zu formulieren. Die Parameter werden so bestimmt, daß die Testfunktion die Eigenwertgleichung „so gut wie möglich erfüllt”. Die Voraussetzung dafür, daß das Variationsverfahren überhaupt sinnvoll ist, besteht darin, daß der Erwartungswert des Hamiltonoperators in der Testfunktion eine obere Schranke für die exakte Grundzustandsenergie liefert. Zum Beweis gehen wir von einem beliebigen Zustandsvektor |Ψi ˆ aus und entwickeln ihn nach den Eigenzuständen |Ψn i von H ˆ n i = En |Ψn i H|Ψ
⇒
|Ψi =
X
hΨn |Ψi|Ψn i
.
n
Der Energie-Erwartungswert im Zustand |Ψi ist En δn,n0
z }| { P P ∗ 2 ˆ ˆ hΨ|H|Ψi n,n0 hΨn |Ψi hΨn |H|Ψn0 ihΨn0 |Ψi n |hΨn |Ψi| En ˜ E = = = P P 2 ∗ |Ψ 0 ihΨ 0 |Ψi hΨ|Ψi n,n0 hΨn |Ψi hΨ n |hΨn |Ψi| | n{z n } n δn,n0
P =
n
2
|hΨn |Ψi| (En − E0 + E0 ) P 2 n |hΨn |Ψi| ≥0
≥0 P z }| {2 z }| { P 2 n |hΨn |Ψi| (En − E0 ) n |hΨn |Ψi| E0 = + P ≥ E0 P 2 |hΨn |Ψi|2 n |Ψi| n |hΨ n | {z } | {z } ≥0
E0
Daraus folgt also das gesuchte Ergebnis E˜ ≥ E0 . Die Gleichheit E˜ = E0 liegt dann und nur dann vor, wenn |Ψi = |Ψ0 i. Man kann mit analogen Überlegungen auch zeigen, daß E˜ ≤ Emax . Also gilt 102
E0 ≤
ˆ hΨ|H|Ψi ≤ Emax hΨ|Ψi
.
(2.36)
Der Erwartungswert der Energie in einem beliebigen reinen Zustand liegt also immer im Eigenwertspektrum. Das Ergebnis überträgt sich unmittelˆ ≤ Emax . bar auf beliebige Zustände E0 ≤ Sp(ˆ ρ H) Für die Aussagekraft des Variationsansatzes ist es wichtig, daß E˜ eine obere Schranke für die Grundzustandsenergie darstellt. Ein schlechter Testvektor kann immer noch eine gute Energie liefern. Eine Näherung der Ordnung O() für den Testvektor liefert eine Näherung der Ordnung O(2 ) für die Grundzustandsenergie |Ψi = |Ψ0 i + O()
⇒
E˜ = E0 + O(2 )
Beweis: Wir drücken den Testzustand |Ψi durch den Beitrag nullter Ordnung |Ψ0 i und den Korrekturvektor |∆i, der von der Ordnung O(ε) sein soll, aus. ˆ hΨ0 | + h∆| H |Ψ0 i + |∆i E˜ = hΨ0 | + h∆| |Ψ0 i + |∆i = =
ˆ 0 i + hΨ0 |H|∆i ˆ ˆ 0 i + h∆|H|∆i ˆ hΨ0 |H|Ψ + h∆|H|Ψ hΨ0 |Ψ0 i + hΨ0 |∆i + h∆|Ψ0 i + h∆|∆i ˆ E0 hΨ0 |Ψ0 i + E0 hΨ0 |∆i + E0 h∆|Ψ0 i + h∆|H|∆i hΨ0 |Ψ0 i + hΨ0 |∆i + h∆|Ψ0 i + h∆|∆i
ˆ E0 hΨ0 |Ψ0 i + hΨ0 |∆i + h∆|Ψ0 i + h∆|∆i − h∆|∆i + h∆|H|∆i =
hΨ0 |Ψ0 i + hΨ0 |∆i + h∆|Ψ0 i + h∆|∆i O(2 )
z }| { ˆ − E0 |∆i h∆| H = E0 +
hΨ|Ψi | {z } O(1)
Der Variationsansatz besteht darin, daß man einen geeigneten Vektor als T estvektor wählt. Diese Wahl ist der Intuition bzw. Erfahrung des Physikers überlassen. |Ψi sollte sinnvoll, aber auch mathematisch einfach sein, 103
d.h. die Erwartungswerte sollten berechenbar sein. Um eine bessere Näherung zu erhalten, parametrisiert man üblicherweise den Testvektor |Ψi = |Ψ(~λ)i. Der beste Zustandsvektor ist dann jener, der den Energie-Erwartungswert ~λ)i ˆ hΨ(~λ)|H|Ψ( E(~λ) = hΨ(~λ)|Ψ(~λ)i minimiert. ∂ E(~λ) = 0 ⇒ ~λopt ⇒ E opt = E(~λopt ) ∂λ
B EISPIEL : D ER HARMONISCHE O SZILLATOR
Abbildung 2.2: Links:Harmonisches Potential, rechts: Gaußsches Wellenpaket.
Das Potential des harmonischen Oszillators ist in Abbildung (2.2) abgebildet. Die tiefste Energie ist klassisch erreicht, wenn das Teilchen bei x = 0 zur Ruhe gekommen ist. Die Aufenthaltswahrscheinlichkeit ist dann: P (x) = δ(x). Der klassische Grundzustand besitzt aber auch den Impuls p = 0. Dies steht im Widerspruch zur quantenmechanischen Unschärferelation. D.h., die Aufenthaltswahrscheinlichkeit muß etwas „verschmiert” 104
sein: Wir setzen testweise eine Gaußfunktion (siehe Abbildung (2.2)) mit variabler Breite σ für die Aufenthaltswahrscheinlichkeit an PQM (x) =
√1 πσ 2
x2
e− σ2
.
Die Wahrscheinlichkeit ist auf eins normiert Z+∞ PQM (x) dx = 1
.
−∞
Außerdem ist der klassische Grenzfall für σ → 0 enthalten lim PQM (x) = δ(x)
.
σ→0
Wegen P (x) = |Ψ(x)|2 ist die zugehörige Testfunktion
Ψ(x) =
x2
e− 2σ2
1 1 (πσ 2 ) 4
.
Der Hamiltonoperator des harmonischen Oszillators lautet: ˆ = H
1 ˆ2 P 2m
+
mω 2 ˆ 2 X 2
(2.37)
Der Energie-Erwartungswert ist dann 1 ˆ2 ˆ E˜ = hΨ|H|Ψi = hΨ| 2m P + =
1 hΨ|Pˆ 2 |Ψi 2m
Z =
1 hΨ|xi 2m
+
|Ψi
mω 2 ˆ 2 |Ψi hΨ|X 2
ˆ2
hx|P |Ψi | {z } −~2
mω 2 ˆ 2 X 2
d2 Ψ(x) dx2
2 ˆ 2 |Ψi + mω hΨ|xi hx|X 2 | {z }
x2 Ψ(x)
105
dx
.
.(2.38)
Daraus folgt 2 2 Z 2 Z ~ d mω ∗ E˜ = − dx Ψ(x) Ψ(x) + dx |Ψ(x)|2 x2 2m dx2 2 1 d2 − x22 d2 Ψ(x) = e 2σ 1 dx2 (πσ 2 ) 4 dx2 d x − x22 1 = − 2 e 2σ 1 σ (πσ 2 ) 4 dx 1 − x22 x x − x22 1 2σ + e e 2σ − = 1 σ2 σ2 σ2 (πσ 2 ) 4 2 1 x2 − x 2 −1 2σ = 1− 2 1 e σ2 σ (πσ 2 ) 4 | {z } =Ψ(x)
2
d 1 x2 Ψ(x) = − 1 − Ψ(x) . dx2 σ2 σ2 Der Energie-Erwartungswert wird zu 2 Z 2 2 Z ~ 1 x mω 2 E˜ = dx |Ψ(x)| 2 1 − 2 + dx |Ψ(x)|2 x2 2m σ σ 2 Z Z mω 2 Z ~2 1 2 2 2 = dx |Ψ(x)| − 2 dx |Ψ(x)| x + dx |Ψ(x)|2 x2 2 2mσ σ 2 | {z } =1
Wir benötigen nur noch die Varianz der Gaußfunktion Z Z x2 1 σ2 2 2 dx |Ψ(x)| x = √ dx e− σ2 x2 = 2 πσ
,
um den endgültigen Ausdruck für den Energie-Erwartungswert angeben zu können ~2 1 σ 2 mω 2 σ 2 ~2 mω 2 σ 2 E˜ = 1 − + = + . 2 2mσ 2 σ2 2 2 2 4mσ 4 | {z } | {z } =T
=V
Die gegenläufigen Energiebeiträge sind in Abbildung (2.3) dargestellt. • T nimmt mit zunehmendem σ 2 ab, da das Teilchen weniger „lokalisiertïst und somit kinetische Energie verliert. (vgl. Unschärferelation) • V nimmt mit zunehmendem σ 2 zu, da das Teilchen weiter ausgelenkt wird und somit in Bereiche höherer potentieller Energie gelangt. 106
.
Abbildung 2.3: Beiträge V (punktiert) und T (gestrichelt) zur Gesamtenergie E (durchgezogen) als Funktionen von σ 2 , mit E0 = ~ω und x20 = ~/(mω) Die minimale (optimale) Energie E opt erhalten wir aus ~2 mω 2 ! ~ ∂ E˜ 2 = − + = 0 ⇒ σopt = 2 2 2 ∂(σ ) 4m(σ ) 4 mω E opt =
~ω ~ω ~ω + = 4 4 2
⇒ T opt = V opt
.
In diesem Fall stimmt die variationelle Energie und Wellenfunktion mit den exakten Größen überein. ~ω E0 = 2 2 − x2 1 2σopt |Ψ0 i = 1 e 2 (πσopt )4 ~ 2 σopt = . mω Das ist natürlich bei komplizierteren Problem i.d.R. nicht mehr der Fall. Für makroskopische Teilchen gilt typischerweise m = O(1g) und ω = O(sec−1 ). Für die „Breit” σ des Gaußschen Wellenpaketes erhält man dann mit ~ = 1.05457 · 10−34 Js r 10−31 σ∼ = 10−16 m 1 Das heißt, in diesem Fall ist die „Verschmierung” vernachlässigbar klein. ◦
Zum Vergleich: Atomradien sind von der Größenordnung 1A = 10−10 m. 107
2.4
Zeitabhängige (Diracsche) Störungstheorie
Häufig interessiert man sich für zeitabhängige Hamilton-Operatoren. Z.B. könnte man daran interessiert sein, was mit einem Atom passiert, wenn man elektromagnetische Wellen einstrahlt. Man kann versuchen, die zeitabhängige Schrödingergleichung analytisch exakt zu lösen. Das gelingt allerdings nur in den seltensten Fällen. Der Ausweg sind entweder numerische Verfahren, die in den letzten Jahren rasant an Leistungsfähigkeit und Bedeutung zugenommen haben. Alternativ hat man die Möglichkeit, das Problem approximativ zu lösen. Wir gehen davon aus, daß der Hamiltonˆ =H ˆ0 + H ˆ 1 (t) aus einem zeitunabhängigen Teil H ˆ 0 und einer Operator H ˆ 1 (t) besteht. Für das Folgende gehen wir davon zeitabhängigen Störung H ˆ0 aus, daß das Eigenwertproblem von H ˆ 0 |Φn i = n |Φn i H gelöst ist. In der Praxis benutzt man die Lösung des zeitabhängigen Problems, um experimentell Rückschlüsse auf das Eigenwertspektrum von ˆ 0 zu gewinnen. Z.B. kann man einen klassischen Oszillator von außen H mit einer periodischen Kraft mit einer Frequenz ω anregen. Wenn wir ω kontinuierlich variieren, wird die Amplitude der erzwungenen Schwingung bei der Eigenfrequenz des ungestörten Oszillators maximal sein. Wir können also auf diese Weise auf die Eigenfrequenz (bzw. Federkraft) und die Reibungskräfte rückschließen. In Quantensystemen ist diese Vorgehensweise die einzig mögliche, das mikroskopische System zu untersuchen. In diesem Zusammenhang hat man allerdings die Stärke des Störˆ 1 unter Kontrolle und kann erreichen, daß „ H ˆ1 H ˆ 0 ” Die Aufteiterms H ˆ ˆ 1 herrühlung der Dynamik in Anteile, die von H0 und solche, die von H ren, führt zur Einführung des Wechselwirkungsbildes.
2.4.1
Das Wechselwirkungsbild
Die Zeitentwicklung eines beliebigen Anfangszustands |Φi im zeitunabhängigen ungestörten System lautet beaknntlich i
ˆ
|Φn (t)i = e− ~ H0 t |Φi
.
Deshalb ist es sinnvoll, diesen Teil der Dynamik explizit im Zustandsvektor i ˆ , (2.39) |ΨS (t)i =: e− ~ H0 t |ΨI (t)i 108
der die Schrödingergleichung des vollen Problems lösen soll, zu berücksichtigen. Zustände im ursprünglichen S CHRÖDINGERBILD kennzeichnen wir mit einem Index S und die im W ECHSELWIRKUNGSBILD mit I. Die Zeitableitung von Gl. (2.39) liefert |ΨS i
z }| { i i ˆ d d S ˆ0t I − ~i H ˆ |Ψ (t)i +e− ~ H0 t |ΨI (t)i i~ |Ψ (t)i = i~ − H0 e dt dt ~ i ˆ d S − H t I 0 ˆ 0 |Ψ i + i~e ~ = H |Ψ (t)i (2.40) dt Wir setzen Gl. (2.39) und Gl. (2.40) in die zeitabhängige Schrödingergleichung i~
d S ˆ0 + H ˆ 1 |ΨS (t)i |Ψ (t)i = H dt
.
(2.41)
ein und erhalten ˆ 0 |ΨS i + i~e− ~i Hˆ 0 t d |ΨI (t)i = H ˆ 0 |ΨS i + H ˆ 1 e− ~i Hˆ 0 t |ΨI (t)i H dt i ˆ d ˆ 1 e− ~i Hˆ 0 t |ΨI (t)i i~e− ~ H0 t |ΨI (t)i = H dt i ˆ d ˆ 1 e− ~i Hˆ 0 t |ΨI (t)i i~ |ΨI (t)i = e+ ~ H0 t H | {z } dt ˆI =:H 1
W ECHSELWIRKUNGSBILD
ˆ I = e+ ~i Hˆ 0 t H ˆ 1 e− ~i Hˆ 0 t H 1 (2.42) d ˆ 1I |ΨI (t)i i~ |ΨI (t)i = H dt
ˆ 0: Wir entwickeln nun |ΨI (t)i nach den Eigenzuständen von H X |ΨI (t)i = cn (t)|Φn i n
109
Einsetzen in Gl. (2.42) liefert: i~
X d X ˆ 1I |Φn icn (t) cn (t)|Φn i = H dt n n
Multiplikation von links mit hΦm |: i~
X X d cn (t) hΦm |Φn i = | {z } dt n n δn,m
i~
i
ˆ I |Φ i hΦ |H | m {z1 n}
cn (t) i
ˆ S |Φn ie− ~ n t e+ ~ m t hΦm |H 1
X i d ˆ 1S |Φn i e− ~i n t cn (t) cm (t) = e+ ~ m t hΦm |H | {z } dt n Hmn
m −n iX c˙m (t) = − Hmn (t)ei ~ t cn (t) ~ n
.
Mit der Definition
m − n ~ lautet die Schrödingergleichung für die Entwicklungskoeffizienten ωmn :=
c˙m (t) = −
iX Hmn (t)eiωmn t cn (t) ~ n
ˆ 1S |Φn i Hmn (t) = hΦm |H
.
(2.43) (2.44)
Zum Zeitpunkt t = 0 kennen wir cm (0). Zu einer späteren Zeit t gilt dann Z t Z iX t c˙m (τ )dτ = cm (t) − cm (0) = − Hmn (τ )eiωmn τ cn (τ )dτ ~ n 0 0 Z t X i cm (t) = cm (0) − Hmn (τ )eiωmn τ cn (τ )dτ (2.45) ~ n 0 Eine Reihenentwicklung, die nach Potenzen in H1 geordnet ist, erhält man über die Picard-Lindelöf-Iteration: Z iX t (l+1) cm (t) = cm (0) − Hmn (τ )eiωmn τ c(l) . n (τ )dτ ~ n 0 110
(∞)
Wenn die Iteration konvergiert, erfüllt cm die Integralgleichung Gl. (2.45). (0) Wir beginnen die Iteration mit cm (t) = cm (0): cn (0)
iX c(1) (t) = c (0) − m m ~ n
Z
t
z }| { iωmn τ (0) cn (τ ) dτ Hmn (τ )e
0
Z t iX = cm (0) − cn (0) Hmn (τ )eiωmn τ dτ ~ 0 | n {z } ∧ (0) =Korrektur zu c von der Ordnung H1 Der nächste Iterationsschritt liefert: Z iX t (2) cm (t) = cm (0) − Hmn (τ )eiωmn τ c(1) n (τ )dτ ~ n 0 Z iX t = cm (0) − Hmn (τ )eiωmn τ cn (0) ~ n 0 {z } | (1)
cm (t)
iX − cn0 (0) ~ n0 =
c(1) m (t)
+
i 2 X − ~ n,n0
Z
t iωmn τ
τ
Z
Hnn0 (τ 0 )eiωnn0 dτ 0
! dτ
0
Z
dτ Hmn (τ )e 0
τ0
τ
0
dτ 0 Hnn0 (τ 0 )eiωnn0 τ cn0 (0)
0
Insbesondere interessiert uns folgende Frage: Wenn das System zur Zeit t = 0 im Zustand |Φi i ist, wie groß ist die Wahrscheinlichkeit, daß es dann zur Zeit t > 0 in dem Zustand |Φf i ist? (|Φi i, |Φf i sind Eigenzustände von ˆ 0) H 2 2 X X P→f = |hΦf |Ψ(t)i|2 = hΦf | cn (t)Φn i = cn (t) hΦf |Φn i = |cf (t)|2 | {z } n n δf n (2.46) Die Anfangsbedingung lautet cn (0) = δn,i . Daraus folgt in zweiter Ordˆ1 nung in H Z i t cf (t) = δf,i − Hf i (τ )eiωf i τ dτ ~ 0 Z Z τ 1 X t 0 iωf n τ − 2 dτ Hf n (τ )e dτ 0 Hni (τ 0 )eiωni τ ~ n 0 0 ˆ 3) + O(H 1
(2.47) 111
.
2.4.2
Harmonische oder konstante Störung
Eine sehr wichtige Anwendung der zeitabhängigen Störungstheorie sind Probleme, bei denen zur Zeit t eine konstante oder harmonische Störung eingeschaltet wird ˆ 1 = Θ(t)Aˆ cos(ωt + ϕ) H • Θ(t) schaltet die Störung zur Zeit t=0 ein ˆ 1 selbstadjungiert ist • Aˆ = Aˆ† ist selbstadjungiert, damit H • für ω = 0 beschreibt diese Gleichung eine konstante Störung Es gilt ˆ ˆ ˆ 1 (t) = Θ(t) A eiωt eiϕ + A e−iωt e−iϕ H 2 2 = Θ(t) Vˆ eiωt + Vˆ † e−iωt ∗ −iωt Hmn (t) = Vmn eiωt + Vmn e .
!
Θ(t) wird in diesem Zusammenhang nicht mehr benötigt, da die Integrale in Gl. (2.47) ohnehin erst bei t = 0 beginnen! Das erste Integral in Gl. (2.47) lautet Z
t iωmn τ
dτ Hmn (τ )e 0
t
Z
i(ω+ωmn )τ
= Vmn
dτ e
+
∗ Vmn
Z
t
dτ ei(ωmn −ω)τ
0
0
i(ωmn −ω)t ei(ωmn +ω)t − 1 −1 ∗ e = Vmn + Vmn i(ωmn + ω) i(ωmn − ω)
D.h. der Term erster Ordnung liefert: ωf i +ω ωf i −ω sin t sin t ω −ω ωf i +ω 2 2 i ∗ i f i2 t + V · e cf (t) = − Vf i · ei 2 t · · fi ωf i +ω ωf i −ω ~ 2
2
(2.48) Wir haben den Term δf i weggelassen, da in der praktischen Anwendung nur der Fall f 6= i interessiert. 112
Wir betrachten zunächst ein konstantes Potential (ω = 0) ) ( ωf i ωf i ωf i ωf i sin t sin t i 2 2 + Vf∗i · ei 2 t · Vf i · ei 2 t · cf (t) = − ωf i ωf i ~ 2 2 ωf i ωf i sin 2 t i = − Vf i + Vf∗i ·ei 2 t · ωf i ~ | {z } 2 =Hf i
Die Wahrscheinlichkeit, daß das System in der Zeit t in den Zustand f übergegangen ist, lautet 2 ωf i 2 t sin t 2 Pi→f = |cf (t)|2 = 2 |Hf i |2 . (2.49) ωf i 2 ~ t 2
Falls das Spektrum diskret und i nicht entartet ist, gibt es zwischen der Energie i und der Energie der Endzustände f eine Energielücke ∆f . Die Übergangswahrscheinlichkeit lautet 4 |Hf i |2 ∆f t 2 Pi→f = sin . (∆f )2 2~ Diese Wahrscheinlichkeit oszilliert also mit der Frequenz ω = ∆ . Das ist ~ ein charakteristisches Phänomen diskreter Systeme. Erst im Fall kontinuierlicher Spektren verschwindet die Periodizität, wie wir gleich sehen werden. Die Periode der Oszillationen ist T = 2π~ und die Amplitude nimmt ∆ 1 proportional zu (∆)2 ab. Die größte Übergangswahrscheinlichkeit liegt also vor, wenn i und f zu benachbarten Zuständen gehören. Wenn das diskrete Spektrum in i entartet ist, d.h. ∃f 6= i : f = i , dann liefert Gl. (2.49) stattdessen Pi→f =
t2 |Hf i |2 . ~2
Die Wahrscheinlichkeit wächst proportional zu t2 an. Ab einer bestimmten Zeit wird die Wahrscheinlichkeit größer Eins. Das ist natürlich unsinnig und zeigt an, daß ~ t (2.50) |Hf i | erfüllt sein muß, damit die Störungstheorie erster Ordnung anwendbar ist. Wir wenden uns nun dem Fall zu, daß das Spektrum bei i kontinuierlich ist. 113
Es ist hierbei zweckmäßig, die Übergangsrate (Übergangswahrscheinlichkeitsdichte pro Zeiteinheit) W = Pt einzuführen, die aus Gl. (2.49) folgt Wi→f
2 2π sin(ωf i t/2) 2 t = |Hf i | ~2 2π ωf i t/2
.
Wir führen nun folgende auf Eins normierte Funktion ein t ∆t (ω) : = 2π
sin( ωt ) 2
2
ωt 2
(2.51)
Z ∆t (ω) dω = 1
.
Mit dieser Funktion ist die Übergangsrate Wi→f =
2π f − i |Hf i |2 ∆t ( ) 2 ~ ~
.
(2.52)
Das Verhalten von ∆t (ω) ist in Abbildung (2.4) als Funktion von ω zu festem t wiedergegeben. Man erkennt, daß ∆t (ω) bei ω = 0 konzentriert ist, eine Breite proportional zu 1t und eine Höhe proportional zu t hat. Sie ist auf Eins normiert und es gilt Diese Funktion verhält sich im Limes t → ∞
Abbildung 2.4: Plot der Funktion ∆t (ω) (durchgezogen) und der Einhüllenden 2 (gestrichelt). ω 2 tπ fi
114
wie die Delta-Funktion. Z lim
f (ω) ∆t (ω) dω = f (0)
t→∞
,
vorausgesetzt, die Test-Funktion f (ω) hat die Eigenschaft limω→∞ Für diese Klasse von Funktionen gilt lim ∆t (ω) = δ(ω)
t→∞
f (ω) ω
= 0.
(2.53)
.
Hiermit wird Gl. (2.52) zu F ERMI ’ S G OLDENE R EGEL
Wi→f =
2π |Hf i |2 δ(f − i ) ~
.
(2.54)
Diese Darstellung ist immer dann sinnvoll, wenn in der Nachbarschaft von i ein Kontinuum von Endzuständen vorhanden ist. Das ist in physikalischen Anwendungen oft der Fall. Im Limes t → ∞ gilt offensichtlich die Energieerhaltung. Für sehr kurze Zeiten ist die Energieerhaltung aufgeweicht, da die Frequenz der vorliegenden Schwingung noch nicht eindeutig ausgeprägt ist. Wir finden im Fall der Entartung eine zeitlich konstante Übergangsrate, d.h. die Übergangswahrscheinlichkeit wächst linear mit der Zeit und führt zu unphysikalischen Ergebnissen, wenn die Störungstheorie nicht mehr anwendbar ist, d.h. wenn die Ungleichung Gl. (2.50) verletzt wird. Bei einem kontinuierlichen Spektrum kann man nicht mehr die Übergangswahrscheinlichkeit in individuelle Zustände angeben. P = |hΦf |Ψ(t)i|2 in Gl. (2.46) hat dann vielmehr die Bedeutung einer Wahrscheinlichkeitsdichte. In diesem Fall interessieren wir uns für die Übergangsrate in das Intervall von Endzustandsenergien (n ∈ ∆If := [f , f + ∆]). Gl. (2.54) wird dann zu: X 2π Wi→∆If = |Hni |2 δ(n − i ) ~ n n ∈∆If Z 2π = |Hni |2 δ(E − i ) ρ(E) dE E∈∆If ~ 115
= Θ(i ∈ ∆If )|Hf i |2
2π ρ(i ) ~
(2.55)
• Ein gemitteltes Matrixelement (|Hf i |2 ) ist nur sinnvoll, wenn |Hf i | in If nicht wesentlich variiert. • ρ(E) ist die Zustandsdichte, denn die Anzahl der Zustände ∆N im Intervall ∆E := (E − ∆2 , E + ∆2 ) ist gegeben durch X
∆N =
Z
E+ ∆ 2
1=
%(E 0 )dE 0 ≈ ρ(E)∆
.
E− ∆ 2
n
n ∈∆If
Neben Gl. (2.55) gibt es eine in vielen Fällen praktischere Darstellung der Übergangsrate. Ausgangspunkt hierfür ist 1 1 = P + iπ δ(ω) ω − i0+ ω
,
wobei diese Beziehung erst unter einem Integral Bedeutung erhält und P als Hauptwert-Integral zu verstehen ist. 0+ stellt eine infinitesimale, positive Größe dar. Aus dieser Beziehung folgt eine wichtige Darstellung der δ-Funktion D ARSTELLUNG 1 lim = + 0 →0 π
1 ω − i0+
DER
δ-F UNKTION
1 0+ = lim = δ(ω) 0+ →0 π ω 2 + (0+ )2
Einsetzen in Gl. (2.54) liefert: 2π |Hf i |2 δ(f − i ) ~ 2π 1 2 1 = |Hf i | = ~ π (f − i ) − i0+ 2 1 † ˆ ˆ = = hΦi |A |Φf ihΦf |A|Φi i ~ (f − i ) − i0+ 2 1 † ˆ ˆ = = hΦi |A |Φf ihΦf | A|Φi i ~ (f − i ) − i0+
Wi→f =
116
.
ˆ 0 |Φf i = f |Φf i gilt auch: Wegen H Wi→f
! 2 1 ˆ ii = = hΦi |Aˆ† |Φf ihΦf | A|Φ + ˆ ~ (H0 − i ) − i0
.
Es muß nun, wie zuvor, über alle Endzustände in ∆If summiert werden. ˆ , daß der Operator W ˆ nur in die EndWir modifizieren hierzu Aˆ so, Aˆ → W zustände streut, die im jeweiligen Experiment gerade untersucht werden (z.B. Richtungs-Selektion, Energie-Selektion etc.). ( ˆ ˆ |Φf i := A|Φf i für beobachtete Endzustände |Φf i W . 0 sonst ˆ i.d.R nicht mehr selbstadjungiert! Die Summation über die Hierbei ist W Endzustände kann nun uneingeschränkt durchgeführt werden und liefert ! 2 X 1 ˆ † |Φf ihΦf | ˆ |Φi i = hΦi |W W Wi→∆If = + ˆ ~ f (H0 − i ) − i0 X 2 1 † ˆ ˆ |Φi i = = hΦi |W |Φf ihΦf | W ˆ 0 − i ) − i0+ ~ ( H f | {z } =1
Ü BERGANGSRATE
Wi→∆If
! 2 1 ˆ† ˆ |Φi i = = hΦi |W W ˆ 0 − i ) − i0+ ~ (H
.
(2.56)
Die rechte Seite stellt eine sogenannte Greensche Funktion dar. Sie bildet den Ausgangspunkt zur theoretischen Beschreibung experimentell bestimmbarer dynamischer Antwortfunktionen.
Der Fall einer harmonischen Störung läßt sich nun leicht diskutieren. Hier ist ω 6= 0 und es gibt in Gl. 2.48 zwei Beiträge: af (ωf i + ω) + bf (ωf i − ω), 117
von denen für große t nur jeweils einer ungleich Null sein kann. |af (ωf i + ω) + bf (ωf i − ω)|2 = |a|2 |f (ωf i + ω)|2 + |b|2 |f (ωf i − ω)|2 + (a∗ b + ab∗ )f (ωf i + ω) · f (ωf i − ω) | {z } =0
Voraussetzung hierfür ist, daß der Abstand 2ω der beiden δ-artigen Peaks groß ist gegen die Peakbreite 2π/t (siehe Abbildung (2.4)). Das heißt, t
π ~ ≈ ω |f − i |
.
Gleichzeitig muß immer noch Gl. (2.50) erfüllt sein, damit die erste Ordnung Störungstheorie gültig ist. Für die Zeit t erhalten wir also die Bedingung ~ ~ t . |f − i | |Hf i | Voraussetzung dafür, daß diese Bedingung für t überhaupt erfüllt werden kann, ist |Hf i | 1 . |f − i | Das ist genau die gleiche Voraussetzung, die für die Gültigkeit der zeitunabhängigen Störungstheorie notwendig ist. Analog zu Gl. (2.54) erhalten wir Wi→f =
2π |Wf i |2 δ(f − i + ~ω) + Wf∗i 2 δ(f − i − ~ω) | {z } | {z } ~ f =i −~ω⇒Emission f =i +~ω⇒Absorption
Analog zu Gl. (2.56) erhalten wir 2 1 1 † † ˆ ˆ ˆ ˆ Wi→∆If = = hΦi |W W |Φi i + hΦi |W W |Φi i ˆ 0 − i + ω − i0+ ˆ 0 − i − ω − i0+ ~ H H Diese Formeln sind der Ausgangspunkt zur Beschreibung vieler physikalischer Effekte, wie z.B.: (inverse) Photoemission, Augerspektroskopie, Coulomb-Streuung und Compton-Streuung.
118
Teil II Quantenmechanik
119
Kapitel 3 Der Formalismus der Quantenmechanik 3.1
Quintessenz der Quantenphysik am Beispiel des Doppelspaltexperiments
Die wesentlichen Merkmale und Besonderheiten der Quantenphysik lassen sich am Beispiel der Spaltexperimente erklären. Hiermit werden wir die Quantenmechanik ableiten. Wir betrachten hierzu klassische Teilchen, Wellen und Elektronen und vergleichen die Ergebnisse miteinander.
3.1.1 Experiment mit klassischen Teilchen
Abbildung 3.1: Doppelspaltexperiment mit Kugeln. 121
Wir machen ein Gedankenexperiment mit einem Aufbau, der in Abbildung (3.1) skizziert ist. • Eine Quelle schießt Kugeln zufällig in den Raumwinkel ∆Ω. • Am Schirm S werden die Kugeln registriert. Daraus ergibt sich die Wahrscheinlichkeit p(x)dx, eine Kugel im Intervall (x, x + ∆x) oder kurz, in ∆x, anzutreffen. • Die Quelle wird mit so geringer Intensität betrieben, daß die Kugeln einzeln und gewiß als „Einheiten” ankommen. Das Experiment wird nun auf verschiedene Weisen durchgeführt • nur Spalt 1 offen liefert P1 (x) • nur Spalt 2 offen liefert P2 (x) • beiden Spalte offen liefert P12 (x). Man findet P12 (x) = P1 (x) + P2 (x)
3.1.2
Experiment mit Welle
Wir wiederholen den Versuch mit Wasserwellen, die Versuchsanordnung ist in Abbildung (3.2) dargestellt.
Abbildung 3.2: Doppelspaltexperiment mit Wasserwellen.
122
• Quelle erzeugt kreisförmige Wellen. • Wand hat wieder zwei Spalte. • Der Schirm S sei ein Absorber, so daß keine Wellen reflektiert werden. • Die Auslenkung bei S oszilliert mit der Zeit und die Amplitude hängt vom Ort ab. Der Detektor D messe die Intensität I = |Amplitude|2 . Man beobachtet: 1. I kann alle positiven Werte annehmen (abhängig von der Quelle). K EINE Q UANTELUNG . 2. Beide Spalte offen: I12 (x) zeigt das bekannte Interferenzbild (wie bei der Lichtbeugung). Es hängt vom Abstand der Spalte ∆ ab. 3. Wir blenden Spalt 2 oder 1 aus: I1 bzw. I2 enthalten KEINE ∆-abhängigen Strukturen mehr. 4. Man findet I12 6= I1 + I2 . Es liegt Interferenz zwischen beiden (Teil)Wellen vor. An manchen Stellen gibt es KONSTRUKTIVE bzw. DESTRUKTIVE Interferenz. Konstruktive Interferenz wenn Abstand (Detektor — Spalt 1) - Abstand (Detektor —Spalt 2) = n ·λ λ ist die Wellenlänge,n ∈ N. 5. Mathematische Beschreibung: Die momentane Auslenkung am Ort des Detektors D ist A1 A2 A12 a1 , a2
= = = ∈