Mathematische Methoden zur Mechanik
Eckart W. Gekeler
Mathematische Methoden zur Mechanik Ein Handbuch mit MATLAB -Experimenten 2., u¨ berarbeitete und erg¨anzte Auflage
123
Prof. a.D. Dr. Eckart W. Gekeler Institut f¨ur Angewandte Analysis und Numerische Simulation (IANS) Universit¨at Stuttgart Pfaffenwaldring 57 70550 Stuttgart Deutschland E-mail:
[email protected] [email protected] Weitere Informationen zum Buch einschließlich eines umfangreichen Pakets von MATLAB -Programmen: http://www.ians.uni-stuttgart.de/AbNumMath/Gekeler/MMM
MATLAB ist ein eingetragenes Warenzeichen von The MathWorks, Inc. c COPYRIGHT 1984–2010, alle Rechte vorbehalten. Alle Bilder und Diagramme wurden mit Hilfe von MATLAB angefertigt. ISBN 978-3-642-14252-9 e-ISBN 978-3-642-14253-6 DOI 10.1007/978-3-642-14253-6 Springer Heidelberg Dordrecht New York London Mathematics Subject Classification (2010): 00A05, 00-01, 00A06, 65-01, 65K10, 65N30 c Springer-Verlag Berlin Heidelberg 2006, 2010 Dieses Werk ist urheberrechtlich gesch¨utzt. Die dadurch begr¨undeten Rechte, insbesondere die der ¨ Ubersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielf¨altigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielf¨altigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zul¨assig. Sie ist grunds¨atzlich verg¨utungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten w¨aren und daher von jedermann benutzt werden d¨urften. Einbandentwurf: WMXDesign GmbH, Heidelberg Gedruckt auf s¨aurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort
Die Mathematik gilt unbestritten als Schl¨ ussel zu den modernen Hochtechnologien. Sie ist eine internationale Fachsprache und zeigt sich dem Eingeweihten als ewig junge Wissenschaft. Gerade heute erfreut sie sich besonderer Lebenskraft, weil Modellierung und Simulation l¨ angst unverzichtbarer Bestandteil der Forschung sind. Die st¨ urmische Entwicklung f¨ uhrt aber zu immer h¨oheren Anforderungen an die Studierenden einer technischen Wissenschaft, w¨ahrend gleichzeitig das Interesse der Allgemeinheit an der Mathematik kontinuierlich abnimmt. Dem m¨ ochte das vorliegende Buch mit seinen Anh¨angen im Internet begegnen und ein hilfreicher Begleiter sein auf dem schwierigen Weg von der rezeptiven zur produktiven Phase der Ausbildung. Der Verfasser hat wiederholt einen dreisemestrigen Grundkurs H¨ ohere Mathematik an der Universit¨ at Stuttgart gehalten und dabei versucht, mit Hilfe einer Reihe von Merkbl¨ attern“ weiterf¨ uhrende Aspekte aufzuzeigen, zur ” Motivation des Lehrinhalts beizutragen, sowie Verbindungen zu den gleichzeitig stattfindenden Vorlesungen u ¨ber Mechanik herzustellen. Daraus ist ein Teil des Buches im Lauf der Zeit sozusagen von selbst entstanden. Seiner urspr¨ unglichen Zielsetzung entsprechend, werden verschiedene, voneinander unabh¨ angige Themen von unterschiedlichem Schwierigkeitsgrad behandelt, die sich aber alle an der Mechanik orientieren. Ein anderer Teil des Buches m¨ ochte eine Auswahl verst¨andlicher und direkt umsetzbarer Vorlagen aus der F¨ ulle mathematischer Resourcen anbieten. Der Autor will hier seine Vorliebe f¨ ur die Numerische Mathematik nicht verhehlen und legt gerade deshalb Wert auf eine sorgf¨altige theoretische Vorbereitung. Beweise werden aber nur dort vorgef¨ uhrt, wo sie f¨ ur das Verst¨andnis notwendig sind, andere sind auf den zum Buch geh¨orenden Internetseiten zu finden. Insgesamt gliedert sich das Buch in vier Teile mit unterschiedlichem Umfang, wobei etwa das hervorragende Buch H¨ ohere Mathematik I,II von Meyberg und Vachenauer als Steilvorlage“ dienen kann: ”
VI
Vorwort
•
Zusammenfassung der Hilfsmittel f¨ ur das weitere Vorgehen,
•
allgemeine und besondere mathematische Methoden,
•
Faszination Mechanik aus der Sicht eines Mathematikers,
•
Abriss der Tensorrechnung (ein Muss f¨ ur h¨ohere Weihen).
Im Studium der Physik nimmt das reale Experiment seit jeher und auch im Zeitalter virtueller Welten einen breiten Raum ein, w¨ahrend in der Mathematik die Beschreibung eines numerischen Verfahrens in Wort und Schrift lange Zeit seine reale Vorf¨ uhrung ersetzen musste. Damit fehlte aber ein wichtiger Beitrag zum Verst¨ andnis, so wie etwa das Notenlesen ein schwacher Ersatz f¨ ur das Klangerlebnis oder gar die eigene Intonierung ist. Diese Situation hat sich grunds¨ atzlich ge¨ andert. Probleme, an die fr¨ uher niemand zu denken wagte, k¨ onnen heute auf dem Laptop gel¨ ost werden, und numerische Verfahren kann jeder selbst austesten. Um dieser Entwicklung Rechnung zu tragen, werden zu allen in diesem Buch behandelten numerischen Methoden Experimente angeboten. Bei anspruchsvolleren Fallstudien ist aber der Weg von der Formel zum Bild mit Hindernissen gepflastert und bedarf daher einer ausf¨ uhrlichen Anleitung. Insbesondere entfalten viele wohletablierte Algorithmen die von ihnen geforderte Leistung erst nach einem sorgf¨altigen Parameter-Tuning, das der Computer nicht u ¨bernehmem kann. Die gleichzeitige Behandlung von Theorie und Numerik verbietet aber allein aus Platzgr¨ unden, beiden Seiten in ersch¨ opfender Weise gerecht zu werden und trotzdem das Ganze u ¨berschaubar zu halten. Um diesem Dilemma zu begegnen, hat der Autor viele Beweise und alle Algorithmen ins Internet ausgelagert. Dort steht eine umfangreiR -Programmen zur Verf¨ ugung, die fortw¨ahrend che Bibliothek von MATLAB R gestattet erg¨ anzt und erweitert wird. Die Entwicklungsumgebung MATLAB es, Algorithmen von unn¨ otigem Ballast befreit in einer u ¨bersichtlichen Form darzustellen, die oft aussagekr¨ aftiger ist als eine langatmige Beschreibung und – nebenbei gesagt – gnadenlos jeden Fehler aufdeckt. Diese Programme sollen nicht nur den Spieltrieb des Lesers und seine nat¨ urliche Neugier zum Verb¨ undeten in der Pr¨ asentation des Stoffes machen sondern auch dem Experiment in der Mathematik als Weg zur Erkenntnis eine Lanze brechen. Im Extremfall kann der Anwender sogar dem Algorithmus selbst einen gewissen ¨ asthetischen Reiz abgewinnen und damit dem Problem von einer ganz anderen Seite her beikommen. Jedes Bild und jede Grafik kann vom Leser selbst erzeugt werden, wenn er sich die entsprechenden Programme herunterl¨ adt. Im ersten Kapitel wird das mathematische R¨ ustzeug bereitgestellt. Es werden die sp¨ ater verwendeten Begriffe erkl¨ art und einige Themen aus den Grundvorlesungen wiederholt und aufbereitet. Das zweite Kapitel behandelt in knapper Form klassische Aufgabenstellungen aus der numerischen Mathematik insbesondere Anfangs- und Randwertprobleme f¨ ur gew¨ ohnliche Differentialsysteme.
Vorwort
VII
Im dritten und vierten Kapitel wird der Optimierung und ihrer Schwester im Kontinuum, der Kontrolltheorie, etwas mehr Platz einger¨aumt. Viele Fragestellungen in den technischen Disziplinen wie in den Wirtschaftswissenschaften f¨ uhren auf ganz nat¨ urliche Weise zu einem Extremalproblem mit Zwangsbedingungen. Oft ist auch die Formulierung als Optimierungsproblem der letzte Ausweg, wenn sich ein Problem der numerischen Approximation auf ¨ herk¨ ommliche Weise verweigert. Im Ubrigen gehorcht die Optimierung unter Nebenbedingungen ganz eigenen Gesetzm¨ aßigkeiten, die sich durch die ganze Theoretische Mechanik verfolgen lassen. In der Kontrolltheorie gehen Variationsrechnung und Lagrange-Theorie eine fruchtbare Symbiose ein. Konkrete Probleme werden nach einer Diskretisierung mit den behandelten diskreten Optimierungsverfahren numerisch gel¨ ost. Im f¨ unften Kapitel wird der Versuch unternommen, Verzweigungstheorie und Pfadverfolgung dem praktisch orientierten Anwender verst¨andlich zu machen. Grunds¨ atzlich geht es dabei um die Aufgabe, nichttriviale L¨osungen eines Systems zu berechnen, wenn diese gleichzeitig neben der trivialen L¨osung existieren, wie etwa beim klassischen Eigenwertproblem. Die besprochenen Methoden erschließen den Zugang zu neuen und teilweise exotischen L¨osungstypen, die unter den u ¨blichen Existenz- und Eindeutigkeitsaussagen unerreichbar bleiben. F¨ ur die numerische Approximation hat hier die triviale L¨osung eine fast unwiderstehliche Anziehungskraft, die es zu u ¨berwinden gilt. Die pr¨ asentierten numerischen Verfahren werden an Hand einiger Benchmarkprobleme aus der Literatur auf ihre Tauglichkeit getestet. Die Kapitel sechs und sieben behandeln bekannte Probleme aus dem Grundstudium der Mechanik wie Planetenbahnen, Dreik¨orperproblem, Kreiseltheorie, Stab- und Balkenwerke. Auch hier wird besonderer Wert auf eine Visualisierung gelegt, die der Leser selbst nachvollziehen kann. Kapitel acht stellt die Grundlagen der Kontinuumstheorie f¨ ur die sp¨atere Anwendung bereit, damit der Leser das Entstehen der Differentialsysteme wie etwa der Poisson-Gleichung und der Navier-Stokes-Gleichungen aus den Erhaltungss¨ atzen selbst nachvollziehen kann. ur feste Im neunten Kapitel werden Probleme der Kontinuumsmechanik f¨ K¨ orper und f¨ ur inkompressible Fl¨ ussigkeiten numerisch realisiert. Zun¨achst wird die Finite-Element-Methode im Allgemeinen behandelt, mit ihrer Implementierung u ¨ber die Methode der Grundmatrizen und die Methode der Formfunktionen. Anschließend werden einige besondere Exemplare aus der faszinierenden Gattung der finiten Elemente im Einzelnen vorgestellt. F¨ ur die numerische Behandlung der Navier-Stokes-Gleichungen wird vorwiegend die Stromfunktion-Wirbel-Form mit einfachsten Dreieckelementen gew¨ ahlt, die zwar einerseits h¨ ohere Anforderungen an die Glattheit der L¨osung stellt, aber andererseits einen leichteren Zugang zu verwandten Probleme wie ¨ Konvektion und Massentransport erlaubt (und im Ubrigen nicht so schlecht
VIII
Vorwort
ist wie ihr Ruf). F¨ ur weitere Erl¨ auterungen steht auch hier eine exemplarische Auswahl von Algorithmen im Internet zur Verf¨ ugung. Jeder lebt mit mindestens zwei Koordinatensystemen, dem absoluten und seinem eigenen, dem relativen; andere kommen st¨andig hinzu. Das Hin- und Herwandern zwischen einzelnen Koordinatensystemen muss mathematisch beschrieben werden und f¨ uhrt zur Tensorrechnung und Differentialgeometrie. Im zehnten Kapitel wird eine Einf¨ uhrung in diese Disziplinen gegeben mit Anwendung der dualen Paarung von Vektorr¨ aumen. Das elfte Kapitel schließlich enth¨ alt neben einem modellhaften Beispiel aus der Gasdynamik und drei Beispielen von Mehrk¨ orperproblemen einen Abschnitt u ader mit numerischer Implementierung auf ¨ber rollende Scheiben und Zahnr¨ der entsprechenden Internetseite. Viele innovative Impulse f¨ ur die Numerischen Mathematik sind urspr¨ unglich den Ingenieurwissenschaften zu verdanken. Der Verfasser hofft, dass mit seinem Buch das Interesse an der numerischen Komponente technischer und physikalischer Problemstellungen gef¨ ordert und der Leser zum eigenen Experimentieren angeregt wird. Das Buch ist thematisch stark gegliedert, und die einzelnen Teile sind so weit wie m¨ oglich in sich geschlossen dargestellt, damit es im Rahmen seiner M¨ oglichkeiten auch als Nachschlagewerk dienen kann und die F¨ ulle des Stoffes u ucke ¨berschaubar bleibt. Insgesamt soll es eine Br¨ vom Grundstudium zu den Anforderungen im Hauptstudium schlagen, die dem Leser den Weg zur Upper Class“ in der Community ebnet. ” Die pr¨ asentierten finiten Elemente f¨ ur statische Probleme sind zum großen R -Versionen von Fortran-Programmen aus den B¨ uchern von Teil MATLAB H. R. Schwarz. Wegen ihrer Zuverl¨ assigkeit waren sie bei der Entwicklung und beim Test weiterer Elemente eine große Hilfe und sollen auf diese Weise R -Gemeinde zug¨ anglich gemacht werden. auch der MATLAB Herrn Theodor Ackbarow danke ich f¨ ur das sorgf¨altige Lesen des Manuskripts und viele wertvolle Verbesserungsvorschl¨age. Warnung: Mit wachsender Experimentierfreude wird der Leser feststellen, dass jedes numerische Verfahren durch ein geeignetes Beispiel ausgehebelt werden kann. Bei vielen Aufgabenstellungen wie etwa nichtkonvexen Optimierungsproblemen ist die Konvergenz nicht gesichert und daher ¨außerste Vorsicht geboten; auch bei Bifurkationsproblemen l¨auft die Iteration schnell in unsinnige Bereiche oder landet wieder bei Null; bei Finite-Element-Methoden sind spektakul¨ are Unf¨ alle bekannt. Deswegen ist in allen F¨allen eine sorgf¨altige Pr¨ ufung der Ergebnisse notwendig. Stuttgart, Dezember 2005
Eckart W. Gekeler
Vorwort
IX
Vorwort zur zweiten Auflage In der zweiten Auflage wurden einige Erg¨ anzungen und Verbesserungen vorgenommen, die man auch in der englischen Auflage des Buches findet. Zwei neue Abschnitte kamen hinzu, einer u ormigen Platte ¨ber Beulung einer kreisf¨ als Anwendungsbeispiel der Bifurkationstheorie und ein anderer u ¨ber Quaternionen als notwendige Erg¨ anzung zum Abschnitt u ¨ber drehende Bezugssysteme. Auch findet man verschiedentlich zus¨ atzliche Beispiele in den einzelnen Kapiteln. Das f¨ unfte Kapitel u ¨ber Bifurkationstheorie wurde teilweise neu geschrieben, andere Teile dieses Kapitels wurden in die Supplements“ verlegt. ” Der Hardwareentwicklung in den letzten f¨ unf Jahren wurde im Kapitel u ¨ber finite Elemente Rechnung getragen. Navier-Stokes-Probleme werden jetzt in der direkten Geschwindigkeits-Druck-Form gel¨ost und nicht mehr in der indirekten Stromfunktion-Wirbel-Form. Dadurch vereinfacht sich die Modellbildung erheblich, und ein Rechner mit vier GigaByte Hauptspeicher ist den erh¨ ohten Speicherplatzanforderungen sicher gewachsen, wenn man etwas Geduld aufbringt und keine allzu hohen Anspr¨ uche an die Visualisierung stellt. Reutlingen, Juni 2010
Eckart W. Gekeler
Inhaltsverzeichnis
Kapitel 1. Mathematische Hilfsmittel . . . . . . . . . . . . . . . . . . . . . . . . 1 1.1. Zur Matrizenrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1 Vektor- und Matrixprodukte – Determinanten und Kofaktoren – Eigenwerte und Eigenvektoren – Zerlegungen einer Matrix – Lineare Gleichungssysteme – Projektoren und Reflektoren – Der QR-Algorithmus – ¨ Die Moore-Penrose-Inverse – Uberund unterbestimmte Systeme – Drehungen im R3 – Matrizen mit definitem Realteil 1.2. Formeln der Vektoranalysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17 Bezeichnungen und Definitionen – Differential-Rechenregeln – IntegralRechenregeln – Koordinatenunabh¨ angige Definitionen – Potentiale und Vektorfelder 1.3. Kurven im R3 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25 Kr¨ ummung und Torsion – Frenetsche Formeln 1.4. Lineare Differentialgleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27 Homogene lineare Differentialgleichungen mit konstanten Koeffizienten – Inhomogene lineare Differentialgleichungen mit konstanten Koeffizienten und speziellen rechten Seiten – Die allgemeine L¨osung 1.5. Lineare Differentialsysteme erster Ordnung . . . . . . . . . . . . . . . . . . 31 Autonome homogene Systeme mit diagonalisierbarer Matrix – Autonome homogene Systeme mit nichtdiagonalisierbarer Matrix – Stabilit¨at – Allgemeine lineare Systeme – Spezielle rechte Seiten – Randwertprobleme – Periodische L¨ osungen 1.6. Der Fluss und sein Vektorfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38 Das Flussintegral – Station¨ are Vektorfelder – Begradigung von Vektorfeldern – Transformation – Beispiele
XII
Inhaltsverzeichnis
1.7. Vektorr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44 R¨ aume stetiger Funktionen – Banach-R¨aume – Lineare Abbildungen – Lineare Funktionale und Hyperebenen – Der Dualraum – HilbertR¨ aume – Sobolev-R¨ aume – Annahme von Randwerten – Eigenschaften ¨ von H0s (Ω) und Hs (Ω) – Aquivalente Normen auf H0s (Ω) und Hs (Ω) 1.8. Ableitungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52 ´chet-Ableitung – Eigenschaften – Beispiele Gateaux-Ableitung, Fre 1.9. Abbildungen in Banach-R¨ aumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57 Lineare Operatoren – Projektoren – Implizite Funktionen 1.10. Konvexe Mengen und Funktionen . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61 Konvexe Mengen und Kegel – Trennungss¨atze – Kegeleigenschaften – Konvexe Funktionen 1.11. Quadratische Funktionale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69 Das Energiefunktional – Operatoren im Hilbert-Raum – Projektoren im Hilbert-Raum – Eigenschaften des Energiefunktionals – Die RitzN¨ aherung
Kapitel 2. Numerische Methoden . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77 2.1. Interpolation und Approximation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 78 Das allgemeine Interpolationsproblem – Interpolationspolynome – Interpolation nach Lagrange – Interpolation nach Newton – Interpolation ´r-Polynomen – Interpolatinach Hermite – Approximation mit Bezie onsplines 2.2. Orthogonale Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 88 Konstruktion – Die Formeln von Rodriguez – Minimaleigenschaft von Tschebyscheff-Polynomen 2.3. Numerische Integration . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92 Quadratur nach Lagrange – Summierte Quadraturformeln – Quadratur nach Gauß – baryzentrische Koordinaten im Dreieck – Polynome im Dreieck – Gebietsintegrale – Numerische Quadraturformeln im Dreieck 2.4. Anfangswertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103 Das Euler-Verfahren – Allgemeine Einschrittverfahren – Asymptotische Entwicklung, Extrapolation – Runge-Kutta-Verfahren – Mehrstellenverfahren – Stabilit¨ at – Steife Differentialsysteme – Weitere Beispiele – Voll implizite Runge-Kutta-Verfahren 2.5. Randwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 126 Das lineare Problem – Nichtlinearer Fall – Randwertprobleme mit Parameter 2.6. Periodische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131 Probleme mit bekannter Periode – Probleme mit unbekannter Periode
Inhaltsverzeichnis
XIII
2.7. Differential-algebraische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . 134 Problemstellung – Runge-Kutta-Verfahren – Regul¨are Matrizenpaare – Differentialindex – Semi-explizite Runge-Kutta-Verfahren R 2.8. Hinweise zu den MATLAB -Programmen . . . . . . . . . . . . . . . . . 140
Kapitel 3. Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141 3.1. Minimierung einer Funktion . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 142 Abstiegsverfahren – Negative Beispiele – Konvergenz – Effiziente Wahl der Abstiegsrichtung – Newton-Verfahren 3.2. Extrema mit Nebenbedingungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 147 Problemstellung – Multiplikatorregel – Regularit¨atsbedingungen 3.3. Lineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152 Beispiele – Problemstellung – Projektionsverfahren – Algorithmus – Degenerierte Ecken – Mehrere L¨ osungen – Gleichungsrestriktionen – Sensitivit¨ at – Duales Problem – Das Tableau – Beispiel 3.4. Linear-quadratische Probleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 162 Primales Projektionsverfahren – Der Algorithmus plqp.m – Duales Projektionsverfahren – Der Algorithmus dlqp.m – Beispiele zum dualen Verfahren 3.5. Nichtlineare Optimierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 168 Gradienten-Projektionsverfahren – Typischer Iterationsschritt – Restoration – Strafkostenverfahren – Der Algorithmus sqp.m –Zus¨atze – Beispiele 3.6. Abriss der Lagrange-Theorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 175 Problemstellung – Lagrange-Problem – Sattelpunktprobleme – Primale und duale Probleme – Zusammenfassung – Geometrische Deutung – Lokale Lagrange-Theorie – Beispiele R -Programmen . . . . . . . . . . . . . . . . . 190 3.7. Hinweise zu den MATLAB
Kapitel 4. Wackeln mit System . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 191 4.1. Variationsrechnung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 192 Extremalproblem– Variationsproblem und Randwertproblem – Modifizierte Problemstellung – Variabler Endpunkt – Legendre-Transformation – Lagrange-Funktion und Hamilton-Funktion – Ein klassisches Beispiel 4.2. Kontrollprobleme ohne Restriktionen . . . . . . . . . . . . . . . . . . . . . . . 209 Problemstellung – Freier Planungshorizont – Die freien LagrangeMultiplikatoren – Der Kozustand – Maximumprinzip – Das State Re” gulator Problem“ 4.3. Kontrollprobleme mit Restriktionen . . . . . . . . . . . . . . . . . . . . . . . . . 218 Problemstellung – Notwendige Bedingungen – Maximumprinzip
XIV
Inhaltsverzeichnis
4.4. Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 225 Numerische Behandlung – Beispiele – Abbildungen 4.5. Zum Re-Entry Problem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 234 R -Programmen . . . . . . . . . . . . . . . . . 238 4.6. Hinweise zu den MATLAB
Kapitel 5. Der Weg als Ziel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 239 5.1. Verzweigungsprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 241 Fredholm-Operatoren – Problemstellung – Ljapunov-Schmidt-Reduktion – Bifurkationsgleichung – Weitere Ergebnisse – Beispiele – Symmetrie – Beispiele zur Symmetrie 5.2. Skalierung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 257 Modifizierte Ljapunov-Schmidt-Reduktion – Homogene Probleme – Das nichtlineare Eigenwertproblem – Das gest¨orte Eigenwertproblem – Allgemeine Verzweigungspunkte 5.3. Berechnung von singul¨ aren Punkten . . . . . . . . . . . . . . . . . . . . . . . . .265 Klassifizierung – Charakterisierung von Wendepunkten – Berechnung von Wendepunkten – Berechnung einfacher Verzweigungspunkte 5.4. Gew¨ ohnliche Differentialsysteme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 270 Das lineare Randwertproblem – Das adjungierte Randwertproblem – Wronski-Matrizen – Nichtlineare Randwertprobleme – Beispiele 5.5. Hopf-Verzweigung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 277 Problemstellung – Einfache Beispiele – Transformation – Ein Eigenwertproblem – Skalierung – Diskretisierung – Numerische L¨osung – Beispiele 5.6. Numerische Bifurkation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 291 Zwei Algorithmen – Ein klassisches Beispiel 5.7. Fortsetzung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297 Problemstellung – Pr¨ adiktorschritt – Korrektorschritt – Beispiele R -Programmen . . . . . . . . . . . . . . . . . 303 5.8. Hinweise zu den MATLAB
Kapitel 6. Massepunkte und starre K¨ orper . . . . . . . . . . . . . . 305 6.1. Die Kraft und ihr Moment . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305 6.2. Dynamik eines Massepunktes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 308 Bewegungsgleichung – Energie – Hamiltonsches Prinzip – Systeme mit einem Freiheitsgrad – Starre Drehung 6.3. Massepunkt im Zentralfeld . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 315 Bewegungsgleichung – Gesamtenergie – Kepler-Problem – Geometrie – Beispiele
Inhaltsverzeichnis
XV
6.4. System von Massepunkten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 324 Bewegungsgleichungen – Potentielle und kinetische Energie – Massepunkte mit Zwangsbedingungen – D’Alembertsches Prinzip – Beispiele 6.5. Dreik¨ orperproblem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 334 Problemstellung – Zweik¨ orperproblem – Eingeschr¨anktes Dreik¨orperproblem – Periodische L¨ osungen 6.6. Drehendes Bezugssystem . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 339 Drehung einer K¨ orpers – Zwei Drehungen – Bewegung im drehenden System – Coriolis-Kraft – Beispiel 6.7. Tr¨ agheitstensor und Kreisel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 344 Tr¨ agheitstensor – Starrer K¨ orper mit ruhendem Punkt – Rotoren – Der kr¨ aftefreie Kreisel – Der kr¨ aftefreie symmetrische Kreisel – Der gef¨ uhrte symmetrische Kreisel – Kinematische Euler-Gleichungen – Der schwere symmetrische Kreisel – Energie des schweren Kreisels – Kreiselbewegungen – Beispiele 6.8. Zur Behandlung von Mehrk¨ orperproblemen . . . . . . . . . . . . . . . . 356 ¨ 6.9. Uber Prinzipien der Mechanik . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 359 Energieprinzip – Extremalprinzip – D’Alembert und Lagrange – Hamiltonsches Prinzip – Jacobisches Prinzip R -Programmen . . . . . . . . . . . . . . . . . 364 6.10. Hinweise zu den MATLAB
Kapitel 7. St¨ abe und Balken . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365 7.1. Balkenbiegung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .365 Zugstab – Balkenbiegung – Gesamtenergie – Variationsproblem und Randwertproblem – Momentengleichung – Weitere Randbedingungen – Existenz der L¨ osung 7.2. Eigenwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 373 Verallgemeinertes Eigenwertproblem – Knicklasten 7.3. Numerische Behandlung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 378 Zugstab – Biegebalken – Beispiele 7.4. Stabwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 381 Zugstab in allgemeiner Lage – ebene und r¨aumliche Stabwerke – Lagerbedingungen – Lagerkr¨ afte – Beispiele 7.5. Balkenwerke . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 387 Torsion – Gesamtenergie – Balken mit Biegung und Torsion in fast allgemeiner Lage – Numerische Approximation R -Programmen . . . . . . . . . . . . . . . . .392 7.6. Hinweise zu den MATLAB
XVI
Inhaltsverzeichnis
Kapitel 8. Kontinuumstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 8.1. Deformationen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 393 Deformation – Ableitung des Gradienten – Materialableitung (substantielle Ableitung) – Piola-Transformation – Zur¨ uckholen des Divergenzsatzes 8.2. Die drei Transporttheoreme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400 8.3. Die Erhaltungss¨ atze . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 402 Massen-, Impuls-, Drehimpuls-, Energieerhaltungssatz – Erhaltungss¨ atze in Differentialform – Der zweite Hauptsatz der Thermodynamik 8.4. Materialformen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 409 Erhaltungss¨ atze – Variationsproblem – Extremalproblem – Hamiltonsches Prinzip 8.5. Lineare Elastizit¨ atstheorie . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 415 Verzerrungstensor und Spannungstensor – Extremalproblem und Variationsproblem – Randwertproblem – St.Venant-Kirchhoff-Material 8.6. Scheiben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 420 Ebener Spannungszustand – Ebener Verzerrungszustand 8.7. Die Kirchhoff-Platte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 422 Extremalproblem und Variationsproblem – Umwandlung – Randwertproblem – Babuska-Paradoxon – Beispiel 8.8. Stark gebogene Platten und Membran . . . . . . . . . . . . . . . . . . . . . . 428 Verzerrungsenergie – Airysche Spannungsfunktion – Von Karmansche Gleichungen – Membran ¨ 8.9. Uber Fl¨ ussigkeiten und Gase . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 431 Erhaltungss¨ atze – Bezeichnungen – Erhaltungsgleichungen f¨ ur z¨ahe Fluide – Homogene inkompressible Fluide 8.10. Navier-Stokes-Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 435 Geschwindigkeits-Druck-Form – Randwertproblem – Dimensionsloses System – Stromfunktion-Wirbel-Form – Zusammenhang mit der Plattengleichung – Berechnung des Drucks
Kapitel 9. Finite Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 447 9.1. Elliptische Randwertprobleme . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .447 Extremalproblem – Schwache Form – Randwertproblem – L¨osbarkeit 9.2. Von der Formel zum Bild . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 451 Problemstellung – Approximation – lineare Dreieckselemente – Implementierung von Dirichlet-Randbedingungen – Implementierung von Cauchy-Randbedingungen – Beispiel
Inhaltsverzeichnis
XVII
9.3. Konstruktion von Finiten Elementen . . . . . . . . . . . . . . . . . . . . . . . . 457 Problemstellung – Formfunktionen – Reduktion auf das Einheitsdreieck – Baryzentrische Koordinaten 9.4. Weitere Konstruktionelemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 464 Hermitesche Elemente – Vorgabe von Normalableitungen – Das Argyris-Element – Ein Dreieckelement mit gebogenem Rand – Finite Elemente f¨ ur Scheiben – Zum Patch-Test – Ein kubisches Dreieckelement f¨ ur Platten 9.5. Singul¨ are Elemente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 480 9.6. Navier-Stokes-Gleichungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 485 Geschwindigkeits-Druck-Form – Taylor-Hood-Element – Approximation instation¨ arer Probleme 9.7. Vermischte Anwendungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .491 W¨ armeleitung – Konvektionsstr¨ omungen – Massentransport – Flachwasserprobleme 9.8. Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 498 Navier-Stokes-Probleme – Konvektionprobleme – Flachwasserprobleme – Scheiben und Platten R -Programmen . . . . . . . . . . . . . . . . . 507 9.9. Hinweise zu den MATLAB
Kapitel 10. Abriss der Tensorrechnung . . . . . . . . . . . . . . . . . . . . 511 10.1. Tensoralgebra . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 511 Basis- und Komponententransformation – Skalarproduktr¨aume – Identifizierung von V und Vd – Allgemeine Tensoren – Darstellung und Transformation von Tensoren – Tensorprodukt – Der Vektorraum der Tensoren – Transformation von allgemeinen Tensoren – Verj¨ ungung (Kontraktion) – Skalarprodukt von Tensoren – Herauf- und Herunterziehen von Indizes – Beispiele 10.2. Algebra alternierender Tensoren . . . . . . . . . . . . . . . . . . . . . . . . . . . . 529 ¨ Alternierende Tensoren – Alternierender Anteil von Tensoren – Außeres Produkt von Tensoren – Basis – Darstellung alternierender Tensoren – Basistransformation – Skalarprodukt alternierender Tensoren 10.3. Differentialformen im Rn . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 535 Der abstrakte Tangentialraum und Pfaffsche Formen – Differentialfor¨ men – Außere Ableitung – Geschlossene und exakte Formen – HodgeStern-Operator und Integrals¨ atze – Abbildungen – Pull back“ und ” Push forward“ ” 10.4. Tensoranalysis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 547 Euklidische Mannigfaltigkeiten – Nat¨ urliche Koordinatensysteme – Darstellung und Transformation – Christoffel-Symbole – Divergenz eines Skalarfeldes – Gradienten eines Tensors – Divergenz eines Tensorfeldes – Rotation eines Vektorfeldes
XVIII Inhaltsverzeichnis
10.5. Beispiele . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 561 Orthogonale nat¨ urliche Koordinatensysteme – Divergenz und Rotation 10.6. Transformationsgruppen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 566 Bezeichnungen und Definitionen – Beispiele – Einparametrige Transformationsgruppen – Die Erzeugende einer Gruppe
Kapitel 11. Fallstudien . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 573 11.1. Ein Beispiel aus der Gasdynamik . . . . . . . . . . . . . . . . . . . . . . . . . . . 573 11.2. Die Reissner-Mindlin-Platte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 575 11.3. Beispiele zu Mehrk¨ orperproblemen . . . . . . . . . . . . . . . . . . . . . . . . . 577 Doppelpendel – Siebenk¨ orperproblem (Andrew’s Squeezer) – Roboter nach Schiehlen 11.4. Tanzende Scheiben . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 580 Allgemeine Scheiben – Zahnr¨ ader mit Nullverzahnung 11.5. Beulung einer kreisf¨ ormigen Platte . . . . . . . . . . . . . . . . . . . . . . . . . 586
Kapitel 12. Anhang . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 12.1. Bezeichnungen und Tabellen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 589 Zeittafel – Bezeichnungen – Maßeinheiten und physikalische Konstanten – Formfunktionen f¨ ur den vollst¨ andigen kubischen Ansatz 12.2. Matrizen-Zoo . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 593 12.3. Translation und Drehung . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .594 12.4. Trigonometrische Interpolation . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 596 ¨ 12.5. Uber einige Funktionenr¨ aume . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 602 Mengen vom Maß Null – Funktionen mit beschr¨ankter Schwankung – Der Dualraum des C[a, b] – Beispiele 12.6. Zykloiden . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 605 12.7. Quaternionen und Drehungen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 608 Komplexe Zahlen – Quaternionen – Zusammengesetzte Drehungen Literaturverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 611 Sachverzeichnis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 621
1 Mathematische Hilfsmittel
In diesem Kapitel werden bekannte und weniger bekannte Ergebnisse aus dem Grundstudium rekapituliert und erg¨ anzt, damit sp¨ater problemlos darauf zur¨ uckgegriffen werden kann. Dar¨ uberhinaus wird eine umfangreiche Sammlung von Formeln und mathematischen Begriffen angelegt, die in der Mechanik regelm¨ aßig ben¨ utzt werden bzw. einfach zum Wortschatz geh¨oren oder aber in den nachfolgenden Kapitel verwendet werden.
1.1 Zur Matrizenrechnung Bezeichnungen: griechische Buchstaben: kleine Buchstaben: unterstrichene kleine Buchstaben: große oder fette Buchstaben:
Skalare oder Skalarfelder Koeffizienten, Punkte (Ortsvektoren) Vektoren und Vektorfelder Matrizen und Tensorfelder
.
Punkte bzw. die zugeh¨ origen Ortsvektoren werden nicht unterstrichen, wenn zwischen Punkten und Vektoren unterschieden werden soll; vgl. Kap. 10. (a) Vektor- und Matrixprodukte (a1) Im Einklang mit der allgemeinen Tensorrechung unterscheiden wir zwischen Zeilen- und Spaltenvektoren: F¨ ur eine (m, n)-Matrix A ∈ Rm n wird ⎡ 1 ⎤ a ⎢ .. ⎥ A = ⎣ . ⎦ = [a1 , . . . , an ] = [ai j ] , i Zeilenindex , am mit den m Zeilen ai und den n Spalten aj geschrieben. Folgerichtig hat
E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 1, c Springer-Verlag Berlin Heidelberg 2010
2
1 Mathematische Hilfsmittel
der Spaltenvektor a ∈ Rm 1 =: Rm die einelementigen Zeilen ai als Elemente der Zeilenvektor a ∈ R1 n =: Rn die einelementigen Spalten ai als Elemente
.
(a2) Das Skalarprodukt f¨ ur zwei Vektoren a , b ist in koordinatenunabh¨angiger Schreibweise definiert durch a · b := |a| |b| cos ϕ(a, b) ,
(1.1)
wobei ϕ der kleinere der beiden positiv gemessenen Winkel zwischen a und b ist. Daraus folgt −|a| |b| ≤ a · b ≤ |a| |b| , und nat¨ urlich wird a · b = 0 gesetzt, ist. F¨ u r zwei Vektoren im Koordinatenraum, wenn a oder b der Nullvektor a, b ∈ Rn , gilt a · b := aT b = i=1:n ai bi ∈ R . (a3) Das Matrizenprodukt f¨ ur zwei Matrizen ⎡ 1 ⎤ a ⎥ ⎢ A = [ai j ] = ⎣ ... ⎦ ∈ Rm p und B = [bj k ] = [b1 , . . . , bn ] ∈ Rp n am ist definiert durch C = [ci k ] = A B ∈ Rm n , ci k = ai bk :=
p
ai j bj k .
j=1
Man beachte, dass beim Matrizenprodukt kein Punkt zwischen den Faktoren A und B steht. Die Forderung der Kompatibilit¨ at, n¨amlich dass die Spaltenzahl des linken Faktors gleich der Zeilenzahl des rechten Faktors ist, muß immer beachtet werden. Das Matrizenprodukt ist nicht kommutativ, inbesondere beachte man z.B. f¨ ur a , b ∈ R3 den Unterschied zwischen ⎡ 1 1 1 2 1 3⎤ a b a b a b a · b = aT b ∈ R; und a bT = ⎣ a2 b1 a2 b2 a2 b3 ⎦ ∈ R3 3 , a3 b1 a3 b2 a3 b3 wobei das zweite spezielle Matrizenprodukt wegen seiner Bedeutung den eigenen Namen dyadisches Produkt oder Dyade tr¨ agt. Eine quadratische Matrix A heißt regul¨ ar, wenn sie eine Inverse A−1 besitzt, A A−1 = I (Einheitsmatrix), andernfalls singul¨ ar. Im Falle der Existenz ist die Inverse eindeutig bestimmt, insbesondere gilt Linksinverse = Rechtsinverse. (a4) Die Spur einer (quadratischen) Matrix ist die Summe ihrer Diagonalelemente (spur(AB) = spur(BA) f¨ ur A , B ∈ Rn n ). Das Skalarprodukt oder Tensorprodukt f¨ ur zwei Matrizen gleicher Dimension ist definiert durch
1.1 Zur Matrizenrechnung
A : B = B : A := spur(AT B) = spur(B T A) =
ai k bi k ,
3
(1.2)
i,k
vgl. z.B. (1.21); ist B symmetrisch (!), dann gilt A : B = AT : B . (a5) Der Koordinatenraum Rn ist ein Vektorraum, dessen kanonische Basis die Einheitsvektoren, also die Spalten der Einheitsmatrix sind. Allgemein heißt ein Koordinatensystem kartesisch (KOS), wenn seine Basisvektoren auf die L¨ ange Eins normiert sind, (im Sinne eines kanonischen Skalarprodukts) senkrecht aufeinander stehen und ein Rechtssystem bilden. Sind nun F = [f 1 , . . . , f n ] und G = [g 1 , . . . , g n ] beliebige regul¨are Matrizen, dann bilden i ihre Spalten jeweils ein Basis des Rn , und es gilt g k = i=1:n f i d k , k = 1 : n , also G = F D mit einer regul¨ aren Transformationsmatrix D. Sind beide Basen kartesisch, dann ist D orthogonal mit positiver Determinante. Jeder Vektor asst sich sowohl in der einen wie in der anderen Basis darstellen, v ∈ Rn l¨ v=
n
g k y k ≡ Gy = F x = F D D−1 x = G D−1 x =⇒ y = D−1 x .
k=1
Das unterschiedliche Transformationsverhalten von Basis und Komponenten, n¨ amlich G = F D und y = D−1 x , ist ein grundlegender Aspekt der allgemeinen Tensorrechnung und rechtfertigt neben anderen Argumenten die unterschiedliche Indexstellung. F¨ ur eine ausf¨ uhrliche Behandlung des Kalk¨ uls wird auf Kapitel 10 verwiesen. (a6) Das Vektorprodukt a × b zweier Vektoren a , b ∈ R3 ist ein Vektor mit den Eigenschaften {a , b , a × b} bilden ein Rechtssystem, |a × b| = |a| |b| sin(ϕ) , wobei der Winkel ϕ die gleiche Bedeutung wie in (1.1) hat. F¨ ur die koordinatenabh¨ angige Darstellung ergibt sich
⎤
⎡ 2 3
e1 a1 b1
a b − a3 b2
a × b = ⎣ a3 b1 − a1 b3 ⎦ =
e2 a2 b2
;
e3 a3 b3
a1 b2 − a2 b1 die zweite Formel ist als Merkregel zu verstehen mit der formalen Determinante | . . . | und der kanonischen Basis {e1 , e2 , e3 } im R3 (sinnvoller als Gartenzaunregel“). Das Vektorprodukt ist linear in jedem Argument aber ” schiefsymmetrisch, d.h. es gilt b × a = −a × b ; insbesondere gilt a × a = 0 also at) (a + b) × b = a × b . Ferner ist der Entwicklungssatz (Graßmann-Identit¨ a × (b × c) = (a · c) b − (a · b) c (a × b) × c = (a · c) b − (b · c) a zu nennen sowie die n¨ utzliche Formel |a × b|2 = |a|2 |b|2 − (a · b)2 .
(1.3)
4
1 Mathematische Hilfsmittel
Beispiel 1.1. Wenn eine Kraft k im Punkt P eines K¨orpers angreift, ergibt sich im Punkt Q das Moment der Kraft k (Moment, Drehmomentvektor, Dreh−→
moment) mQ = QP × k , und es gilt mQ =
−→
−→
−→
QP + t k × k = QP × k + t k × k = QP × k
f¨ ur alle t ∈ R . Der (Kraft)-Vektor k heißt in diesem Zusammenhang linienfl¨ uchtig, weil er beliebig in seiner Richtung verschoben werden darf. Spielt sich das Ganze in der Ebene ab, dann ist die dritte Komponente von k und −→
QP Null, also sind die ersten beiden Komponenten von mQ ebenfalls Null. In diesem Fall wird h¨ aufig die verbleibende nichttriviale z-Komponente von mQ , −→
−→
e3 · mQ = [mQ ]3 = [QP ]1 k 2 − [QP ]2 k 1 ∈ R , Moment der Kraft k genannt. Beispiel 1.2. F¨ ur zwei Vektoren a und b ist ab =
a·b b b·b
die Projektion von a auf b (ohne Verwendung des Winkels!) und a = ab + (a − angs b (bei der Beschleunigung ab ) =: ab +an die orthogonale Zerlegung von a l¨ Huygensche Zerlegung genannt). Nach (1.3) gilt aber b × (a × b) = (b · b)a − (a · b)b , also 1 b × (a × b) . an = a − ab = b·b
a
a
n
b a
b
Abb. 1.1. Projektion von a auf b
(b) Determinanten und Kofaktoren F¨ ur eine Matrix A = [ai k ] = 3 [a1 , a2 , a3 ] ∈ R 3 ist die Determinate det(A) = < a1 , a2 , a3 > = a1 · (a2 × a3 ) = (a1 × a2 ) · a3 das vorzeichenbehaftete Volumen des Parallelepipeds (Spats), das von den drei Vektoren a1 , a2 , a3 aufgespannt wird.
1.1 Zur Matrizenrechnung
5
Ist allgemein A = [ai k ] ∈ Rn n eine quadratische Matrix, und entsteht Aik aus A durch Streichen der i-ten Zeile und k-ten Spalte, dann heißt die Matrix cof A = [di k ] ∈ Rn n mit den Elementen di k = (−1)i+k det(Aik ) Kofaktormatrix von A. Aus der Cramerschen Regel folgt f¨ ur eine regul¨are Matrix die explizite Darstellung A−1 =
1 [cof A]T , det(A)
also auch cof A = det(A)A−T mit der Bezeichnung A−T = [A−1 ]T = [AT ]−1 . Insbesondere gilt
−1
1 ab d −b = , cd ad − bc −c a und im ebenso wichtigen Fall n = 3 di k = ai+1 k+1 ai+2 k+2 − ai+1 k+2 ai+2 k+1 , i, k = 1, 2, 3 , (Indices modulo 3 berechnen, keine Summation). Rechenregeln (vgl. (1.2)): det(A) = det(AT ) , det(A B) = det(A) det(B) , cof(AT ) = cof(A)T , cof(A B) = cof(A) cof(B) ,
d d det A(t) = A(t) : cof A(t) . dt dt
(1.4)
(c) Eigenwerte und Eigenvektoren (c1) Ein Paar (λ, a) mit a = 0 und Aa = λa heißt charakteristisches Paar der (quadratischen) Matrix A mit Eigenwert λ und Eigenvektor a (engl. eigenvalue, eigenvector (!)); der Nullvektor ist niemals Eigenvektor. Die Eigenwerte von A sind die Nullstellen des charakteristischen Polynoms p(λ) := det(A − λI). Ist Q regul¨ ar, dann gilt det(Q A Q−1 ) = det(A), daher sind die Koeffizienten von p(λ) und mithin die Eigenwerte einer Matrix invariant unter Transformationen des Koordinatensystems; die Koeffizienten heißen deswegen Hauptinvarianten von A . Mit Hilfe des Kofaktors und der Determinante lassen sie sich f¨ ur A ∈ R3 3 explizit angeben: det(A − λI) = −λ3 + p1 λ2 − p2 λ + p3 , p1 = spur(A)
= λ1 + λ2 + λ3 ,
p2 = spur cof(A) = [(spur A)2 − spur(A2 )]/2 = λ1 λ2 + λ1 λ3 + λ2 λ3 , p3 = det(A) = λ1 λ2 λ3 .
= [(spur A)3 − 3 spur(A) spur(A2 ) + 2 spur(A3 )]/6
6
1 Mathematische Hilfsmittel
¨ (c2) Eine Matrix A ∈ Rn n heißt diagonalisierbar, wenn sie durch eine Ahnlichkeitstransformation auf Diagonalgestalt gebracht werden kann, d.h. es gibt eine regul¨ are Matrix U , so dass U −1 A U = Λ eine Diagonalmatrix ist. Dies bedeutet einerseits, dass es eine (nicht notwendig kartesische) Koordinatentransformation gibt, bez¨ uglich der alle Nichtdiagonalelemente von A verschwinden und anderseits, dass die Matrix A insgesamt n spaltenweise Eigenvektoren besitzt, n¨ amlich die Spalten von U . Die Zeilen von U −1 stellen die zeilenweisen oder Links-Eigenvektoren dar, und die Eigenwerte selbst sind die Diagonalelemente von Λ. Die Zerlegung A = U ΛV , V = U −1 , V A U = Λ heißt Jordan-Zerlegung von A . M.a.W. kann eine Matrix als diagonalisierbare i Summe von Dyaden geschrieben werden, A = i=1:n λi ui v , mit den Eigenwerten λi sowie den spaltenweisen (Rechts-)Eigenvektoren ui und den zeilenweisen (Links-)Eigenvektoren v i von A , wobei aber v i ui = 1 gelten muss. Genau die normalen Matrizen mit der Eigenschaft AT A = AAT sind diagonalisierbar mit gleichzeitig orthogonalen Eigenvektoren, also insbesondere die symmetrischen Matrizen. ussen die Eigen(c3) Ist die Matrix A ∈ Rn n nicht diagonalisierbar, dann m¨ vektoren durch verallgemeinerte Eigenvektoren oder Hauptvektoren (principal vectors) zu einer Basis des Koordinatenraums erg¨anzt werden. Zu jedem charakteristischen Paar (λ, u) sind diese Hauptvektoren uk zu bestimmen mit der Eigenschaft (A − λI)k uk = 0 , (A − λI)k−1 uk = 0 , k = 1, . . . , u1 = u . F¨ ur die Berechnung werden sukzessive die Gleichungssysteme (A − λI)uk+1 = uk , k = 1, . . . , u1 = u , gel¨ ost, deren Matrix aber singul¨ ar ist. Daher sind die Hauptvektoren einer Hauptvektorkette ebenso wie die Eigenvektoren niemals eindeutig bestimmt, und die Kette bricht von selbst ab, wenn das System unl¨osbar wird. Die Jordan-Zerlegung hat nun die Form A = U (Λ + T )V , V = U −1
(1.5)
mit einer Matrix T , in der alle Elemente Null sind bis auf die Elemente in der ersten oberen Nebendiagonalen, die letzteren sind entweder Null oder Eins. Die Matrix Λ + T ist damit eine Blockdiagonalmatrix mit sog. Jordan-Bl¨ ocken in der Hauptdiagonalen, deren jeder einer Hauptvektorkette entspricht. Wenn zu einem charakteristischen Paar (λ, v) keine Hauptvektorkette existiert, besteht der zugeh¨ orige Jordan-Block nur aus der Zahl λ, und es kann nat¨ urlich zu einem Eigenwert mehrere Jordan-Bl¨ocke geben entspre¨ chend der Anzahl seiner linear unabh¨ angigen Eigenvektoren. Im Ubrigen ist
1.1 Zur Matrizenrechnung
7
die Jordan-Zerlegung nur bis auf Permutationen der Spalten von U und der Zeilen von V eindeutig bestimmt. Beispiel 1.3. Die Matrix A ∈ R5 5 soll den doppelten Eigenwert λ und den dreifachen Eigenwert μ haben; zu beiden Eigenwerten soll genau ein Eigenvektor existieren. Dann gibt es eine Hauptvektorkette der L¨ange zwei zu λ und eine Hauptvektorkette der L¨ ange drei zu μ . Die Jordan-Zerlegung von A hat bis auf Permutationen die Form (!) ⎡ ⎤⎡ ⎤ λ 1 0 0 0 u2 ⎢ 0 λ 0 0 0 ⎥⎢ u1 ⎥ ⎢ ⎥⎢ 3 ⎥ i k ⎥⎢ ⎥ A = [u1 , u2 , v 1 , v 2 , v 3 ]⎢ ⎢ 0 0 μ 1 0 ⎥⎢ v 2 ⎥ , ui , v k Spalten , u , v Zeilen ⎣ 0 0 0 μ 1 ⎦⎣ v ⎦ 0 0 0 0 μ v1 mit
{u1 , u2 } {v 1 , v 2 , v 3 } {u1 , u2 } {v 1 , v 2 , v 3 }
spaltenweise Hauptvektorkette zu (λ, u1 ) spaltenweise Hauptvektorkette zu (μ, v 1 ) zeilenweise Hauptvektorkette zu (λ, u1 ) zeilenweise Hauptvektorkette zu (μ, v 1 ) .
F¨ ur die nilpotente Matrix T gilt immer T n = 0 ∈ Rn n ; speziell gilt bei diesem Beispiel ⎡ ⎤
010 T O 01 T = 1 , T12 = 0 ∈ R2 2 , T2 = ⎣ 0 0 1 ⎦ , T23 = 0 ∈ R3 3 . , T1 = 00 O T2 000 Ist nun ein Differentialsystem x˙ = Ax mit der obigen Matrix A gegeben, so l¨ asst sich ein Fundamentalsystem von L¨ osungen sofort angeben: x1 (t) = u1 eλt , x2 (t) = eλt (u2 + t u1 )
t2 x3 (t) = v 1 eμt , x4 (t) = eμt (v 2 + t v 1 ) , x5 (t) = eμt v 3 + t v 2 + v 1 ; 2
vgl. § 1.5(b). (c4) Mit Hilfe der Jordan-Zerlegung l¨ asst sich zeigen, dass die Eigenwerte einer Matrix A im Wesentlichen f¨ ur das Verhalten von limn→∞ An verantwortlich sind; dazu f¨ uhren wir vier weitere Bezeichnungen ein: (1◦ ) F¨ ur eine beliebige Vektornorm ◦ ist A = Max{Ax ; x = 1} die zugeh¨ orige Operatornorm; andere Normen sind u.U. nicht submultiplikativ, d.h. es gilt nicht A B ≤ AB . (2◦ ) Die Menge der Eigenwerte σ(A) einer quadratischen Matrix A heißt Spektrum von (A). (3◦ ) Der Radius (A) des kleinsten Kreises mit Zentrum im Ursprung, der alle Eigenwerte von A enth¨ alt, heißt Spektralradius von A.
8
1 Mathematische Hilfsmittel
(4◦ ) Ein Eigenwert heißt halbeinfach , wenn es keine Hauptvektoren zu diesem Eigenwert gibt, dann bestehen alle zugeh¨ origen Jordan-Bl¨ocke aus einem einzigen Element. (5◦ ) Eine quadratische Matrix A heißt M-Matrix, wenn alle Eigenwerte λ mit |λ| = (A) halbeinfach sind. Der Begriff M-Matrix wird allerdings auch in einem anderen Zusammenhang verwendet; vgl. [Ortega], Def. 2.4.7. Satz 1.1. Es sei A eine quadratische Matrix. (1◦ ) Es gilt stets (A) ≤ A. ur jedes feste ε > 0 gibt es eine von A und ε abh¨ angige Norm ◦ A, ε , (2◦ ) F¨ so dass gilt (A) ≤ AA, ε ≤ (A) + ε . (3◦ ) limn→∞ An = 0 ⇐⇒ (A) < 1 . (4◦ ) ∃ K > 0 ∀ n ∈ N : An ≤ K ⇐⇒ (A) < 1 oder ((A) = 1 und A ist M-Matrix). Wegen An ≤ An konvergiert also die Folge xn+1 = Axn = An+1 x0 , n = 0, 1, . . . mit beliebigem x0 stets gegen den Nullvektor, wenn die erste Bedingung in (4◦ ) gilt, und sie bleibt stets beschr¨ankt, wenn die zweite Bedingung in (4◦ ) gilt. Eine grundlegende Aufgabe der Numerischen Mathematik besteht in der L¨ osung von Gleichungssystemen Ax = b mit regul¨arer Matrix A. Dabei ist die Kondition von A das entscheidende Kriterium f¨ ur ein brauchbares Ergebnis. Sie ist durch das Verh¨ altnis der Betr¨ age von betragsgr¨oßtem und betragskleinsten Eigenwert definiert und kann – auch in der Praxis – beliebig großsein ohne dass die Matrix im algebraischens Sinn singul¨ar ist und damit die L¨osung nicht mehr eindeutig oder u ¨berhaupt nicht existiert. Bei schlecht konditionierten Systemen stehen direkte Verfahren wie der Gauß-Algorithmus und seine Verwandten auf der einen und die indirekten oder Iterationsverfahren auf der anderen Seite seit jeher in edlem Wettstreit miteinander. Das direkR weitgehend perfektioniert, dass te L¨ osungsverfahren wurde bei MATLAB es heute respektable Ergebnisse zeitigt. Wenn es dennoch versagt, muss man sich iterativer Verfahren bedienen, die etwa die Form xn+1 = xn − C(Axn − b) , n = 0, 1, . . . haben. Im Falle der Konvergenz haben sie den Vorteil, dass einmal eingeschleppte Fehler im Laufe der Rechnung wieder eliminiert werden. Nach Satz 1.1 konvergiert das Verfahren (f¨ ur beliebigen Startvektor) genau dann gegen die L¨ osung A−1 b, wenn der Spektralradius der Matrix I − C A kleiner als Eins ist. Die verschiedenen Iterationsverfahren unterscheiden sich im Wesentlichen durch die Wahl von C oder einer Folge von Matrizen C , mit denen dieses Kriterium bei relativ vagen Vorgaben u ¨ber A erreicht wird.
1.1 Zur Matrizenrechnung
9
(d) Zerlegungen einer Matrix Ist w ein beliebiges, hinreichend glattes Vektorfeld, dann gilt nach Taylor w(x + h) = w(x) + grad w(x)h + o(|h|) , ¨ der Gradient von w beschreibt also die lokale oder infinitisimale Anderung 3 von w . Drei Zerlegungen von A := grad w(x) =: ∇w(x) ∈ R 3 sind in der Kontinuumsmechanik von besonderer Bedeutung. (d1) Die Zerlegung in symmetrischen und schiefsymmetrischen Anteil: A=D+S, D =
1 1 [∇w(x) + ∇w(x)T ] , S = [∇w(x) − ∇w(x)T ] . 2 2
Die symmetrische Matrix D beschreibt hier die lokale Dehnung bzw. Stauangs der Hauptachsen von D und wegen chung des Vektorfeldes w l¨ rot w(x) × (y − x) = [∇w(x) − ∇w(x)T ](y − x) beschreibt die schiefsymmetrische Matrix S die lokale Drehung des Vektorfeldes w . (d2) Eine Entwicklung von A = I + ∇v(x) ∈ R3 3 ergibt det(A) = 1 + spur(A) + h.o.t. (h.o.t. = higher order terms = Terme h¨ oherer Ordnung in den Koeffizienten von A). In der Zerlegung A = A +
1 1 spur(A)I , A = A − spur(A)I , I ∈ R3 3 Einheitsmatrix 3 3
ist spur(A ) = 0 , daher beschreibt A die lokale Gestalt¨anderung von A und spur(A)I/3 die lokale Volumen¨ anderung. (d3) Neben der additiven Zerlegung einer quadratischen Matrix (und Dreieckszerlegungen, die hier nicht diskutiert werden,) gibt es auch eine multiplikative Zerlegung gem¨ aß dem folgenden Satz, der von Finger 1892 bewiesen wurde. Er spielt eine wichtige Rolle bei der Konstruktion von allgemeinen Spannungstensoren, siehe auch [Ciarlet93]. Lemma 1.1. (Polare Zerlegung) Ist A eine regul¨ are Matrix, dann gibt es eindeutig bestimmte orthogonale Matrizen P , Q sowie eindeutig bestimmte symmetrische, positiv definite Matrizen U und V , so dass gilt A = P U = V Q. Nach dieser Zerlegung l¨ asst sich eine regul¨ are Matrix A stets als Dehnung und anschließende Drehung bzw. umgekehrt als Drehung und anschließende Dehnung auffassen.
10
1 Mathematische Hilfsmittel
(e) Lineare Gleichungssysteme (e1) Es sei A ∈ Rm n eine beliebige Matrix, Range A = {y ∈ Rm , ∃ x ∈ Rn : y = Ax} ∈ Rm der Wertebereich von A , Ker A = {x ∈ Rn , Ax = 0} ∈ Rn der Nullraum oder Kern von A , (beide sind Vektorr¨ aume) sowie U ⊥ = {v ∈ Rn , ∀ u ∈ U : v T u = 0} das orthogonale Komplement einer Menge U ⊂ Rn . Ist U ein Vektorraum, dann ist U ⊥ ebenfalls ein Vektorraum. Ein lineares Gleichungssystem Ax = b ist also genau dann l¨ osbar, wenn die rechte Seite b im Wertebereich von A liegt. Zur Charakterisierung dieser rechten Seiten dient der folgende wichtige Satz u ¨ber den Wertebereich einer Matrix: Satz 1.2. F¨ ur eine beliebige Matrix A ∈ Rm n gilt [Range A]⊥ = Ker AT . Beweis.
0 = y ∈ [Range A]⊥ ⇐⇒ y T Ax = 0 ∀ x ∈ Rn ⇐⇒ y T A = 0 ⇐⇒ AT y = 0 ⇐⇒ y ∈ Ker AT .
¨ Durch Ubergang zum orthogonalen Komplement ergibt sich sofort ⊥ Range A = Ker AT .
(1.6)
In dieser Form kann man Satz 1.2 mit Recht als Grundlage des Dualit¨ atsprinzips bezeichen. Ebenso stellt er die geometrische Beziehung zwischen den Prinzip von Lagrange und dem D’Alembertschen Prinzip (mit Zwangsbedingungen) her, siehe § 8.3. Der Wertebereich einer Matrix ist also das orthogonale Komplement des Nullraums der transponierten Matrix, was einige elementare Aussagen zur Folge hat: Folgerung 1.1. (1◦ ) (Fredholm’sche Alternative) Range A = Rm ⇐⇒ Ker AT = {0} ∈ Rm .
(1.7)
(2◦ ) Ist A quadratisch, dann ist nach (1.7) das Gleichungssystem Ax = b genau dann l¨ osbar f¨ ur alle rechten Seiten b, wenn das System Ax = 0 nur die triviale L¨ osung hat, und die L¨ osung ist jeweils eindeutig. (3◦ ) dim Ker A + dim Range A = n .
(1.8)
(4◦ ) Ist A quadratisch, dann gilt Ker A ∩ Range A = {0} ⇐⇒ A diagonalisierbar .
(1.9)
1.1 Zur Matrizenrechnung
11
Beweis von (3◦ ). Aus Satz 1.2 folgt [Range AT ]⊥ = Ker A, also dim Ker A = dim[Range AT ]⊥ = codim Range AT = n − dim Range AT . Weil aber der Zeilenrang einer Matrix gleich ihrem Spaltenrang ist, gilt dim Range AT = dim Range A . (e2) In der Optimierung und in der Kontinuumsmechanik entstehen oft lineare Gleichungssysteme mit der Lagrange-Matrix
A BT , (1.10) L= B 0 die auch bei symmetrischer und positiv definiter Matrix A i.A. nicht definit ist. Lemma 1.2. Es sei A ∈ Rn n symmetrisch und positiv semidefinit. Genau dann ist die Lagrange-Matrix (1.10) regul¨ ar, wenn B ∈ Rm n die folgenden drei Bedingungen erf¨ ullt: (1◦ ) m ≤ n; (2◦ ) Rang(B) = m , d.h. B ist rangmaximal; (3◦ ) A ist positiv definit auf dem Kern von B , d.h. Bx = 0 , x = 0 =⇒ xT Ax > 0 . Beweis. Es muss Lz = 0 f¨ ur z = 0 sein. Die Notwendigkeit von (1◦ ) und (2◦ ) 0. folgt in einfacher Weise. Ist nun z = [x, y]T , dann folgt Lz = 0 aus Bx = Aus Bx = 0 , x = 0 und Lz = 0 folgt Ax + B T y = 0 =⇒ xT Ax + xT B T y = 0 , was xT By < 0 ergibt wegen xT Ax > 0 . Das ist ein Widerspruch zur Voraussetzung Bx = 0 und x = 0 . Die gleiche Argumentation zeigt, dass (3◦ ) notwendig ist. (e3) Bei der sog. Kondensation eines linearen Gleichungssystems werden einige Komponenten der L¨ osung von vornherein eliminiert. In dem System
f A B x = g C D y sei die Matrix D regul¨ ar. Dann kann die L¨ osung y der zweiten Zeile in die erste Zeile eingesetzt werden. Als Ergebnis erh¨alt man ein kleineres System, in dem y nicht mehr vorkommt, bzw. zwei getrennte kleinere Systeme: [A − BD−1 C]x = f − BD−1 g , Dy = g − Cx . Zum Beispiel wird diese Reduktion beim vollst¨ andigen kubischen Element in § 9.4 angewendet, aber auch bei dem Pressure Schur complement“ Schema ” zur L¨ osung von Navier-Stokes-Gleichungen.
12
1 Mathematische Hilfsmittel
(f ) Projektoren und Reflektoren (f1) Projektoren Die Projektion von a auf b , vgl. (a), Beispiel 1.2, kann f¨ ur a, b ∈ Rn als Matrix-Vektor-Produkt geschrieben werden, ab =
a·b aT b b bT b = T b = T a =: P a . b·b b b b b
Ist allgemeiner U ⊂ Rn ein Unterraum mit der Basis {b1 , . . . , bm } und B = [b1 , . . . , bm ] ∈ Rn m die Matrix mit den Spalten bi , dann ist B rangmaximal. Die Matrix P = B(B T B)−1 B T projiziert jeden Vektor x ∈ Rn auf U. Sie ist symmetrisch und idempotent, P 2 = P . Allgemein heißt eine Matrix mit diesen beiden Eigenschaften Projektor . (f2) Reflektoren Es sei 0 = u ∈ Rn , H := {x ∈ Rn , uT x = 0} eine Hyperebene durch den Ursprung und P ein Punkt mit dem Ortsvektor p . Zieht man die Projektion pu von p auf u zweimal von p ab, so wird der Punkt P an der Ebene H in den Punkt Q mit dem Ortsvektor q gespiegelt, q = p − 2pu =
u uT I −2 T u u
p =: Sp ;
vgl. Abb. 1.2. Die Spiegelungsmatrix S heißt auch Reflektor. Sind andererseits p und q vorgegeben und ist die Spiegelungsebene H gesucht, dann hat man u = ±(p − q) zu setzen. Das Vorzeichen hebt sich bei der Spiegelung heraus. (f3) Der QR-Algorithmus Es sei A = [a1 , . . . , am ] ∈ Rn m eine Matrix, die in A = Q R zerlegt werden soll mit einer orthogonalen Matrix Q und einer oberen Dreiecksmatrix R . Im ersten Schritt des QR-Algorithmus wird p = a1 und q = ±|a1 |e1 gew¨ ahlt, wobei e1 der erste Einheitsvektor ist. Das Vorzeiunden der numerischen Stabilit¨at so gew¨ahlt, dass in chen von q wird aus Gr¨ u = ±(p − q) keine Subtraktion auftritt. Die gleiche Operation wird dann auf den Restmatrizen solange wiederholt bis die vollst¨andige Zerlegung erreicht ist. Eine QR-Zerlegung kann auch mit reinen Drehungen erzeugt werden. R -Algorithmus [Q,R] = qr(A) werden aber die obigen SpieIm MATLAB gelungsmatrizen S mit det(S) = −1 verwendet, deswegen gilt det(A) = det(Q) · det(R) = ± det(R), was bei den Fortsetzungsverfahren in § 5.8 zu ber¨ ucksichtigen ist.
1.1 Zur Matrizenrechnung
13
H
+
u+
p u−
− |p|e1
|p|e1
H−
Abb. 1.2. Zum QR-Algorithmus
(g) Die Moore-Penrose-Inverse (Pseudo-Inverse) F¨ ur eine beliebige Matrix A ∈ Rm n heißen die (nichtnegativen) Wurzeln der Eigenwerte der semiare Werte von A . definiten Matrix AT A ∈ Rn n singul¨ Satz 1.3. Zu jeder Matrix A ∈ Rm n gibt es orthogonale Matrizen U ∈ Rm m und V ∈ Rn n , so dass (1.11) U T AV = S ∈ Rm n eine Diagonalmatrix ist. Die Diagonale von S enth¨ alt die singul¨ aren Werte σ1 , . . . , σn von A . Beweis. O.B. sei m ≥ n, sonst betrachte man AT statt A. Es sei V ∗ ∈ Rn n eine orthogonale Matrix, die AT A auf Diagonalgestalt transformiert, und es sei AV ∗ = Q R eine QR-Zerlegung von AV ∗ . Dann kann man in (1.11) V = V ∗ und U = Q w¨ ahlen. Zum Beweis betrachtet man die Identit¨at U T AV = QT AV ∗ = R . Nach Definition von V gilt V T AT AV = V T AT U U T AV = RT R = diag(σ12 , . . . , σn2 ), daher muss R Diagonalmatrix sein, also R = S.
Hat A den Rang r ≤ Min{m, n} , so ist S o.B. eine Diagonalmatrix der Form
D0 S= ∈ Rm n , 0 0 wobei abgesehen vom trivialen Fall D matrix mit p ≤ n ist. Es sei (!)
−1 D S+ = 0
are Diagonal= [σ1 , . . . , σp ] eine regul¨ 0 ∈ Rn m , 0
dann heißt die Matrix A+ = V S + U H ∈ Rn m Moore-Penrose-Inverse von A ; sie ist eindeutig bestimmt bis auf die Darstellung.
14
1 Mathematische Hilfsmittel
Lemma 1.3. (Eigenschaften). F¨ ur A ∈ Rm n gilt A++ A+ A AA+ A T (A A)+ AT
= A, (A+ )T = (AT )+ , + T = (A A) , AA+ = = (AA+ )T , + = A, A AA+ = A+ , + =A .
P := AA+ ist Projektor von Rm auf Range(A), Q := A+ A ist Projektor von Rn auf Ker(A)⊥ = Range(AT ). Lemma 1.4. F¨ ur x∗ = A+ b und x2 = xT x gilt ◦ n (1 ) ∀ x ∈ R : Ax∗ − b ≤ Ax − b , (2◦ ) Ax∗ − b = Ax − b =⇒ x∗ ≤ x . Beweis [Stoer], § 4.8.5; SUPPLEMENT\chap01a. osung des Problems Ax − b = Min! mit der Minimum-Normx∗ ist also L¨ R liefert diese L¨ osung mit x = pinv(A)*b. Ist Eigenschaft (2◦ ); MATLAB m ≥ n und A rangmaximal, dann ist die L¨ osung eindeutig. ¨ (h) Uberund unterbestimmte Systeme Es sei eine L¨osung“ von Ax = b ” mit einer allgemeinen Matrix A ∈ Rm n gesucht. R -Algorith(h1) Ist A quadratisch und singul¨ ar, dann liefern die MATLAB men x = A\b und
[Q,R] = qr(A);
y = Q’*b;
x = R\y
keine L¨ osung; die Kondition von A wird angegeben. (h2) Ist A nicht quadratisch, dann liefern beide Algorithmen die gleiche L¨ osung von Ax − b = Min!, auch wenn A nicht rangmaximal ist. Der Rang von A wird angegeben, die L¨ osung hat aber i.d.R. nicht die Minimum-NormEigenschaft. (h3) F¨ ur Fortsetzungsverfahren und die L¨ osung von periodischen Randwertproblemen ist der Fall einer rangmaximalen Matrix A ∈ Rn n+1 von besonderem Interesse, die Anwendung von x = pinv(A)*b aber i.d.R. zu aufwendig. R -Algorithmus verwendet die QR-Zerlegung von A, Der folgende MATLAB aber die im Regelfall stark besetzte Matrix Q wird nicht abgespeichert; vgl. [Hoellig], § 3.2.
1.1 Zur Matrizenrechnung
15
function x = mpsolv(A,b); % berechnet Loesung x = mpinv(A)*b % fuer eine rangmaximale (n,n+1)-Matrix A [m,n] = size(A); if n ~= m+1 disp(’A keine (n,n+1)-Matrix’), return end R = triu(qr([A,b])); C = R(1:m,m+2); T = R(1:m,m+1); S = R(1:m,1:m); G = [-T,C]; U = S\G; V = -[U(:,1);1]\[U(:,2);0]; x = [U(:,1);1]*V + [U(:,2);0]; (i) Drehung im R3 . Es seien a , x ∈ R3 und die schiefsymmetrische Matrix C gegeben durch ⎤ ⎡ 0 −a3 a2 C x = a × x = ⎣ a3 0 −a1 ⎦ x . −a2 a1 0 Ist umgekehrt eine Matrix C = [ci k ] ∈ R3 3 schiefsymmetrisch, dann folgt ⎡ 2 ⎤ −c 3 C x = a × x , a = ⎣ c1 3 ⎦ . −c1 2 Wegen a × a = 0 und der Darstellungsformel a × (b × c) = (a · c)b − (a · b)c , a, b, c ∈ R3 , angewendet auf C 2 x = CC x = a × (a × x), gilt aT C = 0 , C a = 0, C 2 = a aT − |a|2 I .
(1.12)
Wir betrachten eine Drehung um a , |a| = 1, mit konstanter Winkelgeschwindigkeit ω, also ϕ(t) = ωt. Dann gilt x(t) = D(t)x0 , x0 = x(0) , mit der Drehmatrix D(t), D(t) = cos(ωt)I + (1 − cos(ωt))aaT + sin(ωt)C , ˙ D(t) = ω − sin(ωt)I + sin(ωt)aaT + cos(ωt)C) .
(1.13)
Mit (1.12) berechnet man D˙ = ωCD = ωDC, also folgt f¨ ur die Ableitung nach t x(t) ˙ = ω CD(t)x0 = ω a × x(t) . (1.14) Das Vektorfeld ω a × x(t) ist das Geschwindigkeitsfeld der starren Drehung um a, |a| = 1, mit konstanter Winkelgeschwindigkeit ω .
16
1 Mathematische Hilfsmittel
Ist umgekehrt D = [di k ] = I ∈ R3 3 eine orthogonale Matrix mit positiver Determinante, dann ist D eine Drehmatrix. Aus der Darstellung (1.13) ergeben sich f¨ ur den Drehwinkel 0 ≤ ϕ , ϕ = π und die Drehachse a die Formeln cos ϕ =
T 1 1 3 (spur D − 1) , a = d 2 − d 2 3 , d1 3 − d 3 1 , d2 1 − d 1 2 ; 2 2 sin ϕ
vgl. [Meyberg], § 6.6.4. Ferner leitet man aus D˙ = ωCD = ωDC die Beziehungen ωC = D˙ DT = −D D˙ T = DT D˙ = −D˙ T D (1.15) her, die ebenso wie das n¨ achste Resultat in der Kreiseltheorie verwendet werden. ur Lemma 1.5. Ist D eine Drehmatrix, dann gilt Db × Dc = D(b × c) f¨ b, c ∈ R3 . ur eine Beweis. F¨ ur a, b, c ∈ R3 ist det(a, b, c) = aT (b × c) das Spatprodukt. F¨ Matrix C ∈ R3 3 folgt det(a, Cb, Cc) = det(CC −1 a, Cb, Cc) = det(C) det(C −1 a, b, c) = < det(C)C −1 a, b, c > = < (cof C T )a, b, c > = aT (cof C)(b × c). vgl. (b). Setzt man f¨ ur C die Drehmatrix D mit cof D = (det D)D−T = D ein, dann ergibt sich a · (Db × Dc) = a · D(b × c) . Daraus folgt die Behauptung, weil a ∈ R3 beliebig war.
Lemma 1.5 beschreibt die anschaulich einleuchtende Tatsache, dass das gedrehte Vektorprodukt gleich dem Vektorprodukt der gedrehten Faktoren ist. Alle orthogonalen Matrizen mit positiver Determinante sind also Drehmatrizen und ihr Produkt ergibt wieder eine Drehmatrix. Drehwinkel und Drehachse der zusammengesetzten Drehung sind aber schwierig aus den Komponenten zu berechnen. Deswegen geht man hier besser zu der Darstellung mit Quaternionen u ¨ber, s. § 12.7. (j) Matrizen mit definitem Realteil F¨ ur symmetrische Matrizen ur alle x ∈ Rn gilt. B, C ∈ Rn n schreibt man B ≥ C, wenn xT (B − C)x ≥ 0 f¨ Lemma 1.6. Es sei A ∈ Rn n , α > 0, und Re(A) := ist A regul¨ ar und A−1 2 ≤ α−1 . Ferner ist die Folge yn+1 = yn −
1 (A + AT ) ≥ α I, dann 2
h (Ayn+1 + Ayn ), n = 0, 1, . . . , y0 ∈ Rn , h > 0 , 2
beschr¨ ankt. Vgl. die Trapezregel f¨ ur das Differentialsystem x + Ax = 0 in § 2.4, Beispiel 2.12.
1.2 Formeln der Vektoranalysis
17
Beweis. (1◦ ) Ist A ∈ Rn n und x ∈ Rn , dann gilt xT Re(A)x = 12 xT (A+AT )x = uhrt zu einem WixT Ax . Die Voraussetzung 0 < α xT x ≤ xT Ax, x = 0 f¨ derspruch, wenn A singul¨ ar ist und f¨ ur x ein Eigenvektor zum Eigenwert Null eingesetzt wird. (2◦ ) Mit x = A−1 y und der Cauchy-Schwarz-Ungleichung folgt α xT x = αA−1 y22 ≤ (A−1 y)T Re(A)(A−1 y) = (A−1 y)T A(A−1 y) = (A−1 y)T y ≤ A−1 y2 y2 , also gilt ∀ y : A−1 y2 ≤ α−1 y2 . (3◦ ) Es sei o.B. h/2 = 1, dann ist A(y n+1 + y n ) = y n − y n+1 und nach Voraussetzung 0 ≤ (y n + y n+1 )T A(y n + y n+1 ) = (y n + y n+1 )T (y n − yn+1 ) = y n 22 − y n+1 22 . (Mehr geht nicht unter der obigen Voraussetzung!)
1.2 Formeln der Vektoranalysis In diesem Abschnitt wird eine Sammlung von Formeln der Vektoranalysis im ur n DimenKoordinatenraum R3 angegeben. Alle diese Formeln gelten auch f¨ sionen, solange der Rotationsoperator nicht auftritt. In den Rechenregeln wird mehrheitlich die Matrizenmultiplikation verwendet und nicht das SkalarproR nicht vorkommt. F¨ ur eine allgemeinere dukt, weil das letztere bei MATLAB Darstellung verweisen wir auf Kapitel 10. (a) Bezeichnungen und Definitionen Es sei x ∈ R3 ein Punkt bzw. Ortsvektor, ∂i = ∂/∂xi der Operator der partiellen Ableitung nach der i-ten Komponente, und es seien ϕ, χ, ψ Skalarfelder, z.B. ϕ : R3 x → ϕ(x) ∈ R, u, v, w spaltenweise Vektorfelder, z.B. ⎤ ⎡ 1 v (x) v : R3 x → v(x) = ⎣ v 2 (x) ⎦ = [v 1 (x), v 2 (x), v 3 (x)]T ∈ R3 , v 3 (x) und R, S, T Tensorfelder, z.B. R : R3 x → R(x) = [rij (x)] ∈ R3 3 ; oft wird rij statt rij geschrieben. (a1) Gradient, Gradientenfeld: grad ϕ
:
x → grad ϕ(x) := [∂1 ϕ(x), ∂2 ϕ(x), ∂3 ϕ(x)] ∈ R3 zeilenweises Vektorfeld,
x → grad v(x) ∈ R3 3 Tensorfeld, ⎤ ⎤ ⎡ ⎡ ∂1 v 1 ∂2 v 1 ∂3 v 1 grad v 1 (x) grad v(x) := ⎣ ∂1 v 2 ∂2 v 2 ∂3 v 2 ⎦ (x) = ⎣ grad v 2 (x) ⎦ = [∂1 v, ∂2 v, ∂3 v] (x) , ∂1 v 3 ∂2 v 3 ∂3 v 3 grad v 3 (x)
grad v
:
grad T (x) = [∂1 T (x), ∂2 T (x), ∂3 T (x)] ∈ R3 9 .
18
1 Mathematische Hilfsmittel
Der Gradient einer Abbildung v : Rn → Rm im Punkt x ist hier eine (m, n)-Matrix, in einigen Lehrb¨ uchern wird aber [grad v(x)]T als Gradient“ bezeichnet. ” Ist f : R3 3 S → f (S) ∈ R eine skalare Funktion mit tensoriellem Argument S = [si j ], dann gilt
∂f ∂f grad f (S) = (S) = (S) ∈ R3 3 , ∂S ∂si j und f¨ ur die Richtungsableitung folgt
d
f (S + tT )
= [grad f (S)] : T . dt t=0 (a2) Divergenz: div v
:
x → div v(x) := ∂1 v 1 (x) + ∂2 v 2 (x) + ∂3 v 3 (x) ∈ R Skalarfeld,
x → div R(x) ∈ R3 spaltenweises Vektorfeld, ⎤ ⎤ ⎡ ⎡ ∂1 r11 + ∂2 r12 + ∂3 r13 div r1 (x) div R(x) := ⎣ ∂1 r21 + ∂2 r22 + ∂3 r23 ⎦ (x) = ⎣ div r2 (x) ⎦ ∂1 r31 + ∂2 r32 + ∂3 r33 div r3 (x)
div R
:
= [∂1 r1 + ∂2 r2 + ∂3 r3 ] (x) . Bei der Tensordivergenz wird also die Divergenz zeilenweise angewendet. (a3) Rotation, Wirbelfeld, siehe auch § 1.1(a6): x → rot v(x) ∈ R3 spaltenweises Vektorfeld,
⎤
⎡
e1 ∂1 v 1
∂2 v 3 (x) − ∂3 v 2 (x)
rot v(x) := ⎣ ∂3 v 1 (x) − ∂1 v 3 (x) ⎦ =
e2 ∂2 v 2
(x) .
e3 ∂ 3 v 3
∂1 v 2 (x) − ∂2 v 1 (x) rot v
:
Die zweite Formel ist wie gesagt als Merkregel zu verstehen. Bei einem Vektorfeld v in der (x, y)-Ebene verschwinden die ersten beiden Komponenten des Rotationsvektors, man schreibt dann vielfach f¨ ur v ∈ R2 rot v := eT3 rot v = vx2 − vy1 ∈ R .
(1.16)
Der Name des Rotationsvektors leitet sich aus dem wichtigen Beispiel w(x) = a × x =⇒ rot w = 2a her; vgl. (1.14). Hin und wieder findet man auch die Bezeichnung curl ϕ(x, y) = [ϕy , −ϕx ]T ∈ R2 f¨ ur einen Tangentenvektor an eine implizit gegebene Kurve ϕ(x, y) = c in der Ebene, wobei das Vorzeichen nicht eindeutig festliegt.
1.2 Formeln der Vektoranalysis
19
Formale Schreibweise mit dem Nabla-Operator ∇: ∇ ∇ϕ ∇·v ∇×v v·∇ v·∇
:= := := := : :
formaler Zeilenvektor (!), (∂1 , ∂2 , ∂3 ) grad ϕ , ∇v := grad v , div v , rot v , (auch ∇ ∧ v), ϕ → (v · ∇)ϕ := (∇ϕ)v , w → (v · ∇)w := (∇w)v .
Die Schreibweise f¨ ur den Operator v · ∇ ist etwas verwirrend. Man sollte an ahlen: ihrer Stelle besser ∂v = (grad ϕ)v w¨ v · ∇ := ∂v := v 1 ∂1 + v 2 ∂2 + v 3 ∂3 ∂v w = v 1 ∂1 w + v 2 ∂2 w + v 3 ∂3 w = (∇w)v . Darstellungen mit der Jacobi-Matrix ∇v: div v(x) = spur(∇v)(x) , (rot v(x)) × w = [∇v(x) − (∇v(x))T ]w . (a4) Laplace-Operator: Δϕ : x → Δϕ(x) := ∂12 ϕ(x) + ∂22 ϕ(x) + ∂32 ϕ(x) = div grad ϕ(x) ∈ R Skalarfeld, ⎤ ⎡ Δv 1 (x) Δv : x → Δv(x) := ⎣ Δv 2 (x) ⎦ Δv 3 (x) = div grad v(x) ∈ R3 Vektorfeld. (b) Differential-Rechenregeln In den folgenden Formeln m¨ ussen alle Argumente hinreichend glatt sein. (b1) Die Operatoren grad, div und rot sind linear, z.B. gilt rot(α v + β w) = α rot v + β rot w, α, β ∈ R . (b2) Kettenregel: grad(w ◦ v)(x) = grad w(v(x)) grad v(x) . (b3) Weitere Rechenregeln: In den folgenden Rechenregeln wird die MatriR zenmultiplikation verwendet ohne Skalarprodukt, das bei MATLAB nicht vorkommt.
20
1 Mathematische Hilfsmittel
Produktregeln: grad(ϕ ψ) grad(v T w) grad(ϕ v) div(ϕ v) rot(ϕ v) div(ϕ T ) div(Sv) div(v T S) div(S T ) div(v wT ) div(v × w) rot(v × w)
= ϕ grad ψ + ψ grad ϕ Zeilenvektorfeld = v T grad w + wT grad v Zeilenvektorfeld = v grad ϕ + ϕ grad v Tensorfeld = ϕ div v + (grad ϕ)v Skalarfeld = ϕ rot v + (grad ϕ)T × v Spaltenvektorfeld Spaltenvektorfeld = ϕ div T + T (grad ϕ)T = [div(S T )]T v + S T : grad v Skalarfeld T T = div(S v) = v div S + grad v : S Skalarfeld Spaltenvektorfeld = [grad ([si ]T ) : T ]3i=1 + S div T = (grad v)w + v div w Tensorfeld = wT rot v − v T rot w = (div w)v − (div v)w + (grad v)w − (grad w)v .
Doppelte Anwendungen: ⎤ ⎡ ⎤ 2 1 2 2 2 3 v + ∂12 v + ∂13 v ∂1 div v ∂11 2 1 2 2 2 3⎦ v + ∂22 v + ∂23 v (grad div v)T = ⎣ ∂21 = ⎣ ∂2 div v ⎦ , 2 1 2 2 2 3 ∂31 v + ∂32 v + ∂33 v ∂3 div v ⎡
div rot v = 0 glattes Wirbelfeld ist quellenfrei rot grad ϕ = 0 glattes Gradientenfeld ist wirbelfrei (grad div v)T = Δv + rot rot v , div(ϕ grad ψ) = ϕ Δψ + (grad ϕ) grad ψ T div([grad v]T ) = [grad div v]T rot(Δv) = Δ(rot v) . Man beachte, dass hier der Nabla-Operator (Gradient) ∇ “ eine abk¨ urzende ” Schreibweise f¨ ur den Gradienten als Zeilenvektor ist, daher folgt z.B. [∇(v T w)]T = (∇v)T w + (∇w)T v . Ferner gilt mit (w · ∇)v = (∇v)w = [grad v]w (∇v)T w = [∇v)T − ∇v]w + (∇v)w = −[∇v − (∇v)T ]w + (∇v)w = −(rot v) × w + (w · ∇)v = w × rot v + (w · ∇)v , also
(∇(v T w))T = (v · ∇)w + (w · ∇)v + v × rot w + w × rot v .
Speziell ergibt sich hieraus die Formel 1 [∇(uT u)]T = u × rot u + (u · ∇)u . 2
(1.17)
1.2 Formeln der Vektoranalysis
21
(c) Integral-Rechenregeln Es sei V ⊂ R3 eine offene und beschr¨ankte Menge mit hinreichend glattem Rand ∂V , und es sei F ein regul¨ares Fl¨achenst¨ uck mit st¨ uckweise glattem Rand ∂F . (c1) Elementare Differentiale: Vgl. Kapitel 10. F¨ ur die Substitution (x1 , x2 ) = (f (u, v), g(u, v)) sei
∂(x1 , x2 )
fu fv
fu fv (u, v) := det =
(u, v), gu gv
gu gv ∂(u, v) dx1 ∧dx2 steht dann f¨ ur die Rechenvorschrift: Integriere u ¨ber x1 und x2 , wenn 1 2 anderliche sind, andernfalls setze x und x freie Ver¨ dx1 ∧ dx2 =
∂(x1 , x2 ) (u, v) du ∧ dv ; ∂(u, v)
das Gleiche gilt f¨ ur dx1 ∧ dx2 ∧ dx3 =
∂(x1 , x2 , x3 ) (u, v, w) du ∧ dv ∧ dw , ∂(u, v, w)
wobei aber die Determinante positiv sein soll. Es ist dann dV dO dO dx n
= dx1 ∧ dx2 ∧ dx3 = (dx2 ∧ dx3 , dx3 ∧ dx1 , dx1 ∧ dx2 )T = |dO| = (dx1 , dx2 , dx3 )T = dO/|dO|
das Volumenelement das vektorielle Fl¨ achenelement das skalare Fl¨ achenelement das vektorielle Kurvenelement der normierte Normalenvektor
.
Ist D ⊂ R2 offen und F := {x(u, v), (u, v) ∈ D} ⊂ R3 ein Fl¨achenst¨ uck, dann gelten in ausf¨ uhrlicher Darstellung mit dem unnormierten Fl¨achennormalenvektor
T ∂x ∂x ∂(x2 , x3 ) ∂(x3 , x1 ) ∂(x1 , x2 ) × , , , n (u, v) = (u, v) ≡ ∂u ∂v ∂(u, v) ∂(u, v) ∂(u, v) dO = | n(u, v)| dudv , dO =
n (u, v) | n(u, v)| dudv = n(u, v)dO . | n(u, v)|
(c2) Die Integrals¨ atze,
Divergenzsatz von Gauß im R3
div v dV
= ∂V
V
Rotationssatz von Stokes im R3
(rot v) · dO = F
v · dO v · dx
∂F
setzen stets voraus, dass v ein stetig differenzierbares Vektorfeld und V bzw. F regul¨ are“ Volumen bzw. Fl¨ achen sind. Nat¨ urlich gelten beide S¨atze auch ”
22
1 Mathematische Hilfsmittel
f¨ ur ebene Vektorfelder. Man w¨ ahlt hier aber die Schreibweise (1.16) f¨ ur die Rotation und t = dx1 , dx2 , n = −dx2 , dx1 f¨ ur den Tangenten- und Normalenvektor der positiv orientierten ebenen Randkurve ∂F von F ⊂ R2 . Der Fl¨ achennormalenvektor ist nun n = [0, 0, 1], und wir erhalten Divergenzsatz von Gauß im R2 :
∂1 v 1 + ∂2 v 2 dF =
F
−v 1 dx2 + v 2 dx1 ds ,
∂F
Rotationssatz von Stokes im R2 :
∂1 v − ∂2 v 2
1
dF =
F
v 1 dx1 + v 2 dx2 ds .
∂F
Aus dem Satz von Gauß ergeben sich die Formeln T (grad ϕ) dV = ϕ dO = ϕ ndO ∈ R3 , V ∂V ∂V rot v dV = dO × v = − v × n dO ∈ R3 . V
∂V
(1.18)
∂V
Das erste Resultat erh¨ alt man, wenn man im Divergenzsatz v = ϕ a setzt mit ur v einsetzt. beliebigem a und das zweite, wenn man ebenso a × v f¨ Aus dem Satz von Stokes ergibt sich die Formel dO × (grad ϕ)T = ϕ dx ∈ R3 . F
(1.19)
∂F
Sie erh¨ alt man, wenn man im Satz von Stokes v = ϕ a einsetzt mit beliebigem a, und die Regel (u × v) · w = u · (v × w) beachtet; vgl. SUPPLEMENT\chap01a. alt man mit dem Satz von Gauß Aus div(ϕ v) = ϕ div v + grad ϕ · v erh¨ ϕ v · dO = [ϕ div v + grad ϕ · v] dV . (1.20) ∂V
V
Ist nun T ein Tensorfeld mit den Zeilen ti , dann erh¨alt man aus dieser Formel durch komponentenweise Anwendung mit ϕ = v i und v = ti die wichtige Formel v · div T + grad v : T dV = v · T n dO . (1.21) V
∂V
Aus div(ϕ grad ψ) = ϕ Δψ + grad ϕ · grad ψ erh¨alt man durch Anwendung des Satzes von Gauß die erste Formel von Green,
1.2 Formeln der Vektoranalysis
ϕ ∂V
∂ψ dO = ∂n
V
23
∂ψ := grad ψ · n . (1.22) ϕ Δψ + grad ϕ · grad ψ dV , ∂n
Vertauschung von ϕ und ψ und anschließende Subtraktion der neuen Formel von der alten ergibt die zweite Formel von Green, ∂ϕ ∂ψ +ψ [ϕΔψ − ψΔϕ] dV , (1.23) ϕ dO = ∂n ∂n ∂V V woraus mit ψ ≡ 1 eine weitere interessante Formel folgt. (d) Koordinatenunabh¨ angige Definitionen Ist Kr (x) eine Kugel um x mit Radius r, der Oberfl¨ ache Sr , und n(y) die nach außen weisende Fl¨achennormale von Sr im Punkt y, |n(y)| = 1, dann gilt 1 (v · n) dO , div v(x) = lim r →0 |Kr | S r daher heißt div v auch Quelldichte oder Quellst¨arke von v. achenst¨ uck mit x ∈ S und Sr die Fl¨ache, die von Kr (x) aus Ist S ⊂ R3 ein Fl¨ S ausgeschnitten wird, dann gilt mit dem Satz von Stokes 1 1 (rot v · n)(x) = lim v · dx = lim (rot v) · n dO . r →0 |Sr | ∂S r →0 |Sr | S r r Die rechte Seite heißt Wirbelst¨ arke von v um n und wird maximal, wenn rot v parallel zu n ist, daher heißt u = rot v auch Wirbeldichte, Wirbelst¨arke, oder Wirbelfeld von v (solenoidal vector field), umgekehrt heißt v (ein) Vektorpotential von u. (e) Potentiale und Vektorfelder Eine offene, zusammenh¨angende Menge angend, wenn Ω ⊂ Rn heißt Gebiet, und ein Gebiet Ω heißt einfach zusammenh¨ sich jede geschlossene Kurve C ⊂ Ω in Ω auf einen Punkt zusammenziehen ” l¨ aßt“. Ferner heißt ein Gebiet Ω sternf¨ ormig, wenn gilt ∃ z ∈ Ω ∀ x ∈ Ω : [z, x] ⊂ Ω ([z, x] Verbindungsstrecke), der Punkt z heißt dann (ein) Zentrum von Ω. Z.B. ist eine Kreisscheibe im R2 ohne ihr Zentrum nicht einfach zusammenh¨angend, w¨ ahrend eine Hohlkugel im R3 einfach zusammenh¨angend ist. Satz 1.4. (Potentialkriterium) Es sei Ω ⊂ Rn ein einfach zusammenh¨ angendes Gebiet und v : Ω → Rn ein stetig differenzierbares Vektorfeld. Genau dann gibt es ein Potential ϕ : Ω → R mit v = grad ϕ, wenn ∀ x ∈ Ω : grad v(x) = [grad v(x)]T ; im Fall n = 2, 3 bedeutet dies rot v(x) = 0. Beweis [Meyberg] Bd. I, § 8.2 und in SUPPLEMENT\chap01a.
24
1 Mathematische Hilfsmittel
In diesem Fall heißt v Potentialfeld oder konservatives Vektorfeld; in einfach zusammenh¨ angenden Gebieten sind also genau die wirbelfreien Vektorfelder Potentialfelder. ormiges Gebiet und v : Ω → R3 stetig Satz 1.5. Es sei Ω ⊂ R3 ein sternf¨ differenzierbar. Genau dann hat v ein Vektorpotential w mit v = rot w , wenn div v = 0 in Ω. In sternf¨ ormigen Gebieten sind also genau die quellfreien Vektorfelder Wirbelfelder. Ist z ein Zentrum von Ω, dann kann ein Vektorpotential zu v wie folgt angegeben werden: 1 w(x) = tv(z + t(x − z)) × (x − z) dt . 0
Zwei Vektorpotentiale zu einem Vektorfeld unterscheiden sich nur um ein additives Gradientenfeld oder, mit anderen Worten, das Vektorpotential eines quellfreien Vektorfeldes ist bis auf ein additives Gradientenfeld eindeutig bestimmt. Es gilt also in besagten Gebieten f¨ ur quellfreie Vektorfelder v v = rot(w + grad ϕ) mit beliebigem ϕ. Wenn das Gebiet Ω in gewissem Sinn regul¨ar“ ist, dann ” kann ϕ so gew¨ ahlt werden, dass div(w + grad ϕ) = 0 gilt: Satz 1.6. Ist Ω regul¨ ar“ und v : Ω → R3 ein quellfreies Vektorfeld, dann ” besitzt v ein quellfreies Vektorpotential. Der n¨ achste Satz besagt, dass ein Vektorfeld sich i.d.R. in einen quellfreien und einen wirbelfreien Anteil zerlegen l¨ aßt: ar“ und Satz 1.7. (Helmholtzscher Zerlegungssatz) Ist Ω ⊂ R3 regul¨ ” v : Ω → R3 stetig differenzierbar, dann gibt es ein Skalarfeld ϕ und ein Vektorfeld w so, dass gilt v = grad ϕ + rot w . ahlt werden, dass div w = 0. Ebenso kann Hier kann das Vektorfeld w so gew¨ rot w · n = 0 auf dem Rand ∂Ω vorgeschrieben werden. Die Zerlegung ist dann eindeutig bis auf eine additive Konstante in ϕ. Wegen div rot w = 0 folgt aus dem Satz von Green nunmehr f¨ ur u = rot w grad ϕ · u dV = − ϕ div u dV + ϕu · n dO = 0 , Ω
Ω
∂Ω
orthogonale“ Bestandteile zerlegt im Sinne damit ist das Vektorfeld v in zwei ” des Skalarproduktes (u, v) = Ω u(x)T v(x) dV . Diese Zerlegung wird teilweise bei der numerische Approximation der Navier-Stokes-Gleichungen verwendet. Beweise der S¨ atze in (e) SUPPLEMENT\chap01a; vgl. auch [Burg], Bd. IV.
1.3 Kurven im R3
25
1.3 Kurven im R3 Es sei x : R ⊃ [a , b] t → x(t) ∈ R3 eine Kurve mit dem Graphen {(t , x(t)), t ∈ [a , b]} , der ebenfalls Kurve genannt wird. Die Kurve x heißt ˙ = 0 ist. regul¨ ar, wenn die Funktion x stetig differenzierbar ist und stets x(t) Zum gleichen Graphen kann es regul¨ are und irregul¨are Parametrisierungen geben. Bezeichnungen:
t
|x(t)| ˙ dt Bogenl¨ ange
s(t) = a
ds := |x(t)| ˙ dt
skalares Bogendifferential oder -element
dx := x(t) ˙ dt
vektorielles Bogendifferential oder -element
1 x(t) ˙ Tangentenvektor (normiert) |x(t)| ˙ 1 ˙ t(t) Normalenvektor (normiert) n(t) := |t˙ (t)| b(t) := t(t) × n(t) Binormalenvektor (normiert)
t(t) :=
.
Das Vorzeichen von n wird in der Mechanik anders gehandhabt! Wegen t(t)T t(t) = 1 =⇒ t˙ (t)T t(t) + t(t)T t˙ (t) = 2t˙ (t)T t(t) = 0 steht der Normalenvektor n(t) senkrecht auf dem Tangentialvektor t(t). Das Rechtssystem {t , n , b}(t) heißt begleitendes Dreibein der Kurve x im Punkt x(t) . ¨ Kr¨ ummungsvektor und Torsionsvektor sind die Anderung von t bzw. von b relativ zur Bogenl¨ ange, 1 1 ˙ [t(t + h) − t(t)] = t(t) s(t + h) − s(t) s(t) ˙ 1 1 ˙ [b(t + h) − b(t)] = lim b(t) h→0 s(t + h) − s(t) s(t) ˙
Kr¨ ummungsvektor : lim
h→0
Torsionsvektor:
.
Die Kr¨ ummung κ(t) ist die L¨ ange des Kr¨ ummungsvektors (hier nicht vorzeichenbehaftet) und der Betrag der Torsion τ (t) ist die L¨ange des Torsionsvektors. Der Kr¨ ummungskreisradius im Punkt x(t) ist der Kehrwert der Kr¨ ummung. F¨ ur y(s) := x(t(s)) gilt nach der Kettenregel d dt ds y(s) = x(t(s)) = x(t)/ ˙ = x(t)/| ˙ ˙ x(t)| ˙ , dt ds dt
26
1 Mathematische Hilfsmittel
somit hat der Tangentenvektor stets die L¨ ange Eins, wenn man die Bogenl¨ange als Parameter w¨ ahlt (!); sie bietet sich daher als kanonischer Kurvenparameter an. Mit Hilfe von Tangenten- und Normalenvektor beschreibt man die Schmiegebene S im Kurvenpunkt x(t): S = {y ∈ R3 , y = x(t) + λ t(t) + μ n(t), λ, μ ∈ R}, deren Normalenvektor der Binormalenvektor b(t) ist. Aus = |x(t)| ˙ t(t) = s(t) ˙ t(t) berechnet man x(t) ˙ ˙ t˙ (t) = s¨(t) t(t) + s(t) ˙ 2 x ¨ (t) = s¨(t) t(t) + s(t) ˙ 2 κ(t) n(t) . = s¨(t) t(t) + s(t)
|t˙ (t)| t˙ (t) s(t) ˙ |t˙ (t)|
(1.24)
Weil x(t) ˙ parallel zu t ist, folgt x(t) ˙ ×x ¨ (t) = 0 + s(t) ˙ 3 κ(t) (t × n)(t). Wegen b = t × n und |b| = 1 ist also κ(t) =
×x ¨ (t)| |x(t) ˙ ≥ 0. 3 |x(t)| ˙
F¨ ur die Rechnung werden die folgenden Formeln gew¨ahlt, wenn der Nenner ungleich Null ist: t(t) =
x(t) ˙ , |x(t)| ˙
b(t) =
×x ¨ (t) x(t) ˙ , |x(t) ˙ ×x ¨ (t)|
×x ¨ (t)| |x(t) ˙ κ(t) = , 3 |x(t)| ˙
n(t) = b(t) × t(t) ,
... ¨ , x )(t) det(x, ˙ x τ (t) = |x(t) ˙ ×x ¨ (t)|2
;
(1.25)
vgl. SUPPLEMENT\chap01a. Wenn der Nenner an einer Stelle t verschwindet, m¨ ussen dort die Grenzwerte betrachtet werden. In der Ebene verschwindet ¨ und die dritte die Torsion sowie die erste und zweite Komponente von x˙ × x Komponente ist die vorzeichenbehaftete Kr¨ ummung. Wenn hier die kartesische x-Koordiante als Kurvenparameter gew¨ ahlt wird, erh¨alt man die bekannte Form f (x) . κ(x) = (1 + f (x)2 )3/2 Mit der Bogenl¨ ange s als Parameter gilt nat¨ urlich s = 1 und s = 0. Mit y(s) = x(t(s)) folgt t = y , t = κn , b = −τ n , und damit, wegen n = b × t n = b × t + b × t = −τ (n × t) + κ (b × n) = τ b − κ t .
1.4 Lineare Differentialgleichungen
27
Die Frenetsche Formeln t = κn n = −κ t +τ b b = −τ n
(1.26)
stellen ein Differentialsystem f¨ ur die Berechnung des begleitenden Dreibeins einer Kurve dar, wenn Kr¨ ummung und Torsion in Abh¨angigkeit von s vorgegeben werden.
1
z
0.5
B
0
T
N
−0.5
−1
−1.5 −1
−0.5
0.5 0
0.5
0 1
1.5
−0.5 2
x
y
Abb. 1.3. Schmiegebene
1.4 Lineare Differentialgleichungen Die Koeffizienten a, b, c, d, e, p, q, r, s sind in diesem Abschnitt stets reell. (a) Homogene lineare Differentialgleichung mit konstanten Koeffizienten (a1) Gesucht ist die Allgemeine Reelle L¨ osung (ALRH) y(x) der Homogenen Differentialgleichung ay + by + cy = 0, a = 0 (homogen bedeutet, dass die rechte Seite null ist.) Berechne die Nullstellen (NST) α, β des charakteristischen Polynoms p(λ) = aλ2 + bλ + c , dann lautet ALRH: α , β ∈ R , α = β :
y(x) = p eαx + q eβx
α, β ∈ R, α = β :
y(x) = p eαx + q x eαx α = β = μ + iν ∈ C : y(x) = eμx p cos(νx) + q sin(νx) , p , q ∈ R . (a2) Gesucht ist ALRH y(x) der homogenen Differentialgleichung ay + by + cy + dy = 0, a = 0 .
28
1 Mathematische Hilfsmittel
Berechne die NST α, β, γ des charakteristischen Polynoms ur p, q, r ∈ R : p(λ) = aλ3 + bλ2 + cλ + d , dann lautet ALRH f¨ α, β, γ ∈ R , alle verschieden : y(x) = p eαx + q eβx + r eγx α, β, γ ∈ R , β = γ : y(x) = p eαx + q eβx + r x eβx β = γ = μ + iν ∈ C : y(x) = p eαx + eμx q cos(νx) + r sin(νx) . (a3) Gesucht ist ALRH y(x) der homogenen Differentialgleichung ay (4) + by + cy + dy + ey = 0, a = 0 . Berechne die NST αi , i = 1 : 4 des charakteristischen Polynoms p(λ) = aλ4 + bλ3 + cλ2 + dλ + e , dann lautet ALRH: αi ∈ R , alle verschieden: y(x) = p1 eα1 x + p2 eα2 x + p3 eα3 x + p4 eα4 x αi ∈ R , α3 = α4 : y(x) = p1 eα1 x + p2 eα2 x + p3 eα3 x + p4 x · eα4 x αi ∈ R , α2 = α3 = α4 : y(x) = p1 eα1 x + p2 eα2 x + p3 x eα2 x + p4 x2 eα2 x αi ∈ R , alle gleich α: y(x) = p1 eαx + p2 x eαx + p3 x2 eαx + p4 x3 eαx α1 = α2 ∈ R , α3 = α4 = μ + iν ∈ C :
y(x) = p1 eα1 x + p2 eα2 x + eμx p3 cos(νx) + p4 sin(νx)
α1 = α2 ∈ R , α3 = α4 = μ + iν ∈ C : y(x) = p1 eα1 x + p2 x eα1 x + eμx p3 cos(νx) + p4 sin(νx) α1 = α2 = μ + iν ∈ C : y(x) = eμx (p1 + p2 x) cos(νx) + (p3 + p4 x) sin(νx) ; etc.. 1
y
y2
y
1
0.5
0
x −0.5 −0.5
0
0.5
1
1.5
2
2.5
−x
Abb. 1.4. y1 = xe
3
3.5
4
2 −x
und y2 = x e
4.5
5
1.4 Lineare Differentialgleichungen
29
(b) Inhomogene lineare Differentialgleichung mit konstanten Koeffizienten und speziellen Rechten Seiten Ist der Differentialoperator D definiert durch Dy(x) = y (x) und Dk y(x) = y (k) (x) , und ist p(λ) ∈ Πm ein reelles Polynom vom exakten Grad m , dann hat eine allgemeine lineare Differentialgleichung m-ter Ordnung mit konstanten Koeffizienten und der Rechten Seite f (x) die Form p (D)y = f (x) . Eine Spezielle L¨ osung (SLI) z(x) dieser Inhomogenen Differentialgleichung kann in den folgenden F¨ allen konstruiert werden: (b1) α = μ + iν, μ, ν ∈ R ist k-fache NST von p(λ) und f (x) = a eαx = a e(μ+iν)x = a eμx [cos(νx) + i sin(νx)] , a ∈ R . Dann lautet SLI (ev. komplex) z(x) = b xk eαx , b =
a . p(k) (α)
1. Fall: α reell, dann ist z(x) reell. 2. Fall: g(x) = Re(f (x)) = a eμx cos(νx), dann ist Re(z(x)) eine L¨ osung von P (D)y = g(x) ≡ Re(f (x) = a eμx cos(νx) . 3. Fall: h(x) = Im(f (x)) = a eμx sin(νx), dann ist Im(z(x)) eine L¨ osung von P (D)y = h(x) = Im(f (x) = a eμx sin(νx) . Hier sind nat¨ urlich auch die F¨ alle μ = 0 und/oder ν = 0 erlaubt. (b2) α = μ + iν, μ, ν ∈ R ist k-fache NST von p(λ), q(x) ∈ Πn ein reelles Polynom vom exakten Grad n und f (x) = q(x) eαx = q(x) e(μ+iν)x = q(x) eμx [cos(νx) + i sin(νx)] . Dann hat eine SLI z(x) die Form (Ansatz vom Typ der Rechten Seite): z(x) = Q(x) xk eαx , Q(x) ∈ Πn . In diesem Ansatz muss also das Polynom Q(x) den gleichen Grad wie q(x) haben. Das Polynom R(x) := Q(x)xk (!) muss L¨osung der algebraischen Gleichung M p(j) (α) j=k
j!
R(j) (x) = q(x) , M = min{m, n + k}
30
1 Mathematische Hilfsmittel
sein. Aus dieser Gleichung werden die unbekannten Koeffizienten von Q(x) durch Koeffizientenvergleich berechnet. ACHTUNG: Bei komplexem α muss das Polynom Q(x) mit komplexen Koeffizienten angesetzt werden. 1. Fall: α reell, dann ist z(x) reell und eine L¨osung der inhomogenen Differentialgleichung. 2. Fall: α komplex, dann ist Re(z(x)) = Re(R(x))eμx cos(νx) − Im(R(x))eμx sin(νx) eine L¨ osung von P (D)y = Re(f (x)) = q(x) eμx cos(νx) und Im(z(x)) = Re(R(x))eμx sin(νx) + Im(R(x))eμx cos(νx) eine L¨ osung von P (D)y = Im(f (x)) = q(x) eμx sin(νx) . Auf diese Weise kann man also L¨ osungen einer Differentialgleichung P (D)y = g(x) mit g(x) = q(x) eμx cos(νx) bzw. mit g(x) = q(x) eμx sin(νx) und Linearkombinationen von beiden berechnen. (c) Die allgemeine L¨ osung von p(D)y = f (x). Ist u(x) die allgemeine L¨ osung von p(D)y = 0 und v(x) eine spezielle L¨osung von p(D)y = f (x), dann ist y(x) = u(x) + v(x) die allgemeine L¨ osung von p(D)y = f (x). (d) Beispiel Bei der ged¨ ampften Schwingung (Oszillator) , x ¨ + a x˙ + b2 x = 0 , a ≥ 0 ,
0 < b fest ,
hat das charakteristische Polynom die Nullstellen λ1,2 (a) =
1 −a ± (a2 − 4b2 )1/2 . 2
Daraus ergeben sich vier M¨ oglichkeiten: a=0:
λ1 = λ2 ∈ i R reine Schwingung ohne D¨ampfung
ampfte Schwingung 0 < a < 2b : λ1 = λ2 ∈ C ged¨ a > 2b :
ampfung ohne Schwingung. λ2 < λ1 < 0 starke D¨
Im Fall a = 2b ist λ := λ1,2 = −a/2 < 0, und die allgemeine L¨osung hat die Form x(t) = eλt (α + β t) , α, β ∈ R . Aus der Skizze ist ersichtlich, dass dieser Grenzfall die am schnellsten ged¨ampfte allgemeine L¨ osung ohne Schwingung liefert (b = 1/2):
1.5 Lineare Differentialsysteme erster Ordnung
31
0.5
λ
2b
a
0
−0.5
λ1(a)
−b
−1
λ (a) 2
−1.5
−2 −0.5
λ = −a 0
0.5
1
1.5
2
2.5
Abb. 1.5. Ged¨ ampfte Schwingung, Eigenwerte
1.5 Lineare Differentialsysteme erster Ordnung Es sei I ein offenes Intervall, A : I t → A(t) ∈ Rn n ein stetiges Tensorfeld und c : I t → c(t) ∈ Rn ein stetiges Vektorfeld. Gesucht ist die allgemeine L¨ osung x : t → x(t) von x(t) ˙ = A(t) x(t) + c(t) ,
(1.27)
bzw. eine L¨ osung unter Vorgabe von Anfangs- oder Randbedingungen. (a) Autonome homogene Systeme mit diagonalisierbarer Matrix Hier ist A konstant und c = 0, also x(t) ˙ = A x(t) .
(1.28)
Zu einem charakteristischen Paar (λ, u) der Matrix A gibt es eine L¨osung von (1.28) mit vier verschiedenen M¨ oglichkeiten: 1. Fall: λ ∈ R ist einfacher Eigenwert, dann ist x(t) = eλt u eine L¨osung von (1.28). 2. Fall: λ ∈ R ist m-facher Eigenwert mit linear unabh¨angigen Eigenvektoren u1 , . . . , um , dann sind xi (t) = eλt ui , i = 1 : m , linear unabh¨angige L¨osungen von (1.28). 3. Fall: λ = μ + iν ∈ C , o.B. ν > 0 , ist einfacher Eigenwert mit dem Eigenvektor u = v + iw ∈ Cn , dann ist (λ, u) ebenfalls ein charakteristisches Paar, und x(t) = eλt u , x(t) = eλt u sind zwei konjugiert komplexe L¨osungen von (1.28). Ihr Realteil und Imagin¨ arteil, Re x(t) = eμt v cos(νt) − w sin(νt) , Im x(t) = eμt v sin(νt) + w cos(νt) bilden zwei linear unabh¨ angige reelle L¨ osungen von (1.28), wobei das Vorzeichen von Im x(t) bedeutungslos ist.
32
1 Mathematische Hilfsmittel
4. Fall: Wie (a3), aber λ ist m-facher Eigenwert mit m (komplexen) linear unabh¨ angigen Eigenvektoren ui , dann sind entsprechend Re xi (t) = Re eλt ui , Im xi (t) = Im eλt ui , i = 1 : m , 2m linear unabh¨ angige reelle L¨ osungen von (1.28). 5. Fall: Wird dieser Prozess f¨ ur alle Eigenwerte der Matrix A durchgef¨ uhrt, so ergibt sich insgesamt ein Fundamentalsystem von n linear unabh¨angigen reellen L¨ osungen von x1 , . . . , xn , und die allgemeine L¨osung von (1.28) ist eine beliebige Linearkombination, x(t) = a1 x1 (t) + . . . + an xn (t) , ai ∈ R . (b) Autonome homogene Systeme mit nichtdiagonalisierbarer Matrix Zur Angabe der allgemeinen L¨ osung ist hier die Jordan-Zerlegung von A notwendig. Mit den gleichen Bezeichnungen wie in § 1.1(c3) schreiben wir x(t) ˙ = Ax(t) = U (Λ + T )V x(t) , V = U −1 ,
(1.29)
Ist dann exp(Λt) = diag (exp(λ1 t) , . . . , exp(λn t)) eine Diagonalmatrix und A
e = lim
n→∞
n Ak k=1
k!
,
so folgt wegen der Nilpotenz von T , T n = 0 , e(Λ+T )t = eΛt
n tk k=0
k!
T k , eAt = U e(Λ+T )t V ,
d At e = U (Λ + T )e(Λ+T )t V . dt
Die allgemeine L¨ osung des homogenen Systems (1.28) ist dann x(t) = U eΛt
n tk k=0
k!
T k a , a ∈ Rn .
(1.30)
Beispiel 1.4. Wir w¨ ahlen die Matrix A ∈ R5 5 aus dem Beispiel in § 1.1(c3) mit einem Eigenwert λ = μ und zwei Eigenvektoren u1 und v 1 , dann ist T3 = 0, ⎡ ⎤ ⎡ ⎤ 01000 00000 ⎢0 0 0 0 0⎥ ⎢0 0 0 0 0⎥ ⎢ ⎥ ⎢ ⎥ 2 ⎢ ⎥ ⎥ T =⎢ 0 0 0 1 0 ⎥ , T =⎢ ⎢0 0 0 0 1⎥ , ⎣0 0 0 0 1⎦ ⎣0 0 0 0 0⎦ 00000 00000
1.5 Lineare Differentialsysteme erster Ordnung
⎡
1t00 ⎢0 1 0 0 2 k t k ⎢ T =⎢ S(t) := ⎢0 0 1 t k! ⎣0 0 0 1 k=0 0000
⎤
0 0 ⎥ ⎥ t2 /2 ⎥ ⎥, t ⎦ 1
⎡
33
⎤
a1 + a2 t ⎢ a2 ⎥ ⎢ ⎥ Λt λt⎢ 3 4 5 2 e S(t)a = e ⎢ a + a t + a t /2 ⎥ ⎥. ⎣ a4 + a5 t ⎦ 5 a
Die allgemeine L¨ osung des homogenen Systems lautet mit den Bezeichnungen aus § 1.1(c3) f¨ ur die Eigen- und Hauptvektoren x(t)
t2 = eλt u1 a1 + a2 t + u2 a2 + v 1 a3 + a4 t + a5 + v 2 (a4 + a5 t) + v 3 a5 2
t2 = eλt a1 u1 + a2 (u2 + tu1 ) + a3 v 1 + a4 (v 2 + tv 1 ) + a5 v 3 + tv 2 + v 1 . 2 (c) Stabilit¨ at Das System (1.28) heißt stabil, wenn die Differenz zweier L¨ osungen im t-Intervall beschr¨ ankt bleibt und asymptotisch stabil, wenn die Differenz zus¨ atzlich f¨ ur t → ∞ gegen Null geht. Aus (1.30) und Satz 1.1 folgt direkt Satz 1.8. (1◦ ) Das System (1.28) ist stabil, wenn alle Eigenwerte von A nichtpositiven Realteil haben und alle ev. rein imagin¨ aren Eigenwerte sowie der ev. Eigenwert Null halbeinfach sind, d.h. keine Hauptvektoren besitzen. (2◦ ) Das System (1.28) ist asymptotisch stabil, wenn alle Eigenwerte von A negativen Realteil haben. (d) Allgemeine lineare Systeme Ist n die Dimension des Systems x˙ = osungen x1 , . . . , xn ebenfalls ein Fundamentalsystem, A(t)x , dann heißen n L¨ wenn sie linear unabh¨ angig sind und damit eine Basis des Vektorraums der L¨ osungen bilden. Zum Nachweis der Unabh¨ angigkeit muss die Regularit¨at der Fundamentalmatrix X(t) = [x1 (t), . . . , xn (t)] nach einem Satz von Liouville nur an einer einzigen Stelle t0 des Definitionsbereiches gezeigt werden, was i.d.R. nicht schwer f¨ allt. Die allgemeine L¨ osung wird dann durch Multiplikation von rechts mit einem beliebigen Vektor dargestellt, x(t) = X(t)a, und eine Basis¨ anderung ergibt sich wie im Rn durch Multiplikation von rechts mit einer regul¨ aren Matrix. Im Weiteren wird ein Satz u ¨ber die Existenz und Eindeutigkeit kurz mit EESatz bezeichnet are Matrix, dann exiSatz 1.9. (EE-Satz) Ist B ∈ Rn n eine beliebige regul¨ stiert f¨ ur t0 ∈ I eindeutig eine stetig differenzierbare Fundamentalmatrix zu dem System (1.27) mit X(t0 ) = B .
34
1 Mathematische Hilfsmittel
Die Wronski-Matrix W : I × I (s, t) → W (s, t) = X(s)X(t)−1 ∈ Rn n , ist stetig differenzierbar in beiden Argumenten und hat die folgenden Eigenschaften Wt (t, t0 ) = A(t)W (t, t0 ) W (s, t)W (t, t0 ) = W (s, t0 ) ar f¨ ur alle t, t0 ∈ I , W (t, t0 ) regul¨ also insbesondere W (s, t)W (t, s) = W (s, s) = I (Einheitsmatrix). Mit ihrer Hilfe l¨ aßt sich die allgemeine L¨ osung (oder auch der Fluss) von (1.27) explizit darstellen: t
x(t; t0 , x0 ) = W (t, t0 )x0 +
W (t, s)c(s) ds.
(1.31)
t0
Damit bildet die Menge der L¨ osungen des Anfangswertproblems f¨ ur (1.27) wieder einen affinen Vektorraum der Dimension n, und x h¨angt stetig differenzierbar von den Anfangswerten (t0 , x0 ) ab. Wenn man eine Fundamentalmatrix mit X(t0 ) = I kennt, dann hat (1.31) die etwas einfachere Form
t
x(t; t0 , x0 ) = X(t)x0 + X(t)
X(s)−1 c(s) ds , X(t0 ) = I .
(1.32)
t0
(e) Spezielle Rechte Seiten Wie bei skalaren Differentialgleichungen l¨asst sich auch bei Systemen mit konstanter Matrix A f¨ ur spezielle rechte Seiten osung z(t) des inhomogenen Systems (1.27) geschlossen angeben, c(t) eine L¨ dazu ist aber die Kenntnis der Jordan-Zerlegung A = U (Λ+T )V notwendig. Mit (1.30) folgt aus (1.32) die Darstellung t t e−(Λ+T )s V c(s) ds = U e(Λ+T )(t−s) V c(s) ds . z(t) = U e(Λ+T )t t0
t0
(e1) Hat die rechte Seite die spezielle Form c(t) = c eαt , dann folgt mit der Einheitsmatrix I t t (Λ+T )t −(Λ+T )s (Λ+T )t (αI−Λ−T )s e V c(s) ds = U e e ds V c . z(t) = U e t0
t0
Diese Formel bleibt g¨ ultig, auch wenn Resonanz vorliegt, d.h. α Eigenwert von A ist. (e2) Hat die rechte Seite die Form c(t) = c eμt cos(νt) bzw. c eμt sin(νt) mit reellem Vektor c, dann ist wie in (e1) zu verfahren aber mit komplexer rechter Seite c e(μ+iν)t . Anschließend ist Re z(t) bzw. Im z(t) eine spezielle reelle L¨ osung von (1.27). (e3) Hat die rechte Seite die Form c tk eαt mit reellem Vektor c und reellem bzw. nach ev. Komplexifizierung mit komplexem α, dann folgt
1.5 Lineare Differentialsysteme erster Ordnung
t
z(t) = U e(Λ+T )t
e−(Λ+T )s V c(s) ds = U e(Λ+T )t
t0
35
t
sk e(αI−Λ−T )s ds V c . t0
Die auftretenden Integrale lassen sich in jedem Fall mit mehrfacher partieller Integration berechnen. Anschließend ist wieder Re z(t) bzw. Im z(t) eine spezielle reelle L¨ osung von (1.27) zu w¨ ahlen. Beispiel 1.5. Die konstante Matrix A sei diagonalisierbar und c(t) = ceαt . Ist α kein Eigenwert von A (keine Resonanz), dann ist z(t) = U D V c , D = (αI − Λ)−1 e(αI−Λ)t Diagonalmatrix eine spezielle L¨ osung. Ist α einfacher oder mehrfacher Eigenwert (Resonanz), dann sind alle diejenigen Diagonalelemente von D durch t eα t zu ersetzen, deren Nenner Null ist. (f ) Randwertprobleme Wir betrachten das allgemeine lineare Randwertproblem L x := x˙ − A(t)x = c(t), R0 x(0) + R1 x(1) = d ∈ Rm , m ≤ n .
(1.33)
Dabei ist I = [0, 1], und R0 , R1 ∈ Rm n sind zun¨achst beliebig reelle Matrizen. Die allgemeine L¨ osung von Lx = c hat die Form x(t) = X(t)a + z(t), a ∈ Rn , mit einer beliebigen Fundamentalmatrix X(t), einer speziellen L¨osung des inhomogenen Systems z(t) und einem beliebigen Vektor a. Einsetzen in die Randbedingungen ergibt ein lineares Gleichungssystem f¨ ur den konstanten Vektor a, R0 z(0) + R1 z(1) + [R0 X(0) + R1 X(1)]a = d ∈ Rm .
(1.34)
Der Rang der charakteristischen Matrix C := R0 X(0) + R1 X(1) ∈ Rm n
(1.35)
ist eindeutig bestimmt und das System (1.34) hat eine eindeutige L¨osung a, wenn C regul¨ ar ist, dann muss insbesondere m = n gelten. Ist w eine stetig differenzierbare Funktion, die den inhomogenen Randbedingungen gen¨ ugt, R0 w(0) + R1 w(1) = d , und ist v eine L¨ osung des halbhomogenen Randwertproblems L v = c − L w , R0 v(0) + R1 v(1) = 0
(1.36)
36
1 Mathematische Hilfsmittel
mit homogenen Randbedingungen und der rechten Seite c = 0, dann ist x = osung von (1.33). Ist a ∈ Ker(C), dann ist x : t → X(t)a v + w eine L¨ eine L¨ osung des vollhomogenen Randwertproblems und umgekehrt, f¨ ur jede L¨ osung x(t) = X(t)a des vollhomogenen Problems muss gelten Ca = 0. Wegen dim Ker(C) + Rang(C) = n folgt ur alle rechten Satz 1.10. (1◦ ) Das Randwertproblem (1.33) ist genau dann f¨ Seiten eindeutig l¨ osbar, wenn die charakteristische Matrix C regul¨ ar ist. osungsraums des vollhomogenen Problems ist (2◦ ) Die Dimension des L¨ n − Rang(C). Beispiel 1.6. Das Randwertproblem x ¨ + λ2 x = 0, x(0) = 0, x(1) = d, ist aquivalent zu ¨ u = v , u(0) = 0, u(1) = d. v = −λ2 u Es folgt u(t) = γ sin(λt), v = u . λ∈ / πZ =⇒ sin λ = 0 γ = d/ sin λ λ ∈ πZ =⇒ sin λ = 0 d = 0 keine L¨ osung d = 0 unendlich viele L¨osungen. (g) Periodische L¨ osungen Ein lineares System x(t) ˙ = A(t)x(t) + c(t)
(1.37)
heißt T -periodisch, wenn A , c stetig und T -periodisch sind. Mit Hilfe von (1.31) folgt sofort Lemma 1.7. Das System (1.37) hat genau dann eine T -periodische L¨ osung, wenn die Abbildung T W (t, s)c(s) ds ξ → W (T, 0)ξ + 0
einen Fixpunkt hat. Mit einer T -periodischen L¨ osung y : t → y(t) ist auch y : t → y(t + a) , a ∈ R , T -periodische L¨ osung, daher sind periodische L¨osungen niemals eindeutig bestimmt, was ihre numerische Berechnung schwierig macht. (g1) Das reelle System (1.37) mit konstanter Matrix A hat nach (a) f¨ ur c(t) ≡ osung, wenn λ = 2π i/T Eigenwert ist. 0 genau dann eine T -periodische L¨ Allgemeiner sei wieder σ(A) das Spektrum von A in der komplexen Ebene und das neutrale Spektrum σn (A) := σ(A) ∩ i R der Durchschnitt des Spektrums mit der imagin¨ aren Achse. Ist A reell, dann kann σn (A) sowohl den Eigenwert Null als auch konjugiert komplexe, rein imagin¨are Eigenwerte enthalten oder aber leer sein. Aus (a) und der Fredholmschen Alternative folgt
1.5 Lineare Differentialsysteme erster Ordnung
37
Lemma 1.8. (1◦ ) Ist σn (A) = ∅, dann hat das homogene T -periodische System (1.37) periodische L¨ osungen. (2◦ ) Ist 2π i Z = ∅, σ(A) ∩ T dann hat das inhomogene T -periodische System (1.37) mindestens eine T -periodische L¨ osung. (3◦ ) Ist σn (A) = ∅, dann hat das inhomogene T -periodische System (1.37) genau eine T -periodische L¨ osung. Vgl. [Amann], § 20, 22. Die L¨ osung x(t) aus Lemma 1.8(3◦ ) l¨ asst sich explizit angeben, dazu muss aber die Matrix A diagonalisierbar sein. Es sei σs (A) = {λ ∈ σ(A) , Re λ < 0} das stabile Spektrum σu (A) = {λ ∈ σ(A) , Re λ > 0} das instabile Spektrum {u1 , . . . , up } = eine Basis des Unterraums U aller Eigenvektoren zu Eigenwerten aus σs (A) {v 1 , . . . , v q } = eine Basis des Unterraums V aller Eigenvektoren zu Eigenwerten aus σu (A) sowie
U = [u1 , . . . up ] , P = U [U T U ]−1 U T Projektor auf U V = [v 1 , . . . , v ] , Q = V [V T V ]−1 V T Projektor auf V .
Nach Voraussetzung muss p + q die Dimension n des Systems ergeben. Mit diesen Bezeichnungen folgt t ∞ (t−s)A x(t) = e P c(s) ds − e(t−s)A Qc(s) ds . −∞
t
(g2) Periodische L¨ osungen des nichtautonomen T -periodischen Systems (1.37) lassen sich nur dann nachweisen, wenn alle L¨ osungen des homogenen Systems x˙ = A(t)x vollst¨ andig bekannt sind. Ist W (s, t) die Wronski-Matrix aus (b), dann folgt zun¨ achst aus der Eigenschaft W (r, s)W (s, t) = W (r, t) , W (r, r) = I (Einheitsmatrix), die Beziehung W (t + T, T ) = W (t + T, 0)W (0, T ) , und dann mit der Periodizit¨ at von A einerseits d d W (t + T, T ) = W (t + T, 0)W (0, T ) = A(t + T )W (t + T, 0)W (0, T ) dt dt = A(t)W (t + T, 0)W (0, T ) = A(t)W (t + T, T ) , W (0 + T, T ) = I , und andererseits d W (t, 0) = A(t)W (t, 0) , W (0, 0) = I. dt
38
1 Mathematische Hilfsmittel
Wegen der eindeutigen Existenz der L¨ osung des Anfangswertproblems ergibt sich W (t + T, 0)W (0, T ) = W (t + T, T ) = W (t, 0) , also mit Invertierung W (t + T, 0) = W (t, 0)W (T, 0) . Die Eigenwerte der T -Verschiebung W (T, 0) heißen Floquet-Multiplikatoren ; sie h¨ angen nicht von t ab. Ist λ = 1 Floquet-Multiplikator, dann gibt es einen Vektor a = 0 mit W (T, 0)a = W (0, 0)a = a , und es gilt y(t + T ) := W (t + T, 0)a = W (t, 0)a = y(t) , also ist y(t) eine T -periodische L¨ osung des homogenen Systems. Beim inhomogenen System l¨ asst sich wieder die Fredholmsche Alternative anwenden, und man erh¨ alt Lemma 1.9. (1◦ ) Das T -periodische homogene System x˙ = A(t)x hat eine nichttriviale T -periodische L¨ osung g.d.w. wenn Eins Floquet-Multiplikator ist. (2◦ ) Das T -periodische inhomogene System x˙ = A(t)x + c(t) hat eine T -periodische L¨ osung g.d.w. wenn Eins nicht Floquet-Multiplikator ist. Literatur: [Amann].
1.6 Der Fluss und sein Vektorfeld (a) Das Flussintegral Es sei I ⊆ R ein offenes Intervall, Ω ⊆ Rn eine offene, zusammenh¨ angende Menge (Gebiet) und v : I × Ω → Rn ein C r -Vektorfeld, r ur die Bezeichnung C r vgl. § 1.7). v ∈ C (I × Ω; Rn ) , mit r ≥ 1 . (F¨ Satz 1.11. (EE-Satz) Durch jeden Punkt (t0 , x0 ) ∈ I × Ω gibt es genau eine L¨ osung Φ(t; t0 , x0 ) des Anfangswertproblems x˙ = v(t, x) , x(t0 ) = x0 ,
(1.38)
mit den folgenden Eigenschaften: (1◦ ) Φ(t0 ; t0 , x0 ) = x0 . (2◦ ) Φ kommt dem Rand von I × Ω – aber nicht notwendig dem Rand“ von ” I – beliebig nahe ( l¨ asst sich nicht weiter fortsetzen“). ” (3◦ ) Φ ist (r + 1)-mal stetig differenzierbar nach t . (4◦ ) Φ ist r-mal stetig differenzierbar nach t0 und nach x0 .
1.6 Der Fluss und sein Vektorfeld
39
Die Abbildung Φ : It0 × I × Ω (t; t0 , x0 ) → Φ(t; t0 , x0 ) ∈ Rn , It0 ⊂ I maximal wird im Folgenden Flussintegral zum Vektorfeld v genannt; sie beschreibt die L¨ osung aller Anfangswertprobleme (1.38) f¨ ur gegebenes v und enth¨alt damit dessen gesamte Information. I.d.R. schreibt man kurz t t v(τ, x) dτ statt Φ(t; t0 , x0 ) = x0 + v(τ, Φ(τ ; t0 , x0 ) dτ . Φ(t; t0 , x0 ) = x0 + t0
t0
ares Vektorfeld ist, d.h. (b) Station¨ are Vektorfelder Wenn v ein station¨ nicht von der freien Ver¨ anderlichen t abh¨ angt, dann nennen wir Φ kurzerhand asst dieses Argument in Φ ganz Fluss. Man setzt dann meistens t0 = 0 und l¨ weg. F¨ ur festes x heißt Φ( ◦ , x) : I t → Φ(t, x) Phasenkurve durch x und Φ(I, x) Orbit von x (Menge der Phasenpunkte einer Phasenkurve). Einige Eigenschaften station¨ arer Vektorfelder: (1◦ ) Wegen
∂Φ ∂Φ (0, x) =⇒ (t, x) = v(Φ(t, x)) ∂t ∂t ist v(x) der Phasengeschwindigkeitsvektor (Tangentialvektor) von Φ . v(x) :=
ur s , t mit s + t ∈ I gilt (2◦ ) F¨ Φ(s + t, · ) = Φ(t + s, · ) = Φ(s, · ) ◦ Φ(t, · ) ≡ Φ(s, Φ(t, · )) , Φ(0, · ) = Identit¨ at, womit sich Φ im mathematischen Sinn als eine (lokale) Transformationsgruppe erweist. (3◦ ) Ist F : Φ(I × Ω) ∩ Ω → Rn eine umkehrbare, in beiden Richtungen glatte Abbildung (Diffeomorphismus), dann ist Ψ = F ◦ Φ ein Fluss mit Vektorfeld w :
∂ ∂
Ψ (t, x)
= ∇F (Φ(t, x)) Φ(t, x)
= ∇F (x)v(x) , ∂t ∂t t=0 t=0 wegen Φ(0, x) = x , also gilt ∀ x ∈ Ω : w(x) = ∇F (x)v(x) . (4◦ ) Ein Fixpunkt x von Φ mit x = Φ(t, x) ∀ t ∈ I ergibt v(x) = 0 nach (1.38). Alle Punkte mit dieser Eigenschaft sind konstante L¨osungen und werden singul¨ are oder kritische Punkte genannt; Punkte mit v(x) = 0 sind regul¨ are Punkte von v . Eine Typisierung erfolgt mit Hilfe der Eigenwerte von grad v(x) , z.B. ist x0 ∈ R2 ein Zentrum, wenn die beiden Eigenwerte von ∇v(x0 ) konjugiert komplex sind. Eine L¨osungskurve heißt Separatrix, wenn sie f¨ ur |t| → ∞ in einen singul¨ aren Punkt m¨ undet, der kein Zentrum
40
1 Mathematische Hilfsmittel
ist. Nach Satz 1.11 geht genau eine L¨ osung durch jeden Punkt des Definiosungen, tionsbereichs von v ∈ C 1 , daher sind singul¨are Punkte isolierte L¨ die nur f¨ ur |t| → ∞ von anderen L¨ osungen erreicht werden k¨onnen also niemals in endlicher Zeit; damit sind sie keine Verzweigungspunkte im u ¨blichen Sinn. Anschließend wird gezeigt, dass an den regul¨aren Punkten ¨ eines Vektorfeldes v keine differentialtopologische“ Anderungen auftre” ten und somit das globale Verhalten von v qualitativ durch sein Verhalten an den kritischen Punkten bestimmt ist. (c) Begradigung von Vektorfeldern Im kanonischen Koordinatensystem des Koordinatenraums Rn hat ein nichtlineares Vektorfeld v krummlinige Phaurlich senkurven als L¨ osungen. Alle zusammen bilden den Fluss Φ von v. Nat¨ kann man jeden festen Vektor v(x0 ) in den ersten Einheitsvektor e1 drehen oder spiegeln. Es stellt sich aber die Frage, ob es lokal eine einzige Abbildung F gibt, deren Gradient dies in einer vollen Umgebung von x0 erreicht. Die Spalten der (regul¨ aren) Matrix ∇F (x) stellen dann ein krummliniges Koordinatensystem (moving frame) dar, l¨ angs dem v(x) = e1 in einer gewissen Umgebung U von x0 also konstant ist. Wenn eine solche Abbildung zwischen zwei Vektorfeldern existiert, heißen beide lokal ¨ ahnlich . Satz 1.12. (Satz von der Begradigung) Es sei v : Ω → Rn ein konservatives Vektorfeld, x0 ∈ Ω, v(x0 ) = 0 und e1 = [1, 0, . . . , 0]T ∈ Rn . Dann gibt es eine offene Menge U mit x0 ∈ U ⊂ Rn und einen Diffeomorphismus F : U → U mit (1.39) ∀ x ∈ U : e1 = ∇F (x)v(x) . Weil man einen verst¨ andlichen Beweis f¨ ur dieses fundamentale Resultat selten findet, wird er f¨ ur n = 3 in SUPPLEMENT\chap01a angegeben; vgl. auch [Arnold80]. Das neue krummlinige Koordinatensystem ist mit Hilfe der Phasenkurven und der dadurch induzierten nat¨ urlichen Koordinaten konstruiert worden; dazu kommt eventuell noch eine unwesentliche Drehung der kanonischen Koordinaten. ahnlich Folgerung 1.2. Alle konservativen glatten Vektorfelder v sind lokal ¨ in regul¨ aren Punkten x mit v(x) = 0 . Sind also v und w stetig differenzierbare station¨are Vektorfelder und gilt v(x0 ) = 0, w(x0 ) = 0, dann gibt es eine Umgebung U von x0 und einen ur alle x ∈ U. Diffeomorphismus H mit w(x) = ∇H(x)v(x) f¨ uhren Wenn v : (t, x) → v(t, x) ein nichtkonservatives Vektorfeld ist, dann f¨ wir die freie Variable t als neue abh¨ angige Variable ein, setzen y = (t, x) und betrachten das System
1 y˙ = , y = (t, x) . v(y)
1.6 Der Fluss und sein Vektorfeld
41
Folgerung 1.3. Ist v(t0 , x0 ) = 0 ∈ Rn , dann gibt es eine offene Menge (t0 , x0 ) ∈ V ⊂ Rn+1 und einen Diffeomorphismus G : V → V mit
1 ∈ Rn+1 , ∀ (t, x) ∈ V : e1 = ∇G(t, x) v(t, x) also ist t˙ = 1 , x˙ = v(t, x) in jedem Punkt (t0 , x0 ) lokal ¨ ahnlich zu dem System y˙ 1 = 1 , y˙ i = 0 , i = 2 : n + 1 , wobei t erhalten bleibt. (d) Invarianten Eine Abbildung F : Φ(I × Ω) → R heißt Invariante von Φ oder erstes Integral, wenn ∀ t ∈ I ∀ x ∈ Ω : F (Φ(t, x)) = F (x) = F (Φ(0, x)) , d.h. F ist konstant auf jedem Orbit. Ist v ein konservatives Vektorfeld, dann heißt eine Abbildung F Invariante des Vektorfeldes v, wenn gilt ∀ x ∈ Ω : ∇F (x)v(x) = 0 ∈ R .
Satz 1.13. Es sei Φ ein Fluss mit einem konservativen Vektorfeld v, dann ist F Invariante von Φ g.d.w. F Invariante von v ist. Beweis. =⇒“ klar!. ⇐=“ mit (g (t) = 0 =⇒ g(t) = c). ” ” Ist z.B. ein Hamiltonsches System x˙ = Hy (x, y) ∈ R, y˙ = −Hx (x, y) ∈ R gegeben, dann ist H Invariante (implizite Darstellung der L¨osung). F¨ ur ein System mit zwei Differentialgleichungen gen¨ ugt also eine Invariante zur impliziten Darstellung, entsprechend braucht man n−1 Invarianten bei einem System x˙ = v(x) mit x(t) ∈ Rn . Definition 1.1. Es sei Ω ⊂ Rn offen und f ∈ C 1 (Ω; Rm ). Dann heißen die Komponenten f i von f funktional abh¨ angig, wenn gilt ∀ x ∈ Ω ∃ U ⊂ Rn offen ∃ 0 = G ∈ C 1 (f (Ω); R) ∀ x ∈ U : G(f (x)) = 0 ; im andern Fall heißen die Komponenten f i funktional unabh¨angig. Lemma 1.10. Es sei f ∈ C 1 (Ω; Rm ). Dann sind die Komponenten f i von f funktional unabh¨ angig genau dann, wenn ∇f (x) f¨ ur alle x ∈ Ω den Rang m hat. Ist v : Ω → Rn ein Vektorfeld und f 1 , . . . , f k eine maximale Anzahl funktional unabh¨ angiger Invarianten, dann ist die allgemeinste Invariante gegeben durch Ψ (f 1 , . . . , f k ), Ψ ∈ C 1 beliebig.
42
1 Mathematische Hilfsmittel
¨ Uber die lokale Existenz von Invarianten gibt das folgende Lemma Auskunft. Lemma 1.11. Es sei v : Rn ⊃ Ω → Rn ein konservatives C 1 -Vektorfeld und angige Invarianten v(x0 ) = 0 . Dann existieren genau n − 1 funktional unabh¨ F i ∈ C 1 (U; R) in einer gewissen offenen Umgebung x0 ∈ U ⊂ Ω . Beweis. (1◦ ) Es sei v(x) = e1 , dann sind die einfachen Abbildungen F i : x → xi , i = 2 : n , Invarianten und funktional unabh¨angig. (2◦ ) Es sei v allgemein mit v(x0 ) = 0, es sei F die lokale Begradigung, so dass ur i = 2 : n. (1.39) gilt, dann ist die i-te Komponente F i von F Invariante f¨ amlich Mit v 1 (x0 ) = 0 o.B. gilt n¨ F i (Φ(t, X)) = konst ⇐⇒ (F i ◦ Φ)t (t, X) = 0 ⇐⇒ ∇F i (Φ(t, X)) · Φt (t, X) = 0 ⇐⇒ [∇F (x)]i · v(x) = 0, i = 2 : m , f¨ ur x = Φ(t, X) ∈ U(x0 ). Es gilt aber nach Voraussetzung ∇F (x)v(x) = e1 , x ∈ U(x0 ) ,
daraus folgt die Behauptung.
(e) Transformation Es sei noch einmal F : R (x) ⊃ Ω → R (y) ein Diffeomorphismus, also y = F (x), x = F −1 (y), und es sei Ψ (t, x) = F (Φ(t, x)) der Fluss Ψ mit dem Vektorfeld w(x) = ∇F (x)v(x) unter der Abbildung F , dann gilt y = Ψ (0, x) = F (Φ(0, x)) = F (x) . Wie sieht nun der Fluss Ψ in y-Koordinaten aus, d.h. wenn man die x-Koordinaten ebenfalls der Transformation F unterzieht? Nat¨ urlich ist es der Fluss Ψ(t, y) = Ψ (t, F −1 (y)) mit dem Vektorfeld w (y) = ∇F (x)v(x), x = F −1 (y) . Man verifiziert leicht die Flusseigenschaften: n
n
Ψ(0, y) = Ψ (0, F −1 (y)) = F (Φ(0, F −1 (y))) = F (F −1 (y)) = y und, mit x = F −1 (y) , Ψ(s + t, y) = Ψ (s + t, x) = F (Φ(s + t, x)) = F (Φ(s, Φ(t, x))) = Ψ (s, F −1 (F (Φ(t, x))) = Ψ(s, F (Φ(t, x))) = Ψ(s, Ψ (t, x)) = Ψ(s, Ψ (t, F −1 (y)) = Ψ(s, Ψ(t, y)). (f ) Beispiele Beispiel 1.7. Das System x˙ = λx hat die allgemeine L¨osung x(t) = ceλ t . Einsetzen von x(t0 ) = x0 ergibt den Fluss Φ(t; t0 , x0 ) = x0 eλ(t−t0 ) .
1.6 Der Fluss und sein Vektorfeld
43
Beispiel 1.8. (Abb. 1.6). Das autonome System x˙ 1 = x2 (1 − x1 ) , x˙ 2 = −x1 (1 − x2 ) hat die kritischen Punkte x = (0, 0) und x = (1, 1) sowie das erste Integral F (x, y) = ln |y − 1| + ln |1 − x| + y + x = c . Beispiel 1.9. (Abb. 1.7). Das Hamiltonsche System x˙ = y(1 − x2 ) , y˙ = x(y 2 − 1) hat die kritischen Punkte x0 = (0, 0), x1 = (1 , 1), x2 = (1 , −1), x3 = (−1 , 1) , x4 = (−1 , −1) . und als erstes Integral die Hamilton-Funktion 1 2 H(x, y) = x + y 2 − x2 y 2 = d . 2 Beispiel 1.10. (Abb. 1.8). Die Differentialgleichung x˙ = ex sin t hat die allgemeine L¨ osung x(t) = − ln(cos t + c) . Durch Einsetzen von (t0 , x0 ) erh¨alt man das Flussintegral Φ(t; t0 , x0 ) = − ln(cos t + exp(−x0 ) − cos t0 ) , die L¨ osungen existieren aber nur auf und unterhalb der fett gezeichneten Kurve in Abb. 1.6 f¨ ur alle t ∈ R . Beispiel 1.11. (Abb. 1.9). Zur Darstellung des Flussintegrals der Differentialgleichung x˙ = (t − x + 3)2 muss die (t, x)-Ebene zerlegt werden in Ω1 = {(t, x) , |t − x + 3| < 1} , Ω2 = {(t, x) , t − x + 3 < −1} , Ω3 = {(t, x) , t − x + 3 > 1}. Man berechnet dann Φ(t; t0 , x0 ) = t + 3 −
(t0 − x0 + 4)e2t + (t0 − x0 + 2)e2t0 (t0 − x0 + 4)e2t − (t0 − x0 + 2)e2t0
f¨ ur (t0 , x0 ) ∈ Ω2 ∪ Ω3 und Φ(t; t0 , x0 ) = t + 3 −
(t0 − x0 + 4)e2t − (t0 − x0 + 2)e2t0 (t0 − x0 + 4)e2t + (t0 − x0 + 2)e2t0
f¨ ur (t0 , x0 ) ∈ Ω1 ; nur in Ω1 existieren die L¨ osungen f¨ ur alle t ∈ R. 2
2.5
2 1.5 1.5
1 1 0.5
0.5
0
−0.5 0 −1
−1.5 −0.5 −2
−1 −1
−0.5
0
0.5
1
1.5
Abb. 1.6. Beispiel 1.8
2
−2.5 −2.5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
Abb. 1.7. Beispiel 1.9
2.5
44
1 Mathematische Hilfsmittel 7
6
6
5
5
4
4 3 3 2 2 1 1 0 0 −1
−1
−2
−2
−3 −5
−4
−3
−2
−1
0
1
2
3
4
5
Abb. 1.8. Beispiel 1.10
−3 −5
−4
−3
−2
−1
0
1
2
Abb. 1.9. Beispiel 1.11
Literatur: [Amann], [Arnold80].
1.7 Vektorr¨ aume Es sei Ω ⊂ Rn eine beschr¨ ankte, offene und zusammenh¨angende Punktmenge (beschr¨ anktes Gebiet) mit stetigem, st¨ uckweise glattem Rand Γ = ∂Ω, und ulle von Ω . es sei Ω = Ω ∪ ∂Ω die abgeschlossene H¨ (a) R¨ aume stetiger Funktionen C(a, b) := C((a, b), R) := Vektorraum der stetigen Funktionen f : (a, b) → R C[a, b] := C([a, b], R) := Vektorraum der stetigen Funktionen f : [a, b] → R C s (a, b) := Unterraum der Funktionen aus C(a, b) mit stetigen Ableitungen bis zur Ordnung s ≥ 1 s C [a, b] := Unterraum der Funktionen aus C[a, b], die sich samt ihren Ableitungen bis zur Ordnung s zu stetigen Funktionen auf [a, b] fortsetzen lassen C ∞ (a, b) := Unterraum der Funktionen aus C(a, b) mit Ableitungen beliebiger Ordnung . (1.40) In diesen Beispielen ist das Nullelement die konstante Funktion u(x) = 0 f¨ ur x ∈ (a, b) bzw. x ∈ [a, b] . Die R¨ aume C(Ω) , C(Ω) , C s (Ω) , C s (Ω) , C ∞ (Ω) sind wie in (1.40) definiert, wenn Ableitung“ durch partielle Ableitung“ im ” ” Sinn von Beispiel 1.12 ersetzt wird. (b) Banach-R¨ aume Eine Folge {xn } in einem (reellen) normierten Vektorraum X heißt bekanntlich Cauchy-Folge, wenn ∀ ε > 0 ∃ Nε ∀ m, n > Nε : xm − xn < ε . Ist X endlichdimensional, dann ist jede Cauchy-Folge konvergent gegen ein Element aus X , und es kommt nicht auf die Wahl der Norm an:
1.7 Vektorr¨ aume
45
¨ Satz 1.14. (Aquivalenzsatz) Ist dim(X ) < ∞, und sind ◦ α , ◦ β zwei Normen auf X , dann gibt es Konstanten 0 < m ≤ M , so dass ∀ x ∈ X : m xα ≤ xβ ≤ M xα . Ist dagegen X unendlichdimensional, dann gilt dieser Satz nicht mehr. Ein normierter Vektorraum X heißt Banach-Raum, wenn jede Cauchy-Folge mit Elementen aus X gegen ein Element aus X konvergiert. Eine Teilmenge M ⊂ X wie auch X selbst heißt in diesem Fall abgeschlossen oder vollst¨ andig bez¨ uglich der gegebenen Norm. Ein Unterschied zwischen diesen beiden Begriffen tritt erst bei allgemeineren topologischen Vektorr¨aumen auf. Beispiel 1.12. Die R¨ aume C(Ω) und C s (Ω) sind Banach-R¨ aume mit den Supremum-Normen f C := sup |f (x)| , f C s := sup{|Dσ f (x)|, x ∈ Ω, |σ| ≤ s} , x∈Ω
x = (x1 , . . . , xn ) , σi ∈ N0 := N ∪{0} , σ = (σ1 , . . . , σn ) , |σ| = σ1 +· · ·+σn , Dσ f =
∂ |σ| f . · · · (∂xn )σn
(∂x1 )σ1
(c) Lineare Abbildungen Sind X und Y normierte Vektorr¨aume, dann ist eine lineare Abbildung A : X → Y genau dann stetig, wenn sie beschr¨ankt ist, d.h. wenn ∃ κ > 0 ∀ x ∈ X : Ax ≤ κx . Ist der Bildraum Y ein Banach-Raum, dann ist der Vektorraum L(X , Y) der stetigen linearen Abbildungen von X nach Y mit der Operatornorm Ax = sup Ax = sup A = sup Ax x =0 x x=1 x≤1 ebenfalls ein Banach-Raum. (d) Lineare Funktionale und Hyperebenen Nat¨ urlich ist R mit dem Betrag als Norm ein Banach-Raum, daher ist nach (c) der Vektorraum L(X , R) der stetigen linearen Funktionale f : X → R ein Banach-Raum. b Beispiel 1.13. Ist f (x) = a x(t) dt, x stetig, und x = sup a≤t≤b |x(t)|, dann ist
b
f = sup
x(t) dt ≤ sup x(b − a) = b − a .
x=1 x=1 a
46
1 Mathematische Hilfsmittel
Ist U ⊂ X ein Unterraum und 0 = v ∈ X beliebig, dann heißt V = v + U := {x ∈ X , x − v ∈ U} affiner Unterraum. Es ist dann v ∈ V und kann beliebig aus V gew¨ahlt werden, w¨ ahrend U eindeutig bestimmt ist. Die maximalen affinen Unterr¨aume V heißen Hyperebenen, d.h. ∃ w ∈ X : (w ∈ / V) ∧ (X = span{w, V}) . Zwischen“ einer Hyperebene V und dem Vektorraum X kann also kein wei” terer affiner Unterraum liegen: V ⊂ W ⊂ X =⇒ (V = W) ∧ (W = X ) . Lineare Funktionale und Hyperebenen stehen in einem engen Zusammenhang: Lemma 1.12. (1◦ ) H ⊂ X ist genau dann Hyperebene, wenn gilt ∃ 0 = f : X → R linear ∃ c ∈ R : H = {x ∈ X , f (x) = c} . ◦
(2 ) Ist 0 ∈ / H ⊂ X eine Hyperebene, dann existiert eindeutig ein lineares Funktional f : X → R mit H = {x ∈ X , f (x) = 1} . (3◦ ) Ist 0 = f : X → R linear und H = {x ∈ X , f (x) = c} eine Hyperebene, dann gilt H = H genau dann, wenn f stetig ist. Beweis [Luenberger], SUPPLEMENT\chap01a. Ist H ⊂ X eine Hyperebene, dann ist entweder H abgeschlossen, d.h. H = H, oder H dicht in X , d.h. H = X ; daher ist z.B. die Menge der stetigen Funktionen im Raum der quadratisch Lebesgue-integrierbaren Funktionen eine Hyperebene. (e) Dualraum Der Vektorraum L(X , R) der stetigen linearen Funktionale auf X heißt (topologischer) Dualraum Xd von X . Grob gesprochen gilt X ⊂ (Xd )d und, wiederum grob gesprochen, heißen Banach-R¨aume mit der Eigenschaft X = (Xd )d reflexiv . Beispiel 1.14. Ist Πn der (n + 1)-dimensionale Vektorraum der reellen Polynome p vom Grad kleiner oder gleich n und sind n + 1 verschiedene Zahlen xi ∈ R , i = 1 : n + 1 , gegeben, dann ist der Dualraum [Πn ]d durch eine seiner Basen, z.B. F := {fi (p) := p(xi ) , i = 1 : n + 1} definiert. W¨ ahlt man in Πn die Basis E der Lagrange-Grundpolynome p1 , . . . , pn+1 mit der Eigenschaft pi (xk ) = δ i k dann gilt fi (pk ) = δ Kap. 10.
i
k
(Kronecker-Symbol),
, und F ist in diesem Fall eine Dualbasis zu E ; vgl.
1.7 Vektorr¨ aume
47
(f ) Hilbert-R¨ aume Ein Skalarprodukt auf X ist eine positiv definite, symmetrische Bilinearform, d.h. eine bilineare Abbildung (, ◦) : X × X → R mit den Eigenschaften ∀ x ∈ X : (x, ◦) : X → R ist linear ∀ y ∈ X : (, y) : X → R ist linear ∀ x, y ∈ X : (x, y) = (y, x) (x, x) = 0 ⇐⇒ x = 0; ∀ 0 = x ∈ X : (x, x) > 0 . Mit Hilfe der Cauchy-Schwarz-Ungleichung; ∀ x, y ∈ X : 0 ≤ (x, y)2 ≤ (x, x) (y, y) l¨ asst sich leicht zeigen, dass das Skalarprodukt verm¨oge x2 = (x, x) eine Norm auf X definiert. In der Regel gibt es in einem Vektorraum beliebig viele Skalarprodukte. Wird die Norm durch ein ausgew¨ ahltes kanonisches Skalarprodukt definiert, so heißt X Skalarproduktraum oder Pr¨ a-Hilbert-Raum. Ist der Raum zus¨atzlich bez¨ uglich dieser Norm vollst¨ andig, so heißt er Hilbert-Raum. Wenn im normierten Vektorraum X f¨ ur alle Elemente x, y die Parallelogrammgleichung x + y2 + x − y2 = 2(x2 + y2 ) gilt, kann umgekehrt aus der Norm ein Skalarprodukt konstruiert werden verm¨ oge 1 (x, y) = x + y2 − x − y2 . 4 (g) Sobolev-R¨ aume F¨ ur das im Folgenden verwendete Lebesgue-Integral (L-Integral) sei auf [Heuser80] verwiesen. Es stellt eine Verallgemeinerung des n Riemann-Integrals (R-Integral) dar. Eine Menge Ω ⊂ R mit dem L-Integral dx = 0 hat per definitionem das Lebesgue-Maß Null. Lebesgue-Integrale Ω unterscheiden nicht zwischen Funktionen die fast u ¨berall identisch sind, d.h. nur auf Mengen vom L-Maß null verschiedene Werte annehmen. Ist z.B. f die Dirichlet-Funktion mit f (x) = 1 f¨ ur rationales x ∈ (0, 1) und f (x) = 0 f¨ ur irrationales x ∈ (0, 1) , dann ist
1
f (x) dx nicht definiert, L-Integral
R-Integral 0
1
f (x) dx = 0 . 0
Bei den nachfolgend beschriebenen Eigenschaften gebr¨auchlicher HilbertR¨ aume muss der stetige und st¨ uckweise glatte Rand des beschr¨ankten Gebietes Ω teilweise noch zus¨ atzlich eine Kegelbedingung“ erf¨ ullen, vgl. z.B. ” [Braess], § 2.1.8, worauf mit dem Attribut regul¨ar“ hingewiesen wird. ”
48
1 Mathematische Hilfsmittel
Weitere Bezeichungen: L2 (Ω) = {f : Ω → R,
|f (x)|2 dx existiert endlich im L-Sinn} Ω
Menge der auf Ω quadratisch L-integrierbaren Funktionen M2 (Ω) = {f ∈ L2 (Ω), |f (x)|2 dx = 0} Menge der Funktionen Ω
die auf Ω fast u u.) verschwinden ¨berall im L-Sinn (f.¨ L2 (Ω) = L2 (Ω)/M2 (Ω) Klassen von Funktionen, die auf Ω f.¨ u. identisch sind Tr(f ) = {x ∈ Rn , f (x) = 0}
.
Tr¨ ager von f : Rn → R
ur alle |σ| ≤ s} C0s (Ω) = {f ∈ C s (Ω) , Dσ f = 0 auf Γ f¨ C0∞ (Ω) = {f ∈ C ∞ (Ω), Tr(f ) ⊂ Ω} Aus Tr(f ) ⊂ Ω folgt f = 0 auf Γ . Die Bilinearform (f, g)0 := f (x)g(x) dx
(1.41)
Ω
ist ein Skalarprodukt auf L2 (Ω) , und der Raum ist bez¨ uglich der Norm f = 1/2 (f, f )0 vollst¨ andig, also ein Hilbert-Raum. Der Raum C(Ω) ist dagegen bez¨ uglich dieser Norm nicht vollst¨ andig, also kein Hilbert-Raum; ebenso ist (Dσ f, Dσ g)0 (f, g)s := (f, g)0 + 1≤|σ|≤s
ein Skalarprodukt auf C s (Ω) , aber wiederum ist dieser Raum kein HilbertRaum. Man schreibt 1/2 |f |s := (Dσ f, Dσ f )0 , f s := (f, f )s1/2 ( Sobolev-Norm“). ” |σ|=s
(1.42) Dann sind die abgeschlossenen H¨ ullen bez. ◦ s , Hs (Ω) := C s (Ω)
·s
·s
, H0s (Ω) := C0s (Ω)
(1.43)
nat¨ urlich Hilbert-R¨ aume mit dem Skalarprodukt (, ◦)s (Sobolev-R¨aume). F¨ ur die Vollst¨ andigkeit der genannten R¨ aume muss in der Bilinearform (1.41) das Lebesgue-Integral gew¨ ahlt werden, deswegen ist dieses Kalk¨ ul unerl¨ asslich in der Theorie elliptischer Randwertprobleme. (h) Annahme von Randwerten Die Elemente von H1 (Ω) sind i.d.R. nicht ¨ stetig und im Ubrigen nur f.¨ u. im Lebesgueschen Sinn definiert. Es ist daher n¨ aher zu erl¨ autern, welche Bedeutung ihren Werten auf dem Rand Γ zukommt:
1.7 Vektorr¨ aume
49
Satz 1.15. (Spursatz) F¨ ur ein beschr¨ anktes regul¨ ares Gebiet Ω gilt (1◦ ) ∃ 0 < M (Ω) ∀ f ∈ C s (Ω) ∀ |σ| ≤ s − 1 : 1/2
|D f | ds σ
2
≤ M (Ω)Dσ f 1,Ω .
Γ
(2◦ ) Es gibt eine eindeutig bestimmte stetige lineare Abbildung (Spuroperator, trace operator) Trσ : Hs (Ω) → L2 (Γ ) , |σ| ≤ s − 1 ,
∀ f ∈ C s (Ω) : Trσ f = Dσ f .
mit der Eigenschaft
Γ
(3◦ ) Mit der Konstante M (Ω) aus (1◦ ) gilt ∀ f ∈ C s (Ω) ∀ |σ| ≤ s − 1 : Trσ (f )0,Γ ≤ M (Ω)Dσ f 1,Ω . Es wird also zun¨ achst der Spuroperator Trσ mit Hilfe von Funktionen s f ∈ C s (Ω) definiert und dann die
Randwerte von Funktionen f ∈ H (Ω) mit
Hilfe des Spuroperators, z.B. f = Tr0 (f ). Γ
Folgerung 1.4. Es gilt f ∈ H0s (Ω) ⇐⇒ f ∈ Hs (Ω) und ∀ |σ| ≤ s − 1 : Trσ (f ) = 0 . (i) Eigenschaften von H0s (Ω) und Hs (Ω). Um von den R¨aumen (1.43) eine bessere Vorstellung zu bekommen, ben¨ otigen wir den Begriff der schwachen Ableitung: f (σ) ist schwache σ-Ableitung von f ,wenn gilt |σ| ∀ ϕ ∈ C0 (Ω) : f (σ) ϕ dx = (−1)|σ| f Dσ ϕ dx Ω
,
Ω
und definieren dann W s (Ω) := {f ∈ L2 (Ω), f (σ) ∈ L2 (Ω) f¨ ur |σ| ≤ s} , W0s (Ω) := {f ∈ W s (Ω), f (σ) = 0 auf Γ f¨ ur |σ| ≤ s} . Mit diesen Vektorr¨ aumen liefert der Satz von [Meyers] die entscheidende Information u aume Hs und H0s : ¨ber die Sobolev-R¨ Satz 1.16. Ist Ω ⊂ Rn beliebig offen und s ∈ N0 = N ∪ {0}, dann gilt W s (Ω) = Hs (Ω), W0s (Ω) = H0s (Ω). Weiteren Aufschluss u ¨ber die Glattheit der Elemente dieser R¨aume liefert der Einbettungssatz von Sobolev, vgl. [Michlin]:
50
1 Mathematische Hilfsmittel
Satz 1.17. (1◦ ) Ist Ω ⊂ Rn ein beschr¨ anktes Gebiet und s > n/2, dann gilt H0s (Ω) ⊂ C(Ω) und ∃ κ(Ω) > 0 ∀ f ∈ H0s (Ω) : f C ≤ κ(Ω) f s . (2◦ ) Ist Ω regul¨ ar und s > n/2, dann gilt Hs (Ω) ⊂ C(Ω) und ∃ κ(Ω) > 0 ∀ f ∈ Hs (Ω) : f C ≤ κ(Ω) f s . (3◦ ) Ist Ω regul¨ ar und r − s > n/2, dann gilt Hr (Ω) ⊂ C s (Ω) und ∃ κ(Ω) > 0 ∀ f ∈ Hs (Ω) : f C s ≤ κ(Ω) f s . Korrekterweise m¨ usste bei jeder der drei Inklusionen A ⊂ B im Sinne stetiger ” linearer Einbettung“ stehen. F¨ ur n = 2 gilt nicht H1 (Ω) ⊂ C(Ω) sondern nur 1 H (Ω) ⊂ L2 (Ω) (Satz von Rellich). Mit Hilfe der schwachen Ableitung l¨ asst sich auch ein weiterer Zusammenhang zwischen den R¨ aumen Hs (Ω) und H0s (Ω) herstellen. Dazu sei n der nach außen weisende normierte Normalenvektor f.¨ u. auf dem Rand Γ , und es sei (∂n )r f die r-te Richtungsableitung im schwachen Sinn, (∂n )0 f = f . Dann gilt H0s (Ω) = {f ∈ Hs (Ω), (∂n )r f = 0, r = 0 : s − 1, auf Γ } ,
(1.44)
also insbesondere H02 (Ω) = {f ∈ H2 (Ω), f = ∂n f = 0 auf Γ } . ¨ (j) Aquivalente Normen auf H0s (Ω) und Hs (Ω). F¨ ur alle Polynome p ∈ Πs−1 vom Grad kleiner oder gleich s − 1 gilt |p|s = 0, deswegen ist |f |s ¨ nur eine Halbnorm auf Hs (Ω). F¨ ur die Uberlegungen in § 9.1 muss gekl¨art werden, unter welchen Zusatzvoraussetzungen | ◦ |s eine Norm auf Hs (Ω) ist ¨ mit der Aquivalenzeigenschaft ∃ 0 < m(Ω) < M (Ω) ∀ f ∈ Hs (Ω) : m(Ω)f s ≤ |f |s ≤ M (Ω)f s . (1.45) asst sich (1.45) mit Hilfe partieller Integration relativ einfach F¨ ur H0s (Ω) l¨ herleiten, weil die Randterme verschwinden; vgl. [Braess], § 2.1: ´-Friedrichs-Ungleichung) Ist Ω ein beschr¨ Lemma 1.13. (Poincare anktes Gebiet, dann gilt (1.45) f¨ ur H0s (Ω) an Stelle von Hs (Ω). F¨ ur Hs (Ω) folgt die rechte Ungleichung unmittelbar aus der Definition der Sobolev-Norm, die linke Ungleichung dagegen erweist sich als weniger zug¨ anglich wie alle Absch¨ atzungen nach unten. Nur mit weiterf¨ uhrenden Hilfsmitteln l¨ asst sich der folgende Satz beweisen; vgl. etwa [Velte], § 2.2.
1.7 Vektorr¨ aume
51
Satz 1.18. Es sei Ω ⊂ Rn ein beschr¨ anktes regul¨ ares Gebiet und | ◦ |Π eine beliebige Norm auf Πs−1 , die auf Hs (Ω) wenigstens eine Halbnorm ist, dann gilt ∃ 0 < m(Ω) ∀ f ∈ Hs (Ω) : m(Ω)f s ≤ f f¨ ur die durch f 2 = |f |2Π + |f |2s definierte Norm auf Hs (Ω). Vgl. [Velte], Satz 2.17. Beispiel 1.15. (1◦ ) Die Wahl |f |2Π = f 20 = Hs (Ω), daraus folgt
Ω
f 2 dV ergibt eine Norm auf
m(Ω)2 f 2s ≤ f 20 + |f |2s . (1.46) ◦ (2 ) Ist ΓD ⊂ Γ ein Randst¨ uck mit ΓD dO > 0, dann ist durch |f |2Π = ΓD f 2 dO eine Norm auf Π0 definiert, die auf H1 (Ω) eine Halbnorm ist, daraus folgt 2 2 f 2 dO + |f |21 . (1.47) m(Ω) f 1 ≤ ΓD
(3◦ ) Durch |f |2Π =
|σ|≤s−1
2 Dσ f dx
Ω
ist auf Πs−1 eine Norm definiert, die auf Hs (Ω) eine Halbnorm ist, daraus folgt 2 2 2 σ D f dx + |f |2s . (1.48) m(Ω) f s ≤ |σ|≤s−1
Ω
anktes regul¨ ares Gebiet mit st¨ uckFolgerung 1.5. Es sei Ω ⊂ Rn ein beschr¨ weise glattem Rand Γ = ∂Ω. (1◦ ) Die Menge {f ∈ Hs (Ω) , f 0 = 0} ⊂ Hs (Ω) ist ein abgeschlossener Unterraum, also ein Hilbert-Raum. (2◦ ) Ist ΓD ein Randst¨ uck mit ΓD dO > 0, dann ist die Menge {f ∈ H1 (Ω) , f = 0 auf ΓD ⊂ Γ } ⊂ Hs (Ω) ist ein abgeschlossener Unterraum, also ein Hilbert-Raum. (3◦ ) Die Menge s {f ∈ H (Ω), Dσ f dx = 0, |σ| ≤ s − 1} ⊂ Hs (Ω) Ω
ist ein abgeschlossener Unterraum, also ein Hilbert-Raum. Der Beweis der Abgeschlossenheit erfolgt in einfacher Weise mit der Schwarzatzliche Anwendung des Spurschen Ungleichung und in (2◦ ) durch eine zus¨ satzes; vgl. [Velte]. Literatur: [Braess], [Brenner], [Evans], [Michlin], [Taylor], [Velte], [Wloka].
52
1 Mathematische Hilfsmittel
1.8 Ableitungen (a) Gateaux-Ableitung und Fr´ echet-Ableitung Es seien X , Y reelle Vektorr¨ aume und D ⊂ X eine beliebige Teilmenge. Bezeichnungen: (1◦ ) Ist x ∈ D und h ∈ X , dann heißt x Radialpunkt von D in Richtung h , wenn ∃ ε(h) > 0 ∀ 0 ≤ ε < ε(h) : x + εh ∈ D ; x heißt innerer Punkt von D in Richtung h , wenn ∃ ε(h) > 0 ∀ 0 ≤ |ε| < ε(h) : x + εh ∈ D . (2◦ ) Ist Y normiert, f : D → Y eine Abbildung, x Radialpunkt von D in Richtung h und existiert δf (x; h)+ :=
d f (x + εh)|ε=0+ := lim ε−1 [f (x + εh) − f (x)] ε→0+ dε
(1.49)
im eigentlichen Sinn, dann heißt δf (x; h)+ einseitige erste Variation (einseitige Gateaux-Variation) von f an der Stelle x in Richtung h . (3◦ ) Ist Y normiert, f : D → Y eine Abbildung, x innerer Punkt von D in Richtung h und existiert δf (x; h) := limε→0 ε−1 [f (x + εh) − f (x)]
(1.50)
im eigentlichen Sinn, dann heißt δf (x; h) erste Variation (Gateaux-Variation) von f an der Stelle x in Richtung h . ur Variationen h¨ oherer Ordnung (4◦ ) Entsprechend gilt f¨ δ k f (x; h) :=
dk f (x + εh)|ε=0 , k ∈ N . dεk
Ist X normiert und h = 1, dann stellt (1.50) die Richtungsableitung dar; im ¨ Ubrigen ist (1.50) gleichbedeutend mit lim ε−1 f (x + εh) − f (x) − εδf (x; h) = 0 .
ε→0
Der Grenzwert δf (x; h) ist im zweiten Argument homogen aber nicht notwendig additiv, es gilt n¨ amlich f¨ ur λ = 0 δf (x; λh) = limε→0 ε−1 [f (x + ελh) − f (x)] = λ limε→0 (λε)−1 [f (x + ελh) − f (x)] = λ limτ →0 τ −1 [f (x + τ h) − f (x)] = λδf (x; h) ,
1.8 Ableitungen
53
damit ist (1.50) auch gleichbedeutend mit lim ε−1 f (x + εh) − f (x) − δf (x; εh) = 0.
ε→0+
Die Einf¨ uhrung einseitiger Richtungsableitungen erweist sich als notwendig, weil D nicht notwendig offen ist, und außerdem in vielen F¨allen Extremalwerte am Rand eines zul¨ assigen Bereiches auftreten. Die Gateaux-Variation ist der schw¨ achstm¨ ogliche Ableitungsbegriff, insbesondere wird keine Norm auf X verlangt. Die bekannten notwendigen Bedingungen f¨ ur station¨ are Punkte zeigen sich damit in der folgenden Form: Lemma 1.14. Es sei f : X ⊃ D → R hinreichend glatt, x∗ ∈ D und ∀ x ∈ D : f (x∗ ) ≤ f (x) . (1◦ ) Ist x∗ innerer Punkt von D in Richtung h, dann gilt δf (x∗ ; h) = 0 und δ 2 f (x∗ ; h) ≥ 0 . (2◦ ) Ist x∗ Radialpunkt von D in Richtung h, dann gilt δf (x∗ ; h)+ ≥ 0 . (3◦ ) Ist U ⊂ X ein Unterraum, V = w + U ein affiner Unterraum, D ⊂ V ur alle h ∈ U, dann gilt ∀ h ∈ U : offen in V , und δf (x∗ ; h) existiert f¨ δf (x∗ ; h) = 0 , d.h. δf (x∗ ; · ) = 0 auf U . Eine Abbildung f : X ⊃ D → Y an der Stelle x ∈ X differenzieren heißt ihren linearen Anteil in x berechnen, ohne die Forderung einer gleichm¨aßigen Approximation kann aber dieser Anteil auf unterschiedlichen Kurven durch x verschieden ausfallen. Definition 1.2. Es seien X , Y normierte Vektorr¨ aume. (1◦ ) Ist die Variation δf (x; ◦ ) : X → Y im zweiten Argument linear und stetig f¨ ur alle h ∈ X , dann heißt f Gateaux-differenzierbar an der Stelle x, δf (x; ◦) heißt Gateaux-Ableitung von f an der Stelle x, und wir schreiben ∂f (x; h) = ∂f (x)h. aßig f¨ ur alle h ∈ X , d.h. (2◦ ) Existiert der limes δf (x; h) gleichm¨ lim h−1 f (x + h) − f (x) − δf (x; h) = 0 ,
h→0
´chet-Variation von f an der Stelle dann heißt δf (x; ◦ ) : X → Y Fre x . Ist zus¨ atzlich δf (x; ◦ ) im zweiten Argument linear und stetig, dann ´chet-differenzierbar oder kurz differenzierbar an der Stelle heißt f Fre ´chet-Ableitung von f an der Stelle x , und wir x , δf (x; ◦ ) heißt Fre schreiben ∂f (x; h) = ∇f (x)h . ´chet-Variation linear ist, dann ist Wenn f an der Stelle x stetig und die Fre sie stetig im zweiten Argument [Dieudonn´e], § 8.1.1.
54
1 Mathematische Hilfsmittel
Wenn G-Ableitung bzw. F-Ableitung existieren, dann sind sie eindeutig bestimmt, und nat¨ urlich ist eine F-Ableitung auch G-Ableitung. F¨ ur X = Y = R fallen beide Begriffe zusammen. Manchmal wird der Begriff G-Differential“ ” an Stelle von G-Variation“ verwendet, dann muss aber zwischen der Existenz ” des G-Differentials und der G-Differenzierbarkeit unterschieden werden. Beispiel 1.16. Man beachte, dass die Ableitungen als lineare Abbildungen definiert sind, daher ist f = ∇f , wenn f : X → Y linear und stetig ist. Beispiel 1.17. Es sei f : Rm ⊃ D → Rn und grad f (x) der Gradient von f (Matrix der partiellen Ableitungen, Jacobi-Matrix), dann gilt f ist G-differenzierbar in x g.d.w. ∀ h ∈ Rm ∀ 0 < ε 1 : f (x + ε h) = f (x) + grad f (x)ε h + r(ε, h) ,
lim ε−1 r(ε, h) = 0 ;
ε→0+
f ist F-differenzierbar in x g.d.w. ∀ h ∈ Rm : f (x + h) = f (x) + grad f (x)h + r(h) ,
lim r(h)/h = 0 .
h→0
(b) Eigenschaften und Beispiele f : Rm → Rn , (m, n) = (1, 1) . f G-differenzierbar in x
=⇒ grad f existiert in x
grad f existiert in x
=⇒ f G-differenzierbar in x
grad f existiert stetig in x =⇒ f F-differenzierbar in x f F-differenzierbar in x
=⇒ f stetig in x .
Die letzte Eigenschaft gilt auch in Banach-R¨aumen. Lemma 1.15. f : X → Y . (Kettenregel, Mittelwertsatz) (1◦ ) Ist f G-differenzierbar, g F-differenzierbar, und existiert g ◦ f , dann ist g ◦ f G-differenzierbar, und es gilt δ(g ◦ f )(x) = ∇g(f (x))δf (x) . (2◦ ) Ist f F-differenzierbar, dann gilt mit der Operatornorm f (x + h) − f (x) ≤ h sup ∇f (x + th) . 0 0 : |t| ≤ δ und x + th ∈ D =⇒ f (x + th) − f (x) < ε , d.h. f ist stetig auf allen Geraden durch x . Lemma 1.17. Mit den Bezeichnungen von Definition 1.3 gilt: (1◦ ) Ist f G-differenzierbar an der Stelle x , dann ist f h-stetig in x . (2◦ ) Ist D offen und f F-differenzierbar an der Stelle x , dann ist f stetig in x (s.o.). Beispiel 1.18. Es sei x = (x, y) und f (x) =
xy 2 f¨ ur x = 0 , f (0) = 0 , + y4
x2
dann hat f an der Stelle 0 eine G-Variation aber keine G-Ableitung, außerdem ist f nicht stetig in 0 . Beispiel 1.19. Es sei 2
2y e−1/x f¨ ur x = 0 , g(0) = 0 , g(x) = 2 y + e−2/x2 dann hat g eine G-Ableitung an der Stelle 0 , aber g ist nicht stetig in 0 . Beispiel 1.20. F¨ ur die Funktion h(x) =
y(x2 + y 2 )3/2 f¨ ur x = 0 , h(0) = 0 , (x2 + y 2 )2 + y 2
gilt h(x, 0) = 0 , h(0, y) = 0 =⇒ hx (0, 0) = 0 , hy (0, 0) = 0 , also h(x) = h(0) + ∇h(0)(x − 0) + r(|x|) = 0 + 0 + 0 + r(|x|) . Mit Polarkoordinaten (x, y) = (r cos ϕ, r sin ϕ) folgt r(|x|) r4 sin ϕ = 5 −→ 0 |x| r + r3 sin2 ϕ r−→0 f¨ ur jeden festen Winkel ϕ, daher hat h die G-Ableitung δh = [0, 0] in 0 . Setzt man aber ϕ = arcsin r f¨ ur hinreichend kleines r , dann folgt r5 r(|x|) 1 = 5 = , |x| r + r5 2 daher hat h keine F-Ableitung in 0 . F¨ ur a = 0 und die Gerade t → (t, at) gilt
56
1 Mathematische Hilfsmittel
h(t, at) =
at(t2 + a2 t2 )3/2 t2 = (t2 + a2 t2 )2 + a2 t2 a
(1 + a2 )3/2 −→ 0 , 2 t−→0 t + a2 t 1+ a2
also existiert dh/dt in t = 0 auf allen Geraden durch 0 , der Grenzwert Null existiert aber nicht gleichm¨ aßig f¨ ur a = 0 .
0.5
0.03 0.02 0.01
0
0 −0.01 −0.02
−0.5 0.05
−0.03 0.05 0.05 0
0.05 0
0
y
−0.05
0
−0.05
−0.05
y
x
Abb. 1.10. Beispiel 1.18
−0.05
x
Abb. 1.11. Beispiel 1.20
1 Beispiel 1.21. Es sei X = C[0, 1], f (x) = 0 g(t, x(t)) dt mit festem g , und 1 ∂g/∂x existiere stetig in t und x, dann gilt δf (x)h = 0 gx (x, t)h(t) dt, und die G-Ableitung δf (x) ist auch F-Ableitung von f an der Stelle x. Beispiel 1.22. [Craven95] Es sei X = {x ∈ L2 (0, 1) , x beschr¨ankt} und 1 ur h ∈ X f : X x → 0 x(t)3 dt , dann gilt f¨ 1 f (x + h) − f (x) = [3x(t)2 h(t) + 3x(t)h(t)2 + h(t)3 ] dt , 0 1 f (x + α h) − f (x) = [3αx(t)2 h(t) + 3α2 x(t)h(t)2 + α3 h(t)3 ] dt 0
1
∀ α ∈ R . Also hat f die G-Ableitung δf (x)h = 3
x(t)2 h(t) dt an der Stelle 0
x ∈ X . Es gilt aber nicht allgemein 1 h(t)3 dt = o(h) f¨ ur h → 0 ,
(1.51)
0
daher hat f keine F-Ableitung an der Stelle x. Zum Beweis der Negation ur 0 ≤ t ≤ n−1 und h(t) = 0 f¨ ur von (1.51) w¨ ahle man etwa h(t) = n3/8 f¨ −1 n < t ≤ 1. Literatur: [Clarke], [Craven95], (Dieudonn´e), [Luenberger], [Ortega].
1.9 Abbildungen in Banach-R¨ aumen
57
1.9 Abbildungen in Banach-R¨ aumen Es seien X und Y reelle Banach-R¨ aume. (a) Lineare Operatoren Bezeichnungen (1◦ ) Es sei L(X , Y) der Vektorraum der stetigen linearen Abbildungen L : X → Y . Mit der Operatornorm L = Sup x=1 Lx ist L(X , Y) vollst¨andig, also ein Banach-Raum. aume, dann ist W = U ⊕ V die direkte Summe (2◦ ) Sind U, V, W ⊂ Y Unterr¨ oder direkte Zerlegung, wenn (modulo Nullelement) ∀ w ∈ W ∃! u ∈ U ∃! v ∈ V : w = u + v. (3◦ ) Ist Xd := L(X , R) der Dualraum von X , Yd der Dualraum von Y und L ∈ L(X , Y) , dann ist xd (x) := yd (Lx) , x ∈ X , yd ∈ Yd , ein Element xd ∈ Xd . Hierdurch ist der zu L adjungierte Operator Ld eindeutig definiert, Ld ◦ yd = yd ◦ L ,
Ld yd (x) = yd (L x) ,
X Yd d ←− Ld ←− ⏐ ⏐ ⏐ ⏐ X −→ L −→ Y
;
insbesondere gilt 0 = Ld y = yL ∈ Xd f¨ ur y ∈ Ker(Ld ) . ◦
(4 ) Um die duale Paarung hervorzuheben und auch, um an die Schreibweise in Hilbert-R¨ aumen anzulehnen, schreibt man in Banach-R¨aumen ebenfalls y, x! := y(x) for y ∈ Xd und x ∈ X , und ferner S ⊥ := {y ∈ Xd , ∀ x ∈ S : y, x! = 0} Sd⊥ := {x ∈ X , ∀ y ∈ Sd : y, x! = 0} . (5◦ ) Ist U ⊂ X ein abgeschlossener Unterraum, dann ist X /U der Quotien¨ ¨ tenraum von U in X der Aquivalenzklassen mit der Aquivalenzrelation x ∼ y ⇐⇒ x − y ∈ U . Ist X /U der Quotientenraum, dann heißt dim(X /U) die Kodimension von U . Im n¨ achsten Satz stellen wir allgemeine Eigenschaften von linearen, stetigen Operatoren “L ∈ L(X , Y) zusammen. Einige davon haben weitreichende ”
58
1 Mathematische Hilfsmittel
Konsequenzen in verschiedenen Anwendungsgebieten. Es sei daran erinnert, dass die folgende Menge der Graph von L ist: G(L) = {(x, Lx) , x ∈ X } ⊂ X × Y . Satz 1.19. (Eigenschaften von L ∈ L(X , Y)) (1◦ ) Es ist L ∈ L(X , Y) (also stetig) g.d.w. L beschr¨ ankt ist, ∃κ>0
∀ x ∈ X : Lx ≤ κx .
(2◦ ) (Principle of Open Mapping) Es sei L surjektiv. Dann ist L offen, d.h. das Bild jeder offenen Menge ist offen, insbesondere ist Range L offen. (3◦ ) (Inverse Operator Theorem) Ist L bijektiv, dann existiert L−1 und ist beschr¨ ankt also stetig. (4◦ ) (Closed Graph Theorem) Sei L (nur) linear. Dann ist L stetig g.d.w. der Graph G(L) von L abgeschlossen ist, d.h. eine abgeschlossene Untermenge von X × Y ist. (5◦ ) (Range Theorem) Range L = [Ker Ld ]⊥ , [Range L]⊥ = Ker Ld . (6◦ ) (Range Theorem) Range Ld = [Ker L]⊥ , Range Ld
⊥
= Ker L .
◦
aquivalent: (7 ) (Closed Range Theorem) Die folgenden Aussagen sind ¨ Range L ist abgeschlossen; Range Ld ist abgeschlossen. Range L = [Ker Ld ]⊥ ; Range Ld = [Ker L]⊥ . Beweis [Heuser86], Th. 55.7, [Hirzebruch], Th. 25.4, [Luenberger], Th. 6.6.1, 6.6.3, [Wloka], Th. 2.4.12. F¨ ur die Bezeichnungen Range und Ker vgl. § 1.1(e). Ein endlichdimensionaler Unterraum eines Banach-Raums ist immer abgeschlossen. Die Aussage (2◦ ) gilt nat¨ urlich auch, wenn man dort Y durch Range L ersetzt und Range L abgeschlossen ist, weil dann Range L ein Banach-Raum ist. Der n¨achste Satz von [Decker] ist eine Verallgemeinerung von Lemma 1.2 f¨ ur Operatoren in Banach-R¨ aumen Satz 1.20. (Bordering Lemma) Der lineare Operator E : X × Rm → Y × Rm sei von der Form
AB E= CD mit A : X → Y , B : Rm → Y , C : X → Rm , D : Rm → Rm . (1◦ ) Wenn A bijektiv ist, dann ist E bijektiv g.d.w. D − CA−1 B bijektiv ist. (2◦ ) Wenn A nicht bijektiv ist und dim Ker A = codim Range L = m ≥ 1 , dann ist E bijektiv g.d.w.
1.9 Abbildungen in Banach-R¨ aumen
59
dim Range B = m, Range B ∩ Range A = {0}, dim Range C = m, Ker A ∩ Ker C = {0}. (3◦ ) Wenn A nicht bijektiv ist und dim Ker A > m , dann ist E nicht bijektiv. ar sind, dann (4◦ ) Wenn X = Y = Rn ist und A, F = (D − CA−1 B)−1 regul¨ ist
−1 A [I + BF CA−1 ] −A−1 BF . E −1 = F −F CA−1 Beweis SUPPLEMENT\chap01b. Im Fall einer Lagrange-Matrix E ist C = B T und D = 0 , aber die Matrix A ist h¨ aufig singul¨ ar. Wenn D = 0 und A regul¨ ar ist, dann existiert die Inverse von E, g.d.w. das Schur-Komplement S := BA−1 B T regul¨ar ist, dazu muss B rangmaximal sein. Ist insbesondere m = 1 und Ker(A) = [Range(Ad )]T , / Range(A) , C ∈ / dann reduziert sich die Regularit¨ atsbedingung (2◦ ) auf B ∈ Range(Ad ) , was gleichbedeutend ist mit v, B! = 0 , f¨ ur Ad v = 0 , v = 0 Cu = 0 , f¨ ur Au = 0 , u = 0 .
(1.52)
(b) Projektoren In Verallgemeinerung von § 1.1 (f1) heißt allgemein eine nicht notwendig stetige Abbildung P : X → X Projektor, wenn P idempotent ist, P ◦ P = P . Sie ist linear g.d.w. Range P ein Unterraum von X ist, was im Folgenden immer der Fall sein soll; dann ist auch Ker P ein Unterraum. Ist P ein Projektor in X und I die identische Abbildung, dann ist I − P ebenfalls ein Projektor in X . Aus der Identit¨ at x = P x + (x − P x) folgt sofort (1◦ ) Range P = {x ∈ X , P x = x} , Ker P = {x − P x, x ∈ X } Range(I − P ) = Ker P , Ker(I − P ) = Range P
.
(2◦ ) Jeder (lineare) Projektor P ergibt eine direkte Zerlegung seines Definitionsbereiches, X = Range P ⊕ Ker P . (1.53) Satz 1.21. (1◦ ) F¨ ur jeden Unterraum U ⊂ X gibt es einen linearen Projektor P von X mit Range P = U . (2◦ ) Wenn P ein stetiger (linearer) Projektor von X ist, dann ist Range P abgeschlossen. (3◦ ) Wenn P ein (linearer) Projektor von X ist und Range P sowie Ker P sind beide abgeschlossen, dann ist P stetig. Beweis [Taylor].
60
1 Mathematische Hilfsmittel
Nach (1.53) ergibt also jeder Unterraum U ⊂ X eine direkte Zerlegung X = U ⊕ V, dim V = codim U .
(1.54)
In endlichdimensionalen R¨ aumen ist V eindeutig bestimmt. Ist dagegen X ein unendlichdimensionaler Banach-Raum, dann gibt es zu einem abgeschlossenen Unterraum U ⊂ X nicht immer einen stetigen Projektor P von X mit P (X ) = U , also gibt es auch nicht immer zu jedem abgeschlossenen Unterraum U eine direkte Zerlegung X = U ⊕ V mit abgeschlossenem V . Daraus folgt, dass V in (1.54) nicht immer eindeutig bestimmt ist; vgl. [Taylor], § 4.8. (c) Implizite Funktionen Sind U ⊂ X , V ⊂ Y offene Teilmengen, dann heißt f : U → V C r -Diffeomorphismus (r ≥ 1) , wenn f bijektiv ist und zusammen mit f −1 r-mal stetig differenzierbar ist. Satz 1.22. (Inverse Mapping Theorem) Es seien U ⊂ X und V ⊂ Y offen und es sei a ∈ U fest, ferner sei f ∈ C r (U, V), r ≥ 1 , und es sei die F-Ableitung grad f (a) von f an der Stelle a bijektiv mit beschr¨ ankter Inverser. Dann gibt es offene Teilmengen a ∈ U0 ⊂ U und ∅ = V0 ⊂ V , so dass die Restriktion von f auf U0 × V0 ein C r -Diffeomorphismus ist. Folgerung 1.6. (Implicit Function Theorem) Es seien X , Y, Z BanachR¨ aume, f ∈ C r (X × Y; Z), r ≥ 1, c = f (a, b) , gradb f (a, b) bijektiv mit beschr¨ ankter Inverser. Dann gibt es offene Teilmengen U, W mit a ∈ U ⊂ X , c ∈ W ⊂ Z und eine eindeutig bestimmte Funktion Φ ∈ C r (U × W, Y) , so dass b = Φ(a, c), ∀ x ∈ U ∀ z ∈ W : z = f (x, Φ(x, z)) , und Φ ist so glatt wie f . F¨ ur z = 0 erhalten wir die klassische Form Folgerung 1.7. (Generalized Implicit Function Theorem) Es seien X , Y, Z Banach-R¨ aume, f ∈ C r (X × Y; Z) , r ≥ 1 , f (a, b) = 0 , gradb f (a, b) bijektiv mit beschr¨ ankter Inverser. Dann gibt es eine offene Teilmenge U mit a ∈ U ⊂ X und eine eindeutig bestimmte Funktion Φ ∈ C r (U, Y) , so dass Φ(a) = b, ∀ x ∈ U : f (x, Φ(x)) = 0 , und Φ ist so glatt wie f . Satz 1.23. (Generalized Inverse Function Theorem) Es seien X , Y BanachR¨ aume und f : X → Y stetig F-differenzierbar. F¨ ur ein a ∈ X sei b = f (a) und grad f (a) surjektiv (aber nicht notwendig invertierbar). Dann gibt es eine offene Umgebung U b und eine Konstante κ, so dass f (x) = y f¨ ur jedes y ∈ U eine L¨ osung x hat mit x − a ≤ κ y − b , insbesondere h¨ angt x stetig von y ab . Beweise von Abschnitt (c) in SUPPLEMENT\chap01b, s. auch [Craven78], Beweis von Satz 1.23 [Luenberger].
1.10 Konvexe Mengen und Funktionen
61
1.10 Konvexe Mengen und Funktionen Bei der Behandlung von endlichdimensionalen Extremalproblemen wie auch in der Kontrolltheorie sind gute Kenntnisse im Umgang mit Ungleichungen erforderlich. Dabei ist der Begriff des Ordnungskegels von entscheidender Bedeutung, weil auf ihm duale Betrachtungsweisen aufbauen, ohne die ein numerischer Zugang unm¨ oglich ist. Auch kommt hier dem Satz von Farkas die gleiche Bedeutung zu wie Satz 1.2 bei Gleichungen, allerdings f¨ uhrt dieser Satz ein gewisses Schattendasein in der Literatur. In diesem Abschnitt sollen daher einige Beweise vorgef¨ uhrt werden, um ein besseres Verst¨andnis f¨ ur die Problemstellungen in Optimierung, Variationsrechnung und Kontrolltheorie zu vermitteln. (a) Konvexe Mengen und Kegel Es sei X eine reeller normierter Vektorur raum und [x, y] := {z = x + λ(y − x), 0 ≤ λ ≤ 1} die Verbindungsstrecke f¨ zwei Elemente x, y ∈ X . Bezeichnungen: (1◦ ) Eine Menge C ⊂ X heißt konvex, wenn ∀ x, y ∈ C : [x, y] ⊂ C . (2◦ ) Eine Menge K ⊂ X heißt Kegel ( mit Spitze in 0“), wenn ” ∀ x ∈ K ∀ α ≥ 0 : αx ∈ K. (3◦ ) Ein Kegel K heißt punktiert (pointed), wenn K ∩ −K = {0} ( ⇐⇒ x ∈ K ∧ −x ∈ K ⇐⇒ x = 0). a-Ordnung verm¨oge y ≥ x ⇐⇒ (4◦ ) Ein konvexer Kegel K definiert eine Pr¨ x ≤ y : ⇐⇒ y − x ∈ K mit den Eigenschaften ∀x∈X =⇒ x ≤ x (Reflexivit¨at), x ≤ y ∧ y ≤ z =⇒ y ≤ z (Transitivit¨at). (5◦ ) Ein punktierter konvexer Kegel K definiert eine Halbordnung mit der zus¨ atzlichen Eigenschaft x ≤ y ∧ y ≤ x =⇒ y = x (Symmetrie). (6◦ ) Falls durch einen konvexen Kegel K = ∅ eine Pr¨a-Ordnung vorgegeben ist, so heißt dieser Kegel positiver Kegel oder Ordnungskegel auf X . (7◦ ) Zu einer beliebigen Menge M ⊂ X heißt die Menge Md := {y ∈ Xd , ∀ x ∈ M : y (x) ≥ 0} dualer Kegel zu M oder adjungierter Kegel. Ist M ein positiver Kegel, dann heißt Md dualer positiver Kegel. In vielen Anwendungsf¨ allen gen¨ ugt eine Pr¨ a-Ordnung, bei welcher der Ordnungskegel nicht punktiert sein muss. Ein positiver Kegel K ist nie offen aber
62
1 Mathematische Hilfsmittel
oft abgeschlossen, der duale Kegel Kd ist dagegen stets abgeschlossen. Im Koordinatenraum Rn gilt stets K ⊂ (Kd )d und K = (Kd )d , falls K abgeschlossen ist. Wir schreiben x ≥ 0 ⇐⇒ x ∈ K, x > 0 ⇐⇒ x ∈ int(K) , wobei mit int(K) das Innere von K gemeint ist.
x2
M
M
d
M M
x
1
Abb. 1.12. Dualer Kegel zu M
Beispiel 1.23. (1◦ ) Ist K = Rn+ ⊂ Rn , dann ist Kd = Rn+ nach einer kanonischen Identifizierung. (2◦ ) Der Kegel K = {x ∈ R2 , x1 ≥ 0 , x2 < 0}∪{(0, 0)} ist nicht abgeschlossen. (3◦ ) Ist K = {f ∈ C(a, b) , f (x) ≥ 0}, dann ist Kd = {y ∈ Cd (a, b) , b y(f ) = a f (x) dv(x) , v ∈ BV(a, b) , schwach monoton wachsend} ; vgl. §12.5. (4◦ ) Ist K ⊂ Rn ein positiver Kegel und A ∈ Rm n , dann ist A(K) := {y ∈ Rm , ∃ x ∈ K : y = Ax} der von den Spalten von A aufgespannte konvexe Kegel, der nat¨ urlich vom Ordnungskegel K abh¨angt. (5◦ ) Eine Menge K ⊂ X ist ein konvexer Kegel g.d.w. K + K := {x + y , x, y ∈ K} ⊂ K und αK := {αx, x ∈ K} ⊂ K , ∀ α ≥ 0 . Beispiel 1.24. Ist a = [a1 , a2 ]T ∈ R2 , dann bilden a und a⊥ := [−a2 , a1 ]T ein Rechtssystem. Sind nun a, b ∈ R2 beliebig und c = a⊥ , d = −b⊥ , dann ist (genau genommen nach einer kanonischen Identifizierung) K = {x = α a + β b , α ≥ 0 , β ≥ 0} ein positiver Kegel Kd = {x = γ c + δ d , γ ≥ 0 , δ ≥ 0} der duale Kegel, und beide fallen zusammen, wenn a auf b senkrecht steht.
1.10 Konvexe Mengen und Funktionen
63
Beispiel 1.25. [Ben-Israel] Der abgeschlossene Kegel K ⊂ R3 bestehe aus a = [1, 0, 1]T allen Vektoren x = [x, y, z]T , die mit der Symmetrieachse √ T einen Winkel ≤ π/4 bilden, dann ist a x ≥ a x/ 2 , also K = {x ∈ R3 , x ≥ 0 , z ≥ 0 , 2xz ≥ y 2 } . Ist nun P die Orthogonalprojektion des R3 auf die (y, z)-Ebene, dann ist
010 P = , P (K) = {[y, z]T , x ≥ 0 , z ≥ 0 , 2xz ≥ y 2 } . 001 F¨ ur z = 0 hat aber 2xz ≥ y 2 nur die L¨ osung y = 0 , daher ist P (K) = {(y, z) , z > 0} ∪ (0, 0) = {r cos ϕ, r sin ϕ) , r ≥ 0 , 0 < ϕ < π} , und das Bild von K unter der stetigen linearen Abbildung P ist nicht abgeschlossen.
Abb. 1.13. Kegel und dualer Kegel im R2
(b) Trennungss¨ atze Bei nichtlinearen Problemen der Kontrolltheorie beschreiben die Lagrange-Multiplikatoren i.d.R. Hyperebenen, die gewisse konvexe Mengen voneinander trennen. Der folgende Trennungssatz ist von fundamentaler Bedeutung, wenn es um die Existenz solcher Hyperebenen geht: Satz 1.24. Es sei X ein normierter Vektorraum und C, D ⊂ X konvex, dann gibt es α ∈ R und 0 = y ∈ Xd mit supx∈D y(x) ≤ α ≤ inf x∈C y(x) , wenn einer der folgenden F¨ alle erf¨ ullt ist: (1◦ ) C ist offen und C ∩ D = ∅ , (2◦ ) C ist abgeschlossen, C ∩ D = ∅ , und D = {b} ist ein Punkt, (3◦ ) int(C) = ∅ und int(C) ∩ D = ∅ (Eidelheitscher Trennungssatz). Beweis [Schaeffer], [Luenberger], [Werner]. Bei unendlichdimensionalen Vektorr¨ aumen darf in (3◦ ) die Bedingung int(C) = ∅ nicht weggelassen werden, selbst wenn C kompakt ist; vgl. [Marti]. F¨ ur endlichdimensionale Vektorr¨ aume l¨ asst sich Satz 1.24(2◦ ) in einfacher Weise direkt beweisen:
64
1 Mathematische Hilfsmittel
Lemma 1.18. Es sei ∅ = C ⊂ Rn abgeschlossen und konvex, und es sei 0 ∈ / C. ur alle x ∈ C gilt y T x > α > Dann gibt es ein y ∈ Rn und ein α > 0 so, dass f¨ 0 , d.h. die Hyperebene H = {x ∈ Rn , y T x = α} trennt C und {0} im strengen Sinn. Beweis. F¨ ur hinreichend großes β ist die kompakte Menge U := {x ∈ Rn , x ≤ β} ∩ C nicht leer, daher nimmt die stetige Funktion f : x → x auf U ihr Minimum in einem Punkt y = 0 an. Weil C konvex ist, gilt dann f¨ ur alle x ∈ C y + λ(x − y)2 ≥ y2 , λ ∈ [0, 1] , oder
λ2 (x − y)T (y − x) + 2λy T (x − y) ≥ 0 , λ ∈ [0, 1].
F¨ ur λ → 0 folgt y T (x − y) ≥ 0, d.h. y T x ≥ y T y > y T y/4 =: α > 0 .
/ K, Lemma 1.19. Ist K ⊂ Rn ein positiver, abgeschlossener Kegel und b ∈ dann gibt es ein y ∈ Kd mit y T b < 0 (also ist stets Kd = ∅). Beweis. Weil K abgeschlossen und konvex ist, existiert nach einer leichten Modifikation von Lemma 1.18 ein y ∈ Rn mit y T b < α < inf x∈K y T x .
(1.55)
Wegen 0 ∈ K gilt α ≤ 0. Sei u ∈ K mit y T u < 0 . Wegen λu ∈ K, λ ≥ 0, existiert w = λu mit y T w = λy T u < α. Das ist ein Widerspruch zu (1.55). Es gilt also y T u ≥ 0 f¨ ur alle u ∈ K, daher ist y ∈ Kd nach Definition. Die Verallgemeinerung dieses Resultats auf beliebige normierte Vektorr¨aume l¨ asst sich nur mit Satz 1.24 beweisen: Lemma 1.20. Ist K ⊂ X ein konvexer abgeschlossener Kegel und b ∈ / K, dann gibt es ein y ∈ Kd mit y(b) < 0 . Beweis. Nach dem Trennungssatz gibt es ein y ∈ Xd mit y(b) < α < inf x∈K y(x) .
(1.56)
Wegen 0 ∈ K folgt α ≤ 0. Sei u ∈ K mit y(u) < 0 . Wegen λu ∈ K, λ ≥ 0 gibt es dann ein w = λu mit y(w) = λy(u) < α was der Ungleichung (1.56) widerspricht. Also gilt y(u) ≥ 0 f¨ ur all u ∈ K und nach Definition gilt y ∈ Kd . (c) Kegeleigenschaften Als einfache Folgerung aus Lemma 1.20 erhalten wir das sogenannte Kegel-Lemma: Lemma 1.21. Ist K ⊂ X ein konvexer abgeschlossener Kegel, dann gilt x ∈ K ⇐⇒ (∀ y ∈ Kd =⇒ y(x) ≥ 0) .
1.10 Konvexe Mengen und Funktionen
65
Beweis. Die rechte Seite folgt aus der linken Seite nach Definition. Die Verneinung der rechten Seite folgt aus der Verneinung der linken Seite nach Lemma 1.20. Lemma 1.22. (Kegel-Einschließungssatz) Sind K, L ⊂ X konvexe Kegel und ist L abgeschlossen, dann gilt K ⊂ L ⇐⇒ Ld ⊂ Kd .
Beweis. Offenbar folgt die rechte Seite aus der linken Seite. Aus der Verneinung der linken Seite folgt die Existenz eines Elementes x ∈ K mit x ∈ / L . Nach dem Kegel-Lemma gibt es dann ein y ∈ Ld so, dass y(x) < 0 gilt, also ist y∈ / Kd . Daraus folgt die Verneinung der rechten Seite. ur alle Lemma 1.23. (1◦ ) Ist K ⊂ X ein Kegel, y ∈ Xd , c ∈ R und y(x) ≥ c f¨ x ∈ K , dann gilt y ∈ Kd und c ≤ 0 . ur alle (2◦ ) Ist M ⊂ X beliebig und 0 = y ∈ Md , dann gilt y(x) > 0 f¨ x ∈ int(M) . Beweis. (1◦ ) Zun¨achst folgt c ≤ 0 aus y(0) = 0 ≥ c . Angenommen, es gibt ein x ∈ K mit y(x) < 0 , dann folgt y(λx) = λy(x) → −∞, λ → ∞ , was ein Widerspruch ist, weil y(λx) ≥ c f¨ ur alle λ > 0 gilt. (2◦ ) Angenommen, es gibt ein x ∈ int(M) mit y(x) = 0 , dann gibt es zu jedem u ∈ X ein τ > 0 so, dass x ± τ u ∈ M . Dann gilt ±y(u) ≥ 0 f¨ ur alle u ∈ X , also y(u) = 0 f¨ ur alle u ∈ X . Daraus folgt y = 0 im Widerspruch zur Voraussetzung. Das n¨ achste Ergebnis f¨ uhrt zu einer notwendigen und hinreichenden Bedingung f¨ ur die Existenz vorzeichenbeschr¨ ankter L¨osungen bei linearen Gleichungssystemen. Lemma 1.24. ( Farkas 1902) Es seien X , Y normierte Vektorr¨ aume, K ⊂ X ein konvexer abgeschlossener Kegel, A ∈ L(X , Y) und b ∈ Y . Dann gilt b ∈ A(K) ⇐⇒ (Ad u ∈ Kd =⇒ u(b) ≥ 0) , wenn A(K) abgeschlossen ist. Beweis. =⇒“. Sei b = Ax f¨ ur ein x ∈ K . Wenn Ad u ∈ Kd gilt, dann folgt ” u(Ax) = u(b) ≥ 0 wegen Ad u = u A , also u(Ax) = (Ad u)x . ⇐=“. Es gilt ” Ad u ∈ Kd ⇐⇒ ∀ x ∈ K : (Ad u)x = (u A)(x) ≥ 0 ⇐⇒ ∀ x ∈ K : u(Ax) ≥ 0 ⇐⇒ u ∈ [A(K)]d .
66
1 Mathematische Hilfsmittel
Ebenso besagt u(b) ≥ 0 , dass u ∈ Md f¨ ur den durch M = {α b, α ≥ 0} definierten Kegel gilt. Die rechte Seite besagt also, dass [A(K)]d ⊂ Md . Weil A(K) abgeschlossen ist, kann der Kegel-Einschließungssatz angewendet werden: [A(K)]d ⊂ Md =⇒ M ⊂ A(K) . M ⊂ A(K) besagt aber, dass b ∈ A(K) gilt. Ist nun K = Rn+ , also x ≥ 0 ⇐⇒ xi ≥ 0 ∀ i , dann ist K = Kd . Der f¨ ur lineare Gleichungssysteme grundlegende Satz 1.2 hat ein Analogon f¨ ur vorzeichenbeschr¨ ankte Gleichungssysteme im Lemma von Farkas. Um die ¨ Ahnlichkeit der Aussagen hervorzuheben, geben wir Satz 1.2 nachfolgend in der ¨ aquivalenten Form (1◦ ) und das Ergebnis von Farkas in der Form (2◦ ) an: Folgerung 1.8. (1◦ ) Ax = y ⇐⇒ (AT z = 0 =⇒ y T z = 0) (2◦ ) Ax = y ∧ x ≥ 0 ⇐⇒ (AT z ≥ 0 =⇒ y T z ≥ 0)
.
(d) Konvexe Funktionen Ist C ⊂ X konvex, dann heißt eine Funktion f : C → R konvex, wenn ∀ x, y ∈ C
∀ λ ∈ [0, 1] : f (x + λ(y − x)) ≤ (1 − λ)f (x) + λf (y) .
f : C → R heißt konkav, wenn −f konvex ist. Sind X , Y Vektorr¨aume, C ⊂ X konvex und K ⊂ Y ein positiver Kegel, dann heißtf : C → Y K-konvex, wenn ∀ x, y ∈ C, ∀ λ ∈ [0, 1] : f (x + λ(y − x)) ≤ (1 − λ)f (x) + λf (y) . Die Konvexit¨ at von f h¨ angt also stark von der jeweiligen Definition des Ordnungskegels ab. Wenn dieser Kegel fest gew¨ahlt ist, schreibt man konvex“ ” statt K-konvex“. ” Beispiel 1.26. (1◦ ) Eine Norm ist stets eine konvexe Funktion. (2◦ ) Genau die affin-linearen Funktionen sind konvex und konkav. (3◦ ) Sind f und g konvex und α ∈ R, dann sind auch αf und f + g konvex. ur X = L2 [0, 1] ist (4◦ ) F¨
1
(x2 + |x|)dt ∈ R
f : X x → 0
konvex auf X . (5◦ ) Sind f, g, h : C → R konvex, dann ist auch die Menge {x ∈ C, f (x) ≤ a, g(x) ≤ b, h(x) ≤ c} konvex. (6◦ ) Ist μ = inf x∈C f (x), dann ist {x ∈ C, f (x) = μ} konvex ( ∅ konvex).
1.10 Konvexe Mengen und Funktionen
67
(7◦ ) Sind X ,Y zwei Vektorr¨ aume, C ⊂ X konvex und g : C → Y konvex, dann ist {x ∈ C, g(x) ≤ y} eine konvexe Menge f¨ ur alle y ∈ Y . Lemma 1.25. Es sei C ⊂ X konvex und f : C → R konvex. (1◦ ) Ist dim(X ) < ∞, dann ist f stetig in int(C) (!). (2◦ ) Ist x∗ ein lokales Minimum von f , dann ist x∗ globales Minimum von f. (3◦ ) Ist f streng konvex und x∗ ein lokales Minimum von f , dann ist x∗ das eindeutige globale Minimum von f in C . Beweis. (1◦ ) [Luenberger], S. 194. ur alle x ∈ U(x∗ )∩C mit einer offenen Umgebung U(x∗ ) (2◦ ) Sei f (x∗ ) ≤ f (x) f¨ ∗ von x , und sei y ∈ C beliebig, dann gibt es ein x ∈ U(x∗ ) so, dass gilt x = λx∗ + (1 − λ)y , 0 < λ < 1 . Daraus folgt f (x∗ ) ≤ f (x) ≤ λf (x∗ ) + (1 − λ)f (y) oder (1 − λ)f (x∗ ) ≤ (1 − λ)f (y) , also die Behauptung. (3◦ ) Zwei lokale Minimalstellen x∗ , y ∗ sind hier globale Minimalstellen nach (2◦ ). Wegen λx∗ + (1 − λ)y ∗ ∈ C, 0 < λ < 1 , folgt f (λx∗ + (1 − λ)y ∗ ) < λf (x∗ ) + (1 − λ)f (y ∗ ) = f (y ∗ ). Das ist ein Widerspruch, weil x∗ und y ∗ beide globale Minimalstellen sind. Lemma 1.26. Es seien X , Y normierte Vektorr¨ aume, C ⊂ X konvex, K ⊂ Y positiver Kegel und f : C → Y F-differenzierbar in D ⊃ C offen. (1◦ ) f ist K-konvex g.d.w. ∀ x, y ∈ C : f (y) − f (x) − ∇f (x)(y − x) ∈ K .
(1.57)
(2◦ ) Ist X = Rn und f zweimal F-differenzierbar, dann ist f K-konvex g.d.w. ∀ y ∈ X : ∇∇f (x)[yy] ∈ K .
(1.58)
Beweis SUPPLEMENT\chap01b. Lemma 1.27. Es sei C ⊂ X konvex, f : C → R konvex und f F-differenzierbar in einer offenen Menge D ⊃ C . (1◦ ) Es gilt x∗ = Arg Min x∈C f (x) ⇐⇒ x∗ ∈ C, ∀ x ∈ C : ∇f (x∗ )(x − x∗ ) ≥ 0 . (2◦ ) Ist C zus¨ atzlich ein Kegel, dann gilt x∗ = Arg Min x∈C f (x) ⇐⇒ x∗ ∈ C , ∂f (x∗ )x∗ = 0, ∀ x ∈ C : ∇f (x∗ )x ≥ 0 . Hier muss nicht notwendig x∗ ∈ int(C) gelten. F¨ ur x ∈ int(C) folgt nat¨ urlich ∇f (x∗ ) = 0 aus ∇f (x∗ )z ≥ 0 ∀ z ∈ C .
68
1 Mathematische Hilfsmittel
Beweis. (1◦ ) Aus Lemma 1.26 folgt mit x = x∗ ∀ y ∈ C : f (y) ≥ f (x∗ ) + ∇f (x∗ )(y − x∗ ) ≥ f (x∗ ) . (2◦ ) Die linke Seite folgt aus der rechten Seite nach (1◦ ). Ist die linke Seite uglich h = x − x∗ f¨ ur jedes erf¨ ullt, dann ist x∗ ∈ C sicher Radialpunkt bez¨ x ∈ C , also nach Voraussetzung ∇f (x∗ )(x − x∗ ) ≥ 0 . x = x∗ /2 und x = 2x∗ liegen beide in dem Kegel C . Einsetzen ergibt x = x∗ /2 =⇒ ∇f (x∗ )x∗ ≤ 0 , x = 2x∗ =⇒ ∇f (x∗ )x∗ ≥ 0 . Daraus folgt ∇f (x∗ )x∗ = 0 und somit ∇f (x∗ )x ≥ 0 nach (1◦ ). Als direkte Folgerung erhalten wir ein Sattelpunktkriterium f¨ ur F-differenzierbare Funktionen. Lemma 1.28. Es seien X , Y normierte Vektorr¨ aume, ∅ = C ⊂ X , ∅ = D ⊂ Y jeweils konvex und abgeschlossen, und es sei f : C × D (x, y) → f (x, y) ∈ R ∀ x ∈ C : D y → f (x, y) konkav, stetig, F-differenzierbar ∀ y ∈ D : C x → f (x, y) konvex, stetig, F-differenzierbar . (1◦ ) (x∗ , y ∗ ) ist lokaler Sattelpunkt von f , d.h. ∀ (x, y) ∈ C × D : f (x∗ , y) ≤ f (x∗ , y ∗ ) ≤ f (x, y ∗ ) ,
(1.59)
g.d.w. mit partiellen F-Ableitungen gilt ∀ x ∈ C : ∇x f (x∗ , y ∗ )(x − x∗ ) ≥ 0 , ∀ y ∈ D : ∇y f (x∗ , y ∗ )(y − y ∗ ) ≤ 0 . (2◦ ) Sind C, D zus¨ atzlich konvexe Kegel mit den adjungierten Kegeln Cd , Dd , so gilt (1.59) g.d.w. ∇x f (x∗ , y ∗ ) ∈ Cd , ∇x f (x∗ , y ∗ )x∗ = 0 , −∇y f (x∗ , y ∗ ) ∈ Dd , ∇y f (x∗ , y ∗ )y ∗ = 0 . Literatur: [Craven95], [Ekeland], [Luenberger], [Marti], [Schaeffer].
1.11 Quadratische Funktionale
69
1.11 Quadratische Funktionale Es sei H ein Hilbert-Raum mit dem Skalarprodukt (, ◦). (a) Das Energiefunktional Es seien gegeben eine symmetrische Bilinearform a:H×H→R ein f ∈ Hd , d.h. lineares stetiges Funktional f : H → R eine abgeschlossene konvexe Teilmenge ∅ = U ⊂ H ein quadratisches Funktional J(v) = a(v, v) − 2 f (v)
.
In vielen Problemstellungen der Mechanik ist a(v, v) die (doppelte) innere Energie (Verformungsenergie), −f (v) die potentielle ¨außere Energie und J (v) die (doppelte) Gesamtenergie eines Systems im Zustand v . Die quadratische Form J(v) wird daher Energieform genannt. Nach dem Extremalprinzip nimmt sie im Gleichgewicht einen station¨ aren Wert an, der i.d.R. ein Minimum ist. In der Energiemethode geht es also um die theoretische und numerische L¨osung des Variationsproblems J(v) = Min!, v ∈ U . Dazu muss die Bilinearform a eine Norm ◦ a = (◦, ◦)1/2 auf U definieren, und diese Energienorm muss ¨ aquivalent zur kanonischen Norm ◦ = (◦, ◦)1/2 sein, d.h. es muss die folgende Voraussetzung gelten: Definition 1.4. Die Bilinearform a sei ein U-elliptisches Funktional, d.h. ankt U , (1◦ ) a(◦, ◦) ist beschr¨ ∃ β > 0 ∀ v ∈ U : a(v, v) ≤ β v2 . (2◦ ) a ist gleichm¨ aßig positiv definit auf U , ∃ α > 0 ∀ v ∈ U : a(v, v) ≥ α v2 .
70
1 Mathematische Hilfsmittel
y y = x2
x 2
y = x − 2x y = − 2x
Abb. 1.14. Zum Energiefunktional
Aus der Cauchy-Schwarz-Ungleichung folgt dann |a(u, v)| ≤ a(u, u)1/2 a(v, v)1/2 ≤ β uv , und die Bilinearform a ist somit beschr¨ ankt also stetig auf H × H . Satz 1.25. (EE-Satz f¨ ur Energieformen) Ist U ⊂ H konvex und abgeschlossen und ist a U-elliptisch, dann gibt es zu jedem f ∈ Hd genau ein u ∈ U mit der Eigenschaft u = Arg Minv∈U J(v) . Beweis. (1◦ ) d := Inf v∈U J(v) existiert, weil f ∈ Hd beschr¨ankt ist, und damit J(v) nach unten beschr¨ ankt ist: J(v) ≥ α v2 − 2f v = α−1 (αv − f )2 − (f 2 /α) ≥ −(f 2 /α) . (2◦ ) Sei {vm } eine Folge mit limm→∞ J (vm ) = d . Aus der Parallelogrammgleichung f¨ ur die Norm · a folgt α vm − vn 2a ≤ a(vm − vn , vm − vn ) = 2a(vm , vm ) + 2a(vn , vn ) − a(vm + vn , vm + vn ) −4f (vm ) − 4f (vn ) + 4[f (vm ) + f (vn )] = 2J(vm ) + 2J(vn ) − 4J((vm + vn )/2) ≤ 2J(vm ) + 2J(vn ) − 4d → 0 , weil (vm + vn )/2 in U liegt. Nach Definition von d strebt J(vm ) gegen d und J(vn ) gegen d , also ist {vm } eine Cauchy-Folge. Ihr Limes u liegt in U, weil U abgeschlossen ist. (3◦ ) Aus der Stetigkeit von J folgt limn→∞ J(vn ) = J(u) = inf v∈U J(v). osungen, dann bildet u , u∗ , u , u∗ , . . . ebenfalls (4◦ ) Sind u und u∗ zwei L¨ eine Minimalfolge. Jede Minimalfolge hat aber einen eindeutigen Grenzwert nach (2◦ ), also muss u = u∗ sein. Ist insbesondere U ⊂ H ein abgeschlossener Unterraum und u0 ∈ H , dann ist der affine Unterraum u0 + U abgeschlossen und konvex, und
1.11 Quadratische Funktionale
u = Arg Minv∈u0 +U J(v)
71
(1.60)
existiert eindeutig. Zur Reduktion auf ein Problem im Vektorraum U sei v = u0 + w , w ∈ U , dann gilt J(v) = J(u0 + w) = a(w, w) − 2g(w) + J(u0 ) mit g(w) = f (w) − a(u0 , w). Daher ist (1.60) ¨aquivalent mit der der Berechnung von (1.61) u = Arg Minv∈U (a(v, v) − 2g(v)) , wobei g beschr¨ ankt ist: ∀ v ∈ U : |g (v)| ≤ (f + β u0 ) v . Satz 1.26. (Charakterisierungssatz) In einem Hilbert-Raum H existiert u = Arg Minv∈U J(v)
(1.62)
genau dann eindeutig, wenn eine der folgenden Bedingungen gilt: (1◦ ) ∅ = U ⊂ H ist eine abgeschlossene konvexe Menge und ∃ u ∈ U ∀ v ∈ U : a(u , v − u) ≥ f (v − u) .
(1.63)
(2◦ ) U ⊂ H ist ein abgeschlossener Unterraum und ∃ u ∈ U ∀ v ∈ U : a(u, v) = f (v) .
(1.64)
(3◦ ) U ⊂ H ist ein abgeschlossener konvexer Kegel mit Spitze in Null und ∃ u ∈ U ∀ v ∈ U : a(u, v) ≥ f (v) , a(u, u) = f (u) .
(1.65)
Beweis. (1◦ ). Es sei v ∈ U beliebig, dann gilt w = (1 − λ) u + λv = u + λ (v − u) ∈ U f¨ ur 0 ≤ λ ≤ 1 , weil U konvex ist. Es sei ϕ (λ) = J (w) mit J(w) = J(u) + 2λ [a(u , v − u) − f (v − u)] + λ2 a(v − u, v − u) .
(1.66)
Nach Voraussetzung nimmt ϕ das Minimum an der Stelle λ = 0 an, deswegen gilt ϕ (0) ≥ 0 , woraus (1.63) folgt. Ist umgekehrt (1.63) erf¨ ullt, dann folgt aus (1.66) f¨ ur λ = 1 ∃ u ∈ U ∀ v ∈ U : J(v) ≥ J(u) + a(v − u, v − u) ≥ J(u) , also (1.62). Der Beweis von (2◦ ) verl¨ auft genauso. (3◦ ) Aus (1.65) folgt sofort (1.63) und damit (1.62) nach (1◦ ). Umgekehrt folgt aus (1.63) ∃ u ∀ v ∈ U : a(u, v) ≥ f (v) und a(u, u) ≥ f (u)
72
1 Mathematische Hilfsmittel
f¨ ur v := u + v bzw. v := 2u . Ist U Kegel mit Spitze in Null, dann gilt 0 ∈ U und daher nach (1.63) f¨ ur v = 0 −a(u, u) ≥ −f (u) =⇒ a(u, u) ≤ f (u) .
Die Gleichungen (1.63), (1.64) oder (1.65) werden Eulersche Gleichungen des Variationsproblems J (v) = Min ! , v ∈ U , genannt. Aus den S¨ atzen 1.25 und 1.26 ergeben sich einige interessante Folgerungen: Lemma 1.29. (Rieszscher Darstellungssatz) Ist H ein Hilbert-Raum und f ∈ Hd , dann gibt es ein eindeutiges uf ∈ H mit ∀ v ∈ H : f (v) = (uf , v) . Beweis. F¨ ur U = H und das kanonische Skalarprodukt a(· , ◦) = (· , ◦) folgt die Behauptung sofort aus dem EE–Satz und dem Charakterisierungssatz. Die umkehrbar eindeutige Zuordnung von uf ∈ H zu f ∈ Hd heißt kanonischer Isomorphismus oder Riesz-Abbildung. Man unterscheidet dann nicht mehr zwischen den beiden (verschiedenen) Elementen, schreibt f statt uf , also f (v) = (f, v) (ein Symbol mit zwei Bedeutungen); auf diese Weise wird also Hd mit H kanonisch identifiziert, Hd = H . (b) Operatoren im Hilbertraum Sind X , Y Hilbert-R¨aume und L : X → Y eine lineare, beschr¨ ankte Abbildung – kurz L ∈ L(X , Y) , dann ist verm¨oge der kanonischen Identifizierung der adjungierte Operator Ld : Y → X definiert durch (x, Ld y)X = (y, Lx)Y Wenn X = Y ist und Ld = L , also ∀ x, y ∈ X : (y, Lx) = (x, Ly) ,
(1.67)
dann heißt der Operator L selbstadjungiert oder symmetrisch. Nat¨ urlich definiert jeder Operator L ∈ L(X , X ) eine Bilinearform a(u, v) := (u, Lv) , aber es gilt auch die Umkehrung: Satz 1.27. (Lax-Milgram) Es sei a : H×H → R eine elliptische, aber nicht notwendig symmetrische Bilinearform. Dann gibt es zu jedem f ∈ Hd (= H) genau ein u ∈ H , so dass ∀ v ∈ H : a(u, v) = (f, v) .
(1.68)
Durch (1.68) ist ein bijektiver und stetiger Operator L−1 : Hd → H definiert, also folgt ∀ u, v ∈ H : a(u, v) = (Lu, v) . Der lineare Operator L ist genau dann symmetrisch, wenn die Bilinearform a symmetrisch ist.
1.11 Quadratische Funktionale
73
Beispiel 1.27. Es seien X = Y = L2 [0, 1] , es sei L ∈ L(X , Y) definiert durch t Lx = K(t, s)x(s) ds , t ∈ [0, 1] , 0
mit stetigem Kern K(t, s) im Einheitsquadrat, und es sei 1 (f, g) = 0 f (x)g(x) dx das Skalarprodukt. Vertauschung der Integrationsreihenfolge ergibt t 1 t 1 y(t) K(t, s)x(s) dsdt = y(t)K(t, s)x(s) dsdt (y, Lx) = 0 0 0 0 1 1 1 1 = y(t)K(t, s)x(s) dtds = x(s) K(t, s)y(t) dt ds 0 s 0 s 1 1 = x(t) K(s, t)y(s) ds dt = (x, Ld y) . 0
t
Der adjungierte Operator Ld ist also gegeben durch 1 K(s, t)y(s) ds . Ld y = t
Beispiel 1.28. Es sei X = Y = H02 (Ω) , Ω ⊂ R2 und Lu = Δu = ux1 x1 + ux2 x2 der Laplace-Operator. Dann ergibt eine Anwendung der Greenschen Formel (1.23) ∂ϕ ∂ψ +ψ [ϕΔψ − ψΔϕ] dV = ϕ dO = 0 , ∂n ∂n Ω ∂Ω also ist dieser Operator auf H02 (Ω) symmetrisch. (c) Projektoren im Hilbertraum Satz 1.28. (Projektionssatz) Ist H ein Hilbert-Raum und ∅ = U ⊂ H eine abgeschlossene und konvexe Teilmenge, dann gilt ∀w∈H
∃! u ∈ U : w − u = inf v∈U w − v .
(1.69)
Beweis. Man betrachte f¨ ur feste w ∈ H das quadratische Funktional J(v) = w − v2 − w2 = (v, v) − 2(w, v) und wende den EE-Satz an.
Das Element u aus (1.69) heißt Projektion von w auf U, und man schreibt daher u = P w mit dem Projektionsoperator P . F¨ ur J(v) = (v, v) − 2(w, v) folgt aus dem Charakterisierungssatz direkt
74
1 Mathematische Hilfsmittel
Lemma 1.30. (Charakterisierung der Projektion) Es sei H ein HilbertRaum und ∅ = U ⊂ H eine konvexe abgeschlossene Menge. (1◦ ) Genau dann gilt u = P w , wenn ∀ v ∈ U : (w − u , v − u) ≤ 0 .
(1.70)
(2◦ ) Wenn U ein abgeschlossener Unterraum ist, dann gilt u = P w g.d.w. ∀ v ∈ U : (w − u , v) = 0 .
(1.71)
Definiert man f¨ ur u, v ∈ H (u, v) cos ϕ = , 0 ≤ ϕ ≤ π, u v dann bedeutet (1.70), dass der Winkel ϕ zwischen w−v und v −u nicht kleiner als π/2 ist. Weitere Eigenschaften des Projektionsoperators: Lemma 1.31. (1◦ ) (Kontraktion, Stetigkeit) Unter der Voraussetzung von Satz 1.28 gilt ∀ v, w ∈ H : P v − P w ≤ v − w . (2◦ ) (Linearit¨ at) Genau dann ist der Projektionsoperator P eine lineare Abbildung, P : H → U , wenn U ein linearer Unterraum ist. Beweise SUPPLEMENT\chap01b. Ein Projektor P von H heißt orthogonal, wenn Ker(P ) = Range(P )⊥ gilt. In der Zerlegung H = Range(P ) ⊕ Ker(P ) ist dann also H = Range(P ) ⊕ [Range(P )]⊥ = [Ker(P )]⊥ ⊕ Ker(P ) .
φ ≥ π/2 w
v
u
Abb. 1.15. Zu Lemma 1.30(1◦ )
w
v
Pw
Pv
Abb. 1.16. Zu Lemma 1.31(1◦ )
Satz 1.29. (1◦ ) Ein Projektor P eines Hilbert-Raumes ist orthogonal g.d.w. er symmetrisch ist. (2◦ ) Ein orthogonaler Projektor ist stetig. (3◦ ) Wenn U ⊂ H eine Untermenge ist, dann ist U ⊥ ein abgeschlossener Unterraum. (4◦ ) Wenn U ⊂ H ein abgeschlossener Unterraum ist, dann ist H = U ⊕ U ⊥ , und es gibt einem orthogonalen Projektor P mit Range(P ) = U . Beweis [Taylor].
1.11 Quadratische Funktionale
75
(d) Eigenschaften des Energiefunktionals Lemma 1.32. Es sei u = Arg Minv∈U J(v) , dann gilt (1◦ ) J(u) = −a(u, u) ( Gesamtenergie = negative Verzerrungsenergie“), ” (2◦ ) ∀ v ∈ U : J(v) − J(u) = a(v − u, v − u) ( Fehler der Gesamtenergie = ” innere Energie des Fehlers“). Beweis. (1◦ ) Der Charakterisierungssatz ergibt a(u, v) = f (v) ∀ v ∈ U . Wegen u ∈ U folgt a(u, u) = f (u) , also J(u) = a(u, u) − 2a(u, u) = −a(u, u) . (2◦ ) Wegen w = v − u ∈ U und a(u, w) = f (w) gilt J(v) = J(u + w) = a(u, u) + 2a(u, w) + a(w, w) − 2f (u) − 2f (w) = J(u) + a(w, w) . (e) Die Ritz-N¨ aherung Es seien weiterhin die Voraussetzungen des EE– Satzes erf¨ ullt, und es sei U ⊂ H ein Unterraum. Die Idee von Ritz besteht darin, das Extremalproblem J(v) = a(v, v) − 2(f, v) = Min! , v ∈ U , bzw. die ¨ aquivalenten Variationsgleichungen auf einem endlichdimensionalen Unterraum zu l¨ osen. Der folgende Satz wird h¨aufig als Hauptsatz der RitzTheorie bezeichnet. Satz 1.30. Es seien R ⊂ U ⊂ H abgeschlossene Unterr¨ aume und u = Arg Minv∈U J(v) , uR = Arg Minv∈R J(v) . Dann sind die folgenden Aussagen ¨ aquivalent: (1◦ ) uR ist Galerkin-N¨ aherung“: ∀ v ∈ R : a(uR , v) = (f, v) , ” (2◦ ) bez. Energie steht u − uR senkrecht auf R“: ” ∀ v ∈ R : a(u − uR , v) = 0 , (3◦ ) uR minimiert Energie des Fehlers“: ” ∀ w ∈ R : a(u − uR , u − uR ) ≤ a(u − w, u − w) . Beweis. (1◦ ) =⇒ (2◦ ). Es gilt a(u, v) = (f, v) ∀ v ∈ R ⊂ U, also ∀ v ∈ R : a(u, v) − a(uR , v) = (f, v) − (f, v) = 0 . (2◦ ) =⇒ (1◦ ). Es gilt ∀ v ∈ R ⊂ U : a(uR , v) = (f, v) = a(u, v) .
76
1 Mathematische Hilfsmittel
(2◦ ) ⇐⇒ (3◦ ) Aus dem Charakterisierungssatz folgt f¨ ur J(w) = a(w − u, w − u) − a(u, u) = a(w, w) − 2a(u, w) , w ∈ U = R , die Ungleichung J(w) ≥ J(uR ) ⇐⇒ ∀ v ∈ R : a(uR , v) = a(u, v) .
Wegen (2◦ ) und Lemma 1.30 ist uR die Projektion von u auf R bez¨ uglich des Energieprodukts a( , ◦), daher heißt das Ritz-Verfahren auch Projektionsverfahren. Lemma 1.33. Energie des Fehlers = Fehler der Energie“: ” a(u − uR , u − uR ) = a(u, u) − a(uR , uR ) , insbesondere Ritz-N¨ aherung u atzt nie Energie“: ¨bersch¨ ” a(uR , uR ) ≤ a(u, u) . Beweis. Mit R statt U folgt J(uR ) = −a(uR , uR ) aus Lemma 1.32(1◦ ). Setzt man v = uR in Lemma 1.32(2◦ ), so ergibt sich J(uR ) = −a(uR , uR ) = a(u − uR , u − uR ) − a(u, u) .
Ist nun R = span{ϕ1 , . . . , ϕm } endlichdimensional, so heißt uR = u0 + aherung von u . Setzt man diesen Ansatz und v = ϕj j=1:m yj ϕj Ritz-N¨ sukzessive in a(v, ur ) = (v, f ) ein, so ergibt sich f¨ ur y = [y1 , . . . , ym ]T das lineare Gleichungssystem Ay = b,
m A = [a(ϕi , ϕj )]m i,j=1 , b = [(ϕj , f ) − a(ϕj , u0 )]j=1 .
Die Matrix A ist symmetrisch und positiv semidefinit. Wenn die Basisfunktionen ϕj linear unabh¨ angig sind, dann ist A positiv definit. Die Finite-Element-Methode (FEM) geht vom Extremalproblem oder vom zugeh¨ origen Variationsproblem aus und ben¨ utzt nur diese. Auf die klassische Formulierung als Randwertproblem kann dabei verzichtet werden. Zur Approximation wird hier der Funktionenraum der (schwachen) L¨osungen durch einen endlichen Unterraum ersetzt. Die Finite-Differenzen-Methode (FDM) geht von der klassischen Formulierung eines Problems als Randwertproblem aus. Die Formulierung als Variationsproblem kann dabei unbeachtet bleiben. Zur Approximation wird hier der Definitionsbereich der L¨osungen durch ein Gitter mit endlich vielen Elementen ersetzt. Literatur: [Ciarlet79], [Velte].
2 Numerische Methoden
Bevor der Computer (franz. ordinateur) die Welt ver¨anderte, konnte sich die Numerische Mathematik – von Sp¨ ottern gern als ph¨anomenologisch bezeichnet – kaum zu den K¨ onigsdisziplinen der Mathematischen Wissenschaften rechnen. Ob es heute der Fall ist, sei dahin gestellt, aber im Verbund mit Modellierung und Simulation ist sie in der Hierarchie aufgestiegen und letztere m¨ ussen sogar teilweise zur Existenzberechtigung der anderen F¨acher herhalten. In den Sechziger Jahren des vorigen Jahrhunderts wurden noch Integrimeter, Integraph und harmonischer Oszillator in Vorlesungen u ¨ber Instrumentelle Mathematik behandelt. L¨ angst sind sie der Vergessenheit anheimgefallen ebenso wie alle numerischen Verfahren f¨ ur die Handrechenmaschine z.B. das Wurzelziehen durch Subtraktion ungerader Zahlen. Mit der st¨ urmischen Entwicklung des Computers zum Laptop konnte die Numerische Mathematik mit einigem Abstand erfolgreich mithalten. Mathematische Tafelwerke sind durch den Taschenrechner ersetzt, und lineare Gleichungssystem – eine zentrales Problem – werden heute mit drei unscheinbaren Glyphen A\b gel¨ ost, ohne einen Stilbruch zu begehen. Eine F¨ ulle von Monographien dokumentiert das bisher Erreichte, exemplarisch genannt seien nur [Golub], [Hairer] und [Rheinboldt70]. Auch scheint die Kurve der Publikationszahlen mit rein numerischen Themenstellungen etwas flacher zu werden, w¨ ahrend auf der anderen Seite problembezogene Anwendungen zunehmen. Wenn Numerische Methoden in einem einzigen Kapitel beschrieben werden sollen, ist Mut zur L¨ ucke angesagt. Der Verfasser geht davon aus, dass der Leser in erster Linie vorhandene Codes anwenden will, was aber nicht ohne ein Mindestmaß an Verst¨ andnis und Einf¨ uhlungsverm¨ogen geht. Unter dieser Pr¨ amisse soll hier in die Denkweise der Numerik eingef¨ uhrt aber auch anspruchsvollere Entwicklungen wie Mehrzielverfahren und differentialalgebraische Probleme angesprochen werden. Der Numerische Teil des Buches ersch¨ opft sich nicht in den hier behandelten Themen, weitere Problemkreise werden sp¨ ater behandelt, wenn die notwendigen theoretischen Grundlagen vorhanden sind. E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 2, c Springer-Verlag Berlin Heidelberg 2010
78
2 Numerische Methoden
2.1 Interpolation und Approximation Vielfach liegt eine Funktion f nur als Datensatz vor oder muss durch eine leichter integrierbare Funktion ersetzt werden. Dann wird sie im Regelfall st¨ uckweise durch ein Polynom m¨ aßigen Grades approximiert, weil Polynome hohen Grades in gr¨ oßeren Intervallen stark oszillieren. Es sei Πn die Menge der reellen Polynome pn vom Grad ≤ n . Mit der u ¨blichen Addition und skalaren Multiplikation ist Πn ein Vektorraum der Dimension n + 1, dessen Basis {q0 (x), . . . , qn (x)} je nach den gestellten Anforderungen geeignet gew¨ ahlt wird. (a) Das allgemeine Interpolationsproblem Gegeben sei eine Folge von St¨ utzstellen {xi }∞ i=0 , xi ∈ R , ∞ eine Folge von St¨ utzwerten {fi }i=0 , fi ∈ R , eine Folge von Funktionen {gi }∞ i=0 , gi ∈ C[a, b] . Die St¨ utzstellen xi sollen alle verschieden sein, f¨ ur den anderen Fall verweisen wir auf [Hoellig] § 3.1. Gesucht ist eine Folge von Funktionen {hn }∞ n=1 , hn (x) =
n−1
αi gi (x)
(2.1)
i=0
mit der Interpolationseigenschaft hn (xj ) = fj , j = 0 : n − 1 .
(2.2)
Schreibt man a = [α0 , . . . , αn−1 ]T und f = [f0 , . . . , fn−1 ]T , dann ist (2.1) f¨ ur festes n ¨ aquivalent mit dem linearen Gleichungssystem Aa = f,
n−1 A = gi (xj ) i,j=0 ,
(2.3)
und das Interpolationsproblem (2.1), (2.2) ist eindeutig l¨osbar, wenn die Matrix A regul¨ ar ist. Satz 2.1. (EE-Satz, Haar-Bedingung) Wenn alle n St¨ utzstellen xj , j = 0 : n − 1 , verschieden sind und jede nicht identisch verschwindende Linearkomochstens n − 1 Nullstellen hat, bination von n Funktionen gi , i = 0 : n − 1 , h¨ dann ist die Matrix A regul¨ ar und damit das Interpolationsproblem eindeutig l¨ osbar.
2.1 Interpolation und Approximation
79
Beweis. Ist die Matrix A singul¨ ar, dann gibt es einen Vektor c ∈ Rn mit c A = 0 ∈ Rn . Dann hat aber die Linearkombination h(x) := i=0:n−1 ci gi (x) die n verschiedenen Nullstellen x0 , . . . , xn−1 wegen h(xj ) = i=0:n−1 ci gi (xj ) = 0, j = 0 : n − 1 ,
im Widerspruch zur Voraussetzung. {pn }∞ n=0
Die Haar-Bedingung ist insbesondere f¨ ur eine Folge von Polynomen ullt, weil dann jede nicht identisch verschwindende Linearkombipn ∈ Πn erf¨ ochstens nation h(x) := i=0:n−1 ci pi (x) als Polynom vom Grad ≤ n − 1 h¨ n−1 Nullstellen haben kann. I.A. hat aber die Matrix A in (2.3) eine schlechte Kondition, deswegen wird dieses lineare Gleichungssystem nicht zur Berechnung der Gewichte αi verwendet. (b) Interpolationspolynome Zur Bestimmung einer linearen Rekursionsformel f¨ ur Interpolationspolynome sei {j0 , . . . , jm } ⊂ {0, . . . , n} eine Indexmenge mit lauter verschiedenen Eintr¨ agen, dann ist das Interpolationspolynom pj0 ,...,jm (x) ∈ Πm nach dem EE-Satz eindeutig bestimmt durch = f (xj ) , m = 0 , pj (x) pj0 ,...,jm (xi ) = f (xi ) , i = j0 , . . . , jm , m = 1 : n ,
(2.4)
insbesondere ist pj0 ,...,jm (x) unabh¨ angig von der Reihenfolge der Indizes. Lemma 2.1. (Aitken) F¨ ur j = 0 : n − m, m = 1 : n gilt pj,...,j+m (x) =
1 xj+m − xj
(x−xj )pj+1,...,j+m (x)−(x−xj+m )pj,...,j+m−1 (x) .
Diese Formel wird in verschiedenen Anwendungen zur schnellen Berechnung von Interpolationspolynomen an einer festen Stelle x verwendet. Satz 2.2. (Cauchy-Restglied) Die Funktion f sei (n+1)-mal differenzierbar in [a, b], und es sei [u, v, . . . , w] das kleinste Intervall I ⊂ R mit u, v, . . . , w ∈ I. ∀ x ∈ [a, b] ∃ ξx ∈ [x0 , . . . , xn , x]: f (x) − pn (x; f ) =
f (n+1) (ξx ) ω(x) , ω(x) = (x − x0 ) · · · (x − xn ) . (n + 1)!
(2.5)
Beweis SUPPLEMENT\chap02. (c) Interpolation nach Lagrange Wir betrachten die Approximation einer Funktion f durch ein Interpolationspolynom in der separierten Form f (x) ≈ pn (x; f ) =
n i=0
f (xi )qi (x)
(2.6)
80
2 Numerische Methoden
mit der Basis {q0 , . . . , qn } von Πn der Lagrange-Grundpolynome qi (x) =
n j=0,j =i
x − xj , i = 0 : n. xi − xj
(2.7)
Wegen qi (xj ) = δ i j (Kronecker-Symbol) ist die Interpolationseigenschaft pn (xi ; f ) = f (xi ) gesichert. Eigenschaften: (1◦ ) Die Interpolation nach Lagrange ist von hohem theoretischen aber geringen praktischen Wert, weil bei Hinzunahme einer weiteren St¨ utzstelle ussen. alle Grundpolynome qi (x) neu berechnet werden m¨ f¨ ur alle Monome f (x) = xk , k = 0 : n , (2◦ ) Nach dem EE-Satzk ist die Formel k exakt: i=0:n (xi ) qi (x) = x , k = 0 : n , insbesondere gilt die Zerlegung der Eins i=0:n qi (x) = 1. aquidistanten St¨ utzstellen, h = 1/n , xi = x0 + ih , x = x0 + sh, (3◦ ) Bei ¨ s ∈ [0, n] , vereinfacht sich die Formel (2.6) wegen s−j x − xj (x0 + sh) − (x0 + jh) = = xi − xj (x0 + ih) − (x0 + jh) i−j erheblich zu pn (x(s); f ) =
n
f (xi )qi (x(s)) , qi (x(s)) =
i=0
n j=0,j =i
s−j . i−j
(2.8)
Diese Darstellung wird zur Konstruktion von numerischen Quadraturformeln verwendet wie auch zur Konstruktion von N¨aherungsverfahren f¨ ur Anfangswertprobleme gew¨ ohnlicher Differentialsysteme. (d) Interpolation nach Newton Es sei f [xj0 , . . . , xjm ] der H¨ochstkoeffizient von pj0 ,...,jm (x), dann gilt nach Lemma 2.1 f [xj , . . . , xj+m ] =
f [xj+1 , . . . , xj+m ] − f [xj , . . . , xj+m−1 ] . xj+m − xj
(2.9)
Diese dividierten Differenzen h¨ angen nicht von der Reihenfolge der Indizes ab, weil die zugeh¨ origen Polynome diese Eigenschaft haben. W¨ahlt man die Newton-Basis f¨ ur Πn , n0 (x) ≡ 1 , nj (x) = (x − x0 ) · · · (x − xj−1 ) , j = 1 : n , dann gilt p0,...,n (x; f ) =
n j=0
aj nj (x) , aj = f [x0 , . . . , xj ] ,
= (· · · (an (x − xn−1 ) + an−1 )(x − xn−2 ) + an−2 ) · · · )(x − x0 ) + a0
(2.10)
2.1 Interpolation und Approximation
81
wegen der f¨ ur dieses Polynom typischen Rekursionsformel p0,...,n (x) = p0,...,n−1 (x) + an π(x) , π(x) = (x − x0 ) · · · (x − xn−1 ) ∈ Πn und der Interpolationseigenschaft. f (i) (x0 ) (x − x0 )i steht sozusagen am i! i=0:n anderen Ende der Skala bei der Approximation mit Polynomen. Mit Hilfe von (2.9) l¨ asst sich eine nat¨ urliche Beziehung zwischen den Taylor-Koeffizienten und den dividierten Differenzen als Koeffizienten des Newton-Polynoms herstellen:
Das Taylor-Polynom pn (x; f ) =
Lemma 2.2. f [xi , . . . , xi+k ] =
f (k) (ξ) , ξ ∈ [xi , . . . , xi+k ] . k!
Beweis. Es sei pi,...,i+k (x) das Newtonsche Interpolationspolynom vom Grad ≤ k zu den Knoten (xj , fj ), j = i : i + k − 1 , und (xi+k , fi+k ) = (x, f (x)) , wobei alle Abszissen xj und x verschieden sein sollen. Dann gilt einerseits an der Stelle xi+k = x f (x) = pi,...,i+k (x) = pi,...,i+k−1 (x) + f [xi , . . . , xi+k ](x − xi ) · · · (x − xi+k−1 ) und andererseits die Restgliedformel f¨ ur pi,...,i+k (x) f (x) = pi,...,i+k−1 (x) +
f (k) (ξ) (x − xi ) · · · (x − xi+k−1 ). k!
(e) Bei Hinzunahme der Ableitungen von f an den St¨ utzstellen xi entstehen Interpolationspolynome nach Hermite: f (x) ≈ h2n+1 (x, f ) =
n
[f (xi )h0,i (x) + f (xi )h1,i (x)] ∈ Π2n+1
i=0
mit den Hermite-Grundpolynomen h0,i (x) = 1 − 2qi (xi )(x − xi ) qi (x)2 =⇒ h0,i (xk ) = δ i k , h0,i (xk ) = 0 , h1,i (x) = (x − xi )qi (x)2
=⇒ h1,i (xk ) = 0 , h1,i (xk ) = δ i k ,
wobei qi (x) die Lagrange-Grundpolynome sind. Das Restglied hat die gleiche Form wie in (2.5): f (x) − h2n+1 (x, f ) =
f (2n+1) (ξx ) ω(x) , ω(x) = (x − x0 )2 · · · (x − xn )2 . (n + 1)!
Die Erh¨ ohung des Grades n bei einem Interpolationspolynom verbessert i.a. nicht die Approximationsg¨ ute, daher ist segmentweise Interpolation mit einfachen Polynomen vorzuziehen. Bei globalen Glattheitsforderungen an die zusammengesetzten Polynome ergeben sich dann die interpolierenden SplineFunktionen, vgl. (g).
82
2 Numerische Methoden 2
p
1.5 1 0.5
6
p4
0 −5
f(x)−4
−3
−2
−1
0
1
2
3
4
5
Abb. 2.1. Interpolationspolynom vom Grad n = 4, 6 f¨ ur f (x) = 1/(1 + x2 )
(f ) Approximation mit Bezi´ er-Polynomen In einem festen – nicht gest¨ uckelten – Intervall werden wesentlich bessere Approximationsergebnisur se erzielt, wenn die strenge Interpolationsbedingung pn (xi ; f ) = f (xi ) f¨ St¨ utzpunkte im Innern aufgegeben wird. Aus der Zerlegung der Eins n n n i n Bin (x) x (1 − x)n−i =: 1 = (x + (1 − x)) = i i=0 i=0 ergibt sich die Basis der Bernstein-Polynome Bin (x) von Πn und die allgemei´r-Polynom mit den Bezie ´r-Punkten ne Darstellung von pn ∈ Πn als Bezie bi , (2.11) pn,bez (x) = b0 B0n (x) + . . . + bn Bnn (x) . Die Nullstellen aller Bin (x) liegen auf dem Rand des Einheitsintervalls [0, 1], und im Innern existiert genau ein Extremalpunkt (Maximumpunkt). Daher haben die Bernstein-Polynome keine Wendepunkte im Einheitsintervall, und ´r-Polynomen werden durch die Approximation einer Funktion f mit Bezie keine unerw¨ unschten Wendepunkte eingeschleppt. Allerdings muss man sich auf die Approximation im Einheitsintervall beschr¨anken, andernfalls muss um¨ skaliert werden; im Ubrigen ist auch hier die st¨ uckweise Approximation vorzuziehen. Eigenschaften: (1◦ )
n i=0
Bin (x) = 1 ,
n i i=0
n
Bin (x) = x.
◦
(2 ) Mit den Vorw¨ arts-Differenzen Δbi = bi+1 − bi , Δk bi = Δ(Δk−1 bi ) berechnet man die Ableitungen (k)
pn,bez (x) =
n−k n! (Δk bi )Bin−k (x) , (n − k)! i=0
woraus die o.g. wichtige Eigenschaft ∀ i : Δk bi ≥ 0 =⇒ ∀ x ∈ [0, 1] : p(k) (x) ≥ 0 folgt. Ferner h¨ angen die k-ten Ableitungen in x = 0 bzw. x = 1 nur von ´r-Punkten b0 , . . . , bk bzw. bn−k , . . . , bn ab. den Bezie
2.1 Interpolation und Approximation
83
´r-Punkte {br , . . . , bs } f¨ (3◦ ) Sind s − r + 1 aufeinanderfolgende Bezie ur die Abszissen x = (i − r)/(s − r), i = r : s , gegeben, dann ist br,...,s (x) :=
s
s−r bi Bi−r (x)
i=r
´r-Polynom vom Grad ≤ s − r (h¨angt von der Reidas zugeh¨ orige Bezie henfolge der Punkte ab!). Mit Hilfe des Additionstheorems f¨ ur Binomialkoeffizienten l¨ asst sich die lineare Rekursionsformel von De Casteljau herleiten, br,...,s (x) = (1 − x)br,...,s−1 (x) + xbr+1,...,s (x) , die an Stelle der algebraischen Darstellung (2.11) zur punktweisen Berechnung von pn,bez (x) verwendet wird. ´r(4◦ ) Die Punkte (xi , bi ) = (i/n, f (i/n)) ∈ R2 , i = 0 : n , heißen Bezie ´r-Punkte. Das Bezie ´r-Polynom h¨angt an Knoten oder ebenfalls Bezie ´r-Polygon wie ein Zirkuszelt an seinen Masten dem zugeh¨ origen Bezie und schmiegt sich immer besser an, wenn der Polynomgrad und entsprechend die Knotenanzahl erh¨ oht wird. Allgemeine Raumkurven ergeben ´r-Punkte bi in (2.11) durch Vektoren ersetzt werden, sich, wenn die Bezie n i pn,bez (x; f ) = f Bin (x) ∈ Rn , f (x) ∈ Rn . n i=0 ´r-Polynomen liefert ein fundamentales Er(5◦ ) Die Approximation mit Bezie gebnis der Funktionalanalysis: Satz 2.3. (Weierstrass) Es sei f ∈ C[0, 1] und n i f Bin (x) mit den Bernstein-Polynomen Bin (x), Bn f : x → n i=0 dann gilt limn→∞ Max0≤x≤1 |f (x) − Bn f (x)| = 0 . Der Beweis dieses Satzes ist eine einfache Folgerung aus einem u ¨berraschenden Ergebnis von Korovkin: Satz 2.4. Es sei Ln : C[a, b] → C[a, b] ein Folge von linearen und positiven Operatoren, d.h. ∀ f, g ∈ C[a, b] ∀ t ∈ [a, b] : f (t) ≤ g(t) =⇒ Ln (f ) ≤ Ln (g) , und es sei f1 (t) = 1 , f2 (t) = t , f3 (t) = t2 . Wenn lim Ln fi − fi ∞ = 0 i = 1 : 3 ,
n→∞
gilt, dann folgt ∀ f ∈ C[a, b] : limn→∞ Ln f − f ∞ = 0 . Beweis [Kosmol] § 4.4.5.
84
2 Numerische Methoden
Beweis von Satz 2.3. Die Operatoren Bn sind offenbar linear und positiv, und es gilt Bn (f1 , t) = 1 , Bn (f2 , t) = t , Bn (f3 , t) = t2 +
t − t2 , n
daher sind die Voraussetzungen von Satz 2.4 erf¨ ullt.
Einen direkten, ebenso interessanten Beweis von Satz 2.3 findet man in [Yosida] § 0.2. 4
1.5
b12
b
1
3.5
b2
3
1
q
q
1
2
2.5
q0
0.5
q3
b
01
2
b23
1.5
b0
1
0
0.5
b3
0
−0.5 0
0.5
1
1.5
2
2.5
3
0
Abb. 2.2. Lagrange-Grundpolynome, n = 3
2
1
2
3
4
5
´r-Polynom, n = 3 mit Abb. 2.3. Bezie Umskalierung
2
1.5
h
1.5
h
01
02
1
1
h
h
00
0.5
03
0.5
h
h
10
0
11
0
h12 −0.5
6
0
0.5
1
1.5
2
2.5
3
−0.5
0
0.5
1
1.5
h13 2
2.5
3
Abb. 2.4. Hermite-Grundpolynome, n = 3
´r-Kurve besteht st¨ (g) Interpolationssplines Eine (stetige) Bezie uckwei´r- Polynomen, die jeweils an den Enden ihres Definitionsinterse aus Bezie valls die Interpolationseigenschaft haben. Wir betrachten den Spezialfall ei´r-Kurve im Intervall I = [0, n · m] , m ∈ N . In den Teilintervallen ner Bezie ´r-Polynomen vom Ik = [n(k − 1), nk] , k = 1 : m , soll die Kurve aus Bezie ´r-Punkten bnk , . . . , bn(k+1) bestehen, sie soll also an Grad n mit den Bezie den Stellen nk vorgegebene Werte f (nk) annehmen (n fest) (Abb. 2.5).
2.1 Interpolation und Approximation b9
3
b3
2.5
85
2
b
1.5
6
1
b0
0.5 0
0
1
2
3
4
5
6
7
8
9
´r-Kurve und Spline, m = n = 3 Abb. 2.5. Bezie
Definition 2.1. (1◦ ) Eine segmentierte stetige Kurve mit Polynomsegmenten vom Grad ≤ n heißt (Polynom-)Spline, wenn sie insgesamt (n − 1)-mal stetig differenzierbar ist. F¨ ur n = 3 heißt der Spline kubischer Spline. (2◦ ) Es sei I = [a, b], und es sei durch a = x0 < x1 < . . . < xm = b eine Segmentierung (Unterteilung) Δm von I gegeben, dann ist S3 (Δm ) := {s ∈ C 2 (I), ∀ x ∈ [xi−1 , xi ) : s(3) (x) = konst, i = 1 : m} der Vektorraum der kubischen Splines. Die Dimension von S3 ist m + 3 = (m + 1) + 2, es sind also zwei Bedingungen frei. F¨ ur k ∈ N0 sei pk (x) := xk , qk (t, x) := (t − x)k+ := Max{(t − x)k , 0} (F¨ oppl-Symbol). qk (t, x) hat k − 1 stetige Ableitungen nach beiden Argumenten und die k-te Ableitung macht einen Sprung der H¨ ohe k! bzw. (−1)k k!. Satz 2.5. (Basis-Splines, B-Splines) Die Menge Sn (Δm ) ist ein linearer Raum der Dimension m + n. Die Elemente p0 , . . . , pn , qn ( · , x1 ), . . . , qn ( · , xm−1 ) bilden eine Basis von Sd (Δn ). Beweis. [H¨ ammerlin], S. 246. ´r-Kurve auf, Wir betrachten nun den Fall n = 3. Fasst man s ∈ S3 als Bezie ´r-Punkte bei Abstand xi+1 − xi = 1: so gilt f¨ ur die Bezie s(xk ) = b3k wegen s ∈ C[a, b] wegen s ∈ C 1 [a, b] 2b3k = b3k−1 + b3k+1 2b3k−1 − b3k−2 = dk = 2b3k+1 − b3k+2 wegen s ∈ C 2 [a, b] .
(2.12)
86
2 Numerische Methoden
Hieraus folgt 4b3k−1 − 2b3k−2 = 2dk , 4b3k+1 − 2b3k+2 = 2dk , 2b3(k−1)+1 − b3(k−1)+2 = dk−1 , 2b3(k+1)−1 − b3(k+1)−2 = dk+1 , und dann durch Addition der linken und der rechten Gleichungen 3b3k−1 = dk−1 + 2dk , 3b3k+1 = 2dk + dk+1
.
(2.13)
Die Zahlen b3k+1 und b3(k+1)−1 = b3k+2 dreiteilen also die Strecke zwischen dk und dk+1 . Ferner gilt f¨ ur alle inneren Punkte b3k , k = 1 : m − 1, nach (2.12) und (2.13) 6b3k = 3b3k−1 + 3b3k+1 = dk−1 + 4dk + dk+1 .
(2.14)
ur k = m und k = 0 , Zusammen mit (2.13) f¨ ur b1 und b3m−1 , d.h. f¨ 3b3m−1 = dm−1 + 2dm , 3b1 = 2d0 + d1 , ergibt sich das folgende lineare Gleichungssystem f¨ ur den Vektor mit den unbekannten Koeffizienten [d0 , . . . , dm ]T (DeBoor-Punkte), falls die Daten auf der rechten Seite vorgegeben sind: ⎤ ⎡ 2 1 0 0 0 ⎡ d ⎤ ⎡ 3b ⎤ 0 1 ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ 1 4 1 . . . 0 ⎥⎢ d1 ⎥ ⎢ 6b3 ⎥ ⎥⎢ ⎢ ⎢ ⎢ ⎥ ⎥ ⎢ . . . . . . ⎥⎢ .. ⎥ ⎢ .. ⎥. (2.15) ⎢ 0 . . . 0 ⎥⎢ . ⎥ = ⎢ . ⎥ ⎥⎢ ⎢ ⎢ ⎥ ⎥ ⎥ ⎢ . ⎣ 0 . . 1 4 1 ⎦⎣ dm−1 ⎦ ⎣ 6b3m−3 ⎦ dm 3b3m−1 0 0 0 1 2 Zu {d0 , . . . , dm , b0 , b3m } existiert nach obiger Konstruktion genau ein Spline s ∈ S3 (Δ) (Abb. 2.6). Er heißt kubischer Interpolationsspline wegen s(xk ) = ur k = 0 : m . b3k = fk f¨ d3=b9
3
d
1
2.5 2
b
1.5
b
3
6
1 0.5 0
d =b 0
0
0 1
2
3
4
5
6
d
2
7
8
9
Abb. 2.6. Interpolationsspline m = n = 3
Berechnung Es sei fk = b3k , k = 0 : m gegeben und der interpolierende Spline s ∈ S3 (Δm ) in [a, b] = [0, m], xi+1 − xi = 1 gesucht. (1◦ ) Es sei f (a), f (b) gegeben. Berechne b1 , b3m−1 aus f (a) = s (0) = 3(b1 − b0 ), f (b) = s (m) = 3(b3m − b3m−1 ),
2.1 Interpolation und Approximation
87
berechne d0 , . . . , dm aus (2.15), berechne b3k+1 , b3k+2 aus (2.13), ´r-Polynom nach De Casteljau, berechne s(x) in [xk , xk+1 ] als Bezie s(xk + ξ) =
3
b3k+i Bi3 (ξ) ,
i=0
in den lokalen Koordinaten ξ ∈ [0, 1]. (2◦ ) Wenn s (a) = s (b) = 0 gesetzt wird, ergeben sich nat¨ urliche Splines, s ∈ N3 (Δm ). Zu ihrer Berechnung wird d0 = b0 und dm = b3m fest vorgegeben, dann gilt mit n = 3 s (0) = n(n − 1)(b2 − 2b1 + b0 ) = 6(−d0 + b0 ) = 0, s (m) = n(n − 1)(b3m − 2b3m−1 + b3m−2 ) = 6(−dm + b3m ) = 0. Berechne (d1 , . . . , dm−1 )T aus (2.15) und dm fest) ⎤⎡ ⎡ d1 4 1 0 0 0 ⎢ ⎥ ⎢ . . ⎢ 1 4 1 . . 0 ⎥⎢ .. ⎥⎢ ⎢ ⎢ . . . . . . ⎥⎢ .. ⎢ 0 . . . 0 ⎥⎢ . ⎥⎢ ⎢ ⎥⎢ . ⎢ . ⎣ 0 . . 1 4 1 ⎦⎣ .. 0 0 0 1 4
ohne die erste und letzte Zeile (weil d0
dm−1
⎤ ⎡ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ ⎢ ⎥ =⎢ ⎥ ⎢ ⎥ ⎣ ⎦
⎤
6b3 − b0 6b6 .. . 6b3m−6 6b3m−3 − b3m
⎥ ⎥ ⎥ ⎥. ⎥ ⎥ ⎦
(2.16)
Es gilt s (xk ) = 6(b3k − dk )/h2 , k = 1 : m − 1, h = xi+1 − xi konstant, daher ahnliches Gleichungssystem wie die Werte erf¨ ullen die Momente“ s (xk ) ein ¨ ” dk . Wenn die exakte Kr¨ ummung κ(x) = f (x)/(1 + f (x)2 )3/2 von f : x → urlichen f (x) n¨ aherungsweise durch f (x) ersetzt wird, erweisen sich die nat¨ kubischen Interpolationssplines als Biegelinien ( Straklatten“): ” Satz 2.6. Es sei s ∈ N3 (Δm ), d.h. ein nat¨ urlicher Spline und Δm beliebig, mit s(xi ) = fi , i = 0 : m. Dann gilt
b
|s|22 :=
! (s (x))2 dx = Min |g|22 , g ∈ C 2 [a, b], g(xi ) = fi .
a
Beweis. Es sei g eine beliebige Vergleichsfunktion mit der gleichen Interpolationseigenschaft, dann gilt g (x)2 = (s (x) + g (x) − s (x))2 , also a
b
g (x)2 dx =
a
b
(s )2 dx + 2
b a
s (g − s ) dx +
a
b
(g − s )2 dx. (2.17)
88
2 Numerische Methoden
Mit partieller Integration folgt f¨ ur den gemischten Term
b
s (g − s ) dx
= s (g − s )|ba −
a
m i=1
xi
xi−1
s (g − s ) dx =
m
xi
m
xi
s (g − s ) dx,
xi−1
i=1
ci (g − s ) dx =
m
xi−1
i=1
xi
ci (g − s)
i=1
xi−1
= 0,
weil nach Voraussetzung g(xi ) = s(xi ) = fi . Also folgt die Behauptung, wenn die Randterme verschwinden, d.h., wenn gilt
b
s (g − s ) = 0 . a
Diese Bedingung ist u.a. in den folgenden drei wichtigen F¨allen erf¨ ullt: (1◦ ) wenn s (a) = 0 = s (b) (nat¨ urlicher Spline), (2◦ ) wenn g (a) = s (a) = f (a) fest, g (b) = s (b) = f (b) fest, (3◦ ) wenn s, g periodisch sind mit der Periode b − a .
Bei einem Intervall [a, b] anstatt [0, m] muss umskaliert werden; ebenso ist eine Ab¨ anderung notwendig bei nicht a utzstellen. Auf eine ¨quidistanten St¨ weitergehende Behandlung der Spline-Funktionen soll aber an dieser Stelle verzichtet werden; vgl. jedoch SUPPLEMENT\chap02.
2.2 Orthogonale Polynome Es sei Π n die Menge der Polynome pn ∈ Πn vom exakten Grad n und H¨ ochstkoeffizient Eins. (a) Konstruktion Es sei −∞ ≤ a < b ≤ ∞, und es sei ω : [a, b] → R+ eine nichtnegative Gewichtsfunktion mit den folgenden Eigenschaften:
b
ω(x)xk dx , k ∈ N0 , existieren
Voraussetzung 2.1. Die Momente mk := (ev. als uneigentliche Integrale), und es ist
a m0
> 0.
Zwei Polynome p und q heißen dann orthogonal (bez¨ uglich des gew¨ahlten Integrationsintervalls und der Gewichtsfunktion ω), wenn (p, q) :=
b
ω(x)p(x)q(x) dx = 0 . a
2.2 Orthogonale Polynome
89
Satz 2.7. (Existenz und Konstruktion) (1◦ ) Unter Voraussetzung 2.1 gilt ∀ i ∈ N0 ∃! pi ∈ Π i : i = k =⇒ (pi , pk ) = 0 . (2◦ ) Die Orthogonalpolynome sind eindeutig bestimmt durch die dreigliedrige Rekursionsformel (mit xp : x → xp(x)) 2 p−1 (x) = 0 , p0 (x) = 1 , pi+1 (x) = (x − δi+1 )pi (x) − γi+1 pi−1 (x) , i ≥ 0, " 0, i = 0, 2 = δi+1 = (xpi , pi )/(pi , pi ), i ≥ 0 , γi+1 (pi , pi )/(pi−1 , pi−1 ), i ≥ 1. (2.18)
Beweis durch Gram-Schmidt-Orthogonalisierung [Stoer], siehe auch SUPPLEMENT\chap02. Nat¨ urlich gilt f¨ ur orthogonale Polynome pn ∈ Π n stets p ∈ Πn−1 =⇒ (p, pn ) = 0 , weil die orthogonalen Polynome als linear unabh¨angige Funktionen eine Basis des Πn−1 bilden. Im restlichen Teil dieses Abschnitts betrachten aß Satz 2.7. wir orthogonale Polynome pn gem¨ Satz 2.8. Die Wurzeln xi von pn sind reell, einfach und liegen im offenen Intervall (a, b). Beweis. Es seien x1 , . . . , xk alle Wurzeln von pn , die in (a, b) liegen und ungerade Vielfachheit haben, dann wechselt also pn genau an diesen Stellen das Vorzeichen. O.B. sei etwa a < x1 < . . . < xk < b,
q(x) :=
k
(x − xi ), k ≤ n ,
i=1
dann wechselt pn (x)q(x) das Vorzeichen in (a, b) nicht, und es gilt also (pn , q) = 0 . Daher muss gelten Grad q = k = n , sonst ergibt sich ein Widerspruch zu obigen Folgerung aus Satz 2.7. (b) Die Formeln von Rodriguez Zur expliziten Konstruktion von Orthogonalpolynomen pn ∈ Πn beachten wir die allgemeine Orthogonalit¨atsbedingung b ω(x)pn (x)qn−1 (x) dx = 0 , n = 0, 1, . . . (2.19) ∀ qn−1 ∈ Πn−1 : a
und machen den Ansatz ω(x)pn (x) =
dn 1 dn un (x) =⇒ pn (x) = un (x) ∈ Πn . n dx ω(x) dxn
Dann ergibt sich aus (2.19) die Differentialgleichung (n+1)
(n) 1 dn un (x) dn+1 un (x) = 0. = dxn+1 ω(x) dxn ω(x)
(2.20)
90
2 Numerische Methoden
b
un(n) (x)qn−1 (x) dx = 0 ergibt
Die n-malige partielle Integration von a
b
un(n−1) qn−1 − un(n−2) qn−1 + − . . . + (−1)n−1 un q (n−1) = 0 . a
Diese Gleichung ist sicher erf¨ ullt f¨ ur die Randbedingungen un(i) (a) = 0, un(i) (b) = 0, i = 0 : n − 1 .
(2.21)
Satz 2.9. Unter Voraussetzung 2.1 hat das Randwertproblem (2.20), (2.21) stets eine L¨ osung un und pn := un /ω ist ein Polynom vom Grad n. Beweis [Szegoe]. Das obige Randwertproblem hat 2n Randbedingungen f¨ ur eine Differentialgleichung der Ordnung 2n + 1; es ist also eine Bedingung zur Normierung frei. Beispiel 2.1. Legendre-Polynome: (a, b) = (−1, 1) , (2n+1) (i) = 0 , un (±1) = 0 , i = 0 : n − 1 . ω(x) ≡ 1 , un pn (x) = γn
dn 2 (x − 1)n . dxn
Die Konstanten γn werden in unterschiedlicher Weise festgelegt. (Abb. 2.7). Beispiel 2.2. Jacobi-Polynome: (a, b) endlich, ω(x) = (x − a)α (b − x)β , α > −1 , β > −1 . pn (x) = γn
1 (x −
a)α (b
−
x)β
dn [(x − a)n+α (b − x)n+β ] . dxn
Insbesondere ergeben sich f¨ ur (a, b) = (0, 1) und (α, β) = (0, 0), (1, 0), (0, 1), (1, 1) verschobene Legendre-Polynome, die sp¨ater noch gebraucht werden: dn n 1 dn n+1 x (1 − x)n , p2,n (x) = x (1 − x)n n n dx x dx dn n+1 1 dn n 1 n+1 x , p p3,n (x) = (1 − x) (x) = x (1 − x)n+1 . 4,n 1 − x dxn x(1 − x) dxn (2.22)
p1,n (x) =
Beispiel 2.3. Tschebyscheff-Polynome Tn (x) mit (a, b) = (−1, 1) , ω(x) = (1 − x2 )−1/2 sind ebenso wie die Legendre-Polynome spezielle Jacobi-Polynome. Wegen der besonderen Form der Gewichtsfunktion wird bei der Entwicklung einer Funktion nach diesen Polynomen der Fehler an den Intervallenden besonders stark bewichtet. Aus der urspr¨ unglichen Orthogonalit¨ atsbedingung
2.2 Orthogonale Polynome
∀ qn−1 (x) ∈ Πn−1 :
1
−1
Tn (x)qn−1 (x) dx = 0 (1 − x2 )1/2
91
(2.23)
ergibt sich durch Substitution x = cos ϕ die Orthogonalit¨atsbedingung π Tn (cos ϕ)qn−1 (cos ϕ) dϕ = 0 . 0
Wegen
cos(n + 1)ϕ + cos(n − 1)ϕ = 2 cos ϕ cos nϕ
(2.24)
f¨ ur n ∈ N ist cos nϕ ein Polynom in cos ϕ, und (cos ϕ) ist eine Linearkombination von cos jϕ, j = 0 : k , also k
qn−1 (cos ϕ) =
n−1
γj (cos ϕ)j =
j=0
n−1
δk cos(kϕ) .
k=0
Daher gilt (2.23) genau dann, wenn π Tn (cos ϕ) cos(jϕ) dϕ = 0, j = 0 : n − 1, 0
=⇒ Tn (cos ϕ) = cos(nϕ) =⇒
Tn (x) = cos(n arccos x) , n = 0, 1, . . . . 1
0.8
0.8
p5
0.6
1
p
2
0.4
0.6
p
0.2
p
p
6
3
0.4
5
p
0.2
p4
0
4
0
−0.2
−0.2
−0.4
p3
−0.4
−0.6 −0.6
p2
−0.8 −0.8
−1 −1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Abb. 2.7. Legendre-Polynome, n=2:6
−1 −1
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Abb. 2.8. Tschebyscheff-Polynome, n=2:5
(c) Minimaleigenschaft von Tschebyscheff-Polynomen Die Rekursionsformel (2.24) zeigt, dass Tn (x) = cos(n arccos(x)) den H¨ochstkoeffizient 2n−1 hat. Satz 2.10. Es sei pn (x) ein Polynom vom Grad ≤ n mit dem H¨ ochstkoeffizienten 2n−1 . Dann gibt es mindestens ein x ∈ [−1, 1] mit |pn (x)| ≥ 1. Beweis. Es gelte |pn (x)| < 1 f¨ ur alle x ∈ [−1, 1]. Tn (x) nimmt an seinen n + 1 Extremalstellen xi = cos(iπ/n), i = 0 : n, im Intervall [−1, 1] alternierend die Werte ±1 an. Daher ist Tn (x) − pn (x) an den Extremalstellen abwechselnd
92
2 Numerische Methoden
positiv oder negativ. D.h. Tn (x) − pn (x) hat in (−1, 1) mindestens n Nullstellen. Wegen gleicher H¨ ochstkoeffizienten ist aber Tn (x) − pn (x) ein Polynom vom Grad ≤ n − 1. Daraus folgt Tn (x) − pn (x) ≡ 0 im Widerspruch zur Voraussetzung. Folgerung 2.1. Es sei qn ein Polynom vom Grad n mit H¨ ochstkoeffizient an . Dann gibt es ein x ∈ [−1, 1] mit |qn (x)| ≥ an /2n−1 . Beweis. Es sei an = 0 und qn∗ (x) = qn (x)2n−1 /an . Das Polynom qn∗ hat den ur mindestens H¨ ochstkoeffizent 2n−1 , daher gilt |qn∗ (x)| ≥ 1 nach Satz 2.10 f¨ ein x0 ∈ [−1, 1]. Daraus folgt |qn (x0 )| = |qn∗ (x0 )an /2n−1 | ≥ an /2n−1 . ur ein TaylorF¨ ur ein beliebiges Polynom qn (x) – insbesondere auch f¨ Polynom – gibt es eine eindeutige Entwicklung nach Tschebyscheff-Polynomen, n ci Ti (x) , x ∈ [−1, 1] , Ti (x) = cos(i arccos(x)) , qn (x) = i=0
weil diese Polynome wegen der Orthogonalit¨ at linear unabh¨angig sind. n Satz 2.11. Sind Sn (x) = i=0 ci Ti (x) die Partialsummen einer Entwicklung nach Tschebyscheff-Polynomen, dann gilt Max−1≤x≤1 |Sn+1 (x) − Sn (x)| = Inf pn Max−1≤x≤1 |Sn+1 (x) − pn (x)| , wobei pn ein beliebiges Polynom vom Grad ≤ n ist. Beweis. Es gilt Sn (x) − Sn−1 (x) = cn Tn (x) , also |Sn (x) − Sn−1 (x)| ≤ ur ein beliebiges Polynom pn−1 vom Grad n − 1 hat |cn | , −1 ≤ x ≤ 1 . F¨ ochstkoeffizient cn 2n−1 . Also gilt nach der Folgerung zu Satz Sn − pn−1 den H¨ 2.10 f¨ ur mindestens ein x ∈ [−1, 1] |Sn (x) − pn−1 (x)| ≥ cn 2n−1 /2n−1 = cn .
Grob gesagt nehmen also bei einer Entwicklung nach TschebyscheffPolynomen die Koeffizienten betragsweise am schnellsten ab.
2.3 Numerische Integration Bekanntlich ist das Integrieren eine Kunst und das Differenzieren Handwerk, vom numerischen Standpunkt gesehen kehrt sich aber die Sachlage in gewisser Weise um. Das Integrieren ist ein gl¨ attender Prozess, was sich in der numerischen Approximation vorteilhaft auswirkt, die Ableitung dagegen muss stets durch einen Differenzenquotienten ersetzt werden, bei dem im Z¨ahler und im
2.3 Numerische Integration
93
Nenner Subtraktion ann¨ ahernd gleich großer Zahlen auftritt, also die gef¨ urchtete Ausl¨ oschung f¨ uhrender Ziffern. Es sei aber an dieser Stelle erw¨ahnt, dass eine asymptotische Entwicklung im Sinne von §2.4(c) zu verbl¨ uffend genauen Resultaten f¨ uhren kann; vgl. [Rutishauser]. R und wegen der Gaußschen Wegen der Indizierung ohne Null bei MATLAB Quadraturformeln ist es hier sinnvoll, mit n anstatt n + 1 St¨ utzstellen zu arbeiten, damit die einzelnen Regeln besser miteinander verglichen werden k¨ onnen.
(a) Quadratur nach Lagrange Der Rechenaufwand einer numerischen Integrationsformel h¨ angt von der Anzahl der St¨ utzstellen ab, an denen der Integrand f ausgewertet werden muss. Wir gehen von einem Interpolationspolynom pn−1 (x) vom Grad n − 1 und Lagrange-Typ aus, d.h. nach (2.6) in leicht modifizierter Form f (x) ≈ pn−1 (x; f ) =
n
f (xi )qi (x) , qi (x) =
i=1
n j=1,j =i
x − xj ∈ Πn−1 , xi − xj
(2.25) und erhalten nach Integration u ¨ber das Intervall (a , b) b b n n I(f ) := f (x) dx ≈ f (xi ) qi (x) dx =: f (xi )αi =: In (f ) . (2.26) a
a
i=1
i=1
¨ wobei die n St¨ utzstellen xi wieder alle verschieden sein sollen. Im Ubrigen ist ihre Wahl jedoch frei, insbesondere k¨ onnen sie auch außerhalb des Integrationsintervalls liegen. In diesem Abschnitt soll aber gelten a ≤ x1 < . . . < xn−1 < xn ≤ b . Eine Quadraturformel hat den Genauigkeitsgrad N , wenn genau alle Polynome vom Grad ≤ N exakt integriert werden. Der Genauigkeitsgrad einer Lagrange-Formel (2.26) mit n St¨ utzstellen (!) ist mindestens N = n − 1. Der maximale Genauigkeitsgrad einer solchen Formel ist N = 2n − 1. Setzt n (x − xi )2 ∈ Π2n ein, so ist In (f ) = 0 man n¨ amlich das Polynom f (x) = Πi=1 und das exakte Integral I(f ) > 0. Die Newton-Cotes-Formeln sind ebenfalls vom Lagrange-Typ (2.25), aber die St¨ utzstellen werden ¨ aquidistant gew¨ahlt, xi = a + (i − 1)h , h = (b − a)/(n − 1) , n ≥ 2 . Mit der Substitution x = a + (s − 1)h folgt nach § 2.1
b
αi := In (f ) =
qi (x)dx a n i=1
f (xi )αi
n
s−j ∈ Π n−1 (s) , s ∈ [1, n] , i−j j=1, j =i n n dx = qi (a + (s − 1)h) ds = h ϕi (s)ds = hβi , ds 1 1 n = h f (xi )βi .
qi (x) = qi (a + (s − 1)h) =: ϕi (s) =
i=1
94
2 Numerische Methoden
Die Gewichte βi sind jetzt rationale Zahlen, die nur noch von der St¨ utzstel¨ lenzahl n abh¨ angen und sich damit bei Anderung der Intervallgrenzen nicht n βi = n − 1 , n ≥ 2 . mehr ¨ andern; f¨ ur f (x) ≡ 1 ergibt sich i=1
Beispiel 2.4. Mittelpunktregel (ein Knoten): a+b 1 + (b − a)3 f (ξ) , I(f ) = (b − a)f 2 24 (Sehnen-)Trapezregel (n = 2 Knoten, h = b − a): I(f ) =
1 b−a [f (a) + f (b)] − (b − a)3 f (ξ) , 2 12
Keplersche Fassregel (n = 3 Knoten, h = (b − a)/2):
a+b b−a (b − a)5 (4) f (ξ) . I(f ) = f (a) + 4f + f (b) − 5 6 2 2 · 90 Die Kepler-Regel wird im angels¨ achsischen Sprachgebrauch Simpson-Regel genannt. Mittelpunktregel und Kepler-Regel haben den gleichen Genauigkeitsgrad n . Allgemein ist aus Symmetriegr¨ unden der Grad n statt n − 1 f¨ ur ungerades n bei Newton-Cotes-Formeln. ¨ Uber die – von Formel zu Formel verschiedenen – Zwischenstellen ξ ∈ (a, b) ist i.A. nichts N¨ aheres bekannt, deswegen scheidet i.d.R. eine Absch¨atzung des Restgliedes Rn (f ) in I(f ) = In (f ) + Rn (f )
(2.27)
u oppl-Symbol ¨ber das Cauchy-Restglied – vgl. Satz 2.2 – aus. Mit dem F¨ N (x − t)N + := Max{(x − t) , 0} gilt aber das folgende Resultat von Peano, vgl. [Stoer]: Satz 2.12. Wenn die Quadraturformel (2.26) mit n Knoten den Genauigkeitsgrad N hat, dann gilt f¨ ur alle f ∈ C N +1 [a, b] b 1 Rn (ht ), ht : x → (x − t)N Rn (f ) = f (N +1) (t)Kn (t) dt , Kn (t) = + . N ! a ur die Funktion ht : x → (x − t)N Dabei ist Rn (ht ) der Fehler f¨ + anstatt f . In vielen F¨ allen wie z.B. bei den Newton-Cotes-Formeln, wechselt Kn (t) im Integrationsintervall (a, b) nicht das Vorzeichen. Dann ergibt der Mittelwertsatz der Integralrechnung b Kn (t)dt, ξ ∈ (a, b). (2.28) Rn (f ) = f (N +1) (ξ) a
2.3 Numerische Integration
95
Setzt man hier f¨ ur f die spezielle Funktion ϕ : x → xN +1 ein, dann folgt b b Rn (ϕ) = (N + 1)! Kn (t)dt =⇒ Kn (t)dt = Rn (ϕ)/(N + 1)! . (2.29) a
a
Fazit: Wenn die Integrationsformel (2.26) den Genauigkeitsgrad N hat und Kn (t) im Integrationsintervall nicht das Vorzeichen wechselt, dann ergeben (2.28) und (2.29) f¨ ur den Fehler Rn (f ) =
f (N +1) (ξ) Rn (ϕ) , ϕ : x → xN +1 , ξ ∈ (a, b) (N + 1)!
(2.30)
(Restglied nach Peano); Rn (ϕ) kann aber stets exakt berechnet werden! (b) Summierte Quadraturformeln Wie schon in § 2.1 erw¨ahnt, wird die Approximation von f durch ein Interpolationspolynom i.d.R. nicht besser, wenn der Polynomgrad n erh¨ oht wird. Man bleibt daher bei Polynomen niederen Grades und unterteilt stattdessen das Integrationsintervall. Die resultierenden summierten Quadraturformeln sind sogar bei stetigem Integranden f beliebig genau in Abh¨ angigkeit von der St¨ utzstellenanzahl. Mit xi = a + ih, i = 0 : m, h = (b − a)/m, m ∈ N erhalten wir z.B. aus der Sehnentrapezregel die wichtige summierte Sehnentrapezregel $ # m−1 h 1 T (h; f ) = f (xi ) + f (xm ) = I(f ) − h2 (b − a) f (ξ) f (x0 ) + 2 2 12 i=1 (2.31) und aus der Kepler-Regel die Simpson-Regel # $ m−1 m−1 xi + xi+1 h f (x0 ) + 2 f (xi ) + 4 f I(f ) = + f (xm ) 6 2 i=1 i=0 1 (4) f (ξ) . + h4 (b − a) 2880 Die Formel (2.31) sticht noch durch eine besondere Eigenschaft hervor: Lemma 2.3. Ist f ∈ C ∞ (R) (b − a)-periodisch, dann gilt b f (x)dx + O(hp ) ∀ p ∈ N . T (h; f ) = a
Bei glatten periodischen Funktionen konvergiert also die summierte Sehnentrapezregel schneller als jede Potenz der Schrittweite h (!). (c) Quadratur nach Gauß Wird an Stelle des Lagrange-Polynoms das Interpolationspolynom in der Hermiteschen Form integriert – vgl. § 2.1(e), so erh¨ alt man Quadraturformeln vom Typ
96
2 Numerische Methoden
In (f ) := mit
n
#
b
f (xi )
$
b
h0,i (x)dx + f (xi ) a
i=1
h1,i (x)dx
(2.32)
a
h0,i (x) = 1 − 2qi (xi )(x − xi ) qi (x)2 , h1,i (x) = (x − xi )qi (x)2
(2.33)
und den Lagrange-Grundpolynomen qi (x) ∈ Πn−1 . Die Formel hat den Genauigkeitsgrad N = 2n − 1 bei n-maliger Auswertung von f und n-maliger Auswertung der Ableitung von f . Werden nun die St¨ utzstellen xi , i = 1 : n als Nullstellen von Orthogonal b uglich des Skalarprodukts (f, g) = f (x)g(x) dx polynomen pn (x) ∈ Πn bez¨ gew¨ ahlt, dann folgt aus § 2.2 b b h1,i (x) dx = (x − xi )qi (x)2 dx = 0 a
a
a
wegen (x − xi )qi (x) = pn (x) und qi (x) ∈ Πn−1 . Außerdem gilt dann b b h0,i (x) dx = qi (x)2 dx, daher ergeben sich bei dieser Wahl aus (2.32) a
a
und (2.33) Quadraturformeln In (f ) :=
n
b
qi (x)2 dx
f (xi )
(2.34)
a
i=1
mit maximalem Genauigkeitsgrad N = 2n − 1 bei n St¨ utzstellen. F¨ ur eine allgemeine Gewichtsfunktion ω(x) mit den Eigenschaften aus § 2.2 fassen wir das Ergebnis in dem folgenden Satz zusammen: Satz 2.13. (Quadratur nach Gauss) Es seien pn ∈ Π n Orthogonalpolynome b ω(x)f (x)g(x) dx , es seien x1 , . . . , xn bez¨ uglich des Skalarprodukts (f, g) := die Nullstellen von pn , und es sei
a
n T A = [pi (xj )]n−1 i=0 j=1 , c = [(p0 , p0 ), 0, . . . , 0] .
(1◦ ) Die Matrix A ist regul¨ ar. (2◦ ) Ist b = A−1 c und b = [β1 , . . . , βn ]T , dann gilt b n ∀ p ∈ Π2n−1 : ω(x)p(x) dx = βi p(xi ) , a
d.h. die Quadraturformel b n ω(x)f (x) dx = βi f (xi ) + Rn,ω (x; f ) a
(2.35)
i=1
i=1
hat den maximalen Genauigkeitsgrad N = 2n − 1.
(2.36)
2.3 Numerische Integration
97
(3◦ ) F¨ ur das Restglied in (2.36) gilt ∀ f ∈ C 2n [a, b] ∃ ξ ∈ (a, b) : Rn,ω (x; f ) =
f (2n) (ξ) (pn , pn ) . (2n)!
(4◦ ) Wenn umgekehrt (2.35) gilt, dann sind die St¨ utzstellen xi die Nullstellen der Orthogonalpolynome pn (x), und es gilt Ab = c mit b = [β1 , . . . , βn ]T . (5◦ ) Wenn eine Formel (2.36) den Genauigkeitsgrad N ≥ n − 2 hat, sind die Gewichte βi positiv. Beweis [Stoer]. (d) Suboptimale Quadraturformeln sind ein wichtiges Hilfsmittel bei der Konstruktion von impliziten Runge-Kutta-Verfahren maximaler Ordnung im n¨ achsten Abschnitt; dazu sei b = [β1 , . . . , βn ]T , x = [x1 , . . . , xn ]T , F (x) = [f (x1 ), . . . , f (xn )]T .
Satz 2.14. F¨ ur δ, ε ∈ {0, 1} existiert eine eindeutige Quadraturformel 1 f (t) dt ≈ δβ0 f (0) + bT F (x) + ε βn+1 f (1) (2.37) 0
= 2n + δ + ε − 1, der f¨ mit Genauigkeitsgrad N ur diesen Formeltyp maximal ist. W¨ ahle die Gauß-Gewichte und -Knoten nach Satz 2.13 bez. der Gewichtsfunktion ω ∗ (t) = tδ (1 − t)ε in [0, 1] und setze b = [βi /ω ∗ (xi )]ni=1 . Dann ist die Regel optimal f¨ ur (δ, ε) = (0, 0) . F¨ ur (δ, ε) = (1, 0) oder (δ, ε) = (0, 1) ur ergeben sich die u ¨brigen Gewichte aus 1 = δβ0 f (0) + bT e + εβn+1 f (1) . F¨ (δ, ε) = (1, 1) ergeben sich die beiden u ¨brigen Gewichte aus 1 = 0 + bT x + βn+1 , 1 = β0 + bT e + βn+1 . 2 Ein Vergleich mit den verschobenen Legendre-Polyomen in (2.22) zeigt, dass die St¨ utzstellen x1 , . . . , xn einer Regel (2.37) mit insgesamt n Knoten jeweils die Wurzeln der folgenden Polynome sind: (δ, ε) = (0, 0) : p1,n (x) ,
(δ, ε) = (1, 0) : xp2,n−1 (x)
(δ, ε) = (0, 1) : (1 − x)p3,n−1 (x) , (δ, ε) = (1, 1) : x(1 − x)p4,n−2 (x) .
(2.38)
Beweis von Satz 2.14 siehe SUPPLEMENT\chap02a. Ein Programm zur Berechnung der Knoten und Gewichte in allen vier F¨allen findet man in KAPITEL02\SECTION_1_2_3. Zur Integration u ussen ¨ber das Intervall (a, b) m¨ Knoten und Gewichte umskaliert werden gem¨aß x %i = a + (b − a)xi , %bi = (b − a)bi , i = 1 : n .
98
2 Numerische Methoden
Beispiel 2.5. Gauß-Quadratur mit Legendre-Polynomen:
1
−1
f (x) dx ≈
n
βi f (xi )
i=1
Tabelle 2.1. Gauß-Legendre-Formeln mit n St¨ utzstellen n
xi
βi
2
√ ± 13 3
1
3
0
8 9
√ ± 15 15
5 9
√ 1/2 1 525 − 70 30 4 ± 35 √ 1/2 1 525 + 70 3 ± 35 5
1 2
+
1 36
1 2
−
1 36
√ 1/2 1 245 − 14 70 ± 25 1 ± 25
√
30 30
128 225
0
√
√ 1/2 245 + 14 70
161 450 161 450
+ −
13 900 13 900
√ √
70 70
Diese Formeln gelten f¨ ur das Integrationsintervall [a, b] = [−1, 1]. Bei der ussen die Gewichte und die St¨ utzTransformation auf ein Interval [a , b ] m¨ stellen transformiert werden: wi =
b − a wi , b−a
xi = a +
b − a (xi − a) . b−a
Zum Beispiel m¨ ussen bei der Transformation auf das Einheitsintervall [0, 1] die Gewichte halbiert und die St¨ utzstellen xi = (1 + xi )/2 verwendet werden. (e) Baryzentrische Koordinaten dienen zur vereinfachten Darstellung von Polynomen und ihrer Quadratur in Dreiecken oder allgemeiner in n-Simplices anken uns hier auf die Ebene und betrachten ein beim Rn . Wir beschr¨ liebiges Dreieck T im kartesischen (x, y)-Koordinatensystem mit den Ecken Pi (xi , yi ), i = 1, 2, 3 , die im Gegenuhrzeigersinn numeriert sind. Der doppelte Fl¨ acheninhalt 2|T | = (x2 − x1 )(y3 − y1 ) − (x3 − x1 )(y2 − y1 ) = x21 y31 − x31 y21 ,
(2.39)
(x21 = x2 − x1 usw.) ist dann positiv, solange T nicht degeneriert ist. Mit den Bezeichnungen aus Abb. 2.9 sind die (dimensionslosen) baryzentrischen oder Schwerpunktkoordinaten f¨ ur 0 ≤ ζi ≤ 1 definiert durch
2.3 Numerische Integration
ζi =
99
Fl¨ ache von Ti , i = 1, 2, 3 . Fl¨ ache von T
Es gilt also P1 % (1, 0, 0) , P2 % (0, 1, 0) , P3 % (0, 0, 1) und ζ1 + ζ2 + ζ3 = 1, damit sind die baryzentrischen Koordinaten linear abh¨ angig. P (x ,y ) 3 3 3
T1
T2
P(x,y)
T
3
P1(x1,y1)
P2(x2,y2)
Abb. 2.9. Baryzentrische Koordinaten
Der Zusammenhang zwischen kartesischen und baryzentrischen Koordinaten wird f¨ ur (x, y) ∈ T durch die Fl¨ achenformel hergestellt:
1 x y
1 x y
1 x y
2|T1 | =
1 x2 y2
, 2|T2 | =
1 x3 y3
, 2|T3 | =
1 x1 y1
.
1 x3 y3
1 x1 y1
1 x2 y2
Entwickelt man jeweils nach der ersten Zeile und teilt durch 2|T |, dann ergibt sich f¨ ur ein beliebiges kartesisches Koordinatensystem 1 [(x2 y3 − x3 y2 ) − y32 x + x32 y] 2|T | 1 ζ2 = [(x3 y1 − x1 y3 ) + y31 x − x31 y] 2|T | 1 ζ3 = [(x1 y2 − x2 y1 ) − y21 x + x21 y] 2|T |
ζ1 =
(2.40)
(man beachte die zyklische Permutation der Indizes modulo 3). Diese Beziehungen gelten allgemein ohne dass der Ursprung des KOS im Zentrum des Dreiecks liegen muss. Sie werden verschiedentlich angewendet etwa bei der Berechnung von Ableitungen, z.B. ∂ζ1 /∂x = y23 /(2|T |) etc.. Aufl¨osen zweier Gleichungen in (2.40) nach x und y liefert die Beziehung zwischen kartesischen und baryzentrischen Koordinaten 1 = ζ1 + ζ2 + ζ3 x = x1 ζ1 + x2 ζ2 + x3 ζ3 y = y1 ζ1 + y2 ζ2 + y3 ζ3
.
(2.41)
Im Einheitsdreieck S(ξ, η) mit den Ecken Q1 (0, 0), Q2 (1, 0), Q3 (0, 1) gilt die Beziehung ζ1 = 1 − ξ − η , ζ2 = ξ , ζ3 = η , (2.42)
100
und
2 Numerische Methoden
1
1−η
p!q! . (2.43) (p + q + 2)! 0 0 S Daraus folgt die f¨ ur allgemeine Dreiecke T ⊂ R2 g¨ ultige Formel von Holand und Bell (1969) m!n!p! ζ1m ζ2n ζ3p dζ1 dζ2 = 2|T | (2.44) (m + n + p + 2)! T ξ p η q dξdη =
ξ p η q dξdη =
durch Substitution [Bell]. Ihre direkte Verallgemeinerung auf Tetraeder T ⊂ R3 mit Volumen |T | lautet m!n!p!q! . (2.45) ζ1m ζ2n ζ3p ζ4q dxdydz = 6|T | (m + n + p + q + 3)! T Beispiel 2.6. [Ciarlet79] Es seien xi ∈ Rn , i = 1 : n + 1 , die Ecken eines n-Simplex im Rn , z.B. eines Dreieckes T im R2 oder eines Tetraeders im R3 . ur i < j die Mittelpunkte der Kanten xijk = Es seien xij = (xi + xj )/2 f¨ ur i < j < k , und xiij = (2xi + xj )/3 f¨ ur i = j . Mit Πm (xi + xj + xk )/3 f¨ bezeichnen wir wieder den Vektorraum der Polynome vom Grad ≤ m mit n Variablen im Rn . Dann gelten die folgenden Identit¨aten im Rn : ∀ p ∈ Π1 : p = i=1:n+1 p(xi )ζi ∀ p ∈ Π2 : p = i=1:n+1 p(xi )ζi (2ζi − 1) + i<j p(xij )4ζi ζj −1 ∀ p ∈ Π3 : p = 2 p(xi )ζi (3ζi − 1)(3ζi − 2) i=1:n+1 −1 +2 i<j p(xij )9ζi ζj (3ζi − 1) + i<j 6 erf¨ ullen diese Verfahren nicht mehr das Wurzelkriterium. Tabelle 2.5. R¨ uckw¨ artsdifferenzenverfahren
k βk α0 α1 α2 α3 α4 α5 α6 1 1 -1 1 2 2 1 -4 3 3 6 -2 9 -18 11 4 12 3 -16 36 -48 25 5 60 -12 75 -200 300 -300 137 6 60 10 -72 225 -400 450 -360 147
122
2 Numerische Methoden
(j) Voll implizite Runge-Kutta-Verfahren haben in j¨ ungerer Zeit wieder gr¨ oßeres Interesse gefunden im Zusammenhang mit der L¨osung differentialalgebraischer Gleichungen, die bei vielen technischen und mechanischen Problemen auftreten. Die Ergebnisse dieses Abschnitts sind mehrheitlich schon seit den Arbeiten von Butcher bekannt, die nachfolgende algebraisierte Form ist aber vermutlich [Crouzeix75] und [Crouzeix80] zu verdanken. F¨ ur ausf¨ uhrliche Beweise siehe SUPPLEMENT\chap02b. Aus Darstellungsgr¨ unden f¨ uhren wir f¨ ur diesen Abschnitt die folgende Bezeichnung ein: Eine numerische Quadraturformel hat die Ordnung p, wenn sie den Genauigkeitsgrad p − 1 hat, d.h. wenn sie exakt ist f¨ ur alle Polynome mit p Koeffizienten; vgl. § 2.3(a). Wird ein r-stufiges Runge-Kutta-Verfahren (RKV) der Ordnung p mit der Butcher-Matrix (A, b, c) auf die triviale Differentialgleichung x (t) = f (t) angewendet, dann entspricht die a ¨ußere Gleichung – auch Kellerzeile genannt, n¨ amlich die Gleichung t+τ r f (t) dt = τ βi f (t + γi τ ) + O(τ +1 ) x(t + τ ) − x(t) = t
i=1
f¨ ur t = 0 , τ = 1 einer numerischen Quadraturformel 1 r f (t) dt ∼ βi f (γi ) . 0
(2.66)
i=1
Werden hier die Monome f (t) = tk−1 eingesetzt, so zeigt sich auf Grund der Linearit¨ at, dass diese Formel die Ordnung hat, g.d.w. r
βi γik−1 =
i=1
1 , k = 1 : . k
Ebenso lassen sich den inneren Gleichungen eines RKV Quadraturformeln zuordnen gem¨ aß γi r f (t) dt ∼ αik f (γk ) , i = 1 : r . 0
i=1
und sie haben die Ordnung , wenn r j=1
αij γjk−1 =
1 k γ , i = 1 : r, k = 1 : . k i
(2.67)
Bei einem RKV der Ordnung muss die ¨ außere Gleichung notwendigerweise die Ordnung haben. Die gr¨ oßte gemeinsame Ordnung der Formeln (2.67)
2.4 Anfangswertprobleme
123
heißt innere Ordnung des RKV. Damit hat ein explizites RKV die innere Ordnung = 1, weil die erste Gleichung den Grad Null hat. Die Bedingungen f¨ ur die Koeffizienten voll impliziter r-stufiger RKV der Ordnung p lassen sich in erstaunlich einfacher Weise beschreiben. Dazu bedarf es aber einer Zusatzbedingung, die f¨ ur beliebige stetige Funktionen f durch partielle Integration gewonnen wird: x 1 1 1 xk−1 f (s) ds dx = (1 − xk )f (x) dx . (2.68) k 0 0 0 Wird das ¨ außere Integral der linken Seite durch die ¨außere Gleichung und die inneren Integrale durch die entsprechenden inneren Gleichungen eines RKV approximiert, so ergibt sich insgesamt f¨ ur die linke Seite
1
x
f (s) ds dx ≈
xk−1 0
0
r i=1
βi γik−1
0
γk
f (s) ds ≈
r
βi γik−1
i=1
r
αkj f (γj ) .
j=1
Approximieren wir dagegen die rechte Seite von (2.68) durch die ¨außere Gleichung des RKV, so ergibt sich 1 k
1
(1 − xk )f (x) dx ≈ 0
r 1 βi (1 − γik )f (γi ) . k i=1
Wir fordern nun, dass beide Approximationen gleich sind, wenn wir f¨ ur f nacheinander die Lagrange Polynome qi ∈ Πr−1 mit qi (γj ) = δ i j , i = 1, . . . , r , einsetzen. Dann erhalten wir als Ergebnis die gew¨ unschte zus¨atzliche Bedingung r
βi γik−1 αij =
i=1
1 βj (1 − γjk ) , j = 1 : r , k = 1 : . k
(2.69)
Zur Formalisierung der Ordnungsbedingungen definieren wir nun die folgenden vier Eigenschaften eines RKV: A() B() C() D()
: ⇐⇒ : ⇐⇒ : ⇐⇒ : ⇐⇒
das Verfahren hat mindestens die Ordnung die ¨ außere Gleichung hat mindestens die Ordnung das Verfahren hat mindestens die innere Ordnung (2.69) gilt f¨ ur k = 1, . . . ,
. (2.70)
Ferner seien b = [β1 , β2 , . . . , βr ]T ∈ Rr , c = [γ1 , γ2 , . . . , γr ]T ∈ Rr , C = diag(c) , e = [1, . . . , 1]T ∈ Rr ,
z = [1, 1/2, . . . , 1/]T ∈ R .
124
2 Numerische Methoden
Dann sind die Eigenschaften (2.70) nach (2.66), (2.67) und (2.69) gleichbedeutend mit A() ⇐⇒ RKV hat Ordnung 1 , k=1: k 1 C() ⇐⇒ AC k−1 e = C k e , k=1: k 1 D() ⇐⇒ bT C k−1 A = (bT − bT C k ) , k = 1 : k
B() ⇐⇒ bT C k−1 e =
.
(2.71)
Satz 2.15. (Butcher, Crouzeix, Ehle) Wenn alle St¨ utzabszissen γi verschieden sind, gilt (1◦ ) B() ∧ C(ξ) ∧ D(η) =⇒ A(Min{, 2ξ − 2, ξ + η + 1}) , (2◦ ) B() ∧ C(r) =⇒ D( − r) , (3◦ ) B() ∧ D(r) =⇒ C( − r) , wenn alle Gewichte βi ungleich Null sind. Wenn also alle Abszissen γi verschieden sind und das RKV die Eigenschaft B() hat, dann bestimmt C(r) oder D(r) eindeutig die entscheidende Eigenschaft A(p). Zur weiteren Algebraisierung V = [γi j−1 ]ri,j=1 die Vandermondesche Matrix), . Dann k¨ onnen wir an Stelle von (2.71) in Matrix-Vektor-Form schreiben B() ⇐⇒ VT b = z C() ⇐⇒ AV = diag(c)V diag(z ) =: W ∈ Rr
.
(2.72)
D() ⇐⇒ VT diag(b)A = (z eT − WT ) diag(b) Die Koeffizientenmatrix A eines RKV ist daher eindeutig bestimmt durch C(r) , wenn alle γi verschieden sind, und sie ist eindeutig bestimmt durch D(r), wenn alle Gewichte βi ungleich Null sind. Folgerung 2.2. Gauß-Verfahren. Die maximale Ordnung der ¨ außeren Gleichung, also der Quadraturformel (2.66) ist p = 2r bei r St¨ utzstellen nach § 2.3 (c). Sie wird erreicht, wenn man die Nullstellen γi , i = 1 : n , von ahlt. F¨ ur = 2r sind aber C(r) und D(r) nach Satz p1,n (x) in (2.38) w¨ aquivalent. Unter der angegebenen Voraussetzung folgt dann 2.15 (2◦ ) und (3◦ ) ¨ aus (1◦ ) B(2r) ∧ C(r) ∨ D(r) =⇒ A(2r).
2.4 Anfangswertprobleme
125
Folgerung 2.3. Butcher-Verfahren. Wenn ≥ r ist und alle γi verschieden sind, dann folgt Satz 2.15 (1◦ ) und (2◦ ) B() ∧ C(r) =⇒ A(p) , p = Min{, 2r + 2, r + − r + 1} = . Bei festem Abszissenvektor c erh¨ alt man die Butcher-Verfahren der Ordnung nach (2.72) aus A, b, c = W V −T , V −1 z, c . Folgerung 2.4. Ehle-Verfahren. Wenn ≥ 2r − 2 ist, alle γi verschieden und alle βi ungleich Null sind, folgt aus Satz 2.15 (1◦ ) und (3◦ ) B() ∧ D(r) =⇒ A(p) , p = Min{, 2( − r) + 2, − r + r + 1} = Min{, 2( − r) + 2} = . Bei festem Abszissenvektor c erh¨ alt man die Ehle-Verfahren der Ordnung ≥ 2r − 2 nach (2.72) aus A, b, c = B −1 V −1 (zeT − W T )B, V −1 Z, c . F¨ ur die Komponenten des Abszissenvektors c werden die Wurzeln der Polynome in (2.38) gew¨ ahlt: (r) = xr (1 − x)r (r−1) Verfahren vom Typ I: = 2r − 1, xp2,r−1 (x) = xr (1 − x)r−1 (r−1) Verfahren vom Typ II: = 2r − 1, (1 − x)p3,r−1 = xr−1 (1 − x)r (r−2) Verfahren vom Typ III: = 2r − 2, x(1 − x)p4,r−2 = xr−1 (1 − x)r−1 . (2.73) Das Ergebnis ist in der folgenden Tabelle zusammengefasst: Gauß-Verfahren:
= 2r,
p1,r (x)
Tabelle 2.6.
Typ Gauß Radau I B/A Radau II A/B Lobatto III A/B/C
Bedg. an γi (2.73)(1◦ ) (2.73)(2◦ ) (2.73)(3◦ ) (2.73)(4◦ )
Ordnung Butcher 2r ⊗A = 2r − 1 ⊗ 2r − 1 ⊗A,L 2r − 2 ⊗A
Ehle Chipman ⊗A — ⊗A,L — ⊗ — A ⊗ ⊗A,L
Die Chipman-Verfahren haben die Eigenschaft C(r) und Ae1 = β1 e1 , e1 = [δ 1 k ]rk=1 , woraus die Koeffizientenmatrix A vollst¨andig berechnet werden kann. A-stabile Verfahren sind mit ⊗A bezeichnet, L-stabile Verfahren mit dem zus¨ atzlichen Index L.
126
2 Numerische Methoden
Beispiel 2.14. Bei den Verfahren Radau II A ist γn = 1, daher stimmen die Kellerzeile und die letzte Zeile von A miteinander u ¨berein, was bei der Anwendung auf differential-algebraische Probleme vorteilhaft ist. Das 3-stufige Verfahren der Ordnung p = 5 ist A-stabil und L-stabil, seine Daten sind in der folgenden Butcher-Matrix angegeben:
⎡
⎢ ⎢ ⎢ A c ⎣ ⎦ =⎢ ⎢ ⎢ b ⎣ ⎡
⎤
√ 88−7 6 360 √ 296+169 6 1800 √ 16− 6 36 √ 16− 6 36
√ 296−169 6 1800 √ 88+7 6 360 √ 16+ 6 36 √ 16+ 6 36
√ −2+3 6 225 √ −2−3 6 225
√ 4− 6 10 √ 4+ 6 10
1 9
1
1 9
⎤
⎥ ⎥ ⎥ ⎥ . ⎥ ⎥ ⎦
Literatur: [Hairer], [Shampine97].
2.5 Randwertprobleme Gesucht ist eine L¨ osung x : [0, 1] → Rn des Randwertproblems x (t) = f (t, x(t)) , 0 ≤ t ≤ 1 , g(x(0) , x(1)) = 0 ∈ Rn ,
(2.74)
wobei wir uns aus optischen Gr¨ unden und auch wegen der Implementierung auf das Einheitsintervall beschr¨ anken. Bei einem anderen Definitionsintervall muss umskaliert werden: F¨ ur ein Problem u (s) = h(s, u(s)) , 0 ≤ s ≤ T , g(u(0) , u(T )) = 0 ∈ Rn . ergibt die Substitution s = T t x (t) = T h(T t, x(t)) , 0 ≤ t ≤ 1 , g(x(0) , x(1)) = 0 ∈ Rn . (a) Das lineare Problem hat die Form x (t) = A(t)x(t) + c(t), 0 ≤ t ≤ 1 , R0 x(0) + R1 x(1)) = d ∈ Rn
(2.75)
Der Einfachheit halber w¨ ahlen wir eine ¨ aquidistante Unterteilung des Definitionsintervalls, 0 = t1 < t2 < . . . < tm < tm+1 = 1 , tj = (j − 1) τ , τ = 1/m , R beginnend mit dem Index j = 1, um die Kompatibilit¨at mit der MATLAB Indizierung zu wahren. Hat die numerische Approximation der Differentialgleichung auf dem einzelnen t-Intervall [tj , tj+1 ] die Form
2.5 Randwertprobleme
127
Pj yj + Qj yj+1 = rj , dann ergibt sich ein lineares Gleichungssystem ⎡ ⎤⎡ ⎤ ⎡ ⎤ y1 P1 Q1 0 . . . 0 0 r1 ⎢ ⎥⎢ . ⎥ ⎢ ⎥ . . ⎢ 0 P2 Q2 . . . . 0 ⎥⎢ .. ⎥ ⎢ .. ⎥ ⎢ ⎥⎢ ⎥ ⎢ . ⎥ ⎢ .. . . . . . . . . .. ⎥⎢ .. ⎥ ⎢ . ⎥ ⎢ ⎢ . ⎥ ⎢ ⎥ . . . . . ⎥ ⎥⎢ . ⎥ = ⎢ .. ⎥ =: R L(τ )Y := ⎢ ⎢ . . . . . ⎥⎢ . ⎥ ⎢ . ⎥ ⎢ .. . . . . . . . . 0 ⎥⎢ .. ⎥ ⎢ . ⎥ ⎢ ⎥⎢ ⎥ ⎢ . ⎥ ⎢ ⎥⎢ ⎥ ⎢ ⎥ ⎣ 0 . . . . . . . . . Pm Qm ⎦⎣ ... ⎦ ⎣ rm ⎦ d R0 0 · · · · · · 0 R1 ym+1
(2.76)
f¨ ur die gesuchten Werte yj , dessen Matrix regul¨ar sein muss. Beispiel 2.15. (1◦ ) Trapezregel yj+1 − yj − Pj = −I −
τ τ [Aj+1 yj+1 + Aj yj ] = (cj+1 + cj ) , 2 2
τ τ τ Aj , Qj = I − Aj+1 , rj = (cj + cj+1 ) . 2 2 2
(2◦ ) Boxschema yj+1 − yj − Pj = −I −
τ Aj+1/2 (yj+1 + yj ) = τ cj+1/2 , 2
τ τ Aj+1/2 , Qj = I − Aj+1/2 , rj = τ cj+1/2 , 2 2
τ = 1/m .
(3◦ ) Mehrzielverfahren ose f¨ ur j = 1, . . . , m das inhomogene Problem mit homogener An(3.1◦ ) L¨ fangsbedingung x (t) = A(t)x(t) + c(t) , tj ≤ t ≤ tj+1 , y(tj ) = 0 ; die L¨ osung an der Stelle tj+1 sei rj . ose f¨ ur j = 1, . . . , m die n homogenen Anfangswertprobleme mit in(3.2◦ ) L¨ homogenen Anfangsbedingungen X (t) = A(t)X(t) , tj ≤ t ≤ tj+1 , X(tj ) = I (Einheitsmatrix) ; die L¨ osung an der Stelle tj+1 sei die Matrix Vj . Dann gilt yj+1 = rj + Vj yj =⇒ yj+1 − Vj yj = rj , =⇒
Pj = −Vj , Qj = I .
128
2 Numerische Methoden
(b) Im nichtlinearen Fall wird auf die gleiche Weise ein nichtlineares Gleichungssystem aufgestellt und mit dem Newton-Verfahren gel¨ost. Wir beschr¨ anken uns auf das Mehrzielverfahren und verwenden das Flussintegral Φ(t; t0 , x0 ) aus Abschnitt 1.6. Die numerische L¨osung sei wieder mit y bezeichnet. Mehrzielverfahren: ahle eine moderate Anzahl m von Schießpunkten im Intervall [0, 1], (1◦ ) W¨ [(t1 , y1 ), . . . , (tm , ym )] , yj ∈ Rn , t1 = 0 , tm+1 = 1. (2◦ ) Berechne
tj+1
Φ(tj+1 ; tj , yj ) := yj +
f (t, x(t)) dt , j = 1 : m , tj
durch L¨ osung der Anfangswertprobleme x (t) = f (t, x(t)) tj ≤ t ≤ tj+1 , x(tj ) = yj .
(2.77)
(3◦ ) L¨ ose das Gleichungssystem yj+1 − Φ(tj+1 ; tj , yj ) = 0 , j = 1 : m , g(y1 , ym+1 ) = 0 ,
(2.78)
mit dem Newton-Verfahren. Das nichtlineare Gleichungssystem (2.78) hat die Form F(Y ) = 0 ∈ Rn(m+1) , mit dem Knotenvektor Y = [y1 , . . . , ym+1 ]T . (2.79) Soll dieses System mit dem Newton-Verfahren gel¨ost werden, so muss grad F(Y ) berechnet werden, wozu der Gradienten von Φ an den Stellen (tj , yj ) ben¨ otigt wird,
tj+1
gradv Φ(tj+1 ; tj , v) = I +
grad f (t, x(t)) gradv Φ(t; tj , v) dt.
(2.80)
tj
Das Vektorfeld zu diesem matrixwertigen Flussintegral ist W (t) = grad f (t, x(t)W (t) , W (t) ∈ Rn n , und die Anfangsbedingung f¨ ur (2.80) ist W (tj ) = I. Es sind also im Intervall [tj , tj+1 ] die n Anfangswertprobleme wk (t) = gradx f (t, x(t))wk (t) ∈ Rn , tj ≤ t ≤ tj+1 , wk (tj ) = ek , k = 1 : n , (2.81) zu l¨ osen, wobei x(t) die Rolle eines Parameters spielt und ek ∈ Rn der k-te Einheitsvektor ist.
2.5 Randwertprobleme
129
Entscheidend f¨ ur das Mehrzielverfahren ist die simultane L¨osung der n + 1 Anfangswertprobleme (2.77) und (2.80) in jedem Intervall [tj , tj+1 ]. Die Matrix grad F(Y ) hat dann die gleiche Form wie die Matrix L(τ ) in (2.76) mit Pj = − gradv Φ(tj+1 ; tj , yj ) , Qj = I . Das Verfahren entfaltet seine volle Kraft erst, wenn die Schießpunktabszissen tj geeignet gew¨ ahlt werden, was man aber dem Computer u ¨berlassen kann. Außerdem muss das Newton-Verfahren durch eine geeignete Schrittweitensteuerung globalisiert werden. Die Startwerte k¨onnen nicht beliebig sein, in einfachen F¨ allen gen¨ ugt aber eine lineare Funktion, die die Randbedingungen erf¨ ullt. (c) Randwertprobleme mit Parameter Gesucht ist ein Element aus der L¨osungsschar x(·, a) : [0 , 1] → Rn des Randwertproblems x (t; a) = f (t, x(t; a); a) , 0 ≤ t ≤ 1 , g(x(0; a) , x(1; a); a) = 0 ∈ Rn , (2.82) wobei der reelle Parameter a in einem gewissen Intervall frei variieren darf. Weil das Problem nun einen zus¨ atzliche Freiheitsgrad hat, h¨angt die numerische L¨ osung von der gew¨ ahlten Anfangsn¨ aherung f¨ ur x und a ab, von der man eine ziemlich genaue Vorstellung haben muss. Φ(t; t0 , x0 , a)
t
= x0 +
f (t, x(t; a); a) dt tj+1 Φ(tj+1 ; tj , yj (a), a) = yj (a) + f (t, x(t; a); a) dt t0
tj
das zu (2.82) geh¨ orende Flussintegral. Zur L¨osung des Gleichungssystems (2.79), also jetzt F(V ) = 0 ∈ Rn(m+1)+1 , V = [y1 , . . . , ym+1 ; a]T Knotenvektor ,
(2.83)
mit dem Newton-Verfahren ben¨ otigt man zus¨atzlich die Ableitung tj+1 ∂ ∂ ∂ Hj := Φ(tj+1 ; tj , yj (a), a) = yj (a) + f (t, x(t; a); a) ds ∂a ∂a ∂a tj tj+1 ∂ + gradx f (t, x(t; a); a) x(t; a) dt . ∂a tj Es ist also im Intervall [tj , tj+1 ] zus¨ atzlich das Anfangswertproblem ∂ f (t, x(t; a); a) + gradx f (t, x(t; a); a)vj (s) , ∂a ∂ (yj )(a) ∈ Rn , v1 (t1 ) = 0 , vj (tj ) = ∂a
vj (t) =
(2.84)
130
2 Numerische Methoden
zu l¨ osen. Wichtig ist auch hier, dass im Mehrzielverfahren alle n + 2 Anfangswertprobleme (2.77), (2.81) und (2.84) simultan gel¨ost werden. Man beachte, dass w¨ ahrend der ganzen Iteration neben der numerischen Approximation V auch die Ableitungen ya,j , j = 1 : m + 1, berechnet werden, nur dann sind befriedigende Resultate zu verzeichnen. Die Jacobi-Matrix grad F(V ) ist nun eine (m · n, m · n + 1)-Matrix der Blockform ⎤ ⎡ P1 Q1 0 . . . 0 0 H1 ⎥ ⎢ . . ⎥ ⎢ 0 P2 Q2 . . . . 0 H2 ⎥ ⎢ ⎥ ⎢ .. . . . . . . . . .. .. ⎥ ⎢. . . . . . . ⎥, (2.85) L := ⎢ ⎥ ⎢. . . . . .. .. .. .. 0 H ⎥ ⎢ .. m−1 ⎥ ⎢ ⎥ ⎢ ⎦ ⎣ 0 ... ... ... P Q H gx0 0
··· ··· 0
m
m
m
gx1 ga
deswegen wird im Gauß-Newton-Verfahren die Moore-Penrose-Inverse [grad F(V )]+ verwendet, vgl. Abschnitt 1.1(g). In jedem Gauß-NewtonSchritt ist ein unterbestimmtes lineares Gleichungssystem [grad F(Vj )](Vj+1 − Vj ) = −F(Vj ) zu l¨ osen, wozu der Algorithmus aus § 1.1(h3) verwendet werden kann. Damit das Verfahren nicht gegen die triviale L¨ osung konvergiert, muss eine gute Anfangsn¨ aherung V0 vorliegen. Bei einfacheren Problemen kann auch das BoxSchema entsprechend modifiziert werden. Beispiel 2.16. [Stoer] x1 = x2 , x1 (0) = 0 , x1 (1) = 1 . x2 = 5 sinh(5 x1 ) Als Starttrajektorie wird die gerade Verbindung der Punkte (0, x1 (0)) und ahlt. Es gilt aber limt→1.0326... x1 (t) = ∞, daher muss die (1, x1 (1)) gew¨ zun¨ achst ¨ aquidistante Anfangsunterteilung des Intervalls [0, 1] dem Problem angepasst werden.
2.6 Periodische Probleme
131
14
bound
12
1
10 0.8 8 0.6
x2(t)
6 0.4
x1(t)
4
0.2 2
0
0
t −0.2 −0.2
0
0.2
0.4
0.6
0.8
1
shooting points 1.2
Abb. 2.19. Beispiel 2.16
−2 −0.2
0
0.2
0.4
0.6
t 0.8
1
1.2
Abb. 2.20. Beispiel 2.16, Anpassung
2.6 Periodische Probleme (a) Probleme mit bekannter Periode Gesucht ist eine T -periodische L¨ osung x : R → Rn des Randwertproblems x (t) = f (t, x(t)) , 0 ≤ t ≤ T , x(0) = x(T ) ∈ Rn .
(2.86)
Hier ist mit x(t) immer auch x(t + α) , α ∈ R, eine T -periodische L¨osung, f¨ ur die Eindeutigkeit ist daher eine Phasenbedingung notwendig, aber trotzdem bleibt das Problem numerisch instabil. M¨ ogliche Phasenbedingungen sind etwa (1◦ ) ◦
(2 )
p(x(0)) := xk − η = 0 , η = 0 ; p(x(0)) := fk (x(0)) = 0 =⇒ xk (0) = 0 .
Damit ergeben sich aber n + 1 Randbedingungen f¨ ur n unbekannte Funktionen. Wenn ein Punkt auf dem Orbit bekannt ist, lassen sich befriedigende Ergebnisse auch mit einem guten L¨ oser f¨ ur Anfangswertprobleme erzielen. (b) Probleme mit unbekannter Periode Wenn die Periode T unbekannt ist, dann empfiehlt sich eine Transformation auf ein parameterabh¨angiges Problem mit bekannter Periode, z.B. hat die L¨ osung x von (s)) , x (0) = x (1) x (s) = T f (T s, x
(2.87)
die Periode Eins in s und x(t) = x (t/T ) ist eine L¨osung von (2.86) mit der Periode T . Die weitere Behandlung des Problems verl¨auft wie in Abschnitt 2.5(c) f¨ ur parameterabh¨ angige Probleme. Wegen der Randbedingung in (2.87) und dem in § 2.5(a) beschriebenen Sachverhalt l¨asst sich das relativ einfache Boxschema hier nicht anwenden. In den nachfolgenden Beispielen wird das Mehrzielverfahren mit fester Intervallunterteilung verwendet. Als Starttrajektorie dient die L¨osung eines Anfangswertproblems mit gesch¨ atztem Startwert.
132
2 Numerische Methoden
Beispiel 2.17. Nervenmembranmodell [Deuflhard84] 1 u˙ 1 = 3(u2 + u1 − u31 + λ) 3 1 u˙ 2 = − (u1 − 0.7 + 0.8u2 ) . 3 Umwandlung in ein parameterabh¨ angiges Problem mit Periode T = 1 : 1 x1 = 3T (x2 + x1 − x31 + λ) 3 T x2 = − (x1 − 0.7 + 0.8x2 ) . 3 Das Anfangswertproblem (2.84) hat die Form 1 v1 = 3(x2 + x1 − x31 + λ) + 3T (1 − x21 )v1 + 3T v2 3 1 T 0.8T v2 . v2 = − (x1 − 0.7 + 0.8x2 ) − v1 − 3 3 3 Testproblem : λ = −1 , Startwerte (x01 , x02 , T 0 ) = (3, 1.5, 12). Beispiel 2.18. W¨ armeleitproblem [Deuflhard84] u˙ 1 = −σ(u1 − u2 ) u˙ 2 = u1 (r − u3 ) − u2 u˙ 3 = u1 u2 − bu3 . Umwandlung in ein parameterabh¨ angiges Problem mit Periode T = 1: x1 = −σT (x1 − x2 ) x2 = T [x1 (r − x3 ) − x2 ] x3 = T (x1 x2 − b x3 ) . Das Anfangswertproblem (2.84) hat die Form v1 = −σ(x1 − x2 ) v2 v3
− σT (v1 + v2 )
= x1 (r − x3 ) − x2 + T [(r − x3 )v1 − v2 − x1 v3 ] = x1 x2 − b x3 + x2 v1 + T (x1 v2 − b v3 ) .
Testproblem : σ = 16 , b = 4 , r = 153.083 . Startwerte (x01 , x02 , x03 , T 0 ) = (0, −28, 140, 0.95). Beispiel 2.19. Arenstorf-Orbits [Arenstorf] Beim entarteten Dreik¨orperproblem sind drei K¨ orper (Erde, Mond, Satellit) mit den Massen m1 , m2 und m3 = 0 gegeben, sowie die folgenden Vereinfachungen: (1◦ ) Erde, Mond und Satellit bewegen sich in einer Ebene.
2.6 Periodische Probleme
133
(2◦ ) Der Abstand Erde–Mond ist konstant gleich Eins. orper wird vernachl¨assigt. (3◦ ) Der Einfluss der u ¨brigen Himmelsk¨ W¨ ahlt man die Achse Erde–Mond als x-Achse mit dem gemeinsamen Schwerpunkt der beiden Himmelsk¨ orper als Ursprung, einen Umlauf des Mondes als Zeiteinheit und setzt μ = m2 /(m1 + m2 ) ∼ 1/81, 45 (relative Mondmasse), μ = 1 − μ , so ergibt sich ein System von zwei Differentialgleichungen, vgl. § 6.2(e). F¨ ur die Umwandlung in ein 1-periodisches Problem mit der urR -Programm spr¨ unglichen Periode T wird auf das entsprechende MATLAB verwiesen. Beispiel 2.20. Die inhomogene Duffingsche Gleichung u ¨ + αu˙ + βu + γu3 = δ cos(ωt) ¨ ist ein Modellproblem zum Studium von Periodenverdopplung, Ubergang zum Chaos und (im homogenen Fall) f¨ ur Bifurkation periodischer L¨osungen [Seydel94]. Harmonische L¨ osungen haben hier die gleiche Periode T = 2π/ω wie die rechte Seite, im andern Fall entstehen seltsame Attraktoren“ (strange ” attractors). Tranformation auf ein parameterabh¨angiges System mit Periode Eins durch Substitution von t = T s , T = 2π/ω , ergibt wie oben mit y1 (s) = u(t) y1 = T y2 , y2 = −T αy2 + βy1 + γy13 − δ cos(2πs) . In Abb. 2.24 ist α = 0.2 , β = 0 , γ = 1 , und am Anfang δ = 5 . F¨ ur eine Starttrajektorie wird zuerst ein Anfangswertproblem gel¨ost, anschließend einfache Fortsetzung bis δ = 7 . Gesch¨ atzte Anfangsperiode ist T = 12 , finale Periode T = 10.2209 .
2
1.5
y (t) 2
1
220 200
0.5
180
z
0
t −0.5
0
140
y (t) 1
... y (t) −1
160
120
60 40
100 −60
20 0
−40 −20
−− x(t)
−1.5
−20
0
−40
20 40 60
−2
0
1
2
3
4
5
6
7
8
Abb. 2.21. Beispiel 2.17
9
10
−60
y
x
Abb. 2.22. Beispiel 2.18
134
2 Numerische Methoden
1
4
0.8 3
0.6 0.4
2
0.2
y
1
0 0
−0.2 −0.4
−1
−0.6 −2
−0.8 −1 −1.5
−1
−0.5
0 x
0.5
1
1.5
−3
−4 −3
Abb. 2.23. Beispiel 2.19
−2
−1
0
1
2
3
Abb. 2.24. Beispiel 2.20
2.7 Differential-algebraische Probleme In der Mechanik wird ein Extremalproblem im Regelfall u ¨ber die Variationsgleichungen gel¨ ost – vgl. § 4.1. Wenn zus¨atzliche Zwangsbedingungen vorliegen und diese Bedingungen Gleichungsrestriktionen sind, dann entsteht ein differential-algebraisches Problem, das nach einer ev. Diskretisierung der Raumver¨ anderlichen (Linienmethode) zum einen Teil aus einem System von gew¨ ohnlichen Differentialgleichungen und zum andern aus einem System von algebraischen Gleichungen besteht, wobei die letzteren in vielen F¨allen Fl¨ achen im Raum beschreiben (holonome Zwangsbedingungen), auf denen die L¨ osung des Differentialsystems lebt. Letztlich ist man dann mit einem Randwertproblem oder einem Anfangswertproblem konfrontiert, das bei anspruchsvolleren Aufgaben hochgradig nichtlinear ist. Numerische Verfahren zur L¨ osung nichtlinearer Randwertprobleme ben¨otigen eine konsistente Starttrajektorie, die oft schwierig zu finden ist. Wenn ein solches Problem aber k¨ unstlich in ein Kontrollproblem umgewandelt wird, k¨onnen moderne numerische Methoden der Optimierung eingesetzt werden, die ohne Starttrajektorie auskommen – vgl. §4.4. F¨ ur differential-algebraische Probleme, die reine Anfangswertprobleme sind, wurden spezielle Runge-Kutta-Verfahren entwickelt, von denen in diesem Abschnitt einige behandelt werden. Das Problem der konsistenten Anfangswerte tritt hier ebenfalls auf, es ist aber im Regelfall nur ein nichtlineares Gleichungssystem und mit den u ¨blichen Methoden zu l¨ osen. F¨ ur praktische Beispiele zu diesen Verfahren verweisen wir auf den Abschnitt 11.3 u orperprobleme. ¨ber Mehrk¨ Im Folgenden sei (x, y) die theoretische L¨osung und (u, v) ihre numerische Approximation. (a) Problemstellung Wir betrachten zun¨ achst ein singul¨ ares Anfangswertproblem in der separierten Form x (t) = f (t, x(t), y(t)) ∈ Rn , (x(0), y(0)) = (x0 , y0 ) , ε y (t) = g(t, x(t), y(t)) ∈ Rm , 0 ≤ ε 1
(2.88)
2.7 Differential-algebraische Probleme
135
mit hinreichend glatten Daten. Fasst man die abh¨angigen Ver¨anderlichen in z(t) = [x(t), y(t)]T zusammen, so kann das Differentialsystem auch in der Form (2.89) M z (t) = F (t, z(t)) ∈ Rn+m , z(t) = [x(t), y(t)]T geschrieben werden mit einer Matrix M ∈ Rn+m n+m , die f¨ ur ε = 0 singul¨ ar wird. Probleme von der Form M (x(t))x (t) = F (t, x(t)) werden am Besten umgewandelt in ein System x = y , M (x)y − F (x) = 0 .
(2.90)
Voraussetzung 2.2. (1◦ ) Das Problem (2.88) sei f¨ ur t ∈ [0, T ] , 0 < T , eindeutig l¨ osbar. ur ε = 0 sei ∇y g(x, y) in der N¨ ahe der L¨ osung (x, y) regul¨ar. (2◦ ) F¨ Ist ε = 0 , dann spricht man von einem differential-algebraischen Problem (DA-Problem), und die Anfangswerte m¨ ussen dann konsistent sein, d.h. es osung m¨ ussen solche Startmuss g(x0 , y0 ) = 0 gelten. Bei der numerischen L¨ werte zun¨ achst berechnet werden oder wenigstens n¨aherungsweise bekannt sein. Unter Vor. 2.2(2◦ ) heißt das DA-Problem vom Index 1, g ist in der N¨ ahe der L¨ osung aufl¨ osbar nach y , y(t) = G(t, x(t)) , und man erh¨alt durch Einsetzen theoretisch ein gew¨ ohnliches Anfangswertproblem mit dem Differentialsystem x (t) = f (t, x(t), G(t, x(t))). Beispiel 2.21. Van der Pol-Gleichung. Der lineare Oszillator x ¨ +αx+x ˙ = 0 ist ged¨ ampft f¨ ur α > 0 und instabil f¨ ur α < 0 . Wird der Parameter α durch μ(x2 − 1) , μ > 0 , ersetzt, so erh¨ alt man f¨ ur große |x(t)|-Werte eine D¨ ampfung und f¨ ur kleine |x(t)| eine Verst¨ arkung. Umwandlung in ein System erster Ordnung ergibt
5 4 3 2 1 0 −1
x˙ 1 = x2 , x˙ 2 = μ (1 − x21 )x2 − x1 ; setzt man x1 = y1 , y2 = μ x2 , s = t/μ und schreibt anschließend μ2 = 1/ε, so ergibt sich nach einer Neubenennung x˙ = y , ε y˙ = (1 − x2 )y − x .
−2 −3 −4 −5
−3
−2
−1
0
1
2
3
Abb. 2.25. Van der PolGleichung
In Abb. 2.25 ist das Phasenportr¨ at f¨ ur ε = 0.05 und die Kurve (1−x2 )y−x = 0 eingezeichnet. (b) DA-Probleme werden vorwiegend mit speziellen Runge-Kutta-Verfahren gel¨ ost, obwohl auch Mehrstellenverfahren angewendet werden k¨onnen insbesondere die R¨ uckw¨ artsdifferenzenverfahren aus § 2.4(i)(4◦ ). Ist zun¨achst ε > 0 , dann folgt mit den Bezeichnungen aus § 2.4(d) bei einem gemeinsamen Verfahren f¨ ur die getrennten Gleichungen
136
2 Numerische Methoden
U (t) = e × u(t) + τ (A × I)F (t, U (t), V (t)) ∈ Rr·n ε V (t) = ε e × v(t) + τ (A × I)G(t, U (t), V (t)) ∈ Rr·m u(t + τ ) = u(t) + τ (b × I)T F (t, U (t), V (t)) ∈ Rn ε v(t + τ ) = ε v(t) + τ (b × I)T G(t, U (t), V (t))
(2.91)
∈ Rm ;
dabei sind U (t) und V (t) die Vektoren der Zwischenstufen. Ist nun die Matrix A des Verfahrens regul¨ ar, dann folgt aus der zweiten Gleichung τ G(t, U (t), V (t)) = ε (A−1 × I)[V (t)) − (e × v(t))] , und bei Einsetzen in die letzte Gleichung l¨ asst sich der Parameter ε streichen. Insgesamt erh¨ alt man auf diese Weise eine direkte Approximation des DAProblems mit Runge-Kutta-Verfahren, U (t) = e × u(t) + τ (A × I)F (t, U (t), V (t)) 0 = G(t, U (t), V (t)) u(t + τ ) = u(t) + τ (b × I)T F (t, U (t), V (t))
∈ Rr·n ∈ Rr·m ∈ Rn
(2.92)
v(t + τ ) = (1 − bT A−1 e)v(t) + (b × I)T (A−1 × I)V (t) ∈ Rm , und es gilt R(∞) = 1 − bT A−1 e f¨ ur die Stabilit¨atsfunktion; vgl. (2.58). Allerdings wird bei diesem Typ von Verfahren die algebraische Nebenbedingung g(u, v) = 0 i.d.R. nur n¨ aherungsweise erf¨ ullt. Dieser Nachteil wird aber beseitigt, wenn die letzte Gleichung in (2.92) durch die Forderung g(un+1 , vn+1 ) = 0 ersetzt wird. Dieser indirekte Verfahrenstyp stellt eine konsistente Approximation von x (t) = f (x, G(x)) bei Systemen vom Index 1 dar. Wenn zus¨ atzlich zur Regularit¨ at von A noch die letzte Zeile von A mit dem Vektor b der Gewichte in der Kellerzeile u ¨bereinstimmt (steif genaue Verfahren), dann ist g(un+1 , vn+1 ) = 0 wegen der zweiten Gleichung in (2.92) automatisch erf¨ ullt, und die letzte Gleichung in (2.92) entf¨allt. Zum Beispiel haben die in § 2.4(j) beschriebenen Runge-Kutta-Verfahren vom Typ Radau II A die genannten Eigenschaften und eignen sich daher in besonderer Weise zur L¨ osung von DA-Problemen. Wenden wir ein Runge-Kutta-Verfahren auf das Differentialsystem M x = f (t, x) mit regul¨ arer Matrix M an, so erhalten wir in der gleichen Weise wie ¨ beim Ubergang von (2.91) zu (2.92) die Vorschrift (I × M ) U (t) − e × u(t) = τ (A × I)F (t, U (t)) ∈ Rr·n (2.93) u(t + τ ) = (1 − bT A−1 e)u(t) + (b × I)T (A−1 × I)U (t) ∈ Rm , und diese Vorschrift bleibt auch bei singul¨ arer Matrix M sinnvoll, aber dann h¨ angt das Verfahren von der Kondition der Matrix I × M − τ (A × I) also insbesondere von der Schrittweite τ ab.
2.7 Differential-algebraische Probleme
137
(c) Regul¨ are Matrizenpaare Ist (λ, u) charakteristisches Paar des verallgemeinerten Eigenwertproblems (A + λ B)u = 0 , A, B ∈ Rn n , dann ist x(t) = eλt u L¨ osung des Differentialsystems Bx + Ax = c(t) ∈ Rn
(2.94)
mit c(t) ≡ 0 . Ist hier z.B. A = B , det(A) = 0 , dann ist A + λB singul¨ar f¨ ur alle λ ∈ R , daher wird bei linearen Systemen (2.94) stillschweigend vorausgesetzt, dass das Matrizenpaar ( matrix pencil“) (A, B) regul¨ ar ist mit ” det(A + λ B) ≡ 0 . Satz 2.16. (Weierstrass, Kronecker) F¨ ur regul¨ are Paare (A, B) gibt es regul¨ are Matrizen P , Q, so dass gilt
C O I O P AQ = , P BQ = ; (2.95) O I O T ocken dabei ist T = diag(T1 , . . . , Tk ) eine Blockdiagonalmatrix mit Bl¨ Ti ∈ Rni ni der in § 1.1(c3) beschriebenen Form und n1 + . . . + nk = n . Beweis [Hairer], Bd. II, § 6.5. Multipliziert man (2.94) mit P und verwendet die Zerlegung
f y −1 = P c(t) , = Q x, g z dann ergeben sich zwei getrennte System f¨ ur y und z , y = Cy + f (t) , T z + z = g(t) .
(2.96)
(d) Differentialindex Das zweite System in (2.96) muss rekursiv gel¨ost werden. Ist z.B. k = 1 in Satz 2.16 und T = T1 ∈ Rm m , dann geht man von der letzten Zeile zm = gm (t) ∈ R aus und hat dann sukzessive die Komponenten (i+1) zi (t) , i = m − 1 : 1 , aus zi (t) = gi (t) − zi+1 (t) zu berechnen, wozu die (m)
(1)
Ableitungen gm , . . . , g2 ben¨ otigt werden. Mit diesen Ableitungen l¨asst sich T z + z = g(t) auch als explizites System schreiben, (i+1)
(i)
(i)
(m) (m) zi+1 + zi = gi (t) , i = 1, . . . , m − 1 , zm = gm (t) .
(2.97)
Allgemein ist der Differentialindex die Anzahl der notwendigen Ableitungen, um ein implizites Differentialsystem F (t, x (t), x(t)) = 0 analytisch in ein explizites System umzuformen. Das explizite System x (t) = f (t, x(t)) hat definitionsgem¨ aß den Index Null, und z.B. das System (2.97) hat den Index m, weil m-mal abgeleitet werden muss.
138
2 Numerische Methoden
System mit Index 1. Wenn die Matrix ∇y g(x, y) in der N¨ahe der L¨osung (x, y) von (2.98) x (t) = f (t, x(t), y(t)) , g(t, x(t), y(t)) regul¨ ar ist, dann folgt aus 0 = ∇x g(x, y)x + ∇y g(x, y)y zusammen mit (2.98)(1◦ ) das explizite System x = f (x, y) , y = −∇y (x, y)−1 ∇x g(x, y)f (x, y) . Das System (2.98) hat in diesem Fall den Index 1. System mit Index 2. Es sei ∇y g(x, y) in der N¨ahe der L¨osung von (2.98) singul¨ ar. Aus g(x, y) = 0 folgt h(x, y) := ∇x g(x, y)f (x, y) = 0 und ∇x h(x, y) = ∇2xx g(x, y)f (x, y) + ∇x g(x, y)∇x f (x, y) ∇y h(x, y) = ∇y ∇x g(x, y)f (x, y) + ∇x g(x, y)∇y f (x, y) . ar ist, dann ist x = f (x, y) , h(x, y) = 0 ein System mit Wenn ∇y h(x, y) regul¨ Index 1. Das System (2.98) hat in diesem Fall den Index 2. Nach Aufl¨osung alt man wieder ein explizites System von ∇x h(x, y)x + ∇y h(x, y)y = 0 erh¨ erster Ordnung, x = f (x, y) , y = −∇y h(x, y)−1 ∇x h(x, y)f (x, y) . System mit Index 3. Ist sowohl ∇y g(x, y) als auch ∇y h(x, y) in der N¨ahe der L¨ osung von (2.98) singul¨ ar, dann folgt k(x, y) := ∇x h(x, y)f (x, y) = 0 ar, dann hat das System x = aus h(x, y) = 0. Ist nun ∇y k(x, y) regul¨ f (x, y) , k(x, y) = 0 den Index 1. Das System (2.98) hat in diesem Fall den Index 3. (e) In j¨ ungerer Zeit wurden auch halb-explizite Runge-Kutta-Verfahren zur L¨ osung von DA-Problemen x (t) = f (x(t), y(t)) , g(x(t)) = 0
(2.99)
vorgeschlagen, U (t) = e × u(t) + τ (A × I)F (U (t), V (t)) ∈ Rr·n 0 = G(U (t)) ∈ Rr·m T u(t + τ ) = u(t) + τ (b × I) F (U (t), V (t)) ∈ Rn 0
= g(u(t + τ ))
(2.100)
∈ Rm .
Wenn die Koeffizientenmatrix A eine untere Dreiecksmatrix mit diag(A) = 0 ur einen Zeitschritt die folgende Rechenvorund βr = 0 ist, dann ergibt sich f¨ schrift:
2.7 Differential-algebraische Probleme
Setze u1 = u F¨ ur i = 2 : r setze i−1 ui = u + τ j=1 αij f (uj , vj ) berechne vi−1 mit dem Newton-Verfahren aus g(ui ) = 0 r Setze u(t + τ ) = u + τ i=1 βi f (ui , vi ) Berechne vr = v(t + τ ) mit dem Newton-Verfahren aus g(u(t + τ )) = 0
.
139
(2.101)
Satz 2.17. (1◦ ) Das Problem (2.99) sei f¨ ur t ∈ [0, T ] , 0 < T , eindeutig l¨ osbar. ur die Startwerte gelte g(x0 ) = 0 , ∇g(x0 )f (x0 , y0 ) = 0 . (2◦ ) F¨ ◦ ahe der L¨ osung sei ∇g(x)∇y f (x, y) regul¨ ar (System mit Index (3 ) In der N¨ 2). (4◦ ) In der Matrix A und dem Vektor b in (2.100) sei αi,i−1 = 0 , i = 2 : r , βr = 0 . Dann haben die Systeme in (2.101) f¨ ur hinreichend kleine τ eine lokal eindeutige L¨ osung. Beweis [Brasey92], [Brasey93]. Beispiel 2.22. HEM4, 5-stufiges Verfahren der Ordnung p = 4 nach [Brasey92].
⎡
− ⎢ ⎢ 3 10 ⎡ ⎤ ⎢ ⎢ √ ⎢ 1+ 6 A c 30 ⎣ ⎦ =⎢ √ ⎢ −79−31 6 ⎢ b ⎢ 150 ⎢ 14+5√6 ⎢ 6 ⎣ 0
−
−
−
−
−
−
√ 11−4 6 − − 30 √ √ −1−4 6 24+11 6 − 30 25 √ √ √ −8+7 6 −9−7 6 9− 6 6 4 4 √ √ 16− 6 16+ 6 0 36 36
− −
⎤
⎥ ⎥ ⎥ ⎥ ⎥ − ⎥ ⎥ . ⎥ − ⎥ ⎥ − 1 ⎥ ⎦ 1 − 9 −
3 10 √ 4− 6 10 √ 4+ 6 10
Nichtstation¨ are Navier-Stokes-Gleichugen in Geschwindigkeits-Druck-Form ((u, p)-Form) erweisen sich als DAE-Problem (2.99) nach einer Diskretisierung in den Raumver¨ anderlichen mit einer Finite-Element-Methode; s. § 9.6. Die Geschwindigkeit u spielt die Rolle von x und der skalare Druck p die Rolle von y . Die Inkompressibilit¨ atsbedingung div u = 0 entspricht der algebrai” schen“ Bedingung g(x) = 0 . Deswegen bieten sich hier halb-implizite RKV
140
2 Numerische Methoden
an. Die numerischen Ergebnisse sind recht akzeptabel, insbesondere weil die Nebenbedingung ein lineares Gleichungssystem mit konstanter Matrix f¨ ur die Komponenten des Drucks ergibt.
R 2.8 Hinweise zu den MATLAB -Programmen
KAPITEL02/SECTION_1_2_3 Abbildungen zu den Abschnitten 2.1 und 2.2 demo1.m Vier Gauss-Formeln im Intervall demo2.m Gauss- und Bell-Formeln im allgem. Dreieck bell.m Exakte Integration eines Polynoms in einem allgemeinen Dreieck gauss_1.m: Gauss-Legendre-Integration gauss_2/3/4.m: Gauss-Integration, suboptimal, drei Faelle gauss_t5.m: Gauss-Integration, Ordnung n = 5, allgem. Dreieck divdif.m: Verallgemeinerte dividierte Differenzen KAPITEL02/SECTION_4: Anfangswertprobleme Abbildungen zu Abschnitt 2.4 und Stab.-bereiche demo1.m Arenstorf-Orbits mit dopri.m, dopri.m MATLAB-Version der FORTRAN-Version von HAIRER dreik_a.m Differentialsystem des eingeschraenkten Dreikoerperproblems stab_region.m Stabilitaetsbereiche von Einschrittverfahren KAPITEL02/SECTION_5: Randwertprobleme adapt01.m Anpassung der Schiesspunkte in Bsp. 2.16 box.m Box-Schema fuer Newton-Verfahren bsp01.m Beispiel Stoer-Bulirsch, Par. 7.3, Bsp. 1 demo1.m Masterfile fuer Mehrzielverfahren mehrziel.m Mehrzielverfahren fuer Newton-Verfahren newton.m Quasi-globales Newton-Verfahren Kapitel02/SECTION_6: Periodische Probleme bsp01.m Nervenmembranmodell bsp02.m Waermeleitproblem bsp03.m Arenstorf-Orbit I bsp04.m Duffingsche Gleichung demo1.m Masterfile fuer Mehrzielverfahren demo2.m Periodische Loesung d. Duffingschen Gleichung demo3.m Weitere Loesungen d. Duffingschen Gleichung mehrziel_p.m Mehrzielverfahren fuer Newtonverfahren und Probleme mit unbekannter Periode newton_p.m Quasiglobales Newtonverf. fuer periodische Probleme
3 Optimierung
In der Optimierung gilt mehr noch als anderswo, dass jedes Verfahren durch ein geeignetes Beispiel ausgehebelt werden kann; oft muss man sich mit Verbesserungen gegen¨ uber der Nominall¨ osung zufrieden geben. Die F¨ ulle der Methoden ist kaum noch u ¨berschaubar, und st¨andig kommen neue hinzu. Als Standardwerke zur Nichtlinearen Optimierung w¨aren etwa [Himmelblau], [Spellucci] und [Polak] zu nennen; aber auch (auf Zufallszahlen basierende) Monte-Carlo-Techniken haben ihren Einzug gehalten, vgl. z.B. [Hajek], [VanLaarhoven]. Die Grundidee aller Verfahren ist meistens ein einfaches geometrisches oder physikalisches Prinzip, das Ausf¨ uhren wird kompliziert (insbesondere wenn man auf Sprungbefehle wie bei Matlab verzichten muss), und die Absicherung gegen Bedienungsfehler geht ins Uferlose. Exemplarisch sollen in diesem Kapitel das Projektionsverfahren und das Strafkostenverfahren behandelt werden, die in der Community gut etabliert sind. Beide unterscheiden sich grunds¨ atzlich in ihrem Wesen und ihren Eigenschaften: Beim Projektionsverfahren wird im linearen wie im nichtlinearen Fall der Gradient der Zielfunktion auf den Rand des zul¨ assigen Bereichs projiziert und daraus die neue Suchrichtung bestimmt. Beim Strafkosten- oder Penaltyverfahren wird die Verletzung der Nebenbedingungen unter Strafe gestellt. An die Stelle der Lagrange-Multiplikatoren treten hier formal Strafkostenparameter, die aber keinerlei physikalische Bedeutung mehr haben. Sie m¨ ussen durch eine geeignete Strategie im Verlauf der Iteration an die geometrische Situation angepasst werden, damit das Verfahren gute Ergebnisse liefert. Die Entwicklung ist hier wie anderswo in der Optimierung noch lange nicht abgeschlossen; vgl. z.B. [Byrd]. Die Natur hat sich bei der Konstruktion optimaler Systeme unendlich viel Zeit gelassen. Wir dagegen m¨ ussen das Verh¨altnis von Zeitaufwand und Genauigkeit sorgf¨ altig abw¨ agen, und die Bewertung dieser gegens¨atzlichen Kriterien ¨ andert sich fortw¨ ahrend mit dem technischen Fortschritt bei den Hardware-Komponenten.
E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 3, c Springer-Verlag Berlin Heidelberg 2010
142
3 Optimierung
Hinweis f¨ ur dieses und das n¨ achste Kapitel: 1. Vektoren werden nicht unterstrichen! 2. Es wird mit Zeilenvektoren a ∈ Rn und Spaltenvektoren b ∈ Rn gerechnet, z.B. ist dann a b ∈ R und b a ∈ Rn n . Regel: . Primales Problem/Primalraum = Spaltenvektoren . Duales Problem/Dualraum = Zeilenvektoren.
3.1 Minimierung einer Funktion (a) Abstiegsverfahren Bei der Suche nach einem (ev. lokalen) Minimum einer hinreichend glatten, skalaren Funktion f wird i.d.R. ein station¨ arer oder ¨ kritischer Punkt x mit ∇f (x) = 0 berechnet, weitere Uberlegungen m¨ ussen dann zeigen, ob es sich tats¨ achlich um einen Tiefpunkt von f handelt. Dabei geht man iterativ vor, in jedem Schritt wird nach einer geeigneten Strategie eine Abstiegsrichtung d und eine Schrittweite σ gew¨ahlt, was in etwa zu der folgenden Rechenvorschrift f¨ uhrt: W¨ ahle Startvektor x , Toleranz tol . done = 0 WHILE NOT done W¨ ahle Richtung d und Schrittweite σ so, dass gilt ϕ(σ) := f (x − σ d) < f (x) x := x − σ d done = (σ d < tol) END
.
(3.1)
Mangels einer besseren M¨ oglichkeit wird hier i.d.R. zu einem einfachen Abbrechkriterium gegriffen, das eigentlich nur erlaubt ist, wenn die Konvergenz der Iteration auf andere Weise gesichert ist. Im andern Fall kann das Kriterium eine Konvergenz vort¨ auschen wie das bekannte Beispiel der harmonischen Reihe zeigt; das Ergebnis der Iteration ist also stets kritisch zu u ufen. ¨berpr¨ (b) Negative Beispiele Bei der Wahl von Richtung d und Schrittweite σ ist ebenfalls Vorsicht geboten. Zwei einfache Beispiele von [Dennis] demonstrieren dies auf eindrucksvolle Weise: f (x) = x2 , x ∈ R , x0 = 2 , x∗ = 0 . ahle di = (−1)i , σi = 2 + 3 · 2−i−1 f¨ ur i = 0, 1, . . . , dann folgt (1◦ ) W¨ xi+1 = xi − σi di = (−1)i+1 (1 + 2−i−1 ) .
3.1 Minimierung einer Funktion
143
(2◦ ) W¨ ahle di = 1 , σi = 2−i−1 , f¨ ur i = 0, 1, . . . , dann folgt xi+1 = xi − σi di = 1 + 2−i−1 .
5
5
4
4
3
3
2
2
1
1
0
0
−1 −3
−2
−1
0
1
2
3
Abb. 3.1. Beispiel 1(a)
−1 −3
−2
−1
0
1
2
3
Abb. 3.2. Beispiel 1(b)
In beiden F¨ allen folgt f (xi ) −→ 1 = 0; im ersten Fall ist die Abnahme von i→∞
f relativ zur Schrittweite zu klein und im zweiten Fall wird die Schrittweite zu klein. (c) Konvergenz Der Gradient ∇f (x) von f im Punkt x zeigt bekanntlich in die Richtung, in der f am st¨ arksten w¨ achst, daher zeigt der Vektor −∇f (x) in die Richtung der an der Stelle x. Die Abstiegsrichtung −d := −d(x) muss mit −∇f (x) immer einen Winkel kleiner als π/2 bilden, d.h. es muss (in der unten eingef¨ uhrten Niveaumenge Lf (f (x0 ))) gelten ∃ ε > 0 ∀ x ∀ d(x) : 0 ≤ Winkel(∇f (x), d(x)) ≤
π −ε . 2
(3.2)
Als Schrittweitenstrategie ist der Goldstein-Armijo-Abstiegstest (GA-Test) eine gute Wahl; abgesehen von einigen technischen Details hat er die folgende Form: Es sei ϕ(σ) = f (x − σd) und ϕ (0) = −∇f (x)d < 0 , vgl. (3.1). W¨ ahle 0 < δ < 1, z.B. δ = 1/100 , und in jedem Schritt zun¨ achst (z.B.) σ = 1 . Halbiere dann σ solange, bis gilt (vgl. Abb. 3.4) f (x − σ d) < f (x) + σ δϕ (0) =: g(σ)
.
(3.3) Aufw¨ andigere Schrittweitenstrategien lohnen sich im Regelfall kaum. In Abb. 3.4 ist ψ(σ) = ϕ(0) + ϕ (0)(1 − δ)σ + d2 M σ 2 /2 mit M = Max{∇2 f (ξ) , ξ ∈ convLf (f (x0 ))} ; vgl. den folgenden Satz 3.1. Diese Kurve bleibt immer oberhalb von ϕ(σ), daher gilt f¨ ur die nach dem GA-Test gew¨ ahlte Schrittweite stets σ ≥ /2 .
144
3 Optimierung
d
ψ(σ)
∇ f(x)
φ(σ)
g(σ) Tangente −∇ f(x)
Abb. 3.3. Zul¨ assiger Winkelbereich f¨ ur d
ρ/2
ρ
σ
Abb. 3.4. Goldstein-Armijo-Test
Satz 3.1. (1◦ ) Es sei f ∈ C 2 (Rn ; R) nach unten beschr¨ ankt. ur den (2◦ ) Es sei die Niveaumenge Lf (f (x0 )) := {x ∈ Rn , f (x) ≤ f (x0 )} f¨ Startwert x0 kompakt. (3◦ ) Es sei die Menge Ω = {x∗ ∈ Rn , ∇f (x∗ ) = 0} der kritischen Punkte endlich und nicht leer. assig im Sinne von (3.2). (4◦ ) Es seien die Richtungen d in Lf (f (x0 )) zul¨ ahlt. (5◦ ) Es seien die Schrittweiten σ nach (3.3) gew¨ Dann konvergiert die Folge (3.1) mit dem Startwert x0 gegen einen kritischen Punkt x∗ . Beweis [Spellucci], § 3.1.2.2. (d) Effiziente Wahl der Abstiegsrichtung Nat¨ urlich h¨angt die Geschwindigkeit des Abstiegsverfahrens entscheidend von der Wahl der Richtung d ab, dabei ist aber der gesamte Rechenaufwand zu beachten und nicht nur die Anzahl der Iterationen. Beim Verfahren des steilsten Abstiegs wird d = ∇f (x) direkt gew¨ ahlt. Diese lokal optimale Wahl f¨ uhrt jedoch in den meisten F¨allen zu dem gef¨ urchteten Zigzagging“, wodurch das Verfahren ausgebremst wird. ” Andererseits k¨ onnen konjugierte“ Richtungen eingef¨ uhrt werden, welche die ” lokal/globalen Verh¨ altnisse besser ber¨ ucksichtigen. Bei diesen Verfahren muss aber ebenso wie beim unten beschriebenen Newton-Verfahren ¨ofter die aufw¨ andige Hesse-Matrix A = ∇2 f (x) berechnet werden. Deswegen wurden die Verfahren der variablen Metrik eingef¨ uhrt, deren Name sich aus der Tatsache herleitet, dass jede positiv definite Matrix ein Skalarprodukt und damit eine Metrik bestimmt. Am Einfachsten lassen sich diese Verfahren beschreiben, wenn wir kurz ein lineares Gleichungssystem Ax − b = 0 mit reahlt man hier die Abstiegsrichtung gul¨ arer Matrix A ∈ Rn n betrachten. W¨ −d = −B∇f (x) , so folgt die L¨ osung f¨ ur B = A−1 in einem einzigen Schritt: x1 = x0 − A−1 (Ax0 − b) = A−1 b . Aber auch wenn B die Inverse A−1 nur mehr oder weniger gut approximiert, erh¨ alt man auf diese Weise akzeptable Ergebnisse. Bei den Verfahren der variablen Metrik w¨ahlt man allgemein
3.1 Minimierung einer Funktion
145
T di = A−1 i ∇f (xi ) , i = 1, 2, . . . ,
es wird also in jedem Schritt ein lineares Gleichungssystem Ai di = ∇f (xi ) gel¨ ost. Die Forderung lautet nun: Berechne die Matrizenfolge {Ai } aus den bisher bekannten Zutaten xj , ∇f (xj ), j = 0 : i − 1 , so dass An = A gilt. Nach n Iterationsschritten f¨ angt man wieder von vorne an (nat¨ urlich mit den neuesten Werten). Ein solches Verfahren wurde nach mehreren Anl¨aufen von Broyden, Fletcher, Goldfarb und Shannon gefunden und stellt mittlerweile eine mathematische Ikone dar. Bei der Anwendung auf auf eine konvexe quadratische Zielfunktion wirkt sich dieses BFGS-Verfahren noch nicht so vorteilhaft aus, aber bei einer allgemeinen gleichm¨aßig konvexen Zielfunktion kann es sogar dem Newton-Verfahren hinsichtlich der gesamten Rechenzeit u ur das BFGS-Verfahren gilt aber nicht notwendig ¨berlegen sein. (F¨ Ai → ∇2 f (x∗ ) .) Zur weiteren Diskussion sei auf [Spellucci] verwiesen. function [W,errorcode] = bfgs(name,X,TOL); % BFGS-Verfahren, vgl. Spellucci, S. 135 % f(x) = x’Ax/2 + b’x + c, A symm. positiv definit % errorcode = 1: Abstiegsrichtung unzulaessig % errorcode = 2: GA_Test versagt % errorcode = 3: Max. Schrittzahl in Iteration MAXITER = 10; errorcode = 0; A = eye(length(X)); W = X; ITER = 0; DONE = 0; GRAD = feval(name,X,2); while ~DONE ITER = ITER + 1; D = A\GRAD’; [Y,errorcode] = ga_test(name,GRAD,X,D,1); U = Y - X; V = A*U; GRAD1 = feval(name,Y,2); NORM = norm(GRAD1); Z = GRAD1 - GRAD; A = A - V*V’/(V’*U) + Z’*Z/(Z*U); GRAD = GRAD1; X = Y; W = [W,X]; DONE = norm(U) < TOL | ITER > MAXITER | NORM < TOL; end if ITER > MAXITER errorcode = 3; end (e) Das Newton-Verfahren ist das klassische Arbeitspferd bei der Aufgabe, ein nichtlineares Gleichungssystems F (x) = 0 ∈ Rn zu l¨osen. Durch Einf¨ uhrung einer variablen Schrittweite σ wird aus dem urspr¨ unglich lokal konvergenten ein weitgehend global konvergentes Verfahren etwa der folgenden Form:
146
3 Optimierung
W¨ ahle einen geeigneten Startwert x , w¨ ahle Toleranz tol done = 0 WHILE NOT done W¨ ahle die Schrittweite σ z.B. nach der GA-Strategie, (beginnend mit σ = 1 wegen der lokal quadratischen Konvergenz) y = x − σ ∇F (x)−1 F (x) x=y done = (x − y < tol) END Wie schon oben erw¨ ahnt, ist das Abbrechkriterium kritisch zu u ufen. ¨berpr¨ Um den Konvergenzsatz 3.1 anzuwenden, betrachten wir das Newton-Verfahren als Abstiegsverfahren zur Minimierung von f (x) =
1 1 F (x)T F (x) = F (x)2 . 2 2
(3.4)
Die Newton-Richtung d(x) = ∇F (x)−1 F (x) f¨ ur die skalare Funktion f erf¨ ullt dann die Bedingung (3.2) f¨ ur zul¨ assigen Abstieg, wenn die JacobiMatrix ∇F in der kompakten Menge Lf (f (x0 )) regul¨ar bleibt. Das NewtonVerfahren ist immer die erste Wahl bei der L¨osung von nichtlinearen Gleichungssystemen. Es ist relativ unempfindlich gegen¨ uber einer ungenauen Jacobi-Matrix ∇F (x), daher muss diese nicht in jedem Schritt aufdatiert werden. Wenn das Verfahren versagt, liegt der Verdacht auf einen systematische Fehler nahe, bei dem etwa die Jacobi-Matrix nicht mehr stetig ist oder singul¨ ar wird. Die in KAPITEL03 angegebene Variante nach [Hoellig] erzielt automatisch σ = 1 in der N¨ ahe der L¨ osung und gew¨ahrleistet damit lokal quadratische Konvergenz. Das Minimierungsverfahren von Nelder und Mead ist Teil der OptimiR . Es ist ein sehr geistreiches Verfahren, zation Toolbox von MATLAB das ohne Ableitungen auskommt aber f¨ ur die meisten Anwendungen (bisher) zu langsam ist. Gleichungs- und Ungleichungsrestriktionen k¨onnen nach [Himmelblau] miterfasst werden, wodurch der Zeitaufwand jedoch noch einmal erheblich zunimmt. Wenn die Gradienten von Zielfunktion und Nebenbedingungen etwa bei großen Systemen nicht zug¨ anglich sind, wird das Verfahren auf Großrechnern oder im Rechnerverbund eingesetzt; vgl. KAPITEL03\FLEXIPLEX. Beispiel 3.1.
f (x, y) = 1.1x2 + 1.2y 2 − 2xy + 1 + x2 + y 2 − 7x − 3y (x∗ , y ∗ ) = (15.376, 13.786) .
3.2 Extrema mit Nebenbedingungen
147
25
20
15
10
5
0
−5 −5
0
5
10
15
20
25
Abb. 3.5. BFGS-Verfahren und Verfahren des steilsten Abstiegs
Beispiele zum Newton-Verfahren werden in der Kontrolltheorie behandelt.
3.2 Extrema mit Nebenbedingungen Es sei Rn+ der Ordnungskegel im Rn , also x ≥ 0 wenn ∀ i : xi ≥ 0 und x > 0 wenn ∀ i : xi > 0 , und weiter x ≥ y , wenn x − y ≥ 0 , usw.; vgl. § 1.10. (a) Problemstellung F¨ ur drei stetige Funktionen f : Rn → R , n m n g : R → R , h : R → Rp mit den Komponenten g i bzw. hj ist eine L¨osung x∗ des Minimumproblems {f (x) ; g(x) ≤ 0 , h(x) = 0} = Min!
(3.5)
gesucht. Das Problem heißt differenzierbar, wenn die Funktionen f, g, h (F-)differenzierbar sind, und es heißt konvex, wenn f, g, h konvex sind; dann ist die Menge der zul¨ assigen Punkte S := {x ∈ Rn , g(x) ≤ 0 , h(x) = 0} konvex; vgl. § 1.10. Bezeichnet L(f (x0 )) = {x ∈ Rn ; f (x) ≤ f (x0 )} wieder die Niveaumenge, dann existiert eine nicht notwendig eindeutige L¨osung, wenn ur ein x0 ∈ Rn kompakt und nicht leer ist. die Menge S ∩ L(f (x0 )) f¨ (b) Multiplikatorregel Nach einer ebenso einfachen wie genialen Idee von Lagrange (1736-1813) wird dem Problem (3.5) eine Funktion L : Rn × Rm × Rp (x, y, z) → L(x, y, z) := f (x) + yg(x) + zh(x) ∈ R zugeordnet, und es werden an Stelle der Zielfunktion f die station¨aren Punkte dieser Lagrange-Funktion untersucht. Urspr¨ unglich wurden auf diese Weise Bewegungen von Massepunkten unter Zwangsbedingungen berechnet,
148
3 Optimierung
wobei die Lagrange-Multiplikatoren (die Komponenten von) y und z gewisse Proportionalit¨atsfaktoren der Zwangskr¨ afte sind, deren Existenz niemand bezweifelt hat, daher wird diese Frage erst sp¨ ater behandelt. Der folgende Satz u ur viele L¨osungsans¨atze in ¨ber die Lagrange-Funktion ist die Grundlage f¨ der Optimierung und der Kontrolltheorie. Er erscheint zun¨achst trivial, aber seine Folgerungen f¨ ur den Gradienten der Lagrange-Funktion sind es nicht. Satz 3.2. Es seien die folgenden Voraussetzungen erf¨ ullt: (1◦ ) Es gibt ein Tripel (x∗ , y ∗ , z ∗ ) mit y ∗ ≥ 0 und x∗ = Arg Minx {f (x) + y ∗ g(x) + z ∗ h(x)} , ◦
∗
(3.6)
∗
assig, (2 ) x ∈ S, d.h. x ist zul¨ (3◦ ) y ∗ g(x∗ ) = 0 ( Komplementbedingung ). Dann gilt x∗ = Arg Min{f (x) ; g(x) ≤ 0 , h(x) = 0}, osung des Minimumproblems (3.5). d.h., x∗ ist L¨ Die meisten numerischen Verfahren zu diesem Problemkreis liefern y ∗ g(x∗ ) = 0 und y ∗ ≥ 0 dann folgt g(x∗ ) ≤ 0 und damit die Zul¨assigkeit von x∗ . Beweis. F¨ ur alle x ∈ S gilt f (x∗ )
(b),(c)
=
(a)
≤
f (x∗ ) + y ∗ g(x∗ ) + z ∗ h(x∗ ) x∈S
f (x) + y ∗ g(x) + z ∗ h(x) ≤ f (x) .
Die Behauptung gilt genauso f¨ ur ein Maximumproblem, wenn in der Lagrange-Funktion L das positive Vorzeichen von y g(x) durch das negative Vorzeichen ersetzt wird. Man beachte aber, dass die Existenz der LagrangeMultiplikatoren 0 ≤ y ∈ Rm und z ∈ Rp hier vorausgesetzt wird, daher wird (3.6) vielfach in der Form eines Ansatzes verwendet, der im Nachhinein zu rechtfertigen ist, indem z.B. geeignete y und z berechnet werden oder sich vielleicht von selbst ergeben. Eine Ungleichungsrestriktion g i (x) ≤ 0 heißt aktiv in x, wenn g i (x) = 0 inaktiv in x, wenn g i (x) < 0
.
Nach Voraussetzung (3◦ ) muss ein Lagrange-Multiplikator yi im Optimum orige Bedingung g i in x∗ inaktiv ist. x∗ Null sein, wenn die zugeh¨ Ist das Problem differenzierbar, dann folgt aus der Voraussetzung (1◦ ) die notwendige Bedingung f¨ ur ein Minimum
∇g(x∗ ) . (3.7) ∇f (x∗ ) + y ∗ ∇g(x∗ ) + z ∗ ∇h(x∗ ) = 0 ∈ Rn , G(x∗ ) := ∇h(x∗ )
3.2 Extrema mit Nebenbedingungen
149
Sie besagt, dass sich der Gradient der Zielfunktion in x∗ als Linearkombination der Gradienten der Nebenbedingungen darstellen l¨asst, oder m.a.W. dass ∇f (x∗ ) im (zeilenweisen) Wertebereich der Matrix G(x∗ ) liegt. Ein Punkt x∗ erf¨ ullt die Multiplikatorregel (MR) oder auch, x∗ ist ein Kuhn-Tucker-Punkt, wenn die Bedingung (3.7) sowie die ur ein Paar Voraussetzungen (2◦ ) und (3◦ ) von Satz 3.2 in x∗ f¨ (y ∗ , z ∗ ) ∈ Rm × Rp mit y ∗ ≥ 0 gelten. (3.8) Enth¨ alt das Minimumproblem nur Gleichungen, dann entf¨allt nat¨ urlich die alt andererseits das Problem nur UngleiKomplementbedingung (3◦ ). Enth¨ chungen, dann ist das System ∇x L(x, y) = 0 , y ≥ 0 , y g(x) = 0 osen. Bei einem direkten L¨osungsversuch m¨ ussen hier f¨ ur (x, y) ∈ R ×Rm zu l¨ oglichkeiten yi > 0 , yi = 0 , i = 1 : m durchgespielt und anschließend alle 2m M¨ noch die Zul¨ assigkeit der berechneten Punkte x verifiziert werden; deswegen scheidet dieser Weg im Regelfall aus. n
Die Multiplikatorregel erweist sich als das grundlegende Kriterium bei der L¨ osung von (3.5), was in den folgenden S¨ atzen 3.3 und 3.5 zum Ausdruck kommt. Satz 3.3. (MR hinreichend bei konvexen Problemen) Ist das Minimumproblem (3.5) konvex (also h affin linear) und differenzierbar, dann ist jeder Kuhn-Tucker-Punkt globale Minimalstelle von f auf S, also L¨ osung des Minimumproblems. Beweis SUPPLEMENT\chap03a. Nach dem Beweis bleibt die Behauptung richtig, wenn die MR durch [∇f (x∗ ) + y ∗ ∇g(x∗ )](x − x∗ ) ≥ 0 auf konvexen Teilmengen C ⊂ Rn ersetzt wird. Wenn in einem Punkt die Gradienten der aktiven Ungleichungen und die Gradienten der Gleichungen zusammen den ganzen Zeilenraum Rn aufspannen, gibt es sicher Lagrange-Multiplikatoren y und z, so dass (3.7) gilt, wobei aber y nicht notwendig vorzeichenbeschr¨ ankt sein muss. Zul¨assige Punkte heißen singul¨ ar, wenn es keine Lagrange-Multiplikatoren y ≥ 0 und z gibt, derart dass (3.7), also die Multiplikatorregel gilt. Diese Punkte m¨ ussen immer getrennt untersucht werden. F¨ ur die Existenz solcher LagrangeMultiplikatoren gibt es ca. zwanzig verschiedene Regularit¨ atsbedingungen (constraint qualifications), die sich aber nur zum Teil in eine Hierarchie einordnen lassen; vgl. [Peterson]. Um eine der gebr¨auchlichsten Regeln anzugeben sei
150
3 Optimierung
A(x) = {i ∈ {1, . . . , m}, g i (x) = 0} die Indexmenge der aktiven Ungleichungsrestriktionen im Punkt x ∈ S, und es sei ∇g A (x) die Matrix mit den Gradienten ∇g i (x) , i ∈ A(x) , als Zeilen. Der Punkt x ∈ S erf¨ ullt die Rangbedingung, wenn die Matrix der Gradienten aller aktiven Nebenbedingungen in x,
∇h(x) ∇g A (x) den maximalen Zeilenrang p + |A(x)| hat, d.h. alle Zeilen dieser Matrix linear unabh¨ angig sind; notwendigerweise ist dann p + |A(x)| ≤ n.
(3.9)
Ist nun I ein abgeschlossenes Intervall mit nichtleerem Inneren int(I) und x : I t → x(t) ∈ Rn eine hinreichend glatte Kurve, dann gilt nach Lemma 1.27 t∗ ∈ int(I) und f (x(t∗ )) = Mint∈I f (x(t)) =⇒ ∇f (x(t∗ ))x (t∗ ) = 0 , t∗ ∈ I
und f (x(t∗ )) = Mint∈I f (x(t)) =⇒ ∇f (x(t∗ ))x (t∗ ) ≥ 0 , h(x(t∗ )) =
0
=⇒ ∇h(x(t∗ ))x (t∗ ) = 0 .
Zur Umkehrung dieses Sachverhaltes definieren wir eine anschauliche Eigenschaft der beiden Funktionen g und h: Definition 3.1. (1◦ ) Es sei h(x∗ ) = 0 , dann heißt h(x) = 0 lokal l¨osbar in x∗ , wenn ∀ v ∈ Rn ∃ ε > 0 ∃ ϕ : R → Rn , ϕ(α) = o(|α|) : ∇h(x∗ )v = 0 , 0 < α ≤ ε =⇒ h(x∗ + αv + ϕ(α)) = 0 . (2◦ ) Es sei g(x∗ ) ≤ 0 , dann heißt g(x) ≤ 0 lokal l¨ osbar in x∗ , wenn ∀ v ∈ Rn ∃ ε > 0 ∃ ϕ : R → Rn , ϕ(α) = o(|α|) : ∇g A (x∗ )v ≤ 0 , 0 < α ≤ ε =⇒ g A (x∗ + αv + ϕ(α)) ≤ 0 . Die inaktiven Ungleichungsrestriktionen spielen bei dieser lokalen Eigenschaft keine Rolle. Satz 3.4. (Ljusternik, Regularit¨ atsbedingung) (1◦ ) Ist h(x∗ ) = 0 und hat ∇h(x∗ ) den maximalen Zeilenrang, dann ist h(x) = 0 lokal l¨ osbar in x∗ . ◦ (2 ) Ist g(x∗ ) ≤ 0 und hat ∇g A (x∗ ) den maximalen Zeilenrang, dann ist g(x) ≤ 0 lokal l¨ osbar in x∗ . Beweis [Craven95], § 3.7.
3.2 Extrema mit Nebenbedingungen
151
Satz 3.5. (MR lokal notwendig) Ist das Minimumproblem (3.5) differenzierosung und erf¨ ullt x∗ die Rangbedingung (3.9), dann gilt die bar, ist x∗ lokale L¨ ∗ Multiplikatorregel in x . Beweis. Wir f¨ uhren wieder den Beweis f¨ ur Gleichungen h und Ungleichungen g getrennt. (1◦ ) Nach Voraussetzung existiert zu jedem v mit ∇h(x∗ )v = 0 lokal eine Kurve x(t) = x∗ + tv + ϕ(t) mit h(x(t)) = h(x∗ + tv + ϕ(t)) = 0 , 0 ≤ t . Dann ist aber auch −∇h(x∗ )v = 0, und der gleiche Sachverhalt gilt, wenn v durch −v ersetzt wird. Damit ist x∗ innerer Punkt einer Kurve, die ganz im zul¨ assigen Bereich liegt, und es folgt ∇f (x∗ )x (0) = ∇f (x∗ )v = 0, also . / ∀ v : ∇h(x∗ )v = 0 =⇒ ∇f (x∗ )v = 0 =⇒ ∇f (x∗ ) ∈ Ker(∇h(x∗ ))⊥ = Range(∇h(x∗ )T ) , nach Satz 1.2, daher gibt es ein z ∗ ∈ Rp mit ∇f (x∗ )T = −∇h(x∗ )T z ∗ . (2◦ ) Zu jedem v mit ∇g A (x∗ )v ≤ 0 existiert lokal eine Kurve x(t) = x∗ + tv + ϕ(t) mit g(x(t)) = g(x∗ + tv + ϕ(t)) ≤ 0 , 0 ≤ t . Weil x∗ lokale Minimumstelle ist, folgt ∇f (x∗ )x (0) = ∇f (x∗ )v ≥ 0 . Es gilt also −∇g A (x∗ )v ≥ 0 =⇒ ∇f (x∗ )v ≥ 0 . Nach dem Lemma 1.1.24 von Farkas gibt es ein 0 ≤ y ∗A ∈ R|A| mit ur Ungleichun−∇g A (x∗ )T y ∗A = ∇f (x∗ )T . Hieraus folgt die Behauptung f¨ ur i ∈ / A. gen, wenn man y ∗i = 0 setzt f¨ Beispiel 3.2. n = 2 , m = 3 , p = 0 (Abb. 3.6). f (x1 , x2 ) = x1 = Min! g 1 (x1 , x2 ) = −x1 , g 2 (x1 , x2 ) = −x2 , g 3 (x1 , x2 ) = −(1 − x1 )3 + x2 . Der Punkt x∗ = (1 , 0) ist die Minimumstelle, dort ist g 1 inaktiv, und es gilt ∇f (x∗ ) = (1 , 0) , ∇g 2 (x∗ ) = (0 , −1) , ∇g 3 (x∗ ) = (0 , 1) . Es ist y ∗1 = 0 , aber y ∗2 und y ∗3 existieren nicht. Die S¨ atze 3.3 und 3.5 beschreiben den Zusammenhang zwischen KuhnTucker-Punkten und der L¨ osung des Extremalproblems. Die Multiplikatorregel ist aber ein lokale Eigenschaft, w¨ ahrend Satz 3.2 eine globale Aussage ohne irgendwelche Glattheitsvoraussetzungen macht, n¨amlich dass bei geeigneter Wahl der Lagrange-Multiplikatoren die Extremalstellen der LagrangeFunktion L und der Zielfunktion f auf der zul¨ assigen Menge u ¨bereinstimmen.
152
3 Optimierung
Die Umkehrung dieser Fragestellung, also die Frage nach der Existenz dieser Lagrange-Multiplikatoren erfordert erheblich mehr Hilfsmittel und l¨asst sich nur unter relativ einschr¨ ankenden Voraussetzungen beantworten. In der Praxis ist diese Frage aber nicht so wichtig wie die Frage nach der Existenz von Kuhn-Tucker-Punkten, daher verweisen wir f¨ ur eine weitere Diskussion auf § 3.6. 1.5
y 1
0.5
1
g3
g
∇ g3 x 0
∇f
2
g
∇ g2 −0.5 −0.5
0
0.5
1
1.5
Abb. 3.6. Skizze zu Beispiel 3.2
3.3 Lineare Optimierung Der ber¨ uhmte Simplex-Algorithmus wurde von Dantzig in den F¨ unfzigerjahren des vorigen Jahrhunderts entwickelt, als nur mechanische Rechenmaschinen im Gebrauch waren. Seit dieser Zeit l¨ auft lineare Optimierung im Rn unter dem Namen Lineare Programmierung“ . Beim Simplex-Verfahren werden ” Ungleichungsrestriktionen durch Einf¨ uhrung von Schlupfvariablen k¨ unstlich in Gleichungen verwandelt, wodurch selbst Probleme mit zwei Ver¨anderlichen nicht mehr in der Ebene geometrisch dargestellt werden k¨onnen (was vielen Sch¨ ulern Kopfzerbrechen bereitet). Ohne diesen sowohl didaktisch als auch algorithmischen Umweg a ¨ndern zweidimensionale Problem ihre Dimension nicht, und die grundlegende Idee des Optimierungsschemas l¨asst sich rein geometrisch beschreiben. (a) Beispiele Die Problemstellungen in der linearen Optimierung (Linear Programming) verlaufen alle in etwa nach dem folgenden Muster: (a1) Jemand hat n Aktivit¨ aten j = 1 : n (z.B. die Produktion von n Artikeln) mit dem Gewinn αj pro Einheit, ξ j Einheiten von Aktivit¨at j ergeben also ur hat er m Resourcen i = 1 : m zur Verf¨ ugung αj ξ j Gewinneinheiten. Daf¨ (z.B. Maschinen und Arbeitskr¨ afte). Eine Einheit der Aktivit¨at j erfordert β i j
3.3 Lineare Optimierung
153
Einheiten der Resource i (z.B. Stunden pro Monat). Es stehen aber h¨ochstens ugung, β i 1 ξ 1 + . . . + β i n ξ n ≤ γ i . Wie setzt der/die γ i Einheiten zur Verf¨ Betreffende seine Resourcen optimal ein? Mit den Bezeichnungen a := [αi ] ∈ Rn , B = [β i j ] ∈ Rm n , c = [γ i ] ∈ Rm , x = [ξ j ] ∈ Rn , ergibt sich das Maximumproblem Max{ax ; Bx ≤ c , 0 ≤ x} , wobei die Ungleichungen komponentenweise zu verstehen sind. (a2) Jemand hat n Resourcen j = 1 : n zur Verf¨ ugung (z.B. Arbeitskraft, Zeit, Geld) mit den Kosten αj pro Einheit, ξ j Einheiten der Resource j kosten also αj ξ j Einheiten. Damit muss er m Forderungen i = 1 : m bedienen. Eine Einheit der Forderung i ben¨ otigt β i j Einheiten der Resource j, insgesamt i m¨ ussen aber mindestens γ Einheiten der Forderung i aufgebracht werden, β i 1 ξ 1 + . . . β i n ξ n ≥ γ i . Wie setzt der Betreffende seine Resourcen so ein, dass seine Kosten minimiert werden? F¨ ur diese in gewisser Weise zu (a1) duale Aufgabe ergibt sich das Minimumproblem Min{ax ; Bx ≥ c , x ≥ 0} . (b) Problemstellung Wir betrachten das lineare Optimierungsproblem Min{a x ; Bx ≤ c} , a ∈ Rn , c ∈ Rm .
(3.10)
Im Regelfall gilt m & n. Der zul¨ assige Bereich S = {x ∈ Rn ; Bx ≤ c} von (3.10) ist ein konvexer Polyeder. Allgemein heißt ein Punkt z aus einer konvexen Menge C extremal oder Ecke, wenn gilt ∀ x, y ∈ C : z ∈ [x, y] =⇒ z = x ∨ z = y . Die Ecken von S lassen sich in einfacher Weise charakterisieren, dazu m¨ ussen wir aber die im vorigen Abschnitt eingef¨ uhrte Indexmenge A(x) der aktiven Nebenbedingungen etwas ab¨ andern und beachten, dass im vorliegenden Fall linearer Ungleichungsrestriktionen der Gradient von g k (x) = bk x − γ k die k-te Zeile bk von B ist. Es sei A∗ (x) := {k ∈ {1, . . . , m} , bk x = γ k } , A(x) := {k ∈ A∗ (x) , bk linear unabh¨angig}, N (x) := {1, . . . , m}\A(x) . A∗ (x) ist die (Index-)Menge der aktiven Nebenbedingungen in x. Genau dann enth¨ alt die Menge N (x) genau die Indices der inaktiven Nebenbedingungen in x, wenn A(x) mit A∗ (x) u ¨bereinstimmt. Im andern Fall sind weder A(x) noch N (x) eindeutig bestimmt.
154
3 Optimierung
Lemma 3.1. Genau dann ist x ∈ S Ecke, wenn |A(x)| = n gilt. Beweis SUPPLEMENT\chap03a. Der zul¨ assige Bereich S hat also nur dann Ecken, wenn Rang(B) = n gilt, im andern Fall besteht er aus einem unbeschr¨ ankten Streifen“, wenn er nicht leer ” ist. Um diesen pathologischen Fall auszuschließen, f¨ uhren wir eine modifizierte Rangbedingung ein: Die Matrix B ∈ Rm n in (3.10) hat den Rang n .
(3.11)
Nach Lemma 3.1 sind in einer Ecke x ∈ S mindestens n Nebenbedingungen bk x = γ k aktiv und genau n Gradienten bk dieser Nebenbedingungen linear unabh¨ angig. Eine Ecke heißt degeneriert, wenn mehr als n Nebenbedingungen aktiv sind, wenn also |A∗ (x)| > |A(x)| = n gilt. Ist x Ecke und k ∈ A(x), dann sagt man bk ist in der Basis von x“, weil die Zeilen bk von B mit ” k ∈ A(x) eine Basis des Zeilenraums Rn bilden. In einer degenerierten Ecke ist diese Basis aus Zeilen von B nicht eindeutig bestimmt. Anschaulich klar ist das n¨ achste Ergebnis, das als Eckensatz bezeichnet wird. Satz 3.6. Ist die zul¨ assige Menge S nicht leer und die Zielfunktion x → ax auf S beschr¨ ankt, dann hat das Problem (3.10) eine Ecke von S als L¨ osung. Der Beweis in SUPPLEMENT\chap03a enth¨ alt gleichzeitig ein Verfahren zur Konstruktion einer Ausgangsecke. (c) Das Projektionsverfahren startet in einer (Ausgangs)-Ecke des zul¨assigen Bereichs S, die ev. zun¨ achst bestimmt werden muss (Phase 1). In einer gegebenen Ecke x wird dann der Gradient a der Zielfunktion auf die Hyperebenen der aktiven Nebenbedingungen projiziert und nachgepr¨ uft, in welcher Richtung die optimale Verbesserung erfolgen muss. Anschließend wird l¨angs der ausgew¨ ahlten Kante weitergegangen, bis die n¨achste Ecke erreicht ist. Dieser Prozess wird solange wiederholt, bis eine optimale Ecke gefunden wurde. Die Iteration bewegt sich also st¨ andig auf dem Rand des zul¨assigen Bereichs, was ziemlich zeitraubend sein kann. Deswegen wurden in j¨ ungerer Zeit sog. Innere-Punkt-Verfahren“ entwickelt, die sich im Regelfall dem Optimum aus ” dem Innern des zul¨ assigen Bereichs n¨ ahern. Das Kriterium f¨ ur die jeweils optimale Suchrichtung in einer gegebenen Ecke ¨ wird im Wesentlichen durch den folgenden Dualit¨ atssatz oder Aquivalenzsatz von Farkas geliefert, den wir gleich etwas allgemeiner formulieren.
3.3 Lineare Optimierung
155
Satz 3.7. x∗ ist genau dann L¨ osung von Min{ax ; Bx ≤ c , Cx = d} , a ∈ Rn , c ∈ Rm , d ∈ Rp ,
(3.12)
wenn es ein Tripel (x∗ , y ∗ , z ∗ ) ∈ Rn × Rm × Rp gibt mit den folgenden drei Eigenschaften primale Zul¨ assigkeit, (1◦ ) Bx∗ ≤ c , Cx∗ = d , = −a , y ∗ ≥ 0 , duale Zul¨ assigkeit, (2◦ ) y ∗ B + z ∗ C = 0, Komplementbedingung. (3◦ ) y ∗ (Bx∗ − c) Wegen der zentralen Bedeutung dieses Satzes f¨ ur die lineare Optimierung soll der Beweis hier angegeben werden: ullt und x ∈ S beliebig, dann gilt Ist (1◦ ) – (3◦ ) erf¨ ax − ax∗
(2)
=
(1),(3)
=
−(y ∗ B + z ∗ C)x + (y ∗ B + z ∗ C)x∗ (1)
−y ∗ Bx − z ∗ Cx + y ∗ c + z ∗ d = y ∗ (c − Bx)
(1),(2)
≥
0.
assig, also gilt (1◦ ). Mit den BeIst umgekehrt (3.12) erf¨ ullt, dann ist x∗ zul¨ zeichnungen ⎡ ⎤ ⎡ ⎤ B c = ⎣ −C ⎦ , ∗ B c = ⎣ −d ⎦ , p = c − Bx C d ≥ 0 , dann gilt Cx = 0 , und folgt p ≥ 0. Ist (x, ) gegeben mit q := p − Bx f¨ ur hinreichend kleine σ ≥ 0 gilt ∗ +σx) ≥ 0 . 0 ≤ (1−σ)p+σq = p+σ(q− p) = p+σ p−σ Bx−σ p = c− B(x Also gilt
⎡
⎤ c − B(x∗ + σx) ⎣ −d + C(x∗ + σx) ⎦ ≥ 0 . d − C(x∗ + σx)
Damit ist x∗ + σx zul¨ assig f¨ ur hinreichend kleines σ > 0 , und es gilt a(x∗ + σx) ≥ ax∗ =⇒ ax ≥ 0 , weil x∗ nach Voraussetzung Minimumstelle ist . Es gilt also
. / . / x x q ≥ 0 =⇒ ax ≥ 0 ⇐⇒ [−B, p] ≥ 0 =⇒ [a, 0] ≥0 . Das ist aber die rechte Seite des Lemmas 1.24 von Farkas, und die linke Seite des Satzes sichert die Existenz eines Vektors w∗T ≥ 0 mit
T T a −B = (3.13) w∗T . 0 pT
156
3 Optimierung
Schreiben wir w∗ = (y ∗ , z1∗ , z2∗ ) und z ∗ = z2∗ − z1∗ , dann folgt zun¨achst oder a = −w∗ B a = −y ∗ B − z ∗ C =⇒ y ∗ B + z ∗ C = −a , y ∗ ≥ 0 , also die Bedingung (2◦ ). Ferner folgt w∗ p = 0 aus (3.13). Einsetzen von p = (c − Bx∗ , −d + Cx∗ , d − Cx∗ ) ergibt y ∗ (c − Bx∗ ) + z1∗T (Cx∗ − d) − z2∗T (Cx∗ − d) = 0 , daraus folgt die Komplementbedingung (3◦ ) wegen Cx∗ = d . ∗
∗
Die Vektoren y ∈ Rm und z ∈ Rp sind die Lagrange-Multiplikatoren des Problems (3.12) gem¨ aß Satz 3.2. Es sei nun x ∈ Rn eine beliebige Ausgangsecke, und es sei etwa A := A(x) = {1 , . . . , n } , N := N (x) = {σ1 , . . . , σm−n } , ⎤ b1 ⎥ ⎢ := ⎣ ... ⎦ , A := [B A ]−1 = [a1 , . . . , an ] . bn ⎡
BA
Dann ist B A nach Voraussetzung regul¨ ar, und es gilt B A A = I, d.h. bj ak = j δ k (Kronecker-Symbol). Damit ist jede Spalte ak von A parallel zu einer Kante des zul¨ assigen Bereichs S oder m.a.W., ak liegt im Schnitt von n − 1 Hyperebenen bj x = 0 , j = 1 : n , j = k, die parallel zu den entsprechenden Randfl¨ achen bj x = γ j von S liegen: B A ist die Basis- oder Gradientenmatrix der Ecke x mit den Gradienten der in x aktiven Nebenbedingungen als Zeilen; A ist die Kantenmatrix der Ecke x mit den auf x zeigenden Kanten von S als Spalten. (c1) Optimalit¨ atsbedingung Wir kehren zum Problem (3.10) zur¨ uck. Nach Satz 3.7 ist x optimal ⇐⇒ −a = wB A , w = −aA ≥ 0 . Wenn die Ecke x nicht optimal ist, dann gibt es ein wi < 0 , und es muss von = x − τ aj , τ > 0 , x aus l¨ angs einer Kante −aj zu einer ev. besseren Ecke x gegangen werden, wo die Zielfunktion m¨ oglichst stark abnimmt. Wegen a x≡ a(x − τ aj ) = ax − τ aaj = ax + τ wj , ist die optimale Kante j gegeben durch wj = Min{wk } ( < 0, sonst x optimal ) j = Min Argk Min{wk }
.
(3.14)
3.3 Lineare Optimierung
157
(c2) Die optimale Schrittweite τ ergibt sich aus der Forderung, dass l¨angs der ausgew¨ ahlten Kante soweit wie m¨ oglich gegangen werden muss ohne den zul¨ assigen Bereich zu verlassen, d.h. bis zur n¨ achsten Ecke oder m.a.W. bis eine der bisher inaktiven Nebenbedingungen aktiv wird: W¨ahle also τ maximal, so dass gilt B N (x − τ aj ) ≤ cN oder rN := B N x − cN ≤ τ B N aj . Wenn B N aj ≥ 0 ist, dann kann τ > 0 beliebig gew¨ahlt werden, und das Problem hat keine L¨ osung. Im andern Fall ergibt sich der Index i der neuen aktiven Nebenbedingung aus τ = Mink∈N {ϕ(j, k) , ϕ(j, k) ≥ 0} , ϕ(j, k) := i = Min Argk Mink∈N {ϕ(j, k) , ϕ(j, k) ≥ 0}
bk x − γ k bk aj
.
(3.15)
(c3) Der Austauschschritt Nun muss eine Basis der neuen Ecke x berechnet werden, dabei heißt das Paar (i, j) aus (3.15) und (3.14) Pivotstelle: Indexmengen f¨ ur x: A := A(x) = {1 , . . . , n } , N := N (x) = {σ1 , . . . , σm−n } , Forderung: j bzw. bj aus der Basis, σi bzw. bσi in die Basis, Indexmenge f¨ ur x : A = {1 , . . . , j−1 , σi , j+1 , . . . , n }, {σ1 , . . . , σi−1 , j , σi+1 , . . . , σm−n } . N
(3.16) F¨ ur den Austauschschritt betrachten wir o.B. die folgende Situation: Es sei B = [bi ]ni=1 beliebig regul¨ ar, und es soll die Zeile bi gegen den Vektor d ∈ Rn berechnet man ausgetauscht werden. F¨ ur die neue Matrix B = B + ej (d − bj ) = (I + ej (d − bj )B −1 )B =: T B , B mit dem j-ten Einheitsvektor ej . Es gilt aber bj B −1 = ej und daher T = I + ej (dB −1 ) − ej ej f¨ ur die Transformationsmatrix T . In dieser Matrix ist also die j-te Zeile der Einheitsmatrix I ersetzt durch b = [β1 , . . . , βn ] := dB −1 . Die eigentliche Auf=B −1 aus A = B −1 neu zu berechnen. gabenstellung besteht aber darin, A −1 = B −1 T −1 = A T −1 mit der leicht zu berechnenden Inversen Hier gilt B von T , 1 1 T −1 = I − ej b + ej ej . βj βj Nach der obigen Wahl der Pivotstelle (i, j) ist das Pivotelement βj = 0. Wegen
1 A − aj b = 0 , (Spalte j) βj j
158
3 Optimierung
lautet das Austauschverfahren d = bσi , b = dA , 1 1 =G aj , A G = A − aj b , [G]j = βj βj
.
(3.17)
≤ (d) Das h¨ aufig auftretende Problem Min{ax ; Bx c , x ≥ 0} ist ¨aquivalent zu dem Problem
−I 0 . (3.18) Min{ax ; Bx ≤ c}, B = , c = c B Hier ist x = 0 Ausgangsecke mit A(0) = {1, . . . , n} , N (0) = {n + 1, . . . , m}. Also ist am Anfang B A = −I , A = −I , und die anf¨angliche Matrixinvertierung entf¨ allt. Der komplette Algorithmus f¨ ur das Problem (3.18) hat dann etwa die folgende Form: START: x = 0 , A = −I , w = −aA = −a , r = −c . WHILE NOT w ≥ 0 (1◦ ) Berechne Pivotstelle (i, j): j = Min Argk Min{wk } , (w ≥ 0 =⇒ x optimal) i = Min Argk Min{ϕ(j, k) , ϕ(j, k) ≥ 0} (i = [ ] =⇒ L¨ osung existiert nicht) (2◦ ) Austauschschritt: bj ←→ bσi nach (3.17) (3◦ ) Aktualisiere: A , N und die Matrix A, berechne x = AcA , r = B N x − cN , w = −aA END Der dritte Schritt wird programmiertechnisch vom Austauschverfahren miterledigt. F¨ ur die Lagrange-Multiplikatoren y folgt yA = w , yN = 0 . (e) Degenerierte Ecken (mit mehr als n aktiven Nebenbedingungen) treten h¨ aufig auf, dann kann es theoretisch zu Zyklen kommen, bei denen nur die Basen untereinander ausgetauscht werden, und die Schrittweite τ in (3.15) Null bleibt. In der Praxis ist eine solche Zyklusbildung ¨außerst selten, und sie kann auch durch die Bland sche Regel“ vermieden werden: ” W¨ ahle (i, j) nach der Vorschrift j = Argk Min{k ∈ A(x) ; wk < 0} i = Argk Min{σk ∈ N (x) ; ϕ(j, k) = Minl {ϕ(j, l) ; ϕ(j, l) ≥ 0}} . Dadurch wird das Verfahren jedoch abgebremst, so dass dieses Auswahlkriterium nur im Bedarfsfall zur Anwendung kommen sollte.
3.3 Lineare Optimierung
159
(f ) Mehrere L¨ osungen gibt es im Falle einer nichtdegenerierten L¨osung x∗ ∗ genau dann, wenn im Optimum der nichttriviale Anteil yA des Lagrange∗ ∗ ∗ Multiplikators Nullen enth¨ alt. Es sei o.B. yA = (u , v ) mit v ∗ = 0 , und es seien
C , A = [B A ]−1 = [P, Q] BA = D entsprechend aufgeteilt. Dann gilt CP = I , DQ = I , CQ = 0 , DP = 0 , und u∗ C + 0 · D = −a . Wegen CQ = 0 gilt im Optimum ∗ −ax∗ = yA B A x∗ = u∗ Cx∗ = u∗ C(x∗ − Qd)
mit einem zun¨ achst beliebigen Vektor d . (1◦ ) Setze x∗ − Qd in die aktiven Nebenbedingungen ein: Bedingungen nicht verletzt, C(x∗ − Qd) = Cx∗ = cC D(x∗ − Qd) = Dx∗ − d ≤ cD =⇒ 0 ≤ d aber ansonsten frei. (2◦ ) Setze x∗ − Qd in inaktive Nebenbedingungen ein: B N (x∗ − Qd) ≤ cN =⇒ rN := B N x∗ − cN ≤ B N Qd , wobei das Residuum rN ≤ 0 ist. Die allgemeine L¨osung ist also {x∗ − Qd , d ≥ 0 , rN ≤ B N Qd} ⊂ Rn . (g) Gleichungsrestriktionen lassen sich in den Algorithmus leicht einbauen. Sie werden am Anfang einmal aktiviert und dann wie Ungleichungen behandelt, die niemals inaktiviert werden und deren Lagrange-Multiplikatoren keiner Vorzeichenbeschr¨ ankung unterliegen. Die Zeilennummern der Gleichungsrestriktionen m¨ ussen aber immer in der Menge A der aktiven Indizes mitgef¨ uhrt werden. ∗ , also (h) Sensitivit¨ at Im Optimum gilt a = −w∗ B A , w∗ = yA ∗ A a x∗ = −w∗ B A x∗ = −w∗ B A [B A ]−1 cA = −w∗ cA = −yA c .
(3.19)
Wenn c variiert, bleibt diese Beziehung solange richtig, wie sich die Indexmenge N der inaktiven Bedingungen nicht ¨ andert. F¨ ur eine eindeutige, nichtdegenerierte L¨ osung x∗ (c) = Arg Min{ax ; Bx ≤ c} , die von der rechten Seite c der Nebenbedingungen abh¨angt, gilt dann nach (3.19)
∂
a x∗
= −yk∗ (c∗ ) , k = 1 : m . k ∂γ c=c∗
160
3 Optimierung
Entsprechend erh¨ alt man f¨ ur ein Maximumproblem
∂ ∗
a x
∗ = yk∗ (c∗ ) , k = 1 : m . ∂γ k c=c ¨ des GeIm Optimum ist also der Lagrange-Multiplikator yk∗ die Anderung winns in Richtung der eingesetzten Resource k. Damit erweisen sich die Lagrange-Multiplikatoren yk∗ als Schattenpreise: Der Gewinn ax∗ w¨achst um yk∗ , wenn sich die k-te Resource um eine Einheit ¨andert; der Zukauf ist also dann sinnvoll, wenn der Preis der Resource k pro Einheit kleiner als yk∗ ist. (i) Duales Problem Mit den Bezeichnungen von (3.12) schreiben wir das zeilenweise Problem Max{−yc − zd ; yB + zC = −a , y ≥ 0} , y ∈ Rm , z ∈ Rp ,
(3.20)
in der Form von (3.12), , x ≤ x Min{ ax ; B c, C = d}
(3.21)
dann gilt = [−I, O] ∈ Rm m+p , x = (y , z)T ∈ Rm+p , a = (c , d)T ∈ Rm+p , B m T T n = [B , C ] ∈ R m+p , d = −aT ∈ Rn . c =0∈R , C ¨ Wenden wir den Aquivalenzsatz 3.7 auf (3.21) an, so lauten die Bedingungen (2◦ ) und (3◦ ) mit den Lagrange-Multiplikatoren y∗ ∈ Rm und z∗ ∈ Rn y∗ [−I, O] + z∗ [B T , C T ] = −[cT , dT ] ∈ Rm+p , y∗ ≥ 0 , y∗ y ∗T = 0 , daraus folgt durch Aufspalten − y ∗ + z∗ B T = −cT ⇐⇒ y∗T = B z ∗T + c ≥ 0 , ∗ T T ∗T = −d ⇐⇒ C z = −d , z C =0 ⇐⇒ y ∗ (B z ∗T + c) = 0 . y ∗ y∗T
(3.22)
Setzen wir nun z∗ = −x∗ ein, dann stehen rechts die Bedingungen (1◦ ) und ur das primale Problem (3.12), und außerdem gilt (3◦ ) f¨ ax∗ = −y ∗ Bx∗ − z ∗ Cx∗ = −y ∗ c − z ∗ d . Die Probleme (3.12) und (3.20) erweisen sich damit als dual zueinander; das letztere ist das klassische Simplexproblem. Das primale Problem (P), (3.12), hat genau dann eine L¨ osung x∗ , wenn das duale Problem (D), (3.20), eine ∗ ∗ L¨ osung (y , z ) hat, und die Zielfunktionen stimmen im Optimum u ¨berein. Außerdem setzt sich die L¨ osung von (D) aus den Lagrange-Multiplikatoren
3.3 Lineare Optimierung
161
von (P) zusammen, und die L¨ osung von (P) ist der negative zweite LagrangeMultiplikator von (D). Wegen Bx∗ + y∗ = c besteht der erste Multiplikator in (D) aus den Schlupfvariablen der Ungleichungen von (P). (j) Das Tableau Zu Zeiten der Handrechnung wurden alle zum Verfahren notwendigen Daten in ein Tableau eingetragen und dieses dann in jedem Schritt aktualisiert. F¨ ur das Minimumproblem Min{ax ; Bx ≤ c} hat das Tableau die Form ⎤ ⎡ A x (3.23) P(x) = [pk l ] := ⎣ B N A rN ⎦ yA f mit x = AcA , rN = B N x − cN , yA = −aA , f = aAcA = −yA cA . Die erste Blockzeile kann auch weggelassen werden, wenn man die Indexmenge A stets aktualisiert, weil die L¨ osung x nur am Schluss berechnet werden muss. Nach Auswahl der Pivotelemente l¨ asst sich der Algorithmus (3.17) (Austauschschritt nach Gauß-Jordan) auf das gesamte Tableau anwenden, wodurch dieses in einfacher Weise aktualisiert wird. Das Tableau Q( x) = [q k l ] im neuen Eckpunkt x erh¨ alt man aus P(x) mit dem bekannten Gauß-JordanSchritt: (Pivotelement) , q k j = pk j /pi j , k = i (Pivotspalte) , q i j = 1/pi j i i i q l = −p l /p j , l = j (Pivotzeile) , q k l = pk l − pk j pi l /pi j (¨ ubrige El.). Wenn x∗ eindeutige nichtdegenerierte L¨ osung des primalen Problems Min{a x ; Bx ≤ c} ist, dann ist y ∗ eindeutig und nichtdegenerierte L¨osung des dualen Problems Max{−yc ; yB = a , y ≥ 0} , y ∈ Rm , und umgekehrt. Das Tableau P(y) dieses dualen Verfahrens l¨asst sich so schrei∗ ∗ ) . Insbesondere hat die Kantenmaben, dass im Optimum gilt P(x ) = P(y trix A bei geeigneter Schreibweise in beiden Problemen die gleiche Dimension. Damit l¨ asst sich grob sagen, dass der Rechenaufwand beim primalen und dem zugeh¨ origen dualen Problem der gleiche ist. Ist x nichtoptimale Ecke von (P), dann ist y im Tableau P(x) unzul¨assig bez¨ uglich (D) und umgekehrt, wenn y eine nichtoptimale Ecke von (D) ist, dann ist der nach (3.22) zugeh¨ orige Punkt x unzul¨assig f¨ ur (P). Daher wird assigen Bereich angen¨ahert, wenn an die L¨ osung x∗ von (P) aus dem unzul¨ Stelle von (P) das Problem (D) gel¨ ost wird. Ebenso wird die L¨osung y ∗ von (D) aus dem unzul¨ assigen Bereich angen¨ ahert, wenn an Stelle von (D) das primale Problem (P) gel¨ ost wird. Entsprechendes gilt auch f¨ ur die allgemeineren Probleme aus Satz 3.7. Eine genauere Untersuchung des hier kurz beschriebenen primal-dualen Sachverhalts findet man im Ordner SUPPLEMENT\chap03b.
162
3 Optimierung
Beispiel 3.3. f (x, y) := x + y = Max! , 0 ≤ x ≤ 6 , 0 ≤ y ≤ 5 3x + 2y ≤ 20 , x + 2y ≤ 12 .
7
7
6
6
5
5
4
4
f
3
2
1
0
0
0
1
2
3
S
2
1
−1 −1
f
3
S
4
5
6
7
8
Abb. 3.7. Basis in den Ecken
9
−1 −1
0
1
2
3
4
5
6
7
8
9
Abb. 3.8. Reziproke Basis in den Ecken
R Eine umfangreiche Dokumentation mit MATLAB -Programmen u ¨ber den hier beschriebenen Zugang zur Linearen Optimierung, der auf Ritter & Best [Best] zur¨ uckgeht, enth¨ alt KAPITEL03\LOP.
3.4 Linear-quadratische Probleme (a) Das primale Verfahren Ist A ∈ Rn n symmetrisch und B ∈ Rm n , dann hat das linear-quadratische Optimierungsproblem (LQP) mit Gleichungsrestriktionen die Form 1 T x Ax − aT x = Min! 2 h(x) = Bx + b = 0
f (x) =
.
(3.24)
Die Multiplikatorregel aus § 3.2 ist bei diesem konvexen Problem eine notwendige und hinreichende Bedingung f¨ ur eine regul¨ are L¨osung x: x zul¨ assig und ∃ z : ∇f (x) + z∇h(x) = 0 ∈ Rn .
3.4 Linear-quadratische Probleme
163
Satz 3.8. (LQP primal) Wenn die Voraussetzung von Lemma 1.2 erf¨ ullt ist und
A B T x0 − x∗ ∇f (x0 )T (3.25) = B 0 z∗ h(x0 ) osung von (3.24). f¨ ur ein beliebiges x0 ∈ R gilt, dann ist x∗ L¨ Beweis. Der obere Teil von (3.25) ist gleichbedeutend mit A(x0 − x∗ ) + B T z ∗ = Ax0 − a ≡ ∇f (x0 )T oder
0 = (−Ax∗ + a) + B T z ∗ ≡ −∇f (x∗ )T + ∇h(x∗ )T z ∗ .
Es gilt also die Multiplikatorregel mit −z ∗ statt z ∗ . Der untere Teil ergibt assig und optimal nach Satz 3.3, h(x∗ ) = 0, weil h linear ist. Also ist x∗ zul¨ weil das Problem konvex ist. Die optimale L¨ osung wird hier in einem einzigen Abstiegsschritt x∗ = x0 − σd mit der optimalen Schrittweite σ = 1 berechnet. Bei allgemeinen linear-quadratischen Problemen wird (3.25) mehrmals auf die aktiven Restriktionen angewendet in der gleichen Weise wie bei linearen Problemen. Gleichungen sind aktive Restriktionen, die niemals inaktiviert werden, und deren Lagrange-Multiplikator keiner Vorzeichenbeschr¨ankung unterliegt. Es gen¨ ugt daher im Folgenden, Ungleichungen als Nebenbedingungen zu betrachten. Man beachte aber, dass bei dem primalen Verfahren mit einem zul¨ assigen Punkt x0 gestartet werden muss. In dem linear-quadratischen Problem mit Ungleichungsrestriktionen, 1 T x Ax − aT x = Min! , x ∈ Rn 2 g(x) = Bx + b ≥ 0 ∈ Rm
f (x) =
(3.26)
sei wieder S = {x ∈ Rn , g(x) ≥ 0} die Menge der zul¨assigen Punkte. Die ¨ leichte Anderung der Ungleichungsrestriktionen hat ausschließlich optische Gr¨ unde. Damit die Lagrange-Multiplikatoren y wieder nichtnegativ sind, schreiben wir L(x, y) = f (x) − yg(x) , g(x) ≥ 0 , f¨ ur die Lagrange-Funktion. Die Menge der Kuhn-Tucker-Punkte, also die Menge aller Punkte, welche die Multiplikatorregel erf¨ ullen, ist dann Ω = {x ∈ S , ∃ y ≥ 0 : ∇x L(x, y) = 0 , y g(x) = 0} . Wie in diesem Zusammenhang u ¨blich wollen wir das Auftreten degenerierter Ecken von vornherein ausschließen und ¨ andern daher die Rangbedingung gegen¨ uber § 3.3 etwas ab:
164
3 Optimierung
In jedem berechneten Zwischenpunkt x sei A(x) die Indexmenge aller aktiven Nebenbedingungen in x, und es sei die Matrix B A := B A(x) := [bi ]i∈A(x) ≡ [∇g i (x)]i∈A(x) ∈ Rn n regul¨ar.
(3.27)
Satz 3.9. In einem Punkt x ∈ Rn sei die Rangbedingung erf¨ ullt, es sei H ∈ Rn n eine beliebige symmetrische Matrix mit der Eigenschaft ∀ 0 = u ∈ osung des linearen GleiKer(B A ) : uT Hu > 0, und es sei (d , y A ) eine L¨ chungssystems
d ∇f (x)T H [B A ]T . (3.28) = BA 0 yA 0 Dann ist x Kuhn-Tucker-Punkt g.d.w. x zul¨ assig ist sowie d = 0 und yA ≥ 0 . Beweis. Das System (3.28) hat nach Lemma 1.2, eine eindeutige L¨osung. Wenn x L¨ osung von (3.26) also Kuhn-Tucker-Punkt ist, dann ist die Multiplikatorregel erf¨ ullt und (3.28) hat eine L¨ osung w mit den genannten Eigenschaften. Ist andererseits x zul¨ assig und das System (3.28) l¨osbar mit d = 0 und y A ≥ 0, dann ist die Multiplikatorregel erf¨ ullt, wenn die u ¨brigen Komponenten von y, also y N gleich Null gesetzt werden. Daher ist x Kuhn-Tucker-Punkt. Satz 3.9 ist der Kern der Verfahren zur quadratischen Optimierung plgp.m und dlqp.m, die ihrerseits den Kern des nichtlinearen Gradienten-Projektionsverfahren gp.m bzw. des Strafkostenverfahrens sqp.m darstellen. Bei allen genannten Verfahren wird mit den Gradienten der aktiven Zwangsbedingungen gearbeitet, die in jedem Schritt mit Hilfe der Lagrange-Multiplikatoren so gew¨ ahlt werden m¨ ussen, dass insgesamt das Optimum erreicht abgestiegen wird. Durch eine geeignete Wahl der Matrizen H kann die Geschwindigkeit der o.g. nichtlinearen Verfahren sehr beeinflusst werden, wozu aber auf die einschl¨ agige Literatur verwiesen werden muss. Im einfachsten Fall wird H = I gew¨ ahlt, was dem Verfahren des steilsten Abstiegs entspricht mit allen seinen Nachteilen. Wird dagegen H anders gew¨ ahlt, so wird i.d.R. eine m¨ogliche schwache Besetzung des Systems (3.28) ( sparsity“ ) bei den Algorithmen ” gp.m und sqp.m zerst¨ ort. (b) Der Algorithmus plqp.m: ar, y A ≥ 0 beliebig, y N = 0 . START: Gegeben x ∈ S mit B A regul¨ WHILE NOT y A ≥ 0 ose das lineare Gleichungssystem (3.28). (1◦ ) L¨ x = x − d ist nach Satz 3.8 globale Minimumstelle von f auf der Menge M := {u ∈ Rn , g A(x) (u) = 0} . (2◦ ) Wenn d = 0 und y i := Min{y k , k ∈ A} < 0 , inaktiviere g i : setze A(x) := A(x)\{i} . Wiederhole Schritt 1.
3.4 Linear-quadratische Probleme
165
(3◦ ) Wenn d = 0 , dann berechne optimale Schrittweite f¨ ur Abstieg in Richtung −d : 0 " g k (x) / A(x) , σ := Min ϕ(k) > 0 , ϕ(k) = k > 0 , k ∈ b d j := Min Argk Min{ϕ(k) > 0 , k ∈ / A(x)} σ ist die maximale zul¨ assige Schrittweite; falls σ nicht existiert, setze σ = 1. Setze x := x − σd und A(x) := A(x) ∪ {j} . END Lemma 3.2. Nach Inaktivierung einer aktiven Nebenbedingung ist d = 0 in (3.28), also f (x − σd) < f (x) . Beweis im Ordner SUPPLEMENT\chap03c. Unter der Bedingung, dass B A stets rangmaximal ist, k¨onnen in diesem Algorithmus keine Zyklen auftreten. Mindestens in jedem zweiten Schritt ist d = 0 nach Lemma 3.2, erfolgt also ein echter Abstieg. Deswegen ¨andert sich auch die Indexmenge A in jedem Schritt ohne sich zu wiederholen. Weil es nur endlich viele Indexteilmengen gibt, bricht der Algorithmus ab. Ein zul¨assiger Startwert x0 kann mit der im Beweis von Satz 3.6 beschriebenen Methode berechnet werden. (c) Das duale Verfahren Auch hier werden Gleichungsrestriktionen als aktive Ungleichungen behandelt, die niemals mehr inaktiviert werden, wenn sie einmal aktiv geworden sind, und der zu einer Gleichungen geh¨orende Lagrange-Multiplikator ist wiederum nicht vorzeichenbeschr¨ankt. Am Schluss m¨ ussen alle Gleichungsrestriktionen zu den aktiven Nebenbedingungen geh¨ oren, andernfalls ist das Problem unl¨ osbar. Das interessante Verfahren von [Goldfarb] spielt bei der im n¨ achsten Abschnitt beschriebenen sequentiellen quadratischen Optimierung eine wichtige Rolle. Es erlaubt den Start mit ur wird aber auch die L¨osung im Regelfall aus einem beliebigen Wert x0 , daf¨ dem unzul¨ assigen Bereich approximiert. Wir verwenden die gleichen Bezeichnungen wie in (a) und beachten, dass hier das Minimumproblem ¨ aquivalent ist zu dem Lagrange-Problem Gesucht ist (x∗ , y ∗ ) ∈ Rn × Rm mit 0 " 1 T ∗ ∗ T T x Ax − a x − y (Bx + b) L(x , y ) = Max y≥0 Inf x 2
;
(3.29)
vgl. § 3.6. Nat¨ urlich ist das Problem nach wie vor konvex, also die Multiplikatorregel hinreichend f¨ ur eine L¨ osung. Ausgehend vom absoluten Minimum x = A−1 a wird die Zielfunktion f (x) in (3.24) solange vergr¨oßert, bis die
166
3 Optimierung
Multiplikatorregel erf¨ ullt ist, also insbesondere die Iterierte (m¨oglichst) im zul¨ assigen Bereich ist. Bezeichnungen und Vereinbarungen: (1◦ ) g i (x) > 0 =⇒ y i = 0 . (2◦ ) K := {1, . . . , m} und J ⊂ K Indexmengen; am Anfang ist i.d.R. J = ∅ . (3◦ ) Das Problem {f (x) ; g j (x) := bj x + β j ≥ 0 , j ∈ J } = Min! wird kurz mit LQ(J ) bezeichnet. ◦
osungs)-Paar von LQ(J ), falls x L¨osung von LQ(J ) ist, (4 ) (x, B) heißt L(¨ f¨ ur alle j ∈ B ⊂ J gilt g j (x) = 0, und B B = [∇g j (x)]j∈B den maximalen Zeilenrang hat. Es gilt stets B ⊂ A(x) aber nicht notwendig A(x) ⊂ J . Gilt umgekehrt (4◦ ) f¨ ur gewisse (x, B), dann gibt es eine Indexmenge J ⊃ B so, dass (x, B) L-Paar von LQ(J ) ist; die Indexmenge J spielt aber im Weiteren eine untergeordnete Rolle. Aus (4◦ ) und Satz 3.8 erhalten wir sofort das folgende Zwischenergebnis: Ist (d, y B ) L¨osung von
H [B B ]T d ∇f (x)T , = BB O yB 0 (≡ g B (x)) sowie y B ≥ 0 und g B (x) = 0 , dann ist (x + d, B) L-Paar von LQ(B) und L¨ osung von LQ(J ) f¨ ur alle J mit B ⊂ J und g j (x) ≥ 0 , j ∈ J . Es ist also S(J ) := {x ∈ Rn , g j (x) ≥ 0 , j ∈ J } die Menge der zul¨assigen Punkte f¨ ur LQ(B). Nach dieser Vorbereitung l¨ asst sich der Algorithmus dlqp.m in etwa wie folgt darstellen: START: x = A−1 a = Arg Min f (x) . Sei ein L-Paar (x, B) gegeben (ev. B = ∅) =⇒ ∃ J mit B ⊂ J ) . WHILE NOT g(x) ≥ 0 ahle p mit g p (x) < 0 , d.h. p ∈ /J. (1◦ ) W¨ ◦ osbar, dann STOP, ((3.26) unl¨osbar, (2 ) Wenn LQ(B ∪ {p}) nicht l¨ S = ∅) . (3◦ ) Sonst: Berechne neues L-Paar ( x , (B ∪ {p}) mit B ⊂ B und f ( x) > f (x) . (!)). Setze (x , B) := ( x , B ∪ {p}) (auch B = B END Bei Aktivierung einer weiteren Restriktion mit dem Index p ∈ / B k¨onnen aber einige, ja sogar alle Bedingungen aus B unzul¨assig werden! Der letztere Fall
3.4 Linear-quadratische Probleme
167
entspricht praktisch einem Neustart des Verfahrens mit einer anderen Ausgangslage. In jedem Schritt ¨ andert sich die Indexmenge B und die Zielfunktion f (x) nimmt nicht ab. Weil es nur endlich viele verschiedene Indexmengen B gibt, muss wieder das Verfahren abbrechen. Eine ausf¨ uhrliche Beschreibung des Verfahrens dlqp.m findet man in SUPPLEMENT\chap03g. Beispiel 3.4. Beispiel 1 zum dualen Verfahren f (x) = 6x1 + 2(x21 − x1 x2 + x22 ) = Min! x1 ≥ 0 , x2 ≥ 0 , x1 + x2 ≥ 2 . Das absolute Minimum x0 = [−2, −1] ist der Startwert, dort sind alle drei Nebenbedingungen inaktiv. Im ersten Schritt wird die am st¨arksten verletzte Nebenbedingung aktiviert, also die Bedingung mit dem Index i = Min Argk Min{g k (x0 )} . In Abb. 3.9 werden aber nacheinander die Bedingungen g 1 , g 2 , g 3 als erste aktiviert. Die Iterationsfolgen sind dann 2.5
2
x3
1.5
x
1
Pfad 1: x0 −→ x1 −→ x2 −→ x3 Pfad 2: x0 −→ x4 −→ x5 −→ x3 Pfad 3: x0 −→ x3
S
2
0.5
0
x4
x5
x1
−0.5
f(x) = 6.5 −1
x0
−1.5 −2.5
−2
−1.5
−1
−0.5
0
0.5
1
1.5
2
2.5
Abb. 3.9. Beispiel 3.4
Beispiel 3.5. Beispiel 2 zum dualen Verfahren 6
1 2 (x + x22 ) + 10x1 + 2x2 2 1 g1 (x) = x1 + x2 g2 (x) = 3 − x2 g3 (x) = −x1 − x2 + 5 g4 (x) = x1 − x2 + 2 g5 (x) = 5 − x1 g6 (x) = x2 + 1 g7 (x) = x1 + 2x2 g8 (x) = x1 − 2x2 + 4 f (x) =
Literatur: [Goldfarb], [Spellucci].
4
x5
2
x3,x4
0
−2
x2,x3
x0
−4
x1
−6 −10
−8
−6
−4
−2
0
2
Abb. 3.10. Beispiel 3.5
4
6
168
3 Optimierung
3.5 Nichtlineare Optimierung F¨ ur das allgemeine nichtlineare Optimierungsproblem {f (x) ; x ∈ Rn , g(x) ≥ 0 ∈ Rm , h(x) = 0 ∈ Rp } = Min!
(3.30)
werden die gleichen Bezeichnungen und Voraussetzungen wie im vorangegangenen Abschnitt verwendet. Insbesondere ist L(x, y, z) = f (x)−y g(x)+z h(x) wieder die Lagrange-Funktion, A(x) ist die Indexmenge der Gradienten aller aktiven Restriktionen, und es muss die Rangbedingung (3.27) in jedem Punkt x der Iteration erf¨ ullt sein. (a) Das Gradientenverfahren f¨ ur (3.30) verl¨auft im Großen und Ganzen wie im linear-quadratischen Fall, allerdings h¨angen nun die Gradienten der Zielfunktion und der Nebenbedingungen im Regelfall von x ab, deswegen sind einige Modifikationen notwendig. Lineare Gleichungen h(x) = 0 lassen sich problemlos handhaben, wenn man damit wie im letzten Abschnitt verf¨ahrt. Nichtlineare Gleichungen k¨ onnen aber zu Schwierigkeiten f¨ uhren, weil das Verfahren nur mit Punkten aus dem zul¨ assigen Bereich arbeitet. Vor allem muss zuerst ein zul¨ assiger Startpunkt berechnet werden und anschließend d¨ urfen die Gleichungen in h(x) = 0 ∈ Rp nicht mehr inaktiviert werden. Im Folgenden werden Gleichungen wieder als niemals zu inaktivierende Ungleichungen behandelt und daher wieder nur Ungleichungsrestriktionen untersucht. (b) In einem typischen Iterationschritt ist das Gleichungssystem (3.28),
d ∇f (x)T H [B A ]T (3.31) = BA 0 yA 0 zu l¨ osen. Die Wahl der symmetrisch positiv definiten Matrix H steuert wieder die Geschwindigkeit des Verfahrens. Im einfachsten Fall wird f¨ ur H die Einheitsmatrix gew¨ ahlt. Bei konvexen Problemen wird quadratische Konvergenz f¨ ur die Wahl H = ∇2x L(x, y, z) erreicht, weil das Verfahren dann einem Newton-Verfahren gleicht. Die Berechnung dieser Hesse-Matrix von L bez¨ uglich x in jedem Schritt ist aber zeitraubend. Ein guter Kompromiss zwischen den beiden Extremen H = I und H = ∇2x L(x, y, z) ist eine Anwendung des in § 2.1 erw¨ ahnten BFGS-Verfahrens zur Aktualisierung von H. Im Gegensatz zu dem im letzten Abschnitt beschriebenen Gradientenverfahren f¨ ur linear-quadratische Probleme wird im voll nichtlinearen Fall eine zur Inaktivierung anstehende Bedingung g i (x), i ∈ A(x) mit dem zugeh¨origen Lagrange-Multiplikator yi < 0 nur dann inaktiviert, wenn der Winkel zwischen der Abstiegsrichtung d und der lokal optimalen Richtung ∇f (x) nicht zu groß ist. Genauer muss gelten ∇f (x) d ≥ γ |yi |
(3.32)
mit einer Konstante γ > 0, z.B. γ = 1/2 . Der Lagrange-Multiplikator yi wird gesch¨ atzt. Als zweite Modifikation muss im nichlinearen Fall ein st¨andi-
3.5 Nichtlineare Optimierung
169
ges Hin-und-Herspringen zwischen verschiedenen Randbedingungen vermieden werden (Jamming oder Zig-Zagging). In einem normalen Iterationsschritt wird eine zur Inaktivierung anstehende Bedingung inaktiviert, wenn die Abstiegsrichtung d Null ist. Wenn d = 0 ist, wird zwar inaktiviert und der neue Iterationspunkt x = x − σ d berechnet. Anschließend wird aber gepr¨ uft, ob f¨ ur die Indexmengen der aktiven Bedingungen A( x) ⊂ A(x) gilt. Wenn dies nicht der Fall ist, wird der ganze Iterationsschritt noch einmal ohne Inaktivierung wiederholt. (c) Restoration Wenn das (ev. lokale) Minimum der Zielfunktion f , bzw. der station¨ are Punkt außerhalb oder auf dem Rand des zul¨assigen Bereichs liegt, und der Startpunkt sich im Innern des zul¨ assigen Bereichs befindet, so bewegt sich die Iteration zun¨ achst auf den Rand zu. Bei linear-quadratischen Problemen verl¨ auft die Iteration am Rand entlang, wenn sie einmal dort angekommen ist. Im nichtlinearen Fall kann sie durchaus wieder ins Innere zur¨ uckkehren auf Grund der beschriebenen zwei Modifikationen. Andererseits f¨ uhrt die Suchrichtung d bei gebogenem Rand im Regelfall aus dem zul¨assigen Bereich heraus. Weil aber alle Iterationspunkte zul¨assig sein m¨ ussen, muss der zun¨ achst berechnete Iterationspunkt x % wieder auf den Rand projiziert werden. Unter Umst¨ anden m¨ ussen sogar mehrere Versuche mit jeweils reduzierter Schrittweite durchgef¨ uhrt werden, um x % in den projizierbaren Bereich zur¨ uckzuholen. Diese Restoration“ genannte aufwendige R¨ uckf¨ uhrung kann ” das Verfahren sowohl erheblich abbremsen als auch in ung¨ unstigen F¨allen die Genauigkeit verschlechtern.
d
old point σ=1/4
σ=1/2
σ=1
S new point
Abb. 3.11. Restoration
Das Gradientenverfahren muss wie gesagt mit einem Punkt aus dem zul¨assigen Bereich starten, der oft schwierig zu finden ist. In jedem Schritt sorgt dann die Restoration daf¨ ur, dass man aus dem unzul¨assigen Bereich wieder in den zul¨ assigen Bereich zur¨ uckkehrt. Dies ist zwar die Schwachstelle des Verfahrens, stellt aber sicher, dass die N¨ aherungsl¨ osung die Zwangsbedingungen erf¨ ullt. Strafkostenverfahren k¨ onnen theoretisch mit einem beliebigen Wert starten, jedoch wird im Regelfall die L¨ osung aus dem unzul¨assigen Bereich angen¨ahert. F¨ ur ein Problem etwa mit der Zielfunktion
170
3 Optimierung
f (x) =
10
i
x
xi
i
c + ln 10
i=1
i=1
xi
und der Nebenbedingung x ≥ 0 , vgl. [Himmelblau], S. 395, sind diese Verfahren folglich ungeeignet. (d) Strafkostenverfahren Bei diesen Iterationsverfahren wird nicht mehr ein station¨ arer Punkt der Lagrange-Funktion berechnet, vielmehr wird in formal ¨ ahnlicher Weise eine Strafkostenfunktion (penalty function) eingef¨ uhrt, bei der die Multiplikatoren die g¨ anzlich andere Rolle von Strafkosten spielen. F¨ ur das allgemeine Problem (3.30) w¨ ahlen wir hier die Strafkostenfunktion nach [Zangwill], P (x, y, z) = f (x) − yg(x)− + z|h(x)| , [g i (x)]− = Min{g i (x) , 0} m p g(x)− = [g i (x)]− i=1 , |h(x)| = |hj (x)| j=1
.
Diese Funktion ist zwar an manchen Stellen nur einseitig differenzierbar, daf¨ ur aber exakt: Es gilt P (x, y, z) = f (x) f¨ ur alle zul¨assigen x. Die erste, etwas hinderliche Eigenschaft f¨ uhrt zu sch¨ arferen Ergebnissen und die zweite bringt entscheidende numerische Vorteile. Wichtig ist bei diesem Verfahren, dass die Strafkosten y und z der jeweiligen Situation angepasst werden und nicht u ¨ber die ganze Rechnung hinweg konstant bleiben. In den folgenden beiden Illustrationen wird die Zangwillsche Funktion mit der klassischen (differenzierbaren) Strafkostenfunktion Q verglichen, die ebenfalls exakt ist: Q(x, y, z) = f (x) +
m
yi Max{0, −gi (x)}2 +
i=1
p
zi hi (x)2 .
i=1
Beispiel 3.6. [Spellucci], p. 456. f (x) = x(x − 1)(x − 3)(x − 5)/8 = Min! g(x) = x(4 − x) ≥ 0,
1
g
Q
0.5
0
f
P
−0.5
−1
f,P,Q
−1.5
f −2 3.5
Abb. 3.12. Bsp. 3.6
3.6
3.7
3.8
3.9
4
4.1
4.2
4.3
4.4
4.5
Abb. 3.13. Bsp. 3.6, skaliert
3.5 Nichtlineare Optimierung
171
Beispiel 3.7. Identisch mit Beispiel 3.9 weiter unten.
f
g2
f
g2
P
Q
g
g
1
1
Abb. 3.14. Bsp. 3.7, β = 5, Zangwillsche Strafkostenfunktion
Abb. 3.15. Bsp. 3.7, β = 5, sische Strafkostenfunktion
Klas-
Bezeichnungen: (1◦ ) e = [1, . . . , 1]T ∈ Rm A(x) = {i ∈ {1, . . . , m} , g i (x) = 0} B(x) = {i ∈ {1, . . . , m} , g i (x) > 0} V(x) = {i ∈ {1, . . . , m} , g i (x) < 0} (NB verletzt (violated)) S(τ ) = {x ∈ Rn , g(x) ≥ −τ e , |h(x)| ≤ τ e} , τ ≥ 0 also S(0) = S , S(∞) = Rn . atsbedingung wird bei diesem Verfahren die Erweiterte (2◦ ) Als Regularit¨ ” Mangasarian-Fromowitz-Bedingung“ (EMF) verwendet: ∃ τ0 > 0 ∀ x ∈ S(τ0 ) ∃ v ∈ Rn : ∇h(x)v = 0 , ∀ i ∈ A(x) ∪ V(x) : ∇g(x)i v > 0 , ∇h(x) ist zeilenregul¨ar. (3.33) (3◦ ) F¨ ur festes x sei das linear-quadratische Problem QP(x, H) f¨ ur u ∈ Rn gegeben durch 1 f (u; x) := f (x) + ∇f (x)(u − x) + (u − x)T H(u − x) 2 g(u; x) := g(x) + ∇g(x)(u − x) ≥ 0 h(u; x) := h(x) + ∇h(x)(u − x) ur QP(x,H): (4◦ ) Slater-Bedingung f¨ ∃ u ∈ Rn : g(x) + ∇g(x)(u − x) > 0 , h(x) + ∇h(x)(u − x) = 0 .
172
3 Optimierung
Die wesentlichen Eigenschaften der Strafkostenfunktion k¨onnen dann in dem folgenden Satz zusammengefasst werden. Satz 3.10. (1◦ ) Gilt (EMF) f¨ ur ein τ0 > 0 und ist S(τ0 ) kompakt, dann hat die Strafkostenfunktion P (x, y, z) keine lokale Minimumstelle im Komplement S(τ0 )\S . ur ein τ0 > 0 und ist x∗ strenges lokales Minimum, dann (2◦ ) Gilt (EMF) f¨ ∗ ist x lokales Minmum von P (x, y, z) , falls y und z hinreichend groß sind. ur QP(x, H) mit beliebiger, symmetrisch (3◦ ) Gilt die Slater-Bedingung f¨ positiv definiter Matrix H, dann gibt es Strafkosten y > 0 und z > 0 , so dass δ + P ((x; d), y, z) < 0 .
(3.34)
Dabei ist u∗ die eindeutige L¨ osung von QP(x, H) , d = u∗ − x und + uglich x in Richδ P ((x; d), y, z) die einseitige Richtungsableitung von P bez¨ tung d . osung von QP(x, H) und d = u∗ − x , dann gilt f¨ ur 0 ≤ σ ≤ 1 (4◦ ) Ist u∗ L¨ h(x + σ d)1 = (1 − σ)h(x)1 + O(σ 2 ) g(x + σ d)− 1 = (1 − σ)g(x)− 1 + O(σ 2 ) . Beweis [Spellucci]. Der letzte Teil besagt, dass die Unzul¨ assigkeit sowohl der Gleichungs- als auch der Ungleichungsrestriktionen f¨ ur hinreichend kleines σ > 0 abnimmt. (e) Der Algorithmus sqp.m: PARAMETER: ε > 0 , δ , α ∈ (0, 1) , z.B. δ = 0.1 , α = 0.5 , τ0 > 0 , d = e , tol . START: W¨ ahle Startwert x0 ∈ S(τ0 ) , y = 0 , z = 0 . WHILE NOT |σ d| < tol ahle H symmetrisch positiv definit, z.B. H = I ; (1◦ ) W¨ L¨ ose QP(x, H) komplett, L¨ osung (u , y , z) , setze d = u − x , yN = 0 ur alle i (2◦ ) Setze f¨ " yi + 2ε wenn yi + ε ≥ yi yi := yi sonst " | zi | + 2ε wenn | zi | + ε ≥ z i zi := zi sonst (3◦ ) Bestimme Schrittweite σ > 0 durch wiederholte Halbierung so, dass σ maximal ist und gilt P (x, y, z)−P (x+σ d, y, z) ≥ σδ dT Hd + εg(x)− 1 + εh(x)1 =: η
3.5 Nichtlineare Optimierung
173
sowie — falls x ∈ S(τ0 )\S(τ0 /2) — g(x)− 1 − g(x + σd)− 1 + h(x)1 − h(x + σd)1 ≥ σδ [g(x)− 1 + h(x)1 ] (4◦ ) Setze x := x + σ d END (f ) Zus¨ atze (f1) Bei dieser Rechenvorschrift werden die Strafkostenparameter unn¨otig groß in der N¨ ahe der L¨ osung, was sich nachteilig auf die numerische Stabilit¨ at auswirkt. Deswegen hat [Spellucci] eine modifizierte Berechnung vorgeschlagen (in die der Startvektor x0 eingeht); s. SUPPLEMENT\chap03c und den Algorithmus sqp.m in KAPITEL03\SECTION_5. Dabei werden die Strafkosten y und z w¨ ahrend der Iteration auch verkleinert und insgesamt an die geometrische Konstellation im einzelnen Iterationsschritt besser angepasst. (f2) Bei nichtkonvexen aber durchaus gutartigen Problemen kann die zul¨assige Menge in QP(x, H) leer sein. Dann ist das modifizierte Problem QP(x, H, ξ) 1 = Min! ∇f (x)d + dT Hd 2 ξ g(x)A(x)∪V(x) + ∇g(x)A(x)∪V(x) d ≥ 0 g(x)B(x) + ∇g(x)B(x) d
≥0
ξ h(x) + ∇h(x)d
=0
(3.35)
zu l¨ osen. Dabei wird der Parameter ξ ∈ (0, 1] solange verkleinert, bis das resultierende Problem (3.35) eine nichtleere zul¨assige Menge besitzt. Unter (EMF) existiert ein solches ξ. (f3) Auch bei diesem Verfahren ist die Wahl der Matrix H von Bedeutung f¨ ur die Konvergenzgeschwindigkeit und mit einer gewissen Einschr¨ankung auch f¨ ur die Genauigkeit. Bei konvexen Problemen ist die optimale Wahl H = ∇2x L(x, y, z) zu zeitraubend, daher wird eine Aktualisierung mit der BFGS-Methode bevorzugt. Im nichtkonvexen Fall kann eine modifizierte BFGS-Formel Vorteile bringen. Beide Male wird aber eine m¨ogliche d¨ unne Besetzung der Matrix H zerst¨ ort, was den Rechenaufwand wieder anwachsen l¨asst. (f4) Wenn die Konvergenz in der N¨ ahe der L¨osung zu langsam ist, k¨onnen Korrekturen zweiter Ordnung x = x + σd + σ 2 q eine Verbesserung bringen (Maratos-Effekt).
174
3 Optimierung
(g) Beispiele zum Gradientenverfahren (GP)und Strafkostenverfahren (SQP)
Beispiel 3.8. [Spellucci], S. 397 3
a(x, y) = (x + y − 3.5) b(x, y) = 4(y − x + 0.5)2 2
100 = Min! a(x, y) + b(x, y) 1 − x2 + y ≥ 0 1 − x2 − y ≥ 0 (x∗ , y ∗ ) = (−1, 0) . f (x, y) =
2
1
S
0
f
−1
1
−2
−3 −1.5
−1
−0.5
0
0.5
1
1.5
Abb. 3.16. Bsp. 3.8, SQP
Beispiel 3.9. [Spellucci], S. 457. 2
1.5
(x − y)2 + (y − 1)2 = Min! 1 − x2 + y ≥ 0 1 − x2 − y ≥ 0 (x∗ , y ∗ ) = (0.546, 0.702) .
SQP
1
f
2
0.5
0
GPM
S
−0.5
−1 −1
−0.5
0
0.5
1
1.5
Abb. 3.17. Bsp. 3.9, GPV und SQP
Beispiel 3.10. 2.5
2
SQP
1.5
(x − 8)2 /4 + (y − 1)2 = Min! 25 − (x − 4)2 − y 2 ≥ 0 30 − (x + 1)2 − (y + 3)2 ≥ 0 30 − (x + 1)2 − (y − 3)2 ≥ 0 (x∗ , y ∗ ) = (3.45, 0.19) .
f1
1
0.5
0
GPM
−0.5
S
−1
−1.5
−2
−2.5 −1
SQP 0
1
2
3
4
5
Abb. 3.18. Bsp. 3.10, GPV und SQP
3.6 Abriss der Lagrange-Theorie
175
Beispiel 3.11. 2.5
2
f2
1.5
(x − 8)2 /4 + (y − 3)2 = Min! 25 − (x − 4)2 − y 2 ≥ 0 30 − (x + 1)2 − (y + 3)2 ≥ 0 30 − (x + 1)2 − (y − 3)2 ≥ 0 (x∗ , y ∗ ) = (2.43, 1.27) .
1
0.5
0
S
−0.5
−1
−1.5
−2
−2.5 −1
0
1
2
3
4
5
Abb. 3.19. Bsp. 3.11, SQP 2.5
2.5
2
2
f2
1.5
1
1
0.5
0.5
0
0
S
−0.5
S
−0.5
−1
−1
−1.5
−1.5
−2
−2.5 −1
f2
1.5
−2
0
1
2
3
4
−2.5 −1
5
Abb. 3.20. Bsp. 3.11, GPV, γ = 0.5
0
1
2
3
4
5
Abb. 3.21. Bsp. 3.11, GPV, γ = 0.1
γ ist der Inaktivierungsparameter in (3.32) Die numerische L¨ osung nichtlinearer Optimerungsprobleme bleibt ein Spiel mit Parametern, eine g¨ unstige Wahl erkennt man aber gl¨ ucklicherweise am Wert der Zielfunktion. Bei diesem Problemkreis muss man sich in vielen F¨allen mit einem guten“ Ergebnis zufriedengeben, das auch dann geliefert wird, ” wenn die Voraussetzungen f¨ ur den Konvergenzbeweis nicht erf¨ ullt sind. Dies trifft insbesondere auf nichtkonvexe Probleme zu, die in der Praxis h¨aufig auftreten. Die in KAPITEL03 pr¨ asentierten Verfahren gp.m und sqp.m haben einen gewissen Modellcharakter. Insbesondere das zweite Verfahren kann mit den in [Spellucci] beschriebenen Methoden noch verbessert werden.
3.6 Abriss der Lagrange-Theorie Wie schon an dem effizienten dualen Verfahren der quadratischen Optimierung — das eigentlich ein primal-duales Verfahren ist — deutlich wurde, geht in viele Probleme der Optimierung und der Kontrolltheorie eine duale Betrachtungsweise ein. In der Kontinuumstheorie treten Sattelpunktprobleme bei den station¨ aren Navier-Stokes-Gleichungen auf, vgl. Satz 8.11, aber auch bei festen K¨ orpern als sog. gemischte Finite-Element-Methoden, die eine h¨ohere
176
3 Optimierung
Flexibilit¨ at in der numerischen Umsetzung gestatten [Brezzi]. Die Problemstellung aus § 3.2 soll daher in diesem Abschnitt noch einmal aufgegriffen und von einem allgemeineren Standpunkt aus betrachtet werden. (a) Problemstellung Es seien X , Y, Z reelle normierte Vektorr¨aume, es sei ∅ = C ⊂ X eine beliebige Menge, die weder Unterraum noch offen sein muss, und es sei ∅ = K ⊂ Y ein Ordnungskegel mit dem dualen Kegel Kd im ur drei Abbildungen Dualraum Yd von Y, vgl. § 1.10. F¨ f : C → R, g : C → Y , h : C → Z , betrachten wir das allgemeine Minimumproblem (MP) {f (x) ; x ∈ C , −g(x) ∈ K , h(x) = 0} = Min!
(3.36)
mit der zul¨ assigen Menge S = {x ∈ C , −g(x) ∈ K , h(x) = 0} und der Lagrange-Funktion L : C × Yd × Zd (x, y, z) → L(x, y, z) = f (x) ± y ◦ g(x) + z ◦ h(x) ∈ R , wobei das Vorzeichen von y bei dem betrachteten Minimumproblem positiv und bei dem entsprechenden Maximumproblem negativ sein soll; vgl. § 3.2(b). Das Problem (3.36) heißt wieder konvex, wenn C, f konvex, g K-konvex, und h affin linear ist. F¨ ur −g(x) ∈ K schreiben wir kurz g(x) ≤ 0 und beachten, dass nunmehr die Lagrange-Multiplikatoren y und z Elemente aus den Dualr¨ aumen Yd bzw. Zd sind, bzw. mit solchen kanonisch identifiziert werden. Insgesamt bietet sich also das folgende Bild: Abbildung: f Wertebereich: R Ordnungskegel: R≥0 duale Elemente: ∈ R y
g h Y Z K L = {0} ∈ Yd z ∈ Zd
.
Die Gleichungsrestriktionen h(x) = 0 d¨ urfen nicht als doppelte Ungleichungen aufgefasst werden, weil verschiedentlich int(K) = ∅ vorausgesetzt werden muss. Mit den zwei Ordnungskegeln K und L unterscheiden sich die Restriktionen in leichter Verallgemeinerung gem¨ aß K
g(x) ≤ 0 , int(K) = ∅ ,
L
h(x) ≤ 0 , int(L) = ∅ .
Der grundlegende Satz 3.2 hat jetzt die folgende Form: Satz 3.11. Wenn es ein Tripel (x∗ , y ∗ , z ∗ ) ∈ C × Kd × Zd gibt mit x∗ = Arg
Min {f (x∗ ) ± y ∗ ◦ g(x∗ ) + z ∗ ◦ h(x∗ ) , x ∈ C} , Max
x∗ ∈ S und y ∗ ◦ g(x∗ ) = 0 , dann gilt x∗ = Arg
Min {f (x) , x ∈ C , g(x) ≤ 0 , h(x) = 0} . Max
(3.37)
3.6 Abriss der Lagrange-Theorie
177
(b) Das Lagrange-Problem Urspr¨ unglich waren Lagrange-Multiplikatoren Proportionalit¨ atskonstanten f¨ ur k¨ unstliche Zwangskr¨afte in Bewegungsgleichungen (Newtonsches Axiom). Sp¨ ater wurde der Ansatz von Lagrange mit großem Erfolg auf allgemeinere Probleme angewendet, und die Anwender wollten wissen, ob eine L¨ osung u ¨berhaupt existiert, wenn der Rechner ein zweifelhaftes Ergebnis liefert. Heute nehmen Existenzbeweise f¨ ur Multiplikatoren in der mathematisch Optimierung und in der Kontrolltheorie einen breiten Raum ein. Ihre Bedeutung neben der eigentlichen L¨osung wird auch durch die Bezeichnung Kozustandsver¨ anderliche“ unterstrichen. Eine einheitliche ” Theorie f¨ ur Ungleichungs- und Gleichungsrestriktionen bleibt unbefriedigend, obwohl verschiedene Ans¨ atze unternommen wurden. Einer der Gr¨ unde liegt in der Tatsache, dass bei Gleichungen der triviale Ordnungskegel L kein Inneres hat, ein anderer in der Vielfalt von m¨ oglichen Nebenbedingungen in der Kontrolltheorie. Außerdem k¨ onnen die Regularit¨ atsbedingungen ( constraint qua” lifications“) im unendlichdimensionalen Fall von Funktionenr¨aumen ebensowenig hierarchisch geordnet werden wie im endlichdimensionalen Fall Rn , vgl. § 3.2 (b). F¨ ur Probleme mit reinen Gleichungsrestriktionen hat [Luenberger] die Existenz von Lagrange-Multiplikatoren auf alternative Weise bewiesen durch Anwendung des verallgemeinerten Satzes 1.19 u ¨ber den Wertebereich eines Operators. Trennungss¨ atze werden in Luenbergers Beweis nicht verwendet aber der ebenso tiefliegende Satz 1.23 u ¨ber verallgemeinerte inverse Funktionen. Zun¨ achst fassen wir einige fundamentale Eigenschaften der Lagrange-Funktion in dem folgenden Lemma zusammen: Lemma 3.3. (1◦ ) x ∈ S =⇒ f (x) = L(x, 0, 0) = Max(y,z)∈Kd ×Zd L(x, y, z) . (2◦ ) Ist K in Y abgeschlossen, x ∈ C und ∃ (y ∗ , z ∗ ) ∈ Kd × Zd : L(x, y ∗ , z ∗ ) = Max(y,z)∈Kd ×Zd L(x, y, z) , dann ist x ∈ S und y ∗ ◦ g(x) = 0 . (3◦ ) Ist K abgeschlossen, dann gilt S = ∅ ⇐⇒ ∀ x ∈ C : Sup(y,z)∈Kd ×Zd L(x, y, z) = ∞ . Aus diesen drei Resultaten folgt direkt Satz 3.12. (Lagrange-Problem hinreichend) Der Ordnungskegel K ⊂ Y sei abgeschlossen. Wenn es ein Tripel (x∗ , y ∗ , z ∗ ) ∈ C × Kd × Zd gibt mit (x∗ , y ∗ , z ∗ ) = Arg Minx∈C Sup(y,z)∈Kd ×Zd L(x, y, z) ,
(3.38)
osung des Minimumproblems (3.36). dann ist x∗ L¨ Sup(y,z)∈Kd ×Zd L(x, y, z) wird nicht notwendig f¨ ur alle x ∈ C angenommen aber nach Voraussetzung f¨ ur x∗ ∈ C .
178
3 Optimierung
Folgerung 3.1. Das Minimumproblem (MP) (3.36) und das Lagrangeosung von Problem (LP) (3.38) sind ¨ aquivalent im folgenden Sinn: Ist x∗ L¨ ∗ ∗ ∗ osung von (LP), dann gilt x∗ = x ∗ . (MP) und ( x , y , z ) L¨ Die Umkehrung von Satzes 3.12 n¨ amlich die Frage nach der Existenz von Lagrange-Multiplikatoren ist wie alle Existenzs¨atze erheblich schwieriger zu beantworten. Definition 3.2. (Slater-Bedingung) Es seien X , Y normierte Vektorr¨ aume, C ⊂ X konvex, K ⊂ Y ein positiver Kegel mit int(K) = ∅ und g : C → Y Kkonvex. Dann erf¨ ullt g die Slater-Bedingung, wenn ∃ x ∈ C : g(x) < 0 , h(x) = 0
.
K g(C) A
g(C)
Abb. 3.22. Slater-Bedingung: A = ∅
Satz 3.13. (F. John, Existenz) Es seien X , Y normierte Vektorr¨ aume und K ⊂ Y ein Ordnungskegel mit nichtleerem Inneren, int(K) = ∅ . osung des konvexen Minimumproblems {f (x) ; x ∈ C , g(x) ≤ (1◦ ) Es sei x∗ L¨ 0} , d.h. C ⊂ X konvex, f : C → R konvex und g : C → Y K-konvex. (2◦ ) ∃ x ∈ C ∀ 0 = y ∈ Kd : y ◦ g(x) < 0 . Dann existiert ein 0 = y ∗ ∈ Kd , so dass x∗ = Arg Min{f (x) + y ∗ ◦ g(x) , x ∈ C} . achte Slater-Bedingung dar. Der BeVoraussetzung (2◦ ) stellt eine abgeschw¨ weis verwendet den Trennungssatz 1.24 als wesentliches Hilfsmittel; s. SUPPLEMENT\chap03d. Man beachte auch, dass keinerlei Glattheit der Funktionen f und g vorausgesetzt wird. Der Satz von F. John kann auf gemischte Probleme mit (konvexen) Gleichungsrestriktionen verallgemeinert werden, aber h(x) = 0 ist genau dann konvex, wenn h affin linear ist. Außerdem sind einige zus¨atzliche Regularit¨atsbedingungen notwendig, wenn wir weiterhin fordern, dass die LagrangeMultiplikatoren Elemente der topologischen und nicht (nur) der algebraischen Dualr¨ aume sind [Kirsch]. Wir stellen nachfolgend zwei Ergebisse von [Kosmol] vor, welche die allgemeine Situation ziemlich vollst¨andig beschreiben.
3.6 Abriss der Lagrange-Theorie
179
Definition 3.3. Es sei X ein normierter Vektorraum und C, D ⊂ X . alt, C ⊂ aff(C) . (1◦ ) aff(C) ist der kleinste affine Unterraum von X , der C enth¨ uglich D , wenn (2◦ ) Es sei x ∈ C ∩ D , dann ist x ein innerer Punkt von C bez¨ es eine Umgebung von x in D gibt, die ganz in C liegt : ∃ ε > 0, ∀ u ∈ D : u − x ≤ ε =⇒ u ∈ C. uglich aff(C) . (3◦ ) relint(C) ist die Menge der inneren Punkte von C bez¨ Ist z.B. h : C → Z affin linear, dann ist relint(h(C)) = ∅, wenn Z endlichdimensional ist oder wenn relint(C) = ∅ . osung des konvexen Minimumproblems Satz 3.14. (Existenz) Es sei x∗ L¨ {f (x) ; x ∈ C , g(x) ≤ 0 , h(x) = 0} = Min!,
(3.39)
(h affin linear) und sei G = {x ∈ C , g(x) ≤ 0}. Sei ferner (1◦ ) int(K) = ∅ , (2◦ ) h : C → Z = Rm endlichdimensional, (3◦ )(i) ∃ x ∈ C : g(x) < 0 und 0 ∈ relint(h(G)) oder (3◦ )(ii) 0 ∈ relint(h(C)) und ∃ x ∈ C : g(x) ≤ 0 , h(x) = 0 . Dann existiert ein Paar (y ∗ , z ∗ ) ∈ Kd × Zd mit y ∗ = 0 so, dass x∗ = Arg Min{f (x) + y ∗ ◦ g(x) + z ∗ ◦ h(x), x ∈ C} und y ∗ ◦ g(x∗ ) = 0. Zusammen mit Lemma 3.3 stellt dieser Satz eine Umkehrung von Satz 3.12 dar: Folgerung 3.2. (Lagrange-Problem notwendig) Es sei seien die Voraussetosung des Minimumprozungen von Lemma 3.3 und Satz 3.14 erf¨ ullt. Ist x∗ L¨ blems (3.39), dann existiert (x∗ , y ∗ , z ∗ ) = Arg Minx∈C Sup(y,z)∈Kd ×Zd L(x, y, z) , und es gilt y ∗ ◦ g(x∗ ) = 0 . Unter zus¨ atzlicher Verwendung von Methoden der Funktionalanalysis lassen sich die einschr¨ ankenden Voraussetzungen u ¨ber die Gleichungsrestriktionen h abschw¨ achen, aber dann muss h stetig und C = X der volle Vektorraum sein. Satz 3.15. (Existenz) Es seien X , Z Banach-R¨ aume und Y ein normierter Vektorraum mit Ordnungskegel K ⊂ Y . osung des konvexen Minimumproblems (1◦ ) Es sei x∗ L¨ {f (x) ; x ∈ C , g(x) ≤ 0 , h(x) = 0 , r(x) = 0} = Min!.
180
3 Optimierung
(2◦ ) Es sei f : X → R Konvex, g : X → Y K-konvex, h : X → Rm affin linear, r : X → Z affin linear, stetig und r(X ) abgeschlossen. (3◦ ) Es sei int(K) = ∅ und ∃ x ∈ X : g(x) < 0 , h(x) = 0 , r(x) = 0 . Dann existiert ein Tripel (y ∗ , z ∗ , w∗ ) ∈ Kd × Rm × Zd with y ∗ = 0 so, dass x∗ = arg min{f (x) + y ∗ ◦ g(x) + z ∗ ◦ h(x) + w∗ ◦ r(x), x ∈ X } und y ∗ ◦ g(x∗ ) = 0 . Die Beweise zu Satz 3.14 und 3.15 verwenden den Satz von F. John und den Eidelheitschen Trennungssatz, s. [Kosmol] und SUPPLEMENT\chap03d. Ein analoges Resultat zu Folgerung 3.2 gilt auch bez. Satz 3.15. (c) Sattelpunktprobleme In den folgenden beiden Resultaten sind A , B beliebige Mengen und Φ : A × B (x, y) → Φ(x, y) ∈ R eine beliebige Funktion. Lemma 3.4. Es gilt Sup y∈B Inf x∈A Φ(x, y) ≤ Inf x∈A Sup y∈B Φ(x, y) . Ein Paar (x∗ , y ∗ ) ∈ A × B heißt Sattelpunkt von Φ, wenn gilt ∀ x ∈ A ∀ y ∈ B : Φ(x∗ , y) ≤ Φ(x∗ , y ∗ ) ≤ Φ(x, y ∗ ) .
(3.40)
Satz 3.16. Die Funktion Φ hat einen Sattelpunkt in A × B g.d.w. Max y∈B Inf x∈A Φ(x, y) = Min x∈A Sup y∈B Φ(x, y) .
(3.41)
Dabei bedeutet z.B. Max statt Sup, dass das Supremum tats¨achlich angenommen wird. F¨ ur einen Sattelpunkt (x∗ , y ∗ ) gilt also Max y∈B Inf x∈A Φ(x, y) = Φ(x∗ , y ∗ ) = Min x∈A Sup y∈B Φ(x, y) , aber nicht jeder Punkt mit dieser Eigenschaft ist ein Sattelpunkt, wie das einfache Beispiel Φ : R2 (x, y) → Φ(x, y) = x · y zeigt (Abb. 3.22). Verm¨oge der Lagrange-Funktion L wird nun dem Minimumproblem (3.36) ein Sattelpunktproblem (SPP) zugeordnet: Gesucht ist ein Sattelpunkt (x∗ , y ∗ , z ∗ ) ∈ C × Kd × Zd so, dass gilt ∀ (x, y, z) ∈ C × Kd × Zd : L(x∗ , y, z) ≤ L(x∗ , y ∗ , z ∗ ) ≤ L(x, y ∗ , z ∗ ) . (3.42) Satz 3.17. ((SPP) hinreichend) Der Ordnungskegel K sei abgeschlossen. Ist osung von (3.42), dann ist x∗ Minimumpunkt, (x∗ , y ∗ , z ∗ ) Sattelpunkt, also L¨ also L¨ osung von (3.36).
3.6 Abriss der Lagrange-Theorie
181
1
z
0.5
0
−0.5 1 0.5
−1 −1
0 −0.5 0
−0.5 0.5 1
−1
y
x
Abb. 3.23. Skizze von Φ(x, y) = x · y
Beweis. (1◦ ) Aus der linken Ungleichung in (3.42) folgt f¨ ur z = z ∗ y ◦ g(x∗ ) ≤ y ∗ ◦ g(x∗ ) .
(3.43)
ur y F¨ ur alle y ∈ Kd gilt y + y ∗ ∈ Kd , weil Kd konvex ist. Setzt man y + y ∗ f¨ in (3.43) ein, so folgt ∀ y ∈ Kd : y ◦ g(x∗ ) ≤ 0 . Nach dem Kegellemma 1.21 folgt hieraus g(x∗ ) ≤ 0 . Daraus folgt auch y ∗ ◦ g(x∗ ) ≤ 0 . Setzt man y = 0 in (3.43), so folgt y ∗ ◦ g(x∗ ) ≥ 0 , also zusammen y ∗ ◦ g(x∗ ) = 0 . (2◦ ) Setzt man y = y ∗ in der linken Ungleichung von (3.42), dann folgt (z − z ∗ ) ◦ h(x∗ ) ≤ 0 . Weil z − z ∗ ∈ Zd beliebig ist, folgt hieraus h(x∗ ) = 0 . assig. Damit ist x∗ zul¨ ur zul¨ assige x aus der rechten Ungleichung in (3◦ ) Mit (1◦ ) und (2◦ ) folgt f¨ (3.42) f (x∗ ) + 0 ≤ f (x) + y ∗ ◦ g(x) ≤ f (x) wegen y ∗ ∈ Kd , damit ist x∗ Minimalpunkt.
Satz 3.18. ((SPP) notwendig bei konvexen Problemen) Es sei das Minimumproblem (3.36) konvex, x∗ L¨ osung, und es seien die Voraussetzungen von Folgerung 3.2 erf¨ ullt. Dann existiert ein Tripel (x∗ , y ∗ , z ∗ ) ∈ C × Kd × Zd , so dass gilt ∀ (x, y, z) ∈ C × Kd × Zd : L(x∗ , y, z) ≤ L(x∗ , y ∗ , z ∗ ) ≤ L(x, y ∗ , z ∗ ) und y ∗ ◦ g(x∗ ) = 0 . Beweis. Wegen Satz 3.14 muss nur die linke Ungleichung bewiesen werden. Sie ist aber ¨ aquivalent zu y ◦ g(x∗ ) ≤ y ∗ ◦ g(x∗ ) = 0 und folgt wegen y ≥ 0 ∗ und g(x ) ≤ 0 . Ein analoges Ergebnis gilt auch bez. Satz 3.15.
182
3 Optimierung
Als direkte Folgerung aus Satz 3.16 erhalten wir nun Folgerung 3.3. Es gilt Max y∈Kd Inf x∈C L(x, y) = Min x∈C Sup y∈Kd L(x, y) genau dann, wenn das Minimumproblem (MP) einen Sattelpunkt hat. (d) Primale und duale Probleme Nach den bisherigen Ergebnissen in diesem Abschnitt stehen drei Probleme in wechselseitiger Beziehung zueinander: (1◦ ) das Minimumproblem (MP): Gesucht ist ein x∗ ∈ X , so dass gilt x∗ = Arg Min{f (x) , x ∈ C ⊂ X , g(x) ≤ 0 , h(x) = 0} .
(3.44)
(2◦ ) das primale Lagrange-Problem (LP): Gesucht ist ein Tripel (x∗ , y ∗ , z ∗ ) ∈ X × Kd × Zd , so dass gilt L(x∗ , y ∗ , z ∗ ) = Min x∈C Sup (y,z)∈Kd ×Zd L(x, y, z) .
(3.45)
(3◦ ) das duale Lagrange-Problem (DLP): Gesucht ist ein Tripel (x∗ , y ∗ , z ∗ ) ∈ X × Kd × Zd , so dass gilt L(x∗ , y ∗ , z ∗ ) = Max (y,z)∈Kd ×Zd Inf x∈C L(x, y, z) .
(3.46)
Wir f¨ uhren das Primalfunktional ϕ und das Dualfunktional ψ ein: ϕ:X x → ϕ(x) := Sup(y,z)∈Kd ×Zd L(x, y, z) ∈ R ∪ {∞} , ψ : Yd × Zd (y, z) → ψ(y, z) := Inf x∈C L(x, y, z) ∈ R ∪ {∞} . Ist das Minimumproblem konvex, dann ist ϕ konvex und ψ konkav. Aus (3.45) und (3.46) folgt direkt (LP) : {ϕ(x) , x ∈ S} = Min! , S = {x ∈ C , ϕ(x) < ∞} , (DLP) : {ψ(y, z) , (y, z) ∈ T } = Max! , T = {(y, z) ∈ Kd × Zd , ψ(y, z) > −∞} , (3.47) Satz 3.19. (Schwache Dualit¨ at) (1◦ ) F¨ ur x ∈ S und (y, z) ∈ T gilt ψ(y, z) ≤ ϕ(x) . ur zul¨ assige Argumente ψ(y ∗ , z ∗ ) = ϕ(x∗ ) gilt, dann ist x∗ L¨ osung (2◦ ) Wenn f¨ ∗ ∗ osung von (DLP). von (LP) und (y , z ) L¨ Beweis. Wegen x ∈ S und y ∈ Kd gilt ψ(y, z) ≤ f (x) + y ◦ g(x) + z ◦ h(x) ≤ f (x) ≤ ϕ(x) . Der Rest ist klar.
3.6 Abriss der Lagrange-Theorie
183
Damit liefert die L¨ osung des dualen Problems eine unter Schranke f¨ ur den ur die jeweiligen optimalen Wert f (x∗ ) der Zielfuntion und umgekehrt. Wenn f¨ L¨ osungen von (MP) und (DLP) gilt ψ(y ∗ , z ∗ ) < f (x∗ ) = ϕ(x∗ ) , dann spricht man von einer Dualit¨ atsl¨ ucke. Zur Vermeidung von Dualit¨atsl¨ ucken bedarf es weiterer Voraussetzungen. Zum Beispiel treten solche L¨ ucken dann nicht auf, wenn das (MP) linear ist oder wenn ein Sattelpunkt existiert. Zusammenfassung (LP := Lagrange-Problem) Problem 1: x∗ = Arg Minx∈C {f (x) ; g(x) ≤ 0 , h(x) = 0} L(x, y, z) = f (x) + y ◦ g(x) + z ◦ h(x) (x∗ , y ∗ , z ∗ ) = Arg Minx∈C Supy≥0,z L(x, y, z) (x∗ , y ∗ , z ∗ ) = Arg Maxy≥0,z Inf x∈C L(x, y, z)
(Minimumproblem) (Lagrange-Funktion) (primales LP (duales LP)
Problem 2: x∗ L(x, y, z) (x∗ , y ∗ , z ∗ ) (x∗ , y ∗ , z ∗ )
= Arg Maxx∈C {f (x) ; g(x) ≤ 0 , h(x) = 0} = f (x) − y ◦ g(x) + z ◦ h(x) = Arg Maxx∈C Inf y≥0,z L(x, y, z) = Arg Miny≥0,z Supx∈C L(x, y, z)
(Maximumproblem) (Lagrange-Funktion) (primales LP) (duales LP)
Wenn die Umwandlung von (LP) in (MP) bzw. von (LP) in das duale Problem (DLP) nicht ganz durchsichtig ist, hilft Lemma 3.5. Der Ordnungskegel K ⊂ Y sei abgeschlossen. ur (LP) gilt (1◦ ) F¨ Problem 1: S = {x ∈ C , Supy≥0,z L(x, y, z) < ∞} , Problem 2: S = {x ∈ C , Inf y≥0,z L(x, y, z) > −∞} . ur (DLP) gilt (2◦ ) F¨ Problem 1: T = {(y, z) ∈ Kd × Zd , Inf x∈C L(x, y, z) > −∞} , Problem 2: T = {(y, z) ∈ Kd × Zd , Supx∈C L(x, y, z) < ∞} . (e) Geometrische Deutung Neben der analytischen Deutung des primaldualen Sachverhalts mit Hilfe von Sattelpunkten gibt es auch eine geometrische Version nach [F.John], wobei wir uns der Einfachheit halber auf Ungleichungsrestriktionen beschr¨ anken. Es sei Γ = {u ∈ Y , ∃ x ∈ C : g(x) ≤ u} , ω : Γ u → ω(u) = Inf{f (x) ; x ∈ C , g(x) ≤ u} ∈ R ∪ {∞}
184
3 Optimierung
und
Ax = {(u , ) ∈ Y × R , g(x) ≤ u , f (x) ≤ } A = {(u, ) ∈ Y × R , ∃ x ∈ C : g(x) ≤ u , f (x) ≤ } = {(g(x) + k, f (x) + σ) , x ∈ C , k ∈ K , σ ≥ 0} , B = {(u, σ) ∈ Y × R , u ≤ 0 , σ ≤ ω(0)} ,
Dann gilt insbesondere (g(x) , f (x)) ∈ Ax und außerdem 1 Ax = {(u , ) ∈ Γ × R , ω(u) ≤ } , A= x∈C
daher beschreibt die St¨ orfunktion ω den Rand von A. Die Menge S der zul¨assigen Punkte ist genau dann nicht leer, wenn es ein ∈ R gibt mit (0, ) ∈ A, und es gilt dann Inf{f (x) ; x ∈ S} = Inf{ ; (0, ) ∈ A} . Wir fassen einige Eigenschaften von ω und A im folgenden Hilfssatz zusammen: Lemma 3.6. (1◦ ) ω ist schwach monoton fallend. ur das Dualfunktional gilt ψ(y) = Inf u∈Γ {ω(u) + y ◦ u} , y ∈ Kd . (2◦ ) F¨ Ist das Minimumproblem konvex, dann gilt (3◦ ) Γ ist konvex, (4◦ ) A ist konvex, (5◦ ) int(A) ∩ B = ∅ , (6◦ ) ω ist konvex. Wegen ψ(−y) = Supu∈Y {y ◦ u − ω(u)} ist ψ(−y) die Legendre-Transformation von ω(u) . Die Berechnung der L¨ osung eines konvexen Minimumproblems besteht nunmehr in der Berechnung von ω(0), also des kleinsten Schnittpunktes von A mit der R-Achse. Das duale Problem besteht dann in der Berechnung einer St¨ utzhyperebene H an die Menge A, die einerseits A im positiven Halbraum enth¨ alt und andererseits einen maximalen Schnittpunkt (0, σ) mit der R-Achse besitzt. ρ
ρ
B
A
A
ω(0) ω(u)
Γ
Abb. 3.24. Dualit¨ at, konvexes Minimumproblem
B
Γ
Abb. 3.25. Lineares Problem
3.6 Abriss der Lagrange-Theorie ρ
ρ
A B
185
A Γ
Abb. 3.26. Slater-Bedg. verletzt
B
Γ
Abb. 3.27. Dualit¨ atsl¨ ucke, nichtkonvexes Problem
Allgemein gilt nach Lemma 1.12 f¨ ur Hyperebenen H ⊂ Y × R, solange sie nicht senkrecht“ auf Y stehen, d.h. solange sie nicht die Menge ” {(0 , ) ∈ Y × R} enthalten, H(y, σ) = {(u, ) ∈ Y × R , 1 · + y ◦ u = σ} , H(y, σ)+ = {(u, ) ∈ Y × R , 1 · + y ◦ u ≥ σ} (positiver Halbraum) mit (y, σ) ∈ Yd ×R ; somit lautet die geometrische Form des dualen Problems: (DP ) :
{σ ∈ R ∪ {∞} , A ⊂ H(y, σ)+ } = Max! .
¨ Wenn keine der genannten Hyperebenen existiert, wird σ = −∞ gesetzt. Uber die Charakterisierung der genannten Hyperebenen gibt der folgende Satz Auskunft. Satz 3.20. (1◦ ) A ⊂ H(y, σ)+ ⇐⇒ ∀ x ∈ C ∀ k ∈ K : f (x) + y ◦ (g(x) + k) ≥ σ , (2◦ ) y ∈ Kd und σ ≤ ψ(y) ⇐⇒ ∀ x ∈ C ∀ k ∈ K : f (x) + y ◦ (g(x) + k) ≥ σ . Aus diesem Ergebnis erhalten wir die geometrische Form des dualen Lagrange-Problem: Gesucht ist (y ∗ , σ ∗ ) ∈ Kd × R, so dass gilt σ ∗ = Max{σ ; x ∈ C , k ∈ K , y ∈ Kd : f (x) + y ◦ (g(x) + k) ≥ σ} . Wenn die St¨ orfunktion ω an der Stelle u = 0 differenzierbar ist, gilt y ∗ = −∇ω(0); vgl. auch den Abschnitt 3.3(h) u ¨ber die Deutung von Lagrange-Multiplikatoren als Schattenpreise. ¨ Der zweite Teil von Satz 3.20 stellt die Aquivalenz mit dem dualen LagrangeProblem σ ∗ = Maxy≥0 ψ(y) her, vgl. (3.46). Man erkennt, dass die geometrische Form (DP) des dualen Problems wesentlich unhandlicher ist als die analytische Form (DLP), f¨ ur theoretische Zwecke ist sie aber unverzichtbar. ¨ Die obigen Aquivalenzaussagen lassen sich ebenfalls mit geometrischen Voraussetzungen an die Menge A beschreiben:
186
3 Optimierung
Satz 3.21. ([Werner], Th. 4.3.2.) Es sei das Minimumproblem (MP) konvex, Y normiert, und es gelte int(A) ∩ {0} × R = ∅ . Dann ist S nicht leer, und es gilt: osung (1◦ ) Ist Inf x∈S f (x) > −∞ , dann hat das duale Problem (DLP) eine L¨ y ∗ , und es gilt Max y∈T ψ(y) = Inf x∈S f (x) . (2◦ ) Wenn das Minimumproblem (MP) eine L¨ osung x∗ hat, dann gilt ∗ ∗ y ◦ g(x ) = 0 . Die Bedingung int(A) ∩ {0} × R = ∅ ist z.B. dann erf¨ ullt, wenn die SlaterBedingung gilt, d.h. wenn int(K) = ∅ und g(x0 ) < 0 f¨ ur ein x0 ∈ C . Dann gilt n¨ amlich {(g(x) + k, f (x) + ) ∈ Y × R , x ∈ C , k ∈ int(K) , > 0} ⊂ int(A) und daher insbesondere (g(x0 ) + (−g(x0 )), f (x0 ) + ) = (0, f (x0 ) + ) ∈ int(A) ∩ {0} ∩ R f¨ ur alle > 0 . ¨ ¨ Uber die Aquivalenz von (LP) und (DLP) schließlich gibt der folgende Satz Auskunft; vgl. Lemma 3.5: Satz 3.22. ([Werner], Th. 4.3.1.) Es sei das Minimumproblem (MP) konvex, Y normiert und A abgeschlossen. Dann gilt (1◦ ) S = ∅ und Inf x∈S f (x) > −∞ ⇐⇒ T = ∅ und Sup y∈T ψ(y) < +∞ . In beiden F¨ allen hat (MP) eine L¨ osung, und es gilt −∞ < Sup y∈T ψ(y) = Min x∈S f (x) < ∞ . (2◦ ) S = ∅ und T = ∅ =⇒ Sup y∈T ψ(y) = +∞ . ∅ =⇒ Inf x∈S f (x) = −∞ . (3◦ ) T = ∅ und S = (f ) Lokale Lagrange-Theorie Das Minimumproblem (3.36), {f (x) ; x ∈ C , −g(x) ∈ K , h(x) = 0} = Min! ´chet-differenzierbar sind. Dann heißt wieder differenzierbar, wenn f, g, h Fre folgt aus (3.37) die notwendige Bedingung ∀ x ∈ C : ∇x L(x∗ , y ∗ , z ∗ )(x − x∗ ) ≥ 0 (Minimumproblem), ∀ x ∈ C : ∇x L(x∗ , y ∗ , z ∗ )(x − x∗ ) ≤ 0 (Maximumproblem), ∀ x ∈ C : ∇x L(x∗ , y ∗ , z ∗ )(x − x∗ ) = 0 (wenn C in X offen oder Unterraum). (3.48)
3.6 Abriss der Lagrange-Theorie
187
Satz 3.23. (MR hinreichend bei konvexen Problemen) Es sei das Minimumproblem (3.36) konvex (h affin linear), differenzierbar, x∗ ∈ S, und es sei gelte die Multiplikatorregel (MR): ∃ (y ∗ , z ∗ ) ∈ Kd × Zd : ∇x L(x∗ , y ∗ , z ∗ )(x − x∗ ) ≥ 0 und y ∗ ◦ g(x∗ ) = 0 . Dann ist x∗ L¨ osung von (MP). Beweis. Weil f, g konvex ist und h affin linear, gilt f (x) ≥ f (x∗ ) + ∇f (x∗ )(x − x∗ ) , g(x) ≥ g(x∗ ) + ∇g(x∗ )(x − x∗ ) , h(x) = h(x∗ ) + ∇h(x∗ )(x − x∗ ) . F¨ ur x ∈ C folgt daher aus (MR) f (x) ≥ f (x) + y ∗ ◦ g(x) + z ∗ ◦ h(x) ≥ f (x∗ ) + y ∗ ◦ [g(x∗ ) + ∇g(x∗ )(x − x∗ )] + z ∗ ◦ [h(x∗ ) + ∇h(x∗ )(x − x∗ )] = f (x∗ ) + y ∗ ◦ g(x∗ ) + z ∗ ◦ h(x∗ ) + ∇x l(x∗ , y ∗ , z ∗ )(x − x∗ ) ≥ f (x∗ ) . An die Stelle von Satz 3.5 tritt nun Satz 3.24. (MR lokal notwendig) Das Minimumproblem (3.36) sei differenzierbar sowie: (1◦ ) x∗ = Arg Min{f (x), x ∈ C, g(x) ≤ 0, h(x) = 0} , (2◦ ) int(K) = ∅ , ulle von C ist nicht leer. (3◦ ) das Innere von ∇h(x∗ )(C)) relativ zur linearen H¨ osbar, (4◦ ) h in x∗ bez. C lokal l¨ Dann existiert ein Tripel (0, 0, 0) = (∗ , y ∗ , z ∗ ) ∈ R≥0 × Kd × Zd so, dass ∀ x ∈ C : [∗ ∇f (x∗ ) + y ∗ ◦ ∇g(x∗ ) + z ∗ ◦ ∇h(x∗ )](x − x∗ ) ≥ 0 , und y ∗ ◦ g(x∗ ) = 0 . Gibt es zus¨ atzlich ein x ∈ C mit g(x∗ ) + ∇g(x∗ )(x − x∗ ) < 0, ∇h(x∗ )(x − x∗ ) = 0 , und ist x∗ ∈ int(∇h(x∗ )(C)) , dann kann ∗ = 1 gew¨ ahlt werden, und es ist y ∗ = 0 . Die Zusatzbedingung ist eine modifizierte Slater-Bedingung. Die etwas undurchsichtige Voraussetzung (4◦ ) l¨ asst sich mit dem folgenden allgemeineren Satz von [Robinson] u osbarkeit noch pr¨azisieren. ¨ber lokale L¨
188
3 Optimierung
Satz 3.25. Es sei X ein Banach-Raum, Y ein normierter Raum, K ⊂ Y abgeschlossen und g : X → Y stetig differenzierbar. Dann ist g(x) ≤ 0 lokal l¨ osbar in x∗ ∈ X , wenn gilt 0 ∈ int[g(x∗ ) + ∇g(x∗ )(X ) + K] .
(3.49)
Ist nun Z = ∇h(x∗ )(X ) , dann ist relint(∇h(x∗ )(X ) = int(Z) = ∅ , osbar nach dem Satz von Robinson, 0 ∈ int(∇h(x∗ )(X ) und h in x∗ lokal l¨ wenn gilt h(x∗ ) = 0 . Aus Satz 3.24 erhalten wir dann das folgende Ergebnis: Folgerung 3.4. Das Minimumproblem (3.36) sei differenzierbar sowie: (1◦ ) x∗ = Arg Min{f (x) ; x ∈ X , g(x) ≤ 0 , h(x) = 0} , (2◦ ) int(K) = ∅ , (3◦ ) ∇h(x∗ ) : X → Z surjektiv, (4◦ ) ∃ x ∈ X : g(x∗ ) + ∇g(x∗ )x < 0 , ∇h(x∗ )x = 0 . Dann existiert ein Paar (y ∗ , z ∗ ) ∈ Kd × Zd mit y ∗ = 0 derart, dass gilt (a) ∇f (x∗ ) + y ∗ ◦ ∇g(x∗ ) + z ∗ ◦ ∇h(x∗ ) = 0 . (b) y ∗ ◦ g(x∗ ) = 0 . Im endlichdimensionalen Fall impliziert die Rangbedingung (3.9) die Bedingung von [Robinson]; vgl. aber [Craven78], Ex. 2.6.2. (g) Beispiele Beispiel 3.12. F¨ ur das lineare Problem {ax ; Bx ≤ c , Cx = d} = Max! mit der Lagrange-Funktion L(x, y, z) = ax − y(Bx − c) + z(Cx − d) lautet das primale und das duale Lagrange-Problem (x∗ , y ∗ , z ∗ ) = Maxx Inf y≥0,z [ax − y(Bx − c) + z(Cx − d)] , (x∗ , y ∗ , z ∗ ) = Miny≥0,z Supx [x(a − yB + zC) − yc − zd] . Damit Sup . . . < ∞ ist, muss a − yB + zC = 0 sein, daher lautet das duale Problem {−yc − zd ; yB − zC = a , y ≥ 0} = Min! . Beispiel 3.13. Das linear-quadratische Problem (3.26) 0 " 1 T x Ax − a x ; −(b + Bx) ≤ 0 = Min! 2
3.6 Abriss der Lagrange-Theorie
189
mit symmetrisch positiv definiter Matrix A ∈ Rn n und B ∈ Rm n hat das Dualfunktional 1 T x Ax − a x − y(b + Bx) . ψ(y) = Inf x 2 Weil das Argument in x konvex ist, folgt f¨ ur x∗ die notwendige Bedingung (x∗ )T A − yB − a = 0 ∈ Rn =⇒ x∗ = A−1 B T y T + aT ∈ Rn . Einsetzen ergibt y ∗ = Arg Maxy≥0 −
1 1 yBA−1 B T y T + y b + aA−1 aT 2 2
.
Wenn man die Invertierung von A in Kauf nimmt, hat das duale Problem die einfache Vorzeichenbeschr¨ ankung von y als Nebenbedingung, außerdem wird die Dimension des Problems reduziert, wenn m < n ist. F¨ ur m > n ist die Matrix BA−1 B T singul¨ ar. Beispiel 3.14. F¨ ur das Kontrollproblem 1 T u(t)2 dt = Min! J(u) = 2 0 x˙ = A(t)x + b(t)u(t) ∈ Rn , x(0) = a , x(T ) ≥ c , u(t) ∈ R , sei X(t) eine Fundamentalmatrix der Differentialgleichung mit X(0) = I, vgl. § 1.5(d). Dann folgt nach 1.31) x(t) = X(t)a +
t
X(t)X(s)−1 b(s)u(s) ds =: X(t)a + k(t, u) ∈ Rn .
0
Mit d = c − X(T )a hat dann das Kontrollproblem die Form Min{J(u) , k(T, u) ≥ d} , u ∈ C[0, T ] . Weil das Problem konvex und die Slater-Bedingung erf¨ ullt ist, sind das Minimumproblem und das duale Lagrange-Problem mit y ∈ Rn , (u∗ , y ∗ ) = Arg Maxy ≥ 0 Inf u (J(u) + y(d − k(T, u))) ,
(3.50)
aquivalent. Die Ableitung nach u ergibt direkt die optimale Kontrolle ¨ u∗ (t) = y X(T )X(t)−1 b(t) . Einsetzen in (3.50) ergibt das endlichdimensionale Maximumproblem y ∗ = Arg Maxy≥0 −yQy T + y d , (3.51)
190
3 Optimierung
mit der symmetrisch positiv semi-definiten Matrix Q=
1 2
T
X(T )X(s)−1 b(s)b(s)T X(s)−T X(T )T ds .
0
Das Problem (3.51) hat mindestens eine L¨ osung y ∗ ∈ Rn und damit eine ∗ ∗ −1 optimale Kontrolle u (t) = y X(T )X(t) b(t) , 0 < t < T . Dokumentation im Ordner SUPPLEMENT\chap03d,chap03e,chap03f. Literatur: [Craven78], [Craven95], [Ekeland], [Gelfand], [Kirsch], [Kosmol], [Krabs], [Luenberger], [Petrov], [Schaeffer], [Teo89], [Teo91], [Werner].
R 3.7 Hinweise zu den MATLAB -Programmen
Kapitel III/SECTION 1/2/3/4, Linear-quadratische Optimierung bfgs.m BFGS-Verfahren demo1.m Beispiel, bfgs.m und desc.m demo2.m Testen von dlqp.m demo3.m Testen von dlqp.m mit Zufallszahlen desc.m Steepest descend dlqp.m Linear-quadratische Optimierung nach Goldfarb-Idnani dlqp_g.m wie dlqp.m, aber nur Ungleichungen ga_test.m Goldstein-Armijo-Abstiegstest Kapitel III/SECTION 5, Nichtlineare Optimierung bsp01.m--bsp16.m Beispiele demo1.m Masterfile fuer Gradienten-Projektion demo2.m Masterfile fuer Sequentielle Quadrat. Programmierung gp.m Gradienten-Projektionsverfahren allgemein gp_g.m Gradienten-Projektionsverfahren, nur Ungleichungen restor.m Restoration in gp.m sigini.m Startwert fuer Schrittweite sigma in gp.m sqp.m Sequentielle Quadrat. Optimierung allgemein sqp_g.m Sequentielle Quadrat. Optimierung nur Ungleichungen Kapitel III/FEXIPLEX, demo1.m Minimierung demo2.m Minimierung simplex.m Minimierung
Verfahren von Nelder-Mead einer Funktion (3 Bsp.) mit Zwangsbedingungen (4 Bsp.) nach Nelder-Mead
4 Wackeln mit System
Die Variationsrechnung ist die Grundlage der klassischen Theoretischen Mechanik ebenso wie der modernen Kontrolltheorie und anderer Gebiete. Sie befasst sich mit der Berechnung von optimalen Funktionen, also Elementen aus unendlichdimensionalen R¨ aumen V wie etwa dem Raum der stetig differenzierbaren Funktionen, aber es werden in diesem Kapitel wiederum nur station¨ are Punkte“ als Kandidaten f¨ ur optimale L¨osungen berechnet und ” keine Bedingungen zweiter Ordnung f¨ ur deren Charakterisierung hergeleitet. (Leider werden in diesem Zusammenhang station¨are oder kritische Punkte oft Extremale“ genannt, was zu Verwirrungen f¨ uhren kann.) Um die station¨aren ” Punkte eines Funktionals f : V → R aufzusp¨ uren, wird die Richtungsableitung ∂(f ; h) von f Null gesetzt und anschließend das Variationsinkrement h ∈ V so weit wie m¨ oglich freigegeben. Der Zuwachs h wird bei Finite-ElementMethoden Testfunktion genannt und in den Ingenieurwissenschaften virtuelle Verschiebung. Die Variationsgleichungen als Ergebnis dieser Prozedur sind eindeutig bestimmt, w¨ ahrend umgekehrt die zugeh¨orige Extremalfunktion als Integral niemals eindeutig bestimmt ist (z.B. die Gesamtenergie in einem mechanischen System). Man verzichtet h¨ aufig ganz auf ihre Konstruktion und leitet die Variationsgleichungen mit ihren Randbedingungen direkt aus den physikalischen Gegebenheiten her. Obwohl das Problem der Dido“ schon im Altertum bekannt war, ist die ” Variationsrechnung wohl mit dem ber¨ uhmten, 1669 von Johann Bernoulli gestellten Problem der Brachystochrone entstanden, das weiter unten behandelt wird. Die faszinierende neuartige Problemstellung, n¨amlich die Frage nach einer unbekannten Kurve, hat aber erst sein Bruder Jakob voll erkannt und aufgegriffen. Seit dieser Zeit hat sich die Variationsrechnung zu einem unverzichtbaren Bestandteil der Angewandten Mathematik entwickelt und leistet heute u ¨berall einen entscheidenden Beitrag zur numerischen Realisierung technischer Probleme jedweder Couleur.
E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 4, c Springer-Verlag Berlin Heidelberg 2010
192
4 Wackeln mit System
Wenn bei Variationsproblemen die Ableitung x˙ der gesuchten Funktion (Kurve) x als unbekannte Gr¨ oße auftritt, was eher die Regel als die Ausnahme ist, ergeben sich in vielen F¨ allen ¨ außerst widerspenstige Randwertprobleme f¨ ur Systeme von gew¨ ohnlichen oder partiellen Differentialgleichungen, deren numerische Realisierung schwierig ist. Greift man aber auf das zu Grunde liegende Extremalproblem zur¨ uck und f¨ uhrt verm¨oge u := x˙ eine Kontrolle ein, dann entsteht aus dem Variationsproblem ein Kontrollproblem, das mit den Methoden aus dem vorigen Kapitel behandelt werden kann. Auf diese Weise lassen sich, wenn nicht die L¨ osung, so doch oft brauchbare Anfangsn¨aherungen f¨ ur eine anschließende Behandlung als Randwertproblem gewinnen.
4.1 Variationsrechnung Es gilt weiterhin die am Anfang von Kapitel 3 getroffene Vereinbarung. (a) Extremalproblem, Variationsproblem und Randwertproblem Gesucht ist eine Funktion (Kurve) x : [0, T ] t → x(t) ∈ Rn als L¨osung des Extremalproblems J(x) =
T
q t, x(t), x(t) ˙ dt = Extr! , x ∈ C 1 ([0, T ]; Rn )
(4.1)
0
mit einer hinreichend glatten skalaren Funktion q . Es werden zun¨achst die klassischen Variationsgleichungen f¨ ur dieses Funktional hergeleitet, das im Wesentlichen mit dem Wirkungsintegral des Hamiltonsche Prinzips u ¨bereinstimmt, vgl. § 6.9, anschließend werden allgemeinere Problemstellungen mit verschiedenen Restriktionstypen behandelt. Im Koordinatenraum Rn steht nur der Nullvektor senkrecht auf allen anderen Vektoren (bez. eines jeden Skalarprodukts). Die Verallgemeinerung dieser einfachen Erkenntnis auf Funktionenr¨ aume ist das entscheidende Hilfsmittel ¨ beim Ubergang von einem Extremalproblem zum Variationsproblem bzw. zum Randwertproblem f¨ ur ein gew¨ ohnliches oder partielles Differentialsystem. Lemma 4.1. ( Lagrange, Fundamentallemma der Variationsrechnung) Es seien f, g ∈ C([0, T ]; Rn ) und h ∈ C01 ([0, T ]; Rn ), dann gilt T (1◦ ) ∀ h : f (t)T h(t) dt = 0 =⇒ f ≡ 0 , 0 T ˙ dt = 0 (2◦ ) ∀ h : f (t)T h(t) =⇒ f = konstant, 0 T ˙ (3◦ ) ∀ h : [f (t)T h(t) + g(t)T h(t)] dt = 0 =⇒ g ∈ C 1 ([0 , T ]; Rn ) 0
und f = g˙ .
4.1 Variationsrechnung
193
Beweis [Amann], [Kosmol], SUPPLEMENT\chap04a. Der Beweis von (1◦ ) ist rein technischer Natur, (2◦ ) ist auch als Lemma von Dubois-Reymond bekannt und (3◦ ) ist eine Folgerung aus (2◦ ). Satz 4.1. F¨ ur festes 0 < T < ∞ erf¨ ullt jede L¨ osung x ∈ C 2 ([0, T ]; Rn ) des Extremalproblems (4.1) die nach Euler und Lagrange benannten Differentialgleichungen gradx q(t, x, x) ˙ −
d gradx˙ q(t, x, x) ˙ = 0 ∈ Rn , 0 < t < T . dt
(4.2)
Beweis. Nach Lemma 1.14 erh¨ alt man eine notwendige Bedingung f¨ ur einen Extremwert von J durch Nullsetzen der ersten Variation: ∀ v ∈ C 1 ([0, T ]; Rn ): T [gradx q(x, x)v ˙ + gradx˙ q(x, x) ˙ v] ˙ dt = 0 . (4.3) ∂J(x; v) = 0
Partielle Integration des zweiten Summanden, T
t=T T d
gradx˙ q v dt , gradx˙ q v˙ dt = gradx˙ q v
− dt t=0 0 0 ergibt das Variationsproblem ∀ v ∈ C 1 ([0, T ]; Rn ):
t=T T d
gradx˙ q(x, x) + ˙ − ˙ v dt = 0 . gradx˙ qv
gradx q(x, x) dt t=0 0
(4.4)
W¨ ahlt man Testfunktionen v mit v(0) = v(T ) = 0 , dann verschwindet der Randterm, und eine Anwendung von Lemma 4.1(1◦ ) auf (4.4) ergibt die Behauptung. ˙ aus. Zwar muss Im Beweis reicht die Stetigkeit von t → ∇x˙ q(t, x(t), x(t)) bei der partiellen Integration zun¨ achst die stetige Differenzierbarkeit dieser Abbildung gefordert werden, aber eine Anwendung von Lemma 4.1(3◦ ) hebt diese Forderung wieder auf. Der zweite Term auf der linken Seite von (4.2) ist die totale Ableitung nach t, d ∂ [∇x˙ q]T = [∇x˙ q]T + [∇x˙ ∇x q]x˙ + [∇x˙ ∇x˙ q]¨ x ∈ Rn . dt ∂t Die (spaltenweise geschriebenen) Euler-Lagrange-Gleichungen — oder kurz Euler-Gleichungen — stellen daher ein System von gew¨ohnlichen Differentialgleichungen der Form A(t, x, x)¨ ˙ x + b(t, x, x) ˙ = 0 ∈ Rn
(4.5)
dar, das affin linear in der zweiten Ableitung von x ist (semilineares) System).
194
4 Wackeln mit System
Zur eindeutigen L¨ osbarkeit von (4.5) m¨ ussen A und b hinreichend glatt sein und 2n geeignete Randbedingungen vorgegeben werden. Der Randterm in (4.4) verschwindet genau in vier F¨ allen, was zu einer f¨ ur alle Variationsprobleme typischen Unterscheidung der Randbedingungen in zwei Klassen f¨ uhrt: x(0) = x0 ,
x(T ) = xT , beide wesentlich (geometrisch)
gradx˙ q
= 0 , wesentlich/nat¨ urlich
x(0) = x0 , t=T
= 0 , x(T ) = xT , nat¨ urlich/wesentlich gradx˙ q
t=0
= 0 , gradx˙ q
= 0 , beide nat¨ urlich (dynamisch) . gradx˙ q
t=0
(4.6)
t=T
Alle Vergleichsfunktionen x + εv in der Variation (4.3) m¨ ussen die wesentlichen Randbedingungen respektieren, daher m¨ ussen die Testfunktionen v die homogenen wesentlichen nicht aber die nat¨ urlichen Randbedingungenen in (4.6) erf¨ ullen; es muss also gelten v(0) = v(T ) = 0 in (4.6)(1◦ ) , v(0) = 0 in (4.6)(2◦ ) , v(T ) = 0 in (4.6)(3◦ ) . Durch die partielle Integration ergeben sich h¨ ohere Glattheitsforderungen an die L¨ osung des Randwertproblems (RWP) als an die L¨osung des Problems (4.3), deswegen heißt das Problem (4.3) schwaches Problem. Der hier beschriebene Weg Partielle Integration
Extremalproblem
Variation
−→
schwaches Problem
−→
RWP
Fundamentallemma
ist typisch f¨ ur alle Variationsprobleme. Er kann nat¨ urlich auch in der umgekehrten Richtung gegangen werden, dann treten jedoch die m¨ oglichen Randbedingungen nicht so deutlich hervor. Im Gegensatz zum Randwertproblem (4.5), (4.6) treten im schwachen Problem (4.3) die nat¨ urlichen Randbedingungen nicht explizit auf, und dies gilt auch f¨ ur die jeweiligen numerischen Ans¨ atze: Die numerischen Ansatzfunktionen im schwachen Problem wissen ” nichts“ von den nat¨ urlichen Randbedingungen, und die numerische Approximation eines schwachen Problems erf¨ ullt die nat¨ urlichen Randbedingungen nur im Grenz¨ ubergang. Wenn man in Unkenntnis der beiden Typen von Randbedingungen vom numerischen Ansatz im schwachen Problem nat¨ urliche Randbedingungen an Stelle der wesentlichen fordert, ist die numerische Approximation schlecht oder sogar falsch; vgl. das lehrreiche Beispiel in [Collatz60], S. 241, und [Strang], § 1.3.
4.1 Variationsrechnung
195
Spezialf¨ alle: Typ
Euler-Gleichung
q(t, x, x) ˙ = q1 (t, x) [q1 ]x − [q2 ]t = 0
Bemerkung keine DGl.
+ q2 (t, x)x˙ d gradx˙ q = 0 dt q(t, x, x) ˙ = q(t, x) gradx q = 0 d (q − gradx˙ q x) q(t, x, x) ˙ = q(x, x) ˙ ˙ =0 dt q − gradx˙ q x˙ = konst. q(t, x, x) ˙ = q(t, x) ˙
gradx˙ q(t, x) ˙ = konstant Implizite Darstellung von x nach Multiplikation mit x˙ DuBois-Reymond-Bedg.
Siehe auch (e3) f¨ ur den interessanten Spezialfall, dass zwar die Variable x˙ i in q vorkommt, nicht aber xi (zyklische Variable). (b) Modifizierte Problemstellung An Stelle von (4.1) betrachten wir das Problem
T
J(x) = p(x(0), x(T )) +
q(t, x(t), x(t)) ˙ dt = Extr! 0 |r|
(4.7)
0 = r(x(0), x(T )) ∈ R
mit hinreichend glatten Daten. F¨ ur die Funktion p u ¨bernehmen wir die englische Bezeichnung Terminal Payoff, und in der ev. nichtlinearen Funktion r sind die Randbedingungen zusammengefasst. Der Einfachheit halber schreiben wir auch ˙ = gradx q(t, x, x) ˙ , ∇3 q(t, x, x) ˙ = gradx˙ q(t, x, x) ˙ ∇2 q(t, x, x) f¨ ur die Gradienten von q , usw.. Die allgemeinere Randbedingung fungiert als Nebenbedingung, daher m¨ ussen gem¨ aß § 3.6 Lagrange-Multiplikatoren uhrt werden und eine Regularit¨atsbedingung: Es z ∈ Rr (Zeilenvektor!) eingef¨ osung des Problems, und es gelte sei x∗ die eindeutige L¨ ∀ c ∈ Rr ∃ u, v ∈ Rn : ∇1 r(x∗ (0), x∗ (T ))u + ∇2 r(x∗ (0), x∗ (T ))v = c . (4.8) Nach § 3.6 wird nun an Stelle der Zielfunktion J die erste Variation der Lagrange-Funktion L = J + z r unter Beachtung von (4.4) Null gesetzt: 0 = ∂L(x; v) ˙ )) + ∇2 p(x(0), x(T )) + z∇2 r(x(0), x(T )) v(T ) = ∇3 q(T, x(T ), x(T + − ∇3 q(0, x(0), x(0)) ˙ + ∇1 p(x(0), x(T )) + z∇1 r(x(0), x(T )) v(0) T d + ˙ − ∇3 q(t, x, x) ˙ v dt . ∇2 q(t, x, x) dt 0
196
4 Wackeln mit System
F¨ ur v¨ ollig freie Testfunktionen v erhalten wir mit dem Fundamentallemma das System ˙ − ∇2 q(t, x, x)
d ∇3 q(t, x, x) ˙ dt
= 0 Euler-Gl.
r(x(0), x(T )) = 0 wes. RB −∇3 q(0, x(0), x(0)) ˙ + ∇1 p(x(0), x(T )) + z∇1 r(x(0), x(T )) = 0 nat. RB ˙ )) + ∇2 p(x(0), x(T )) + z∇2 r(x(0), x(T )) = 0 nat. RB . ∇3 q(T, x(T ), x(T (4.9) Die freien Parameter z regeln das Wechselspiel zwischen wesentlichen und nat¨ urlichen Randbedingungen: (1◦ ) Wenn u ¨berhaupt keine wesentlichen Randbedingungen auftreten, ist r = 0 und damit auch seine Gradienten. Es verbleiben die nat¨ urlichen Randbedingungen ˙ + ∇1 p(x(0), x(T )) = 0 , −∇3 q(0, x(0), x(0)) ˙ )) + ∇2 p(x(0), x(T )) = 0 . ∇3 q(T, x(T ), x(T (2◦ ) Ist z.B. x(0) = x0 vorgeschrieben, dann ist z∇1 r(x(0), x(T )) = z, und die nat¨ urlichen Randbedingungen (4.9)(3◦ ) sind freigegeben (→ Weglassen). (3◦ ) Ist z.B. n = 2 und x1 (0) = α ∈ R vorgegeben, dann ist z∇1 r(x(0), x(T )) = (z1 , 0) , damit ist die erste Komponente in (4.9)(3◦ ) freigegeben, und die zweite ergibt die nat¨ urliche Randbedingung ˙ + D4 p(x(0), x(T )) = 0 , −D5 q(0, x(0), x(0)) wobei Di die partielle Ableitung nach dem i-ten skalaren Argument ist. (c) Variabler Endpunkt Als lehrreiches Beispiel f¨ ur die Leistungsf¨ahigkeit der Variationsrechnung betrachten wir das Problem J(T, x) = p(T, x(T )) +
T
q(t, x, x) ˙ dt = Min! 0
(4.10)
x ∈ C 1 [0, T0 ] , x(0) = a ∈ Rn , g(T, x(T )) = 0 ∈ R mit freiem 0 < T < T0 , hinreichend großem T0 und hinreichend glatten Daten. Als Beispiel dient etwa f¨ ur n = 1 die Funktion g(T, x(T )) = x(T ) − h(T ) , h(0) < a , h (t) > 0 , 0 < t < T0 .
(4.11)
Hier ist anschaulich klar, dass im Optimum (T ∗ , x∗ ) nur dann gewackelt werden darf, wenn sich die Trajektorie x∗ (t) und die Kurve h(t) im Punkt t = T ∗ schneiden und nicht nur ber¨ uhren; es muss also im Optimum ˙ ∗ ) = 0 gelten. x˙ ∗ (T ∗ ) − h(T
4.1 Variationsrechnung
197
x a
h(t) x* + ε v x*
t φ(x*) = T*
t = φ(x)
Abb. 4.1. Zur Transversalit¨ atsbedingung
Im Problem (4.10) beschreibt g eine Hyperfl¨ ache, die gleichzeitig noch von t abh¨ angt. Im Optimum darf der Tangentialvektor
d
(t, x∗ (t)) ∗ = [1 , x˙ ∗ (T ∗ )]T ∈ Rn+1 dt t=T nicht Tangente an diese Hyperfl¨ ache sein, also nicht senkrecht auf dem Normalenvektor stehen. Lemma 4.2. (Transversalit¨ atsbedingung) Es sei osung des Extremalproblems (4.10) mit (T ∗ , x∗ ) ∈ R+ × C 2 ([0, T ]; Rn ) eine L¨ freier Variablen T , und es sei ∇x g(t, x)x˙ + gt (t, x) = 0
(4.12)
in (T ∗ , x∗ (T ∗ )) . Dann gilt zus¨ atzlich zu den Eulerschen Gleichungen im Optimum (T ∗ , x∗ (T ∗ )) die notwendige Bedingung (∇x g x˙ + gt ) [∇x p + ∇x˙ q] + (∇x px˙ + pt + q) ∇x g = 0 ∈ Rn .
(4.13)
Beweis in SUPPLEMENT\chap04a. Sei z.B. n = 1 und g(t, x(t)) = x(t) − h(t) ∈ ˙ ) = 0 im Optimum. R , dann ergibt (4.12) die obige Bedingung x(T ˙ ) − h(T (d) Legendre-Transformation (d1) (Analytische Deutung) Ist f ∈ C 2 (R; R) streng konvex, dann ist ur die Ableitung f von f existiert die Umkehrfunktion h: f (x) > 0 und f¨ asst sich die Ableitung (Steigung) p von f als p = f (x) , x = h(p) . Damit l¨ neue Ver¨ anderliche einf¨ uhren. Wie sieht nun die Stammfunktion g von h aus? Aus g(p) := p h(p) − f (h(p)) = xf (x) − f (x) , x = h(p) folgt sofort g (p) = p h (p) + h(p) − f (h(p))h (p) = p h (p) + h(p) − p h (p) = h(p) .
198
4 Wackeln mit System
Die Legendre-Transformation g von f ist eine neue Funktion mit einer neuen Variablen p. Zum Beispiel gilt nun Q(x, xy − y, y ) = 0 ⇐⇒ Q(g (p), g(p), p) = 0 , wobei aber der Ableitungsstrich einmal die Ableitung nach x und das andere Mal die Ableitung nach p bedeutet! (d2) (Geometrische Deutung). Es sei f wieder streng konvex. W¨ahle eine Steigung“ p und bilde y = p x. W¨ ahle dann den Punkt x(p) auf der x-Achse ” so, dass der Abstand zwischen der Geraden y = p x und der Kurve y = f (x) maximal wird, x(p) = Arg Maxx {p x − f (x)} . Dann hat die Funktion F (p, x) := px − f (x) ein eindeutiges Maximum im Punkt x(p). Geometrisch wird nun die Legendre-Transformation g von f definiert verm¨ oge g(p) = Maxx F (p, x) = F (p, x(p)) = px(p) − f (x(p)) . ∂F (p, x) = 0 im Punkt x(p) , also p − f (x) = 0 , damit ∂x ist p = f (x) die neue Ver¨ anderliche. Dann gilt nat¨ urlich
(d3) (Involution) Ist f streng konvex und g die Legendre-Transformation von f , dann ist f die Legendre-Transformation von g, d.h. die LegendreTransformation ist involutorisch (zu sich selbst invers); es gilt also auch geometrisch g(p) = Maxx {px − f (x)} , f (x) = Maxp {xp − g(p)} . Der Beweis folgt sofort aus der analytischen Definition: g(z) = xf (x) − f (x) , z = f (x) , x = g (z) =⇒ f (x) = xf (x) − g(z) = zg (z) − g(z) .
Beispiel 4.1. y
f (x) = x2 F (p, x) = px − x2 x(p) = p/2 , g(p) = p2 /4 p2 mx2 =⇒ g(p) = . f (x) = 2 2m
y = px
y = f(x)
g(p) x(p)
x
Abb. 4.2. Legendre-Transformation
4.1 Variationsrechnung
199
Beispiel 4.2. Es sei f (x) = xα /α , dann ist g(p) = pβ /β mit (1/α) + (1/β) = 1, α > 1, β > 1. Beispiel 4.3. Die implizite Clairautsche Differentialgleichung y = xy − g(y ) , g ∈ C 1 (I) , hat offenbar alle Geraden y = cx − g(c) , c ∈ R , als L¨osung. Es sei y = f (x) eine weitere L¨ osung so, dass p := y = f (x) invertierbar −1 ist, x = [f ] (p) , dann gilt y(p) = y(x(p)) also y (p) = px (p) . Andererseits ergibt Ableiten von y(p) = xp − g(p) nach p y (p) = px (p) + x(p) − g (p) = px (p) . !
Deswegen ist die Enveloppe der obigen Kurvenschar von Geraden eine weitere nichtlineare L¨ osung in Parameterdarstellung: y(p) = pg (p) − g(p) , x(p) = g (p) . (d4 ) Zur Verallgemeinerung der Legendre-Transformation sei X ein normierter Vektorraum mit Dualraum Xd und y, x! bezeichne wieder die duale Paarung f¨ ur x ∈ X und y ∈ Xd . Definition 4.1. Es sei f ein konvexes Funktional (skalarwertige Funktion) auf einer konvexen Menge C ⊂ X . (1◦ ) C ∗ := {y ∈ Xd , Supx∈C [ y, x! − f (x)] < ∞} ⊂ Xd ist die konjugierte Menge zu C . (2◦ ) f ∗ : C ∗ y → Supx∈C [ y, x! − f (x)] = f ∗ (y) ∈ R ist das konjugierte Funktional zu f . Die konjugierte Menge C ∗ und das konjugierte Funktional sind ebenfalls konvex. Das konjugierte Funktional ist involutorisch, f (x) = Supy∈C ∗ [ y, x! − f ∗ (y)] ,
(4.14)
wenn das Bidual [Xd ]d gleich X ist (bzw. mit X kanonisch identifiziert werden kann) wie z.B. in Hilbert-R¨ aumen. Wenn C und f konvex sind, ist der Epigraph von f , [C, f ] := {(x, ξ) ∈ C × R , ξ ≥ f (x)} ⊂ X × R , ebenfalls eine konvexe Menge. Er enth¨ alt offenbar alle Punkte oberhalb“ ” von f auf C . Nun definiert ein Element x∗ ∈ Xd verm¨oge der affin linearen Gleichung x∗ , x! = d ∈ R eine Hyperebene im Vektorraum X , und x∗ , x! ≤ d beschreibt eine Familie von Halbr¨ aumen in X , die mit d gr¨oßer werden. Ist C ⊂ X konvex und h(x∗ ) := Supx∈C x∗ , x! ∈ R , dann ist H := {x ∈ X , x∗ , x! = h(x∗ )} ⊂ X
200
4 Wackeln mit System
offenbar eine St¨ utzhyperebene an C . Im vorliegenden Fall haben wir es aber mit R¨ aumen X × R und deren Hyperebenen := {(x, ξ) ∈ X × R , x∗ , x! − η · ξ = d} ⊂ X × R H ist nicht senkrecht, wenn η = 0 und dann kann o.B. η = 1 gesetzt zu tun. H die senkrechte Achse“ R im Punkt ξ = −d werden. In diesem Fall schneidet H ” (das negative Vorzeichen wird nur wegen der Kombatibilit¨at mit dem Funkahlt). Diese Hyperebene ist nach Definition eine St¨ utzhyperebene tional f ∗ gew¨ des konvexen Epigraphen [C, f ] von f g.d.w. d = f ∗ (x∗ ) . Daher besteht ein enger geometrischer Zusammenhang zwischen konjugierten Funktionalen und St¨ utzhyperebenen. (d5) Konjugatierte Funktionale (bzw. ihre Inversen) eignen sich besonders f¨ ur die Umformung eines Minimumproblems in ein Sattelpunktproblem. Dazu betrachten wir das Problem x∗ = Arg Inf x∈X {f (x) + g(x)} mit konvexem f und einer skalaren Funktion g und setzen das konjugierte Funktional ein. Als Ergebnis erhalten wir x∗ = Arg Inf x∈X Sup y∈Xd { y, x! − f ∗ (y) + g(x)} und damit das primale und duale Lagrange-Problem (x∗ , y ∗ ) = Arg Min x∈X Sup y∈Xd { y, x! − f ∗ (y) + g(x)} = Arg Max y∈Xd Inf x∈X { y, x! + g(x) − f ∗ (y)} . In praktischen Anwendungen muss dazu das konjugierte Funktional explizit bekannt sein, was am besten durch zwei Beispiele erkl¨art wird: Beispiel 4.4. (Prinzip der komplement¨ aren Energie) Wir betrachten das quadratische Minimumproblem von § 1.11, wobei aber L ein linearer Operator sein soll mit der Eigenschaft a(u, u) = (Lu, Lu) = |Lu|2 , d.h. ! u∗ = Arg Min u (Lu, Lu) − 2f (u) , u ∈ U . (4.15) Mit Hilfe des konjugierten Funktionals (oder durch L¨osung des zugeh¨origen Variationsproblems) erhalten wir ! |Lu|2 = Sup v∈U 2(v, Lu) − |v|2 , und Einsetzen in (4.15) ergibt das zugeh¨ orige primale und duale LagrangeProblem . / ! u∗ = Arg Min u Sup v 2(v, Lu) − |v|2 − 2f (u) , u, v ∈ U ! (u∗ , v ∗ ) = Arg Min u Sup v 2(v, Lu) − 2f (u) − |v|2 ! (u∗ , v ∗ ) = Arg Max v Inf u 2(v, Lu) − 2f (u) − |v|2 .
4.1 Variationsrechnung
201
Wenn das Infimum u ¨ber u endlich existiert, gibt es einen Sattelpunkt. Sei Ld der zu L duale Operator mit (Ld v, u) = (v, Lu) , dann hat das duale Maximumproblem die Form v ∗ = Arg Max v {−|v|2 ; Ld v − f = 0} . Man erkennt, dass die Zielfunktion einfacher geworden ist und ihr Definitionsbereich komplizierter (f¨ ur numerische Implementierungen). Beispiel 4.5. (Anwendung des Prinzips der komplement¨aren Energie) Man betrachte das Extremalproblem " 0 1 u∗ = Arg Min | grad u|2 dx − f u dx ; u ∈ H01 (Ω) (4.16) 2 Ω mit u = 0 auf dem ganzen Rand des Gebietes Ω ; vgl. §§ 1.7, 9.1 f¨ ur die Bezeichnungen. Wir setzen 1 1 2 2 | grad u| dx = Supv∈(L2 (Ω))2 v · grad u − |v| dx 2 Ω 2 Ω ein und beachten, dass
grad u · v dx = −
Ω
u div v dx
(4.17)
Ω
im vorliegenden Fall homogener Dirichlet-Bedingungen gilt. Dann ergibt sich wieder ein Sattelpunktproblem zu (4.16): 0 " 1 2 ∗ ∗ (u , v ) = Arg Min u Sup v − |v| − f u + grad u · v dx , u ∈ U , v ∈ V 0 " Ω 2 1 2 = Arg Max v Inf u − |v| − f u − u div v dx , u ∈ U , v ∈ V 2 Ω (4.18) wobei U = H01 (Ω) und V = L2 (Ω)×L2 (Ω) . (Beide Darstellungen sind a¨quivalent, wenn ein Sattelpunkt existiert.) Das duale Maximumproblem ergibt sich direkt aus der zweiten Darstellung als Minimumproblem |v|2 dx , W = {v ∈ V , div v + f = 0} . (4.19) v ∗ = Arg Inf v∈W Ω
Der Sattelpunkt (u∗ , v ∗ ) ist auch durch die beiden Variationsgleichungen bestimmt, die z.B. zur ersten Form in (4.18) geh¨oren v · w − grad u · w dx = 0 , ∀ w ∈ V Ω u div v dx + f u dx = 0 , ∀ u ∈ U , Ω
202
4 Wackeln mit System
¨ wobei wir noch einmal (4.17) anwenden. Ein Ubergang zum zugeh¨origen Randwertproblem dieser dualen Form des (einfachen) Dirichlet-Problems ergibt zwei getrennte Gleichungen erster Ordnung v = grad u , div v + f = 0 , u ∈ H01 (Ω) ,
(4.20)
die sich nat¨ urlich auch aus der Zerlegung von −Δu = − div grad u = f ergeben. Die duale Form eignet sich f¨ ur F¨ alle, in denen der Gradient der L¨osung wichtiger ist als die L¨ osung selbst, wie z.B. bei der station¨aren W¨armeverteilung in einer Scheibe, Beispiel 9.2. (e) Lagrange-Funktion und Hamilton-Funktion (e1) Die Bewegung von Massepunkten unter Zwangsbedingungen (Gleichungsrestriktionen) f¨ uhrt auf ein differential-algebraisches Problem, das heute als solches gel¨ ost wird. Ehedem war das nur eingeschr¨ankt m¨oglich und man hat sich mit der theoretischen L¨ osbarkeit zufrieden gegeben, wenn die praktische nicht mehr m¨ oglich war. Um die Theorie dennoch voranzutreiben, wurden die Zwangsbedingungen gedanklich“ aufgel¨ost und das Ergebnis in ” die Eulerschen Gleichungen eingesetzt. Die u ¨brigbleibenden freien Variablen wurden verallgemeinerte Koordinaten genannt (weil sie vielfach keine physikalische Bedeutung mehr haben) und mit dem Buchstaben q bezeichnet, w¨ ahrend der skalare Integrand q in der Zielfunktion (4.1) zu Ehren von Lagrange den Buchstaben L erhielt. Die Anzahl N der Komponenten des Vektors q stimmt somit mit der Anzahl der Freiheitsgrade des Problems u ¨berein. Wenn sich z.B. n Massepunkte xi im R3 ohne Zwangsbedingungen bewegen ist N = 3n , und bei m Zwangsbedingungen ist N = 3n − m . Eine A-priori-L¨ osung der Zwangsbedingungen ist vom algorithmischen Standpunkt weder sinnvoll noch durchf¨ uhrbar, sondern bleibt auf exemplarische ¨ F¨ alle und Ubungsaufgaben beschr¨ ankt. Dennoch wollen wir hier die Notation beibehalten aus Gr¨ unden der altbekannten Optik und weil es einfach so u ¨blich t1
L(q, q) ˙ dt das Wirkungsintegral (4.1) und
ist. Mit L, q statt q, x ist J(q) = t0
die Euler-Gleichungen (4.2) (Variationsgleichungen von (4.1)) schreiben sich in abgek¨ urzter Form als d ∇q˙ L = ∇q L . (4.21) dt Es sei nun L = T − U mit der kinetischen Energie T (q) ˙ und der potentiellen Energie U (q) eines Systems von Massepunkten, dann besagt das Hamiltonsche Prinzip ( Prinzip der kleinsten Wirkung“), dass die Bewegung“ ” ” arer Punkt (Funktion) des Wirkungsq(t) ∈ RN dieses Systems ein station¨ integrals ist (und sogar ein Minimum). Die Euler-Gleichungen sind dann offenbar die zugeh¨ origen Bewegungsgleichungen. (e2) F¨ ur eine allgemeine Lagrange-Funktion L(t, q, q) ˙ liegt es nahe, verm¨oge angige Variable p ∈ RN einzuf¨ uhren (verallgemeinerp := ∇q˙ L neue zeitabh¨ te Impulskoordinaten), weil dann die Euler-Gleichungen (4.21) die einfache
4.1 Variationsrechnung
203
Form p˙ = ∇q L(t, q, q) ˙ erhalten. In einer Legendre-Transformation von L bez. q˙ ersetzt man die Variable q˙ durch p unter der Voraussetzung, dass L in q˙ streng konvex ist. Weil die kinetische Energie T i.a. eine positiv definite quadratische Form in q˙ ist, ist diese Voraussetzung zul¨assig. Dann k¨onnen ˙ = 0 nach q˙ aufgel¨ost werden, z.B. die Euler-Gleichungen p − ∇q˙ L(t, q, q) q˙ = K(t, p, q) . Das Ergebnis der Legendre-Transformation von L ist die (skalare) Hamilton-Funktion H(t, p, q) := pq˙ − L(t, q, q) ˙ = pK(p, q) − L(t, q, K(p, q)) ∈ R . Den Grund f¨ ur die Operation liefert der folgende Satz: Satz 4.2. Es sei p = ∇q˙ L und L(t, q, q) ˙ streng konvex in q. ˙ Dann ist das Differentialsystem der N Euler-Gleichungen d ∇q˙ L(t, q, q) ˙ = ∇q L(t, q, q) ˙ dt aquivalent zu dem System der 2N Hamilton-Gleichungen ¨ p˙ = −∇q H(p, q) ,
q˙ = ∇p H(p, q) ,
(4.22)
d.h. die Menge der L¨ osungen q ist in beiden F¨ allen identisch. Das schiefsymmetrische System erster Ordnung der Hamilton-Gleichungen hat bei theoretischen Untersuchungen erhebliche Vorteile gegen¨ uber dem System zweiter Ordnung der Euler-Gleichungen und f¨ uhrt zu einer ganz eigenen Geometrie (symplektische Geometrie). Beweis. Mit p − ∇q˙ L = 0 und p˙ − ∇q L = 0 ergibt sich unmittelbar durch partielle Integration = −∇q L = −p˙ ∇q H = p∇q K − ∇q L − ∇q˙ L∇q K ≡ q˙ . ∇p H = K(p, q) + p∇p K − ∇q˙ L∇p K = K L¨ ost man andererseits das zweite System in (4.22) nach p auf, so folgt wieder p = ∇q˙ L und eine Substitution in das erste System f¨ uhrt auf die urspr¨ unglichen Euler-Gleichungen. Folgerung 4.1. Ist t → (p(t), q(t)) eine L¨ osung des Hamiltonschen Systems (4.22), dann gilt dH ∂H (t, p(t), q(t)) = (t, p(t), q(t)) . dt ∂t Beweis durch Einsetzen von (4.22) in H˙ = ∇p H p˙ + ∇q H q˙ + Ht .
Wenn insbesondere H nicht von t abh¨ angt, gilt ∂H/∂t = 0 und H(p(t), q(t)) ist unabh¨ angig von t also konstant (Erhaltungssatz der Hamilton-Funktion).
204
4 Wackeln mit System
(e3) Eine Koordinate qi von q heißt zyklisch, wenn nur ihre Ableitung q˙i in der Lagrange-Funktion L vorkommt, nicht aber qi selbst. Dann ist p˙i = ∂L/∂qi Null und der zugeh¨ orige verallgemeinerte Impuls pi ist konstant, also eine Invariante des Systems. Es sei z.B. i = n und ∂L/∂ q˙n = cn sei aufl¨osbar nach q˙n mit dem Ergebnis q˙n = f (t, q1 , . . . , qn−1 ; q˙1 , . . . , q˙n−1 , cn ) .
(4.23)
Dann kann in den Euler-Gleichungen q˙n durch die rechte Seite von (4.23) ersetzt werden, und das ganze System reduziert sich um eine abh¨angige Ver¨ anderliche, weil qn nicht mehr vorkommt. Nach einer Integration werden die L¨ osungen qi und q˙i als Funktionen von t in (4.23) eingesetzt und die zy¨ klische Variable qn durch Integration von (4.23) berechnet. Durch Ubergang zu den Hamiltonschen Gleichungen l¨ asst sich der ganze Prozess erheblich vereinfachen [Lanczos]. Eine Anwendung ergibt sich z.B. in der Kreiseltheorie § 6.7. Beispiel 4.6. (Massepunkt im Zentralfeld) Vgl. § 6.2. Nach dem Newtonschen Gesetz und dem Keplerschen Gesetz (beide im mathematischen Sinn Axiome) gilt f¨ ur die Bewegung x(t) ∈ R3 eines Punktes mit der Masse m in einem Potentialfeld m¨ x = f (x) = − grad U (x) U potentielle Energie m 2 ˙ kinetische Energie T = |x| 2 m 2 ˙ + U (x) Gesamtenergie (konstant) . E = T + U = |x| 2 Aus der DuBois-Reymond-Bedingung folgt −m¨ x − grad U (x) = − m¨ x + grad U (x) = 0
(4.24)
als Eulersche Gleichung des Variationsproblems t2 t2 m 2 J(x) = |x| ˙ − U (x) dt = Extr! L(x, x)dt ˙ = 2 t1 t1 mit der Lagrange-Funktion L = T − U . Dieser Sachverhalt ist wieder das Hamiltonsche Prinzip der kleinsten Wirkung (Dimension of J = Energie · Zeit). F¨ uhrt man y = mx˙ = Lx˙ ∈ R3 als neue zeitabh¨angige Ver¨anderliche ein, dann ergibt sich das Differentialsystem (Definition), x˙ = grady H := y/m y˙ = − gradx H := − grad U (x) Newtonsches Gesetz. Es folgt sofort, dass H = E Invariante des Systems ist: 1 T 1 T y x˙ + U (x) = y y + U (x) = H(x, y) 2 2m = T + U = 2T − (T − U ) = y T x˙ − L .
konst = E =
4.1 Variationsrechnung
205
(f ) Ein klassisches Beispiel Wir betrachten das folgende Variationsproblem mit der unabh¨ angigen Ortsver¨ anderlichen x (statt t) und der abh¨angigen Ver¨ anderlichen y: β y(x)n (1 + y (x)2 )1/2 dx = Min! , y ∈ C 1 ([α, β]; R) . J(y) = α
Die DuBois-Reymond-Bedingung hat dann die Form y n (x) = c[1 + y (x)2 ]1/2 =⇒ y n (x)[1 + y (x)2 ]−1/2 = c .
(4.25)
Damit [1 + y (x)2 ]−1/2 = cos ϕ ist, muss y (x) = tan ϕ sein, daher empfiehlt sich die Umparametrisierung ϕ → x(ϕ), ϕ → y(x(ϕ)) = y(ϕ) verm¨oge dy d y dϕ d y dx = = tan ϕ(x) =⇒ ≡ y (ϕ) = tan(ϕ) = tan(ϕ)x (ϕ) . dx dϕ dx dϕ dϕ (4.26) Anschließend schreiben wir wieder y statt y, aus (4.25) folgt dann y(ϕ)n cos ϕ = c ,
(4.27)
und die Ableitung liefert ny(ϕ)n−1 y (ϕ) cos ϕ − y(ϕ)n sin ϕ = 0 =⇒ n
y (ϕ) − tan ϕ = 0 . y(ϕ)
Aus (4.26) ergibt sich mit (4.27) die Parameterdarstellung der L¨osung y (ϕ) = tan(ϕ)x (ϕ), x (ϕ) = y(ϕ)/n .
(4.28)
Von besonderem Interesse sind hier die F¨ alle n = 1, 1/2, 0, −1/2, −1. 1. Fall: n = 0. Die k¨ urzeste Kurve x → (x, y(x)) ∈ R2 von (0, 0) nach (x, h(x)) ist L¨ osung des Variationsproblems a (1 + y (x)2 )1/2 dx = Min! , y(0) = 0 , y(a) = h(a) . J(y) = 0
Aus (4.25) folgt y (x) = α konstant, also y(x) = α x + β mit β = 0 wegen der Anfangsbedingung. Die Transversalit¨ atsbedingung stellt hier eine Orthogonalit¨ atsbedingung f¨ ur die Tangenten von (x, y(x)) und (x, h(x)) dar: 0 = q + qy (x) (h (x) − y (x))
2y (x) 1 (h (x) − y (x)) = (1 + y (x)2 )1/2 + 2 (1 + y (x)2 )1/2 x=a
.
= (1 + y (x)2 ) + y (x)h (x) − y (x)2
. x=a
206
4 Wackeln mit System
Es folgt y (a∗ ) = −1/h (a∗ ) , also f¨ ur die beiden Tangenten
1 1 1, − ∗ = 0. h (a ) h (a∗ ) 2. Fall: n = 1. Minimale Rotationsfl¨ ache zwischen zwei koaxialen Ringen vom Radius a bzw. b und dem Abstand β − α:
β
J(y) = 2π
y(1 + (y )2 )1/2 dx = Min! , y(α) = a , y(β) = b .
α
Als Euler-Gleichungen (4.2) erh¨ alt man 1 + y (x)2 = y y und aus der Dubois-Reymond-Bedingung (4.27) folgt durch Ableiten die Differentialgleichung der Kettenlinie y(x) = c[1 + y (x)2 ]1/2 =⇒ y (x) = c−1 [1 + y (x)2 ]1/2 . Direkt aus (4.25) erh¨ alt man auch f¨ ur n = 1
y =
y 2 − c2 c2
1/2 =⇒ dx =
cdy (y 2 − c2 )1/2
und dann aus einem Tafelwerk
y + (y 2 − c2 )1/2 x + d = c ln c
oder mit f (x) = (x + d)/c exp f (x) =
1 [y + (y 2 − c2 )1/2 ] =⇒ (c exp f (x) − y)2 = y 2 − c2 c
oder c2 e2f (x) − 2cyef (x) + y 2 = y 2 − c2 =⇒ cef (x) − 2y + ce−f (x) = 0
also die Kettenlinie y(x) = c cosh
x+d c
.
Ist speziell α = −L, β = L und a = b, dann folgt aus Symmetriegr¨ unden d = 0 und die Endbedingung L a L a a = · = cosh · ξ = cosh(ξ) . =⇒ c L c c L Die Gerade links und die Kurve rechts k¨ onnen zwei Schnittpunkte haben; damit sie u ¨berhaupt einen Schnittpunkt haben, darf die Steigung a/L der Geraden nicht zu klein sein.
4.1 Variationsrechnung
207
3. Fall: n = −1/2. Das Problem der Brachistochrone (griech. k¨ urzeste Zeit) Ein Ring soll unter der Schwerkraft q reibungsfrei auf einem Draht m¨oglichst schnell von (0, 0) nach (a, b) gleiten; die y-Achse weise der Einfachheit halber nach unten. Der Energieerhaltungssatz liefert f¨ ur die Geschwindigkeit v(x) im Punkt (x, y(x)) 1 m v 2 = m g y(x) =⇒ v(x) = 2gy(x) , 2 und f¨ ur die Wegl¨ ange s(x) gilt mit dem Parameter t als Zeit ds(x) ds dx(t) ds(x(t)) = 1 + y (x)2 =⇒ v(x(t)) = = · . dx dt dx dt Zusammen folgt 2 dx(t) = dt
2gy(x(t)) dt(x) = =⇒ 2 1 + y (x(t)) dx
-
1 + y (x)2 , 2gy(x)
weil x(t) streng monoton w¨ achst. Damit ergibt sich f¨ ur die Gesamtzeit J(y) = 0
a
1 + y (x)2 2gy(x)
1/2 dx = Min!.
Dieses Integral hat eine Singularit¨ at an der Stelle x = 0 , in aller Strenge kann daher die Existenz nur mit Hilfe der Lebesgue-Theorie bewiesen werden; vgl. [Kosmol]. F¨ ur n = −1/2 folgt nun aus (4.25) mit 2ϕ = ψ y = 2κ cos2 ϕ = κ(1 + cos(2ϕ)) = κ(1 + cos(ψ)) , und aus (4.28) x (ϕ) = −2 y (ϕ) = −2κ(1 + cos(2ϕ)) x(ϕ) = γ − κ(2ϕ + sin(2ϕ)) = γ − κ(ψ + sin(ψ)) . Insgesamt erhalten wir die Parameterdarstellung (x(ψ), y(ψ)) = γ − κ(ψ + sin(ψ)), κ(1 + cos(ψ)) . Setzt man κ = − < 0 und ψ = ϕ + π, so erh¨alt man die Gleichung einer Orthozykloide, die f¨ ur ϕ = 0 und γ = −π eine Spitze in (x, y) = (0, 0) hat und ansonsten unterhalb der x-Achse verl¨ auft. H¨alt man fest und ¨andert γ, so verschiebt man die Zykloide auf der x-Achse, w¨ahrend die Ab¨anderung von eine Vergr¨ oßerung oder Verkleinerung der urspr¨ unglichen Zykloide ergibt. Es gibt hier also eine eindeutig bestimmte Extremale als L¨osung; vgl. [Clegg], S. 49; [Kosmol], § 4.2.
208
4 Wackeln mit System x
y
Abb. 4.3. Zur Brachistochrone
4. Fall: n = 1/2. Bewegung eines Massepunktes. In einem (x, y)-Koordinatensystem bewege sich ein Punkt mit der Masse Eins, der kinetischen Energie T , der potentiellen Energie U = gy und der Gesamtenergie E = T + U (dann ist also T = E −U ). Nach dem Prinzip der kleinsten Wirkung in der Jacobischen Form, vgl. § 6.9(f ), ist die Trajektorie ein station¨arer Wert des modifizierten Wirkungsintegrals s1 s1 (E − U ) ds = (E − gy) ds . s0
s0
Nach Beispiel 4.6 ist aber E konstant, und der maximal auf der y-Achse erreichbare Punkt y0 = g/E . Nach einer einfachen Translation und einer Umbenennung ergibt sich das Problem
s1
√
y ds =
b
-
y(1 + y 2 ) dx = Min!.
a
s0
Aus (4.27) und (4.28) erhalten wir f¨ ur n = 1/2 sofort y(ϕ) =
2c c , x (ϕ) = . 2 cos ϕ cos2 ϕ
Integration der zweiten Gleichung und Elimination von ϕ ergibt (x − d)2 = 4c (y −c) , was die wohlbekannten Wurfparabeln sind. Substitution der Punkte P1 = (x1 , y1 ) und P2 = (x2 , y2 ) , x1 = x2 , mit anschließender Subtraktion ergibt 2c(y1 − y2 ) 1 (x1 − d)2 = 4c (y1 − c) =⇒ d = (x1 + x2 ) − (x2 − d)2 = 4c (y2 − c) 2 x1 − x2 Substitution in z.B. (x1 − d)2 = 4c (y1 − c) ergibt eine quadratische Gleichung f¨ ur den Parameter c , die zwei, eine, oder keine (reelle) L¨osungen hat in Abh¨ angigkeit von den Punkten P1 und P2 . Es existieren daher zwei, eine oder keine Extremale durch zwei verschiedene Punkte. In der Font¨ane“ von ” Abb. 4.4 l¨ osen wir aber die Newtonsche Gleichung x ¨ = 0 , y¨ = −g direkt mit den Anfangsbedingungen x(0) = 0 , y(0) = 0 , x(0) ˙ = cos ϕ , y(0) ˙ = sin ϕ damit der Geschwindigkeitsvektor in diesem Punkt die L¨ange Eins hat (und die Gesamtenergie konstant ist wie oben gefordert). Nach Elimination der Zeit erhalten wir die Kurvenschar
4.2 Kontrollprobleme ohne Restriktionen
f (x, y; ϕ) := y +
209
g x2 − x tan ϕ = 0 . 2 cos2 ϕ
Die Enveloppe (Einh¨ ullende) dieser Kurvenschar ergibt sich bis auf eine additive Konstante durch Elimination des Parameters ϕ aus den Gleichungen f (x, y; ϕ) = 0 ,
∂ f (x, y; ϕ) = 0 . ∂ϕ
Abb. 4.4. Font¨ ane mit Enveloppe
F¨ ur den letzten Fall n = −1 verweisen wir auf [Clegg] .
4.2 Kontrollprobleme ohne Restriktionen (a) Problemstellung Es sei 0 < T < ∞ ein fester Planungshorizont. Gesucht ist ein Zustand x : [0 , T ] t → x(t) ∈ Rn und eine Kontrolle u : [0 , T ] t → osung des folgenden Kontrollproblems u(t) ∈ Rm , so dass das Paar (x, u) L¨ ist: T J(x, u) = p(x(0), x(T )) + q(t, x(t), u(t)) dt = Max! 0 t x(t) = x(0) + f (s, x(s), u(s)) ds , t ∈ [0 , T ]
(4.29)
0
0 = r(x(0), x(T )) ∈ R|r| . Alle Daten sollen stetig F-differenzierbar sein in einer offenen Umgebung der L¨ osung. Die Differentialgleichung ist hier in eine Integralgleichung (4.29)(2◦ ) umgewandelt, weil sie nachher so behandelt wird. Sie und die ev. nichtlinearen Randbedingungen fungieren wieder als Gleichungsrestriktionen, daher m¨ ussen Lagrange-Multiplikatoren eingef¨ uhrt werden. F¨ ur die Integralgleichung sind dies eigentlich Riemann-Stieltjes-Integrale, die aber mit einer Funktion y : [0, T ] t → y(t) ∈ Rn (Zeilenvektor!) kanonisch identifiziert werden, vgl. § 12.5; f¨ ur die Randbedingung ist der Lagrange-Multiplikator z ∈ Rr ein Zeilenvektor. Auf die gleiche Weise wie im vorigen Abschnitt entsteht dann ein Randwertproblem f¨ ur die Hamilton-Funktion
210
4 Wackeln mit System
H(t, x(t), u(t), y(t)) = q(t, x(t), u(t)) + y(t)f (t, x(t), u(t)) , t ∈ [0 , T ] . Wie in Abschnitt 3.6 beschrieben, m¨ ussen Nebenbedingungen in einem gewissen Sinn regul¨ ar sein. F¨ ur Gleichungsrestriktionen wurde gefordert, dass der Gradient im Optimum eine surjektive Abbildung ist. Dem entspricht die folgende Regularit¨ atsbedingung, wobei X und U noch n¨aher festzulegende Funktionenr¨ aume sind, die die Glattheit der L¨ osung beschreiben. Definition 4.2. Eine L¨ osung (x∗ , u∗ ) ∈ X × U des Kontrollproblems (4.29) heißt regul¨ ar, wenn ∀ (w, c) ∈ X × Rr ∃ (x, v) ∈ X × U : t x(t) − x(0) − ∇x f (x∗ , u∗ )x + ∇u f (x∗ , u∗ )v ds = w , t ∈ (0, T ) , 0
∇1 r(x∗ (0), x∗ (T ))x(0) + ∇2 r(x∗ (0), x∗ (T ))x(T ) = c . Die zweite Bedingung ist gleichbedeutend mit Rang ∇1 r(x∗ (0), x∗ (T )) , ∇2 r(x∗ (0), x∗ (T )) = |r| . Eine L¨ osung (x∗ , u∗ ) ist also regul¨ ar, wenn das linearisierte Randwertproblem im Optimum f¨ ur alle rechten Seiten (w, c) eine L¨osung (x, v) hat, d.h. kontrollierbar ist. Es kann aber o.B. w = 0 gesetzt werden, vgl. [Luenberger], S. 256. Satz 4.3. Es sei X = C 1 ([0, T ]; Rn ) , U = C 1 ([0, T ]; Rm ) , und es sei are L¨ osung des Problems (4.29), dann existiert ein (x∗ , u∗ ) ∈ X × U eine regul¨ osung des Paar (y ∗ , z ∗ ) ∈ X × R|r| , so dass das Quadrupel (x∗ , u∗ , y ∗ , z ∗ ) L¨ folgenden differential-algebraischen Randwertproblems ist: x(t) ˙ =
[∇y H]T (t, x, u, y)
∈ Rn
y(t) ˙ = − ∇x H(t, x, u, y)
∈ Rn
0=
∇u H(t, x, u, y)
∈ Rm
0=
r(x(0), x(T ))
∈ R|r|
.
(4.30)
y(0) = − ∇1 (p + z r)(x(0), x(T )) ∈ Rn y(T −) =
∇2 (p + z r)(x(0), x(T )) ∈ Rn
Nat¨ urlich bleibt es jedem unbenommen, den Kozustand y(t) als Spaltenvektor aufzufassen. Zum Beweis. Wegen seines Modellcharakters wird der Beweis dieses Satzes in SUPPLEMENT\chap04b vollst¨ andig angegeben. Insbesondere wird gezeigt, dass der Kozustand y die gleiche Glattheit wie der Zustand x besitzt. Die
4.2 Kontrollprobleme ohne Restriktionen
211
Lagrange-Funktion des Problems mit Gleichungsrestriktionen ist nach § 3.6 und § 12.5 L((x, u), y, z) = [p + z r](x(0), x(T ))
T t T q(x, u) dt + dy(t) x(t) − x(0) − f (x, u) ds + 0
0
(4.31)
0
mit z ∈ R|r| und y ∈ NBV([0, T ]; Rn ). Das zweite Integral ist ein RiemannStieltjes-Integral, das die Sprungstellen von y mitz¨ahlt; vgl. § 12.5. Die F-Ableitung von L bez¨ uglich (x, u) mit dem Inkrement (ξ, ζ) hat die Form ∇(x,u) L((x, u), y, z)(ξ, ζ) = ∇1 [p + z r](x(0), x(T ))ξ(0) + ∇2 [p + z r](x(0), x(T ))ξ(T ) T + [∇x q ξ + ∇u q ζ]dt
0 T t + dy(t) ξ(t) − ξ(0) − (∇x f ξ + ∇u f ζ) ds . 0
0
Nach Folgerung 3.4 gibt es ein Paar (y ∗ , z ∗ ) ∈ NBV(0, T ) × R|r| , so dass im Optimum (x∗ , u∗ ) gilt ∀ (ξ, ζ) ∈ X × U : ∇(x,u) L((x∗ , u∗ ), y ∗ , z ∗ )(ξ, ζ) = 0 . Der restliche Beweis erfolgt in vier Schritten unter Anwendung partieller Integration und des Fundamentallemmas 4.1: 1. Schritt: W¨ ahle ζ = 0; 2. Schritt: W¨ ahle ζ = 0 und ξ ∈ C 1 beliebig mit ξ(0) = ξ(T ) = 0; 3. Schritt: W¨ ahle ζ = 0 und ξ beliebig mit entweder ξ(T ) = 0 oder ξ(0) = 0; 4. Schritt: W¨ ahle ξ = 0 und ζ ∈ U beliebig. (b) Freier Planungshorizont Ist der Planungshorizont 0 < T < ∞ frei, dann ist ein Tripel (T, x, u) als L¨ osung des Kontrollproblems (4.29) gesucht, wobei die Payoff-Funktion p und die Randbedingung r zus¨atzlich von T abh¨ angen k¨ onnen. osung des Kontrollproblems (4.29) mit Satz 4.4. Es sei (T ∗ , x∗ , u∗ ) eine L¨ freiem Planungshorizont T , und es seien die Voraussetzungen von Satz 4.3 erf¨ ullt. Dann existiert ein Paar (y ∗ , z ∗ ) ∈ X × R|r| , so dass das Quintupel ∗ osung des differential-algebraischen Randwertproblem (T , x∗ , u∗ , y ∗ , z ∗ ) L¨ (4.30) ist mit der zus¨ atzlichen Transversalit¨ atsbedingung f¨ ur T ∗ 0=
∂ [p + z r](T, x(0), x(T )) + H(T, x(T ), u(T ), y(T )) ∈ R . ∂T
(4.32)
Beweis Die F-Ableitung der Lagrange-Funktion L bez¨ uglich (T, x, u) mit dem Inkrement (Θ, ξ, ζ) hat nun die Form
212
4 Wackeln mit System
∇(T,x,u) L((T, x, u), y, z)(Θ, ξ, ζ) = ∇(x,u) L((T, x, u), y, z)(ξ, ζ) + LT ((T, x, u), y, z)Θ = ∇(x,u) L((T, x, u), y, z)(ξ, ζ) ∂ (p + z r)(x(0), x(T ), T ) Θ ˙ )+ + ∇2 (p + z r)(x(0), x(T ), T )x(T ∂T # # $$ T + q(T, x, u) + y(T ) − y(T −) x(T ) − x(0) − f (x, u)dt Θ . 0
Im Optimum muss dieser Ausdruck f¨ ur alle (Θ, ξ, ζ) verschwinden. Wegen T∗ ∗ ∗ x (T ) − x (0) − 0 f (x, u)dt = 0 folgt hieraus mit x˙ = f (x, u) die zus¨atzliche notwendige Bedingung 0 = ∇2 [p + z r](x(0), x(T ), T )f (T, x(T ), u(T )) +
∂ [p + z r](x(0), x(T ), T ) + q(T, x(T ), u(T )) . ∂T
Setzt man ∇2 . . . = y(T −) ein, dann folgt die Behauptung.
Ein freies T kann aber auch als neue abh¨ angige Ver¨anderliche, T = x n+1 (s) , uhrt werden oder als unabh¨ angiger Kontrollparameter. Im x ˙ n+1 (s) = 0 , eingef¨ letzteren Fall ergibt z.B. die Substitution t = T s x(t) = x (s) ,
1 d d x(t) = x (s) . dt T ds
Wenn wir wieder x statt x und u statt u schreiben, erhalten wir aus (4.29) das modifizierte Problem mit festem Planungshorizont 1 und freier Ver¨anderlicher s,
1
J(T, x, u) = p(T, x(0), x(1)) + T q(T s, x(s), u(s)) ds = Max! 0 s x(s) = x(0) + T f (T σ, x(σ), u(σ)) dσ , s ∈ [0 , 1]
. (4.33)
0
0 = r(T, x(0), x(1)) In diesem transformierten Problem ist T ein Kontrollparameter, der keiner Beschr¨ ankung unterliegt. (c) Die freien Lagrange-Multiplikatoren z ∈ R|r| regeln die Verteilung der Randbedingungen auf die beiden gekoppelten Randwertprobleme, n¨amlich f¨ ur den Zustand x x(t) ˙ = [∇y H]T (t, x, u, y) ∈ Rn 0 = r(x(0), x(T ))
∈ R|r| ,
(4.34)
4.2 Kontrollprobleme ohne Restriktionen
213
und f¨ ur den Kozustand y y(t) ˙ = − ∇x H(t, x, u, y)]
∈ Rn
y(0) = − ∇1 (p + z r)(x(0), x(T )) ∈ Rn y(T ) =
(4.35)
∇2 (p + z r)(x(0), x(T )) ∈ Rn .
Es sei (x∗ , u∗ ) eindeutige regul¨ are L¨ osung des Problems (4.29), dann muss die Matrix ∇1 r(x(0), x(T )) , ∇2 r(x(0), x(T )) nach der Regularit¨ atsbedingung in Definition 4.2 den vollen Rang |r| besitzen. Wir betrachten die folgenden einfachen Spezialf¨alle f¨ ur n = 2 und p = 0: 1. Fall: x1 (0) = a1 , x2 (0) = a2 , d.h. x(0) fest, x(T ) frei, dann folgt mit frei w¨ ahlbarem z = [z1 , z2 ] ∈ R2
x (0) − a1 0 r(x(0), x(T )) := 1 = , x2 (0) − a2 0
1 0 0 0 , ∇2 r(x(0), x(T )) = , ∇1 r(x(0), x(T )) = 0 1 0 0 d.h. y(0) = z ∇1 r = [z1 , z2 ] frei, y(T ) = z ∇2 r = [0, 0] fest. 2. Fall: x1 (0) = a1 , x2 (T ) = b2 , x2 (0) und x1 (T ) frei, dann folgt ebenso
x (0) − a1 0 r(x(0), x(T )) := 1 = , x2 (T ) − b2 0
1 0 ∇1 r(x(0), x(T )) = 0 0
0 0 , ∇2 r(x(0), x(T )) = 0 1
,
y(0) = z ∇1 r = [z1 , 0] , y(T ) = z ∇2 r = [0, z2 ] . d.h. y1 (0) , y2 (T ) frei, y2 (0) = y1 (T ) = 0 fest. 3. Fall: x1 (T ) = b1 , x2 (T ) = b2 , d.h. x(0) frei.
0 x1 (T ) − b1 = , r(x(0), x(T )) := x2 (T ) − b2 0
0 0 ∇1 r(x(0), x(T )) = 0 0
1 0 , ∇2 r(x(0), x(T )) = 0 1
y(0) = z ∇1 r = [0, 0] , y(T ) = z ∇2 r = [z1 , z2 ] d.h. y(0) = 0 fest, y(T ) frei.
,
214
4 Wackeln mit System
In jedem Fall erhalten wir also insgesamt vier Randbedingungen f¨ ur vier Differentialgleichungen als notwendige Bedingung f¨ ur die eindeutige L¨osbarkeit. Wenn |r| < n ist, wird die Randbedingung durch Nullen aufgef¨ ullt und dann in der gleichen Weise verfahren. (d) Der Kozustand y ∈ Rn heißt auch Schattenpreis; vgl. § 3.3(h). Zum Studium seiner Rolle im Kontrollproblem betrachten wir die einfache Aufgabe mit festem Planungshorizont T
T
q(t, x, u) dt = Max!
J(x, u) = p(x(T )) + 0
(4.36)
x˙ = f (t, x, u) , x(0) = a ∈ R , unter der folgenden Voraussetzung: are L¨ osung. Voraussetzung 4.1. (1◦ ) Es sei (x∗ , u∗ ) eindeutige regul¨ ◦ ur alle τ ∈ (0 , T ) sei (4.36) in einer Umgebung U von x∗ (τ ) f¨ ur (2 ) F¨ t ∈ [τ, T ] eindeutig l¨ osbar. ur alle L¨ osungen aus (2◦ ) sei die optimale Kontrolle eine Funktion des (3◦ ) F¨ optimalen Zustandes (Feedbackkontrolle). Die L¨ osung (x, u) des Teilproblems auf dem Abschnitt [τ, T ], J(x, u) = p(x(T )) +
T
q(t, x, u) dt = Max! τ
(4.37)
x˙ = f (t, x, u) , τ ≤ t ≤ T , x(τ ) = x∗ (τ ) , atsprinzip), und die Erstimmt dann in [τ, T ] mit (x∗ , u∗ ) u ¨berein (Optimalit¨ tragsfunktion T V (τ, x(τ )) = p(x(T )) + q(t, x, u(x)) dt τ
ist in U eine Funktion von τ und x(τ ). Mit der Leibniz-Regel folgt dV (τ, x(τ )) = Vτ (τ, x(τ )) + ∇x V (τ, x(τ )) f (τ, x(τ ), u(τ, x(τ ))) dτ = −q(τ, x(τ ), u(τ, x(τ ))) , also – wenn wir wieder t statt τ schreiben Vt (t, x(t))+∇x V (t, x(t)) f (t, x(t), u(t, x(t)))+q(t, x(t), u(t, x(t))) = 0 . (4.38) Wir setzen y(t) = ∇x V (t, x(t)) ,
(4.39)
dann ist y(T ) = ∇p(x(T )) und aus (4.38) folgt mit Vertauschung der Ableitung nach t und x
4.2 Kontrollprobleme ohne Restriktionen
215
∂ ∇x V (t, x(t)) = f T ∇x ∇x V + ∇x (−∇x V f − q) ∂t = f T ∇x ∇x V − f T ∇x ∇x V − ∇x V ∇x f − ∇x q = −y ∇x f − ∇x q .
y˙ = f T ∇x ∇x V +
Mit der Hamilton-Funktion H = q + y f ist also y L¨osung des Endwertproblems y˙ = −∇x H(t, x(t), u(t), y(t)) , y(T ) = ∇x p(T, x(T )) , damit ist die Bezeichnung (4.39) gerechtfertigt. (e) Maximumprinzip Unter der Voraussetzung 4.1 gilt also (4.38) f¨ ur die Ertragsfunktion V des Problems (4.36), Vt (t, x∗ (t)) + ∇x V (x∗ (t)) f (t, x∗ (t), u∗ (t)) + q(t, x∗ (t), u∗ (t)) = 0 .
(4.40)
und das Optimalit¨ atsprinzip, n¨ amlich dass eine optimale L¨osung auch optimal auf Teilintervallen ist, T p(x∗ (T )) + q(s, x∗ (s), u(s)) ds t T ∗ ≤ p(x (T )) + q(s, x∗ (s), u∗ (s)) ds = V (t, x∗ (t)) ,
(4.41)
t
0 ≤ t ≤ T . Aus dieser Ungleichung l¨ asst sich durch einen Grenz¨ ubergang Vt (t, x∗ (t)) + ∇x V (x∗ (t)) f (t, x∗ (t), u(t)) + q(t, x∗ (t), u(t)) ≤ 0
(4.42)
herleiten. (4.40) und (4.42) ergeben zusammen – ohne Argument t Vt (x∗ ) + ∇x V (x∗ ) f (x∗ , u) + q(t, x∗ , u) ≤ Vt (x∗ ) + ∇x V (x∗ ) f (x∗ , u∗ ) + q(x∗ , u∗ ) . Hieraus folgt einerseits die Hamilton-Jacobi-Bellmansche Funktionalgleichung . / 0 = Vt∗ (t, x(t)) + Maxu q(t, x(t), u) + ∇x V ∗ (t, x(t)) f (t, x(t), u) . / u∗ (t) = Arg Maxu q(t, x(t), u) + ∇x V ∗ (t, x(t)) f (t, x(t), u) und andererseits mit (4.39) und der Hamilton-Funktion H das Pontrjaginsche Maximumprinzip H(t, x∗ (t), u∗ (t), y ∗ (t)) = Maxu H(t, x∗ (t), u, y ∗ (t)) , 0 ≤ t ≤ T .
(4.43)
216
4 Wackeln mit System
Beispiel 4.7. In einer ¨ okonometrischen Interpretation des Problems (4.36) ist x(t) ∈ R u(t) ∈ R J(x, u) q(t, x, u) f (t, x, u) y(t) H = q+yf
y(t) ˙
das Kapital eines Unternehmens die Unternehmenspolitik der Ertrag im Planungszeitraum [0, T ] der Wertefluss, oder die Steigerungsrate des Ertrags der Investitionsfluss, oder die Steigerungsrate des Kapitals der Schattenpreis (shadow price) die totale Wachstumsrate, also die Wachstumsrate des Totalverm¨ ogens (Totalverm¨ogen = (akkumulierte Dividende plus Kapitalverm¨ogen) die Wertminderungsrate, oder Inflationsrate .
Die optimale Politik optimiert dann einerseits den Ertrag und andererseits die totale Wachstumsrate nach dem Pontrjaginschen Maximumprinzip; dazu muss aber der Schattenpreis bekannt sein. Beispiel 4.8. Das linear-quadratische Problem ist in der Kontrolltheorie ebenso bedeutsam wie sein Analogon in der endlichdimensionalen Optimierungstheorie § 3.4. In der Regelungstechnik ist dieses Problem als state regulator ” problem“ bekannt. Wir betrachten das Problem in der allgemeinen Form mit terminal pay-off“ P : ” 1 T T T x Q(t)x + uT R(t)u dt = Min! J(x, u) = x(T ) P x(T ) + (4.44) 2 0 x˙ = A(t)x + B(t)u ∈ Rn , x(0) = a . Die Matrizen Q(t) und R(t) sollen symmetrisch und positiv definit sein. Die Kontrolle u(t) ∈ Rm sei keinen weiteren Beschr¨ankungen unterworfen und kann damit als hinreichend glatt vorausgesetzt werden (insbesondere keine Sprungstellen). Nach Einf¨ uhrung zeitabh¨ angiger Lagrange-Multiplikatoren ur Lagrange-Funktion und Hamilton-Funktion y(t) ∈ Rn folgt f¨ T L(x, u, y) = J(x, u) + 0 y(t)T − x˙ + A(t)x + B(t)u dt 1 H(x, u, y) = xT Q(t)x + uT R(t)u + y T A(t)x + B(t)u . 2
(4.45)
Dann ergeben sich nach § 3.6 zwei alternative Darstellungsformen f¨ ur das Problem (4.45): (1◦ ) Gesucht ist ein Tripel (x∗ , u∗ , y ∗ ) so, dass x(0) = a und L(x∗ , u∗ , y ∗ ) = max min L(x, u, y) . y
x,u
(4.46)
4.2 Kontrollprobleme ohne Restriktionen
217
(2◦ ) Gesucht ist (x∗ , u∗ , y ∗ ) so, dass x(0) = a und L(x∗ , u∗ , y ∗ ) = maxy L(x, u, y) ∇x L(x∗ , u∗ , y ∗ ) = 0 , ∇u L(x∗ , u∗ , y ∗ ) = 0 .
(4.47)
Insgesamt gibt es zur L¨ osung von (4.44) drei M¨oglichkeiten: 1. Fall: Differential-algebraisches Problem. Zusammen mit den Kozustandsgleichungen ergibt sich das Differentialsystem x˙ = A(t)x + B(t)u , y˙ = −Q(t)x − AT (t)y , x(0) = a , y(T ) = P x(T ) , R(t)u + B T (t)y = 0 .
(4.48)
Hieraus folgt ein Randwertproblem f¨ ur x und y nach Einsetzen von u = −R(t)−1 B(t)T y (keine Feedback-Kontrolle). 2. Fall: Dynamische Optimierung. Nach (4.39) ist y(t) = ∇x V (t, x(t)) . Einsetzen ergibt u = −R−1 B T Vx und die Hamilton-Jacobi-BellmanGleichungen (4.38) lauten 1 Vt + Vx (Ax + Bu) + (xT Qx + uT Ru) = 0 . 2 Einsetzen von u ergibt 0 = Vt + Vx Ax − Vx BR−1 B T Vx +
1 T x Qx + Vx BR−1 RR−1 B T Vx 2
1 1 = Vt + Vx Ax + xT Qx − Vx BR−1 B T Vx . 2 2
(4.49)
Diese Gleichung hat eine L¨ osung in der Produktform V (t) = xT (t)S(t)x(t)/2 T mit V (T ) = x(T ) S(T )x(T )/2 . Die Matrix S(t) ∈ Rn n ist o.B. symmetrisch ur V in (4.49) weil stets xT Sx = xT (S + S T )x/2 gilt. Einsetzen des Ansatzes f¨ ergibt 1 0 = xT [S˙ + 2SA − SBR−1 B T S + Q]x 2 also die Matrix-Riccati-Gleichung S˙ + 2SA − SBR−1 B T S + Q = 0 , S(T ) = P 2 = c). Ist S eine L¨osung, dann er(die skalare Riccati-Gleichung ist y+ay+by ˙ gibt nochmaliges Einsetzen von Vx = Sx in u die Darstellung u = −R−1 B T Sx als Feedback-Kontrolle und der Zustand x ist L¨ osung des Anfangswertproblems x˙ = [A − BR−1 B T S]x , x(0) = a . 3. Fall 3: Duales Problem. Aus (4.45) folgt durch partielle Integration 1 T T x Qx + uT Ru + 2y T (Ax + Bu) + 2y˙ T x L(x, u, y) = x(T )T P x(T ) + 2 0
T
− y(t)x(t) , 0
218
4 Wackeln mit System
y(T ) = P x(T ) . Einsetzen von (4.48) in (4.47) ergibt an Stelle von (4.45) das duale Problem L(y) = Max! mit L(y)
1 T = y(T )T P −1 y(T ) + (y˙ + Ay)T Q−1 (y˙ + Ay) + y T BR−1 B T y dt 2 0
T 1 T
T + [y(t) x(t) ˙ + y˙ T x(t)] dt − y(t)x(t)
2 0 0 1 T T −1 T −1 (y˙ + Ay) Q (y˙ + Ay) + y T BR−1 B T y dt = y(T ) P y(T ) + 2 0 falls die Matrix P regul¨ ar ist (oder Y (T ) = 0 falls P = 0). Dieses Problem l¨ asst sich am einfachsten durch Einf¨ uhrung einer neuen Kontrolle u = y˙ ohne Restriktionen l¨ osen.
4.3 Kontrollprobleme mit Restriktionen (a) Problemstellung Es seien X und U Banach-R¨aume, die sp¨ater noch pr¨ azisiert werden. Zun¨ achst betrachten wir ein Kontrollproblem, bei dem die Restriktionen f¨ ur die Kontrolle u recht allgemein formuliert sind verm¨oge u ∈ Ω ⊂ U f¨ ur eine gewisse Menge Ω , und der Zustand x keinen weiteren Bedingungen unterworfen ist: T J(x, u) = p(x(T )) + q(t, x(t), u(t), t)dt = Max! t 0 f (t, x(s), u(s), s)ds, t ∈ [0, T ], x(t) = x(0) +
(4.50)
0
0 = r(x(T )), r : Rn → R|r| , x ∈ X , u ∈ U , ∀ t ∈ [0, T ] : u(t) ∈ Ω ⊂ Rm . Dann gibt der folgende Satz Auskunft u ¨ber Existenz und Eigenschaften des Kozustandes y in diesem Problem (verallgemeinerter Lagrange-Multiplikator): Satz 4.5. [Werner] Das Problem (4.50) erf¨ ulle die folgenden Voraussetzungen 1 (1◦ ) X = W∞ ([0, T ]; Rm ) , U = L∞ ([0, T ]; Rn ) , vgl. § 12.5. ◦ (2 ) f : [0, T ] × Rn × Rm → Rm , p : Rn → R , q : [0, T ] × Rn × Rm → R , ´chet-differenzierbar. r : Rn → Rr sind stetig Fre osung. (3◦ ) (x∗ , u∗ ) ist eine lokale L¨ (4◦ ) Ω = ∅ ist konvex und abgeschlossen. (5◦ ) Rang ∇r(x∗ (T )) = |r|.
4.3 Kontrollprobleme mit Restriktionen
219
Dann gibt es ein λ ≥ 0 , ein y ∈ Wn1,∞ [0, T ] und z ∈ Rk mit (λ, y) = 0 und y(t) ˙ = λ∇x q(t, x∗ (t), u∗ (t)) − y(t)∇x f (t, x∗ (t), u∗ (t)) f.¨ u. auf [0, T ] y(T ) = −λ∇p(x∗ (T )) − z ∗ ∇r(x∗ (T )) . F¨ ur fast alle t ∈ [0, T ] gilt das lokale Pontrjaginsche Maximumprinzip ∀ u ∈ Ω : (y(t)∇u f (t, x∗ (t), u∗ (t)) − λ∇u q(t, x∗ (t), u∗ (t))(u − u∗ (t)) ≥ 0 . In praktischen Anwendungen muss durch eine weitere Regularit¨ ats- oder Kontrollbedingung verhindert werden, dass der Parameter λ Null wird. Die Kontrolle u ist h¨ aufig eine beschr¨ ankte Resource, die ihre Werte nur in einem beschr¨ ankten Bereich annehmen darf. Beispiel 4.9. Ein Fahrzeug soll sich auf einer Geraden m¨oglichst schnell von a nach b bewegen. Dann f¨ ahrt es zun¨ achst mit der maximalen positiven Beschleunigung und dann mit der maximalen negativen Beschleunigung, und nur der Schaltzeitpunkt (switching point) muss berechnet werden Dieses Beispiel ist typisch f¨ ur eine sog. Bang-Bang-Kontrolle, die ihre optimalen Werte auf dem Rand des zul¨ assigen Bereichs annimmt. Daraus folgt im Regelfall, dass sie Sprungstellen hat, also unstetig ist. Wir f¨ uhren daher zwei neue Glattheitsbegriffe ein, die f¨ ur Anwendungen meistens ausreichen: Definition 4.3. Es sei [a, b] ⊂ R ein endliches Intervall und f : [a, b] → Rn . uckweise stetig, f ∈ Cpc ([a, b]; Rn ) oder kurz (1◦ ) Die Funktion f heißt st¨ f ∈ Cpc,n [a, b], wenn f in [a, b] bis auf endlich Ausnahmestellen stetig ist und in den Ausnahmestellen die einseitigen Grenzwerte existieren; zus¨ atzlich soll f von rechts her stetig sein. uckweise stetige Funktion f heißt st¨ uckweise stetig differenzierbar, (2◦ ) Eine st¨ 1 [a, b], wenn die Ableitung ebenfalls st¨ uckweise stetig ist. f ∈ Cpc,n 1 Eine Funktion f ∈ Cpc,n [a, b] muss also nicht notwendig stetig sein, aber man kann an jeder Stelle ihre Ableitung definieren, wenn an den Sprungstellen die einseitigen Ableitungen von rechts genommen werden. Am rechten Interval1 [a, b] entspricht also lende kann f eine Sprungstelle haben. Der Raum Cpc,n dem Raum NBV[a, b] in § 12.5 mit der Einschr¨ankung dass nur endlich viele Sprungstellen vorliegen.
Es sei 0 < T < ∞ ein fester Planungshorizont und 1 X = Cpc,n [0, T ] ∩ C[0, T ] der Funktionenraum der Zust¨ande x , der Funktionenraum der Kontrollen u . U = Cpc,m [0, T ]
(4.51)
In dem Problem (4.50) wurde die Differentialgleichung in eine Integralgleichung umgewandelt, die Daten sollen stetig differenzierbar sein und die Randbedingung soll nicht von der Kontrolle u abh¨ angen. Diese Eigenschaften werden weiterhin vorausgesetzt. Im Allgemeinen betrachtet man keine weiteren Gleichungsrestriktionen und zus¨ atzliche Ungleichungsrestriktionen werden
220
4 Wackeln mit System
in zwei verschiedene Typen aufgeteilt, wobei die eine explizit von x und u abh¨ angt und die andere nur vom Zustand x , die zweite ist n¨amlich theoretisch schwierig in den Griff zu bekommen und wird daher gerne weggelassen [Hartl]. Gesucht ist nun ein Paar (x, u) ∈ X × U als L¨osung des Kontrollproblems
T
J(x, u) = p(x(0), x(T )) + q(t, x(t), u(t)) dt = Max! 0 t x(t) = x(0) + f (s, x(s), u(s)) ds , t ∈ [0 , T ] 0
0 = r(x(0), x(T )) ∈ R|r|
(4.52)
0 ≤ g(t, x(t), u(t)) ∈ R|g| , t ∈ [0, T ] 0 ≤ h(t, x(t)) ∈ R|h| , t ∈ [0, T ] mit stetig F-differenzierbaren Daten. Ist der Planungshorizont T frei, dann wird wieder t = T s gesetzt und das folgende Kontrollproblem mit freiem Kontrollparameter T betrachtet: 1 J(x, u) = p(T, x(0), x(T )) + T q(T s, x(s), u(s)) ds = Max! 0 s f (T σ, x(σ), u(σ)) dσ , s ∈ [0 , 1] x(s) = x(0) + T 0
0 = r(T, x(0), x(T )) ∈ R|r|
(4.53)
0 ≤ g(T s, x(s), u(s)) ∈ R|g| , s ∈ [0 , 1] 0 ≤ h(T s, x(s)) ∈ R|h| , s ∈ [0 , 1] . (b) Notwendige Bedingungen Mit Bezug auf Definition 4.3 muss die Aussage von Satz 4.3 leicht abgeschw¨ acht werden: Satz 4.6. Es sei g = 0 und h = 0 in Satz 4.3. F¨ ur X , U aus (4.51) sei are L¨ osung von (4.52), dann gilt die Aussage bvon (x∗ , u∗ ) ∈ X × U eine regul¨ Satz (4.3) an den Stetigkeitsstellen von u . Beweis. Es seien 0 < t1 < . . . < tN −1 die Unstetigkeitsstellen von u∗ und tN = T . Nach dem Beweis von Satz 4.3 kann y ∗ Sprungstellen and den Punkten ahrend t = 0 keine Sprungstelle ist. F¨ ur eine allgemeine ti , i = 1 : N haben, w¨ Funktion Φ ergibt partielle Integration
4.3 Kontrollprobleme mit Restriktionen
T
0
dy ∗ (t)Φ(t) dt =
N
221
dy ∗ (t)Φ(t) dt + [y ∗ (ti ) − y ∗ (ti −)]Φ(ti ) dt
ti
ti−1
i=1
ti ˙ dt y ∗ (ti −)Φ(ti ) − y ∗ (ti−1 )Φ(ti−1 ) − y ∗ (t)Φ(t) t i−1 i=1 +[y ∗ (ti ) − y ∗ (ti −)]Φ(ti ) $ # ti − N ∗ ∗ ∗ ˙ dt + y (ti )Φ(ti ) = y (t)Φ(t) −y (ti−1 )Φ(ti−1 ) − =
N
i=1
= y ∗ (T )Φ(T ) −
N ti i=1
ti−1
˙ dt . y ∗ (t)Φ(t)
ti−1
Die Werte an den Sprungstellen im Stieltjes-Integral heben sich also bei der partiellen Integration heraus. Betrachtet man nun die Teilintervalle, in denen u∗ stetig ist, so gelten dort die Differentialgleichungen von Satz 4.3. Es sei wieder H(t, x, u, y) = q(t, x, u)+y f (t, x, y) die Hamilton-Funktion des Problems (4.52), und es sei K = {f ∈ C[a, b] , f (x) ≥ 0} der Ordnungskegel in C[a, b] . Dann ist b Kd = {y ∈ Cd (a, b) , y(f ) = a f (x) dv(x) , v ∈ BV(a, b) schwach mmonoton wachsend} der duale Kegel; vgl. Beispiel 1.23(3◦ ). Nach Beispiel 12.3(2◦ ) f¨ uhren wir f¨ ur und L ein: das Problem (4.52) zwei Lagrange-Funktionen L L((x, u), y, z, v, w) = [p + z r](x(0), x(T )) T T + q(x, u) dt + [dv g(x, u) + dw h(x)] 0 0
T t + dy(t) x(t) − x(0) − f (x, u) ds 0
L(t, x, u, y, v, ˙ w) ˙
(4.54)
0
= H(t, x, u, y) + v˙ g(t, x, u) + w˙ h(t, x) .
Dabei sollen y(t) ∈ Rn , v(t) ∈ R|g| , w(t) ∈ R|h| Zeilenvektoren sein und alle Integrale u ¨ber das Definitionsintervall [0, T ] seien wieder RiemannStieltjes-Integrale gem¨ aß § 12.5. Mit diesen Vereinbarungen l¨asst sich ein relativ einfaches Analogon zu Satz 3.2 formulieren: Satz 4.7. Das Problem (4.52) erf¨ ulle die folgenden Voraussetzungen: (1◦ ) Es gibt ein Sechstupel 1 [0, T ]×Cpc,|g| [0, T ]×Cpc,|h| [0, T ]×R|r| (x∗ , u∗ , y ∗ , v ∗ , w∗ , z ∗ ) ∈ X ×U ×Cpc,n
mit schwach monoton wachsenden v ∗ und w∗ so, dass u), y ∗ , z ∗ , v ∗ , w∗ ) . (x∗ , u∗ ) = Arg Max(x,u)∈X×U L((x,
(4.55)
222
4 Wackeln mit System
(2◦ ) Das Paar (x∗ , u∗ ) erf¨ ullt alle Zwangsbedingungen in (4.52). T v ∗ (t) g(t, x∗ , u∗ ) dt = 0 ( Komplemet¨ arbedingung ). (3◦ ) 0
(4◦ )
T
w∗ (t) h(t, x∗ ) dt = 0 ( Komplement¨ arbedingung ).
0
Dann ist (x∗ , u∗ ) L¨ osung von (4.52). ¨ Dieses Resultat ist als Ansatz f¨ ur weitere Uberlegungen zu verstehen. Der Nachweis der Existenz der auftretenden Lagrange-Multiplikatoren nimmt einen breiten Raum in der Kontrolltheorie ein, wobei die Glattheitsforderungen oft erheblich abgeschw¨ acht werden m¨ ussen; dabei muss das System auch recht umst¨ andliche Regularit¨ atskriterien erf¨ ullen. Die Existenztheorie soll hier nicht weiter verfolgt werden, zumal viele Ergebnisse noch nicht in aller Strenge bewiesen sind; vgl. [Hartl]. Lemma 4.3. Es seien die Voraussetzungen von Satz 4.7 erf¨ ullt und es gelte 1 1 [0, T ] , w ∈ Cpc,|h| [0, T ] . Dann ist (x∗ , u∗ , y ∗ , v˙ ∗ , w˙ ∗ , z ∗ ) zus¨ atzlich v ∈ Cpc,|g| L¨ osung des folgenden Systems in allen Punkten t wo keiner der Komponenten eine Sprungstelle hat: x(t) ˙ = [∇y H]T (t, x, u, y) ˙ w) ˙ y(t) ˙ = − ∇x L(t, x, u, y, v, ˙ w) ˙ 0 = ∇u L(t, x, u, y, v, 0 = r(x(0), x(T )) y(0) = − ∇1 (p + z r)(x(0), x(T )) y(T −) = ∇2 (p + z r)(x(0), x(T )) 0 = v(t) ˙ g(t, x, u) 0 = w(t) ˙ h(t, x) 0 ≤ v(t) ˙ , 0 ≤ w(t) ˙ .
(4.56)
Beweis SUPPLEMENT\chap04b. Der Beweis erfolgt im Wesentlichen in der gleichen Weise wie bei Satz 4.3 durch zweimalige partielle Integration. Man beachte aber, dass die L¨osung des Systems (4.56) nur ein station¨ arer Wert ist, dessen Zul¨assigkeit ebenso wie seine Extremaleigenschaft noch verifiziert werden m¨ ussen. In vielen numerischen Verfahren werden aber Lagrange-Multiplikatoren automatisch Null gesetzt, wenn die zugeh¨ orige Ungleichung inaktiv wird, z.B. gi (t, x(t), u(t)) > 0 =⇒ vi (t) = 0 . In diesem Fall ist die L¨ osung (x, u) des Systems (4.56) zul¨assig bez. der Ungleichungen (wenigstens and den Punkten des Intervalls [0, T ] , die im Algorithmus verwendet werden); siehe auch Voraussetzung (4◦ ) von Satz 3.2.
4.3 Kontrollprobleme mit Restriktionen
223
Im Folgenden schreiben wir zur Abk¨ urzung im Optimum teilweise f ∗ [t] = f (t, x∗ (t), u∗ (t)) etc.. Ein Intervall ∅ = [τ1 , τ2 ] ⊂ [0, T ] heißt Randintervall von h, wenn mindestens eine Komponente hi von h in [τ1 , τ2 ] im Optimum aktiv ist: ∀ t ∈ [τ1 , τ2 ] : h∗i [t] = hi (t, x∗ (t)) = 0 .
∃ 1 ≤ i ≤ |h|
Ein Randintervall kann auch aus einem einzelnen Punkt bestehen (contact time). Im Regelfall hat y ∗ Sprungstellen an den gleichen Punkten wie u∗ , wenn also eine Bedingung g i (t, x, u) ≥ 0 aktiv oder inaktiv wird. Zus¨atzlich hat aber y ∗ im Regelfall Sprungstellen an den Punkten, wo eine Bedingung hi (t, x(t)) ≥ 0 aktiv oder inaktiv wird: Satz 4.8. ([Hartl], Th. 4.2.) F¨ ur alle t0 < t1 in [0, T ] gilt ∗ + y ∗ (t+ 1) − y (t0 ) t1 ∇x H ∗ [t]dt + v ∗ (t)∇x g ∗ [t] dt + =− dw∗ (t)∇x h∗ [t], t0 (t0 ,t1 ] t1 ∗ ∗ ∗ ∗ + ∗ + Ht [t] + v (t)gt [t] dt − H [t1 ] − H [t0 ] = dw∗ (t)h∗t [t] . t0
(t0 ,t1 ]
In jedem Punkt τ eines Randintervalls kann also der Kozustand y ∗ eine Unstetigkeitsstelle haben, die dann der folgenden Sprungbedingung gen¨ ugt: Es gibt einen Vektor c(τ ) mit y ∗ (τ −) = y ∗ (τ +) + c(τ )∇x h(τ, x∗ (τ )) ∂ H ∗ [τ −] = H ∗ [τ +] − c(τ ) h∗ [τ ] ; ∂t siehe [Hartl], Th. 4.1. Schließlich sei noch eine hinreichende Bedingung f¨ ur ein Optimum angegeben: assiges Paar von (4.52). Satz 4.9. ([Hartl], Th. 8.1.) Es sei (x∗ , u∗ ) ein zul¨ 1 [0, T ], so dass f¨ ur alle zul¨ assigen Paare (x, u) Ferner existiere ein y ∈ Cpc,n gilt: ˙ − x∗ (t)] f.¨ u. in (1◦ ) H(t, x∗ (t), u∗ (t), y(t)) − H(t, x(t), u(t), y(t)) ≥ y(t)[x(t) [0, T ] , (2◦ ) [y(t−) − y(t+)][x(t) − x∗ (t)] ≥ 0 an jeder Unstetigkeitsstelle von y , atsbedingung (3◦ ) die Transversalit¨ y(0)[x(0) − x∗ (0)] ≥ p(x(0), x(T )) − p(x∗ (0), x∗ (T )) y(T )[x(T ) − x∗ (T )] ≥ p(x(0), x(T )) − p(x∗ (0), x∗ (T )) . Dann ist (x∗ , u∗ ) optimal.
224
4 Wackeln mit System
F¨ ur zus¨ atzliche Gleichungsrestriktionen h(t, x, u) = 0 sind die obigen Ergebnisse noch nicht in aller Strenge bewiesen. (c) Das Maximumprinzip u. in [0, T ] u∗ (t) = Arg Maxu∈Ω(t,x∗ (t)) H(t, x∗ (t), u, y ∗ (t)) , f.¨ mit Ω(t, x∗ (t)) = {u ∈ Rm ; g(t, x∗ (t), u) ≥ 0} ist f¨ ur die gegebene Konstellation ebenfalls noch nicht in aller Strenge bewiesen, wird aber allgemein als richtig angesehen; vgl. [Hartl]. Die folgende Erl¨auterung kann nur als Plausibilit¨ atsbetrachtung verstanden werden: Unter n¨ aher zu beschreibenden Voraussetzungen gilt f¨ ur eine allgemeine Funk T tion Φ und J(u) = Φ(t, u(t)) dt nach dem Optimalit¨atsprinzip 0
3
∗
4
T
J(u ) = Max Φ(t, u(t)) dt , u(t) ∈ Ω(t) 0 T = Maxu(t)∈Ω(t) Φ(t, u(t)) dt ,
(4.57)
0
was in gewisser Weise eine Umkehrung des bekannten Majorantensatzes f¨ ur bestimmte Integrale darstellt. Sind nun alle Komponenten außer u bereits im Optimum, dann ist (4.55) gleichbedeutend mit L(x∗ , u∗ , y ∗ , z ∗ , v ∗ , w∗ )
T t . T = Max q(x∗ , u) dt + dy ∗ (t) x∗ (t) − x∗ (0) − f (x∗ , u) ds , 0 0 /0 u(t) ∈ Ω(t, x∗ (t)) 4 3 T
= Max
T
q(x∗ , u) dt −
0
0
t
dy ∗ (t)
f (x∗ , u) ds , u(t) ∈ Ω(t, x∗ (t))
,
0
weil die konstanten Terme weggelassen werden k¨onnen. Partielle Integration ergibt wie oben mit Anwendung von (4.57) L(x∗ , u∗ , y ∗ , z ∗ , v ∗ , w∗ ) 3 4 T T ∗ ∗ ∗ ∗ = Max q(x , u) dt + y (t) f (x , u) dt , u(t) ∈ Ω(t, x (t)) 0 30 4 T
= Max H(x∗ , u, y ∗ ) dt , u(t) ∈ Ω(t, x∗ (t)) 0 T T ∗ ∗ ∗ = Maxu∈Ω(t,x (t)) H(x , u, y ) dt = H(x∗ , u∗ , y ∗ ) dt . 0
0
Literatur: [Hartl] und die dortigen Referenzen.
4.4 Beispiele
225
4.4 Beispiele (a) Numerische Behandlung Die differential-algebraischen Randwertprobleme (4.30) und (4.56) sind im Allgemeinen einer numerischen L¨osung schwer zug¨ anglich. Bei einfachen Problem kann u.U. die Kontrolle u mit Hilfe der Gleichung ∇u H = 0 eliminiert werden. Das Ergebnis ist ein reines Randwertproblem, das ev. mit dem Newton-Verfahren gel¨ost werden kann. Versuche mit dem Gradientenverfahren nach [Dyer] sind wenig befriedigend. Bei allgemeineren Problemen der Form (4.52) lassen sich am ehesten Erfolge erzielen, wenn man auf den Kozustand y g¨ anzlich verzichtet und das Problem in seiner urspr¨ unglichen Form direkt diskretisiert: Numerische L¨ osung uhrung des Kozustandes y wird verzichtet. (1◦ ) Auf die Einf¨ osungspaar (x, u) mit gleichrangigen Zustand x und Kon(2◦ ) Es wird ein L¨ trolle u berechnet. aquidistant unterteilt, x und u durch Trep(3◦ ) Es wird das Intervall [0, T ] ¨ penfunktionen ersetzt; die Integrale werden durch die summierte Sehnentrapezregel ersetzt. (4◦ ) Das endlichdimensionale Optimierungsproblem wird dem Verfahren sqp.m der Sequentiellen Quadratischen Optimierung gel¨ost; vgl. § 3.5. Dabei treten mehrere Parameter und Gewichte auf, die auf das jeweilige Problem sorgf¨ altig eingestellt werden m¨ ussen. Im Folgenden werden alle Differentialgleichungen in Integralgleichungen umgewandelt. Bei ¨ aquidistanter Unterteilung des Intervalls [0, T ] in n Teilintervalle und Anwendung der summierten Sehnentrapezregel entsteht dann aus der skalaren DGl t f (t, x, u) dt x(t) = x(0) + 0
das nichtlineare Gleichungssystem 1 E F (X, U ) = 0 , e = [1] ∈ Rn+1 , X = [x1 , . . . , xn+1 ]T etc.. T Ist z.B. n = 5, dann hat die (6, 6)-Matrix E die Form ⎤ ⎡ 000000 ⎢1 1 0 0 0 0⎥ ⎥ ⎢ 1⎢1 2 1 0 0 0⎥ ⎥; E= ⎢ ⎥ 2⎢ ⎢1 2 2 1 0 0⎥ ⎣1 2 2 2 1 0⎦ 122221 X − x(0) e −
wenn x(0) frei ist, muss die erste Zeile von E gestrichen werden. Diese einfache Approximation liefert in vielen F¨ allen brauchbare Ergebnisse. Zum Nachweis
226
4 Wackeln mit System
werden nachfolgend einige bekannte Beispiele aus der Literatur berechnet. Ist der Planungshorizont“ T frei ist, dann wird nach (4.33) verfahren und das ” Problem umgewandelt in ein Problem mit dem Planungsintervall [0, 1] und freiem Kontrollparameter T . (b) Beispiele H ist die Hamilton-Funktion. Beispiel 4.10. (Thrust-Problem) [Bryson], S. 59. In einem (x1 , x2 )-Koordinatensystem wird ein Raumschiff von der Masse m und der Schubkraft m a(t) in Richtung seiner K¨ orperachse beschleunigt (Abb. 4.5). Bezeichnungen: (x1 (t), x2 (t)) Position des Raumschiffes, x3 (t) Geschwindigkeit in x1 -Richtung, x4 (t) Geschwindigkeit in x2 -Richtung, u(t) Winkel der Schiffsachse zur x1 -Richtung (Kontrolle). Das Raumschiff soll in einer vorgegebenen Zeit T auf eine Flugbahn parallel ohe h gebracht werden, dabei soll die Geschwindigkeit x3 (T ) zur x1 -Achse in H¨ maximal sein. Die erreichbare H¨ ohe h¨ angt von der vorgegebenen Zeit T ab. Problem: (normalisiert) J(x, u) = x3 (T ) = Max!, x(0) = 0 , x2 (T ) = h , x4 (T ) = 0 , x˙ 1 = x3 (t) , x˙ 2 = x4 (t) , x˙ 3 = a(t) cos(u(t)) , x˙ 4 = a(t) sin(u(t)) . Hamilton-Funktion, Kozustandsgleichungen und deren Randbedingungen : H(x, u, y) Hu (x, u, y) y˙ 1 y1 (T )
= y f = y1 x3 + y2 x4 + y3 a(t) cos(u) + y4 a(t) sin(u) , = − y3 a sin(u) + y4 a cos u , = 0 , y˙ 2 = 0 , y˙ 3 = −y1 , y˙ 4 = −y2 , = 0 , y3 (T ) = 1 .
Besonderheiten: Mit Hilfe von Hu = 0 k¨ onnen sin(u) und cos(u) durch y4 ausgedr¨ uckt werden, das Ergebnis ist mit x4+i := yi x˙1 = x3 , x˙2 = x4 , x˙3 = a(t)/(1 + x28 )1/2 , x˙4 = a(t)x8 /(1 + x28 )1/2 , x˙8 = −x6 . x˙5 = 0 , x˙6 = 0 , x˙7 = −x5 , In KAPITEL04\CONTROL01 wird das Problem f¨ ur T = 2 und h = 0.8, 0.6, 0.4, 0.2, mit dem obigen Verfahren gel¨ ost; in KAPITEL04\CONTROL02 wird die Kontrolle u eliminiert und das Problem als Randwertproblem mit Box-Schema und Newton-Verfahren gel¨ ost; in KAPITEL04\CONTROL03 wird das Gradientenverfahren verwendet. Beispiel 4.11. (Orbit-Problem) [Bryson], S. 66. Ein Raumschiff soll in einer vorgegebenen Zeit T von einem kreisf¨ ormigen Orbit mit Radius r0 den h¨ ochstm¨ oglichen kreisf¨ ormigen Orbit erreichen. Der Einfluss weiterer Himmelsk¨ orper wird vernachl¨ assigt. Das Raumschiff fliegt im Gegenuhrzeigersinn (Abb. 4.6).
4.4 Beispiele
227
Bezeichnungen: In Polarkoordinaten (r, ϕ) mit dem (punktf¨ormigen) Zentralk¨ orper als Zentrum sei r(t) die radiale Entfernung des Raumschiffes, u = r˙ radiale Geschwindigkeit, v = rϕ˙ Geschwindigkeit senkrecht zum Radius, m(t) Masse des Raumschiffes, |m(t)| ˙ konstante Treibstoffverbrauchsrate, S = |m(t)|a ˙ Schubkraft, a Maschinenkonstante [m/s], α(t) Schubwinkel, γ Gravitationskonstante, M Masse des Zentralk¨orpers, G = γ · M , = |m(t)|/m(0) ˙ [1/s], S = · a · m(0) . Die Kontrolle α(t) ist der Winkel zwischen der Tangente des kreisf¨ ormigen Orbits zum Zeitpunkt t und der Schiffsachse in Flugrichtung gesehen (lokales Koordinatensystem). Daher weranderliche r , r˙ und die Bahngeschwindigkeit v = rϕ˙ den als abh¨ angige Ver¨ gew¨ ahlt; vgl. § 6.2(f ). Problem: r(T ) = Max! , r(0) = r0 , u(0) = 0 , v(0) = u(T ) = 0 , v(T ) = G/r(T ) .
-
G/r0 ,
r˙ = u(t) , G v(t)2 G v(t)2 S(t) sin(α(t)) a sin(α(t)) − = − , + + 2 r(t) r(t) m(0)(1 − t) r(t) r(t)2 1 − t u(t) v(t) S(t) cos(α(t)) u(t) v(t) a cos(α(t)) v˙ = − + =− + . r(t) m(0)(1 − t) r(t) 1 − t
u˙ =
Reduktion auf dimensionsloses System: Der Radius r und die Zeit t werden durch dimensionslose Gr¨ ossen ersetzt, s=
G1/2 3/2 r0
t , R(s) =
1 r(t) , r0
und die zweite und dritte Bewegungsgleichung mit r02 /G multipliziert. F¨ ur U (s) = R (s) und V (s) = R(s)ϕ (s) folgt dann mit der dimensionlosen Konstanten κ = a · r02 /G R = U , U =
1 cos(α) V2 sin(α) UV − 2 +κ , V =− +κ . R R 1 − t R 1 − t 3/2
Wir schreiben wieder t statt s, T statt sf = T G1/2 /r0 , u statt α und x = [x1 , x2 , x3 ]T = [R, U, V ]T . Transformiertes Problem: J(x, u) = x1 (T ) = Max! , x˙ 1 = x2 (t) , 1 sin(u(t)) cos(u(t)) x23 (t) x2 (t)x3 (t) − +κ , x˙ 3 = − +κ , x1 (t) x21 (t) 1 − t x1 (t) 1 − t x1 (0) = 1 , x2 (0) = 0 , x3 (0) = 1 , x2 (T ) = 0 , x3 (T )2 x1 (T ) − 1 = 0 . x˙ 2 =
228
4 Wackeln mit System
Hamilton-Funktion, Kozustandsgleichungen und deren Randbedingungen:
2
x3 x2 x3 1 sin(u) cos(u) − − 2 +κ H(x, y, u, t) = y1 x2 + y2 + y3 κ x1 x1 1 − t 1 − t x1 1 Hu = κ [y2 cos(u) − y3 sin(u)] 1 − t y2 x23 2y2 y3 x2 x3 y3 x3 y3 x2 2y2 x3 , y˙ 2 = − y1 , y˙ 3 = − y˙ 1 = 2 − 3 − x1 x1 x21 2x1 x1 x1 −3/2 y1 (T ) = 1 + 0.5 y3 (T )x1 (T ) . Besonderheiten: Mit Hilfe von Hu = 0 k¨ onnen sin(u) und cos(u) durch y2 und uckt werden, das Ergebnis ist mit x3+i = yi y3 ausgedr¨ x23 1 x5 − 2 +κ 2 2 x1 x1 (x5 + x6 )1/2 (1 − t) x6 x23 x5 2x5 x2 x3 x6 x2 x3 x˙ 3 = κ 2 , x ˙ = − 3 − − 4 2 2 1/2 x1 x1 x1 x21 (x5 + x6 ) (1 − t) x3 x6 x2 x6 2x3 x5 x˙ 5 = − x4 , x˙ 6 = − . x1 x1 x1 x˙ 1 = x2 , x˙ 2 =
Physikalische Daten und technische Daten f¨ ur eine kleine Sonde mit Ionentriebwerk nach [Bryson] in KAPITEL04\Beispiele\bsp02. In KAPITEL04\CONTROL01 wird das Problem mit dem obigen Verfahren gel¨ost; in KAPITEL04\CONTROL02 wird wieder die Kontrolle u eliminiert und das Problem als Randwertproblem gel¨ ost; in KAPITEL04\CONTROL03 wird das Gradientenverfahren verwendet. Beispiel 4.12. (Zermelosches Problem) [Bryson], S. 96. In einem (x1 , x2 )Koordinatensystem soll ein Schiff mit konstanter Geschwindigkeit S relativ zum Wasser in m¨ oglichst kurzer Zeit T von dem Punkt a = (a1 , a2 ) zu dem Punkt b = (b1 , b2 ) fahren (x = (x1 , x2 )) (Abb. 4.7). Bezeichnungen: (x1 (t), x2 (t)) Position des Schiffes, v1 (x) Str¨omungsgeschwinomungsgeschwindigkeit in x2 -Richtung, u digkeit in x1 -Richtung, v2 (x) Str¨ Winkel der Schiffsachse zur x1 -Richtung (Kontrolle). Problem:
J(T ) = T = Min! , x(0) = a , x(T ) = b , x˙ 1 = S cos(u(t)) + v1 (x(t)) , x˙ 2 = S sin(u(t)) + v2 (x(t)) .
Hamilton-Funktion, Kozustandsgleichungen (keine Randbedingungen): H(x, u, y) = y1 [S cos(u) + v1 (x)] + y2 [S sin(u) + v2 (x)] + 1 Hu (x, u, y) = − y1 sin(u) + y2 cos(u) y˙ 1 = −y1 (v1 )x1 − y2 (v2 )x1 , y˙ 2 = −y1 (v1 )x2 − y2 (v2 )x2 . Besonderheit I: Weil H nicht von t abh¨ angt, gilt Ht = 0 also H =konstant. Aus der Transversalit¨ atsbedingung (4.32) f¨ ur das freie Ende T folgt aber
4.4 Beispiele
229
H(x(T ), u(T ), y(T )) = 0 und daher H = 0. Mit Hilfe von H = 0 und Hu = 0 l¨ asst sich y als Funktion von u darstellen. Einsetzen in eine der Kozustandsgleichungen ergibt dann u˙ = sin2 (u)(v2 )x1 + sin(u) cos(u)[(v1 )x1 − (v2 )x2 ] − cos2 (u)(v1 )x2 . Besonderheit II: Wird die Substitution t = T s gew¨ahlt und T als neue abh¨ angige Ver¨ anderliche eingef¨ uhrt, X3 (s) = T , X1 (s) = x1 (sT ) = x1 (sX3 (s)) , X2 (s) = x2 (sT ) = x2 (sX3 (s)) , U (s) = u(sX3 (s)) , dann erh¨ alt man dann ein Randwertproblem f¨ ur die vier Unbekannten X3 (s) = 0 ,
X1 (s) = x˙ 1 (sX3 ) · X3 (s) ,
˙ X2 (s) = x˙ 2 (sX3 ) · X3 (s) , U (s) = u(sX 3 ) · X3 (s) . Wenn wir Einfachheit halber y(s) = [X1 , X2 , X3 , U ] schreiben, dann hat diese Randwertproblem die Form y1 = [S cos(y4 ) + v1 (y1 , y2 )]y3 , y2 = [S sin(y4 ) + v2 (y1 , y2 )]y3 , y3 = 0 , y4 = [sin2 (y4 )(v2 )y1 + sin(y4 ) cos(y4 )((v1 )y1 − (v2 )y2 ) − cos2 (y4 )(v1 )y2 ]y3 , y1 (0) = a1 , y2 (0) = a2 , y1 (1) = b1 , y2 (1) = b1 . Besonderheit III: Mit der obigen Transformation kann auch der unbekannte Planungshorizont T als freie Ver¨ anderliche (Kontrollparameter) eingef¨ uhrt werden. Das transformierte Problem hat dann die Form J(T ) = T = Min! , x(0) = a , x(1) = b , x1 (s)
= [S cos(u(s)) + v1 (x(s))]T , x2 (s) = [S sin(u(s)) + v2 (x(s))]T ,
in der es in KAPITEL04\CONTROL01 mit sqp.m gel¨ost wird. In KAPITEL04\CONTROL02 wird die Kozustandsver¨anderliche y eliminiert und wieder das Newton-Verfahren ben¨ utzt. Im gerechneten Beispiel S = 1 gew¨ ahlt und v = [−S ∗ x2 , 0] als Str¨ omungsfeld gew¨ahlt mit S ∗ = S/16, S/8, S/4, S/2, S, 2S; als Starttrajektorie wird die Verbindungsstrecke der Punkte a und b gew¨ ahlt. Beispiel 4.13. Servo-Problem [Burges], S. 281 ff, Abb. 4.8. T = Min! , x(0) = a1 , x (0) = a2 , x(T ) = x (T ) = 0 , |u(t)| ≤ 1 , x ¨ + ax˙ + ω 2 x = u , 0 < t < T,
a ≥ 0.
Der Einfachheit halber betrachten wir den Fall ω 2 = 1 und a = 0 (keine D¨ ampfung). Es wird auf ein System erster Ordnung transformiert und wieder
230
4 Wackeln mit System
T als freier Kontrollparameter eingef¨ uhrt. Das resultierende System hat die Form J(T ) = T = Min! X1 (s) = T · X2 (s) , X2 (s) = T · (U (s) − X1 (s)) , X1 (0) = a1 , X2 (0) = a2 , X1 (1) = 0 , X2 (1) = 0 , 1 − U (s) ≥ 0 , U (s) − 1 ≥ 0 , in der es gel¨ ost wird. Besonderheit: Die optimale Kontrolle ist eine Bang-Bang-Kontrolle mit den asst sich eine Schaltkurve berechnen (verschobeWerten u∗ (t) = ±1. Es l¨ ne Sinusfunktionen) oberhalb der u∗ (t) = −1 und unterhalb u∗ (t) = 1 gilt. Dementsprechend besteht die optimale Trajektorie im vorliegenden Spezialfall aus Segmenten von Kreisen mit Zentrum (1, 0) bzw. (−1, 0), der Wechsel findet an den Schnittstellen mit der Schaltkurve statt. Beispiel 4.14. [Hartl], S. 204, Abb. 4.9.
3
x dt = Min! x˙ = u , x(0) = 1, x(3) = 1 , −1 ≤ u ≤ 1 , 0 ≤ x .
J(x, u) = 0
H = x + y u , L = H + v1 (1 + u) + v2 (1 − u) + wx . Besonderheit: Zusammen mit den notwendigen Bedingungen Lu = y + v1 − v2 = 0 , y˙ = −Lx = −1 − w , y(3) = z , z ∈ R , v1 ≥ 0 , v2 ≥ 0 , v1 (1 + u) = v2 (1 − u) = 0 , w ≥ 0 , w x = 0 , kann die L¨ osung explizit berechnet werden: ⎧ ⎧ ⎧ ⎨1 − t ⎨ −1 ⎨ [0, 1) 0 , u∗ = 0 f¨ x∗ = ur t ∈ [1, 2] . ⎩ ⎩ ⎩ t−2 1 (2, 3] Beginnend mit dem Intervall (1, 2) erhalten wir die Tafel der Multiplikatoren: Intervall y v1 v 2 [0, 1) t − 1 1 − t 0 [1, 2] 0 0 0 (2, 3] t − 2 0 t − 2
w 0 . 1 0
In Abb. 4.9 wird noch u ¨ber den Zustand x gemittelt. Die optimale Kontrolle u∗ ist eine Bang-Bang-Kontrolle. Bei der Rechnung bilden sich die Sprungstellen im Verlauf der Iteration zwar immer st¨ arker heraus, bleiben aber (nat¨ urlicherweise) gegl¨ attet.
4.4 Beispiele
231
Beispiel 4.15. [Hartl], S. 207, Abb. 4.10. 3 J(x, u) = e−rt u dt = Min! , r ≥ 0 , 0
x˙ = u , x(0) = 0 , 0 ≤ u ≤ 3 , x − 1 + (t − 2)2 ≥ 0 . H = −e−rt u + yu , L = H + v1 u + v2 (3 − u) + w x − 1 + (t − 2)2 . Besonderheit: Zusammen mit den notwendigen Bedingungen y˙ = −Lx = −w , Lu = −e−rt + y + v1 − v2 = 0 , v1 ≥ 0 , v2 ≥ 0 , v1 u = v2 (3 − u) = 0 , w ≥ 0 , w x − 1 + (t − 2)2 = 0 , y(3) = 0 , y(2−) = y(2+) − c , c ≥ 0 . kann die L¨ osung wieder explizit berechnet werden: ⎧ ⎧ ⎧ 0 0 ⎨ ⎨ ⎨ [0, 1) x∗ = 1 − (t − 2)2 , u∗ = 2(2 − t) , f¨ ur t ∈ [1, 2] . ⎩ ⎩ ⎩ 0 (2, 3] 1 Beginnend mit dem Intervall (2, 3) erhalten wir die Tafel der Multiplikatoren: Intervall y v1 [0, 1) e−r e−rt − e−r [1, 2] e−rt 0 − (2, 3] 0 e rt
v2 w 0 0 . 0 re−rt 0 0
Die optimale Kontrolle hat hier eine scharfe Sprungstelle bei t = 1, deswegen wurden 200 Iterationsschritte durchgef¨ uhrt. Beispiel 4.16. [Hartl], S. 208. x = (x1 , x2 ) , Abb. 4.11. 3 J(x, u) = 2x1 dt = Min! 0
2 x , −2 ≤ u ≤ 3 , x1 ≥ α , α ∈ R , α ≤ 0 . x˙ = 2 , x(0) = u 0 Besonderheit : 1. Fall: α ≤ −7 . L¨ osung: " 2 − t2 x∗ = ur 0 ≤ t ≤ 3 . , u∗ = −2 , f¨ −2t 2. Fall: −7 < α ≤ 2.5 . Hier gibt es einen Schaltzeitpunkt (switching time) 1 σ = 3 − (56 + 8α)1/2 . 4
L¨ osung: " " " " 2 − t2 −2t −2 [0, σ) ∗ ∗ = , u = f¨ u r t ∈ . , x x∗1 = 2 2(t − 2σ) 2 [σ, 3] 2 + t2 + 2σ 2 − 4σt
232
4 Wackeln mit System
3. Fall: −2.5 < α ≤ 0 . Es gibt einen Schaltzeitpunkt σ und einen Kontaktzeitpunkt (junction time) mit 0 < σ < < 3 . Dieser Punkt ist auch ein Eintrittspunkt (entry point) in den Randbogen. Es gilt = 2σ = (4 − 2α)1/2 . L¨ osung: " " " " 2 − t2 −2t −2 [0, σ) ∗ ∗ ∗ , u = f¨ ur t ∈ . , x2 = x1 = 2(t − 2σ) 2 [σ, ] 2 + t2 + 2σ 2 − 4σt Im Intervall (, 3) gilt x1 = α , x2 = 0 , u = 0 . Beispiel 4.17. [Hartl], S. 210, Abb. 4.12.
1
10x2 − u2 dt = Max! ,
0
x˙ = x2 − u , x(0) = x(1) = 1 , x(t) ≤ 1.5 . Der Zustand x w¨achst zun¨ achst monoton, trifft den Rand x = 1.5 zum Zeitpunkt t1 = 0.345037 und verl¨ asst ihn wieder zum Zeitpunkt t2 = 1 − t1 . Die Kontrolle u ist stetig und an den Punkten t1 und t2 tangential“, weil das ” Problem regul¨ ar ist. Beispiel 4.18. Problem der Brachistochrone, vgl. § 4.1(g), Abb. 4.13. Die x2 -Achse weise nach unten. Setzt man x˙ 1 = (2gx2 (t))1/2 cos u(t) , x˙ 2 = (2gx2 (t))1/2 sin u(t) ,
(4.58)
dann wird der Energieerhaltungssatz mv(t)2 = 2mgx2 (t) respektiert, und das Problem lautet zusammen mit (4.58) T = Min! , x(0) = (0, 0) , x1 (T ) = a , 0 < a , 0 ≤ g(x1 , x2 ) . Die Kontrolle u ist der Winkel zwischen der Kurventangente und der x1 -Achse. Die Substitution t = T s ergibt das Problem T = Min! , x(0) = (0, 0) , x1 (1) = a , x1 = T (2gx2 (s))1/2 cos u(s) , x2 = T (2gx2 (s))1/2 sin u(s) , 0 ≤ g(x1 , x2 ) . In [Bryson] wird die exakte L¨ osung des unrestringierten Problems berechnet, das in KAPITEL04\CONTROL03 mit dem Gradientenverfahren gel¨ost wird. In KAPITEL04\CONTROL01 wurden folgende Nebenbedingungen gew¨ahlt: g(x1 , x2 ) = H + 0.5x1 − x2 ≥ 0 , H = 0.1 , 0.15 , 0.2 . Literatur: [Berkowitz], [Bryson], [Craven78], [Craven95], [Dyer], [Ekeland], [Gelfand], [Gregory], [Hartl], [Kosmol], [Luenberger], [Petrov], [Teo89], [Teo91].
4.4 Beispiele 1.2
1.4
1
1.2
0.8
1
0.6
0.8
0.4
0.6
233
0.4
0.2
0.2 0 0 −0.2 −0.2 −0.4 0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
−1
Abb. 4.5. Beispiel 4.10
−0.8
−0.6
−0.4
−0.2
0
0.2
0.4
0.6
0.8
1
Abb. 4.6. Beispiel 4.11
6
u=−1
2 4 1 2 0 0
−1 −2
−2 −4
−3
u=+1
−6
0
1
2
3
4
5
6
−6
7
−2
0
2
4
6
Abb. 4.8. Beispiel 4.13
Abb. 4.7. Beispiel 4.12
u*
1
−4
2
0.8
1.8
x*
0.6
x*
1.4
x
0.2
u*
1.6
u
0.4
x
x
1.2
0
1
−0.2
0.8
−0.4
0.6
x* u
u
−0.6
0.4
−0.8
x*
0.2
u*
−1
0
0.5
1
u
0
1.5
2
2.5
Abb. 4.9. Beispiel 4.14
3
0
0.5
u*
1
1.5
2
2.5
Abb. 4.10. Beispiel 4.15
u*
3
234
4 Wackeln mit System
3
4
u x*1
2
3
u*
u
1
2
boundary
x*
2
0
2
−1
x
1
u
u*
x*
0
x*
2
−2
−1
u* −3
0
0.5
1
1.5
2
2.5
3
−2
0
0.1
Abb. 4.11. Beispiel 4.16, α = −1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Abb. 4.12. Beispiel 4.17
0
x1
−0.1
−0.2
−0.3
−0.4
−0.5
−0.6
x
−0.7
−0.8
0
2 0.2
0.4
0.6
0.8
1
1.2
Abb. 4.13. Beispiel 4.18
4.5 Zum Re-Entry Problem Ein Raumschiff soll beim Wiedereintritt in die Erdatmosph¨are einer m¨oglichst geringen W¨ armebelastung ausgesetzt sein. Betrachtet werden ein Raumschiff vom Apollo-Typ, das vom Außenraum auf eine Erdumlaufbahn fliegt, und der Raumgleiter X-38, der von einer Erdumlaufbahn in eine H¨ohe von 25 km fliegt. Beide Optimierungsprobleme werden in der gleichen Weise wie die anderen Beispiele diskretisiert und mit dem Verfahren sqp_h.m bzw. im Fall der Winkelbeschr¨ ankung bei X-38 mit sqp.m gel¨ost. Vereinfachungen Kugelf¨ ormige Erde, Massenpunktmodell (keine Lagedynamik), symmetrischer Flug (Geschwindigkeitsvektor in der Symmetrieebene des Fahrzeugs), kein Wind. Bezeichnungen Γ Gravitationskonstante [m3 /kg], RE Erdradius [m], ME Erd2 Fallbeschleunigung [m/s2 ], ωE Drehgeschwindigmasse [kg], gE = Γ ME /RE keit der Erde [rad/s], 0 Luftdichte in Meeresh¨ohe [kg/m3 ], v Geschwindigkeit [m/s], γ Bahnneigungswinkel [rad], r = RE + h Abstand zum Erdmittelpunkt
4.5 Zum Re-Entry Problem
235
[m], h H¨ ohe u ache [m], A Auftrieb [N ] (Newton), W Luftwi¨ber Erdoberfl¨ derstand [N ], cA Auftriebsbeiwert [ ], cW Widerstandsbeiwert [ ], S Bezugsfl¨ ugelfl¨ ache [m2 ] M Masse des Raumschiffs [kg], g(h) = γME2 /(RE + h)2 h¨ ohenabh¨ angige Erdbschleunigung [m/s2 ], G(h) = M g(h) Gewicht [N ], (h) h¨ ohenabh¨ angige Luftdichte [kg/m3 ], α Anstellwinkel [rad], μA Flugwindh¨ angewinkel [rad], λ geografische Breite [rad], χ Flugwindazimut [rad], τ geografische L¨ ange [rad]. Umrechnungen L¨ ange: 1 [f t] = 0.3048 [m], Gewicht: 1 [sl] = 14.59 [kg] (slugs), Kraft: 1[lbs] (Pfund) = 0.45359[kp]. Konstanten Γ = 6.672 · 10−11 [m3 /kg s2 ], RE = 6370320 [m], Γ · ME = 3.98603 · 1014 [m3 /s2 ], gE = 9.806 [m/s2 ], ωE = 7.292115 · 10−5 [rad/s], 0 = ohe ab 50 km wird aber gew¨ahlt 1.225 [kg/m3 ]. Zur Approximation in der H¨ (h) = 1 e−βh , 1 = 1.3932 [kg/m3 ] , β = 1.3976 · 10−4 [1/m] . F¨ ur das Verh¨ altnis S/m wird gew¨ ahlt: Apollo: S/M = 3.3876 · 10−3 [m2 /kg] , X-38: S = 21.31/[m2 ] , M = 9060 [kg] . F¨ ur Auftrieb A und Widerstand W wird gew¨ ahlt: Typ
A
W
Apollo S(h)v 2 cA (α)/2 S(h)v 2 cW (α)/2 . X-38
S(h)v 2 cA (v)/2 S(h)v 2 cW (v)/2
F¨ ur X-38 werden die Werte von cA und cW tabellarisch angegeben und quadratisch interpoliert; f¨ ur Apollo wird gew¨ ahlt cA (α) = 0.6 sin(α) , cW (α) = 1.174 − 0.9 cos(α) . γ und χ beschreiben die Richtung des Geschwindigkeitsvektors, also die Bahntangente; γ ist der Winkel zu lokalen Horizontalebene, γ ist positiv, wenn der Geschwindigkeitsvektor nach oben zeigt; χ beschreibt die Richtung in der lokalen Horizontalebene von Ost zu Nord. Bei Apollo ist die Kontrolle u = α der Winkel zwischen der Symmetrieachse des Kegels (zur Spitze weisend (!)) und der Bahntangente. Bei X-38 ist die Kontrolle u = μA der Winkel zwischen dem Auftriebsvektor und der Vertikalebene durch die momentane Bahntangente. Bei Apollo wird die totale Erw¨ armung und bei X-38 der totale W¨armefluss jeweils am Stagnationspunkt und pro Fl¨ acheneinheit minimiert: T [(h)]1/2 v 3 dt Apollo: J(v, h) = 10 0 T −4 X-38: J(v, v) = 10 [(h)]1/2 v 3.15 dt . 0
236
4 Wackeln mit System
Bewegungsgleichungen f¨ ur Apollo: 10
flight path 5
W − g sin γ m A v cos γ g cos γ γ˙ = + − mv R v r˙ = v sin γ v˙ = −
altitude
γ v
0
surface of earth
−5 −10
−8
−6
−4
−2
0
2
4
6
8
10
Abb. 4.14. Reentry-Problem
Bewegungsgleichungen f¨ ur X-38: W − g sin γ m A cos μ v cos γ g cos γ γ˙ = + − + 2ωE sin χ cos λ mv R v r˙ = v sin γ
v˙ = −
A sin μ v cos γ sin χ tan λ + − 2ωE tan γ cos χ cos λ + 2ωE sin λ mv cos γ r v cos γ cos χ λ˙ = r v cos γ sin χ . τ˙ = r cos λ
χ˙ =
Dauer des Man¨ overs: Apollo: T = 225 [s] , X-38: T = 1150 [s] . Randbedingungen: (γ(0) ist besonders kritisch, L¨ange in [km], Winkel in [rad] (!)) Apollo: v(0) = 11 , γ(0) = −0.14137167 , h(0) = 122 , v(T ) = 8 , h(T ) = 76 . X-38: v(0) = 7.669 , γ(0) = −0.0025656 , h(0) = 80 , χ(0) = 1.9199 , λ(0) = 1.22171 , τ (0) = −0.41888 , v(T ) = 1 , h(T ) = 25 , λ(T ) = 2.35584 , τ (T ) = −0.49292 . Umskalierung F¨ ur das numerische Verfahren m¨ ussen v und r umskaliert und damit an die Winkelgr¨oßen angepasst werden: v = 105 v , E . h) , RE = 105 R r = 105 rE (1 +
4.5 Zum Re-Entry Problem Geschwindigkeit (km/s)
237
Flugwinkel (rad)
7 0 6 5
−0.1
4
−0.2
3 −0.3
2 1
−0.4 0
200
400
600
800
1000
0
200
Hoehe (km)
400
600
800
1000
Kontrolle (rad)
80
2 1.5
70
1 60
0.5 0
50
−0.5 40
−1 −1.5
30 0
200
400
600
800
1000
0
200
400
600
800
1000
Abb. 4.15. Diagr. 1 f¨ ur X-38 ohne Restriktionen χ (rad)
λ (rad)
τ (rad)
2
−0.4
2.8
1.9
−0.42
2.6
1.8
−0.44
1.7
−0.46
1.6
−0.48
1.5
−0.5
1.4
−0.52
1.3
−0.54
1.2
−0.56
2.4
2.2
2
1.8
1.1
0
200
400
600
800
1000
1200
1.6
1.4
0
200
400
600
800
1000
1200
0
200
400
600
800
1000
1200
Abb. 4.16. Diagr. 2 f¨ ur X-38 ohne Restriktionen
Unter der Restriktion γ ≤ 0 verschwindet der charakteristische Schaukelflug und die H¨ ohe nimmt monoton ab.
Geschwindigkeit (105 km/s)
Flugwinkel (rad) 0.04
0.02 0.105
0
−0.02 0.1 −0.04
0.095
−0.06
−0.08 0.09 −0.1
−0.12
0.085
−0.14 0
50
100
150
200
0
50
100
Abb. 4.17. Diagr. 1 f¨ ur Apollo, SI-Einheiten
150
200
238
4 Wackeln mit System Hoehe (105 km)
Kontrolle (rad)
1.2 1.5 1.1 1 1 0.5 0.9 0 0.8 −0.5 0.7 −1 0.6 −1.5 0
50
100
150
200
0
50
100
150
200
Abb. 4.18. Diagr. 2 f¨ ur Apollo, SI-Einheiten
Ausf¨ uhrliche Dokumentation in KAPITEL04\BEISPIELE\bsp10\bsp11. Literatur: [Stoer]; GESOP Software User Manual. Institut f¨ ur Flugmechanik und Flugregelung, Universit¨ at Stuttgart, Febr. 2004.
R 4.6 Hinweise zu den MATLAB -Programmen
Kapitel IV/CONTROL01, Kontrollproblem mit seq. quadrat. Optimierung Es wird das Verfahren sqp.m aus KAPITEL03/SECTION_5 verwendet demo1.m Masterfile mit sqp.m, Beispiele 1--9 demo3.m Reentry-Problem, Stoer, S. 491, US-Einheiten, SI-Einheiten demo4.m Raumgleiter X-38 ohne Restriktionen demo5.m Raumgleiter X-38 mit Vorzeichenbeschraenkung des Angriffswinkels GAMMA Kapitel IV/CONTROL02, Kontrollprobleme als Randwertprobleme box.m Box-Schema fuer NEWTON-Verfahren bsp01.m Thrust-Problem, Kontrolle wird eliminiert bsp02.m Orbit-Problem, Kontrolle wird eliminiert bsp03.m Zermelosches Problem, Kozustand wird eliminiert demo.m Masterfile fuer NEWTON-Verfahren newton.m Globalisiertes NEWTON-Verfahren Kapitel IV/CONTROL03, Kontrollprobleme mit Gradientenverfahren demo1.m Einfaches Beispiel aus Dyer-McReynolds, S. 127 demo2.m Brachistochrone, Dyer-McReynolds, S. 128 demo3.m Orbitproblem, Bryson-Ho, S. 66, Dyer-McReynolds, S. 73 demo4a.m Thrust-Problem Bryson-Ho, \S 2.4, Starttrajektorie demo4b.m Thrust-Problem Bryson-Ho, \S 2.4, Loesung grad01.m -- grad04.m Gradientenverfahren
5 Der Weg als Ziel
Jeder weiß, dass die implizit gegebene Kurve F (x, y) = y − x2 = 0 explizit als eine Funktion dargestellt werden kann, wenn x der Kurvenparameter ist, aber nicht wenn y als Kurvenparameter gew¨ahlt wird. Bei der numerischen Pfadverfolgung soll die richtige Wahl des aktuellen Kurvenparameters so geregelt werden, dass – wie hier – auftretende Wendepunkte problemlos durchlaufen werden. Ganz anders gelagert ist die Problemstellung bei den implizit gegebenen Kurven F (x, y) = x y = 0, wo sich die beiden L¨osungszweige x = 0 und y = 0 im Ursprung schneiden. Verfolgt man eine der beiden Kurven, so ben¨ otigt man in diesem Verzweigungspunkt ein Kriterium f¨ ur die Entscheidung, in welcher Richtung es weitergehen soll. In diesem Fall sollen numerische Verfahren die Ausnahmepunkte aufsp¨ uren und sie nach Wahl einer neuen Richtung u ¨berwinden. ur alle λ ∈ R Ist A ∈ Rn n , dann hat das System F (λ, x) := Ax − λ x = 0 f¨ die L¨ osung x = 0 ∈ Rn , aber an gewissen isolierten Stellen auf der λ-Achse – den Eigenwerten von A – existieren neben der trivialen gleichzeitig eine oder mehrere nichttriviale L¨ osungen – die Eigenvektoren zum Eigenwert λ ; es ist also nicht jedes in der Natur auftretende Ph¨anomen stetig. Die Untersuchung entsprechender Situationen bei nichtlinearen Systemen F (λ, x) = 0 ist Gegenstand der Verzweigungs- oder Bifurkationstheorie. Neben der Fortsetzung im zweiten Teil ist das Kapitel der theoretischen Untersuchung von Verzweigungspunkten und Verzweigungsl¨osungen gewidmet sowie ihrer numerischen Berechnung. Wir beschr¨anken uns auf einige exemplarische F¨ alle, die f¨ ur die Praxis relevant sind und an denen die Problematik ausreichend studiert werden kann. Bei Verzweigungen gehen wir zun¨achst vom geometrischen Sachverhalt aus und leiten notwendige Bedingungen f¨ ur die Existenz von singul¨ aren Punkten her, die im Regelfall auch hinreichend sind und im konkreten Fall am besten numerisch auf ihre Hinl¨anglichkeit getestet werden. Als Vorbereitung zur numerischen Approximation wird dann eine Skalierung eingef¨ uhrt, die im Wesentlichen auf [Keller72] zur¨ uckgeht und
E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 5, c Springer-Verlag Berlin Heidelberg 2010
240
5 Der Weg als Ziel
mit deren Hilfe man die Problemstellung wieder auf den Satz u ¨ber Implizite Funktionen zur¨ uckf¨ uhren kann. Etwa die Hopf-Verzweigung bei periodischen Problemen demonstriert in eindrucksvoller Weise, wie die Verzweigungstheorie neue L¨osungen liefert, die unter den u ¨blichen Existenz-Eindeutigkeits-Voraussetzungen “terra incognita” bleiben; vgl. z.B. [Kirchgaessner], [Gekeler89]. In anderen F¨allen sind die Ergebnisse im Vergleich zum linearisierten Problem weniger spektakul¨ar, wenn etwa die L¨ osung stark restriktiven Randbedingungen unterliegt. Die numerische Approximation startet ebenfalls im Verzweigungspunkt und soll von ihm weg in nichtriviale Bereiche f¨ uhren, sie soll sozusagen den Keim f¨ ur eine nachfolgende Fortsetzung bilden. Ihrem unwiderstehlicher Drang in die triviale L¨ osung zur¨ uckzukehren muss durch besondere Kunstgriffe begegnet werden. Wie bei jeder mathematischen Aufgabenstellung ist auch hier anzuraten, zuerst das analytische Problem eingehend zu studieren und dann erst zu diskretisieren, weil die Singularit¨ aten durch die numerische Approximation oft verf¨ alscht oder gar zerst¨ ort werden, wenn man nicht besondere Sorgfalt walten l¨ asst. Um die Anwendung auf Differentialsysteme offenzuhalten, werden die nachfolgenden Untersuchungen in Banach-R¨aumen durchgef¨ uhrt, es seien also im ganzen Kapitel X , Y Banach-R¨ aume und Xd , Yd ihre Dualr¨aume; i.d.R. gilt auch X ⊂ Y also Yd ⊂ Xd . ¨ F¨ ur die Darstellung wie auch f¨ ur die Uberpr¨ ufung der Formeln im Rn und f¨ ur die Implementierung erweist es sich als vorteilhaft, wenn konsequent die Elemente eines Primalraums als formale Spaltenvektoren und die Elemente des Dualraums als formale Zeilenvektoren aufgefasst werden, die duale Paaasst sich dann formal als v u schreiben. Ist X rung v, u!, v ∈ Xd , u ∈ X l¨ ein Hilbert-Raum, dann ist u, v! das kanonische Skalarprodukt und ist X der Koordinatenraum Rn der Spaltenvektoren, dann ist der Dualraum Xd der Koordinatenraum Rn der Zeilenvektoren, und die duale Paarung wird ein Matlab-gerechtes Skalarprodukt, n¨ amlich ein spezielles Matrizenprodukt. Zur besseren Unterscheidung werden schr¨ age Klammern auch teilweise f¨ ur die Anwendung eines linearen oder multilinearen Operators auf sein oder seine ur A ∈ Rn n . Argumente verwendet, also A x! = Ax und A x, y! = xT Ay f¨
5.1 Verzweigungsprobleme
241
5.1 Verzweigungsprobleme F¨ ur hier nicht angegebene Bezeichnungen wird auf § 1.9 verwiesen; siehe auch § 1.1(e). (a) Fredholm-Operatoren sind die problemgerechte Verallgemeinerung von endlichdimensionalen linearen Operatoren auf unendlichdimensionale Funktionenr¨ aume, weil ihre Eigenr¨ aume weiterhin endlich bleiben. Mit den Bezeichnungen aus der Einleitung zu diesem Kapitel sei L : X → Y ein linearer beschr¨ ankter (also stetiger) Operator, kurz L ∈ L(X , Y) . Der adjungierte Operator Ld : Yd → Xd ist dann definiert durch ∀ u ∈ X ∀ v ∈ Yd : Ld v, u!X = v, Lu!Y , vgl. § 1.9. Definition 5.1. (1◦ ) Ein Operator L ∈ L(X , Y) heißt Fredholm-Operator, wenn gilt Range L ist abgeschlossen , dim Ker L < ∞ , codim Range L < ∞ . ( codim Range L := dim(Y\ Range L) ). (2◦ ) Die ganze Zahl ind L := dim Ker L − codim Range L ∈ Z heißt Index von L . Eigenschaften (1◦ ) Es sei L ∈ Rm n eine Matrix mit Rang p (Zeilenrang = Spaltenrang), dann ist dim Ker L = n − p , dim Range L = p codim Range L = m − p , ind L = n − m. (2◦ ) Wenn L ein Fredholm-Operator ist, dann ist der adjungierte Operator Ld : Yd → Xd ebenfalls ein Fredholm-Operator, und es gilt ind Ld = − ind L nach Satz 1.19. (3◦ ) Ein symmetrischer Fredholm-Operator hat immer den Index Null, vgl. § 1.11. ur einen Fredholm-Operator gilt nach Definition die Fredholmsche (4◦ ) F¨ Alternative Range L = [Ker Ld ]⊥ , wobei das Zeichen ⊥“ im hier im Sinne der dualen Paarung von Banach” R¨ aumen zu verstehen ist. (5◦ ) Die Voraussetzung Range L abgeschlossen“ kann in der obigen Defini” tion weggelassen werden, weil sie aus den anderen Eigenschaften folgt, [Hirzebruch] Lemma 25.7.
242
5 Der Weg als Ziel
Es sei nun span{u1 , . . . , uα } der von den linear unabh¨ angigen Vektoren u1 , . . . , uα aufgespannte Vektorraum. In diesem Kapitel verwenden wir – ohne sp¨ater extra darauf hinzuweisen – f¨ ur den Fredhom-Operator L die folgenden Bezeichnungen: dim Ker L = α , Ker L = span{u1 , . . . , uα } ⊂ X dim Ker Ld = β , Ker Ld = span{v 1 , . . . , v β } ⊂ Yd
.
(5.1)
Wenn L ∈ Rn n eine quadratische Matrix ist, dann sind nat¨ urlich ui die Rechtsund v j die Linkseigenvektoren zum Eigenwert Null, wobei ein Rechtseigenvektor ein Spaltenvektor ist, u ∈ Rn , und ein Linkseigenvektor ein Zeilenvektor ist, v ∈ Rn . In passender Verallgemeinerung schreiben wir alle Elemente des Dualraums als formale Linksvektoren, z.B. vLd anstatt Ld v . Wenn z.B. L := A ∈ Rm n eine Matrix ist, dann gilt unter Verwendung des Skalarprodukts (u, v) = uT v, Ld = AT , (AT v, u) = (v, Au) , Au : v → (v, Au) , vAT : u → (AT v, u) dagegen ist ohne Skalarprodukt Ld die gleiche Matrix A mit Linksmultiplikation, Ld : v → vA ∈ Rn . Unter Beachtung von (5.1) f¨ uhren wir weiter die folgenden Bezeichungen ein: U Ud
:= [u1 , . . . , uα ] , ui ∈ X Matrix mit formalen Spaltenvektoren := [ui ]α ui ∈ Xd Dualbasis von U mit U d U = I ∈ Rα α i=1 , Matrix mit formalen Zeilenvektoren
:= [v k ]βk=1 , v k ∈ Yd Matrix mit formalen Zeilenvektoren := [v1 , . . . , vβ ] , vk ∈ Y Dualbasis von V d mit V d V = I ∈ Rβ β Matrix mit formalen Spaltenvektoren UUd Projektor mit Range U U d = Ker L VVd Projektor mit Ker V V d = Range L Vd V
(5.2) (I Einheitsmatrix oder Einheitsoperator). Nach Definition des adjungierten Operators verm¨ oge vLd , u! = v, Lu! gilt dann ∀ u ∈ X ∀ v ∈ Ker Ld : 0 = vLd , u! = v, Lu! =⇒ ∀ v ∈ Ker Ld : vL = 0 , ∀ v ∈ Yd ∀ u ∈ Ker L : 0 = v, Lu! = vLd , u! =⇒ ∀ u ∈ Ker L : Ld u = 0 , also V d Ld = 0 =⇒ V d L = 0 , LU = 0 =⇒ Ld U = 0 . Dabei sind vL : u → v, Lu! und Ld u : v → vLd , u! als Abbildungen zu verstehen. F¨ ur Matrizen L := A ∈ Rm n ist ebenfalls Ld = A nach der oben vereinbarten Schreibweise, und die Aussagen sind trivial.
5.1 Verzweigungsprobleme
243
Weitere formale Rechenregeln (real im Koordinatenraum Rn ): ξ ∈ Rα ζ ∈ Rβ x ∈ Xd y∈Y x∈X y∈Y
=⇒ U ξ = u1 ξ 1 + . . . + uν ξ α =⇒ ζV = ζ1 v 1 + . . . + ζμ v β =⇒ xU = [ x, u1 !, . . . , x, uα !] =⇒ V y = [ v 1 , y!, . . . , v β , y!]T d =⇒ U U x = u1 u1 , x! + . . . + uν uα , x! =⇒ V V d y = v1 v 1 , y! + . . . + vμ xβ , y!
∈X ∈ Yd ∈ Rα ∈ Rβ ∈ Ker L ⊂ X ∈Y.
Die wichtigsten Eigenschaften eines Fredholm-Operators beschreibt der folgende Satz: Satz 5.1. Es sei L ∈ L(X , Y) ein Fredholm-Operator. (1◦ ) codim Range L = dim Ker Ld , codim Range Ld = dim Ker L . (2◦ ) Die Projektoren P := U U d ∈ L(X , X ) und Q =: V V d ∈ L(Y, Y) sind stetig, und es gilt Range L = Ker Q, Ker L = Range P .
(5.3)
Beweis. (1◦ ) folgt direkt aus dem Range Theorem“ 1.19(5◦ ). ” (2◦ ) Die Operatoren P und Q sind stetig, weil ihre Wertebereiche endlichdimensional sind, genauer gilt Pw =
α i=1
ui ui , w!X ∈ X , Qw =
β
vi v i , w!Y ∈ Y .
i=1
Die erste Gleichung in (5.3) folgt direkt aus der Definition von P , und die zweite folgt wieder aus dem Range Theorem“ Satz 1.19. ” Gem¨ aß (5.3) und der Zerlegung (1.53), X = Range P ⊕ Ker P , f¨ uhren wir nun die folgende fundamentale Zerlegung ein: X = Range P ⊕ Ker P = Ker L ⊕ Ker P Y = Range Q ⊕ Ker Q = Range Q ⊕ Range L
,
(5.4)
beide sind eindeutig, weil alle Unterr¨ aume abgeschlossen sind; der Unterraum Q mit der endlichen Dimension β wird manchmal auch Corange von L genannt. F¨ ur L ∈ L(X , Y) mit Eigenwert μ ist jeder Unterraum Ker(L − μI)m , m ∈ N , trivialerweise im n¨ achsten enthalten bis zu einer gewissen Zahl m = p , von der ab alle gleich sind; diese Zahl p heißt Riesz-Index von μ . Die Dimension von ur eine Ker(L − μI)p ist die Vielfachheit des Eigenwerts. Sie stimmt offenbar f¨ Matrix L ∈ Rn n mit der algebraischen Vielfachheit des Eigenwerts als Nullstelle des charakteristischen Polynoms u ¨berein, und p ist dann die maximale
244
5 Der Weg als Ziel
L¨ange der auftretenden Hauptvektorketten. Bei symmetrischen Operatoren und diagonalisierbaren Matrizen ist stets p = 1 . Allgemein heißt ein Eigenwert mit p = 1 halbeinfach, seine algebraische und geometrische Vielfachheit stimmen dann u ¨berein, und es gibt keine Hauptvektoren zu diesem Eigenwert. Das folgende Lemma gibt Auskunft u ¨ber die Eigenr¨aume zum Eigenwert Null eines Fredholm-Operators (Nullr¨ aume): Lemma 5.1. Es sei X ⊆ Y und L ∈ L(X , Y) ein Fredholm-Operator mit Index Null und dim Ker L > 0 . aquivalent: (1◦ ) . Die folgenden Aussagen sind ¨ (i) Null ist halbeinfacher Eigenwert von L . are Mattrix. (ii) V d U ∈ Rα α ist eine regul¨ (iii) Range L ∩ Ker L = {0} . (2◦ ) Wenn Null halbeinfacher Eigenwert von L ist, dann ist wegen X ⊆ Y o.B. P = Q in (5.4) und damit Y = Range L ⊕ Ker L . Beweis. (1◦ )(a) F¨ ur gewisse Vektoren u und v gelte Lu = 0 und Lv = u, dann hat der Eigenwert Null den Riesz-Index p > 1 wegen L2 v = 0 und Lv = 0 . Nach dem Range Theorem“ gilt aber V d u = 0 , daher ist V d U singul¨ar. Wenn ” ar ist, kann eine solche Situation nicht auftreten, daher umgekehrt V d U regul¨ sind (i) und (ii) ¨ aquivalent. (1◦ )(b) Range L ∩ Ker L = {0} ⇐⇒ ∃ u ∈ Ker L ∃ w ∈ X : Lw = u ⇐⇒ V du = 0 . ¨ ar, dann gilt C −1 V d U = I und der Ubergang von V d (2◦ ) Sei V d U = C regul¨ −1 d zu C V bedeutet nur einen Basiswechsel von Ker Ld . Wir k¨onnen daher ugt aber V d den Voraussetzungen o.B. voraussetzen, dass V d U = I . Dann gen¨ d u ugt den Voraussetzungen u ¨ber U und U gen¨ ¨ber V nach Definition, daher gilt o.B. P = U V d und Q = U V d . Dann ist Y = Range L ⊕ Ker L nach (5.4). Die formalen Matrizen U d und V sind bez. U and V d nicht eindeutig bestimmt. V d kann die Rolle von U d spielen, aber U d kann die Rolle von V d nur bei selbstadjungierten Operatoren L u ¨bernehmen (Linkseigenvektoren sind transponierte Rechtseigenvektoren nur bei symmetrischen Matrizen). (b) Problemstellung Nach dem Umkehrsatz 1.22 ist eine Abbildung F : ahe eines Punktes x0 invertierbar, wenn grad F (x0 ) eine Rn → Rn in der N¨ regul¨ are Matrix ist, also det grad F (x0 ) = 0 gilt. Diese Situation darf als Normalfall betrachtet werden, weil z.B. gleichverteilte Zufallsvariable fast niemals den Wert Null annehmen. Ein Punkt x0 mit det grad F (x0 ) = 0 heißt daher zu Recht singul¨ arer oder kritischer Punkt von F . W¨ahrend regul¨are Punkte differentialtopologisch relativ uninteressant sind nach § 1.6 (c), ergeben sich ¨ an kritischen Punkten i.d.R. dramatische Anderungen, wie schon die ¨ahnlich gelagerten Beispiele aus § 1.6 in anschaulicher Weise zeigen. Wenn wir das Reich der eindeutigen Existenz verlassen, muss zun¨achst die geometrische Situation eingehend untersucht werden. In der Ljapunov-Schmidt-Reduktion
5.1 Verzweigungsprobleme
245
wird aus dem urspr¨ unglichen Problem ein kleineres Problem herausdestilliert, das sogar endlichdimensional ist und das Verhalten der L¨osung(en) im singul¨ aren Punkt vollst¨ andig beschreibt. Falls eine L¨osung dieser Bifurkationsgleichung existiert, kann das System soweit reduziert werden, dass wieder der Satz u ¨ber implizite Funktionen angewendet werden kann. Es sei F : R × X (μ, x) → F (μ, x) ∈ Y eine hinreichend glatte Abbildung. In diesem Abschnitt betrachten wir nur den Fall, dass F stets die triviale L¨ osung F (μ, 0) = 0 hat und o.B. soll der Ursprung (μ, 0) = (0, 0) der m¨ogliche Verzweigungspunkt sein. Wir schreiben kurz 0 = ∇x Fμ (0, 0) L := Fx0 = ∇x F (0, 0) , Fμ0 = Fμ (0, 0) , B := Fx,μ
usw. und betrachten in lokaler Formulierung mit Landauscher Symbolik das System F (μ, x) = Lx + μBx + f (μ, x) = 0 , f (μ, x) = o(x) oder etwas k¨ urzer F (μ, x) = Lx + f (μ, x) = 0 , f (μ, x) = o(x + |μ|) ;
(5.5)
in der Funktion f sind dann jeweils die Terme h¨oherer Ordnung zusammengefasst. Nach dem Satz u ¨ber implizite Funktionen hat (5.5) nur die triviale L¨osung, wenn L : x → Range L invertierbar ist. Es sei nun L singul¨ar, also dim Ker L > 0 , und es sei μ → x(μ) eine nichttriviale L¨ osung durch den Ursprung, d.h. F (μ, x(μ)) = 0 und F (0, x(0)) = F (0, 0) = 0 . Dann gehen zwei L¨osungen durch diesen Punkt. Durch Ableiten nach μ folgt Fμ0 + Lx (0) = 0 , aber f¨ ur alle k ∈ N gilt (∂ k F/∂μk )(μ, 0) = 0 , daher ist Lx (0) = 0 und x (0) muss Eigenvektor zum Eigenwert Null des Operators L sein. Bei allgemeineren Verzweigungsproblemen ist nicht mehr notwendig Fμ0 = 0 dann ist 0 = Fμ0 ∈ Range L eine notwendige Verzweigungbedingung. (c) Ljapunov-Schmidt-Reduktion Ist L in (5.5) ein Fredholm-Operator, dann kann die Abbildung F und ihr Argument x mit Hilfe der beiden Projektoren aus Satz 5.1 jeweils in zwei Teile zerlegt werden: x = P x + (I − P )x und F = QF + (I − Q)F . Aus der Zerlegung (5.4) der R¨aume X und Y folgt dann u := P x ∈ Ker L , w := (I − P )x ∈ Ker P QF ( · , u + w) ∈ Range Q , (I − Q)F ( · , u + w) ∈ Range L
.
(5.6)
An Stelle der Gleichung F = 0 untersuchen wir die beiden Teilgleichungen QF = 0 und (I − Q)F = 0 , und setzen die Zerlegung von x ein. Die Operatorgleichung (I − Q)F (μ, u + w) = Lw + (I − Q)f (μ, u + w) = 0
(5.7)
246
5 Der Weg als Ziel
hat immer eine eindeutige L¨ osung w∗ : (μ, u) → w∗ (μ, u) in Ker P f¨ ur hinreichend kleines |μ| , weil (I − Q)f (μ, u + w) ∈ Range L und weil die Einschr¨ ankung von L auf L0 ∈ L(Ker P, Range L) trivialerweise injektiv und surjektiv ist. Dar¨ uberhinaus erf¨ ullt w → L0 −1 (I − Q)f (μ, u + w) die Voraussetzungen des Kontraktionssatzes in der N¨ ahe von (μ, u) = (0, 0) z.B. nach [Stakgold], p. 310, und w∗ ist so glatt wie F . Einsetzen von w∗ in die Gleichung QF (μ, u + w) = 0 ergibt die lokale Bifurkationsgleichung G(μ, u) := QF (μ, u + w∗ (μ, u)) = Qf (μ, u + w∗ (μ, u)) = 0 .
(5.8)
Diese Gleichung f¨ ur den verbleibenden Teil u ∈ Ker L des Arguments x von F hat nicht notwendigerweise eine nichttriviale L¨osung, aber jede lokale L¨ osung von F (μ, x) = 0 entspricht eindeutig einer L¨osung (μ, u) von (5.8), auch wenn die letztere keine isolierte L¨ osung der Bifurkationsgleichung ist. ¨ Diese Aquivalenz bildet die Grundlage f¨ ur viele Ergebnisse der Bifurkationstheorie, einerseits was die Existenz von L¨ osungen betrifft aber auch f¨ ur deren numerische Approximation in §§ 5.4 – 5.6 . Mit den obigen Bezeichnungen gilt Q = V V d , V d L = 0 , und u = U ζ , ζ ∈ Rα , ussen f¨ ur u ∈ Ker L . Die formalen Matrizen U und V d aus (5.1) und (5.2) m¨ zun¨ achst berechnet werden, dann werden in leichter Ab¨anderung zu (5.8) und (5.7) die beiden Systeme V d f (μ, U ζ + w) = 0 ∈ Rβ , Lw + f (μ, U ζ + w) = 0 ∈ Y , U d w = 0 f¨ ur ζ und f¨ ur w als Funktion von μ gel¨ ost. Nach dem Range Theorem“ stellt ” die erste Gleichung eine Konsistenzbedingung f¨ ur die zweite dar. Die leicht modifizierte Bifurkationsgleichung ist jetzt endlichdimensional u ¨ber dem endlichen Koordinatenraum Rα+|μ| ! (d) Die Bifurkationsgleichung (d1) Ungl¨ ucklicherweise l¨ asst sich nur wenig u ¨ber die Funktion w∗ aussagen. Sei H(μ, u) := (I − Q)F (μ, u + w∗ (μ, u)) = 0 , u ∈ Ker L , w∗ ∈ Ker P die Operatorgleichung in einem allgemeinen Verzweigungspunkt (μ0 , x0 ) . ur ein Inkrement h ∈ Ker L und folglich Dann gilt wu∗ 0 h ∈ Ker P f¨ ∂H((μ0 , x0 ); (0, h)) = (I − Q)L(h + wu∗ 0 h) = 0 wegen L = Fx0 . Es gilt aber Lh = 0 und der Operator (I − Q)L ist bijektiv auf Ker P , daher muss wu∗ 0 = 0 sein. Ableiten nach μ ergibt Hμ0 = (I − Q)(Fμ0 + Fx0 wμ∗ 0 ) = (I − Q)Fμ0 + Lwμ∗ 0 mit der eindeutigen L¨ osung wμ∗ 0 ∈ Ker P . In einem allgemeinen Verzweigungs0 punkt ist 0 = Fμ ∈ Range L und daher wμ∗ 0 nicht notwendig Null, aber wμ∗ 0
5.1 Verzweigungsprobleme
247
ist Null, wenn F (μ, 0) = 0 also Fμ0 = 0 und ebenso wenn z.B. F ungerade ist, −F (μ, x) = F (μ, −x) . (d2) Im urspr¨ unglichen Problem mit Abzweigung von der trivialen L¨osung war F (μ, 0) = 0 und (0, 0) war der Verzweigungspunkt. Dann ist nach (5.8) G0u = Qfx0 + Qfx0 wu∗ 0 = 0 , G0μ = Qfμ0 + Qfx0 wμ∗ 0 = 0
(5.9)
wegen fx0 = 0 in (5.5) und der Definition von L . Deswegen kann der Satz u ¨ber implizite Funktionen nicht direkt angewendet werden, um die Bifurkationsgleichung zu l¨ osen weder f¨ ur μ als Funktion von ζ noch f¨ ur den umgekehrten Fall ζ als Funktion von μ . Daher wird h¨ aufig ein neuer Kurvenparameter ε eingef¨ uhrt und nichttriviale L¨ osungen von (5.9) in der Form (μ(ε), ζ(ε)) berechnet, vgl. § 5.2. Nach (5.8) und (5.9) hat eine Taylor-Entwicklung von G die Form
T 1 μ 2 μ i G (μ, ζ) = ∇[μ,ζ] G (0, 0) + O(|[μ, ζ]|3 ) , i = 1 : β . ζ ζ 2 i
(5.10)
Mit Hilfe der Ergebnisse aus (d1) lassen sich die zweiten partiellen Ableitung in dieser Entwicklung berechnen: 0 ∗0 U + wu∗0 U !, U + wu∗0 U !! + v i Fx0 wuu U, U !! Giζ ζ 0 = v i Fxx 0 ∗0 U, U ! + v i Fx0 wuu U, U !! = v i Fxx 0 0 0 ∗0 G0μ μ = v i [Fμμ + 2Fxμ wμ∗0 + Fxx wμ∗ 0 wμ∗0 ] + v i Fx0 wμμ 0 0 G0μ ζ = v i [Fμx U ! + Fμx wu∗0 U !!] 0 0 ∗0 U, wμ∗0 ! + Fxx wu∗0 U !, wμ∗0 ! + Fx0 wμu U !!] , + v i [Fxx i,0 i 0 i 0 dabei ist Gi,0 ζ ζ ζ, ζ! = v Fxx U ζ, U ζ! ∈ R und Gμ ζ μ, ζ! = v Fμx μ, U ζ! ∈ R . ∗0 Wenn wir hier wμ = 0 voraussetzen, folgt
# ∇2[μ,ζ] Gi,0
=
i,0 Gi,0 μμ Gμζ
$
i,0 Gi,0 ζμ Gζζ
0 v i Fμx U = i 0 T i 0 [v Fμx U ] v Fxx U, U !
O
, i=1:β.
(5.11)
Diese Darstellung bleibt im Wesentlichen die gleiche, wenn μ kein Skalar mehr ist sondern ein Parametervektor mit mehreren Komponenten. (d3) Es sei X ⊆ Y , und es sei L ein Fredholm-Operator mit Eigenwert Null und zus¨ atzlich sei der Index von L Null. Dann betrachten wir das System F (μ, x) = Lx + μBx + C x, x! + h.o.t. = 0 0 0 mit B = Fμx und C = Fxx .
(5.12)
248
5 Der Weg als Ziel
1. Fall: dim Ker L = 1 , d.h. α = β = 1 . F¨ ur ζ = ξμ hat (5.10) nach Division durch μ2 die Form μ−2 G1 (μ, ζ) = a ξ + b ξ 2 + h.o.t. in μ and ξ = 0 , 0 0 u1 = v 1 Bu1 , b = v 1 Fxx u1 , u1 !/2 = v 1 C u1 , u1 ! . a = v 1 Fμx Wenn a und b beide von Null verschieden sind, existiert eine isolierte nichttriviale L¨ osung ξ0 = −a/b von aξ + bξ 2 = 0 , daher existiert auch eine L¨osung ζ(μ) = μξ(μ) mit dem Kurvenparameter μ , und es gilt ζ(0) = 0 . 2. Fall: dim Ker L = 2 , d.h. α = β = 2 . F¨ ur ζ = ξμ ∈ R2 folgen jetzt nach Division durch μ2 zwei Gleichungen μ−2 G(μ, ζ) = Q(ξ) + h.o.t. in μ and ξ = 0 ∈R2 v1 (5.13) Q(ξ) = V d B U ξ! + V d C U ξ, U ξ! , V d = 2 . v ar und die beiden Lemma 5.2. [McLeod]. Es sei die Matrix V d BU ∈ R2 2 regul¨ quadratischen Formen in V d C U ξ, U ξ! haben keinen gemeinsamen (reellen) Faktor (insbesondere verschwindet keine von beiden identisch). Dann ergibt arem gradξ Q(ξ 0 ) eine nichttrijede L¨ osung ξ 0 von Q(ξ) = 0 ∈ R2 mit regul¨ vialen L¨ osungszweig x(μ) = μ(u1 ξ1 (μ) + u2 ξ2 (μ)) + μ2 w(μ) , ξ1 (0) = ξ10 , ξ2 (0) = ξ20 , U d w(μ) = 0 . Außerdem liegt jede L¨ osung von (5.12) in der N¨ ahe von (μ, u) = (0, 0) auf einem dieser Zweige. F¨ ur L¨ osungen der quadratischen Form Q verweisen wir auf das Beispiel 5.1 weiter unten. 3. Fall: Das Berechnen von h¨ oherdimensionalen L¨osungsmannigfaltigkeiten der Bifurkationsgleichung ist ein schwieriges Unterfangen [Keener74], aber man kann wenigsten nach m¨ oglichen L¨ osungskurven suchen. Es sei μ = (μ1 , μ2 ) ein zweidimensionaler Parametervektor, ferner sei z.B. ζ0 ∈ R2 beliebig mit |ζ0 | = 1 und ζ = ζ0 ε . Nach Division durch ε erhalten wir das System (5.14) ε−1 G(μ, ζ) = Aμ + ε c + h.o.t. in μ and ε = 0 ,
1 0
0 v F U ζ0 ! v 1 Fμ02 x U ζ0 ! U ζ0 , U ζ0 ! 2−1 v 1 Fxx A = 2 μ01 x . , c = −1 2 0 U ζ0 , U ζ0 ! 2 v Fxx v Fμ1 x U ζ0 ! v 2 Fμ02 x U ζ0 ! Wenn A regul¨ ar ist, existiert eine nichttriviale und lokal eindeutige L¨osung [μ1 , μ2 , ζ] mit dem neuen Kurvenparameter ε . Beispiel 5.1. (1◦ ) Gegeben sei das quadratische Bifurkationsproblem
T x Px F (μ, x) = μx + C x, x! = 0 ∈ R2 , C x, x! = T x Qx
5.1 Verzweigungsprobleme
249
mit Verzweigungspunkt (0, 0) . Die beiden Matrizen P, Q ∈ R2 2 seien von Null verschieden ohne gemeinsamen Faktor: ∀ α ∈ R : P = αQ . Sie k¨onnen o.B. beide als symmetrisch vorausgesetzt werden. Die Bifurkationsgleichung ist hier F (μ, x) = 0 selbst wegen Fx0 = 0 ∈ R2 2 . Wenn F (μ, x) = μBx + C x, x! ar ist, setzen wir x = B −1 y und betrachten das System und B ∈ R2 2 regul¨ −1 μx + B C x, x! = 0 . Nach Einsetzen von x = μζ und Division durch μ2 m¨ ussen die Schnittpunkte der beiden quadratischen Formen F (1, ζ) = 0 berechnet werden. Nach kurzer Rechnung ergibt sich die notwendige Bedingung ur ζ1 = 0 und y = ζ2 /ζ1 folgt z.B. P ζ, ζ!ζ2 − Q ζ, ζ!ζ1 = 0 . F¨ p22 y 3 + (2p12 − q22 )y 2 + (p11 − 2q12 )y − q11 = 0 Dieses Polynom vom Grad 3 hat f¨ ur p22 = 0 eine oder drei reelle Wurzeln αi , ur q11 = 0 ; ferner ist und es ist α1 = 0 f¨ −1 . ζ1 = − p11 + 2p12 α + p22 α2 Ein a ur q22 = 0 und x2 = 0 . Ohne weitere Voraus¨hnliches Ergebnis folgt f¨ setzungen u ber P und Q kann das System F (1, ζ) = 0 N ∈ {0, . . . , 3} reelle ¨ L¨ osungen 0 = ζ ∈ R2 haben (Abb. 5.1). Zum Beispiel sei in R -Schreibweise MATLAB P P P P
= [0, 1; 1, 0] , = [1, 0; 0, 1] , = [0, −1; −1, 0] , = [3, 0; 0, 1] ,
1.5
Q = [−1, 1; 1, 0] Q = [−1, 1; 1, 0] Q = [−1, 1; 1, 0] Q = [1/2, 0; 0, 4]
2
=⇒ =⇒ =⇒ =⇒
N N N N
=0 =1 =2 = 3.
0.5
0.4
1.5 1
0.3 1 0.2 0.5 0.5
0
0.1
0
0
−0.1
−0.5 −0.5
−0.2 −1 −0.3 −1 −1.5
−1.5 −1.5
−1
−0.5
0
0.5
1
1.5
−2 −2
−0.4
−1.5
−1
−0.5
0
0.5
1
1.5
2
−0.5 −0.5
−0.4
−0.3
−0.2
−0.1
0
0.1
0.2
0.3
0.4
0.5
Abb. 5.1. Beispiel 5.1, N = 1,2,3
Alle L¨ osungen von F (μ, x) = 0 sind hier Geraden μ → (μζ1 , μζ2 ) ; vgl. auch KAPITEL05\BIFURKATION\demo_quad.m . x1 , . . . , xq ! eine q-lineare Abbildung und kurz (2◦ ) Es sei B Bq x! = B x, . . . , x! , dann gilt Bq γx! = γ q Bq x! . Gegeben sei das Problem F (μ, x) = μx + Cr x! = 0 ∈ Rα , |x| = 1
(5.15)
250
5 Der Weg als Ziel
f¨ ur ungerades α und r ≥ 2 . Sei ferner Cr x! = 0 f¨ ur |x| = 1 . Dann hat F (μ, x) = 0 mindestens eine L¨ osung mit μ = 0 nach einem bekannten Ergebnis aus der Theorie des topologischen Abbildungsgrades ( jeder stetig gek¨ ammte ” Igel hat eine Glatzpunkt“); vgl. [Birkhoff]. Im anderen Fall gibt es nat¨ urlich eine L¨ osung mit |x| = 1 und μ = 0 . Außerdem gibt es mindestens eine weitere L¨ osung (μ, −x) f¨ ur ungerades r bzw. (−μ, −x) f¨ ur gerades r. (e) Zwei weitere Ergebnisse Das folgende Resultat ben¨ utzt nicht die Ljapunov-Schmidt-Reduktion sondern wieder die Theorie des topologischen Abbildungsgrades. Satz 5.2. (Leray-Schauder). Es sei L ∈ L(X , Y) ein Fredholm-Operator mit Index Null, und es sei μ0 = 0 ein reller Eigenwert von L mit ungerader Vielfachheit. Dann hat das System F (μ, x) = Lx − μ x + f (μ, x) , f (μ, x) = o(x) , x → 0 mindestens einen nichttrivialen L¨ osungszweig im Verzeigungspunkt (μ0 , 0) . Beweis [Krasnoselki]. F¨ ur einen algebraisch einfachen Eigenwert μ0 von L beweist [Rabinowitz73], dass die lokale L¨ osung eindeutig ist und die Form (μ(ε), x(ε)) = (μ0 + εν(ε), ε(u1 + w(ε)) , |ε| 1 , hat mit ud1 w = 0 , ν(0) = 0 , und w(0) = 0 . Das n¨ achste Ergebnis von [Crandall] & Rabinowitz betrifft ebenfalls Verzweigung von einem einfachen Eigenwert, liefert aber eine besonders einfache Konosung der Bifurkationsgleichung: sistenzbedingung (3◦ ) an Stelle einer L¨ Satz 5.3. Es seien X , Y Banach-R¨ aume, es sei 0 ∈ I ⊂ R ein offenes Intervall und F ∈ C 2 (I × X , Y) . Voraussetzung: (1◦ ) F (μ, 0) = 0 . (2◦ ) Fx0 := ∇x F (0, 0) , dim Ker Fx0 = 1 , codim Range Fx0 = 1 . 0 u1 ∈ / Range Fx0 . (3◦ ) Ker Fx0 = span{u1 } und Fμx Dann existiert eine L¨ osung (μ(ε), x(ε)) mit x(ε) = εu1 + εw(ε) , u1 w(ε) = 0 , μ(0) = 0 , x(0) = 0
(5.16)
von F (μ, x) = 0 f¨ ur hinreichend kleines |ε| , und sie h¨ angt stetig von ε ab. F¨ ur irgendeine Funktion v ∈ Yd mit der Eigenschaft Range Fx0 = {y ∈ Y : 0 u1 = 0 . Nach diesem v y = 0} hat Voraussetzung (3◦ ) die einfache Form vFμx 0 Ergebnis muss also der adjungierte Operator [Fx ]d und sein Kern nicht explizit 0 = I (Identit¨at in Y) bedeutet u1 ∈ / berechnet werden. F¨ ur X ⊂ Y und Fμx 0 Range Fx einfach, dass Null algebraisch einfacher Eigenwert von Fx0 ist.
5.1 Verzweigungsprobleme
251
Zusammendfassend l¨ asst sich sagen, dass bei Einfachverzweigung aus der trivialen L¨ osung die h¨ oheren Terme f in F (μ, x) = Lx + μBx + f (μ, x) = 0 , f (μ, x) = o(x) keine Rolle spielen. (f ) Beispiele zu Verzweigungsproblemen Beispiel 5.2. Im einfachsten Fall besteht das System F aus einer einzigen Gleichung mit L = 0 ∈ R , z.B. F (μ, x) := μx − cx2 = 0 , 0 = c ∈ R . Hier ist μ = 0 der Verzweigungspunkt, in dem die nichttriviale L¨osung x(μ) = μ/c (Gerade) von der trivialen L¨ osung x = 0 abzweigt. Das Gleiche gilt f¨ ur F (μ, x) := μx − cx3 = 0 , c > 0 , aber jetzt ist die abzweigende L¨ osung x(μ) = ± μ/c) , μ ≥ 0 , eine Parabel ( Pitchfork“-Bifurkation). Abb. 5.2 zeigt auch den Fluss des zugeh¨origen ” Hamiltonschen Vektorfelds. x
x
μ
μ
Abb. 5.2. Pitchfork-Bifurkation, c = 1 , c = −1
In diesem Beispiel ist f¨ ur c = 1 0 0 0 F 0 = Fx0 = Fxx = Fμ0 = 0 , Fxxx Fμx < 0.
(5.17)
Ein bekanntes Ergebnis der Singularit¨ atentheorie besagt, dass jede Abbildung F mit den Eigenschaften (5.17) an der Stelle (μ0 , x0 ) eine Pitchfork0 0 Fμx > 0 ist, dann springt die Anzahl der L¨osungen Bifurkation hat. Wenn Fxxx von drei auf eins statt von eins auf drei. Bifurkationsgleichungen k¨ onnen in ein h¨ oherdimensionales System eingebettet werden zum beseren Studium der geometrischen und topologischen Eigenschaften. Dieser Prozess heißt (universelle) Entfaltung. Bei der PitchforkBifurkation F (μ, x) = x3 + μx = 0 ∈ R erh¨alt man auf diese Weise die
252
5 Der Weg als Ziel
Cusp“-Katastrophe, Abb. 5.3, 5.4. F¨ ur die zweite Skizze ist zu beachten, ” dass die Ableitung des Entfaltungsparameters κ nach x l¨angs der Falte“ ver” schwinden muss, daraus folgt μ = −3x2 ; Einsetzen ergibt κ = 2x3 , dann l¨asst sich x eliminieren.
Abb. 5.3. x3 + μx + κ = 0
Abb. 5.4. [−μ/3]1/2 = [κ/2]1/3
Beispiel 5.3. ([Golubitsky], vol. I, p. 30 mod.) Gegeben sei das Problem
0 0 0 0 x1 x1 (μ − x21 )/2 = 0 , =⇒ L = . (5.18) F (μ, x) := + 0 1 −x31 /5 0 1 x2 Dann ist Ker L = span{e1 } mit e1 = [1, 0]T als erstem Einheitsvektor, daher ist
1 0 0 0 T , I −Q= (= L) P = Q = e1 e1 = 0 0 0 1
Abb. 5.5. Beispiel 5.3
Dementsprechend sind die Bifurkationsgleichung eT1 F (μ, x) = 0 und die Operatorgleichung (I − Q)F (μ, x) = 0 die erste bzw. die zweite Zeile von (5.18). Die Situation ist vollst¨ andig in Abb. 5.5 dargestellt und zeigt eine PitchforkBifurkation im Ursprung, Außerdem zeigt die Abbildung, dass die Operatorgleichung relativ unempfindlich gegen¨ uber Ab¨anderungen ist. Dieses Beispiel
5.1 Verzweigungsprobleme
253
er¨ offnet den Weg zur Konstruktion verschiedener weitere Beispiele. Man beachte aber, dass der lineare Operator L hier die einfachstm¨ogliche Form hat, in dem ein Diagonalelement der Einheitsmatrix durch Null ersetzt ist. Beispiel 5.4. Ein weniger triviales Beispiel von [Crandall] & Rabinowitz hat die Form (Abb. 5.6): # $ x1 + μx1 (x21 − 1 + x22 ) F (μ, x) = = 0. 10x2 − μx2 (1 + 2x21 + x22 )
Branching points: μ x1 x2 1 0 0√ 5.5 0 ±3/ 11 10 √0 0 4 ± 3/2 0
Abb. 5.6. Beispiel von [Crandall]
L¨osung: x1 = ±((μ − 1)/μ)1/2 ,
x2 = 0 ,
x1 = 0 ,
x2 = ±((10 − μ)/μ)1/2 ,
x1 = ±((11 − 2μ)/μ)
1/2
for 1 ≤ μ ,
, x2 = ±((3μ − 12)/μ)
1/2
for 0 ≤ μ ≤ 10 , , for 4 ≤ μ ≤ 5.5 .
Beispiel 5.5. [Stakgold] Es sei L ∈ R2 2 und F (μ, x) = Lx − μx + f (x) = 0 ∈ R2 , f (x) = o(x) , dann ist F (μ, 0) = 0 , aber nicht jeder Eigenwert von L ist notwendigerweise ein Verzweigungspunkt: ur x − μx + f (x) = 0 ∈ R2 , f (x) = [x32 , −x31 ]T , und L = I ist die (1◦ ) F¨ Identit¨ at mit doppelten Eigenwert Eins. Multiplikation der ersten Zeile mit x2 , der zweiten mit x1 und anschließende Subtraktion zeigt, dass (μ, x1 , x2 ) = (1, 0, 0) kein Verzeigungspunkt ist (die Bifurkationsgleichung hat nur die triviale L¨ osung).
254
5 Der Weg als Ziel
(2◦ ) F¨ ur x − μx + f (x) = 0 ∈ R2 und f (x) = [2x1 x2 , x21 + 2x22 ]T hat L = I wieder den doppelten Eigenwert Eins. Neben der trivialen L¨osung hat das System die L¨ osung x = [0, (μ − 1)/2] , also zweigt eine L¨osung von der trivialen ab. ur (3◦ ) F¨
0 1 Lx − μx + f (x) = 0 ∈ R , L = 0 0 2
, f (x) = [x31 , x21 x2 − x31 ]T
hat L den doppelten Eigenwert Null aber nur einen Eigenvektor und es existiert neben der trivialen L¨ osung keine weitere. Beispiel 5.6. Zwei Beispiele mit nichtdiagonalisierbarer Matrix L [Landman], x ∈ R2 , a, b, c, d reell:
x2 + μax1 + h.o.t. ◦ = 0. (1 ) F (μ, x) = μbx2 + μ2 cx1 + dx21 + h.o.t. Es folgt
0 0 1 a 0 , Fμ0 = 0 , B= , C2 (x) = d x21 0 0 0 b v d = [0, 1] , u1 = [1, 0]T , v d Bu1 = 0 ,
L=
und daher w2 = x2 , ζ = x1 mit der obigen Bezeichnung. Die erste Zeile von F = 0 ist die Operatorgleichung mit der L¨ osung w2 , Einsetzen in die zweite Gleichung ergibt die Bifurkationsgleichung −abμ2 x1 + cμ2 x1 + dx21 = 0 des reduzierten Systems. Die allgemeine nichttriviale L¨osung ist dann x1 = μ2 (ab − c)/d + O(μ3 ) , x2 = −μ3 a(ab − c)/d + O(μ4 ) f¨ ur ab − c = 0 und d = 0 . (2◦ ) F (μ, x) = Es folgt
x2 + μax1 + gx21 + h.o.t. = 0. μf x1 + dx21 + h.o.t.
2
gx1 0 1 a 0 ,B= , C2 (x) = , Fμ0 = 0 dx21 0 0 f 0 v d = [0, 1] , u1 = [1, 0] , v d Bu1 = f .
L=
Wieder ist die erste Zeile von F = 0 die Operatorgleichung und die zweite die Bifurkationsgleichung. Die reduzierten Gleichungen f μx1 + dx21 = 0 , x2 + aμx1 + gx21 = 0 haben die eindeutige nichttriviale L¨ osung x1 = −μf /d , x2 = μ2 f (ad−gf )/d2 , und die allgemeine L¨ osung ist x1 = −μf /d + O(μ2 ) , x2 = μ2 f (ad − gf )/d2 + O(μ3 ) .
5.1 Verzweigungsprobleme
255
(g) Symmetrie-Eigenschaften ergeben immer eine Zusatzinformation u ¨ber die Menge der m¨ oglichen L¨ osungen. In g¨ unstigen F¨allen wie der HopfBifurkation kann ein System von zwei Bifurkationsgleichungen durch eine einzige skalare Gleichung ersetzt werden. Außerdem w¨are es hochwillkommen, wenn die L¨ osung wμ0 ∈ Ker P der partiellen Ableitung von (I − Q)F (μ, u + w(μ, u)) = 0 nach μ in der Taylor-Entwicklung der Bifurkationsgleichung nicht auftreten w¨ urde; vgl. SUPPLEMENT\chap05a. Ist z.B. die Abbildung F ungerade, −F (μ, x) = F (μ, −x), dann ist auch die Bifurkationsgleichung G ungerade, −G(μ, u) = G(μ, −u) , ist dann außerdem (μ0 , x0 ) = (0, 0) der beussen also trachtete Verzweigungspunkt, so folgt tats¨ achlich wμ0 = 0. Es m¨ Symmetrieaspekte ins Spiel gebracht werden. ∈ Wir fragen nach gewissen linearen Operationen C ∈ L(X , X ) und C L(Y, Y), die dem System (5.5) nichts oder nur wenig ausmachen“. Diese ” Operationen sollen umkehrbar und hintereinander ausf¨ uhrbar sein; m.a.W. sie sollen eine Gruppe Γ ⊂ L(X , X ) bzw. Γ ⊂ L(Y, Y) bilden, z.B. f¨ ur Γ : ussen beide Gruppen kompakt sein, also ∀ C, D ∈ Γ : CD−1 ∈ Γ . Außerdem m¨ Γ eine kompakte Teilmenge von L(X , X ) und Γ eine kompakte Teilmenge von L(Y, Y). Auch wenn X ⊂ Y gilt, k¨ onnen beide Gruppen aus ganz unterschiedlichen Aktionen bestehen. Zum Beispiel besteht bei der Hopf-Verzweigung Γ aus Amplitudenverschiebungen und Γ aus Rotationen; vgl. auch § 10.6. Definition 5.2.(1◦ ) Eine Teilmenge S ⊂ Y heißt Γ -invariant, wenn sie bez. Γ abgeschlossen ist: ∀ C ∈ Γ : C(S) ⊂ S . (2◦ ) Die Teilmenge U ⊂ Y heißt Fixpunkt-Unterraum bez. Γ oder kurz Γ -symmetrischer Unterraum, wenn U = Fix(Γ ) := {x ∈ Y, ∀ C ∈ Γ : Cx = x} (diese Menge ist tats¨ achlich ein Unterraum). (3◦ ) Ist S ⊂ Y ein Γ -invarianter Unterraum und f eine auf S definierte Abbildung, dann heißt f Γ -invariant, wenn ∀ x ∈ S ∀ C ∈ Γ : f (Cx) = f (x) . (4◦ ) Ist S ⊂ Y eine Γ -invariante Teilmenge, dann heißt f : X → Y Γ -¨aquivariant (oder Γ -symmetrisch oder kommutiert mit Γ“), wenn es eine ” Symmetriegruppe Γ ⊂ L(X , Y) gibt, so dass ∈ Γ und ∀ C ∈ Γ ∃! C ∈ Γ : Cf (x) = f (Cx) . ∀ x ∈ S ∀ C ∈ Γ ∃! C (5◦ ) Sind μ0 ∈ M ⊂ Rk und x0 ∈ U ∈ X offen, dann heißt die Abbildung F aus (5.10) Γ -¨ aquivariant in U, wenn F (μ, ◦) Γ -¨ aquivariant in U ist f¨ ur alle μ ∈ M. In dem folgenden Satz fassen wir einige Eigenschaften f¨ ur das System F (μ, x) = Lx + f (μ, x) zusammen, die unmittelbar aus der Definition folgen:
256
5 Der Weg als Ziel
Satz 5.4. Es sei F Γ -¨ aquivariant in U ⊂ X und F (μ0 , x0 ) = 0 . osung von F (μ, x) = 0 f¨ ur alle C ∈ (1◦ ) Mit (μ0 , x0 ) ist auch (μ0 , Cx0 ) eine L¨ Γ. x0 = Fx0 C f¨ ur alle C ∈ Γ , d.h. Fx0 ist Γ -¨ aquivariant. (2◦ ) Es gilt CF (3◦ ) ∀ C ∈ Γ : C(Ker Fx0 ) = Ker Fx0 , d.h. Ker Fx0 ist Γ -invariant. ∈ Γ : C(Range Fx0 ) = Range Fx0 , d.h. Range Fx0 ist Γ-invariant. (4◦ ) ∀ C (5◦ ) ∀ (μ, x) ∈ M × (U ∩ Fix(Γ )) : F (μ, x) ∈ Fix(Γ) . aquivariant und Fx0 ein Fredholm-Operator. Dann k¨ onnen (6◦ ) Es sei F Γ -¨ die Projektoren P und Q aus Satz 5.1 so gew¨ ahlt werden, dass sie mit Γ bzw. mit Γ kommutieren, d.h. ∈ Γ : CQ = QC . ∀ C ∈ Γ : CP = P C , ∀ C Mit diesen Hilfsmitteln lassen sich die folgenden Ergebnisse herleiten: Lemma 5.3. Es sei F Γ -¨ aquivariant und Fx0 ein Fredholm-Operator. aquivariant: (1◦ ) Die Funktion w∗ von (c) ist Γ -¨ ∀ C ∈ Γ : Cw∗ (μ, u) = w∗ (μ, Cu) . aquivariant: (2◦ ) Die Abbildung x∗ : (μ, u) → u + w∗ (μ, u) ist Γ -¨ ∀ C ∈ Γ : Cx∗ (μ, u) = x∗ (μ, Cu) . aquivariant: (3◦ ) Die Bifurkationsgleichung G : (μ, u) → G(μ, u) ist Γ -¨ ∀ C ∈ Γ : CG(μ, u) = G(μ, Cu) . Zur Vertauschbarkeit von Matrizen erinnern wir an Lemma 5.4. Es seien A und B zwei diagonalisierbare (n, n)-Matrizen, dann gilt AB = BA g.d.w. es eine regul¨ are Matrix X gibt so, dass X −1 AX und −1 X BX beide Diagonalmatrizen sind. Offenbar sind dann die Spalten von X gemeinsame Eigenvektoren von A and B. (h) Beispiele zur Symmetrie vgl. auch § 10.6. (h1) Z2 -Symmetrie: Γ = {−δ, δ} mit dem Einheitsoperator δ in X und Y. Ist F ungerade, −F (μ, x) = F (μ, −x), dann ist nach Lemma 5.3 auch die Bifurkationsgleichung ungerade, −G(μ, u) = G(μ, −u). (h2) Die Lorentz-Gleichung – vgl. Beispiel 5.16 – ist ebenfalls Z2 -symmetrisch im R3 , aber die Aktion der Gruppe ist anders definiert: Γ = {Identit¨ at , C} , C[x1 , x2 , x3 ]T := [−x1 , −x2 , x3 ] . Mit einer periodischen L¨ osung x ist also stets auch Cx eine L¨osung.
5.2 Skalierung
257
(h3) 2π-periodische Funktionen mit der Gruppe Γ der Phasenverschiebungen: ϕ ∈ Γ , C ϕ x(◦) = x(◦ + ϕ) Phasenverschiebung , x(◦) ∈ C2π , C F (μ, x)(t) = Dt x(t) + Ax(t) + f (μ, x(t)) ; ¨ vgl. § 5.5. Die Γ -Aquivarianz von F gilt trivialerweise, wenn F nicht explizit von t abh¨ angt: ϕ F (μ, x)(t) = F (μ, x)(t + ϕ) = F (μ, C ϕ x)(t) C = Dt x(t + ϕ) + Ax(t + ϕ) + f (μ, x(t + ϕ)) . 1 → C2π ein Fredholm-Operator Ist nun A ∈ R2 2 und Dt + A = L : C2π mit Index Null und dim Ker L = 2 , dann muss A die Eigenwerte ±i haben. origen Eigenvektoren, und es sei u1 (t) = Re(ceit ) , Es seien c und c die zugeh¨ it u2 (t) = Im(ce ) , U = [u1 , u2 ] . Dann ist Ker L = {U (t)ζ , ζ ∈ R2 } und mit der Rotationsmatrix
cos ϕ − sin ϕ Cϕ = sin ϕ cos ϕ
ur die Phasenverschiebung. Betrachten wir in R2 gilt U (t + ϕ)ζ = U (t)C T ζ f¨ nun die Normalform der Hopf-Bifurkation
0 −1 F (μ, x) = xt + Ax + f (μ, |x|)x = 0 ∈ R2 , A = 1 0 mit skalarer Funktion f und x ∈ R2 , dann hat A wieder die Eigenwerte ±i again, und es gilt Cϕ A = ACϕ , also Cϕ F (μ, x) = Cϕ xt + ACϕ x + f (μ, |Cϕ x|)Cϕ x = F (μ, Cϕ x) wegen |Cϕ x| = |x| . Daher ist F ¨ aquivariant bez. der Gruppe Γ der Rotationen in R2 . Literatur: [Chow], [Golubitsky], [Kuznetsov], [Seydel94], [VanderBauwhede].
5.2 Skalierung (a) Modifizierte Ljapunov-Schmidt-Reduktion Vielfach l¨asst sich die Situation in der N¨ ahe eines Verzweigungspunktes (μ0 , x0 ) besser beschreiben, wenn ein neuer lokaler Parameter – hier ε genannt – in der LjapunovSchmidt-Reduktion eingef¨ uhrt wird, der wie eine Lupe fungiert; auch bei der Konstruktion numerischer Verfahren geht man von einer solchen Umparametrisierung aus. Nach einem passenden Ansatz f¨ ur die Variablen μ und x werden die Bifurkationsgleichung und die Operatorgleichung jeweils durch eine geeignete Potenz von ε dividiert, dann wird eine Taylor-Entwicklung angesetzt
258
5 Der Weg als Ziel
und der Grenz¨ ubergang ε → 0 durchgef¨ uhrt. Auf diese Weise werden die wesentlichen Terme der Bifurkationsgleichung herausgefiltert – hier algebraische Bifurkationsgleichung genannt, in denen aber noch u.U. gewisse Variable stillgelegt werden m¨ ussen, damit der Satz u ¨ber Implizite Funktionen die Existenz eines der m¨ oglichen L¨ osungszweige sichern kann. Die beiden kritischen Exponenten r und s von ε in den vier Ans¨atzen, n¨amlich f¨ ur μ, x, die Bifurkations- und die Operatorgleichung, sind i.d.R. nicht eindeutig bestimmt. Sie lassen sich zwar mit dem Newton-Polygon, das zur Funktion F geh¨ ort, berechnen, vgl. SUPPLEMENT\chap05c und [Sather], werden aber hier par ordre du mufti“ eingef¨ uhrt. Anschließend wird an Hand von ” Beispielen gezeigt, dass diese Zahlen im Regelfall aus dem konkreten Problem direkt abgelesen werden k¨ onnen. Wir betrachten das nichtlineare Problem F : R × X (μ, x) → F (μ, x) := Lx + f (μ, x) = 0 ∈ Y
(5.19)
mit hinreichend glatter Funktion f . Es sei f (μ, 0) = 0 , also x = 0 triviale L¨osung, und es sei der Ursprung (μ, x) = (0, 0) der fragliche Verzweigungspunkt. Außerdem sei in diesem Abschnitt L = Fx0 ein Fredholm-Operator mit Index Null und α := dim Ker L > 0 (meistens α = 1 oder α = 2 ). Gem¨aß der Zerlegung in der Ljapunov-Schmidt-Reduktion w¨ahlen unter den vielen M¨ oglichkeiten zun¨ achst die folgende Skalierung ∈ R, 0 < r ∈ Q, μ(ε) = εr ξ(ε) r α x(ε) = ε(U ζ(ε) + ε w(ε)) ∈ X , ζ(ε) ∈ R , U d w(ε) = 0 .
(5.20)
Damit ist ε der neue Kurvenparameter und der alte Bifurkationsparameter μ ist eine Funktion von ε . Das System von Bifurkationsgleichung und Operatorgleichung hat nun die skalierte Form Φ(ξ, ζ, w, ε) := ε−s V d F (μ, x) = 0 ∈ Rα −(r+1) Ψ (ξ, ζ, w, ε) := ε (I − Q)F (μ, x) = 0 ∈ Range L , U d w(ε) = 0
. (5.21)
Ziel ist es, einen L¨ osungszweig auszusortieren und zu berechnen. F¨ ur den festen Projektionsoperator Q = V V d mit Ker Q = Range Fy0 gilt QL = 0, Daher kann in der Bifurkationsgleichung f statt F geschrieben werden und die Operatorgleichung als ε−(r+1) (I − Q)F (μ, x) = Lw(ε) + (I − Q)ψ(ξ(ε), ζ(ε), w(ε), ε) = 0 .
Voraussetzung 5.1. Es sei ξ0 = ξ(0), ζ0 = ζ(0), w0 = w(0) . Die Funktionen Φ und Ψ seien hinreichend glatt in einer Umgebung von ε = 0 mit den endlichen Grenzwerten
5.2 Skalierung
Φ(ξ0 , ζ0 , w0 , 0) =
259
limε→0 Φ(ξ(ε), ζ(ε), w(ε), ε)
Ψ (ξ0 , ζ0 , w0 , 0) = Lw0 + (I − Q)ψ(ξ0 , ζ0 , 0) = limε→0 Ψ (ξ(ε), ζ(ε), w(ε), ε) . Wegen der Definition von L und F (μ, 0) = 0 h¨ angt die Funktion ψ an der Stelle ε = 0 nicht von w ab, daher betrifft die Voraussetzung 5.1 haupts¨achlich den Exponenten s in der Bifurkationsgleichung. Das System Φ(ξ0 , ζ0 , w0 , 0) = 0 , Ψ (ξ0 , ζ0 , w0 , 0) = 0
(5.22)
besteht aus α skalaren Gleichungen f¨ ur α+1 Unbekannte ξ0 , ζ0 ∈ R und einer Operatorgleichung f¨ ur w(0) ∈ Ker U U d , was bei der L¨osung zu beachten ist. ankung des Operators L auf Ker P Es sei wieder L0 die invertierbare Einschr¨ und auf Range L , und wie oben sei Φw 0 = gradw Φ(ξ0 , ζ0 , w0 , 0) usw.. Dann ergibt eine Anwendung des Umkehrsatzes α
Lemma 5.5. Es sei (ξ0 , ζ0 , w0 ) eine L¨ osung des Systems (5.22) mit von Null verschiedenen ξ0 und ζ0 so, dass der lineare Operator
0 Φζ Φw 0 (5.23) G := ψζ 0 L0 eine beschr¨ ankte Inverse hat. Dann hat das System (5.19) in der N¨ ahe von osung der Form (5.20) mit μ = εr ξ . (ε, ξ) = (0, ξ0 ) eine nichttriviale L¨ Dieses einfache Ergebnis kann in vielerlei Hinsicht modifiziert und verallgemeinert werden. Insbesonder kann eine Komponente von ζ als freie Variable und ξ als abh¨ angige Variable gew¨ ahlt werden. Erg¨ anzungen: (1◦ ) w0 ist eindeutige L¨ osung von Lw = −(I − Q)ψ(ξ0 , ζ0 ) , U d w = 0 . Daher h¨ angt die L¨ osung (5.20) eindeutig von (ξ0 , ζ0 ) ab. (2◦ ) Die Voraussetzung ζ0 = 0 ist notwendig zur Vermeidung der trivialen L¨ osung (μ(ε), x(ε)) = (εr ξ0 , 0) , was auch vom geometrischen Standpunkt einleuchtend ist. aufig vorteilhaft, anstatt der Bedingung ζ0 = 0 die Bifurkations(3◦ ) Es ist h¨ gleichung um die Normalisierungsbedingung ζ(ε)T ζ(ε) = 1 zu erweitern. Dann hat das System (5.22) ebensoviele Variablen (ξ0 , ζ0 , w0 ) wie Gleichungen (und der Operator G muss um eine Zeile und eine Spalte erweitert werden). ur Φw 0 = 0 ist G invertierbar, falls Φζ 0 invertierbar ist, weil ψζ 0 be(4◦ ) F¨ schr¨ ankt ist. x1 , . . . , xq ! eine q-lineare Abbildung und zur Abk¨ (b) Es sei B urzung sei Bq x! = B x, . . . , x! (dann gilt Bq γx! = γ q Bq x!). Um den Einfluss des
260
5 Der Weg als Ziel
nichtlinearen Anteils f in F (μ, x) = 0 auf die Verzweigung zu untersuchen, betrachten wird das Problem F (μ, x) = Lx+μp Bq x!+Cr x!+ h.o.t. in μ and x = 0 , p, q, r ∈ N , r > q . (5.24) L soll wieder ein Fredholm-Operator mit Index Null und dim Ker L > 0 sein, und die Abbildungen B und C sollen beide nicht identisch verschwinden. In dem skalierten Ansatz μ(ε) = εs ξ , x(ε) = εU ζ(ε) + εs+1 w(ε) ,
(5.25)
sei s = (r − q)/p die L¨ osung von ps + q = r , dann ist 0 < s ≤ r − 1 . Unter diesen Voraussetzungen erh¨ alt die skalierte Bifurkationsgleichung die Form Φ(ξ, ζ, w, ε) ≡ V d ξ p Bq U ζ! + Cr U ζ! + εγ r(ξ, U ζ, w, ε) = 0 (5.26) r(ξ, ζ, w, ε) = O(1) , ε → 0 , γ ≥ min{s, 1} , wobei ζ und w nunmehr von ε abh¨ angen. Folgerung 5.1. Es sei die Menge Z = {ζ ∈ Rα : V d Bq U ζ! = 0 und V d Cr U ζ! = 0} nicht leer. Dann h¨ angt die algebraische Bifurkationsgleichung des Problems (5.24) mit dem Ansatz (5.25) und s = (r − q)/p nicht von w0 ab und hat die Form Φ(ξ0 , ζ0 ) := Φ(ξ0 , ζ0 , w0 , 0) = ξ0p V d Bq U ζ0 ! + V d Cr U ζ0 ! = 0 .
(5.27)
Siehe Beispiel 5.1 f¨ ur p = q = 1 und r = 2, und Beispiel 5.18. Im Fall eines ur eine regul¨are regul¨ aren linearen Operators B ist V d BU ∈ Rα α regul¨ar f¨ arer Matrix C gilt. Allgemeinere Matrix V d U , weil hier V d = CU d mit regul¨ Ergebnisse u osungen von (5.27) findet man in [Keller72]. ¨ber isolierte L¨ Beispiel 5.7. μx2 + x31 + h.o.t. =0 F (μ, x) = x2 + μx2 + x21 + h.o.t.
3 0 0 0 1 0 x L= , B= , C2 x! = 2 , C3 x! = 1 , 0 1 0 1 x1 0 d T d v = [1, 0] , u1 = [1, 0] , v Bu1 = 0 .
Hier ist die erste Gleichung die Bifurkationsgleichung und die zweite die Operatorgleichung. Die reduzierten Gleichungen haben die L¨osung 2 (μ) = −μ2 /(1 + μ)3 = −μ2 + O(μ3 ) x 1 (μ) = μ/(1 + μ) = μ + O(μ2 ) , x
5.2 Skalierung
261
und die allgemeine L¨ osung von F (μ, x) = 0 hat die lokale Form x1 (μ) = 2 (μ) + O(μ3 ) . Wenn wir den Ansatz μ = εξ , x = x 1 (μ) + O(μ2 ) , x2 (μ) = x 2 angen die skalierten reduzierten Gleichungen ξw2 +ζ 3 = εU ζ+ε w verwenden h¨ 2 0 und w2 + ζ = 0 von w0 = 0 ab und haben die L¨osung ζ = ξ und w20 = −ξ 2 . Die Matrix G von (5.23),
2 2 3ξ ξ 3ζ ξ = G= 2ζ 1 2ξ 1 ist regul¨ ar f¨ ur for ξ = 0 und die L¨ osung ist somit isoliert. Ein System mit nichtdiagonalisierbarer Matrix L wurde bereits in Beispiel 5.6 behandelt. F¨ ur p = q = 1 ist s = r − 1 im Ansatz (5.25). Dann hat das System (5.24) die etwas bekanntere Form F (μ, x) = Lx + f (μ, x) = Lx + (μ − μ0 )Bx + Cr x! + h.o.t. in μ − μ0 and x = 0 , r ≥ 2 , (5.28) mit dem Verzweigungspunkt (μ0 , 0) , μ0 ∈ R . Es ist L = gradx F (μ0 , 0) und 0 := gradx Fμ (μ0 , 0) , und L soll wieder ein Fredholm-Operator mit B = Fμx Index Null und α = dim Ker L > 0 sein. Im folgenden Ergebnis von [Keener74] wird zum Beweis der Kontraktionssatz auf eine geeignete Folge von Iterationen angewendet, wodurch sich gleichzeitig ein numerisches Approximationsverfahren ergibt. osung von Lemma 5.6. Es sei (ξ0 , ζ0 ) mit |ζ0 | = 1 L¨ ξV d B U ζ! + V d Cr U ζ! = 0 so, dass die Matrix ξ0 V d BU + gradζ V d Cr U ζ0 ! ∈ Rα α regul¨ ar ist. osung von (5.28) in der Form (1◦ ) Dann existiert eine lokal eindeutige L¨ ahe x(ε) = εU ζ(ε) + εr w(ε) , μ(ε) = μ0 + εr−1 ξ0 mit ζ(0) = ζ0 , die in der N¨ von ε = 0 stetig von ε abh¨ angt. osung ergibt sich konstruktiv als Grenzwert der Folge (2◦ ) Diese L¨ xk (ε) = εU ζ k (ε) + εr wk (ε) ζ k := ζ(wk (ε), ε) , k = 1, 2, . . . , mit w0 (ε) = 0 und ζ k (0, 0) = ζ0 . Die Funktionen ζ k j , j = 1 : ν , sind eindeutige L¨ osungen des nichtlinearen Systems V d f (μ0 + εr−1 ξ0 , εU ζ k + εr wk ) = 0 osung von und wk+1 ist die eindeutige L¨ Lwk+1 = −ε−r f (μ0 + εr−1 ξ0 , xk (ε)) , U d wk+1 = 0 . (3◦ ) F¨ ur den Fehler der Iterationsfolge gilt |xk (ε)−x(ε)| = O(|ε|(k+1)(r−1)+1 ) .
262
5 Der Weg als Ziel
Bei diesem Iterationsverfahren muss in jedem Iterationsschritt ein nichtlineares Gleichungssystem f¨ ur den Parametervektor ζ ∈ Rα gel¨ost werden. In § 5.6 wird ein Verfahren von [Demoulin] beschrieben, das diesen Nachteil vermeidet. (c) Beim nichtlinearen Eigenwertproblem ist F (λ, x) = Ax − λf (x) = 0 , f (0) = 0 , fx0 = ∇f (0)
(5.29)
das zugrunde liegende System und A ∈ L(X , X ) ein Fredholm-Operator, der vielfach symmetrisch und positiv definit ist. Der Ansatz (5.25) versagt hier, wenn λ = 0 Eigenwert von A ist. Es sei daher λ0 = 0 Eigenwert des verallgemeinerten Eigenwertproblems Lx = 0 , wobei L := A − λ0 fx0 ein FredholmOperator mit Index Null ist. Dann hat (5.29) die Form F (λ, x) = Lx − λf (x) + λ0 fx0 x = 0 .
(5.30)
Als Beispiel w¨ ahlen wir die Entwicklung f (x) = Bx + Cr (x) + O(xr+1 )
(5.31)
mit B = fx0 und erhalten als Operatorgleichung und Bifurkationsgleichung Lw = (λ − λ0 )Bx + λCr (x) + λ(h.o.t. in x) 0 = λ (λ − λ0 )λ−1 V d Bx + V d Cr (x) + h.o.t. in x] . Um wiederum die algebraische Bifurkationsgleichung zu finden, w¨ahlen wir den Ansatz λ(ε) = λ0 (1 + εr−1 ξ(ε)) , x(ε) = εU ζ(ε) + εr w(ε) .
(5.32)
Nach Einsetzen wird die Bifurkationsgleichung durch εr λ dividiert und die Operatorgleichung durch εr mit dem Ergebnis Φ(ξ, ζ, w, ε) = κV d BU ζ + V d Cr U ζ! + εr1 (ξ, ζ, w, ε) = 0 , κ = ξ/(1 + εr−1 ξ) Ψ (ξ, ζ, w, ε) = Lw − (I − Q) λ0 ξBU ζ + λ0 Cr U ζ! + εr2 (ξ, ζ, w, ε) = 0 , U dw = 0 , ri (ξ, ζ, w, ε) = O(1) , ε → 0 , i = 1, 2 . Eine Anwendung von Lemma 5.5 ergibt dann: Folgerung 5.2. (1◦ ) Es sei λ0 = 0 , und es sei L = A − λ0 B ein FredholmOperator mit Index Null und α = dim Ker L > 0 . (2◦ ) Die Menge Z aus Folgerung 5.1 sei nicht leer. (3◦ ) Die algebraische Bifurkationsgleichung κV d BU ζ + V d Cr U ζ! = 0 , ζ ∈ Z , besitze eine L¨ osung (κ0 , ζ0 ) mit κ0 = 0 und regul¨arer Matrix κ0 V d BU + d V ∇x [Cr U ζ0 !] U ! ∈ Rα α . Dann hat das Problem (5.30), (5.31) eine eindeutige L¨osung (5.32) mit ξ(0) = osung h¨ angt in der N¨ahe von ε = 0 stetig von ε κ0 und ζ(0) = ζ0 , und die L¨ ab.
5.2 Skalierung
263
(d) Das gest¨ orte Eigenwertproblem Es seien X ⊂ Y komplexe BanachR¨aume, 0 ∈ I ⊂ R ein offenes Intervall und L( · ) : I μ → L(μ) ∈ L(X , Y) eine operatorwertige Funktion; insbesondere kann X = Y = Cn der komplexe Koordinatenraum sein. Wir betrachten die spezielle Abbildung F : I × (C × X ) (μ, (λ, x)) → L(μ)x − λ x = 0 ∈ Y ,
(5.33)
in der jetzt (λ, x) die Rolle von x in (c) spielt, also (λ, x) die abh¨angige Varia¨ ble ist. F¨ ur einen allgemeinen Uberblick u ¨ber verallgemeinerte Eigenwertprobleme wird auf [Chow] und die dortigen Referenzen verwiesen. Endlichdimensionale Probleme werden auch in [Golub], p. 204, und [Wilkinson], chap. II, behandelt. Hier untersuchen wir das System (5.33) auf m¨ogliche Verzweigungen im Punkt μ = 0 und geben eine notwendige und hinreichend Bedingung an. Dazu sei L(μ) ein (nicht notwendig selbstadjungierter) Fredholm-Operator mit Eigenwert Null in μ = 0 . Voraussetzung 5.2. (1◦ ) L := L(0) ist ein Fredholm-Operator mit Index Null und Ker L = span{u1 , . . . , uα } , U = [u1 , . . . , uα ] , α ≥ 1 . (2◦ ) X ⊂ Y und Ker L ∩ Range L = {0} . (3◦ ) L ist stetig differenzierbar in I so, dass L(μ) = L + μB + o(|μ|) , |μ| → 0 , wobei B = L0μ := Lμ (0) ∈ L(X , Y) . Die Voraussetzung (2◦ ) besagt, dass keine Hauptvektoren w mit Lw = ui von L existieren; vgl. Lemma 5.1, 3◦ . Diese Annahme ist notwendig, weil Hauptvektoren immer in unstetiger Weise von den Parametern der Matrix oder des Operators abh¨ angen. Satz 5.5. Es gelte die Voraussetzung 5.2, und es sei V d U = I . G.d.w. die Matrix V d BU diagonalisierbar ist, existieren α verschiedene charakteristische Paare (λi (μ), xi (μ)) so, dass (λi (0), xi (0)) = (0, ui ) , i = 1 : α , und diese Paare sind in der N¨ ahe von μ = 0 stetig differenzierbar. Ist z.B. X ein Hilbert-Raum und L(x) symmetrisch, dann sind B und V d BU ebenfalls symmetrisch und daher diagonalisierbar. Zum Beweis. Unter Voraussetzung der Existenz ergibt Ableiten nach μ von Lx + μBx = λx in μ = 0 f¨ ur k = 1 : α Lxk (0) + Buk = λk (0)uk + λk (0)xk (0) = λk (0)uk wegen λk (0) = 0 . Dann ist v i Buk = λk (0)v i uk = λk (0)δ i k nach Multipliation ur den Beweis der anderen Richvon links mit v i , also V d BU sogar diagonal. F¨ tung wird die Skalierungsmethode auf das matrizenwertige Eigenwertproblem L(μ)U (μ) = Λ(μ)U (μ) angewendet [Gekeler95].
264
5 Der Weg als Ziel
(e) Bei einem allgemeinen Verzweigungspunkt (μ0 , x0 ) = (0, 0) des Systems F (μ, x) = 0 l¨ asst sich Skalierung nur beschr¨ankt anwenden. Wir gehen aus von einer Taylor-Entwicklung F (μ0 + μ, x0 + x) = Lx+ K1 μ+ K2 μ2 + μBx+ C2 x!+ h.o.t. in μ and x = 0 (5.34) mit L = Fx0 = ∇x F (μ0 , x0 ) , K1 = Fμ0 usw. und α = dim Ker L ≥ 1 als notendige Voraussetzung f¨ ur einen echten Verzweigungspunkt. Als skalierten Ansatz verwenden wir exemplarisch μ = εξ , x = εU ζ(ε) + εw(ε) , U d w(ε) = 0 .
(5.35)
Es sei y(λ) ein lokaler L¨ osungszweig, also F (λ, y(λ)) = 0 und y(μ0 ) = x0 . Dann gilt Fλ 0 + Fx 0 y (x0 ) = 0 und K1 = Fμ0 muss im Wertebereich von L liegen, woraus nach dem Range Theorem“ V d K1 = 0 folgt. Wenn umgekehrt ” V d K1 = 0 ist und ξ beliebig fest, dann gibt es stets eine L¨osung (5.35) mit ζ(ε) = 0 nach dem Umkehrsatz, weil L durch den oben eingef¨ uhrten Operaankter Inverser ersetzt werden kann. F¨ ur weitere L¨osungen tor L0 mit beschr¨ betrachten wir wieder das System aus skalierter Bifurkationsgleichung und Operatorgleichung Φ(ξ, ζ, w, ε) = ε−2 V d F (μ0 + μ, x0 + x) = V d K2 ξ 2 + ξV d B U ζ + w! + V d C2 U ζ + w! + εr1 (ξ, ζ, w, ε) Ψ (ξ, ζ, w, ε) = ε−1 (I − Q)F (μ0 + μ, x0 + x) = Lw + (I − Q)K1 ξ + εr2 (ξ, ζ, w, ε) = 0 , U d w = 0 , ri (ξ, ζ, w, ε) = O(1) , ε → 0 , i = 1, 2 . Um einen isolierten L¨ osungszweig durch (μ0 , x0 ) zu finden, kann wieder Lemma 5.5 angewendet werden. Dazu muss eine L¨ osung (ξ0 , ζ0 , w0 ) des reduzierten skalierten Systems Φ(ξ, ζ, w, 0) = V d K2 ξ 2 + ξV d B U ζ + w! + V d C2 U ζ + w! = 0 ∈ Rα Ψ (ξ, ζ, w, 0) = L0 w + (I − Q)K1 ξ =: L0 w + ψ(ξ, ζ) = 0 ∈ Range L (5.36) mit ξ0 = 0 und ζ0 = 0 berechnet werden. 1. Fall: Es sei ξ0 fest, z.B. ξ0 = 1 . Dann muss nach Lemma 5.5 der Operator
0 Φ Φ 0 G := ζ 0 w ψζ L0 eine beschr¨ ankte Inverse haben. Wegen ψζ = 0 muss aber nur Φζ 0 := Φζ (ξ0 , ζ0 , w0 , 0) = ξ0 V d B U ! + V d ∇x [C2 U ζ 0 + w0 !] U ! ∈ Rα α eine regul¨ are Matrix sein. Die algebraische Bifurkationsgleichung Φ = 0 in (5.36) ist ein System zweiter Ordnung for ζ ∈ Rα nach Substitution von w0 , und sie ist inhomogen im Fall V d K2 = 0 .
5.3 Berechnung von singul¨ aren Punkten
265
2. Fall: Es sei α = dim Ker L = 2. Um eine Verzweigungsl¨osung aus dem ersten Eigenvektor u1 von L zu finden, sei ζ2 = 0 . Dann hat die algebraische Bifurangige Variablen w und z = (ξ, ζ1 ) , kationsgleichung Φ = 0 ∈ R2 die unabh¨ und es m¨ ussen beide Komponenten ξ und ζ1 ungleich Null sein. Außerdem muss der lineare Operator
0 Φz Φw 0 G := 0 ψz L0 wieder eine beschr¨ ankte Inverse haben, wobei aber ψz0 = [(I − Q)K1 , 0] nicht mehr Null ist und Φz 0 := V d [2K2 ξ0 + B v!, ξ0 B u1 ! + ∇x C2 v!] u1 ! ∈ R2 2 , v = u1 ζ 1,0 + w0 . Weil L0 eine beschr¨ ankte Inverse hat, folgt nach Satz 1.20 ( Bordering Lem” ma“) das gleiche f¨ ur G g.d.w. Φz 0 − Φw 0 L0 −1 ψz 0 ∈ R2 2 eine regul¨are Matrix ist. Satz 5.3 l¨ asst sich nach [Crandall] & Rabinowitz durch einen einfachen Wechsel der Variablen an den vorliegenden Fall eines allgemeinen Bifurkationspunktes anpassen. Dazu wird an Stelle von F (μ, x) = 0 das Basissystem F (y) = 0 betrachtet, in dem also kein Unterschied mehr gemacht wird zwischen freier Variabler μ und abh¨ angiger Variabler x . Lemma 5.7. Es seien X , Y Banach-R¨ aume, es sei Ω ⊂ X offen und F ∈ C 2 (Ω, Y) . Ferner sei I ⊂ R ein offenes Intervall mit 0 ∈ I und y ∈ C 1 (I, Ω) eine Kurve mit F (y(t)) = 0 . ˙ = 0 . Weitere Voraussetzungen: (1◦ ) y(0) (2◦ ) dim Ker Fy0 = 2 , codim Range Fy0 = 1 . ˙ v} und (3◦ ) Ker Fy0 = span{y(0), 0 y(0), ˙ v! ∈ / Range Fy0 . (4◦ ) Fyy Dann ist y(0) Verzweigungspunkt von F (y) = 0 bez. der Kurve I t → y(t) und in eine gewissen Umgebung von y(0) gibt es zwei verschiedene L¨ osungskurven, die sich in y(0) schneiden. Im Fall y(0) = 0 kann nat¨ urlich eine der beiden Kurven die triviale L¨osung y(0) ≡ 0 ∈ Y sein.
5.3 Berechnung von singul¨ aren Punkten (a) Eine Klassifizierung Wir betrachten wieder das nichtlineare System F (μ, x) = 0 mit einem skalaren Parameter μ ∈ R . Es sei R ⊃ I s → (μ(s), x(s)) eine hinreichend glatte L¨ osung, die f¨ ur s = 0 durch den fraglichen Verzweigungspunkt (μ0 , x0 ) geht. Zweimaliges Ableiten nach dem Kurvenparameter s f¨ uhrt dann auf das System
266
5 Der Weg als Ziel
Fμ0 μ (0) + Fx0 x (0) Fμ0 μ (0)
= 0, +
0 Fμμ μ (0)2
+ 2Fμx μ (0)x (0) +
0 Fxx
x (0), x (0)! = 0 . (5.37) Ist wieder Fx0 = ∇x F (μ0 , x0 ) ein Fredholm-Operator mit Index Null, dann liegen grunds¨ atzlich vier verschiedene F¨ alle vor: (1◦ ) (2◦ ) (3◦ ) (4◦ )
+
Fx0 x (0)
dim Ker[Fμ0 , Fx0 ] = 1 dim Ker Fx0 dim Ker[Fμ0 , Fx0 ] = 1 dim Ker Fx0 dim Ker[Fμ0 , Fx0 ] > 1 dim Ker Fx0 dim Ker[Fμ0 , Fx0 ] > 1 dim Ker Fx0
= 0 und Fμ0 = 1 und Fμ0 ≥ 1 und Fμ0 ≥ 2 und Fμ0
∈ Range Fx0 ∈ / Range Fx0 ∈ Range Fx0 ∈ / Range Fx0 .
(5.38)
Ist z.B. u ∈ Ker Fx0 , dann ist (0, u) ∈ Ker[Fμ0 , Fx0 ] und weitere Elemente ur Fμ0 ∈ Range Fx0 . Im Fall (1◦ ) ist (μ0 , x0 ) in Ker[Fμ0 , Fx0 ] existieren nur f¨ ein regul¨ arer Punkt, und es existiert lokal eine eindeutige L¨osung nach dem Satz u ¨ber implizite Funktionen. Im Fall (2◦ ) ist (μ0 , x0 ) ein Wendepunkt oder Grenzpunkt bez. des Kurvenparameters μ , der durch Umparametrisierung in einen regul¨ aren Punkt verwandelt werden kann. Im Fall (3◦ ) liegt ein (m¨oglicher) Verzweigungspunkt vor. Der letzte Fall charakterisiert einen Wendepunkt, der gleichzeitig ein Verzweigungspunkt sein kann; dieser Fall wird im Folgenden nicht weiter untersucht. (b) In einem Wendepunkt ist Ker Fx0 = span{u1 } und Fμ0 = 0 . Sei P = u1 u1 der Projektor mit Range P = Ker Fx0 und sei X = Ker L ⊕ Ker P =⇒ R × X = W ⊕ Range P , W = R × Ker P 50 die Einschr¨ ankung von Fx0 auf Ker P , dann die Zerlegung (5.4). Ferner sei F x 50 ] : W → Range F 0 × Range F 50 bijektiv mit beschr¨ankter Inverist [Fμ0 , F μ x x ser, und der Satz u ber implizite Funktionen besagt, dass F (μ, x) = 0 lokal ¨ l¨ osbar ist f¨ ur v ∈ W mit Argument s u1 ∈ Ker Fx0 = Range P . Daher gilt f¨ ur die neue Parameterdarstellung R I s → (μ(s u1 ), x(s u1 )) ebenfalls F (μ(s u1 ), x(s u1 )) = 0 und (μ(0), x(0)) = (μ0 , x0 ) . Zusammen mit dem Ergebnis u are Punkte folgt: ¨ber regul¨ Lemma 5.8. F¨ ur dim Ker[Fμ0 , Fx0 ] = 1 existiert genau eine L¨ osungskurve von F (μ, x) = 0 durch (μ0 , x0 ) , und sie ist so glatt wie F . (c) Charakterisierung von Wendepunkten Wir kehren zur urspr¨ unglichen Kurvendarstellung I s → (μ(s), x(s)) aus (a) zur¨ uck. Die folgenden beiden Ergebnisse u ¨ber die geometrische Form einer Kurve im Wendepunkt s = 0 sind eine einfache Folgerung aus (5.37) (dabei gilt Ker[Fx0 ]d = span{v 1 } ). Lemma 5.9. Es sei (μ0 , x0 ) ein Wendepunkt mit x (0) = 0 . Dann ist μ (0) = 0 und (1◦ ) (μ0 , x0 ) ist ein quadratischer Wendepunkt mit μ (0) = 0 g.d.w. 0 u1 , u1 ! = 0 . v 1 Fxx
5.3 Berechnung von singul¨ aren Punkten
267
(2◦ ) (μ0 , x0 ) ist ein kubischer Wendepunkt mit μ (0) = 0 und μ (0) = 0 0 0 u1 , u1 ! = 0 und v 1 Fxxx u1 , u1 , u1 ! = 0 . g.d.w. v 1 Fxx Beweis. Nach Voraussetzung gilt f¨ ur einen Wendepunkt v 1 Fx0 = 0 und v 1 Fμ0 = 0 , daher folgt μ (0) = 0 nach Multiplikation von (5.37) (1◦ ) mit v 1 von links. 0 u 1 , u1 ! = 0 Wir schreiben o.B. x (0) = u1 und erhalten v 1 Fμ0 μ (0) + v 1 Fxx ◦ 1 0 1 0 nach (5.38,(2 )). Daraus folgt μ (0) = −v Fxx u1 , u1 !/v Fμ = 0 . Der Beweis auft in der gleichen Weise wie (1◦ ) durch dreifache Ableitung von von (2◦ ) verl¨ F (μ(s), x(s)) = 0 nach s . (d) F¨ ur die Berechnung von Wendepunkten schlagen [Keener73] und [MooreB] eine erweitertes Begleitsystem vor. Das erste hat die Form ⎤ F (μ, x) Φ1 (z) := Φ1 (μ, x, u) := ⎣ Fx (μ, x)u ⎦ = 0 , z = (μ, x, u) , a ∈ Xd fest . au − 1 ⎡
(5.39) Lemma 5.10. Es sei (μ0 , x0 ) ein Wendepunkt und a u1 = 1. Dann ist Φ1 (z0 ) = Φ1 (μ0 , x0 , u1 ) = 0 und grad Φ1 (z0 ) : R × X × X → Y × Y × R hat eine beschr¨ ankte Inverse g.d.w. v 1 F 0 xx u1 , u1 ! = 0 . Unter dieser Bedingung ist Φ1 (z0 ) = 0 lokal eindeutig l¨osbar in z0 . Umgekehrt ist eine regul¨ are L¨ osung von (5.39) ein quadratischer Wendepunkt, ullt wenn zus¨ atzlich dim Ker Fx0 = 1 und v 1 Fμ0 = 0 gilt, was im Regelfall erf¨ aufiger erf¨ ullt als eine Gleichung ist. (Eine Ungleichung v 1 Fμ0 = 0 ist viel h¨ ur Wendepunkte wird Φ1 (z) = 0 v 1 Fμ0 = 0 .) Zum Nachweis von Kandidaten f¨ etwa mit dem Newton-Verfahren gel¨ ost. Anschließend m¨ ussen die definierenden Eigenschaften eines Wendepunktes verifiziert werden. Das zweite Begleitsystem ist in gewisser Weise dual zu dem System (5.39): ⎤ F (μ, x) ⎦ = 0 , z = (μ, x, v) , v ∈ Yd . Φ2 (z) := Φ2 (μ, x, v) := ⎣ v Fx (μ, x) v Fμ (μ, x) − 1 ⎡
(5.40) Lemma 5.11. Es sei (μ0 , x0 ) ein Wendepunkt. Dann ist Φ2 (z0 ) = Φ2 (μ0 , x0 , v 1 ) = 0 und grad Φ2 (z0 ) : R × X × Yd → Y × Xd × R hat eine beschr¨ ankte Inverse g.d.w. v 1 F 0 xx u1 , u1 ! = 0 .
268
5 Der Weg als Ziel
Zu den Beweisen von Lemma 5.10 und 5.11 siehe [MooreB] und SUPPLEMENT\chap05b. (e) Berechnung einfacher Verzweigungspunkte Hier muss notwendigerweise Fμ0 ∈ Range L gelten. Es sei Ker Fx0 = span{u1 } und Fx0 sei wieder ein Fredholm-Operator mit Index Null. Dann gilt Ker[Fx0 ]d = span{v 1 } und nach dem Range Theorem“ gilt v 1 Fμ0 = 0 . Es sei w die eindeutige L¨osung ” von Fμ0 + Fx0 w = 0 mit u1 w = 0 . Jede Tangente x (0) in (5.37) hat die Dar stellung x (0) = αu1 + βw mit β = μ (0) . Einsetzen von (β, x (0)) in (5.37) ergibt nach Multiplikation mit dem Vektor v 1 0 0 0 v 1 Fμμ β 2 + 2v 1 Fμx β(αu1 + βw) + v 1 Fxx αu1 + βw, αu1 + βw! = 0 .
oder aT Q1 (u1 , w, v 1 )a = 0 , aT = [α, β] mit Q1 ∈ R2 2 , 0
0 0 v 1 Fxx u 1 , u1 ! v 1 Fμx u1 + Fxx u1 , w! 1 0 . Q1 (u1 , w, v ) = 1 0 0 0 0 u1 , w! v 1 Fμμ + 2Fμx w + Fxx w, w! v Fμx u1 + Fxx (5.41) Diese quadratische Form hat f¨ ur det(Q1 (u1 , w, v 1 )) < 0 zwei verschiedene reelle Eigenwerte. Auf diese Weise erhalten wir eine notwendige Bedingung ur Fμ0 = 0 folgt w = 0 . Der Fall f¨ ur einen Verzweigungspunkt (μ0 , x0 ) . F¨ 0 0 Fμ = 0 und Fμμ = 0 beschreibt Verzweigung von der trivialen L¨osung (μ, 0) und ergibt die notwendige Bedingung 0 0 α2 v 1 Fxx u1 , u1 ! + 2αβv 1 Fμ,x u1 = 0
f¨ ur die Tangente der nichttrivialen L¨ osung; vgl. § 5.1(d3), Fall 1 sowie (5.27) f¨ ur U = u1 . Zur Berechnung eines Verzweigungspunktes unter der obigen Konstellation ben¨ otigen wir ein Ergebnis u ¨ber das Begleitsystem (5.40), in dem ausnahmsweise Fx0 ein Fredhom-Operator mit Index Eins ist: Lemma 5.12. Es sei Fx0 ∈ L(X , Y) ein Fredhom-Operator mit Index Eins und Ker Fx0 = span{u1 , u2 } , Ker[Fx0 ]d = span{v 1 } ; ferner sei Φ2 (z0 ) = 0 f¨ ur z0 = (μ0 , x0 , v 1 ) in (5.40). Dann hat grad Φ2 (z0 ) eine 0 ui , uk !]2i,k=1 beschr¨ ankte Inverse g.d.w. die Matrix Q2 (u1 , u2 , v 1 ) = [v 1 Fxx regul¨ ar ist. Beweis in SUPPLEMENT\chap05b. Nach einem Vorschlag von [MooreA] werden Verzweigungspunkte als regul¨ are Punkte eines erweiterten Begleitsystems berechnet in ¨ahnlicher Weise wie die Wendepunkte in (d). Dazu betrachten wir das gest¨ orte System Φ3 (λ, (μ, x)) := Φ2 (μ, x) + λr = 0 ,
(5.42)
5.3 Berechnung von singul¨ aren Punkten
269
in dem jetzt λ die Rolle des fr¨ uheren Parameters μ und (μ, x) die Rolle des fr¨ uheren x u ¨bernimmt. In Lemma 5.11 wurde vorausgesetzt, dass v 1 Fμ0 = 0 ist, weil (μ0 , x0 ) ein Wendepunkt sein sollte. Um das Lemma hier anzuwenden, fordern wir deshalb ∂ Φ3 (0, (μ0 , x0 )) = r ∈ / Range(F(μ,x) (0, (μ0 , x0 ))) = Range([Fμ0 , Fx0 ]) . ∂λ Dann hat das Begleitsystem mit vorgegebenen r und v ∈ Yd die Form: Φ3 (z) := Φ3 (λ, (μ, x), v) ⎤ ⎡ ⎤ ⎡ F (μ, x) + λr F (μ, x) + λr ⎥ ⎢ ⎥ ⎢ v Fx (μ, x) ⎥ ⎢ = ⎣ v [Fμ (μ, x), Fx (μ, x)] ⎦ = ⎢ ⎥ = 0 , z = (λ, (μ, x), v) ⎣ v Fμ (μ, x) ⎦ vr−1 vr−1
.
(5.43)
Lemma 5.13. Es sei (μ0 , x0 ) ein einfacher Verzweigungspunkt mit ur z0 = dim Ker Fx 0 = 1 (und Fμ0 ∈ Range Fx0 ). Dann ist Φ3 (z0 ) = 0 f¨ osung von Fμ0 + Fx0 w = 0 , v 1 w = 0 (0, μ0 , x0 , v 1 ) . Wenn w die eindeutige L¨ bezeichnet, hat grad Φ3 (z0 ) : R2 × X × Yd → Y × Yd × R2 eine beschr¨ ankte Inverse g.d.w. die Matrix Q1 in (5.41) regul¨ ar ist. Ein ¨ ahnliches Ergebnis kann f¨ ur Verzweigungspunkte mit dim Ker Fx0 = 2 hergeleitet werden. Man beachte aber, dass nur notwendige Bedingungen aufgestellt werden und die Kandidaten hinterher auf die hinreichenden Eigenschaften u uft werden m¨ ussen. ¨berpr¨ Zum Beweis. Unter der Voraussetzung von Lemma 5.13 gilt Ker([Fμ0 , Fx0 ]) = span{(0, u1 ), (1, w)} , deswegen hat die Matrix Q2 (u1 , u2 , v 1 ) in Lemma 5.12 bez¨ uglich des erweiterten Systems jetzt die Form der Matrix Q1 (u1 , w, v 1 ) bez¨ uglich des Systems (5.43). onnen wir r = v T ∈ Rn w¨ahlen Im endlichdimensionalen Fall X = Y = Rn k¨ (wegen v ∈ Rn ) und erhalten dann das Begleitsystem ⎡ ⎤ F (μ, x) + λv T ⎢ v F (μ, x) ⎥ ⎢ x ⎥ (5.44) ⎢ ⎥ = 0. ⎣ v Fμ (μ, x) ⎦ v vT − 1 Dieses System wurde von [Deuflhard87] empfohlen, um Verzweigungspunkte in Fortsetzungverfahren aufzusp¨ uren.
270
5 Der Weg als Ziel
5.4 Gew¨ ohnliche Differentialsysteme Seltsamerweise (oder auch nicht) sind gew¨ ohnliche Differentialsysteme schwieriger zu behandeln als die u ¨blichen partiellen Differentialgleichungen zweiter Ordnung. Im Regelfall wird zuerst auf ein System erster Ordnung transforR kennt nur solche) und durch den Vorzeichenwechsel bei der miert (MATLAB b f (t)g(t) ˙ dt entsteht dann eine gewisse Schiefe, partiellen Integration von a
die sich auf die primal-duale Betrachtungsweise nachteilig auswirkt, wie sich gleich zeigen wird. (a) Das lineare Randwertproblem; vgl. § 1.5. Es sei Dt = d/dt . Wir betrachten das homogene Randwertproblem (1.33), Dt x(t) + A(t)x(t) = 0 ∈ Rn , Ra x(a) + Rb x(b) = 0 ∈ Rm , m ≤ n , (5.45) im Intervall I = [a, b] . Die Matrix A(t) sei stetig, und es gelte Rang [Ra , Rb ] = m f¨ ur die Matrizen Ra , RB ∈ Rm n . Bezeichnungen: Y X Xb L L∗
= {x ∈ C(I; Rn ) , x = Max |x(t)|} = {x ∈ C 1 (I; Rn } , x1 = x + Dt x} = {x ∈ X , Ra x(a) + Rb x(b) = 0} ⊂ X = Dt + A( · ) = −Dt + A( · )T
(x, y) =
1 b−a
Banach-Raum Banach-Raum Banach-Raum Operator L ∈ L(Xb , Y) formal adjungierter Operator zu L
.
b
x(t)T y(t) dt
Skalarprodukt
a
Genauer gilt Lx(t) = x(t) ˙ + A(t)x(t) , L∗ x(t) = −x(t) ˙ + A(t)T x(t) .
Lemma 5.14. F¨ ur stetige A und f hat das Cauchy-Problem Lx = x˙ + A(·)x = f (·) , x(t0 ) = x0 , zu jedem (t0 , x0 ) ∈ I × Rn eine eindeutige L¨ osung x ∈ C 1 (I, Rn ). Beweis z.B. Amann, Theorem 7.9. (b) Das adjungierte Randwertproblem Die Randbedingungen in (5.45) stellen Bedingungen u ¨ber den Definitionsbereich von L dar. Der formal adachst definiert durch die Beziehung jungierte Operator L∗ ist zun¨
5.4 Gew¨ ohnliche Differentialsysteme b 1 y(t)T x(t) ˙ + y(t) ˙ T x(t) dt b−a a y(b)T x(b) − y(a)T x(a) = . b−a
(y, Lx) − (L∗ y, x) =
271
(5.46)
Damit L∗ der adjungierte Operator Ld wird, muss sein Definitionsbereich ebenfalls festgelegt werden und zwar muss die rechte Seite in (5.46) Null sein:
0 x(a) T T T T I = 0. y(a) x(a) − y(b) x(b) = [y(a) , y(b) ] 0 −I x(b) Aus dieser Bedingung zusammen mit den Randbedingungen f¨ ur das primale Problem,
x(a) = 0 ∈ Rm , [Ra , Rb ] x(b) erhalten wir die folgende Bedingung
0 T T I = q[Ra , Rb ] [y(a) , y(b) ] 0 −I
(5.47)
f¨ ur einen gewissen Vektor q ∈ Rm . Wegen Rang [Ra , Rb ] = m ≤ n seien Sa and Sb (n − m, n)-Matrizen, so dass die (n − m, 2n)-Matrix [Sa , Sb ] den maximalen Rang n − m hat und gilt Ra SaT − Rb SbT = 0 , Rang [Sa , Sb ] = n − m .
(5.48)
Dann bilden die Zeilen von [Sa , −Sb ] eine Basis von Ker [Ra , Rb ], und es gilt
0 SaT SaT T T I T [y(a) , y(b) ] = q [Ra , Rb ] = 0. 0 −I −SbT −SbT Daher hat das adjungierte Problem die Form L∗ y = 0 , Sa y(a) + Sb y(b) = 0 ,
(5.49)
wobei die (n−m, 2n)-Matrix [Sa , Sb ] eindeutig bestimmt ist bis auf Multiplikation von rechts mit einer regul¨ aren Matrix. F¨ uhren wir nun den BanachRaum Xb∗ := {y ∈ C 1 (I, Rn ) , Sa y(a) + Sb y(b) = 0} ⊂ X , ein, dann gilt f¨ ur den Operator L und seinen adjungierten Operator L∗ L ∈ L(Xb , Y) , L∗ ∈ L(Xb∗ , Y) , was von jetzt ab immer zu beachten ist.
(5.50)
272
5 Der Weg als Ziel
(c) Wronski-Matrizen Nach § 1.5 sind die Fundamentalmatrizen X(t) von L und Y (t) von L∗ definiert durch X˙ + A(t)X(t) = 0 , X(a) = I , −Y˙ + A(t)T Y (t) = 0 , Y (b) = I .
(5.51)
Nach der Formel von Liouville sind sie u ¨berall regul¨ar, wenn sie an einer einzigen Stelle t regul¨ ar sind, und sie sind eindeutig bestimmt bis auf Multiplikation von rechts mit einer regul¨ aren Matrix, daher o.B. X(a) = I und Y (b) = I . Die zugeh¨ origen Wronski-Matrizen sind W (s, t) = X(s)X(t)−1 und W ∗ (s, t) = Y (s)Y (t)−1 nach § 1.5. Multipliziert man die erste Gleichung in (5.51) von links mit Y (t)T , die zweite von recht mit X(t) und zieht beide voneinander ab, so folgt Y T X˙ + Y˙ T X = 0, are Matrix. Daraus folgt durch einfache als ist Y (t)T X(t) eine konstante regul¨ Rechnung (und mit X(a) = Y (b) = I) W ∗ (s, t) = W (t, s)T , Y (a)T = Y (t)X(t) = X(b) , womit sich eine enge Beziehung zwischen den L¨osungen des primalen und des dualen Problems ergibt. Ebenfalls nach § 1.5 l¨ asst sich die allgemeine L¨osung von L = f und L∗ = f nunmehr mit Hilfe der Wronski-Matrizen darstellen: t x(t; t0 , x0 ) = W (t, t0 )x0 + W (t, s)f (s) ds t0 t y(t; t0 , y0 ) = W (t0 , t)T y0 + W (s, t)T f (s) ds . t0
¨ Uber die Dimension der beiden Nullr¨ aume von L und von L∗ bez. ihrer jeweiligen Randbedingungen geben wieder die charakteristischen Matrizen (1.35) Auskunft, vgl. Satz 1.10: L : C := Ra X(a) + Rb X(b) , L∗ : D := Sa Y (a) + Sb Y (b) = Sa X(b)T . (5.52) Wie X und Y sind sie eindeutig bestimmt bis auf Multiplikation von rechts mit einer regul¨ aren Matrix. Lemma 5.15. Es sei m = Rang[Ra , Rb ] und r = Rang C . (1◦ ) dim Ker L = dim Ker C = n − r . ∈ Rn n−r eine Basis von Ker C , dann bilden (2◦ ) Bilden die Spalten von C eine Basis von Ker L . die Spalten von U ( · ) = X( · )C (3◦ ) dim Ker L∗ = dim Ker C T = dim Ker D = m − r , Rang D = n − m − r . % ∈ Rm m−r eine Basis von Ker C T , dann bilden (4◦ ) Bilden die Spalten von C T % % eine Basis von Ker D und die die Spalten von D := −Rb C = Y −1 (a)RaT C d eine Basis von Ker L∗ . Spalten von V ( · ) = Y ( · )D
5.4 Gew¨ ohnliche Differentialsysteme
273
Lemma 5.16. (1◦ ) Range L und Range L∗ ist abgeschlossen. Im Sinne des obigen Skalarprodukts gilt (2◦ ) Range L = [Ker L∗ ]⊥ , [Range L]⊥ = Ker L∗ . (3◦ ) Range L∗ = [Ker L]⊥ , [Range L∗ ]⊥ = Ker L . Folgerung 5.3. (1◦ ) L ist ein Fredholm-Operator mit Index n − m . (2◦ ) L∗ ist ein Fredholm-Operator mit Index m − n . Wenn L ein Fredholm-Operator mit Index null sein soll, muss also n = m gelten, im n¨ achstwichtigen Fall ist m = n − 1. Beispiel 5.8. (Lineare periodische Systeme) Es sei 1 X = C2π = {x ∈ C 1 (R; Rn } , x(t + 2π) = x(t)} Y = C2π = {x ∈ C(R; Rn ) , x(t + 2π) = x(t)} .
Dann gilt X ⊂ Y, und beide sind (nichtreflexive) Banach-R¨aume mit den Normen x = max |x(t)| bzw. x1 = x + Dt x . Die Operatoren 1 ; C2π ) erf¨ ullen wegen der Periodizit¨at L, L∗ ∈ L(C2π (y, Lx) − (L∗ y, x) = 0 , daher ist der formal adjungierte Operator L∗ bereits der adjungierte Operator und die l¨ astige Bestimmung der adjungierten Randbedingungen entf¨allt. Die Randbedingungen x(0) − x(2π) = 0 ergeben Ra = −Rb = I , also ist rank[Ra , Rb ] = n. Das System Lx = x˙ + Ax = 0 hat eine 2π-periodische 1 g.d.w. es ein 0 = x0 ∈ Rn gibt mit x0 = W (2π, 0)x0 . Wir L¨osung x ∈ C2π schreiben die charakteristischen Matrizen C und D von (5.52) mit Hilfe der regul¨ aren Monodromiematrix W (2π, 0) , C = (I − W (2π, 0))X(0) , D = (I − W (0, 2π)T )Y (0) und beachten W (0, 2π)T = W (2π, 0)−T . Dann erhalten wir direkt Ker(L) = {x = W (·, 0)x0 , x0 ∈ Ker(I − W (2π, 0))}, Ker(L∗ ) = {y = W (0, ·)T y0 , y0 ∈ Ker(I − W (2π, 0)−T )} . ur jede regul¨are Matrix Es gilt aber dim Ker(I − M ) = dim Ker(I − M −T ) f¨ M und daher dim Ker(L) = dim Ker(L∗ ) = α < n . Der oben eingef¨ uhrte Operator L ist somit ein Fredholm-Operator mit Index ¨ Null ; im Ubrigen gilt Range(L) = [Ker(L∗ )]⊥ wie bisher. (d) Wir betrachten das nichtlineare Randwertproblem Dt x(t) + A(t)x + f (t, μ, x(t)) = 0 ∈ Rn , f (t, μ, 0) = 0 , μ ∈ Rκ , Ra x(a) + Rb x(b) = 0 ∈ Rm , κ ∈ {1, 2} , mit hinreichend glatten Daten im Intervall I = [a, b] .
(5.53)
274
5 Der Weg als Ziel
Voraussetzung 5.3. (1◦ ) Rang [Ra , Rb ] = m ≥ n − 1 . ur die Operatoren L ∈ L(Xb , Y) und L∗ ∈ L(Xb∗ , Y) , (2◦ ) F¨ T Lx := Dt x + A(t)x + fx (t, μ0 , 0)x , L∗ y := −Dt y + A(t) + fx (t, μ0 , 0) y gilt dim Ker L = α ≥ 1 , Ker L = span{u1 , . . . , uα } , U = [u1 , . . . , uα ] dim Ker L∗ = β , Ker L∗ = span{v 1 , . . . , v β } , V d = [v 1 , . . . , v β ] . F¨ ur den pr¨ asumptiven Verzweigungspunkt (μ0 , x0 ) = (μ0 , 0) gilt die Entwicklung f (t, μ, x) = B(t) μ − μ0 , x! + C(t) x, x! + g(μ, x) B(t) = fμ,x (t, μ0 , 0) , C(t) = fxx (t, μ0 , 0) g(t, μ, u) = O((μ| + x)3 ) , |μ| → μ0 , x → 0 . Wir w¨ ahlen f¨ ur das vorliegenden Problem den skalierten Ansatz μ(ε) = μ0 + εξ(ε) , x(t, ε) = εU (t)ζ(ε) + ε2 w(t, ε) , U d w = 0
(5.54)
und setzen ihn in die Bifurkationgleichung und Operatorgleichung (5.21) ein. Dann ergibt sich nach Division durch ε2 im Grenz¨ ubergang f¨ ur ε = 0 Φ(ξ0 , ζ0 ) = V d ξ0 B U ζ0 ! + C2 U ζ0 , U ζ0 ! = 0 Ψ (ξ0 , ζ0 , w0 ) = Lw0 + (I − Q) ξ0 B U ζ0 ! + C2 U ζ0 , U ζ0 ! = 0 (5.55) U d w0
= 0 , w0 ∈ L(Xb , Y) (!).
Ist z.B. m = n und α = 1 , dann ist β = dim Ker L∗ = 1 und L wie L∗ sind Fredholm-Operatoren mit Index Null. In diesem Fall erh¨alt man unter ur ξ0 = 1 eine der klassischen Voraussetzung v 1 Bu1 = 0 , vgl. § 5.1(d3) f¨ eindeutige L¨ osung ζ0 und w0 von (5.55) (ebenso kann auch ζ0 = 1 vorgegeben werden). Wird der Ansatz (5.54) unter der gleichen Bedingung m = n = α = 1 direkt in das Differentialsystem (5.53) eingesetzt, so ergibt sich ein u ¨berbestimmtes Randwertproblem f¨ ur w Lw := Dt w + A(t)w + fx (t, μ0 , 0)w = −ξB(u1 + εw) (5.56) 1 − 2 C(t) (εu1 + ε2 w, εu1 + ε2 w! + g(t, μ0 + εξ, εu1 + ε2 w) ε Ra w(a) + Rb wb = 0 , (u1 , w) = 0 . Damit die rechte Seite von (5.56) im Wertebereich von L liegt, muss nach Satz 1.2 u atsbedingung ¨ber den Wertebereich die Kompatibilit¨ ξv 1 Bu1 +
1 1 v [C + R] = 0 ε2
(5.57)
5.4 Gew¨ ohnliche Differentialsysteme
275
f¨ ur v 1 ∈ Ker Ld erf¨ ullt sein, d.h. es muss eine L¨osung ξ ∈ R von (5.57) existieren; was ebenfalls f¨ ur v 1 Bu1 = 0 der Fall ist. Die Bedingung (5.57) ist genau die obige Bifurkationsgleichung (5.55). In (5.55) wird aber die Operatorgleichung mit dem Projektor (I − Q) multipliziert, wodurch sich nur die rechte Seite ¨ andert und auf den Wertebereich von L projiziert wird, die Bifurkationsgleichung wird aber deswegen nicht u ussig. ¨berfl¨ In einem einfachen Iterationsverfahren wird sukzessive ξ aus (5.57) berechnet und in (5.56) eingesetzt, dann wird w aus (5.56) berechnet. Die zus¨atzliche ur w f¨ uhrt wie gesagt zu einem Bedingung (u1 , w) = 0 im Randwertproblem f¨ u ¨berbestimmten System, das aber mit dem Box-Schema o.¨a. gel¨ost werden kann; vgl. § 2.5(a). [Weber79] hat hierzu eine interessante Variante vorgeschlagen, die auf einem Satz von [Reid] beruht, s. [Reid], Problem III.10(3). Beispiel 5.9. Nichtlinearer Bernoulli-Balken; [Golubitsky], vol. I, S. 296. s Bogenl¨ ange, ϕ Winkel zur x-Achse (neutrale Faser im Ruhezustand), μ axiale Belastung, π L¨ ange des Balkens (normiert). Die Enden des Balkens sollen frei verschieblich sein, vgl. § 7.2, Abb. 7.3, 4. Fall. F¨ ur die Verschiebung y(s) eines Punktes der neutralen Faser des Balkens gilt dann s s cos ϕ(σ) dσ , y2 (s) = sin ϕ(σ) dσ . y1 (s) = 0
0
¨ Ahnlich wie beim mathematischen Pendel erh¨ alt man aus der Differentialform des Energieerhaltungssatzes das Randwertproblem ϕ (s) + μ sin ϕ(s) = 0 , ϕ (0) = ϕ (π) = 0 . Bezeichnungen im Kontext: x(s) := ϕ(s) , X = {f ∈ C 2 [0, π] , f (0) = f (π) = 0} , Y = C 0 [0, π] . F (μ, x) Lv = Fx0 v μk uk (s)
= := = =
(u, v)
=
x + μ sin x , x (0) = 0 , x (π) = 0 v + μ v Linearisierung (1 + k)2 , k = 0, . . . Eigenwerte von Fx0 2 1/2 cos((1 + k ) s) , k = 0, . . . Eigenfunktionen von Fx0 π
u(s)v(s) ds
Skalarprodukt.
0
Der Operator L ist selbstadjungiert (symmetrisch), daher gilt P = Q f¨ ur die beiden Projektionsoperatoren. Wir betrachten die Situation am ersten Verzweigungspunkt (Eigenwert) μ0 = 1 und listen die konkretisierten Daten aus § 5.1 auf: u1 (s) : [0, π] s → cos(s) einziger Eigenvektor zu μ0 Ker L = R cos : [0, π] s → r cos(s) , r ∈ R beliebig P = Q : X f → u1 (u1 , f ) = (f, cos) cos(◦) Ker P = {f ∈ X , (u1 , f ) = 0} .
276
5 Der Weg als Ziel
Das Problem hat f¨ ur alle μ die triviale L¨ osung (μ, 0) ∈ R × X , und es ist klar, dass die Verzweigung eine Pitchfork-Bifurkation sein muss. Beispiel 5.10. ([Crandall] & Rabinowitz). Gegeben sei das System F (μ, x) = Ax + f (x) − μ(Bx + g(x)) = 0 , f (x), g(x) = o(x) , x → 0 , mit hinreichend glatten Daten, und es sei L := A − μ0 B ein FredholmOperator mit Index Null und Ker L = span{u1 } . Ferner sei v ∈ Yd eine beliebige Funktion mit der Eigenschaft, dass y ∈ Range L g.d.w. v y = 0. Dann existiert nach Satz 5.3 f¨ ur vBu1 = 0 eine nichttriviale L¨osung der Form (5.16). Es sei X = Y = C([0, π]) mit der Maximumnorm und Lx = −(px ) +qx , wobei p stetig differenzierbar und positiv ist, und q stetig [0, π] . Der Ableitungsstrich bedeutet hier Ableitung nach der Raumver¨ anderlichen s . Als Definitionsbereich D von L w¨ ahlen wir etwa D(L) = {x ∈ C 2 ([0, π]) : x(0) = x(π) = 0} . Nun betrachten wir das Differentialsystem F (μ, x)(s) = Lx + f (s, x, x , x ) − μ(x + g(s, x, x , x )) , F (μ, 0) = 0 mit einem Eigenwert μ0 von L . Dann gen¨ ugt L wieder den Voraussetzungen von Satz 5.3, insbesondere ist μ0 ein algebraisch einfacher Eigenwert. Noch spezieller sei etwa das nichtlineare skalare Randwertproblem −x + h(x2 + x2 )x − μ(x + k(x2 + x2 )x) = 0 , x(0) = x(π) = 0
(5.58)
gegeben mit glatten h , k und h(0) = k(0) = 0 . Dann hat L = −x den Eigenwert μ0 = 1 und Ker(L − μ0 I) = span{u1 } . Wir w¨ahlen x = c sin(s) als Ansatz zur Berechnung einer nichttrivialen L¨osung in (μ0 , 0) . Einsetzen ergibt 1 + h(c2 ) − μ(1 + k(c2 )) = 0 also μ(c) = (1 + h(c2 ))/(1 + k(c2 )) . Um numerische Verfahren zu testen, kann nach [Crandall] z.B. k = 0 , h(c2 ) = exp(−1/c2 ) sin(1/c2 ) , c = 0 , und h(0) = 0 gew¨ahlt werden. Schließlich erhebt sich noch die Frage nach der oben geforderten Funktion v ∈ Yd . Wegen Range L = {−x − x , x ∈ D(L)} ergibt sich durch partielle Integration π sin(s) x (s) + x(s) ds = 0 =⇒ v(s) = sin(s) . 0
Literatur: [Langford77a], [Langford77 ], [Langford78], [Rouche],[Weber79].
5.5 Hopf-Verzweigung
277
5.5 Hopf-Verzweigung Gegeben sei das autonome Differentialsystem x(t) ˙ + g(μ, x(t)) = 0 ∈ Rn
(5.59)
mit glattem Vektorfeld g und Parameter μ ∈ R . Wir suchen nach periodischen L¨ osungen, die von einer station¨ aren L¨osung (kritischem Punkt) (μ0 , x0 ) ∈ Rn+1 mit g(μ0 , x0 ) = 0 abzweigen. Dieses nach [Hopf] (1942) benannte Ph¨ anomen ist mittlerweile eines der am besten untersuchten Probleme der Bifurkationstheorie. Grob gesprochen entsteht eine Hopf-Verzweigung im kritischen Punkt, wenn zwei konjugiert komplexe Eigenwerte von ∇x g(μ, x) in Abh¨angigkeit von μ durch die imagin¨ are Achse wandern. Genauer gilt das folgende Ergebnis, das z.B. in [Golubitsky] vol. I, chap. VIII vollst¨ andig beweisen wird, siehe auch [Marsden76] und viele andere. ur das Satz 5.6. Es sei I = (μ0 − ε, μ0 + ε) ein Parameterintervall und f¨ System (5.59) gelte: (1◦ ) Es existiert eine L¨ osungen x0 (μ) f¨ ur μ ∈ I , d.h. g(μ, x0 (μ)) = 0 , und osung von g(μ0 , x) = 0 . x0 (μ0 ) ist eine isolierte L¨ ´chet-Ableitung gradx g(μ, x0 (μ)) hat f¨ ur μ ∈ I ein Paar von (2◦ ) Die Fre einfachen konjugiert komplexen Eigenwerten λ1,2 (μ) = σ(μ) ± iω(μ) mit ω(μ0 ) = ω0 = 0 , σ(μ0 ) = 0 , und gradx g(μ0 , x0 ) hat keine weiteren Eigenwerte auf der imagin¨ aren Achse auch nicht den Eigenwert Null (simple eigenvalue condition). (3◦ ) σ (μ0 ) = 0 (eigenvalue crossing condition). Dann zweigt im kritischen Punkt (μ0 , x0 ) eine einparametrige Schar von nichttrivialen periodischen L¨ osungen ab. Vor. (1◦ ) folgt auch aus (2◦ ) nach dem Satz u ¨ber implizite Funktionen, weil ar sein soll. gradx g(μ0 , x0 ) regul¨ Wir verschieben o.B. den kritischen Punkt in den Ursprung (0, 0) und setzen g(μ, 0) = 0 voraus. Dann wird (5.59) zu dem System x(t) ˙ + A(μ)x(t) + f (μ, x(t)) = 0 , f (μ, 0) = 0 , in dem f (μ, x) die h¨ oheren Terme in μ und x enth¨alt.
278
5 Der Weg als Ziel
(a) Einfache Beispiele Beispiel A Das System
x˙ = A(μ)x , A(μ) =
μ −1 1 μ
(5.60)
hat die Eigenwerte λ1,2 = μ ± i und das Phasenportr¨at Abb. 5.7:
Abb. 5.7. Beispiel A
Neben der trivialen L¨ osung erscheinen f¨ ur μ = 0 weitere L¨osungen, die alle die gleiche Periode 2π haben. Das ber¨ uhmte Ergebnis von [Hopf] besagt im Wesentlichen, dass diese zerbrechlichen periodischen L¨ osungen nicht alle wieder verschwinden, wenn in (5.60) ein nichtlinearer Term hinzugef¨ ugt wird, sondern dass im Regelfall genau eine L¨ osung u ¨brigbleibt, die allerdings ihre Periode mit μ ¨andern kann (aber nicht zwingend muss). In der superkritischen Hopf-Verzweigung ist die nichttriviale L¨ osung stabil und die triviale instabil: Beispiel B Das nichtlineare System x˙ − A(μ)x + |x|x = 0 ∈ R2 , A(μ) = hat das Phasenportr¨ at Abb. 5.8:
Abb. 5.8. Beispiel B
μ −1 1 μ
,
5.5 Hopf-Verzweigung
279
Man erkennt, dass eine nichttriviale L¨ osung f¨ ur μ > 0 existiert und alle L¨osungen außer der trivialen f¨ ur t → ∞ gegen diese L¨osung konvergieren. Bei der subkritischen Hopf-Verzweigung ist die nichttriviale L¨osung instabil und die triviale stabil: Beispiel C Das nichtlineare System
x˙ − A(μ)x − |x|x = 0 ∈ R2 , A(μ) =
μ −1 1 μ
,
hat das Phasenportr¨ at Abb. 5.9.
Abb. 5.9. Beispiel C
Man erkennt, dass f¨ ur μ < 0 eine nichttriviale periodische L¨osung existiert und alle L¨ osungen außer der trivialen konvergieren f¨ ur t → −∞ gegen diese L¨ osung konvergieren, daher ist diese L¨ osung instabil. Beide Beispiele haben die exakte periodische L¨osung |μ|(cos t, sin t), und die Periode ¨ andert sich nicht. Der folgende Satz besagt, dass alle zweidimensionalen Hopf-Verzweigungen im Wesentlichen die gleiche Form haben: Satz 5.7. Unter der Voraussetzung von Satz 5.6 und einer gewissen Regulaahe rit¨ atsbedingung sind alle Systeme x˙ + A(μ)x + f (μ, x) = 0 ∈ R2 in der N¨ des Ursprungs topologisch ¨ aquivalent zu einem der beiden folgenden Systeme
μ −1 x˙ − A(μ)x ± |x| x = 0 ∈ R , A(μ) = 1 μ 2
2
.
Beweis [Kuznetsov], § 3.5; insbesondere 3.3 . Die Regularit¨atsbedingung betrifft den nichtlinearen Anteil f des Differentialsystems und ist als Existenzbedingung etwas schwieriger zu formulieren. Das zweidimensionale System muss dazu durch eine einzige komplexe Differentialgleichung ersetzt werden. Man beachte auch, dass in den obigen Beispielen f (x) = |x|m x ¨aquivariant ist unter Rotationen C, f (Cx) = Cf (x); siehe auch § 5.1 (h3).
280
5 Der Weg als Ziel
(b) Transformation Es sei v(s) eine T-periodische L¨osung des autonomen, homogenen Differentialsystems v(s) ˙ + g(μ, v(s)) = 0 ∈ Rn , g(μ, 0) = 0 , mit dem Parameter μ ∈ R . Ist ω = 2π/T die Kreisfrequenz, dann ergibt die Substitution s = t/ω f¨ ur x(t) = v(t/ω) x(t) ˙ = v(t/ω)/ω ˙ , G(μ, ω, x)(t) := ω x(t) ˙ + g(μ, x(t)) = 0 ,
(5.61)
und x ist eine 2π-periodische L¨ osung. Wir untersuchen daher im Folgenden das umskalierte Problem F (μ, ω, x) := G(μ0 + μ, ω0 + ω, x) = 0 mit zwei Parametern auf m¨ ogliche Verzweigungen von 2π-periodischen L¨osungen im Punkt (μ0 , ω0 , 0) ; es ist also stets x0 = 0 die triviale L¨osung, die jede Periode hat. Diese Umskalierung ist notwendig einerseits f¨ ur die numerische Implementierung und andererseits weil Funktionen mit unterschiedlicher Periode keinen Vektorraum bilden und die Theorie der Fredholm-Operatoren angewendet werden soll. (c) Ein Eigenwertproblem Gegeben sei das linear gest¨orte 2π-periodische Eigenwertproblem 1 (5.62) ω0 Dt + A + μB x(t, μ) = λ(μ)x(t, μ), λ(0) = 0 , x(·, μ) ∈ C2π (Dt = d/dt) unter der folgenden Voraussetzung: Voraussetzung 5.4. (1◦ ) iω0 = 0 ist ein α-facher halbeinfacher Eigenwert der Matrix A ∈ Rn n , α ∈ N . aren Eigenwerte, (2◦ ) Neben ±iω0 hat die Matrix A keine weiteren rein imagin¨ auch nicht den Eigenwert Null (A regul¨ ar). 1 Die Operatoren L, L∗ ∈ L(C2π ; C2π ) , L = ω0 Dt +A , L∗ = −ω0 Dt +AT , haben dann die gleichen Eigenschaften wie in Beispiel 5.8, § 5.4(c), insbesondere sind sie Fredholm-Operatoren mit Index Null. Es sei
Ker(L) = {u1 , . . . , uκ } , U = [u1 , . . . , uκ ] , ui formale Spalten Ker(L∗ ) = {v 1 , . . . , v κ } , V d = [v k ]κk=1 v k formale Zeilen . Dann ist κ = 2α nach dem folgenden Lemma 5.17 und außerdem Range L ∩ Ker L = {0} , weil iω0 halbeinfacher Eigenwert ist; vgl. Lemma 5.1.
5.5 Hopf-Verzweigung
281
Lemma 5.17. Es gelte Voraussetzung 5.4. angige Vektoren c1 , . . . , cα ∈ Cn und (1◦ ) Dann existieren linear unabh¨ 1 α d , . . . d ∈ Cn so, dass j Ack = −iω0 ck , cH j ck = 2δ k ,
dk A = iω0 dk ,
j
d ck = 2δ j k , dj ck = 0 , j, k = 1 : α
.
(5.63)
osungen von L bzw. L∗ f¨ ur den Eigenwert Null haben die reelle (2◦ ) Die Eigenl¨ Form uk : t → Re(ck eit ) , k = 1 : α , uk : t → Im(ck−ν eit ) , k = α + 1 : 2α , v k : t → Re(dk eit ) , k = 1 : α , v k : t → Im(dk−ν eit ) , k = α + 1 : 2α . Siehe auch [Golubitsky], § 8.2 f¨ ur α = 1 und [Kielhoefer]. (1◦ ) ist eine einfache Folgerung aus der Tatsache, dass die Links-Eigen(-und Haupt)vektoren einer quadratischen Matrix die reziproke Basis der Rechts-Eigen(-und Haupt)vektoren sind (auch im komplexen Fall). Der zweite Teil folgt durch 2π 1 u(t)T v(t) dt , u, v ∈ C2π , das zu Grunde lieEinsetzen, wobei u, v! = 2π 0 gende Skalarprodukt ist. Weitere Eigenschaften der Eigenfunktionen werden in dem folgenden Lemma zusammengefasst: Lemma 5.18. Es gelte Voraussetzung 5.4. (1◦ ) u˙ k = −uα+k , u˙ α+k = uk , k = 1 : α , v˙ k = −v α+k , v˙ α+k = v k , k = 1 : α . (2◦ ) u1 , . . . , u2α bilden eine reelle orthonormale Basis von Ker L . (3◦ ) v 1 , . . . , v 2α bilden eine Basis von Ker L∗ . (4◦ ) v 1 , . . . , v 2α bilden die Dualbasis von u1 , . . . , u2α , v j , uk ! = δ j k , j, k = 1 : 2α .
0 I ◦ d ˙ j 2α (5 ) B1 := V U = [ v , u˙ k !]j,k=1 = (symplektische Normalform) . −I 0
Re[Λ (0)] Im[Λ (0)] (6◦ ) B2 := V d BU = [ v j , Buk !]2α = . j,k=1 − Im[Λ (0)] Re[Λ (0)] Dabei ist B die Matrix aus (5.62) und Λ (0) = diag[λ1 (0), . . . , λν (0)] ist eine komplexe Diagonalmatrix. Alle Behauptungen außer der letzten folgen direkt durch Substitution; f¨ ur (6◦ ) siehe den Hinweis zum Beweis von Satz 5.5. Diesen Satz k¨onnen wir nun direkt anwenden, weil B2 eine normale also diagonalisierbare Matrix ist: Folgerung 5.4. Unter Voraussetzung 5.4 hat das System (5.62) α verschiedene, glatte L¨ osungen in der N¨ ahe von |μ| = 0 .
282
5 Der Weg als Ziel
(d) Skalierung Gegeben sei das zweiparametrige autonome und homogene Differentialsystem ˙ + g(μ, x(t)) = 0 , F (ω, μ, 0) = 0 ∈ Rn F (ω, μ, x)(t) := (ω0 + ω)x(t) 1 mit F : R2 × C2π → C2π hinreichend glatt. Der Urprung (0, 0, 0) ist ein m¨ogli´chet-Ableitung Fx0 = ∇x F (0, 0, 0) cher Verzweigungspunkt, wenn die Fre einen nichttrivialen Kern hat. Wir betrachten die Entwicklung
˙ , F (ω, μ, x)(t) = Lx+ω x(t)+Ax(t)+μBx(t)+C ˙ r (x)+ h.o.t. , Lx = ω0 x+Ax (5.64) 0 , Cr (αx) = αr Cr (x) = 0 , und verwenden die Bemit A = gx0 , B = gμx zeichnungen aus (c). Unter Voraussetzung 5.4 ist dann Null ein halbeinfacher Eigenwert von L . Es folgt Y = Range(L) ⊕ Ker(L) und o.B. kann V d U = [< v i , uk >]νi,k=1 = I angenommen werden. Der in der Operatorgleichung auftretende Projektor Q : Y → Range(L) ist durch Q : u → Qu := U V d u gegeben. F¨ ur den skalierten Ansatz (ω(ε), μ(ε)) = εr−1 (κ(ε), η(ε)), x(t, ε) = εU (t)ζ(ε) + εr w(t, ε), V (t)w(t, ε) = 0 .
(5.65)
ergibt Lemma 5.5 und Folgerung 5.1 Folgerung 5.5. F¨ ur alle ζ mit V d BU ζ ungleich Null hat die algebraische Bifurkationsgleichung des Systems (5.64) die Form Φ(κ, η, ζ) := κV d U˙ ζ + ηV d BU ζ + V d Cr (U ζ) = 0 .
(5.66)
eine L¨ osung, und es sei die Es sei (κ0 , η0 , ζ0 ) ∈ R Jacobi-Matrix Φκ,η,ζ (κ0 , η0 , ζ0 ) rangmaximal mit Rang 2α . Dann hat das Problem (5.64) f¨ ur hinreichend kleine |ε| > 0 eine eine nichttriviale Verzweigungsl¨ osung (5.65) im Punkt (ω, μ, x) = (0, 0, 0) . 2α+2
Beispiel 5.11. Unter der Voraussetzung von Satz 5.6 f¨ ur das zweidimensionale System (5.64) folgt nach Lemma 5.18
0 1 σ (0) ω (0) d ˙ d , B2 := V BU = B1 := V U = . −1 0 −ω (0) σ (0) Folglich sind B1 ζ0 und B2 ζ0 linear unabh¨ angig f¨ ur jedes 0 = ζ0 ∈ R2 g.d.w. σ (0) = 0 ist (eigenvalue crossing condition). In diesem Fall ergibt
κ0 (5.67) = [B1 ζ0 , B2 ζ0 ]−1 V d Cr (U ζ0 ) η0 die gew¨ unschte L¨ osung von (5.66). Im Fall α > 1 empfiehlt es sich, die Bifurkationsgleichung (5.66) um die Bedingung |ζ| = 1 zu erweitern und μ als unabh¨ angige Variable zu betrachten. Dann besteht das erweiterte System aus α + 1 Gleichungen f¨ ur α + 1 abh¨ angige Variable (ω, ζ) ; siehe auch [Kielhoefer].
5.5 Hopf-Verzweigung
283
1 (e) Diskretisierung Es sei (ω, μ, x) = (ω0 , 0, 0) ∈ R × R × C2π ein einfacher Hopf-Verzweigungspunkt des homogenen Systems
F (ω, μ, x) := ω x˙ + Ax + g(μ, x) = 0 ∈ Rn , g(μ, x) = μBx + f (μ, x) , (5.68) ur hinreichend mit der 2π-periodischen L¨ osung x(◦ , μ) : t → x(t, μ) ∈ Rn f¨ kleines μ > 0. (e1) Differenzenapproximation Es sei tk = kτ , k = 0 : 2m − 1 , τ = 2π/2m ,
(5.69)
eine ¨ aquidistante Unterteilung des t-Intervalls [0, 2π] , und es sei yk , k = 0 : 2m − 1 , eine numerische Approximation von x(tk ) ∈ Rn . Dann schreiben wir Y := [y0 , . . . , y2m−1 ]T ∈ R2m·n (globaler Knotenvektor) , G(μ, Y ) := [g(μ, y0 ), . . . , g(μ, y2m−1 )]T ∈ R2m·n . Bei der Differenzenapproximation von (5.68) wird die t-Ableitung von y durch eine Differenzenformel ersetzt. Zum Beispiel im R¨ uckw¨artsdifferenzenverfahren der Ordnung p = 2 ist dies y(t) ˙ =
1 [3y(t) − 4y(t − τ ) + y(t − 2τ )] + O(|τ |2 ) , 2τ
τ → 0.
(5.70)
Unter Beachtung der Unterteilung (5.69) und der geforderten Periodizit¨at entsteht dann ein diskretes System f¨ ur den Knotenvektor Y , ω(C × In )Y + (I2m × A)Y + G(μ, Y ) = 0 ,
(5.71)
mit dem Kronecker-Produkt P × Q = [pi k Q]. In diesem System ist I2m ∈ R2m 2m die Einheitsmatrix und C ∈ R2m 2m eine zirkulante Matrix der Form ⎤ ⎡ c0 c1 c2 · · · c2m−1 ⎢ c2m−1 c0 c1 · · · c2m−2 ⎥ ⎥ ⎢ ⎥ ⎢ (5.72) C = ⎢ c2m−2 c2m−1 c0 · · · c2m−3 ⎥ . ⎢ .. .. .. . . .. ⎥ ⎣ . . . . . ⎦ c1
c2
c3 · · ·
c0
Bei der Differenzenformel (5.70) ist z.B. [c0 , c1 , c2 , . . . , c2m−1 ] =
1 [3, −4, 1, 0, . . . , 0] , τ = 2π/2m . 2τ
284
5 Der Weg als Ziel
Mit der primitiven Einheitswurzel = e2πi/2m l¨asst sich die Jordansche Normalform C = P ΛP H einer zirkulanten Matrix C direkt angeben: P = [pi j ],
pi j = (2m)−1/2 (i−1)(j−1) Fourier-Matrix
Λ = diag(λ1 , λ2 , . . . , λ2m ) 2m−1 λk = l=0 cl [k−1 ]l , k = 1 : 2m
Matrix der Eigenwerte von C Eigenwerte ;
vgl. [M.Chen]. Ist C regul¨ ar, dann ist C −1 = P Λ−1 P H ebenfalls eine zirkulante Matrix, und das System Cx = b hat die L¨osung x = P Λ−1 P H b, die mit der schnellen Fourier-Transformation in besonders vorteilhafter Weise berechnet werden kann. F¨ ur die Eigenvektoren u und v mit Cu − cu = 0 und Av + av = 0 gilt a(C × In )(u × v) + c(I2m × A)(u × v) = 0 . arer Eigenwert von A und c = iγ rein imagin¨arer Wenn −a = −iω0 rein imagin¨ Eigenwert von C ist, dann gilt insbesondere i[ω0 (C × I) + γ(I × A)](u × v) = 0 ,
(5.73)
folglich sind dann Re(u × v) ∈ R2m·n und Im(u × v) reelle Eigenvektoren der reellen Matrix ω0 (C × I) + γ(I × A) zum reellen Eigenwert −a c = ω0 γ . Insgesamt lassen sich also die Eigenvektoren der f¨ uhrenden Matrix in (5.71) leicht berechnen, wenn ein charakteristisches Paar von A mit rein imagin¨arem Eigenwert vorliegt, wie es bei der Hopf-Verzweigung der Fall ist. (e2) Periodische Ansatzfunktionen Wenn die L¨osung x von (5.68) eine absolutstetige Ableitung besitzt, l¨ asst sich x – und ebenso g – als reellwertige Fourier-Reihe mit komplexen Daten darstellen, x(t) =
∞
x∗j eijt ,
x∗−j = x∗j ,
j=−∞
g(μ, x(t)) =
∞
g(μ, x)∗j eijt ,
g(μ, x)∗j =
j=−∞
1 2π
2π
g(μ, x(t)) e−ijt dt .
0
(5.74) Setzen wir die Fourier-Reihe f¨ ur x und g ein, so ergibt sich f¨ ur das System (5.68) bzw. f¨ ur seine Fourier-Koeffizienten F (ω, μ, x)(t) = 0=
∞ iωjx∗j + Ax∗j + g(μ, x)∗j eijt = 0 j=−∞ iωjx∗j
+
Ax∗j
+
g(μ, x)∗j
(5.75)
, j = −∞, . . . , ∞ ;
vgl. [Dellnitz]. Zur numerischen Approximation wird u ¨ber eine endliche Indexmenge summiert, etwa wie hier vorgeschlagen u ¨ber j = (1 − m) : m.
5.5 Hopf-Verzweigung
285
Als Ergebnis erh¨ alt man das wohlbekannte Ritz-Verfahren bez¨ uglich einer Entwicklung nach den Eigenvektoren des Differentialoperators d/dt bei 2πperiodischen Funktionen. Nach (12.7) sei y(t) =
m−1
1 ∗ imt yj∗ eijt + ym (e + e−imt ) ∈ Rn 2 j=1−m
die Approximation der exakten L¨ osung x, dann folgt f¨ ur das System der 2m unbekannten Fourier-Koeffizienten nach (5.75) iωjyj∗ + Ayj∗ + g(μ, y)∗j = 0 , j = (1 − m) : (m − 1), ∗ + g(μ, y)∗m 0 + Aym
= 0.
(5.76)
F¨ ur die numerische Integration ist hier nach Lemma 2.1 die summierte Trapezregel die erste Wahl, damit erhalten wir g(μ, y)∗j ∼
2m−1 1 g(μ, yk ) e−ijkτ , j = (1 − m) : m , 2m k=0
unter Beachtung von y(0) = y(t0 ) = y(t2m ) = y(2π) . Mit den Bezeichnungen ∗ ∗ T := [y1−m , . . . , ym ] ∈ R2m·n , Y∗ ∗ ∗ G(μ, Y ) := [g(μ, y)1−m , . . . , g(μ, y)∗m ]T , D := i diag[1 − m, . . . , m − 1, 0] ,
ergeben die Formeln (12.3) der diskreten Fourier-Transformation Y = (Q × In )Y ∗ , Y ∗ =
1 (QH × In )Y . 2m
(5.77)
Somit hat die endlichdimensionale Approximation von (5.68) nunmehr die Form 0 = ω(D × I)Y ∗ + (I × A)Y ∗ + G(μ, Y )∗ , (5.78) 1 (QH × I)G(μ, Y ) G(μ, Y )∗ = 2m Wenn wir (5.77) verwenden und die erste Gleichung mit Q × I multiplizieren, erhalten wir das entsprechende System f¨ ur den globalen Knotenvektor Y das System × I)Y + (I × A)Y + G(μ, Y ) = 0 . ω(C (5.79) F¨ ur kompatible Matrizen gilt (A × B)(C × D) = AC × BD , daher hat die die Form Matrix C = [cj k ]2m−1 := 1 Q D QH . C j,k=0 2m
286
5 Der Weg als Ziel
Sie ersetzt den Differentialoperator d/dt, ist reell, schiefsymmetrisch und zirkulant mit 2m verschiedenen Eintr¨ agen cj k = −
m−1 1 l sin(l(j − k)τ ) , j, k = 0 : (2m − 1) . m l=1
(f ) Numerische L¨ osung Wir betrachten eine einfache Hopf-Verzweigung des Systems (5.68), F (ω, μ, x) := Lx + ω x˙ + μBx + f (μ, x) = 0 ∈ Rn , Lx = ω0 x˙ + Ax , im Punkt (ω, μ, x) = (0, 0, 0) , in dem die regul¨ are Matrix A genau zwei imagin¨ are Eigenwerte ± iω0 haben soll und der Operator L folglich den doppelten halbeinfachen Eigenwert Null hat. Der folgende Algorithmus liefert eine lokale nichttriviale L¨ osung durch Iteration. Die Anpassung der Parameter ω und μ erfolgt ¨ ahnlich wie in (5.67), w¨ ahrend der Komponentenvektor ζ fest gew¨ahlt ist. Die Konvergenz ist f¨ ur hinreichend kleine |ε| gesichert nach dem Kontraktionssatz ¨ ahnlich wie im Lemma 5.6, § 5.2b), von [Keener74]. Anschließend wird ein einfaches Fortsetzungsverfahren bez. des Parameters μ angewendet, wobei (ω, x) die abh¨ angigen Variablen sind, damit die L¨osung in sinnvolle Gr¨ oßenordnungen vordringt. Verschiedene Anfangsvektoren ζ ergeben nur eine Phasenverschiebung der periodischen L¨ osung, und es reicht aus, eine der beiden Bifurkationsgleichung zu studieren, um einen ev. Stabilit¨atstransfer von der trivalen L¨ osung zu u ufen [Golubitsky]. ¨berpr¨ START: W¨ ahle Toleranz tol ; setze μ (μ, ω) = 0 , w = 0 ∈ Rn . ◦ (1 ) Berechne die Matrizen U = [u1 , u2 ] und V = [v 1 ; v 2 ] der Eigenl¨ osungen. ahle einen Vektor ζ ∈ R2 mit |ζ| = 1 und ε > 0 hinreichend (2◦ ) W¨ klein, setze u0 = εU ζ und x = u0 . WHILE NOT |F ( μ, x)| ≤ tol ˙ V d Bx] ∈ R2 2 . Wenn H regul¨ar ist, l¨ose (1◦ ) Setze H = [V d x, Hμ ∗ = −V d f (μ, x) , ω = μ ∗1 , μ = μ ∗2 . Wenn [V d u˙0 , V d Bu0 ] singul¨ ar ist: STOP (Algorithmus versagt), versuche neues ζ . ose (2◦ ) L¨ L w! = −ω x˙ − μBx − f (μ, x) , V d w! = 0 . und setze x = u0 + w . END Reduziere ε , falls Iteration divergiert.
5.5 Hopf-Verzweigung
287
Bei Anwendung auf eine der Diskretisierungen in (e) ist z.B. x = Y , L = ω0 (C × In ) + (I2m × A) ∈ R2m+n 2m+n , und der Operator Dt der t-Ableitung wird ersetzt durch den Operator C × R -ProIn ; vgl. auch hopf_bdf.m und hopf_trig.m im Ordner der MATLAB gramme zu diesem Kapitel. (g) Beispiele Wir stellen einige bekannte Beispiele mit einfacher HopfVerzweigung im Punkt (ω, μ, x) = (ω0 , 0, 0) vor; alle haben die homogene Form ω x˙ + (A + μB)x + f (μ, x) = 0 , f (μ, 0) = 0 , (5.80) mit f (μ, x) = o (|μ| + |x| + |μ x|) . Beispiel 5.12. Van der Pol-Gleichung [Hairer], Bd. I, S. 107. Abb. 5.10. ω x˙ 1 − x2 =0 ω x˙ 2 + x1 + μ(x21 − 1)x2 = 0 , μ > 0
.
√ √ Multipliziert man beide Gleichungen mit μ und schreibt x := μx, dann folgt
0 −1 0 0 0 A= , B= , f (μ, x) = 2 , 0 −1 x1 x2 1 0 ω0 = 1 , c1 = d1 = [1, i]T . Beispiel 5.13. Feedback-Inhibition-Modell [Glass], [Langford77a]. Abb. 5.11. ω x˙ + Ax + h(μ, x) = 0 , ⎤ ⎡ ⎤ ⎡ 1 02 g(μ, x3 ) A = ⎣ −2 1 0 ⎦ , h(μ, x) = ⎣ −g(μ, x1 ) ⎦ 0 −2 1 −g(μ, x2 ) g(μ, x) =
1 (1 + 2x)μ+4 − 1 1 − 2x = μx − 2x2 − 8x3 + · · · . μ+4 2 (1 + 2x) +1 2
Daraus folgt ⎤ ⎡ ⎤ ⎡ 0 01 g(μ, x3 ) − μx3 /2 1⎣ −1 0 0 ⎦ , f (μ, x) = ⎣ −g(μ, x1 ) + μx1 /2 ⎦ . B= 2 −g(μ, x2 ) + μx2 /2 0 −1 0 √ Die Eigenwerte von A sind 3 , ±i 3, woraus f¨ ur (5.63) folgt ω0 =
√
T √ 1 √ 3 , c1 = d1 = √ i 3 − 1, 3 + 1, 2 . 6
288
5 Der Weg als Ziel
Beispiel 5.14. Der kleine Brusselator [Hairer] Bd. I, S. 112. Abb. 5.12. ω x˙ 1 + (b + 1)x1 − x21 x2 − a = 0 , a = 0 , =0 ω x˙ 2 − bx1 + x21 x2
.
Singul¨ are Punkte sind (x1 , x2 ) = (a, b/a) und Hopf-Verzweigung entsteht f¨ ur b = a2 + 1. Wir setzen b = a2 + 1 + μ und erhalten dann ω x˙ 1 + (a2 + 2 + μ)x1 − x21 x2 − a = 0 = 0. ω x˙ 2 − (a2 + 1 + μ)x1 + x21 x2 Aus ω = 0 folgt x1 = a und x2 = (a2 +1+μ)/a . Eine Substitution von x1 = a+ u und x2 = v +(a2 +1+μ)/a ergibt dann ein Problem mit Verzweigungspunkt (μ, x) = (0, 0): ω u˙ − (a2 + μ)u − a2 v − (a + μa−1 + a−1 )u2 − 2auv − u2 v =0 2 2 −1 −1 2 2 ω v˙ + (a + 1 + μ)u + a v + (a + μa + a )u + 2auv + u v = 0
,
oder (5.80) mit
−a2 −a2 −1 0 , B = , a2 + 1 a2 10
−(a + μa−1 + a−1 )x21 − 2ax1 x2 − x21 x2 f (μ, x) = . (a + μa−1 + a−1 )x21 + 2ax1 x2 + x21 x2 A=
Man berechnet f¨ ur (5.63)
ω0 = a , c1 = γ
T
2 a a +1 , 1 , d1 = δ ,1 , i−a a2 + ia
mit γ 2 = 2(a2 + 1)/(2a2 + 1) und δ = (1 − ia)/γ . Beispiel 5.15. Der große Brusselator [Hairer] Bd. I, S. 114. Abb. 5.13. ω x˙ 1 − x21 x2 + (x3 + 1)x1 − 1 = 0 =0 ω x˙ 2 − x1 x3 + x21 x2 =0 ω x˙ 3 + x1 x3 − a
.
Aus ω = 0 folgt x = [1, a, a]T als singul¨ arer Punkt. Die Substitution x1 = 1+u , x2 = a+v , x3 = a+w ergibt dann ein Problem mit Verzweigungspunkt (μ, x) = (0, 0) , ω x˙ + A(a)x + h(a, x) = 0 , (5.81)
5.5 Hopf-Verzweigung
wobei
289
⎤ ⎤ ⎡ 1 − a −1 1 −ax21 − 2x1 x2 − x21 x2 + x1 x3 1 −1 ⎦ , h(a, x) = ⎣ ax21 + 2x1 x2 + x21 x2 − x1 x3 ⎦ . A(a) = ⎣ a x1 x3 a 0 1 ⎡
Hopf-Verzweigung entsteht im Punkt a0 = (9 − wegen muss man a = a0 + μ in (5.81) einsetzen.
√ 17)/4 = 1.21922 . . . . Des-
Beispiel 5.16. Eine Lorentz-Gleichung [Seydel94]. Abb. 5.14. Bezeichnungen: P R b S
= Prandtl-Zahl = relative Rayleigh-Zahl = Konstante = (bR − b)1/2
(P = 16) (R0 = 368/11) (b = 4) (S = (bR0 − b)1/2 .
Das Differentialsystem ω x˙ + h(R, x) = 0 , ω x˙ 1 + P (x1 − x2 ) =0 ω x˙ 2 + x1 x3 − Rx1 + x2 = 0 =0 ω x˙ 3 − x1 x2 + bx3
.
hat die singul¨ aren Punkte x1 = [0, 0, 0] , x2 = [S, S, R − 1] , x3 = [−S, −S, R − 1] . Der Gradient gradx h(R, x2 ) hat z.B. f¨ ur die genannten Daten ein Paar von rein imagin¨aren Eigenwerten ±iω0 , und es entsteht dann eine HopfVerzweigung mit dem Parameter R = R0 + μ . Die Substitution x = x2 + u ergibt das System ω u˙ + A(R)u + h(u) + c = 0 mit
⎤ ⎤ ⎡ ⎤ ⎡ 0 P −P 0 0 A(μ) = ⎣ −1 − μ 1 S ⎦ , h(u) = ⎣ u1 u3 ⎦ , c = ⎣ S(R − 1) − RS + S ⎦ . −u1 u2 −S 2 + b(R − 1) −S −S b ⎡
Die Konstanten sind so gew¨ ahlt, dass c = 0 wird.
290
5 Der Weg als Ziel 6
μ=2 4 0.2 0.1
y
3
2
0 −0.1
0
−0.2
−2 0.2 0.1
0.2 0
−4
0.1 0
−0.1
μ = 0.0625 −6 −4
−2
0
−0.1
−0.2
2
−0.2
y2
4
Abb. 5.10. Beispiel 5.12
y1
Abb. 5.11. Beispiel 5.13
3
6
2
μ = 1.5
y3
4
1
2 0
0
18 16
−1
14 12 10 −2
14
8
12 6
10 8
4 −3
2
μ = 0.13
−4 −1
0
1
2
6
y2 3
4
5
Abb. 5.12. Beispiel 5.14
2
y
1
Abb. 5.13. Beispiel 5.15
42 40 38 36 34
y3
4 0
32 30 28 26 24 22 20 15 15
10 5
10 5
y
2
y1
Abb. 5.14. Beispiel 5.16
Literatur: [Golubitsky], [Kuznetsov], [Seydel94].
5.6 Numerische Bifurkation
291
5.6 Numerische Bifurkation In diesem Abschnitt werden lokale Verzweigungsl¨osungen f¨ ur singul¨are Punkte im Koordinatenraum berechnet, es ist also X = Y = Rn , Xd = Yd = Rn , U d = U T , V d = V T , und a, b! = a b mit a ∈ Rn und b ∈ Rn . (a) Gegeben sei das System F (μ, x) = Ax + f (μ, x) = 0 ∈ Rn
(5.82)
mit der trivalen L¨ osung F (μ, 0) = 0 . Im Verzweigungspunkt (μ0 , 0) existiere ein nichttriviale L¨ osung des linearisierten Problems (A + ∇x f (μ0 , 0))x = 0 . Ist wieder B(μ) = ∇x f (μ, 0) , dann ist also die Matrix L = A + B(μ0 ) ein Fredholm-Operator mit Index Null und α := dim Ker L ≥ 1 . Insbesondere ist B(μ) = μB f¨ ur f (μ, x) = [μBx + h.o.t. in μ und x ]. Die Behandlung des nichtlinearen Eigenwertproblems Ax + μg(x) = 0 wurde schon in § 5.2 (c) vorbereitet. F¨ ur α = 1 kann es wie im letzten Abschnitt durch direkte Iteration gel¨ ost werden. F¨ ur α > 1 kann das Verfahren von Keener aus Lemma 5.6 angewendet werden, wobei aber in jedem Iterationsschritt eine nichtlineare Bifurkationsgleichung gel¨ ost werden muss. Der folgende Algorithmus von Demoulin & Chen [Demoulin] bezieht sich Systeme (5.82) mit der Eigenschaft f (μ, x) = μg(x) , verwendet aber nur lineare Gleichungen in jedem Iterationsschritt. Wie bisher in diesem Kapitel seien U = [u1 , . . . , uα ] ∈ Rn α und V T = [v 1 ; . . . ; v α ] ∈ Rα n die Matrizen der Rechts- und Linkseigenvektoren, also LU = 0 ∈ Rn α und V T L = 0 ∈ Rα n ; f¨ ur symmetrische Matrix L gilt nat¨ urlich V T = U T . (a1) α = 1 . Nach den Vorgaben der Ljapunov-Schmidt-Reduktion gehen wir aus von dem System Lx+f (μ, x)−B(μ0 )x = 0 und v 1 [f (μ, x)−B(μ0 )x]) = 0 , aber nach dem Vorschlag von [Demoulin] berechnen wir L¨osungen x = orten Problems εu1 + w , u1 w = 0 des gest¨ Lw + f (μ, x) − B(μ0 )Bx + Δμ εBμ (μ0 )u1 = 0 . Wegen α = 1 ist dann Δμ εv 1 Bμ (μ0 )u1 = v 1 (B(μ0 )x − f (μ, x) . Es sei v 1 Bμ (μ0 )u1 =: a = 0 und μ0 = μ0 , w0 = 0 , x0 = εu1 + w0 sowie |ε| passend gew¨ ahlt (nicht zu groß und nicht zu klein). Dann lautet die Iterationsvorschrift f¨ ur n = 0, 1, . . . Δμ = (εa)−1 v 1 (B(μ0 )xn − f (μn , xn )) Lwn+1 = −f (μn , xn ) + B(μ0 )xn − Δμ εBμ (μ0 )u1 , , u1 wn+1 = 0 μn+1 = μn + Δμ , xn+1 = εu1 + wn+1 . (a2) F¨ ur α > 1 gehen wir aus von der Entwicklung f (μ, x) = B(μ)x + Cr (μ) x! + h.o.t. in x , wobei Cr (μ) eine r-lineare Abbildung in x ist, vgl. § osung der algebraischen Bifurkations5.2 (b). Es sei (μ∗ , ζ ∗ ) eine isolierte L¨ gleichung
292
5 Der Weg als Ziel
μV d Bμ (μ0 ) U ζ! + V d Cr (μ0 ) U ζ! = 0 , U ζ, U ζ! = 1 derart, dass die Matrix
d V Bμ (μ0 ) U ζ! V d [μBμ (μ0 ) + ∇x [Cr (μ0 ) U ζ!]]U G := ∈ Rα+1 α+1 0 2ζ T U T U regul¨ ar ist. Sei ferner w0 eine L¨ osung von Lw = −μ∗ Bμ (μ0 ) U ζ ∗ ! − Cr (μ0 ) U ζ ∗ ! , U T w = 0 , und sei ζ 0 = ζ ∗ , μ0 = μ0 + εr−1 μ∗ , w0 = εr w0 , x0 = εU ζ 0 + w0 und |ε| passend gew¨ ahlt. Dann lautet die Iterationsvorschrift f¨ ur n = 0, 1, . . .
d εV Bμ (μ0 ) U ζ ∗ ! εV d (μ∗ − μ0 )Bμ (μ0 ) + ∇x [Cr (μ0 ) εU ζ ∗ !] U Δμ Δζ 0 ζ ∗T U T U
μ0 V d B(μ0 )xn − V d f (μn , xn ) = ∈ Rα+1 2−1 (1 − ζ nT U T U ζ n ) Lwn+1 = −f (μn , xn ) + B(μ0 )xn − Δμ εBμ (μ0 ) U ζ ∗ ! − ε(μ∗ − μ0 )B U (Δζ)! − ε∇x [Cr (μ0 ) εU ζ ∗ !] U (Δζ)! , U T wn+1 = 0 μn+1 = μn + Δμ , ζ n+1 = ζ n + Δζ , xn+1 = εU ζ n+1 + wn+1 . (b) Der folgende Algorithmus f¨ ur einen allgemeinen Verzweigungspunkt allen brauchbare Funktionskei(μ0 , x0 ) von F (μ, x) = 0 liefert in vielen F¨ me, obwohl er nicht ganz der Regeln der Ljapunov-Schmidt-Reduktion entspricht: (1◦ ) Berechne die Matrizen U und V T der Rechts- und Linkseigenvektoren zum Eigenwert Null der Matrix L = ∇x F (μ0 , x0 ) . osung ξ0 , ζ0 der algebraischen Bifurka(2◦ ) Berechne eine isolierte L¨ ahle ε > 0 geeignet (nicht zu groß und tionsgleichung mit ζ0 = 0 . w¨ nicht zu klein) sowie (λ, w) = (0, 0) als Startwert. ose das System (3◦ ) L¨
F (μ0 + λ, x0 + εU ζ0 + w) =0 H(λ, w) := UT w f¨ ur (λ, w) mit dem ged¨ ampften Newton-Verfahren. Setze μ = μ0 + λ , x = x0 + εU ζ0 + w . Im Fall α = dim Ker L > 1 ist das System H(λ, w) = 0 u ¨berbestimmt, R keine Schwierigkeiten was aber bei einer Implementation mit MATLAB macht. Anstatt die Bifurkationsgleichung zu l¨ osen, kann auch versuchsweise ein spezifischer Eigenvektor uk direkt als Starttangente gew¨ahlt werden, d.h.
5.6 Numerische Bifurkation
293
x = x0 + εuk + w . Das Verfahren kann z.B. an dem Beispiel 5.4 von [Crandall] in § 5.1 getestet werden, in dem auch sekund¨are Bifurkation außerhalb des Ursprungs vorkommt. (c) Ein klassisches Beispiel Um den Kontext mit den oben eingef¨ uhrten Bezeichnungen zu wahren, sei weiterhin x die gesuchte Funktion. Es sei Ω = {(ξ, η) ∈ R2 , 0 < ξ < a, 0 < η < b} ein Rechteck in der (ξ, η)-Ebene. Wir betrachten das einfache Randwertproblem f¨ ur die Poisson-Gleichung F (μ, x) = −Δx − μf (x) = 0 , (ξ, η) ∈ Ω ; x = 0 , (ξ, η) ∈ ∂Ω .
(5.83)
(c1) Zun¨ achst wird die L¨ osung des linearen Eigenwertproblems −Δx = λx , (ξ, η) ∈ Ω ; x = 0 , (ξ, η) ∈ ∂Ω ,
(5.84)
berechnet. Der negative Laplace-Operator A = −Δ ist positiv semidefinit und bei dem gegebenen Randwertproblem positiv definit. Ein Separationsansatz x(ξ, η) = u(ξ)v(η) ergibt die beiden gew¨ ohnlichen Randwertprobleme −uξξ = λ1 u , u(0) = u(a) = 0 , −vηη = λ2 v , v(0) = v(b) = 0 , λ = λ1 + λ2 , deren L¨ osungen bereits in § 2.4(h) angegeben wurden. Zusammen erhalten wir die charakteristischen Paare f¨ ur (5.84)
2 η p q2 ξ [λpq , upq ] = π 2 + , sin pπ · sin qπ , p, q ∈ N , (5.85) a2 b2 a b und es kann gezeigt werden, dass dies alle charakteristischen Paare des Problems sind. (c2) Diskretisiert man das zweidimensionale Problem (5.84) in der gleichen Weise wie das eindimensionale Problem (2.61), so erh¨alt man f¨ ur den Knotenvektor Y = (y 1 1 , . . . , y 1 n , . . . , y m 1 , . . . , y m n )T , y j k = y(kΔξ, jΔη) , Δξ = a/(n + 1) , Δη = b/(m + 1) , m, n ∈ N , das diskretisierte Problem CY = ΛY mit der Matrix C=
1 1 [Im × An ] + [Am × In ] . 2 Δξ Δη 2
Dabei ist Im ∈ Rm m die Einheitsmatrix und Am ∈ Rm m die Matrix aus (2.62) ohne den Faktor 1/h2 . (Etwas problemgerechter w¨are es, den Vektor Y als Matrix mit den Zeilen [y i 1 , . . . , y i n ] , i = m, m − 1, . . . 1 , zu schreiben, weil dann die Position von y i k in der Matrix mit der Position in Ω u ¨bereinstimmt.) Im ¨ Ubrigen sind noch die Nullrandbedingungen hinzuzuf¨ ugen, um das Problem vollst¨ andig zu machen. Aus § 2.4(h) ergeben sich direkt die charakteristischen Paare von C:
294
5 Der Weg als Ziel
C Upq = C(v q × up ) = Δξ −2 (v q × An up ) + Δη −2 (Am v q × up ) = σp (v q × up ) + τq (v q × up ) = Λpq (v q × up ) mit
pπa 4 2 sin Δξ 2 2(n + 1)a qπb 4 2 τq = sin Δη 2 2(m + 1)b
n kpπa up = sin (n + 1)a k=1
m jqπb v q = sin (m + 1)b j=1 σp =
4 2 pπ Δξ sin Δξ 2 2a qπ 4 2 Δη sin = Δη 2 2b n pπ kΔξ = sin a k=1 m qπ jΔη = sin . b j=1 =
Bei diesem ganz speziellen Modellproblem lassen sich also die charakteri¨ stischen Paare der Diskretisierung analytisch berechnen. Uberdies stimmen hier die Eigenvektoren des diskretisierten Problems ausnahmsweise mit den exakten Eigenl¨ osungen an den Knotenpunkten u ¨berein – wie schon in § 2.4 erw¨ ahnt. Mehrfache Eigenwerte treten z.B. auf, wenn a = b und p2 + q 2 = r2 , r ∈ N . (c3) Noch spezieller betrachten wir das Problem −Δx − μx = 0 im Einheitsquadrat Ω mit Nullrandbedingungen. Dann ist μ0 = λ11 = 2π 2 der kleinste Eigenwert von A = −Δ mit den Eigenvektoren u1 (ξ, η) = sin(π ξ) sin(π η) und angt die Starttangente normalerweise v 1 = u1 . Bei mehrfachen Eigenwerten h¨ vom nichtlinearen Anteil f ab nach § 5.2. Im Problem −Δx + f (μ, x) = 0 , f (μ, x) = −μx + x3 + o(x3 )
(5.86)
ist z.B. μ0 = λ12 = λ21 = 5π 2 ein doppelter Eigenwert und die Variablen ξ und η k¨ onnen vertauscht werden (1. Symmetrie). Wenn Terme h¨oherer Ordnung assigt werden oder wenn f ungerade ist, gilt F (μ, −x) = o(x3 ) vernachl¨ −F (μ, x) (2. Symmetrie). F¨ ur ξ0 = ξ und ζ0 = ζ = (ζ1 , ζ2 ) lautet in diesem Fall die algebraische Bifurkationsgleichung
u1 , −ξζ1 u1 + (ζ1 u1 + ζ2 u2 )3 = 0, Φ(ξ, ζ) = (5.87) u2 , −ξζ2 u2 + (ζ2 u1 + ζ2 u2 )3 mit dem u ¨blichen Skalarprodukt (u, v) = Ω uv dV . Die Bifurkationsgleichung des diskretisierten Problems ist # $ −ξζ1 uT1 u1 + uT1 (ζ1 u1 + ζ2 u2 )[3] Φ(ξ, ζ) = = 0, (5.88) −ξζ2 uT2 u2 + uT2 (ζ1 u1 + ζ2 u2 )[3] wobei v [2] punktweise Multiplikation des Vektors v mit sich selbst bezeichnet. Das zweite System muss noch mit (ΔξΔη)−1 multipliziert werden, damit die Ergebnisse mit dem ersten System vergleichbar sind. In jedem Fall erhalten wir das System
5.6 Numerische Bifurkation
295
−ai 1 ξζi + ai 2 ζ1 3 + ai 3 ζ1 2 ζ2 + ai 4 ζ1 ζ2 2 + ai 5 ζ2 3 = 0 , i = 1, 2, dessen Komponenten im vorliegenden Fall explizit berechnet werden k¨onnen. Nach Multiplikation mit 64 lautet das Ergebnis nach [Budden] −16ξζ1 + 12ζ1 ζ2 2 + 9ζ1 3 = 0 −16ξζ2 + 12ζ1 2 ζ2 + 9ζ2 3 = 0 .
(5.89)
Offenbar folgt die zweite Gleichung aus der ersten durch Permutation von ζ1 und ζ2 , was sich auf Grund der bestehenden Symmetrie auch vorhersagen l¨asst. Man berechnet f¨ ur ξ = 1 ζ1 = ±4/3 , ζ2 = 0 , bzw. ζ2 = ±4/3 , ζ1 = 0 ,
(5.90)
womit die m¨ oglichen Starttangenten gesichert sind. F¨ ur f (μ, x) = −μx − x3 muss ξ = −1 eingesetzt werden, dann folgt μ < μ0 . (c4) Ist z.B. μ0 = λ55 = λ17 = λ71 = 50π 2 ein dreifacher Eigenwert, dann hat die algebraische Bifurkationsgleichung f¨ ur (5.88) die Form −ξuTi ui ζi + uTi (ζ1 u1 + ζ2 u2 + ζ3 u3 )3 = 0 , i = 1, 2, 3 , bzw. f¨ ur i = 1, 2, 3 −ai 1 ξζi + ai 2 ζ1 3 + ai 3 ζ1 2 ζ2 + ai 4 ζ1 ζ2 2 + ai 5 ζ2 3 + ai 6 ζ1 2 ζ3 +ai 7 ζ2 2 ζ3 + ai 8 ζ1 ζ3 2 + ai 9 ζ2 ζ3 2 + ai 10 ζ1 ζ2 ζ3 + ai 11 ζ3 3 = 0 . Man erh¨ alt
−16ξζ1 + 9ζ1 3 + 27ζ1 ζ2 2 + 27ζ1 ζ3 2 = 0 −16ξζ2 + 9ζ2 3 + 27ζ2 ζ3 2 + 27ζ2 ζ1 2 = 0 −16ξζ3 + 9ζ3 3 + 27ζ3 ζ1 2 + 27ζ3 ζ2 2 = 0 .
Wieder zeigt sich, dass die L¨ osung der zweiten und dritten Gleichung durch zyklische Vertauschung der Komponenten ζi entsteht. Die drei verschiedenen L¨ osungen sind ζ1 = ±4/3 , ζ2 = ζ3 = 0 ζ2 = ±4/3 , ζ3 = ζ1 = 0 ζ3 = ±4/3 , ζ1 = ζ2 = 0 . In allgemeineren F¨ allen k¨ onnen durchaus mehrere Komponenten ζi von Null verschieden sein. Das Beispiel besticht durch die M¨ oglichkeit, die algebraischen Bifurkationsgleichungen analytisch zu l¨ osen. Vom numerischen Standpunkt bleibt es aber unbefriedigend, weil sich die L¨ osung von der rechten Seite“ f kaum beein” drucken l¨ asst; im Wesentlichen erh¨ alt man (bei den getesteten Problemen) immer das gleiche Bild. F¨ ur die drei Funktionen f (x) = x ± x3 , f (x) = sin x , bzw. f (μ, x) = μx ± x3 ,
296
5 Der Weg als Ziel
wurde zun¨ achst der Algorithmus (b) angewendet und dann eine einfache Fortsetzung bez. des Parameters μ durchgef¨ uhrt, dabei war der graphische Output ¨ bei allen drei Funktionen mehr oder weniger gleich. Ahnlich verh¨alt sich das Problem bei gemischten Randbedingungen, z.B. x(0, η) = x(a, η) = 0 , xη (ξ, 0) = xη (ξ, b) = 0 .
Beispiel 5.17. Mit den Vorgaben aus (c) sei f (x) = x−x3 im System (5.86), 1 ist der unnormierte ferner sei m = n = 24 und u0 = εu1 die Starttangente. u Eigenvektor, der normierte Vektor u1 ist jeweils in der Skizze unter“ der ” L¨ osung eingezeichnet. 1. Fall: u = 0 auf dem ganzen Rand ∂Ω .
μ0
(a)
(b)
(c)
2π 2 ∼ 20
5π 2 ∼ 49
50π 2 ∼ 493
u 1 sin(πξ) sin(πη) sin(πξ) sin(2πη) sin(πξ) sin(7πη) μend
∼ 59
∼ 142
∼ 657
ε
15
15
10
2. Fall: u = 0 f¨ ur x = 0 und x = 1 . (a)
(b)
(c)
2π ∼ 20
5π ∼ 49
50π ∼ 493
2
μ0
2
2
u 1 sin(πξ) cos(πη) sin(πξ) cos(2πη) sin(πξ) cos(7πη) μend
∼ 84
∼ 67
∼ 538
ε
17
10
8
1
1
0.8 0.5
z
z
0.6 0
0.4 −0.5 0.2
0 1
−1 1 0.8
1 0.6
0.8 0.6
0.4 0.2
y
0.8
1 0.6
0.8
0
x
0.4
0.2
0.2 0
0.6
0.4
0.4
y
Abb. 5.15. 1. Fall, (a), (b)
0.2 0
0
x
5.7 Fortsetzung
0.8
297
1
0.6 0.4
0.5
0
z
z
0.2 0
−0.2 −0.4
−0.5
−0.6 −0.8 1
−1 1 0.8
0.8
1 0.6
1 0.6
0.8 0.6
0.4 0.2
0.4
0.2
0.2 0
y
0.8 0.6
0.4
0.4 0
0
y
x
0.2 0
x
Abb. 5.16. 1. Fall, (c), 2. Fall (a)
0.8
0.6
0.6
0.4
0.4
0.2
0.2
z
z
0 0
−0.2 −0.2 −0.4
−0.4
−0.6
−0.6 −0.8 1
−0.8 1 0.8
1 0.6
0.8 0.6
0.4 0.2
y
0.8
1 0.6
0.8
0
x
0.4
0.2
0.2 0
0.6
0.4
0.4
y
0.2 0
0
x
Abb. 5.17. 2. Fall, (b), (c)
Beispiel 5.18. Vgl. [Keller72]. Gegeben sei das Problem Lx+μBx+Cr x! = 0 mit selbstadjungiertem Operator L und symmetrischer, regul¨arer Matrix B . Dann ist V d = U d und die algebraische Bifurkationsgleichung lautet μU d B U ζ! + U d Cr U ζ! = 0 . Sei ferner Cr y! = grad Φ(y) mit einer skalare Funktion Φ wie in den obigen Beispielen. Als stetige Funktion nimmt Φ Maximum und Minimum an zwei verschiedenen Stellen y ∗ und y∗ auf der Menge S = {y , y T By = 1} an, und μ ist damit der Lagrange-Multiplikator ur gerades r ist Φ ungerade und des Problems Φ(y) = Extr!, y T By/2 = 1 . F¨ Φ(y) = −Φ(−y) und y∗ = −y ∗ , also hat das Extremalproblem mindestens ur ungerades r ist zwei verschiedene L¨ osungen (μ∗ , y ∗ ) und (−μ∗ , −y ∗ ) . F¨ Φ(y) = Φ(−y) gerade, also y ∗ = y∗ , solange nicht Φ(y) konstant auf S ist und damit jeder Punkt von S eine L¨ osung. Wenn Φ nicht konstant ist, gibt es in diesem Fall mindestens vier verschiedene L¨ osungen.
5.7 Fortsetzung (a) Problemstellung Es sei F : Rn+1 → Rn hinreichend glatt und x0 ∈ Rn+1 ein Punkt mit F (x0 ) = 0 und dim Ker Fx0 = 1 . Nach dem Satz u ¨ber Implizite Funktionen gibt es dann ein offenes Intervall I mit 0 ∈ I und eine eindeutig bestimmte Kurve x : I s → x(s) ∈ Rn+1 mit x(0) = x0 , die so glatt wie F ist, und mit
298
5 Der Weg als Ziel
∀ s ∈ I : F (x(s)) = 0 ∈ Rn , dim Ker ∇F (x(s)) = 1 , x (s) = 0 ∈ Rn+1 ; o.B. sei dabei s die Bogenl¨ ange. An einem Endpunkt des Intervalls I ist entweder die Glattheitsbedingung oder die Rangbedingung dim Ker Fx0 = 1 verletzt, das letztere l¨ asst auf einen Verzweigungspunkt schließen. Ein Fortsetzungsverfahren hat dann in etwa die folgende Form: START: Gegeben x mit F (x) = 0; w¨ ahle N ∈ N. FOR i = 1:N Pr¨ adiktorschritt: Berechne die Tangente t in x, w¨ahle ein geeignete Schrittweite σ; setze x = x + σt. Korrektorschritt: Berechne einen neuen Kurvenpunkt y mit F (y) = 0 in der N¨ ahe des Pr¨ adiktorpunktes x ; setze x = y . END Bei offenen Kurven wird die L¨ ange der Fortsetzung durch die Zahl N festgelegt. Bei geschlossenen Kurven kann nat¨ urlich ein anderes, geeignetes Ab¨ brechkriterium gew¨ ahlt werden; soll dabei eine Uberlappung vermieden werden, so muss die Schrittweite am Schluss geeignet manipuliert werden. Die unerl¨assliche Schrittweitensteuerung im Pr¨ adiktorschritt wird i.d.R. durch eine lokale Kurvenextrapolation erzielt, zus¨ atzlich m¨ ussen dann noch verschiedene Sicherheitsschranken eingebaut werden; am Anfang kann die Schrittweite naturgem¨ aß nur grob gesch¨ atzt werden. Auf eine Diskussion der algorithmischen Details zur Schrittweitenkontrolle soll an dieser Stelle verzichtet werden, vgl. SUPPLEMENT\chap05e. (b) Pr¨ adiktorschritt Aus der impliziten Kurvendarstellung folgt sofort ∇F (x(s))x (s) = 0 ∈ Rn , es muss also die Tangente x (s) linear unabh¨angig von den Zeilen von ∇F (x(s)) sein. Die erweiterte Jacobi-Matrix
∇F (x(s)) J(x(s)) := x (s)T ist somit regul¨ ar im Intervall I; wir nennen die Kurve x positiv orientiert, wenn det(J(x(s)) > 0 ist. Allgemein gibt es zu jeder rangmaximalen Matrix A ∈ Rn n+1 einen eindeutig bestimmten Vektor t(A) mit den folgenden Eigenschaften:
A t(A) = 0 , |t(A)| = 1 , det
A t(A)T
>0 .
Dieser Richtungsvektor spielt im Folgenden eine zentrale Rolle. Wegen F (x(s))x (s) = 0 ist die Kurve x L¨ osung des Anfangswertproblems x (s) = t(∇F (x(s))) , x(0) = x0 , s ∈ I .
(5.91)
5.7 Fortsetzung
299
Man beachte aber, dass t(A) nicht explizit gegeben ist, deswegen kann nicht einfach ein numerisches Verfahren aus § 2.2 zur L¨osung dieses Anfangswertproblems eingesetzt werden. In der QR-Zerlegung von AT , Q R = AT , Q = [q, . . . , qn+1 ] , qi ∈ Rn+1 , ur große Gleihat der Vektor qn+1 die in (5.91) genannten Eigenschaften. F¨ chungssysteme ist jedoch dieses Verfahren zur Berechnung der Tangente t(∇F (x)) schlecht geeignet, weil die explizit ben¨otigte orthogonale Matrix Q i.d.R. voll besetzt ist. W¨ ahlt man aber einen Vektor d ∈ Rn+1 mit dT t > 0, wobei t die zun¨ achst noch unbekannte Tangente ist, dann folgt diese eindeutig aus
∇F (x) (5.92) u = en+1 , t = u/u2 , d wobei en+1 der (n + 1)-te Einheitsvektor ist. Die Wahl von d bei unbekanntem t ist ein kleiner Sch¨ onheitsfehler, der aber numerisch nicht ins Gewicht f¨allt, ur d = 0 fast immer gilt (ev. Vorzeichen ¨andern). Beim Start weil dT t = 0 f¨ wird d willk¨ urlich angesetzt und w¨ ahrend der Iteration mit Hilfe der bereits bekannten Tangente ausgew¨ ahlt. F¨ ur die Kondition der Matrix in (5.92) ist es vorteilhaft, wenn der Vektor d m¨ oglichst parallel zum Tangentenvektor t ist, zum Andern ist f¨ ur d = ei die i-te Komponente xi von x direkt der lokale Kurvenparameter. Deswegen wurde von [Rheinboldt86] die Wahl i = Maxk {|eTk t|} , j = Maxk =i {|eTk t|}
(5.93)
oßte und tj die zweitgr¨oßte Kompovorgeschlagen, dann ist ti die betragsgr¨ nente von t. Bei dieser Wahl muss allerdings ein Preventer f¨ ur Wendepunkte eingebaut werden verm¨ oge der folgenden Vorschrift: W¨ ahle γ > 0 (z.B. γ = 1.05 und am Anfang γ = 2), w¨ ahle i wie in (5.93). Wenn aber gilt |ti | < |talt i | , |tj | > |talt j | , |tj | ≥ μ|ti | ,
.
dann w¨ ahle i = j nach (5.93) (c) Korrektorschritt Zur Berechnung des neuen Kurvenpunktes xneu wird nach [Rheinboldt86] das Gleichungssystem
F (xneu ) F (xneu ) = T =0 (5.94) ) ei (xneu − x mit einem ged¨ ampften Newton-Verfahren gel¨ost, wobei es auch gen¨ ugt, den Gradienten von F einmal am Anfang zu berechnen (modifiziertes Verfahren).
300
5 Der Weg als Ziel
Nat¨ urlich folgt xineu = x i direkt, was zu einer Reduzierung des linearen Gleichungssystems in jeder Iteration verwendet werden kann. Nach (5.94) steht senkrecht auf ei ; vgl. Abb. 5.19. hier in jedem Schritt die Korrektur xneu − x An Stelle von (5.94) wird bei kleineren Problemen vielfach xneu aus |xneu − x | = Arg Miny {|y − x | ; F (y) = 0}
(5.95)
berechnet; vgl. [Allgower90]. Nach Voraussetzung ist ∇F (y) rangmaximal, daher ist nach Folgerung 3.4 die Multiplikatorregel eine notwendige Bedingung (z ∈ Rn ): |2 − z∇F (y) = 0 ∈ Rn+1 , F (y) = 0 . ∇y |y − x Daraus folgt 2(y− x)T = z∇F (y) also mit dem Satz 1.2 u ¨ber den Wertebereich y−x ∈ Range(∇F (y)T ) = Ker(∇F (y))⊥ ⇐⇒ t(∇F (y))T (y − x ) = 0 . Damit kann das System (5.95) durch das Gleichungssystems F (xneu ) =0 T ) = 0 t(∇F (xneu )) (xneu − x ersetzt werden, das mit dem Newton-Verfahren gel¨ost wird. Dies f¨ uhrt zu der Rechenvorschrift done = 0, x = x WHILE NOT done L¨ose das lineare Gleichungssystem f¨ ur y F (x) + ∇F (x)(y − x) = 0 t(∇F (x))T (y − x) = 0 .
(5.96)
Setze x = y. done = Konvergenz END Lemma 5.19. Ist A ∈ Rn n+1 rangmaximal, dann sind die folgenden Aussagen ¨ aquivalent: (1◦ ) Ax = b , t(A)T x = 0 , (2◦ ) x = A+ b, A+ = AT (AAT )−1 Moore-Penrose-Inverse, osung. (3◦ ) x = Arg Min{|w| ; Aw = b} Minimall¨ ¨ Beweis. Die Aquivalenz von (2◦ ) und (3◦ ) folgt direkt aus Lemma 1.4. Zum ¨ Nachweis der Aquivalenz von (1◦ ) und (2◦ ) beachten wir
A [A+ , t(A)] = I t(A)T
5.7 Fortsetzung
also
301
A b b + (1 ) ⇐⇒ x= ⇐⇒ x = [A , t(A)] ⇐⇒ x = A+ b . t(A) 0 0 ◦
Mit Lemma 5.19 folgt aus (5.96) y = x − [∇F (x)]+ F (x) .
(5.97)
Die Aufgabe besteht also letztendlich darin, zu einer rangmaximalen Matrix A ∈ Rn n+1 den Vektor y = A+ b zu berechnen, wozu der Algorithmus aus Abschnitt 1.1(h3) verwendet werden kann. In der Praxis wird das modifizierte Newton-Verfahren verwendet, bei dem ebenso ∇F (x) = ∇F ( x) festgehalten wird, dann steht die Korrektur xneu − x wie alle intermedi¨ aren Differenzen senkrecht auf der Tangente von F (x(s)) in x ; vgl. Abb. 5.19. tk−1
tk
t
t
k−1
k
ek−2 xk+1
xk x
k−1
ek−1
ek
xk
−ek+1
tk−2 xk−2
Abb. 5.18. Korrektor (Rheinboldt)
x
k+1
x
k−1
t
k−2
x
k−2
Abb. 5.19. Korrektor (Allgower)
(d) Beispiele Beispiel 5.19. F¨ ur die graphische Darstellung von H¨ohenlinien einer skalaR ren Funktion f : R2 x → f (x) ∈ R gen¨ ugt meist der MATLAB -Befehl contour; die exakte Berechnung kann durch eine Fortsetzungsverfahren f¨ ur ahlen als einfaches Beispiel F (x) = f (x) − f (x0 ) = 0 erfolgen. Wir w¨ f (x1 , x2 ) = − x41 + x42 + 2x21 x22 − 2x21 + 2x22 .
302
5 Der Weg als Ziel
Beispiel 5.20. Chemisches Reaktionsmodell [Kubicek], [Bank], [Deuflhard87]. μ(1 − x3 )E(x1 ) − x3 μα(1 − x3 )E(x1 ) + γσ − 10(1 + γ)x1 x3 − x4 + μ(1 − x4 )E(x1 ) 10x1 − 10(1 + γ)x2 + μα(1 − x4 )E(x1 ) + δ
=0 =0 =0 =0
exp(10x/(1 + βx))
= E(x)
α = 22, β = 1.0E −2 , γ = δ = 2, σ = = 0 ; also
μ(1 − x3 )E(x1 ) − x3 μ22(1 − x3 )E(x1 ) − 30x1 x3 − x4 + μ(1 − x4 )E(x2 ) 10x1 − 30x2 + μ22(1 − x4 )E(x2 )
=0 =0 =0 =0
exp(10x/(1 + βx))
= E(x)
Startpunkt ist (μ, x) = (0, 0). Beispiel 5.21. Klassisches Testproblem [Rheinboldt86], S. 146. x1 − x32 + 5x22 − 2x2 + 34x3 − 47 = 0 x1 + x32 + x22 − 14x2 + 10x3 − 39 = 0 Startpunkt: x0 = [15, −2, 0]T . Die L¨ osung geht durch x = [5, 4, 1]T (Endpunkt). Exakte L¨ osung zum Vergleich: x1 (t) = −
1 11 3 2 2 107 1 3 1 2 1 t + t + 19t + , x2 (t) = t , x3 (t) = t − t − t+ . 6 3 3 12 6 2 3 0.7
0.6
0.5
0.5
0.4
z
1
0
0.3 1.5 1
−0.5
0.2
0.5 0.5
0 −0.5
0
0.1
−1 −0.5
y
−1.5
x
Abb. 5.20. Beispiel 5.19
0
0
0.01
0.02
0.03
0.04
0.05
0.06
Abb. 5.21. Beispiel 5.20
0.07
R 5.8 Hinweise zu den MATLAB -Programmen
303
0.8 0.6
y3
0.4 0.2 0 60
−0.2
55 50 45 40 35
y
3
30
4
y
25
0.5 0 −0.5
20 0 −2
10
−0.6 4 3 60
2
50
1
15 2
−0.4
Abb. 5.22. Beispiel 5.21
30 20
−1
y
2
40 0
y1
−2
10
2
y1
Abb. 5.23. Beispiel 5.21 skaliert
R 5.8 Hinweise zu den MATLAB -Programmen
Kapitel V/SECTION 6,HOPF-Verzweigung conjgrad.m Verfahren der konjugierten Gradienten nach Stoer cg_lq.m Verfahren der konjugierten Gradienten nach Allgower/Georg demo1.m Masterfile zur HOPF-Verzweigung mit Rueckwaertsdifferenzen oder mit trig. Kollokation demo2.m Masterfile fuer Fortsetzung nach DEMO1.m nur fuer Rueckwaertsdifferenzen hopf_bdf.m Hopf-Verzweigung mit Rueckwaertsdifferenzen hopf_trig.m Hopf-Verzweigung mit trig. Kollokation hopf_contin Einfache Fortsetzung nach HOPF.M Kapitel V/SECTION 7: Numerische Bifurkationsverfahren demo1.m Pitchfork-Bifurkation demo2.m Beispiel von Crandall (4 Verzweigungspunkte) demo3.m Poisson-Gleichung im Einheitsquadrat Newton-Verfahren (6 Beispiele) demo4.m Poisson-Gleichung im Einheitsquadrat Direktes Iterationsverfahren (6 Beispiele) demo5.m Fortsetzung nach MU fuer Poisson-Gleichung bif.m Direktes Iterationsverfahren Kapitel V/SECTION 8, Fortsetzungsverfahren demo1.m Masterfile fuer Fortsetzung nach Allgower/Georg demo2.m Masterfile fuer Fortsetzung nach Rheinboldt cont.m Fortsetzung nach Allgoweer/Georg pitcon1.m -- picon5.m Fortsetzung nach Rheinboldt newton.m Newton-Verfahren fuer PITCON.M
6 Massepunkte und starre K¨ orper
Der Verfasser hat – seinem Fachgebiet entsprechend – den mathematischen ¨ Teil des Buches an den Anfang gestellt in der Uberzeugung, dass ein solides mathematisches Fundament dem Verst¨ andnis der Mechanik und ihrer realen Anwendung auf dem Computer nur dienlich sein kann. Die folgenden drei Kapitel entstanden, wie schon im Vorwort erw¨ahnt, aus Begleittexten zu verschiedenen Vorlesungszyklen u ohere Mathematik im Grundstudium. Sie ¨ber H¨ sollten damals der Motivation dienen und als Br¨ ucke zum Hauptstudium. Sie sollten aber auch eine Verbindung zu den parallel laufenden Vorlesungen u ¨ber Mechanik herstellen, deren Dozenten oft wenig Notiz davon nehmen, was die Mathematiker mit ihren H¨ orern so treiben. Um die Beitr¨ age der Mechanik und diejenigen der Mathematik als solche zu kennzeichnen werden alle Ergebnisse, die sich (auf diesem klassischen Level) nur experimentell verifizieren lassen, k¨ unftig als Axiome bezeichnet, w¨ ahrend die mathematischen Schlussfolgerungen aus ihnen als S¨ atze o.¨ a. formuliert werden. So wird der G¨ ultigkeitsbereich der Letzteren genau abgegrenzt und ¨andert sich naturgem¨aß, wenn das Fundament der Axiome durch ein anderes ersetzt wird. Hinweis: In diesem Kapitel werden alle Vektoren – auch Ortsvektoren – unterstrichen.
6.1 Die Kraft und ihr Moment Es sei a ∈ R3 ein beliebig ausgew¨ ahlter, aber dann festgehaltener Punkt, vorzugsweise der Ursprung oder der Schwerpunkt eines starren K¨ orpers mit der geometrischen Konfiguration Ω ⊂ R3 .
E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 6, c Springer-Verlag Berlin Heidelberg 2010
306
6 Massepunkte und starre K¨ orper
Axiom 6.1. (1◦ ) Greift die Einzelkraft k im Punkt x ∈ Ω an, dann darf k beliebig l¨ angs seiner Wirkungslinie verschoben werden, d.h. f¨ ur das Paar (k, x) gilt ∀ τ ∈ R : (k, x) = (k, x + τ k) . −→
(2◦ ) Die Kraft k erzeugt im Punkt a das Moment pa = a x × k . −→
−→
Wegen k × k = 0 gilt ∀ τ ∈ R : pa = (a x +τ k) × k =a x × k , daher uchtiger Vektor bezeichnet. wird die Kraft k in diesem Kontext als linienfl¨ angt von a ab (x fest gegeben), ist daher als fester oder Das Moment pa h¨ gebundener Vektor zu verstehen. Greift nun im Punkt a zus¨atzlich die Kraft −k an, dann erzeugen die Paare (k, x) und (−k, a) in einem beliebigen Punkt y das Moment −→
−→
−→
−→
(y x × k) + ( y a × (−k)) = −(x y × k) − ( y a × k) −→
−→
= − x a × k = a x × k = pa ⊥ k , ¨ angt. Nach dieser Uberlegung darf also pa als freies Modas nicht von y abh¨ ment verstanden werden, das u ¨berallhin verschoben werden darf. Addieren wir folglich zu (k, x) das Paar (k, a) und (−k, a), so ergibt sich in a das Paar (k, pa ) aus Kraft k und freiem Moment pa mit der Eigenschaft k · pa = 0 (Dyname in a) . Greifen die n Kr¨ afte k i in den n Punkten xi an, so verfahren wir mit allen in derselben Weise und erhalten f¨ ur jedes Paar (k i , xi ) in a die Dyname (k i , pa,i ) . Axiom 6.2. (Superpositionsprinzip) Greifen an einem K¨ orper die n Kr¨ afte k i in den n Punkten xi an, so ist kS =
n i=1
k i und pS =
n
pa,i
i=1
die resultierende Kraft und das resultierende freie Moment in a . Es gilt aber nicht notwendig k S · pS = 0 , daher ist dieses Paar i.d.R. keine asst sich nat¨ urlich sofort in die Summe zweier Dynamen Dyname in a . Es l¨ zerlegen, z.B. in die eindeutige Zerlegung (k S , pS ) = (k S , 0) + (0 , pS ) , wo beide Komponenten trivialerweise Dynamen sind, oder aber man w¨ahlt einen Vektor l = 0 mit l · pS = 0 und bildet (k S , pS ) = (l , pS ) + (k S − l , 0) . Wenn in einem Punkt y das Paar (k , p) wirkt und das Moment in die gleiche Richtung wie k weist, also p = γ k gilt, dann spricht man von einer Vektorurlich kann dieses Paar keine Dyname schraube mit der Steigung γ in y . Nat¨
6.1 Die Kraft und ihr Moment
307
sein, weil p = 0 nicht gleichzeitig parallel und senkrecht zu k sein kann. Die Frage ist: Gibt es einen Punkt y so, dass das Paar (k S , pS ) in a als Vektorschraube in y wirkt. Lemma 6.1. Das Paar (k S , pS ) im Punkt a mit k S = 0 wirkt in jedem Punkt der eindeutig bestimmten Geraden 0 " 1 3 −→ k × pS + τ k S , τ ∈ R G = y ∈ R , ay = kS · kS S als Vektorschraube mit der Steigung γ=
k S · pS
kS · kS
.
Beweis. Mit der Projektion von pS auf k S , vgl. Beispiel 1.2, [pS ]k :=
k S · pS
kS · kS
kS ,
(6.1)
gilt die Zerlegung pS = [pS ]k + pS − [pS ]k = [pS ]k + [pS ]n , [pS ]k · [pS ]n = 0 . Das Paar (k S , pS ) erzeugt in dem beliebigen Punkt y das Moment −→ −→ py = pS + y a × k S = [pS ]k + [pS ]n − a y × k S , weil pS als Summe von freien Momenten ebenfalls ein freies Moment ist und damit beliebig verschoben werden darf. Es ist daher py = [pS ]k und damit parallel zu k S , wenn gilt −→ a y × k S = [pS ]n . −→ −→ Wegen a y + τ k S × k S = a y × k S , τ ∈ R , beschreibt diese Gleichung eine Gerade G mit Richtung k S . F¨ ur den Fusspunkt s des Lotes von a auf G gilt −→ −→ nat¨ urlich a y − a s = τ k S . Nach Beispiel 1.2 ist aber −→
as =
−→ 1 1 1 kS × a y × kS = k S × [pS ]n = k × pS kS · kS kS · kS kS · kS S
wegen k S × [pS ]n = k S × pS . Die Steigung γ folgt aus (6.1).
308
6 Massepunkte und starre K¨ orper
6.2 Dynamik eines Massepunktes In einem Euklidischen Punktraum der Dimension drei sei ein kartesisches Koordinatensystem (KOS) E = {O; e1 , e2 , e3 } ausgew¨ahlt, vgl. § 10.4(a). Es sei I ⊂ R ein offenes Intervall und Ω ⊂ R3 eine offene Menge. Ferner sei 0 < m ein Skalar genannt Masse und f : I × Ω × Ω (t, x, y) → f (t, x, y) ∈ R3 ein hinreichend glattes Vektorfeld genannt Kraft. Wir betrachten eine L¨osung x des Anfangswertproblems (AWP) (Impulserhaltungssatz, Newtonsches Axiom, Bewegungsgleichung) d mx(t) ˙ = m¨ x(t) = f (t, x(t), x(t)) ˙ dt ˙ 0 )) = (t0 , x0 , v 0 ) ∈ Df := I × Ω × Ω ⊂ R × R6 (t0 , x(t0 ), x(t
(6.2)
genannt Bahnkurve eines Punktes mit der Masse m durch (t0 , x0 , v 0 ) (6 Anfangsbedingungen). Wenn f hinreichend glatt ist, existiert in Df eindeutig eine globale L¨ osung des AWP, die in Df nicht weiter fortgesetzt werden kann, d.h. f¨ ur t > t0 und t < t0 bis zum Rand von Df verl¨auft, was aber nicht bedeutet, dass die L¨ osung auf dem ganzen Intervall I existieren muss. Von jetzt ab soll x stets L¨ osung von (6.2) sein. (a) Multiplizieren wir (6.2) mit x(t) ˙ und integrieren von t0 bis t , so folgt t 1 1 mx(t) ˙ ˙ 0 ) · x(t · x(t) ˙ − mx(t ˙ 0) − f (τ, x(τ ), x(τ ˙ )) · x(τ ˙ ) dτ = 0 . (6.3) 2 2 t0 Definition 6.1. (1◦ ) Bez¨ uglich des gew¨ ahlten KOS ist zum Zeitpunkt t Ekin (x(t))
:=
1 2 m |x(t)| ˙ 2
die kinetische Energie
t
Epot (x, t, t0 ) := −
f (τ, x(τ ), x(τ ˙ )) · x(τ ˙ ) dτ die potentielle Energie t0
E(x(t), t0 )
:= Ekin (x(t)) + Epot (x, t, t0 )
die Gesamtenergie
des Massepunktes auf seiner Bahnkurve. (2◦ ) Das Vektorfeld f heißt Zentralfeld, wenn f (t, x, y) = f (x)x gilt mit einer skalaren Funktion f (x) > 0 . (3◦ ) Das Vektorfeld f heißt Gradientenfeld oder konservativ, wenn f (t, x, y) = f (x) gilt, und ein Potential U : x → U (x) ∈ R existiert mit grad U (x) = −f (x) .
6.2 Dynamik eines Massepunktes
309
Bemerkungen und Zus¨ atze: (1◦ ) In vielen physikalischen Anwendungen kommt es auf eine geeignete Wahl des KOS E an, das ev. nachtr¨ aglich angepasst werden muss. ahlten Betrachtungsweise wird klar, dass die Kraft f nicht (2◦ ) Bei der hier gew¨ von der Masse m abh¨ angt und das Newtonsche Axiom nicht zur Definition von f herhalten kann. (3◦ ) Ein Zentralfeld ist konservativ g.d.w. f (x) = F (|x|)
x =⇒ U (x) = −F (|x|) . |x|
(6.4)
(4◦ ) Sind E(t, x) und B(t, x) gewisse elektromagnetische Felder und q > 0 die elektrische Ladung eines Teilchens mit der Masse m, dann ist die ˙ = q E(t, x)+q(x×B(t, ˙ x)) ein Beispiel f¨ ur ein geLorentz-Kraft f (t, x, x) schwindigkeitsabh¨ angiges Kraftfeld. Ein weiteres Beispiel ist der ged¨ampft
|x(τ ˙ )|2 dτ und
te Oszillator aus § 1.4(d) mit der D¨ ampfungsenergie κ der D¨ ampfungskonstanten κ [kg/s] .
t0
◦
(5 ) Die potentielle Energie Epot (x, t, t0 ) beschreibt die von der Kraft f l¨angs des Weges x(t) im Zeitraum T = t − t0 verrichtete Arbeit. Ihr Vorzeichen ist so gew¨ ahlt, dass f in Richtung des st¨arksten Abfalls von Epot zeigt. Im Allgemeinen h¨ angt das Integral der potentiellen Energie vom pot (x(t)) Weg ab. Wenn es wegunabh¨ angig sein soll, also Epot (x, t, t0 ) = E ullen. bei festem (t0 , x0 ) gelten soll, dann muss f zus¨atzliche Kriterien erf¨ Wenn z.B. f (t, x, v) = f (x) gilt, dann muss f nach dem ersten und zweipot (x(t)) lokal ten Hauptsatz u ¨ber Kurvenintegrale wirbelfrei sein, damit E wohldefiniert, also tats¨ achlich eine Funktion seines Arguments x(t) ∈ Rn ist; dies ist sicher dann der Fall, wenn f Gradientenfeld ist. (6◦ ) Die kinetische Energie ist invariant unter Drehungen des Koordinatensystems. Die potentielle Energie ist invariant unter Drehungen des Kour jede orthogonale ordinatensystems, wenn Df (t, x, v)) = f (t, Dx, Dv) f¨ Matrix D mit positiver Determinante (Drehmatrix) gilt. (7◦ ) Aus (6.4) und Definition 6.1 folgt t, t0 ) := Ekin (x(t)) + Epot (x, t, t0 ) = Ekin (x(t0 )) , E(x,
(6.5)
t, t0 ) konstant l¨ also ist E(x, angs jeder Bahnkurve durch x(t0 ) und damit wegunabh¨ angig, auch wenn die potentielle Energie diese Eigenschaft nicht t, t0 ) =: E(x(t), t0 ) . hat, und es gilt E(x, alt man aus der Ableitung von (6.5) nach t die Bewegungs(8◦ ) Umgekehrt erh¨ gleichung (6.2) f¨ ur die Bahnkurve eines Massepunktes. Die Gesamtenergie ist somit Invariante der Bewegungsgleichung Energieerhaltungssatz).
310
6 Massepunkte und starre K¨ orper
(9◦ ) Wenn die Kraft f ein Gradientenfeld ist, dann ist Epot (x(t)) = U (x(t)) , und jede L¨ osung von m x ¨ (t) = − grad U (x(t)) ist implizit gegeben durch m
x˙ · x˙ x˙ · x˙ + U (x) = m 0 0 + U (x0 ) = konst . 2 2
(6.6)
(b) Multiplizieren wir (6.2) vektoriell von links mit x(t), dann erhalten wir mx × x ¨ = x × f (x, x) ˙ .
(6.7)
ahlten KOS ist Definition 6.2. Bez¨ uglich eines festen Punktes c im gew¨ d(t) = m(x(t) − c) × x(t) ˙ der Drehimpuls (angular moment) ˙ t) das Drehmoment p(t) = (x(t) − c) × f (t, x(t), x(t), (moment of a force, torque) des Massepunktes auf seiner Bahn zum Zeitpunkt t . Bemerkungen und Zus¨ atze: (1◦ ) Nach Lemma 1.5 gilt Dd(t) = D(x(t) − c) × Dx(t) ˙ f¨ ur jede Drehmatrix D und eine entsprechende Gleichung f¨ ur p(t) . (2◦ ) Aus (6.2) und der Definition 6.2 folgt direkt (o.B. c = 0) d d d(t) = (mx × x) ˙ = m(x˙ × x) ˙ + m(x × x ¨ ) = x × f (x, x) ˙ = p(t) . (6.8) dt dt (3◦ ) Es sei weiterhin c = 0 , in einem Zentralfeld ist dann p(t) ≡ 0 wegen f (x) = f (x)x und damit d(t) = d(t0 ) konstant (Drehimpulserhaltungssatz). ur A = [a1 , a2 , a3 ] ∈ R3 3 ist det(A) = a1 · (a2 × a3 ) ; vgl. § 1.1 (b), also (4◦ ) F¨ gilt stets x(t) · d(t) = 0 . Im Zentralfeld ist dann x(t) · d(t0 ) = 0 und alle Bahnkurven liegen in einer Ebene senkrecht zu d(t0 ) . (c) Wird in (6.2) die Kraft f auf die linke Seite gebracht, und das Ergebnis mit sich selbst multipliziert, dann entsteht ein Funktional J(x(t)) = 2 (m¨ x(t) − f (t, x(t), x(t)) ˙ , das trivialerweise f¨ ur alle L¨osungen des Differentialsystems (6.2) ein absolutes Minimum annimmt. Unter Nebenbedingungen entsteht aber ein Extremalproblem mit Zwangsbedingungen, das u.U. weiterbehandelt werden kann. Wenn z.B. angenommen wird, dass x = x∗ und x˙ = x˙ ∗ schon im Optimum liegen und nur u ¨ber die Beschleunigung variiert wird, dann ist ∂J(x; ∂¨ x) = 2m (m¨ x − f (x∗ , x˙ ∗ ) · ∂¨ x=0
6.2 Dynamik eines Massepunktes
311
eine notwendige Bedingung f¨ ur einen station¨ aren Punkt. Bei diesem (Gaußschen Prinzip des kleinsten Zwanges) nimmt man an, dass x∗ und x˙∗ bereits durch Zwangsbedingungen bestimmt sind, die hier nicht notwendig holonom sein m¨ ussen. (d) Soll die Bewegungsgleichung (6.2) Euler-Gleichung eines Variationspro˙ = f (x) konservativ also insbesondere ∇f blems sein, dann muss f (t, x, x) symmetrisch sein. Lemma 6.2. ( Hamilton-Prinzip, Lagrange-Prinzip der kleinsten Wirkung) F¨ ur konservatives f ist x ∈ V L¨ osung der Bewegungsgleichungen arer Wert des Wirkungsintegrals mx ¨ (t) = f (x(t)) g.d.w. x station¨ W (x) := W[t0 ,t1 ] (x) =
t1
[Ekin (x(t)) − U (x(t))] dt , x ∈ V
t0
ist. Dabei muss V ⊂ C 2 [t0 , t1 ] nach § 4.1 ein Vektorraum mit einer der folgenden vier Randbedingungen sein: x(t0 ) = a , x(t1 ) = b x(t0 ) = a , x(t ˙ 1) = 0 , ˙ 0 ) = 0 , x(t ˙ 1) = 0 . x(t ˙ 0 ) = 0 , x(t1 ) = b x(t Beweis. Nullsetzen der ersten Variation von W ergibt mit anschließender partieller Integration
d
0 = δW (x; v) := W (x + εv)
dε ε=0 t1
t1 t1
= [m x˙ · v˙ − grad U (x) · v] dt = m x˙ · v + v · [−m x ¨ + f ] dt . t0
t0
t0
Der Randterm verschwindet genau f¨ ur eine der vier Randbedingungen. Wenn z.B. x(t0 ) = a ist, dann muss v(t0 ) = 0 f¨ ur die Testfunktion gelten. Die Behauptung folgt dann mit dem Fundamentallemma der Variationsrechnung. t grad U (x(τ ))· x(τ ˙ ) dτ folgt, dass lokal Aus der Formel U (x(t))−U (x(t0 )) = t0
f (x) = − grad U (x) gelten muss, also f lokales Gradientenfeld ist; dann ist ur die Darstellung nat¨ urlich δU (x; v) = grad U (x)·v . Diese Formel muss auch f¨ (6.3) gelten. Man berechnet mit partieller Integration t t
d
f (x + εv)(x˙ + εv) ˙ dτ
= [(∇f v) · x˙ + f (x) · v] ˙ dτ −δU (x; v) := dε t0 ε=0 t0 t t
t
= (∇f v) · x˙ dτ + f (x) · v − (∇f v) · x˙ dτ = f (x(t)) · v(t) , t0
t0
t0
weil hier f¨ ur die Testfunktion v(t0 ) = 0 gelten muss.
312
6 Massepunkte und starre K¨ orper
Beispiel 6.1. Im Koordinatenraum Rn gilt f¨ ur i = 1 : n 1 ∂ xi =− 3. ∂xi |x| |x| Liegt daher im Ursprung ein Punkt mit der Masse M und ist ein weiterer Punkt mit der Masse m M gegeben, dann gilt nach dem Newtonschen Gravitationsgesetz f¨ ur die Gravitationskraft f U (x) = −
γ mM γ mM , grad U (x) = x = −f (x) |x| |x|3
mit der Gravitationskonstanten γ = 6.67 · 10−11 [m3 /(kg · s2 )] . (e) Bei Systemen mit einem Freiheitsgrad betrachtet man die eindimensionale Bewegung I t → x(t) ∈ R . F¨ ur x = (x, y) ∈ R2 ist dann die Newtonsche Gleichung ¨ aquivalent mit dem System erster Ordnung
y ∈ R2 , y = x˙ , (6.9) x˙ = v(x) = f (x)/m und eine L¨ osungskurve t → (x(t), x(t)) ˙ ∈ R2 heißt Phasenkurve. Jeder Punkt osung und heißt Gleichgewichtspunkt oder a mit v(a) = 0 ist eine konstante L¨ singul¨ arer Punkt ; vgl. § 1.6. Nach dem EE-Satz 1.11 geht f¨ ur f ∈ C 1 genau eine Phasenkurve durch jeden Punkt. Daher sind singul¨are Punkte isolierte L¨ osungen, die von anderen L¨ osungen allenfalls im Grenz¨ ubergang |t| → ∞ erreicht werden; eine L¨ osungskurve mit dieser Eigenschaft heißt Separatrix . Eine Separatrix heißt homokliner Orbit, wenn sie f¨ ur |t| → ∞ gegen ein und denselben singul¨ aren Punkt konvergiert und heterokliner Orbit, wenn sie f¨ ur t → ∞ und f¨ ur t → −∞ gegen zwei verschiedene singul¨are Punkte konvergiert. Beispiel 6.2. (Kleine Pendelschwingung) m = 1 . x ¨ = −x , U (x) =
1 1 x2 , E(x, y) = y 2 + x2 =⇒ y 2 + x2 =: c (konstant) . 2 2 2
Beispiel 6.3. m = 1 (Abb. 6.1). 3 1 x ¨ = x − x2 , U (x) = (x3 − x2 ) , 2 2 1 1 E(x, y) = y 2 + (x3 − x2 ) =: c =⇒ y 2 = d + x2 − x3 . 2 2 Der homokline Orbit ist gegeben durch y = ±(x2 − x3 )1/2 = x(1 − x)1/2 .
6.2 Dynamik eines Massepunktes
313
Beispiel 6.4. m = 1 (Abb. 6.2). 1 x ¨ = x − 2x3 , U (x) = − (x2 − x4 ) , 2 1 1 E(x, y) = y 2 + (x4 − x2 ) =: c =⇒ y 2 = d + x2 − x4 . 2 2 Die beiden homoklinen Orbits sind gegeben durch y 2 = x2 − x4 , x > 0 , bzw. x < 0 . Beispiel 6.5. (Mathematisches Pendel) m = 1 (Abb. 6.3). x ¨ = −ω 2 sin x , U (x) = −ω 2 cos x , 1 E(x, y) = y 2 − ω 2 cos x =: c =⇒ y = ±(2ω 2 cos x + c)1/2 . 2 Die singul¨ aren Punkte sind (x, y) = (kπ, 0) , k ∈ Z . Durch Einsetzen in E erh¨ alt man die entsprechenden Konstanten c = ± 1 . Einer der heteroklinen Orbits ist z.B. gegeben durch y = 2ω 2 cos x − 1 , −π ≤ x ≤ π . In den Beispielen 6.2 – 6.4 trennen die Separatrizen die Gebiete mit positiver und negativer Gesamtenergie E .
Abb. 6.1. Bsp. 6.3, Potential und Phasenbild
Abb. 6.2. Bsp. 6.4, Potential und Phasenbild
314
6 Massepunkte und starre K¨ orper
Abb. 6.3. Bsp. 6.5, Potential und Phasenbild
(f ) Bei der starren Drehung im R3 ist a ∈ R3 die feste Drehachse mit |a| = 1 (Ortsvektor), D(t) die Drehmatrix aus (1.13) und x(t) = D(t)x(t0 ) . Nach § 1.1(i) ist dann ϕ(t) = ϕ(t)a der Vektor des Drehwinkels ˙ die Winkelgeschwindigkeit ω(t) = ϕ(t)a = ω(t) × x(t) die Geschwindigkeit x(t) ˙
.
Aus dem Entwicklungssatz (1.2) folgt f¨ ur den Drehimpuls d = m[x × (ω × x)]
= m[(xT x)ω − (xT ω)x]
= m[(xT x)ω − (x xT )ω] = m[xT xI − x xT ]ω =: T (x) ω
(6.10)
mit dem Tr¨ agheitstensor T (x) ∈ R3 3 . Die starre Drehung unterliegt im R2 einer und im R3 zwei Zwangsbedingungen: Die Projektion xa von x auf die Drehachse a – vgl. § 1.1(a) – ist ein konstanter Vektor und der Radiusvektor r := x − xa , der auf a senkrecht steht, hat einen konstanten Betrag |r(t)| = r . Es gilt also x˙ = r˙ und somit x˙ = r˙ = ω × x = ω × (r + xa ) = ω × r , |x| ˙ = r|ϕ(t)| ˙ .
(6.11)
Daher ist es sinnvoll, den Ortsvektor x durch den Radiusvektor r zu er¨ zu Polarkoordinaten setzen (im R2 sind beide gleich), was einem Ubergang ur den Tr¨agheitstensor, m r2 ist das gleichkommt. Dann folgt T (x) = m r2 I f¨ Tr¨ agheitsmoment und t mr2 |ω|2 , Epot = − Ekin = ω · p dτ , 2 t0 wegen
|x| ˙ 2 = |ω × x|2 = |ω × r|2 = |ω|2 |r|2 − (ω · r)2 = |ω|2 r2 f · x˙ = f · (ω × x) = ω · (x × f ) = ω · p.
6.3 Massepunkt im Zentralfeld
315
Aus (6.7) folgt mit Hilfe des Entwicklungssatzes 1.3 die Zentralbeschleunigung ¨ × r + ω × r˙ = ω × (ω × r) = (ω · r) ω − |ω|2 r = −|ω|2 r , ¨r = ω der jeder Massepunkt auf einer kreisf¨ ormigen Bahn unterliegt (Verallgemeinerung gleich anschließend).
6.3 Massepunkt im Zentralfeld (a) Bewegungsgleichung (Kepler 1671 – 1630, Newton 1642 – 1727). (a1) Wir betrachten die Bahnkurve x : t → x(t) ∈ R3 eines Teilchens mit der Masse m in einem zentralen Gradientenfeld mit dem Potential U (|x|): m¨ x = − gradx U (|x|) = −a(|x|)x , a(|x|) > 0
(6.12)
(Newtonsches Axiom). Dann ist x ¨ antiparallel zu x und aus d d d(t) = (mx × x) ˙ = mx × x ¨ + mx˙ × x˙ = 0 dt dt folgt unmittelbar der Drehimpulserhaltungssatz d(t) := m(x(t) × x(t)) ˙ ∈ R3 konstant .
(6.13)
Die Bahnkurve verl¨ auft also stets in einer Ebene senkrecht zum konstanten in PolarVektor d . Folglich kann o.B. x(t) ∈ R2 gew¨ahlt und der Orbit kordinaten beschrieben werden mit dem Radiusvektor r(t) = r(t) cos ϕ(t) , r(t) sin ϕ(t) und seinem Betrag r(t) = |r(t)| > 0 . Wegen |d(t)| = mD1 nach § 6.2(f ) tritt and die Stelle von (6.13) die Bedingung D1 := r(t)2 ϕ(t) ˙ konstant (Drehimpuls f¨ ur Masse m = 1) .
(6.14)
F¨ ur D1 = 0 ergibt sich eine geradlinige Bewegung mit konstanten ϕ(t) . Ist r(ϕ) = dagegen D1 = 0 , so ist ϕ monoton in t und daher umkehrbar, r(t) = r(ϕ) cos ϕ , r(ϕ) sin ϕ . ache (a2) Der Radiusvektor r(t) u ¨berstreicht die Sektorfl¨ 1 S(t) := 2
ϕ(t)
1 r (ϕ) dϕ = 2
2
ϕ(0)
t
r2 (t)ϕ(t) ˙ dt = 0
D1 t . 2
(6.15)
Weil die Fl¨ achengeschwindigkeit D1 /2 = r(t)2 ϕ(t)/2 ˙ ebenfalls konstant ist, folgt daraus das Zweite Keplersche Gesetz : Im Zentralfeld u ¨berstreicht der Radiusvektor r(t) in gleichen Zeiten gleiche Fl¨achen (Abb. 6.4).
316
6 Massepunkte und starre K¨ orper
Abb. 6.4. Zweites Keplersches Gesetz
Dieses Gesetz gilt f¨ ur jede Bewegung eines Teilchens im Zentralfeld. Ist nun der Orbit eine Ellipse und T die Umlaufzeit, dann ist S(T ) = D1 T /2 offenbar eine (endliche) Ellipsenfl¨ ache und wir erhalten das Dritte Keplersche Gesetz : Umlaufzeit = Ellipsenfl¨ ache/Fl¨ achengeschwindigkeit. (a3) Effektive Potentialenergie Nach einem ber¨ uhmten Ergebnis von Newton kann die Bewegungsgleichung f¨ ur den Betrag r(t) des Radiusvektors durch eine einzige Gleichung beschrieben werden: Satz 6.1. Es sei D1 = r2 ϕ˙ und r(t) = |r(t)| , dann gilt m r¨ = −
m D12 d V (r) , V (r) = U (r) + dr 2r2
(6.16)
mit der effektiven Potentialenergie V (r) und konstantem Drehimpuls D1 . Beweis. In dem nat¨ urlichen Koordinatensystem (moving frame) er (t) = cos ϕ(t), sin ϕ(t) , eϕ (t) = − sin ϕ(t), cos ϕ(t) ˙ e˙ ϕ = −er ϕ, ˙ also gilt e˙ r = eϕ ϕ, x˙ = r˙ er + rϕ˙ eϕ , x ¨ = (¨ r − rϕ˙ 2 )er + (2r˙ ϕ˙ + rϕ)e ¨ ϕ , gradx U = Ur (r)er (Huygensche Zerlegung). Einsetzen in (6.12) ergibt m(¨ r − rϕ˙ 2 ) = −Ur (r) , 2r˙ ϕ˙ + rϕ¨ = 0 .
(6.17)
Die zweite Gleichung ist gleichbedeutend mit der Bedingung D1 = r2 ϕ˙ = konstant. Einsetzen von ϕ˙ = D1 /r2 in die erste Gleichung ergibt m D2 d m D12 m r¨ = m rϕ˙ 2 − Ur (r) = r 4 1 − Ur (r) = − + U (r) . r dr 2 r2
6.3 Massepunkt im Zentralfeld
317
(a4) Die Gesamtenergie von (6.12) bzw. (6.16) ist E1 = m
x˙ · x˙ r˙ 2 + U (|x|) bzw. E2 = m + V (r) , 2 2
und es gilt E1 = E2 (nicht nur) wegen m
r˙ 2 + r2 ϕ˙ 2 r˙ 2 m D12 |x| ˙ 2 =m =m + , 2 2 2 2 r2
also ist die Gesamtenergie E := E1 = E2 = m
r˙ 2 + V (r) = konstant . 2
(6.18)
Aus dieser Gleichung erhalten wir unmittelbar eine nichtlineare Differentialgleichung erster Ordnung f¨ ur r sowie das Integral f¨ ur die Laufzeit t in Abh¨ angigkeit vom Abstand r, r 1/2 2 m1/2 dr = E − V (r) , t(r) − t(r0 ) = 1/2 dr . (6.19) dt m r0 2(E − V (r)) Mit ϕ˙ = D1 /r2 l¨ asst sich auch r als Funktion von ϕ und umgekehrt ϕ als Funktion von r ausdr¨ ucken: 1/2 2 dr dr dt r2 = · = (E − V (r)) , dϕ dt dϕ D1 m (6.20)
d2 r 4r3 r dV (r) . = E − V (r) − dϕ2 m D12 4 dr dϕ = dr
dr dϕ
−1
r
=⇒ ϕ(r) − ϕ(r0 ) = r0
m1/2 D1
1/2 dr . r2 2(E − V (r))
(6.21)
Nach (6.18) und (6.20) sind die Gesamtenergie E und der Drehimpuls D1 die Invarianten der Bewegung (6.12) bei konstanter Masse m . (a5) Die Bahnkurven liegen im Bereich BE,D = {(r, ϕ) ∈ R2 , V (r) ≤ E} und auf dem Rand gilt jeweils V (r) = E bzw. r˙ = 0 . Damit setzt sich der Bereich BE,D aus einem oder mehreren ringf¨ormigen Gebieten zusammen, und insgesamt gilt 0 ≤ rmin ≤ r ≤ rmax ≤ ∞ . 1. Fall: Wenn E − V (r0 ) = 0 und V (r0 ) = 0 ist, dann entsteht ein kreisf¨ormiger Orbit. ankt ist, h¨angt von der Konver2. Fall: Ob rmax = ∞ also der Orbit unbeschr¨ genz oder Divergenz des Integrals ∞ 1/2 2 E − V (r(τ )) dτ m t0
318
6 Massepunkte und starre K¨ orper
ab. Wenn lim r→∞ U (r) =: U∞ = lim r→∞ V (r) endlich ist und E−U∞ > 0 , dann ist der Orbit sicher nicht beschr¨ ankt – vgl. die Hyperbelkurve im Beispiel ˙ = 0 , und der Orbit kann 6.6. Ist dagegen E − U∞ = 0 , dann ist lim |t|→∞ r(t) unbeschr¨ ankt sein – vgl. die Parabelkurve im Beispiel 6.6. urlich lim r→0 V (r) = E endlich 3. Fall: Wenn rmin = 0 ist, dann muss nat¨ sein. Aus der Energiegleichung (6.18) folgt m
m D12 r˙ 2 m D12 = E − U (r) − ≤ r2 E . ≥ 0 ⇐⇒ r2 U (r) + 2 2 2r 2
F¨ ur r → 0 muss also gelten lim r→0 r2 U (r) < −
m D12 . 2
Wenn sich U (r) f¨ ur r → 0 wie −1/rn , n > 2 , verh¨alt, kann rmin = 0 in einer endlichen Zeit erreicht werden. arer Punkt des Effektivpotentials V (r) , d.h. V (r0 ) = 0 , Ist r0 > 0 ein station¨ achst V (r) monoton, dann besteht BE,D aus gilt außerdem E = V (r0 ) und w¨ einem einzigen Kreisring mit 0 < rmin ≤ r(t) ≤ rmax , rmin < rmax . Punkte auf der Bahnkurve mit r(t) = rmin bzw. r(t) = rmax heißen Apsiden bzw. Perihel bzw. Apohel, wenn die Sonne das Zentrum ist und (oder Perig¨aum und Apog¨ aum, wenn die Erde das Zentrum ist). Der Orbit verl¨auft periodisch zwischen beiden Extrempunkten, und jeder Strahl vom Ursprung zu einer Apside ist Symmetrieachse des Orbits. Der Apsidenwinkel rmax m1/2 D (6.22) ΔΦ = 2 1/2 dr rmin r 2 2(E − V (r)) ergibt sich direkt aus (6.21). Der Orbit ist geschlossen, wenn ΔΦ eine rationale Vielfache von 2π ist; im andern Fall liegt der Orbit dicht im Kreisring BE,D . Satz 6.2. Ist der Orbit eines Massepunktes in einem Zentralfeld beschr¨ ankt, dann bildet er genau f¨ ur die Potentiale k U (r) = − , (k > 0) oder U (r) = a r2 , (a > 0) r eine geschlossene Kurve (Abb. 6.5). Im ersten Fall ist U (r) das Newtonsche Gravitationspotential und im zweiten Fall liegt ein harmonischer Oszillator ohne D¨ ampfung vor. Den Originalbeweis von [Bertrand] (1873) findet man z.B. in [Perelomov].
6.3 Massepunkt im Zentralfeld
319
ΔΦ
Abb. 6.5. Bewegung im Zentralfeld
(b) Keplerproblem (b1) Polargleichung Es sei wie bisher D1 = r2 ϕ˙ = konstant and V das Effektivpotential, aber jetzt sei konkret U (r) = −k/r das Newtonsche Gravitationspotential. In einem physikalischen Zweik¨orperproblem mit den Massen M & m > 0 ist k = γ m M und γ die Gravitationskonstante. Um eine einfachere Darstellung f¨ ur r(ϕ) als in (a4) zu bekommen, gehen wir von der Variablensubstitution dr dϕ D1 dr d 1 dr = = 2 = − D1 (6.23) dt dϕ dt r dϕ dϕ r aus und wenden Satz 6.1 an: D12 d2 dr˙ dϕ d2 r = − = dt2 dϕ dt r2 dϕ2
1 d V (r) . =− r dr
Diese Beziehung legt die Transformation r = 1/u nahe, dann folgt 1 1 1 d d 1 d d2 u V (r) = − 2 V V − =⇒ m 2 = − 2 , dr r du u dϕ D1 du u 1 k m D12 m D12 2 u . =⇒ V V (r) = − + = − k u + r 2r2 u 2
(6.24)
Einsetzen in (6.24) ergibt eine einfache lineare Differentialgleichung m u (ϕ) + m u(ϕ) =
k D12
mit der wohlbekannten L¨ osung u(ϕ) = A cos(ϕ − ϕ0 ) +
k 1 m D12 > 0, = ) , p = 1 + ε cos(ϕ − ϕ 0 m D12 p k (6.25)
320
6 Massepunkte und starre K¨ orper
wobei zun¨ achst ε := A p > 0 eine allgemeine Integrationskonstante ist; vgl. § 1.4. Die Polargleichung f¨ ur die L¨ osungskurven ϕ → r(ϕ) mit o.B. ϕ0 = 0 , r(ϕ) =
p , 1 + ε cos(ϕ)
(6.26)
stellt Kegelschnitte in Polarkoordinaten (ϕ, r(ϕ)) dar mit dem Parameter p, der numerischen Exzentrizit¨ at ε und einem Brennpunkt im Ursprung; vgl. (6.31). Dieses Erste Keplersche Gesetz wurde von Kepler (1571 – 1630) aus Beobachtungen des Planeten Mars nach Messungen des d¨anischen Astronomen Tycho Brahe (1546 - 1601) empirisch hergeleitet. Die Rechnung zeigt, dass das Gesetz eine mathematische Folgerung aus dem Newtonschen Axiom ist, wenn das Newtonsche Gravitationspotential eingesetzt wird. Auf der anderen Seite folgt das Newtonsche Gravitationspotential U = −k/r aus dem ersten Keplerschen Gesetz unter der Annahme, dass sich die Planeten in einem Zentralfeld um die Sonne bewegen. (b3) Berechnung der Exzentrizit¨ at aus den Invarianten D1 und E. Wenn man dr D1 1 du dr dr = · =− 2 , dt dϕ r2 dϕ u dϕ in (6.18) einsetzt, folgt E = m D12 u (ϕ)2 + u2 (ϕ) − k u(ϕ) . Einsetzen der L¨ osung (6.23) ergibt ⎧ 1/2 ⎨ > 1 ⇐⇒ E > 0 2pE = 1 ⇐⇒ E = 0 . +1 0≤ε= (6.27) ⎩ k < 1 ⇐⇒ E < 0 Im vorliegenden Fall U (r) = −k/r , k > 0 , gilt lim r→∞ V (r) = 0 , also ˙ = (2E/m)1/2 aus (6.18). Weiter unten wird gezeigt, dass im folgt limt→∞ r(t) Parabelfall E = 0 gilt, also die Geschwindigkeit des Massepunktes f¨ ur |t| → ∞ selbst gegen Null geht, w¨ ahrend sie im Hyperbelfall positiv bleibt; vgl. Beispiel 6.6. Ein Massepunkt muss also mindestens die Energie E = 0 besitzen, um das Gravitationsfeld des Zentrums zu u ˙ 2 /2 − ¨berwinden. Wegen E = m|x| 1/2 γ m M/|x| folgt daher f¨ ur die Fluchtgeschwindigkeit |x| ˙ F = (2γ M/|x|) . (b3) In Beispielen zu interplanetarischen Bahnkurven wie in Kap. 4 werden oft r, u := r˙ und die Bahngeschwindigkeit v = r ϕ˙ als abh¨angige Ver¨anderliche gew¨ ahlt. Aus (6.17) folgt dann v˙ = −u v/r , also insgesamt ein Differentialsystem erster Ordnung r˙ = u , u˙ =
γM v2 uv − 2 , v˙ = − . r r r
(6.28)
F¨ ur r˙ = r¨ = 0 ergibt sich die Bahngeschwindigkeit auf einem kreisf¨ormigen Orbit zu v0 = (γM/r)1/2 (track velocity), die man auch durch Gleichsetzen von Fliehkraft und Gravitationskraft erh¨ alt, γmM/r2 = mv 2 /r .
6.3 Massepunkt im Zentralfeld
321
(c) Geometrie (c1) Berechnung der Achsen a und b aus den Parametern p und ε . F¨ ur eine Ellipse (Abb. 6.6) gilt 2a =
p p p + =⇒ a = . 1+ε 1−ε 1 − ε2
(6.29)
F¨ ur die weitere Untersuchung ersetzen wir die wahre Anomalie ϕ durch die exzentrische Anomalie ψ verm¨ oge der Beziehung r(ϕ) cos ϕ = a cos ψ − a ε r(ψ) = a − a ε cos ψ
;
(6.30)
Abb. 6.7. Die zweite Gleichung ergibt sich durch Einsetzen von cos ϕ = (a cos ψ − aε)/r in die Polargleichung (6.26). Ist ϕ = ϕ0 f¨ ur ψ = π/2 , dann ist at) und r(ϕ0 ) = a −r(ϕ0 ) cos ϕ0 = aε =: e die Brennweite (lineare Exzentrizit¨ folgt durch Einsetzen von (6.29) in die Polargleichung (6.26) f¨ ur ϕ = ϕ0 : e = aε = a2 − b2 =⇒ b = p(1 − ε2 )−1/2 =⇒ p = b2 /a .
p b F
1
a
a e=εa F
Abb. 6.6. Ellipse
2
Abb. 6.7. Wahre und exzentrische Anomalie
Zusammenfassung: Ellipse 0 ≤ ε < 1 , a = p(1 − ε2 )−1 , b = p(1 − ε2 )−1/2 Parabel ε = 1 , r(0) = p/2 Hyperbel 1 < ε , a = p(ε2 − 1)−1 , b = p(ε2 − 1)−1/2
.
(6.31)
Siehe auch parabel.m und hyperbel.m in KAPITEL06\SECTION_2_3_4 f¨ ur weitere Details.
322
6 Massepunkte und starre K¨ orper
(c2) Raumkoordinaten und Zeit Zun¨ achst folgt aus (6.27) und (6.31) 1/2 m D2 m k , b = D1 , p= 1 a= 2|E| 2|E| k f¨ ur die Hauptachsen und den Parameter eines elliptischen Orbits. Ist nun T die Umlaufzeit, dann gilt nach (6.15) f¨ ur die Ellipsenfl¨ache S(T ) = D1 T /2 aber auch die klassische Formel S(T ) = πab . Daraus folgt 1/2 √ m k D1 m 1 2 π ab = 2π = πk = 2πa3/2 m/k . T = D1 2|E| 2|E| D1 2|E|3 Andererseits ergibt Einsetzen der Polargleichung (6.26) in die erste Gleichung von (6.30) (1 − ε2 )1/2 sin ψ cos ψ − ε , sin ϕ = =: g(ψ) cos ϕ = 1 − ε cos ψ 1 − ε cos ψ nach einfacher Rechnung unter Verwendung von cos2 ϕ + sin2 ϕ = 1 . Ableiten nach ψ ergibt d sin ϕ(ψ) dg(ψ) d sin ϕ dϕ dϕ (1 − ε2 )1/2 = = =⇒ = . dψ dψ dϕ dψ dψ 1 − ε cos ψ Mit (6.15) und nochmaliger Anwendung von (6.30) folgt ϕ(t) ψ(t) (1 − ε2 )1/2 D1 t = dψ r2 (ϕ) dϕ = a2 (1 − ε cos ψ)2 1 − ε cos ψ ϕ(0)
ψ ψ(0)
= C(ψ − ε sin ψ)
ψ0 3 2 1/2 a D1 m T √ 2 2 2 2 ; C = a 1 − ε = a a (1 − ε ) = a ap = = D1 k 2π also schließlich ω t = ψ − ε sin ψ mit Kreisfrequenz ω = 2π/T und Umlaufzeit T . F¨ ur die kartesischen Koordinaten gilt x = r cos ϕ und y = r sin ϕ = ±(r2 − 2 1/2 x ) . Eine Anwendung der Polargleichung (6.26) in Kombination mit (6.30) f¨ uhrt dann auf die Beziehung ε x = p − r = a(1 − ε2 ) − a(1 − ε cos ψ) = a ε(cos ψ − ε) ; also zusammen f¨ ur Ellipse und Hyperbol [Landau] Bd. I, § 15: r = a(1 − ε cos ψ) , t = m a3 /k(ψ − ε sin ψ) √ 0 0 f¨ ur 0 ≤ ϑ ≤ π/2 . Relativ zu v zeigt der ordlichen Halbkugel und nach links auf Vektor b immer nach rechts auf der n¨ der s¨ udlichen Halbkugel mit maximaler L¨ ange and den Polen und minimaler ¨ L¨ ange Null am Aquator. (d2) Es sei v ein Geschwindigkeitsvektor im System G der Form v = v[0, 0, −1]T , 0 < v ∈ R . Dann steht v senkrecht auf der Erdoberfl¨ ache und weist in Richtung Erdmittelpunkt (freier Fall). Wir erhalten die Coriolis-Beschleunigung ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ 0 0 cos ϑ 0⎦ . bC = −2 ω G × v = −2 v ωErde ⎣ cos ϑ ⎦ × ⎣ 0 ⎦ = 2 v ωErde ⎣ sin ϑ −1 0 im System G . Die Projektion von bC auf die Erdoberfl¨ache ({G1 , G2 }-System) ist b := 2 v ωErde [cos ϑ, 0]T ≥ 0 , −π/2 < ϑ < π/2 . Nun zeigt der Vektor b nach Osten und erreicht sein maximale L¨ange am ¨ Aquator.
6.7 Tr¨ agheitstensor und Kreisel In diesem Abschnitt werden Koordinatenvektoren und ihre Komponenten im k¨orperfesten Koordinatensystem (KOS) F groß und im raumfesten KOS E klein geschrieben. (a) Tr¨ agheitstensor Es sei ein K¨ orper mit dem k¨orperfesten kartesischen Koordiantensystem F gegeben. Ist K ⊂ R3 seine geometrische Form und die Massendichte in F, dann ist T= (X)[X T X δ − X X T ] dX ∈ R3 3 (6.84) K
6.7 Tr¨ agheitstensor und Kreisel
345
(δ Einheitstensor) sein Tr¨ agheitstensor, wobei Punkte in F wieder großgeschrieben werden. Die Diagonalelemente von T sind die Tr¨ agheitsmomente bez. der k¨ orperfesten X1 -, X2 -, und X3 -Achse, und die u ¨brigen Elemente sind die Deviationsmomente. Der Tr¨ agheitstensor ist symmetrisch also orthogonal diagonalisierbar, und mit der Schwarzschen Ungleichung zeigt man leicht, dass er positiv definit ist. Die Hauptachsen des Tensors sind seine Eigenvektoren U i , i = 1 : 3 . Aus der Theorie der quadratischen Formen ist bekannt, dass die Deviationsmomente verschwinden, wenn die Hauptachsen als Drehachsen gew¨ahlt werden. Bei geeigneter Orientierung und Numerierung bilden diese ein kartesisches Koordinatensystem und f¨ ur die Eigenwerte gilt λ1 ≥ λ2 ≥ λ3 > 0 . Bezeich˙ ∈ R3 , |A| = 1 , den Vektor der Winkelgeschwindigkeit im net Ω(t) = ϕ(t)A System F , dann ist 1 Erot (t) = Ω(t)T TΩ(t) ∈ R 2 die momentane Rotationsenergie. Aus der Theorie der quadratischen Formen folgt wieder: ur A = U 1 , Erot ist minimal f¨ ur A = U 3 . Erot ist maximal f¨ Ist speziell K eine Fl¨ ache in der (X1 , X2 )-Ebene des Systems F , dann verschwinden die Elemente T1,3 = T3,1 und T2,3 = T3,2 , und T3,3 heißt polares Fl¨ achentr¨ agheitsmoment. In der Regel l¨ asst man hier T3,3 weg, so dass T ein (2, 2)-Tensor wird. Ferner ist in diesem Fall T1,1 = X22 dX1 dX2 das Fl¨ achentr¨ agheitsmoment bez.ß X1 -Achse K T2,2 = X12 dX1 dX2 das Fl¨ achentr¨ agheitsmoment bez.ß X2 -Achse K X1 X2 dX1 dX2 das Deviationsmoment . T1,2 = K
¨ Die Anderung des Tr¨ agheitstensors bei Translation des k¨orpereigenen Koordinatensystems regelt der folgende Satz von Steiner: Satz 6.3. Der Ursprung des k¨ orpereigenen Koordinatensystems sei der Schwerpunkt S des K¨ orpers mit der Masse M . Wird das k¨ orpereigene Koordiur den Tr¨ agheitstensor natensystem um den Vektor D verschoben, dann folgt f¨ im verschobenen Koordinatensystem T = T + M (DT D δ − D DT ) . T Das Vorzeichen von D hebt sich also heraus und die axialen Momente (Diagonalelemente von T ) sind am kleinsten, wenn die Koordinatenachsen Schwerachsen sind, d.h. durch den Schwerpunkt gehen.
346
6 Massepunkte und starre K¨ orper
Wird das System F mit der Drehmatrix D gedreht, dann folgt Y = DT X f¨ ur die Komponenten im neuen System G nach § 6.6(a). Einsetzen in (6.84) ergibt X T X δ − XX T = Y T DDT Y δ − DT Y Y T D = DT [Y T Y δ − Y Y T ]D , also T(Y ) = DT(X)DT .
(6.85)
Damit verh¨ alt sich der nichtlineare Tr¨ agheitstensor bei Drehung des Kordinatensystems wie eine gew¨ ohnliche Matrix! (b) Starrer K¨ orper mit ruhendem Punkt Wir betrachten einen homogenen K¨ orper mit konstanter Massendichte und der Masse m . Wie im vorigen Abschnitt sollen das raumfeste KOS E und das k¨orperfeste KOS F als ruhenden Punkt einen gemeinsamen Ursprung O besitzen. Der K¨orper bewege sich mit der Winkelgeschwindigkeit ω(t) > 0 um eine Drehachse Eω E (t) := ωEa(t) , |a(t)| = 1 , und es sei D(t) := D(a(t), ω(t)) die zugeh¨orige Drehmatrix. Nach dem Newtonschen Axiom gilt dann d d(t) = p(t) ∈ R3 dt
(6.86)
f¨ ur den Drehimpuls d(t) und das Drehmoment p(t) in E . orpers gilt x(t) ˙ = ω(t)a(t)×x(t), daraus berechnet F¨ ur einen Punkt x(t) des K¨ man f¨ ur den Drehimpuls bezogen auf den ruhenden Punkt mit der Darstellungsformel (1.3) d(t) = mω x × v(x) dx = mω D(t)x × (a × D(t)x) dx K(t)=D(t)K K T = D(t)mω X × (D(t) a × X) dX = D(t)mω X × (A × X) dX K K X T XA − (X T A)X dX = D(t)mω K X T X δ − XX T dXA = D(t)TωA =: D(t)TΩ F (t) . = D(t)mω K
D(t) = T Ω F (t) ∈ R3 heißt momentaner Drehimpuls d heißt momentanes Drehmoment P (t) = D(t) dt
(6.87)
¨ (beide im KOS F). Es gilt also d(t) = D(t)D(t). Wegen der formalen Ahnlichkeit mit (6.78) folgt (6.81) f¨ ur den Drehimpuls, ˙ ˙ d(t) = D(t) D(t) + Ω F (t) × D(t) = D(t)D(t)T p(t) = D(t)P (t) , oder die dynamischen Euler-Gleichungen im k¨orperfesten KOS P (t) = T Ω˙ F (t) + Ω F (t) × T Ω F (t) .
(6.88)
6.7 Tr¨ agheitstensor und Kreisel
347
˙ = 0, Wenn kein ¨ außeres Moment vorliegt, ist P (t) = 0 und p(t) = 0. Wenn D ¨ d. h. die Anderung von D im k¨ orperfesten KOS Null ist, dann gilt d˙ = D(t) Ω F × D = ω E × D(t)D = ω E × d = p . (6.89) Hat speziell der Tr¨ agheitstensor im KOS F die Diagonalform ⎡ ⎤ T1 0 0 T = ⎣ 0 T2 0 ⎦ 0 0 T3 mit den Eigenwerten Ti von T, dann haben diese Gleichungen die einfachere Form T1 Ω˙ 1 − (T2 − T3 )Ω2 Ω3 = P1 (6.90) T2 Ω˙ 2 − (T3 − T1 )Ω3 Ω1 = P2 . T3 Ω˙ 3 − (T1 − T2 )Ω1 Ω2 = P3 ˙ = 0 , d.h. Drehachse und Drehgeschwindigkeit im (c) Rotoren Es sei Ω k¨ orpereigenen KOS F sind konstant. Ist dann z.B. T1 = T2 , Ω = [0 , ω sin α , ω cos α]T , dann liegt die Drehachse in der (X2 , X3 )-Ebene, und es folgt aus (6.90) 1 (T3 − T2 )ω 2 sin(2α) 2 P2 = T1 ω˙ sin α = 0 , P3 = T3 ω˙ cos α = 0 . P1 = (T3 − T2 )ω 2 sin α cos α =
Es bleibt also nur das ¨ außere Moment P1 um die X1 -Achse u ur das ¨brig. F¨ innere Moment PK,X1 = −P1 folgt PK,X1 =
1 (T2 − T3 )ω 2 sin(2α) , 2
daher wirkt auf die Drehachse im Abstand d vom Ursprung die Kraft K = |K|[0, − cos α, sin α]T , |K| =
(T2 − T3 )ω 2 sin(2α) 2d
wegen d[0, sin α, cos α]×K = P K . F¨ ur T2 > T3 bilden {Ω, K, P K } ein Rechtssystem, K zeigt also im Abstand d von Ω weg. Dies ist der Fall bei einem gestreckten Rotor mit der Symmetrieachse X3 . Im andern Fall zeigt K auf Ω, versucht also den Rotor in die Drehachse zu ziehen (flacher Rotor oder Kreisscheibe). Bei der Berechnung der Lagerkr¨afte ist zu beachten, dass das k¨ orpereigene KOS F uml¨ auft, daher muss K auf das feste Lager projiziert werden. F¨ ur die Lagerkr¨ afte folgt
348
6 Massepunkte und starre K¨ orper
K L = |K|(cos(ωt), sin(ωt)) in der Ebene senkrecht zur Drehachse im Abstand d vom gemeinsamen Urprung. (d) Der kr¨ aftefreie Kreisel Ein K¨ orper in Drehbewegung mit einem ruhenden Punkt heißt Kreisel. Das k¨ orperfeste KOS F sei so gew¨ahlt, dass der Tr¨ agheitstensor Normalform besitzt und der ruhende Punkt der Ursprung ist; ferner wirke kein Moment auf den Kreisel, d.h. P = 0 . Das ist z.B. der Fall, wenn der Schwerpunkt im Ursprung liegt oder keine ¨außeren Kr¨afte auf den Kreisel einwirken. Dann ist die Rotationsenergie Erot konstant, und die Fl¨ache mit der impliziten Darstellung Ω(t) · D(t) = Ω(t)T TΩ(t) = Ω12 T1 + Ω22 T2 + Ω32 T3 = 2Erot bzw.
(6.91)
X12 X22 X32 + + =1 2Erot /T1 2Erot /T2 2Erot /T3
heißt Energieellipsoid EE im k¨ orperfesten KOS F. Die kleinste Achse von oßten Tr¨ agheitsmoment, womit EE grob die Form des EE entspricht dem gr¨ K¨ orpers wiedergibt. Der Punkt (Ortsvektor) Ω(t) l¨auft auf EE . Die Tangentialebene T (t) von EE im Punkt Ω(t) hat im raumfesten KOS E die implizite Darstellung xE · dE (t) = [D(t)XF ]T D(t)D(t) = XF · D(t) = Ω(t) · D(t) = 2Erot . Weil dE (t) = dE im System E konstant ist, ist diese Ebene ebenfalls in E konstant. Daher rollt das Ellipsoid EE auf dieser Ebene ab, und die Spitze von uhrungspunkt (Poinsot-Bewegung). Die von diesem Punkt Ω F (t) ist der Ber¨ auf EE beschriebene Kurve wird Polhodie, die auf der Ebene T beschriebene Kurve Herpolhodie genannt; [Holzmann] II, § 6.4. Der Betrag |D(t)|2 = D(t)T D(t) ist in beiden Systemen konstant, und es gilt ache mit der impliziten Darstellung D(t) = T Ω(t) . Die Fl¨ (T Ω(t))T T Ω(t) = Ω12 T12 + Ω22 T22 + Ω32 T32 = |D|2 bzw.
(6.92)
X12 X22 X32 + + =1 2 2 (|D|/T1 ) (|D|/T2 ) (|D|/T3 )2
heißt Impulsmomentenellipsoid EI im KOS F . Der Punkt (Ortsvektor) Ω(t) l¨ auft auch auf EI . Fazit: Ist der Kreisel momentenfrei, dann beschreibt die Schnittkurve von EE und EI die Bahn von Ω(t) im k¨ orperfesten KOS F, und das Abrollen von EE auf T die Bahnkurve von Ω(t) im raumfesten KOS E. Nat¨ urlich kann diese Bahn zu einem Punkt entarten.
6.7 Tr¨ agheitstensor und Kreisel
349
(e) Der kr¨ aftefreie symmetrische Kreisel Es wirke weiterhin kein Moment auf den Kreisel. Wenn zwei Haupttr¨ agheitsmomente u ¨bereinstimmen, dann heißt der Kreisel symmetrisch, und wenn z. B. T1 = T2 ist, dann heißt die k¨ orpereigene X3 -Achse Figurenachse. Wir haben es dann mit drei Achsen durch den Ursprung beider KOS zu tun, der k¨ orperfesten Figurenachse, dem raumfesten Drehimpulsvektor d und der momentanen Drehachse Ω(t) . Die Bewegung dieser drei Achsen gegeneinander beschreiben drei Kegel, d die X3 -Achse um die momentane Drehachse Ω(t) um d
den Pr¨ azessionskegel, den raumfesten Rastpolkegel oder Herpolhodiekegel die momentane Drehachse Ω(t) um X3 -Achse den k¨orperfesten Gangpolkegel oder Polhodiekegel Gangpolkegel und Rastpolkegel ber¨ uhren sich also an der momentanen Drehachse. Es gilt T3 < T1 = T2 Gangpolkegel rollt mit Außenseite auf Rastpolkegel ab, T3 = T1 = T2 Ω(t) und d parallel, T3 > T1 = T2 Gangpolkegel rollt mit Innenseite auf Rastpolkegel ab. Nat¨ urlich muss der Drehimpuls d nicht notwendig in Richtung der x3 -Achse weisen wie in Abb. 6.24.
Ω X3
d Praezessionskegel
d X3
Praezessionskegel
Rastpolkegel
Rastpolkegel Gangpolkegel
Ω
Gangpolkegel
Abb. 6.24. Rast- und Gangpolkegel
(f ) Der gef¨ uhrte symmetrische Kreisel Der Kreisel sei symmetrisch, T1 = T2 , und die Figurenachse sei Drehachse und X3 -Achse in beiden KOS. Wirkt kein Moment auf den ruhenden Punkt, dann ist d = D = [0, 0, D3 ]T = [0, 0, Ω3 T3 ]T in beiden KOS. Auf den Kreisel wirke nun ein zus¨atzliches (¨außeres) Drehmoment, o. B. in Richtung der x2 -Achse des raumfesten KOS mit dem Vektor der Winkelgeschwindigkeit ω E = [0, ω2 , 0]T . Es gilt dann d = D = [0, D2 , D3 ]T = [0, ω2 T2 , Ω3 T3 ]T .
350
6 Massepunkte und starre K¨ orper
˙ von D im k¨ ¨ Weil die relative Anderung D orperfesten KOS jetzt Null ist, gilt nach (6.89)
⎡ ⎤
e1 0 0
ω2 Ω3 T3
⎦ 0 p = ω E × d =
e2 ω2 ω2 T2
= ⎣
e3 0 Ω3 T3
0 im raumfesten KOS. Im Abstand d vom ruhenden Punkt wirkt daher auf die Lagerachsen a(0, 0, d) und b(0, 0, −d) im raumfesten KOS das Kr¨aftepaar 1 1 k A = − [0, ω2 Ω3 T3 /d, 0]T , k B = [0, ω2 Ω3 T3 /d, 0]T , 2 2 das ein Moment in Richtung der x1 -Achse bewirkt. Das entgegengesetzte Kreiselmoment −p muss also u ¨berwunden werden, damit die Drehung um die x2 Achse im raumfesten KOS aufrechterhalten wird. Ist die Figurenachse nur an einem Punkt aufgeh¨ angt, dann antwortet der Kreisel auf das Drehmoment p mit einer Ausweichbewegung. (g) Kinematische Euler-Gleichungen Es sei u(t) = (ϕ(t), ϑ(t), ψ(t)) der Vektor der Euler-Winkel und D(u) die Drehmatrix (6.75). Die kinematischen Euler-Gleichungen stellen einen Zusammenhang zwischen u˙ und dem Drehgeschwindigkeitvektor ω E (t) im raumfesten KOS her. Die Koordinaten lassen T ˙ ˙ = ωC(u)D(u) also ωC(u) = D(u)D (u) mit der Darstellung sich aus D(u) nach § 1.1(i), ⎤ ⎡ 0 −ω3 (u) ω2 (u) 0 −ω1 (u) ⎦ ωC(u) = ⎣ ω3 (u) 0 −ω2 (u) ω1 (u) berechnen,
⎤ ⎡ ⎤⎡ ⎤ ϕ˙ ω1 0 cos ϕ sin ϑ sin ϕ ⎣ ω2 ⎦ = ⎣ 0 sin ϕ − sin ϑ cos ϕ ⎦⎣ ϑ˙ ⎦ . ω3 1 0 cos ϑ ψ˙ ⎡
(6.93)
Aus Ω F = D(u)T ω E erh¨ alt man dann den Drehgeschwindigkeitsvektor im System F mit den Koordinaten ⎡ ⎤ ⎡ ⎤⎡ ⎤ Ω1 sin ϑ sin ψ cos ψ 0 ϕ˙ ⎣ Ω2 ⎦ = ⎣ sin ϑ cos ψ − sin ψ 0 ⎦⎣ ϑ˙ ⎦ , (6.94) Ω3 cos ϑ 0 1 ψ˙ und es folgt ˙ 2. Ω12 + Ω22 = ϕ˙ 2 sin2 ϑ + ϑ˙ 2 , Ω32 = (ϕ˙ cos ϑ + ψ)
(6.95)
(h) Schwerer symmetrischer Kreisel Es sei ein symmetrischer Kreisel mit Tr¨ agheitstensor in Normalform und T1 = T2 gegeben, ferner liege der Schwerpunkt im Abstand l vom Ursprung auf der Figurenachse.
6.7 Tr¨ agheitstensor und Kreisel
351
Dann ist die kinetische Energie Erot , die potentielle Energie Epot und die LagrangeFunktion L 1 Erot (u, u) T1 (Ω12 + Ω22 ) + T3 Ω32 = ˙ = 2 1 2 1 ˙2 2 T1 ϑ + ϕ˙ sin2 ϑ + T3 ψ˙ + ϕ˙ cos ϑ 2 2 Epot (u, u) ˙ = mgl cos ϑ L(u, u) ˙ = Erot (u, u) ˙ − Epot (u, u) ˙ (6.96) Abb. 6.25. Potentielle Energie
Nach dem Hamiltonschen Prinzip verh¨ alt sich der Kreisel so, dass das T Wirkungsintegral L(u(t), u(t)) ˙ dt einen station¨aren Wert annimmt, daher 0
m¨ ussen die Euler-Lagrange-Gleichungen gelten – vgl. § 4.1, 0= mit
und
d gradu˙ L(u, u) ˙ − gradu L(u, u) ˙ =: A(u)¨ u + b(u, u) ˙ dt
(6.97)
⎤ T1 sin2 ϑ + T3 cos2 ϑ 0 T3 cos ϑ ⎦ , det(A) = T12 T3 sin2 ϑ , A(u) = ⎣ 0 0 T1 0 T3 T3 cos ϑ ⎡
⎤ ˙ 3 ˙ 1 − T3 ) cos ϑ − ϑ˙ ψT 2ϕ˙ ϑ(T ⎢ ˙ 3 − mgl ⎥ b(u, u) ˙ = sin ϑ⎣ ϕ˙ 2 (T3 − T1 ) cos ϑ + ϕ˙ ψT ⎦. ˙ −ϕ˙ ϑT3 ⎡
Diese Gleichungen h¨ angen nicht von ϕ und ψ selbst ab. Solange ϑ von Null verschieden ist, l¨ asst sich die Matrix A invertieren oder das System z.B. mit R -Programm ode23t.m l¨ osen; die Bahn der Figurenachse im dem MATLAB raumfesten System wird dann durch die dritte Spalte der Matrix D(ϕ, ϑ, ψ) in (6.75) dargestellt, die ebenfalls nicht vom Euler-Winkel ψ abh¨angt. (i) Energie des schweren Kreisels Die erste und dritte Komponente von ussen nach (6.97) die erste und dritte Komponente gradu L sind Null, daher m¨ von gradu˙ L Invarianten des Systems sein (zyklische Variable, vgl. § 4.1 (e3)). Ist d3 := [d]3 die dritte Komponente des Drehimpulses im raumfesten KOS E und D3 := [D]3 die dritte Komponente des Drehimpulses im k¨orperfesten KOS F, dann folgt aus der Theorie oder auch durch direkte Rechnung
352
6 Massepunkte und starre K¨ orper
˙ 3 cos ϑ = d3 ∂L/∂ ϕ˙ = ϕ(T ˙ 1 sin2 ϑ + T3 cos2 ϑ) + ψT ∂L/∂ ψ˙ = T3 (ψ˙ + ϕ˙ cos ϑ) = D3 . Aufl¨ osen nach ϕ˙ und ψ˙ ergibt ϕ˙ =
d3 − D3 cos ϑ D3 d3 − D3 cos ϑ , ψ˙ = cos ϑ , − 2 T3 T1 sin ϑ T1 sin2 ϑ
(6.98)
und Einsetzen in die Gesamtenergie E = Erot + Epot ergibt die dritte Invariante E des Systems als alleinige Funktion des Winkels ϑ und seiner Ableitung, dV 1 ˙2 T1 ϑ + V (ϑ) , T1 ϑ˙ ϑ¨ = − (ϑ)ϑ˙ 2 dϑ mit der effektiven Potentialenergie V (ϑ) ≤ E, E=
(6.99)
(d3 − D3 cos ϑ)2 D32 f¨ ur d23 = D32 + mgl cos ϑ + 2T3 2T1 sin2 ϑ D2 D2 (1 − cos ϑ)2 + mgl cos ϑ + 3 f¨ = 3 ur d3 = D3 2T1 (1 + cos ϑ) 2T3 D2 D2 (1 + cos ϑ)2 + mgl cos ϑ + 3 f¨ = 3 ur d3 = −D3 . 2T1 (1 − cos ϑ) 2T3
V (ϑ) =
¨ Man beachte die formale Ahnlichkeit zu Satz 6.1 mit dem Unterschied, dass 0 ≤ ϑ ≤ π gelten muss. Durch K¨ urzen von ϑ˙ erh¨alt man aus der zweiten Gleichung in (6.99) zusammen mit der ersten Gleichung in (6.98) ein Differentialsystem, das die Bewegung des Kreisels vollst¨andig beschreibt, weil der Winkel ψ in der dritten Spalte von (6.75) als der Symmetrieachse des Kreisels im raumfesten KOS nicht vorkommt. Die Azimuthbewegung mit dem Winkel ϕ heißt Pr¨ azession und die periodische Bewegung mit dem Winkel ϑ Nutation. Wenn der Winkel ϑ konstant ist, verschwindet die Nutation und die Pr¨ azession heißt regul¨ ar. (j) F¨ ur die weitere Untersuchung der Kreiselbewegung wird cos ϑ = u gesetzt, dann erh¨ alt man aus (6.99) u˙ 2 = f (u) = (α − βu)(1 − u2 ) − (a − bu)2 ,
(6.100)
wobei a = d3/T 1 , b = D3/T1 , α = 2E /T1 , β = 2 mgl/T1 > 0 , E = E−D32 /2 T3 . Bei Vorgabe physikalischer Daten hat das Polynom dritten Grades f (u) eine doppelte oder zwei verschiedene reelle Nullstellen u1 = cos ϑ1 und u2 = cos ϑ2 im Intervall −1 ≤ u ≤ 1 . F¨ ur d23 = D32 hat V (ϑ) genau ein Minimum zwischen den Polstellen ϑ = 0 und ϑ = π , und der Winkel ϑ zwischen der Symmetrieachse des Kreisels und der raumfesten e3 -Achse variiert zwischen den beiden
6.7 Tr¨ agheitstensor und Kreisel
353
Extremwerten ϑ1 und ϑ2 mit V (ϑi ) = E . In den anderen F¨allen liegt das Minimum von V (ϑ) am Rand des Intervalls [0, π] , und ϑ variiert zwischen diesem Randpunkt und dem Wert ϑ mit V (ϑ) = E . 1. Fall: d23 = D32 und cos ϑ1 < d3 /D3 ; dann ist ϕ˙ > 0 in (6.98) und ϕ w¨achst streng monoton. 2. Fall: d23 = D32 und d3 /D3 < cos ϑ2 ; dann ist ϕ˙ < 0 in (6.98) und ϕ f¨allt streng monoton. ur ϑ = ϑ1 . 3. Fall: d23 = D32 und cos ϑ1 = d3 /D3 ; dann wird ϕ˙ = 0 f¨ ur ϑ = ϑ2 . 4. Fall: d23 = D32 und cos ϑ2 = d3 /D3 ; dann wird ϕ˙ = 0 f¨ 5. Fall: d23 = D32 und cos ϑ2 < d3 /D3 < cos ϑ1 ; dann wechselt ϕ˙ in (ϑ1 , ϑ2 ) das Vorzeichen, und ϕ˙ hat in ϑ1 und ϑ2 entgegengesetztes Vorzeichen. 6. Fall: d23 = D32 und E = Minϑ V (ϑ) ; dann ist ϑ1 = ϑ2 und ϕ˙ , ψ˙ sind konstant; es ergibt sich wieder eine regul¨ are Pr¨azession. 7. Fall: d3 = −D3 = 0. Wegen d(t) = D(t)D(t) und (6.75) muss ϑ2 = π sein. V (ϑ) f¨ allt monoton im Intervall (0, π) , deswegen bleibt die Kreiselachse stabil in der negativen e3 -Achse (schlafender Kreisel) oder pendelt zwischen ϑ1 und π bei ϑ(0) = π . 8. Fall: d3 = D3 = 0 und D3 ≥ 2(T1 mgl)1/2 . Wiederum wegen d(t) = D(t)D(t) und (6.75) muss ϑ1 = 0 sein. V (ϑ) w¨achst monoton im Intervall (0, π) , deswegen bleibt die Kreiselachse stabil in der e3 -Achse (schlafender Kreisel) oder pendelt zwischen 0 und ϑ2 bei ϑ(0) = 0 . 9. Fall: d3 = D3 = 0 und D3 < 2(T1 mgl)1/2 . V (ϑ) hat ein Minimum im Intervall (0, π) . Der Winkel ϑ bewegt sich zwischen ϑ1 = 0 und ϑ2 mit V (ϑ2 ) = E . Wegen D3 = T3 Ω3 ist Ω3∗ = 2(T1 mgl)1/2 /T3 die kritische Rotationsgeschwindigkeit, unterhalb der schlafende Kreisel aufwacht und bei kleinen St¨orungen zu taumeln beginnt. (k) Beispiele T1 = 1 , T3 = 2 , m = 1 . alt man α und β durch Nullsetzen von Nach Vorgabe von d3 und D3 > 0 erh¨ (6.100) f¨ ur u1 = cos ϑ1 und u2 = cos ϑ2 . Unphysikalische Daten werden durch die Bedingung β ≥ 0 ausgesondert. Die beiden Invarianten d3 und D3 h¨angen mit den Anfangsbedingungen f¨ ur ϕ˙ und ψ˙ gem¨aß (6.98) zusammen.
354
6 Massepunkte und starre K¨ orper Tabelle 6.1. Fall
α
β
2
9
2.9667
1
9
2.1421
2
3
3.4641
2
1
0.9289
ϑ1
ϑ2
1
π/6
π/2 3
2 3
π/2 3π/4 -3 √ π/6 π/2 3
5
π/4 π/2
6
π/4 π/4 1.2
1
7
π/2
π
-1
1
1
2
8
0
π/2
3
3
9
1
9
0
π/2
1
1
1
1
6
d3 D3
1
∼ 0.9 0.5973
6.5
6
y=6 5.5
6
5.5
E 5
Veff
5.5
Veff
4.5
5
dφ/dt
4
5
dφ/dt+2.5
4.5
E
4.5
4
3.5
4
3.5
3
3.5
3
Veff E
dφ/dt+6 2.5
π
0 2
0
0.5
1
1.5
2
2.5
3
3
2.5
π
0 2.5
0
0.5
1
Fall 1
1.5
2
2.5
π
0 3
2
0
0.5
1
Fall 2
1.5
2
2.5
3
Fall 3
Abb. 6.26. Effektive Potentialenergie V und dϕ/dt beim schweren Kreisel
3
2.5
Veff
2
1.5
4
3
3.5
2.5
3
2
2.5
1.5
Veff
E 1
dφ/dt
2
dφ/dt
0.5
E
1
1.5
0.5
V 0
−0.5
E
0.5
0
0.5
1
1.5
Fall 5
2
2.5
3
π
0 0
0
−0.5
π
0 −1
eff
1
0
0.5
1
1.5
Fall 6
2
2.5
3
dφ/dt
0 −1
0
0.5
1
1.5
Fall 7
π 2
2.5
3
6.7 Tr¨ agheitstensor und Kreisel 4
3
3.5
2.5
E 3
dφ/dt
2
0.5 V
2.5
V
1.5
eff
2
eff
1
1.5
E
0.5
0.5 dφ/dt 1
0
0.5
−0.5
π
0 0
355
0
0.5
1
1.5
2
2.5
3
π
0 −1
0
0.5
1
Fall 8
1.5
2
2.5
3
Fall 9
Abb. 6.27. Fortsetzung
˙ Spur der Kreiselachse: Startwerte (ϑ(0), ϑ(0), ϕ(0)) = (ϑi , 0, 0) , i = 1 oder 2; bei Fall 9 ϑ(0) = π/2 und ϑ(0) = π/4 :
Fall 1
Fall 2
Fall 3
Fall 5
Abb. 6.28. Die relevanten F¨ alle
Fall 7
Fall 8
Fall 9a
Fall 9b
Abb. 6.29. Fortsetzung
Die gleichen Figuren k¨ onnen auch vom Nordpol aus (oder von jeder anderen Richtung) betrachtet werden; s. dazu demo3.m in KAPITEL06\SECTION_6_7.
356
6 Massepunkte und starre K¨ orper
6.8 Zur Behandlung von Mehrk¨ orperproblemen Das dynamische Verhalten eines Systems von starren K¨orpern unter Zwangsbedingungen wird in technischen Anwendungen als Mehrk¨ orperproblem oder mechanisches System bezeichnet. Die Analytische Mechanik nach Lagrange und Hamilton beschreibt die allgemeine Bewegung unter Gleichungsrestriktionen bzw. auf differenzierbaren Mannigfaltigkeiten; vgl. z.B. [Heil] und [Arnold78]. Sie liefert ein geschlossenes theoretisches Geb¨aude, wird aber f¨ ur technische Anwendungen weniger empfohlen; vgl. z.B. [Schiehlen86]. Einer der Gr¨ unde mag sein, dass sie eben mehr auf die analytische L¨osung abhebt, ein ¨ anderer, dass der Ubergang von den verallgemeinerten Koordinaten p und q zu der Zustandsvariablen x und deren Geschwindigkeit x˙ algorithmisch schwierig durchzuf¨ uhren ist. Außerdem passen Ungleichungsrestriktionen nicht in dieses Kalk¨ ul. Bei dynamischen Problemen tritt das Hamiltonsche Prinzip an die Stelle des Extremalprinzips, wobei zu beachten ist, dass die Kr¨afte konservativ sein m¨ ussen und die Lagrange-Funktion nicht explizit von der Zeit abh¨ angen darf. Unter Umgehung eines Extremalprinzips k¨onnen auch die Erhaltungsgleichungen direkt aufgestellt werden. Die Variationsgleichungen des Wirkungsintegrals sind die dynamischen Euler-Lagrange-Gleichungen aus Satz 4.1 mit den dort beschriebenen Randbedingungen. Weil die gesuchte Zustandsfunktion des dynamischen Systems nicht mehr notwendig aus Ortsver¨ anderlichen besteht sondern z.B. auch Drehwinkel enthalten kann, wird sie als verallgemeinerte Zustandsfunktion q(t) mit Werten im Konfigurationsraum angesetzt. Vorgabe f¨ ur das dynamische System sind dann die kinetische Energie, die potentielle Energie und die Zwangsbedingungen. Bezeichnungen; vgl. §§ 4.1, 6.9: t ∈ [0, T ] q(t) ∈ Rn ∈ Rn q(t) ˙
betrachtetes Zeitintervall verallgemeinerte Koordinaten verallgemeinerte Geschwindigkeiten Ekin (q(t)) = 12 q(t) ˙ T Aq(t) ˙ kinetische Energie potentielle Energie Epot (q(t)) ˙ = Ekin (q(t)) ˙ − Epot (q(t)) Lagrange-Funktion L(q(t), q(t)) ˙ = 0 ∈ Rm Zwangsbedingungen G(t, q(t), q(t))
6.8 Mehrk¨ orperprobleme
357
Je nach ihrer Form werden Zwangsbedingungen G wie folgt bezeichnet: G(q) G(t, q) ˙ G(q, q) ˙ G(t, q, q)
= 0 holonom-skleronom = 0 holonom-rheonom = 0 nicht-holonom skleronom = 0 nicht-holonom rheonom
(skleronom: starr, rheonom: fließend). Manchmal werden auch Zwangsbedingungen nicht-holonom genannt, wenn sie sich nicht als t-Ableitung einer holonom-rheonomen Bedingung darstellen lassen, d.h. wenn es kein System ˙ = d H(t, q)/dt . H(t, q) = 0 gibt so, dass G(t, q, q) Betrachten wir nun das Extremalproblem mit Zwangsbedingungen
T
˙ dt = Extr! , G(t, q(t), q(t)) L(q(t), q(t)) ˙ = 0 ∈ Rm ,
(6.101)
0
ur die Zustandsfunktion [0, T ] t → mit L ∈ C 2 [0, T ] und G ∈ C 2 ([0, T ]; Rm ) f¨ q(t) ∈ Rn . Durch die Substitution u = q˙ entsteht hieraus ein Kontrollproblem der in § 4.3 behandelten Form. In diesem Abschnitt soll aber ein direktes Verfahren beschrieben werden, das auf ein differential-algebraisches Problem f¨ uhrt. ¨ Ublicherweise werden die L¨ osungskurven der Euler-Gleichungen (4.2) Extremale genannt, obwohl sie nicht notwendig Extremalstellen des Wirkungsintegrals in (6.101) sind. Im folgenden Satz von [Gelfand] ist L eine beliebige Funktion (mit der obigen Glattheit), die insbesondere explizit von der unabh¨ angigen Variablen t abh¨ angen darf. Satz 6.4. (Existenz von Lagrange-Multiplikatoren) (1◦ ) Es sei q ∗ Extremum von (6.101). ur t ∈ [0, T ] sei Rang gradq˙ G(t, q ∗ , q˙ ∗ ) = m oder Rang gradq G(t, q ∗ ) = (2◦ ) F¨ angt. m , falls G nicht von q˙ abh¨ m ∗ Dann existiert eine Funktion y ∈ C 2 ([0, T ]; R ) so, dass q is Extremale des erweiterten Lagrange-Funktionals
(L + y T G) dt ist, d.h.
gradq (L + y T G) −
d gradq˙ (L + y T G) = 0 . dt
Bezeichnungen f¨ ur die numerische L¨ osung: x, y := x, ˙ z : Verallgemeinerte Ortskoordinaten, deren Ableitung, Lagrange-Multiplikatoren (u, v, w) : numerische Approximation von (x, y, z)
.
358
6 Massepunkte und starre K¨ orper
Wir betrachten das mechanische System mit Zwangsbedingung x(t) = f (t, x(t), x(t)) ˙ ∈ Rn , g(t, x(t)) = 0 ∈ Rm . M (t, x(t))¨
(6.102)
Das Differentialsystem ist als Variationsgleichung eines Extremalproblems zu verstehen; vgl. § 4.1. Daher f¨ uhrt die Umwandlung in ein System erster Ordnung und eine Anwendung der Multiplikatorregel aus § 3.2(b) auf das System x˙ =y M (t, x)y˙ = f (t, x, y) − ∇g(t, x)T z 0 = g(t, x)
.
(6.103)
Zur Transformation auf ein System mit Index 1 – vgl. § 2.7(d) – wird die Zwangsbedingung nach t abgeleitet: x˙ =y T M (t, x)y˙ + ∇g(t, x) z = f (t, x, y) ∂g = − (t, x) ∇g(t, x)x˙ ∂t
.
(6.104)
F¨ ur ein halb-explizites Runge-Kutta-Verfahren nach § 2.7(e) muss die Lagrange-Matrix
M [∇g]T L= ∇g O dieses Systems in einer Umgebung der L¨ osung regul¨ar sein; dazu gen¨ ugt es aber nach Lemma 1.2, dass die verallgemeinerte Massenmatrix M auf dem Kern von ∇g regul¨ ar ist. Mit den Daten (A, b, c) eines halb-expliziten Verfahrens sei ui (t) = u(t) + τ
i−1
αij v j v i (t) = v(t) + τ
j=1
i−1
αij v˙ j
j=1
Mi
= M (t + γi τ, ui )
fi
= f (t + γi τ, ui , v i )
Gi
= ∇g(t + γi τ, ui )
hi
=
∂g (t + γi τ, ui ) ∂t
f¨ ur i = 1 : r, wobei v˙ als Approximation der Ableitung von v zu verstehen ist. Dann erhalten wir aus (6.104) f¨ ur die Zwischenstufen i = 1 : r ein System der Form = vi u˙ i Mi v˙ i + GTi wi = f i (6.105) Gi v i = −hi . Wegen der Stufenform der Matrix A kann in der dritten Zeile dieses System der Index i um Eins erh¨ oht werden. Anschließend wird
¨ 6.9 Uber Prinzipien der Mechanik
v i+1
= v(t) + τ
v(t + τ ) = v(t) + τ
i−1 j=1 r−1
359
αi+1,j v˙ j + τ αi+1,i v˙ i , i = 1 : r − 1 βj v˙ j + τ βr v˙ r ,
i=r
j=1
in (6.105) eingesetzt. Mit Aufl¨ osung nach v˙ i ergibt sich dann f¨ ur jede Stufe i = 1 : r ein lineares Gleichungssystem
Mi GTi Gi+1 0
v˙ i wi
f = i ri
.
(6.106)
Damit bieten sich halb-explizite Runge-Kutta-Verfahren in besonderer Weise zur numerischen L¨ osung mechanischer Systeme an, die i.d.R. nicht steif sind. Die Startwerte m¨ ussen aber die Konsistenzbedingung g(t0 , u0 ) = 0 , G0 v 0 + h0 = 0 erf¨ ullen. Beispiele in § 11.3.
¨ 6.9 Uber Prinzipien der Mechanik Ein mechanisches Prinzip kann ein Axiom im mathematischen Sinn sein oder eine Rechenvorschrift wie die Multiplikatorenmethode von Lagrange oder D’Alemberts Prinzip, die Bedeutung ist nicht eindeutig festgelegt. Die klassischen Prinzipien der Mechanik beziehen sich mehrheitlich auf Massepunkte oder starre K¨ orper, bei denen der W¨ armetransport, d.h. die Energieerhaltungsgleichung unber¨ ucksichtigt bleibt und allein Impulserhaltungssatz bzw. Drehimpulserhaltungssatz in station¨ arer oder nichtstation¨arer Form zum Zuge kommt. Die wichtigsten Prinzipien sind: (a) Die Erhaltungss¨ atze in § 8.3. (b) Das Energieprinzip besagt, das die Summe von kinetischer und potentieller Energie in einem geschlossenen System“ konstant ist (eigentlich eine ” Tautologie). Im Allgemeinen gilt dieses Gesetz solange, wie die kinetische Energie eine quadratische Form in x˙ ist und die potentielle Energie“ keine ” Geschwindigkeiten enth¨ alt, außerdem m¨ ussen beide skleronom sein. (c) Das Extremalprinzip der Energie besagt, dass sich ein station¨ ares mechanisches System im Gleichgewicht befindet, wenn die gesamte potentielle Energie einen station¨ aren Wert annimmt (i.d.R. ein Minimum). Seine Variationsform heißt Prinzip der virtuellen Arbeit.
360
6 Massepunkte und starre K¨ orper
(d) D’Alembert und Lagrange. Es soll hier nicht eine allgemeine Theorie der Variationsprinzipien entwickelt werden. Wir betrachten vielmehr ein einziges Teilchen x ∈ Rn unter dem Newtonschen Gesetz (Impulserhaltungssatz) A¨ x = f (x) ,
(6.107)
wobei A ∈ Rn n etwas allgemeiner eine symmetrische, positiv definite Matrix ist und f = − grad U mit einer Potentialfunktion U gilt. Die kinetische Energie T und die Gesamtenergie des Teichens x(t) auf seinem Orbit sind T (x(t)) ˙ =
1 x(t) ˙ T Ax(t) ˙ , E(x(t)) = T (x(t)) ˙ + U (x(t)) 2
(6.108)
und durch Ableitung nach t folgt d 6 E = [A¨ x − f (x)] · x˙ =: gradE(x) x˙ = 0 . dt E(x(t)) ist also konstant auf dem Orbit x(t) g.d.w. (6.107) gilt. Das D’Alembertsche Prinzip der virtuellen Verschiebung besagt in diesem unrestringierten Fall x − f (x)] · u = 0) ⇐⇒ A¨ x − f (x) = 0 . (∀ u ∈ Rn : [A¨ Nach dieser wenig spektakul¨ aren Erkenntnis setzen wir voraus, dass das Teilchen m holonom-skleronomen Zwangsbedingungen unterliegt: g(x) = 0 ∈ Rm , Rang grad g = m . Gem¨ aß der Multiplikatorenmethode von Lagrange stellen die Zeilen von afte dar, die jeweils noch mit einem Proportionalit¨atsfakgrad g(x) Zwangskr¨ amlich den Lagrange-Multiplikatoren multipliziert und zu der eintor yi n¨ gepr¨ agten Kraft f addiert werden. Das Ergebnis ist (nach Transponierung) eine erweitertes differential-algebraisches System 6 = y T [grad g(x)] ∈ Rn , g(x) = 0 ∈ Rm , [gradE(x)]
(6.109)
ost wird. das f¨ ur x und y gel¨ Nach dem D’Alembertschen Prinzip andererseits wird Ker grad g(x) =: span{u1 (x), . . . , un−m (x)} berechnet und die erste Gleichung in (6.109) von rechts mit allen ui multipliziert, wodurch die Zwangskr¨afte samt ihren Multiplikatoren wieder verschwinden. Das Ergebnis ist ebenfalls ein differentialalgebraisches System 6 · ui (x) = 0 , i = 1 : n − m , g(x) = 0 ; gradE(x)
(6.110)
vgl. § 6.4 (c). In der klassischen Mechanik wird (6.110) nicht in dieser Form gel¨ ost, vielmehr werden m u ussige“ Variable mittels Aufl¨osung“ von ¨berfl¨ ” ”
¨ 6.9 Uber Prinzipien der Mechanik
361
g(x) = 0 eliminiert, um ein reines Differentialsystem f¨ ur n − m t-abh¨angige Variable zu erzeugen. Nach dem Satz 1.2 u ¨ber den Wertebereich und Folgerung 1.8 sind beide Rechenvorschriften ¨ aquivalent: 6 T ⇐⇒ grad g u = 0 =⇒ gradE 6 u=0 . [grad g]T y = [gradE] Vom geometrischen Standpunkt sind also die Multiplikatorenmethode und das D’Alembertsche Prinzip duale Betrachtungsweisen ein und desselben Problems (und beide gleichermaßen genial). Im station¨ aren Fall verschwindet die kinetische Energie, T = 0 , und beide Methoden f¨ uhren auf ein algebraisches“ System f¨ ur x ∈ Rn . Das D’Alem” bertsche Prinzip wird zum (verallgemeinerten) Prinzip der virtuellen Arbeit, aus dem es hervorging durch Einf¨ uhrung der Tr¨ agheitskraft A x ¨ als dynamischer Komponente. Aufw¨ andigere mechanische (und hydromechanische) Probleme werden heute mit der Multiplikatorenmethode einer numerischen L¨osung zug¨anglich gemacht. Vielfach wurden auch problemspezifische Verfahren entwickelt wie etwa bei den Navier-Stokes-Problemen in § 9.7, oder die differentialalgebraischen Probleme werden direkt mit einschl¨agigen Verfahren behandelt, wie etwa die Beispiele in § 11.3. Der Fall allgemeiner nichtholonom-rheonomer Restriktionen g in der Multiplikatorenmethode wird durch den Existenzsatz 6.4 von Gelfand abgedeckt. Das D’Alembertsche Prinzip kann wenigstens theoretisch auf holonomrheonome Bedingungen g(t, x) = 0 angewendet werden. Dann gilt d g(t, x) = g t (t, x) + grad g(t, x) u = 0 , u = x˙ , dt und unter der obigen Rangbedingung f¨ ur grad g gibt es wieder n − m linear tabh¨ angige L¨ osungen ui dieses inhomogenen Systems, die sukzessive in (6.110) eingesetzt werden m¨ ussen. Literatur: [Hamel], [Heil], [Szabo76], [Szabo77], (e) Das Hamiltonsche Prinzip Die Euler-Gleichungen d gradx˙ L(t, x, x) ˙ =0 dt stellen eine notwendige und hinreichende Bedingung f¨ ur einen station¨aren Orbit x des Extremalproblems t1 W (x) := L(t, x, x)dt ˙ = Extr! , x(t0 ) = a , x(t1 ) = b , ˙ − gradx L(t, x, x)
t0
dar. Ist nun L = T − U die Lagrange-Funktion, dann heißt W (x) Wirkungsintegral (action integral, Wirkung = Arbeit · Zeit) und das Hamiltonsche Prinzip oder eigentlich Lagrange-Prinzip der kleinsten Wirkung
362
6 Massepunkte und starre K¨ orper
besagt, dass jeder Orbit x mit kinetischer Energie T und potentieller Energie U gem¨ aß (6.108) eine Extremale von W (x) ist, solange L nicht explizit von der Zeit abh¨ angt. In der Physik ist dieses Prinzip in seiner st¨arkeren Form als Minimumprinzip etabliert, aber ein schl¨ ussiger quantenmechanischer Beweis steht noch aus [Denninger]. Es gen¨ ugt dann, das Wirkungsintegral auf einem einzigen t-Intervall zu betrachten, weil die Minimaleigenschaft nach dem Optimalit¨ atsprinzip auf jedem Teilintervall gilt; vgl. § 4.2(e). Die Gleichungen (6.107) sind die Euler-Gleichungen dieses Integrals und umgekehrt f¨ uhren die Bewegungsgleichungen A¨ x = f (x) auf das Hamiltonsche Prinzip in seiner schwachen Form nach § 6.2 (e). Das schwache Prinzip ist daher ¨aquivalent zum Newtonschen Axiom (und damit auch zum D’Alembertschen Prinzip). Weiter oben wurde bereits gezeigt, dass L − gradx˙ Lx˙ ein erstes Integral (Invariante) der Euler-Gleichungen ist (DuBois-Reymond Bedingung), wiederum solange L nicht explizit von der Zeit“ t abh¨angt. Es gilt aber ” gradx˙ Lx˙ = gradx˙ T x˙ = 2T also L − 2T = const. ⇐⇒ E = T + U = konst. Als Konstante darf die Gesamtenergie E zum Wirkungsintegral addiert werden, womit die potentielle Energie U verschwindet: Ist x station¨ arer Wert des Wirkungsintegrals W (x) , dann ist x b 5 (x) := 2 auch station¨ arer Wert des Wirkungsintegrals W T dt a
und umgekehrt.
(f ) Das Jacobische Prinzip. F¨ ur die Bogenl¨ange s einer Kurve gilt ds = dt . Daher kann die freie Variable t durch s ersetzt werden, solange |x| ˙ = |x(t)| ˙ 0 ist (Parameterdarstellung nicht entartet), und man erh¨alt T (x(t)) ˙ = T ( x (s))
1 (t (s))2
(6.111)
T ( x (s)) ds . (6.112) t (s) s1 s1 −1/2 Einsetzen von (6.111) in E = T +U ergibt t (s) = 2(E −U ) . Nochmalige Substitution von T = E − U in (6.112) ergibt dann s2 s2 8 7 W (x) = (2(E − U ) ds = 2T ( x (s)) ds 5 (x) = 2 W
s2
s2
T (x(t(s))t ˙ (s) ds = 2
s1
√
s1
(Nat¨ urlich kann der Faktor 2 weggelassen werden.) Das Jacobische Prinzip der kleinsten Wirkung besagt, dass die Bewegung x (s) eines Partikels von 7 (x) station¨ar macht – oder strenger (s2 ) das Wirkungsintegral W x (s1 ) nach x – zu einem Minimum. F¨ ur A = I (Identit¨ at) erh¨alt man
¨ 6.9 Uber Prinzipien der Mechanik
8
363
2T ( x (s)) = | x (s)| = 1 ,
weil die Geschwindigkeit bezogen auf die Bogenl¨ange immer eins ist. Dann besagt das Jacobische Prinzip schlicht, dass ein Orbit x mit der obigen kinetischen und potentiellen Energie immer die k¨ urzeste Verbindung zwischen zweien seiner Punkte ist, allerdings unter der Nebenbedingung konstanter Gesamtenergie E . Eine andere Matrix A = I f¨ uhrt dabei nur auf eine andere Metrik. Betrachten wir umgekehrt das klassische Extremalproblem x (s)) 5 (x) = Extr! , E = T ( W + U ( x(s)) = κ konstant, t (s)2 dann f¨ uhrt die Multiplikatorenmethode auf ein modifiziertes Wirkungsintegral s2 T ( x (s)) T ( x (s)) 5 5 W (x) = + λ(s) + U ( x(s) ds . 2 t (s) t (s)2 s1 angige Variable und Ableiten nach t ergibt In dieser Darstellung ist t abh¨ −2
x (s)) T ( x (s)) 2λ(s)T ( − = 0, t (s)2 t (s)3
woraus λ(s) = −t (s) folgt. Einsetzen ergibt schließlich s2 T ( x (s)) 5 5 (x) = W − U ( x (s)) t (s) ds . (s)2 t s1 Das neue Variationsproblem ist frei von Zwangsbedingungen, daher kann wieder t als freie Ver¨ anderliche eingef¨ uhrt werden, womit sich wieder das Hamiltonsche Wirkungsintegral t1 W (x) = (T − U ) dt , t0
ergibt und damit das Hamiltonsche Prinzip. Die obigen Ergebnisse gelten auch, wenn x(t) ∈ Rn durch verallgemeinerte Koordinaten q im Konfigurationsraum“ ersetzt wird, daher gelten sie auch ” unter Nebenbedingungen verschiedener Art. (Die Nebenbedingungen werden aufgel¨ ost“, um die unabh¨ angigen (verallgemeinerten) Koordinaten q aufzu” sp¨ uren und treten dann nicht mehr in Erscheinung.) Daher nehmen kanonische Transformationen in der allgemeinen Diskussion einen breiten Raum ein. Auuhrt zur ßerdem werden noch verallgemeinerte Momente p = gradq˙ L eingef¨ einfachen Darstellung p˙ = gradq L(t, q, q) ˙ der Euler-Gleichungen; siehe auch § 4.1(e). In technischen Anwendungen bleiben aber der Zustand x und seine oßen, daher wird dieser Weg hier nicht Geschwindigkeit x˙ die gesuchten Gr¨ weiterverfolgt und auf die einschl¨ agige Literatur u ¨ber Analytische Mechanik verwiesen, z.B. [Lanczos].
364
6 Massepunkte und starre K¨ orper
R 6.10 Hinweise zu den MATLAB -Programmen
Kapitel VI/SECTION_2_3_4, Zentralfelder demo1.m Grafik fuer Zweites Keplersches Gesetz demo2.m Bewegung im Zentralfeld, verschieden Potentiale demo3.m Beliebiger Kegelschnitt bei Vorgabe von Anfangslage und Anfangsgeschwindigkeit kepler.m Berechnet Kegelschnitt aus Startwerten ellipse.m Zeichnet Ellipse mit Daten parabel.m Zeichnet Parabel mit Daten hyperbel.m Zeichnet Hyperbel mit Daten Kapitel VI/SECTION_5, Dreikoerperproblem arenstorf.m Verschiedene Arenstorf-Orbits demo1.m Zweikoerperproblem Bahnkurven aus Differentialsystem demo2.m Dreikoerperproblem Bahnkurven aus Differentialsystem Kapitel VI/SECTION_6_7, Kreisel demo1.m Berechnet EULER-Winkel fuer Kreisel und Bahnkurve der Kreiselachse direkt aus EULER-LAGRANGE-Gleichungen demo2.m Kreiseldemo, die 7 Beispiele demo3.m Berechnet die EULER-Winkel phi und theta nach Vorgabe der Daten aus DEMO2.M mit Differentialsystem sowie Bahnkurve der Kreiselachse demo4.m Zeichnet die Kurve des Euler-Winkels theta und die Kurve der Ableitung von phi demo5.m Bildfolge fuer Kreisel
7 St¨ abe und Balken
7.1 Balkenbiegung Ein Balken ist eine lange schmale Platte, bei deren Verformung man sich mit der Untersuchung der neutralen Faser“ begn¨ ugt, die im unbelasteten Zustand ” die x-Achse und im belasteten Zustand die Biegelinie sein soll. Die Approximation des dreidimensionalen elastischen K¨ orpers durch eine eindimensionale Kurve bringt zwar viele Vorteile, zieht aber auch erhebliche Restriktionen nach ¨ sich, bei deren Uberwindung oft stillschweigend zus¨atzliche Voraussetzungen gemacht werden. Eine widerspruchsfreie Einbettung in die dreidimensionale Kontinuumstheorie ist nicht m¨ oglich. Die Sachlage verh¨alt sich hier ¨ahnlich wie beim Bohrschen Atommodell, das bei seiner Einfachheit eben nur einen Teil der auftretenden Ph¨ anomene erkl¨ aren kann. Um die ganze Problematik zu umgehen, werden in diesem Kapitel Biege- und Torsionsbalken u ¨ber die ¨ Definition der Energie mehr oder weniger axiomatisch eingef¨ uhrt. Im Ubrigen werden Biegebalken vorwiegend in der Ebene behandelt, Balkenwerke im Raum k¨ onnen mit diesem Modell nur unter gewissen Einschr¨ankungen der Bewegungsfreiheit und der Belastung modelliert werden. Bezeichnungen: ([N ] (Newton) Krafteinheit, [L] L¨angeneinheit) V F E(x) > 0 I(x)
L¨ ange Volumen Kraft (force) Elastizit¨ atsmodul [N/L2 ] Fl¨ achentr¨ agheitsmoment [L4 ] ε = Δ / Dehnung (strain)
A(x) (area)
Querschnittsfl¨ache M Moment [N L] ν ∈ (0 , 1/2) Poisson-Zahl p(x) = E(x)I(x) Biegesteifigkeit [N L2 ] σ = F/A Spannung (stress) κ = EA/ Federkonstante beim Zugstab
E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 7, c Springer-Verlag Berlin Heidelberg 2010
366
7 St¨ abe und Balken
Zus¨ atzliche Bezeichnungen f¨ ur einen Balken mit konstantem rechteckigem Querschnitt: b Breite in y-Richtung , h H¨ ohe in z-Richtung , b , h 0 und F2 = −F1 . (b) Bei der ebenen Balkenbiegung ist die x-Achse wieder die Balkenachse und die y-Achse soll der Anschauung halber nach unten“ weisen, damit ”
7.1 Balkenbiegung
367
eine positive Belastung (nach unten) eine positive Auslenkung bewirkt. Eine Biegung um die z-Achse im mathematisch positiven Sinn ergibt dann eine positive Verschiebung in der (x, y)-Ebene. Ist y = u(x) die Biegelinie, dann ist die Verk¨ urzung des Balkens in x-Richtung bei Biegung in erster N¨aherung (Linearisierung) gegeben durch u1 (x, y) = yu (x). y tan(β)
Die Linearisierung ergibt also f¨ ur die Verschiebungen u1 (x, y) = yu (x) in x-Richtung u2 (x) = u(x) in y-Richtung u3 (x) = 0 in z-Richtung
α
x
y = u(x)
Normale β
Abb. 7.1. Balkenbiegung nach Kirchhoff: α = β
(tan(β) = u (x)/1). Nun kann der Verschiebung durch Biegung wieder eine Spannung zugeordnet werden: Axiom 7.2. (1◦ ) Es gilt der lineare Ansatz (Hookesches Gesetz) σ(x, y) = E(x)ε(x, y) , ε(x, y) = yu (x) . (2◦ ) Bei Biegung um die z-Achse ist 1 1 σ(x, y) ε(x, y) dv = E(x)y 2 u (x)2 dxdydz 2 V 2 V 1 = E(x)Iz (x)u (x)2 dx 2 0
ΠB =
die Biegeenergie des Balkens. ¨ Energie, innere Energie durch Biegung und innere Energie durch (3◦ ) Außere Stauchung addieren sich zur Gesamtenergie. (c) F¨ ur die Gesamtenergie bei Biegung um die z-Achse werden Volumenund Oberfl¨ achenkr¨ afte zu einer Spannung r(x) [Kraft/(Querschnitts-)Fl¨ache] zusammengefasst, so dass die L¨ angenkraftdichte r(x)u(x) f¨ ur r(x) > 0 in negativer y-Richtung wirkt (z.B. elastische Bettung) und f¨ ur r(x) < 0 in positiver y-Richtung (z.B. Eigengewicht). Wie aus dem ersten Fall in Abb. 7.3 ersichtlich, kann eine axial wirkende Kraft eine Spannung in Richtung der Balkenachse und eine Verschiebung quer zu ihr bewirken; vgl. Beispiel 7.3. Im vorliegenden Fall soll dies durch den ucksichtigt werden. Es zus¨ atzlichen Term q(x)u (x) mit der Kraft q(x) > 0 ber¨ ist dann
368
7 St¨ abe und Balken
− p(x)u (x) das Biegemoment (Biegesteifigkeit · angen¨ aherte Kr¨ ummung) [N L] q(x)u (x) die axiale Kraft [N ] − r(x)u(x) die L¨ angenkraftdichte [N/L] f (x) > 0 die kontinuierlich verteilte Last[N/L] .
Abb. 7.2. Balkenbiegung
Unter Axiom 7.2 ist die gesamte innere Energie des Balkens im Gleichgewicht 1 l p(x)u (x)2 − q(x)u (x)2 + r(x)u(x)2 dx . ΠB = 2 0 Neben den Einzelkr¨ aften Fi treten hier auch einzelne Biegemomente Mk auf und die Gesamtenergie ergibt sich zu 1 p(x)u (x)2 − q(x)u (x)2 + r(x)u(x)2 dx − E(u) = f (x)u(x) dx 2 0 0 I K − Fi u(xi ) − Mk ϕ(xk ) i=1
k=1
mit der Auslenkung u und positiver y-Richtung nach unten“. Wegen ” tan ϕ(x) = u (x) kann bei den hier angenommenen kleinen Verschiebungen n¨aherungsweise ϕ(xk ) = u (xk ) in der Summe der Momente gesetzt werden. (d) Variationsproblem und Randwertproblem Um eine notwendige – und in diesem Fall auch hinreichende – Bedingung f¨ ur eine station¨are L¨osung u im Gleichgewicht zu erhalten, bilden wir die Richtungsableitung (erste Variation) mit der Testfunktion (virtuellen Verschiebung) v und setzen diese gleich Null:
d !
E(u + εv)
=: δE(u; v) = 0 , G(ε) := E(u + εv) =⇒ G (0) = dε ε=0 dann ergeben sich die Eulerschen oder Variationsgleichungen zum Extremalproblem E(u) = Min! , u ∈ U .
(7.2)
Zum Nachweis der Existenz einer L¨ osung muss der Vektorraum U pr¨azisiert werden, einerseits wegen der Glattheit der gesuchten L¨osung und andererseits, weil die Testfunktionen v ∈ U die wesentlichen Randbedingungen erf¨ ullen m¨ ussen, die von der individuellen Problemstellung abh¨angen. Im vorliegenden Fall ergibt sich
7.1 Balkenbiegung
369
δE(u; v) := p(x)u (x)v (x) dx − q(x)u (x)v (x) dx 0 0 I K r(x)u(x) − f (x) v(x) dx − + F (xi )v(xi ) − M (xk )v (xk ) = 0 . 0
i=1
k=1
(7.3) Zweimalige partielle Integration ergibt bei hinreichender Glattheit der L¨osung p(x)u (x) v (x) dx p(x)u (x)v (x) dx = p(x)u (x)v (x) − 0 0 0 p(x)u (x) v(x) dx . = p(x)u (x)v (x) − p(x)u (x) v(x) + 0
0
0
Wenn wir von den punktf¨ ormigen Lasten und Momenten absehen, ist (7.2) somit ¨ aquivalent zu der Gleichung p(x)u (x)v (x) − (p(x)u (x)) + q(x)u (x) v(x) 0 (7.4) p(x)u (x) + q(x)u (x) + r(x)u(x) − f (x) v(x) dx = 0 + 0
unter der Voraussetzung, dass die L¨ osung u viermal stetig differenzierbar ist. W¨ ahlen wir zun¨ achst v als beliebige Testfunktion mit v(0) = v() = 0 , folgt hieraus die Differentialgleichung vierter Ordnung
p(x)u (x) + q(x)u (x) + r(x)u(x) = f (x) , 0 < x < .
(7.5)
W¨ ahlen wir nun entweder v(0) = 0 und v() frei oder v(0) frei und v() = 0 , so ergeben sich f¨ ur ξ = 0 und ξ = die Randbedingungen v(ξ) frei =⇒ (p(x)u (x)) + q(x)u (x) x=ξ = 0 v(ξ) = 0 =⇒ (p(x)u (x)) + q(x)u (x) x=ξ frei
(7.6) v (ξ) frei =⇒ p(x)u (x) x=ξ = 0
v (ξ) = 0 =⇒ p(x)u (x) x=ξ frei. Wenn die Randbedingungen u(ξ) = a und/oder u (ξ) = b vorgegeben sind, m¨ ussen alle Vergleichsfunktionen wie folgt die Randbedingungen erf¨ ullen: u(ξ) = a =⇒ u(ξ) + εv(ξ) = a =⇒ v(ξ) = 0 u (ξ) = b =⇒ u (ξ) + εv (ξ) = b =⇒ v (ξ) = 0
ξ ∈ {0, } ,
deswegen heissen solche Randbedingungen wesentlich oder geometrisch. Die anderen (homogenen) Randbedingungen u(ξ) frei =⇒ (p(x)u (x)) + q(x)u (x) x=ξ = 0
ξ ∈ {0, } p(x)u (x) x=ξ = 0 u (ξ) frei =⇒
370
7 St¨ abe und Balken
werden von der exakten L¨ osung des Variationsproblems (7.4) erf¨ ullt, weil die zugeh¨ origen Werte v(ξ) bzw. v (ξ) der Testfunktionen frei sind; deswegen heißen sie nat¨ urliche oder dynamische Randbedingungen. Bei der exakten L¨osung von (7.5) m¨ ussen dagegen alle Randbedingungen – insgesamt vier – explizit gefordert werden; z.B. gibt es folgende M¨ oglichkeiten ((w) wesentlich, (n) nat¨ urlich): einfach aufliegendes Ende: u(ξ) fest eingespanntes Ende: u(ξ) eingesp. verschiebbares Ende: u (ξ) freies Ende, q = 0 pu (ξ)
= 0 (w) , pu (ξ) = 0 (n) = 0 (w) , u (ξ) = 0 (w) = 0 (w) , [(pu ) + qu ](ξ) = 0 (n) = 0 (n) , (pu ) (ξ) = 0 (n)
.
Meistens ist anschaulich klar, welche Kombination von Randbedingungen sinnvoll ist, d.h. eine Gleichgewichtslage des Balkens gestattet. (e) Die Differentialgleichung (7.5) l¨ asst sich auch u ¨ber eine Bilanz der Momente herleiten. Dabei sei zun¨ achst Q eine konstante axiale Kraft, die vor und nach der Biegung die gleiche Richtung hat (tote Kraft oder Last), dann gilt an der Stelle x im Gleichgewicht f¨ ur das Biegemoment und das zu Q geh¨orende Moment −p(x)u (x) = Q u(x) = Q u (ξ) dξ ; 0
vgl. Abb. 7.3 1. Fall. Bei einer kontinuierlichen axialen Kraft wie in (c) ist diese Gleichung zu ersetzen durch x −p(x)u (x) = q(ξ)u (ξ) dξ . 0
Die L¨ angenkraftdichte −r(x)u(x) sowie die Lastdichte f (x) bewirken weitere Momente und die Aufsummierung aller Momente an der Stelle x f¨ uhrt zu x x x p(x)u (x) + q(ξ)u (ξ) dξ + r(ξ)u(ξ)(x − ξ) dξ − f (ξ)(x − ξ) dξ = 0 . 0
0
0
Zweimaliges Differenzieren und eine Anwendung der Leibniz-Regel ergibt dann (7.5). Das entscheidende Kriterium f¨ ur die Wahl geeigneter Randbedingungen bleibt aber die Definitheit der quadratischen Form in der Energiegleichung. (f ) Weitere Randbedingungen Wir sehen von den punktf¨ormigen Lasten und Momenten weiterhin ab und schreiben zur Abk¨ urzung, vgl. auch § 7.3,
b(u, v) :=
p(x)u (x)v (x) dx ,
0
d(u, v) :=
c(u, v) :=
q(x)u (x)v (x) dx
0
r(x)u(x)v(x) dx , 0
a(u, v) := b(u, v) − c(u, v) + d(u, v)
f (u) :=
f (x)u(x) dx 0
.
7.1 Balkenbiegung
371
Zur Implementierung weiterer dynamischer Randbedingungen muss der Bilinearform a ein geeigneter Randterm hinzugef¨ ugt werden; der Einfachheit halber beschr¨ anken wir uns dabei auf den homogenen Fall. Es sei R(ξ, u) = αξ p(ξ)u (ξ)2 + βξ p(ξ)u(ξ)2 + γξ q(ξ)u(ξ)2 , ξ ∈ {0, } , also entweder ξ = 0 oder ξ = . Dann folgt δR(ξ, u; v) = 2αξ p(ξ)u (ξ)v (ξ) + 2βξ p(ξ)u(ξ)v(ξ) + 2γξ q(ξ)u(ξ)v(ξ) , und das modifizierte Minimiumproblem (7.2) hat die Form
2 E(u) = b(u, u) + d(u, u) − c(u, u) + R(ξ, u)
− 2f (u) = Min! u ∈ U . ξ=0
(7.7) Nach Nullsetzen der ersten Variation erh¨ alt man in der gleichen Weise wie oben die Differentialgleichung (7.4), aber die Randterme haben nun eine andere Form n¨ amlich
p(x)u (x) + αx p(x)u (x) v (x)
0
(7.8)
− (p(x)u (x)) + q(x)u (x) − βx p(x)u(x) + γx q(x)u(x) v(x) = 0 . 0
Unter Anderem sind folgende Kombinationen m¨oglich: (1◦ ) Verbindung von fester Lagerung und elastischer Einspannung links/rechts mit Federkonstante α > 0: u(0) = 0 (w) , pu (0) − αpu (0) = 0 (n) u() = 0 (w) , pu () + αpu () = 0 (n)
;
R(ξ, u) = ± α p(u )2 (0) , ( −“ f¨ ur ξ = 0) . ” (2◦ ) Verbindung von verschieblicher Lagerung und elastischer Einspannung links/rechts mit Federkonstanten β > 0: u (0) = 0 (w) , (pu ) (0) + qu (0) − βpu(0) + γqu(0) = 0 (n) u () = 0 (w) , (pu ) () + qu () + βpu() − γqu() = 0 (n) R(ξ, u) = ± [β pu2 (ξ) + γ qu2 (ξ)] , ( −“ f¨ ur ξ = 0) . ” (3◦ ) Federnd gelagerte Ende links/rechts mit Federkonstante β > 0: pu (0) = 0 (n) , (pu ) (0) − βpu(0) + γqu2 (0) = 0 (n) pu () = 0 (n) , (pu ) () + βpu() − γqu2 () = 0 (n)
;
;
372
7 St¨ abe und Balken
R(ξ, u) = ± β pu2 (ξ) , ( −“ f¨ ur ξ = 0) . ” (4◦ ) Verbindung von elastischer Lagerung und elastischer Einspannung links/rechts mit Federkonstanten α > 0 und β > 0: pu (0) − αpu (0) = 0 (n) , (pu ) (0) + qu (0) − βpu(0) + γqu(0) = 0 (n) pu () + αpu () = 0 (n) , (pu ) () + qu () + βpu() − γqu() = 0 (n)
;
R(ξ, u) = ± [α p(u )2 (0) + β pu2 (ξ) + γ qu2 (ξ)] , ( −“ f¨ ur ξ = 0) . ” Inwieweit ein von Null verschiedener Parameter γ technisch sinnvoll ist, sei dahingestellt. (g) Zum Nachweis der Existenz von L¨ osungen f¨ uhren wir einen Vektorraum H ein mit Skalarprodukt und Norm
u(x)v(x) dx , u = 2
(u, v) = 0
u(x)2 dx . 0
Weiter sei H abgeschlossen bez¨ uglich · also ein Hilbert-Raum, und es sei U ⊂ H ein abgeschlossener Unterraum. Eine direkte Anwendung von Satz 1.25 ergibt dann Satz 7.1. (EE-Satz) Wenn a symmetrisch ist, a(u, v) = a(v, u), und mit endlichem a sowie κ > 0 gilt ∀ u ∈ U : κu ≤ a(u, u) ≤ au2 ,
(7.9)
dann hat das Minimumproblem (7.7) 2 E(u) = a(u, u) − 2f (u) = Min! , u ∈ U , eine eindeutige L¨ osung. Der Satz sichert nur die Existenz einer schwachen L¨osung im Hilbert-Raum H , ihre Glattheit muss mit anderen Mitteln verifiziert werden. Wenn die Funktionen p, q, r zusammen mit den auftretenden Ableitungen stetig sind, dann folgt die Beschr¨ anktheit von a, also die rechte Ungleichung in (7.9). Die linke Ungleichung muss f¨ ur jeden Randterm R(ξ, u) einzeln nachgepr¨ uft werden. Sie stellt u.a. eine Bedingung an die Vorzeichen der Parameter α, β und γ dar. Lemma 7.1. (Einfache Rayleigh-Ritz-Ungleichung) Ist u(0) = 0 , dann 2 gilt u2 ≤ u 2 . 2
7.2 Eigenwertprobleme
373
1 · u (x) dx . Aus u (x)2 dx . der C.-S.-Ungleichung, (u, v)2 ≤ (u, u) · (v, v) , folgt u(x)2 ≤ x
Beweis. Es gilt nach Voraussetzung u(x) =
u (x) dx =
0
0
0
Integration links und rechts ergibt die Behauptung.
Ist z.B. 0 ≤ q(x) ≤ q0 und u(0) = 0 Randbedingung, dann folgt aus Lemma 7.1 2q0 −c(u, u) ≥ − 2 u2 , was man zur Verifizierung der Definitheit ben¨ utzen kann. Ist z.B. p(x) ≥ p0 > 0 und u(0) = u (0) = 0 (Balken am linken Ende eingespannt), dann folgt durch zweimalige Anwendung von Lemma 7.1 2 2 p(x)(u (x)) dx ≥ p0 (u (x)) dx ≥ κ u2 (x) dx = κu2 , κ > 0 . 0
0
0
Ist nun z.B. α = β = γ = 0 , q = 0 und r(x) > 0 (elastische Bettung), dann sichert der EE-Satz die Existenz einer schwachen L¨osung.
7.2 Eigenwertprobleme Unter den in im vorigen Abschnitt diskutierten Voraussetzungen hat das Minimumproblem 2 E(u) = a(u, u) − 2f (u) = M in!, u ∈ U eine eindeutige L¨osung. Es seien nun zwei stetige und symmetrische Bilinearformen b und c gegeben und beide seien auf dem abgeschlossenen Unterraum U ⊂ H gleichm¨ aßig positiv definit: ∃ 0 < β ≤ b ∀ u ∈ U : βu2 ≤ b(u, u) ≤ bu2 ∃ 0 < γ ≤ c ∀ u ∈ U : γu2 ≤ c(u, u) ≤ cu2 Dann ist durch
.
(7.10)
a(u, u; λ) := b(u, u) − λ c(u, u) , λ ∈ R ,
eine Bilinearform a auf U definiert, die sicher dann positiv definit ist, wenn gilt β − λ c > 0 . F¨ ur diese Werte von λ hat das Minimierungsproblem a(u, u; λ) = Min!, u ∈ U nur die triviale L¨ osung u = 0 , was der Auslenkung Null bei einem Balkenproblem entspricht. Ist a jedoch nur noch positiv semidefinit, dann gibt es ein 0 = u ∈ U mit a(u, u; λ) = 0 . Dann ist aber auch κ u L¨osung, was beim Balkenproblem einem indifferenten Gleichgewicht entspricht. Der kleinste Parameterwert λ mit
374
7 St¨ abe und Balken
b(u, u) − λ c(u, u) = 0 , 0 = u ∈ U ,
(7.11)
ist der kleinste Eigenwert mit zugeh¨ origer Eigenl¨ osung u des Eigenwertproblems (7.11). Er ist globale Minimumstelle des Rayleigh-Quotienten Q(u) = b(u, u)/c(u, u) , u ∈ U ; die weiteren Eigenwerte sind lokale Minimumstellen von Q(u) . Satz 7.2. (Charakterisierungssatz.) Es sei U ⊂ H ein abgeschlossener Unterraum. Genau dann ist u ∈ U station¨ arer Punkt des Rayleigh-Quotienten, wenn gilt ∀ v ∈ U : b(u, v) = λ c(u, v) .
(7.12)
Insbesondere gilt also λ = b(u, u)/c(u, u) f¨ ur v = u . Beweis. Es gilt Q(u + εv) =
b(u, u) + 2εb(u, v) + ε2 b(v, v) . c(u, u) + 2εc(u, v) + ε2 c(v, v)
Als Bedingung f¨ ur einen station¨ aren Wert setzen wir die erste Variation des Rayleigh-Quotienten Null und erhalten
d c(u, u)b(u, v) − b(u, u)c(u, v)
0= Q(u + εv)
=2 . (7.13) dε c(u, u)2 ε=0 Einsetzen von b(u, u) = λ c(u, u) und K¨ urzen von c(u, u) = 0 ergibt die notwendige Bedingung (7.12). Andererseits folgt (7.13) aus (7.12) in einfacher Weise, indem man einmal (7.12) einsetzt und dann b(u, u) = λ c(u, u) noch einmal einsetzt. Das System (7.12) heißt verallgemeinertes Eigenwertproblem und ist die Grundlage vieler numerischer Approximationsverfahren (Ritz-GalerkinVerfahren). Insbesondere muss bei Eigenwertproblemen die ¨außere Last f Null sein. In den Anwendungen wird z.B. die Volumenkraftdichte r(x) = −λ oder die axial wirkende Kraft q(x) = λ gesetzt. Der ev. auftretende Randterm R muss in einen Anteil von b und einen Anteil von c aufgespalten werden. Die so modifizierten Bilinearformen m¨ ussen ebenfalls die Voraussetzung (7.10) auf einem geeigneten Unterraum U erf¨ ullen. Beispiel 7.1. Stabknickung. Vgl. [Collatz63], S. 46–66, und 2. Auflage. S.9, = F mit der Kraft F gesetzt. (7.11) hat die Form: 435 ff. Es wird q(x) = λ $ #
2 2 p(x)u (x) + r(x)u(x) dx + Rb (ξ, u)
ξ=0 0 # $
−λ u (x)2 dx + Rc (ξ, u)
= 0, 0
ξ=0
7.2 Eigenwertprobleme
375
Rb (ξ, u) = αξ p(ξ)u (ξ)2 + βξ p(ξ)u(ξ)2 , Rc (ξ, u) = γξ u(ξ)2 , ξ ∈ {0, } , also ξ = 0 oder ξ = . Die zugeh¨ orige Differentialgleichung lautet u (x) = 0 . (p(x)u (x)) + r(x)u + λ
(7.14)
Der kleinste Eigenwert heißt hier Eulersche Knicklast. Wir betrachten speziell den einfachsten Fall mit p(x) = E I konstant und r(x) ≡ 0 . Setzt man alt man die Differentialgleichung u = v , so erh¨ I. v + λ v = 0 , λ = λ/E mit der allgemeinen L¨ osung (a, b, c, d ∈ R) √ √ v(x) = u (x) = a sin( λx) + b cos( λx) √ √ a b = − √ cos( λx) + √ sin( λx) + d u (x) λ λ √ √ b a u(x) = − sin( λx) − cos( λx) + c + d x λ λ
.
1. Fall: Ende links eingespannt, rechts frei. Die Randbedingungen sind u(0) = 0 (w) , u (0) = 0 (w) , u() = 0 (n) , u () + λu () = 0 (n) . Mit den Randbedingungen am linken Ende folgt √ √ b a √ [ λx − sin( λx)] + [1 − cos( λx)], λ λ √ √ a b u (x) = √ [1 − cos( λx)] + √ sin( λx) . λ λ
u(x) =
Aus u () + λu () = 0 folgt
√ √ √ √ √ √ a b a λ cos( λ) − b λ sin( λ) + λ √ [1 − cos( λ)] + √ sin( λ) = 0 , λ λ was √a = 0 ergibt. Wegen b = 0 ergibt u () = v() = 0 die Bedingung cos( λ) = 0 , daraus folgt √ π λ = + 2kπ, k ∈ Z , 2 L¨ osung:
√ u(x) = c(1 − cos( λx)) , c ∈ R
Eulersche Knicklast: λ1
=
π2 π2 E I =⇒ F = 2 4 4 2
.
376
7 St¨ abe und Balken
2. Fall: Beide Enden einfach aufliegend (gelenkig gelagert). Die Randbedingungen sind u(0) = 0 (w) , u (0) = 0 (n) , u() = 0 (w) , u () = 0 (n) . √ Es folgt in einfacher Weise λ = kπ , k ∈ Z . L¨ osung:
√ u(x) = c sin( λx) , c ∈ R
Eulersche Knicklast: λ1
=
EI π2 =⇒ F = π 2 2 2
.
3. Fall: Ende links eingespannt, rechts einfach aufliegend (gelenkig gelagert). Die Randbedingungen sind u(0) = 0 (w) , u (0) = 0 (w) , u() = 0 (w) , u () = 0 (n) . Mit den Randbedingungen am linken Ende folgt zun¨achst wie im ersten Fall u(x) =
√ √ a √ b [ λx − sin( λx)] + [1 − cos( λx)] . λ λ
Einsetzen von x = sowie die Bedingung u () = v() = 0 ergibt das System √ √ + b cos( λ) =0 a sin( λ) √ √ √ a[ λ − sin( λ)] + b[1 − cos( λ)] = 0 . Damit eine von Null verschiedene L¨ osung [a, b]T existiert, muss die Determinante Null sein: √ √ √ sin( λ) − λ cos( λ) = 0 . √ √ Hier w¨ ahlt man oft als N¨ aherung f¨ ur den ersten Eigenwert λ = 2 · π . L¨ osung und Eulersche Knicklast: √ √ √ √ u(x) = c λx − sin( λx) + tan( λ)(cos( λx) − 1) λ1
%
EI 2π 2 =⇒ F % 2π 2 2 2
.
4. Fall: Beide Enden eingespannt (eines gef¨ uhrt). Die Randbedingungen sind u(0) = 0 (w) , u (0) = 0 (w) , u() = 0 (w) , u () = 0 (w) . Mit den Randbedingungen am linken Ende folgt zun¨achst wie im ersten Fall u(x) =
√ √ a √ b [ λx − sin( λx)] + [1 − cos( λx)] . λ λ
Einsetzen der Randbedingungen am rechten Ende ergibt das System
7.2 Eigenwertprobleme
377
√ √ √ a[ λ − sin( λ)] + b[1 − cos( λ)] = 0 √ √ a[1 − cos( λ)] + b sin( λ) = 0. Damit eine von Null verschiedene L¨ osung [a, b]T existiert, muss die Determinante Null sein: √ √ √ λ sin( λ) + 2 cos( λ) − 2 = 0 . √ Es folgt λ = 2kπ , k ∈ Z . √ L¨ osung: u(x) = c(1 − cos( λx)) , c ∈ R . EI 4π 2 Eulersche Knicklast: λ1 = 2 =⇒ F = 4π 2 2 Bei Balkenschwingungen f¨ ur die hier behandelten Modelle erh¨alt man nach einem Separationsansatz f¨ ur die L¨ osung, y(t, x) = v(t) · u(x) , ein Eigenwertproblem f¨ ur die Funktion u in der Raumver¨ anderlichen x. Man spricht hier oft von Schwingungen, auch wenn nur diese Eigenl¨osungen berechnet werden, weil sie den interessanteren Teil darstellen und sp¨ater nur mit einem von der Zeit abh¨ angigen sin/cos-Term multipliziert werden m¨ ussen. Beispiel 7.2. Biegeschwingung ohne axiale Lasten. Vgl. [Collatz63], 2. Aufl. S. 24. Es wird q = 0 und r(x) = −λs(x), s(x) = (x)A(x) gesetzt ( Massendichte, A Querschnittsfl¨ ache). (7.11) hat die Form: $ #
2 p(x)u (x) dx + Rb (ξ, u)
s(x)u(x)2 dx = 0 −λ ξ=0
0
0
2
Rb (ξ, u) = αξ p(ξ)u (ξ) + βξ p(ξ)u(ξ)2 . Die zugeh¨ orige Differentialgleichung lautet (p(x)u ) − λs(x)u = 0 . Sinnvolle Randbedingungen sind z.B.: (1.) Enden links eingespannt, rechts frei: u(0) = u (0) = 0 , u () = (pu ) () = 0 . (2.) Enden beidseitig einfach aufliegend (gelenkig gelagert): u(0) = u (0) = 0 , u() = u () = 0 . (3.) Enden beidseitig elastisch gelagert: u (0) = (pu ) (0) + γu(0) = 0 , u () = (pu ) () − γu() = 0 . γ Federkonstante. Wenn γ < 0 ist, dann werden Eigenwerte negativ, das Problem also instabil. (4.) Ende links gelenkig, rechts elastisch gelagert: u(0) = u (0) = 0 , u () = (pu ) () − γu() = 0 .
378
7 St¨ abe und Balken
Beispiel 7.3. Schwingung eines Stabes mit Ber¨ ucksichtigung des Eigengewichts. (Schwerkraft wirkt in Richtung der negativen x-Achse.) Es wird x q(x) = g s(ξ) dξ , r(x) = −λs(x) , s(x) = (x)A(x) 0
gesetzt mit der Fallbeschleunigung g. (7.11) hat die Form: # $
2 2 [p(x)u (x) + q(x)u (x) ] dx + Rb (ξ, u)
s(x)u(x)2 dx = 0 , −λ ξ=0
0
2
0
2
Rb (ξ, u) = αξ p(ξ)u (ξ) + βξ p(ξ)u(ξ) + γξ q(ξ)u(ξ)2 . Die zugeh¨ orige Differentialgleichung lautet [p(x)u ] + [q(x)u ] − λs(x)u = 0 . Sinnvolle Randbedingungen sind z.B.: Ende links eingespannt, rechts frei: u(0) = u (0) = 0 , u () = (pu ) () = 0 . F
F
F
F
l
1. Fall, κ = 1
2. Fall, κ = 1
3. Fall, κ = −1/4
4. Fall, κ = 1/2
Abb. 7.3. Eulersche Knicklasten
7.3 Numerische Behandlung (a) Zugstab Wegen der Anwendung bei Finite-Element-Methoden in Kap. 9 wird auf das Einheitsintervall [0 , 1] transformiert, x = ξ , u(x) = v(ξ) , u (x) = v (ξ)(dξ/dx) , 0 ≤ ξ ≤ 1 , dann folgt
0
1 u (x) dx = l
2
0
1
v (ξ)2 dξ .
7.3 Numerische Behandlung
379
Bei konstanter Spannung σ = Eε(x) = Eu (x) ist der lineare Ansatz v(ξ) = α1 + α2 ξ exakt. Aus u(x(ξ)) = v(ξ) folgt die Beziehung zwischen Koeffizienten mit und ohne physikalische Bedeutung, u1 = v(0) = α1 , u2 = v(1) = α1 + α2 , oder in Matrixschreibweise
α1 1 0 u1 = =: Bu . α2 −1 1 u2 Einsetzen ergibt
0
Damit ist
1 1 −1 u (x) dx % u Su, S = . −1 1
2
T
% = κ uT Su − f T u , f = f1 Π f2 2
(7.15)
eine sinnvolle Approximation der inneren Energie in (7.1), κ = E A/ Federkonstante. (b) Biegebalken Mit den Bezeichnungen von § 7.1 betrachten wir ein Balkenelement mit konstantem rechteckigen Querschnitt, konstanter Biegesteifigkeit E I ohne axiale Spannung q(x)u (x). Wenn Einzelkr¨afte und Einzelmomente nur an den Balkenenden auftreten, ist die Gesamtenergie des Balkenelements E(u) =
EI 2
u (x)2 dx −
0
f (x)u(x) dx − 0
2
Fi u i −
i=1
2
Mk uk
(7.16)
k=1
mit u(0) = u1 , u() = u2 , etc.. Zur numerischen Approximation wird ein Hermitesches Interpolationspolynom vom Grad drei gew¨ahlt, vgl. § 2.1, (e), dessen Parameter durch die Werte des Knotenvektors U = [u1 , u1 , u2 , u2 ]T eindeutig bestimmt sind, p(x, U ) = a + b(x − x1 ) + c(x − x1 )2 + d(x − x1 )3 p(x1 ; U ) = u1 , p (x1 ; U ) = u1 , p(x2 ; U ) = u2 , p (x2 ; U ) = u2 . Mit = x2 − x1 , x1 = 0 folgt a = u1 , b = u1 , und c=
2(u1 − u2 ) + (u1 + u2 ) 3(u2 − u1 ) − (2u1 + u2 ) , d = . 2 3
Wir ersetzen nun n¨ aherungsweise die unbekannte Funktion u durch das Polynom p( ◦ ; U ) und integrieren u ¨ber x, dann ergibt sich EI 2
0
u (x)2 dx ∼
EI 2
0
p (x; U )2 dx =
1 T U KU 2
380
7 St¨ abe und Balken
mit der Steifigkeitsmatrix des Balkenelements ⎡ ⎤ 6 3 −6 3 2E I ⎢ 3 22 −3 2 ⎥ ⎥. K= 3 ⎢ ⎣ −6 −3 6 −3 ⎦ 3 2 −3 22
(7.17)
F¨ ur die Approximation des zweiten Integrals in (7.16) ist es sinnvoll, f (x) ebenfalls durch p(x; Q) zu approximieren mit den Knotenvektor Q = [q1 , q1 , q2 , q2 ]T , dann ergibt sich ebenso
f (x)u(x) dx ∼ QT M U 0
mit der Massenmatrix des Balkenelementes ⎤ ⎡ 156 22 54 −13 2 ⎢ 13 −32 ⎥ ⎥. ⎢ 22 4 M= ⎣ 54 13 156 −22 ⎦ 420 −13 −32 −22 42
(7.18)
Mit dem Lastvektor R = [F1 , M1 , F2 , M2 ]T hat also die Approximation der potentiellen Energie des Balkenelements die Form P (U ) =
1 T U KU − QT M U − RT U . 2
(7.19)
Wenn sich ein Biegebalken aus Balkenelementen zusammensetzt, werden die einzelnen Gleichungen (7.19) zu einer globalen quadratischen Form aufsummiert, 1 P([U ]) := [U ]T [K][U ] − [Q]T [M ][U ] − [R]T [U ] , (7.20) 2 wobei [U ] der globale Knotenvektor ist. Im Gleichgewicht nimmt die Gesamtenergie des Balkens ein Minimum an, die Berechnung von Min P([U ]) f¨ uhrt aber zu keinem sinnvollen Ergebnis ohne die zus¨ atzliche Einf¨ uhrung von Lagerbedingungen, die hier als Nebenbedingung [B][U ] = [C] geschrieben werden. Die L¨ osung des Gleichungssystems
[M ][Q] + [R] [K] [B]T [U ] = (7.21) [C] [B] [O] [V ] liefert nun eine Approximation der Biegelinie u, deren Genauigkeit mit der Anzahl der einzelnen Balkenelemente proportional zu 1/3 zunimmt ( maximale L¨ ange der Balkenelemente).
7.4 Stabwerke
381
Beispiel 7.4. F¨ ur konstante axiale Last q(x) = q haben Timoshenko und Goodier (1951) die exakte Biegelinie eines an den Enden einfach aufliegenden Balkens mit quadratischem Querschnitt berechnet zu
8 q4 1 2 2 5q4 6 2 8 2 +ν λ − ξ ξ , d= +ν u(x) = d− 1+ 1+ λ 64EI 5 6 384EI 5 5 Dabei ist λ = h/, ξ = 2x/ und ν die Querkontraktionszahl, die in die obige Aproximation nicht eingeht. Beispiel 7.5. [Schwarz80], S. 38. Eingabedaten: (L¨angen in [cm]), E = 2 · 107 [N/cm2 ] , I = 16 [cm4 ] , F = 100 [N ] , f = 2 [N/cm]˙. Knoten: [P1 , P2 , P3 , P4 ] = [0, 150, 200, 300] , konstante Lastdichten in den drei Teilintervallen: f = [0, 0, 2] , Lager in den Knoten Pi :
0−0 0 ui = ui 0−−− Lager ausf¨ uhrlich: u(0) = u(200) = u(300) = 0 , u (0) = 0 . Lasten und Momente in den Knoten Pi :
Fi 0 100 0 0 = Mi 0 0 0 0 40 20 0 5e3*u
−20
1e5*du/dx
−40
5e6*d2u/dx2 −60
0
50
100
150
200
250
300
Abb. 7.4. Beispiel 7.5 skaliert
7.4 Stabwerke (a) Zugstab in allgemeiner Lage Es seien Pi = Pi (x, y, z), i = 1, 2, Anfangs- und Endpunkt eines Stabes der L¨ ange in allgemeiner Lage. Ferner sei die Verschiebung von Pi in Richtung des Stabes, u i ∈ R ui = (ui , vi , wi ) die Verschiebung von Pi in allgemeiner Lage. Mit den Richtungskosinuswerten c1 =
x2 − x1 y2 − y1 z2 − z1 , c2 = , c3 = ,
382
7 St¨ abe und Balken
ergibt die Projektion von u i auf die Koordinatenachsen ui = c1 u i , vi = c2 u i , wi = c3 u i . Wegen c21 + c22 + c23 = 1 gilt umgekehrt u i = c1 ui + c2 vi + c3 wi , i = 1, 2, =⇒ mit
u1 , u 2 ]T , C = u = [
u = Cu
c1 c2 c3 0 0 0 , u = [u1 , v1 , w1 , u2 , v2 , w2 ]T . 0 0 0 c1 c2 c3
Einsetzen in die Steifigkeitsmatrix S aus (7.15) liefert eine (6, 6)-Matrix
1 1 −1 T S = EAC C. (7.22) −1 1 Weil die ¨ außeren Kr¨ afte nun nicht mehr notwendigerweise in Richtung des Stabes wirken, muss das Potential der ¨ außeren Kr¨afte ersetzt werden durch das Skalarprodukt f T u mit f = [f11 , f12 , f13 , f21 , f22 , f23 ]T , u = [u1 , v1 , w1 , u2 , v2 , w2 ]T ∈ R6 . (b) Das Stabwerk Werden die modifizierten Gleichungen (7.15) f¨ ur die Approximation der Gesamtenergie eines einzelnen Stabelements f¨ ur alle St¨abe aufsummiert, so ergibt sich nach dem Extremalprinzip ein Minimumproblem f¨ ur die Energie des Stabwerkes im Gleichgewicht Q([U ]) :=
1 [U ]T [S][U ] − [F ]T [U ] = Min! 2
(7.23)
mit der quadratischen Form Q([U ]) f¨ ur den globalen Knotenvektor [U ] = [(ui , vi , wi )]N i=1 . Die Ableitung nach [U ] , [S][U ] = [F ] ,
(7.24)
bildet eine notwendige und in diesem Fall auch hinreichende Bedingung f¨ ur eine L¨ osung von (7.23) in Form eines linearen Gleichungssystems. Es werden also die Verschiebungen (nicht die Lage) der Knotenpunkte im Gleichgewicht berechnet, wenn ein solches existiert. Wegen Axiom 7.1(1◦ ) sollen die einzelnen Verschiebungen klein“ sein. Die inneren Kr¨afte heben sich im Regelfall ” gegenseitig auf, so dass nur ¨ außere Kr¨ afte als Lasten in Frage kommen. (c) Lagerbedingungen Die globale Steifigkeitsmatrix [S] ist symmetrisch und positiv semidefinit aber niemals definit, daher hat das Extremalproblem keine eindeutige L¨ osung. Die Randbedingungen (Lager) m¨ ussen so gew¨ahlt werden, dass die L¨ osung eindeutig wird und das Problem l¨osbar bleibt.
7.4 Stabwerke
383
In einem r¨ aumlichen Stabwerk kann ein Lagerpunkt null, ein, oder zwei Freiheitsgrade haben. Auf Grund der kleinen Verschiebungen kann er also entweder fest gegeben sein oder sich auf einer Geraden bzw. einer Ebene bewegen; die letzte M¨ oglichkeit entf¨ allt nat¨ urlich bei einem ebenen Stabwerk. Insgesamt ergeben die Lagerbedingungen ein lineares Gleichungssystem f¨ ur den globalen Knotenvektor [U ] , [P ][U ] = [H] . Als Anwendung von Lemma 1.2 und Satz 3.8 erhalten wir das folgende Resultat Lemma 7.2. Voraussetzung: (1◦ ) [P ] ist eine (m, n)-Matrix mit m < n . (2◦ ) [P ] ist rangmaximal, d.h. Rang[P ] = m . (3◦ ) [S] positiv definit auf dem Kern von [P ], d.h. [X] = [0] und [P ][X] = [0]
=⇒
[X]T [S][X] > 0 .
Dann hat das lineare Gleichungssystem
[S][U ]0 − [F ] [S] [P ]T [V ] = [P ][U ]0 − [H] [P ] [O] [Z] f¨ ur beliebiges [U ]0 eine eindeutige L¨ osung ([V ], [Z]) , und [U ]∗ = [V ] − [U ]0 ist L¨ osung des Problems Q([U ]) = Min! , [P ][U ] = [H] .
(7.25)
Die erste und die zweite Bedingung besagen, dass keine u ussige“ Rand¨berfl¨ ” bedingungen auftreten sollen. Die dritte Bedingung selektiert die sinnvollen Randbedingungen, kann aber schlecht a-priori verifiziert werden. Die Kondition der Matrix dieses Gleichungssystems ist ein Maß f¨ ur die Stabilit¨ at des R gesamten Systems und wird auf Wunsch von MATLAB bei der L¨osung mitullt ist. geliefert. An ihr l¨ asst sich ablesen, wie gut Bedingung (3◦ ) erf¨ Nat¨ urlich h¨ angt die L¨ osung [U ]∗ in (7.25) u.a. auch von der rechten Seite [H] der Nebenbedingungen ab. Bei allgemeinen linear-quadratischen Optimierungsproblemen stellt die i-te Komponente Hi von H den Umfang der i-ten Resource dar, die zur Verf¨ ugung stehen. Der Lagrange-Multiplikator [Z] gibt die Sensitivit¨ at der L¨ osung bez¨ uglich der eingesetzten Resourcen an; genauer gilt ∂Q([U ]∗ ([H])) = −Zi , ∂Hi wobei Zi das negative Vorzeichen erh¨ alt, weil ein Minimumproblem vorliegt und nicht ein Maximumproblem. (d) Lagerkr¨ afte Befindet sich ein Stabwerk im Gleichgewicht, dann heben sich die Kr¨ afte, die auf jeden einzelnen Knotenpunkt wirken, gegenseitig auf. Diese Bedingung ergibt f¨ ur jeden Knoten zwei Gleichungen bei ebenen und
384
7 St¨ abe und Balken
drei Gleichungen bei r¨ aumlichen Stabwerken. Die Richtung der Kraft k in einem Stab ist nat¨ urlich durch dessen Richtung mit Anfangs- und Endpunkt bis auf das Vorzeichen gegeben. Es muss daher mit normierten St¨aben gearbeitet ange des Stabes multipliziert werden. Die werden oder |k| am Ende mit der L¨ Lagerkr¨ afte m¨ ussen im Gleichgewicht senkrecht auf den Zwangsbedingungen stehen. Genauer sei P (u) = P (u1 , u2 , u3 ) ein Lagerpunkt und k = [k1 , k2 , k3 ]T die zugeh¨ orige unbekannte Lagerkraft, dann gilt im Gleichgewicht
Freiheitsgrad f¨ ur u Bedingung f¨ ur u Bedingung f¨ ur k Freiheitsgrad f¨ ur k ebenes Stabwerk 0
u=0
k frei
2
1
a·u=0
k = α a , α frei
1
r¨ aumliches Stabwerk 0
u=0
k frei
3
1
a·u=0
k = αa + βb
2
b·u=0
α , β frei
a·u=0
k = α a , α frei
2
1
Das resultierende Gleichungssystem heißt statisch bestimmt, wenn die L¨ osung eindeutig existiert, statisch unbestimmt, wenn mehrere L¨osungen existieren, kinematisch unbestimmt, wenn keine L¨osung existiert.
Beispiel 7.6. Ebenes Stabwerk. Als Vorlage f¨ ur die sp¨atere Implementierung von Finite-Element-Methoden werden die Eingabedaten und ihre Anordnung ausf¨ uhrlich beschrieben; bei zweidimensionalen Stabwerken entfallen nat¨ urlich die z-Koordinaten. (1◦ ) Die i-te Spalte der Knotenmatrix P enth¨alt die Koordinaten des i-ten Knotenpunktes in willk¨ urlicher Knotenreihenfolge. In der i-ten Spalte der Lastmatrix F werden die Koordinaten der im i-ten Knoten angreifenden Lastvektoren eingetragen. Im (ebenen) Beispiel:
32100 0 0000 P = , F = . 10102 f 0000 alt die Nummern der Endknoten (2◦ ) Die k-te Spalte der Elementmatrix enth¨ des k-ten Stabes in willk¨ urlicher Stabreihenfolge, wodurch dann die Richtung k-ten Stabes festgelegt ist und sp¨ ater beachtet werden muss. Im Beispiel:
7.4 Stabwerke
S=
2334454 1122335
385
.
ur die Verschiebung u hat die Form a·u = 0 , |a| = (3◦ ) Eine Lagerbedingung f¨ alt in der ersten Zeile die Nummern 1 , a = [α1 , α2 , α3 ]T . Die Lagermatrix enth¨ der Knotenpunkte, in denen Lagerbedingungen vorliegen und in den u ¨brigen origen Lagervektors, also pro Knoten Zeilen die Komponenten αi des zugeh¨ entweder 0, 1, 2 oder 3 Bedingungen bei r¨ aumlichen Stabwerken. Im (ebenen) Beispiel: ⎡ ⎤ 4 4 5 L = ⎣ 1 0 − sin ϕ ⎦ 0 −1 cos ϕ (bei einem festen Punkt m¨ ussen nur zwei bzw. drei linear unabh¨ angige Vektoren Lagerkr¨ afte sein, das Vorzeichen von l3 2 spielt also keine Rolle). Unnormierte Stabrichtungen, Lagerkraft- und Lastrichtungen mit den zugeh¨ origen L¨ angen im Beispiel:
1 2 1 2 1 1 0 L1 − sin ϕ 0 [S 1 , S 2 , S 3 , S 4 , S 5 , S 6 , S 7 |L4 , L5 |F 1 ] = 1 0 −1 0 1 −1 2 L2 cos ϕ −1 [s1 , s2 , s3 , s4 , s5 , s6 , s7 | l4 , l5 | f ] √ √ √ √ = 2, 2, 2, 2, 2, 2, 2 | (L21 + L22 )1/2 , 1 | 1 Gleichungen f¨ ur die Kr¨ afte in den Knoten 1 : 5: k2 S 2 k1 S 1 + − k3 S 3 − k4 S 4 k1 S 1 − k2 S 2 + k3 S 3 − k5 S 5 − k6 S 6 + k7 S 7 −L4 k4 S 4 +k5 S 5 k7 S 7 −l5 L5 (ϕ) k6 S 6 −
= = = = =
F1 0 0 0 0
.
Das sind zehn Gleichungen f¨ ur zehn Unbekannte, k1 , . . . , k7 , l5 , und die beiden Komponenten von L4 . Das resultierende lineare Gleichungssystem ist eindeutig l¨ osbar also statisch bestimmt f¨ ur 0 < ϕ < 2π und unl¨osbar also kinematisch unbestimmt im Fall ϕ = 0 . Die Betr¨ age der Kr¨afte in den Stabrichtungen sind ki · si , i = 1 : 7 . ki = Beispiel f¨ ur ϕ = π/12 , E = 0.2e9 , A = 0.5e−3 , f = 10 : Stab
1
Kraft
2
3
4
5
6
7
-1.1412 1.0000 1.4142 -2.0000 0.7071 2.1213 4.0981
Spannung ×1.0e 2.8284 -2.0000 -2.8284 4.0000 -1.4142 -4.2426 -8.1962 4
386
7 St¨ abe und Balken
Abb. 7.5. Bsp. 7.6, Ebenes Stabwerk
Beispiel 7.7. Ebenes Stabwerk; am linken Lager fest, am rechten einfach aufliegend.
024642 123456656 Knoten: P = , St¨ abe: S = 000012 234561233 ⎡ ⎤
1 1 4 0 000f 0 Lager: L = ⎣ −1 0 0 ⎦ , Lasten: F = . 0 −2f 0 0 0 0 0 −1 −1
Abb. 7.6. Bsp. 7.7 Ebenes Stabwerk
Weitere Beispiele mit den Stabwerken in Abb. 7.7 und 7.8 [Schwarz91], [Schwarz80] werden im Ordner KAPITEL07\SECTION_4 behandelt. Der Deutlichkeit halber sind die Verschiebungen mit dem Faktor κ multipliziert.
7.5 Balkenwerke
387
Abb. 7.7. Tr¨ ager, κ = 50
κ=0
κ = 1000 Abb. 7.8. Radarkuppel
7.5 Balkenwerke (a) Torsion Der Querschnitt des Balkens soll sich in der (y, z)-Ebene um den Winkel ϕ(x) drehen. Verschiebungen erfolgen also nur in y, z-Richtung, und es gilt
y cos ϕ − sin ϕ y = −I z sin ϕ cos ϕ z (I hier Einheitsmatrix), also u1 (x, y, z, ϕ) = 0 , u2 (x, y, z, ϕ) = y(cos ϕ − 1) − z sin ϕ u3 (x, y, z, ϕ) = y sin ϕ + z(cos ϕ − 1) . Unter der Annahme, dass |ϕ| klein ist, ergibt die Linearisierung cos ϕ ∼ 1 , sin ϕ ∼ ϕ , also u1 (x, y, z, ϕ) = 0 , u2 (x, y, z, ϕ) = −zϕ(x) , u3 (x, y, z, ϕ) = yϕ(x) .
388
7 St¨ abe und Balken
Der Verzerrungsvektor (strain vector) ε = [ux , vy , wz , uy +vx , vz +wy , wx +uz ]T hat damit die Form ε = [0, 0 , 0, −zϕ (x), 0, yϕ (x)]T . Mit dem Schubmodul G = E/(2(1 + ν)) gilt f¨ ur den Spannungsvektor (stress vector) σ = Gε , und unter der Voraussetzung, dass G konstant ist, ergibt sich f¨ ur die Spannungsenergie eines runden Torsionsstabes das Volumenintegral 1 1 ΠS = σ · ε dv = G (y 2 + z 2 )ϕ (x)2 dxdydz 2 V 2 V und die Gesamtenergie des runden Torsionsstabes: 1 Π = GIp 2
l
ϕ (x)2 dx − M1 ϕ1 − M2 ϕ2 .
0
Bei Torsionsst¨ aben mit anderem Querschnitt treten Verw¨ olbungen der Querschnittsfl¨ ache auf, die nicht vernachl¨ assigt werden d¨ urfen, und das polare Fl¨ achentr¨ agheitsmoment Ip muss durch das Torsionsfl¨achenmoment It bez. der x-Achse ersetzt werden. Seine Werte liegen meist tabellarisch vor. Z.B. gilt f¨ ur einen Balken mit rechteckiger Querschnittsfl¨ache A = h · b und h > b It % η2 h b3 , η2 =
h 2.370592 q 2 − 2.486211 q + 0.826518 , q = > 1; 7.111777 q 2 − 3.057824 q + 1 b
vgl. [Holzmann], Bd. 3, § 7.1.4; [Szabo77]. (b) Gesamtenergie Im Folgenden soll keine Biegung um die x-Achse in der (y, z)-Ebene erfolgen, weil h und b klein gegen die L¨ange l sind. Wenn keine Scherkr¨ afte vorliegen, umfasst die gesamte Biegeenergie dann die Biegung um die z-Achse, die Biegung um die y-Achse, die Dehnung in x-Richtung und die Torsionsenergie. Bei einem rechteckigen Balken mit x-Achse als K¨orperachse erh¨ alt man so beim einfachsten Balkenmodell " 3 l bh 1 b3 h l 2 ΠB = E w (x)2 dx + v (x) dx 2 12 12 0 0 (7.26) l 0 l It 2 2 +bh u (x) dx + ϕ (x) dx . 2(1 + ν) 0 0 (c) Balken mit Biegung und Torsion in (fast) allgemeiner Lage [Schwarz80]. Wir bezeichnen die lokalen Werte vom Balken aus gesehen mit großen Buchstaben und die globalen Werte im Koordinatensystem mit kleinen Buchstaben, d.h., große Buchstaben vor der Drehung und kleine Buchstaben
7.5 Balkenwerke
389
nach der Drehung. Außerdem betrachten wir kleine“ Biegungen und Drehun” gen, damit kann f¨ ur den Drehwinkel tan ϕ ∼ ϕ gesetzt werden. Erinnerung: F¨ ur den Steigungswinkel ϕ der Tangente einer Funktion y = f (x) aherungsweise ϕ ∼ tan ϕ = f (x) . im Punkt x gilt tan ϕ = f (x) , also n¨ Sind P1 und P2 Anfangs- bzw. Endpunkt des Balkens, dann gilt also Vi Steigung der Biegelinie in Pi , (X, Y )-Ebene ∼ Drehwinkel um Z-Achse Wi Steigung der Biegelinie in Pi , (X, Z)-Ebene ∼ Drehwinkel um Y -Achse; vgl. (7.28). Reihenfolge nach (7.26) Ue = [W1 , W1 , W2 , W2 ; V1 , V1 , V2 , V2 ; U1 , U2 ; Φ1 , Φ2 ]T .
(7.27)
¨ F¨ ur die nachfolgenden Uberlegungen ist es einfacher, die Verschiebungen punktweise zusammenzufassen: T e = [U1 , V1 , W1 , Φ1 , W1 , V1 ] , [U2 , V2 , W2 , Φ2 , W2 , V2 ] . U Die Lage des Balken im Raum wird wie beim Stab durch drei Richtungskosinuswerte bestimmt: x2 − x1 y2 − y1 z2 − z1 cXx = , cXy = , cXz = ; l l l das sind die Kosinuswerte f¨ ur die Drehwinkel der X-Achse. Ebenso hat man ur die Drehung der Y -Achse, 3 Richtungskosinuswerte cY x , cY y , cY z f¨ ur die Drehung der Z-Achse. 3 Richtungskosinuswerte cZx , cZy , cZz f¨ Wegen der Darstellung des Balkens als eindimensionales System muss einer der sechs Richtungskosinuswerte f¨ ur die Drehung der lokalen Y Achse bzw. der lokalem Z-Achse fest vorgegeben werden: Es soll hier die Y -Achse mit der Breite b des Balkens stets senkrecht zur globalen z-Achse bleiben. D.h. genauer: Wenn die X-Achse nicht parallel zur z-Achse ist, soll die Y -Achse parallel zur (x, y)-Ebene bleiben, im andern Fall soll Y -Achse parallel zur x-Achse bleiben. Die Richtung der Breitseite“ des Balkens ¨ andert sich damit nicht, und es gilt ” cY z = 0 . Damit ist die Y -Achse orthogonal zur Projektion der X-Achse in die (x, y)Ebene, und es ist L = (c2Xx + c2Xy )1/2 die L¨ ange der Projektion des Einheitsvektors in X-Richtung auf die (x, y)-Ebene. Wegen (−v, u) ⊥ (u, v) folgt cXy cXx , cY y = , cY z = 0 , L = 0 L L = 0, cY y = 0 , cY z = 0 , L = 0
cY x = − cY x
.
390
7 St¨ abe und Balken
Die Richtungskosinuswerte der Z-Achse sind durch das Vektorprodukt gegeben: ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ cZx cXx cY x ⎣ cZy ⎦ = ⎣ cXy ⎦ × ⎣ cY y ⎦ , cY z = 0 . cZz cXz cY z Noch einmal: F¨ ur i = 1, 2 hatten wir beim Stabelement Ui = cXx ui + cXy vi + cXz wi , ebenso folgt nun Ui = cXx ui + cXy vi + cXz wi Vi = cY x ui + cY y vi + cY z wi Wi = cZx ui + cZy vi + cZz wi .
(7.28)
Auch f¨ ur die Drehwinkel gilt gleichermaßen (Linearisierung) Φi = cXx ϕi + cXy wi + cXz vi , Drehung um X-Achse Wi = cY x ϕi + cY y wi + cY z vi , Drehung um Y -Achse Vi = cZx ϕi + cZy wi + cZz vi , Drehung um Z-Achse . Wir fassen das Ergebnis in Matrix-Vektor–Schreibweise zusammen: ⎡ ⎤ ⎡ ⎤ C 0 0 0 cXx cXy cXz ⎢0 C 0 0⎥ ⎥ C = ⎣ cY x cY y cY z ⎦ , D = ⎢ ⎣ 0 0 C 0 ⎦, cZx cZy cZz 0 0 0 C
(7.29)
T e = [U1 , V1 , W1 , Φ1 , W , V ] , [U2 , V2 , W2 , Φ2 , W , V ] U 1 1 2 2 T u e = [u1 , v1 , w1 , ϕ1 , w1 , v1 ] , [u2 , v2 , w2 , ϕ2 , w2 , v2 ] e = D U ue . (d) Bei der numerischen Approximation wird f¨ ur u und ϕ der lineare Ansatz aus § 7.3(a) und f¨ ur v und w der kubische Ansatz aus § 7.3(b) gew¨ahlt; vgl. [Schwarz80], [Schwarz91]. Schreibt man den lokalen Knotenvektor wieder in der Form (7.27), dann ist die Steifigkeitsmatrix eines Balkenelements eine Blockdiagonalmatrix der Dimension 4 + 4 + 2 + 2 = 12 . Die einzelnen Steifigkeitsmatrizen in den Diagonalen sind die Matrizen S von (7.22) und K von (7.17) mit anderen Vorfaktoren, wobei K noch der zus¨atzlichen Orthogonaltransformation mit der (permutierten) Matrix D aus (7.29) unterliegt.
7.5 Balkenwerke
391
Beispiel 7.8. [Schwarz91] in KAPITEL07\SECTION_5. Der Deutlichkeit wegen sind in 7.9 die Verschiebungen mit dem Faktor zwei multipliziert. Eingabedaten: KNOTEN = [... 1 0.0 0.0 0.0; 2 0.0 0.0 4.0; 3 1.0 1.0 5.0; 4 1.0 4.0 5.0; 5 0.0 5.0 4.0; 6 0.0 5.0 0.0; 7 5.0 0.0 0.0; 8 5.0 0.0 4.0; 9 5.0 1.0 5.0; 10 5.0 4.0 5.0; 11 5.0 5.0 4.0; 12 5.0 5.0 0.0; 13 10.0 0.0 0.0; 14 10.0 0.0 4.0; 15 9.0 1.0 5.0; 16 9.0 4.0 5.0; 17 10.0 5.0 4.0; 18 10.0 5.0 0.0]; % LASTEN: Spalte(i) = [FX; FY; FZ; MX; MY; MZ]; i Knotennr. LASTENF = zeros(3,size(p,2)); LASTENF(:,3) = [0.0;0.0;-20.0]; LASTENF(:,4) = [0.0;0.0;-20.0]; LASTENF(:,9) = [0.0;0.0;-25.0]; LASTENF(:,10) = [0.0;0.0;-25.0]; LASTENF(:,15) = [0.0;0.0;-30.0]; LASTENF(:,16) = [0.0;0.0;-30.0]; LASTENG = zeros(3,size(p,2)); LASTEN = [LASTENF;LASTENG]; % LAGER: Spalte(i) = [KNOTEN-Nr.; U; V; W; Th; WS; VS]; % U = 1/0 : U fest/frei, etc. LAGERF = [... 1, 1, 1, 6, 6, 6, 7, 7, 7, 12, 12, 12, 13, 13, 13, 18, 18, 18; 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0; 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0; 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1, 0, 0, 1]; LAGERG = zeros(3,size(LAGERF,2)); LAGER = [LAGERF;LAGERG];
5 4
z
3 2 1 10 0
8 6
4 4
2 2 0
0
x
y
Abb. 7.9. Bsp. 7.8, R¨ aumliches Balkenwerk (skaliert)
392
7 St¨ abe und Balken
R 7.6 Hinweise zu den MATLAB -Programmen
Kapitel VII/SECTION 3 Balken in spezieller Lage demo4.m Masterfile, Biegebalken balkelement1.m Balkenelement balken1.m Balken in spezieller Lage balken2.m Balken in allgemeiner ebener Lage Kapitel VII/SECTION 4, Stabwerke demo1.m Masterfile, Kraefte in ebenenen Stabwerken demo2.m Masterfile, Verschiebungen in ebenen Stabwerken, mit Bildfolge demo3.m Masterfile, Verschiebungen in raeumlichen Stabwerken stabelement1.m Zugstab in ebener Lage stabelement2.m Zugstab in raeumlicher Lage stabwerk1.m Kraefte in ebenen Stabwerken stabwerk2.m Verschiebungen in ebenen Stabwerken stabwerk3.m Verschiebungen in raeumlichen Stabwerken Kapitel VII/SECTION 5, Raeumliche Balkenwerke demo1.m Masterfile fuer raeumliche Balkenwerke balken2.m Balkenelement, fast allgemeine Lage rahmen2.m Verschiebungen in raeumlichen Balkenwerken
8 Kontinuumstheorie
8.1 Deformationen (a) Deformation In einem festem kartesischen Koordinatensystem sei ∅ = ankte Menge mit hinreichend glattem Rand ∂Ω =: Ω ⊂ R3 eine offene, beschr¨ Γ , und es sei I ⊂ R ein offenes Intervall mit 0 ∈ I ; Ω soll die geometrische Form eines fl¨ ussigen oder festen K¨ orpers“ beschreiben. Wir betrachten eine ” Abbildung Φ : I × Ω (t, X) → Φ(t, X) =: x(t) ∈ R3 mit den folgenden Eigenschaften: (1◦ ) Φ ist zweimal stetig differenzierbar, (2◦ ) Φ(0, X) = X , (3◦ ) det GradX Φ(t, X) > 0 . Auf Grund der letzten Voraussetzung kann kein Volumenelement degenerieren. Zusammen mit der ersten Voraussetzung folgt hieraus die lokale Umkehrbarkeit von Φ bei festem t. Die Abbildung Φ wird je nach Anwendung Deformation, Bewegung, oder Fluss genannt und Υ (t, X) := Φ(t, X) − X =: u ist die zugeh¨ orige Verschiebung; ihre Berechnung ist das Ziel vieler Fragestellungen in der Physik und den Ingenieurwissenschaften. Befindet sich ein System im statischen Gleichgewicht, dann wird die Zeit t weggelassen. Die Punkte (Ortsvektoren) X ∈ Ω heißen Materialpunkte und ihre Koordinaten Materialkoordinaten oder Lagrange-Koordinaten. Die Punkte x ∈ Φ(t, Ω) heißen Raumpunkte und ihre Koordinaten Raumkoordinaten, Ortskoordinaten oder Euler-Koordinaten. Der Materialpunkt X wird durch die Bewegung Φ in den Raumpunkt x u uhrt oder mit anderen Worten: der Materialpunkt ¨bergef¨ X befindet sich nach der Zeit t an der Stelle x. In der Betrachtungsweise nach Lagrange ist X die gegenw¨ artige Stellung des Materialpunktes X und x seine zuk¨ unftige Stellung nach der Zeit t. Der Beobachter sitzt also im Punkt X und betrachtet von dort aus die Welt“. In der Betrachtungsweise nach Eu” ler ist x die gegenw¨ artige Lage des fiktiven Teilchen und X die fr¨ uhere Lage. E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 8, c Springer-Verlag Berlin Heidelberg 2010
394
8 Kontinuumstheorie
Der Beobachter sieht also von x aus die Welt an sich vor¨ uberziehen. Dann kommt allen Gleichungen in x-Koordinaten eine physikalische Bedeutung zu, w¨ ahrend die entsprechenden zur¨ uckgeholten“ Gleichungen in X-Koordinaten ” f¨ ur die mathematischen Schlussfolgerungen gebraucht werden. Die Materialpunkte X werden i.d.R. als feste Punkte in einem festen Euklidischen Raum (Referenzraum) aufgefasst, der mit seinem Koordinatenraum R3 identifiziert wird. Wir gehen hier also nicht auf die Problematik der Wahl oder W¨ahlbarkeit eines festen Beobachterstandpunktes ein, sondern nehmen diesen in der einen oder anderen Form als gegeben an. Es gilt im Folgenden stets die Regel von Groß nach Klein
.
Alle Funktionen und Operatoren mit Materialpunkten als Argumenten werden groß geschrieben, und alle Funktionen und Operatoren mit Raumpunkten als Argumenten werden klein geschrieben. Diese Schreibweise nach [Marsden] f¨ uhrt allerdings auf gewisse Schwierigkeiten, wenn mehrere Deformationen hintereinander betrachtet werden, deswegen wird manchmal alles klein geschrieben, aber die Elemente und Operatoren im Bildbereich nach [Ciarlet93] mit dem Index Φ etc. versehen. Die Differentialoperatoren wie Divergenz“ ” und Gradient“ beziehen sich nur auf die Ortsver¨anderlichen und nicht auf ” die Zeit, Tensorfelder werden fett geschrieben, Ortsvektoren X, x sowie die Vektorfelder Φ und Υ werden nicht . unterstrichen F¨ ur die Geschwindigkeit v und die Beschleunigung b des Materialpunktes X, der sich zum Zeitpunkt t an der Stelle x befindet, ist x(t) ˙ :=
∂Φ D x(t) := (t, X) =: V (t, X) =: v(t, x) , x = Φ(t, X) , Dt ∂t
(8.1)
dann folgt mit der Kettenregel nach [Marsden], S. 3, D2 ∂2Φ ∂ d x(t) = (t, X) =: B(t, X) ≡ V (t, X) = v(t, Φ(t, X)) 2 2 Dt ∂t ∂t dt D ∂v (t, x) + [grad v(t, x)]v(t, x) =: v(t, x) =: v(t, ˙ x) , = ∂t Dt (8.2)
x ¨(t) :=
also v(t, ˙ x) =
D ∂ v(t, x) = V (t, X) . Dt ∂t
Die absolute Beschleunigung B setzt sich additiv zusammen aus der relativen Beschleunigung ∂v/∂t und (!) der konvektiven Beschleunigung (grad v)v .
8.1 Deformationen
395
Beispiel 8.1. Ist Q(t) eine orthogonale Matrix mit Q(0) = I und Φ(t, X) = Q(t)X = x(t) , dann folgt ˙ = QQ ˙ T x = v(t, x) V (t, X) = QX ¨ = QQ ¨ T x = b(t, x) . B(t, X) = QX ˙ T , also Andererseits folgt aus QQT = I und der Produktregel QQ˙ T = −QQ T T T ˙ ˙ QQ QQ = −Q˙ Q˙ , und daher D v(t, x) = v t (t, x) + grad v(t, x)v(t, x) Dt ˙ T x = QQ ¨ T x + Q˙ Q˙ T x + QQ ˙ T QQ ¨ T x = QX ¨ . = QQ Die Bahnkurve oder Trajektorie Φ( · , X) : t → Φ(t, X) des Teilchens X ist eindeutige L¨ osung des Anfangswertproblems x(t) ˙ =
∂Φ (t, X) = v(t, x(t)) = v(t, Φ(t, X)) , Φ(0, X) = X . ∂t
(8.3)
Wenn das Geschwindigkeitsfeld v station¨ ar ist, also nicht von der Zeit t abh¨ angt, dann gilt Φ(s + t, · ) = Φ(s, · ) ◦ Φ(t, · ) = Φ(s, Φ(t, · )) = Φ(t, Φ(s, · )) . In diesem Fall (oder auch allgemein) heißt Φ Fluss und ist eine einparametrige Transformationsgruppe. (b) Ableitung des Gradienten Es gilt
∂ ∂ [Grad Φ(t, X)] = Grad Φ(t, X) = Grad V (t, X) ∂t ∂t = Grad v(t, Φ(t, X)) = grad v(t, x) Grad Φ(t, X) , also ∂ [Grad Φ(t, X)] = grad v(t, x) Grad Φ(t, X) . ∂t
(8.4)
Die Ableitung von [Grad Φ(t, X)][Grad Φ(t, X)]−1 = I nach t ergibt dann mit der Produktregel grad v(t, x) = −[Grad Φ(t, X)] oder
∂ [(Grad Φ(t, X))−1 ] ∂t
∂ [(Grad Φ(t, X))−1 ] = −[Grad Φ(t, X)]−1 grad v(t, x) . ∂t
(8.5)
396
8 Kontinuumstheorie
Wegen grad Φ−1 (t, X) = [Grad Φ(t, X)]−1 folgt hieraus auch ∂ [grad Φ−1 (t, x)]T = −[grad v(t, x)]T [Grad Φ(t, X)]−T . ∂t
(8.6)
(c) Materialableitung (substantielle Ableitung) Die Materialableitung ist die totale Ableitung nach t, wobei h¨ aufig anschließend Φ(t, X) = x gesetzt wird. Ist allgemein w ein Vektorfeld in den Raumpunkten x und W (t, X) = w(t, x) = w(t, Φ(t, X)) , x = Φ(t, X) , das gleiche Vektorfeld als Funktion der Materialpunkte X, dann ist ¨ ¨ von w bei festem x , also die Anderung von w von (∂w/∂t)(t, x) die Anderung x aus gesehen und w˙ :=
D d w(t, x) := w(t, Φ(t, X)) Dt dt
¨ ¨ die Anderung von w bei festem X , also die Anderung von w vom Materialpunkt X aus gesehen. Mit x = Φ(t, X) und der Kettenregel folgt
∂ d ∂w w(t, Φ(t, X)) = (t, x) + grad w(t, x)v(t, x) = + v · ∇x w(t, x) . dt ∂t ∂t Definition 8.1. Der Operator ∂ D := + v · ∇x Dt ∂t heißt Materialableitung nach t. Wenn w nicht von t abh¨ angt, ist dennoch die Materialableitung i.A. von Null verschieden: D w(x) = 0 + grad w(x)v(t, x) , x = Φ(t, X) . Dt Speziell folgt f¨ ur den Geschwindigkeitsvektor D ∂ v(t, x) = v(t, x) + ∇v(t, x)v(t, x) , Dt ∂t f¨ ur w(t, x) = x erhalten wir wieder x(t) ˙ = (D/Dt)x(t) = v(t, x) , und f¨ ur eine skalare Funktion ϕ erhalten wir ∂ D ϕ(t, x) = ϕ(t, x) + grad ϕ(t, x)v(t, x) . Dt ∂t Hier ist die konvektive Ableitung null, wenn grad ϕ(t, x) senkrecht auf v(t, x) steht.
8.1 Deformationen
397
Bei der Materialableitung muss also stets beachtet werden, dass der Ortsvektor x i.d.R. von t und X abh¨ angt, obwohl dies in den obigen Formeln nicht explizit zum Ausdruck kommt. Man geht auf die Materialkoordinaten zur¨ uck, leitet dann nach t ab und geht anschliessend wieder zu den Raumkoordinaten u ¨ber. (d) Piola-Transformation In der Kontinuumsmechanik arbeitet man h¨aufig mit Fl¨ achennormalen von infinitisimalen Fl¨ achen, die nur aus einem Punkt und dem Normalenvektor bestehen, daher ist das Verhalten des Normalenvektors einer Fl¨ ache unter der Abbildung Φ von Interesse. Es sei D ⊂ R2 offen, F := {X(u) , u = (u1 , u2 ) ∈ D} ⊂ R3 ein Fl¨achenst¨ uck im Referenzraum (Materialkoordinaten) und Φ(F ) = {x = (Φ ◦ X)(u), u ∈ uck in OrtskoordinaD} ⊂ R3 das transformierte (transportierte) Fl¨achenst¨ ten, das hier der Einfachheit halber nicht von t abh¨angen soll. Zur Erinnerung: Dann gelten f¨ ur die skalaren bzw. vektoriellen Oberfl¨achenelemente in ausf¨ uhrlicher Darstellung
∂X ∂X 1 2
× Materialkoordinaten, (u , u ) du1 du2 dO =
∂u1 ∂u2 ∂X ∂X × Materialkoordinaten, dO = N dO = (u1 , u2 ) du1 du2 ∂u1 ∂u2
∂x ∂x × do =
(u1 , u2 )
du1 du2 , x = Φ(u) Ortskoordinaten, 1 2 ∂u ∂u ∂x ∂x × Ortskoordinaten do = ndo = (u1 , u2 ) du1 du2 ∂u1 ∂u2 vgl. §1.2(c1). Im Folgenden sei w ein Vektorfeld in den Ortskoordinaten x uckgeholte) Vektorfeld als Funktion der Mateund W = w ◦ Φ das gleiche (zur¨ rialkoordinaten X. Mit den normierten Normalenvektoren n und N gilt dann w · n do = (AW ) · N dO = W T AT N dO (8.7) Φ(F )
F
F
mit einem 2-Tensor A ∈ R 3 , weil W gedreht werden muss in der gleichen Weise wie N aus n durch eine Drehung entsteht. (Zur Erinnerung: cof A = det(A)A−T ) . 3
Lemma 8.1. Es gilt A(X) = [Cof ∇Φ(X)]T ≡ det(∇Φ(t, X))[∇Φ(t, X)]−1 . Beweis. F¨ ur a, b, c ∈ R3 sei det(a, b, c) = < a, b, c > = aT (b × c) das Spatprodukt und es sei C eine (3,3)–Matrix. Dann gilt det(a, Cb, Cc) = det(CC −1 a, Cb, Cc) = det(C) det(C −1 a, b, c) = < det(C)C −1 a, b, c > = < (cof C T )a, b, c > = aT (cof C)(b × c) .
398
8 Kontinuumstheorie
Mit xu1 = ∇Φ(X)Xu1 , xu2 = ∇Φ(X)Xu2 und C = ∇Φ folgt nun die Behauptung aus w · n do = (w ◦ Φ ◦ X(u)) · (xu1 × xu2 )(u) du1 du2 Φ(F ) D = (W ◦ X)(u)) · (Cof ∇Φ(X(u)))(Xu1 × Xu2 )(u) du1 du2 . D
Weil w ein beliebiges Vektorfeld war, ergeben sich aus Lemma 8.1 die Substitutionsregeln f¨ ur den Normalenvektor und den Fl¨acheninhalt |F |: Cof ∇Φ(X)N (X) | Cof ∇Φ(X)N (X)| do = | Cof ∇Φ(X)N (X)| dO |Φ(F )| = n(x) =
Φ(F )
,
F
oder ausf¨ uhrlich mit Parameterdarstellung von F : ∂X ∂X | Cof ∇Φ(X(u)) × (u)| du1 du2 . |Φ(F )| = ∂u1 ∂u2 D Es gilt also allgemein do = | Cof ∇ΦN |dO, do = Cof ∇Φ dO , oder in Differentialform ⎡ 2 ⎤ ⎡ ⎤ dx ∧ dx3 dX 2 ∧ dX 3 ⎣ dx3 ∧ dx1 ⎦ = Cof ∇Φ(X)⎣ dX 3 ∧ dX 1 ⎦ , x = Φ(X) . dx1 ∧ dx2 dX 1 ∧ dX 2 Die Matrix Cof ∇Φ(X) spielt damit eine wichtige Rolle immer dann, wenn Normalenvektoren auftreten. (e) Zur¨ uckholen des Divergenzsatzes Es sei U ⊂ Ω ein beliebiges Teilvolumen mit hinreichend glatter Oberfl¨ ache ∂U . Ferner sei t : x → t(x) ein Tensorfeld in den Raumpunkten x . Dann folgt aus Lemma 8.1 und dem zeilenweise angewendeten Divergenzsatz aus § 1.2(c2) div t dv = t n do = (t ◦ Φ)(Cof ∇Φ)N dO Φ(U ) ∂U ∂Φ(U ) = Div[(t ◦ Φ) Cof ∇Φ)] dV . U
Definition 8.2. Der Tensor T(X) := t(Φ(X)) Cof ∇Φ(X) heißt Piola-Transformation von t(x) .
8.1 Deformationen
399
Ist t(x) der Spannungstensor, dann heißt T(X) Piola-Kirchhoffscher Spannungstensor ; weil U ⊂ Ω ein beliebiges Volumen war, folgt t n do = T N dO , x = Φ(X) , X ∈ Ω div t dv = Div T dV (Spaltenvektor)
Φ(U )
.
(8.8)
U
Lemma 8.2. (Piola-Identit¨ at) Es gilt Div Cof ∇Φ(t, X) = 0 ∈ R3 . Weil U ⊂ Ω beliebig war, folgt dies sofort f¨ ur t(x) = I aus (8.8) mit Definition 8.2 . Im Folgenden sei wieder x˙ = v(t, x) der Geschwindigkeitsvektor. Lemma 8.3. Es gilt Div T(X) = det[∇Φ(X)] div t(x) , x = Φ(X).
Dies folgt ebenfalls aus (8.8) wegen dv = det[∇Φ(X)] dV . Lemma 8.4. Es sei J(t, X) = det[∇Φ(t, X)] , dann gilt ∂ J(t, X) = J(t, X) div v(t, x) , x = Φ(t, X) . ∂t Beweis. Wegen ∇V (t, X) = ∇Φt (t, X) = [∇Φ(t, X)]t gilt det[∇Φ(t, X)] div v(t, x) = det[∇Φ(t, X)] div v(t, x)T = Div[v(t, Φ(t, X))T Cof ∇Φ(t, X)] (Lemma 8.3)
= Φt (t, X)T Div Cof ∇Φ(t, X) + Grad Φt (t, X) : Cof ∇Φ(t, X) (Produktregel) = Grad Φt (t, X) : Cof ∇Φ(t, X) (Lemma 8.2)
∂ ∂ ∇Φ(t, X) : Cof ∇Φ(t, X) = J(t, X) (Determinanten-Regel). = ∂t ∂t Lemma 8.4 beschreibt die infinitisimale Volumen¨anderung mit der Zeit t. Lemma 8.5. (Helmholtz-Identit¨ at) ∂ Cof ∇Φ(t, X) = [div v(t, x)I − grad v(t, x)]T [Cof ∇Φ(t, X)] , ∂t
x = Φ(t, X) .
Beweis. Es gilt [Cof ∇Φ]t = [det(∇Φ)]t (∇Φ)−T + det(∇Φ)[(∇Φ)−T ]t Mit (8.6) und Lemma 8.4 folgt [Cof ∇Φ]t = det(∇Φ) (div v)(∇Φ)−T − det(∇Φ)(grad v)T (∇Φ)−T = [div v(t, X)I − grad v(t, X)]T [Cof ∇Φ(t, X)] .
400
8 Kontinuumstheorie
8.2 Die drei Transporttheoreme Es sei wieder Φ : R × Ω (t, X) → Φ(t, X) = x ∈ R3 eine Deformation, v das Geschwindigkeitsfeld und w ein beliebiges Vektorfeld in den Ortskoordinaten, also w(t, x) = w(t, Φ(t, X)) = W (t, X) . Ferner sei U ⊂ Ω eine offene Teilmenge mit hinreichend glattem Rand. Dann gilt das Reynoldssche Transporttheorem: Satz 8.1. (Transporttheorem f¨ ur Volumenintegrale) D Dt
w(t, x) dv = Φ(t,U )
Φ(t,U )
D w(t, x) + w(t, x) div v(t, x) dv . Dt
Beweis. Aus Lemma 8.4 folgt mit dv = J(t, X)dV , J(t, X) = det[∇Φ(t, X)] , D d [w(t, Φ(t, X))J(t, X)] dV w(t, x) dv = Dt Φ(t,U ) dt U d = J(t, X) w(t, Φ(t, X)) + w(t, Φ(t, X))J(t, X) div v(t, Φ(t, X)) dV dt
U D w(t, x) + w(t, x) div v(t, x) dv . = Φ(t,U ) Dt Mit Hilfe des Reynoldsschen Transporttheorems l¨asst sich also die Materialableitung unter das Integralzeichen mit dem von t abh¨angigen Integrationsbereich Φ(t, U ) schieben! F¨ ur eine skalare Funktion = (t, x) gilt div( v) = (grad )v + div v und D D D Dw Dw ( w) + w div v = w+ + w div v = w + div v + . Dt Dt Dt Dt Dt Daher folgen aus Satz 8.1 zwei wichtige Spezialf¨alle:
∂ D + div( v) dv dv = Dt Φ(t,U ) Φ(t,U ) ∂t
D ∂ Dw + div( v)) + w dv = w( dv Dt Φ(t,U ) ∂t Dt Φ(t,U )
.
(8.9)
Im Folgenden werden die Argumente (t, x) bzw. (t, X) im Integranden der ¨ Ubersichtlichkeit halber teilweise weggelassen. Es sei D ⊂ R2 offen, uck im Referenzraum F := {X(u), u = (u1 , u2 ) ∈ D} ⊂ R3 ein Fl¨achenst¨ (Materialkoordinaten) und Φ(t, F ) = {x = (Φ(t, X(u)), u ∈ D} ⊂ R3 das transformierte (transportierte) Fl¨ achenst¨ uck in Ortskoordinaten.
8.2 Die drei Transporttheoreme
401
Satz 8.2. (Transporttheorem f¨ ur Oberfl¨ achenintegrale) D Dt
w · n do =
Φ(t,F )
Φ(t,F )
Dw + (div v I − grad v)w · n do . Dt
Beweis. Zun¨ achst ergeben Substitution und Produktregel D d w(t, Φ(t, X)) · Cof ∇Φ(t, X)N (X) dO w(t, x) · n(t, x) do = Dt Φ(t,F ) dt F Dw(t, x) d · n(t, x) do + W (t, X) · [Cof ∇Φ(t, X)]N (X) dO . = Dt dt Φ(t,F ) F Mit Hilfe der Helmholtz-Identit¨ at, d Cof ∇Φ = [(div v)I − grad v]T Cof ∇Φ , dt erhalten wir
d W (t, X) · [Cof ∇Φ(t, X)]N (X) dO dt F = w(t, x) · [Cof ∇Φ(t, X)]t [Cof ∇Φ(t, X)]−1 n do Φ(t,F ) = [div v I − grad v]w · n do . Φ(t,F )
Schließlich sei I ⊂ R ein offenes Intervall, C := {X(u) , u ∈ I} ⊂ R3 ein Kurvenst¨ uck im Referenzraum (Materialkoordinaten) und Φ(t, C) = {x = (Φ(t, X(u)), u ∈ I} ⊂ R3 das transformierte (transportierte) Kurvenst¨ uck in Ortskoordinaten. Satz 8.3. (Transporttheorem f¨ ur Kurvenintegrale) D Dt
w(t, x) · dx =
Φ(t,C)
Φ(t,C)
Dw(t, x) · dx + w(t, x) · dv Dt
.
Der Beweis dieses Satzes folgt direkt aus der Ableitungsregel f¨ ur Produkte, wenn man beachtet, dass dx = (Φ ◦ X)u du gilt und ∂ ∂ Φ(t, X(u)) = ∂t ∂u ∂ V (t, X(u)) = = ∂u
∂ ∂ Φ(t, X(u)) ∂u ∂t ∂ v(t, Φ(t, X(u))) =: dv . ∂u
402
8 Kontinuumstheorie
Wenn w = v das Geschwindigkeitsfeld ist, dann folgt w · dv = [v(t, B) · v(t, B) − v(t, A) · v(t, A)]/2 , Φ(t,C)
wobei A der Anfangspunkt und B der Endpunkt der Kurve C ist; insbesondere gilt daher f¨ ur eine geschlossene Kurve C Dv D · dx . v · dx = Dt Φ(t,C) Φ(t,C) Dt
8.3 Die Erhaltungss¨ atze Die Erhaltungss¨ atze der Physik sind im mathematischen Sinn Axiome. Auf dem hier betrachteten Level k¨ onnen sie nicht aus anderen Ergebnissen mathematisch hergeleitet, sondern nur experimentell best¨atigt werden. Sie werden zun¨ achst raumbezogen definiert, dabei werden insgesamt folgende raumbezogene physikalische Gr¨ oßen verwendet (spezifische Gr¨oßen beziehen sich auf die Masseneinheit): ε(x, t) ϑ(t, x) (t, x) h(t, x; n(t, x)) p(t, x) r(x, t) s(x, t) f (x, t) g(t, x; n(t, x)) k(t, x) q(t, x) v(t, x) ψ = ε − ϑs e = ε + v · v/2 .
spez. Energiedichte abs. Temperatur (> 0) Massendichte W¨ armeflussdichte Druck spez. W¨ armequelldichte spez. Entropie spez. Volumenkraftdichte O.-fl¨ achenkraftdichte Volumenkraftdichte W¨ armeflussvektor [Energie/(Fl¨ ache·Zeit)] Geschwindigkeitsfeld freie Energiedichte
[Energie/Masse] [Kelvin] [Masse/Volumen] [Energie/(Fl¨ache· Zeit)] [Kraft/Fl¨ache] [W¨arme/(Zeit· Masse)] [W¨arme/(Temperatur·Masse)] [Kraft/Masse] [Kraft/Fl¨ache] [Kraft/Volumen]
[Weg/Zeit]
Ferner sei δ t(t, x) ∈ R3 3 ε(u) =
der Einheitstensor, der vom Material abh¨angige Spannungstensor nach Cauchy [Kraft/Fl¨ache],
1 grad u + (grad u)T der linearisierte Verzerrungstensor 2 ohne Dimension f¨ ur das Verschiebungsfeld.
8.3 Die Erhaltungss¨ atze
403
In der Mechanik der festen K¨ orper wird i.d.R. der Druck p vernachl¨assigt. In der Mechanik der Fluide wird der Druck vom Spannungstensor t abgespalten, t = σ − p δ , und σ h¨ angt von der Geschwindigkeit v ab. Es sei {Ω, , t, . . .} ein K¨ orper und Φ eine Deformation; den transformierten K¨ orper wollen wir kurz mit Φ(t, Ω) bezeichnen. Die mechanischen und thermodynamischen Eigenschaften werden durch Vorgabe der o.g. Gr¨oßen definiert, gehen also im mathematischen Sinn wieder als Axiome ein. Im Folgenden sollen alle Gr¨ oßen zweimal stetig differenzierbar und die R¨ander aller betrachteten Bereiche stetig und st¨ uckweise stetig differenzierbar sein. Man sagt dann auch, dass der K¨ orper und die Bewegung Φ einfach sind. Ferner soll U ⊂ Ω eine beliebige Teilmenge mit ebenfalls stetigem und st¨ uckweise stetig differenzierbarem Rand sein. (a) Der Massen-Erhaltungssatz Es ist (t, x)dv M(t, U ) := Φ(t,U )
die Masse im mitschwimmenden“ Volumen Φ(t, U ) . ” Axiom 8.1. (Massen-Erhaltungssatz) Es ist M(t, U ) konstant, d.h. es gilt ∀U ⊂Ω:
D M(t, U ) = 0 . Dt
(b) Der Impuls-Erhaltungssatz Es ist I(t, U ) = (t, x) v(t, x)dv ∈ R3 Φ(t,U )
der gesamte Impuls im Volumen Φ(t, U ) . Die u ¨brigen Impulse im Innern von Φ(t, U ) heben sich gegenseitig auf (ebenfalls Axiom). Axiom 8.2. (Impuls-Erhaltungssatz; engl. balance of momentum) Es gilt ∀U ⊂Ω: D I(t, U ) = (t, x) f (t, x) dv + g(t, x; n(t, x)) do . Dt Φ(t,U ) ∂Φ(t,U ) Der Spannungsvektor g ist kein Vektorfeld, aber bei hinreichender Glattheit gilt der fundamentale Satz von Cauchy: Satz 8.4. Unter Axiom 8.2 gibt es ein Tensorfeld (Spannungstensor; engl. stress tensor), t : (t, x) → t(t, x) ∈ R3 3 , so dass gilt g(t, x; n(t, x)) = t(t, x)n(t, x) .
404
8 Kontinuumstheorie
Beweis z.B. [Ciarlet93]. (c) Der Drehimpuls-Erhaltungssatz F¨ ur ein beliebiges x0 ist (t, x)[(x − x0 ) × v(t, x)] dv L(t, U ) = Φ(t,U )
der gesamte Drehimpuls im Teilvolumen Φ(t, U ) . Die u ¨brigen Drehimpulse heben sich gegenseitig auf (o.B. x0 = 0). Axiom 8.3. (Drehimpuls-Erhaltungssatz; engl. balance of angular momentum (moment of momentum)) Es gilt ∀ U ⊂ Ω : D L(t, U ) Dt
(t, x)[x × f (t, x)] dv +
= Φ(t,U )
[x × g(t, x; n(t, x))] do
.
∂Φ(t,U )
Satz 8.5. Unter Axiom 8.1 und 8.2 ist Axiom 8.3 genau dann erf¨ ullt, wenn der Spannungstensor t(t, x) symmetrisch ist. Beweis SUPPLEMENT\chap08a. Mit Axiom 8.1 und 8.2 folgt aus Axiom 8.3 ∀ U ⊂ Ω : D L(t, U ) = (t, x)[x × f (t, x)] dv + [x × t(t, x) n(t, x)] do . Dt Φ(t,U ) ∂Φ(t,U ) (8.10) Weil im Weiteren alle Axiome gelten sollen, wird der Drehimpulserhaltungssatz nicht mehr erw¨ ahnt, sondern nach Satz 8.5 mit der Symmetrie des Cauchyschen Spannungstensor t gleichgesetzt. (d) Der Energie-Erhaltungssatz Es sei h(t, x; n(t, x)) der Energiefluss von innen nach außen durch die Fl¨ ache mit der Normalen n (meistens W¨armefluss). Die Summe von innerer und kinetischer Energie im Teilvolumen Φ(t, U ) ohne potentielle Energie ist v · v dv . ε+ E(t, U ) = 2 Φ(t,U ) Axiom 8.4. (Energie-Erhaltungssatz; engl. balance of energy) ∀ U ⊂ Ω : D E(t, U ) = Dt (f · v + r) dv + Φ(t,U )
∂Φ(t,U )
g(t, x; n(t, x)) · v − h(t, x; n(t, x)) do
.
8.3 Die Erhaltungss¨ atze
405
Satz 8.6. Wenn Axiom 8.1 bis 8.4 gilt, dann gibt es einen Energiestromvektor (W¨ armeflussvektor) q(t, x) , so dass gilt ∀ n : h(t, x; n(t, x)) = q(t, x) · n(t, x) . Die Starrk¨ orperbewegungen Ψ (t, X) = c(t) + Q(t)X mit beliebigem Translationvektor c(t) und beliebiger Drehmatrix Q(t) bilden eine Gruppe S , d.h. zu jeder dieser Bewegungen existiert die Umkehrung und zwei hintereinander ausgef¨ uhrte Bewegungen dieser Art ergeben wieder eine Starrk¨orperbewegung. Der Energieerhaltungssatz heißt invariant unter S , wenn er f¨ ur beliebige Ψ ◦Φ gilt. Satz 8.7. (1◦ ) Wenn Axiom 8.4 gilt und invariant unter S ist, dann gelten die Axiome 8.1, 8.2 und 8.3. (2◦ ) Wenn alle vier Axiome gelten, dann ist Axiom 8.4 invariant unter S . Vgl. [Marsden], Theorem 3.8. Auf Grund dieses Satzes spielt der Energieerhaltungssatz eine Sonderrolle unter den vier Erhaltungss¨atzen. (e) Erhaltungss¨ atze in Differentialform Wenn alle vier Axiome gelten und die Axiome 8.2 und 8.3 komponentenweise betrachtet werden, dann haben sie alle die Form D Dt
a(t, x) dv =
Φ(t,U )
w(t, x) · n(t, x) do
b(t, x) dv + Φ(t,U )
∂Φ(t,U )
(8.11) mit skalaren Funktionen a, b und einem Vektorfeld w . ugen Satz 8.8. (Lokalisierung) Die Skalarfelder a , b und das Vektorfeld w gen¨ der Erhaltungsgleichung (8.11) f¨ ur beliebige Teilmengen U ⊂ Ω genau dann, wenn mit dem Geschwindigkeitsfeld v von Φ gilt ∂a + div(a v) = b + div w . ∂t Beweis. Es gilt div(a v) = (grad a)v + a div v . Nach dem Reynoldschen Transporttheorem und dem Divergenzsatz ist daher (8.11) a ¨quivalent zu ∂a + div(a v) dv = b dv + div w do , ∂t Φ(t,U ) Φ(t,U ) Φ(t,U ) somit folgt die Integralform aus der Differentialform. Umgekehrt folgt die Differentialform aus der Integralform, weil U ⊂ Ω eine beliebige Teilmenge ist.
406
8 Kontinuumstheorie
Man beachte aber, dass die Differentialform h¨ ohere Anspr¨ uche an die Glattheit der verwendeten Funktionen stellt als die Integralform. Aus diesem Ergebnis erhalten wir zun¨ achst den Massenerhaltungssatz in Differentialform (Kontinuit¨ atsgleichung) ∂ + div( v) = 0 . ∂t
(8.12)
Wenden wir den Divergenzsatz auf das Integral an, so folgt ∂ dv = − div(v) dv = − v · n do . Φ(t,U ) ∂t Φ(t,U ) ∂Φ(t,U ) v · n do beschreibt den Massenfluss nach außen Die Zahl − ∂Φ(t,U )
(Abnahme). Mit Gleichung (8.12) folgt f¨ ur ein allgemeines Vektorfeld w
D ∂ Dw Dw + div( v)) + dv . w dv = w( dv = Dt Φ(U,t) ∂t Dt Φ(U,t) Φ(U,t) Dt (8.13) Wenn wir f¨ ur w das Geschwindigkeitsfeld v einsetzen und den Divergenzsatz auf die Zeilen des Spannungstensors anwenden, ergibt sich der Impulserhaltungssatz in Differentialform,
Dv − div t = f . Dt
(8.14)
Wir fassen die Erhaltungss¨ atze in Differentialform mit expliziter Materialableitung zusammen: ∂ ∂t
∂v + (grad v)v ∂t ∂e + grad e · v ∂t
+
div( v)
−
div t
= f
t
= tT
=0
− div(tv − q) = f · v + r ,
. e=ε+
v·v 2
(8.15) Diese Darstellung nennt man nichtkonservative Form. F¨ ur die konservative Form wird die Kontinuit¨ atsgleichung (8.12) mit v bzw. mit e multipliziert und zur zweiten bzw. vierten Gleichung addiert. Dann folgt nach einfacher Rechnung
8.3 Die Erhaltungss¨ atze
∂( v) + div( v v T ) − div t = f ∂t ∂( e) + div( e v) − div tv + div q = f · v + r ∂t
.
407
(8.16)
Die konservative Form wird von [Zienkiewicz] zur L¨osung von Problemen mit kompressiblen Fluiden besonders empfohlen. Man beachte auch, dass v v T ein dyadisches Produkt (Matrix) ist. Der lokale Energieerhaltungssatz in (8.15) l¨ asst sich mit dem o.g. Verzerrungstensor ε(v) umformen, wobei sich die Volumenkraftdichte f heraushebt: Lemma 8.6. Es gilt
∂ε + (grad ε) · v − ε(v) : t + div q = r . ∂t
Beweis. Wegen der Symmetrie von t gilt nach (1.2) und §1.2(b) div(tv) = v · div t + grad v : t = div t · v + t : ε(v) . Multipliziert man andererseits die Impulsgleichung mit v, so folgt v · div t = v ·
Dv − f · v. Dt
Einsetzen in die nichtkonservative Energiegleichung ergibt die Behauptung wegen Dv D v·v =v· . Dt 2 Dt In der obigen allgemeinen Form wird Axiom 8.4 auch erster Hauptsatz der Thermodynamik genannt. Mit den allgemeinen Bezeichnungen in Integralform 1 K= 2 Eint =
v · v dv
kinetische Energie
Φ(t,U )
Φ(t,U )
ε dv
innere Energie
DW = f · v dv + v · t(t, x) n do mechanische Leistung DT Φ(t,U ) ∂Φ(t,U ) DQ = r dv − q · n do nichtmechanische DT Φ(t,U ) ∂Φ(t,U ) Leistung
408
8 Kontinuumstheorie
hat er die Form
D K + Eint − W − Q = 0 , Dt
(8.17)
wobei W die mechanische Arbeit und Q die nichtmechanische Arbeit/Energie bezeichnet. Axiom 8.4 besagt also insbesondere, dass die einzelnen Energien mit den entsprechenden Vorzeichen aufaddiert werden d¨ urfen und die Summe konstant ist [Marsden], S. 144. (f ) Der zweite Hauptsatz der Thermodynamik Es ist (t, x) s(t, x) dv S(t, U ) = Φ(t,U )
die Entropie des Teilvolumens Φ(t, U ) . Axiom 8.5. (Zweiter Hauptsatz der Thermodynamik, Entropie-Ungleichung) ∀U ⊂Ω: D (t, x) s(t, x) dv Dt Φ(t,U ) . (8.18) q(t, x) · n(t, x) (t, x) r(t, x) dv − do ≥ ϑ(t, x) ϑ(t, x) Φ(t,U ) ∂Φ(t,U ) Sind die W¨ armequelldichte r und der Energiestromvektor q beide Null, dann erh¨ alt man die bekanntere Ungleichung D (t, x)s(t, x) dv ≥ 0 . Dt Φ(t,U ) Sie besagt, dass die Entropie des Teilvolumens Φ(t, U ) mit der Zeit unter den genannten Voraussetzungen schwach monoton w¨achst. Mit Hilfe des Divergenzsatzes, der Formel (8.13), D D (t, x)s(t, x) dv = (t, x) s(t, x) , Dt Φ(t,U ) Dt Φ(t,U ) und div(ϕ w) = ϕ div w + grad ϕ · w erh¨ alt man den zweiten Hauptsatz in Differentialform 1 r 1 Ds 1 r ≥ − div q = − div q + 2 grad ϑ · q , Dt ϑ ϑ ϑ ϑ ϑ bzw. nach Multiplikation mit ϑ > 0 ϑ
Ds 1 ≥ r − div q + grad ϑ · q . Dt ϑ
(8.19)
8.4 Materialformen
409
Satz 8.9. Mit der freien spezifischen Energie ψ = ε − ϑ s gilt 1 s ϑ˙ + ψ˙ − div(tv) + div t · v + grad ϑ · q ≤ 0 . ϑ Beweis. Wegen ψ˙ = ε˙ − ϑ s˙ − ϑ˙ s also ϑ s˙ = ε˙ − ϑ˙ s − ψ˙ folgt aus (8.19) durch Einsetzen 1 ε˙ − ϑ˙ s − ψ˙ ≥ r − div q + grad ϑ · q . ϑ Substituiert man die Differentialform des Energieerhaltungssatzes, ε˙ = r − div q + ε(v) : t = r − div q + div(tv) − div t · v nach Lemma 8.6, dann folgt die Behauptung.
Erinnerung: Ein thermodynamischer Prozess heißt q = 0 , (2◦ ) isentropisch, wenn s˙ = 0 , (1◦ ) adiabatisch, wenn ◦ (3 ) homentropisch, wenn Grad S = 0 , (4◦ ) isothermisch, wenn ϑ = konst . Schließlich sei bemerkt, dass in den Axiomen (8.1) bis (8.4) die anf¨anglichen Gr¨ ossen M (0, Ω) , L(0, Ω) , I(0, Ω) und E(0, Ω) als Integrationskonstanten frei w¨ ahlbar sind. Literatur: [Marsden].
8.4 Materialformen Zur Herleitung weiterer Ergebnisse und zur Berechnung von L¨osungen m¨ ussen die Erhaltungsgleichungen zur¨ uckgeholt, d.h. in Materialform geschrieben werden; insbesondere muss u ¨ber das bekannte Gebiet Ω und nicht u ¨ber das unbekannte Φ(t, Ω) integriert werden. Auch in der Materialtheorie werden die Materialfunktionen zun¨ achst in Materialform aufgestellt. Sie beschreiben die Spannung des Materials als Antwort auf die Verschiebung/Verzerrung (response functions). Anschließend werden dann ev. Terme h¨oherer Ordnung in der Verschiebung vernachl¨ assigt um zu einer linearen Beziehung zwischen Spannungs- und Verzerrungstensor zu kommen [Altenbach], [Ciarlet93]. In der linearen Elastizit¨atstheorie geht man davon aus, dass der betrachtete K¨orper seine geometrische Form unter Belastung in vernachl¨assigbarer Weise ¨andert, dann bleiben auch die Richtungen der ¨ außeren Kr¨afte erhalten ( tote Lasten“) ” und h¨ angen nicht mehr von der Verschiebung ab. Damit verwischt sich der Unterschied zwischen Material- und Raumkoordinaten und wird auch in der Notation nicht besonders hervorgehoben.
410
8 Kontinuumstheorie
Mit den obigen Bezeichnungen seien A(t, X) := a(t, Φ(t, X)) , B(t, X) := b(t, Φ(t, X)) E(t, X) := e(t, Φ(t, X)) , F (t, X) := f (t, Φ(t, X)) R(t, X) := r(t, Φ(t, X)) . Die Gr¨ oßen auf den linken Seiten sind als Abk¨ urzungen zu verstehen. Sie haben als Funktionen ihrer Argumente keine physikalische Bedeutung; lediglich f¨ ur t = 0 gilt z.B. A(0, X) = a(0, X) wegen Φ(0, X) = X. Ferner sei J(t, X) := det ∇Φ(t, X) , ref (X) = Massendichte in Ω . Wie schon erw¨ ahnt wird außerdem bei elastischen K¨orpern vielfach mit toten Massen und toten Lasten gerechnet, d.h. es wird (t, x) = ref (X) , f (t, x) := f (t, X) (= F (t, X)) , x = Φ(t, X) , gesetzt. (a) Tensoren. Wir ben¨ otigen die Piola-Transformationen der Vektoren q und w bzw. des Tensors t, T
Q(t, X) = [Cof ∇Φ(t, X)] q(t, x) , x = Φ(t, X) T
W (t, X) = [Cof ∇Φ(t, X)] w(t, x) T(t, X) = t(t, x) Cof ∇Φ(t, X) . Der erste Piola-Kirchhoffsche Spannungstensor T ist nicht symmetrisch, daher f¨ uhrt man den zweiten Piola-Kirchhoffschen Spannungstensor S(t, X) = ∇Φ(t, X)−1 T(t, X) ein. Wenn der Cauchysche Spannungstensor t symmetrisch ist, dann ist auch S symmetrisch wegen S(t, X) = J(t, X)∇Φ(t, X)−1 t(t, Φ(t, X)[∇Φ(t, X)]−T .
(b) Zun¨ achst erhalten wir f¨ ur die Kontinuit¨ atsgleichung M(t, U ) = (t, x) dv = (t, Φ(t, X))J(t, X) dV U Φ(t,U ) = ref (X) dV = konstant, U
in Materialform ist also ref (X) = (t, Φ(t, X))J(t, X) .
(8.20)
8.4 Materialformen
411
(c) Weiter folgt mit den Ergebnissen aus dem letzten Abschnitt an Stelle von (8.11) durch Substitution die Darstellung in Materialform d A(t, X)J(t, X) dV = B(t, x)J(t, X) dV + W (t, X) · N (t, X) dO , dt U U ∂U bzw. in Differentialform ∂ (A J) = B J + Div W . ∂t F¨ ur den Impulserhaltungssatz in Materialform ergibt sich d ∂ (t, Φ(t, X))V (t, X)J(t, X) dV = ref V (t, X) dV dt U ∂t U = ref F (t, X) dV + T(t, X) · N (t, X) dO , U
(8.21)
(8.22)
∂U
bzw. nach Anwendung des Divergenzsatzes die lokale Form ref (X)
∂ V (t, X) − Div T(t, X) = ref (X)F (t, X) . ∂t
(8.23)
(d) Der Drehimpulserhaltungssatz in Materialform ist der gleiche wie in Raumform, n¨ amlich t = tT , bzw. S(t, X) = ST (t, X) . (e) F¨ ur den Energieerhaltungssatz erhalten wir analog zu Lemma 8.6 ∂E + (grad E) · V − Grad V : T − Div Q = ref R . ref (8.24) ∂t Es gilt aber Grad V : T = Grad V : [∇Φ S] = spur [Grad V ]T ∇Φ S = (∇Φ)T Grad V : S , also wegen der Symmetrie von S Grad V : T =
1 ) : S. (∇Φ)T Grad V + (Grad V )T ∇Φ : S =: E(V 2
Damit folgt aus (8.24) ref
∂E + (grad E) · V ∂t
) : S − Div Q = ref R − E(V
. mit zwei symmetrischen Tensoren S und E
(8.25)
412
8 Kontinuumstheorie
(f ) F¨ ur das Axiom 8.5 in der Form von Satz 8.9 erh¨alt man ebenso die Materialform ref
∂Θ ∂Ψ + S ∂t ∂t
: S + 1 Grad Θ · Q ≤ 0 . −E Θ
(8.26)
(g) Wird x = X + u mit der Verschiebung u angesetzt, dann folgt ∇Φ(t, X) = I + ∇u(t, X) ,
det ∇Φ(t, X) = 1 + spur ∇u(t, X) + h.o.t. ,
sowie [Cof ∇Φ(t, X)]T = det(∇Φ(t, X))[∇Φ(t, X)]−1 = 1 + spur ∇u(t, X) + ∇u(t, X) + h.o.t. . In der linearen Elastizit¨ atstheorie werden Terme h¨oherer Ordnung in u vernachl¨ assigt und man setzt daher n¨ aherungsweise ∇Φ(t, X)S(t, X) % S(t, X) 1 ) Grad V + (Grad V )T % E(V E(V ) = 2 C(t, X)E(u(t, X)) , S(t, X; u) = T(t, X) =
wobei die letzte Gleichung lineares Materialgesetz genannt wird mit dem Elastizit¨ atstensor C. Es ergeben sich dann die linearisierten Gleichungen ref (X)
= (t, Φ(t, X))J(t, X)
∂ V (t, X) − Div S(t, X; u(t, X)) = ref (X)F (t, X) ∂t ∂E (t, X) + (Grad E(t, X)) · V (t, X) ref (X) ∂t −E(V (t, X)) : S(t, X; u(t, X)) − Div Q(t, X) = ref (X) R(t, X)
ref (X)
.
(8.27) Bei Fluiden wird in ¨ ahnlicher Weise linearisiert; dort h¨angt aber der Spannungstensor S von der Geschwindigkeit V ab. In der Literatur ist es u ¨blich, den Spannungstensor (8.20) bzw. seine Lineari¨ sierung zu verwenden im Ubrigen aber von den Erhaltungsgleichungen (8.15) in Raumform auszugehen; bei Bedarf wird u ¨ber das das Grundgebiet Ω im Materialraum integriert. (h) Variationsproblem Wir multiplizieren die zweite Gleichung in (8.27) mit einer Testfunktion W (t, X) =: ∂Φ(t, X) und integrieren u ¨ber das Grundgebiet Ω. Dann folgt in trivialer Weise
8.4 Materialformen
413
∂ V (t, X) − Div S(t, X; u(t, X)) ∂t −ref (X)F (t, X) dV = 0 .
W (t, X) · ref (X) Ω
(8.28) Ein Anwendung der Formel (1.21), v · div T + grad v : T dV = V
v · T n dO ,
∂V
mit V t = u ¨ ergibt in nicht mehr ganz trivialer Weise [ref W · u ¨ + E(W ) : S] dV − W · S(u) N dO = ref W · F dV . Ω
∂Ω
Ω
(8.29) In dieser Form ist der Galerkinsche Ansatz Ausgangsbasis f¨ ur die numerische Behandlung statischer und dynamischer Probleme; vgl. auch § 1.11(e). onnen aber – wie schon mehrfach erw¨ahnt – nicht Die Testfunktionen W k¨ willk¨ urlich gew¨ ahlt werden sondern m¨ ussen im konkret gestellten Problem die wesentlichen Randbedingungen von u respektieren. Man beachte auch, dass ¨ beim Ubergang von (8.28) nach (8.29) die Glattheitsvoraussetzungen an u abgeschw¨ acht werden, bzw. in der umgekehrten Richtung zus¨atzlich gefordert werden m¨ ussen. (i) Extremalprinzip Wenn (8.29) station¨ ar ist, d.h. unabh¨angig von der Zeit t, dann ist diese Gleichung Variationsgleichung des Extremalproblems ∀ u ∈ u0 + V E(u) := Ω
1 E(u) : S(u) dV − 2
u · K dV −
Ω
u · G dO = Extr! . ∂Ω
(8.30) Dabei sind K und G die zur¨ uckgeholte nichtspezifische Volumenkraft- und Oberfl¨ achenkraftdichte. Die Funktion u0 und der Vektorraum V sind problembezogen und m¨ ussen im Einzelfall n¨ aher spezifiziert werden. (j) Das Hamiltonsches Prinzip entsteht hier durch Integration von (8.29) u ¨ber die Zeit und anschließender partieller Integration unter der Voraussetzung, dass das System konservativ ist, d.h. der Spannungstensor S und die Volumenkraftdichte F nicht explizit von der Zeit abh¨angen. Permutation der Integrationsreihenfolge in (8.29) ergibt zuerst τ [−ref W · u ¨ − E(W ) : S(u) + ref W · F ] dt dV Ω 0 (8.31) τ + W · S(u) N dt dO = 0 . ∂Ω
0
Wenn die Testfunktionen W die Randbedingungen W (0, X) = W (τ, X) = 0 erf¨ ullen, ergibt partielle Integration
414
8 Kontinuumstheorie
τ
τ ˙ · u˙ dt = W · u˙
− W 0
0
τ
W · u ¨ dt = −
0
τ
W · u ¨ dt , 0
also nach (8.31), τ ˙ · u˙ − E(W ) : S(u) + ref W · F dV ref W 0 = ∂W(u ; W ) := 0 Ω + W · S(u) N dO dt . ∂Ω
(8.32) Es gilt E(W ) : S(u) = E(u) : S(W ) nach der Definition in (g). Bezeichnet 1 [ref u˙ · u˙ − E(u) : S(u)] dV + ref W ·F dV + u·S(u) N dO L(u) = 2 Ω Ω ∂Ω die Lagrange-Funktion, dann ist (8.32) Variationsgleichung eines Extremalproblems mit dem Wirkungsintegrals τ L(u) dt = Extr! (8.33) W(u, [0, τ ]) = 0
Satz 8.10. (Hamiltonsches Prinzip) Ist das System konservativ, dann ist die L¨ osung u von ¨ − Div S(u) = ref F ref u Extremale des Wirkungsintegrals W(v, [t0 , t1 ]) (station¨ are Stelle). Mit der Deutung 1 ref u˙ · u˙ dV Ek (u) := 2 Ω 1 Ed (u) := E(u) : S(u) dV 2 Ω Ev (u) := − ref F · u dV Ω u · S(u) N dO Eo (u) :=
kinetische Energie Deformationsenergie potentielle Energie der Volumenkr¨afte potentielle Energie der Oberfl¨achenkr¨afte
∂Ω
hat die Lagrange-Funktion die Form L = Ek − Ed − Ev − Eo . Vgl. (8.17) und [Marsden]. Im Wesentlichen ist das Hamiltonsche Prinzip hier ¨ aquivalent zum Impulserhaltungssatz, mit dem man meistens schneller zum Ziel kommt, n¨ amlich zur Aufstellung eines geeigneten Randwert- oder Anfangsrandwertproblems. Andererseits beachte man, dass genau die L¨osungen der Euler-Gleichung (4.2) mit q = L station¨are Punkte des Wirkungsintegrals sind.
8.5 Lineare Elastizit¨ atstheorie
415
8.5 Lineare Elastizit¨ atstheorie Hinweis: 1. Alle nachfolgenden Skalarprodukte v · w lassen sich als Matrizenprodukt v w auffassen mit dem Zeilenvektor v links und dem Spaltenvektor w rechts. 2. Aus optischen Gr¨ unden und um den Leser zu schonen, werden in diesem Kapitel Zugest¨ andnisse an die klassische Schreibweise gemacht. Verwendete Konstanten: ν=
λ , 0 < ν < 1/2 2(λ + μ)
E=
μ(3λ + 2μ) >0 λ+μ
h λ= μ= = λ κ= χ=
Poisson-Zahl (Querkontraktionskonstante) Elastizit¨ atsmodul Plattendicke
Eν (1 + ν)(1 − 2ν) E 2(1 + ν) λμ Eν = λ + 2μ 2(1 − ν 2 ) h3 2 Eh3 = (λ + 2μ) 12(1 − ν 2 ) 4 3 3 3λ + 2μ
Lam´e-Konstante (Gleitmodul) . Lam´e-Konstante +μ= λ
E 2(1 − ν 2 )
Plattensteifigkeit Kompressibilit¨at
(a) Verzerrungstensor und Spannungstensor Es sei Ω ⊂ R3 ein K¨ orper“ mit hinreichend glattem Rand ∂Ω = Γ , X = (x, y, z) ein Punkt ” aus Ω und u = (u, v, w) : Ω → R3 eine hinreichend glatte Funktion (Verschiebung). Der Verzerrungstensor (strain tensor) ist in der linearen Elastizit¨atstheorie gegeben durch 1 grad u + (grad u)T ε := ε(u) := E(u) = 2 ⎡ ⎤ ⎡ ⎤ ux (uy + vx )/2 (uz + wx )/2 εx γxy /2 γxz /2 vy (vz + wy )/2 ⎦ =: ⎣ γxy /2 εy γyz /2 ⎦ = ⎣ (vx + uy )/2 wz (wx + uz )/2 (wy + vz )/2 γxz /2 γyz /2 εz mit den Dehnungen εx , εy , εz und den Schiebungen γxy , γxz , γyz . Der Spannungstensor (stress tensor) muss durch ein Materialgesetz vorgegeben werden, das im mathematischen Sinn ein Axiom ist. Man schreibt
416
8 Kontinuumstheorie
⎤ σx τxy τxz σ := σ(u) := S(t, X; u) =: ⎣ τxy σy τyz ⎦ τxz τyz σz ⎡
mit den Normalspannungen σx , σy , σz , und den Schubspannungen τxy , τxz , τyz . Die Schiebungen und Schubspannungen unterscheiden sich formal durch den Faktor zwei! (b) Extremalproblem und Variationsproblem Die Verschiebung u eines festen K¨ orpers (Ω, , σ) ist L¨ osung des Extremalproblems f¨ ur die gesamte potentielle Energie ∀ v ∈ u0 + U : Ω
1 ε(v) : σ(v) dV − 2
v · k dV −
Ω
v · g dO = Min! . Γ
(8.34) dabei ist k die Volumenkraftdichte und g die Oberfl¨achenkraftdichte. Der Funktionenraum U ist noch n¨ aher zu pr¨ azisieren. Nach §§ 1.11, 4.1 ist dem Extremalproblem (8.34) ein Variationsproblem (Eulersche Gleichung) zugeordnet, das im Folgenden schwache Form des Problems genannt wird,
ε(v) : σ(u) dV = Ω
v · k dV +
Ω
v · g dO Γ
.
(8.35)
∀ v ∈ U : u ∈ u0 + U Dieses Problem stellt die schwache Form des Impulserhaltungssatzes dar und ist die Grundlage der numerischen Approximation mit Finite-ElementMethoden. (c) Zur Bestimmung des Randwertproblems muss wieder der Divergenzsatz angewendet werden. Weil σ(u) symmetrisch ist, gilt nach (1.2) und (1.21) 1 grad v + (grad v)T : σ(u) dV ε(v) : σ(u) dV = Ω Ω 2 = grad v : σ(u) dV = − v · div σ(u) dV + v · σ(u)n dO , Ω
Ω
Γ
wenn u die entsprechenden Glattheitsvoraussetzungen erf¨ ullt. Damit erhalten wir die schwache Form v · [− div σ(u) − k] dV = v · [g − σ(u)n] dO , u ∈ u0 + U , (8.36) Ω
Γ
wobei v ∈ V zun¨ achst eine beliebige Testfunktion ist und V ein Vektorraum mit u0 + U ⊂ V . Ist nun der Rand Γ von Ω gem¨aß (9.1) in Dirichlet-Rand und Cauchy-Rand aufgeteilt, und ist u = h auf ΓD vorgeschrieben, so muss u0 eine Funktion in V mit u0 = h auf ΓD sein. Dann muss aber v = 0 auf ur |ε| 1 jedes u + εv ebenfalls in u0 + V liegt; vgl. §§ ΓD sein, damit f¨
8.5 Lineare Elastizit¨ atstheorie
417
1.11, 9.1. W¨ ahlt man zuerst v beliebig mit v = 0 auf dem ganzen Rand, so folgt, dass die eckige Klammer auf der linken Seite verschwinden muss. W¨ahlt man anschließend v auf ΓC beliebig, so folgt, dass die eckige Klammer auf der rechten Seite verschwinden muss. Zusammen ergibt sich das Randwertproblem − div σ(u) = k in Ω u = h auf ΓD σ(u)n = g auf ΓC
(8.37)
mit dem Impulserhaltungssatz als erster Gleichung. Fazit: Die L¨ osung des schwachen Problems (8.35) erf¨ ullt auf ΓC die dynamische Randbedingung σ(u)n = g . Im Gegensatz zu den DirichletBedingungen wird diese Randbedingung von den Finite-Element-L¨osungen nur approximiert. Weitere Kombinationen von Randbedingungen ergeben sich, wenn der Randterm in der schwachen Form wie in 8.10(b) aufgespalten wird. (d) F¨ ur St.Venant-Kirchhoff-Material gilt in der linearen Elastizit¨atstheorie definitionsgem¨ aß das Hookesche Gesetz σ(u) := S(u) = 2μ ε(u) + λ spur(ε(u))δ
(8.38)
´-Konstanten μ und λ ; vgl. [Ciarlet93], S. 130. Daf¨ mit den Lame ur kann man auch schreiben E ν spur(ε) δ , (8.39) σ= ε+ 1+ν 1 − 2ν woraus mit spur δ = 3 die Umkehrung folgt: ε=
ν 1+ν σ − spur(σ) δ . E E
(8.40)
Wegen ε : σ = 2μ ε : ε + λ(spur ε) ε : δ , ε : δ = spur(ε) = div u , hat das zugeh¨ orige Extremalproblem (8.34) die Form Ω
1 2 2μ ε(v) : ε(v) + λ (div v) dV − v · k dV − v · g dO = Min! 2 Ω ΓC ∀ v ∈ U mit v = h auf ΓD (8.41)
Ferner gilt div(div(u)δ) = [grad div u]T div([grad u]T ) = [grad div u]T
(Spaltenvektor) (Spaltenvektor) ,
418
8 Kontinuumstheorie
also, wenn grad ϕ als Spaltenvektor geschrieben wird, div σ(u) = μ div grad u + div[grad u]T + λ [grad div u]T = μ Δu + (λ + μ) grad div u . (8.42) Einsetzen in (8.39) ergibt das Randwertproblem −μΔu − (λ + μ) grad div u = k in Ω u = h auf ΓD [2μ ε(u) + λ(div u)δ]n = g auf ΓC
.
(8.43)
(e) [Voigt]. Wegen der Symmetrie sind Spannungs- und Verzerrungstensor jeweils durch sechs Koeffizienten bestimmt, daher kann dem Tensor ε ein Verzerrungsvektor ε ∈ R6 und dem Tensor σ ein Spannungsvektor σ ∈ R6 zugeordnet werden, ε = [εx , εy , εz , γxy , γxz , γyz ]T σ = [σx , σy , σz , τxy , τxz , τyz ]T
,
so dass gilt ε : σ = ε·σ. Damit ist das l¨ astige Skalarprodukt von Tensoren durch ein leichter verst¨andliches Skalarprodukt von Vektoren ersetzt. Ferner ist es sinnvoll, eine Operatormatrix D einzuf¨ uhren und eine symmetrische Elastizit¨ atsmatrix C gem¨aß ⎤ ⎡ ∂x 0 0 ⎢ 0 ∂y 0 ⎥ ⎥ ⎢ ⎢ 0 0 ∂z ⎥ ⎥, ⎢ (8.44) σ = Cε , ε = Du , D = ⎢ ⎥ ⎢ ∂y ∂x 0 ⎥ ⎣ ∂z 0 ∂x ⎦ 0 ∂z ∂y dann gilt also in der linearen Elastizit¨ atstheorie die u ¨bersichtliche Darstellung ε(v) : σ(u) = ε(v) · σ(u) = v T DT CDu ,
(8.45)
die sich auch f¨ ur die numerische Approximation bestens eignet. Aus (8.35) folgt die Darstellung v T DT CDu dV = v · k dV + Ω
Ω
v · g dO ∀ v ∈ V mit v = 0 auf ΓD ,
ΓC
und aus (8.41) folgt f¨ ur die Elastizit¨ atsmatrix C und die Nachgiebigkeitsmatrix (compliance matrix) C −1
8.5 Lineare Elastizit¨ atstheorie
⎡
C
⎢ ⎢ ⎢ E ⎢ = (1 + ν)(1 − 2ν) ⎢ ⎢ ⎣ ⎡
1−ν ν ν ν 1−ν ν ν ν 1−ν 0 0 0 0 0 0 0 0 0
1 ⎢ −ν ⎢ 1⎢ ⎢ −ν E⎢ ⎢ 0 ⎣ 0 0
C −1 =
−ν 1 −ν 0 0 0
−ν −ν 1 0 0 0
419
⎤
0 0 0 ⎥ 0 0 0 ⎥ ⎥ 0 0 0 ⎥, 1 ⎥ 0 0 2 (1 − 2ν) ⎥ 1 ⎦ 0 0 2 (1 − 2ν) 1 0 0 2 (1 − 2ν) ⎤ 0 0 0 ⎥ 0 0 0 ⎥ ⎥ 0 0 0 ⎥. ⎥ 2(1 + ν) 0 0 ⎥ ⎦ 0 2(1 + ν) 0 0 0 2(1 + ν)
Zur Kontrolle l¨ asst sich das Randwertproblem (8.37) auch u ¨ber die Darstellung (8.45) herleiten. Mit den Matrizen ⎤ ⎤ ⎤ ⎡ ⎡ ⎡ 100 000 000 ⎢0 0 0⎥ ⎢0 1 0⎥ ⎢0 0 0⎥ ⎥ ⎥ ⎥ ⎢ ⎢ ⎢ ⎥ ⎢0 0 0⎥ ⎢0 0 0⎥ ⎢ ⎥ , D2 = ⎢ ⎥ , D3 = ⎢ 0 0 1 ⎥ . D1 = ⎢ ⎢0 1 0⎥ ⎢0 0 1⎥ ⎢0 0 0⎥ ⎥ ⎥ ⎥ ⎢ ⎢ ⎢ ⎣0 0 1⎦ ⎣0 0 0⎦ ⎣1 0 0⎦ 000 001 010 gilt ε = D1 [grad u]T + C D2 [grad v]T + C D3 [grad w]T , ε · σ = (grad u)D1T + (grad v)D2T + (grad w)T D3T σ = (grad u)σ 1 + (grad v)σ2 + (grad w)σ3
also
σ 1 = [σx , τxy , τxz ]T , σ 2 = [τxy , σy , τyz ]T , σ 3 = [τxz , τyz , σz ]T . Daraus folgt ε · σ = [grad u · σ 1 + grad v · σ 2 + grad w · σ 3 ] . Schließlich ergibt die Formel grad ϕ · w dV = − ϕ div w dV + ϕ w · dO Ω
Ω
Γ
nach Aufsummierung
ε(v) · σ(u) dV = − Ω
v · div σ(u) dV +
Ω
v · σ(u)n dO . Γ
420
8 Kontinuumstheorie
8.6 Scheiben y, z) = Ω(x, y) × [−h/2 , h/2] die geometrische Form der Scheibe Es sei Ω(x, mit der Aufteilung des Randes Γ = ΓD ⊕ ΓC gem¨aß (9.1), und es sei die Dicke h klein gegen¨ uber dem Durchmesser. (a) Ebener Spannungszustand Eine Deformation in z-Richtung ist m¨oglich, aber die ¨ außeren Kr¨ afte k und g wirken nur in der (x, y)-Ebene, haben also keine z-Komponente. Mit dem Ansatz f¨ ur den Verschiebungsvektor u = (u, v, w) und den Spannungstensor σ, u = u(x, y) , v = v(x, y) , w(x, y, z) = zε33 (x, y) σ3i = σi3 = 0 , i = 1, 2, 3
,
ergibt sich aus dem allgemeinen Materialgesetz (8.40) das Materialgesetz f¨ ur den ebenen Spannungszustand. Zun¨ achst folgt εi3 = ε3i = 0 , i = 1, 2 , und osen aus σ33 = 0 durch Aufl¨ ε33 = −
ν (ε11 + ε22 ) . 1−ν
Damit l¨ asst sich ε33 eliminieren und wir erhalten ein Gesetz im R2 f¨ ur den Vektor u = (u, v)
E ν spur(ε)δ (ε11 + ε22 )δ = 2μ ε + 2λ σ= ε+ 1+ν 1−ν (8.46)
1+ν ν (σ11 + σ22 )δ . ε= σ− E 1+ν Weil hier die Variable z nicht vorkommt, erh¨ alt man aus dieser Gleichung und (8.38) wie bei (8.43) ein Randwertproblem f¨ ur u = (u, v) + μ) grad div u = k in Ω −μΔu − (2λ u = h auf ΓD [2μ ε(u) + 2λ(div u)δ]n = g auf ΓC
.
(8.47)
Auch hier sind weitere Kombinationen von Randbedingungen m¨oglich. Mit den Vektoren ε = [εx , εy , γxy ]T , σ = [σx , σy , τxy ]T , gilt wieder ε : σ = ε · σ , und wir ⎡ 1 E ⎣ ν σ= 1 − ν2 0
erhalten aus (8.46) ⎤ ν 0 ⎦ ε =: CS ε . 1 0 0 (1 − ν)/2
(8.48)
8.6 Scheiben
421
Nach Integration u ¨ber z ergibt sich somit aus dem Impulserhaltungssatz die Gesamtenergie der Scheibe im ebenen Spannungszustand mit gewissen Einzelkr¨ aften F i , 1 ε(u) : σ(u) − k · u dF − h g · u ds − F i · u . (8.49) E(u) = h Ω 2 ΓC i Wiederum mit u = (u, v) gilt hier
⎡ ⎤⎡ ⎤ 1ν 0 εx E ⎣ ⎦⎣ εy ⎦ ν1 0 ε(u) : σ(u) = ε · σ = [εx , εy , γxy ] 1 − ν2 0 0 (1 − ν)/2 γxy
E 1 2 2 2 (1 − ν)γ = + 2νε ε + ε + ε x y y xy 1 − ν2 x 2
1 E 2 2 2 (1 − ν)(u + 2νu v + v + + v ) u = x y y x y 1 − ν2 x 2 T T = u D CS Du (8.50) mit der Elastizit¨ atsmatrix CS aus (8.48) und der Operatormatrix ⎡ ⎤ ∂x 0 D = ⎣ 0 ∂y ⎦ . ∂y ∂x (b) Ebener Verzerrungszustand Eine Deformation in z-Richtung ist hier nicht m¨ oglich. Es wird angenommen, dass ¨ außere Kr¨afte auf die Scheibe dies verhindern. Aus dem allgemeinen linearen Materialgesetz (8.39) ergibt sich das Materialgesetz f¨ ur den ebenen Verzerrungszustand mit dem Ansatz u = u(x, y) , v = v(x, y) , w(x, y) = 0 ε3i = εi3 = 0 , i = 1, 2, 3
.
Aus ε33 = 0 folgt σ33 = ν(σ11 + σ22 ) . Damit l¨asst sich σ33 eliminieren, und wir erhalten f¨ ur u = (u, v) :
E ν (ε11 + ε22 )δ = 2με + λ spur(ε)δ σ= ε+ 1+ν 1 − 2ν (8.51) 1+ν [σ − ν(σ11 + σ22 )δ] . ε= E Das zugeh¨ orige Randwertproblem hat hier die Form −μΔu − (λ + μ) grad div u = k in Ω u = h auf ΓD [2με(u) + λ(div u)δ]n = g auf ΓC
.
(8.52)
422
8 Kontinuumstheorie
Aus (8.51) erhalten wir f¨ ur Spannungs- und Verzerrungsvektor das Materialgesetz ⎡ ⎤ 1−ν ν 0 E ⎣ ν 1−ν ⎦ ε =: CV ε . 0 σ= (1 + ν)(1 − 2ν) 0 0 (1 − 2ν)/2 Nach Integration u ¨ber z ergibt sich die Gesamtenergie der Scheibe im ebenen Verzerrungszustand mit gewissen Einzelkr¨ aften F i in der gleichen Form wie in (8.49). Mit u = (u, v) und der Operatormatrix D aus (8.50) gilt aber hier ⎡ ⎤⎡ ⎤ 1−ν ν 0 εx E ⎣ ν 1−ν ⎦⎣ εy ⎦ 0 ε : σ = ε · σ = [εx , εy , γxy ] (1 + ν)(1 − 2ν) 0 0 (1 − 2ν)/2 γxy
E 1 2 2 2 = (1 − ν)εx + 2νεx εy + (1 − ν)εy + (1 − 2ν))γxy (1 + ν)(1 − 2ν 2
1 − 2ν E (uy + vx )2 = (1 − ν)u2x + 2νux vy + (1 − ν)vy2 + (1 + ν)(1 − 2ν) 2 = uT DT CV Du . (8.53)
8.7 Die Kirchhoff-Platte y, z) = (a) Extremalproblem und Variationsproblem Es sei wieder Ω(x, Ω(x, y) × [−h/2, h/2] und h klein gegen¨ uber dem Durchmesser von Ω. In einem Punkt (x, y) der Mittelebene (z = 0) sei Nx das Bild des Querschnitts der Platte senkrecht zur x-Achse und Ny das Bild des Querschnitts senkrecht zur y-Achse im aktuellen Raum. Dann bildet der Schnitt von Nx und der (x, z)-Ebene einen Winkel ϕ1 (x, y) mit der z-Achse und der Schnitt von Ny und der (y, z)-Ebene einen Winkel ϕ2 (x, y) mit der z-Achse, wobei man davon ur ausgeht, dass Nx und Ny wieder Ebenen sind. Unter dieser Annahme gilt f¨ die Verschiebung u = (u1 , u2 , u3 ) in erster N¨aherung allgemein u1 = −z ϕ1 (x, y) , u2 = −z ϕ2 (x, y) , u3 = w(x, y) ;
(8.54)
vgl. die Herleitung in § 7.1. Bei der Kirchhoff-Platte oder schubstarren Platte wird vorausgesetzt, dass Nx und Ny auch auf der deformierten Mittelebene senkrecht stehen. Weil h klein ist, soll weiter σ33 ≡ σz = 0 und k i = 0 , i = 1, 2 , k 3 =: f ,
(8.55)
f¨ ur die Volumenkraftdichte k gelten, wobei die letzte Bedingung besagt, dass keine Biegekr¨ afte in (x, y)-Richtung auftreten k¨onnen. Wegen
8.7 Die Kirchhoff-Platte
423
tan ϕ1 = wx =⇒ ϕ1 = arctan wx = wx + h.o.t. , gilt in erster N¨ aherung wx = ϕ1 und wy = ϕ2 , und man erh¨alt u1 = −z wx (x, y) , u2 = −z xy (x, y) , u3 = w(x, y)
(8.56)
aus (8.54). Daraus folgt σ13 = τxz = 0 , σ23 = τyz = 0 mit (8.44). Insgesamt ergibt sich dann εy = u2,y = −z wyy , εz = 0, εx = u1,x = −z wxx , γxy = u1,y + u2,x = −2zwxy , γyz = u2,z + u3,y = 0, γzx = u3,x + u1,z = 0 , also in leichter Ab¨ anderung der bisherigen Schreibweise
wxx 2wxy zε(w) = −z , zε(w) = −z[wxx , wyy , wxy ]T . 2wxy wyy F¨ ur diesen Verzerrungstensor ergibt sich aus dem allgemeinen Materialgesetz (8.38) formal das gleiche Materialgesetz wie beim ebenen Spannungszustand von Scheiben
zE ν spur(ε(w))δ , zσ(w) = spur(ε(w))δ = z 2με(w) + 2λ ε(w) + 1+ν 1−ν (8.57) also σ(w) = zCS ε(w) = −zCS Dw , D = [∂xx , ∂yy , ∂xy ]T mit (8.48), bzw. z 2 ε(v) : σ(w) = z 2 ε(v) · σ(w) = z 2 vDT CS Dw . Integration u ¨ber z von −h/2 bis h/2 ergibt mit dF = dxdy h3 h3 z 2 ε(v) : σ(w) dV = ε(v) : σ(w) dF ≡ ε(v) · σ(w) dF . 12 Ω 12 Ω Ω Das allgemeine Extremalproblem hat nunmehr bei der Kirchhoff-Platte die Form 1 h3 ε(w) : σ(w) − h w f dF Ω 2 12 1 1 α w2 + βw ds + h γ wn2 + δwn ds +h 2 2 Γ Γ = Min!
E(w) =
(8.58)
mit α , β , γ , δ : Γ s → R , α(s) ≥ 0 , γ(s) ≥ 0 . Die zugeh¨orige Variationsgleichung lautet zun¨ achst
424
8 Kontinuumstheorie
h3 ε(v) : σ(w) dF ≡ ε(v) : σ(w) dF 12 Ω Ω =h v f dF − h v(αw + β) ds − h vn (γwn + δ) ds , h3 12
Ω
Γ
Γ
wobei v = v(x, y) ∈ R die Testfunktion (virtuelle Verschiebung) ist, und die Randbedingungen noch herzuleiten sind. (b) Umwandlung Im Einzelnen gilt
E ν Ez (−z(wxx + wyy )) = − [wxx + νwyy ] , σx = −zwxx + 1+ν 1−ν 1 − ν2 Ez Ez σy = − [νwxx + wyy ], τxy = − wxy , also 2 1−ν 1 − ν2 σ(w) · ε(w) dV Ω E 2 = dV z 2 (wxx + νwyy )wxx + (νwxx + wyy )wyy + 2(1 − ν)wxy 2 1 − ν Ω h3 E 2 2 2 = wxx + 2νwxx wyy + wyy dF oder + 2(1 − ν)wxy 2 12 Ω 1 − ν h3 12
σ(w) · ε(w) dF = κ Ω
2 Δ2 w + 2(1 − ν)(wxy − wxx wyy ) dF
(8.59)
Ω
mit der Plattensteifigkeit κ=
Eh3 . 12(1 − ν 2 )
Man berechnet nun E ΔvΔw + (1− ν) (v . w − v w ) + (v w − v w ) y xy x yy x x xy y xx y 1 − ν2 (8.60) Mit den Abk¨ urzung
ε(v)·σ(w) =
vn = ∇v · n , vnn = ∇∇v[n, n] = nT [∇∇v]n , etc. gilt aber ΔvΔw = div(Δw grad v) − grad v grad Δw , div(Δw grad v) dF = Δw(grad v · n) ds = Δwvn ds , Γ Γ Ω grad v grad Δw dF = div(v grad Δw) dF − vΔ2 w dF Ω Ω = v(Δw)n ds − vΔ2 w dF .
Γ
Ω
8.7 Die Kirchhoff-Platte
425
Zusammen folgt also f¨ ur den ersten Teil in (8.60) 2 ΔvΔw dF = vΔ w dF − v(Δw)n + Δwvn ds . Ω
Ω
Γ
Γ
F¨ ur den zweiten Teil beachten wir die Darstellungen dn = n1 dx + n2 dy,
dx = n1 dn − n2 dt ,
dt = −n2 dx + n1 dy, dy = n2 dn + n1 dt , wobei n die Normale und t die Tangente auf dem Rand sind. Aus dem Divergenzsatz folgt [(vy wxy − vx wyy )x + (vx wxy − vy wxx )y ] dF Ω [n1 (vy wxy − vx wyy ) + n2 (vx wxy − vy wxx )] ds = Γ = vn 2n1 n2 wxy − n22 wxx − n21 wyy ds Γ + vt n1 n2 (wyy − wxx ) + (n21 − n22 )wyy ds Γ =− vn wtt ds + vt wnt ds . Γ
Γ
Nach Einsetzen in (8.59) pr¨ asentiert sich das schwache Problem als h3 ε(v) · σ(w) dF 12 Ω
2 vΔ w dF − v[Δw − (1 − ν)wtt ]n ds =κ Γ Ω +κ vn [Δw − (1 − ν)wtt ] ds Γ =h v f dF − h v(αw + β) ds . − h vn (γwn + δ) ds . Ω
Γ
(8.61)
Γ
(c) Diesem Problem ist das Randwertproblem vierter Ordnung κ Δ2 w = h f in Ω v κ[Δw − (1 − ν)wtt ]n − h(αw + β) = 0 auf Γ vn κ[Δw − (1 − ν)wtt ] − h(γwn + δ) = 0 auf Γ
(8.62)
zugeordnet. Wenn w bzw. wn auf einem Randst¨ uck vorgegeben ist, muss dort die Testfunktion v bzw. vn verschwinden. Es gibt also prinzipiell vier verschiedene Randbedingungen:
426
8 Kontinuumstheorie
w w wn wn
fest, frei, fest, frei,
κ[Δw − (1 − ν)wtt ]n − h(αw + β) κ[Δw − (1 − ν)wtt ]n − h(αw + β) κ[Δw − (1 − ν)wtt ] − h(γwn + δ) κ[Δw − (1 − ν)wtt ] − h(γwn + δ)
frei null frei null .
Genauer seien Γ1 , Γ2 , ΓA , ΓB , ΓC , ΓD offene Teilmengen von Γ , und es sei Γ = Γ1 ∪ Γ2 , Γ1 ∩ Γ2 beliebig, Γ1 = ΓA ∪ ΓB , ΓA ∩ ΓB = ∅ , Γ2 = ΓC ∪ ΓD , ΓC ∩ ΓD = ∅. Dann hat das inhomogene Randwertproblem (8.62) die Form κΔ2 w w κ[Δw − (1 − ν)wtt ]n wn κ[Δw − (1 − ν)wtt ]
= hf in Ω, =p auf ΓA = h(αw + β) auf ΓB =q auf ΓC = h(γwn + δ) auf ΓD
wesentliche RB nat¨ urliche RB wesentliche RB nat¨ urliche RB .
(8.63)
F¨ ur α = β = γ = δ = 0 sind w = p , wn = q die wesentlichen und urlichen Randbedingungen. [Δw−(1−ν)wtt ]n = 0 , Δw−(1−ν)wtt = 0 die nat¨ Z.B. bei der eingespannten Platte ist Γ = ΓA = ΓC , ΓB = ΓD = ∅ und κΔ2 w = h f in Ω, w = p auf Γ, wesentliche RB = q auf Γ, wesentliche RB wn
.
Bei der einfach aufliegenden Platte ist Γ = ΓA = ΓD , ΓB = ΓC = ∅ und κΔ2 w = hf in Ω, w =p auf Γ, wesentliche RB urliche RB κ[Δw − (1 − ν)wtt ] = h(γwn + δ) auf Γ, nat¨
.
(d) Ist der Rand Γ etwa nach der Bogenl¨ ange parametrisiert, s → x(s), dann bilden die nach außen weisende Normale n und die Tangente t in x(s) ein kartesisches Koordinatensystem. Weil Δw unter Rotationen invariant bleibt, folgt Δw = wxx + wyy = wtt + wnn , Δw − (1 − ν)wtt = wnn + νwtt . Zweimaliges Ableiten nach der Bogenl¨ ange ergibt w(x(s)) = p(s) , ∇w(x)x = p , ∇w(x)x + ∇∇w(x)[x , x ] = p .
8.7 Die Kirchhoff-Platte
427
Nach den Frenetschen Formeln aus § 1.3 ist x (s) = −χ(s)n(s) mit der Kr¨ ummung χ(s), daher ist ∇∇w(x(s))[x (s), x (s)] = wtt (x(s)) = χ(s)wn (x(s)) + p (s) ; folglich gilt auf ΓA ∩ ΓD wnn + νwtt = 0 , Δw = (1 − ν)(χwn + p ) , wodurch die Kr¨ ummung explizit in die Randbedingungen eingeht. Die eingespannte Platte hat nur wesentliche Randbedingungen, was ihr eine bevorzugte Behandlung zuteil werden l¨ asst; bei der einfach aufliegenden Platte ist dagegen w = p wesentlich und wnn + ν(χwn + p ) = 0 nat¨ urlich. Wird nun ein gekr¨ ummter Rand durch einen Polygonzug ersetzt, dann verschwinden nat¨ urlich alle Terme mit von Null verschiedener Kr¨ ummung. Deswegen ist bei einer solchen Approximation der einfach aufliegenden Platte keine konvergente Approximation m¨ oglich (Babuska-Paradoxon); vgl. z.B. [Babuska63], [Babuska90]. (e) Beispiel Zur Demonstration des Einflusses der Kr¨ ummung bei der einfach aufliegenden Platte schreiben wir −Δw = v und ersetzen das Randwertproblem (8.63) vierter Ordnung durch zwei Randwertprobleme zweiter Ordnung, −κΔv = f in Ω v = (ν − 1)wtt = (ν − 1)(χwn + p ) auf Γ −Δw = v w =p
in Ω auf Γ .
Die beiden Systeme werden in mehreren Iterationsschritten abwechslungsweise gel¨ ost, wobei die exakte L¨ osung u ¨ber die rechte Seite f vorgegeben und wn numerisch approximiert wird; als Startwert wird v = 0 auf Γ gew¨ahlt. In den folgenden drei Beispielen ist das Grundgebiet Ω der Einheitskreis also die Kr¨ ummung χ = 1 . Es wird κ = 1 gesetzt, die Poisson-Zahl ν ist hier durch die Beziehung v = (ν − 1)[χwn + p ] auf dem Rand festgelegt. Die Triangulierung wird durch [p,e,t] p
= initmesh(’circleg’,’Hmax’,0.2); = jigglemesh(p,e,t);
R erzeugt. Die L¨ osung wird mit dem Programm assempde.m aus der MATLAB PDE-Toolbox berechnet, also mit einfachen linearen Dreieckelementen.
Beispiel 8.2. w(r, ϕ) = (1 − r2 )(5 − r2 ) , w(1, ϕ) = 0 , ν = 0 , Δ2 w = 64 . Beispiel 8.3. w(r, ϕ) = (1 − 2r2 )(5 − r2 ) , w(1, ϕ) = −4 , ν = 1/7 , Δ2 w = 128 .
428
8 Kontinuumstheorie
Beispiel 8.4. w(r, ϕ) = (r6 −2r4 +16r2 ) cos(2ϕ)/10 , w(1, ϕ) = − cos(2ϕ)/2 , ν = 1/5 , Δ2 w = 384r2 cos(2ϕ)/10 (Abb. 8.1 und 8.2). Beispiel 8.5. w(r, ϕ) = (2r6 − 5r4 ) cos(2ϕ)/12 , w(1, ϕ) = − cos(2ϕ)/4 , ν = 0 , Δ2 w = 64r2 cos(2ϕ) .
Tabelle 8.1. Maximaler Fehler: χ = 0 χ = 1, 5 Schritte χ = 1, 10 Schritte Beisp. 8.2
2.0534
0.1692
0.0812
Beisp. 8.3
3.1077
0.1865
0.1133
Beisp. 8.4
0.0190
0.0061
0.0061
Beisp. 8.5
0.0188
0.0076
0.0076
−3
x 10 6 0.5
4 2
0
0 −2
−0.5
−4 −6 −8 1
−1 1 1
0.5 0.5
0
1
0.5 0.5
0 0
0 −0.5
−0.5 −1
−0.5
−0.5 −1
−1
−1
Abb. 8.1. Beispiel 8.4, L¨ osung
Abb. 8.2. Beispiel 8.4, Fehler (skaliert)
8.8 Stark gebogene Platten und Membran Bei stark gebogenen (d¨ unnen) Platten geht man zun¨achst vor wie bei der Kirchhoff-Platte. Die Dicke h der Platte sei wieder klein gegen¨ uber dem Durchmesser, und es sollen Volumenkr¨ afte nur in z-Richtung auftreten, d.h. es gilt wieder k = [0, 0, f ]T , u1 = −z wx (x, y), u2 = −z wy (x, y), u3 = w(x, y), u = (u1 , u2 ), u = ( u, w) ,
8.8 Stark gebogene Platten und Membran
429
= Ω × [−h/2 , h/2] ⊂ R3 . Zus¨ u ∈ Ω atzlich zur Biegeenergie wird aber eine Dehnungsenergie eingef¨ uhrt mit dem nichtlinearen Verzerrungstensor der Dimension zwei, 1 grad u + (grad u )T + (grad w)T grad w 2
u1,x + wx2 /2 (u1,x + u2,y + wx wy )/2 = , u2,y + wy2 /2 (u1,x + u2,y + wx wy )/2
ε := ε(u) =
wobei grad w ein Zeilenvektor ist, also (grad w)T grad w ein dyadisches Produkt. F¨ ur ε = [εx , εy , γxy ]T = [u1,x + wx2 /2 , u2,y + wy2 /2 , u1,x + u2,y + wx wy ]T . gilt wie bei der Kirchhoff-Platte mit der Elastizit¨atsmatrix C und der Nachgiebigkeitsmatrix C −1 σ = C ε, σ = C ε, ⎡ ⎤ ⎡ ⎤ 1 −ν 0 1ν 0 E ⎣ ⎦. ⎦ , C −1 = 1 ⎣ −ν 1 0 ν1 0 C= 1 − ν2 E 0 0 2/(1 + ν) 0 0 (1 − ν)/2 F¨ ur die Gesamtenergie als Summe aus Biege- und Dehnungsenergie ergibt sich das Extremalproblem E(u) =
Ω
1 = Min! , (u)] − f u3 dΩ [ε(u) : σ(u) + ε(u) : σ 2
(8.64)
wenn keine Oberfl¨ achenkr¨ afte auftreten; vgl. [Landau]. F¨ ur eine Rechtfertigung dieser Wahl vgl. [Ciarlet97]. Wir betrachten hier die Randbedingungen w = 0 , wn = 0 auf Γ , dann verschwinden die Randintegrale. Wegen der Nichtlinearit¨at von ε hat die Variationsgleichung unter Beachtung der Symmetrie die Form =0 (u) − f v3 ] dΩ [ε(v) : σ(u) + δ ε(u; v) : σ Ω
ε mit der Testfunktion v und der ersten Variation von δ ε(u; v) =
1 [grad v + (grad v )T ] + (grad w)T grad v3 , v = [v1 , v2 ]T . 2
Der erste Anteil ist der reine Biegeanteil, und es ergibt sich wie bei der eingespannten Kirchhoff-Platte % ε(v) : σ(u) dΩ ε(v3 ) : σ(w) dΩ = κ v3 Δ2 w dΩ . Ω
Ω
Ω
430
8 Kontinuumstheorie
F¨ ur den zweiten Anteil erhalten wir nach Integration u ¨ber z unter Beachtung der Symmetrie von σ h (u) dΩ = δ ε(u; v) : σ v ))T grad( v ) + (grad( 2 Ω Ω (u) dΩ +(grad w)T grad v3 + (grad v3 )T grad w : σ (u) dΩ . =h (grad( v ))T + (grad v3 )T grad w : σ Ω
Partielle Integration ergibt wegen der Nullrandbedingungen (u) dΩ = −h (u) + v3 div{ δ ε(u; v) : σ [ v · div σ σ (u) grad w}] dΩ . Ω
Ω
Somit lauten die Variationsgleichungen des Extremalproblems (8.64) (u) dF = 0 . v3 κΔ2 w − h div{ σ (u) grad w} − h f − h v · div σ Ω
Dem Extremalproblem (8.64) ist hier also das Randwertproblem = 0, κ = (u)(grad w)T = h f , div σ κΔ2 w − h div σ
Eh3 (8.65) 12(1 − ν)2
mit den gleichen Randbedingungen zugeordnet. Nach § 1.2(c2) gilt div(Sv) = v · div S + grad v : S f¨ ur S = S T ∈ R3 3 . In diesem Kontext schreibt man den (symmetrischen) Spannungstensor als Hesse-Matrix einer Spannungsfunktion q (Airysche Spannungsfunktion): σ x =
∂2q ∂2q ∂2q . , σ = , τ = − y xy ∂y 2 ∂x2 ∂x∂y
) und definiert das symmetrische Produkt (∇2 q = σ [u, v] = uxx vyy + uyy vxx − 2uxy vxy , (u) = [q, w] und aus (8.65) ergibt sich das System dann ist grad(grad w)T : σ =0 . κ Δ2 w − h [q, w] = h f , div σ Umgekehrt erh¨ alt man aus ε = C −1 σ die Beziehungen εx =
1 1 1+ν ( σx − ν σy − ν τxy , σy ) , εy = ( σx ) , γ xy = 2 E E E
also mit der Airyschen Spannungsfunktion q
(8.66)
¨ 8.9 Uber Fl¨ ussigkeiten und Gase
u1,x +
431
wy2 1 1 wx2 = (qyy − νqxx ) , u2,y + = (qxx − νqyy ) , 2 E 2 E 1+ν qxy . u1,y + u2,x + wx wy = −2 E
Die erste Gleichung wird zweimal nach y differenziert, die zweite zweimal nach x und die dritte nach x und nach y. Danach wird die erste und die zweite addiert und anschließend die dritte abgezogen. Zusammen mit der Bedingung = 0 ergeben sich dann die Von Karmanschen Gleichungen der nichtdiv σ linearen Plattentheorie κ Δ2 w − h [q, w] = h f E Δ2 q + [w, w] = 0 2
.
(8.67)
Unter einer Membran versteht man eine d¨ unne Platte, die durch Kr¨afte am Rand stark gedehnt wird. Ferner nimmt man an, dass die Komponenten des Spannungstensors konstant sind, dann kann der erste Term in (8.65) vernachl¨ assigt werden und man erh¨ alt die Gleichgewichtsbedingung div( σ grad w) + f = 0 .
(8.68)
= μδ , und Ist die Spannung μ [Kraft/L¨ ange] am Rand konstant, dann gilt σ es ergibt sich die Laplace-Gleichung μΔw + f = 0 .
¨ 8.9 Uber Flu ¨ ssigkeiten und Gase In der Hydrodynamik steht nicht mehr das Verschiebungsfeld im Vordergrund sondern das Vektorfeld der Geschwindigkeiten (velocity field) u(t, x) :=
∂Φ (t, X) , x = Φ(t, X) . ∂t
In grober Vereinfachung nennen wir kurzerhand ein differentielles System von Erhaltungsgleichungen Fluid, wenn die Spannung (neben der Zeit t) nur von der Geschwindigkeit abgh¨ angt und der Spannungstensor die Form t(t, x) = σ(t, u(x, t)) − p(t, x)δ , oder kurz t = σ(u) − pδ hat mit einer skalaren Funktion p (dem hydrostatischen Druck) und σ(t, 0) = 0 .
432
8 Kontinuumstheorie
(a) Erhaltungs¨ atze Wegen div(p(t, x)δ) = grad p(t, x) haben die differentiellen Erhaltungss¨ atze (8.15) die nichtkonservative Form ∂ + div( u) =0 ∂t ∂u + (grad u)u − div σ + grad p = f ∂t ∂e + grad e · u − div(σ u) + div(p u) + div q = f · u + r ∂t
(8.69)
mit e = ε + u · u/2 , wobei manchmal 1 grad(u · u) − u × rot u 2 gesetzt wird. Vgl. die Bezeichnungen von § 8.3, insbesondere ist ε die spezifische Energiedichte. (grad u)u =
(b) Einige Bezeichnungen (teilweise zur Erinnerung): (1◦ ) Ein ideales Fluid (perfect fluid, inviscid fluid) ist durch σ = 0 gekennzeichnet, dann gibt es keine tangentialen Kr¨afte im Innern und auf der Oberfl¨ aches des K¨ orpers“ also auch keine Wirbel. ” ◦ ur die Deformation Φ , alle Zeiten t (2 ) Ein Fluid ist inkompressibel , wenn f¨ und alle Teilvolumen gilt Φ(t, U ) ≡ dv = det[grad Φ(t, X)] dU = konstant . Φ(t,U )
U
Nach Lemma 8.4 folgt d Φ(t, U ) = det[grad Φ(t, X)] div u(t, Φ(t, X)) dU = 0 , dt U also ist ein Fluid inkompressibel g.d.w. div u(t, x) = 0 , d.h. wenn das Geschwindigkeitsfeld keine Quellen hat. Nach der Kontinuit¨ atsgleichung D + div u = 0 , Dt
(8.70)
ist dies genau dann der Fall, wenn D/Dt = 0 . ◦
(3 ) Ein Fluid ist homogen, wenn die Massendichte nicht von der Raumver¨ anderlichen x abh¨ angt, dann ist grad = 0 und D/Dt = d/dt . Nach (8.70) ist ein Fluid homogen und inkompressibel g.d.w. konstant in Raum und Zeit ist; dann ist div u = 0 . (4◦ ) Ein Fluid ist isentropisch , wenn die Entropie konstant ist. Dann verschwinden W¨ armequelldichte und W¨ armeflussvektor im Energieerhaltungssatz, q = 0 , r = 0 , und die innere Energie h¨angt (neben Raum und Zeit) nur von der Dichte und der Geschwindigkeit u ab.
¨ 8.9 Uber Fl¨ ussigkeiten und Gase
433
(5◦ ) Ein K¨ orper oder ein Fluid heißt isotropisch , wenn die Materialeigenschaften in allen Raumrichtungen gleich sind. ah oder (lineares, isotropisches) Newtonsches Fluid, (6◦ ) Ein Fluid heißt z¨ wenn Spannungstensor und Green-Lagrangescher Verzerrungstensor direkt proportional zueinander sind, d.h. wenn der Spannungstensor die Form 1 grad u + (grad u)T (8.71) σ(u) = 2με(u) , ε(u) = 2 hat. Die Proportionalit¨ atskonstante μ [P a · s] ist die Viskosit¨at des Fluids (Bezeichnungen nicht eindeutig). (7◦ ) In einem nicht-Newtonschen Fluid h¨ angt der Spannungstensor σ in nichtlinearer Weise vom Verzerrungstensor ε ab und seine Ableitungen, oder z.B. μ sind Funktionen von ε. Dann kann die skalare Funktioon p ihre physikalische Interpretation als Normalspannung verlieren und spielt die Rolle eines Lagrange-Multplikators. Wir f¨ uhren nun die folgenden Bezeichnungen ein: μ1 μ2 μ3 = (2μ1 + 3μ2 )/3 ν = μ1 /
die die die die
Scherz¨ ahigkeit Volumenz¨ahigkeit Druckz¨ ahigkeit kinematische Z¨ahigkeit
.
(8.72)
Nach [Zienkiewicz] II, p. 506 ff., hat ein (allgemeines) Newtonsches Fluid per definitionem den Spannungstensor σ(u) = 2μ1 ε(u) + μ2 spur ε(u)δ
2 2 μ1 + μ2 div uδ = 2μ1 ε(u) − μ1 (div u)δ + 3 3
1 = 2μ1 ε(u) − (div u)δ + μ3 (div u)δ 3
.
(8.73)
Dieser Spannungstensor hat die gleiche Form wie der Spannungstensor σ(u) ´f¨ ur das St.Venant-Kirchhoff-Material in § 8.5(d), aber die Lame Konstanten μ und λ sind durch die Viskosit¨ aten μ1 und μ2 ersetzt und u ist das Geschwindigkeitsfeld. Die Spur der eckigen Klammer in der letzten Gleichung von (8.73) ist Null, daher gibt der erste Term die infinitesimale Gestalt¨ anderung an und der zweite die infinitesimale Volumen¨anderung. (c) Erhaltungsgleichungen f¨ ur z¨ ahe Fluide Im Weiteren setzen wir voraus, dass die Materialgr¨ oßen μ1 und μ2 konstant in Raum und Zeit sind. Ferner soll grad p ein Spaltenvektor sein, wie auch aus dem Zusammenhang zu erkennen ist. Aus (8.42) folgt
434
8 Kontinuumstheorie
div σ(u) = μ1 Δu + (μ1 + μ2 ) grad div u
1 = μ1 Δu − grad div u + μ3 grad div u 3
1 div t = μ1 Δu − grad div u − grad(−μ3 div u + p) . 3 p ist wieder der hydrostatische Druck und p = −μ3 div u + p ist der verzerrungsabh¨ angige Druck. Bei inkompressiblen Fluiden sind beide gleich, im anaufig vernachl¨assigt oder es wird stillschweidern Fall wir der Term μ3 div u h¨ gend p statt p geschrieben. Einsetzen in den lokalen Impulserhaltungssatz in (8.69), eine Anwendung von Lemma 8.6 auf den lokalen Energieerhaltungssatz sowie die Kontinuit¨ atsgleichung ergeben dann zusammen die Erhaltungsgleichungen f¨ ur z¨ ahe Fluide in der nichtkonservativen Form D + div u =0 Dt Du − μ1 Δu − (μ1 + μ2 ) grad div u + grad p = f Dt Dε − ε(u) : σ(u) + p div(u) + div q = r Dt
.
(8.74)
Beispiel 8.6. Das Fluid ist homogen, grad = 0 , ideal, σ = 0 , isentropisch, q = 0 , r = 0 und kompressibel. Dann ergibt der Energiesatz in (8.69)
De + div(p u) = f · u . Dt
(8.75)
Anwendung der Kontinuit¨ atsgleichung D/Dt + div u = 0 ergibt De d ∂e ∂e D ∂e = e ((t, Φ(t, X))) = + − e div u , = Dt dt ∂t ∂ Dt ∂t und Einsetzen in (8.75) f¨ uhrt zu
∂e ∂e 2 − div u + (grad p)u + p div u = f · u . ∂t ∂
Wenn die innere Energie e nicht von der Zeit t abh¨angt, sowie grad p = 0 und f = 0 ist, dann ergibt diese Gleichung p − 2 (∂e/∂) = 0 nach Streichen ur sich integriert werden, wenn die von div u . Diese letztere Gleichung kann f¨ Funktion p = p() bekannt ist. Gase gen¨ ugen h¨aufig der Isentropengleichung p() = Aγ , A ≥ 0 , mit dem Adiabatenexponent γ ≥ 1 . Beispiel 8.7. Das Fluid ist homogen und inkompressibel, div u = 0 , und die innere Energie ist konstant (Temperatur konstant, W¨armefluss q = 0 , r weggelassen). Dann sind die zweite und dritte Gleichung in (8.72) ¨aquivalent f¨ ur atze haben die nichtkonservative Form div u = 0 und die Erhaltungss¨
8.10 Navier-Stokes-Gleichungen
∂/∂t + (grad )u + div u = 0 (Masse) ∂u/∂t + (grad u)u − μ1 Δu + grad p = f (Impuls) div u = 0 (Energie)
.
435
(8.76)
Die erste Gleichung kann weggelassen werden, weil ∂/∂t = 0 und grad = 0 nach Voraussetzung (homogenes, inkompressibles Fluid). Das verbleibende differential-algebraische System mit zwei Gleichungen l¨auft unter dem Namen Navier-Stokes-Gleichungen. [Gresho], p. 451: “The combination of the non-linear convective term and the pressure-velocity coupling makes the NS equations difficult to solve. If either is absent, the equations are much simpler and are known to have solutions – the limiting cases being Stokes flow and the so-called Burger’s equations ∂u/∂t+(grad u)u−μ1 Δu = 0 respectively”.
Beispiel 8.8. Das Fouriersche Gesetz f¨ ur den W¨armefluss q in einem isoarmeleitf¨ ahigkeit und tropischen Material lautet q = −κ grad ϑ , wobei κ die W¨ ϑ [K] die absolute Temperatur ist. Die spezifische (W¨arme-)Energiedichte ist ε = c ϑ mit der spezifischen W¨ armekapazit¨ at c [J/K ·kg] . Wenn wir die Terme ur grad u in (8.74) weglassen, erhalten wir aus h¨ oherer Ordnung ε(u) : σ(u) f¨ dem Energiesatz den Erhaltungssatz f¨ ur den W¨ armetransport: c ∂ϑ/∂t − div κ grad ϑ + p div u = r .
8.10 Navier-Stokes-Gleichungen (a) Geschwindigkeits-Druck-Form (Direkte Form) μ ν = μ/ pspec = p/ f u v q
Massendichte Scherz¨ ahigkeit, Z¨ ahigkeit, Viskosit¨at kinematische Viskosit¨at [Fl¨ache/Zeit] spezifischer Druck spezifische Volumenkraftdichte Geschwindigkeitsfeld in R2 oder R3 Testfunktion f¨ ur u Testfunktion f¨ ur p
Wir betrachten das System (8.76) unter der Annahme: und μ sind konstant in Raum und Zeit.
(8.77)
436
8 Kontinuumstheorie
Nach Division durch ergeben sich dann aus dem Impulserhaltungssatz die Navier-Stokes-Gleichungen (NS-Gleichungen) ∂u + (grad u)u − νΔu + grad pspec = f , div u = 0 ∂t
(8.78)
auf einem beschr¨ ankten Bereich Ω mit hinreichend glattem Rand Γ = ∂Ω und auf einem endlichen oder unendlichen Zeitintervall T = [0 , T ] . (a1) F¨ ur die weiteren Untersuchungen, zur Einf¨ uhrung passender Randbedingungen, wie auch zur numerischen Approximation gehen wir wieder zur schwachen Form von (8.78) u ¨ber. Dazu sind die folgenden Produkte notwendig, wobei ui = ui (t, x) ∈ R die Komponenten von u usw. sein sollen: (v, u) = v · u dΩ = vi ui dΩ , (v, u)Γ = v · u dΓ Ω Ω i Γ grad v : grad u dΩ = (grad vi , grad ui ) dΩ Ω
Ω
Ω
i
v · grad p dΩ = − v · Δu dΩ
Ω
=−
Ω
p v · n dΓ , grad v : grad u dΩ + v(grad u)n dΓ . p div v dΩ +
Ω
Γ
Γ
Außerdem f¨ uhren wir eine Bilinearform und eine Trilinearform ein: grad v : grad u dΩ , b(v, q) = div v q dΩ , a(v, u) = ν Ω Ω v · (grad u)w dΩ . c(v, u, w) =
(8.79)
Ω
Die beiden Gleichungen in (8.78) werden mit Testfunktionen v und q multipliziert und anschließend u ¨ber Ω integriert. Nach einer partiellen Integration ist das Ergebnis die schwache nichtlineare Geschwindigkeits-Druck-Form (v, ∂u/∂t) +a(v, u) + c(v, u, w) − b(v, pspec ) − b(u, q) σ n (u, pspec )
(= null im station¨aren Fall) = (v, f ) + (v, σ n (u, pspec ))Γ , v ∈ V = 0, q ∈ Q = (ν grad u − pspec )n
(8.80) Wiederum m¨ ussen die Vektorr¨ aume V und Q so spezifiziert werden, dass diese Gleichungen bzw. ihre Integrale einen Sinn machen. Die schwache Form (8.80) der NS-Gleichungen erfordert weniger Glattheit f¨ ur die L¨osungen u und p als die explizite Form (8.78), und sie stellt die geringsten Forderungen an die Glattheit der L¨ osung im Vergleich zu den nachfolgenden Modifikationen in (d) und (e).
8.10 Navier-Stokes-Gleichungen
437
(a2) Um das Modell mathematisch und physikalisch vollst¨andig zu machen, m¨ ussen geeignete Randbedingungen uhrt werden. Zur eindeuti eingef¨ p dΩ = 0 gefordert werden, oder
gen L¨ osbarkeit muss zun¨ achst entweder Ω
es muss ein Wert von p in Ω vorgegeben werden. Beide Bedingungen ziehen numerische Instabilit¨ aten nach sich. Die erste Bedingung fungiert als ¨außere Zwangsbedingung und bei der zweiten h¨ angt sozusagen das ganze System an diesem einen Punkt. Es sei U := H1 (Ω; Rn ) , n = 2 oder 3 , der Hilbert-Raum der schwach differenzierbaren Funktionen und L2 (Ω) der Raum der quadratisch L-integrierbaren Funktionen, jeweils auf Ω; vgl. § 1.7. Der Funktionenraum V ist dann immer eine Unterraum von U , der durch Randbedingungen weiter spezifiziert wird. Beispiel 8.9. Das Geschwindigkeitsfeld u sei auf dem ganzen Rand von Ω vorgegeben, u = g auf Γ . Dann sind q dΩ = 0} . V := {v ∈ U , v = 0 auf Γ } , Q := {q ∈ L2 (Ω) , Ω
Ist nun u0 ∈ U eine Funktion auf Ω mit u0 = g auf Γ , dann ist die L¨osung u ein Element aus dem affinen Vektorraum u0 + V mit Testfunktionen v ∈ V . Weil v = 0 auf Γ ist, verschwindet der Randterm auf der rechten Seite von (8.80) und die linearen station¨ aren Gleichungen (8.80) definieren ein Sattelpunktproblem: Man bestimme ein Paar (u, p) ∈ (u0 + V) × Q so, dass ∀ v ∈ V : a(v, u) − b(v, p) = (v, f ) ∀ q ∈ Q : −b(u, q)
=0
,
Beispiel 8.10. Der Rand Γ bestehe aus zwei disjunkten Segmenten ΓD und ΓN , und das Segment ΓD soll abgeschlossen und nicht leer sein; in Kurzschreibweise Γ = ΓD ⊕ Γ N . Auf dem Segment ΓD der Dirichlet-Randbedingungen sei u vorgegeben, u = g D . Dann muss u0 eine Funktion mit u0 = g D auf ΓD sein und V := {v ∈ U , v = 0 auf ΓD } , woraus (v, σ n (u, pspec ))Γ = (v, σ n (u, pspec ))ΓN folgt. Wir k¨ onnen daher auf dem Segment ΓN der Neumann-Randbedingungen die Werte von σ n vorschreiben: σ n (u, pspec ) = g N auf ΓN .
(8.81)
438
8 Kontinuumstheorie
(F¨ ur g N = 0 heißen diese Neumann-Bedingungen homogen.) Das resultierende schwache Randwertproblem f¨ ur die linearen, station¨ aren StokesGleichungen ist wieder ein Sattelpunktproblem: Man bestimme ein Paar (u, p) ∈ (u0 + V) × Q so, dass ∀ v ∈ V : a(v, u) − b(v, p) = (v, f ) + (v, g N )ΓN ∀ q ∈ Q : −b(u, q)
=0
.
(8.82)
Das Beispiel zeigt, dass wir es mit zwei v¨ ollig verschiedenen Typen von Randbedingungen zu tun haben; vgl. § 4.1. Die wesentlichen oder geometrischen Randbedingungen u = g D auf ΓD legen den affinen Raum u0 +V der L¨osungen urlichen oder dynamischen Bedingungen (8.81) treten alu fest, und die nat¨ lenfalls im inhomogenen Fall durch die rechte Seite (v, g N )ΓN in Erscheinung, obwohl die schwache L¨ osung beide Randbedingungen erf¨ ullt. Dieser Sachverhalt u agt sich auch auf die numerische Approximation des schwachen ¨bertr¨ Problems. Die Finite-Element-Approximationen erf¨ ullen stets die wesentlichen Randbedingungen aber die nat¨ urlichen Randbedingungen nur im Grenz¨ ubergang infinitisimaler Verfeinerung (im Falle der Konvergenz). (a3) Im vorliegenden Fall allgemeiner linear-quadratischer Sattelpunktprobleme auf Funktionenr¨ aumen liefert ein bekanntes Resultat die Existenz in gewisser Analogie zum endlichdimensionalen Fall bei Lemma 1.2: Satz 8.11. (Eindeutige Existenz) Es seien V, Q Hilbert-R¨ aume, und es sei f ∈ V und g ∈ Q . Das Sattelpunktproblem ∀ v ∈ V : a(v, u) − b(v, p) = (v, f ) = (g, q) ∀ q ∈ Q : −b(u, q)
(8.83)
hat eine eindeutige L¨ osung (u, p) ∈ V × Q g.d.w. die folgenden Bedingungen erf¨ ullt sind: ankt, (1◦ ) Die symmetrische Bilinearform a : V × V → R is beschr¨ ∃ β > 0 ∀ v ∈ V : a(v, v) ≤ βv2 . (2◦ ) Die Bilinearform b : V × Q → R ist beschr¨ ankt, ∃ κ > 0 ∀ v ∈ V ∀ q ∈ Q : b(v, q) ≤ κvq . (3◦ ) Es sei W := {v ∈ V ; ∀ q ∈ Q : b(v, q) = 0} der Kern “ von b . Die ” Bilinearform a ist elliptisch auf W , ∃ α > 0 ∀ v ∈ W : a(v, v) ≥ αv2 . (4◦ ) Die Bilinearform b gehorcht der Babuska-Brezzi-Bedingung (Inf-SupBedingung) b(v, q) ≥γ. ∃ γ > 0 : Inf q∈Q Sup v∈V vq Beweis z.B. [Braess], [Brenner].
8.10 Navier-Stokes-Gleichungen
439
Man spricht hier auch von einem gemischten Problem, weil V und Q verschiedene Vektorr¨ aume sind. Die Inf-Sup-Bedingung ersetzt zusammen mit (3◦ ) die Voraussetzung in Lemma 1.2, dass die Matrix A positiv definit auf dem Kern von B ist und dass B ur die Finite-Elementrangmaximal ist. Das gefeierte Ergebnis (4◦ ) ist auch f¨ Methode von entscheidender Bedeutung, wo V und Q durch endlichdimensionale Vektorr¨ aume ersetzt sind. Unter anderem zeigt sich, dass die Kompoohere Approximationsordnung als der nenten des Str¨ omungsvektors u eine h¨ Druck p haben m¨ ussen; vgl. etwa [Braess]. (b) Randwertproblem f¨ ur die Geschwindigkeits-Druck-Form Es sei Ω ⊂ R2 ein ebener Bereich, und es bestehe der Rand Γ aus drei disjunkten Teilen, Γ = ∂Ω = ΓD ⊕ ΓN ⊕ ΓG ( G“ steht f¨ ur gemischt“) . Das Randsegment ΓD soll wieder geschlossen und ” ” nicht leer sein, w¨ ahrend ΓN und/oder ΓG leer sein k¨onnen. Es sei {t1 (x), t2 (x)} ein beliebiges Orthogonalsystem in jedem Punkt der glatten Randteile, insbesondere kann {t1 , t2 } = {n, t} oder {t1 , t2 } = {t, −n} gew¨ahlt werden mit t und n als normierte Tangential- und Normalenvektoren. Es gilt dann at I , und f¨ ur die inhomogene RandbeI = t1 tT1 + t2 tT2 in R2 2 mit der Identit¨ onnen wir schreiben dingung (v, σ n (u, p))Γ = (v, g)Γ k¨ v · σ n (u, p) dΓ = v · σ n (u, p) dΓ + v · (t1 tT1 + t2 tT2 )σ n (u, p) dΓ . ΓD ∪ΓN
Γ
ΓG
Die allgemeine Dirichlet-Randbedingung u = g D auf ΓD , u · t1 = g1,G ∈ R auf ΓG impliziert f¨ ur die Testfunktion v v = 0 auf ΓD , v · t1 = 0 auf ΓG , und es folgt dann v · σ n (u, p) dΓ = Γ
ΓN
v · σ n (u, p) dΓ +
v · t2 tT2 σ n (u, p) dΓ . ΓG
Andererseits ist v beliebig auf ΓN und v · t2 beliebig auf ΓG , daher sind σ n (u, p) = g N auf ΓN , tT2 σ n (u, p) = g2,G ∈ R auf ΓG nat¨ urliche Randbedingungen. (Nat¨ urlich k¨ onnen die rechten Seiten auch Null sein.) Die wesentliche Randbedingung u · t1 = g1,G auf ΓG impliziert die nat¨ urliche Randbedingung t2T σ n (u, p) = g2,G auf ΓG . Auf dem Randteil ΓG existieren daher gleichzeitig wesentliche und nat¨ urliche Randbedingungen!
440
8 Kontinuumstheorie
Nach diesen Vorbereitungen hat ein allgemeines Randwertproblem f¨ ur die station¨ aren Navier-Stokes-Gleichungen die Form −νΔu + (grad u)u + grad pspec = f − div u = 0 u = gD t1 · u = g1,G t2 · σ n (u, pspec ) = g2,m σ n (u, pspec ) = g N
in Ω in Ω auf ΓD auf Γm auf Γm auf ΓN
(wesentliche RB) (wesentliche RB) (nat¨ urliche RB) (nat¨ urliche RB)
.
(8.84) Zur eindeutigen Existenz einer L¨ osung m¨ ussen neben Glattheitsbedingungen auch gewisse Gleichgewichtsbedingungen f¨ ur die rechten Seiten f in Ω und g auf Γ erf¨ ullt sein. Vgl. z.B. [Gresho]. Beispiel 8.11. [Orlt] Es sei t(x) der Tangentialvektor auf dem Rand Γ von Ω ⊂ R2 , Menge der in Ω Lipschitz-stetigen Funktionen, C 0,1 = "
0 −x2 , W = v ∈ C 0,1 (Ω)2 , ∀ x ∈ Γ : v(x) · t(x) = 0 , v(x) = a + b x1 Γ0 = ΓN ∪ (ΓG \{x ∈ ΓG , t1 (x) = ±n(x)}) . Der Raum W besteht aus allen starren Bewegungen im R2 (Translation und Drehung), die nicht durch homogene wesentliche Randbbedingungen verhindert werden, und Γ0 ist diejenige Teilmenge des Randes, auf der die Normalkomponente von u nicht festgelegt ist. Eine L¨osung des Randwertproblems existiert dann im schwachen Sinn, wenn die folgenden Bedingungen f¨ ur die rechten Seiten erf¨ ullt sind: (f , v)Γ + (g, v)ΓN = 0 f¨ ur v ∈ W falls Γ0 = ∅ (n, g)ΓD = 0 allt die zweite Bedingung. Ferner muss f¨ ur Γ0 = ∅ entf¨ ein Wert f¨ ur den Druck vorgeschrieben werden.
; Ω
p = 0 gelten oder
Weitere Ergebnisse findet man z.B. bei [Gresho] oder in der umfassenden Darstellung von [Orlt]. (c) Dimensionsloses System Siehe auch § 9.7 (a). Wir betrachten noch einmal die Impulsgleichung in (8.76) mit konstanter Massendichte und dem spezifischen Druck pspec = p/ , ∂u/∂t + (grad u)u − νΔu + grad pspec = f .
(8.85)
Vor der numerischen L¨ osung ist die Transformation auf ein dimensionsloses System empfehlenswert. Dazu muss der Anwender eine charakteristische
8.10 Navier-Stokes-Gleichungen
441
L¨ ange L und eine charakteristische Geschwindigkeit U einbringen, die vom uhrt als Verh¨altModell abh¨ angen. Dann wird die Reynolds-Zahl Re eingef¨ nis zwischen advektivem und diffusivem Impulstransport x = Lx , u = U u , Re =
UL . ν
(8.86)
Die Reynolds-Zahl muss stets unterhalb eines kritischen Wertes bleiben, weil hier nur laminare Str¨ omungen Gegenstand der Betrachtung sind. 1. Fall: Wir f¨ uhren eine charakteristische Zeit L2 /ν (Fourier-Zeit) ein und einen charakteristischen Druck μU/L , μ = ν , t=
ν U L2 t, p = p . ν L
(8.87)
Dann ergibt Multiplikation von (8.85) mit L2 /νU das dimensionslose System ∂ u L2 f. + Re (grad u ) u − Δ u + grad p = f , f = νU ∂ t
(8.88)
Weil der Tangentialvektor dimensionsfrei ist, m¨ ussen beide nat¨ urlichen Randbedingungen in (8.84) mit L/νU multipliziert werden: σ n ( u, p)n = (grad u − p)n =
L g =: g. νU
2. Fall: Wir f¨ uhren eine charakteristische Zeit L/U und einen charakteristischen Druck U 2 ein, L (8.89) t= t , p = U 2 p . U Multiplikation von (8.85) mit L/U 2 ergibt die alternative dimensionslose Form ∂ u 1 L + (grad u ) u− Δ u + grad p = f , f = 2 f . R U ∂t e
(8.90)
Die nat¨ urlichen Randbedingungen in (8.84) m¨ ussen jetzt durch U 2 dividiert werden: 1 1 u, p)n = grad u − p n = 2 g =: g. σ n ( Re U In beiden F¨ allen m¨ ussen die wesentlichen Randbedingungen in (8.82) durch g, g = g/U . U dividiert werden so, dass z.B. u = Insgesamt bietet sich das dimensionslose System (8.88) f¨ ur den Fall niedriger Reynolds-Zahlen an und ergibt das lineare Stokes-Problem f¨ ur Re = 0 , w¨ ahrend (8.90) bei advektionsdominierte Problemen mit hoher Zahl Re vorzuziehen ist. (Der nichtlineare Term (grad u)u wird in der Literatur teils Advektionsterm und teils Konvektionsterm genannt.)
442
8 Kontinuumstheorie
(d) Stromfunktion-Wirbel-Form Ist im R2 z(x, y) = c , c ∈ R , eine implizite Darstellung des Flusses zum Geschwindigkeitsfeld v = (u, v) mit der Stromfunktion z, und ist ferner x(t) = (x(t), y(t)) eine Stromlinie, dann gilt dz = zx x˙ + zy y˙ = 0 . dt Nach Wahl des Vorzeichens folgt hieraus zy = u , zx = −v , v =: curl z .
(8.91)
Die Wirbelst¨ arke (vorticity) w [1/Zeit] des Geschwindigkeitsfeldes v ist im R2 definiert durch w = vx − u y , (8.92) und hieraus folgt direkt der Zusammenhang Δz = −w .
(8.93)
Bei einem idealen Fluid ist die Wirbelst¨ arke w Null, also Δz = 0 . Ferner ist dann wegen w = 0 das Geschwindigkeitsfeld v ein Gradientenfeld mit einer Potentialfunktion Ψ , grad Ψ = v . Leitet man in der Navier-Stokes-Gleichung ut + (grad u)u − νΔu + grad p = f ∈ R2 die zweite Gleichung nach x , die erste Gleichung nach y ab und subtrahiert die erste von der zweiten, dann ergibt sich zusammen mit der Gleichung Δz = −w die Stromfunktion-Wirbel-Form wt − νΔw + curl z · grad w = f2,x − f1,y ≡ rot f −Δz − w = 0
(8.94)
mit dem nichtlinearen Term curl z · grad w = zy wx − zx wy . Damit ist der Druck p eliminiert. Die station¨ aren Gleichungen (8.94) bilden ein nichtlineares elliptisches System −Δz − w = 0 −Δw + ν −1 zy wx − ν −1 zx wy = g , g = ν −1 rot f also
div(C11 grad z + C12 grad w) 01 z 0 + = 00 w g div(C21 grad z + C22 grad w)
8.10 Navier-Stokes-Gleichungen
C11 =
10 00 0 ν −1 w 10 , C12 = , C21 = , C22 = −1 01 00 01 −ν w 0
443
.
Die Stromfunktion-Wirbel-Form stellt h¨ ohere Anforderungen an die Glattheit der Daten, was sich besonders in den Ecken des Gebietes Ω bemerkbar macht. Andererseits gestattet sie die Anwendung einfacher Finite-Element-Methoden mit linearen Dreieckselementen. (e) Zusammenhang mit der Plattengleichung Wir betrachten die lineare Stokes-Gleichung im R2 mit Dirichlet-Randbedingung −Δu + grad p = f in Ω div u = 0 u = g auf Γ
.
(8.95)
(1◦ ) Nach dem Helmholtzschen Zerlegungssatz 1.7 gilt u = grad ϕ + rot v f¨ ur jedes (glatte) Vektorfeld u . Weil grad ϕ nachher wegf¨allt, setzen wir u als Wirbelfeld an u = rot v: −Δ rot v + grad p = f , div rot v = 0 .
(8.96)
Die zweite Gleichung gilt f¨ ur jedes (glatte) Vektorfeld, damit ist u quellenfrei (solenoidal). (2◦ ) Es gilt rot rot u = grad div u − Δu in R3 . Anwendung auf (8.96) und Einsetzen in (8.95) ergibt −Δ rot v = rot3 v − grad div rot v = f rot3 v + grad p = f .
(8.97)
(3◦ ) Wende rot“ auf (8.97) an, rot4 v +rot grad p = rot f , dann ist der Druck ” eliminiert, weil ein Gradientenfeld wirbelfrei ist. rot4 v = rot f in Ω rot v = u0 auf Γ
.
(8.98)
(4◦ ) Es sei nun u3 = 0 , d.h. u ein ebenes Vektorfeld im R2 . Wegen u = rot v folgt u3 = v2,x − v1,y = 0 . Weil u ein ebenes Vektorfeld ist, k¨onnen wir v1 = v2 = 0 setzen, damit folgt rot v = [v3,y − v2,z , v1,z − v3,x , v2,x − v1,y ]T = [v3,y , −v3,x , 0]T rot2 v = [0, 0, −v3,xx − v3,yy ]T rot3 v = [−v3,xxy − v3,yyy , v3,xxx + v3,yyx , 0]T rot4 v = [0, 0, v3,xxxx + v3,yyxx + v3,xxyy + v3,yyyy ]T . Setzen wir nun v3 = z , dann ist z die Stromfunktion wegen u = rot v und v1 = v2 = 0 , und es ist
444
8 Kontinuumstheorie
u1 = v3,y = zy ,
u2 = −v3,x = −zx ,
sowie Δ2 z = (rot4 v)3 = zxxxx + 2zxxyy + zyyyy . Weil keine Kraft in z-Richtung vorliegt, f3 = 0 , ergibt sich schließlich aus (8.98) die folgende Form der Stokes-Gleichung f¨ ur z : Δ2 z = (rot f )3 = f2,x − f1,y . (5◦ ) Auf Γ schreiben wir t = (dx, dy) f¨ ur den Tangenten- und n = (dy, −dx) f¨ ur den Normalenvektor. Wegen rot v = u0 auf Γ und u0,3 = 0 ist dort zy = u0,1 und zx = −u0,2 . Weiter ist zn = zx n1 + zy n2 = zx dy − zy dx = −u0,2 dy − u0,1 dx = −u0 · t auf Γ sowie s s (zx dx + zy dy) + c = (−u0,2 dx + u0,1 dy) + c z(x(s)) = s0 s0s = u0 · n ds + c , s0
also zusammen auf Γ zn = −u0 · t und z = 0 f¨ ur u0 · n = 0 . Insgesamt entsteht ein lineares Randwertproblem vierter Ordnung f¨ ur z: Δ2 z = f2,x − f1,y in Ω z(x) = g · n ds + κ auf Γ
,
C(x)⊂ΓD
zn = g · t
auf Γ
wobei C(x) ⊂ Γ ein Kurvenst¨ uck von x0 bis x ist und κ eine beliebige Konstante (z.B. κ = 0). (f ) Poisson-Gleichung f¨ ur den Druck Bei der numerischen Behandlung von Navier-Stokes-Gleichungen sind die Ergebnisse f¨ ur den Druck p oft wenig u berzeugend. Es ist daher sinnvoll, p noch auf andere Weise als L¨osung ¨ eines reinen Poisson-Problems zu berechnen. Dieses Problem hat allerdings reine Neumannsche Randbedingungen, so dass ebenfalls ein Referenzwert f¨ ur p dV = 0 als Normalisierungsbedingung p im Bereich Ω vorgegeben oder Ω
gefordert werden muss. Beide Zusatzbedingungen f¨ uhren auch hier zu erheblichen Instabilit¨ aten. (f1) Zur Beachtung des Druckes aus dem Str¨ omungsfeld u beachten wir Δv = div(grad v)T = [grad div v]T .
8.10 Navier-Stokes-Gleichungen
445
und wenden den Divergenzoperator auf die lineare Stokes-Gleichung −Δu + grad p = f an mit dem Ergebnis − div Δu + div grad p = div f . Es gilt nun div Δu = div div grad u = div grad div u = Δ div u = 0 , weil div u nach Voraussetzung Null ist, also folgt Δp = div f . Multiplizieren wir andererseits die Stokes-Gleichung auf dem Rand Γ mit dem Normalenvektor n, so ergibt sich die Bedingung Δu · n + ∂p/∂n = f · n . Daraus folgt f¨ ur p insgesamt das Neumannsche Randwertproblem Δp = div f in Ω ∂p = Δu · n + f · n auf ∂Ω ∂n
.
(f2) [Sohn]. Wir betrachten noch einmal die inhomogenen dimensionslosen Navier-Stokes-Gleichungen equation (8.90), ∂u 1 + (∇u)u − Δu + ∇p = f , div u = 0 . ∂t Re
(8.99)
Eine andere Form der Poisson-Gleichung f¨ ur den Druck erhalten wir durch Anwendung des Divergenzoperators auf (8.99) unter Beachtung von div u = 0 : Δp = −∇[(∇u)u] + Re−1 [(Δu)x + (Δv)y ] + div f .
(8.100)
Wir multiplizieren diese Gleichung mit einer Testfunktion q , integrieren u ¨ber Ω und wenden den Satz von Green an. Das Ergebnis ist die schwache Form des Problems, ∇q · ∇p dΩ = − ∇q · (∇u)u dΩ + Re−1 ∇q · Δu dΩ + q · div f dΩ Ω Ω Ω Ω qn · [(∇u)u + ∇p − Re−1 Δu] dΓ , + Γ
(8.101) wobei n der nach außen zeigende normierte Normalenvektor auf dem Rand Γ = ∂Ω ist. Nochmaliges Einsetzen der Impulsgleichung (8.99) in das Kurvenintegral ergibt −1 ∇q · ∇p dΩ = − ∇q · (∇u)u dΩ + Re ∇q · Δu dΩ Ω Ω Ω (8.102) ∂u · n dΓ . q · div f dΩ − q + Ω Γ ∂t
446
8 Kontinuumstheorie
Das Kurvenintegral verschwindet an allen festen R¨andern und/oder bei station¨aren Problemen. Es ist nur bei offenen R¨ andern von instation¨aren Problemen von Null verschieden oder wenn die Str¨ omung durch eine zeitlich variierende Bewegung am Rand erzeugt wird. Andererseits erfordert die rechte Seite von (8.102) die Berechnung der zweiten Ableitungen des Flusses u , der im ¨ Ubrigen global nur als stetige Funktion bekannt ist. Bei linearen oder bilinearen Ansatzfunktionen in der Finite-Element-Methode bedeutet dies zun¨achst einen Nachteil. Nach [Sohn] werden in diesem Fall die ersten Ableitungen mit Hilfe der Methode der kleinsten Fehlerquadrate approximiert und vom Ergebnis noch einmal die Ableitungen gebildet. Auf diese Weise kann die rechte Seite in (8.102) wenigsten lokal berechnet werden, und das Poisson-Problem liefert im Rahmen des M¨ oglichen brauchbare Ergebnisse f¨ ur den Druck. Vgl. KAPITEL09/STOKES/pressure.m.
9 Finite Elemente
9.1 Elliptische Randwertprobleme In diesem Abschnitt werden die drei Gesichter eines Randwertproblems beschrieben, wozu sich die klassische Potentialgleichung in besonderer Weise anbietet. Sie kommt bei vielen Modellbildungen vor, etwa bei der Durchbiegung einer elastischen Membran, bei der station¨aren W¨armeverteilung in einer Platte, oder bei der Berechnung von Minimalfl¨achen, ganz zu schweigen von der Darstellung elektrischer Felder. angende Menge (Gebiet) mit st¨ uckweise Es sei Ω ⊂ R3 eine offene zusammenh¨ glattem Rand Γ := ∂Ω . Der Rand muss gewisse Regularit¨ atsbedingungen erf¨ ullen, auf die aber nicht weiter eingegangen werden soll; vgl. z.B. [Braess], [Velte]. Es seien alle vorkommende Funktionen auf Ω definiert und hinreichend glatt. Wegen der beiden m¨ oglichen Typen von Randbedingungen (RB) sei der Rand aufgeteilt in Dirichlet-Rand ΓD und Cauchy-Rand ΓC : ∅ = ΓD ⊂ Γ, ΓC ⊂ Γ, ΓD und ΓC in Γ offen, ΓD ∩ Γ C = ∅ , Γ = Γ D ∪ Γ C ,
(9.1)
wof¨ ur wir zur Abk¨ urzung Γ = ΓD ⊕ ΓC schreiben. Ferner soll es in jedem Punkt von ΓC einen nach außen weisenden Normalenvektor n geben, der auf die L¨ ange Eins normiert ist. (a) Das Extremalproblem Ausgangspunkt in diesem Abschnitt und in k¨ unftigen Betrachtungen u are Probleme ist das Extremalproblem ¨ber station¨ f¨ ur die Energie des geschlossenenen Systems, wie es in § 1.11 beschrieben wurde. Bei linearen skalaren elliptischen Problemen hat das Energiefunktional“ ” die allgemeine Form 1 2 β(x)u2 − γ(x)u dΓ ∇u · A(x)∇u + (x)u − f (x)u dΩ + J(u) = 2 Ω ΓC (9.2) E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 9, c Springer-Verlag Berlin Heidelberg 2010
448
9 Finite Elemente
f¨ ur vorgegebene stetige Funktionen A : Ω → R3 3 , , f : Ω → R und β, γ, δ : Γ → R . Die Matrix A ist symmetrisch positiv definit und ≥ 0; entsprechende Modifikationen f¨ ur zweidimensionale Probleme sind offensichtlich. Die physikalische Bedeutung der einzelnen Eintr¨age ist unterschiedlich und soll sp¨ ater beschrieben werden. Definitionsbereich von J(u) ist ein affiner Unterraum u0 + U ⊂ V in einem Funktionenraum V. Im Einzelnen ist V der Vektorraum aller Funktionen u , f¨ ur die J(u) existiert, U = {v ∈ V , v = 0 auf ΓD } ⊂ V der Unterraum aller Funktionen, welche die homogenen Dirichlet-Randbedingungen erf¨ ullen, (9.3) u0 + U ⊂ V , u0 = δ auf ΓD der affine Unterraum aller Funktionen, welche die inhomogenen Dirichlet-Rand-bedingungen erf¨ ullen . Die Funktion u0 ∈ V ist bis auf die genannte Forderung frei w¨ahlbar. (b) Die schwache Form Zu dem Extremalproblem (9.2) gibt es nach dem Charakterisierungssatz 1.26 ein Variationsproblem (Eulersche Gleichung), das im Folgenden schwache Form des Problems genannt wird, ∃ u ∈ u0 + U ∀ v ∈ U : ∇v · A(x)∇u + v u dΩ + Ω
β v u dΓ =
ΓC
v γ dΓ +
ΓC
. v f dΩ
Ω
(9.4) (c) Das Randwertproblem Eine Anwendung der Greenschen Formel auf (9.4) ergibt v −div A(x) grad u+ u−f dΩ+ v grad u·n+β u−γ dΓ = 0 . (9.5) Ω
ΓC
Die Testfunktionen v m¨ ussen auf ΓD Null sein, damit f¨ ur |ε| 1 jedes u + ahlt man zuerst v beliebig mit v = 0 auf εv ebenfalls in u0 + V liegt. W¨ dem ganzen Rand, dann muss die erste eckige Klammer Null sein. W¨ahlt man anschließend v auf ΓC beliebig, dann muss die zweite eckige Klammer verschwinden. Zusammen ergibt sich das Randwertproblem − div(A(x) grad u) + u = f , x ∈ Ω u = δ , x ∈ ΓD Dirichlet-Randbedingung grad u · n + β u = γ , x ∈ ΓC Cauchy-Randbedingung
.
(9.6) Die Cauchy-Randbedingung, auch dritte Randbedingung genannt, heißt Neumann-Bedingung, wenn β Null ist. Offenbar ist jede L¨ osung des Randwertproblems (9.6) auch L¨osung des schwachen Problems. Die Umkehrung gilt aber nur, wenn die L¨osung von (9.5) hinreichend glatt ist. Alle Vergleichsfunktionen u + εv im schwachen Problem
9.1 Elliptische Randwertprobleme
449
(9.4) m¨ ussen die Dirichlet-Randbedingung erf¨ ullen, w¨ahrend die CauchyRandbedingung nicht explizit bzw. nur u ¨ber ihre rechte Seite γ explizit in das schwache Problem eingeht. Damit sind die Dirichlet-Randbedingungen wesentliche oder geometrische Randbedingungen, und die Cauchy-Randbedingungen nat¨ urliche oder dynamische Randbedingungen; vgl. § 4.1(a). (d) L¨ osbarkeit Zum Nachweis der Existenz von L¨osungen muss das Problem (9.2) in den Kontext von quadratischen Funktionalen gestellt und der EE-Satz 1.25 angewendet werden. Dazu m¨ ussen die Bestandteile: Vektorraum U , Bilinearform a und die Funktion u0 : Ω → R mit u0 = δ auf ΓD geeignet definiert werden. Wir setzen voraus, dass Ω ein beschr¨ anktes Gebiet mit den oben genannten aber nicht n¨ aher beschriebenen Regularit¨atseigenschaften ist und dass eine solche Funktion u0 existiert. Dann ist die Stetigkeit der Bilinearform a im Wesentlichen gesichert, und wir k¨onnen uns gem¨aß (1.61) bei Dirichlet-Randbedingungen auf den homogenen Fall beschr¨anken. Schließlich sei die Matrix A(x) gleichm¨ aßig positiv definit auf Ω, ∃ α > 0 ∀ x ∈ Ω ∀ 0 = y ∈ R3 : y T A(x)y ≥ α y T y . (d1) Zum Problem mit Dirichlet-Randbedingung, − div(A grad u) + u = f , x ∈ Ω ; u = 0 , x ∈ Γ , , f ∈ C(Ω) , u ∈ C 2 (Ω) , geh¨ ort die schwache Form ∀ v ∈ H01 (Ω) : (∇v · A∇u + v · u) dΩ = v · f dΩ =: (v, f ) , a(v, u) := Ω
(9.7)
(9.8)
Ω
ur ≥ 0 folgt die Elliptizit¨at der Bilinearform a , f ∈ L2 (Ω) , u ∈ H01 (Ω) . F¨ ´-Friedrichsauf dem Hilbert-Raum U = H01 (Ω) sofort aus der Poincare Ungleichung, Lemma 1.13, daher hat das schwache Problem nach dem EESatz f¨ ur quadratische Funktionale eine eindeutige L¨osung u ∈ H01 . (d2) Zum Problem mit gemischter Randbedingung, − div(A grad u) + u = f , x ∈ Ω ; u = 0 , x ∈ ΓD , grad u · n + β u = γ , x ∈ ΓC , β, γ ∈ C(Γ C ) , geh¨ ort die schwache Form ∀ v ∈ U : β vu dΓ = (v, f ) + a∗ (v, u) := a(v, u) + ΓC
γ v dΓ =: f ∗ (v)
(9.9)
(9.10)
ΓC
, f ∈ L2 (Ω) , β, γ ∈ L2 (ΓC ) , u ∈ U , auf dem Hilbert-Raum U , H01 (Ω) ⊂ U := {v ∈ H 1 (Ω), v = 0 auf ΓD } ⊂ H 1 (Ω) .
F¨ ur ΓD dΓ > 0 ist U ∈ H 1 (Ω) ein abgeschlossener Unterraum nach Folgerung 1.5. Zum Nachweis der eindeutigen Existenz einer L¨osung des schwachen Problems (9.10) muss also wieder die U-Elliptizit¨ at der Bilinearform a∗ verifiziert werden. F¨ ur ≥ 0 und β ≥ 0 gilt
450
9 Finite Elemente
∀v∈U :
v 2 dΩ ≥ 0 , Ω
β v 2 dΓ ≥ 0 , ΓC
und daher nach § 1.7, Beispiel 1.15(2◦ ) a∗ (v, v) ≥ |v|2 ≥ m(Ω) v21 , m(Ω) > 0 . F¨ ur die Absch¨ atzung a∗ (v, v) ≤ M (Ω) v21 folgt aus dem Spursatz 1.15: 2 β v dΓ ≤ βmax v 2 dΓ ≤ konst. v1,Ω , ΓC
Γ
und ebenso f¨ ur die Beschr¨ anktheit von f ∗
1/2 1/2 γ v dΓ ≤ γ 2 dΓ v 2 dΓ ≤ konst. v0 ≤ konst. v1 . ΓC
ΓC
Γ
Nach dem EE-Satz existiert also wieder eine eindeutige L¨osung u ∈ U von (9.10). (d3) Zum Problem mit reiner Cauchy-Randbedingung, − div(A grad u) + u = f , grad u · n + β u = γ , x ∈ Γ , β, γ ∈ C(Γ ) , geh¨ ort die schwache Form
∗
∀ v ∈ U : a (v, u) := a(v, u) +
β vu dΓ = (v, f ) +
Γ
(9.11)
γ v dΓ =: f ∗ (v) .
Γ
(9.12) mit dem Hilbert-Raum U = H 1 (Ω) . 1. Fall: Ist in Ω gleichm¨ aßig positiv, (x) ≥ 0 > 0 , und β ≥ 0 , dann folgt nach Beispiel 1.15(1◦ ) a∗ (v, v) ≥ Min(1, 0 ) |v|20 + |v|21 ≥ m(Ω)v21 , m(Ω) > 0 , und damit die Elliptizit¨ at von a∗ auf H 1 (Ω) . 2. Fall: Ist ≥ 0 und β ≥ 0 , dann ist die Bilinearform a∗ nach Beispiel ur die 1.15(3◦ ) elliptisch auf dem Hilbert-Raum U in Folgerung 1.5 (3◦ ). F¨ Anwendung des EE-Satzes muss aber die rechte Seite f ∗ ein Element des Dualraumes Ud sein. Weil ein Hilbert-Raum nach dem Rieszschen Darstellungssatz mit seinem Dualraum kanonisch identifiziert werden kann, m¨ ussen dann die Elemente f ∈ Ud ebenfalls eine Bedingung der Form Ω v dΩ = 0 uhrt dies auf die Bedingung erf¨ ullen. F¨ ur das obige f ∗ ∈ Ud f¨ f dΩ + γ dΓ = 0 . Ω
Γ
Diese Bedingung erh¨ alt man auch aus der Variationsgleichung a∗ (v, u) = ∗ ur die Testfunktion v eine beliebif (v) , wenn ≡ 0 und β ≡ 0 ist, und f¨ ge Konstante eingesetzt wird.
9.2 Von der Formel zum Bild
451
Die L¨ osung eines schwachen Problems erf¨ ullt nicht notwendig die Glattheitsvoraussetzungen der Differentialgleichung des Randwertproblems. Beim Nachweis dieser Regularit¨ at kommen der Einbettungssatz 1.17 von Sobolev und weitere Absch¨ atzungen zur Anwendung. Ferner ist die stetige Abh¨angigkeit der L¨ osung u von der rechten Seite f von Bedeutung ( properly posed pro” blem“), hierzu muss aber auf die einschl¨ agigen Monographien verwiesen werden. Literatur: [Braess], [Ciarlet79], [Michlin], [Velte].
9.2 Von der Formel zum Bild, Beispiel Zwei Wege f¨ uhren zur numerischen L¨ osung von station¨ aren Differentialsystemen: Entweder der Definitionsbereich der L¨ osung wird durch ein endliches Gitter ersetzt oder der Funktionenraum, auf dem das Differentialsystem lebt, wird durch einen endlichdimensionsalen Unterraum ersetzt. Im ersten Fall ergeben sich Differenzenverfahren wie schon zum Teil in Abschnitt 2.4 beschrieben und im zweiten Fall ergeben sich Verfahren, die heute nach Ritz und Galerkin benannt werden, vgl. auch Abschnitt 1.11. Differenzenverfahren werden immer zur Diskretisierung von Anfangswertproblemen und zur Diskretisierung von Anfangsrandwertproblemen in Zeit“” Richtung verwendet. Das Beispiel in 2.4(h) zeigt, dass sie auch zur Diskretisierung von Randwertproblemen eingesetzt werden k¨onnen und gute Ergebnisse liefern, ihr Einsatzbereich bleibt aber auf Randwertprobleme mit einfachen Randbedingungen beschr¨ ankt. In komplizierteren F¨allen ragt die Differenzenformel u ussen k¨ unstlich zus¨atzliche ¨ber den Rand hinaus, und es m¨ Randschichten eingerichtet werden. Wenn aber die Differentialgleichung h¨ ohere Ableitungen nach den Ortsver¨ anderlichen enth¨alt, sind Differenzenverfahren u.U. einer Finite-Element-Methode vorzuziehen [X.Chen], weil Letztere dann sehr aufwendige Approximationen verwenden muss. Das in Abschnitt 1.11 kurz beschriebene Ritz-Verfahren wird im Regelfall nicht zur L¨ osung von Anfangswertproblemen verwendet, aber bei reinen Randwertproblemen ist es die erste Wahl. In seiner urspr¨ unglichen Form wurde die L¨ osung der Differentialgleichung durch ein Polynom approximiert, was bei Polynomen sehr niederen Grades erstaunlich gute Resultate liefert, bei Polynomen h¨ oheren Grades aber zu unhandlichen Gleichungssystemen f¨ uhrt. Deswegen wurden schon fr¨ uh st¨ uckweise Polynome eingesetzt. Die N¨aherung ist dann im Regelfall zwar nicht mehr so glatt wie die L¨osung der Differentialgleichung, aber h¨ aufig immer noch so glatt wie die L¨osung des schwachen Problems. Aus diesem Ansatz entsteht die Methode der finiten Elemente durch die Forderung, dass die Matrix des resultierenden Gleichungssystems d¨ unn besetzt sein soll. Der Finite-Elemente-Ansatz heißt konform, wenn die obige Forderung erf¨ ullt ist, also die Approximation in einem Unterraum des Funk-
452
9 Finite Elemente
tionenraums erfolgt, auf dem das schwache Problem definiert ist, im anderen Fall heißt der Ansatz nichtkonform. (a) Problemstellung In diesem Abschnitt sollen die einzelnen Schritte zur numerischen L¨ osung eines Randwertproblems an Hand eines einfachen Beispiels vollst¨ andig beschrieben werden, damit sie in anderen F¨allen als Vorlage dienen k¨ onnen. Dazu betrachten wir das Randwertproblem (9.7) in seiner schwachen Form (9.5) und setzen voraus, dass der Rand Γ des Gebietes Ω ∈ R2 ein Polygon ist (ev. ein variational crime“ nach [Strang]). Ferner ” angende“ Knoten zerlegt, und die zum sei Ω in disjunkte Dreiecke Ti ohne h¨ ” Rand geh¨ orenden Seiten der Dreiecke seien mit Rj bezeichnet. Der Einfachheit halber seien auf Ti und β, γ auf Rj konstant. Dann folgt aus (9.5) die Darstellung i
Ti
[grad v · grad u + i v u − v f ] dxdy +
j
v [βj u − γj ] ds = 0 .
Rj
(9.13) Eventuelle Unstetigkeiten zwischen den einzelnen Elementen sind hier nicht ber¨ ucksichtigt, deswegen m¨ ussen nichtkonforme Elemente zur korrekten Anwendung den Ironsschen Patch Test“ bestehen [Ciarlet79], § 9.4(f ). ” R durch drei Die Dreieckszerlegung des Grundgebietes Ω wird bei MATLAB Matrizen beschrieben, der Knotenmatrix (point matrix) p“ , der Kantenma” trix (edge matrix) e“ und der Dreiecksmatrix (triangle matrix) t“; siehe ” ” auch § 9.9. Die Punktmatrix enth¨ alt die (x, y)-Koordinaten der Knoten in beliebiger, aber fester Reihenfolge. Die Kantenmatrix enth¨alt die Indizes der Endpunkte (bzw. der Unterteilung) eines jeden Randsegments im Gegenuhrzeigersinn f¨ ur ¨ außere R¨ ander und im Uhrzeigersinn f¨ ur innere Rander; weitere Zeilen k¨ onnen zus¨ atzliche Merkmale wie Parameterintervalle und Segmentnummern enthalten. Die Spalten der Dreiecksmatrix enthalten die Indizes der Eckpunkte eines jeden Dreiecks im Gegenuhrzeigersinn; die Reihenfolge der Spalten von t“ kann ge¨ andert werden. F¨ ur weitere Einzelheiten sei auf die R ” -Suite zu Kap. 9 verwiesen. MATLAB Beispiel 9.1. Einfache Triangulierung eines Quadrats, vgl. Abb. 9.2. Die drei Matrizen p , e , t sind hier ⎡ ⎤
1234 1234 0 1 1 0 0.5 p= , e= , t =⎣ 2 3 4 1 ⎦ . 0 0 1 1 0.5 2341 5555
9.2 Von der Formel zum Bild
453
¨ Uberlappende Eintr¨ age in der globalen Steifigkeitsmatrix [K] und der globalen Massenmatrix [M ] von (9.18): 1 2 3 4 5 1 A A A 2 A A A 3 4 5 A A A
1 2 3 4 5 1 2 3 4 5
B B B B
B B
B B
B
1 2 3 4 5 1 2 3 4 5
1 2 3 4 5 1 D D D 2 3 4 D D D 5 D D D
C C C C C C C C C 4
3 C D
B 5 A
1
Abb. 9.1. H¨ angender Knoten
2
Abb. 9.2. Beispiel 9.1
(b) Approximation Im Folgenden werden die exakte L¨ osung und ihre numerische Approximation mit dem gleichen Buchstaben u bezeichnet! ussen nach (9.13) In einem Dreieck T der Dreieckszerlegung von Ω ⊂ R2 m¨ die folgenden Integrale berechnet werden: (vx ux + vy uy ) dxdy , M (v, u) = v u dxdy Fl¨achenintegrale, K(v, u) = T
T
P (v, u) =
v u ds ,
R
Q(v)
=
v ds
Randintegrale.
R
(9.14) Dazu w¨ ahlen wir n verschiedene St¨ utzpunkte (Knoten) Pi := P (xi , yi ) , i = 1 : n , in T und ein zweidimensionales Interpolationspolynom nach Lagrange u(x, y) = u1 ϕ1 (x, y) + . . . + un ϕn (x, y) , u = [u1 , . . . , un ]T ,
(9.15)
mit n linear unabh¨ angigen Polynomen ϕi , die zwar auf ganz Ω definiert aber außerhalb des Dreiecks T Null sein sollen. Damit den Komponenten des Knoater eine physikalische Bedeutung zukommt, sollen die Polytenvektors u sp¨ nome ϕi auf T Lagrange-Grundpolynome sein im Sinn von von § 2.1(c): F¨ ur i = 1 : n soll das Polynom ϕi genau an dem Knoten Pi den Wert Eins annehmen und an allen u ¨brigen Knoten Pk den Wert Null, oder m.a.W. die Polynome ϕi sollen Formfunktionen sein mit der Interpolationseigenschaft ϕi (xk , yk ) = δ i k (Kronecker-Symbol). Der Ansatz (9.15) wird in die Integrale (9.14) eingesetzt und wandelt diese in quadratische bzw. lineare Formen f¨ ur den (lokalen) Knotenvektor u um. Zum Beispiel – mit der gleichen Darstellung f¨ ur v wie f¨ ur u
454
9 Finite Elemente
M (v, u) ≈ v T M u , M = [mi j ]ni,j=1 , mi j =
T
K(v, u) ≈ v T Ku , K = [k i j ]ni,j=1 , k i j =
ϕi ϕj dxdy , [ϕi,x ϕj,x + ϕi,y ϕj,y ] dxdy .
T
(9.16) Die rechte Seite f der Differentialgleichung wird sinnvollerweise in der gleichen Weise wie u durch f (x, y) ≈ f 1 ϕ1 (x, y) + . . . + f n ϕn (x, y) , f = [f 1 , . . . , f n ]T , approximiert, sofern f nicht konstant ist. F¨ ur ein festes Dreieck T in der Summe (9.13) erhalten wir dann im Fall β = γ = 0 die Approximation grad v · grad u + i v u − v f dxdy ≈ v T (K + i M )u − M f . T
Ist zus¨ atzlich auf Ω konstant, dann ergibt die Aufsummierung aller dieser Gleichungen eine Approximation von (9.13), [V ]T [K] + [M ] [U ] − [M ][F ] = 0 . (9.17) Weil [V ] zun¨ achst ein beliebiger Vektor ist, folgt aus (9.17) das lineare Gleichungssystem [A][U ] = [R] , [A] = [K] + [M ] , [R] = [M ][F ] (o.¨a.)
(9.18)
f¨ ur den unbekannten globalen Knotenvektor [U ] . Im Allgemeinen ist dieses System erst nach Implementierung der Randbedingungen in (d) l¨osbar. (c) Lineare Dreieckselemente (Courantsches Dreieck). Im einfachsten Fall w¨ ahlt man im Dreieck T einen Ansatz u(x, y) = u1 ϕ1 (x, y) + u2 ϕ2 (x, y) + u3 ϕ3 (x, y) mit linearen Polynomen ϕi = αi + βi x + γi y , die wieder außerhalb von T Null sein sollen. Die Komponenten werden so gew¨ahlt, dass diese Polynome Formfunktionen bez. der Ecken Pk (xk , yk ) , k = 1 : 3 , von T sind (im Gegenuhrzeigersinn numeriert) Wir schreiben hier und sp¨ater zur Abk¨ urzung xik = xi − xk , yik = yi − yk , dann ist |T | = [x21 y31 − x31 y21 ] /2 die Dreiecksfl¨ ache. Das gesuchte Ergebnis f¨ ur die obigen Fl¨achenintegrale (9.16) bzw. f¨ ur die entsprechende Steifigkeitsmatrix K und die Massenmatrix M ist dann ⎡ 2 ⎡ ⎤ ⎤ 2 x + y32 2 1 1 y23 y31 + x23 x31 x32 x21 + y32 y21 |T | 1 ⎣ 32 2 ⎣ 1 2 1 ⎦ . (9.19) x231 + y31 y13 y21 + x13 x21 ⎦ , 4|T | 12 2 2 symm. x21 + y21 1 1 2 Die resultierende globale Massenmatrix [M ] ist symmetrisch positiv definit und gut konditioniert, die resultierende globale Steifigkeitsmatrix [K] ist dagegen symmetrisch positiv semidefinit und schlecht konditioniert, wie das ¨ahnlich gelagerte Beispiel in § 2.4(h) zeigt, womit die Matrix [A] in (9.18) ebenfalls schlecht konditioniert und f¨ ur = 0 singul¨ar ist.
9.2 Von der Formel zum Bild
455
(d) Implementierung von Dirichlet-Randbedingungen (d1) Direkte Methode. Das Gleichungssystem (9.18) wird mit Hilfe der Randbedingungen so abge¨ andert, dass als Ergebnis ein System mit symmetrischer und positiv definiter Matrix [A] entsteht. Dann kann die Cholesky-Zerlegung bei der L¨ osung angewendet werden, was numerisch etwas g¨ unstiger ist. Ist etwa ur den Randknotenwert U i des Knotendie Randbedingungen U i = di ∈ R f¨ vektors [U ] vorgegeben und [A] = [ai k ] = [a1 , . . . , aN ] mit den Spalten ak , dann ist wie folgt vorzugehen: (1◦ ) (2◦ ) (3◦ ) (4◦ )
Bilde [G] = [R] − di ai , Ersetze die Komponente g i von [G] durch di , Ersetze Zeile i und Spalte i von [A] durch den Nullvektor, Setze ai i = 1 .
Diese Operation muss f¨ ur jeden Punkt auf dem Dirichlet-Rand durchgef¨ uhrt U ] = [G] mit den gewerden. Das Ergebnis ist ein modifiziertes System [A][ nannten Eigenschaften, dessen L¨ osung die gew¨ unschten Randwerte annimmt. (d2) Direkte Methode mit Reduktion Die Reihenfolge der Knoten in der Knotenmatrix darf nicht ver¨ andert werden, weil sie in der Matrix der Elemente zur Indizierung der Ecken verwendet wird. Aber im System (9.18) kann nat¨ urlich nach inneren Punkten und Randpunkten ohne Dirichlet-Randbedingung I einerseits und nach Randpunkten R mit Dirichlet-Randbedingung andererseits sortiert werden, weil die Nummern der Randpunkte in der Matrix der Kanten gegeben sind; vgl. § 9.7. Nach einer Permutation von Zeilen und Spalten erh¨ alt man dann an Stelle von (9.18) das System
[R]I [A]I,I [A]I,R [U ]I = . [A]R,I [A]R,R [U ]R [R]R Werden hier die Dirichlet-Randbedingungen [U ]R = [D]R eingesetzt, dann kann die zweite Zeile weggelassen werden, und die erste Zeile ergibt ein reduziertes System [A]I,I [U ]I = [R]I − [A]I,R [D]R f¨ ur die Werte der Verschiebung u an den Knotenpunkten mit Index aus I . Nach dessen L¨ osung muss der Knotenvektor [U ]I durch Hinzunahme von [U ]R wieder vervollst¨ andigt und die Permutation insgesamt r¨ uckg¨angig gemacht werden. Diese Methode der Implementierung von Dirichlet-Randbedingungen wird insbesondere bei der L¨ osung von Eigenwertproblemen (Schwingungsproblemen) verwendet, weil dort die Randbedingungen homogen sind, also [D]R = 0 ist. (d3) Indirekte Methode nach Lagrange. Das System (9.18) wird erweitert zu einem System mit Lagrange-Matrix, vgl. § 1.1(e2), die zwar noch symmetrisch und regul¨ ar aber i.d.R. nicht mehr definit ist. Dazu seien die Dirichlet-Randbedingungen in der Form [C][U ] = [D] geschrieben mit einer (P, N )-Matrix [C] vom maximalen Rang P < N , und es sei [U ]0 ein beliebiger Vektor z.B. der Null-Vektor. Mit der L¨ osung des Gleichungssystems
456
9 Finite Elemente
[A] [C]T [C] [O]
[X] [A][U ]0 − [R] = [Y ] [C][U0 ] − [D]
ist der Vektor [U ] = [U ]0 − [X] nach Satz 3.8 eine L¨osung des urspr¨ unglichen Gleichungsystems (9.18) und erf¨ ullt die Randbedingungen [C][U ] = [D] . Wenn die Lagrange-Matrix regul¨ ar sein soll, muss die Matrix [A] positiv definit auf dem Kern von [C] sein. Diese Bedingung stellt das diskrete Analogon zur m¨ oglichen Wahl der Randbedingungen in Abschnitt 9.1 dar. (e) Implementierung von Cauchy-Randbedingungen Wenn Koeffiziussen auch die enten βi und/oder γi in (9.13) von Null verschieden sind, m¨ Randintegrale numerisch approximiert werden. Im einfachsten Fall liefert ein linearer Ansatz das gleiche Ergebnis wie beim linearen Stabelement in spezieller Lage, vgl. § 7.3,
L 21 L , QTR = [1 , 1] . P (v, u) ≈ v T PR u , Q(v) ≈ QTR v , PR = 6 12 2 Die Form der Randstrecke R geht hier nur u ¨ber ihre L¨ange L ein. Aufsummieren der Matrizen βi PRi und Vektoren γi QRi in (9.13) ergibt an Stelle von (9.18) das lineare Gleichungssystem
[K] + [M ] + [Mβ ]R [U ] = [R] + [Bγ ]R .
ACHTUNG: Dieses Gleichungssystem muss vor der Implementierung von Dirichlet-Randbedingungen aufgestellt werden. Beispiel 9.2. Nach Abschnitt 9.7(a) gen¨ ugt die station¨ are W¨ armeverteilung u in einer Scheibe Ω der elliptischen Differentialgleichung − div(λ grad u) = f . Im Beispiel der Abb. 9.4 ist λ = 1 und f = 10 .
6 5
un + 4u = 1
4
6 8
4.5
5
10
4 3.5
12
Ω
3
10
12
u =0 n
3
u=0
6 4
6
4
2.5
2
2
u + 3u = 2 n
8
10
1.5 8
1 4
1 0
0.5
un = 0 −1 −1
0
1
0 2
3
4
5
6
Abb. 9.3. Bsp. 9.1, Geometrie
0
0.5
1
1.5
2
2.5
3
3.5
4
4.5
5
Abb. 9.4. Bsp. 9.2, Isothermen
9.3 Konstruktion von Finiten Elementen
457
9.3 Konstruktion von Finiten Elementen In diesem Abschnitt beschr¨ anken wir uns auf finite Elemente in der Ebene u ¨ber Dreiecken mit geraden Randst¨ ucken und auf Randwertprobleme mit einer skalaren Funktion als L¨ osung. (a) Problemstellung Auf dem einzelnen Dreieck T eines elliptischen Randwertproblems vom Typ (9.13) wird die gesuchte L¨osung durch ein Interpolationspolynom approximiert, das mit dem gleichen Buchstaben u bezeichnet wird. Bezeichnungen f¨ ur das Dreick T ⊂ R2 in allgemeiner Lage und in globalen (x, y)-Koordinaten: (1◦ ) Pi (xi , yi ) , i = 1, 2, 3 , im Gegenuhrzeigersinn numerierte Ecken von T . (2◦ ) U Vektorraum von Polynomen auf T mit n Freiheitsgraden (die durch Null auf das u ¨brige Grundgebiet Ω fortgesetzt werden). (3◦ ) Θ(x, y) = [1, x, y, . . .]T Spaltenvektor der algebraischen Basis von U , c = [γ 1 , . . . , γ n ]T Spaltenvektor der Koeffizienten, u(x, y) = Θ(x, y)T c ∈ U polynomiale Ansatzfunktion u ¨ber T . utzpunkte in T (vorl¨aufig alle verschieden). (4◦ ) Kj (xj , yj ) , j = 1 : n , St¨ (5◦ ) uj = u(Kj ) = u(xj , yj ) , i = 1 : n , Werte von u an den Stellen Kj ; utzordinaten (Knotenvektor). u = [u1 , . . . , un ]T Spaltenvektor der St¨ urzungen f¨ ur die Koordinatendifferenzen der Ecken; (6◦ ) x21 = x2 −x1 usw. Abk¨ acheninhalt von T . J := x21 y31 − x31 y21 > 0 doppelter Fl¨ Hinweis. Wir setzen zun¨ achst voraus, dass die Elemente von Θ(x, y) eine vollst¨ andige Basis des Vektorraums Πn (x, y) der Polynome vom Grad ≤ n sind, es gibt aber viele interessante Ausnahmen. Zum Beispiel hat das vollst¨ andige kubische Polynom zehn Freiheitsgrade (DOF = degree of freedom), aber zur L¨ osung der Plattengleichung werden i.A. verschiedene nichtkonforme Modifikationen mit neun DOFs bevorzugt. Bei den u ¨blicherweise verwendeten Elementen sind neben anderen Punkten immer die Ecken des Dreiecks St¨ utzpunkte des Interpolationspolynoms, es gibt aber ebenfalls interessante Ausnahmen etwa bei divergenzfreien“ Elementen. oder ” bei einigen Elementen f¨ ur die Navier-Stokes-Gleichung, vgl. [Turek] und KAPITEL09\FEM_1. (b) Bei dem einfachen elliptischen Randwertproblem in der schwachen Form (9.13) werden zun¨ achst Integrationsformeln f¨ ur die Integrale (vx ux + vy uy ) dxdy , M (v, u) = v u dxdy ; (9.20) K(v, u) = T
T
aufgestellt, h¨ ohere partielle Ableitungen treten erst bei der Approximation von Plattenproblemen auf. Die beiden Integrale werden numerisch durch qua-
458
9 Finite Elemente
dratische Formen uT Ai u f¨ ur den lokalen Knotenvektor u ∈ Rn ersetzt. In einem ersten Schritt wird die unbekannte Funktion u auf dem Dreieck T durch eine Linearkombination von Elementen (Monomen) aus dem Vektor Θ(x, y) ersetzt, u(x, y) = Θ(x, y)T a = α1 ϑ1 (x, y) + . . . + αn ϑn (x, y) , z.B. u(x, y) = α1 +α2 x+α3 y beim Courantschen Dreieck (gleicher Buchstabe u f¨ ur die Approximation). Dann wird ein Basiswechsel f¨ ur die Darstellung uhrt. Ein u = Φ(x, y)T u mittels Formfunktionen Φ = [ϕ1 , . . . ϕn ]T durchgef¨ Basiswechsel bedeutet immer Multiplikation der (Spalten-)Basis von rechts mit einer regul¨ aren Matrix. Es soll die Interpolationseigenschaft gelten, d.h. ui = Θ(xi , yi )a , i = 1 : n : BT := [Θ(xi , yi )]ni=1 =⇒ u = BT a =⇒ a = BT−1 u , unschte, falls sie existiert. Insgesamt und die Designmatrix BT−1 leistet das Gew¨ erhalten wir die Basis Φ der Formfunktionen durch eine einfache Transformation aus der algebraischen Basis Θ, Φ(x, y)T u = Θ(x, y)T a = Θ(x, y)T BT−1 u , ϕk (x, y) = Θ(x, y)T bk , i = 1 : n , wobei bk die Spalten von BT−1 sind. Die Matrix BT bringt die Geometrie des Dreiecks T ins Spiel und ihre Inverse muss explizit berechnet werden, was gewisse Einschr¨ ankungen bei der Anwendung der vorliegenden Konstruktion nach sich zieht. In einigen F¨ allen wie z.B. dem Element von Toucher ist ussen bestimmdie Regularit¨ atsbedingung f¨ ur BT zum Teil verletzt, dann m¨ te zus¨ atzliche Regularit¨ atsforderungen an die Triangulierung selbst gestellt werden. Beispiel 9.3. (Courantsches Dreieck) Wir betrachten die lineare Approximation u = ΘT a = α1 + xα2 + yα3 mit den Ecken Pi (xi , yi ) , i = 1 : 3 , des Dreiecks als St¨ utzpunkten. Dann ist ui = α1 + α2 xi + α3 yi , i = 1 : 3 , die Interpolationsbedingung und ⎡ ⎤ ⎤ ⎡ x2 y3 − x3 y2 x3 y1 − x1 y3 x1 y2 − x2 y1 1 x1 y1 1 ⎦ u =: B −1 u . y23 y31 y12 u =⎣ 1 x2 y2 ⎦ a , a = ⎣ T J 1 x3 y3 x32 x13 x21 Daraus folgt Φ(x, y)T = Θ(x, y)T BT−1 und ϕ1 (x, y) = J −1 (x2 y3 −x3 y2 +y23 x+ x32 y) ; die Formfunktionenen ϕ2 und ϕ3 ergeben sich aus ϕ1 durch zyklische Vertauschung der Indizes i = 1 : 3 modulo 3 . Wenn der Spaltenvektor Φ(x, y) der Formfunktionen bekannt ist, kann in einem zweiten Schritt u(x, y) = ΦT u in (9.20) eingesetzt werden, T T T T v Φx Φx u + v Φy Φy u dxdy , M (v, u) = v T Φ ΦT u dxdy ; K(v, u) = T
T
(9.21)
9.3 Konstruktion von Finiten Elementen
459
wobei Φ ΦT ein n-dimensionales dyadisches Produkt ist. Die wichtige Relation ΦT = ΘT BT−1 zwischen algebraischer Basis Θ und Lagrange-Basis Φ der Formfunktionen ergibt dann z.B.
v T Φx ΦTx u dxdy = v T BT−T Θx ΘxT dxdy BT−1 u ,
T T (9.22) T T T −T v Φy Φy u dxdy = v BT Θy ΘyT dxdy BT−1 u , t
T
und ein a ur M (v, u) . In einem dritten Schritt werden die ¨hnliches Ergebnis f¨ matrixwertigen Gebietsintegrale Θx ΘxT dxdy , Θy ΘyT dxdy , Θ ΘT dxdy ∈ Rn n T
T
T
numerisch berechnet, indem man entweder auf eine Referenzkonfiguration zur¨ uckgeht (in diesem Fall das Einheitsdreieck) oder die auftretenden Inte xr y s dxdy direkt nach § 2.3(f3) berechnet.
grale T
Alle drei Schritte zusammen ergeben eine Konstruktionsvorschrift f¨ ur finite Elemente, allerdings von einem rein rechnerischen Standpunkt ohne Ber¨ ucksichtigung von physikalischen oder mechanischen Eigenschaften, ebenso bleiben jedwede Konvergenz- und Stabilit¨ atsbetrachtungen unber¨ ucksichtigt. Beispiel 9.4. Im einfachsten Fall des Courantschen Dreiecks ist Θ(x, y) = (1, x, y) die algebraische Basis und ⎡ ⎤ ⎡ ⎤ 0 0 0 0 0 0 Θx ΘxT dxdy = ⎣ 0 1 0 ⎦ dxdy = ⎣ 0 |T | 0 ⎦ T T 0 0 0 0 0 0 ⎡ ⎤ ⎡ ⎤ 0 0 0 0 0 0 Θy ΘyT dxdy = ⎣ 0 0 0 ⎦ dxdy = ⎣ 0 0 0 ⎦ (9.23) T T 0 0 1 0 0 |T | ⎡ ⎤ 1 x y Θ ΘT dxdy = ⎣ x x2 xy ⎦ dxdy . T T y xy y 2 Die ersten beiden Matrizen in (9.23) sind besonders einfach. Die dritte Matrix kann direkt mit Hilfe von Tabelle 2.3 berechnet werden, dort muss aber das lokale Koordinatensystem in den Schwerpunkt von T verlegt werden. Dann folgt z.B. |T | [2x1 y1 +x1 y2 +x2 y1 +2x2 y2 +2x3 y3 +x3 y1 +x3 y2 +x1 y3 +x2 y3 ] , xy dxdy = 24 T (9.24) aber das vollst¨ andige Ergebnis f¨ ur diese Matrix wird wieder sehr einfach und ist bereits in (9.19) angegeben.
460
9 Finite Elemente
P3
P
P
3
P1
P1
1
P2
ϕ1
3
P
P
P2
2
ϕ2
ϕ3
Abb. 9.5. Formfunktionen f¨ ur das Courantsche Dreieck
(c) Reduktion auf das Einheitsdreieck Die geometrischen Daten des (exonnen recht umfangreich sein, schon das emplarischen) Dreiecks T ∈ Ω ⊂ R2 k¨ einfache Courantsche Dreieck hat deren sechs. Bei der obigen Methode der Formfunktionen gehen diese Daten gleich am Anfang u ¨ber die Designmatrix BT−1 in die Rechnung ein, und es wird erst am Schluss auf das Einheitsdreieck transformiert. Das f¨ uhrt zu einem unn¨ otig aufgeblasenen Formelapparat, s. Beispiel 9.4, der auch unter Anwendung s¨ amtlicher Kunstgriffe der Symbolischen Mathematik kaum reduziert werden kann, weil einfach zu viele Variable mitgef¨ uhrt werden. Bei der Methode der Grundmatrizen werden die Integrale (9.20) f¨ ur die Steifigkeitsmatrix und die Massenmatrix zun¨ achst auf dem Einheitsdreieck S (oder einer sonstigen Referenzkonfiguration) berechnet und die Ergebnisse abgespeichert. Bei Bedarf werden sie abgerufen und mit den geometrischen Daten des Dreiecks T versehen. Das Ergebnis ist eine besonders u ¨bersichtliche Darstellung. Unter Verwendung der nachfolgend beschriebenen Umkehrabbildung onnen die Integrale (9.20) mit dieser Methode f¨ ur Elemente vom obigen g −1 k¨ Lagrange-Typ auch direkt berechnet werden. Bezeichnungen f¨ ur das Einheitsdreieck S in lokalen (ξ, η)-Koordinaten: (7◦ ) Q1 (0, 0) , Q2 (1, 0) , Q3 (0, 1) Ecken des Dreiecks S . (8◦ ) V Vektorraum von Polynomen mit n Freiheitsgraden auf S . (9◦ ) Θ(ξ, η) = [1, ξ, η, . . .]T Spaltenvektor der algebraischen Basis von V , a = [α1 , . . . , αn ]T Spaltenvektor der Komponenten, v(ξ, η) = Θ(ξ, η)T a ∈ V polynomiale Ansatzfunktionen in S . ◦ uhrt: (10 ) Affin lineare Abbildung, die S in T u ¨berf¨
x1 x21 x31 ξ x + = g(ξ, η) := y1 y21 y31 η y (9.25)
1 y31 −x31 x − x1 ξ −1 = g (x, y) = y − y1 η J −y21 x21 mit partiellen Ableitungen – J = det grad g(ξ, η) , cf. (6◦ ) , ξx = y31 /J, ξy = x13 /J, ηx = y12 /J, ηy = x21 /J .
(9.26)
9.3 Konstruktion von Finiten Elementen
461
(11◦ ) Li = Li (ξi , ηi ) = g −1 (Ki ) , i = 1 : n , St¨ utzpunkte in S . (12◦ ) Einfache aber wichtige Beziehung: u(x, y) = v(ξ, η) , (x, y) = g(ξ, η). In der Anwendung werden die St¨ utzpunkte Li in S vorgegeben; ferner sollen, wie die Notation ausweist, die formalen Vektoren Θ(x, y) und Θ(ξ, η) die gleichen Komponenten haben, wobei aber einmal x, y globale und das andere Mal ξ, η lokale Koordinaten sind. ur das Einheitsdreieck enth¨alt nat¨ urlich keine DaDie Designmatrix BS−1 f¨ ten des allgemeinen Dreiecks T und ist damit viel einfacher als die Matrix ater) partielle Ableitungen der BT−1 . Das ist auch dann der Fall, wenn (sp¨ unbekannten Funktion u zur Interpolation herangezogen werden. Diese Eigenschaft geht aber naturgem¨ aß verloren, wenn Normalableitungen ins Spiel kommen wie z.B. bei dem weiter unten beschriebenen Morleyschen Dreieck. F¨ ur die Lagrange-Basis Ψ und die algebraische Basis Θ auf dem Einheitsdreieck S gelten nat¨ urlich die gleichen Beziehungen Ψ (ξ, η)T = Θ(ξ, η)T BS−1 wie in (b): v(ξ, η) = Θ(ξ, η)T a = Θ(ξ, η)T BS−1 u =: Ψ (ξ, η)T u ≡
n
uk ψk (ξ, η) .
k=1
Sind bk wieder die Spalten der Designmatrix BS−1 , BS−1 = [b1 , . . . , bn ] , dann folgt die Berechnungsformel uk ψk (ξ, η) = Θ(ξ, η)T bk uk , ψk (ξ, η) = Θ(ξ, η)T bk , k = 1 : n . Nach den Substitutionsregeln (12◦ ) folgt dann f¨ ur beliebiges u ∈ Rn z.B.
uT Φ(x, y) ΦT (x, y)u dxdy = uT Ψ (ξ, η) Ψ (ξ, η)T J dξdη u S
T T T T T Ψξ ξx + Ψη ηx Ψξ ξy + Ψη ηy J dξdη u , u Φx Φy u dxdy = u T
S
(9.27) wobei jetzt die geometrischen Daten des allgemeinen Dreiecks T in die Zahlen ξx , ηx , ξy , ηy und J eingehen; vgl. (10◦ ). Damit k¨onnen die Fundamentalmatrizen Ψ Ψ T dξdη , Ψξ ΨξT dξdη , Ψξ ΨηT dξdη , Ψη ΨηT dξdη (9.28) S
S
S
S
ohne Kenntnis von T berechnet und abgespeichert werden. Bei Bedarf werden sie abgerufen und mit den geometrischen Daten des Dreiecks T versehen. Auf diese Weise erh¨ alt man eine einfache Darstellung, bei der geometrische und analytische Daten des finiten Elements sauber getrennt sind. Bei den bisher behandelten affin-¨ aquivalenten Lagrange-Elementen kommen keine Ableitungen vor, und es gen¨ ugt eine einzige lineare Transformation g
462
9 Finite Elemente
zur Reduktion auf das Einheitsdreieck. In diesem Fall k¨onnen auch die Formfunktionen Φ(x, y) auf T aus den Formfunktionen Ψ (ξ, η) auf S in einfacher Weise verm¨ oge Φ = Ψ ◦ g −1 berechnet werden: u(x, y) = Φ(x, y)T u = Ψ (g −1 (x, y))u ≡
n
ϕk (x, y)uk .
k=1
Beispiel 9.5. (Courantsche Dreieck) wie in Beispiel 9.3 aber bez. Einheitsur dreieck S . Nun ist Θ(ξ, η)T = [1 , ξ , η] , und die Interpolationsbedingung f¨ die Ecken von S lautet ⎡ ⎤ ⎡ ⎤ u1 = α 1 + 0 · α 2 + 0 · α 3 1 0 0 1 0 0 u2 = α1 + 1 · α2 + 0 · α3 =⇒ BS = ⎣ 1 1 0 ⎦ , BS−1 = ⎣ −1 1 0 ⎦ . u3 = α 1 + 0 · α 2 + 1 · α 3 , 1 0 1 −1 0 1 ⎡
Ψ (ξ, η)T = Θ(ξ, η)T BS−1
⎤ 1 0 0 = [1 , ξ , η]⎣ −1 1 0 ⎦ = [1 − ξ − η , ξ , η] −1 0 1
Dann ist z.B.
1
Θ ΘT dξdη =
A := S
η=0
⎡ ⎤ ⎤ 12 4 4 1 ξ η 1 ⎣ 4 2 1⎦ ⎣ ξ ξ 2 ξη ⎦ dξdη = 24 2 η ξη η 4 1 2 ⎡
1−η
ξ=0
und die Massenmatrix M = JBS−T ABS−1 hat wieder die gleiche Form wie in (9.19). Beispiel 9.6. Bei dem Mini-Element f¨ ur die Navier-Stokes-Gleichungen wird auf dem Dreieck T der Druck durch eine Konstante approximiert und die beiden Str¨ omungskomponenten linear wie in Beispiel 9.3 aber mit der Bubble“-Funktion als zus¨ atzlicher Basis-Funktion. Diese kubische polyno” miale Ansatzfunktion ist Null an den Ecken und Eins im Zentrum des Dreiecks T (Abb. 9.8). Insgesamt ergibt sich so in S die algebraische Basis ur die Approximation der Ψ(ξ, η) = [1 − ξ − η , ξ , η , 27ξη(1 − ξ − η)]T f¨ Str¨ omungskomponenten. Diese Basis ist aber zun¨achst keine Basis von Formfunktionen auf S , weil die ersten drei Funktionen im Zentrum (1/3, 1/3) von S als zus¨ atzlicher St¨ utzstelle nicht verschwinden. Deswegen ist eine neuerliche Transformation Ψ (ξ, η)T = Ψ(ξ, η)T BS−1 notwendig: ⎡ ⎤ 1 0 0 0 ⎢ 0 1 0 0⎥ ⎥. Ψ (ξ, η)T = [1 − ξ − η, ξ, η, 27ξη(1 − ξ − η)]⎢ ⎣ 0 0 1 0⎦ −1/3 −1/3 −1/3 1
9.3 Konstruktion von Finiten Elementen
463
0.4 0.3 0.2 0.1 0 0 0.2 0.4
1 0.8
0.6
0.6 0.8
0.4 1
Abb. 9.6. Quadratisches Lagrange-Element
Abb. 9.7. Kubisches Lagrange-Element
0.2 0
Abb. 9.8. Bubble“” Funktion (skaliert)
Unter Fortgeschrittenen werden baryzentrische Koordinaten (nat¨ urliche oder Schwerpunktkoordinaten) in Dreiecken und h¨ oherdimensionalen Simplizes verwendet, weil sie eine einfache Darstellung der Interpolationspolynome gestatten und die numerische Integration erleichtern; vgl. § 2.3(e). Beispiel 9.7. F¨ ur den quadratischen Ansatz Θ = (1 , ξ , η , ξ 2 , ξη , η 2 ) im Einheitsdreieck gilt wie oben Ψ T = ΘT BS−1 mit den Formfunktionen ψ1 = (1 − ξ − η)(1 − 2ξ − 2η) = ζ1 (2ζ1 − 1) , ψ2 = ξ(2ξ − 1) = ζ2 (2ζ2 − 1) ψ4 = 4ξ(1 − ξ − η) = 4ζ1 ζ2 ψ3 = η(2η − 1) = ζ3 (2ζ3 − 1) , ψ5 = 4ξη = 4ζ2 ζ3 , ψ6 = 4η(1 − ξ − η) = 4ζ1 ζ3 (ψk , k = 4, 5, 6 , f¨ ur Seitenmitten). Mit der Schreibweise u4 = u12 , u5 = u23 , 6 13 u = u , und der obigen Transformation T = g(S) folgt u(x, y) = Φ(x, y)T u = Ψ (ξ, η)T u = Z(ζ1 , ζ2 , ζ3 )T u =
3 i=1
ui ζi (2ζi − 1) +
uij 4ζi ζj ;
1≤i<j≤3
vgl. Beispiel 2.6. Massenmatrix, Steifigkeitsmatrix und andere Komponenten k¨ onnen in schematischer Form mit Hilfe der Integrationsformeln (2.44), d.h. m!n!p! ζ1m ζ2n ζ3p dζ1 dζ2 = 2|T | (m + n + p + 2)! T berechnet werden, die f¨ ur ein beliebiges Dreieck T gelten. Diese Methode ist bei großen Elementen mit vielen Freiheitsgraden besonders vorteilhaft aber auf Simplices beschr¨ ankt. Zum Beispiel gilt
u dxdy ≈ Φ(x, y)T dxdy u = 2|T | Z(ζ1 , ζ2 , ζ3 )T dζ1 dζ2 u = rT u T
T
mit rk = 2|T | speziell
S
ψk (ζ1 , ζ2 , ζ3 ) dζ1 dζ2 . F¨ ur den quadratischen Ansatz folgt S
464
9 Finite Elemente
1 2! ζ1 (2ζ1 − 1) dζ1 dζ2 = 2|T | 2 − = 0, 4! 3! S 2|T | 1!1! = , = 2|T | 4 r4 = r5 = r6 = 2|T | 4ζ1 ζ2 dζ1 dζ2 4! 6 S
r1 = r2 = r3 = 2|T |
also rT = 2|T |[0 , 0 , 0 , 1 , 1 , 1]/6 .
9.4 Weitere Konstruktionselemente In die Fehlerabsch¨ atzungen von Finite-Element-Approximationen geht das Verh¨ altnis der gr¨ oßten zur kleinsten Dreiecksseite ein, daher sollten Dreiecke mit spitzen Winkeln m¨ oglichst vermieden werden. Zur Verbesserung einer anf¨ anglichen Dreieckszerlegung k¨ onnen entweder lange gemeinsame Dreiecksseiten durch k¨ urzere ersetzt werden oder Innenpunkte in das Zentrum des kleinsten umgebenden Polygons verschoben werden. Beide Verfahren werden wiederholt und abwechselnd einmal in aufsteigender und dann in absteigender Reihenfolge durchgef¨ uhrt. Eine Gebietszerlegung ber¨ ucksichtigt aber im Regelfall nur dieses geometrische Merkmal und nicht etwaige Hauptspannungsrichtungen, Wellenfronten, charakteristische Richtungen oder Stromlinien. Eine Anpassung an die Struktur des Kontinuumsproblems w¨are jedoch w¨ unschenswert. Daher werden auch Parallelogrammelemente oder gar allgemeine Viereckelemente verwendet, bzw. wird u ¨berhaupt die Zerlegung an charakteristischen Richtungen“ orientiert. Allgemeine Viereckelemente las” sen sich nicht mehr durch eine (9.25) entsprechende affin-lineare Abbildung auf das Einheitsquadrat abbilden und geh¨ oren daher zur Klasse der weiter unten beschriebenen isoparametrischen Elemente. Bei Parallelogrammelementen dagegen l¨ asst sich die Abbildung (9.25) verwenden, weil eine Ecke des Parallelogramms linear von den anderen abh¨ angt. Die Ecken des Parallelogramms werden in der Reihenfolge 1 − 2 − 3 − 4 im mathematisch positiven Sinn numeriert und dann die Abbildung g auf das Dreieck mit den Ecken 1 − 2 − 4 angewendet. Die u anderungen gegen¨ uber einem Dreieckselement sind ¨brigen Ab¨ rein technischer Natur, daher wird zur weiteren Beschreibung direkt auf die R -Programme verwiesen. entsprechenden MATLAB Bei den bisher beschriebenen Elementen vom Lagrange-Typ werden nur Funktionswerte von u an den St¨ utzstellen vorgegeben. Die Anzahl der Freiheitsgrade – und damit der St¨ utzstellen – l¨asst sich theoretisch beliebig erh¨ ohen, was aber numerisch nicht sinnvoll ist. Zum Einen wird die globale Steifigkeitsmatrix dadurch immer voller und zum Anderen l¨asst sich die Glattheit der stetigen numerischen Approximation im globalen Gebiet Ω auf diese Weise nicht erh¨ ohen. (a) Hermitesche Elemente Als Beispiel f¨ ur ein finites Element mit Ableitungen betrachten wir das vollst¨ andige kubische Dreieckselement mit zehn Freiheitsgraden. Es eignet sich besonders f¨ ur die in Abschnitt 8.6 behandelten
9.4 Weitere Konstruktionselemente
465
Scheibenprobleme, weil sich die Spannungen in den Ecken aus den partiellen Ableitungen in einfacher Weise zusammensetzen. Ableitungen erfordern jedoch ¨ einige Zusatz¨ uberlegungen beim Ubergang vom den lokalen (ξ, η)-Koordinaten zu den globalen (x, y)-Koordinaten. Das vollst¨andige kubische Element eignet sich nicht f¨ ur Plattenprobleme, weil es den Ironsschen Patch Test [Irons] in ” (f ) nicht besteht“. (a1) Die algebraische Basis des polynomialen Vektorraums u ¨ber dem Einheitsdreieck S ist beim vollst¨ andigen kubischen Element nat¨ urlich Θ(ξ, η) = [1, ξ, η, ξ 2 , ξη, η 2 , ξ 3 , ξ 2 η, ξη 2 , η 3 ]T . Als St¨ utzwerte werden in S die Funktionswerte und die ersten partiellen Ableitungen in den Ecken des Dreiecks gew¨ ahlt sowie der Funktionswert im Zentrum (Schwerpunkt) Q10 = (ξ10 , η10 ) = (1/3, 1/3) . Wenn die in § 9.3(b) beschriebene Methode der Grundmatrizen angewendet werden soll, geht man wie bisher von der algebraischen Basis aus, w¨ ahlt aber zun¨achst den vorl¨aufigen Knotenvektor u1 , u 2 , u 3 , u4 ]T , u i = [ui , vξi , vηi ] , ui = v i , u = [ in (ξ, η)-Koordinaten, in dem die lokalen partiellen Ableitungen noch nicht durch die globalen dargestellt sind. Die Designmatrix BS−1 der Transforma = Θ(ξ, η)T BS−1 u wird wie in § 9.3 direkt durch tion u (ξ, η) = Ψ (ξ, η)T u Interpolation berechnet, wobei die partiellen Ableitungen nach ξ und η hinzukommen: ui = Θ(ξi , ηi )a , vξi = Θξ (ξi , ηi )a , vηi = Θη (ξi , ηi )a , i = 1 : 3 u (ξ10 , η10 ) = Θ(1/3, 1/3)a (10 Gleichungen) mit z.B. (ξ1 , η1 ) = (0, 0) , (ξ2 , η2 ) = (1, 0) , (ξ3 , η3 ) = (0, 1) . Hier ist ψk = ΘT bk , k = 1 : 10 , und bk ist die k-te Spalte von BS−1 , also berechnet man z.B. ψ1 = (1 − ξ − η)[(1 − ξ + 2η)(1 + 2ξ − η) − 16ξη] = ζ12 (3 − 2ζ1 ) − 7ζ1 ζ2 ζ3 , siehe auch § 12.1(c). Die Formfunktion f¨ ur das Zentrum ist wieder die BubbleFunktion aus Beispiel 9.6, ψ10 = 27ξη(1 − ξ − η) = 27ζ1 ζ2 ζ3 , die l¨angs der Kanten des Dreiecks S Null ist. (a2) Im zweiten Schritt m¨ ussen die partiellen Ableitung von v nach ξ, η durch die partiellen Ableitungen von u nach x, y ausgedr¨ uckt werden. Eine Anwendung der Kettenregel und der Abbildung (9.21), T = g(S) , ergibt
vξ = ux xξ + uy yξ = ux x21 + uy y21 T ux . =: C uy vη = ux xη + uy yη = ux x31 + uy y31
(9.29)
¨ Diese Umrechnungsformeln liefern den Ubergang vom vorl¨aufigen Knotenvektor u zum endg¨ ultigen Knotenvektor u ,
466
9 Finite Elemente (1) (2) (2) (3) (3) T u = [u1 , u(1) x , uy , u2 , ux , uy , u3 , ux , uy , u4 ] ,
verm¨ oge einer Matrix-Vektor-Multiplikation: Mit der Matrix %T := 1 0 , und der Blockdiagonalmatrix CT = diag[C %T , C %T , C %T , 1] C T 0C gilt u = CT u . Sind z.B. T A1 = Θξ Θξ dξdη , A2 = Θξ ΘηT dξdη S S 4 = 3 = Θη ΘηT dξdη , A Θ ΘT dξdη , A S
S
die vorl¨ aufigen Fundamentalmatrizen f¨ ur das einfache elliptische Problem, dann ergeben sich die endg¨ ultigen Fundamentalmatrizen aus der Transfori B −1 , i = 1 : 4 . Die Matrizen A i h¨angen ebenfalls nicht mation Ai = BS−T A S von den geometrischen Daten des Dreiecks T ab und k¨onnen somit im Voraus berechnet werden. Ebenso folgt z.B.
u
T
Ψξ ΨξT S
−1 T T −T 1 B −1 u dξdη u = u T BS−T A S = u CT BS A1 BS CT u ,
Φx ΦTx dxdy ,
und die Matrizen T
T
(9.30)
Φy ΦTy dxdy ergeben sich in der gleichen
Weise wie in (9.27). Allerdings sind in dieser Darstellung die analytischen und geometrischen Daten des Dreiecks T wegen der Matrix CT nicht mehr streng i B −1 sind voneinander getrennt. Die geometrieunabh¨ angigen Matrizen BS−T A S R im Programm fem_drksch.m der MATLAB -Suite aufgelistet. Eine alternative Darstellung des kubischen Interpolationspolynoms mit baryzentrischen Koordinaten findet man in § 2.3(e). Beim vollst¨ andigen kubischen Polynom ist jede Ecke mit Funktionswert und zwei ersten partiellen Ableitungen insgesamt dreifach belegt, das Zentrum dagegen ist nur einfach mit Funktionswert. Nun korrespondiert aber ein Dreieck T mit seinen Nachbarn u ¨ber die Daten auf dem Rand, daher sind verschiedene Versuche unternommen worden, diesen zehnten Knoten zu eliminieren ohne Schaden anzurichten. Eine M¨ oglichkeit besteht in der Reduktion der MatriR -Suite, siehe zen durch Kondensation wie in fem_drksch.m der MATLAB auch § 1.1(e3). Solche Finite-Element-Methoden mit reduzierten kubischen Elementen konvergieren aber nicht bei Plattenproblemen [Zienkiewicz], vol. I, p. 28. (b) Normalableitungen Finite Elemente heißen konform, wenn sie global die gleiche Glattheit wie die zu approximierende L¨osung des schwachen Problems besitzen. Zum Beispiel sind die L¨ osungen schwacher elliptischer Probleme in § 9.2 und die L¨ osungen schwacher Scheibenprobleme in § 8.6 generell stetig. Finite Elemente f¨ ur diese Probleme sind dann konform, wenn sie zusammengesetzt auf dem Bereich Ω ebenfalls eine stetige Funktion erzeugen. L¨osungen
9.4 Weitere Konstruktionselemente
467
von schwachen Plattenproblemen in § 8.7 sind generell stetig differenzierbar, daher sind Finite-Element-Approximationen in diesem Fall konform, wenn sie insgesamt stetig differenzierbar sind ( C 1 -Elemente“); siehe auch die Be” merkungen am Anfang von § 9.2. Jedoch erweist sich die Forderung nach Konformit¨ at in diesem Fall als zu streng f¨ ur praktikable Elemente, deswegen wurden vielerlei Versuche unternommen, konvergente Approximationen ohne diese Forderung zu konstruieren. Ein einfaches nichtkonformes Element – urspr¨ unglich f¨ ur Platten – stammt von [Morley]. Es ist ein quadratisches Dreieckselement mit Knotenwerten an den Ecken P (xi , yi ) , i = 1 : 3 , und Normalableitungen an den Seitenmitten P (xi , yi ) , i = 4 : 6 ; vgl. Abb. 9.10. Es ist dann Θ(ξ, η)T a = a1 + a2 ξ + a3 η + a4 ξ 2 + a5 ξη + a6 η 2 , a ∈ R6 , T
die algebraische Basis wie bisher, aber u = [u1 , u2 , u3 , un,4 , un,5 , un,6 ] ∈ R6 ist der lokale Knotenvektor im Dreieck T . Es seien ni = (ci , si ) , i = 4 : 6 , die nach außen gerichteten Normalen in den Seitenmitten xi , i = 4 : 6 , und orige Kantenl¨ange: es sei i , i = 1 : 3 , die jeweils zugeh¨ c4 = y21 /1 , s4 = −x21 /1 , c5 = y32 /2 , s5 = −x32 /2 , c6 = y13 /3 , s6 = −x13 /3 , un,i =
∂u ∂ni
= ci
i
∂u ∂x
+ si i
∂u ∂y
, i = 4 : 6.
(9.31)
i
Substitution von ux = vξ ξx + vη ηx and uy = vξ ξx + vη ηx ergibt zusammen mit den Formeln (9.26) f¨ ur ξx usw. un,i = αi vξ (ξ i ) + βi vη (ξ i )
(9.32)
αi = (ci y31 + si x13 )/2|T | , βi = (ci y12 + si x21 )/2|T | , i = 4 : 6 . ur Wegen der Form dieser Koeffizienten enth¨ alt nun die Designmatrix BS,T f¨ das Einheitsdreieck S bereits geometrische Daten des Dreiecks T und muss daher f¨ ur jedes T einzeln berechnet werden durch Invertierung von ⎤ ⎡ 1 0 0 0 0 0 ⎢1 1 0 1 0 0 ⎥ ⎥ ⎢ ⎢1 0 1 0 0 1 ⎥ ⎥ . (9.33) BS,T = ⎢ ⎢ 0 α4 β4 α4 0.5β4 0 ⎥ ⎥ ⎢ ⎣ 0 α5 β5 α5 0.5(α5 + β5 ) β5 ⎦ 0 α6 β6 0 0.5 α6 β6 Zum Beispiel ist die vierte Zeile α4 Θξ (1/2, 0)T + β4 Θη (1/2, 0)T . Eine Umkehrung mittels Symbolischer Mathematik ist nicht zu empfehlen. Auf dem gleichen Weg wie oben erhalten wir dann die Darstellung Ψ (ξ, η)T u = −1 u der Formfunktionen in lokalen (ξ, η)-Koordinaten. Θ(ξ, η)T a = Θ(ξ, η)T BS,T
468
9 Finite Elemente
Das Ergebnis wird wieder in die Integrale S Ψ Ψ T dξdη usw. von (9.28) eingesetzt. Bei Plattenproblemen mit h¨ oheren partiellen Ableitungen wird in der gleichen Weise verfahren. F¨ ur die Formfunktionen u ¨ber S berechnen wir die Matrix BS aus den alleinigen Daten von S mit den Normalen des Einheitsdreiecks S , n4 = (0, −1) √ in ξ 4 = (1/2, 0) , n5 = (1, 1)/ 2 in ξ 5 = (1/2, 1/2) und n6 = (−1, 0) in ξ 6 = (0, 1/2) . Die Formfunktionen Ψ folgen dann via Ψ (ξ, η)T = Θ(ξ, η)T BS−1 als Zeilenvektoren und k¨ onnen durch baryzentrische Koordinaten dargestellt werden verm¨ oge der Substitution 1 − ξ − η = ζ1 , ξ = ζ2 and η = ζ3 . Die resultierenden Formfunktionen bez. der Normalableitungen an den Seitenmitten ψ4 = η − η 2 √ = ζ3 (ζ3 − 1) √ ψ5 = (−ξ − η + ξ 2 + 2ξη + η 2 )/ 2 = ζ1 (ζ1 − 1)/ 2 = ζ2 (ζ2 − 1) ψ6 = ξ 2 − ξ
(9.34)
haben die richtigen Eigenschaften ur alle sechs Knotenpunkte und m¨ ussen nur √ f¨ mit den Konstanten 2|T |/1 , 2 2|T |/2 , 2|T |3 f¨ ur ψ4 , ψ5 , ψ6 multipliziert ussen durch werden. Die ersten drei Formfunktionen ψi , i = 1 : 3 , dagegen m¨ Hinzuf¨ ugung einer Linearkombination von (9.34) abge¨andert werden, weil ihre Normalableitungen in den Seitenmitten nicht null sind. Hierzu w¨ahlt man den Ansatz ψi = ζi + ζi (ζi − 1) + ai ζi+1 (ζi+1 − 1) + bi ζi+2 (ζi+2 − 1) , i = 1 : 3 modulo 3 , dann ergeben sich neun Bedingungen f¨ ur sechs Koeffizienten ai , bi , i = 1 : 3 , n¨ amlich ∂ ψi (ξ ) = 0 , i = 1 : 3 , k = 4 : 6 . ∂nk k Zum Gl¨ uck erweisen sich drei von ihnen als trivial (0+0 = 0) . Als Endergebnis erh¨ alt man eine Darstellung quadratischer Polynome in der Morleyschen Form mit baryzentrischen Koordinaten: 6 ∂p (x )ϕi (x) ∂ni i i=1 i=4 ϕ1 = ζ1 + ζ1 (ζ1 − 1) + a1 ζ2 (ζ2 − 1) + b1 ζ3 (ζ3 − 1) a1 = (y31 y23 + x31 x23 )/23 , b1 = (y12 y23 + x12 x23 )/21 ϕ4 = 2|T | ζ3 (ζ3 − 1)/1
∀ p ∈ Π2 : p(x) =
3
p(xi )ϕi (x) +
.
Die u ¨brigen Formfunktionen ϕ2 und ϕ3 ergeben sich durch zyklische Vertauschung der Indizes modulo 3. Bei der Berechnung partieller Ableitungen des Polynoms p(x) nach x und y werden die baryzentrischen Koordinaten ζi nach (2.40) wieder als Funktionen von x = (x, y) ∈ R2 geschrieben und diese Formeln verwendet; siehe auch SUPPLEMENT\chap09e.
9.4 Weitere Konstruktionselemente 3
3 l
l
2
2
5
5
6
6
l
l
3
3
2 4
2
l1
1
Abb. 9.9. kubisches Hermitesches Element
469
Abb. 9.10. quadratisches Element nach Morley
4
l1
1
Abb. 9.11. quintisches Element nach Argyris
(c) Das Argyris-Element Wie schon erw¨ ahnt, nimmt die Anzahl der Freiachtlich zu, d.h. bei einem Element, das heitsgrade bei einem C 1 -Element betr¨ insgesamt eine stetig differenzierbare Funktion auf dem Grundbereich Ω erzeugen soll. Das vollst¨ andige quintische Element mit 21 Freiheitsgraden (DOF) von [Argyris] et al. hat diese Eigenschaft. Als St¨ utzwerte werden die Funktionswerte und die partiellen Ableitungen erster und zweiter Ordnung in den Ecken des Dreiecks gew¨ ahlt (18 DOF) sowie die Normalableitungen in den Seitenmitten (3 DOF). Daher k¨ onnen die obigen Resultate f¨ ur kubische Elemente einerseits und f¨ ur das Morleysche Dreieck andererseits eingebracht werden, und nur die zweiten partiellen Ableitungen sind wirklich neu. Die algebraische Basis des polynomialen Vektorraums u ¨ber dem Einheitsdreieck S ist bei diesem vollst¨ andigen Polynom f¨ unften Grades Θ(ξ, η) = 1, ξ, η|, ξ 2 , ξη, η 2 |, ξ 3 , ξ 2 η, ξη 2 , η 3 |, ξ 4 , ξ 3 η, ξ 2 η 2 , ξη 3 , η 4 |, T ξ 5 , ξ 4 η, ξ 3 η 2 , ξ 2 η 3 , ξη 4 , η 5 . Mit den ersten Ableitungen verf¨ ahrt man wie in (a2), und die zweiten Ableitungen werden in direkter Verallgemeinerung berechnet. F¨ ur die global-lokale Transformation verwendet man wieder die affin-lineare Abbildung T = g(S) aus (9.25), n¨ amlich ∇ξ 2 v = [gradξ g]T ∇x 2 u gradξ g oder explizit ⎤ ⎡ 2 ⎤⎡ ⎤ ⎡ ⎤ ⎡ 2 2x21 y21 y21 x21 uxx uxx vξξ T ⎣ uxy ⎦ . ⎣ vξη ⎦ = ⎣ x21 x31 x21 y31 + x31 y21 y21 y31 ⎦⎣ uxy ⎦ =: D 2 vηη x231 2x31 y31 y31 uyy uyy Die Integrale (9.28) wie z.B. Ψξ ΨξT dξdη werden wie beim kubischen EleS
ment zun¨ achst f¨ ur den vorl¨ aufigen Knotenvektor i i i u1 , u 2 , u 3 ]T , u i = [ui , vξi , vηi , vξξ , vξη , vηη , uin ] u = [
(9.35)
berechnet unter Ber¨ ucksichtigung der zus¨ atzlichen Ableitungen mit der Ma T . F¨ ur die Ableitungen in Richtung der Normalen gilt auf der i-ten trix D
470
9 Finite Elemente
Seitenmitte von T modulo 3 −1 i uin = (grad u)i · ni = (grad v)i (grad g)i n =: (grad v)i · n i .
(9.36)
, weil die Beziehung (9.32) Der Wert uin steht damit zu Recht im Hilfsvektor u bereits bei der Konstruktion der Design-Matrix B ∈ R21 21 bzw. B −1 zu ber¨ ucksichtigen ist, die somit von den Daten des Dreiecks T abh¨angt. Dieur jedes Dreieck T einzeln numerisch berechnet werden. se Inverse B −1 muss f¨ Nach getaner Arbeit kann der Hilfsvektor u wieder durch den Knotenvektor u = [u1 , u2 , u3 ]T , ui = [ui , uix , uiy , uixx , uixy , uiyy , uin ] . dargestellt werden verm¨ oge einer Matrix-Vektor-Multiplikation: Mit der Matrix ⎡ ⎤ 1 0 0 0 ⎢ ⎥ % T := ⎢ 0 CT 0 0 ⎥ D ⎣0 0 D T 0 ⎦ 0 0
0 1
%T , D %T , D % T ] gilt u = DT u . Insgeund der Blockdiagonalmatrix DT = diag[D samt gilt bei diesem Element f¨ ur die Integrale (9.28) an Stelle von (9.30) z.B.
1 B −1 DT u , A 1 = Ψξ ΨξT dξdη u = uT DTT BT−T A Θξ ΘξT dξdη uT T S
S
(9.37) wobei u ∈ R21 der lokale Knotenvektor bez. globaler x, y-Koordinaten ist. Nach einem Vorschlag von [Bell] kann die Anzahl der Freiheitsgrade beim quintischen Element ohne globalen Glattheitsverlust (aber mit Verlust an Approximationsg¨ ute) auf 18 reduziert werden durch die Forderung Normalableitung von u l¨ angs Kanten sei kubisches Polynom . Damit lassen sich die Werte der Normalableitung in den Seitenmitten ¨ahnlich wie in (b) eliminieren. Es sei us bzw. un die Ableitung von u in Tangentialbzw. Normalenrichtung auf der Kante. Die Kanten seien nach der Bogenl¨ange s parametrisiert. Die obige Forderung bedeutet dann, dass auf jeder Kante nach einer Umparametrisierung un (s) = a + bs + cs2 + ds3
(9.38)
gelten muss. Die Koeffizienten in (9.38) werden durch Vorgaben von Funktionswert und Ableitung an den beiden Enden der Kante bestimmt. Dabei treten die gemischten Ableitungen un,s in den Ecken auf, zu deren Darstellung die dortigen partiellen Ableitungen erster und zweiter Ordnung von u ben¨ otigt werden. Der Rest verl¨ auft dann ¨ ahnlich wie in (b). F¨ ur weitere Einzelheiten siehe KAPITEL02\SECTION_1_2_3\bell.m und § 7.3(b).
9.4 Weitere Konstruktionselemente
471
(d) Ein Dreieckelement mit gebogenem Rand W¨ahlt man f¨ ur die Aboheren Grades, so ergibt sich bildung g : S → T in (9.25) Polynome h¨ eine weitere Klasse von finiten Elementen, darunter die Elemente mit gebogenem Rand. Die einzelnen Randst¨ ucke sollen hier eindimensionale Polynome sein mit dem gleichen Grad wie das zweidimensionale Polynom g, also z.B. quadratische Polynome, wenn g quadratisch ist; deswegen heißen solche Elemente auch isoparametrisch. Die Integration der quadratischen Formen (9.27) muss dann n¨ aherungsweise erfolgen – im Regelfall mit Quadraturformeln nach ¨ Gauß, weil die Gewichte (9.26) keine Konstanten mehr sind. Ahnliches gilt f¨ ur die direkte Darstellung mit Formfunktionen; außerdem ist die Vorgabe von Ableitungen schwieriger zu implementieren. Wegen des h¨oheren Aufwandes bei Konstruktion und Auswertung ist dieser Typ dank der heutigen Rechengeschwindigkeiten etwas in den Hintergrund getreten. (d1) Als Beispiel w¨ ahlen wir das quadratische Dreieckselement, dann besteht ur T = g(S) aus zwei quadratischen Polynomen: g f¨
γ1 + γ2 ξ + γ3 η + γ4 ξ 2 + γ5 ξη + γ6 η 2 x = =: g(ξ, η) . y δ1 + δ2 ξ + δ3 η + δ4 ξ 2 + δ5 ξη + δ6 η 2 ur die St¨ utzpunkte des globaDie Forderung P (xi , yi ) = g(ξi , ηi ) , i = 1 : 6 , f¨ len krummen Dreiecks T und des geraden Einheitsdreiecks S ergibt (x, y) (ξ, η) x1 = γ1 (0, 0) (1, 0) x2 = γ1 + γ2 + γ4 (0, 1) x3 = γ1 + γ3 + γ6 1 1 ( 12 , 0) x4 = γ1 + 2 γ2 + 4 γ4 1 1 1 1 1 x5 = γ1 + 2 γ2 + 2 γ3 + 4 γ4 + 4 γ5 + 4 γ6 ( 12 , 12 ) (0, 12 ) x6 = γ1 + 12 γ3 + 14 γ6 (0, 0) y1 = δ1 (1,0) y2 = δ1 + δ2 + δ4 . . . ebenso
.
Mit der gleichen Design-Matrix wie beim geraden quadratischen Element folgt γ = Bx , δ = By , x = [x1 , . . . , x6 ]T , y = [y1 , . . . , y6 ]T . Die Jacobi-Determinante muss wieder ungleich null sein, damit g bijektiv ist,
∂(x, y)
xξ xη
=
J(ξ, η) =
. ∂(ξ, η) yξ yη
472
9 Finite Elemente
Mit den gleichen Formfunktionen wie beim geraden Element gilt u(x, y) = v(ξ, η) = Ψ (ξ, η)T u, x = Ψ (ξ, η)T x, y = Ψ (ξ, η)T y ,
(9.39)
daraus erhalten wir f¨ ur die Jacobi-Determinante die Darstellung
Ψ (ξ, η)T x Ψ (ξ, η)T x
ξ η J(ξ, η) =
.
Ψξ (ξ, η)T y Ψη (ξ, η)T y
Ferner gilt ebenso wie vorher # $ # $−1 ξx ξy xξ xη ∂(ξ, η) = . = ∂(x, y) ηx ηy yξ yη Hieraus ergeben sich mit der Cramerschen Regel die partiellen Ableitungen der Umkehrfunktion g −1 zu ξx =
yη xη yξ xξ , ξy = − , ηx = − , ηy = , J J J J
(9.40)
die nunmehr gebrochen rationale Funktionen in ξ, η sind. Mit Hilfe der Formfunktionen erhalten wir z.B. f¨ ur den Steifigkeitsanteil eines Elementes die Darstellung 2 2 (ux + uy ) dxdy = (vξ ξx + vη ηx )2 + (vξ ξy + vη ηy )2 J dξdη T S . T (Ψξ ξx + Ψη ηx )(Ψξ ξx + Ψη ηx )T =u S / + (Ψξ ξy + Ψη ηy )(Ψξ ξy + Ψη ηy )T J dξdη u = uT Ku , wobei wieder die Formel (aT b)2 = aT bbT a = aT (bbT )a verwendet wird. (d2) Berechnung der Randintegrale u2 ds , Γ ∩T
u ds
Γ ∩T
f¨ ur Neumann- und Cauchy-Randbedingungen. Im Einheitsintervall [0, 1] sind ψ1 = (1 − σ)(1 − 2σ), ψ2 = 4σ(1 − σ), ψ3 = −σ(1 − 2σ) die Formfunktionen f¨ ur den quadratischen Ansatz auf den Randsegmenten. Auf dem Randst¨ uck R = Γ ∩ T gilt wie oben aber eindimensional u(s) = v(σ) = Ψ (σ)T u , x = Ψ (σ)T x, y = Ψ (σ)T y , x = [x1 , x2 , x3 ]T .
9.4 Weitere Konstruktionselemente
473
Einsetzen ergibt 1 u2 ds = u2 (σ)(x2 + y 2 )1/2 dσ 0 Γ ∩T 1 1/2 [Ψ (σ)T u]2 (Ψ (σ)T x)2 + (Ψ (σ)T y)2 dσ = 0 . 1 1/2 / Ψ (σ)Ψ (σ)T . . . dσ u = uT MR u = uT
.
0
1
u ds = Γ ∩T
1/2 / Ψ (σ)T . . . dσ u = rT u .
0
F¨ ur die Berechnung dieser Kurvenintegrale werden im Regelfall die Quadraturformeln von Gauß verwendet. (e) Finite Elemente f¨ ur Scheiben Beim ebenen Spannungszustand f¨ ur Scheiben ist u = (u, v) die Verschiebung in der Ebene, h die Scheibendicke und nach (8.49) und (8.50) h ET (u) = ε(u) · σ(u) dF , 2 T ε(u) · σ(u) = uT DT CS Du
E 1 2 2 2 = u + 2νux vy + vy + (1 − ν)(uy + vx ) 1 − ν2 x 2 (9.41) die Spannungsenergie in einem beliebigen Dreieck T , wobei ⎤ ⎡ ⎤ ⎡ 1 ν 0 ∂x 0 ⎥ ⎢ ⎥ ⎢ CS = ⎣ ν 1 0 ⎦ , D = ⎣ 0 ∂y ⎦ ∂y ∂x 0 0 (1 − ν)/2
(9.42)
die Elastizit¨ ats- bzw. die Operatormatrix ist. Bei der direkten Berechnung mit Formfunktionen wird u = Φ(x, y)T U , U = [u1 , . . . , un ]T ; v = Φ(x, y)T V , V = [v 1 , . . . , v n ]T eingesetzt und ergibt die quadratische Form hE [U T , V T ] 1 − ν2 = K ⎤ ⎡⎡ ∂x 0 # ⎥ Φ(x, y)T Nulln ⎢⎢ ⎣⎣ 0 ∂y ⎦ Nulln Φ(x, y)T ∂y ∂x
T
# $ U K dF V
(9.43)
⎤⎡ ⎤ ⎤⎡ $ T 1ν $ 0 ∂x 0 # ⎥⎢ ⎥ Φ(x, y)T Nulln ⎥⎢ 0 ⎦⎣ 0 ∂y ⎦ ⎦ ⎣ν 1 Nulln Φ(x, y)T 0 0 (1 − ν)/2 ∂y ∂x
474
9 Finite Elemente
f¨ ur die Knotenvariablen U und V in (x, y)-Koordinaten. Die Formfunktionen werden durch baryzentrische Koordinaten ausgedr¨ uckt, vgl. § 2.3(e), und die Ableitungen Φx und Φy berechnet. Die Ableitungen der einzelnen baryzentrischen Koordinaten sind nach (2.40) gewisse Zahlen, die nur von der Geometrie des Dreiecks abh¨angen. Die Integration der einzelnen Komponenten kann anschließend problemlos mit Hilfe der Formel (2.44) erfolgen und l¨asst sich im ¨ Ubrigen weitgehend schematisieren. Beim vollstandigen kubischen Dreiecks der Dimension zwanzig, element erh¨ alt man auf diese Weise eine Matrix K die von den Daten des einzelnen Dreiecks abh¨angt. Im Endeffekt etwas u ¨bersichtlicher und vom Rechenaufwand wohl nicht wesentlich langsamer ist die Darstellung von (9.41) mit Hilfe von Grundmatrizen, wie es in den verwendeten Finite-Element-Kernen der Fall ist. Die Integration wird auf eine Integration u uckgef¨ uhrt ¨ber das Einheitsdreieck S(ξ, η) zur¨ verm¨ oge der Transformation E (uξ ξx + uη ηx )2 + 2ν(uξ ξx + uη ηx )(vξ ξy + vη ηy ) 1 − ν2 1 + (vξ ξy + vη ηy )2 + (1 − ν)(uξ ξy + uη ηy + vξ ξx + vη ηx )2 2 E a1 u2ξ + 2b1 uξ uη + c1 u2η + a2 vξ2 + 2b2 vξ vη + c2 vη2 = 1 − ν2 + 2a3 uξ vξ + 2b3 uξ vη + 2c3 uη vξ + 2d3 uη vη . (9.44) Die von der Geometrie des Dreiecks abh¨ angigen Werte ai , bj , ck sind in den jeweiligen Programmen angegeben. Mit den Matrizen 1 = 2 = 3 = A Θξ ΘξT dξdη , A Θξ ΘηT dξdη , A Θη ΘηT dξdη , (9.45) ε(u) · σ(u) =
S
S
S
i B −1 folgt %i = B −T A der Design-Matrix BS−1 und A S S $# $ # % 11 K % 12 U K , V ] h , ε(u) · σ(u) dxdy = [U % 21 K % 22 V K T hE a1 u2ξ + 2b1 uξ uη + c1 u2η dξdη 2 1−ν S 2 T hE % V K22 V = a2 vξ + 2b2 vξ vη + c2 vη2 dξdη 1 − ν2 S T K % 12 V = hE U a3 uξ vξ + b3 uξ vη + c3 uη vξ + d3 uη vη dξdη 2 1−ν S
(9.46)
T K % 11 U = U
(9.47)
9.4 Weitere Konstruktionselemente
% 11 K % 22 K % 12 K
hE % T % % % a A A = + b ( A + A ) + c 1 1 1 2 1 3 2 1 − ν2 hE %1 + b2 (A %3 %2 + A %T2 ) + c2 A a A = 2 1 − ν2 hE % %2 + c3 A %T2 + d3 A %3 a3 A1 + b3 A = 2 1−ν
475
(9.48)
% T . Damit kommt man insgesamt mit den drei Grundmatrizen % 21 = K und K 12 (9.45) aus, von denen A2 unsymmetrisch ist; der Rechenaufwand in (9.48) l¨ asst sich noch reduzieren. Bei finiten Elementen vom Lagrange-Typ (ohne Ableitungen) gilt U = U und V = V f¨ ur die endg¨ ultigen Knotenvektoren pro Element in (x, y)Koordinaten; bei finiten Elementen vom Hermite-Typ (mit partiellen Ableitungen) wie etwa beim kubischen Dreieckelement ist die zus¨atzlichen Transfor = CT U , V = CT V . Die entsprechenden mation (9.30) zu ber¨ ucksichtigen, U Modifikationen f¨ ur Parallelogrammelemente sind rein technischer Natur. (f ) Zum Patch-Test Wir gehen aus von dem schwachen Dirichlet-Problem (9.4) mit Nullrandbedingungen grad v · grad u − v f dΩ = 0 , u = v = 0 auf Γ = ∂Ω (9.49) ∀v∈U : Ω
und seiner Zerlegung (9.13) 1 [grad v · grad u − v f ] dxdy = 0 , Ω = Ti Ti
i
(9.50)
i
als Basis f¨ ur eine Finite-Element-Approximation. Die urspr¨ ungliche LaplaceGleichung −Δu − f = 0 ergibt sich aus (9.50) durch Anwendung der Greenschen Formel auf jedes Dreieck Ti und mit Hilfe des Fundamentallemmas [−vΔu − v f ] dxdy + v grad u · n ds or 0= ∂Ti i Ti i (9.51) 0=− v(Δu + f ) dxdy + v grad u · n ds . Ω
i
∂Ti
Die Kurvenintegrale verschwinden sicher auf den ¨außeren Dreieckskanten ∂Ti ∩ ∂Ω , weil dort v = 0 ist. Der Rand ∂Ti des Dreiecks Ti ist positiv orientiert so, dass das Innere von Ti links liegt. Deswegen wird jede innere Kante Ej zweimal in entgegengesetzter Richtung durchlaufen. Weil finite Element auf verschiedenen Dreiecken unterschiedlich definiert sind, kann das Argument grad u · n machen (Δ soll hier grad u · n an den inneren Kanten eine Sprung Δ die Differenz bezeichnen und nicht den Laplace-Operator). Aufsummieren u ¨ber alle innere Kanten ergibt an Stelle von (9.51)
476
9 Finite Elemente
0=−
v(Δu + f ) dxdy + Ω
j
grad u · n ds . vΔ
(9.52)
Ej
Zitat aus [Strang], p. 178: An essential feature of finite elements is their success on a coarse mesh; even some elements which fail the patch test and are nonconvergent give very satisfactory results for realistic mesh width. Das ist zwar tr¨ ostlich, aber bei jedwedem Nachweis von Konsistenz oder Konvergenz bei Verfeinerung der Maschenweite, oder beim Nachweis anderer Eigenschaften der Approximation (9.50) wie Robustheit“ etc. k¨onnen die ” Spr¨ unge nicht vernachl¨ assigt werden. Patch-Test (Hinreichende Bedingung nach [Zienkiewicz]). Es sei {Ti } eine Zerlegung des Grundbereichs Ω mit geraden Kanten, und es sei E eine innere Kante. Ferner seien n und t Normalen- und Tangentenvektor auf E und ϕ eine Formfunktion des betrachteten finiten Elements. Dann besteht das finite ” Element den Patch-Test“, wenn ∂ϕ ds = 0 , ∂ϕ ds = 0 . Δ Δ (9.53) ∀E ∀ϕ: ∂t ∂n E E Nach [Specht] kann die erste Bedingung durch die einfachere Bedingung Δϕ ds = 0 ersetzt werden und erweist sich damit als relativ harmlos. E
Eine ausf¨ uhrliche und plausible Darstellung des Patch-Tests findet man bei [Strang] § 4.2 und p. 300 ff, eine andere bei [Ciarlet79], § 4.2 (polynomial invariance criteria). Bei [Taylor] wird ein Gegenbeispiel“ widerlegt, was eine ” unterschiedliche Auffassung des Tests offenbart, die bis heute nicht ganz ausger¨ aumt ist. Der Test kann auf Dreiecks- und Viereckszerlegungen angewendet werden und auf Probleme jeder Ordnung, bezieht sich aber in erster Linie auf nichtkonforme Plattenelemente. Neben gewissen Regularit¨atsbedingungen f¨ ur die Netzverfeinerung gen¨ ugt er (wahrscheinlich) zum Nachweis der Konsistenz von Finite-Element-Approximationen (mit dem jeweiligen Differentialsystem). Das vollst¨ andige kubische Element aus (a) mit zehn Freiheitsgraden besteht den Patch-Test nicht und die zugeh¨ orige Approximation konvergiert auch nicht ([Irons], [Specht], [Zienkiewicz], p. 23) haupts¨achlich wegen der BubbleFunktion ζ1 ζ2 ζ3 als Formfunktion bez. des Zentrums. Das zweite, kritische Sprungintegral in (9.53) verschwindet urlich bei konformen Elementen f¨ ur Platten, (1◦ ) nat¨ angs der Kante konstant ist und an einem Punkt auf der (2◦ ) wenn grad ϕ · n l¨ Kante vorgegeben ist wie in Beispiel 9.8, angs der Kante linear und an den Enden der Kante (3◦ ) wenn grad ϕ · n l¨ vorgegeben ist wie in dem nach Batoz benannten Element weiter unten. ¨ verschwindet das Integral, wenn grad ϕ · n schiefsymmetrisch ist (4◦ ) Uberdies bez. des Kantenmittelpunktes.
9.4 Weitere Konstruktionselemente
477
Wegen (4◦ ) fordert [Specht], dass die Formfunktionen eines modifizierten kubischen Dreiecks auf der Kante die Form ϕn (s) = α1 · 1 + α2 s + α3 s3 haben mit s = 0 in der Kantenmitte, womit dann 0.5 0.5 2 (12s − 1)ϕn ds = 0 wegen (12s2 − 1)sk ds = 0 , k = 0, 1, 3 −0.5
−0.5
erf¨ ullt ist. Mit dieser Forderung konnte [Specht] ein Element mit neun DOFs entwickeln, das den Patch-Test besteht. Dazu seien i , i = 1 : 3 , die Kantenl¨ angen des Dreiecks T und μ1 = (23 − 22 )/21 , μ2 = (21 − 23 )/22 , μ3 = (22 − 21 )/23 . Dann sind die Formfunktionen beim Spechtschen Element die Komponenten von Ψ1 , Ψ2 , Ψ3 , wobei
1 2 Ψ1 = ζ1 , ζ1 ζ2 , ζ1 ζ2 + ζ1 ζ2 ζ3 3(1 − μ3 )ζ1 − (1 + 3μ3 )ζ2 + (1 + 3μ3 )ζ3 2 (mit einem Term vierter Ordnung) ist und Ψ2 , Ψ3 aus Ψ1 durch zyklische Vertauschung der Indizes mod 3 entstehen.
η ξ
Abb. 9.12. Einfaches CR-Element
Abb. 9.13. RT-Element
Beispiel 9.8. Neben anderen nichtkonformen Elementen haben Crouzeix und Raviart in [Crouzeix73] ein nichtkonformes lineares Dreieckselement f¨ ur elliptische Probleme zweiter Ordnung angegeben. Es hat die Seitenmitten als Knoten und die Formfunktionen ψi = 1 − 2ζi , i = 1 : 3 (Abb. 9.12). Hier ¨ besteht zwar keine stetiger Ubergang zwischen den Elementen (außer in den Seitenmitten), aber das CR-Element besteht den Patch-Test sogar f¨ ur nichtregul¨ are Gebietszerlegungen wie z.B. bei [Strang], p. 178, direkt gezeigt wird. Rannacher und Turek stellen in [Rannacher] eine verwandtes vierseitiges Element vor mit der lokalen Basis 1 , ξ , η , ξ 2 − η 2 (Abb. 9.13); siehe auch SUPPLEMENT\chap09e. Dieses iosparametrische Element besteht den PatchTest f¨ ur irregul¨ are quadrilaterale Zerlegungen aus den gleichen Gr¨ unden wie das CR-Element bei Dreiecken; eine ausf¨ uhrliche Untersuchung und Vergleich mt anderen Elementen findet man in [Turek]. Beide Elemente k¨onnen insbesondere auf die Stokes-Gleichungen f¨ ur Fluide angewendet werden, wobei
478
9 Finite Elemente
¨ aber das erste eher von theoretischem Interesse ist. Im Ubrigen gibt es heute f¨ ur quatrilaterale Gitter gute Meshers“ mit partieller Netzverfeinerung nach ” einer Idee von [Schneiders]. (g) Ein kubisches Dreieckselement f¨ ur Platten, das den Anforderungen des Patch-Tests gen¨ ugt. Bei der Kirchhoff-Platte ist nach § 8.7(b) h3 σ(w) · ε(w) dF , ET (w) = 12 T E 2 1 2 2 w (1 − ν)(w σ(w) · ε(w) = + 2ν w w + w + + w ) xx yy xy yx yy 1 − ν 2 xx 2 (9.54) die Spannungsenergie in einem beliebigen Dreieck T . Ist u = (u, v) = grad w , dann ist in leichter Ab¨ anderung der Schreibweise σ(u) · ε(u) = uT DT CS Du mit den gleichen Matrizen wie in (9.42). Nach einem Vorschlag von [Batoz] wird f¨ ur u und v jeweils der quadratische Ansatz aus Beispiel 9.7 und f¨ ur die Durchbiegung w der reduzierte kubische Ansatz aus (a) ohne Bubble-Funktion gew¨ ahlt aber mit der Zusatzforderung Die Normalableitung von w l¨ angs jeder Dreieckskante sei linear
. (9.55)
Damit lassen sich die Werte von u und v in den Seitenmitten durch die Werte von w , wx , wy in den Ecken des Dreiecks T ausdr¨ ucken: Wir betrachten eine Dreieckskante κ12 zwischen den Punkten P1 (x1 , y1 ) und ange 12 , die nach der Bogenl¨ange s parametrisiert sei. P2 (x2 , y2 ) mit der L¨ Weil die Bubble-Funktion im vollst¨ andigen kubischen Ansatz f¨ ur w samt ihren Ableitungen auf jeder Kante verschwindet, muss w auch im reduzierten kubischen Ansatz l¨ angs jeder Kante ein kubisches Polynom sein, also nach einer Umparametrisierung w(s) = a + bs + cs2 + ds3 .
(9.56)
Die Koeffizienten in diesem Ansatz werden durch die vier Randbedingungen w1 := w(0) , ws,1 :=
dw dw (0) , w2 := w(ij ) , ws,2 := (ij ) ds ds
(9.57)
an den Enden der Kante festgelegt: a = w1 , b = ws,1 , c=
1 2 1 3 [w2 − w1 ] − [2ws,1 + ws,2 ] , d = 3 [w1 − w2 ] + 2 [ws,1 + ws,2 ] . 212 12 12 12
9.4 Weitere Konstruktionselemente
479
In der Seitenmitte gilt 1 1 1 12 1 [ws,1 − ws,2 ] w(1/2) = a + b + c + d = [w1 + w2 ] + 2 4 8 2 8 3 1 [w2 − w1 ] − [ws,1 + ws,2 ] w (1/2) = 212 4 und nach (9.40)
1 wn s=1/2 := grad w · n s=1/2 = grad w · n s=0 + grad w · n s=l . 12 2 Ist nun ϕ der Winkel zwischen der Kante κ12 und der x-Achse sowie 2 x21 = x2 − x1 , y21 = y2 − y1 , 212 = x221 + y21
c21 := cos ϕ =
x21 y21 , s21 := sin ϕ = , t = [c21 , s21 ]T , n = [s21 , −c21 ]T , 21 21
dann ist grad w · t = c21 wx + s21 wy , grad w · n = s21 wx − c21 wy , also in der Seitenmitte # $ # $ $ # $ # c21 s21 wx wt u4 −1 = = A21 , A21 = A21 = ; v4 wy wn s21 −c21 ebenso folgt ws,1 = c21 wx,1 + s21 wy,1 = c21 u1 + s21 v1 ws,2 = c21 wx,2 + s21 wy,2 = c21 u2 + s21 v2 wn,1 = s21 wx,1 − c21 wy,1 = s21 u1 − c21 v1 wn,2 = s21 wx,2 − c21 wy,2 = c21 u2 + s21 v2 . Damit berechnet man in den Seitenmitten u4 = P 4 U , v 4 = Q4 U , U = [w1 , v 1 , u1 , w2 , u2 , v 2 , w3 , u3 , v 3 ]T
(9.58)
f¨ ur den Knotenvektor U in den globalen (x, y)-Koordinaten mit P4 = [p , 0 , 0 , 0] , Q4 = [q , 0 , 0 , 0] und den Vektoren
3c21 1 2 3c21 1 2 5 5 2 2 p= − 12 , s21 − c21 , − c21 s21 , s21 − c21 , − c21 s21 , 212 4 4 2 4 4
3s21 5 1 5 1 3s21 q= − 12 , − c21 s21 , c221 − s221 . , − c21 s21 , c221 − s221 , 212 4 4 2 4 4
480
9 Finite Elemente
Mit den anderen beiden Dreiecksseiten wird ebenso verfahren, und man erh¨alt schließlich die Transformation = [u1 , . . . , u6 ]T = P (x, y)U , V = [v 1 , . . . , v 6 ]T = Q(x, y)U U mit P, Q ∈ R6 9 und z.B. ⎡ 0 ⎢ ⎢0 ⎢ ⎢0 P =⎢ ⎢P ⎢ 41 ⎢ ⎣0 P61
1 0 0 P42 0 P62
0 0 0 P43 0 P63
0 0 0 P44 P54 0
0 1 0 P45 P55 0
0 0 0 P46 P56 0
0 0 0 P47 P57 P67
0 0 1 P48 P58 P68
⎤ 0 ⎥ 0 ⎥ ⎥ 0 ⎥ ⎥ . P49 ⎥ ⎥ ⎥ P59 ⎦ P69
Damit folgt analog zu (9.36) h3 ET (w) = 12
T
# $# $ % 11 K % 12 P U K h3 [P U , QV ] ε(u) · σ(u) dF = , % 21 K % 22 QV 12 K
(9.59)
% ij wie in (9.48); vgl. fem_batoz.m. mit den gleichen Matrizen K
9.5 Singul¨ are Elemente Alle numerischen Approximationsverfahren setzen eine hinreichende Glattheit der exakten L¨ osung voraus, aber diese Eigenschaft geht in den Ecken – insbesondere in einspringenden Ecken – teilweise verloren, was bei Membranen direkt beobachtet werden kann; deswegen reißen auch Platten, Scheiben und Membranen am ehesten an diesen Stellen. Um eine insgesamt gleichm¨aßige Approximationsg¨ ute zu erzielen, muss daher die exakte L¨osung in ev. auftretenden Ecken besonders sorgf¨ altig modelliert werden oder aber man nimmt den Defekt einfach in Kauf. In diesem Abschnitt soll das Ph¨anomen am Beispiel der Laplace-Gleichung eingehender untersucht werden. ¨ (a) Ubergang zu Polarkoordianten. Erinnerung: x = r cos ϕ , y = r sin ϕ , r = (x2 + y 2 )1/2 , −π ≤ ϕ < π x x f¨ ur y ≥ 0 , ϕ = − arccos f¨ ur y < 0 ϕ = arccos r r x bzw. ϕ = 2π − arccos f¨ ur y < 0 , wenn 0 ≤ ϕ < 2π r F¨ ur r = 0 ist ϕ unbestimmt. Ferner ist rx =
x y y2 xy x2 , ry = , rxx = 3 , rxy = − 3 , ryy = 3 ; r r r r r
.
9.5 Singul¨ are Elemente
y dϕ x dϕ = − 2, = 2 f¨ ur y ≥ 0 , dx r dy r
481
y dϕ x dϕ = 2, = − 2 f¨ ur y < 0 . dx r dy r
Aus F (r, ϕ) := f (r cos ϕ, r sin ϕ) folgt Fr = fx cos ϕ + fy sin ϕ, Fϕ = −fx r sin ϕ + fy r cos ϕ , fx = Fr cos ϕ − 1r Fϕ sin ϕ , fy = Fr sin ϕ + 1r Fϕ cos ϕ . F¨ ur den Normalenvektor n auf der Halbgeraden ϕ = konst folgt n = (− sin ϕ, cos ϕ) und somit fn = −fx sin ϕ + fy cos ϕ 1 1 = Fϕ sin ϕ − Fr cos ϕ sin ϕ + Fr sin ϕ + Fϕ cos ϕ cos ϕ , r r 1 fn = Fϕ . r (b) Wir l¨ osen das Randwertproblem mit der Laplace-Gleichung in Polarkoordinaten, 1 1 Δu = urr + ur + 2 uϕϕ = 0 , (9.60) r r auf dem Kreissektor Ω = {(r, ϕ) , 0 < r ≤ R , α < ϕ ≤ β} , 0 < β − α < 2π . Der Ansatz u(r, ϕ) = rs F (ϕ) wird in (9.60) eingesetzt und ergibt s(s − 1)rs−2 F (ϕ) + srs−2 F (ϕ) + rs−2 F (ϕ) = 0 , daraus folgt F (ϕ) + s2 F (ϕ) = 0 .
(9.61)
Die allgemeine L¨ osung von (9.60) ist eine Linearkombination der L¨osungen us (r, ϕ) = rs a cos(sϕ) + b sin(sϕ) von (9.61), wobei die m¨ oglichen Exponenten s > 0 noch zu bestimmen sind. Es sei nun u(r, α) , u(r, β) , 0 < r ≤ R als homogene Dirichlet-Bedingung (D) und/oder homogene Neumann-Bedingung (N) vorgegeben. Fall D-D u(r, α) = u(r, β) = 0 . u(r, α) = ars cos(sα) + brs sin(sα) = 0 u(r, β) = ars cos(sβ) + brs sin(sβ) = 0 .
482
9 Finite Elemente
Eine nichttriviale L¨ osung existiert, wenn die Determinante des homogenen LGS null ist: 0 = cos(sα) sin(sβ) − cos(sβ) sin(sα) = sin(s(β − α)) , daraus folgt die Bedingung sn =
nπ , n ∈ N0 . β−α
Mit a/b = − sin(sα)/ cos(sα) und sin(ϕ) cos(α) − cos(ϕ) sin(α) = sin(ϕ − α) folgt
un (r, ϕ) = rsn sin sn (ϕ − α) ,
(9.62)
also f¨ ur die allgemeine L¨ osung u(r, ϕ) =
∞
cn rsn sin sn (ϕ − α) .
(9.63)
n=1
Bei einer einspringenden Ecke ist aber β − α > π also 0 < s1 < 1 . Daraus folgt ∂u 1 lim r→0 (r, ϕ) = lim r→0 s1 1−s1 sin s1 (ϕ − α) = ∞ , ∂r r was den Begriff Singularit¨ at erkl¨ art. Fall N-N un (r, α) = un (r, β) = 0 . un = uϕ /r ergibt −a sin(sα) + b cos(sα) = 0 , a sin(sβ) + b cos(sβ) = 0 . Hieraus folgt sin s(β − α) = 0 wie im Fall D-D. Fall D-N u(r, α) = un (r, β) = 0 . Aus der Bedingung a cos(sα) + b sin(sα) = 0 , a sin(sβ) − b cos(sβ) = 0 folgt cos s(β − α) = 0 , also
sn =
(2n + 1)π , n ∈ N0 . 2(β − α)
Fall N-D Wie Fall D-N. (c) Beispiel D-D Bei der Approximation durch finite Elemente wird in allen Dreiecken TS , welche die betreffende Singularit¨at als Ecke haben, im einfachsten Fall die erste Grundl¨ osung
9.5 Singul¨ are Elemente
3 w(r, ϕ) :=
rs1 sin s1 (ϕ − α) , 0 < r ≤ r0 ,
483
g(r) sin(s1 (ϕ − α)) , r0 ≤ r ≤ r1
(9.64)
als zus¨ atzliche Basisfunktion gew¨ ahlt. (Bei Approximationen h¨oherer Ordnung k¨ onnen weitere Grundfunktionen (9.62) hinzugenommen werden.) Dabei soll der Punkt (r, ϕ) = (0, 0) der singul¨ aren Ecke entsprechen, und g(r) soll ein kubisches Polynom sein mit g(r0 ) = r0s1 , g (r0 ) = s1 rs1 −1 , g(r1 ) = g (r1 ) = 0 , wobei r1 hinreichend klein ist, so dass v außerhalb von allen TS verschwindet; vgl. § 2.1(e). Es folgt (r − r )2 0 g(r) = g(r0 ) + g (r0 )(r − r0 ) − 3g(r0 ) + 2g (r0 )(r1 − r0 ) (r1 − r0 )2 (r − r )3 0 + 2g(r0 ) + g (r0 )(r1 − r0 ) (r1 − r0 )3 und w(r, ϕ) = rs sin(s(ϕ − α)) , 0 < r ≤ r0 > 0 , w(0, ϕ) = 0 wr (r, ϕ) = srs−1 sin(s(ϕ − α)) wϕ (r, ϕ) = srs cos(s(ϕ − α)) mit entsprechender Fortsetzung f¨ ur r0 < r ≤ r1 . Linearer Ansatz im Einheitsdreieck mit Schwerpunkt S(1/3, 1/3) . Der sinahlen wir den Abstand von S zum gul¨ are Punkt sei der√Ursprung; f¨ ur r0 w¨ Ursprung, also r0 = 2/3 . v(ξ, η) = α1 + α2 ξ + α3 η + α4 w(ξ, η),
w(ξ, η) = w(r(ξ, η), ϕ(ξ, η))
Q1 (0, 0) :
u1 = α1 + α4 w(0, 0)
Q2 (1, 0) :
u2 = α1 + α2 + α4 w(1, 0)
Q3 (0, 1) :
u3 = α1 + α3 + α4 w(0, 1)
1 1 1/3) . S(1/3, 1/3) : u4 = α1 + α2 + α3 + α4 w(1/3, 3 3 w(0, 0) = 0 , w(1, 0) = 0 , w(0, 1) = 0 , √ s 2 w(1/3, 1/3) = sin((sπ − 4β)/4) =: a . 3
484
9 Finite Elemente
Design-Matrix
⎡
1 ⎢1 ⎢ B =⎢ ⎣1 1
0 1 0 1/3
0 0 1 1/3
⎤ ⎡ ⎤ 0 3a 0 0 0 ⎥ 0⎥ 1⎢ ⎥ ⎢ −3a 3a 0 0 ⎥ ⎥ , B −1 = ⎢ ⎥ 3a ⎣ −3a 0 −3a 0 ⎦ 0⎦ a −1 −1 −1 3
In der (ξ, η)-Ebene gilt f¨ ur 0 < r ≤ r0 w = w(r(ξ, η), ϕ(ξ, η)) w ξ = wr rξ + wϕ ϕξ
ξ |η| s = sr sin(s(ϕ − β)) + s r cos(s(ϕ − β)) − 2 r r s−2 = s r [sin(s(ϕ − β))ξ − cos(s(ϕ − β))|η|] s−1
w η = wr rη + wϕ ϕη
η ξ s = sr sin(s(ϕ − β)) + s r cos(s(ϕ − β)) e 2 r r = s rs−2 [sin(s(ϕ − β))η + e cos(s(ϕ − β))ξ] s−1
mit e = 1 f¨ ur y ≥√0 und e = −1 f¨ ur y < 0 . Entsprechend gilt f¨ ur r0 < r ≤ r1 = 1/ 2 : |η| ξ w ξ = s g (r) sin(s(ϕ − β)) + s g(r) cos(s(ϕ − β)) − 2 r r ξ η w η = s g (r) sin(s(ϕ − β)) + e s g(r) cos(s(ϕ − β)) 2 . r r Es sei wieder Ψ = [ψ1 , ψ2 , ψ3 ]T = [1 − ξ − η, ξ, η]T der Vektor der Formfunktionen f¨ ur den linearen Ansatz. Es sind dann die folgenden Integrale zus¨ atzlich zu berechnen: 2 2 2 w ξ , w η , w , w, ψi w, ψi,ξ w ξ , ψi,η w η S
S
S
S
S
S
S
Diese Integrale werden n¨ aherungsweise mit Gauß-Formeln im Einheitsdreieck bestimmt. 0.45
φ−α = π/2 s = 2/3
0.4
0.35
0.3
0.25
0.2
0.15
0.1
0.05
0
r1
r0 0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Abb. 9.14. Funktion w(r, ϕ) in (9.64)
9.6 Navier-Stokes-Gleichungen
Abb. 9.15. (a) s
(a) w(r, ϕ) = r sin(s ϕ) ,
485
Abb. 9.16. (b)
(b) wr (r, ϕ) = s r
s−1
sin(s ϕ) , s = 2/3 .
9.6 Navier-Stokes-Gleichungen Zu Beginn des Computerzeitalters war die Modellierung von Fluiden eine große Herausforderung, die sich sp¨ ater auf Probleme mit Glattheitsdefiziten wie Turbulenzen, Schocks, Schnittstellen verschiedener Materialen, Approximation der L¨ osung in Ecken des Grundgebietes etc. verlagert hat. Bei einfachen Problemen mit hinreichender Glattheit aller Daten kann heute jeder am heimischen PC Str¨ omungen simulieren und dabei durchaus respektable Erfolge erzielen. Zur Visualisierung von Problemen mit hohen ReynoldsZahlen und der Darstellung von sekund¨ aren Wirbeln stehen viele Verfahren im edlen Wettstreit zueinander, worunter auch Finite-Differenzen-Verfahren eine namhafte Rolle spielen, vgl. z.B. [X.Chen], [Spotz], [Tanahashi]. Inzwischen gibt es ein breites Angebot von finiten Elementen zur L¨osung von Navier-Stokes-Problemen in ihren unterschiedlichen Erscheinungsformen. Insbesondere nichtkonforme Dreiecks- und Viereckselemente werden erfolgreich angewendet, die letzteren haupts¨ achlich weil die Gebietszerlegung in Vierecke der individuellen Problemstellung besser angepasst werden kann und mittlerweile wirkungsvolle partielle Verfeinerungstrategien zur Verf¨ ugung stehen. Siehe z.B. [Gresho], [Turek], [Schneiders] und viele andere. In der ersten Auflage dieses Buches wurden NS-Gleichungen in der StromfunktionWirbel-Form approximiert, weil diese Form bei ebenen Problemen nur zwei abh¨ angige Variable hat, n¨ amlich die Stromfunktion z und die Wirbelst¨arke w , vgl. § 8.10(d). Der Druck p ist eliminiert und wird nachtr¨aglich berechnet. In der Zwischenzeit hat es aber weitere Fortschritte auf dem Hardwaresektor gegeben, so dass man heute von ganz anderen Speicherplatzdimensionen und Rechengeschwindigkeit bei PCs ausgehen kann. Deswegen werden in dieser Auflage NS-Probleme in der direkten Geschwindigkeits-Druck-Form behandelt, die bei ebenen Problemen drei abh¨ angige Variable hat. Bei dieser Methode ist die Implementierung von Randbedingungen viel einfacher und
486
9 Finite Elemente
u ¨bersichtlicher. Auf der anderen Seite sind nun instation¨are Probleme echte differential-algebraische Probleme (DAE), f¨ ur die es zwar viele gute L¨osungsans¨ atze gibt, aber das letzte Wort noch nicht gesprochen ist. Gl¨ ucklicherweise ergibt der algebraische Anteil bei NS-Gleichungen am Ende wenigstens ein lineares Gleichungssystem f¨ ur den Druck, so dass die Methoden von § 2.7 akkzeptable Ergebnisse liefern. Zwei weitere Methoden werden weiter unten besprochen. Laminare Str¨ omungen treten nur bei moderaten Reynolds- bzw. RayleighZahlen auf. Jenseits gewisser Grenzwerte werden die Str¨omungen turbulent. Daher ist es begreiflich, dass die Kondition numerischer Approximationen neben der Maschenweite der Gebietszerlegung auch erheblich von diesen Zahlen abh¨ angt. Bei station¨ aren NS-Problemen wird die Kondition der f¨ uhrenR den Matrix jenseits von etwa Re = 103 so schlecht, dass die MATLAB Algorithmen zur direkten L¨ osung von linearen Gleichungssystemen ihren Dienst versagen, obwohl sie ansonsten den h¨ ochsten Anforderungen gen¨ ugen. Dann kommen iterative Verfahren zum Zuge wie GMRES (Generalized Minimum Residual Method) oder andere Verfahren mit Vorkonditionierung, die R angeboten werden. Derartige Verfahren werden aber in auch von MATLAB R der MATLAB -Suite zu diesem Kapitel nicht verwendet. Probleme mit hohen Reynolds-Zahlen werden meistens in der instation¨aren Form behandelt, weil dann die Iteration weniger sensibel ist. In der einschl¨ agigen Literatur werden vergleichsweise einfache Diskretisierungen in der Zeitrichtung verwendet wie das Crank-Nicholson-Verfahren (ω = 1/2 in (2.50)) oder Fractional-Step-ϑ-Schemata, vgl. [Gresho], [Zienkiewicz] und andere. Bei station¨ aren und instation¨ aren NS-Problemen kann Konvergenz und Stabilit¨ at im Bereich hoher Reynolds-Zahlen durch Einf¨ uhrung gewisser Korrekturterme deutlich verbessert werden. Diese Stabilisierungseffekte ergeben sich aus einem genauen Studium der Diskretisierungsfehler verm¨oge einer TaylorEntwicklung. Bei instation¨ aren Problemen lassen sie sich am einfachsten durch die Einf¨ uhrung k¨ unstlicher Viskosit¨ aten realisieren, vgl. KAPITEL09\TIDAL. Bei station¨ aren Problemen wurden sie bisher vom Verfasser nicht implementiert, vgl. aber [Turek] u.a.. (a) Wir betrachten das schwache zeitabh¨ angige NS-Problem (8.80) in der Ebene und zerlegen den Geschwindigkeitsvektor in seine Komponenten: (v1 , u1,t ) + (v1 , u1, x u1 + u1, y u2 ) + ν(∇v1 , ∇u1 ) − (v1,x , pspec ) = (v1 , g1 ) + ν(v1 , ∇u1 · n)Γ − (v1 , pspec n1 )Γ (v2 , u2,t ) + (v2 , u2, x u1 + u2, y u2 ) + ν(∇v2 , ∇u2 ) − (v2,y , pspec ) = (v2 , g2 ) + ν(v2 , ∇u2 · n)Γ − (v2 , pspec n2 )Γ (u1, x , q) + (u2, y , q) = 0
(9.65)
9.6 Navier-Stokes-Gleichungen
487
Wie in § 9.3 setzen wir wieder voraus, dass der Rand des Grundbereichs uckweise gerade ist und dass Ω in nicht¨ uberlappende Dreiecke Ω ∈ R2 st¨ angende Knoten zerlegt ist. Außerdem bezeichnen wir wieder die Ti ohne h¨ numerische Approximation des Geschwindigkeitsvektors u und des Druckes p mit den gleichen Buchstaben. Dann muss als N¨ achstes eine polynomiale Basis Ψ f¨ ur die Str¨omungskomponenten und eine (andere) polynomiale Basis Ψ f¨ ur den Druck im Referenzdreieck S(ξ, η) gew¨ ahlt werden (affine Finite-Element-R¨aume). Diese beiden Basen sind nicht ganz unabh¨ angig voneinander, sondern m¨ ussen zusammen der Babuska-Brezzi-Bedingung von Satz 8.11 gen¨ ugen als notwendiger Voraussetzung f¨ ur die Konvergenz des Finite-Element-Verfahrens. Bei konformen Elementen bilden diese Basen – durch Null auf Ω fortgesetzt – einen Unterraum des Raums V bzw. Q der Testfunktionen, und der Einfachheit halber sollen beide R¨ aume die stetigen Funktionen u ¨ber Ω enthalten, V ⊂ C(Ω) , Q ⊂ C(Ω) . Auf dem Einheitsdreieck S gilt dann u1 (ξ, η) = Ψ (ξ, η)T u1 , u2 (ξ, η) = Φ(ξ, η)T u2 , p(ξ, η) = Ψ(ξ, η)T p . Dabei sind jetzt ui und p Komponentenvektoren und nicht zu verwechseln mit ¨ dem Geschwindigkeitsfeld u usw.. Nach Ubergang von den lokalen (ξ, η)- zu den globalen (x, y)-Koordinaten m¨ ussen gem¨ aß (9.65) die folgenden lokalen Finite-Element-Matrizen berechnet werden (Massenmatrix und Steifigkeitsmatrix sind die gleichen wie oben): T Φx ΦTx + Φy ΦTy dxdy ΦΦ dxdy , K = M = T T T dxdy , C2 = T dxdy . C1 = Φx Φ Φy Φ T
T
F¨ ur den konvektiven quadratischen Term (grad u)u bzw. f¨ ur die Trilinearform c(v, u, w) = (v, (grad u)w) in der schwachen Form des Problems gilt auf dem Dreieck T die Approximation # $ ΦTx u1 ΦT w1 + ΦTy u1 ΦT w2 (grad u)w % ΦTx u2 ΦT w1 + ΦTy u2 ΦT w2 mit Spaltenvektor der Formfunktionen Φ und Komponentenvektor u1 usw.. Daraus folgt c(v, u, w) = (v · (grad u)w) dxdy % ΦT v 1 ΦTx u1 ΦT w1 + ΦTy u1 ΦT w2 T T + ΦT v 2 ΦTx u2 ΦT w1 + ΦTy u2 ΦT w2 dxdy . (Beachte die unterschiedliche Bedeutung von Vektorfeld u und Komponentenvektor ui !) Nun ist z.B. ΦT v 1 ΦTx u1 ΦT w1 = v T1 (ΦTx u1 )Φ ΦT w1 also
488
9 Finite Elemente
c(v, u, w) % v T1 B1 (u1 )w1 + v T1 B2 (u1 )w1 + v T2 B1 (u2 )w2 + v T2 B2 (u2 )w2 , (ΦTx u)Φ ΦT
B1 (u) =
dxdy =
T
T
dxdy =
n
ϕi,x Φ ΦT dxdy ∈ Rn n
i
u B1,i , B1,i = T
i=1
(ΦTy u)Φ ΦT
B2 (u) =
n
ϕi,y Φ ΦT dxdy ∈ Rn n .
ui B2,i , B2,i =
i=1
T
Wenn wir zun¨ achst das station¨ are Problem betrachten und alle Randbedingungen weglassen, erhalten wir ein lokales diskretes System auf dem Dreieck T: ⎤ ⎡ ⎤⎡ ⎤ ⎡ Mf1 B2 (u1 ) −C1 u1 νK + B1 (u1 ) ⎥ ⎢ ⎥⎢ ⎥ ⎢ B1 (u2 ) νK + B2 (u2 ) −C2 ⎦⎣ u2 ⎦ = ⎣ M f 2 ⎦ ⎣ C1T C2T O p 0 mit den lokalen Knotenvektoren u1 , u2 , p . Diese lokalen Systeme werden wieder zu einem globalen System auf der Vereinigung der Dreiecke T zusammengefasst, wobei nat¨ urlich alle Matrizen richtig positioniert werden m¨ ussen. ¨ Bei gleichzeitigem Ubergang zum instation¨ aren Problem hat dieses große“ ” System die Form [M ][Ui ]t = −[B1 (Ui )][U1 ] − [B2 (Ui )][U2 ] − ν[K][Ui ] + [Ci ][P ] +[M ][Gi ] + [Ri ] , i = 1, 2 ,
(9.66)
0 = [C1 ]T [U1 ] + [C2 ]T [U2 ] . Hier ist Ui der globale Knotenvektor f¨ ur die Str¨omungskomponente ui , i = 1, 2 . Die Matrizen [R1 ] und [R2 ] beinhalten die rechten Seiten inhomogener Neumannscher Randbedingungen und verschwinden nat¨ urlich, wenn diese Randbedingungen homogen sind. Die beiden Typen von Randbedingungen, n¨ amlich wesentliche und dynamische, werden in der gleichen Weise implementiert wie in § 9.2 ausf¨ uhrlich erl¨ autert. Allein der nichtlineare konvektive Term erfordert etwas mehr Zuwendung insbesondere, wenn sein Gradient im Newton-Verfahren gebraucht wird. (9.66) stellt ein System gew¨ ohnlicher Differentialgleichungen dar (semi-diskretes System), dessen Stabilit¨ atseigenschaften etwas im Dunkeln bleiben und das i.A. eine extrem schlechte Kondition hat. Daher bleibt die L¨osung in tRichtung kritisch unabh¨ angig von der gew¨ ahlten Diskretisierung. Nat¨ urlich sind implizite Verfahren trotz ihre betr¨ achtlich gr¨oßeren Aufwands vorzuziehen, aber ein besonderer Zugewinn entsteht durch Anwendung von mass lumping etwa nach [Zienkiewicz] II, p. 320. Bei diesem Kunstgriff wird die Massenmatrix M durch die Diagonalmatrix der Zeilensummen ersetzt oder aber die Massenmatrix M wird durch die Diagonalmatrix mit den Elenenten aMii ersetzt, Mii sind die Diagonalelemente von M und a = |Ω|/ Mii ist eine Konstante mit dem Fl¨ acheninhalt |Ω| von Ω .
9.6 Navier-Stokes-Gleichungen
489
(b) Finite-Element-Techniken bevorzugen heute einfache Approximationen auf feinen Gebietszerlegungen an Stelle von Approximationen h¨oherer Ordnung auf relativ groben Gittern. Das schwache System (9.65) enth¨alt partielle Ableitungen der Geschwindigkeitskomponenten aber keine Ableitung des Drucks, daher muss die Approximationsordnung bei den ersteren um einen Grad h¨ oher sein, was auch die Babuska-Brezzi-Bedingung in Satz 8.11 fordert. Bei Dreieckszerlegungen und globaler Stetigkeit wird daher im einfachsten Fall der Druck linear wie in Beispiel 9.5 und die Str¨omungskomponenten quadratisch wie in Beispiel 9.7 approximiert. Diese Kombination heißt Taylor-Hood-Element, siehe z.B. [Gresho], insbesondere die Tabelle finiter Elemente in [Gresho], p. 552 ff.. Zur Verbesserung der Approximationseigenschaften beim Taylor-HoodElement kann die Bubble-Funktion den Formfunktionen der Str¨omungskomponenten hinzugef¨ ugt werden und/oder die Basis f¨ ur den Druck wird um eine zus¨ atzliche Konstante erweitert, so dass lokal eine affin-lineare Approximation entsteht [Gervais]. Anschließend kann die Dimension der beiden Elemente f¨ ur die Geschwindigkeit durch statische Kondensation von sieben auf sechs reduziert werden (geht aber nur bei linearen Stokes-Gleichungen). Statische Kondensation ist z.B. beim vollst¨ andigen kubischen Element fem_drksch.m realisiert, bei dem die Bubble-Funktion eine ¨ ahnlich isolierte Rolle spielt.
Abb. 9.17. Str¨ omung
Abb. 9.18. Stromlinien
Beispiel mit linearer Stokes-Gleichung, Taylor-Hood-Element und R -PDE-TOOLBOX Netzerzeugung ohne MATLAB Massen- und Steifigkeitsmatrix des Taylor-Hood-Element werden wie in § 9.3 berechnet. Ferner ist mit den Bezeichnungen aus § 9.3
490
9 Finite Elemente
⎤ −1 0 0 ⎥ ⎢ ⎢ 0 1 0⎥ ⎥ ⎢ 1⎢ 0 0 0 ⎥ 1 := ⎥, C Ψξ Ψ dξdη = ⎢ ⎥ 6⎢ S ⎢ 1 −1 0 ⎥ ⎥ ⎢ ⎣ 1 1 2⎦ −1 −1 −2 ⎡
C1 =
⎤ −1 0 0 ⎥ ⎢ ⎢ 0 0 0⎥ ⎥ ⎢ 1⎢ 0 0 1 ⎥ 2 = ⎥ C Ψη Ψ dξdη = ⎢ ⎥ 6⎢ S ⎢ −1 −2 −1 ⎥ ⎥ ⎢ ⎣ 1 2 1⎦ 1 0 −1
dxdy = y31 C 1 + y12 C 2 , C2 = Φx Φ
⎡
T
dxdy = x13 C 1 + x21 C 2 . Φy Φ
T
(c) Zur L¨ osung des instation¨ aren NS-Problems (9.66) k¨onnen die semiexpliziten Runge-Kutta-Verfahren von Brasey in § 2.7(e) verwendet werden. Um noch andere Wege der Approximation zu beschreiben, werden exemplarisch zwei einfache Verfahren erster Ordnung vorgestellt. Weitere Verfahren dieses Typs findet man bei [Gresho], [Turek], [Zienkiewicz] und vielen anderen. Das erste Iterationsverfahren ist ein (fast) implizites Euler-Verfahren, vgl. § 2.4(a): ⎤⎡ ⎤ ⎡ U1n+1 [B2 (U1n )] −C1 τ −1 [M ] + ν[K] + [B1 (U1n )] ⎥⎢ n+1 ⎥ ⎢ ⎢ ⎥ ⎢ [B1 (U2n )] τ −1 [M ] + ν[K] + [B2 (U2n )] −C2 ⎥ ⎦⎣ U2 ⎦ ⎣ [C1 ]T [C2 ]T O P n+1 ⎤ ⎡ ] + [R1n+1 ] τ −1 [M ][U1 ]n + [Gn+1 1 ⎥ ⎢ n+1 n+1 ⎥ −1 n =⎢ ⎣ τ [M ][U2 ] + [G2 ] + [R2 ] ⎦ , n = 0, 1, 2, . . . . O (9.67) τ ist die Schrittweite, und das Verfahren wird voll implizit, wenn man in den Konvektionstermen [B]i die Argumente Ukn durch Ukn+1 ersetzt. Das zweite Verfahren lehnt sich an die Verfahren in pressure Schur comple” ment“ -Form an, wie sie in [Turek] beschrieben werden: #
τ −1 [M ] + ν[K] + [B1 (U1n )]
[B2 (U1n )]
[B1 (U2n )]
τ −1 [M ] + ν[K] + [B2 (U2n )]
# =
τ −1 [M ][U1 ]n + [C1 ]P n + [Gn+1 ] + [R1n+1 ] 1
$#
U1n+1
$
U2n+1
$
] + [R2n+1 ] τ −1 [M ][U2 ]n + [C2 ]P n + [Gn+1 2
= −[C1 ]U n+1 − [C2 ]U n+1 KQ 1 2 P n+1 = P n + Q , Uin+1 := Uin+1 + τ M −1 Ci Q , i = 1, 2 , n = 0, 1, 2, . . . . (9.68)
9.7 Vermischte Anwendungen
491
Q ist ein gewisser Korrekturfaktor f¨ ur den Druck P . Die zweite Gleichung diskretisiert die Beziehung div(u + grad q) = div u + Δq = 0 . Daher ist K die Steifigkeitsmatrix des einfachen elliptischen Problems mit dem LaplaceOperator Δ bez¨ uglich der Finite-Element-Approximation f¨ ur den Druck p . Bei beiden Verfahren m¨ ussen noch die Anfangs- und Randbedingungen implementiert werden. Außerdem empfiehlt es sich, mass lumping“ bei allen ” Massenmatrizen zu verwenden, die mit dem Faktor τ −1 versehen sind. Vgl. auch STOKES\demo5e.m\demo5f.m.
9.7 Vermischte Anwendungen N = kg · m/s2 (Newton), J = N · m (Joule), P a = N/m2 (Pascal), K = 273.15 + 0 C (Kelvin), g = 9.81 [m/s2 ] Fallbeschleunigung. Physikalische Konstanten f¨ ur Wasser und Luft bei 15 0 C und 1 atm atmosph¨ arischem Druck:
μ ν c c κ λ β
Materialkonstante [kg/m3 ] Massendichte [P a · s]) dynamische Viskosit¨ at [m2 /s] kinematische Viskosit¨ at [J/K · kg] specifische W¨ armekapazit¨at [J/m3 · K] W¨ armekapazit¨ at [J/m · s · K] W¨ armeleitf¨ ahigkeit [m2 /s] W¨ armediffusionskoeff. [1/K] W¨ armeausdehnungskoeff.
Wasser 999.1 1.14 · 10−3 1.14 · 10−6 4.182 · 103 4.174 · 105 5.9 · 10−1 1.40 · 10−7 1.5 · 10−4
Luft 1.225 1.78 · 10−5 1.45 · 10−5 1.005 · 103 1.298 · 103 2.51 · 10−2 2.02 · 10−5 3.48 · 10−3
(ν = μ/ , λ = κ/ · c und immer a/b · c := a/(b · c) ). (a) W¨ armeleitung Physikalische Gr¨ oßen: ϑ , ϑext [K] r [J/s · kg] h [J/m2 · s · K] q [J/m2 · s]
Temperatur, Außentemperatur spez. W¨ armequelldichte W¨ armedurchgangskoeffizient W¨ armeflussvektor
Der W¨ armeflussvektor q im Energieerhaltungssatz in § 8.3(d) gen¨ ugt dem Fourierschen Gesetz der W¨ armeleitung q = −κ grad ϑ, und der Energiesatz ergibt f¨ ur Geschwindigkeit v = 0 die Beziehung c ϑt + div q = r oder c
∂ϑ − div(κ grad ϑ) = r ∂t
[J/(m3 · s)] .
(9.69)
492
9 Finite Elemente
Bei zweidimensionalen Problemen soll der Bereich Ω ein Querschnitt des Mediums parallel zur (x, y)-Ebene darstellen und die Temperatur T in z-Richtung ur konstant sein; vgl. Beispiel 9.2. Anfangsbedingung ist ϑ(t0 , x) = ϑ0 (x) f¨ x ∈ Ω und Randbedingungen sind z.B.: ϑ = ϑD auf ΓD (1◦ ) Temperatur: (2◦ ) W¨ armefluss nach außen: q · n ≡ −κ grad ϑ · n = qC auf ΓC (3◦ ) W¨ armestrahlung: q · n = h(ϑ − ϑext ) auf ΓN .
(9.70)
ϑD und qC ∈ R sind vorgegebene Gr¨ oßen auf den jeweiligen disjunkten Teilen des Randes Γ , n ist der (dimensionslose) Normalenvektor nach außen und uhlungsgesetz. (3◦ ) entspricht dem Newtonsche Abk¨ Zur Transformation auf ein dimensionsloses System wird eine charakteristische L¨ ange L und eine charakteristische Temperaturdifferenz Δϑ eingef¨ uhrt 5, x = L x , y = L y , ϑ = (ϑ − ϑ0 )/Δϑ sowie f¨ ur die gekoppelten Systeme in (b) und (c) eine charakteristische Ge5 = ϑD − ϑ0 gew¨ahlt, wenn ϑ = ϑD auf schwindigkeit U . Manchmal wird Δϑ dem ganzen Rand von Ω konstant ist. Außerdem wird eine charakteristische Zeit T eingef¨ uhrt so, das t = T t mit dimensionfreiem t , wobei es aber mehrere M¨ oglichkeiten gibt, siehe unten. Es sei Re = U L/ν die dimensionslose Reynolds-Zahl, vgl. § 8.10(c). Raleigh-Zahl Ra , Prandtl-Zahl Pr und Grashoff-Zahl Gr (alle dimensionslos) sind Tabelle 9.1.
5 3 /νλ Pr = ν/λ Gr = Ra /Pr Konstante Ra = gβ ΔϑL 5 · L3 5 · L3 . Wasser 1.444 · 108 · Δϑ 7.174 2.014 · 107 · Δϑ 5 · L3 5 · L3 Luft 1.35 · 109 · Δϑ 0.665 2.03 · 108 · Δϑ (1◦ ) Im Fall t = (L2 /λ) t folgt u = U u mit U = λ/L und t ist die FourierZeit. Mit dieser Skalierung hat das System (9.69) f¨ ur konstantes κ und r = 0 die einfache Form 2 ∂ ∂2 ∂ ϑ = + 2 ϑ =: Δx ϑ . (9.71) ∂ x2 ∂ y ∂ t urlicher Konvection ist t = (L2 /ν) t . Es folgt u = U u mit (2◦ ) Im Fall nat¨ U = ν/L, und bei konstantem κ ergibt sich an Stelle von (9.69) das dimensionslose System 2 ∂ 1 ∂ 2 L2 r ∂ ϑ . = + 2 ϑ+ 5 νc Pr ∂ x2 ∂ y ∂ t Δϑ
9.7 Vermischte Anwendungen
493
(3◦ ) Im Fall erzwungener Konvektion wird eine charakteristische Geschwin , und bei digkeit U vorgegeben, dann ist t = (L/U ) t. Es folgt u = U u konstantem κ ergibt sich an Stelle von (9.69) das dimensionslose System ∂ ϑ 1 = R ∂t e Pr
∂2 ∂2 + ∂ x2 ∂ y2
ϑ +
L r . 5 c U Δϑ
(b) Konvektionsstr¨ omungen Wir betrachten ein ebenes Fluid mit Temperature ϑ (oder den Querschnitt eines Fluids im R3 ) mit konstanten Materialgr¨ oßen. Unter der linearisierenden Annahme nach Boussinesq h¨angt der Auftrieb (Volumenkraftdichte) nur von ϑ ab. Impuls- und Energieerhaltungssatz liefern dann die Grundgleichungen ut + (grad u)u − νΔu + ϑt + grad ϑ · u − λΔϑ
1 grad p = f (ϑ) , div u = 0 =0
(9.72)
¨ mit den gleichen Randbedingungen f¨ ur ϑ wie in (9.70). Der Ubergang von kinetischer Energie in W¨ armeenergie auf Grund der Z¨ahigkeit wird vernachl¨assigt. ur nat¨ urliche Konvektion, Mit der obigen Skalierung (2◦ ) f¨ 5 , t = (L2 /ν) x = L x , y = L y , ϑ = (ϑ − ϑ0 )/Δϑ t (=⇒ u = U u ) , U = ν/L , f¨ uhren wir außerdem einen skalierten spezifischen Druck p verm¨oge p = p ein. Dann ergibt sich das dimensionslose System (U 2 /L) 5 =: g(ϑ) , ut + (grad u)u − Δu + grad p = (L/U 2 )f (Δϑϑ) = 0 , div u = 0. ϑt + grad ϑ · u − Pr−1 Δϑ
(9.73)
Der Laplace-Operator Δ und der Gradient beziehen sich auf die skalierten Raumver¨ anderlichen, anschließend wird wieder x , t , u an Stelle von x usw. geschrieben. Beispiel 9.9. = 0 [1 − β(ϑ − ϑ0 )] , f1 (ϑ) = 0 , f2 (ϑ) = (0 − )g/0 = βg(ϑ − ϑ0 ) . Dann ist
5 0 gβLΔϑ 0 5 (L/U )f (Δϑϑ) = = Fr ϑ ϑ U2 2
mit der dimensionslosen Froude-Zahl Fr = Re2 /Gr . Verwenden wir andererseits die obige Skalierung (3◦ ) , 5 , t = (L/U ) x = L x , y = L y , ϑ = (ϑ − ϑ0 )/Δϑ t (=⇒ u = U u ) und den skalierten spezifischen Druck p = (U 2 ) p , dann erhalten wir das usw.) dimensionsfreie System (wieder x , t , u statt x
494
9 Finite Elemente
5 =: g(ϑ) , ut + (grad u)u − Re−1 Δu + grad p = (L/U 2 )f (Δϑϑ) −1 = 0 , div u = 0 . ϑt + grad ϑ · u − (Re Pr ) Δϑ
(9.74)
Die Systeme (9.73) und (9.74) stellen eine erweiterte Geschwindigkeits-DruckForm der Navier-Stokes-Gleichungen dar mit quadratischem Konvektionsterm (8.79). Sie haben drei unabh¨ angige Variable t , x = (x, y) und vier abh¨ angige Variable u = (u1 , u2 ) , ϑ , und den Druck p . Das zugeh¨orige Anfangsrandwertproblem ist wieder ein differential-algebraisches Problem und wird in der gleichen Weise wie die NS-Gleichungen selbst numerisch gel¨ost. Die schwache Form von (9.73) ist nach partieller Integration (v, ut ) + (v, (grad u)u) + Re−1 (∇v, ∇u) − (div v, p) = (v, g(ϑ)) + (v, (Re−1 ∇u − p)n)Γ (w, ϑt ) + (w, grad ϑ · u) + (Re Pr )−1 (∇w, ∇ϑ) = (Re Pr )−1 (w, ϑn )Γ (q, div u) = 0; (9.75) vgl. auch § 8.10(a). Etwas ausf¨ uhrlicher (v1 , u1,t ) + (v1 , u1, x u1 + u1, y u2 ) + Re−1 (∇v1 , ∇u1 ) − (v1,x , p) = (v1 , g1 (ϑ)) + Re−1 (v1 , ∇u1 · n)Γ − (v1 , p n1 )Γ (v2 , u2,t ) + (v2 , u2, x u1 + u2, y u2 ) + Re−1 (∇v2 , ∇u2 ) − (v2,y , p) = (v2 , g2 (ϑ)) + Re−1 (v2 , ∇u2 · n)Γ − (v2 , p n2 )Γ −1
(w, ϑt ) + (w, ϑx u1 + ϑy u2 ) + (Re Pr ) = (Re Pr )−1 (w, ∇ϑ · n)Γ
(9.76)
(∇w, ∇ϑ)
(q, u1, x ) + (q, u2, y ) = 0 Semi-Diskretisierung ergibt nun an Stelle von (9.66) die Navier-StokesGleichungen f¨ ur Konvektionsstr¨ omungen: [M ][Ui ]t = −[B1 (Ui )][U1 ] − [B2 (Ui )][U2 ] − Re−1 [K][Ui ] − [Ci ][P ] +[M ][Gi (Θ)] + Re−1 [Ri ][Ui ] − [Si ][P ] , i = 1, 2 , [M ][Θ]t = −[B1 (Θ)][U1 ] − [B2 (Θ)][U2 ] − (Re Pr )−1 [K][Θ] + [R3 ][Θ] 0
=
[C1 ][U1 ] + [C2 ][U2 ]
(c) Massentransport Zus¨ atzliche physikalische Gr¨oßen: η σ S C f (C) J
Diffusionskoeffizient m2 /s Proportionalit¨ atskonstante Intensit¨ at der Massenquelle kg/(m3 · s) Massenkonzentration einer Substanz P kg/m3 spezifische Volumnekraftdichte m/s2 Massenflussdichte einer Substanz P kg/(m2 · s)
(9.77)
9.7 Vermischte Anwendungen
495
Wir betrachten eine Substanz P (pollution), z.B. einen Schadstoff, in einem ebenen Fluid. Die Substanz m¨ oge die Konzentration C besitzen, und der Ausstoß im Weltpunkt (t, x) betrage S Einheiten pro Sekunde. Dann muss der differentielle Impulserhaltungssatz um eine Gleichung f¨ ur C erweitert werden. Der Massenerhaltungssatz f¨ ur P ist hier als Ficksches Gesetz bekannt Ct + div J = S ,
(9.78)
und die Massenstromdichte von P besteht aus einem diffusiven und einem konvektiven Anteil J = −η grad C + uC . Wegen div u = 0 folgt div J = −η∇C + grad C · u und Einsetzen in (9.76) ergibt Ct + grad C · u − ηΔC = S . Unter der linearisierenden Annahme nach Boussinesq h¨angt nur die Volumenkraftdichte f von C ab, und man erh¨alt mit den Navier-StokesGleichungen zusammen die Grundgleichungen ut + (grad u)u − νΔu + Ct + grad C · u − ηΔC
1 grad p = f (C) = S.
(9.79)
Beispiel 9.10. = 0 [1 + σ(C − C0 )] , f1 (C) = 0 , (0 − )g f2 (C) = = −σg(C − C0 ) . 0 Randbedingungen f¨ ur C sind z.B. C = C1 auf ΓDC ,
−η
∂C = q C · n auf ΓN C ; ∂n
an einem nichtabsorbierenden oder reflektierenden Rand ist q C · n = 0 . Das System (9.79) ist formal das gleiche wie (9.73) bei Konvektionsstr¨omungen mit entsprechender Modifikation der Koeffizienten Sc =
ν gσΔCL3 Ra , Ra = , Gr = η νη Sc
(die Prandtl-Zahl heißt hier Schmidt-Zahl). (d) Flachwasserprobleme Verwendete Gr¨ oßen im (x, y, z)–Koordinatensystem: h mittlere Wassertiefe, w = h + z totale Wassertiefe, u Str¨omung nach Osten, z
u dζ mittlere Geschw. nach Osten, v = v Str¨ omung nach Norden, u = w−1 −h z v dζ mittlere Geschw. nach Norden, ϑ [m/s] Windgeschw. 10 m u w−1 ¨ber −h
496
9 Finite Elemente
der Wasseroberfl¨ ache, κ dimensionsloser Koeff. der Oberfl¨achenkraft durch Windeinfluss, ϕ [rad] Breitengrad, ψ Winkel der Windgeschw. geg¨ uber Ost, ω = 7.292 × 10−5 [rad/s] Winkelgeschw. der Erdrotation, f = 2ω sin ϕ [rad/s] Coriolis-Faktor, g = 9.81 [m/s2 ] Fallbeschl. μe [kg/m · s] Eddy-Viskosit¨at, ur Reibung am Meeresgrund, n Manning-Koeff. γ [m1/2 /s] Chezy-Koeff. f¨ der Rauhigkeit des Meeresgrundes. In Rechenbeispielen ist 5 × 104 < μe < 106 und etwa γ = n−1 h1/6 , n = 0.025 oder γ = 1.486 n−1 h1/6 , n = 0.0402 [Peraire] . Der Koeffizient κ h¨ angt von der Windgeschwindigkeit ab, z.B. ⎧ −3 ⎨ 1.0 × 10 (ϑ ≤ 5) κ = 1.5 × 10−3 (5 < ϑ ≤ 15) ⎩ 2.0 × 10−3 (15 < ϑ ≤ 20) . Nach dem Massenerhaltungssatz (Kontinuit¨ atsgleichung) gilt zt + (wu)x + (wv)y = 0 ,
(9.80)
und aus dem Impulserhaltungssatz folgt n¨ aherungsweise bei konstantem μe ut + u ux + v uy − f v + gzx κ ϑ2 gu(u2 + v 2 )1/2 μe (wux )x + (wuy )y + cos ψ − = w w w γ2 vt + u vx + v vy + f u + gzy κ ϑ2 gv(u2 + v 2 )1/2 μe sin ψ − (wvx )x + (wvy )y + = . w w w γ2 Wenn die Scherkr¨ afte, die Windkraft und die Reibungskr¨afte vernachl¨assigt werden, ergeben sich daraus die Flachwassergleichungen (shallow water equations) zt + (wu)x + (wv)y =0 u t + u u x + v u y − f v + g zx = 0 vt + u vx + v vy + f u + g zy = 0
.
(9.81)
¨ Beim Ubergang zum schwachen Problem wird wie u ¨blich die erste Gleichung mit einer Testfunktion δz f¨ ur z, die zweite mit einer Testfunktion δu f¨ ur u, die dritte mit einer Testfunktion δv f¨ ur v multipliziert und dann u ¨ber das Grundgebiet Ω integriert, bei der ersten Gleichung wird δz (wu)x + (wv)y dΩ = δz wx u + wy v dΩ + δz ux + vy w dΩ Ω
Ω
gesetzt, so dass insgesamt das schwache Problem
Ω
9.7 Vermischte Anwendungen
Ω Ω
δz zt dΩ = − δu ut dΩ = −
Ω Ω
δv vt dΩ = − Ω
δz uwx + vwy dΩ − δu uux + vuy ) dΩ + δv uvx + vvy dΩ −
Ω Ω
Ω
497
δzw ux + vy dΩ δu f v − g zx dΩ
(9.82)
δv f u + g zy dΩ
Ω
entsteht. Im Dreieck T werden daher die folgenden Tensoren zweiter und dritter Stufe ben¨ otigt M = [mi j ] , mi j = T ϕi ϕj dxdy , C = [ci j ] , ci j = T ϕi ϕj,x dxdy D = [di j ] , di j = T ϕi ϕj,y dxdy , P = [pi jk ] , pi jk = T ϕi ϕj ϕk dxdy Q = [q i jk ] , q i jk = T ϕi ϕj ϕk,x dxdy , R = [ri jk ] , ri jk = T ϕi ϕj ϕk,y dxdy . Damit ergeben sich aus (9.79) im einzelnen Dreieck die folgenden Gleichungen unter Verwendung der Einsteinschen Summenkonvention mi j z j t = −(q j ki wj uk + rj ki wj v k ) mi j uj t = −(q i jk uj uk + ri jk v j uk ) + pi jk f j v k − g ci j z j i
m jv
j
t
= −(q
i
jk u
j k
v +r
i
jk v
v )−p
j k
i
jk f
(9.83)
u − g d jz .
j k
i
j
Nach Einf¨ uhrung der Matrizen A(U, V ) = [ai k ] , ai k = q i jk uj + ri jk v j B(U, V ) = [bi k ] , bi k = q i kj uj + ri kj v j G(F )
= [g i k ] , g i k = pi jk f j
(lokale Numerierung im Dreieck) k¨ onnen die Gleichungen (9.83) zu einem System f¨ ur die globalen Knotenvektoren [Z] , [U ] , [V ] , [W ] zusammengefasst werden: [M ][Z]t = −[A(U, V )][W ] − [B(U, V )][W ] [M ][U ]t = −[A(U, V )][U ] + [G(F )][V ] − g [C][Z]
(9.84)
[M ][V ]t = −[A(U, V )][V ] − [G(F )][U ] − g [D][Z] . F¨ ur die numerische L¨ osung dieses Anfangswertproblems wird eine halbimplizite Version des Verfahrens von Heun vorgeschlagen; vgl. § 2.4 Beispiel 2.9. Dabei wird jede der drei Gleichung f¨ ur sich in der folgenden Weise mit dem Zeitschritt τ aufdatiert τ [M ][X]n+(1/2) = [M ][X]n + [M ][X]nt 2 (9.85) [M ][X]n+1
n+(1/2)
= [M ][X]n + τ [M ][X]t
und insgesamt f¨ ur n = 0, 1, . . . iteriert. F¨ ur [X] ist sukzessive eine der drei Variablen [U ] , [V ] , [Z] in dieser Reihenfolge einzusetzen und f¨ ur [M ][X]t die
498
9 Finite Elemente
jeweilige rechte Seite von (9.84). Um eine unerw¨ unschte numerische D¨ampfung abzumindern, empfiehlt [Kawahara], die Massenmatrix M = [mi k ] ∈ Rn n in (9.85) aufzuspalten (selective lumping). Dazu sei n 1 n 5 M = diag m k , ..., m k ∈ Rn n k=1
k=1
(lumped mass matrix) und 7 = εM 5 + (1 − ε) M , M dann wird an Stelle von (9.85) gem¨ aß 5][X]n+(1/2) = [M 7][X]n + 1 Δt [M ][X]nt [M 2 n+(1/2) n+1) n 5 7 [M ][X] = [M ][X] + Δt [M ][X]t
(9.86)
iteriert. Als Gewicht schl¨ agt [Kawahara] den Wert ε = 0.9 vor und gibt dann die Courant-Friedrichs-Levy-Bedingung 2−ε 1 Δt ≤ √ · 1/2 Δx (gH) 3 2 f¨ ur das Schrittweitenverh¨ altnis bei diesem Verfahren an; vgl. § 2.4(g2). Die L¨ osung von Flachwasserproblemen mit dem System (9.81) und dem Verfahren (9.85) bzw. (9.86) erweist sich auch bei Anwendung einiger Kunstgriffe wie mass lumping als instabil. Die Wahl eines m¨oglichst großen Zeitschritts Δt unter Ber¨ ucksichtigung der Courant-Friedrichs-Levy-Bedingung aus § 2.4(g2) scheint die besten Ergebnisse zu liefern. Es ist auch zu beachten, dass (9.85) und (9.86) sehr einfache Diskretisierungen in Zeit-Richtung darstellen.
9.8 Beispiele In diesem Abschnitt werden bekannte und weniger bekannte Beispiele zum vorigen Abschnitt behandelt und zwar entweder in der zeitabh¨angigen dynamischen Form oder in der zeitunabh¨ angigen station¨ aren Form. Navier-StokesProbleme und Konvektionsprobleme werden mit dem Taylor-Hood-Element gel¨ ost. DAE-Probleme werden mit dem semi-expliziten Runge-Kutta-Verfahren dritter Ordnung von Brazey in Satz 2.17 gel¨ost. (a) Navier-Stokes-Gleichungen Alle Probleme hier und in (b) enthalten den nichtlinearen Konvektionsterm.
9.8 Beispiele
499
Beispiel 9.11. Lid Driven Cavity (Benchmark-Problem [Gresho]). Station¨ ares Problem, 1089 Knoten; ν = 0.5 · 10−3 , am Rand u1 = 1 oben und Null sonst, u2 = 0 auf dem ganzen Rand. Start mit ν = 0.01 , drei Fortsetzungsschritte (Abb. 9.19). Beispiel 9.12. Flow Past Half Cylinder (Benchmark-Problem [Gresho]). Instation¨ ares Problem, 1860 Knoten (rel. grobes Gitter); skaliertes Problem mit Re = 104 , u1 = 0.1 am linken Rand (inflow), Kaltstart. 600 Schritte mit Δt = 0.05 . (Abb. 9.20 und 9.21). Beispiel 9.13. Flow Past Cylinder (Benchmark-Problem [Ninomiya]). Station¨ ares Modellproblem, 1360 Knoten; ν = 0.1 , u1 = 1 am linken Rand (inflow), Druck nach [Sohn] mit impliziter Druck-Bedingung. (Abb. 9.22 und 9.23). Beispiel 9.14. Back Facing Step (Benchmark-Problem [Ninomiya], [Barton]). Aus Speicherplatzgr¨ unden wird das instation¨ are Problem in der Stromfunktion-Wirbelform berechnet (Abb. 9.24 und 9.25). ν = 1.338 · 10−5 , Δt = 7.5 · 10−5 , Kaltstart mit w0 = 0 . (A): z = 0.36 , w = 0 , (C): z = 0 , w = w∗ , v = 0 , (D): Outflow frei , (B): Inflow mit y u dy = 10(y − 0.02) , z(0.056) = 0.36 , w = 0 . u = 10 , v = 0 , z(y) = 0.02
unstliche Randwirbelst¨ arke zu deren Berechnung auf die 1. Aufw∗ ist eine k¨ R -Suite. In Abb. 9.25 ist lage verwiesen werden muss oder auf die MATLAB das Problem skaliert mit der Stufenh¨ ohe L = 0.02 als char. L¨ange und U = 10 = 500 der Geschw. u = 10 am als char. Geschw., so dass Re = 14950 und u linken Rand entspricht. Zur Illustration wird aber u = 1500 gew¨ahlt, was der Geschw. u = 30 entspricht. Versch. Gitter mit den gleichen Daten wurden getestet. Die Ergebnisse stimmen in der N¨ ahe der Stufe u ¨berein, unterscheiden sich aber weiter rechts. Dieser Effekt ist m¨oglicherweise auf die einfache Iteration in t-Richtung zur¨ uckzuf¨ uhren und auf den Mangel an besseren Stabilisierungsmethoden. Die Abb. zeigt auch, dass der Fluss instation¨ar ist und ein periodisches Verhalten entwickelt. Beispiel 9.15. Beispiel exakter L¨ osung f¨ ur NS-Probleme nach [Boukir] (Abb. 9.26). Ω =]0 , 1[ × ] − 0.5 , 0.5 [ ; b > 0 Parameter, ν = 1/b . Externe Kraft:
πb2 cos(πx) sin(πx) f= −πb2 sin(πy) cos(πy) + 4π 2 cos(πx) cos(πy) . L¨ osung: u1 (x, y) = b sin(πx) sin(πy) , u2 (x, y) = b cos(πx) cos(πy) , div u = 0 p(x, y) dxdy = 0 . p(x, y) = 2π cos(πx) sin(πy) , Ω
(9.87)
500
9 Finite Elemente
Randbedingung u = g auf dem ganzen Rand nach (9.87). Numerische Ergebnisse f¨ ur b = 10 und 1089 Knoten total; Kontourlinien f¨ ur p , u1 , u2 ; exakte L¨ osung gestrichelt (verdeckt). (b) Konvektionsstr¨ omungen Beispiel 9.16. Convection in a Cup [Ninomiya]) (Abb. 9.27 und 9.28). ν = 0.005 , u1 = 0 unten, links und rechts, u2 = 0 u ¨berall auf dem Rand, ϑ = 60 0 C unten, ϑ = ϑext = 15 0 C links und rechts, q · n = h(ϑ − ϑext ) , h = 0.04 oben. Start mit u = 0 , ϑ0 = 15 0 C ; 800 Zeitschritte mit Δt = 0.1 . Beispiel 9.17. Konvektion im Einheitsquadrat (Benchmark-Problem). Ra = 105 , Pr = 1 , 800 Schritte mit Δt = 10−4 . Kaltstart mit u = 0 , ϑ0 = 0.5 0 C ; u = 0 auf dem ganzen Rand, ϑ = 0 links, ϑ = 1 rechts, 289 Knoten total, (Abb. 9.29 und 9.30). ´nardsche Zelle. Nat¨ Beispiel 9.18. Be urliche Konvektion von Wasser in einem geschlossenen Gef¨ aß mit L¨ ange L = 0.12 [m] und H¨ohe h = 0.01 [m] , Temperatur ϑ = 1 0 C am Boden, ϑ = 0 0 C an der Oberfl¨ache. Skaliertes Problem wie in § 9.7(b) mit Δϑ = 1 und ΔL = h , ν = 1 , Pr = 7.174 , λ = 1/Pr , Fr = 2.5 · 103 ; 1200 Zeitschritte mit Δt = 0.002 . (Abb. 9.31 und 9.32). (c) Flachwasserprobleme Beispiel 9.19. Gezeiten in einer Bucht mit Insel [Ninomiya]) Periode T = 12 [Std.] , Randbedingungen uste), un = u1 n1 + 2 = 0 in ΓK (K¨ u2 n 2π t in ΓS (offene See). z(t) = A sin T
(9.88)
A = 1 [m] Amplitude, n = (n1 , n2 ) Normalenvektor. Anfangsbedingungen (Kaltstart) f¨ ur t = 0 in Ω sind z = 0, u1 = 0, u2 = 0 . (Abb. 9.33 und 9.34). Beispiel 9.20. Wellen in einem Wasserbecken ; cf. [Ninomiya]. L¨ ange 1000 [m] , Breite 1600 [m] , Tiefe h = 20 [m]. Am linken Rand wird eine Welle erzeugt wie in (9.88): z(t) = A sin(2π t/T ) , A [m] Amplitude, T [sec] Periode . (Wellengeschw. c = (g h)1/2 [m/s] und Wellenl¨ ange λ = c T [m] werden nicht verwendet.) Mit den Anfangswerten (U, V, Z) = (0, 0, 0) und A = 1 wird der Wasserstand am linken Ende und am rechten Ende des Beckens eine Stunde lang gemessen. Regelm¨ assige Dreieckszerlegung mit 5-facher Unterteilung der x-Achse und 2-facher Unterteilung der y-Achse; L¨osung mit ode23.m (Bildfolge). (Abb. 9.35, 9.36, 9.37, 9.38).
9.8 Beispiele
501
Beispiel 9.21. Welle in einem Kanal [Petera], (Abb. 9.39). In einem flachen Kanal der L¨ ange 3000 [m], der Breite b = 200 [m] und der Wassertiefe h = 10 [m] wird am linken Ende eine Welle erzeugt wie in (9.88), z(t) = A sin(2π t/T ) , A = 0.3 [m] Amplitude, T = 300 [sec] Periode . Als Besonderheit wird die Wellengeschwindigkeit ur (t) = z(t)(g/(h + z(t)))1/2 am rechten Kanalende vorgegeben um einen unendlich langen Kanal zu simulieren [Petera]. Mit den Anfangswerten (U, V, Z) = (0, 0, 0) wird der Wasserstand am rechten Ende des Kanals nach T Sekunden f¨ ur einen Zeitraum von T Sekunden gemessen und das Ergebnis mit der exakten L¨osung x , x = 3000 [m] z(t, x) = A sin t − (g(h + z(t)))1/2 [Petera] verglichen. Der Kanal wird zun¨ achst in regelm¨aßige Quadrate der Seitenl¨ aenge 100 [m] unterteilt und diese dann in jeweils zwei Dreiecke; L¨osung mit dem modifizierten Euler-Verfahren ohne lumping (Bildfolge). Beispiel 9.22. Solit¨ arwelle an einem Strand [Petera] (Abb. 9.40 und 9.41). In einem Kanal der L¨ ange 40 [m], der Breite b = 2 [m] und der Wassertiefe h = −x/30 [m] wird am rechten Ende eine Solit¨arwelle erzeugt: −2
1 1/2 −1 (3a0 ) (x − α ) , z(t) = a0 cosh 2 z(t) 1 , a0 = 0.1 , α = 1/30 . u(t) = − 1 + a0 2 αx + z(t) Die Wellenform wird 25 Sekunden lang jede Sekunde berechnet. (d) Scheiben und Platten Beispiel 9.23. Gabelschl¨ ussel. L¨ ange in [cm], E = 0.2 · 108 [N/cm2 ] , ν = 0.3 , H¨ ohe = 0.7 [cm] , (A) Lager, (B) Last ∼ 27 [N/cm] , Gesamtkraft ∼ 218 [N ]. σ1 > σ2 sind die beiden Eigenwerte des Spannungstensors σ in den Knotenpunkten; σ1 ist vorwiegend positiv und σ2 vorwiegend negativ. (Abb. 9.42, 9.43, 9.44, und 9.45). Beispiel 9.24. Kirchhoff-Platte nach [Batoz] (Abb. 9.46). L¨ ange 30.48 [cm] , Breite 21.5526 [cm], H¨ ohe 0.3175 [cm] , E = 0.35153606 · 107 [kp/cm2 ] , ν = 0.3 , gleichm¨aßige Lastdichte q = 1.83262778799 · 10−2 [kp/cm2 ]; die Platte ist an der x-Achse eingespannt. Testwerte in cm: Nr.
1
berechnet 0.7540
2
3
4
5
6
0.5180
0.3070
0.3280
0.1420
0.0560
gemessen 0.75438 0.51816 0.30734 0.32766 0.14224 0.05588
.
−3
5
−3 −5
−01 3
−9
−5
−−13−50 41 8 6 1 0 32 7
−5
−1
0 −1
−7
2
−3
−3
1
9 Finite Elemente
2
−7
3 1 −1 −3 −5
−1
1
−9
−13
−1 1
−9
−3
−5
−7
−11
−5 −3
−3
−7
−13
−5 −9
−11 −9
0 −1
−7 −5
502
−7 −5
−3
−3
−1 −1
0
0
Abb. 9.19. Ex. 9.11, Stromlinen, Druck (×102 )
2
1.5
1
0.5
0 −3
−2
−1
0
1
2
3
Abb. 9.20. Bsp. 9.12(a), Stromlinien
2
1.5
1
0.5
0 −3
−2
−1
0
1
2
Abb. 9.21. Bsp. 9.12(b), Niveaulinien f¨ ur Druck
Abb. 9.22. Bsp. 9.13, Stromlinien
3
9.8 Beispiele
503
Abb. 9.23. Bsp. 9.13, Niveaulinien f¨ ur Druck 0.08
(A)
0.06 0.04
(B)
(D)
0.02 (C) 0
(C)
−0.02 0
0.05
0.1
0.15
0.2
0.25
0.3
0.35
Abb. 9.24. Bsp. 9.14, unskalierte Geometrie, Gitter
Abb. 9.25. Bsp. 9.14, skaliert t = k · 9.375 [ms] , k = 1 : 4
Abb. 9.26. Bsp. 9.15, u1 , u2 , p (exakt und numerisch) 3
3
2.5
2.5
15
1
0.5
0.5
17
1
20
2
1.5
20
2
1.5
16
16
15
17
25
30
0
50
0 0
1
2
3
4
5
6
Abb. 9.27. Bsp. 9.16, Stromlinien
0
1
2
3
4
5
Abb. 9.28. Bsp. 9.16, Isotermen
6
504
9 Finite Elemente 1
0.9
0.8
0.8
0.7
0.7
9
0.
1
0.9
0.8
0.7
0.6
0.6
0.5
0.5
0.4
0.4
0.3
0.3
0.2
0.2
0.1
0.1
0
0
0.6
0.5
0.4
0.3
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
1
0.1
0.
0
0
Abb. 9.29. Bsp. 9.17, Stromlinien
0.2
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1
Abb. 9.30. Bsp. 9.17, Isothermen
1 0.5 0
0
2
4
6
8
10
12
10
12
Abb. 9.31. Bsp. 9.18, Isothermen 1 0.5 0
0
2
4
6
8
Abb. 9.32. Bsp. 9.18, Stromlinien 16000
16000
14000
14000
0.38 12000
0.4
0.5 8000
−0
10000
−0
−0.9
.9
1
.99
7
4
0.34
0.4
10000
.95
.9
−0
0.47
−0
0.36
1
92
−0.
12000
−0.9
−1 8000
0.33 8
−0.9
0.3
36
8
6
0.4
1 4000
2000
2000
0
2000
4000
6000
8000
Abb. 9.33. Bsp. 9.19, 1. Stunde
0
−0
3 −0.9 94 . −0
6000
0.
4000
0
−0.
−0.9
0.44
6000
91
.9
5
0
2000
4000
6000
8000
Abb. 9.34. Bsp. 9.19, 9. Stunde
Wasserst¨ ande relativ zu Normalnull
9.8 Beispiele 10
5
0
−5
−10
0
10
20
30
40
50
60
50
60
50
60
50
60
Abb. 9.35. Bsp. 9.20, T = 180
10
5
0
−5
−10
0
10
20
30
40
Abb. 9.36. Bsp. 9.20, T = 360
10
5
0
−5
−10
0
10
20
30
40
Abb. 9.37. Bsp. 9.20, T = 540
10
5
0
−5
−10
0
10
20
30
40
Abb. 9.38. Bsp. 9.20, T = 720
505
506
9 Finite Elemente 0.5
m
0.4
0.3
0.2
0.1
0
−0.1
−0.2
−0.3
−0.4
−0.5
× 100 sec. 3
3.5
4
4.5
5
5.5
6
Abb. 9.39. Bsp. 9.21, Wasserstand exakt und berechnet 0.2
m 0.15
ζ
ζ
0
0.1
a = 0.1 0
0.05
0
1:30
1m
−0.05
sea bed u0
−0.1
u −0.15
× 10 m
40 m −0.2
Abb. 9.40. Bsp. 9.22, Randbedingungen
0
0.5
1
1.5
2
2.5
3
3.5
4
Abb. 9.41. Bsp. 9.22, Wasserst¨ ande
10
8
(A) (A)
6
(B)
4
2
0
0
5
10
15
20
Abb. 9.42. Bsp. 9.23, Geometrie
Abb. 9.43. Bsp. 9.23, Hauptspannungslinien
Abb. 9.44. Bsp. 9.23, Kontouren von σ1
Abb. 9.45. Bsp. 9.23, Kontouren von σ2
R 9.9 Hinweise zu den MATLAB -Programmen
507
25
3
2
1
20
15
6
10
5
4
5
0 0
5
10
15
20
25
30
35
40
45
50
55
Abb. 9.46. Bsp. 9.24, Geometrie
R 9.9 Hinweise zu den MATLAB -Programmen
Kapitel IX/FEM_1, Elliptische Randwertprobleme demo1.m Beispiel, lineare Dreieckelemente demo2.m Beispiel, lineare Parallelogrammelemente demo3.m Beispiel, quadratische Dreieckelemente demo4.m Beispiel, quadratische Dreieck- und Parallelogrammelemente demo5.m Beispiel, kubische Dreieck- und Parallelogrammelemente demo6.m Beispiel, isopar.quadratische Dreieckund Viereckelemente ellipt1.m Lineare Dreieckelemente ellipt2a.m Lineare Parallelogrammelemente ellipt2b.m Isopar. Viereckelemente ellipt3.m Quadratische Dreieck- und Parallelogrammelemente ellipt4.m Kubische Dreieck- und Parallelogrammelemente ellipt5.m Isopar. Dreieck- und Viereckelemente Der Ordner enthaelt ferner 16 Elemente von H.R. Schwarz in MATLAB-Schreibweise Kapitel IX/FEM_2, Scheiben und Platten demo1.m Masterfile fuer Scheibenprobleme demo2.m Masterfile fuer Plattenprobleme nach H.R.SCHWARZ demo3.m Masterfile fuer Plattenprobleme nach BATOZ fem_batoz.m Nichtkonformes quadratisches Dreieckelement fem_batoz1.m Hilfsfile fuer FEM_BATOZ.M fem_drkpla.m Nichtkonformes kubisches Dreieckelement nach ZIENKIEWICZ scheibe3.m Scheibenproblem, kubische Dreieckelemente spaqua1.m Spannungsberechnung fuer kubische Dreieckelemente Der Ordner enthaelt ferner 4 Plattenelemente von H.R. Schwarz in MATLAB-Schreibweise
508
9 Finite Elemente
Kapitel XI/STOKES, Navier-Stokes-Probleme in Geschwindigkeits-Druck-Form Stationaere Probleme: demo1.m: Lid-Driven Cavity linear demo2.m: Lid-driven Cavity linear, Mini-Elemente demo3.m: Flow past Half-Cylinder, linear demo4.m: Lid-Driven Cavity mit Konvektionsterm einfache Iteration demo5a.m: Beispiel mit exakter Loesung nach BOUKIR demo6.m: Lid-Driven Cavity NEWTON-Verfahren, Start mit NU = 0.01; Restart mit NU = 0.005, NU = 0.001 und NU = 0.0005 demo9.m: Flow past Half-Cylinder, NEWTON-Verfahren demo11.m: Flow past Cylinder, NEWTON-Verfahren demo12.m: Buchstaben F E M linear demo13.m: Backfacing Step, NEWTON-Verfahren Instationaere Probleme mit Konvektionsterm: demo5b.m: Beispiel mit exakter Loesung nach BOUKIR Semi-explizites Runge-Kutta-Verfahren demo5d.m: Beispiel mit exakter Loesung nach BOUKIR Explizites EULER-Verfahren nach GRESHO demo5e.m: Beispiel mit exakter Loesung nach BOUKIR Implizites EULER-Verfahren nach GRESHO demo5f.m: Beispiel mit exakter Loesung nach BOUKIR Explizites EULER-Verfahren mit pressure SCHUR complement nach TUREK demo8.m Lid-Driven Cavity semi-explizites Runge-Kutta-Verfahren demo10.m: Flow past Half-Cylinder semi-explizites Runge-Kutta-Verfahren demo14.m: Backfacing Step semi-explizites Runge-Kutta-Verfahren ellipt_post.m: Postprozessor zur Berechnung der Stromlinien pressure.m: Postprocessor nach SOHN zur Berechnung des Drucks aus dem Geschwindigkeitsfeld Kapitel IX/Konvektion demo1.m: Thermal Flow in a Cup Stationaeres Problem linear demo2.m: Convection in a Square Box Stationaeres Problem, linear demo3.m: Benard Cell Stationaeres Problem mit Konvektionsterm Instationaere Probleme mit semi-explizitem Runge-Kutta-V.: demo4.m: Thermal Flow in a Cup
R 9.9 Hinweise zu den MATLAB -Programmen
509
demo6.m: Konvektion in quadratischem Behaelter demo7.m: Benardsche Zelle Kapitel IX/TIDAL, Flachwassergleichungen Dieser Ordner enthaelt MATLAB-Versionen der BASIC-Programme von H.Ninomiya/K.Onishi und weitere Anwendungen demo1a.m Insel in Bucht demo1b.m Insel in Bucht, mod. Randbedingung demo2.m Kanal mit ode23.m demo3.m Langer Kanal demo4.m Solitaerwelle an Strand flow_1.m Stroemung und Tide mit Lumping flow_2.m Wie flow_1.m aber mit Selektiv-Lumping flow_3.m Wie flow_1.m aber mit voller Massenmatrix rside1.m Rechte Seite fuer Differentialsystem vnomal.m Randbedingung fuer Stroemung Zur Darstellung der Daten bei Finite-Element-Methoden: Der ¨außere Rand muss im math. positiven Sinn geordnet sein; ein ev. auftretender innerer Rand wird im negativen Sinn durchlaufen. Knoten: (Reihenfolge beliebig fest) p(1 , : ) X-Komponenten, p(2 , : ) Y-Komponenten. Rand: (geordnet) e(1 , : ) Nr. der Anfangspunkte, e(2 , : ) Nr. der Endpunkte, e(3 , : ) Anfangswerte der Kurvenparameter, e(4 , : ) Endwerte der Kurvenparameter, e(5 , : ) Segment-Nummern, ev. weitere Merkmale. lineare Dreieckselemente: (Reihenfolge beliebig fest) t(1 : 3 , : ) Nrn. der Eckpunkte, dann ev. weitere Merkmale. quadratische Dreieckselemente: (Reihenfolge beliebig fest) t(1 : 3 , : ) Nrn. der Eckpunkte, t(4 : 6 , : ) Nrn. der Seitenmitten, ev. weitere Merkmale in anschließenden Zeilen. Parallelogrammelemente: (Reihenfolge beliebig fest) t(1 : 4 , : ) Nrn. der Eckpunkte. Bei der weiteren Programmentwicklung wird eine Unabh¨angigkeit von der Matlab PDE-Toolbox angestrebt. Beispiel 9.25. Etwas vereinfachte Gebietszerlegung f¨ ur Beispiel 9.2: Hinweis: Bei sehr einfachen Beispielen kann die dritte und vierte Zeile der Kantenmatrix e Null gesetzt werden, weil sie nur bei Netzverfeinerung gebraucht werden.
510
9 Finite Elemente
5
16
17
20
24
27
29
13
15
19
23
26
28
10
11
6
7
3
4
4.5 4 3.5 3
14
21
25
22
2.5
18
2
9
12
1.5 1
8
0.5 0
1 0
2 1
5 2
3
4
5
Abb. 9.47. Bsp. 9.25, Geometrie
Daten f¨ ur das Gitter von Abb. 9.47: function [p,e,t] = bsp01 % Knoten p1 = [0 1 0 1 2 0 1 2.17157 1.8 0 1 2.6 0 2 1 0; 0 0 1 1 0 2 2 1 2 3 3 1.8 4 3 4 5]; p2 = [1 3.2 2 2 3 4 3 3 5 4 4 5 5; 5 2.4 4 5 3.2 2.82843 4 5 3 4 5 4 5]; p = [p1,p2]; % Dreiecke t1 = [2 4 4 4 8 7 9 9 12 14 14 18 19 21 21 22 25 1; 5 5 8 9 12 9 14 12 18 18 21 22 21 22 26 25 28 2; 4 8 9 7 9 11 11 14 14 21 19 21 23 26 23 26 26 4]; t2 = [4 3 7 6 11 10 15 11 19 13 17 15 20 19 24 23 27 26 29; 3 4 6 7 10 11 13 14 15 15 16 19 17 23 20 26 24 28 27; 1 7 3 11 6 15 10 19 11 17 13 20 15 24 19 27 23 29 26]; t = [t1,t2]; % Rand e1 = [1 2 5 8 12 18 22 25 28 ; 2 5 8 12 18 22 25 28 29 ; 0 1/2 0 1/5 2/5 3/5 4/5 0 1/2 ; 0/2 1 1/5 2/5 3/5 4/5 1 1/2 1 ; 1 1 2 2 2 2 2 3 3 ]; e2 = [ 29 27 24 20 17 16 13 10 6 3 ; 27 24 20 17 16 13 10 6 3 1 ; 0 1/5 2/5 3/5 4/5 0 1/5 2/5 3/5 4/5; 1/5 2/5 3/5 4/5 1 1/5 2/5 3/5 4/5 1 ; 4 4 4 4 4 5 5 5 5 5]; e = [e1,e2];
10 Abriss der Tensorrechnung
10.1 Tensoralgebra Solange ein festes Koordinatensystem zu Grunde liegt, und das Auftreten von ¨ Ubermatrizen vermieden wird, reichen die bisher eingef¨ uhrten Formeln der Matrizenrechnung und der Vektoranalysis in ihrer Operatorform vollst¨andig aus und ergeben ein pr¨ agnantes und u ¨bersichtliches Bild. Aber schon das Taylor-Polynom zweiter Ordnung f¨ ur eine Funktion f : Rm → Rn zeigt die Grenzen dieser Darstellung; man vergleiche (Entwicklungspunkt x0 = 0) 1 f (x) ≈ f (0) + ∇f (0)x + ∇∇f (0)(x, x) 2 n n n ∂fi 1 ∂ 2 fi fi (x) ≈ fi (0) + (0)xj + (0)xj xk , i = 1 : n ; ∂xj 2 j=1 ∂xj ∂xk j=1 k=1
bereits das n¨ achste Glied ist keine Matrix im gew¨ohnlichen Sinn mehr, sondern ein Tensor dritter Ordnung. Noch gravierender treten die M¨angel in der Differentialgeometrie zu Tage, wenn man etwa den Divergenzsatz von Gauß oder den Rotationssatz von Stokes f¨ ur Vektorfelder formulieren will, die auf einer Kugeloberfl¨ ache leben oder allgemeiner auf einer differenzierbaren Mannigfaltigkeit. Die Tensoralgebra und ihre infinitisimale Schwester, die Tensoranalysis, stellen das Rechenkalk¨ ul bereit, mit dem diese L¨ ucken geschlossen werden k¨ onnen; allerdings muss der h¨ ohere Informationsgehalt mit einem erheblich h¨ oheren Schreibaufwand bezahlt werden. Zum vollen Verst¨ andnis des Kalk¨ uls muss mit Paaren von Vektorr¨aumen gearbeitet werden, n¨ amlich mit einem (hier stets reellen) Vektorraum V und seinem Dualraum Vd , dessen Elemente auch Kovektoren genannt werden und nach §1.7(e) lineare und stetige Abbildungen f : V → R sind. Hier ist aber der Grundraum V stets endlichdimensional, daher sind alle diese linearen Funktionale u ¨ber V automatisch stetig, und die zweite Forderung entf¨allt mitsamt der Frage nach der zu Grunde liegenden Topologie. E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6 10, c Springer-Verlag Berlin Heidelberg 2010
512
10 Abriss der Tensorrechnung
Die duale Paarung wird in besonderer Weise durch schr¨ age Klammern hervorgehoben, ∀ v ∈ V ∀ v d ∈ Vd : v d (v) = v d , v! . Andererseits kann v ∈ V als Abbildung v : Vd v d → v(v d ) = v, v d ! := v d , v! ∈ R aufgefasst werden. Die Identifizierung von V mit seinem Bidualraum [Vd ]d wird kanonischer Isomorphismus genannt und die Beziehung v, v d ! = v d , v! wird k¨ unftig ohne weiteren Kommentar verwendet; siehe auch (c). Allgemein ist ein Tensor eine multilineare Abbildung mit Argumenten in V oder Vd und mit skalaren Werten in R , also ein multilineares Funktional (genaue Definition sp¨ ater). In der Tensoralgebra wird das Verhalten dieser Abbildung unter Transformationen des Koordinatensystems untersucht. Wenn diese Regeln einmal bekannt sind, werden die Basiselemente von V und Vd h¨aufig weggelassen, und es wird nur mit den zugeh¨ origen Feldern reeller Zahlen gearbeitet. Die Lage der Daten in einem n-dimensionalen Datenfeld wird durch n Indizes beschrieben. Solange keine Symmetrien vorliegen, darf die Reihenfolge dieser Indizes nicht vertauscht werden, m.a.W. die horizontale Lage der Indizes ist fest, z.B. a12 = a21 . Die vertikale Position der Indizes bleibt aber zun¨achst frei und kann f¨ ur weitere Informationen u ¨ber das Datenfeld verwendet werden. Wie schon mehrfach betont ist es sinnvoll, die Elemente des Primalraums V als formale Spaltenvektoren und die Elemente des Dualraums Vd als formale Zeilenvektoren aufzufassen. Dann sind der Koordinatenraum Rn der Spaltenvektoren und der Koordinatenraum Rn der Zeilenvektoren stets anschauliche Beispiele f¨ ur die Vektorr¨ aume V und Vd . Regel f¨ ur reale und formale Vektoren: Index unten (Spalten): v i ∈ Rn , v i ∈ V Index oben (Zeilen): v i ∈ Rn , v i ∈ Vd
.
Die Elemente eines Spaltenvektors x ∈ Rn 1 =: Rn sind einelementige Zeilen, deswegen wird ihr Index obengeschrieben etc.; vgl. § 1.1(a1). Dann bedeutet z.B. das Herunterziehen von Indices“ die Transformation von Zeilen- in ” Spaltenvektoren und das Heraufziehen“ hat die umgekehrte Bedeutung (zwei ” R ). Außerdem k¨onnen alle Formeln fundamentale Operationen bei MATLAB leichter auf ihre Richtigkeit u uft werden, indem man sie auf die R¨aume ¨berpr¨ Rn und Rn anwendet. Als Folgerung ist es wieder sinnvoll, zun¨achst die Regeln der Matrizenmultiplikation in den Vordergund zu stellen und das Skalarprodukt getrennt einzuf¨ uhren.
10.1 Tensoralgebra
513
Um den Schreibaufwand etwas zu reduzieren, treffen wir nach Einstein die Vereinbarung: •
Wenn ein Index einfach auftritt, dann gilt die Gleichung f¨ ur alle Werte dieses Index.
•
Wenn ein Index doppelt auftritt, dann ist u ¨ber diesen Index zu summieren.
Ausnahmen von der zweiten Regel sind nicht zu vermeiden und m¨ ussen besonders gekennzeichnet werden. Außerdem sei gesagt, dass bei einem doppelten Auftreten von Indices und tensorgerechter Schreibweise dieser Index einmal unten und einmal oben stehen sollte. Beispiel 10.1. (1◦ ) (Tensoren in Komponentenform) (i) Es sei a ∈ Rm ein Spaltenvektor, dann ist die Abbildung T : Rm x → x a ∈ R ein 1-Tensor mit dem Datenfeld a . (ii) Es sei A ∈ Rm n eine Matrix , dann ist die Abbildung T : Rm × Rn (x, y) → xAy ∈ R ein 2-Tensor mit dem Datenfeld A , vgl. (e). (2◦ ) Bei einer Matrix A = [ai k ] ∈ Rm n ist der obere Index i der Zeilenindex und der untere Index k der Spaltenindex. Die transponierte Matrix AT = [ai k ] entsteht aus A durch Herunterziehen des ersten und Heraufziehen des zweiten Index. Eine Vertauschung der beiden Indizes i und k bedeutet ¨ lediglich eine Anderung der Schreibweise und macht daher keinen Sinn, jedoch bedeutet ai k = ak i , dass die Matrix symmetrisch ist. ur zwei kompatible (3◦ ) Die Matrizenmultiplikation ist nichtkommutativ. F¨ Matrizen A = [ai k ] und B = [bi k ] gilt i.A. A B = B A , aber nach Einstein k¨ onnen wir auch schreiben C = [ci k ] := A B = ai j bj k = bj k ai j C T = [ci k ] := B T AT = bj k ai j = ai j bj k ,
(10.1)
weil die skalare Multiplikation kommutativ ist. Deswegen spielt die Lage der Komponenten im Produkt keine Rolle sondern die Stellung ihrer Indizes. ur x ∈ Rn und y ∈ Rn gilt nat¨ urlich yAT = (Ay T )T . Aus den Ein(4◦ ) F¨ steinschen Regeln folgt weiter m Ax = a1 x1 + . . . + an xn = ai k xk (= xk ai k ) = [bi ]m i=1 ∈ R yA = y1 a1 + . . . + ym am = yi ai k (= ai k yi ) = [bk ]nk=1 ∈ Rn AT x (= ai k xi = xi ai k ) = ai k xi = [bk ]nk=1 ∈ Rn yAT (= yk ai k = ai k yk ) = yk ai k = [bi ]m i=1 ∈ Rm .
(a) Basis- und Komponententransformation Es sei δ der Einheitstensor mit den Komponenten δ i k (Kronecker-Symbol), also δ i i = 1 (ohne Summaur i = k, und es seien tion) und δ i k = 0 f¨
514
10 Abriss der Tensorrechnung
E = {e1 , . . . , en }, F = {f 1 , . . . , f n } zwei Basen in V , Ed = {e1 , . . . , en }, Fd = {f 1 , . . . , f n } die Dualbasen in Vd , so dass gilt
ei , ek ! := ei (ek ) = δ i k ,
f i , f k ! := f i (f k ) = δ i k .
(10.2)
Hier wird also z.B. das Funktional ei an der Stelle ek berechnet. Durch die Forderung (10.2) ist die eindeutige Existenz der Dualbasis gew¨ahrleistet. Die Basis {e1 , . . . , en } soll Referenzbasis oder kanonische Basis genannt werden (im Rn z.B. die Einheitsvektoren). Die Elemente von F lassen sich als Linearkombination der Elemente von E und die Elemente von Fd als Linearkombination der Elemente von Ed darstellen, f k = ei ai k , f i = bi k ek . In formaler Schreibweise gilt also F = EA , Fd = BEd , Ed E = δ , Fd F = δ
(10.3)
mit regul¨ aren Matrizen A = [ai k ] und B = [bi k ] , wobei formal“ bedeutet, ” dass mit den Elementen von E , F wie mit Spaltenvektoren und mit den Elementen von Ed , Fd wie mit Zeilenvektoren gerechnet werden darf. Wegen (10.3) gilt δ = Fd F = BEd EA = BA =⇒ B = A−1 . Skalarprodukte in V und Vd k¨ onnen durchaus verschieden sein, werden hier aber beide mit einem Punkt · “ bezeichnet. Ist nach Vorgabe eines Skalar” produktes in V die Basis E eine kartesische oder orthogonale Basis (eigentlich orthonormale Basis) mit der Eigenschaft ei · ek = δ i k , dann ist F ebenfalls kartesisch genau dann, wenn A orthogonal ist also B = AT . F¨ ur zwei Vektoren v = e1 x1 + . . . en xn =: ei xi ∈ V , w = y1 e1 + . . . yn en =: yi ei ∈ Vd folgt in formaler Schreibweise sofort = Ex = EAA−1 x = FA−1 x v = Fx
=⇒ x = A−1 x ≡ Bx ∈ Rn
w= y Fd = yEd = yB −1 BEd = yB −1 Fd =⇒ y = yA ∈ Rn ,
(10.4)
(Man beachte den Unterschied zwischen einem Vektor v ∈ V und seinem Komponentenvektor x ∈ Rn .) Unendlich-dimensionale Vektorr¨ aume werden generell durch gewisse Eigenschaften ihrer Elemente definiert ( die stetigen Funktionen auf [a , b] bilden ” den Vektorraum C[a, b]“). Endlichdimensionale Vektorr¨aume dagegen werden gemeinhin durch die Angabe einer Basis von linear unabh¨angigen Elementen beschrieben, und die Komponenten machen ohne eine Basis keinen Sinn. Aus diesem Grund orientieren sich die folgenden fundamentalen Bezeichnungen an der Basis eines Vektorraums V .
10.1 Tensoralgebra
515
•
Eine Transformation heißt kovariant (zu der Transformation der Basis von V), wenn sie die gleiche Form wie F = EA hat.
•
Eine Transformation heißt kontravariant (zu der Transformation einer Basis von V), wenn sie die gleiche Form x = A−1 x wie die Transformation n der Komponentenvektoren x ∈ R von V hat.
•
Folglich wird eine Basis von Vd nach (10.3) kontravariant transformiert, Fd = A−1 Ed , und der Komponentenvektor y ∈ Rn von w ∈ Vd kovariant transformiert, y = yA.
•
In den Ingenieurwissenschaften steht das Verhalten der Komponenten im Vordergrund. Daher werden die Elemente v von V kontravariante Elemente und der Vektorraum V selbst (etwas z¨ ogerlich) kontravarianter Vektorraum genannt (weil das Verhalten seiner Komponenten in Anwendungen wichtiger ist als das seiner Basis). Entsprechend heißen die Elemente des Dualraums Vd kovariante Elemente und der Vektorraum Vd kovarianter Vektorraum.
•
Kontravariante Komponenten werden mit Index oben geschrieben (wie die skalaren Elemente eines Spaltenvektors Rn ). Kovariante Komponenten werden mit Index unten geschrieben (wie die skalaren Elemente eines Zeilenvektors in Rn ).
•
Bezogen auf die Komponententransformation im Vektorraum V spielt die Transformationsmatrix AT eine wichtigere Rolle als die Matrix A, daher wird in den Ingenieurwissenschaften oft A durch AT ersetzt aber nicht in diesem Kapitel.
Wir kehren nun zur urspr¨ unglichen Fragestellung zur¨ uck. Bei der Transformation kartesischer Koordinatensysteme ist die Transformationsmatrix A orthogonal, also A−1 = AT ; im ersten Fall von (10.4) gilt dann x = A−1 x = AT x T T T und im zweiten Fall folgt durch Transponieren y = A y . Wenn die Komponentenvektoren in beiden F¨ allen als Spaltenvektoren geschrieben werden (f¨ uhrt R ), dann ergibt sich zu Fehlermeldung bei MATLAB kein unterschiedliches Transformationsverhalten bei kartesischen Koordinatensystemen
,
und die Unterscheidung zwischen kovarianten und kontravarianten Tensoren entf¨ allt. (Es empfiehlt sich aber aus theoretischen und praktischen Gr¨ unden, auch in diesem Fall die Unterscheidung beizubehalten.) Beispiel 10.2. (1◦ ) Der Raum Πn der Polynome vom Grad ≤ n ist ein Vektorraum der Dimension n + 1 . Die Basis der qi ∈ Πn LagrangeGrundpolynome hat die Eigenschaft qi (xj ) = δ i j ; vgl. § 2.1(c). Die Dualbasis zu dieser Basis besteht aus den Abbildungen πj : Πn p → p(xj ) ∈ R .
516
10 Abriss der Tensorrechnung
(2◦ ) Die Polynome vom Grad ≤ 2 u ¨ber einem beliebigen, nicht entarteten Dreieck T (x, y) bilden einen Vektorraum Q der Dimension 6 . Es seien xj , j = 1 : 3 die Ecken, xj , j = 4 : 6 die Seitenmitten und ϕi (x, y) , i = 1 : 6 die Formfunktionen aus § 11.3(c), die genau an einer dieser Stellen Eins und an den u ¨brigen Null sind. Die Dualbasis zu dieser Basis besteht aus den Abbildungen πj : Q p → p(xj ) ∈ R , j = 1 : 6 . (b) Skalarproduktr¨ aume Ist V ein Vektorraum mit der Basis {e1 , . . . , en } und Me = [eik ] eine beliebige (reell-)symmetrische und positiv definite Matrix, ur die Basiseleso ist durch p(ei , ek ) := eik ein Skalarprodukt auf V zun¨achst f¨ ur alle Elemente aus V definiert. Ist umgekehrt ein Skamente ej und damit f¨ larprodukt p( · , ◦ ) gegeben, so ist die Matrix Me = [eik ] mit eik := p(ei , ek ) positiv definit. Sie bzw. die zugeh¨ orige bilineare Abbildung heißt kovarianter Metriktensor der Basis {e1 , . . . , en }; es gibt also auf V beliebig viele Skalarprodukte. Man sagt, V ist ein Skalarproduktraum, wenn ein Skalarprodukt in besonderer Weise als kanonisch (nat¨ urlich) ausgezeichnet ist. F¨ ur ein solches Skalarprodukt p schreibt man dann gew¨ ohnlich ∀ v, w ∈ V : v · w := p(v, w) . angenmaß oder eine Metrik auf V gegeben, und Durch [v·v]1/2 ist dann ein L¨ ucken: man kann die L¨ ange von v = ei v i ∈ V mit Hilfe des Metriktensors ausdr¨ |v|2 = v · v = (ei v i ) · (ei v i ) = xT Me x , x = [v 1 , . . . , v n ]T . Von jetzt ab sei V ein Skalarproduktraum
.
Eine Basis {e1 , . . . , en } von V heißt orthonormal oder normiertes Orthogonalsystem (kurz NOS), wenn ei · ek = δ i k (Kronecker-Symbol). Eine Basis {r1 , . . . , rn } von V heißt reziprok zu einer Basis {e1 , . . . , en } von V, wenn gilt ri · ek = δ i k . Sie existiert stets in eindeutiger Weise zu einer gegebenen Basis. Ein NOS hat also stets den Metriktensor Me = δ (δ Einheitstensor). Ist {ri } reziprok zu urlich {ek } reziprok zu {ri } . Weil man in einem Skalarpro{ek }, dann ist nat¨ duktraum die Dualbasis mit der reziproken Basis identifizieren kann, schreibt man bei reziproken Basen ausnahmsweise den Index oben, obwohl sie nicht in Vd liegen. Orthonormale Basen sind zu sich selbst reziprok. Sie k¨onnen mit Hilfe des Gram-Schmidt-Verfahrens aus einer beliebigen Basis konstruiert werden, so dass man also in Skalarproduktr¨ aumen stets mit orthonormalen Basen rechnen kann. F¨ ur eine Basis {ei } und die reziproke Basis {ri } schreiben wir nun eik = ei · ek , eik = ri · rk , v = ei v i = rk vk ∈ V .
(10.5)
10.1 Tensoralgebra
517
Die Komponenten v i heißen kontravariante Komponenten und die Komponenten vk heißen kovariante Komponenten von v. Man erh¨alt sie aus v durch Multiplikation mit rk bzw. mit ek , v · rk = (ei v i ) · rk = v i ei · rk = v k , v · ek = (ri vi ) · ek = v k ;
(10.6)
die Matrix Med := [eik ] heißt kontravarianter Metriktensor. Mit Me und Med gilt zwischen den Komponenten v i und vk die Beziehung v i = v · ri = (rj vj ) · ri = eij vj , vj = v · ei = (ej v j ) · ei = eij v j .
(10.7)
(c) Identifizieren von V und Vd Wenn V ein Skalarproduktraum ist, dann lassen sich V und Vd miteinander identifizieren, was besonders in den Ingenieurwissenschaften u ¨blich ist. Dabei kommen aber die Metriktensoren ins Spiel, deswegen soll diese Operation genauer beschrieben werden. Dazu f¨ uhren wir die Riesz-Abbildung R : V → Vd ein; sie ist eindeutig erkl¨art verm¨oge der punktweisen Definition f¨ ur alle v , w ∈ V (Rv)(w) ≡ R(v), w! := v · w = w · v = R(w), v! = R(w)(v) ; damit ist sie linear und bijektiv (also ein Isomorphismus, oft ebenfalls kanonischer Isomorphismus genannt). Reziproke Basis und Dualbasis zu {ek } sind eindeutig bestimmt. Wegen ri · ek = δ i k folgt daher aus der Definition R(ri ), ek ! ≡ ri · ek = δ i k =⇒ ei = R(ri ) .
(10.8)
Mit Hilfe des Isomorphismus R k¨ onnen wir also die reziproke Basis in V und die Dualbasis in Vd einander zuordnen, d.h. miteinander identifizieren. Was f¨ ur die Basen gilt, gilt aber auch f¨ ur die Vektorr¨aume, daher k¨onnen V und V d verm¨ oge R ebenfalls miteinander identifiziert werden, was in der Schreibweise v, w! = v · w
∀ v, w ∈ V
(10.9)
zum Ausdruck kommt. Aus einer Identifizierung folgt stets, dass ein Symbol zwei Bedeutungen hat, n¨ amlich hier v ∈ V und v ∈ Vd . Beispiel 10.3. Sei V = Rn und A eine beliebige symmetrische und positiv definite Matrix, dann ist ein Skalarprodukt gegeben durch p(x, y) := xT Ay , ∀ x , y ∈ Rn , und es gilt R(x) : y → xT Ay ∈ R (das kanonische Skalarprodukt ist hier nat¨ urlich durch die Identit¨ at A = I gegeben). Die Elemente R(ei ) in Vd k¨ onnen als Linearkombination der Dualbasis dargestellt werden, R(ei ) = cij ej , daraus folgt eik = ei · ek =: (R(ei ))(ek ) = cij ej , ek ! = cij δ j k = cik =⇒ R(ei ) = eij ej . Die Bilder von ei werden also mit Hilfe der Komponenten des Metriktensors Me dargestellt!
518
10 Abriss der Tensorrechnung
Wenn V ein Skalarproduktraum ist, dann gibt es genau ein Skalarprodukt [ · , ◦ ] auf Vd so, dass der kanonische Isomorphismus R eine Isometrie wird, d.h. dass gilt ∀ v ∈ V : [R(v), R(v)] = v · v . Dieses Skalarprodukt wird u ¨ber den Metriktensor Me definiert verm¨oge [ei , ej ] = eij , Me−1 = [eij ] . Dann folgt einerseits v · v = (ei v i ) · (ej v j ) = v i eij v j = xT Me x , x = [v 1 , · · · , v n ]T und andererseits mit R(ei ) = eij ej ∀ x ∈ Rn : [R(v), R(v)] = [eij ej v i , ekl el v k ] = xT Me Me−1 Me x = xT Me x , also die Isometrie. Um schließlich eine Beziehung zwischen dem kovarianten und dem kontravarianten Metriktensor herzustellen, wenden wir diese Gleichung auf v = ri an und beachten (10.5), ri · rk = [R(ri ), R(rk )] = [ei , ek ] . Mit Definition (10.5) folgt Mde = M−1 e . Ist V ein Skalarproduktraum mit dem Metriktensor Me , dann soll stets Vd ein Vektorraum mit dem kanonischen Skalarprodukt sein, das durch den Metriktensor Mde definiert ist und ebenfalls mit einem Punkt ( · )“ beschrieben wird. ” Nat¨ urlich gibt es auch eine eindeutige reziproke Basis {r1 , . . . , rn } zur Dualbasis in Vd mit der Eigenschaft ri · ek = δ i k , deren Indices folgerichtig unten geschrieben werden, obwohl sie im Dualraums liegt. Weil {ei } reziprok zu {rk } ist, gilt dann R(ei ) = ri wegen der Isomorphieeigenschaft von R. Mit (10.7) folgt ri = R(ei ) = eik ek , ri = R−1 (ei ) = eik ek .
(10.10)
Diese beiden Formeln sind beim Herunter-“ bzw. Heraufziehen“ von Indices ” ” in (l) von Bedeutung. (d) Allgemeine Tensoren Es sei V q der Vektorraum der q-tupel mit Elementen v ∈ V und (Vd )p der Vektorraum der p-tupel mit Elementen w ∈ Vd . Eine (p + q)-lineare Form T p q ∈ T p q (V ) := L((Vd )p × V q ; R)
10.1 Tensoralgebra
519
also ein Funktional T p q : (Vd )p ×V q (w1 , . . . , wp , v 1 , . . . , v q ) → Tp q (w1 , . . . , wp , v 1 , . . . , v q ) ∈ R , das in jedem Argument linear ist, heißt p-fach kontravarianter und q-fach kovarianter Tensor oder kurz (p,q)-Tensor auf V, insbesondere gilt f¨ ur jeden Skalarproduktraum T 1 (V) = L(Vd ; R) = (Vd )d ∼ V, T1 (V) = L(V; R) = Vd ∼ V , wobei das Zeichen ∼“ auf die kanonische Identifizierung hinweisen soll. ” Die Bezeichnung (p, q)-Tensor gibt die Transformationseigenschaft der Komponenten des Tensors an, auf die es in der Rechnung ankommt. Die Reihenfolge der p kovarianten und q kontravarianten Argumente ist beliebig aber fest, z.B. der einfachen Schreibweise halber so wie angegeben. Eine (0, 0)-Form ist ein Skalar, eine (p, 0)-Form ist ein kontravarianter Tensor p-ter Stufe, eine (0, q)Form ist ein kovarianter Tensor q-ter Stufe. Die Zahl p + q ist die totale Stufe des Tensors Tp q . Oft werden auch die np+q Komponenten in R des Tensors nach Auswahl einer speziellen Basis selbst als (p, q)-Tensor bezeichnet. Beispiel 10.4. Eine gew¨ ohnliche Matrix T ∈ Rn n ist (das Zahlenfeld) ein(es) 1 Tensors T ∈ T 1 (V ) mit z.B. V = Rn Rn × Rn (u, v) → T(u, v) = v T T u ∈ R mit der entsprechenden Transformationvorschrift T → A−1 T A f¨ ur die Matrix T bei Wechsel des Koordinatenssystems. F¨ ur eine beliebige Menge M heißt eine Abbildung M x → Tp q (x) ∈ L((Vd )p × V q ; R) Tensorfeld, seine Koeffizienten h¨ angen also von x ab, z.B. ist M x → T0 0 (x) = f (x) ∈ R ein Skalarfeld ∈ L(V; R) ein kovariantes Vektorfeld M x → T1 (x) ∈ L(Vd ; R) ein kontravariantes Vektorfeld . M x→ T1 (x) Nat¨ urlich ist T p q (V) als Raum multilinearer Abbildungen ein Vektorraum. Addition und skalare Multiplikation vererben sich vom Bildraum R: F¨ ur S, T ∈ T p q (V), gilt (S + T)(v 1 , . . . , v p , v 1 , . . . , v q ) := S(v 1 , . . . , v p , v 1 , . . . , v q ) +T(v 1 , . . . , v p , v 1 , . . . , v q ) (αS)(v 1 , . . . , v p , v 1 , . . . , v q )
:= αS(v 1 , . . . , v p , v 1 , . . . , v q )
0(v 1 , . . . , v p , v 1 , . . . , v q )
:= 0 ∈ R .
520
10 Abriss der Tensorrechnung
(e) Darstellung und Transformation von Tensoren (e1) Einstufige Tensoren T ∈ L(U; R) . 1. Fall: U = V , p = 0 , q = 1 , T ≡ T1 ∈ L(V; R) ; v = ei v i = f j vj ∈ V . 2. Fall: U = Vd , p = 1 , q = 0 , T ≡ T1 ∈ L(Vd ; R) ; v = vi ei = vj f j ∈ Vd . T1 (v) = T1 (f i vi )
= T1 (f i ) vi
= : t(f )i vi
= T1 (ej aj i ) v i = aj i T1 (ej ) v i =: aj i t(e)j vi T1 (v) = T1 ( vi f i )
= T1 (f i ) vi
=: t(f ) i vi
.
= T1 (bi j ej ) vi = bi j T1 (ej ) vi =: bi j t(e) j vi Ergebnis: t(f )i = t(e)j aj i =⇒ T(f )1 = T(e)1 A , t(f ) i = bi j t(e) j =⇒ T(f ) 1 = A−1 T(e) 1
.
Die Komponenten ti des Tensors T1 transformieren sich kovariant, daher werden sie mit Index unten geschrieben. Die Komponenten ti des Tensors T1 transformieren sich kontravariant, daher werden sie mit Index oben geschrieben. (e2) Zweistufige Tensoren T ∈ L(U × W; R) . 1. Fall: Zweifach kovarianter Tensor, U = W = V , p = 0 , q = 2 , T = T2 ∈ L(V × V; R) ; j . v = ei v i = f j vj , w = ei wi = f j w T2 (v, w) = T2 (f i vi , f j w j )
= T2 (f i , f j ) vi w j
=: t(f )ij vi w j
t(f )ij vi vj = T2 (ek ak i , el al j ) vi w j = T2 (ek , el )ak i al j vi w j t(f )ij vi w j = t(e)kl ak i al j vi w j t(f )ij oder
= t(e)kl ak i vi al j w j
= t(e)kl ak i al j . t(e)kl v k wl = t(e)kl ak i al j vi w j = t(f )ij vi w j t(f )kl vk w l = t(f )kl bk i bl j v i wj = t(e)ij v i wj .
Der Tensor T2 transformiert sich doppelt kovariant; T2(f ) entsteht aus T2(e) , x und y durch A y erindem man die Komponentenvektoren x durch A setzt (doppelte kontravariante (!) Transformation der Argumente); x = [v 1 , . . . , v n ]T usw.. 2. Fall: U = V , W = Vd , v ∈ V , w ∈ Vd , T1 1 ∈ L(V × Vd ; R) . T1 1 (v, w) = T1 1 (f i vi , w j f j ) = T1 1 (f i , f j ) vi w j t(f )i j
:= T1 1 (ek ak i , bj l el ) = t(e)k l ak i bj l
.
10.1 Tensoralgebra
521
3. Fall: U = Vd , W = V , T1 1 ∈ L(Vd × V; R) . t(f ) i j := T1 1 (f i , f j ) = T1 1 (bi k ek , el al j ) = t(e) k l bi k al j , 4. Fall: U = W = Vd , T2 ∈ L(Vd × Vd ; R) . t(f ) ij := T2 (f i , f j ) = T2 (bi k ek , bj l el ) = t(e) kl bi k bj l . Mit einem Skalarprodukt kann die Transformation von Zwei-Tensoren in Matrizenform geschrieben werden: T(f )2 = AT T(e)2 A ,
T(f )1 1 = AT T(e)1 1 A−T ,
1 2 T(f ) 1 1 = A−1 T(e) = A−1 T(e) 2 eA−T , 1 A , T(f )
(10.11)
also mit den Komponentenvektoren x = [v 1 , . . . , v n ]T und y = [w1 , . . . , wn ]T z.B. x, y) = x T AT T(e)2 A y = xT T(e)2 y T(f )2 ( mit x = A x und y = A y. Regel f¨ ur Zwei-Tensoren: Wird im Argument ein kontravarianter Vektor v ∈ V durch einen kovarianten Vektor w ∈ Vd ersetzt, so ist an der entsprechenden Stelle A durch die Kontragrediente“ A−T zu ersetzen. Falls also A orthogonal ” ist, d.h. A = A−T gilt, dann sind beide Transformationen gleich. (f ) Tensorprodukt Im Koordinatenraum R3 gibt es bekanntlich ein symmetrisches Skalarprodukt und ein schiefsymmetrisches Vektor- oder Kreuz¨ produkt. Ahnlich verh¨ alt es sich in Tensorr¨ aumen, das alternierende Produkt wird aber erst im n¨ achsten Abschnitt eingef¨ uhrt. Cum grano salis gilt: Wenn sich ein Element v d ∈ Vd mit einem Element v ∈ V paart, ist das Ergebnis eine Zahl v d , v! ∈ R . Wenn sich umgekehrt ein Element v ∈ V alt man wiederum eine Zahl v, v d ! , mit einem Element v d ∈ Vd paart, erh¨ wobei sich beide verj¨ ungt haben. Gem¨ aß dem kanonischen Isomorphismus gilt v d , v! = v, v d ! , und es ist egal, wer sich mit wem paart. Mit anderen Worten kann ein Vektor v ∈ V als kontravarianter Tensor erster Stufe (Abbildung) aufgefasst werden, weil sein Argument ein Element aus Vd ist und ein Vektor v d ∈ Vd als kovarianter Tensor erster Stufe, weil sein Argument ein Element v ∈ V ist; vgl. (e1). Wie verh¨ alt sich nun diese Paarungswut bei zwei und mehr Vektoren?
522
10 Abriss der Tensorrechnung
(f1) Tensorprodukt von Vektoren Das Tensorprodukt von zwei Vektoren ist definiert durch eine der Abbildungen ⎫ u ⊗ v d : Vd × V (ud , v) → ud (u) · v d (v) ⎪ ⎬ u ⊗ v : Vd × Vd (ud , v d ) → ud (u) · v d (v) = ud , u! v d , v! ∈ R . ⎪ ⎭ ud ⊗ v d : V × V (u, v) → ud (u) · v d (v) Rechts steht das Produkt zweier Zahlen. Die Bedeutung macht man sich am Besten mit den Koordinatenr¨ aumen klar, dabei schreiben wir ausnahmsweise v T ∈ Rn f¨ ur Zeilenvektoren. Es ist dann mit einem Punkt f¨ ur die Multiplikation in R < ud , u >< v d , v >= uTd u · v Td v = v Td v · uTd u = v Td [v ⊗ uTd ]u mit dem dyadischen Produkt v ⊗ udT ∈ Rn n und z.B. in der dritten Definition anderlichen. sind die Elemente u und v die freien Ver¨ Das allgemeine Tensorprodukt von Vektoren ist eine Abbildung = : V × >?@A · · · ×V × Vd × >?@A · · · ×Vd → T pq (V ) , p−mal
q−mal
die elementweise definiert ist durch = : (v 1 , . . . , v p , v 1 , . . . , v q ) → v 1 ⊗ · · · ⊗ v p ⊗ v 1 ⊗ · · · ⊗ v q . Nat¨ urlich k¨ onnen die R¨ aume V und Vd in jeder anderen Reihenfolge auftreten. Diese Abbildung ist ebenfalls eine multilineare Abbildung, sie ist aber nicht eindeutig, weil z.B. gilt 1 v ⊗ (2 v d ) . v ⊗ vd = 2 Ein Tensor heißt einfach, wenn er als Tensorprodukt von Vektoren dargestellt werden kann. Seien ui , v i ∈ V, uk , v k ∈ Vd beliebig, dann ist Tp q = v 1 ⊗ · · · ⊗ v p ⊗ v 1 ⊗ · · · ⊗ v q punktweise definiert durch (v 1 ⊗ · · · ⊗ v p ⊗ v 1 ⊗ · · · ⊗ v q ) (u1 , . . . , up , u1 , . . . , uq ) := u1 , v 1 ! · · · up , v p ! v 1 , u1 ! · · · v q , uq ! ∈ R . (f2) Tensorprodukt von Tensoren F¨ ur S ∈ T p q (V) , T ∈ T r s (V) , ist (S ⊗ T)(v 1 , . . . , v p+r , v 1 , . . . , v q+s ) := S(v 1 , . . . , v p , v 1 , . . . , v q ) · T(v p+1 , . . . , v p+r , v q+1 , . . . , v q+s )
10.1 Tensoralgebra
523
(Der Punkt bedeutet hier die Multiplikation zweier Zahlen). Das Tensorprodukt eines (p, q)-Tensors und eines (r, s)-Tensors ist also ein (p + r, q + s)Tensor. Das Tensorprodukt ist nicht kommutativ, z.B. gilt im Rn xT Ay · uT Bv = uT Bv · xT Ay = xT By · uT Av . Allgemein gilt ja auch f¨ ur f, g : R → R und x = y (g ⊗ f )(x, y) := g(x)f (y) = f (x)g(y) = (f ⊗ g)(x, y) . (g) Der Vektorraum der Tensoren Der Vektorraum T p q (V) hat die Dimension np+q . Ist {e1 , . . . , en } eine Basis von V und {e1 , . . . , en } die Dualbasis in Vd , dann bilden die Tensoren Tp q := ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq , f¨ ur i1 , . . . , ip , j1 , . . . , jq = 1 : n eine Basis von T p q (V) aus einfachen Tensoren. (h) Darstellung von allgemeinen Tensoren Mit Hilfe einer Basis l¨asst sich nun ein Tensor als Abbildung formal einwandfrei darstellen. Ist v i = ej v ij ∈ V , v i = vij ej ∈ Vd und T ∈ T pq (V) , dann gilt T(v 1 , . . . , v p , v 1 , . . . , v q ) := ti1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq (v 1 , . . . , v p , v 1 , . . . , v q ) =t
i1 ...ip
j1 ...jq v1,i1
· · · vp,ip v
1,j1
···v
.
q,jq
F¨ ur die Tensorkomponenten ergibt sich durch Anwendung auf die Basis T(ek1 , . . . , ekp , el1 , . . . , elq ) := ti1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq (ek1 , . . . , ekp , el1 , . . . , elq ) = ti1 ...ip j1 ...jq ek1 , ei1 ! · · · ekp , eip ! ej1 , el1 ! · · · ejq , elq ! = tk1 ...kp l1 ...lq . Bez¨ uglich einer gegebenen Produktbasis gilt f¨ ur die Komponenten eines Tensorprodukts entsprechend (S ⊗ T)i1 ...ip+r j1 ...jq+s = S i1 ...ip j1 ...iq T ip+1 ...ip+r jq+1 ...jq+s . (i) Transformation von allgemeinen Tensoren Ist eine Basistransformation gegeben durch f j = ei ai j , f j = bj k ek , formal F = EA , Fd = BEd , dann gilt f¨ ur die Basiselemente in T p q (V) f i ⊗ · · · ⊗ f i ⊗ f j1 ⊗ · · · ⊗ f jq 1
p
= ak1 i1 · · · akp ip bj1 l1 · · · bjq lq ek1 ⊗ · · · ⊗ ekp ⊗ el1 ⊗ · · · ⊗ elq .
524
10 Abriss der Tensorrechnung
F¨ ur die Komponenten eines Tensors T ∈ T p q (V) ergibt sich durch direktes Ausrechnen unter Ausn¨ utzung der Linearit¨ at in jedem Argument (tf )i1 ...ip j1 ...jq = bi1 k1 . . . bip kp al1 j1 · · · alq jq (te )k1 ···kp l1 ...lq .
(10.12)
Der obere Index entspricht einem kontravarianten Transformationsverhalten und der untere Index einem kovarianten Transformationsverhalten. Die Umkehrung ist ebenfalls richtig. Sind zwei Mengen von je np+q reellen Zahlen gegeben, ! ! (tf )i1 ...ip j1 ...jq , (te )k1 ...kp l1 ...lq , (10.13) f¨ ur die (10.12) gilt, dann gibt es einen Tensor T ∈ T p q (V) , der bez¨ uglich der Basen {ej }, {f j } und den entsprechenden Dualbasen die Komponenten
(10.13) hat. Zum Beispiel ist mit u = ei ui ∈ V etc. ein 3-fach kovarianter Tensor gegeben durch T
:= tijk ei ⊗ ej ⊗ ek : V × V × V → R
T(u, v, w) = tijk ei , u! ej , v! ek , w! = tijk ui v j wk , und ein 2-fach kovarianter und 1-fach kontravarianter Tensor stellt sich wie folgt dar, T
:= tjik ei ⊗ ej ⊗ ek : V × Vd × V → R
T(u, v d , w) = tjik ei , u! v d , ej ! ek , w! = tjik ui vj wk , v d = vl el . (j) Verj¨ ungung oder Kontraktion Die Operation, einen kontravarianten Index (oben) und einen kovarianten Index (unten) gleichzusetzen und anschließend u ungung oder Kontraktion ei¨ber diesen Index zu summieren, heißt Verj¨ nes Tensors. Nat¨ urlich kann diese Operation mehrfach durchgef¨ uhrt werden. Wenn p = q ist, erh¨ alt man am Ende einen skalaren Wert. Angewandt auf das Produkt von S ∈ T p q (V) und T ∈ T p q (V) heißt diese Zahl Skalarprodukt der Tensoren S und T. Das Produkt ist kommutativ nach Identifizierung von ur einen einfachen Vd mit V, wobei V Skalarproduktraum sein muss. Etwa f¨ Tensor, T := v 1 ⊗ · · · ⊗ v p ⊗ v 1 ⊗ · · · ⊗ v q ∈ T p q (V) , ist einmalige Verj¨ ungung eine lineare Abbildung C i j : T p q (V) → T p−1 q−1 (V) mit der Eigenschaft v i ⊗ v i+1 ⊗ · · · ⊗ v p ⊗ C i j T = v j , v i !v 1 ⊗ · · · ⊗ % v j ⊗ v j+1 ⊗ · · · ⊗ v q . v 1 ⊗ · · · ⊗ v j−1 ⊗ % Das Symbol % bedeutet hier Weglassen“. (Die beiden Vektoren m¨ ussen ihren ” ur u = ei ui ∈ V und Hut nehmen.) Insbesondere gilt < w, u > = wi ui f¨
10.1 Tensoralgebra
525
w = wi ei ∈ Vd . F¨ ur einen beliebigen Tensor T ∈ T p q (V) gilt nach Auswahl von Basen (C i j T)k1 ...kp l1 ...lq = T k1 ...ki−1 σki+1 ...kp l1 ...lj−1 σlj+1 ...lq mit Summation u ¨ber σ. Beispiele (1◦ ) Ist T ∈ T 1 1 (V) = L(Vd , V; R) , dann ist C 1 1 T = T i i der Spuroperator. (2◦ ) Ist V = Rn , dann ist die Kontraktion von grad v die Divergenz von v . ungende Multiplikation eines (3◦ ) Die Matrix-Vektor-Multiplikation ist verj¨ Tensor T zweiter Stufe mit einem Tensor erster Stufe zu einem Tensor erster Stufe. (k) Skalarprodukt von Tensoren Ist S ∈ T p q (V) ein (p, q)-Tensor und T ∈ T q p (V) ein (q, p)-Tensor, dann ist S ⊗ T ∈ T p+q p+q (V) ein (p + q, p + q)Tensor, dessen (p + q)-malige Verj¨ ungung eine Zahl ergibt. Ist also C := C 1 1 ◦ >?@A · · · ◦C 1 1 ◦ C 1 q+1 ◦ >?@A · · · ◦C 1 q+1 , q−mal
p−mal
dann heißt < S, T > := C(S ⊗ T) ∈ R das Skalarprodukt der Tensoren S und T . Bez¨ uglich fester Basen gilt f¨ ur das Skalarprodukt < S, T >= si1 ...ip j1 ...jq tj1 ...jq i1 ...ip . (l) Herauf- und Herunterziehen von Indices Es sei zun¨achst T ∈ T p (V) ein einfacher Tensor, d.h. T(u1 , . . . , up ) = (v 1 ⊗ · · · ⊗ v p )(u1 , . . . , up ) = u1 , v 1 ! · · · up , v p ! mit den Argumenten v i ∈ V. Nun liegt R(v i ) im Dualraum Vd , die Anwendung der Riesz-Abbildung R auf alle Argumente ergibt daher eine Operation Rp , Rp : T → Rp T := Rv 1 ⊗ · · · ⊗ Rv p ∈ Tp (V) , >?@A >?@A ∈Vd
∈Vd
und die Anwendung von Rp T auf die Argumente ui ∈ V ergibt Rp T(u1 , . . . , up ) = Rv 1 , u1 ! · · · Rv p , up ! = (v 1 · u1 ) · · · (v p · up ) . Mit entsprechender Verallgemeinerung auf beliebige T ∈ T p (V) ist die Operation Rp : T p (V) → Tp (V) eindeutig definiert, linear und bijektiv, also ein Isomorphismus. Das Tensorprodukt ist aber keine eindeutige (injektive) Abbildung, daher muss zum Nachweis dieser Eigenschaft gezeigt werden, dass Rp unabh¨angig von der
526
10 Abriss der Tensorrechnung
Darstellung von T ist, d.h. unbh¨ angig von der gew¨ahlten Basis von V; vgl. [Bowen], Bd. I. Der Operator Rp zieht nun alle Indices herunter“, leistet ” also das Gew¨ unschte. (Es gilt aber nicht Rp = R ◦ · · · ◦ R (p-mal).) T p (V) und Tp (V) sind damit isomorph, es existiert auch die Umkehrabbildung (Rp )−1 : Tp (V) v 1 ⊗ · · · ⊗ v p → R−1 v 1 ⊗ · · · ⊗ R−1 v p ∈ T p (V) und ihre entsprechende Verallgemeinerung auf beliebige Tensoren T ∈ Tp (V). Die Verallgemeinerung der Operation Herunterziehen“ auf gemischte Tenso” ren ist nun naheliegend. Betrachten wir zun¨ achst einen einfachen gemischten Tensor T = v 1 ⊗ · · · ⊗ v p ⊗ u1 ⊗ · · · ⊗ uq ∈ T p q (V) , dann ist der Operator Rp q definiert durch Rp q T := Rv 1 ⊗ · · · ⊗ Rv p ⊗ u1 ⊗ · · · ⊗ uq ∈ Tp+q (V) . Die Verallgemeinerung auf beliebige Tensoren T ∈ T p q (V) , Rp q : T p q (V) → Tp+q (V) , ist dann ebenfalls ein Isomorphismus mit der Umkehrabbildung (Rp q )−1 (v 1 ⊗ · · · ⊗ v p ⊗ u1 ⊗ · · · ⊗ uq ) = R−1 v 1 ⊗ · · · ⊗ R−1 v p ⊗ u1 ⊗ · · · ⊗ uq . Die Hintereinanderschaltung zweier passender Isomorphismen ergibt wieder einen Isomorphismus, daher ist auch (Rp1 q1 )−1 ◦ Rp q ein Isomorphismus, wenn p1 + q1 = p + q gilt, −1
Rp q
T p q (V) −→ Tp+q (V) = Tp1 +q1 (V)
(Rp1 q1 ) −→
T p1 q1 (V) .
Ergebnis: Alle Tensorr¨ aume mit der gleichen totalen Ordnung sind isomorph, wenn im Grundraum V ein Skalarprodukt vorgegeben ist. Nat¨ urlich k¨ onnen auch alle Indices herauf- statt heruntergezogen werden. F¨ ur einfache Tensoren wird dies wie folgt beschrieben: (Rp q )−1 (v 1 ⊗· · ·⊗v p ⊗u1 ⊗· · ·⊗uq ) = R−1 v 1 ⊗ · · ·⊗R−1 v p ⊗ u1 ⊗ · · ·⊗ uq . > ?@ A > ?@ A >?@A >?@A ∈V
∈V
∈V
∈V
Mit Hilfe von R−1 ist dann eine rein kontravariante Darstellung allgemeiner Tensoren m¨ oglich, Rp q
T p q (V) −→ Tp+q (V)
−1
(Rp+q ) −→
T p+q (V) .
10.1 Tensoralgebra
527
Die Darstellung von Rp q T bez¨ uglich einer Referenzbasis {e1 , . . . , en } und der asst sich mit Hilfe von (10.15) leicht bewerkstelligen. Dualbasis {e1 , . . . , en } l¨ F¨ ur die Komponenten der Metriktensoren gilt ei · ek =: (Rei ) · ek
= eij ej , ek ! = eij ej , ek ! = eik
ei · ek =: ei · (R−1 ek ) = ei , el elk ! = elk ei , el ! = eik . Hat T ∈ T p q (V) die Darstellung Te = T i1 ...ip j1 ...jq ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq , dann folgt durch Herunterziehen der ersten p Indices Rp q Te = T i1 ...ip j1 ...jq Rei1 ⊗ · · · ⊗ Reip ⊗ ej1 ⊗ · · · ⊗ ejq = T i1 ...ip j1 ...jq ei1 k1 ⊗ · · · ⊗ eip kp ⊗ ek1 ⊗ · · · ⊗ ekp ⊗ ej1 ⊗ · · · ⊗ ejq = Tk1 ,...,kp j1 ,...,jq ei1 k1 ⊗ · · · ⊗ eip kp ek1 ⊗ · · · ⊗ ekp ⊗ ej1 ⊗ · · · ⊗ ejq . (10.14) Das Heraufziehen der letzten q Indices mit (Rp q )−1 verl¨auft ebenso mit R−1 statt R. Ist nun {e1 , . . . , en } ein normiertes Orthogonalsystem, dann sind die Metriktensoren die Einheitstensoren δ, also gilt auch
eij = eij = δ i j (Kronecker-Symbol),
Rej · ek = eij ej · ek = δ i k , R−1 ej · ek = eij ej · eg k = δ i k , d.h. Rej := rj ∈ V d ist reziproke Basis zu {ej } in Vd und R−1 ek := rk ∈ V ahlen daher reziproke Basis zu {ek } in V. Wir w¨ in T p q (V) die Referenzbasis ei1 ⊗ · · · ⊗ eip ⊗ ej1 ⊗ · · · ⊗ ejq in Tp+q (V) die Referenzbasis ri1 ⊗ · · · ⊗ rip ⊗ ej1 ⊗ · · · ⊗ ejq . Dann haben nach der Transformationsvorschrift f¨ ur Tensoren (10.12) und der Darstellung (10.14) die Tensoren T ∈ T p q (V) und Rp q T ∈ Tp+q (V) die gleichen Koeffizienten! In den anderen F¨ allen wird das Verhalten durch (10.12) beschrieben. Beispiel 10.5. ε = [εi j ] Verzerrungstensor (symm.), ungung, σ = [σ i j ] Spannungstensor (symm.), σ i j = uim jl εl m doppelte Verj¨ uim jl = λδ i j δ l m + μ(δ i l δ m j + δ m i δ j l ) . Es gilt δ l m εl m = spur(ε) , δ i l δ m j εl m = δ i l εl j = εi j , δ m i δ j l εl m δ m i εj m = εj i , also mit dem Einheitstensor δ σ = μ(ε + εT ) + λ spur(ε)δ .
528
10 Abriss der Tensorrechnung
Beispiele mit kartesischen Koordinaten im Rn Es sei der Koordinatenraum V = Rn der Spaltenvektoren mit dem kanonischen Skalarprodukt versehen, und es sei E = {e1 , . . . , en } eine kartesische Referenzbasis. Dann ist E eine reelle und orthogonale (n, n)-Matrix mit den Spalten ei . Die Dualbasis Ed besteht aus den Zeilen ek ∈ Rn von E , und die reziproke Basis entsteht durch Transformation dieser Zeilen in Spalten. Alle diese Basisvektoren haben die L¨ ange Eins. Die Riesz-Abbildung R transformiert also jeden Zeilenvektor in einen Spaltenvektor und identifiziert daher den Zeilenraum mit dem Spaltenraum. Folglich k¨ onnen wir uns auf den Vektorraum V = Rn mit der Referenzbasis beschr¨ anken und m¨ ussen auch nicht zwischen kovarianten und kontravarianten Tensoren unterscheiden: Beispiel 10.6. 0-Tensor: Zahl, 1-Tensor: v = vi ei ,
vi = v, ei ! ,
2-Tensor: T
=
tij ei ⊗ ej ,
tij = T(ei , ej ) ,
3-Tensor: T
=
tijk ei ⊗ ej ⊗ ek , tijk = T(ei , ej , ek ) .
Mit den Argumenten u = xi ei , v = yi ei , w = zi ei folgt (tij ei ⊗ ej )(xl el ) = tij xl ei ej , el ! = tij xj ei (tij ei ⊗ ej )(xl el , ym em ) = tij xl ym ei , el ! ej , em ! = tij xi yj (tijk ei ⊗ ej ⊗ ek )(xl el , ym em , zn en ) = tijk xl ym zn ei , e l ! e j , e m ! e k , e n ! = tijk xi yj zk (10.15) ur einen wegen < ei , ej >= ei · ej = δij . Etwas anders geschrieben z.B. f¨ 3-Tensor Tu v w := T(u, v, w) = Tijk ei ⊗ ej ⊗ ek (u, v, w) = Tijk ei , u! ej , v! ek , w! = tijk xi yj zk . Beispiel 10.7. F¨ ur das Skalarprodukt etwa zweier 3-Tensoren S und T ergibt sich nat¨ urlich wie oben S : T = T : S = tijk sijk ∈ R , und f¨ ur das Tensorprodukt erh¨ alt man (tijk ei ⊗ ej ⊗ ek ) ⊗ (sijk ei ⊗ ej ⊗ ek ) = tijk slmn ei ⊗ ej ⊗ ek ⊗ el ⊗ em ⊗ en . In den technischen Anwendungen l¨ asst man gerne die Basis ganz weg so wie in (10.15) ganz rechts, betrachtet nur die Komponentenvektoren x , y , z und schreibt T (x1 , . . . , xn ) anstatt T(v 1 , . . . , v n ) . Diese Schreibweise ist aber etwas missverst¨ andlich. F¨ ur das Tensorprodukt ergibt sich zum Beispiel
10.2 Algebra alternierender Tensoren
529
S = [si1 · · · sip ] , T = [ti1 · · · tip ] S ⊗ T = [wi1 ···ip j1 ···jq ] = [ti1 ···ip sj1 ···jq ] (speziell z.B. [tik ][spqr ] = [tik spqr ]), woraus aber schlecht erkennbar ist, dass das Tensorprodukt nicht kommutativ ist. ur einfache TenSind schließlich e, f , g, u, v, w beliebige Vektoren, dann folgt f¨ soren z.B. (e ⊗ f )(v) := e f , v! (e ⊗ f )(u, v) = e, u! f , v! (e ⊗ f ⊗ g)(w) = e ⊗ f g, w! (e ⊗ f ⊗ g)(v, w) = e f , v! g, w! (e ⊗ f ⊗ g)(u, v, w) = e, u! f , v! g, w! wiederum mit < e, u >= e · u etc.. Literatur: [Bowen].
10.2 Algebra alternierender Tensoren Eine Algebra ist ein Vektorraum V, in dem zus¨ atzlich eine assoziative, bilineare Abbildung V × V → V als Multiplikation erkl¨art ist, zu der ein Einselement in V existiert. Wir betrachten rein kovariante Tensoren T ∈ Tp (V ) u ¨ber dem n-dimensionalen Skalarproduktraum V, weil dieser Typ in der Theorie der Differentialformen die Hauptrolle spielt. (a) Alternierende Tensoren Ein Tensor T ∈ Tp (V) heißt schiefsymmetrisch, antisymmetrisch oder alternierend, ¨ außere p-Form, wenn f¨ ur alle v i ∈ V gilt T(v 1 , . . . , v p ) = εi1 ...ip T(v i1 , . . . , v ip ) mit εi1 ...ip = 1 , falls (i1 , . . . , ip ) eine gerade Permutation von (1, . . . , p) ist, εi1 ...ip = −1 falls (i1 , . . . , ip ) eine ungerade Permutation von (1, . . . , p) ist, ε = 0 , sonst, d.h. wenn zwei Indices gleich sind. Der Tensor mit den Komponenten εi1 ,...,ip heißt ε-Tensor. Zur Erinnerung: Eine Permutation heißt gerade, wenn sie eine gerade Anzahl von Inversionen besitzt und ungerade sonst. Die Vertauschung zweier Elemente bedeutet eine ungerade Anzahl von Inversionen, daher gilt Ein alternierender Tensor ¨ andert sein Verzeichen, wenn zwei Argumente miteinander vertauscht werden.
530
10 Abriss der Tensorrechnung
Beispiel 10.8. {1 2 3 4 5} hat keine Inversionen, {5 1 3 4 2} hat sechs Inversionen. {1 2 3} 0 Inversionen, {3 2 1} 3 Inversionen {2 3 1} 2 Inversionen, {2 1 3} 1 Inversion {3 1 2} 2 Inversionen, {1 3 2} 1 Inversion. Ein alternierender Tensor hat also den Wert Null, T(v 1 , . . . , v p ) = 0 , wenn zwei Argumente v i , v k gleich sind, oder wenn die Argumente v 1 , . . . , v p linear abh¨ angig sind, oder wenn p > dim(V) = n gilt. Die Menge der alternierenden Tensoren Ap (V) := {T ∈ Tp (V) , T alternierend} bildet (mit der skalaren Multiplikation und der Addition aus Tp (V)) einen Untervektorraum von Tp (V) der Dimension n . Ist Pp : Tp (V) → Ap (V) der Projektor von Tp (V) auf den linearen Unp terraum Ap (V) und Ker(Pp ) = {T ∈ Tp (V) , Pp T = 0} der Kern (Nullraum) von Pp , dann gilt (1◦ ) Ker(Pp ) = span{v 1 ⊗ · · · ⊗ v p , v i ∈ V d , mind. zwei Elemente gleich} , (2◦ ) Tp (V) = Ap (V) ⊕ Ker(Pp ) (direkte Summe). (b) Alternierender Anteil von Tensoren Der alternierende Anteil Alt(T) := Pp T ∈ Ap (V) eines Tensors T ∈ Tp (V) ist eindeutig bestimmt; f¨ ur p = 0 setzt man Alt(T) = T und f¨ ur p = 1 gilt Alt(T) = T, weil die Definition leer ist. Definition 10.1. F¨ ur p ≥ 2 sind die verallgemeinerten Kronecker-Symbole definiert durch (1◦ ) ⎧ ⎨ 1i<j p 0 i = j , δ(i1 , . . . , ip ) = Πμ,ν=1,μ j (2◦ ) ⎤ ⎡ i δ 1 j1 . . . δ i1 jp ⎦ , (δ i j gew¨ ... δ i1 ...ip j1 ...jp = det⎣ ohnliches Kronecker-Symbol). ip ip δ jp . . . δ jp Regeln:
δ(i1 , . . . , iκ , iκ+1 , . . . , ip ) δ(i1 , . . . , ip ) εi1 ...ip = δ 1...p j1 ...jp εi1 ...ip j1 ...jp
= −δ(i1 , . . . , iκ+1 , iκ , . . . , ip ) = εi1 ...ip = εi1 ...ip = εi1 ...ip = δ i1 ...ip 1...p = δ i1 ...ip j1 ...jp ;
z.B. δ 12 12 = 1 , δ 12 21 = −1 , δ 13 12 = 0 , δ 13 21 = 0 , δ 11 12 = 0 , ε123 = ε312 = ε231 = 1 , ε132 = ε321 = ε213 = −1 , ε112 = ε222 = ε233 = 0 .
10.2 Algebra alternierender Tensoren
531
Nun kann man Alt(T) f¨ ur T ∈ Tp (V) direkt angeben, was aber f¨ ur das Weitere nicht von Bedeutung ist (Summation u ¨ber alle doppelten Indices): Alt(T) =
1 δ(i1 , . . . , ip ) T(vi1 , . . . , vip ) . p!
Ist zum Beispiel T ∈ T2 (V) , dann ist Alt(T)(v, u) = [T(u, v) − (T(v, u)]/2 . ¨ (c) Außeres Produkt von Tensoren (c1) Beispiel (Determinanten). F¨ ur V = Rn , ist die Abbildung det“ (De” terminante), det : (v 1 , . . . , v n ) → det(v 1 , . . . , v n ) =: v 1 ∧ · · · ∧ v n ∈ R eindeutig bestimmt durch (1◦ ) det ∈ Ap (V) , d.h. det“ ist multilinear und alternierend, ” ur die kanonische Basis (2◦ ) det(e1 , . . . , en ) = e1 ∧ · · · ∧ en = 1 gilt f¨ ei = [δ ik ] , i = 1 : n . F¨ ur eine Matrix A = [a1 , . . . , an ] mit den Spalten ai gilt im bekannten Sinn det(A) = det(a1 , . . . , an ) =: a1 ∧ · · · ∧ an und f¨ ur das Volumen“ Vol des Parallelepipeds mit den Kanten a1 , . . . , an gilt ” Vol(a1 , . . . , an ) = | det(a1 , . . . , an )| .
(10.16)
Die Rechenregel det(A · B) = det(A) · det(B) f¨ ur die (n, n)-Matrizen A und B = [b1 , . . . , bn ] ist gleichbedeutend mit A b1 ∧ · · · ∧ A bn = det(A)(b1 ∧ · · · ∧ bn ) . (c2) Definition Durch die Determinante ist also im Wesentlichen ein Produkt (¨ außeres Produkt) erkl¨ art. Die folgende Definition verallgemeinert dieses Produkt auf beliebige alternierende Tensoren; vgl. § 10.1(f ). ¨ Definition 10.2. (Außeres Produkt von Tensoren, Keilprodukt, wedge product.) F¨ ur S ∈ Tp (V) und T ∈ Tq (V), heißt S ∧ T :=
(p + q)! Alt(S ⊗ T) ∈ Ap+q (V) p!q!
das ¨ außere Produkt der Tensoren S und T. Nat¨ urlich ist dieses Produkt kompatibel zu dem Produkt Determinante“, das ” ist gerade der Sinn der Definition, muss aber in dieser Allgemeinheit gezeigt werden.
532
10 Abriss der Tensorrechnung
Als direkte Folgerung aus der Definition ergeben sich f¨ ur S ∈ Tp (V) , T ∈ Tq (V), R ∈ Tr (V) die Rechenregeln (S + T) ∧ R = S ∧ R + T ∧ R S ∧ (T + R) = S ∧ T + S ∧ R αS ∧ T = S ∧ αT = α(S ∧ T) S ∧ T = (−1)p·q T ∧ S
,
(p + q + r)! Alt(S ⊗ T ⊗ R) . p!q!r! Speziell ergibt sich f¨ ur T ∈ Tp (V) und ungerades p (S ∧ T) ∧ R = S ∧ (T ∧ R) = S ∧ T ∧ R =
und
T ∧ T = (−1)p·p T ∧ T = −T ∧ T , also T ∧ T = 0 , (v 1 ∧ · · · ∧ v p ) ∧ (v p+1 ∧ · · · ∧ v p+r ) = v 1 ∧ · · · ∧ v p+r .
(c3) Komponentenweise Darstellung S = Si1 ...ip ei1 ⊗ · · · ⊗ eip , T = Tj1 ...jq ej1 ⊗ · · · ⊗ ejq 1 i1 ...ip+q j1 jp+q δ S∧T = . j1 ...jp+q Si1 ...ip Tip+1 ...ip+q e ⊗ · · · ⊗ e p!q! (d) Basis F¨ ur einfache alternierende Tensoren T = v 1 ∧ · · · ∧ v p ∈ Ap (V) , v i ∈ Vd , gilt T(v 1 , . . . , v p ) = det(C) , mit der (p, p)-Matrix C = [< v i , v k >] . Ist {e1 , . . . , en } eine Basis von V , dann ist {ei1 ∧ · · · ∧ eip , 1 ≤ i1 < . . . < ip ≤ n} eine Basis von Ap (V) . (e) Darstellung alternierender Tensoren Ist T = Ti1 ...ip ei1 ⊗ · · · ⊗ eip ∈ Ap (V) und Pp wieder Projektion auf den alternierenden Anteil, dann gilt nat¨ urlich Pp T = T , also folgt T = Pp T = Ti1 ...ip Pp (ei1 ⊗ · · · ⊗ eip ) =
1 i1 ip Ti1 ...ip ei1 ∧ · · · ∧ eip = i1 0 ∃ Ik , k ∈ N : S =
1 k∈N
Ik und
∞
|Ik | ≤ ε .
k=1
Eine Funktion f : R ⊃ I → R hat eine Eigenschaft fast u u.) in I , ¨berall (f.¨ wenn sie diese Eigenschaft in I bis auf eine Menge vom Maß Null hat.
¨ 12.5 Uber einige Funktionenr¨ aume
603
Ist Δm = {(x0 , x1 , . . . , xm ) , a = x0 < x1 < . . . < xm = b} eine Unterteilung des Intervalls [a, b] , dann heißt eine Funktion f : [a, b] → R absolutstetig, wenn ∀ ε > 0 ∃ δ > 0 ∀ m ∈ N ∀ Δm : m
|xj − xj−1 | < δ =⇒
j=1
m
|f (xj ) − f (xj−1 )| < ε .
j=1
Damit sind die absolutstetigen Funktionen etwas glatter als stetig. Sie erlauben eine Verallgemeinerung des Hauptsatzes der Differential- und Integralrechnung auf Lebesgue-integrierbare Funktionen: Satz 12.4. Es sei f : [a, b] → R absolutstetig, dann ist f f.¨ u. differenzierbar, die Ableitung ist im Lebesgueschen Sinn integrierbar (L-integrierbar) und bez¨ uglich des L-Integrals gilt x f (t) dt . f (x) = f (a) + a
Beweis z.B. [Heuser80], Theorem 131.3. (b) Die Zahl
b
|df (x)| := sup sup
κf := a
m
m∈N Δm i=1
|f (xi ) − f (xi−1 )|
heißt Schwankung von f . F¨ ur eine konstante Funktion f (x) = c ist z.B. κf = c und bei einer schwach monoton wachsenden Funktion ist κf = f (b) − f (a) . Wir f¨ uhren nun den Raum BV[a, b] der Funktionen von beschr¨ankter Schwankung (bounded variation) ein und den Unterraum NBV[a, b] der normierten Funktionen von beschr¨ ankter Schwankung verm¨oge BV[a, b] := {f : [a, b] → R , κf < ∞} , f = f (a) + κf NBV[a, b] := {f ∈ BV[a, b] , f (b) = 0 , f stetig von rechts in [a, b]}
.
Weitere Eigenschaften von Funktionen f : [a, b] → R : (1◦ ) f ∈ BV[a, b] g.d.w. wenn f die Differenz f = g − h zweier monoton wachsender Funktionen g und h ist; [Heuser80] I, § 91. (2◦ ) Eine stetige Funktion f ∈ C[a, b] ist von beschr¨ankter Schwankung, wenn sie die Differenz f = g −h zweier stetiger monoton wachsender Funktionen g und h ist; [Heuser80] I, § 91. (3◦ ) Eine absolutstetige Funktion ist von beschr¨ankter Schwankung, aber die Umkehrung gilt nicht; [Heuser80] II, § 131. (4◦ ) Die Funktionen BV[a, b] sind stetig bis auf eine abz¨ahlbare Menge von Punkten, in denen nur der einseitige Grenzwert existiert, sie sind f.¨ u. differenzierbar und R-integrierbar auf [a, b] ; [Heuser80] I,§ 91, II, § 131.
604
12 Anhang
Nach diesen Vorbereitungen l¨ asst sich nun das Riemann-Stieltjes-Integral einf¨ uhren als Grenzwert Riemannscher Summen mit Integrand f ∈ C[a, b] (stetig) und Integrator g ∈ BV[a, b] :
m
b
f (x)dg(x) = lim
m→∞
a
f ( xj ) g(xj ) − g(xj−1 ) , x j ∈ [xj−1 , xj ] .
j=1
An den Sprungstellen der Ableitung von g z¨ ahlt dieses Integral deren Sprungh¨ ohen multipliziert mit dem Wert von f an diesen Stellen. Beispiel 12.3.(1◦ ) Ist f skalar und g(x) = |x| , dann ist
1
−1
f (x)dg(x) = −
0
f (x) dx + −1
1
f (x) dx + 2 f (0) . 0
(2◦ ) [Heuser80] I, Sect. 92. Sind f und die Ableitung g von g beide b b f (x)dg(x) = f (x)g (x) dx . R-integrierbar in [a, b] , dann ist a
a
(3◦ ) [Heuser80] I, § 92. Ist f ∈ C[a, b] und ist g eine Treppenfunktion mit Sprungh¨ ohen g1 , . . . , gm an den Stellen x1 , . . . , xm , dann ist
b
f (x)dg(x) = a
m
f (xi )gi .
i=1
b Umgekehrt existiert das RS-Integral a f (x)dg(x) stets f¨ ur f ∈ BV[a, b] und stetiges g [Heuser80]. Das folgende Ergebnis zeigt nun, dass der Vektorraum BV[a, b] nach einer kanonischen Identifizierung identisch ist mit dem Dualraum (C[a, b])d des Raumes C[a, b] der stetigen Funktionen. Lemma 12.3. Zu jedem y ∈ (C[a, b])d gibt es einen Integrator g ∈ BV[a, b] b f (x)dg(x) , und es ist y = κg . so, dass y(f ) = a
Unter der Zusatzforderung g ∈ NBV[a, b] ist g durch y ∈ (C[a, b])d und ebenso y durch g eindeutig bestimmt, und in Lemma 12.3 kann BV[a, b] durch NBV[a, b] ersetzt werden; [Taylor], S. 198–200. (c) Es sei X ein normierter Vektorraum, S ⊂ X eine Teilmenge und S die abgeschlossene H¨ ulle von S bez. der Norm von X . S heißt dicht in X , wenn ahlbar, dann heißt X separabel . X = S . Ist S dicht in X und endlich oder abz¨
12.6 Zykloiden
605
Beispiel 12.4. Es sei I = [a, b] ein kompaktes Intervall (beschr¨ankt und abgeschlossen) mit nichtleerem Innern. (1◦ ) Der Vektorraum B(I) der beschr¨ ankten Funktionen mit Maximumnorm f ∞ = maxx∈I |f (x)| ist nicht separabel aber abgeschlossen also ein Banach-Raum; [Taylor], S. 89, 102. (2◦ ) Der Vektorraum C(I) der stetigen Funktionen mit Maximumnorm f ∞ = maxx∈I |f (t)| ist separabel, weil die Menge aller Polynome mit rationalen Koeffizienten einerseits abz¨ ahlbar ist und andererseits nach dem Satz von Weierstrass 2.3 in C(I) dicht liegt. Außerdem ist C(I) in B(I) abgeschlossen, also ein Banach-Raum; [Taylor], S. 103. (3◦ ) Der Raum C 1 (I) der stetig differenzierbaren Funktionen mit der Norm f = f ∞ + f ∞ ist separabel und abgeschlossen [Amann]. aume Lp (I) , 1 ≤ p < ∞ , bestehen aus allen f.¨ u. auf (4◦ ) Vgl. § 1.7(f ). Die R¨ I definierten, messbaren Funktionen mit endlichem L-Integral |f (x)|p dx]1/p ; [Taylor], S. 16, 90, 372. Bez¨ uglich der Norm f p := I
aume separabel und abgeschlossen also Banach-R¨aume; ◦ p sind diese R¨ [Taylor], S. 90. u. auf I definierten, messbaren Funk(5◦ ) Der Raum L∞ (I) besteht aus allen f.¨ u. in I}. tionen mit der Supremumnorm f ∞ = inf{γ , |f (t)| ≤ γ , f.¨ Der Raum ist nicht separabel aber abgesclossen also ein Banach-Raum; [Taylor], pp. 91, 104. Eine Funktion f ∈ L∞ (I) ist L-integrierbar nach dem Lebesgueschen Satz u ¨ber majorisierte Konvergenz. 1 [a, b] besteht aus allen stetigen Funktionen x mit (6◦ ) Der Raum W∞ t y(τ ) dτ im L-Sinn und y ∈ L∞ [a, b] . x(t) = x(a) + a
12.6 Zykloiden (a) Orthozykloiden Wenn eine Kreisscheibe mit Mittelpunkt M und Radius r reibungsfrei auf einer Geraden in positiver Richtung abrollt, beschreibt ein mit dem rollenden Kreis fest verbundener Punkt P eine Orthozykloide. W¨ahlt man den Winkel ϕ zwischen der Stecke M P und der negativen y-Achse als Parameter, damit am Anfang ϕ = 0 ist, so erh¨alt man die Darstellung x = r ϕ − c sin(ϕ + α) , y = r − c cos ϕ , wobei c der Abstand zwischen M und P ist und α der anf¨angliche Winkel zwischen der Strecke M P und der negativen y-Achse.
606
12 Anhang
(b) Epizykloiden Wenn eine Kreisscheibe mit Mittelpunkt M und Radius r reibungsfrei auf einem festen Kreis mit Mittelpunkt O und Radius R abrollt, beschreibt ein mit dem rollenden Kreis fest verbundener Punkt P eine Epizykloide. W¨ ahlt man den Winkel ϕ zwischen der Strecke OM und der x-Achse als Parameter, so erh¨ alt man die Darstellung R+r ϕ+α , x = (R + r) cos ϕ + c cos r R+r ϕ + α , ϕ ≥ 0, y = (R + r) sin ϕ + c sin r wobei c der Abstand zwischen M und P ist und α der anf¨angliche Winkel zwischen der Strecke M P und der x-Achse. F¨ ur R/r ∈ N ist die Epizykloide ein geschlossene Kurve. (c) Hypozykloiden Wenn eine Kreisscheibe mit Mittelpunkt M und Radius r reibungsfrei in einem festen Kreis mit Mittelpunkt O und Radius R abrollt, beschreibt ein mit dem rollenden Kreis fest verbundener Punkt P eine Hypozykloide. W¨ ahlt man den Winkel ϕ zwischen der Stecke OM und der x-Achse als Parameter, so erh¨ alt man die Darstellung R−r ϕ+α , x = (R − r) cos ϕ + c cos r R−r ϕ+α , y = (R − r) sin ϕ − c sin r wobei c der Abstand zwischen M und P ist und α der anf¨angliche Winkel zwischen der Strecke M P und der x-Achse. F¨ ur R/r ∈ N ist die Hypozykloide eine geschlossene Kurve.
y P φ
M
M
P
r = 2, c = 1
x
y P φ
M
M
P
r = 2, c = 2
x
y P φ r = 2, c = 3
M
M P
Abb. 12.4. Orthozykloiden, α = 0
x
12.6 Zykloiden r = 3, c = 1
r = 3, c = 3
r = 3, c = 4
Abb. 12.5. Epizykloiden, α = 0 , R = 6
r = 2, c = 2
r = 2, c = 1
r = 2, c = 4
Abb. 12.6. Epizykloiden, α = 0 , R = 6
r = 3, c = 1
r = 3, c = 3
r = 3, c = 4
r = 2, c = 1
r = 2, c = 2
r = 2, c = 4
Abb. 12.7. Hypozykloiden, α = 0 , R = 6
607
608
12 Anhang
12.7 Quaternionen und Drehungen (a) Komplexe Zahlen Der reelle Koordinatenraum R2 mit kanonischer Basis {e1 , e2 } erzeugt die Gaußsche Ebene der komplexen Zahlen C durch Einf¨ uhrung einer ¨ außeren kommutativen Produkts ∗“ gem¨aß ” e1 ∗ e1 = e1 , e1 ∗ e2 = e2 ∗ e1 = e2 , e2 ∗ e2 = −e1 .
(12.9)
Es folgt (ae1 + be2 ) ∗ (ce1 + de2 ) = (ac − bd)e1 + (ad + bc)e2 , und wir schreiben daf¨ ur kurz e1 = (1 , 0) , e2 = (0 , i) oder auch a + b i anstatt a(1 , 0) + b(0 , i) . Mathematisch ausgedr¨ uckt wird der reelle R2 eine kommuur u , v ∈ R2 , das tative Algebra durch ein ¨ außeres Produkt w = u ∗ v ∈ R2 f¨ die Identit¨ at und eine Inverse besitzt. Auf der anderen Seite k¨onnen wir die komplexen Zahlen auch durch (2, 2)-Matrizen beschreiben
a b z = a + bi ∼ Z = (12.10) −b a und an Stelle von (12.9) die Matrizenmultiplikation verwenden, die f¨ ur Matrizen vom speziellen Typ (12.10) ebenfalls kommutativ ist. (b) Quaternionen Nach Hamilton kann der Koordinatenraum R4 ebenfalls mit einem geeigneten a ¨ußeren Produkt versehen werden, das aber nicht kommutativ ist. Man betrachte dazu zwei komplexe Zahlen u = a + i b , v = c + i d und ordne diesem Paar eine Matrix a ¨hnlich wie in (12.10) zu:
u v (u , v) ∼ Q(u, v) = −v u (der Oberstrich bezeichnet wie immer die konjugiert komplexe Zahl). In Q sind die entsprechenden Matrizen (12.10) f¨ ur u und v einzusetzen, dann folgt ⎤ ⎡ c d a b ⎢ −b a −d c ⎥ ⎥, (12.11) Q(a, b, c, d) = ⎢ ⎣ −c d a −b ⎦ b a −d −c und das Produkt zweier solcher Matrizen ist wieder eine Matrix vom gleichen Typ. Die Quaternionen bilden einen vierdimensionalen Vektorraum und k¨ onnen nat¨ urlich mit Hilfe einer Basis dargestellt werden, die sich hier an der Darstellung der komplexen Zahlen orientiert: q = q0 + q1 i + q2 j + q3 k dann ist i = j = k 2 = −1 , ij = −ji = k , ki = −ik = j . 2
2
12.7 Quaternionen und Drehungen
609
Die Elemente q der nichtkommutativen Algebra Q der Quaternionen werden als Zahlen aufgefasst (und nicht als Vektoren) ebenso wie bei der komplexen Zahlenebene C , deswegen werden sie u ¨blicherweise nicht unterstrichen. Sollen sie explizit als Vektoren im R4 aufgefasst werden, dann schreibt man q statt q . Die vier reellen Zahlen eines Quaternios stehen in der ersten Zeile der Matrix Q in (12.11), daher ist die erste Zeile des Matrizenprodukts Q(a, b, c, d)Q(e, f, g, h) der Vektor r des Quaternionenprodukts r = p q . Unter Verwendung von KAPITEL12\quaternion.m folgt explizit ⎡ ⎤ ⎡ ⎤ ⎡ ⎤ a e ae − bf − cg − dh ⎢b ⎥ ⎢f ⎥ ⎢af + be + ch − dg⎥ ⎢ ⎥ ⎢ ⎥ ⎥ p =⎢ (12.12) ⎣ c ⎦ , q =⎣ g ⎦ , r =⎣ a g − b h + c e + d f ⎦ . d h ah + bg − cf + de Weitere Bezeichnungen und Eigenschaften: Konjugierte q = q0 − q1 i − q2 j − q3 k 1/2 Norm |q| = q02 + q12 + q22 + q32 Inverse q −1 = q/|q|2 . s(q) := q0 ist der Skalar des Quaternios q und vec(q) := q1 e1 + q2 e2 + q3 e3 ist der Vektor von q , also gilt q = q0 + vec(q) . Sind vec(p) und vec(q) zwei Vektor-Quaternionen, dann folgt f¨ ur die Multiplikation s(vec(p) vec(q)) = − vec(p) · vec(q) und vec(p q) = vec(p) × vec(q) also vec(p) vec(q) = − vec(p) · vec(q) + vec(p) × vec(q) .
(12.13)
Nat¨ urlich k¨ onnen Quaternionen auch mit Hilfe normierter Vektorkomponenten vec(q) 7 geschrieben werden: q0 | vec(q)| vec(q) + q = |q| =: |q| cos ϕ + sin ϕ vec(q) 7 , |q| |q| | vec(q)| dabei ist der Winkel ϕ festgelegt durch cos
q0 ϕ |vec(q)| ϕ ϕ ϕ := , sin := =⇒ cos2 + sin2 = 1 . 2 |q| 2 |q| 2 2
(12.14)
(Hier wird ϕ/2 statt ϕ geschrieben, weil ϕ nachher der Drehwinkel einer Roatation ist).
610
12 Anhang
(c) Zusammengesetzte Drehungen Nach § 1.1(i) lautet die Formel (1.13) f¨ ur die Drehung eines Vektor x um die Achse a ∈ R3 , |a| = 1 , mit Winkel ϕ y = xa + cos(ϕ)(x − xa ) + sin(ϕ)(a × x) , wobei xa = (x · a)a die Projektion des Ortsvektors x auf die Drehachse a (Ortsvektor) ist. Mit der Darstellungsformel (1.3), a × (b × x) = (a · x)b − (a · b)x = b aT − aT b I x , folgt y = x + (1 − cos(ϕ))a × (a × x) + sin(ϕ)(a × x) . Wegen 1 − cos ϕ = 2 sin2 (ϕ/2) und sin ϕ = 2 sin(ϕ/2) cos(ϕ/2) kann dieser allgemeinen Drehung ein Quaternio q der L¨ ange Eins zugeordnet werden: ϕ ϕ q = q0 + vec(q) = cos (12.15) + sin a . 2 2 Ist die schiefsymmetrische Matrix Cq wie in § 1.1(i) durch Cq x = vec(q) × x definiert, dann folgt y = x + 2 vec(q) × (vec(q) × x) + 2q0 vec(q) × x = I + 2 vec(q) vec(q)T − vec(q)T vec(q)I + 2q0 Cq x .
(12.16)
Sollen nun zwei Drehungen mit den Drehmatrizen D(a, ϕ) und D(b, ψ) hintereinander ausgef¨ uhrt werden, dann sind zun¨achst die beiden zugeh¨origen Quaternionen p und q nach (12.15) zu bilden und anschließend das Quaternionenprodukt r = p q . Die Drehmatrix der resultierenden Drehung ist nach (12.16) D(c, ϑ) := D(b, ψ)D(a, ϕ) = I + 2 vec(r) vec(r)T − vec(r)T vec(r)I + 2r0 Cr . Der Skalar r0 und der Vektor vec(r) von r werden nach (12.13) berechnet, der zugeh¨ origen Drehwinkel ϑ sowie die resultierende Drehachse durch Normalisierung nach (12.14). Beispiel 12.5. Erste Drehung mit Achse a = e2 und Winkel ϕ = π/2 , zweite Drehung mit Achse b = e1 und Winkel ψ = π/2 . Drehmatrix orige Quaternionen p , q f¨ ur die erste und D(c, ϑ) = D(e1 , ψ)D(e2 , ϕ). Zugeh¨ zweite Drehung sind √ 2 (1 + j) p = cos(ϕ/2) + sin(ϕ/2) a = cos(π/4) + sin(π/4) e2 = 2 √ 2 (1 + i) . q = cos(ψ/2) + sin(ψ/2) b = cos(π/4) + sin(π/4) e1 = 2 F¨ ur den Quaternio r = q p der resultierenden Drehung folgt r = 0.5 [1 , 1 , 1 , 1] mit Hilfe √ von (12.12). Die resultierende normierte Drehachse ist daher c = ur den [1 , 1 , 1]/ 3 und u ¨ber r0 = cos(ϑ/2) = 1/2 ergibt sich ϑ = 2π/3 f¨ Drehwinkel.
Literaturverzeichnis
[Abraham] Abraham, R., et al.: Manifolds, Tensor Analysis, and Applications. Springer, Berlin Heidelberg New York (1983) [Acheson] Acheson, D.: Vom Calculus zum Chaos. Oldenbourg, M¨ unchen (1999) [Akhiezer] Akhiezer, N.I.: The Calculus of Variations. Blaisdell, New York (1962) [Allgower89] Allgower, E.L., et al.: Large sparse continuation problems. J. Comp. Appl. Math. 26, 3–21 (1989) [Allgower90] Allgower, E.L., Georg, K.: Numerical Continuation Methods. Springer, Berlin Heidelberg New York (1990) [Altenbach] Altenbach, J., Altenbach, H.: Einf¨ uhrung in die Kontinuumsmechanik. Teubner, Stuttgart (1994) [Amann] Amann, H.: Gew¨ ohnliche Differentialgleichungen. De Gruyter, Berlin (1983) [Arenstorf] Arenstorf, R.F.: Periodic solutions of the restricted three body problem representing analytic continuations of Keplerian elliptic motions. Amer. J. Math., 85, 27–35 (1963) [Argyris] Argyris, J.H, et al.: The TUBA family of plate elements for the matrix displacement method. The Aeronautical J. of the Royal Aeronautical Society, 72, 701–709 (1968). [Arnold78] Arnold, V.I.: Mathematical Methods of Classical Mechanics. Springer, Berlin Heidelberg New York (1978) [Arnold80] Arnold, V.I.: Gew¨ ohnliche Differentialgleichungen. Springer, Berlin Heidelberg New York (1980) [Arnold90] Arnold, V.I.: Huygens and Barrow, Newton and Hooke. Birkh¨ auser, Basel (1990) [Babuska63] Babuska, I.: The theory of small changes in the domain of existence of partial differential equations and its applications. In: Differential Equations and their Applications. Academic Press, New York (1963) [Babuska90] Babuska, I., Pitkaeranta, J.: The plate paradox for hard and simple soft support. SIAM J. Math. Anal. 21, 551–576 (1990) [Bank] Bank, R.E., Mittelmann, H.D.: Stepsize selection in continuation problems. J. Comp. Appl. Math. 26, 67–77 (1989) [Barner] Barner, M., Flohr, F.: Analysis II. De Gruyter, Berlin (1983) [Barragy] Barragy, E., Carey, G.F.: Stream function vorticity solutions using high-p element-by-element techniques. Comm. Numer. Meth. Eng. 9, 387–395 (1993) E. Gekeler, Mathematische Methoden zur Mechanik, Springer-Lehrbuch Masterclass, 2nd ed., DOI 10.1007/978-3-642-14253-6, c Springer-Verlag Berlin Heidelberg 2010
612
Literaturverzeichnis
[Barton] Barton, I.E.: The entrance effect of laminar flow over a backward-facing step geometry. Int. J. Numer. Meth. Fluids 25, 633–644 (1997). [Batoz] Batoz, J-L., et al.: A study of three-node triangular plate bending elementes. Int. J. Num. Meth. Eng. 15, 1771–1812 (1980) [Becker75] Becker, E., B¨ urger, W.: Kontinuumsmechanik. Teubner, Stuttgart (1975) [Becker80] Becker, K.H., Seydel, R.: A Duffing equation with more than 20 branching points. In: E.L. Allgower et al. (ed) Lecture Notes Bd. 878. Springer, Berlin Heidelberg New York (1980) [Bell] Bell, K.: A refined triangular plate bending finite element. Internat. J. Numer. Meth. Eng. 1, 101–122 (1969) [Ben-Israel] Ben-Israel, A.: Linear equations and inequalities in finite dimensional, real or complex, vector spaces: a unified theory. J. Math. Anal. Appl. 27, 367– 389 (1969) [Berger] Berger, M., Gostiaux, B.: Differential Geometry: Manifolds, Curves, and Surfaces. Springer, Berlin Heidelberg New York (1988) [Berkowitz] Berkowitz, L.D.: Optimal Control Theory. Springer, Berlin Heidelberg New York (1974) [Bertram] Bertram, A.: Axiomatische Einf¨ uhrung in die Kontinuumsmechanik. Wissenschaftsverlag, Mannheim (1989) [Bertrand] Bertrand, J.: Th´eor`eme relatif au movement d’un point attir´e vers un centre fixe. Compt. Rend. 77, 849–853 (1873) [Best] Best, M.J., Ritter, K.: Linear Programming. Prentice Hall, Englewood Cliffs, N.Y. (1985) [Betten] Betten, J.: Tensorrechnung f¨ ur Ingenieure. Teubner, Stuttgart (1987) [Bhatia] Bhatia, A.B., Singh, R.N.: Mechanics of Deformable Media. Adam Hilger, Bristol Boston (1986) [Birkhoff] Birkhoff, G.D., Kellogg, O.D.: Invariant points in function space. Trans. Amer. Math. Soc. 23, 96–115 (1922). [Bishop] Bishop, R.L., Goldberg, S.: Tensor Analysis on Manifolds. Macmillan, New York (1968) [Blanchard] Blanchard, Ph., Br¨ uning, E.: Direkte Methoden der Variationsrechnung. Springer, Berlin Heidelberg New York (1982) [Bogacki] Bogacki, P., Shampine, L.F.: A 3(2) pair of Runge-Kutta formulas. Appl. Math. Lett. 2, 1–9 (1989) [Boukir] Boukir, K., et al.: A high-order characteristic/finite element method for the incompressible Navier-Stokes equations. Int. J. Num. Meth. Fluids 25, 1421–1454 (1997) [Bourne] Bourne, D.E., Kendall, P.C.: Vektoranalysis. Teubner, Stuttgart (1973) [Bowen] Bowen, R.M., Wang, C.C.: Introduction to Vectors and Tensors. Plenum Press, New York London (1976) [Braess] Braess, D.: Finite Elemente. Springer, Berlin Heidelberg New York (1997) [Brasey92] Brasey, V.: A half-explicit Runge-Kutta method of order 5 for solving constrained mechanical systems. Computing 48, 191–201 (1992) [Brasey93] Brasey, V., Hairer, E.: Half-explicit Runge-Kutta methods for differential-algebraic systems of index 2. SIAM J. Numer. Anal. 30, 538–552 (1993) [Brenner] Brenner, S.C., Scott, L.R.: The Mathematical Theory of Finite Element Methods. Springer, Berlin Heidelberg New York (1994) [Brezzi] Brezzi, F., Fortin, M.: Mixed and Hybrid Finite Element Methods. Springer, Berlin Heidelberg New York (1991)
Literaturverzeichnis
613
[Bryson] Bryson, A.E., Ho, J.C.: Applied Optimal Control. Wiley, New York (1975) [Budden] Budden, P.J., Norbury, J.: A non-linear elliptic eigenvalue problem. J. Inst. Math. Appl. 24, 9–33 (1979) [Burg] Burg, Kl., Haf, H, Wille, F.: H¨ ohere Mathematik f¨ ur Ingenieure, I–V. Teubner, Stuttgart (1991) [Burges] Burges, D., Graham, A.: Introduction to Control Including Optimal Control. Horwood, Chichester (1980) [Butcher] Butcher, J.C.: On the attainable Order of Runge-Kutta methods. Math. Computation 19, 408–417 (1965) [Byrd] Byrd, R.H., et al.: An interior point algorithm for large-scale nonlinear programming. SIAM J. Optim. 9, 877–900 (1999) [Calahan] Calahan, D.A.: A stable, accurate method of numerical integration for nonlinear systems. Proc. IEEE 56, 744 (1968) [M.Chen] Chen, M.: On the solution of circulant linear systems. SIAM J. Nu˙ merAnal. 24, 668–683 (1987) [X.Chen] Chen, X.-N.: Hydrodynamics of Wave-Making in Shallow Water. Thesis, Universit¨ at Stuttgart, Stuttgart (1999) [Chorin] Chorin, A.J., Marsden, J.E.: A Mathematical Introduction to Fluid Mechanics. Springer, Berlin Heidelberg New York (1979) [Chow] Chow, Sh.-N., Hale, J.H.: Methods of Bifurcation Theory. Springer, Berlin Heidelberg New York (1982) [Ciarlet79] Ciarlet, Ph. G.: The Finite Element Method for Elliptic Problems. North–Holland, Amsterdam (1979) [Ciarlet93] Ciarlet, Ph. G.: Mathematical Elasticity I, Three-Dimensional Elasticity. North–Holland, Amsterdam (1993) [Ciarlet96] Ciarlet, Ph.G., Lions, J.L.: Handbook of Numerical Analysis. North– Holland, Amsterdam (1996) [Ciarlet97] Ciarlet, Ph. G.: Mathematical Elasticity II, Theory of Plates. North Holland, Amsterdam (1997) [Ciarlet00] Ciarlet, Ph. G.: Mathematical Elasticity III, Theory of Shells. Elsevier, Amsterdam (2000) [Clarke] Clarke, F.H.: Optimization and Nonsmooth Analysis. Wiley, New York (1983) [Clegg] Clegg, J.C.: Variationsrechnung. Teubner, Stuttgart (1970) [Cole] Cole, R.H.: Theory of Ordinary Differential Equations. McGraw-Hill, New York (1955) [Collatz60] Collatz, L.: The Numerical Treatment of differential Equations. Springer, Berlin Heidelberg New York (1960) [Collatz63] Collatz, L.: Eigenwertaufgaben mit technischen Anwendungen. Teubner, Leipzig (1963) [Courant] Courant, R., Hilbert, D.: Methoden der Mathematischen Physik, I. Springer, Berlin Heidelberg New York (1968) [Crandall] Crandall, M.G., Rabinowitz, P.H.: Bifurcation from simple eigenvalues. J. Functional Anal. 8, 321–340 (1971) [Craven78] Craven, B.D.: Mathematical Programming and Control Theory. Chapman and Hall, London (1978) [Craven95] Craven, B.D.: Control and Optimization. Chapman and Hall, London (1995)
614
Literaturverzeichnis
[Crouzeix73] Crouzeix, M., Raviart, P.A.: Conforming and non-conforming finite element methods for solving stationary Stokes equations. R.A.I.R.O. R-3, 77– 104 (1973) [Crouzeix75] Crouzeix, M.: Sur l’approximation des equations differentielles operationelles lineaires par des methods de Runge-Kutta. Thesis. Universite de Paris (1975) [Crouzeix80] Crouzeix, M., Raviart, P.-A.: Approximation des Problemes d’Evolution. Unpublished manuskript. Universite de Paris (1980). [Cuvelier] Cuvelier, C., et al.: Finite Element Methods and Navier Stokes Equations. Reidel, Boston (1986) [DeBoor] DeBoor, C.: A Practical Guide to Splines. Springer, Berlin Heidelberg New York (1978). [Decker] Decker, K.H.: Maschinenelemente. Hanser, M¨ unchen (1997) [Decker/Keller] Decker, D.W., Keller, H.B.: Multiple limit point bifurcation. J. Math. Anal. Appl. 75, 417–430 (1980) [Dellnitz] Dellnitz, M.: Computational bifurcation of periodic solutions in systems with symmetry. IMA J. Numer. Anal. 12, 429–455 (1992) [Demoulin] Demoulin, Y.-M. J., Chen, Y.M.: An iteration method for solving nonlinear eigenvalue problems. SIAM J. Appl. Math. 28, 588–595 (1975) [Denninger] Denninger, G.: Univ. Stuttgart, Private Mitteilung. 2005. [Dennis] Dennis, J.E., Schnabel, R.B.: Numerical Methods for Unconstrained Optimization and Nonlinear Equations. Prentice Hall, Englewood Cliffs, N.J. (1983) [Deuflhard84] Deuflhard, P.: Computation of periodic solutions of nonlinear ODEs. BIT 24, 456–466 (1984) [Deuflhard87] Deuflhard, P.: Efficient numerical pathfollowing beyound critical points. SIAM J. Numer. Anal. 24, 912–927 (1987) [Dieudonne] Dieudonn´e, J.: Foundations of Modern Analysis. Academic Press, New York (1960) [DIN84] DIN–Taschenbuch 202. Beuth, Berlin (1984) [Dormand] Dormand, J.R., Prince, P.J.: A family of imbedded Runge-Kutta formulae. J. Comp. Appl. Math. 6, 223–232 (1980) [Dyer] Dyer, P., McReynolds, S.R.: The Computation and Theory of Optimal Control. Academic Press, New York (1970) [Ekeland] Ekeland, I., Temam, R.: Convex Analysis and Variational Problems. North–Holland, Amsterdam (1976) [Ergatoudis] Ergatoudis, J.G. et al.: Curved isoparametric quadrilateral elements for finite element analysis. Int. J. Solids Struct. 4, 31–42 (1968) [Evans] Evans, L.C.: Partial Differential Equations. AMS, Rhode Island (1998) [Fiedler] Fiedler, B.: Global Hopf bifurcation of two-parametric flows. Arch. Rat. Mech. Anal. 94, 59–81 (1986) [Flanders] Flanders, H.: Differential Forms. Academic Press, New York (1963) [French] French, A.P.: Newtonsche Mechanik. De Gruyter, Berlin (1996) [Gekeler84] Gekeler, E.W.: Discretization Methods for Stable Initial Value Problems. Lecture Notes Math. Bd. 1044, Springe, Berlin Heidelberg New York (1984) [Gekeler86] Gekeler, E.W., Widmann, R.: On the order conditions of Runge-Kutta methods with higher derivatives. Numer. Math. 50, 183–203 (1986) [Gekeler89] Gekeler, E.W.: On the numerical solution of double-periodic elliptic eigenvalue problems. Computing 43, 97–114 (1989)
Literaturverzeichnis
615
[Gekeler92] Gekeler, E.W.: On trigonometric collocation and Hopf bifurcation. In: E.Allgower et al. (ed) Bifurcation and Symmetry, ISNM vol.104. Birkh¨ auser, Basel (1992) [Gekeler95] Gekeler, E.W.: On the perturbed eigenvalue problem. J. Math. Anal. Appl. 191, 540–546 (1995) [Gekeler08] Gekeler, E.W.: Mathematical Methods for Mechanics. Springer, Berlin Heidelberg New York (2008) [Gelfand] Gelfand, I.M., Fomin, S.V.: Calculus of Variations. Prentice–Hall, Englewood Cliffs, N.J. (1963) [Gervais] Gervais, J.J, et al.: Some experiments with stability analysis of discrete incompressible flows in the lid-driven cavity. Int. J. Num. Meth. Fluids 24, 477–492 (1997) [Girault] Girault, V., Raviart, P.-A.: Finite Element Methods for Navier-Stokes Equations. Springer, Berlin Heidelberg New York (1986) [Glass] Glass, L.: Combinatorial and topological methods in nonlinear chemical kinetics. J. Chem. Phys. 63, 1325–1335 (1975) [Goldfarb] Goldfarb, D., Idnani, A.: A numerically stable dual method for solving strictly convex quadratic programs. Math. Programming 27, 1–33 (1983) [Golub] Golub, G.H., VanLoan, Ch. F.: Matrix Computations. John Hopkins University Press, Baltimore London (1989) [Golubitsky] Golubitsky, M., Schaeffer, D.G.: Singularities and Groups in Bifurcation Theory, I, II. Springer, Berlin Heidelberg New York (1985) (1987) [Grauert] Grauert, H., Lieb, I.: Differential- und Integralrechnung III. Springer, Berlin Heidelberg New York (1968) [Gregory] Gregory, J., Lin, C.: Constrained Optimization in the Calculus of Variations and Optimal Control Theory. Van Nostrand, New York (1992) [Gresho] Gresho, P.M., Sani, R.L.: Incompressible Flow and the Finite Element Method, I,II. Wiley, New York (2000) [Grimm] Grimm, W.: Private Mitteilung. Univ. Stuttgart, Inst. of Flight Mechanics and Control (2004) [Gross A] Gross, D., et al.: Technische Mechanik I-III. Springer, Berlin Heidelberg New York (1998) (1999) [Gross B] Gross, D., et al.: Formeln und Aufgaben zur Technischen Mechanik I-III. Springer, Berlin Heidelberg New York (1998) (1999) [Gummert] Gummert, P., Reckling, K.-A.: Mechanik. Vieweg, Braunschweig (1987) [Hairer] Hairer, E., et al.: Solving Ordinary Differential Equations I,II. Springer, Berlin Heidelberg New York (1987) [Hajek] Hajek, B.: Cooling schedules for optimal annealing. Mathematics of Operation Research, 13, 311–329 (1988) [Hamel] Hamel,G.: Theoretische Mechanik. Springer, Berlin Heidelberg New York 1978 [Hartl] Hartl,R.F., et al.: A survey of the maximum principle for optimal control problems with state constraints. SIAM Review 37, 181–218 (1995) [Heil] Heil, M., Kitzka, F.: Grundkurs Theoretische Mechanik. Teubner, Stuttgart (1984) [Heuser80] Heuser, H.: Lehrbuch der Analysis I,II. Teubner, Stuttgart (1980) (1981) [Heuser86] Heuser, H.: Funktionalanalysis. Teubner, Stuttgart (1986) [Himmelblau] Himmelblau, D.M.: Applied Nonlinear Programming. McGraw–Hill, New York (1972)
616
Literaturverzeichnis
[C.Hirsch] Hirsch, C.: Numerical Computation of Internal and External Flows, I,II. Wiley, New York (1988) [M.Hirsch] Hirsch, M.W.: Differential Topology. Springer, Berlin Heidelberg New York (1976) [Hirzebruch] Hirzebruch, F., Scharlau, W.: Einf¨ uhrung in die Funktionalanalysis. Bibliograph. Institut, Mannheim (1971) [Hoellig] H¨ ollig, K.: Grundlagen der Numerik. Klaus H¨ ollig, Zavelstein (1998) [Holzmann] Holzmann, G., et al.: Technische Mechanik. Teubner, Stuttgart (1990) [Hopf] Hopf, E.: Abzweigung einer periodischen L¨ osung von einer station¨ aren L¨ osung eines Differentialsystems. Ber. math.-phys. Klasse S¨ achs. Akad. Wiss. 94, 1–22 (1942) [Irons] Irons, B., Ahmad, S.: Techniques of Finite Elements. Wiley, New York (1980) [Jeyachandrabose] Jeyachandrabose, C., et al.: An alternative explicit formulation for the DKT plate bending element. Int. J. Num. Meth. Eng. 21, 1289-1293 (1985) [F.John] John, F.: Extremum problems with inequalities as subsidiary conditions. In: Studies and Essays, Courant Anniversary Volume. New York, 187–204 (1948) [Kardestuncer] Kardestuncer, H. (Ed.): FEM Handbook. McGraw-Hill, New York (1987) [Kawahara] Kawahara, M. et al.: Selective lumping finite element method for shallow water flow. Int. J. Num. Methods in Fluids 2, 89–112 (1982) [Keener72] Keener, J.B., Keller, H.B.: Perturbed bifurcation and buckling of circular plates. Conf. on the Theory of Ordinary and Partial Differential Equations. Springer Lecture Notes, vol. 208, Dundee/Scotland (1972). [Keener73] Keener, J.P., Keller, H.B.: Perturbed bifurcation theory. Arch. Rat. Mech. Anal. (50), 159–175 (1973) [Keener74] Keener, J.P.: Perturbed bifurcation theory at multiple eigenvalues. Arch. Rat. Mech. Anal. (56), 348–366 (1974) [Keller58] Keller, H.B., Reiss, E.L.: Iterative solutions for the non-linear bending of circular plates. Comm. Pure Appl. Math. 11, 273-292 ( 1958). [Keller72] Keller, H.B., Langford, W.F.: Iterations, perturbations and multiplicities for nonlinear bifurcation problems. Arch. Rational Mech. Anal. 48, 83–108 (1972) [Keller87] Keller, H.B.: Numerical Methods in Bifurcation Problems. Springer, Berlin Heidelberg New York (1987) [Kielhoefer] Kielh¨ ofer, H.: Hopf bifurcation at multiple eigenvalues. Arch. Rat. Mech. Anal. 69, 53–83 (1979) [Kirchgaessner] Kirchg¨ assner, K.: Exotische L¨ osungen des B´enardschen Problems. Math. Mech. in Appl. Sci. (1), 453–467 (1997) [Kirsch] Kirsch, A., et al.: Notwendige Optimierungsbedingungen und ihre Anwendung. Springer, Berlin Heidelberg New York (1978) [Kosmol] Kosmol, P.: Optimierung und Approximation. De Gruyter, Berlin (1991) [Krasnoselki] Krasnoselki, M.A. Topological Methods in the Theory of Nonlinear Integral Equations. Macmillan, New York (1964) [Kroener] Kroener, D.: Numerical Schemes for Conservation Laws. Wiley und Teubner, Stutgart (1997) [Krabs] Krabs, W.: Optimierung und Approximation. Teubner, Stuttgart (1975) [Kubicek] Kubicek, M.: Algortihm 502. Dependence od solution of nonlinear systems on a parameter. JACM Transactions Math. Software 2, 98–107 (1976)
Literaturverzeichnis
617
[Kuznetsov] Kutnetsov, Y.A.: Elements of Applied Bifurcation Theory. Springer, Berlin Heidelberg New York (1995) [Lanczos] Lanczos, C.: The Variational Principles of Mechanics. Toronto (1970) [Landau] Landau, L.D., Lifschitz, E.M.: Lehrbuch der theoretischen Physik, VII. Akademie–Verlag, Berlin (1989) [Landman] Landman, K.A, Rosenblat, S.: Bifurcation from a multiple eigenvalue and stability of solutions. SIAM J. Appl. Math. 34, 743–759 (1978) [Langford77a] Langford, W.F.: Numerical solution of bifurcation problems for ordinary differential equations. Numer. Math. bf 28, 171–190 (1977) [Langford77 ] Langford, W.F.: A shooting algorithm for the best least squares solution of two-point boundary value problems. SIAM J. Numer. Anal. bf 14, 527–542 (1977) [Langford78] Langford, W.F.: The generalized inverse of an unbounded linear operator with unbounded constraints. SIAM J. Math. Anal. bf 9, 1038–1095 (1978) [Lippmann] Lippmann, H.: Angewandte Tensorrechnung. Springer, Berlin Heidelberg New York (1993) [Ljusternik] Ljusternik, L.A.: Conditional extrema of functionals. Mat. Sbornik 41, 390–401 (1934) [Luenberger] Luenberger, D.G.: Optimization by Vector Space Methods. Wiley, New York (1969) [Machinek] Machinek, A.K., Troger, H.: Post-buckling of elastic annular plates at multiple eigenvalues. Dynamics and Stability of Systems, 3, 79–98 (1988) [Magnus] Magnus, K., M¨ uller, H.H.: Grundlagen der Technischen Mechanik. Teubner, Stuttgart (1982) [Marsden76] Marsden, J.E., McCracken, M.: The Hopf Bifurcation and Its Applications. Springer Appl. Math. Sci. Lecture Notes Series, Vol. 19, Springer, Berlin (1976) [Marsden] Marsden, J.E., Hughes, Th.J.: Mathematical Foundations of Elasticity. Prentice–Hall, Englewood Cliffs, N.J. (1983) [Marti] Marti, J.T.: Konvexe Analysis. Birkh¨ auser, Stuttgart (1977) [McLeod] McLeod, J.B. and Sattinger, D.H.: Loss of Stability and bifurcation at a double eigenvalue. J. Functional Analysis 14, 62–84 (1973) [Meschkowski] Meschkowski, H.: Mathematiker-Lexikon. Bibliographisches Institut, Mannheim (1964) [Meyberg] Meyberg, K., Vachenauer, P.: H¨ ohere Mathematik I,II. Springer, Berlin Heidelberg New York (1991) [Meyers] Meyers, N.G, Serrin, J.: H = W. Proc. Nat. Acad. Sci. USA 51, 1055–1056 (1964) [Michlin] Michlin, S.G, Smolitzky, Ch.L.: N¨ aherungsmethoden zur L¨ osung von Differential- und Integralgleichungen. Teubner, Leipzig (1969) [Mindlin] Mindlin, R.D.: Influence of rotary inertia and shear on flexural motion of elastic plates. Trans. ASME Ser. E, J. Appl. Mech. 18, 31–38 (1951) [Mittelmann] Mittelmann, H.D., Weber, H.: Multigrid Solution of Bifurcation Problems. SIAM J. Sci. Stat. Comput. 6, 49–60 (1985) [MooreA] Moore, G.: The numerical treatment of non-trivial bifurcation points. Numer. Funct. Anal. Optim. 2, 441–472 (1980) [MooreB] Moore, G., Spence, A.: The calculation of turning points of nonlinear equations. SIAM J. Numer. Anal. 17, 567–576 (1980) [Morley] Morley, L.S.: On the constant moment plate bending element. J. Strain Anal. 6, 20–24 (1971).
618
Literaturverzeichnis
[Ninomiya] Ninomiya, H., Onishi, K.: Flow Analysis Using a PC. Southampton-Boston: Computational Mechanics Publications, Southampton Boston (1991) [Orlt] Orlt, M.: Regularit¨ atsuntersuchungen und FEM-Fehlerabsch¨ atzungen ... . Dissertation Universit¨ at Rostock, Rostock (1998) [Ortega] Ortega, J.M., Rheinboldt, W.C.: Iterative Solution of Nonlinear Equations in Several Variables. Academic Press, New York (1970) [Ovsiannikov] Ovsiannikov, L.V.: Group Analysis of Differential Equations. Academic Press, New York (1982). [Peraire] Peraire, J., et al.: Shallow water equations: A general explizit formulation. Int. J. Numer. Meth. Eng. 22, 547–574 (1986) [Peregrine] Peregrine, D.H.: Long waves on a beach. J. Fluid Mech. 27, 815–827 (1967) [Perelomov] Perlomov, A.M.: Integrable Systems of Classical Mechanics and Lie Algebras. Birkh¨ auser, Basel (1990) [Petera] Petera, J., Nassehi, V.: A new two-dimensional finite element model for the shallow water equations using a Lagrangian framework constructed along fluid particle trajectories. Int. J. Num. Mech. Eng. 39, 4159–4182 (1996) [Peterson] Peterson, D.W.: A review of constraint qualifications in finite-dimensional spaces. SIAM Review 15, 639–654 (1973) [Petrov] Petrov, I.P.: Variational Methods in Optimum Control Theory. Academic Press, New York (1968) [Polak] Polak, E.: Optimization. Springer, Berlin Heidelberg New York (1997) [Quartapelle] Quartapelle, L.: Numerical Solution of the Incompressible NavierStokes Equations. Birkh¨ auser, Basel (1993) [Quarteroni] Quarteroni, A., Valli, A.: Numerical Approximation of Partial Differential Equations. Springer, Berlin Heidelberg New York (1997) [Rabinowitz71] Rabinowitz, P.H.: Bifuraction from simple eigenvalues. J. Fuctional Analysis (8), 321–340 (1971) [Rabinowitz73] Rabinowitz, P.H.: Some aspects of nonlinear eigenvalue problems. Rocky Mountain J. Math. (3), 161–202 (1973) [Rade] Rade, L., Westergren, B.: Mathematische Formeln. Springer, Berlin Heidelberg New York (1997) [Rannacher] Rannacher, R., Turek, S.: Simple nonconforming quadrilateral Stokes elements. Numer. Meth. Part. Diff. Equations 8, 97–111 (1992). [Reid] Reid, W.T.: Generalized Greens’ matrices for two-point boundary value problems. SIAM J. Appl. Math. 15, 856–870 (1967) [Reissner] Reissner, E.: On the theory of bending of elastic plates. J. Math. Phys. 23, 184–191 (1944) [Rheinboldt70] Rheinboldt, W.C.: Iterative Solution of Nonlinear Equations in Several Variables. Academic Press, New York (1970) [Rheinboldt86] Rheinboldt, W.C.: Numerical Analysis of Parametrized Nonlinear Equations. Wiley, New York (1986) [Richtmyer] Richtmyer, R.D., Morton, K.W.: Principles of Advanced Physics. SIAM Reg. Conf. Series Appl. Math. 11 [Robinson] Robinson, S.M.: Stability theory for systems of inequalities, Part II. SIAM J. Numer. Analysis 13, 497–513 (1976) [Rouche] Rouche, N., Mauwhin, J.:, Ordinary Differential Equations. Pitman, Boston (1973)
Literaturverzeichnis
619
[Rutishauser] Rutishauser H.: Ausdehnung des Rombergschen Prinzips. Numer. Math. 5, 48–54 (1963) [Sather] Sather, D.: Branching solutions of nonlinear equations. Rocky Mountain J. Math. (3), 203–250 [Schaeffer] Schaeffer, H.H.: Topological Vector Spaces. Macmillan, New York (1966) [Schiehlen86] Schiehlen, W.: Technische Dynamik. Teubner, Stuttgart (1986) [Schiehlen89] Daberkov, A., Eismann, W., Schiehlen, W.: Test Examples for Multibody Systems. Universit¨ at Stuttgart, Inst. B f¨ ur Mechanik, Inst.-bericht IB-13. Stuttgart (1989) [Schiehlen90] Schiehlen, W.: Multibody systems handbook. Springer, Berlin Heidelberg New York (1990) [Schneider] Schneider, M.: Himmelsmechanik. Bibliographisches Institut, Mannheim (1981) [Schneiders] Schneiders, R.: Refinig quadrilateral and hexahedral element meshes. Proc. NUMIGRID 96, Eds. Soni, B.K. et al., 679-689 (1996) [Schwarz80] Schwarz, H.R.: Methode der Finiten Elemente. Teubner, Stuttgart (1980) [Schwarz91] Schwarz, H.R.: FORTRAN-Programme zur Methode der Finiten Elemente. Teubner, Stuttgart (1991) [Seydel79] Seydel, R.: Numerical computation of branch points in nonlinear equations. Numer. Math. 33, 339–352 (1979) [Seydel83] Seydel, R.: Branch switching in bifurcation problems for ordinary differential equations. Numer. Math. 41, 93–116 (1983) [Seydel94] Seydel, R.: Practical Bifurcation and Stability Analysis. Springer, Berlin Heidelberg New York (1994) [Shampine82] Shampine, L.F.: Implementation of Rosenbrock methods. ACM Trans. on Math. Soft. 8, 93–113 (1982) [Shampine97] Shampine, L.F, Reichelt, M.W.: The Matlab ODE suite. SIAM J. Sci. Computing 18, 1–22 (1997) [Sohn] Sohn, J.L., Heinrich, J.C.: A Poisson equation formulation for pressure calculations in penalty finite element models for viscous incompressible flows. Int. J. Numer. Meth. Eng. 30, 349–361 (1990) [Specht] Specht, W.: Modified shape functions for the three-node plate bending element passing the patch test. Int. J. Num. Meth. Eng. 26, 705–715 (1968) [Spellucci] Spellucci, P.: Numerische Verfahren der Nichtlinearen Optimierung. Birkh¨ auser, Basel (1992) [Spotz] Spotz, W.F., Carey, G.F.: High-order compact scheme for the steady streamfunction vortivity equations. Int. J. Num. Meth. Eng. 38, 3497–3512 (1995) [Stakgold] Stakgold, I.: Branching of solutions of nonlinear equations. SIAM Review 13, 289–329 (1971) [Stevens] Stevens, W.N.: Finite Element, stream function-vorticity solution of steady laminar natural convection. Int. J. Numer. Methods in Fluids, 2, 349–366 (1982) [Stoer] Stoer,J., Bulirsch, R.: Introduction to Numerical Analysis. Springer, Berlin Heidelberg New York (1980) [Strang] Strang, G., Fix, G.J.: An Analysis of the Finite Element Method. Prentice– Hall, Englewood Cliffs, N.J. (1973) [Szabo76] Szabo, I.: Geschichte der Mechanischen Prinzipien. Birkh¨ auser, Basel 1976.
620
Literaturverzeichnis
[Szabo77] Szabo, I.: H¨ ohere Technische Mechanik. Springer, Berlin Heidelberg New York (1977) [Szegoe] Szeg¨ o, G.: Orthogonal Polynomials. AMS Soc. Coll. Publ., New York 23 (1939). [Tanahashi] Tanahashi, T., et al.: GSMAC finite element method for unsteady incompressible Navier-Stokes equations at high Reynolds numbers. Int. J. Num. Methods in Fluids 11, 479–499 (1990) [Taylor] Taylor, A.E.: Introduction to Functional Analysis. John Wiley, New York (1958) [Teo89] Teo, K.L., Goh, C.J.: A computational method for combined optimal parameter selection and optimal control problems with general constraints. J. Austral. Math. Soc., Ser. B, 30, 350–364 (1989) [Teo91] Teo, K.L., et.al.: A Unified Computational Approach to Optimal Control Problems. Longman, London (1991) [Timoshenko] Timoshenko, S., et al.: Vibration Problems in Engineering. Wiley, New York (1974) [Turek] Turek, St.: Efficient Solvers for Incompressible Flow Problems. Springer, Berlin Heidelberg New York (1999) [VanderBauwhede] VanderBauwhede, A.: Local Bifurcation and Symmetry. Pitman, Boston (1982) [VanLaarhoven] VanLaarhoven, P.J., Aarts, E.H.: Simulated Annealing: Theory and Applications. Reidel Publishing Company, Dordrecht Boston (1987) [Velte] Velte, W.: Direkte Methoden der Variationsrechnung. Teubner, Stuttgart (1976) [Voigt] Voigt, W.: Lehrbuch der Kristallphysik. Teubner, Leipzig (1910). [Weber79] Weber, H.: Numerische Behandlung von Verzweigungsproblemen bei gew¨ ohnlichen Differentialgleichungen. Numer. Math. 32, 17–29 (1979) [Weber85] Weber, H.: Multigrid bifurcation iteration. SIAM J. Numer. Anal. 22, 262–279 (1985) [Werner] Werner, J.: Optimization Theory and Applications. Vieweg, Braunschweig (1984) [Wloka] Wloka, J.: Funktionalanalysis und Anwendungen. De Gruyter, Berlin (1971) [Yosida] Yosida, K.: Functional Analysis. Springer, Berlin Heidelberg New York (1968) [Zangwill] Zangwill, B.I.: Nonlinear Programming. Prentice–Hall, Englewood Cliffs, N.J. (1969) [Zienkiewicz] Zienkiewicz, O.C., Taylor, R.L.: The Finite Element Method I,II. McGraw–Hill, London (1991)
Sachverzeichnis
¨ Ahnlichkeitstransformation, 6 außere p-Form, 529 ¨ außeres Produkt, 531, 608 ¨ Abbildung, 589 bijektiv, 589 injektiv, 589 surjektiv, 589 Abbrechkriterium, 142 abgeschlossene H¨ ulle, 44 Abk¨ uhlungsgesetz, 492 Ableitung außere, 537 ¨ Fr´echet-, F-Ableitung, 53 Gateaux-, G-Ableitung, 53 konvektive, 396 Material-, 396 schwache, 49 Abstiegsrichtung, 142 Newton-, 146 Abstiegstest Goldstein-Armijo-, GA-, 143 Adiabatenexponent, 434 Airysche Spannungsfunktion, 430 Aitken, 79 Algebra, 529, 608 Andrew’s Squeezer, 578 Anfangswertproblem, 38 parabolisches, 116 singul¨ ares, 134 Anomalie, 321 Apog¨ aum, 318, 337 Apohel, 318
Apside, 318 Arenstorf, 132, 336, 337 Argyris-Polynom, 100 Atlas einer Mannigfaltigkeit, 548 Austauschschritt, 157 Automorphismus, 590 AWP = Anfangswertptoblem, 308 B-Splines, 85 Babuska-Brezzi-Bedingung, 438, 487 Babuska-Paradoxon, 427 Bahngeschwindigkeit, 320 Bahnkurve, 395 Balkenschwingung, 377 Banachraum, 45, 57 reflexiver, 46 Bang-Bang-Kontrolle, 219 baryzentrische Koordinaten, 463 Basis Dual-, 562 kanonische, 514 kartesische, 514, 516 kontravariante, 550, 551 kovariante, 550, 551, 562 reziproke, 516, 550, 551, 562 begleitendes Dreibein, 25 Begleitmatrix, siehe Frobenius-Matrix Begleitsystem, 267 Ben-Israel, 63 Ber¨ uhrungsgesetz, 582 Bernoulli-Balken, 275, 366 Beschleunigung absolute, 394
622
Sachverzeichnis
F¨ uhrungs-, 343 konvektive, 394 relative, 394 Beulung, 586 Bewegung einfache, 403 Starrk¨ orper-, 405 Bewegungsgleichungen, 324 Bezi´er-Kurve, 84 Biegebalken, 379 Biegelinie, 87, 365 Biegemoment, 368 Biegeschwingung, 377 Biegesteifigkeit, 366 Bifurkation Pitchfork, 251 Bifurkationsgleichung, 246, 258, 274, 275 algebraische, 260 Bilinearform, 47, 373 Blandsche Regel, 158 Bogenl¨ ange, 25 Bordering Lemma, 59 Boussinesq, 495 Boxschema, 127 Boyle-Mariottesches Gesetz, 573 Brachistochrone, 207, 232 Brennweite, 321 Brusselator großer, 288 kleiner, 288 Bubble-Funktion, 462, 489 Burgersche Gleichung, 435 Butcher, 109 BV, siehe Raum der Funktionen von beschr¨ ankter Schwankung Cauchy-Folge, 44 Cauchy-Problem, 103 Cauchy-Restglied, 79 Cauchy-Schwarz-Ungleichung, 47 Charakterisierungssatz, 71 charakteristische Zeit, 441 charakteristisches Paar, 5, 31 charakteristisches Polynom, 5, 27, 28, 110 Chemisches Reaktionsmodell, 302 Chezy-Koeffizient, 496 Christoffel-Symbole, 556
Clairaut, 199 Closed Graph Theorem, 58 Closed Range Theorem, 58 Corange, 243 Coriolis-Beschleunigung, 343 Coriolisfaktor, 496 Courant, 454 Courant-Friedrichs-Levy-Bedingung, 112, 116, 498 Courantsches Dreieck, 459 CR-Element = Crouzeix-RaviartElement, 477 Cramersche Regel, 5 Cusp-Katastrophe, 252 D’Alembertsches Prinzip, 329, 362 Darstellung einer Gruppe, 566 De Casteljau, 83 Defekt, siehe Diskretisierungsfehler Deformation, 393 Dehnung, 415 Designmatrix, 458 Determinante, 4, 531 Deviationsmoment, 345 Dichte Energie-, 402 Oberfl¨ achenkraft-, 402, 416 Volumenkraft-, 402, 416 W¨ armequell-, 402 Diffeomorphismus, 39, 60 differential-algebraisches Pproblem, 494 Differentialform, 536 exakte, 539 geschlossene, 539 Differentialgleichung asymptotisch stabile, 111 homogene, 27 stabile, 111 Differentialindex, 137 Differentialoperator, 29 Differentialsystem, 31 asymptotisch stabiles, 33 autonomes, 31 homogenes, 31 periodisches, 36 stabiles, 33 steifes, 115 Differenzen dividierte, 80
Sachverzeichnis R¨ uckw¨ arts-, 119 Vorw¨ arts-, 82 Diffusionskoeffizient, 495, 591 direkte Summe, 57 direkte Zerlegung, siehe direkte Summe Dirichlet-Integral, 542 Dirichlet-Problem duales, 202 Diskretisierungsfehler, 103, 109 Divergenz, 18, 557, 565 eines Tensorfeldes, 560 Tensor-, 18 Divergenzsatz, siehe Satz von Gauß, 425 DLP, siehe Duales Lagrange-Problem DOF = degree of freedom, 457 Drehachse momentane, 342 Drehbewegung, 594 Drehimpuls, 310, 315, 327, 594 Drehmatrix elementare, 339 Drehmoment, 4, 310, 326, 327, 594 Dreik¨ orperproblem, 335, 336 Druck spezifischer, 435 Dualbasis, 514 duale Paarung, 57, 199, 512 Duales Lagrange-Problem, 182 Dualit¨ at, schwache, 182 ucke, 183 Dualit¨ atsl¨ Dualit¨ atsprinzip, 10 Dualraum, 46, 511 Dubois-Reymond, 193 DuBois-Reymond-Bedingung, 195, 204, 362 Duffingsche Gleichung, 133 Dyade, siehe dyadisches Produkt dyadisches Produkt, 459 Dyname, 306 Ecke, 153 degenerierte, 158 Eddy-Viskosit¨ at, 496 EE = Existenz-Eindeutigkeitssatz, 33 EE-Satz f¨ ur Energieformen, 70 fur Interpolation, 78 Eidelheit, 63
623
Eigenfunktion o. Eigenl¨ osung, 115, 374 Eigenvektor, 5 Links-, 6 orthogonaler, 6 Rechts-, 6 Eigenwert, 5, 374 halbeinfacher, 8, 244 Eigenwertproblem, 115, 374 gest¨ ortes, 263 nichtlineares, 262 periodisches, 280 verallgemeinertes, 137, 374 Einstein, 513 Elastizit¨ atsmodul, 366, 415, 592 Element affin-¨ aquivalentes, 462 Argyris-, 469 Bellsches, 470 Crouzeix-Raviart, 477 Dreieck-, 427 Dreieck-, mit gebogenem Rand, 471 Hermite-Typ, 475 Hermitesches, 464 isoparametrisches, 471 konformes, 452, 466 kubisches, f¨ ur Platten, 478 Lagrange, 462 Lagrange-Typ, 464 Mini, 462 nichtkonformes, 452 quadratisches Dreiecks-, 471 Taylor-Hood, 489 Elementare Differentiale, 21 Elementmatrix, 384 Ellipse, 321 EMF, 171 Endomorphismus, 590 Energie Biege-, 367 D¨ ampfungs-, 309 Dehnungs-, 429 Gesamt-, 309, 325, 334 kinetische, 309, 325, 327 Potential-, effektive, 316, 352, 353 potentielle, 309, 325 Rotations-, 345 Energiedichte, 402 Energieellipsoid, 348 Energieerhaltungssatz, 325
624
Sachverzeichnis
Energiefunktional, 447 Energiemethode, 69 Energienorm, 69 Energiestromvektor, 590 Entfaltung, 252 Entropie, 402, 590 Entwicklungssatz, siehe GrassmannIdentit¨ at Enveloppe, 199, 209 Epigraph einer Funktion, 199 Epizykloide, 606 Erhaltungsgleichungen, 433 Erhaltungssatz Drehimpuls-, 310, 315, 327, 404 Energie-, 309, 404, 411 Hamilton-Funktion, 203 Impuls-, 308, 403, 406, 411, 416, 574 Massen-, 403, 495, 574 nichtkonservative Form, 406 erstes Integral, siehe Invariante Ertragsfunktion, 214 Erzeugende einer Gruppe, 569, 571 Euklidischer Raum, 547 Euler-Gleichungen, 193, 311, 351, 356, 357, 361, 368, 416, 448, 576 dynamische, 347 kinematische, 350 Euler-Winkel, 340 Eulersche Knicklast, 375 Evolventenverzahnung, 583 Extremale, 357 Extremalprinzip, 382, 413 Extremalproblem, 192, 416, 417, 423, 447, 576 schwache Form, 193 Exzentrizit¨ at, 337 lineare, 321 numerische, 320 f.¨ u., siehe fast u ¨berall F¨ oppl, 85, 94 Falllinie, 143 Farkas, 65, 154 fast u ¨berall, 602 Federkonstante, 366, 371 Feedback-Inhibition-Modell, 287 Feedbackkontrolle, 214 Fehlerabsch¨ atzung, 104 Feld
konservatives, 309 Ficksches Gesetz, 495 Finger, 9 Fl¨ achengeschwindigkeit, 316 Flachwassergleichungen, 496 Floquet-Multiplikator, 38 Fluchtgeschwindigkeit, 320 Fluid homogenes, 432 ideales, 432 inkompressibles, 432 isentropisches, 432 Newtonsches, 433 nicht-Newtonsches, 433 z¨ ahes, 433 Fluss, 39, 393 Flussintegral, 39 Font¨ ane, 208 Formel von Holand und Bell, 100 Formfunktion, 453 Fortsetzung Korrektorschritt, 299 Pr¨ adiktorschritt, 298 Fourier-Koeffizienten, 284, 597 Fourier-Matrix, 599 Fourier-Reihe, 284, 596 Fourier-Transformation, 285, 599 Fourier-Zeit, 441, 492 Fouriersches Gesetz, 435, 491 Fredholm-Operator, 241 Index, 241 Fredholmsche Alternative, 10, 241 Frenetsche Formeln, 27, 427 Frobenius-Matrix, 114 Froude-Zahl, 493, 591 Fundamentallemma, 192, 576 Fundamentalmatrix, 33, 461 Fundamentalsystem, 7, 32 Funktion Γ -¨ aquivariante, 255 Γ -invariante, 255 Γ -symmetrische, 255 absolutstetig, 603 fast u ¨berall identische, 47 funktional unabh¨ angige, 41 Gewichts-, 88 K-konvexe, 66 konkave, 66 konvexe, 66
Sachverzeichnis Lagrange-, 147 Spannungs-, 430 st¨ uckweise stetige, 219 von beschr¨ ankter Schwankung, 603 Funktional, 45 Dual-, 182 elliptisches, 69 Energie-, 69 Primal-, 182 quadratisches, 69 Gabelschl¨ ussel, 501 Galerkin-N¨ aherung, 75 Gangpolkegel, Polhodiekegel, 349 Gaußsches Zahlenfeld, 608 Gauß-Jordan-Schritt, 161 Gauß-Legendre-Formeln, 98 Gebiet, 23 einfach zusammenh¨ angendes, 23 regul¨ ares, 47 sternf¨ ormiges, 23 Gelfand, 357 Genauigkeitsgrad, 93 Gesamtenergie, 317 Gesamtimpuls, 327 Gibbssches Ph¨ anomen, 598 Gleichungen lokal l¨ osbare, 150 Gradient, 555, 557, 559, 565 eines Tensors, 559 Gradientenfeld, 17, 309 Gram-Schmidt-Verfahren, 89, 516 Grashoff-Zahl, 492, 591 Grassmann-Identit¨ at, 3 Gravitationskonstante, 312 Gravitationspotential, 318 Green, Formel von, 22, 23, 73, 448, 542, 576 Grenzpunkt, 266 Grundpolynome Hermite-, 81 Lagrange-, 80 Gruppe, 566 ahnliche, 569 ¨ Aktion, 566 Dilatations-, 569 Euklidische, 568 exakte Darstellung, 566 Galilei-, 568, 571
625
Lie-, 569 lineare, 568 projektive Transformations-, 569 Skalierungs-, 568 Symmetrie-, 255 Transformations-, 566, 567 Translations-, 567 Haar-Bedingung, 78 Halbordnung, 61 Hamilton-Funktion, 43, 203, 209 Hamilton-Gleichungen, 203 Hamilton-Jacobi-Bellman-Gleichungen, 215, 217 Hamiltonsches Prinzip, 192, 202, 204, 311, 351, 356, 362, 413 Hamiltonsches System, 41, 43 Hauptinvarianten, 5 Hauptsatz der Thermodynamik erster, 407 zweiter, 408 Hauptvektor, 6 -Kette, 6 Helmholtz, Zerlegungssatz von, 24 Helmholtz-Identit¨ at, 399 Herpolhodie, 348 Hilbertraum, 47, 71 Hodge-Stern-Operator, 534, 541 Homorphismus, 590 Hookesches Gesetz, 366, 367, 417 Hopf-Verzweigung, 278 Huygen, 316 Hyperbel, 321 Hyperebene, 46, 199 St¨ utz-, 200 Hypozykloide, 606 Implicit Function Theorem, 60 Impuls, 594 Impulserhaltungssatz, 360 Impulsmomentenellipsoid, 348 Index, 241 Inertialsystem, 339 Inf-Sup-Bedingung, siehe BabuskaBrezzi-Bedingung Integralrestglied, 104 Interpolation Hermite-, 81, 379 Lagrange-, 79
626
Sachverzeichnis
Newton-, 80, 81 Newton-Gregory-, 119 segmentweise, 81 Spline-, 84 Interpolationseigenschaft, 78, 600 Interpolationspolynom, 457, 602 Invariante, 41, 204 eines Vektorfelds, 41 Inverse Mapping Theorem, 60 Inverse Operator Theorem, 58 Involution, 198 Isentropengleichung, 434 Isometrie, 518 Isomorphismus, 590 kanonischer, 512 isotropisches Material, 433 Jacobisches Prinzip, 362 Jordan-Block, 6 Jordan-Zerlegung, 6, 7, 34 kanonische Basis, 3 kanonischer Isomorphismus, 517 Kardan-Winkel, 340 Karte einer Mannigfaltigkeit, 548 Kegel, 61 dualer o. adjungierter, 61 positiver, 61 punktierter, 61 Kegel-Einschließungssatz, 65 Kegel-Lemma, 64 Keplersches Gesetz, 204 drittes, 316 erstes, 320 zweites, 316 Kern, 10 Kern eines Integrals, 73 Kettenlinie, 206 kinetische Energie, 594 Kirchhoff-Platte, 423, 478, 501 Knoten, 453 h¨ angender, 452 Knotenmatrix, 384 Kodimension, 57 Kofaktor, 5 Komplementbedingung, 148, 155 komplexe Zahlen, 608 Komponenten kontravariante, 517, 551, 553, 554
kovariante, 517, 551, 553, 554 physikalische o. anholonome, 551 strikte, 532 Kompressibilit¨ at, 415 Kondensation, 11 Konfigurationsraum, 356, 577 konjugierte Menge, 199 konjugiertes Funktional, 199 konservatives Vektorfeld, siehe Potentialfeld Kontinuit¨ atsgleichung, 406, 410, 432 Kontragrediente, 521 Kontraktion von Tensoren, 524 Kontrollproblem, 209, 220 Konvektion, 493 Konvektionstr¨ omung, 491 Koordinaten -Fl¨ achen, 549 -Linien, 549 baryzentrische, 98 bisph¨ arische, 564 Drehellipsoid-, 564 Elliptische Zylinder-, 563 Euler-, 393 Kugel-, 563 Lagrange-, 393 Material-, 393 nat¨ urliche, 549 Paraboloid-, 563 Raum-, 393 Torus-, 564 verallgemeinerte, 202 verallgemeinerte Impuls-, 203 zyklische, 204 Zylinder-, 563 Koordinatendarstellung, 550 Koordinatenraum, 3 Koordinatensystem, 548 kartesisches, 3 nat¨ urliches, 341 nat¨ urliches orthogonales, 563 Koordinatentransformation, 548 KOS = kartes. Koordinatensystem, 3 Kovektor, 511 Kozustand, 210 Kozustandsver¨ anderliche, 177 Kr¨ afte außere, 326 ¨ innere, 326
Sachverzeichnis Zweiteilchen-, 326 Kr¨ ummung, 25, 26 Kr¨ ummungskreisradius, 25 Kreisel gef¨ uhrter, symmetrischer, 349 kr¨ aftefreier, 348 kr¨ aftefreier, symmetrischer, 349 Nutation, 340 Pr¨ azession, 340 schwerer symmetrischer, 350 kritische Exponenten, 258 Kronecker-Symbol, 513 Kugelkoordinaten, 340 Kuhn-Tucker-Punkt, 149 L-Integral, siehe Lebesgue-Integral L¨ osungspaar, L-Paar, 166 Lagerbedingungen, 380 Lagermatrix, 385 Lagrange-Funktion, 147, 168, 176, 362 Lagrange-Grundpolynome, 453 Lagrange-Multiplikatoren, 148, 156, 358 Lagrange-Prinzip, 311 Lagrange-Problem, 177, 182 Lam´e-Konstante, 415, 417, 592 laminare Str¨ omung, 441 Laplace-Gleichung, 481 Laplace-Operator, 19, 73 Lastmatrix, 384 Lebesgue-Integral, 47 Legendre-Transformation, 197 Lemma von Poincar´e, 539 Lie-Gleichung, 570 Liouville, 33, 272 Lipschitz, 104 Ljapunov-Schmidt-Reduktion, 257 Ljusternik, 150 Lorentz-Gleichung, 256, 289 Lorentz-Kraft, 309 LP, siehe Lagrange-Problem LTG = lokale Transformationsgruppe, 569 Lumping, 498 Mangasarian-Fromowitz-Bedingung, 171 Mannigfaltigkeit, 548 Manning-Koeffizient, 496 Maratos-Effekt, 173
Mass Lumping, 488 Materialfunktion, 409 Materialgesetz, 422, 423 Materialtheorie, 409 Matrix Kondition, 8 charakteristische, 35, 272 Design-, 474 Dreh-, 15 Eigenschaften, 593 Elastizit¨ ats-, 418 Fourier-, 284 Fundamental-, 461, 466 Gradienten-, 156 Hesse-, 144 Jacobi-, 19, 130 Kanten-, 156 Kofaktor-, 5, 398 Lagrange-, 11, 455 M-, 8 Massen-, 380, 454 Nachgiebigkeits-, 418 Operator-, 418, 421, 422 regul¨ are, 2 singul¨ are, 2 Spektrum, 593 Spiegelungs-, 12 Steifigkeits-, 380, 454 Wronski-, 34 zirkulante, 283 Mehrk¨ orperproblem, 356 Membran, 431, 587 Menge Γ -invariante, 255 abgeschlossene, 45 der zul¨ assigen Punkte, 147 dichte, 604 konvexe, 61 sternf¨ ormige, 539 Menge vom Maß Null, 602 Meridian, 341 Methode Crank-Nicholson, 486 der Formfunktionen, 460 Fractional-Step, 486 Metrik, 516, 562 Metriktensor, 554, 559, 562 kontravarianter, 517, 550 kovarianter, 516, 550
627
628
Sachverzeichnis
MGF = Mannigfaltigkeit, 548 Minimum-Norm-Eigenschaft, 14 Minimumproblem, 371 Modul, 583 Moment einer Kraft, siehe Drehmoment, 306 Momentanpol, 342 Momente, 88, 370 Monodromiematrix, 273 Monom, 80 Moore-Penrose-Inverse, Pseudo-Inverse, 13 Morleysches Dreieck, 461, 467 Morleysches Polynom, 100 MP, siehe Minimumproblem MR, siehe Multiplikatorregel Multiplikatormethode, 360 Multiplikatorregel, 149, 300 N-K¨ orperproblem, 328 Nablaoperator, 19 Navier-Stokes-Gleichungen, 435, 436, 440 NBV, siehe Raum der Funktionen von beschr¨ ankter Schwankung Nebenbedingung holonome, 329 Nervenmembranmodell, 132 Newton-Basis, 80 Newton-Mechanik, 324 Newtonsches Axiom, 308, 324, 360 Newtonsches Gesetz, siehe Newtonsches Axiom Niveaumenge, 144 Normalspannung, 416 NOS = Orthogonalsystem, 516 NS = Navier-Stokes, 436 Nullmenge, siehe Menge vom Maß Null Nullraum, siehe Kern Nullverzahnung, 584 Nutation, 352 Open Mapping Theorem, 58 Operator adjungierter, 57, 72, 241, 270 Laplace-, 557, 561, 565 linearer, 57 symmetrischer, 72 Operatorgleichung, 246, 258
Operatornorm, 7, 45 Optimalit¨ atsbedingung, 156 Optimalit¨ atsprinzip, 214 Optimierungsproblem, 147, 176 allgemeines, 168 differenzierbares, 147 duales, 160 konvexes, 147 linear-quadratisches, LQP, 162 lineares, 153 primales, 160 Simplex-, 160 Orbit, 39, 570 heterokliner, 312 homokliner, 312 Orbit-Problem, 226 Ordnung eines Verfahrens, 105, 109, 110 Ordnungskegel, siehe positiver Kegel orthogonales Komplement, 10 Orthogonalsystem, 516 Orthozykloide, 207, 605 Oszillator, 30, 135 harmonischer, 318 Parallelogrammgleichung, 47 Patch-Test, 475 Peano, 94 Peclet-Zahl, 591 Pendel Doppel-, 577 kleine Schwingung, 312 mathematisches, 313 Perig¨ aum, 318, 337 Perihel, 318 Permutation, 529 Pfaffsche Form, 536 Phasenbedingung, 131 Phasenkurve, 39, 312 Piola-Identit¨ at, 399 Piola-Transformation, 399, 410 Pivotelement, 157 Pivotstelle, 157 Pivotzeile, Pivotspalte, 161 Planungshorizont, 209 freier, 211 Platte einfach aufliegende, 426 eingespannte, 426 Kirchhoff-, 422, 429
Sachverzeichnis Reissner-Mindlin-, 575 schubstarre, 422 schubweiche, 575 stark gebogene, 428 Plattensteifigkeit, 415, 424 Poincar´e-Friedrichs-Ungleichung, 50, 449 Poinsot-Bewegung, 348 Poisson-Gleichung, 293, 445 Poisson-Zahl, 366, 415 polare Zerlegung, 9 Polargleichung, 320 Polarkoordinaten, 314 Polhodie, 348 Polynom Bernstein-, 82 Bezi´er-, 82 Jacobi-, 90 Lagrange, 453 Legendre-, 90 Newton-, 81 Orthogonal-, 88 Taylor-, 81 Tschebyscheff-, 90 Pontrjagin, Maximumprinzip von, 215 Potential, 23, 309 -Kriterium, 23 Potentialfeld, 24 Pr¨ a-Ordnung, 61 Pr¨ azession, 352 Pr¨ azessionskegel, 349 Prandtl-Zahl, 492, 495, 591 Prinzip D’Alembertsches, 360 der kleinsten Wirkung, 208 der komplement¨ aren Energie, 200 Energie, 359 Extremal-, 359 Gauss-, 311 Prinzip der kleinsten Wirkung, siehe Hamiltonsches Prinzip Prinzip der virtuellen Arbeit, 359 Problem autonomes, 103 differential-algebraisches, 134 Index-1-, 135 Mehrk¨ orper-, 134 schwache Form, 448 W¨ armeleit-, 132
Produkt außeres von Tensoren, 531 ¨ dyadisches, 2 Kronecker-, 108 Matrix-, 2 Skalar-, 2 Tensor-, 521 Vektor-, 3 Projektion, 4, 73 Projektionssatz, 73 Projektionsverfahren, 154 duales, 165 Gradienten-, 168 primales, 162 Projektor, 12, 59, 243, 593 orthogonaler, 74 Punkt DeBoor-, 86 Bezi´er-, 82 extremaler, 153 innerer, 52 Material-, 393 Radial-, 52 Raum-, 393 regul¨ arer, 40, 266 singul¨ arer, 39, 142, 149, 244, 312 Quadratische Form, 370, 382 Quadraturformel ur Einheitsdreieck, 101 f¨ f¨ ur Einheitsquadrat, 101 Gauß-, 95 Lagrange-, 93 Newton-Cotes-, 93 suboptimale, 97 summierte, 95 Quaternionen, 16, 608 Quotientenraum, 57 R-Integral, siehe Riemann-Integral Radiusvektor, 315 Raleigh-Zahl, 492 Rand Cauchy-, 416, 447 Dirichlet-, 416, 447 Randbedingung, 212 Cauchy-, 448, 456 Dirichlet-, 448, 455 dritte, 448
629
630
Sachverzeichnis
nat¨ urliche, dynamische, 194, 370, 438, 449 Neumann-, 448 wesentliche, geometrische, 194, 369, 438, 449 Randintervall, 223 Randwertproblem, 35, 417, 418, 421, 425, 439, 448 adjungiertes, 270, 271 halbhomogenes, 35 homogenes, 270 kontrollierbares, 210 mit Parameter, 129 nichtlineares, 273 periodisches, 131 Rangbedingung, 150, 163 modifizierte, 154 Range Theorem, 58 Rastpolkegel, Herpolhodiekegel, 349 Raum, siehe Vektorraum Raum der Funktionen von beschr¨ ankter Schwankung, 603 Rayleigh-Quotient, 374 Rayleigh-Ritz-Ungleichung, 372 Rechteckschwingung, 598 Reentry-Problem, 234 Reflektor, siehe Spiegelungsmatrix, 593 Regel Keplersche Fass-, 94 Mittelpunkts-, 94 Simpson-, 95 summierte Sehnentrapez-, 95 Trapez-, 94, 105, 127 regul¨ are Kurve, 25 regul¨ are L¨ osung, 210 regul¨ ares Matrizenpaar, 137 Regularit¨ atsbedingung, 59, 149, 195, 210 Relativbewegung, 334 relatives Inneres, 179 Rellich, 50 Restoration, 169 Reynolds-Zahl, 441, 492, 591 Reynoldsches Transportheorem, 574 Riccati-Gleichung, 217 Richtungskosinus, 389 Richtungskosinuswerte, 381 Riemann-Integral, 47 Riemann-Stieltjes-Integral, 604
Riesz, Darstellungssatz von, 72 Riesz-Abbildung, 72, 517 Riesz-Index, 243 Ritz-N¨ aherung, 75 Ritz-Verfahren, 285 Robinson, 187 Roboter, 578 Rodriguez, Formeln von, 89 Rotation, 561, 565 Rotationsenergie, 594 Rotationsfl¨ ache, 206 Rotationssatz, siehe Satz von Stokes Rotor flacher, 347 gestreckter, 347 RT-Element = Rannacher-TurekElement, 477 S¨ agezahnschwingung, 598 Sattelpunkt, 68, 180 Sattelpunktkriterium, 68 Sattelpunktproblem, 180, 200, 201, 437 Satz von Gauß, 21, 542 Satz von Stokes, 21, 542 Schale, 551 Schattenpreis, 160, 214 Scheibe ebener Spannungszustand, 420 ebener Verzerrungszustand, 421 Scher-Korrekturfaktor, 575 Schiebung, 415 Schlupfvariable, 161 Schmidt-Zahl, 495, 591 Schmiegebene, 26 Schrittweite, 142 Schubmodul, 388, 592 Schubspannung, 416 Schur-Komplement, 59 Schwankung einer Funktion, 603 Schwerpunkt, 326 Sektorfl¨ ache, 315 Sensitivit¨ at, 159, 383 Separatrix, 40, 312 Servo-Problem, 229 Siebenk¨ orperproblem, 578 Simpsonregel, siehe Keplersche Fassregel singul¨ are Werte, 13 Skalarprodukt, 2, 47, 418, 516, 547
Sachverzeichnis alternierender Tensoren, 534 kanonisches, 518 von Tensoren, 525 Skalarproduktraum, 47, 516 Skalierung, 258 Slater-Bedingung, 171, 178 Sobolev, Einbettungssatz von, 49, 451 Sobolevnorm, 48 Sobolevraum, 48 Solit¨ arwelle, 501 Spannungstensor, 402, 404, 416, 527 Piola-Kirchhoff-, 399 Piola-Kirchhoff-, erster, 410 Piola-Kirchhoff-, zweiter, 410 Spannungsvektor, 388 Spatprodukt, siehe Determinante Spektralradius, 7 Spektrum, 7 instabiles, 37 neutrales, 36 stabiles, 37 Spline kubischer, 85 kubischer Interpolations-, 86 nat¨ urlicher, 87, 88 SPP, siehe Sattelpunktproblem Sprungbedingung, 223 Spur einer Matrix, 2 Spuroperator, 49, 525 St.Venant-Kirchhoff-Material, 417 St¨ orfunktion, 184 Stabilisierungseffekte, 486 Stabilit¨ atsbereich, 112, 114 Formkriterien, 116 Stabilit¨ atsfunktion, 112 Stabknickung, 374 Stabschwingung, 378 Stammform, 539 starre Drehung, 314 State Regulator Problem, 216 station¨ are W¨ armeverteilung, 456 statische Kondensation, 489 Steifigkeitsmatrix, 380, 382 Steiner, Satz von, 345 Strafkosten, 170 Strafkostenfunktion, 170 Strafkostenverfahren, 170 Stromfunktion, 442 Stromfunktion-Wirbel-Form, 442
Symmetriegruppe, 255 symplektische Normalform, 281 System hyperbolisches, 575 kinematisch unbestimmtes, 384 statisch bestimmtes, 384 statisch unbestimmtes, 384 Tangentialraum abstrakter, 535 kontravarianter, 535 kovarianter, 535 Tangentialvektor, 549, 555, 570 abstrakter, 535 Tensor ε-, 529 (p,q)-, 519 außeres Produkt, 531 ¨ alternierender, 529 der Volumeneinheit, 554, 560 einfacher, 522 Einheits-, 513 Elastizit¨ ats-, 412, 552 kontravarianter, 519 kovarianter, 519 schiefsymmetrischer, 529 Verzerrungs-, 552 Tensorfeld, 17, 519 Tensorprodukt, siehe Skalarprodukt Terminal Payoff, 195 Testfunktion, 193, 196, 424 Tetraeder, 100 thermodynamischer Prozess, 409 adiabatischer, 409 homentropischer, 409 isentropischer, 409 isothermischer, 409 Thrust-Problem, 226 Timoshenko-Balken, 366 Torsion, 25, 387 Torsionsfl¨ achenmoment, 388 tote Lasten, 410 Tr¨ agheitsmoment, 314, 345, 594 Fl¨ achen-, 366 polares Fl¨ achen-, 345, 366 Tr¨ agheitstensor, 314, 344, 345, 595 Trajektorie, 395 Transformation, 566 kontravariante, 515
631
632
Sachverzeichnis
kovariante, 515 Transformationsgruppe, 395 Translationsoperator, 109 Transporttheorem f¨ ur Kurvenintegrale, 401 f¨ ur Oberfl¨ achenintegrale, 401 f¨ ur Volumenintegrale, 400 Reynoldsches, 400 Transversalit¨ atsbedingung, 197, 211 Trapezregel, 285 Trennungssatz, 63 Trilinearform, 487 Ungleichung aktive, 148 inaktive, 148 lokal l¨ osbare, 150 Unterraum Fixpunkt-, 255 Van der Pol-Gleichung, 135, 287 Vandermonde-Matrix, 124 Variation, erste, Gateaux-, 52 Variationsproblem, 193, 311 Vektor -Schraube, 306 Binormalen-, 25 Energiestrom-, 405 Fl¨ achennormalen-, 21 freier, 548 gebundener, 306, 548 Kr¨ ummungs-, 25 linienfl¨ uchtiger, 4, 306 Normalen-, 25, 549 Orts-, 548 Spannungs-, 418 Tangenten-, 25 Tangential-, 555 Torsions-, 25 Verzerrungs-, 418 W¨ armefluss-, 405 Vektorfeld, 17, 553 kontravariantes, 519 kovariantes, 519 lokal ¨ ahnliches, 40 solenoidales, siehe Wirbelfeld station¨ ares, 39 Vektorpotential, 23 Vektorraum
affiner, 46 separabler, 604 Verallgemeinerte Momente, 363 Verfahren A0 -stabiles, 116 A(α)-stabiles, 116 A(0)-stabiles, 116 A-stabiles, 116 Adams-, explizit, 120 Adams-, implizit, 119 BFGS-, 145 der variablen Metrik, 144 des steilsten Abstiegs, 144 diagonal implizites, 117 Dormand-Prince-, 117 eingebettetes, 107 Einschritt-, allgemein, 105 Einschritt-, r-stufig, 107 Euler-, explizit, 103 Euler-, implizit, 105 explizites, 105, 108 Extrapolation-, 105 Heun-, 107, 108 implizites, 105, 108 konsistentes, 105 L-stabiles, 116 Mehrstellen-, Mehrschritt-, 109 Mehrziel-, 127 Nelder-Mead, 146 Newton-, 128, 129, 145 Pr¨ adiktor-Korrektor-, 119, 120 Projektions-, 154 R¨ uckw¨ artsdifferenzen-, 120, 283 Rosenbrock-, 117 Runge-Kutta-, 107, 358 Runge-Kutta-, halb-explizit, 138 Runge-Kutta-, voll implizit, 122 Runge-Kutta-Butcher-, 125 Runge-Kutta-Chipman-, 125 Runge-Kutta-Ehle-, 125 Runge-Kutta-Gauß-, 124 semi-implizites, 108 steif genaues, 136 Strafkosten-, 170 Vergleichsfunktion, 194 Verj¨ ungung von Tensoren, 524 Verschiebung, 393, 415 virtuelle, 368 Verzahnungsgesetz, 582
Sachverzeichnis Verzerrungstensor, 402, 415, 527 Verzerrungsvektor, 388 Verzweigungspunkt, 266 Vielfachheit algebraische, 244 geometrische, 244 virtuelle Verschiebung, 191 Viskosit¨ at, 491, 495, 591 k¨ unstliche, 486 Volumenkraftdichte, 374, 590 Von Karmansche Gleichungen, 431, 586 W¨ alzkreis, 581 W¨ alzpunkt, 581 W¨ armeausdehnungskoeffizient, 491 W¨ armedurchgangskoeffizient, 491, 591 W¨ armefluss, 435 W¨ armeflussvektor, 491 W¨ armekapazit¨ at, 491, 590 W¨ armeleitf¨ ahigkeit, 435, 491, 591 W¨ armeleitungskoeffizient, 591 W¨ armequelldichte, 491, 590 W¨ armetransport, 435 Weierstrass, 83 Wendepunkt, 266 quadratisch/kubisch, 267 Wertebereich, 10 Wirbelfeld, Rotation, 18 Wirbelst¨ arke, 442 Wirkungsintegral, 202, 311, 351, 362, 414
Wurfparabel, 208 Wurzelbedingung, 110 Z¨ ahigkeit Druck-, 433, 592 kinematische, 433 Scher-, 433 Volumen-, 433 Zentralbeschleunigung, 315 Zentralfeld, 309 Zentrifugalkraft, 343 Zentrum, 39 Zerlegung orthogonale, 4 Zerlegung der Eins, 80 Zermelosches Problem, 228 Zielfunktion, 147 Zugstab, 378 allgemeine Lage, 381 Zul¨ assigkeit duale, 155 primale, 155 Zwangsbedingung holonome, 357 nicht-holonome, 357 rheonome, 357 skleronome, 357 zyklische Variable, 195, 351 Zykloidenverzahnung, 583
633