Klassiker der Technik Die „Klassiker der Techn ik“ sind unveränderte Neuauflagen traditionsreicher ingenieurwissenschaftlicher Werke. Wegen ihrer didaktischen Einzigartigkeit und der Zeitlosigkeit ihrer Inhalte gehören sie zur Standardliteratur des Ingenieurs, wenn sie auch die Darstellung modernster Methoden neueren Büchern überlassen. So erschließen sich die Hintergründe vieler computergestützter Verfahren dem Verständnis nur durch das Studium des klassischen fundamentaleren Wissens. Oft bietet ein „Klassiker“ einen Fundus an wichtigen Berechnungs- oder Konstruktionsbeispielen, die auch für viele moderne Problemstellungen als Musterlösungen dienen können.
Rudolf Zurmühl • Sigurd Falk
Matrizen und ihre Anwendungen 1 Grundlagen. Für Ingenieure, Physiker und Angewandte Mathematiker 7. Auflage 1997 Nachdruck 2011 in veränderter Ausstattung
1C
Dr.-Ing. Rudolf Zurmühl † o. Professor an der Technischen Universität Braunschweig Dr.-Ing. Sigurd Falk o. Professor an der Technischen Universität Braunschweig
7. Auflage 1997; Nachdruck in veränderter Ausstattung 2011 ISBN 978-3-642-17542-8 e-ISBN 978-3-642-17543-5 DOI 10.1007/978-3-642-17543-5 Springer Heidelberg Dordrecht London New York Die Deutsche Nationalbibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet über http://dnb.d-nb.de abrufbar. © Springer-Verlag Berlin Heidelberg 1950, 1958, 1961, 1964, 1984, 1992, 1997, 2011 Dieses Werk ist urheberrechtlich geschützt. Die dadurch begründeten Rechte, insbesondere die der Übersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfältigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfältigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulässig. Sie ist grundsätzlich vergütungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wären und daher von jedermann benutzt werden dürften. Einbandentwurf: eStudio Calamar S.L. Gedruckt auf säurefreiem Papier Springer ist Teil der Fachverlagsgruppe Springer Science+Business Media (www.springer.com)
Vorwort zur siebenten Auflage Die Konzeption dieses klassischen Mathematikbuches wurde auch bei der 7. Auflage beibehalten. Die neue Einbandgestaltung soll verdeutlichen, daß das vorliegende Werk Lehrbuch und Nachschlagewerk zugleich ist, und den Ingenieur über das Studium hinaus durch sein ganzes Berufsleben begleitet. Braunschweig, im November 1996
Sigurd Falk
Vorwort zur sechsten Auflage Seit nach dem Erscheinen der fünften Auflage acht Jahre vergangen sind, erschien eine grundlegende Umgestaltung und Erweiterung unerläßlich. Es wurden daher die früheren Paragraphen 10, 18 und 19 fast vollständig gestrichen und Begriffe wie Elementarteiler und Elementarpolynome als nicht computergerecht ebenso wie die schwerfällige und aufwendige Numerik der Hauptvektorkettengestrichen und durch moderne Verfahren ersetzt, wodurch Platz für eine Reihe von Neuerungen geschaffen wurde. Völlig umgestaltet wurde das 11. Kapitel, das eine umfassende Transformationstheorie vorstellt, getrennt nach freien und gebundenen Transformationen, wobei das durch den Gaußsehen Algorithmus erzeugte Pivotkreuz als die Grundkonfiguration der gesamten numerischen linearen Algebra herausgestellt wird. Das Rechnen mit beweglichem Pivot und im Zusammenhang damit die (seit Jahrzehnten vergessene) Pivotregulierung erspart nicht nur jegliches Vertauschen von Zeilen und Spalten, sondern ermöglicht darüber hinaus mittels des (ebenfalls lange verdrängten) Euklidischen Algorithmus eine ganzzahlige und damit fehlerfreie Numerik ganzzahliger Matrizen. Bei den gebundenen (simultanen) Transformationen eines Matrizenpaares A; B wurde die Elementartransformation QUANT in den Vordergrund gerückt, die mittels einer unitären Ergänzung zwanglos zu den unitären (im Reellen orthogonalen) Transformationen führt und unter anderem die sogenannte schnelle Givens-Transformation ohne Zuhilfenahme von Winkelfunktionen auch im Komplexen ermöglicht. Ferner wurde die Ähnlichkeitstransformation einer quadratischen Matrix auf die Begleitmatrix (bzw. Kodiagonalmatrix) von Danilewski durch eine numerisch stabile Transformation ersetzt sowie die ganzzahlige Ähnlichkeitstransformation einer ganzzahligen quadratischen Matrix A auf eine ganzzahlige Hessenbergmatrix (Fastdreiecksmatrix) H erstmalig angegeben. Dem für die Anwendungen so wichtigen wie für die Theorie grundlegenden Eigenwertproblem habe ich eine vollständige Numerik der Eigenzeilen und Eigen-
VI
Vorwort zur sechsten Auflage
spalten einer singulären (auch rechteckigen) Matrix A vorangestellt, wodurch der Übergang auf das einparametrige Eigenwertproblem F()')x = 0 (speziell mit F()') = A -). B) auch in didaktischer Hinsicht wesentlich erleichtert wird. In diesem Zusammenhang wird die Theorie der Flächenpaare zweiter Ordnung und analog dazu die Theorie der linearisierten freien ungedämpften Schwingungen mit n Freiheitsgraden besonders ausführlich dargestellt. Der Abschnitt 16 ist vorwiegend theoretischer Natur. Hier wird die JordanForm J;In eines Paares A;B einschließlich der Jordan-Spektralzerlegung ohne Zuhilfenahme von Hauptvektoren konstruiert, ein Vorgehen, das sich gegenüber den herkömmlichen Methoden auch als numerisch vorteilhaft erweist. Relativ umfassend abgehandelt werden die Matrizengleichungen (Abschnitt 19) mit zum Teil unveröffentlichten Algorithmen und die Matrizenfunktionen (Abschnitt 20), wobei die Heranziehung der bekannten Quasipolynome von Arnold zu überraschend einfachen Sätzen und Algorithmen führt. Das in der Neuauflage innerhalb der Reihe "Springer-Lehrbuch" erscheinende Buch enthält mehr als 170 vollständig durchgerechnete und zum Teil mit Computerausdrucken versehene Zahlenbeispiele an Matrizen der Ordnung n = 2 bis n = 500. Wieder habe ich einigen Mitarbeitern und Helfern für Rat und Tat zu danken. Es sind dies Frau Dr. Anna Lee und Prof. Dr. Paul Rozsa (beide Budapest), Herr Prof. Dr. Gerhard Zielke (Halle), Herr DrAng. Jörg Schneider (Volkswagenwerk Wolfsburg) und Herr math.-techn. Assistent Horst Budich (Braunschweig). Letzterer verdient ein besonderes Lob für die Erstellung und Kontrolle sämtlicher Zahlenbeispiele. Schließlich gebührt mein Dank den Damen und Herren des Springer-Verlages für die kollegiale und reibungslose Zusammenarbeit sowie der Setzerei K + V Fotosatz GmbH (Beerfelden-Airlenbach) für die vorbildliche Gestaltung des nicht immer einfachen Satzbildes. Dem Leser schließlich wünsche ich viel Freude und Gewinn beim Studium eines Kalküls, der durch das Aufkommen der digitalen Rechenautomaten in der Numerischen Mathematik eine zentrale Stellung einnimmt. Braunschweig, im Sommer 1992 Wendentorwall 15 A
Sigurd Falk
Inhaltsverzeichnis 1
• • • •
I.
Kapitel
1
Grundbegriffe und einfache Rechenregeln . Lineare Transformation, Matrix und Vektor . Zeilen- und Spaltenvektoren . Einfache Rechenregeln . Transponierte Matrix, symmetrische und schiefsymmetrische Matrix . Diagonalmatrix, Skalarmatrix und Einheitsmatrix . Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante ..
1.1 1.2 1.3 1.4
• 1.5 • 1.6
• • • • • • • •
Der Matrizenkalkül
.
2 2.1 2.2 2.3 2.4 2.5 2.6 2.7 2.8
Das Matrizenprodukt Einführung des Matrizenproduktes Sätze über Matrizenmultiplikation Diagonal- und Dreiecksmatrix Skalares Produkt, Betrag und Winkel reeller Vektoren Dyadisches Produkt Potenzen und Polynome Die Gaußsche Transformation Orthogonale Matrizen
3
Die Kehrmatrix (Inverse) Begriff und Herleitung der Kehrmatrix Adjungierte Matrix. Formelmäßiger Ausdruck der Matrizendivision
• 3.1 • 3.2 • 3.3 4
• 4.1 • 4.2 4.3 • 4.4
Komplexe Matrizen Komplexe Matrizen und Vektoren Sonderformen komplexer Matrizen Reelle Darstellung komplexer Matrizen Inverse, Adjungierte und Determinante einer hermiteschen Matrix
~
. . . . . . . . . . .
aik
1 1
5 7 9 11
12 15 15
20 24 26 28 30 31 33 35 35
.
39
.
42
. . . .
43 43 45
.
49
48
I Die mit dem Zeichen • versehenen Abschnitte bilden in sich ein geschlossenes Ganzes und sollten als erstes studiert werden.
VIII
Inhaltsverzeichnis
11.
Kapitel
5
Freie Transformationen Ein- und beidseitige Transformationen Reguläre Transformationen Die drei Grundoperationen Das Generalschema einer Äquivalenztransformation Das Pivotkreuz Die Normalform einer Matrix Das vollständige System von Elevatoren Potenzen und Polynome Der Vertauschungssatz Lineare Abbildungen
. . . . . . . . . . .
Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan Zielsetzung Das Nullenkreuz Der Gaußsche Algorithmus in expliziter Durchführung • 6.3 Der Gaußsche Algorithmus in impliziter Durchführung • 6.4 Der Algorithmus von Banachiewicz • 6.5 Der Algorithmus von Gauß-Jordan • 6.6 Hermitesche (reellsymmetrische) Matrix • 6.7 Rechenaufwand • 6.8 Pivotregulierung • 6.9 • 6.10 Pivotregulierung bei hermitescher Matrix • 6.11 Bewegliches Pivot • 6.12 Reelle ganzzahlige Äquivalenztransformationen • 6.13 Der verkürzte Euklidische Algorithmus • 6.14 Reelle ganzzahlige Kongruenztransformationen 6.15 Komplexe ganzzahlige Transformationen 6.16 Die Normalform 6.17 Dreieckszerlegung einer quadratischen Matrix • 6.18 Eigenzeilen und Eigenspalten einer singulären Matrix 6.19 Die normierte Eigendyade als Projektor • 6.20 Schlußbemerkung
. . . . . . . . . . . . . . . . . . . . .
• 5.1 • 5.2
• 5.3 • • • •
5.4 5.5 5.6 5.7
• 5.8
5.9
• 5.10
Transformationen und
Iinea~e
Gleichungen
6
• 6.1 • 6.2
7
• 7.1
• 7.2 • • • •
7.3 7.4 7.5 7.6 7.7
• 7.8
Auflösung linearer Gleichungssysteme AufgabensteIlung Drei Kardinalforderungen Der Algorithmus von Gauß Der Algorithmus von Banachiewicz Der Algorithmus von Gauß-Jordan Reguläre quadratische Matrix. Determinante, Inverse und Adjungierte Pivotregulierung. Wiederholung der Rechnung Homogene Gleichungssysteme
52 52 52
56 56 63
65 66
66 71 73
74 75 75 76 76
78 79 82 84 85 86 87 91 93 98
101 102 104 105 107
111 114
. . . . . .
118 122 123
. . .
124 126 128
115
115 116
Inhaltsverzeichnis
IX
Hermitesche (reellsymmetrische) Matrix Allgemeine inhomogene Gleichungssysteme Ganzzahlige Gleichungssysteme Zusammenfassung
. . . .
130 132 140 142
Orthogonalsysteme Die Normalform eines Matrizenproduktes Biorthonormalsysteme Das vervollständigte Matrizenprodukt Kongruenztransformation. Orthogonalsysteme Eine Variante Überbestimmte Gleichungssysteme. Kondensation. Die Pseudoinverse
. . . . . .
144 144 146 148 151 155
.
156
9 • 9.1 • 9.2 9.3 9.4 9.5 9.6
Lineare Abhängigkeit und Rang Die Pivotmatrix Die Basis Dyadische Zerlegung Der dominierende Minor Lineare Abhängigkeit von Vektoren und Matrizen Der Rang eines Matrizenproduktes
. . . . . . .
159 159 160 161 162 163 164
10 10.1 10.2 10.3 10.4 10.5 10.6 • 10.7 • 10.8
Gebundene Transformationen Die simultane Äquivalenztransformation Die dyadische Zerlegung eines Matrizenpaares " Die Spektralzerlegung eines Matrizenpaares Normale Matrizenpaare Potenzen und Polynome . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Die Produktzerlegung einer diagonalähnlichen Matrix Normalformen von Matrizenpaaren Die strikte Ähnlichkeitstransformation. Die drei Grundoperationen Die gequantelte Ähnlichkeitstransformation Die Ähnlichkeitstransformation auf die Begleitmatrix Normiert-unitäre Transformationen. Unitäre Ergänzung Nicht-normiert unitäre Transformationen Unitäre Transformation auf obere Hessenberg-Matrix . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .. Ganzzahlige Ähnlichkeitstransformation auf obere HessenbergMatrix Lineare Abbildungen. . . .. . .. Zusammenfassung. Ausblick
167 167 170 173 175 177 181 182
• 7.9 7.10 7.11 • 7.12 8 8.1 8.2 8.3 8.4 8.5 8.6
• • • • •
• 10.9 10.10 • 10.11 10.12 10.13 10.14 10.15 • 10.16
184 188 192 196 201 204 208 212 215
x
Inhaltsverzeichnis III.
Kapitel
Quadratische Formen nebst Anwendungen
.
218
11
Quadratische Formen Darstellung quadratischer und bilinearer Formen Definite quadratische Formen Indefinite quadratische Formen Transformation quadratischer Formen. Invarianten Hermitesche Formen Flächen zweiten Grades
. . . . . . .
219 219 222 224 227 230 231
12 12.1 12.2 12.3 12.4 12.5
Einige Anwendungen quadratischer Formen Anwendung in der Ausgleichsrechnung Vektorielles Produkt und Abstandsquadrat Massen- und Flächenmoment zweiten Grades Die kinetische Energie eines starren Körpers Die potentielle Energie einer elastischen Feder
. . . . . .
234 234 238 239 242 243
IV.
Kapitel
13 13.1 13.2 13.3 13.4 13.5 13.6 13.7 13.8 13.9 13.10 13.11
Eigenwerte und Eigenvektoren Das allgemeine einparametrige Eigenwertproblem Reguläre Äquivalenztransformation. Invarianten Polynommatrizen Das lineare Eigenwertproblem (Matrizenpaare) Orthogonalität der Links- und Rechtseigenvektoren Das spezielle Eigenwertproblem Die charakteristische Gleichung Kondensation. Der Formenquotient Die Eigenwerte eines Matrizenproduktes Reelle Paare mit konjugiert-komplexen Eigenwerten Der Satz von Cayleigh-Hamilton
• 11.1
• 11.2
11.3
11.4 • 11.5 • 11.6
• • • • • • • •
Die Eigenwertaufgabe
14 • 14.1 • 14.2 • 14.3
Diagonalähnliche Matrizenpaare Die Diagonalmatrix für s = n Die Block-Diagonalmatrix für sX2, ... ,xn und einem zweiten von m Größen Yt>Y2, ... ,Ym der Form
al1 x I +a12 x 2 + ... +alnxn
=
YI}
~~I.~I. ~ ~~2.~2..~ : : : .~ ~~~~~ .:.~2.
(1)
amixi +am2x 2+'" +amnxn -Ym ist festgelegt durch das Schema ihrer m mal n Koeffizienten aiko die als gegebene reelle oder auch komplexe Zahlen anzusehen sind. Dieses - nach Zeilen i und Spalten k - geordnete Schema der Koeffizienten aik wird eine Matrix, die Matrix der linearen Beziehung (1) genannt, was soviel wie Ordnung, Anordnung bedeutet und woran etwa das Wort Matrikel erinnert. In dieser Bedeutung eines rechteckig angeordneten Koeffizientenschemas wurde das Wort Matrix zuerst von dem englischen Mathematiker Sylvester [101] benutzt. Es erweist sich nun als sinnvoll und zweckmäßig, das Koeffizientenschema, die Matrix als eine selbständige mathematische Größe zusammengesetzter Art aufzufassen und durch ein einziges Symbol, einen Buchstaben zu bezeichnen. Um sie gegenüber einfachen Zahlengrößen (Skalaren) hervorzuheben, verwendet man Fettdruck (halbfett kursiv) und schreibt
all al2 ... alnJ [
~2~ ..~2~. : : : ~~~
(2)
ami am2'" am
Auch andere Schreibweisen sind gebräuchlich, z. B.
all ... a ln ] [
.........
=
[aik] .
(2a)
ami'" amn
Außer dem Zahlenwert des Koeffizienten aik ist seine durch den Doppelindex i, k festgelegte Stellung im Schema wesentlich, wobei der erste Index stets die Zeile, R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_1, © Springer-Verlag Berlin Heidelberg 2011
2
1 Grundbegriffe und einfache Rechenregeln
der zweite die Spalte kennzeichnet. Die Größen aik heißen die Elemente der Matrix. Ist die Anzahl m ihrer Zeilen gleich der Zahl n ihrer Spalten, so heißt die Matrix quadratisch, und zwar von der Ordnung n. Eine Rechteckmatrix der Höhe m und der Breite n mit m Zeilen und n Spalten wird auch eine mn-Matrix genannt. Auch die der linearen Verknüpfung (1) unterworfenen Größen Xi'Yi' faßt man zu je einem Größensystem, einem sogenannten Vektor x bzw. y zusammen, die sich als einreihige Matrizen auffassen lassen. Dabei hat es sich als zweckmäßig erwiesen, die Komponenten xi,Yi dieser Vektoren in Form von Spalten anzuordnen:
(3)
Man spricht dann bei (1) von einer linearen Transformation des Vektors x in den Vektor y und schreibt das ganze kurz und sinnfällig
I Ax=y
I·
(4)
Gleichungen (1) und (4) bedeuten genau das gleiche. Um nun dabei das Zeichen Ax wie üblich als ein Produkt verstehen zu können, definiert man Definition 1: Unter dem Produkt Ax einer mn-Matrix A = (aik) mit einer n-reihigen Spalte x = (xk) (einem Vektor mit n Komponenten) versteht man den m-reihigen Spaltenvektor y = (Yi), wobei die i-te Komponente Yi als das skalare Produkt (5)
der i-ten Zeile von A mit der Spalte x entsteht. In diesem Sinne übersetzt sich die "Matrizengleichung" (4) in das System (1). Sie ist Abkürzung und Rechenvorschrift zugleich. Das hier definierte Produkt aus Matrix und Vektor ist wesentlicher Bestandteil eines allgemeinen, von Cayley [102] eingeführten Matrizenkalküls, also einer rechnerischen Verknüpfung von Matrizen. Hier wird das Rechnen mit linearen Transformationen auf einige wenige Grundoperationen mit den Koeffizientenschemata, den Matrizen der Transformationen zurückgeführt, die sich in naheliegender Weise als Addition, Multiplikation und Division von Matrizen definieren lassen, indem sie mit den entsprechenden Zahlenoperationen bestimmte Grundregeln gemeinsam haben. Hierdurch aber erfährt das Operieren mit den auch für Anwendungen der verschiedensten Art so überaus bedeutsamen linearen Beziehungen eine solche Erleichterung, daß die Matrizenrechnung heute zu einem festen Bestandteil der Mathematik geworden ist. Erst in der Sprache des Matrizenkalküls lassen sich sonst verwickelte und langwierige Operationen einfach und übersichtlich wiedergeben und herleiten. Auch die Ingenieurmathematik, soweit
t.l Lineare Transformation, Matrix und Vektor
3
sie mit linearen Beziehungen zu tun hat, bedient sich daher in zunehmendem Maße dieses modernen und der Sache angemessenen Hilfsmittels, das wie kaum ein anderes geeignet ist, umfangreiche Rechnungen zu schematisieren und oft weit auseinander liegende Sachgebiete auf den gemeinsamen formalen Kern zurückzuführen. Zur mathematischen Kurzform des Matrizenkalküls tritt eine willkommene anschauliche Interpretierbarkeit der Operationen. Diese ergibt sich unmittelbar aus der dreidimensionalen Geometrie und Vektorrechnung, wo einem Vektor x bzw. seinen drei Komponenten x"x2,x3 die anschauliche Bedeutung von Punktkoordinaten oder Vektorkomponenten zukommt. Fast alle mit geometrischen Vorgängen verknüpften algebraischen Operationen - Vektoraddition, Vektorvervielfachung, Koordinatentransformation und dergleichen - aber sind nicht an die Dimensionszahl 3 des anschaulichen Raumes gebunden, sondern von dieser Dimensionszahl unabhängig, die man daher zur beliebigen Zahl n verallgemeinern kann. Dies führt dann auch für beliebiges n zu einer geometrischen Sprechweise, die sich in mancher Hinsicht als nützlich und förderlich erweist, indem sie auf entsprechende anschaulich verfolgbare Vorgänge des dreidimensionalen Raumes hindeutet. Man definiert in diesem Sinne ein System geordneter Zahlen, ein Zahlenn-Tupel {Xl,x2' ... ,xnl = x als einen Punkt oder Vektor in einem n-dimensionalen Raume Rn' und man definiert dabei diesen Raum Rn als die Gesamtheit der n-dimensionalen Zahlensysteme x, wenn jede der Komponenten xi des Systems x die Gesamtheit aller reellen - oder auch der komplexen - Zahlen durchläuft. Nur im Falle n = 3 oder 2 oder 1 und reellen Xi entspricht dem so algebraisch definierten "Raume" Rn auch ein geometrischer, also anschaulich faßbarer Raum von n Dimensionen: im Falle n = 3 der Gesamtraum, im Falle n = 2 eine Ebene, für n = 1 eine Gerade. In diesem Sinne sprechen wir dann bei der linearen Transformation (1) bzw. (4) von einer linearen Abbildung 1, einer Abbildung eines Vektors x in einen Vektor y. Diese Abbildung, obgleich bei beliebig angenommenen Koeffizienten aik sehr allgemein, hat doch im dreidimensionalen Falle die charakteristische Eigenschaft, lineare Gebilde wiederum in ebensolche zu überführen, d. h. Geraden in Geraden, Ebenen in Ebenen, weshalb die Abbildung linear genannt wird. Ungeachtet einer solchen geometrischen Interpretierbarkeit eines Vektors, also eines Systems geordneter Zahlen xi, stellt der Vektor selbst meistens kein geometrisches Gebilde dar. Die reale Bedeutung der "Vektorkomponenten" Xi kann in den Anwendungen von der verschiedensten Art sein, und, was besonders zu beachten ist, ein und derselbe Vektor kann Komponenten (besser Koordinaten) von unterschiedlicher Dimension haben, etwa Längen, Winkel, Kräfte, Momente usw., woraus schon erhellt, daß es sich bei diesen "Vektoren" (man sagt oft auch Vektor im algebraischen Sinn) im allgemeinen keineswegs um geometrische Vektoren (Ortsvektor) oder physikalische Vektoren (Geschwindigkeit, Kraft, Impuls, Drall usw.) handeln kann. Dessenungeachtet ist die Bezeichnung Vektor weiterhin mit Vorteil in Gebrauch.
I
Dabei denken wir vorwiegend an den Fall m
=
n.
1 Grundbegriffe und einfache Rechenregeln
4
Es gibt kaum ein der Mathematik zugängliches Anwendungsgebiet, auf welchem der Matrizenkalkül nicht eine Rolle spielt, so etwa in der Mechanik (Kinematik, Statik, Kinetik), der Elektrodynamik, der Chemie, der Physik, der Volkswirtschaft u. a. Unabhängig von Herkunft und Bedeutung sind zwei Problemklassen zu unterscheiden: 1. Das inhomogene Gleichungssystem mit regulärer Matrix A
A x = y,
det A
*0 .
(A)
2. Das homogene Gleichungssystem mit singulärer Matrix F(A) F(A)X=O,
detF(A) =0 .
(B)
Hier enthält die Matrix F einen Parameter A (oft auch mehrere Parameter Nichttriviale - und das heißt für den Anwender, allein interessante - Lösungen x 0 existieren nur dann, wenn die Determinante von F(A) gleich Null ist, wodurch im allgemeinen gewisse als Eigenwerte (eigenvalues, latent roots, valeurs propres) bezeichnete diskrete Werte Aj ausgezeichnet sind. Deren Bedeutung ist zum Beispiel: in der Statik kritische Knick- oder Beulwerte, in der Kinetik kritische Drehzahlen von Rotoren, Eigenschwingungszahlen von mehrläufigen Schwingern, in der Geometrie die Längen der Halbachsen eines Ellipsoides usw. 0"1> 0"2' .•• ).
*
Die Abb. 1.1 zeigt ein typisches Beispiel aus der Statik. Im Fall 1 liegt das Gleichungssystem (A) vor. Hier sind die Unbekannten XI> .•. 'Xn die Auflagerkräfte, die rechte Seite wird durch die Belastung bestimmt, und es gibt eine eindeutige Lösung. Im Fall 2 dagegen führt die Gleichgewichtsbedingung auf die Gleichung (B); jetzt sind die Unbekannten X1> .•. 'Xn die Verschiebungen der Gelenkpunkte in vertikaler Richtung. Diese sind im allgemeinen gleich Null, d. h. der Balken wird in gerader Lage gedrückt. Nur für ganz bestimmte Eigenkräfte AjK (kritische Knicklasten) kann der Balken die horizontale Lage aufgeben, und das heißt eben in der oben gebrauchten Ausdrucksweise eine nichttriviale Lösung ermöglichen,
{Al
~;J;:.====~===j'===:;~=!O::)==A=1;K {Bl
,
J:
~
~'l
:
Abb. 1.1. Beispiel aus der Statik für die Problemklassen (A) und (B)
5
1.2 Zeilen- und Spaltenvektoren
ein Effekt, der jedem bekannt ist, der ein biegsames Kunststofflineal mit allmählich größer werdender Kraft drückt, bis es schlagartig ausknickt. • 1.2 Zeilen- und Spaltenvektoren
Ein System von n geordneten Zahlen XI,x2' ... ,xn (ein Zahlen-n-Tupel) haben wir einen (n-dimensionalen) Vektor genannt und dies oben durch eine Reihe von Beispielen erläutert. Für die Darstellung eines solchen Vektors als Matrix ist es nun an sich belanglos, ob wir die n Komponenten Xi in Form einer Zeile oder einer Spalte anordnen. Beide Formen sind gleichwertige Darstellungen des Vektors, d. h. des geordneten Zahlensystems der xi> wenn wir auch bisher ausschließlich die Darstellungsform der Spaltenmatrix verwendet haben. Auch die Form der Zeilenmatrix wird bei Gelegenheit angewandt werden. Wollen wir die Darstellungsform des Vektors - ob Zeile oder Spalte - offenlassen, so werden wir das Zahlensystem auch wohl durch x = {X/>X2, ... ,xnl, also in geschweiften Klammern, bezeichnen. Sowohl die Zeilen als auch die Spalten einer mn-Matrix A = (aik) können wir gleichfalls als Vektoren auffassen (d. h. wieder als geordnete Zahlensysteme), und wir wollen sie durch hoch- bzw. tiefgestellte Indizes bezeichnen: Zeilenvektoren
ai=(ait ai2 ... ain) '
Spaltenvektoren ak =
alk] [ amk afk
,
i=1,2, ... ,m,
(6a)
1,2, ... ,n .
(6b)
k
=
Damit läßt sich die Matrix A in einer der beiden folgenden Formen schreiben:
(7)
also als eine Spalten- oder Zeilenmatrix, deren Elemente selbst wieder Spalten bzw. Zeilen sind. Beide Darstellungen werden sich als nützlich erweisen. Den Spaltenvektoren ak der Matrix kommt nun eine unmittelbar auf die Abbildung bezogene Bedeutung zu. Setzen wir nämlich in GI. (1) alle Xi = 0 bis auf eine einzige Komponente xk = 1, d. h. wählen wir x als den sogenannten koten Einheitsvektor
ek~ [I]
(8)
1 Grundbegriffe und einfache Rechenregeln
6
"----=-'---.JCt
(k-te Komponente
Abb. 1.2. Ebene Drehung: Abbildung der Einheitsvektoren
= 1, alle übrigen = 0), so erhalten wir für die Abbildung (9)
Der k-te Spaltenvektor ak einer Matrix A ist somit das Bild, in das der k-te Einheitsvektor ek bei der linearen Abbildung Ax = y übergeht. Ist die Abbildung anschaulich interpretierbar, so läßt sich die zugehörige Matrix - bei vorgegebeneiriKoordinatensystem - sogleich angeben. Stellt beispielsweise unsere Abbildung eine ebene Drehung um einen Winkel ({J dar, Abb. 1.2, so gehen die beiden Einheitsvektoren et Winkel
({J
=
GJ ' = eJ e2
über in die beiden um den
gedrehten Einheitsvektoren
- [- sin ({JJ at -- [cos ({JJ , a2sin ({J cos ({J Die die Drehung vermittelnde Matrix lautet somit A =
[c~s ({J Slll({J
-sin({J] . cos ({J
Die Komponenten Yi des durch Drehung eines beliebigen Vektors x hervorgegangenen Bildvektors Y sind
Yt
=Xt cos({J-x2sin({J ,
Y2 = Xt
sin ({J+x2 cos ({J
,
wie aus Abb. 1.3 auch unmittelbar zu ersehen.
y, Xt
Abb. 1.3. Originalvektor x und Bildvektor y bei ebener Drehung
7
1.3 Einfache Rechenregeln
Allgemein läßt sich die Abbildung A x = y mit Hilfe der Spaltenvektoren folgendermaßen schreiben: (10)
was als Zusammenfassung der Gleichung (5) aufzufassen ist und mit Hilfe der Produktdefinition 1 formal aus
Ax~(a,a2a,) [tJ folgt, wenn wir A als einzeilige Matrix mit den Elementen ak auffassen. Wir können somit sagen:
Der Bildvektor y der linearen Abbildung A x = Y ist eine Linearkombination der Spaltenvektoren ak der Abbildungsmatrix A. Die Vektoren akxk sind dabei die Vektoren der Komponenten aikxh gehen also aus ak hervor durch Multiplikation ihrer Komponenten aik mit den Zahlen xk.
• 1.3 Einfache Rechenregeln Für das allgemeine Rechnen mit Matrizen werden zunächst die folgenden einfachen und einleuchtenden Regeln festgesetzt:
Definition 2: Sind A = (aik) und B = (b ik ) zwei Matrizen von je m Zeilen und n Spalten (zwei mn-Matrizen), so wird als Summe (Differenz) von A, B die mn-Matrix C = A ±B = (Cik)
mit Cik
=
aik±bik
(11)
erklärt. Matrizen gleicher Reihenzahl m, n werden auch vom gleichen Format genannt. Nur Matrizen vom gleichen Format können addiert oder subtrahiert werden. Beispiel
~J -I~J
(a)
.
(b)
Offenbar gilt A + B = B + A; die Addition ist wie bei gewöhnlichen Zahlen kommutativ. Ferner gilt A + (B + C) = (A + B) + C; die Addition ist auch assoziativ.
8
1 Grundbegriffe und einfache Rechenregeln
Definition 3: Zwei mn-Matrizen A = (aik) und B = (b ik ) werden dann und nur dann einander gleich genannt, A = B, wenn
aik = bik für alle i, k .
(12)
Definition 4: Eine Matrix A wird dann und nur dann Null genannt, wenn alle ihre Elemente verschwinden:
A
= 0, wenn aik =
°
für alle i und k .
(13)
Man spricht dann von der Nullmatrix, im Falle einreihiger Matrix auch vom Nullvektor. So ist beispielsweise die aus 3 Zeilen und 2 Spalten bestehende Nullmatrix
ferner ist
B= [~ ~J=o die zweireihige quadratische Nullmatrix. Setzt man in der Summendefinition B = A und schreibt, wie naheliegend A + A = 2A, so kommt man verallgemeinernd zur Definition 5: Das Produkt kA oder A k einer mn-Matrix A mit einer Zahl k (einem
Skalar) ist die mn-Matrix, bei der jedes Element das k-fache des entsprechenden von A ist: kA
= Ak =
[~.~t~
~~~~J
kamt
(14)
kamn
Ein allen Elementen einer Matrix gemeinsamer Faktor k läßt sich also vor die Matrix ziehen, beispielsweise:
[2,1,87 -0,91 5,4j
= 0,9
[3 -lJ 2
6
Man beachte hier den Unterschied gegenüber einer entsprechenden, dem Leser wohl erinnerlichen Regel bei Determinanten, wo bekanntlich ein gemeinsamer Faktor einer einzigen Zeile oder Spalte vorgezogen werden darf. - Offenbar gilt für das Zahlenprodukt einer Matrix
1.4 Transponierte Matrix, symmetrische und schiefsymmetrische Matrix
9
kA +kB = k(A +B) kA + IA = (k + I)A . Zu diesen fast selbstverständlichen Rechenregeln mit Matrizen tritt als Hauptbestandteil des Matrizenkalküls die Festsetzung einer Multiplikation von Matrizen untereinander, des eigentlichen Matrizenproduktes, das wir bis zum nächsten Paragraphen zurückstellen. Die Umkehrung der Multiplikation führt schließlich zur Kehrmatrix, worauf wir im darauf folgenden Abschnitt 3 zurückkommen werden. • 1.4 Transponierte Matrix, symmetrische und schiefsymmetrische Matrix
Eine besonders häufig angewandte Matrizenoperation ist der Übergang zur sogenannten transponierten oder gespiegelten Matrix A T, die aus der gegebenen Matrix A = (aik) durch Vertauschen von Zeilen und Spalten hervorgeht, z. B.
Bei quadratischer Matrix entspricht dies einem Spiegeln an der Hauptdiagonalen, wobei man unter "Hauptdiagonale" stets die von links oben nach rechts unten verlaufende Diagonale der Matrix mit den Elementen gleicher Indizes a11' a22' ... , ann versteht, die hierbei unverändert bleiben:
A=[;-~-~J -2 3-4 Bezeichnen wir die Elemente der transponierten Matrix A
T
mit a
r, so gilt (15)
Offenbar ist (16)
Aus einem Spaltenvektor a wird durch Transponieren ein Zeilenvektor a T und umgekehrt:
(16a)
Kleine Fettbuchstaben a, b,x,Y, ... ohne Kennzeichen sollen stets Spaltenmatrizen (Vektoren in Form einer Spaltenmatrix) bezeichnen. Zeilenmatrizen (Vekto-
1 Grundbegriffe und einfache Rechenregeln
10
ren in Form einer Zeilenmatrix) kennzeichnen wir durch Transponieren: a T, b T, mit Ausnahme der Zeilenvektoren ai,b i , . .. von Matrizen A,B, . .. , bei denen hochgestellte Indizes den Zeilencharakter anzeigen. Aus Platzgründen schreiben wir Spalten auch in der Form
xT,yT, . ..
(16b)
Eine quadratische Matrix heißt symmetrisch, wenn sie ihrer Transponierten gleich ist:
A = A T oder
(17)
aik = aki .
Die zur Hauptdiagonale spiegelbildlich liegenden Elemente sind einander gleich, während die Diagonalelemente aii selbst beliebig sind. Beispiel
A=
[-2 3-IJ 3 4 -1 5
5 0
Symmetrische Matrizen, und zwar insbesondere reelle symmetrische spielen in den Anwendungen eine herausragende Rolle. Viele technisch-physikalische Probleme zeichnen sich durch gewisse Symmetrieeigenschaften aus, die in symmetrischen Koeffizientenschemata zum Ausdruck kommen. Andererseits besitzen reelle symmetrische Matrizen eine Reihe bemerkenswerter mathematischer Eigenschaften, insbesondere hinsichtlich des im IV. Kapitel zu behandelnden Eigenwertproblems, wo wir darauf eingehend zurückkommen werden. Eine quadratische Matrix heißt schiejsymmetrisch oder antimetrisch, wenn sie ihrer Transponierten entgegengesetzt gleich ist: A = - A T oder
aik = - aki -+ aii =
(18)
0 .
Zur Hauptdiagonale gespiegelte Elemente sind entgegengesetzt gleich, die Diagonalelemente selbst aber sind Null. Beispiel:
A=
[-~ ~ -~J -4
1
0
[0-2 -4J 201
4 -1
= -A .
0
Jede quadratische Matrix A ist zerlegbar in die Summe eines symmetrischen und eines antimetrischen Anteiles: (19)
11
1.5 Diagonalmatrix, Skalarmatrix und Einheitsmatrix
mit (20)
Beispiel
[j ;-~J L1r~ -~ -~J . +
4
3
-4
0
• 1.5 Diagonalmatrix, Skalarmatrix und Einheitsmatrix Eine quadratische Matrix, deren sämtliche Elemente außerhalb der Hauptdiagonalen Null sind bei beliebigen Diagonalelementen d;, wird Diagonalmatrix genannt:
D
=
[? .~2 o
0
~] =
Diag (d;> .
(21)
dn
Auch hier handelt es sich offenbar um ein System geordneter Zahlen d;, die auch als die Komponenten eines Vektors aufgefaßt werden könnten. Daß man dies indessen hier nicht tut, hat seinen Grund darin, daß das System der d; nicht einer linearen Transformation unterworfen wird, sondern in anderer Weise in die Betrachtung eingeht; vgl. Abschnitt 2.3. Eine lineare Transformation mit einer Diagonalmatrix ist von besonders einfacher Form, nämlich 1X
d =YJ dnxn=Y d2 X 2t =
Y2
(22)
Die Multiplikation Dx der Diagonalmatrix D mit einem Vektor x bewirkt also komponentenweise Multiplikation mit den d;. Dies kennzeichnet im wesentlichen die Rolle, die die Diagonalmatrix im Rahmen des Matrizenkalküls spielt. - Eine Diagonalmatrix ist offenbar immer symmetrisch, D = D T. Hat die Diagonalmatrix lauter gleiche Elemente d; = k, so spricht man von einer Skalarmatrix, da sie sich, wie wir noch sehen werden, hinsichtlich der Multiplikation mit einer anderen Matrix wie ein skalarer Faktor k verhält. Für die Multiplikation mit einem Vektor x nach Gleichung (22) trifft das ja offenbar zu. Sind schließlich alle Diagonalelemente gleich 1, so hat man die sogenannte Einheitsmatrix I, genauer die n-reihige Einheitsmatrix:
12
1==
[~.~
•.
° ° ...
~J 1
1 Grundbegriffe und einfache Rechenregeln
:
(23)
t
Die Transformation mit der Einheitsmatrix läßt den Vektor x offenbar unverändert: (24)
man spricht daher von der identischen Transformation. Auch sonst spielt die Einheitsmatrix, wie sich zeigen wird, hinsichtlich der Matrizenmultiplikation die Rolle der Eins. Die Skalarmatrix aber schreibt sich mit I zufolge Gleichung (14) als kI==Ik. • 1.6 Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante
ar
Gegeben sei ein System vonp Vektoren ak zu je n Komponenten Diese Vektoren werden nun linear abhängig genannt, wenn es p Konstanten ck gibt, derart daß eine lineare Beziehung der Form (25) besteht, wo die p Konstanten nicht sämtlich verschwinden. Folgt aber aus Gleichung (25) notwendig Cl == C2 == .•. == Cp == 0, so heißen die Vektoren linear unabhängig. Hier bedeutet in Gleichung (25) die rechts stehende 0 den Nullvektor. Lineare Abhängigkeit von Vektoren besagt also, daß sich aus ihnen durch eine geeignete Linearkombination der Nullvektor erzeugen läßt. Beispiel:
(a)
Es ist a 1 + 2a2 - a3 = 0, wie leicht nachzuprüfen. Die Vektoren sind also linear abhängig.
Im Falle linearer Abhängigkeit ist wenigstens eine der Konstanten ck von Null verschieden, sagen wir cq 0. Dann läßt sich offenbar der zugehörige Vektor aq linear durch die übrigen ausdrücken, indem wir Gleichung (25) nach aq auflösen. In unserem Beispiel ist etwa a3 = al + 2a2 oder al == - 2a2 + a3 oder a2 == - tal + ta3' wie jedesmal leicht nachprüfbar. - Ein Vektorsystem wird auch dann linear abhängig genannt, wenn unter ihnen der Nullvektor vorkommt, da in dem gesetzt werden kann und die übrigen == 0, um Falle die zugehörige Konstante Gleichung (25) zu erfüllen.
*
*°
13
1.6 Lineare Abhängigkeit, Rang, singuläre Matrix, Determinante
Im allgemeinen wird man einem Vektorsystem nicht ohne weiteres ansehen können, ob es linear abhängig ist oder nicht. In gewissen Sonderfällen aber ist das leicht möglich. So sind insbesondere die drei Einheitsvektoren
(allgemein die n Spaltenvektoren der Einheitsmatrix) sicher linear unabhängig. Denn aus
c,',+c,.,+ n) linear unabhängig sind, daß also für den Rang r = m < n bzw. r = n< m gilt. Derartige Matrizen nennen wir zei/enregulär bzw. spaltenregulär. Sie verhalten sich in mancher Hinsicht wie nichtsinguläre quadratische Matrizen; vgl. Abschnitt 2.2, Satz 5 und 6. Eine zeilenreguläre quadratische Matrix, r = m = n, aber ist zugleich spaltenregulär, also regulär und das heißt nichtsingulär schlechthin. Eine gewisse Rolle spielt schließlich noch die sogenannte Spur einer quadratischen Matrix, worunter man die Summe der Hauptdiagonalelemente aij versteht:
I sp A = s = a11 + a22 + ... + ann I·
(30)
Sie erweist sich, wie wir später sehen werden, ebenso wie die Determinante der Matrix gegenüber gewissen Umformungen, sogenannten Koordinatentransformationen, denen die Matrix unterworfen werden kann, als invariant. Während sich bei diesen Transformationen die Elemente der Matrix sämtlich ändern, bleiben die beiden der Matrix zugeordneten Zahlenwerte det A und sp A unverändert. Sie haben diese Eigenschaft gemeinsam mit anderen der quadratischen Matrix zugeordneten Zahlenwerten, den im IV. Kapitel ausführlich zu behandelten Eigenwerten, mit denen sie auch in einfacher Weise zusammenhängen: Summe und Produkt der Eigenwerte ergeben Spur und Determinante.
2 Das Matrizenprodukt • 2.1 Einführung des Matrizenproduktes Den Hauptinhalt des Matrizenkalküls bildet die von Cayley eingeführte Matrizenmultiplikation. Zu dieser Operation kommt man durch Hintereinanderschalten linearer Transformationen, wobei ihre Koeffizientenschemata, die Matrizen, eine bestimmte Verknüpfung erfahren, die man in naheliegender Weise als Multiplikation der Matrizen definiert. Zwei Vektoren x = {XI,x2" .. ,xml und Y = {YloY2,'" ,Ynl seien durch eine lineare Transformation verknüpft in der Form (1)
mit der mn-Matrix A = (aik)' Die Komponenten Yk sollen wiederum linear verknüpft sein mit einem dritten Vektor Z = {Zl ,Z2' ... ,zpl in der Form
~1.:. ~~1.~1.~.'.'.'.~.~1~~~} oder
Yn - bnlZ 1 + ... +bnpzp
Y = Hz
(2)
2 Das Matrizenprodukt
16
mit der np-Matrix B = (b ik ). Gesucht ist der unmittelbare Zusammenhang zwischen x und z. Auch er wird homogen linear sein, also von der Form
Xl = CIlZl + ... +C 1P ZP } ... ~. . . . . . . . . . . . . . . . . Xm - CmlZt + ... +cmpzp
oder
X
= Cz
(3)
mit einer mp-Matrix C = (Cik), und es handelt sich darum, die Elemente Cik dieser Matrix aus den gegebenen Koeffizienten aik und bik zu bestimmen, was ja nicht schwer sein kann. Der Koeffizient Cik' das ist der Faktor der Komponente Zk im Ausdruck für Xi' also in der i-ten Gleichung von (3) folgt aus der entsprechenden von (1):
worin laut Gleichung (2) jedes der Yr die interessierende Komponente Zk mit dem Faktor brk enthält. Insgesamt enthält also Xi in Gleichung (3) die Größe Zk mit dem Faktor
Cik = ail b 1k + ai2 b2k + ... + ain bnk =
n
L airbrk
(4)
r=l
Damit haben wir als Bildungsgesetz für den gesuchten Koeffizienten Cik das skalare Produkt der Elemente air der i-ten Zeile von A mit den Elementen brk der kten Spalte von B. Man nennt nun die Matrix C = (Cik) das Produkt der beiden Matrizen A und B in der Reihenfolge AB, eine Bezeichnung, die sich auch formal anbietet. Eine Zusammenfassung der beiden Matrizengleichungen (1) und (2) ergibt nämlich
Ix=Ay=A(Bz) =ABz
=
Cz
I·
(5)
Wir fassen zusammen: Definition 1: Unter dem Produkt AB einer mn-Matrix A mit einer np-Matrix B in der angegebenen Reihenfolge versteht man die mp-Matrix C = AB, deren Element Cik als skalares Produkt der i-ten Zeile von A (des Zeilen vektors a i) mit der koten Spalte von B (dem Spaltenvektor bJ gemäß (4) gebildet wird, kurz:
cik =
n
i = 1,2, ... ,m ,
r= 1
k = 1,2, .. . ,p .
L airbrk = a ibk
(4a)
Dabei stellt auch der Ausdruck aib k schon ein Matrizenprodukt dar, nämlich das der Zeile a i mit der Spalte bh dessen Ergebniss die l'l-Matrix Cik, also eine Zahl
2.1 Einführung des Matrizenproduktes
m
A
17
AB Abb. 2.1. Anordnungsschema einer Matrizenmultiplikation
ist. Indem man jede der m Zeilen von A mit jeder der p Spalten von B auf die angegebene Weise kombiniert, baut sich die Produktmatrix C Element für Element auf. Zur Berechnung der m'p Elemente Cik sind somit insgesamt m' p' n Einzelprodukte zu bilden, ein nicht ganz müheloser Prozeß, der freilich recht schematisch abläuft. Insbesondere lassen sich die skalaren Produkte mit Hilfe eines Taschenrechners automatisch durch Auflaufenlassen der Teilprodukte - unter Berücksichtigung der gegebenen Vorzeichen - ohne ein Niederschreiben der Teilprodukte bilden, und die Rechnung läßt sich auch, wie wir noch zeigen, weitgehend durch sogenannte Summenproben kontrollieren. Für das praktische Rechnen ist eine von FALK [103] vorgeschlagene Anordnung nützlich, Abb. 2.1, bei der jedes Produktelement Cik genau im Kreuzungspunkt der i-ten Zeile von A mit der koten Spalte von B erscheint. Offensichtlich ist zur Ausführbarkeit des Produktes AB Übereinstimmung der Spaltenzahl von A mit der Zeilenzahl von B erforderlich. Wir sagen, A sei mit B in der Reihenfolge AB verkettbar, was gleichbedeutend mit der Multiplizierbarkeit der beiden Matrizen in der angegebenen Reihenfolge ist. Aber auch dann, wenn hinsichtlich der Verkettbarkeit einer Vertauschung der Reihenfolge der beiden Faktoren nichts im Wege steht, d. h. wenn m = p oder sogar m = p = n ist, so darf diese Reihenfolge nicht ohne weiteres vertauscht werden: die beiden Produktmatrizen AB und BA sind im allgemeinen verschieden, von bestimmten Ausnahmen, sogenannten vertauschbaren Matrizen A, B abgesehen. Die beiden Faktoren des Matrizenproduktes ABgehen ja in die Produktbildung verschieden ein, der erste Faktor zeilenweise, der zweite spaltenweise. - Einige Beispiele mögen den Sachverhalt erläutern. 1. Beispiel
(a)
Als quadratische Matrizen sind die beiden Faktoren in beiden Reihenfolgen verkettbar, ergeben jedoch verschiedene Produktmatrizen:
(b)
2 Das Matrizenprodukt
18
2. Beispiel
21 43
-1
2
J
.
(a)
Auch hier sind die Faktoren in beiden Reihenfolgen verkettbar, jedoch ist AB eine zweireihige, BA dagegen eine dreireihige Produktmatrix:
A [
2 1 -1 0
1-3J
[-~
o
-3J2 [-37
~ ~J
B [
-' 1 2
2
A
12 05J BA -1
(b)
7
3. Beispiel
A = (2 -1
3),
B=
[-2 lJ ~ -;
.
(a)
Hier ist A mit B nur als AB, nicht aber als BA verkettbar; das Produkt BA existiert nicht:
[-~ -iJ A (2 -1
3)(
8
B
11) AB.
(b)
Für umfangreichere Zahlenrechnungen sind Rechenkontrollen unerläßlich, wozu als einfaches und wirksames Hilfsmittel die auf Gauss zurückgehende Summenprobe dient, und zwar entweder als Spalten- oder als Zeilensummenprobe. Entweder faßt man in AB = C die Gesamtheit der Zeilen von A in einer zusätzlichen Summenzeile (Zeile der Spaltensummen) zusammen, die wie die übrigen Zeilen von A mit B kombiniert wird und dabei eine zusätzliche Zeile von C liefert, deren Elemente dann gleich den Spaltensummen von C sein müssen, worin die Kontrolle besteht. Oder aber man faßt die Gesamtheit der Spalten des zweiten Faktors B zu einer zusätzlichen Summenspalte (Spalte der Zeilensummen) zusammen, die wie die übrigen Spalten von B mit den Zeilen von A kombiniert wird und dabei eine zusätzliche Spalte von C liefert, deren Elemente dann gleich den Zeilensummen von C werden. Denn jede Zeile von A liefert unabhängig von den übrigen Zeilen die entsprechende Zeile von C, so daß man die Zeilen addieren darf. Jede Spalte von B liefert unabhängig von den übrigen Spalten die entsprechende Spalte von C, so daß auch die Spalten summierbar sind.
19
2.1 Einführung des Matrizenproduktes Beispiel:
[ 42 -2] -3 -1
[~
2 -1 2] 2 3
[13 12 -2J 5 -5-7
5 0 -4 11 17
-12
[ 42 -2] -3 -1
[~ D 2
-1
2
8 Zeilensummenprobe
3 6
[ 12 13 -2J 5 -5 -7 20 -4
Spaltensummenprobe
Die Falksche Anordnung empfiehlt sich besonders bei Produkten aus mehr als zwei Faktoren, etwa P = ABCD, wo man dann jede Matrix und jedes der Teilprodukte nur ein einziges Mal anzuschreiben braucht. Fängt man mit dem letzten Faktor D an, so erhält man das Schema der Abb. 2.2, wieder ergänzt durch eine Summenspalte zur Probe. Man erkennt, daß die Zeilenzahl der Produktmatrix gleich der des ersten Faktors A, ihre Spaltenzahl gleich der des letzten D ist, und weiterhin, daß jede Spalte des letzten Faktors (und ebenso auch jede Zeile des ersten) für sich allein an der Produktbildung beteiligt ist. - Fängt man die Rechnung mit dem ersten Faktor A an, so baut sich das Schema nach rechts anstatt nach unten auf und wird durch eine Summenzeile kontrolliert, Abb. 2.3. Es sei auf einen Umstand ausdrücklich hingewiesen: Liegt in x = ABz der zu transformierende Vektor z zahlenmäßig vor, so ist es durchaus unvorteilhaft, die Produktmatrix C = AB explizit zu berechnen. Vielmehr wird man dann zuerst den transformierten Vektor y = Bz durch Multiplikation der Matrix Bmit dem Vektor z und aus ihm den Vektor x = Ay durch Multiplikation der Matrix A mit dem Vektor y bilden. Man arbeitet also mit der jeweiligen Matrix nur an einem Vektor und spart so erheblich an Operationen. Gegenüber m'n'p Multiplikationen bei Bildung von C = AB zuzüglich den m'p Multiplikationen zur Bildung von Cz ist
D C
I
8
CD
e-
BCD
A
ABCD
Abb. 2.2. Anordnungsschema bei mehrfachem Matrizenprodukt, untereinander
A
B
C
AB
ABC
D
ABCD
Abb. 2.3. Anordnungsschema bei mehrfachem Matrizenprodukt, nebeneinander
20
2 Das Matrizenprodukt
I
D C
I
B
A
r-CD:.r BCIk
ABCD:c
~
Abb.2.4. Multiplikation am Vektor bei mehrfacher Transformation z=ABCDx
hier die Gesamtzahl der Multiplikationen nur M = n· p + m· n = n (m + p). Im Falle m = n = p stehen sich also n 3 + n 2 Multiplikationen einerseits und 2n 2 Multiplikationen andererseits gegenüber. - Das gilt erst recht bei längeren Produktketten. Stets ist ein unmittelbares Arbeiten der einzelnen Matrizenfaktoren am jeweiligen Vektor einem Bilden der Produktmatrix vorzuziehen. Eine Transformation
z=ABCDx=Px ist also in der Regel stets in diesem Sinne durch Bilden der Zwischenvektoren zu realisieren, nicht aber durch explizites Ausrechnen der Produktmatrix ABCD = P; vgl. Abb. 2.4. • 2.2 Sätze über Matrizenmultiplikation Die Matrizenmultiplikation verhält sich in mancher Hinsicht formal wie die Multiplikation gewöhnlicher Zahlen, in mancher Hinsicht dagegen wesentlich anders. Der auffälligste und schon mehrfach hervorgehobene Unterschied besteht in Satz 1: Das Matrizenprodukt ist nicht kommutativ, d. h. im allgemeinen sind A B und BA verschiedene Matrizen, sofern die Faktoren überhaupt in beiden Reihenfolgen verkettbar sind:
1
Im allgemeinen:
AB
* BA I·
(6)
Es kommt also auf die Reihenfolge der Faktoren an, bei Multiplikation von Matrizen hat man darauf zu achten, ob eine Matrix von rechts her oder von links her mit einer zweiten Matrix multipliziert werden soll. Insbesondere hat man beispielsweise in einer Gleichung stets beide Seiten in gleicher Weise mit einer Matrix zu multiplizieren, entweder beide Seiten von rechts her oder beide von links her.
2.2 Sätze über Matrizenmultiplikation
21
In einer Kette von Matrizenfaktoren, etwa ABC . .. N, sind nur ihre beiden äußeren Enden, A und N, einer Multiplikation mit einer weiteren Matrix P zugänglich, also nur A von links her oder N von rechts her. Eine Umstellung der Faktoren ist wegen Gleichung (6) im allgemeinen nicht erlaubt. Bei quadratischen Matrizen kann in Sonderfällen auch AB = BA sein; man spricht dann von vertauschbaren = kommutativen Matrizen A,B. Beispiel A =
[2-IJ 3 4
,
B=
[- 1-2J 6
3
,
AB = BA
= [-
8-7J
21
6
.
Diagonalmatrizen gleicher Ordnung aber sind stets miteinander vertauschbar, und es ist mit A = Diag (ai), B = Diag (bi)
Wie bei gewöhnlichen Zahlen gilt
Satz 2: Die Matrizenmultiplikation ist assoziativ und distributiv, d. h. es gilt (AB)C=A(BC)=ABC, (A+B)C=AC+BC, C(A+B) = CA +CB .
(7) (8a) (8b)
Man darf wie bei gewöhnlichen Zahlen in Produkten aus mehreren Faktoren die Aufeinanderfolge der Produktbildung ändern, d. h. man darf gemäß Gleichung (7) Klammern weglassen, und man darf gemäß Gleichung (8) Klammern auflösen und Klammern setzen wie in der Zahlenalgebra. Beide Eigenschaften folgen aus der Definition (4) der Produktmatrix, z. B.
(AB)C
=(
~ ( ~ airbrs) cSk) = (~ ~ airbrsCSk)
=(
~ air ~ brsCSk) = A (BC)
.
Von großer praktischer Bedeutung für das Operieren mit Matrizen ist die folgende Regel über das Transponieren von Produkten. Dafür gilt
(9) und allgemeiner: (9a)
22
2 Das Matrizenprodukt
p m
jB
n
n
n m
lJ
A
a
j
Ar
n
~
Br
pi b
Abb. 2.5a, b. Veranschaulichung der Regel (A B) T = B TA T für das Transponieren eines Produktes
Die Regel folgt wieder aus der Produktdefinition:
C = AB = (Cik)
C
T
=(
~ airbrk)
= (AB)T = (Cki) = (
~ akrbr) = (~ br,a~)
= B TAT.
Anschaulich aber ergibt sie sich sehr einfach aus unserem Multiplikationsschema, Abb. 2.5 durch Umlegen dieses Bildes. Einen in der Determinantenlehre bewiesenen Satz, auf den wir uns öfter beziehen werden, führen wir hier ohne Beweis an (siehe [12], S. 22 - 23): Satz 3: Die Determinante det (A B) eines Matrizenproduktes AB zweier quadratischer Matrizen ist gleich dem Produkt der Determinanten der beiden Faktoren:
Idet (A B) = det A . det B = A . BI,
(lOa)
und es gilt daher auch
1
det(AB) = det(BA) = A· B
I·
(tOb)
Ähnlich gilt für die Spur des Produktes zweier jetzt nicht notwendig quadratischer Matrizen, eine mn-Matrix A und einer nm-Matrix B:
Isp(AB) sp (A B)
= sp(BA)
=
m
I:
i=l
I·
i a bi =
m
(t1) n
I: I:
i=lk=l
aikbki =
n
m
I: I:
k=li=l
bkiaik =
n
I:
k=l
k b ak
= sp (BA)
2.2 Sätze über Matrizenmultiplikation
23
Beispiel:
A=
AB=
[-~ -:J
B=
4
(a)
3
[-8 J 15
1 14
[ JJ 1 -1
BA =
[-~
9 19 -5 -13
I~J
.
sp (A B) = sp (BA) = 6 .
(b)
Mit besonderem Nachdruck sei nun noch auf einen Unterschied gegenüber dem Rechnen mit gewöhnlichen Zahlen hingewiesen, nämlich
Ein Matrizenprodukt kann Null sein, ohne daß einer der beiden Faktoren selbst Null ist:
IAB = 0 I mit
A"* 0,
B"* 0 .
(12)
Beispiel:
(a)
1 -2 A ( -2 3
Es sei A eine mn-Matrix, B eine np-Matrix. Aus
folgt dann
IAbk = 0 I
k = 1,2, ... ,p .
(13)
Dieses homogene lineare Gleichungssystem hat nun genau dann nichttriviale Lösungen bk "* 0, wenn die Spalten ai von A linear abhängig sind; denn mit den Spalten ai und den Komponenten b ik von b k schreibt sich Gleichung (13) in der Form (13a)
was die Bedingung linearer Abhängigkeit darstellt. Durch Übergang auf das transponierte System B T AT = 0 schließt man in gleicher Weise auf lineare Abhängigkeit der Zeilen von B. Satz 4: Zu einer mn-Matrix A "* 0 gibt es genau dann np-Matrizen B"* 0 derart, daß A B = 0 ist, wenn die Spalten von A linear abhängig sind. - Zu einer np-Ma-
24
2 Das Matrizenprodukt
'*'
trix B 0 gibt es genau dann mn-Matrizen A Zeilen von B linear abhängig sind.
'*' 0 derart, daß AB = 0, wenn die
Wir werden später (in Abschnitt 9) sehen, daß zum homogenen Gleichungssystem (13) genau dA = n - rA linear unabhängige Lösungen bk existieren, so daß der Rang von B höchstens gleich dem Rangabfall n-rA von A ist, rB~n-rA oder (14)
Ergänzend zu Satz 4 formulieren wir
'*'
Satz 5: Aus AB = 0 mit A 0 folgt dann und nur dann B = 0, wenn A spaltenregulär (insbesondere quadratisch nichtsingulär) ist. Und analog: aus AB = 0 mit B 0 folgt dann und nur dann A = 0, wenn B zeilenregulär (insbesondere quadratisch nichtsingulär).
'*'
Als Konsequenz daraus erhalten wir den überaus wichtigen Satz 6: Aus AB = AC folgt dann und nur dann B (insbesondere quadratisch nichtsingulär) ist.
= C, wenn Aspaltenregulär
Denn genau dann folgt aus AB-AC = A(B- C) = 0 auch B- C = 0 also B = C. Hierauf ist beim Rechnen mit Matrizen wohl zu achten. Nichtreguläre Matrizen verhalten sich in mehrfacher Hinsicht ähnlich wie die Null bei gewöhnlichen Zahlen, man darf sie insbesondere nicht "kürzen"! Beispiel: (a)
Hier ist in der Tat
AB=AC=
[~ ~ I~J 17
bei B*C.
(b)
17 27
• 2.3 Diagonal- und Dreiecksmatrix Besonders einfach übersieht man die Auswirkung der Multiplikation einer Matrix A mit einer Diagonalmatrix D = Diag (dj ). Bei quadratischem A wird
(15a)
25
2.3 Diagonal- und Dreiecksmatrix
AD
=[a
l1
an!
0J
a!n] [d!.. . ann 0 dn
(15b)
DA bewirkt zeilenweise Multiplikation der ajk mit den Faktoren dj, AD bewirkt spaltenweise Multiplikation der ajk mit den Faktoren dk. Bei nichtquadratischem A muß Verkettbarkeit bestehen, d. h. bei mn-Matrix A ist D im Falle DA eine mreihige, im Falle A Deine n-reihige Diagonalmatrix. Multiplikation einer n-reihigen quadratischen Matrix A mit der n-reihigen Einheitsmatrix I läßt, wie man als Sonderfall von Gleichung (15) unmittelbar sieht, die Matrix A unabhängig von der Reihenfolge der Multiplikation unverändert:
IIA=AI=AI·
(16a)
I spielt bei der Matrizenmultiplikation die Rolle der Eins. - Bei nichtquadratischem A von m Zeilen und n Spalten schreiben wir anstelle (16) deutlicher
(16b) wo Im die m-reihige und In die n-reihige Einheitsmatrix bedeutet. Nächst der Diagonalmatrix sind von besonderer Wichtigkeit die untere bzw. obere Dreiecksmatrix der Ordnung n
(16c)
Sind insbesondere die Hauptdiagonalelemente gleich Eins, so heißt die Dreiecksmatrix normiert:
(16d)
Summe, Differenz und Produkt von unteren (oberen) Dreiecksmatrizen führen offensichtlich wiederum auf eine untere (obere) Dreiecksmatrix, wobei die Diagonalelemente djj sich genau so verhalten wie die einer Diagonalmatrix. Von besonderem Interesse sind schließlich die sogenannten strikten Dreiecksmatrizen, das sind solche mit verschwindenden Diagonalelementen
26
2 Das Matrizenprodukt
~o= r~.r~~:::J:] l~
0
0...
(16e)
0
Sie sind ni/potent, siehe dazu später in (20.38). • 2.4 Skalares Produkt, Betrag und Winkel reeller Vektoren
Unter dem skalaren Produkt zweier reeller Vektoren a, b von je n Komponenten bzw. b i versteht man bekanntlich die Zahl
ai
(17)
Liegen nun die beiden Vektoren, wie es die Regel sein wird, in Form zweier Spaltenmatrizen vor, so erfordert die Bildung des skalaren Produktes im Rahmen des Matrizenkalküls eine Umwandlung einer der beiden Spalten, a oder b, in eine Zeile, was durch Transponieren geschieht. Das Produkt schreibt sich also in einer der beiden Formen
a T b = (al . .. an) oder
b'a=(b, ... b.)
[b~.nIJ
D:J
(18a)
=a,b,+o,b,+ ... +a.b•.
(18b)
Offenbar ist also (19)
was übrigens auch aus der allgemeinen Regel (9) über das Transponieren eines Produktes folgt unter Berücksichtigung, daß die Transponierte einer Zahl die Zahl selbst ergibt: (a Tb) T = b Ta. Das skalare Produkt eines reellen Vektors a mit sich selbst T
2
2
2
a a=al+a2+ ... +an
(20)
ist als Summe von Quadraten reeller Zahlen positiv und Null nur dann, wenn a = 0, also gleich dem Nullvektor. Die positiv genommene Quadratwurzel aus aT a heißt (in Verallgemeinerung der Bedeutung dieser Größe im dreidimensiona-
len geometrischen Raum) Euklidische Norm, Betrag oder Länge des Vektors:
lai
= Va Ta =
VaT+a~+ ... +a~ .
(21)
2.4 Skalares Produkt, Betrag und Winkel reeller Vektoren
27
Vektoren der Länge 1 heißen Einsvektoren. Ein Vektor a beliebiger Länge läßt sich durch Division durch seine Norm auf die Länge 1 normieren. Eine in vieler Hinsicht bedeutsame Beziehung ist die sogenannte CauchySchwarzsehe Ungleichung (22) ausführlich: (22a) Unter Verwendung des Betragszeichens (21) nimmt sie die Form an (22b) Zum Beweis bildet man mit zunächst beliebigem reellem Faktor A
la- Abl 2 =
(a- Ab) T(a_ Ab)
=
a Ta- 2Aa Tb+A 2bTb~O
Setzt man hier speziell
so folgt Ungleichung (22). In ihr steht das Gleichheitszeichen genau für a = Ab, also für den Fall, daß die beiden Vektoren einander proportional sind, woraus übrigens mit a T = AbT und Rechtsmultiplikation mit b der oben benutzte spezielle A-Wert folgt. Wegen (22b) läßt sich nun analog der dreidimensionalen Vektorrechnung auch für n-dimensionale reelle Vektoren a, b ein Winkel ffJ zwischen a, b definieren nach (23)
Insbesondere heißen die Vektoren a, b zueinander orthogonal, wenn (24)
Sie heißen zueinander parallel für a = Ab. Beispiel
a T = (3,0,4, -5), T
lai Ibl
=
lGQ
iI18
b =(-3,2,1,2), = aTb= -15, lallbl =30,
COSI)J= -0,5.
1)J=2n/3=120°.
28
2 Das Matrizenprodukt
Auch die in der dreidimensionalen Vektorrechnung anschaulich faßbare sogenannte Dreiecks- Ungleichung
lia+bl;;; lai + Ibl
I
(25)
gilt im n-dimensionalen Vektorraum. Beweis:
la+ bl 2 = (a+b) T(a+b) = a Ta+ 2a Tb+b Tb ;;; Ia 12 +21 a Tb I+ Ib 12 ;;; Ia 12 +21 a I Ib I+ Ib 12 = (I a I+ Ib 1)2
,
wo in der zweiten Zeile die Schwarzsehe Ungleichung (22a) benutzt worden ist. • 2.5 Dyadisches Produkt Außer dem skalaren Produkt zweier Vektoren (Spalten) a, b in der Form a T b, Zeile mal Spalte, gibt es als zweite Möglichkeit multiplikativer Verknüpfung die der Form Spalte mal Zeile, das sogenannte dyadische Produkt ab T, wo die beiden Vektoren jetzt auch von verschiedener Dimension sein dürfen. Sind a = (al' .. am ) T und b = (bI' .. bn ) T zwei Vektoren (Spalten) der Dimension m bzw. n, so ist
(26)
eine mn-Matrix mit den Elementen (27)
also m' n Zahlenprodukten, eine Matrix freilich von besonders einfacher Bauart: Jede Spalte ck von C ist Vielfaches ein und derselben Spalte a, jede Zeile Ci Vielfaches ein und derselben Zeile b T: Ck = bka Ci = ai bT
bei
I C = abT I'
(28)
wie formal aus (28a)
29
2.5 Dyadisches Produkt
folgt. Die Matrix C = ab T ist somit vom kleinsten überhaupt nur möglichen Range (29)
wenn wir vom nur der Nullmatrix zukommenden Range 0 absehen. - Ist m = n, so ist C = ab T quadratisch singulär, und zwar vom höchstmöglichen Rangabfall d = n - 1. Nicht allein die Determinante verschwindet, det C = 0, sondern bereits alle in der Matrix überhaupt enthaltenen zweireihigen Unterdeterminanten: (29a)
Nur die Determinanten erster Ordnung, das sind die Elemente aibk selbst sind nicht durchweg Null (abgesehen vom trivialen Fall a = 0 oder b = 0). Während beim skalaren Produkt a T b = b Ta war, führt hier Vertauschen der Reihenfolge zur transponierten Matrix: (30) Ein Beispiel. Gegeben sind die beiden Spalten a und b. Wir berechnen nach dem Schema der Abb. 2.1 die Dyaden (2
C=ab T =
[-iJ [-:
1 -1) 1
-2
-~J
3 -3
(l -2
C T = baT =
-2 2
und außerdem die Skalarprodukte s wie es nach (11) sein muß.
(a)
3)
[-0 [-: JJ -4
, sp C = -3 ;
, spC T = -3
(b)
= a Tb = b Ta = - 3 nach (19). Es ist s = s T = sp C = sp C T,
Skalares und dyadisches Produkt können auch zur Darstellung eines Matrizenproduktes C = AB herangezogen werden, indem man die Faktoren entweder als Zeilen der Spaltenvektoren oder als Spalten der Zeilenvektoren schreibt. Entweder wir schreiben C=AB=
I] [
[tb
Ib ]
aal···a p :m (bl···bp )= .~ ~.. a a bl a bp
.
(31 )
Das Produkt erscheint hier formal als dyadisches Produkt, also als mp-Matrix, deren Elemente jedoch nicht, wie beim echten dyadischen Produkt Zahlenprodukte, sondern skalare Produkte sind:
30
2 Das Matrizenprodukt
(32)
eine Schreibweise, deren wir uns schon bei Definition der Produktmatrix, Gleichung (4a), bedient haben. - Oder wir schreiben
(33)
Das Produkt erscheint formal als skalares Produkt, dessen Summanden jedoch nicht Zahlenprodukte, sondern dyadische Produkte, also mp-Matrizen vom Range 1 sind. Ein Matrizenprodukt ist also darstellbar als Summe dyadischer Produkte. - Daß auch eine beliebige einzelne Matrix in dieser Form darstellbar ist und auch praktisch in eine Summe dyadischer Produkte zerlegt werden kann, werden wir im II. Kapitel anläßlich der Behandlung linearer Gleichungssysteme zeigen können. • 2.6 Potenzen und Polynome
Durch p-malige Multiplikation einer quadratischen Matrix A mit sich selbst entsteht die p-te Potenz AP mit positivem ganzem p. Hierfür gilt bei positiv ganzen Exponenten p, q: (34)
Wie wir im nächsten Abschnitt sehen werden, gilt dies Gesetz auch für negativ ganze Exponenten, sofern A nichtsingulär ist. Besonders einfach gestaltet sich das Potenzieren von Diagonalmatrizen D = Diag (dj ). Denn hier ist, wie leicht zu übersehen, D 2 wieder diagonal mit den Elementen allgemein bei positiv ganzem p
dr,
I DP = Diag (df) I '
(35)
und das gilt sogar noch für nicht ganze Exponenten, beispielsweise (36)
wo wir unter f;i; die positiv genommenen Quadratwurzeln aus den d j verstehen, die freilich nur im Falle nichtnegativer dj~O noch reell sind. Das Radizieren einer
31
2.7 Gaußsche Transformation
allgemeinen Matrix A erfordert indessen wesentlich umfangreichere Hilfsmittel zur Herleitung und kann erst viel später in Angriff genommen werden. Mit den positiv ganzen Matrizenpotenzen lassen sich nun auch ganze rationale Funktionen einer Matrix, Matrizenpolynome einführen. Ist A n-reihig quadratisch und (36a) ein Polynom m-ten Grades in der skalaren Variablen x mit Zahlenkoeffizienten aj, so ist diesem Polynom das Matrizenpolynom (37)
als neue n-reihige Matrix P
zugeordnet. Offenbar gilt
= p(A)
Satz 7: Polynome PI' P2 derselben Matrix A sind vertauschbar (38)
Wie wir später sehen werden (Abschnitt 19), lassen sich, ausgehend von Polynomen, allgemeine Matrizenfunktionen, wie eA , sin A, cos A einführen. Alle diese Funktionen aber sind auf Polynome reduzierbar; eine Eigenschaft der Matrizen, für die es beim Rechnen mit gewöhnlichen Zahlen keine Parallele gibt. Ein Beispiel. Gegeben ist das Polynom p(x) und die quadratische Matrix A 2
p(x)=x +2x+5,A=
[1-2J 32
(a)
.
Damit wird nach leichter Rechnung
[-5-6J + [2 -4J + [5° 0J __ [2 -10J
P=p(A)=A 2 +2A+5I=.
9
- 2
6
4
5
15
(b)
7
• 2.7 Die Gaußsehe Transformation Als eine Verallgemeinerung des Normquadrates a T a eines reellen Vektors a läßt sich die sogenannte Gaußsche Transformation (39)
einer reellen mn-Matrix A auffassen. Das Ergebnis ist eine n-reihige quadratische Matrix B, Abb. 2.6, und zwar eine symmetrische Matrix:
2 Das Matrizenprodukt
32
n .-----
m
A
m AT
n
ATA
Abb. 2.6. Die Matrix ATA
Die Produktbildung wurde von Gauss in der Ausgleichsrechnung bei Aufstellung der sogenannten Normalgleichungen eingeführt, wie wir im Abschnitt 12.1 zeigen werden. Den Aufbau der Matrix erkennt man folgendermaßen:
Das Element bik der Produktmatrix ist also das skalare Produkt des i-ten mit dem koten Spaltenvektor von A : (40)
Diagonalelemente sind die Normquadrate der Spaltenvektoren und als solche stets positiv (von ai = 0 abgesehen). Deren Summe, also die Spur von A TA oder die Summe aller ark> dient als Quadrat einer Matrixnorm, Euklidische Matrixnorm N(A) genannt:
(41)
worauf wir später in allgemeinerem Zusammenhang zurückkommen werden (Abschnitt 16.5), ebenso wie auch auf die wichtige Eigenschaft positiver Definitheit der Matrix A TA (Abschnitt 11.2). Beispiel:
A=[-3~ 2~J. AA=(13-4). AA =[; ~-:J. -4 14 -4 6 13 T
N(A)
=V27 =3 V3= 5.196 .
T
2.8 Orthogonale Matrizen
33
Im allgemeinen ist (auch bei quadratischem A)
Reelle quadratische Matrizen mit der Besonderheit (42) aber heißen normale Matrizen. Sie zeichnen sich durch bestimmte Eigenschaften, namentlich hinsichtlich der im IV. Kapitel behandelten Eigenwertaufgabe aus und spielen daher eine wichtige Rolle. Symmetrische und schiefsymmetrische Matrizen sind offenbar von dieser Art, ebenso die anschließend eingeführten orthogonalen. Über die komplexe Verallgemeinerung vgl. Abschnitt 4.2. • 2.8 Orthogonale Matrizen Eine bedeutsame Klasse reeller quadratischer Matrizen bilden die orthogonalen, gekennzeichnet dadurch, daß ihre Spaltenvektoren ein System orthogonaler Einheitsvektoren bilden: (43a) mit dem sogenannten Kronecker-Symbol 0ih das die Zahl 0 für i =1= kund 1 für i = k bedeutet, also gleich den Elementen der Einheitsmatrix I ist. Da nun das skalare Produkt der Spaltenvektoren, wie oben gezeigt, gleich dem Element der Matrix A TA ist, Gleichung (40), so besagt Gleichung (43a) (44a) als charakteristische Eigenschaft orthogonaler Matrix A. Eine Orthogonalmatrix ist stets nichtsingulär. Dies folgt aus dem Ansatz linearer Abhängigkeit
durch Multiplikation mit a[ von links her, wobei wegen (43a) dann Ck'l = 0 übrig bleibt, so daß sich alle Ci = 0 ergeben, was Unabhängigkeit der Spaltenvektoren ak bedeutet. Es folgt übrigens auch aus dem oben angeführten Determinantensatz 3, Gleichung (10), angewandt auf Gleichung (44a)
detAT'detA = detl
34
2 Das Matrizenprodukt
oder, da bei einer Determinante bekanntlich Zeilen und Spalten vertauscht werden dürfen, det AT = det A, und die Determinante der Einheitsmatrix ersichtlich gleich 1 ist: (detA)2 = 1
oder
I detA =
±1
I
(45)
als weitere Eigenschaft orthogonaler Matrizen. - Multipliziert man nun Gleichung (44a) von rechts her mit AT, so erhält man unter Benutzen des assoziativen Gesetzes
und da AT nichtsingulär ist, folgt als Ergänzung zu Gleichung (44a) (44b) oder auch (43b) Außer den Spaltenvektoren einer Orthogonalmatrix bilden also auch ihre Zeilenvektoren ein System orthogonaler Einheitsvektoren. Auch die orthogonalen Matrizen fallen zufolge ATA = AA T in die oben angeführte Klasse der (reell) normalen Matrizen. Die Gleichungen (44) bedeuten zugleich, wie sich im nächsten Abschnitt zeigen wird, daß die Transponierte AT einer Orthogonalmatrix A ihre Kehrmatrix bildet. Sind A und B zwei orthogonale Matrizen gleicher Reihenzahl n, so sind auch ihre Produkte AB und BA orthogonal:
= B TATAB = BTIB = BTB = I ,
(45a)
(BA)T(BA) =ATBTBA =ATIA = ATA = I .
(45b)
(AB)T(AB)
Diese wichtige Eigenschaft, daß nämlich die Hintereinanderschaltung orthogonaler Transformationen einer einzigen Orthogonaltransformation gleichkommt, verleiht diesen Operationen (im Verein mit dem assoziativen Gesetz und dem Vorhandensein von Einselement I und inversem Element AT = Kehrmatrix) den allgemeinen algebraischen Charakter der sogenannten Gruppe, worauf hier wenigstens andeutend hingewiesen sei.
35
3.1 Begriff und Herleitung der Kehrmatrix
Eine Orthogonalmatrix A, welche überdies symmetrisch ist, AT = A, gehorcht zufolge Gleichung (44) der Beziehung (46)
Die zweimalige Ausübung einer Lineartransformation mit einer solchen Matrix kommt der identischen Transformation gleich, führt also zum Ausgangssystem zurück. Derartige Matrizen werden involutorisch genannt. Natürlich ist auch die Einheitsmatrix sowohl orthogonal als auch symmetrisch, somit involutorisch. Beispiel. Mit den Abkürzungen cos lfJ
= C und sin lfJ = S ist die Matrix der ebenen Drehung (a)
Dagegen ist die involutorische Matrix von Drehung und Spiegelung
G~J
= I. (b)
3 Die Kehrmatrix (Inverse) • 3.1 Begriff und Herleitung der Kehrmatrix
Vorgelegt sei eine lineare Transformation zweier Größensysteme x und y zu je n Komponenten xi' Yi (zweier n-dimensionaler Vektoren) in der Form (1)
mit gegebener n-reihig quadratischer Koeffizientenmatrix A = (aik), ausführlich also das System der Gleichungen (1 a)
welches zu einem gegebenen Vektor x = (XI' .. Xn)T den transformierten Vektor y = (YI ... Yn)T zu berechnen erlaubt. Gesucht ist nun die Umkehrung der Aufgabe, nämlich ein nach den xi aufgelöster formelmäßiger Zusammenhang zwischen den Form
Xi
und
Yk'
Auch er wird wieder homogen linear sein, d. h. von der
(2)
36
3 Die Kehrmatrix (Inverse)
mit einer wiederum n-reihigen Koeffizientenmatrix von Elementen aik> die es zu bestimmen gilt. Diese Matrix der aik, für die man in sinnfälliger Weise das Zeichen A -1 benutzt, also A -1 = (aik), wird inverse Matrix oder auch Kehrmatrix zu A genannt, und man schreibt für den Zusammenhang (2) kurz 1
1
x=A- y
(2a)
I·
Der ganze Vorgang, also der Übergang vom System Gleichung (1) zum System Gleichung (2a) wird Umkehrung des Gleichungssystems, der Lineartransformation genannt, auch Auflösung in unbestimmter Form, d. h. bei "unbestimmten", nicht zahlenmäßig, sondern buchstabenmäßig vorliegenden "rechten Seiten" Yi' Die Elemente aik heißen wohl auch Einjlußzahlen, weil sie den Einfluß der Größe Yk auf die Unbekannte Xi wiedergeben. Zur Ermittlung der Kehrmatrix A - 1 denken wir sie uns gegeben. Dann folgt die Umkehrung (2a) formal aus (1) nach Linksmultiplikation mit A -1, A -1 Ax = A -1 Y, wenn wir für A -1 die Beziehung (3)
fordern. Gesucht ist also eine Matrix A - 1 derart, daß (3) gilt. Das aber setzt zugleich spaltenreguläre, also nichtsinguläre Matrix A voraus. Denn aus (3a)
folgt nach Multiplikation mit dem i-ten ZeiIenvektor a i von A sichtigen von (3) C(
1= 0 ,
-1
unter Berück-
(3 b)
also Verschwinden sämtlicher ci' was Unabhängigkeit der Spalten ak bedeutet. Notwendige Bedingung für Lösbarkeit unserer Aufgabe ist somit
IdetA I· =1=
0
(4)
Sie erweist sich zugleich als hinreichend. Denn zur Bestimmung von A - 1 gehen wir von n speziellen Gleichungssystemen (1) aus, nämlich
!AXk=ekl, k=1,2, ... ,n
(5)
mit dem k-ten Einheitsvektor ek als rechter Seite. Diese Systeme aber sind bekanntlich genau dann eindeutig lösbar, wenn A nichtsingulär ist. Multiplikation von (5) mit A - 1 ergibt nun mit (3):
3.1 Begriff und Herleitung der Kehrmatrix
37
(5 a)
wo rechts die k-te Spalte ak von A - 1 erscheint. Damit haben wir
I xk = ak
I,
k
= 1,2, ... ,n
,
(6)
also
Satz 1: Die k-te Spalte ak der Kehrmatrix A - 1 ergibt sich als Lösung des Gleichungssystems (5) mit der nichtsingulären Koejfizientenmatrix A und dem k-ten Einheitsvektor ek als rechter Seite. Damit ist unsere Aufgabe praktisch gelöst. Auf ihre numerische Durchführung kommen wir in Abschnitt 6 zurück. Indem wir die n Spalten Xk = ak zur n-reihigen Matrix X, die rechten Seiten ek zur Einheitsmatrix I zusammenfassen, schreiben sich die Gleichungen (5) und (6) als Matrizengleichungen
IAX~I X=A-
1
I, ,
(5b) (6a)
in Worten:
Satz 1 a: Die Kehrmatrix A - 1 zur nichtsingulären Matrix A ergibt sich als Lösungssystem X des Gleichungssystems (5 a) mit Aals Koejjizientenmatrix und der Einheitsmatrix I als n-jacher rechter Seite. Die Gleichungen (5b), (6a) und (3) fassen wir zusammen in (7)
als charakteristischer Eigenschaft der inversen Matrix. Beim Übergang von (1) auf (2a): (1)
(2a) folgt jetzt (2a) aus (1) formal durch Linksmultiplikation mit A -1 unter Beachtung von (7). Die tatsächliche Berechnung des Vektors x der Unbekannten Xi bei zahlenmäßig gegebenem Vektor y geschieht indessen durch Auflösen des linearen Gleichungssystems, etwa nach dem Gaußschen Algorithmus, auf den wir in Abschnitt 6 ausführlich zurückkommen. Demgegenüber würde die explizite Berechnung von A - 1 mit anschließender Multiplikation A - 1Y eine erhebliche Mehr-
38
3 Die Kehrmatrix (Inverse)
arbeit erfordern. Überhaupt wird die Kehrmatrix explizit nur relativ selten benötigt. Ihre Bedeutung liegt in der Möglichkeit formalen Rechnens zur Durchführung theoretischer Überlegungen. Auch die Kehrmatrix ist nichtsingulär, was in ähnlicher Weise wie oben für A jetzt aus AA -I = I gefolgert wird. Aus dem in Abschnitt 2.2, Gleichung (10) zitierten Determinantensatz 3 folgt übrigens für ihre Determinante
Idet A -
1=
1/A
I
(8)
mit A = detA. Es folgen einige einfache Rechenregeln. Durch Transponieren von AA -I = I erhält man (A -I) TAT = I, und da mit A auch AT eine eindeutige Kehrmatrix besitzt, so gilt (9)
Die Kehrmatrix der Transponierten ist einfach gleich der Transponierten der Kehrmatrix. Bei symmetrischer Matrix A ist daher auch A - 1 wieder symmetrisch. Weiter gilt als eine der Formel (9) aus Abschnitt 2.2 analoge Beziehung (10) deren Richtigkeit aus (AB)-I AB= B-1A-1AB = B-1IB= B- 1B= I
(9a)
zu bestätigen ist. Allgemein gilt wieder (10a) Für nichtsinguläre Matrizen lassen sich die Potenzgesetze auch auf negative Exponenten ausdehnen. Man definiert für positives ganzzahliges p A - P = (A - I)P
sowie A 0 = I .
(11)
Dann gilt mit beliebigen (positiven und negativen) ganzen Exponenten p, q (12) Für Diagonalmatrizen D
D- 1 = Diag(1Id;).
= Diag (d;)
mit d; =F 0 ist wieder besonders einfach
3.2 Adjungierte Matrix. Formelmäßiger Ausdruck der
39
aik
• 3.2 Adjungierte Matrix. Formelmäßiger Ausdruck der aik Im folgenden brauchen wir einige einfache Tatsachen und Sätze aus der Determinantenlehre, die dem Leser noch hinreichend bekannt sein werden; andernfalls verweisen wir auf die im Schrifttum aufgeführten Darstellungen sowie die üblichen Lehrbücher für Mathematik. Die zu einem Element aik einer n-reihigen Determinante A = Iaik I gehörige Unterdeterminante ist bekanntlich jene (n - l)-reihige Determinante, die man aus dem Koeffizientenschema nach Streichen der i-ten Zeile und koten Spalte (der Zeile und Spalte des Elementes) gewinnt. Versieht man diese Unterdeterminante noch mit dem Vorzeichenfaktor (_l)i+k, also mit + oder - je nach der Stellung des Elementes im Schachbrettmuster
+ +- + + + + + - +
so wird das Ganze das algebraische Komplement A ik zum Element aik genannt. Jedem Element aik einer quadratischen (regulären oder auch singulären) Matrix A ist damit sein algebraisches Komplement A ik zugeordnet. Die aus diesen Komplementen A ik , jedoch in transponierter Anordnung gebildete neue Matrix wird nun die zu A adjungierte Matrix genannt und mit A adj bezeichnet: A adj = (A ki ) =
[~:;. ~~ ~::J A 1n
A Zn
•••
(13)
A nn
Beispiel. In der Matrix A (a) sind die neun Komplemente (b) enthalten.
2 41 -~J
A= [3
(a)
1 -3
~I
A l1 =
1-:
A 21 = -
I-31 -210
A 31 =
I:
=
=
9 ,
A 12 =
6 ,
An =
-213 = 11
,
-I~ ~I
I: -:1
=
=
3,
A 13 =
I~
2,
A 23 =
_1 3
2 -213 = -13
A 32 = - 13
,
A 33 =
41
-3
= -10,
11 = 1 -3
I~ :1
=
10 ,
10 . (b)
40
3 Die Kehrmatrix (Inverse)
Die adjungierte Matrix ist also nach (13)
A adj =
9 6 IIJ [-103 102 - 1013
.
(c)
Mit den Komplementen lautet nun der sogenannte Entwicklungssatz der Determinantenlehre, nach dem der Determinantenwert A darstellbar ist als Summe der Produkte aus den Elementen einer Zeile oder einer Spalte mit ihren "vorzeichenversehenen" Unterdeterminanten, d. h. mit ihren Komplementen:
A = ail A i1
+ ai2Ai2 + ... +ainAin
A = alkAlk+a2kA2k+ ... +ankAnk
Entwicklung nach der i-ten Zeile , Entwicklung nach der k-ten Spalte .
(14a) (14b)
So ist die Determinante A unseres Beispiels, entwickelt etwa nach der ersten Zeile oder der zweiten Spalte: A
= 3 . 9 + 1. 3 + 2· 10 = 50 = 1. 3 + 4·2 + 3 . 13 = 50
(14c)
Ersetzt man in der Entwicklung Gleichung (14a) die Elemente air der i-ten Zeile durch Elemente ajr einer Parallelzeile (j i), während man die Komplemente Air zur i-ten Zeile beibehält, so ist das Ergebnis gleichbedeutend mit einer Determinante, deren i-te Zeile mit der j-ten Zeile übereinstimmt. Dies aber ist nach einem bekannten Determinantensatz gleich Null. Die entsprechende Überlegung gilt für die Spalten in Gleichung (14b). Man erhält so als Ergänzung zum obigen Entwicklungssatz die Formeln
*
+ aj2Ai2 +
+ajnAin = 0
für
i *j ,
(15a)
al/Alk+a2/A2k+
+an/Ank=0
für
k*l.
(15b)
ajlAit
Die linken Seiten von Gleichungen (14a), (15a) aber stellen ersichtlich das skalare Produkt einer Zeile von A mit einer Spalte von A adj dar, und bei Gleichungen (14b), (15b) ist es das Produkt einer Spalte von A mit einer Zeile von A adj , m.a. W. es handelt sich um Elemente der Matrizenprodukte AA adj und AadjA. Beide Gleichungspaare lassen sich somit zusammenfassen zur Matrizengleichung
AA adj = AadjA =A/=
[~~.~] o
0 ... A
(16)
3.2 Adjungierte Matrix. Formelmäßiger Ausdruck der
41
aik
Im Falle einer singulären Matrix A ergibt dies Null: AA adj = AadjA
=0
für
detA
=A = 0
(16a)
.
Ist aber A nichtsingulär, so läßt sich (16) durch A dividieren, und das besagt dann, daß die durch A dividierte Adjungierte A adj gleich der Kehrmatrix ist:
(17)
womit wir einen formelmäßigen Ausdruck für die Elemente gewonnen haben:
aik
der Kehrmatrix
(18)
Für unser Beispiel ist also:
1 [ 93 62 -13IIJ
A- 1 = 50
-10
10
10
=
0,18 0,12 0,22J 0,06 0,04 - 0,26 . [ - 0,20 0,20 0,20
(d)
Für zweireihige Matrizen schließlich merkt man sich leicht das Ergebnis:
Mit Hilfe der adjungierten Matrix läßt sich sehr einfach jene Formel herleiten, die bei der theoretischen Behandlung linearer Gleichungssysteme im Vordergrund steht, die sogenannte Cramersche Regel, von der wir annehmen dürfen, daß sie dem Leser bekannt ist. Sie stellt die Lösungen Xi formelmäßig als Quotienten zweier Determinanten dar: (20)
wo A die als von 0 verschieden vorausgesetzte Koeffizientendeterminante bedeutet, während die "Zählerdeterminanten" Ai aus A dadurch hervorgehen, daß die i-te Spalte von A ersetzt wird durch die Spalte der rechten Seiten Yj. Diese Vorschrift ergibt sich aus
Ax=y
(21)
42
3 Die Kehrmatrix (Inverse)
durch Linksmultiplikation mit der Adjungierten Matrix A adj unter Beachten von Gleichung (16): Ax=Aadjy,
(22)
was sich aufspaltet in die Gleichungen (23) Hier aber ist der Summenausdruck rechts gerade die oben gekennzeichnete Determinante Ai' aus der er durch Entwickeln nach der i-ten Spalte mit den Elementen Yj hervorgeht. Gleichung (23) besagt: Eliminiert man im Gleichungssystem (21) alle Unbekannten bis auf Xi' so enthält die übrigbleibende Unbekannte den Faktor A = det A, während als rechte Seite die Determinante Ai auftritt. Genau dann, wenn nun unsere Koeffizientenmatrix nichtsingulär ist, A :j:: 0, läßt sich Gleichung (23) für beliebige rechte Seiten Yj' die ja in die rechten Seiten Ai von Gleichung (23) eingehen, auflösen in der Form (20) der Cramerschen Regel. - So wertvoll nun diese Regel als formelmäßiger Ausdruck der Lösungen Xi für theoretische Einsichten ist, so ist sie als Lösungsvorschrift - explizite Berechnung von n + 1 Determinanten A, Al' ... ,An - für umfangreichere Gleichungssysteme doch durchaus ungeeignet. Die praktische Lösung eines Gleichungssystems erfolgt vielmehr stets, wie schon oben angedeutet, durch einen schrittweise und zahlenmäßig durchgeführten Eliminationsprozeß in Gestalt des sogenannten Gaußschen Algorithmus, auf den wir im II. Kapitel ausführlich zurückkommen werden. • 3.3 Matrizendivision Entsprechend dem nichtkommutativen Charakter der Matrizenmultiplikation hat man auch für die inverse Operation, die man als Division bezeichnen kann, zwei Arten zu unterscheiden, nämlich bei den gegebenen Matrizen A und B und gesuchter Matrix X die beiden Aufgaben
IAX~BI ' XA=B .
(24a) (24b)
Beide Aufgaben sind genau dann allgemein und eindeutig lösbar, wenn A nichtsingulär ist, und man findet dann die Lösung X formal durch Multiplizieren der Gleichung mit der Kehrmatrix A -1, im ersten Falle von links her, im zweiten von rechts her: (25a) (25b)
4. t Komplexe Matrizen und Vektoren
43
Die beiden Ergebnisse sind im allgemeinen verschieden, es sei denn, daß A und B vertauschbar sind, AB = BA. Die Matrix A ist als nichtsinguläre Matrix quadratisch, die Matrizen B und X brauchen es nicht zu sein; es muß nur Verkettbarkeit herrschen. Ist A n-reihig, so kann im ersten Fall B vom Format np sein bei beliebigem p, und dann ist es auch X, im zweiten Falle beide vom Format pn. Die tatsächliche Ausführung der "Division", also die Berechnung der Matrizen A - I B und BA - I braucht keineswegs durch eine Multiplikation mit A - I zu erfolgen und wird es in der Regel auch nicht, wenn nicht die Kehrmatrix ohnehin bekannt ist. Vielmehr wird man die Aufgabe (24a) als ein lineares Gleichungssystem mit der Koeffizientenmatrix A und einer p-fachen rechten Seite B = (bI b2 . .. bp ) auffassen. Die Ergebnisse der Auflösung, die p Lösungsvektoren xk' sind dann die Spalten der gesuchten Matrix X = (Xj x2' .. xp )' - Im Falle der Aufgabe Gleichung (24 b) stellt man durch Transponieren um: (24b') löst also ein Gleichungssystem mit der Koeffizientenmatrix A T und den p Spalten von B T , das sind die p Zeilen b i von B, als rechten Seiten, denen dann p Spalten von X T , das sind die p Zeilen xi von X, als Lösungsvektoren entsprechen. Beide Aufgaben lassen sich rechnerisch auch vereinigen. Zur praktischen Durchführung siehe Abschnitt 7.6.
4 Komplexe Matrizen • 4.1 Komplexe Matrizen und Vektoren
Bisher haben wir die Elemente einer Matrix meist stillschweigend, mehrfach aber auch ausdrücklich als reelle Zahlen angesehen. Nun erfährt bekanntlich in der Mathematik der Zahlbegriff erst durch Einführen der komplexen Zahlen seine notwendige Abrundung. Erst mit ihrer Hilfe werden grundlegende mathematische Aufgaben, wie etwa die Auflösung algebraischer Gleichungen ausnahmslos lösbar. Dementsprechend spielen auch komplexe Matrizen, das sind solche mit komplexen Zahlen als Elementen, in Theorie und Anwendung eine wichtige Rolle. Beim Arbeiten mit komplexen Matrizen ergeben sich nun gewisse Besonderheiten, ähnlich wie man dies auch vom Rechnen mit komplexen Zahlen her kennt. Charakteristisch ist dort die Bildung des Betragquadrates einer komplexen Zahl x = u + i v, das hier nicht wie bei den reellen Zahlen durch Quadrieren von x erhalten wird, sondern als Produkt mit der konjugiert komplexen Zahl x = u - i v gemäß (1)
Denn nur diese Bildung ergibt in jedem Falle eine reelle, und zwar eine positive (oder verschwindende) reelle Zahl, wie es vom Betragquadrat zu fordern ist. Diese
44
4 Komplexe Matrizen
Operation, das Produkt mit konjugiert komplexen Gebilden, ist nun auch für das Arbeiten mit komplexen Matrizen und Vektoren kennzeichnend. Betrachten wir zunächst einen komplexen Vektor x mit den Komponenten Xj = Uj + i Vj sowie den konjugiert komplexen Vektor x mit den Komponenten Xj = Uj - i Uj. Beide Vektoren lassen sich wie die Komponenten in Real- und Imaginärteil aufspalten:
x=u+iv,
(1 a)
x=u-iv
(1 b)
mit den reellen Vektoren u, v der reellen Komponenten Uj und Uj. Das Betragquadrat des komplexen Vektors, das Quadrat seiner Norm gewinnt man analog zu Gleichung (1) als das skalare Produkt des Vektors x mit seinem konjugierten Vektor x nach (2)
ausführlich: (2')
Nur so wird die Norm, wie es sein soll, abgesehen vom Nullvektor eine reelle (positive) Zahl, so daß insbesondere auch eine Normierung auf 1 stets möglich ist, indem ein beliebiger Vektor durch seinen Betrag dividiert wird. Für den hier und auch sonst auftretenden konjugiert transponierten Vektor x T hat sich die Schreibweise x* eingebürgert: (3)
Damit schreibt sich das Normquadrat zu 1x 1 2 = X * x. Es ist naheliegend, als skalares Produkt zweier n-dimensionaler komplexer Vektoren x und y nicht, wie im Reellen, den Ausdruck x T y, sondern einen der Ausdrücke x* y oder y* x zu definieren. Zwei komplexe Vektoren, deren skalares Produkt verschwindet, (4)
werden zueinander unitär genannt; das ist die komplexe Verallgemeinerung der Orthogonalität, es ist eine konjugierte Orthogonalität. Im Reellen, aber auch nur dort, fallen die beiden Begriffe unitär und orthogonal zusammen. Die komplexe Verallgemeinerung orthogonaler Einheitsvektoren, das ist ein System komplexer, auf 1 normierter, unitärer Vektoren Xj' für die also die Beziehung
4.2 Sonderformen komplexer Matrizen
45
(5)
mit dem Kronecker-Symbol ik besteht, heißt ein unitäres Vektorsystem. So wie ein Vektor läßt sich auch eine komplexe Matrix A mit den Elementen ajk = bjk + i Cjk nebst ihrer konjugierten Matrix Ä mit den Elementen äjk = bjk - i Cjk in Real- und Imaginärteil aufteilen gemäß A =B+iC ,
(5a)
Ä =B-iC
(Sb)
mit den reellen Matrizen B = (bjk ) und C = (Cjk). Auch hier erweist sich das Operieren mit der konjugiert transponierten Matrix (6)
in vieler Hinsicht als sachgemäß. Dies gilt insbesondere für die im folgenden aufgeführten • 4.2 Sonderformen komplexer Matrizen
Sollen nämlich die charakteristischen Eigenschaften der wichtigsten Sonderformen reeller Matrizen, so vor allem der symmetrischen, der schiefsymmetrischen und der orthogonalen, im Komplexen erhalten bleiben, so darf man die im Reellen gültigen Definitionen nicht wörtlich übertragen, sondern muß sie sinngemäß abwandeln, und zwar, ähnlich wie bei den Vektoren, im wesentlichen derart, daß an die Stelle der transponierten Matrix die konjugiert transponierte tritt. An die SteIle der gewöhnlichen Orthogonalität tritt dann die konjugierte, d. h. also die Unitarität, an die Stelle der Symmetrie bzw. Schiefsymmetrie eine konjugierte, für die man gleichfalls besondere Bezeichnungen eingeführt hat: Man spricht hier von hermiteschen bzw. schiejhermiteschen Matrizen (nach CharIes Hermite 1822-1901). Eine hermitesche Matrix als komplexe Verallgemeinerung der reell symmetrischen ist definiert durch die Eigenschaft (7)
was mit A = B + i C zerfällt in
IB T ~ B I symmeMsch" Realteil , CT =
-
C
schiejsymmetrischer Imaginärteil .
(8a) (8b)
46
4 Komplexe Matrizen
Die Diagonalelemente sind somit reell, aii = b ii . Im Reellen fällt hermitesch mit Symmetrie zusammen, im rein Imaginären aber mit Schiefsymmetrie. Eine komplexe (weder reelle noch rein imaginäre) symmetrische Matrix ist durch keine besonderen Eigenschaften ausgezeichnet und daher meist ohne Interesse. Eine schiejhermitesche Matrix als komplexe Verallgemeinerung der reell schiefsymmetrischen ist definiert durch (9)
was wieder zerfällt in
I
T
~
8 -8 CT = C
I
schiejsymmetrischer Realteil , symmetrischer Imaginärteil .
(lOa) (lOb)
Die Diagonalelemente sind hier rein imaginär, ajj = iCjj. Im Reellen fällt schiefhermitesch mit Schiefsymmetrie zusammen, im rein Imaginären aber mit Symmetrie. Eine komplexe (weder reelle noch rein imaginäre) schiefsymmetrische Matrix ist wieder durch keine besonderen Eigenschaften ausgezeichnet und daher wiederum ohne Interesse. Eine unitäre Matrix ist als komplexe Verallgemeinerung der reell orthogonalen dadurch ausgezeichnet, daß ihre Spaltenvektoren ein unitäres Vektorensystem bilden: (11)
was zusammen mit der daraus folgenden entsprechenden Eigenschaft der Zeilenvektoren die Definitionsgleichung ergibt
IA*A =AA* =1 I
(12)
oder auch (13)
Aus Gleichung (12) folgt die Determinantenbeziehung
detÄT'detA
= (detA)'detA = IdetA 1 2 =
1 ,
I ldetAI 1 I· =
Im Reellen fällt unitär mit orthogonal zusammen.
(14)
47
4.2 Sonderformen komplexer Matrizen
Alle drei Sonderformen sind Sonderfälle einer allgemeineren Klasse, der sogenannten normalen Matrizen, definiert durch die Eigenschaft (15)
Eine Matrix, die sowohl hermitesch als auch unitär (oder sowohl symmetrisch als auch orthogonal) ist, A * = A und A * A = I, hat die Eigenschaft (16a) und wird involutorisch genannt (in der Geometrie heißt eine Abbildung, deren zweimalige Anwendung in das Ausgangsbild, also die "identische" Abbildung zurückführt, involutorisch oder eine Involution). - Eine Matrix, die sowohl schiefhermitesch als auch unitär (oder sowohl schiefsymmetrisch als auch orthogonal) ist, hat die Eigenschaft (16b) und wird halbinvolutorisch genannt. Die eigentümliche Zusammengehörigkeit je dreier Eigenschaften der hier betrachteten Matrizen lassen sich an einer Eigenscha/tmatrix nach Art der Abb. 4.1 ablesen: Je drei links vor einer Zeile, am Kopf einer Spalte und im Schnitt von Zeile und Spalte aufgeführte Eigenschaften gehören zusammen, wobei wir uns folgender Abkürzungen bedient haben: S = symmetrisch H = hermitesch I v = involutorisch o = orthogonal Re = reell
S' = H' = I v' = U= Im =
schiefsymmetrisch schiefhermitesch halbinvolutorisch unitär rein imaginär.
0
U
Iv Iv Iv' Iv'
0
Iv
U
-
Iv' Iv
Iv'
•
Re
Re
•
Abb.4.1. Eigenschaftsmatrix spezieller Matrizen
48
4 Komplexe Matrizen
Zum Beispiel besagt das Schema: Eine Matrix, die symmetrisch und reell ist, ist auch hermitesch. Eine Matrix, die symmetrisch und orthogonal ist, ist involutorisch. Eine unitäre symmetrische Matrix hat keine besonderen Eigenschaften. Eine zugleich symmetrisch und schiefsymmetrische Matrix gibt es nicht, von der Nullmatrix abgesehen. Jede quadratische Matrix A läßt sich wie unter Abschnitt 1.4, Gleichungen (19), (20) aufspalten in einen hermiteschen und einen schiefhermiteschen Anteil H undK:
A=H+K
(17)
H = +(A + A *) hermitesch,
(18)
mit
K
=
+(A - A *)
schiefhermitesch
(19)
Beispiele a) Hermitesche Matrix
H= [b ll
b l2 - ic l2
b12 +iC12J
(20)
b 22
b) Schiefhermitesche Matrix
iC
K= [iCll, b12.+ 12J -b 12 +IC I2 IC22
(21)
d) Unitäre Matrix
A =
[,c~s lfJ
IsmlfJ
i sin 1fJ] cos lfJ
(22)
c) Involutorische Matrizen
A=
cos lfJ sin 1fJ) [ sin lfJ -cos lfJ
B= ( •
-,c~s lfJ
i sin 1fJ]
-I
COSIfJ
sm lfJ
(23)
A ist symmetrisch orthogonal, B hermitesch unitär.
4.3 Reelle Darstellung komplexer Matrizen Oft ist es zweckmäßig oder erforderlich, komplexe Vektoren und Matrizen in reeller Form darzustellen, was auf einfache Weise möglich ist. Zunächst halten wir fest: zwei komplexe Zahlen/Vektoren/Matrizen sind nur dann einander· gleich, wenn sie in Real- und Imaginärteil übereinstimmen. Betrachten wir daraufhin das Matrizenprodukt n
AX= y.
,
cf8 x
m
P
A
Y
(24)
4.4 Inverse, Adjungierte und Determinante einer hermiteschen Matrix
49
mit
A=A j +iA 2 X=X j +iX2 Y= Y t +iY2
(25) (26) (27)
, ,
.
Die Gleichung (24) geht damit über in (28)
Wird dies ausmultipliziert und setzen wir nach dem oben Gesagten Real- und Imaginärteil auf beiden Seiten einander gleich, so entstehen die beiden reellen Gleichungen
AtXt -A 2 X 2 = Y t ,
(29)
A t X 2 +A 2 X j
(30)
=
Y2
,
oder zusammengefaßt zu (31)
kurz (32)
und dies ist die reelle Ersatzgleichung für (24), wo nun allerdings das Format der Matrizen sich vergrößert hat. • 4.4 Inverse, Adjungierte und Determinante einer hermiteschen Matrix Nennen wir die Inverse einer regulären hermiteschen Matrix A vorübergehend K, dann gilt
AK=I,
(33)
und daraus folgt durch Transposition und gleichzeitigen Übergang zum konjugiert Komplexen nach (6) mit A * = A und 1* = I
(AK)* =K*A* =K*A =1* =1
-+
K*A =1 .
(34)
Nun sind zwei zueinander inverse (reziproke) Matrizen nach (3.7) miteinander vertauschbar , es ist also
AK* =1 .
(35)
50
4 Komplexe Matrizen
Bilden wir die Differenz der beiden Gleichungen (33) und (35) A(K-K*) = 0
(36)
und multiplizieren dies von links mit A K - K* = 0
1,
so wird (37)
K* = K .
-+
Damit haben wir als komplexe Verallgemeinerung von (9) den
Satz 1: Die Inverse einer regulären hermiteschen Matrix ist hermitesch. Ein einfaches Beispiel.
A=
[~ ~ -~ =:] i i
0
0 0
A
0 0
-1
=
=
(A - 1)*.
Probe A A - I = I .
Als nächstes diskutieren wir die Adjungierte einer hermiteschen Matrix. Aufgrund des Bildungsgesetzes (3.13) der adjungierten Matrix ist leicht zu erkennen, daß die Adjungierte einer hermiteschen Matrix ihrerseits hermitesch ist A
*= A
-+
(38)
(A ad})* = A ad}
Beispiel: Es sei A =
[34+i 4-iJ
(a)
5
Die vier Komplemente A jk sind hier die Skalare (b)
und damit erhalten wir
A [All A2] adj
=
=
A l2 A 2
[5-4-i -4+iJ. 3
(c)
Nun zur Determinante. Es ist nach (3.17) mit det A = LI A ad} -LlA-l -
' aA* d } -Ll*(A-
1)*
.
(39)
Ziehen wir die linken und rechten Seiten voneinander ab, so wird (40)
und daraus folgt nach (38) und nach Satz 1 0= (LI- LI *)A -I
.
(41)
4.4 Inverse, Adjungierte und Determinante einer hermiteschen Matrix
51
Da A - 1 nicht gleich der Nullmatrix sein kann, muß der in Klammern stehende skalare Faktor verschwinden, somit gilt wegen .1 * = .1 T = .1 (ein Skalar ist gegenüber Transposition invariant)
.1=.1.
(42)
Damit haben wir den Satz 2: Die Determinante einer hermiteschen Matrix ist reell. Wir setzen unser Beispiel fort. Nach (3.16) ist A A adj = Lll, hier also nach leichter Rechnung AadJA = [-:
-:J
= - 2
G~J
= - 2l ,
(a)
somit ist LI = - 2 reell, wie es sein muß. Wir bestätigen das Ergebnis durch direktes Ausmultiplizieren detA=det
3 4-iJ =3·5-(4-i)·(4+i)=15-17= -2. [ 4+i 5
(b)
II. Kapitel
Transformationen und lineare Gleichungen
Lineare Transformationen spielen nicht nur in den Anwendungen eine bedeutsame Rolle, sondern sind auch grundlegend für den weiteren Ausbau des Matrizenkalküls, insbesondere im Hinblick auf gewisse Normaljormen; das sind solche Matrizen, die eine maximale Anzahl von Nullen neben einer minimalen Anzahl von signifikanten Elementen enthalten. Man unterscheidet freie und gebundene Transformationen. Die ersteren beziehen sich auf eine Matrix A allein und ermöglichen unter anderem das Auflösen linearer Gleichungen (Abschnitt 7), während die im Abschnitt 10 besprochenen gebundenen Transformationen simultan auf zwei Matrizen A und B, oder, wie man auch sagt, auf ein Matrizenpaar A; B angewendet werden. Diese bilden die Grundlage für das im IV. Kapitel behandelte Eigenwertproblem. Eine zentrale Stellung in Theorie und Praxis der Transformationen nimmt der Gaußschen Algorithmus mit seinen Modifikationen von Jordan, sowie Banachiewicz bzw. Cholesky ein; diese bilden den Inhalt von Abschnitt 6. Einige Ausführungen von mehr theoretischem Interesse, nämlich Fragen über lineare Abhängigkeit und Rang einer Matrix (Abschnitt 9) und ein Exkurs über Orthogonalsysteme (Abschnitt 10) beschließen das Kapitel.
5 Freie Transformationen • 5.1 Ein- und beidseitige Transformationen Gegeben sei eine im allgemeinen rechteckige Matrix A der Höhe m und der Breite n. Es sei L (wie links, left) eine quadratische Matrix der Ordnung m, die wir wie in (1.7) zeilenweise aufschreiben
J
(1)
Die Produktbildung L
LA=A
(2)
heißt dann eine linksseitige Transformation. Dies ist nichts anderes als eine Linearkombination der Zeilen von A, denn es wird nach (1) R. Zurmühl, S. Falk, Matrizen und ihre Anwendungen 1, Klassiker der Technik, DOI 10.1007/978-3-642-17543-5_2, © Springer-Verlag Berlin Heidelberg 2011
5.1 Ein- und beidseitige Transformationen
53
(3)
wo also die einzelnen Elemente der transformierten Matrix als die in (2.4a) erklärten Skalarprodukte erscheinen:
[J:
1,2, k - 1,2,
,m}
(4)
,n
Analog dazu transformieren wir nun die Spalten von A. Es sei R (wie rechts, right) eine quadratische Matrix der Ordnung n, aufgelöst in ihre n Spalten (5)
dann bewirkt die Multiplikation der Matrix A von rechts mit Reine Linearkombination der Spalten von A
~ ~AR ~
(Ar,
Ar, ... Ar,)
~ r:;~:?:?:J lamYt
(6)
amY2 ... amYn
und hier sind die Elemente der transformierten Matrix die Skalarprodukte
J: 1,2, [ k-1,2,
m} .
, ,n
(7)
In beiden Fällen stimmt das Format der transformierten Matrix mit dem Format der Originalmatrix überein, wie das nachfolgende Schema zeigt: n
~
m~m
n
(a)
~
m~m.
(b)
(8)
Wir führen nun beide Transformationen (gleichgültig in welcher Reihenfolge) nacheinander aus
(9)
54
5 Freie Transformationen
Eine solche beidseitige Transformation wird als Äquivalenztransjormation bezeichnet. Zur numerischen Durchführung gehen wir entweder nach dem Schema der Abb. 2.2 vor, beginnend mit der Matrix R (lOa), oder nach dem Schema der Abb. 2.3, beginnend mit der Matrix L (lOb),
R A
-
AR
A
R
LA
LAR
(b) .
(a)
I
L
LAR
I
L
(10)
Auch jetzt haben, ebenso wie bei einer einseitigen Transformation, die Originalmatrix A und die Transformierte Ä dasselbe Format. Die Multiplikation der Gleichung (9) von links mit dem liegenden Einheitsvektor ei und von rechts mit dem stehenden Einheitsvektor ek ergibt (11)
Hier steht auf der linken Seite die Zeile ei L = /J bzw. die Spalte Rek = rk und auf der rechten Seite das Element aJk der transformierten Matrix A; es ist somit j : 1,2, [ k - 1,2,
m] .
, ,n
(12)
Solche sowohl in /J wie in rk linearen Skalare heißen Bilinearjormen. Die transformierte Matrix wird damit, wenn wir die m'n Gleichungen (12) explizit aufschreiben,
(13)
Schließlich halten wir noch fest, daß die einseitigen Transformationen auch als Sonderfall der Äquivalenztransformation aufgefaßt werden können, denn es ist ja
LA In
= LA,
ImA R
= AR.
(14)
Hier wurde also einmal R = In und ein andermal L = Im gesetzt, und in der Tat gehen damit die Bilinearformen (12) in die Skalarprodukte (4) bzw. (7) über. Ja, wir können sogar noch spezieller L = Im und R = In gleichzeitig setzen, das gibt die sogenannte triviale Transformation (die in Wahrheit gar keine ist)
5.1 Ein- und beidseitige Transformationen
55
ImA In = A. Nun sind die Zeilen von Im die Einheitsvektoren ~ und die Spalten von In die Einheitsvektoren ek; somit geht (12) über in die Selbstdarstellung
[J:
,m) ,
1,2, k-1,2,
(15)
,n
die uns für rein theoretische Formulierungen noch nützliche Dienste leisten wird. Es folgt ein Beispiel zur Äquivalenztransformation mit m = 3 und n = 2:
A = [-
~ 2~1
7;J
,
L=
[~ ~ ~l , R -
2-2 I)
=
(20 5J1
(a)
Wir rechnen nach dem Schema (IOa) von oben nach unten
J
5 1
A
L
[-!
[!
1 -3 -2
21]
oIJ 1
[-~14
15 -5+2iJ 40
[12 35+2i J 18 45-6i 30 80-4i
R AR
LAR=A
(b)
und zur Kontrolle nach dem Schema (lOb) von links nach rechts
A
[-!
21J
[~
J
5 1
1 35+2iJ IJ [ 69 5+2] [2 -3 o -6i 18 45-6i L[! -2 1 15 5-4i 30 80-4i
R
(c)
LAR=A
Schließlich ermitteln wir noch eine Bilinearform (12), etwa das Element ä22 = PAr2
(d) [2(2 - 3 0) ( 9 - 6i)
(45-6i) = ä 22
,
vergleiche dazu das Element ä22 in der Matrix b) bzw. c).
Zu diesem Beispiel ist nicht uninteressant zu bemerken, daß die Matrix L singulär ist, doch wird der Mechanismus der Transformation davon in keiner Weise berührt.
56
5 Freie Transformationen
• 5.2 Reguläre Transformationen Wir setzen ab jetzt voraus, daß die beiden quadratischen Transformationsmatrizen L und R regulär seien; nach Abschnitt 1.6 sind dann ihre Determinanten von Null verschieden
Idet L * 0,
det R
* 0 I·
(16)
Neben der schon in (9) betrachteten, jetzt aber ausdrücklich als regulär vorausgesetzten
Äquivalenztransjormation LA R = Ä
(17)
ist noch ein Sonderfall von größter Wichtigkeit. Es sei A quadratisch, m = n, dann sind auch L und R und damit auch die transformierte Matrix von der gleichen Ordnung n. Wir setzen jetzt (18)
(im Reellen somit L = R T ~ R = L T), dann geht die Äquivalenztransformation (17) über in die
Kongruenztransjormation LA L * =
A
(19)
Sie wird mit Vorteil besonders dann angewendet, wenn A hermitesch ist, denn dann ist auch die Transformierte A ihrerseits hermitesch, wie leicht einzusehen. Nach der aufs Komplexe übertragenen Transpositionsregel (2.9a) wird nämlich A*
= (LAL*)* = L** A * L* = A ,
wo wir L ** = L und A Beispiel: n = 2.
[32-i G-:J e+i 5-i A
L
(20)
* = A eingesetzt haben.
2+i0 J (-~ 4+2] 2+i (:-3i
J ~+3iJ
L* =L T
LAL T =..4
; ..4=..4* .
(a)
• 5.3 Die drei Grundoperationen Wir lernen jetzt drei spezielle, als Grundoperationen bezeichnete Transformationen kennen, aus denen sich, wie wir noch sehen werden, jede reguläre Transfor-
57
5.3 Die drei Grundoperationen
mation einer rechteckigen oder quadratischen Matrix multiplikativ zusammensetzt. Um die Wirkung dieser Operationen zu erkennen, ordnen wir bei Zeilenoperationen die Einheitsmatrix links von A und bei Spaltenoperationen die Einheitsmatrix unterhalb von A an und führen die Operationen an den so entstehenden Doppelmatrizen gemeinsam aus.
Im
In
Grundoperation Ia. Umordnen der Zeilen von A. n
m
n
m
(21)
Grundoperation Ib. Umordnen der Spalten von A.
m~~mR
(22)
nQnG Aus Im entsteht eine Permutationsmatrix Pzder Ordnung m, aus In eine Permuta-
tionsmatrix Ps der Ordnung n. Jede Zeile und jede Spalte enthält außer Nullen genau ein Element 1, aber eben nicht in der regelmäßigen Diagonalanordnung der Einheitsmatrix I, aus der P hervorgegangen ist. Schreibt man unter jede Spalte der Matrix P die Nummer Zj jener Zeile, in welcher das Element 1 steht, so hat man in der so entstehenden Indexliste eine Kurzdarstellung der Permutationsmatrix. So bedeutet die Liste [1 2... n] die n-reihige Einheitsmatrix, dagegen die Liste [n n -1 ... 1] die gespiegelte Einheitsmatrix, in welcher die Einsen in der von links unten nach rechts oben verlaufenden Diagonalen stehen. Darüber hinaus legt die Indexliste das Vorzeichen der Determinante von P fest, die nach dem Entwicklungssatz nur einen der beiden Werte + 1 oder -1 annehmen kann, und diesen Wert findet man folgendermaßen. Stehen links von Zj Zahlen, die größer als Zj sind, so heißt deren Anzahl die Kennmarke aj; auf diese Weise entsteht die Doppelzeile Zeilenindex
Zj
Kennmarke
aj
I Zt
aj
Z2
Z3
zn
a2
a3
an
Damit ist die Determinante
detPn = (_l)v mit v = Dazu ein Beispiel mit n = 5.
Ps
=
[;
1 0 0 0 0
0 0 0 1 0
0 0 0 0 1
1J
4 5 3 002
(23)
n
L aj
j=l
(24)
58
5 Freie Transformationen
Die Inverse einer Permutationsmatrix ist gleich ihrer Transponierten, wie durch Nachrechnen leicht zu bestätigen, p-l=pT.
(25)
Einfachster Sonderfall einer Permutation ist das Vertauschen zweier Zeilen oder Spalten, dafür gilt stets det P = - 1.
Grundoperation Ha. Multiplikation der Zeilen von A mit nichtverschwindenden Skalaren aj,az, . .. ,am (worauf die Pfeile hinweisen)
:: : [~~.. ~l [.. : : :~.' :~J 0 0... 1J
am
amz· , .
amI
-+
[~I ~~ ••
o
•••.••••
0 ...
=>
amn
~.J
(26)
am
Aus Im wird somit die Diagonalmatrix (1.21) mit den mEIernenten
aj
(27)
Grundoperation IIb. Multiplikation der Spalten von A mit nichtverschwindenden Skalaren ßt,ß2, ... ,Pn-
ßI ~
.'
ßz··· ~
ßn ~
[ ~~~ ~ ,~ ~~~J aml
amz'"
amn
=>
(28)
[ .~ ~ ~.J [. ßoI %~.. ~ .. J o
0...
1
0
0...
ßn
Aus In wird somit die Diagonalmatrix D R = Diag .
(29)
Beide Operationen und ihre Auswirkungen haben wir in anderer Bezeichnung bereits in (2.15a) und (2.15b) kennengelernt, wenn auch nicht in diesem Zusammenhang.
59
5.3 Die drei Grundoperationen
Die Determinante einer Diagonalmatrix
D
=
Diag (d 1t d 22 ··· d nn >
(30)
ist nach dem Entwicklungssatz gleich dem Produkt ihrer Hauptdiagonalelemente
detD = d ll 'd22 '" d nn ,
(31)
und da die Faktoren aj und ßk ausdrücklich als von Null verschieden vorausgesetzt wurden, gilt (32)
Die Inverse einer regulären Diagonalmatrix ist die Diagonalmatrix ihrer Kehrwerte (33)
denn es ist offenbar
Grundoperation lIla. Linearkombination der Zeilen von A. Eine frei wählbare Zeile der Nummer IJ., die sogenannte Pivotzeile, bleibt ungeändert. Die mit Faktoren qjlJ multiplizierte Pivotzeile wird zu den übrigen m - 1 Zeilen addiert; mit den Zeilen aJ von A geschrieben ergibt dies qllJ
(Q~
( ...
qmll
1 0 .. . 0 .. . 0: 0 1 .. . 0 .. . 0: I ............. . I 0 0 .. . 1 . .. 0:
1 a 2 a
.. . a ll
............. . .. . I I
0 0 .. . 0 . .. 1 : a m
1 0 ... ql. . .. 0 a 1 +q llJ alJ 0 1 .. . qz. . .. 0 a 2 +qzlJ alJ
"'*
................ ......... . . .. 0 a lJ ............... . .......... 0 0 .. . qm. ... 0 am+q mlJ a lJ
0 0 . ..
(35)
Bei dieser Operation ist die Einheitsmatrix Im in den sogenannten Spaltenelevator übergegangen, den wir mit EIJ bezeichnen wollen. Er besitzt nur eine signifikante Spalte, sonst aber die Einheitsvektoren el bis em mit Ausnahme von elJ' an dessen Stelle die Spalte
Position f1
(36)
60
5 Freie Transformationen
steht, neben welcher wir noch die restringierte Spalte
o
(37)
Position JJ
einführen, die anstelle der Eins eine Null enthält. Mit Hilfe der Dyade
ql/J q2/J q/Je/J
=
0 qm/J
(0 0 0 0 0 0
0) 0 0
al/J q2/J
.................. 0 0 .. . 0 ... 0 ................. . 0 0 ... qm/J . .. 0
(38)
läßt sich der Spaltenelevator aus (35) dann folgendermaßen schreiben (39)
womit sich die Operation (35) als Linearkombination der Zeilen von A kürzer so formulieren läßt (40)
Multiplikation dieser Gleichung von links mit ei und von rechts mit ek ergibt nach (12) das Element in der Zeilej und der Spalte k der transformierten Matrix Ä als die Bilinearform (41)
und das ist zufolge
ei A ek = ajk nach (15),
ferner
ei q/J =
qj/J
und
a/J ek
=
a/Jk
(42)
Ist
a/Jk
= 0, so bleibt das Element
ajk
unverändert. Ist aber
a/Jk
"* 0, so folgt (43)
61
5.3 Die drei Grundoperationen
und dadurch ist qjp festgelegt, wenn man das Element iijk der transformierten Matrix Ä vorschreibt. Das Element apk wird als Pivotelement oder kurz als Pivot bezeichnet Oe pivot = Angelpunkt, im Sinne der Mathematik Leitelement).
Grundoperation IIIb. Linearkombination der Spalten von A. Eine frei wählbare Spalte der Nummer v, die Pivotspalte, bleibt ungeändert. Die mit Faktoren Pvk multiplizierte-Pivotspalte wird zu den übrigen n - 1 Spalten hinzuaddiert, damit ergibt sich analog zu (35) die folgende Operation
~~
PvJ Pv2 ... 1 ... Pvn
1
o
100 o 1 ... 0 ...
0 0
o
o
0
0
Pvl
P v2
o
0
o
o
...
1 ...
o
o o
1
o o
... 1 ... P vn
o
Die Einheitsmatrix In ist durch diese Operation übergegangen in den Zeilenelevator t v ' Dieser besitzt die signifikante Zeile der Nummer
P v = (Pvl Pv2 ... 1 ... Pvn) .
(45)
Mit der restringierten Zeile
pv = P v_ e v = (Pvl
Pv2 ... 0 ... Pvn)
(46)
schreibt sich dann analog zu (39) der Zeilenelevator als 1 (47)
und daraus folgt auf ähnliche Weise wie in (40) bis (42) die transformierte Matrix (48) mit den Elementen (49) (48) (49) und weiter, sofern das Pivot ajv als von Null verschieden vorausgesetzt wird, Da das große griechische Epsilon dem E Antiqua zum Verwechseln ähnlich ist, benutzen wir ausnahmsweise einen kleinen Buchstaben für eine Matrix.
62
5 Freie Transformationen
(50)
Kommen wir schließlich zur Determinante und zur Inversen der beiden Elevatoren. Wie durch Entwickeln nach der signifikanten Spalte bzw. Zeile leicht zu sehen, gilt det EIJ
=
1,
det e v = 1 ,
(51)
und die Inversen sind (52)
denn es ist (53)
zufolge
qlJlJ =
0, und analog verläuft der Beweis für die Inverse von e v •
Beispiel. Die Inversionsformel (52) ist zu bestätigen für n = 3 und v = 2 -qlz 1
-q3z
0 1
0
~J ~J
13 .
Schließlich vereinbaren wir noch die folgende Kurzschreibweise für die Multiplikation mit einem Elevator, bei welcher allein die signifikante Spalte bzw. Zeile aufgeschrieben wird: Spaltenelevator E,A:
[;0,
Zeilenelevator A,':
I;,I'
(54)
wobei die signifikanten Einsen an der Stelle f.lf.l bzw. vv durch Kursivdruck hervorgehoben werden. Beispiel. Spaltenelevator EzA = Ä mit
A
=
[310J0 , = [10[]3100J ~ 1
-2
Ez
0
4 1
Die vollständige Durchführung als Matrizenmultiplikation steht in b), die Kurzfassung in c)
(a)
5.4 Das Generalschema einer Äquivalenztransformation
3 2 i
10 0 A -2
3 10 -1 2 0 4 i -2
(b)
1 -3 0 0 1 0 0 4 1
63
=>
- 3 10 2 0 8+i-2
(c)
-3 2
10 0 8+i -2
• 5.4 Das Generalschema einer Äquivalenztransformation Wir kommen nun zur praktischen Durchführung einer Äquivalenztransformation. Hier unterscheidet man die explizite und implizite Vorgehensweise. Wir schildern zunächst die explizite, die im sogenannen Genera/schema durchgeführt wird, worunter wir folgendes verstehen. Man ordnet links neben A die Einheitsmatrix Im und unterhalb von A die Einheitsmatrix In an und füllt das untere linke Feld durch Nullen auf. Auf diese Weise entsteht eine quadratische reguläre Oberoder Hypermatrix U der Ordnung m + n, an welcher alle Zeilen- und Spaltenoperationen durchgeführt werden, m
n
[ffiJ m
o
n
Ä
m
R
n
-
=U,
(55)
ein Vorgang, der sich beliebig oft wiederholen läßt. Im akuten Stadium der Rechnung stehen in 0 stets die beiden Transformationsmatrizen L und R zusammen mitÄ, und immer gilt LAR = Ä. Beim Tischrechnen wird man die Nullmatrix unten links fortlassen, da sie während der Transformation unverändert bleibt, doch ist es für programmierbare Computer bequem, die gesamte Hypermatrix U mitzuführen. Erstes Beispiel. An einer Matrix A sind einige Grundoperationen im Generalschema durchzuführen (a)
1. Ha. Die Zeilen von A sind mit den Skalaren al = 3, a2 = -1 und a3 = 2 zu multiplizieren. 2. III a. Pivotzeile ist die dritte Zeile, q13 = - 3, q23 = 2. Es ist somit die mit 2 multiplizierte dritte Zeile zur zweiten und die mit - 3 multiplizierte dritte Zeile zur ersten Zeile zu addieren, wobei die Reihenfolge beliebig ist. Man achte auf die kursiv gesetzte 1 im Spaltenelevator. 3. Ib. Die beiden Spalten der aktuellen Matrix sind zu vertauschen. 4. IIIb. Pivotspalte ist die erste Spalte. Es ist P12 = 2. Die mit 2 multiplizierte erste Spalte ist zur zweiten zu addieren. 5. lIla. Pivotzeile ist die zweite Zeile, q12 = 0, q'3 = -1. Die mit -1 multiplizierte zweite Zeile ist zur dritten zu addieren.
64
5 Freie Transformationen
Das folgende Schema zeigt die numerische Durchführung dieser fünf Grundoperationen.
3· 1 0 -I' 0 1 2· 0 0 13
=>
A
1.
0 0 1
2 0 1 -3 0 1
h
1 0
2.
-3 3 0 2 0 -1 1 0 0
6 -1 0
0 3 2
1 0
0 1
0 1
4.
3 o -6 0 -1 4 0 0 2
0 0 2
3.
3 o -6 0 -1 4 0 0 2
1 0
6
7 -1
2
0
0 1
1 0
1
2
0 3 o -6 1 0 -1 4 -1 0 0 2
=>
(b)
0 1
Ergebnis
5.
-6
6 -6 -1 7 0 2
-6 -6 7 13 2 4 0 1
1 2
3 0 -6 0 -1 4 0 1 -2 L
R
-6 -6 7 13 LAR=A. -5 -9 0 1
1 2
Zur Kontrolle rechne man explizit LAR == Ä. Nachdem wir uns mit dem Mechanismus der Transformation vertraut gemacht haben, kommen wir nun zur Kernfrage, nämlich der Wahl der Elemente ajk (43) bei Zeilenkombination bzw. der Elemente ajk (50) bei Spaltenkombination. Diese können beliebig vorgegeben werden, wodurch die Elemente qjJl bzw. Pvk festgelegt sind. Allerdings kann in jeder Zeile und Spalte nur ein einziges Element ajk vorgegeben werden, wie man leicht einsieht.
°
Zweites Beispiel. In der Matrix A soll das Element 12 = 5 in ä l2 = - 11 und das Element in ä34 = 0 durch Zeilenkombination überführt werden
3 5 9 0 1 4 10 2 - 8 q32 1 1 1 12
034
= 12
q12 q2
(a)
A.
Da die zu transformierenden Elemente in der 1. und 3. Zeile stehen, ist die zweite Zeile Pivotzeile. Mit der Spalte q2 des Zeilenelevators E 2 wird
5+10qI2= -11,
12+(-8)q32=O,
(b)
und daraus berechnet sich q12 = -1,6 und q32 = 1,5, was man natürlich auch aus (43) hätte direkt entnehmen können. Anschließend erfolgt die Transformation, die in der Tat das Verlangte leistet:
-1,6 3 5 9 0 1 4 10 2 -8 1,5 1 1 1 12
=>
- 3,4 -11 5,8 12,8 4 10 2 -8 7 16 4 0
(c)
5.5 Das Pivotkreuz
65
• 5.5 Das Pivotkreuz Eine der wichtigsten numerischen Konfigurationen ist das Pivotkreuz, das folgendermaßen definiert ist. Man wählt ein von Null verschiedenes Element ajk der Matrix A als Pivot und schreibt alle übrigen Elemente der Spalte k und der Zeile j der transformierten Matrix A tr . vor. Damit sind dann die Elevatoren E k und 1/ eindeutig festgelegt. Ein Beispiel mit m = 3, n = 2. Pivot sei 0ll gabe von ä u = 10, ä21 = -1 und ä31 = 1.
[0
1
5
A = 2 -I
o
3
,
q21 q31
3 5 2 -I 0 3
-
1
~
= 3,
das Pivotkreuz wird festgelegt durch die Vor-
3 10 - 1 ä22 = A tr . 1 ä 32
•
(a)
P12
Ohne die Formeln (43) und (50) explizit zu benutzen (der Leser führe dies aber zur Kontrolle durch), bekommen wir a) Zeilenkombination: zweite Zeile: 2 + q21 • 3 = - l q21 = - 1 dritte Zeile: 0+q31'3 = l q31 = 1/3 b) Spaltenkombination: zweite Spalte: 5 + Pu' 3 = 10.... P12 = 5/3.
(b) (c)
Erste Durchführung. Zuerst Zeilen-, dann Spaltenkombination.
1 3 5 -1 2 -I
1/3 0
3 ~
3
5
-1 -6
~
1 14/3
3 10 -I -23/3 1 19/3
(d)
1 5/3
Zweite Durchführung. Zuerst Spalten-, dann Zeilenkombination.
3 5 2 -1 o 3
~
1 -1 1/3
3 10 2 7/3 o 3
~
3 10 - 1 - 23/3 1 19/3
(e)
1 5/3
Man könnte nun daran denken, nach Herstellung eines Pivotkreuzes ein weiteres vorzuschreiben. Man sieht aber sofort ein, daß dadurch im allgemeinen das erste Kreuz ganz oder teilweise wieder zerstört wird; mit anderen Worten, es gelingt im allgemeinen nicht, durch eine Folge von Pivotkreuzen eine Matrix A in eine vorgegebene Matrix AIr. zu überführen. Dies gelingt nur, wenn alle Elemente des Kreu-
66
5 Freie Transformationen
zes (mit Ausnahme des Pivots selber natürlich) zu Null gemacht werden, weil eine Linearkombination von Nullen wieder nur aus Nullen bestehen kann, und auf dieser Tatsache beruht die Herstellbarkeit der Normalform einer Matrix, der wir uns als nächstes zuwenden. • 5.6 Die Normalform einer Matrix Ist A eine beliebige Matrix, so gelingt stets die spezielle Äquivalenztransformation auf die Normalform
LAR=Ä =Nr = ( IOr
°o~0
(56)
in leichtverständlicher Blockschreibweise (siehe dazu Abschnitt 22.1), wo oben links in N r die r-reihige Einheitsmatrix Ir steht. Zum Beispiel wird für m = 4, n = 6 und r = 2
1 0 1
0
N= r
0 0 0 0 0 0 0 0 (57)
0 0 0 0 0 0 0 0 0 0 0 0
Die Anzahl r der Einsen ist gleich dem in (1.27) eingeführten Rang der Matrix Np und dieser ist, wie wir im Abschnitt 9.1 noch zeigen werden, gleich dem Rang der Originalmatrix A. Die Matrix A sei nun hermitesch. Dann gelingt stets eine Kongruenztransformation
LA L * = A = N = (D r r 0
01 oj
,
(58)
wo D r eine Diagonalmatrix der Ordnung r ist, die p mal das Element + 1 und q mal das Element -1 enthält, siehe dazu (11.21). Ist r = n, so ist A regulär. Sind darüber hinaus alle n Hauptdiagonalelemente von Nr gleich + 1 (-1), so heißt die hermitesche Matrix positiv (negativ) definit. • 5.7 Das vollständige System von Elevatoren Ein System von m Spaltenelevatoren E/i heißt vollständig, wenn seine m Spalten q/i' zusammengefaßt zu einer Matrix Q, die folgenden Eigenschaften aufweisen
67
5.7 Das vollständige System von Elevatoren
1
q21 q3t
Q=(ql q2q3 ... qm)=
(59)
oder auch mit den restringierten Spalten (36 a) geschrieben (60)
Wir sehen: wesentlich ist, daß die (zur Hervorhebung kursiv gesetzten) Einsen auf der Hauptdiagonale - und nicht anders verteilt - in der Matrix Q auftreten. Analog dazu ist ein vollständiges System von n Zeilenelevatoren t v von der Art 1
[
Pt2
~:: .~2 Pnl
? Pt3
.
pln]
~:
Pn2 Pn3
(61)
1
oder
(62)
Wir definieren nun eine geordnete absteigende Folge von Elevatoren durch die schon in (2.16 d) eingeführten normierten Dreiecksmatrizen
Q=
~N=
[::: .. q\ . .
~ ~
qml
qm2
qm3
1
Pt2 1
P13 P23
]
(63)
1
bzw.
o o o
o ... 1 o
::: ~~:]
o ...
P3n
(64)
1
Die Folge ist dadurch gekennzeichnet, daß in der Spalte qf1 an den Stellen 1,2, ... ,fl,-1 lauter Nullen stehen, und das Analoge gilt für die Zeilen pV. Eine absteigende Folge kann aber auch ungeordnet sein, zum Beispiel wird für m = 4
68
5 Freie Transformationen
Q=
[.~,
(ql q2 q3 q4) =
q41 (2
0 0
q12
1
1
q32 q42
0 (3
(,
.;4J (4
Man erkennt hier das gleiche Bildungsgesetz wie in (63): die Spalte q't ist vollbesetzt, q'2 hat an der Stelle (I eine Null, q'4 zwei Nullen, nämlich an den bereits vergebenen Stellen (I und (2' und so fort, und das Analoge gilt für die Zeilen p v. Um diese Zuordnung augenfällig zu machen, legen wir zwei Indexlisten an f1.
2
3
m
(j
(k
(s
2
3
n
(65)
Spaltenindex
(I
bzw.
v
(66) Zeilenindex
GI
Gj
Gk
GI
Für das obige Beispiel lautet somit die Indexliste f1.
Spaltenindex
(2
2
3
4
(,
(3
(4
Für die geordneten Folgen (63) und (64) ist offenbar (j = j und Gk = k. Der Leser beachte aber, daß die ungeordneten Folgen keineswegs aus den geordneten durch bloße Zeilen- und/oder Spaltenumordnungen hervorgehen. Wir bilden nun das Produkt der Elevatoren einer absteigenden Folge
K = Er ErS2 ... ErSm-l ErSm ~l
(67)
bzw. (68)
und stellen durch Ausmultiplizieren fest, daß (69)
ist. Mit anderen Worten, die Produkte Kund M brauchen explizit gar nicht ausgeführt zu werden, sondern ergeben sich durch einfaches Anschreiben der Spalten
5.7 Das vollständige System von Elevatoren
qfl bzw. der Zeilen p v in ihrer natürlichen Reihenfolge 1,2,3 usw. von der Reihenfolge ihres Auftretens in der Folge! - von selbst.
69
unabhängig
Erstes Beispiel. Gegeben sind die vier Elevatoren
E2 =
1000J 300J [/003J [1000J 100 0100 0100 o1 0 0 0 -7 1 0 ' E4 = 0 0 1 7 ' EI = 9 0 1 0 , E3 = 0 0 1 0 . [ [ 01001 0001 0001 0001
o1
(a)
Sie bilden eine absteigende Folge, denn der Vektor q2 aus E2 ist vollständig, im Vektor q4 aus q! fehlen die Nummern 2 und 4 und in q3 schließlich die Nummern 2, 4 und 1. Der Leser überzeuge sich durch Ausmultiplizieren, daß tatsächlich
E4 fehlt das Element der Nummer 2, in
(b)
ist. In umgekehrter Reihenfolge dagegen entsteht das Produkt
(c)
und hier ist von den Spalten q/J nichts mehr zu erkennen; auch ist die Hauptdiagonale nicht mehr mit Einsen besetzt.
Als nächstes interessieren wir uns für die Inversen von Kund M. Nach (3.10a) kehrt sich die Reihenfolge der invertierten Faktoren um, es wird somit (70) bzw. (71) Die Inversen von Elevatoren aber entstehen nach (52) durch Vorzeichenumkehr ihrer restringierten Spalten bzw. Zeilen, und damit lassen sich die Inversen (70) und (71) auf einfache Weise berechnen. Man bestätigt leicht, daß ebenso wie in K = Q und M = P auch die Hauptdiagonalen von K- I und M- 1 mit Einsen besetzt sind, und ganz evident gilt der Satz 1: Die Inverse einer normierten unteren (oberen) Dreiecksmatrix ist ihrerseits eine normierte untere (obere) Dreiecksmatrix. Zweites Beispiel. Wir invertieren die Matrix Q des ersten Beispiels. In den Elevatoren werden die Elemente qjk ersetzt durch - qjk' sodann wird das Produkt der einzelnen Inversen in umgekehrter Reihenfolge gebildet, wobei wir E 3- 1 = I - I = I fortlassen
70
5 Freie Transformationen I E2
-3 0 1 0 7 1
[j ! ~ ~J [j ! ~ ~~l [j o
0 0 1
0 0 O;J
-10 0
27
;] -3J
1 o 0 -166 1 20 0 -10 o 1
Q-l
Man beachte, daß auch die Hauptdiagonale von Q -I mit Einsen besetzt ist! Drittes Beispiel. Zu invertieren ist eine normierte untere Dreiecksmatrix der Ordnung n = 3. Wir nehmen eine Zerlegung in Spaltenelevatoren vor
(a)
Umkehrung der Vorzeichen außerhalb der Hauptdiagonale gibt die Inversen
(b)
die nun in umgekehrter Reihenfolge miteinander multipliziert werden
EilEtl =
1 0 [-31 00J 31 -8
= t::>.N I
.
(c)
1
Schließlich betrachten wir die in umgekehrter Reihenfolge gebildeten Produkte (72)
L = Et;mEt;m_, ••• Et;2Et;1
bzw. (73)
Ihre Inversen sind L- 1 =E- 1E- 1 "'E- 1 E- 1 t;1
t;2
t;m-I
t;m
(74)
bzw. (75)
Beides sind absteigende Folgen, mithin gilt für sie die Eigenschaft (60) bzw. (62), und da sich die Inversen der einzelnen Elevatoren von diesen selbst nur durch das Vorzeichen ihrer restringierten Spalten bzw. Zeilen unterscheiden, haben wir als Ergebnis
71
5.8 Potenzen und Polynome
(76)
bzw.
(77)
In diesem Fall ist somit die Inversion von L bzw. R geradezu geschenkt. Wir kommen auf diesen für die Numerik bedeutsamen Sachverhalt im Abschnitt 6.5 nochmals zurück. Viertes Beispiel. Gegeben ist die absteigende Folge
(a)
Das Produkt der drei Elevatoren wird nach leichter Rechnung
5J o [1-7 o 1 0 -2 1
(b)
und die Inverse dazu ist nach (74)
(c)
Die Hauptdiagonale ist mit Einsen besetzt, wie es sein muß. Probe A - JA = 13 .
• 5.8 Potenzen und Polynome Schon im Abschnitt 2.6 haben wir uns im Anschluß an die Äquivalenztransformation (17) mit Potenzen und Polynomen einer Matrix A befaßt, und es entsteht nunmehr die Frage, wie das zum skalaren Polynom (78)
gehörige Matrizenpolynom, gebildet mit der transformierten Matrix Ä = LAR, (79)
sich durch L, A und R ausdrücken läßt. Um dies zu beantworten, erheben wir die Matrix Ä = LA R in die q-te Potenz und fügen links den Faktor R und rechts den Faktor L hinzu ~~
~r------1
Q = R'LA R·LAR·· 'LAR'LAR'L '------JL--.....J
~l.---I
(80)
5 Freie Transformationen
72
Je nach Art der angedeuteten Klammerung erhalten wir damit die drei gleichwertigen Darstellungen
Q = RL(ARL)q
= R(LAR)qL = (RLA)q RL
(81)
Multiplizieren wir dies mit einem Skalar aq , so ist dieser mit allen Matrizen vertauschbar und kann daher passend plaziert werden, das gibt (82)
Setzen wir hier q = 0, 1, ... ,{} und summieren die {} + 1 Matrizen, so entsteht in allen drei Darstellungsarten
I RLp(ARL) = Rp(LAR)L = p(RLA)RL I'
(83)
wo nun im mittleren Term unser gesuchtes Polynom (79) erscheint. Will man es isolieren, so folgt durch Multiplikation der Gleichung (83) von links mit R - 1 und von rechts mit L - 1 Lp(ARL)L -I = p(LAR) = R-1p(RLA)R
(84)
Ist A regulär und damit invertierbar, so gilt diese Gleichung auch für negative Exponenten, mithin für Polynome der Art
wie sich leicht zeigen läßt. Beispiel. Gegeben ist das Polynom p(x) = -2x- 2 +3+x,
(a)
ferner die drei Matrizen (b)
I. Der linke Term in (84) wird nach leichter Rechnung
2. Der mittlere Term: Ä =LAR=
( 0-IJ -I
0
Ä2=],
p(Ä)=
( 1-IJ . -1
I
(d)
73
5.9 Der Vertauschungssatz 3. Der rechte Term:
Alle drei stimmen überein, wie es sein muß.
5.9 Der Vertauschungssatz Wie wir noch sehen werden, läßt sich jede quadratische Matrix A regulär äquivalent auf die diagonale Pivotmatrix transformieren gemäß
LA R = II = Diag (djj )
,
L und R regulär
(86)
Die konjugiert-transponierte Matrix (87)
ist ihrerseits diagonal und somit mit II vertauschbar ll*ll= llll* ,
(88)
und dies bedeutet nach (86)
(LAR)*(LAR)
=
(LAR)(LAR)*
(89)
oder ausmultipliziert
R*A *L*LAR = LARR* A *L*
(90)
Nun sei die Transformation kongruent durchgeführt, dann wird wegen L = R* (man könnte nach (18) ebensogut R = L * setzen)
R*A * RR* AR = R* ARR* A * R
(91)
oder nach Multiplikation dieser Gleichung von links mit (R *) - I und von rechts mit R- 1
IA*RR*A =ARR*A* I,
(92)
und damit haben wir den bedeutsamen Satz 2 (Vertauschungssatz): Läßt sich eine Matrix A regulär kongruent auf Diagonalform transformieren gemäß R* AR = D, so sind die Matrizen A und A * bezüglich R R * vertauschbar.
74
5 Freie Transformationen
Der Vertauschbarkeitsrelation (92) genügt offenbar jede hermitesche oder schiefhermitesche Matrix A zufolge A * = A (4.7) bzw. A * = -A (4.9). Es existiert jedoch die umfassendere Klasse der normalen Matrizen bzw. Matrizenpaare, die durch die Bedingung (92) definiert sind und auf die wir im Abschnitt 10.5 zurückkommen werden. • 5.10 Lineare Abbildungen Schon im Abschnitt 1.2 hatten wir die Beziehung y = Ax als eine lineare Abbildung bezeichnet: x ist der Originalvektor (das Original) und y der Bildvektor (das Bild). Ist A quadratisch von der Ordnung n, so haben auch Bild und Original die gleiche Länge n. Ist die quadratische Matrix A regulär, so existiert die Inverse A - I, und es besteht die nach (3.1), (3.2) wechselseitige Beziehung
y=Axx=A-1y.
(93)
Diese ist eindeutig, weil es zu A nur eine Inverse gibt; man sagt auch, die Abbildung ist (eindeutig) umkehrbar. Bei singulärer Matrix A dagegen ist eine eindeutige Umkehrung nicht möglich; hier ist zwar bei vorgegebenem Original x das Bild y = Ax eindeutig festgelegt (weil es nur ein Matrizenprodukt gibt), doch findet man zum Bildvektor y das Original x nicht eindeutig wieder, weil noch weitere Originale existieren, die das gleiche Bild entwerfen. Dazu ein Beispiel mit n = 2.
y-Ax-
[ 0 J [YtJ Y2 3x j
-
4x2
-
(a)
Für vorgegebene Werte XI und x2 ist y eindeutig festgelegt, doch gilt nicht das Umgekehrte, da aus YI = 0 gar keine Auskunft über das Original erfolgt, dagegen ist die Gleichung Yl = 3x1 - 4x2 überbestimmt und hat somit unendlich viele Lösungen.
Ein extremes Beispiel für eine nicht umkehrbare Abbildung ist das dyadische Produkt (94) Wir sehen: für jedes beliebige Original x hat das Bild y die Richtung von p; der Bildraum hat nur die Dimension r = 1, und diese ist nach (2.29) gleich dem Rang der Dyade; ganz allgemein gilt: Der Rang einer Matrix A ist gleich der Dimension des Bildraumes (siehe dazu die Ausführungen im Abschnitt 9). Vorgegeben seien nun zwei Abbildungen, vermittelt durch die quadratischen Matrizen A und B
Ya=Ax, Yb=Bx
(95)
75
6.1 Zielsetzung
Im allgemeinen besitzen die beiden Bilder verschiedene Richtungen, sind sie aber kollinear (in eine Linie zusammenfallend) mit einem skalaren Faktor .1., (96)
somit AX=ABx,
(97)
so heißt der Originalvektor x ein Eigenvektor und der Skalar .1. ein Eigenwert. Ist speziell B = I, so wird Ax = AX .
(98)
Hier ist also das Bild A x dem Original x selbst kollinear. Eigenwerte und Eigenvektoren spielen in Theorie und Praxis eine bedeutende Rolle. Ihnen ist das ganze IV. Kapitel gewidmet. Beispiel. n
A =
= 2, B = I.
C:J ' GJ ' x=
y = Ax =
e:J GJ = 6
= 6x ,
x ist somit ein Eigenvektor zum Eigenwert A = 6.
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan • 6.1 Zielsetzung In diesem Paragraphen geht es um die spezielle Äquivalenztransformation
LAR=/1 ; detL=l,
detR=l,
(1)
durchgeführt mit Elevatoren allein, wo /1 eine sogenannte Pivotmatrix ist. Diese ist definiert durch die Eigenschaft, daß jede Spalte ebenso wie jede Zeile als einziges von Null verschiedenes Element ein Pivot 7rjk aufweist. Deren Anzahl r heißt Rang der Matrix /1 und ist, wie wir noch zeigen werden, auch gleich dem Rang der Originalmatrix A, aus welcher /1 hervorgegangen ist. Man nennt die Pivotmatrix /1 (und damit auch A) spaltenregulär (zeilenregulär) , wenn sie keine Nullspalte (Nullzeile) besitzt, mithin jede ihrer n Spalten (m Zeilen) mit einem Pivot besetzt ist. Dies ist offenbar nur möglich für Hochformat (Querformat) oder Quadrat. Zusammengefaßt: es bedeuten Spaltenregularität
m ;:::: n
r= n
(2)
Zeilenregularität
m s; n
r=m.
(3)
76
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Beispiel. n = 5, m = 3, r = 2 mit
1r
=
[
1r13
= 4 und 1rzl = 3 +2i.
00040J 3 + 2i 0 0 0 0 . o 0 0 0 0
Die Matrix ist weder spalten- noch zeilenregulär, da sie zwei Nullspalten und eine Nullzeile aufweist.
• 6.2 Das Nullenkreuz Macht man in dem im Abschnitt 5.5 eingeführten Pivotkreuz mit Hilfe des Pivots ajk die übrigen Elemente im Kreuz zu Null, so entsteht ein sogenanntes Nullenkreuz k j
(4)
ein Vorgang, der als Reduktion der Spalte k bzw. der Zeile j bezeichnet wird. Bei fortgeführter Reduktion mit Hilfe weiterer Pivots bleiben die bereits erzeugten Nullenkreuze erhalten, wie man sich leicht klarmacht. Nach genau r-l Schritten ist damit die Pivotmatrix [] erzeugt. Da man in der Wahl der Pivots völlig frei ist, ist die Pivotmatrix nicht eindeutig. Auf die zweckmäßige Wahl der Pivots kommen wir später zu sprechen, hier sagen wir nur soviel, daß sie weder zu klein noch zu groß sein sollten. Das hier geschilderte Vorgehen der r-tfachen Reduktion ist nichts anderes als der jedem Leser von der Schule bekannte, zumeist nach earl Friedrich Gauß (1777 -1855) benannte Algorithmus, der, wie man heute weiß, bereits vor 2000 Jahren in China praktiziert wurde [105]. Man unterscheidet zwei Arten der numerischen Durchführung, die aufwendige, dafür leichter zu beschreibende explizite und die elegantere implizite Methode. Zum Rechenaufwand siehe die Übersicht (17).
• 6.3 Der Gaußsche Algorithmus in expliziter Durchführung Um auf die angestrebte Pivotmatrix (1) zu kommen, gehen wir nach dem bereits in (5.55) erklärten Generalschema vor und erzeugen in der Matrix A oben rechts nacheinander die Nullenkreuze (4). Im ersten Schritt wird damit
(5)
77
6.3 Der Gaußsche Algorithmus in expliziter Durchführung
Dabei ist es einerlei, ob im Verlaufe der Rechnung jeweils zuerst die Spalte oder die Zeile reduziert wird, da beide Operationen vertauschbar sind; üblich ist aber die vorgezogene Spaltenreduktion. Der Algorithmus bricht von selbst ab, wenn die Matrix A von Pivots ausgeschöpft ist, es steht dann oben rechts im Generalschema die Pivotmatrix n, links daneben die Transformationsmatrix L und darunter die Transformationsmatrix R, ein Vorgehen, das an Einfachheit und Sinnfälligkeit der Durchführung nicht zu übertreffen ist. Erstes Beispiel. In der Matrix A ist das Pivotkreuz zu a13 = 3 zu erzeugen,
A = [30 - 12 3J . 4 10 9
(a)
Wir schreiben links und unterhalb von A die Einheitsmatrizen 12 und 13 auf und reduzieren zu· erst die erste Zeile und sodann die dritte Spalte von A. Das gibt
1 0 0 1
h
13
30 -12 3 A 4 10 9 1 0 0
-10
1
-3
1 0 0 1
0 0 1 0 0 1 4
0 -86
0 3 46 9
1 0
0 0 1 0 4 1
-10
1 0 -3 1 L R
0 0 3 Ä -86 46 0 1 0 -10
0 0 1 0 4 1
(b)
1
Jetzt gehen wir umgekehrt vor und reduzieren zuerst die Spalte, dann die Zeile:
1 1 0 -3 0 1
12
13
30 -12 3 A 4 10 9 1 0 0
0 0 1 0 => 0 I
1 0 -3 1
30 -12 3 -86 46 0 1 0 0 -10
0 0 1 0 0 1 4
1 0 -3 1 L R
0 0 3 -86 46 0 Ä 1 0 -10
0 0 1 0 4 1
(c)
1
Wieder ist der zweite Schritt geschenkt. Der Leser überzeuge sich durch Ausmultiplizieren, daß in der Tat LA R = Ä ist.
78
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Zweites Beispiel. Die vorgegebene Matrix A ist auf eine Pivotmatrix zu transformieren. Das folgende Schema zeigt die drei Reduktionsschritte. Das aktuelle Pivot (das im Kreuzungspunkt der beiden kursiv gesetzten Einsen steht) ist ebenfalls durch Kursivdruck hervorgehoben.
1
1 -10
1 0 0 0 1 0 0 0 1 13 14
3 1 0 -1 3 10
2 1 1
1 2 5
1 0 0 0
0 0 1 0
0 0 0 1
1 -2
-1
-3
0 0
1 0 0 1 1 0 -1 9 1
1
=>
0 3 0 1 -3 0 0 0
0 1 0 0
1 0 0
0 0 8
0 0 22
0 -1 1 1 0 1 0 0
-1 2 0 1
0
A
0 1 9
1 0 0 0 1 1 0 3 -10 0 1 -27
o
1 -3 0 0
0 1 0 0
1 0 0 1 1 0 -1 9 1 L
R
1 0
0 3 -19
0 3
-5
0 0 -2 -1 1 0 0 1
1 -1
0
-1
0 3 0
1 0 0
0 0 8
0 0 0
1 -3 0 0
0 1 0 0
n
-1 7/4 1 -3/4 0 -1114 0 1
1 -1114
Man überzeuge sich, daß LA R = tegie.
n ist und wiederhole die Aufgabe mit einer anderen Pivotstra-
• 6.4 Der Gaußsche Algorithmus in impliziter Durchführung
Die im letzten Abschnitt vorgeführte explizite Variante besitzt einen schwerwiegenden Nachteil. Ist nämlich die vorgelegte Matrix A schwach besetzt, das heißt, besitzt sie viele Nullelemente wie z. B. die sogenannten Bandmatrizen (ein Musterexemplar steht in (17.56», so haben zwar die zur Reduktion erforderlichen Elevatoren die gleiche schwache Besetzung, nicht aber ihre Produkte L = E r - 1E r - z ... EzE j
bzw.
(6) Diesem Mangel wird in der impliziten Durchführung auf einfachste Weise abgeholfen, indem die einzelnen Elevatoren nicht miteinander multipliziert, sondern weggespeichert werden, wobei es genügt, ihre Spalten qp bzw. Zeilen p v zu speichern (bei Handrechnung aufzuschreiben). Die Transformationsmatrizen L und R sind dann, wie man sagt, als Phantommatrizen gespeichert. Auf deren Weiter-
79
6.5 Der Algorithmus von Banachiewicz
verarbeitung kommen wir im Abschnitt 7.2 zurück; hier geht es zunächst nur um die Methode als solche. Beispiel. Die Matrix A aus dem letzten Abschnitt ist in impliziter Technik auf die Pivotmatrix fl zu transformieren mit der gleichen Pivotfolge wie dort.
1
1 -10
3 1 0 -I 3 10 -3
2
1
0
I
2
1
1
5
9
0 1 0 0 3 0 3 3 -27 0 -19 -5
1 -2 -1
1 0
0 0 1 0 0 0 3 0 0 0 1 0 0 8 22
-I -1
o1 0
0 3000 fl.
o0 8 0
0 0 1 -11/4
(a)
• 6.5 Der Algorithmus von Banachiewicz Wir multiplizieren die Transformationsgleichung (1) von links mit L rechts mit R - 1 und bekommen
I
und von
(7)
oder aufgelöst in das Produkt der Elevatoren (6) und (7) nach der Umkehrregel (3.lOa) I E- 1 •• 'E- I n -I A -EI 2 r-I II r - l
...
-1 -1 112 111
(7a)
,
wobei die Inversen der Elevatoren nach (5.52) durch Vorzeichenumkehr der restringierten Vektoren bzw. ~ v entstehen. Nun bilden die Elevatoren links und rechts von n in (9) aufgrund der Konstruktion des Pivotkreuzes jeweils eine absteigende Folge; somit sind die Inversen L - 1 und R - 1 nach (5.76) und (5.77) auf einfachste Weise aus den restringierten Vektoren zu berechnen. Diese gegenüber dem Vorgehen von Gauß grundlegend neue Idee geht auf Banachiewicz (107] zurück und hat im Laufe der Jahrzehnte in großen Teilen der Fach- und Lehrbuchliteratur den Gaußschen Algorithmus verdrängt.
8/l
Wir greifen zurück auf das Beispiel des letzten Abschnitts. Die restringierten Spaltenvektoren in ihrer natürlichen Reihenfolge (die hier zufällig mit der Pivotfolge übereinstimmt) sind
(b)
wo die kursiv gesetzten Nullen anstelle der kursiv gesetzen Einsen stehen, und damit wird nach (5.76) Cl
= 13-
(gi
gz g3) =
[6o ~ ~ld - [ ~ ~ ~l~J = [_: ~ ~ld . 0
-10 9
10 -9
(c)
80
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Die restringierten Zeilenvektoren ;1=(00-1-1), [i2=(-30-2-1),
P=(000-11I4),
P=(OOOO) (d)
ergeben auf analoge Weise
oo -2 -1 o 0 o 0 Kontrollen: 1. A = L
-I
-1
-1
~
-11/4 0
(e)
JIR -I nach (8); 2. LL -1 = 13 und RR -1 = 14 mit den Matrizen L und
R aus dem Beispiel des Abschnitts 6.3.
Das originale Verfahren von Banachiewicz verläuft indessen sehr viel einfacher, indem aus dem Nullenkreuz (4) das im Schnittpunktjk stehende Pivot extrahiert wird, so daß es allein aus Nullen besteht. Zu diesem Zweck wird die Spalte k aj ebenso wie die Zeile a durch das jetzt mit d t bezeichnete Pivotelement ajk dividiert und aus Pt und qZ die Dyade D t nach folgendem Muster berechnet 1 Pt: = -
dt
aj'
t
1
q: = - a dt
k
;
t
D 1 : = Pt d t q .
(8)
Subtrahiert man diese von A, so verbleibt ein Rest A - D 1 = At, der offenbar das gewünschte Nullenkreuz enthält. Mit dieser Matrix wiederholt man das Verfahren, das gibt dann die Matrix At - D z = A z, und nach r- 1 Schritten ist Ar die Nullmatrix geworden, womit das Verfahren endet. Aus der Summe
(8a)
aber folgt (8b)
und dies schreibt sich mit der Diagonalmatrix D der r Pivots D = Diag (d 1 dz ... d r )
(8c)
nach (3.33) unter Zwischenschaltung von D als dreifaches Produkt
(9)
6.5 Der Algorithmus von Banachiewicz
~
mit P
81
lJ ~ [
Q
(P, p, ... p,),
.::
(9a)
'
wobei allerdings zu beachten ist, daß diese Darstellung infolge der Vertauschbarkeit der Summanden in (8b) nicht eindeutig ist; es gibt rl Möglichkeiten, die Matrix A zu zerlegen. Ein Beispiel mit m = 3, n = 4. 3 1 2 IJ [ 3 10 1 5
A=0-112.
Erster Schritt. Pivot
(a)
dt
0tZ =
=
I.
(b)
A - D1= [
~ 0~ -19~ - ~J5
-27
Zweiter Schritt. Pivot
D z = pz· 3· q z = [
AI - D z =
0Zl
= dz = 3.
~J ·3· (1 0 1 1)
-9
0 ° ° 0J [o0 00 08 220
Dritter Schritt. Pivot
(c)
= AI·
033 =
= [
~ ~ ~ ~J. 3 ,
(d)
-9 0 -9 -9
=Az .
(e)
d 3 = 8.
(e)
(I)
Wir stellen nun P, D und Q nach (8c) und (9a) in ihrer natürlichen Reihenfolge zusammen:
P = (Pt pz P3) =
1 01 00J , D = [10 03 0J - 1 0 , Q= [ 10 -9 1 0 0 8
[qlJ qZ
q3
=
J
[31 01 21 11 . (I) 00 1 22/8
82
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
In der Tat ist A = PDQ nach (9), wie leicht nachzurechnen. Es gibt aber noch fünf andere Möglichkeiten, da rl = 3! = 6 ist. Zum Beispiel
P=
(P3 PI pz),
D=
3
[
d0 d0 0J = [8 0 0I 0J 0 , l 0
o
0 dz
0 0 3
Q=
[q3J q I
,
(g)
qZ
und wieder ist A = PDQ, wie es auf Grund der Vertauschbarkeit der Summanden in (8b) sein muß. Wir haben dieselbe Matrix im Abschnitt 6.4 nach Gauß implizit reduziert. Man erkennt alle Zahlen am gleichen Platz wieder mit Ausnahme der dort unterstrichenen Pivotelemente, die hier durch Nullen ersetzt sind.
Die dyadische Zerlegung (9) ist von verschiedenen Autoren angegeben worden. Sie findet sich für symmetrische Matrizen zuerst bei Doolittle [105], später in etwas abgewandelter Form bei Cholesky [106], sodann erstmals für nichtsymmetrische Matrix bei Banachiewicz [107], der seine Methode ausdrücklich als dem Gaußschen Algorithmus überlegen propagiert; seinerzeit (1938) mit Recht, da beim Arbeiten mit der Tischrechenmaschine zwar nicht die Anzahl der Operationen verringert, wohl aber eine erhebliche Einsparung an Schreibarbeit wie ein zügigerer Ablauf erreicht werden konnte. Dieser Grund entfällt seit der Erfindung des Computers, weshalb dem Gaußschen Algorithmus in seiner ursprünglichen Fassung der Vorzug gebührt. Er ist sehr viel anpassungsfähiger allein durch die Möglichkeit der Pivotregulierung und die Anwendbarkeit auf Matrizenprodukte. Nur wenn die dyadische Zerlegung von der Sache her erforderlich wird wie beispielsweise bei den Methoden im Abschnitt 22.5, hat das Verfahren von Banachiewicz noch seine Berechtigung. • 6.6 Der Algorithmus von Gauß-Jordan Während die Algorithmen von Gauß und Banachiewicz zweiseitige Transformationen darstellen, wobei also Zeilen und Spalten linear kombiniert werden, geht der Algorithmus von Gauß-Jordan einseitig vor, wobei zwei Fälle zu unterscheiden sind. 1. Zeilenkombination (Spaltenreduktion) A sei spaltenregulär vom Range T, dann wird (10) wozu
T
Schritte erforderlich sind (11 )
2. Spaltenkombination (Zeilenreduktion) A sei zeilenregulär vom Range T, dann wird (12)
83
6.6 Der Algorithmus von Gauß-Jordan
und es gilt analog zu (11) (13)
Gegenüber dem Gaußschen Algorithmus sind die Spalten qlJ aus EIJ bzw. die Zeilen p v aus e v im allgemeinen vollbesetzt. Da in praxi nicht bekannt sein wird, ob die zu transformierende Matrix A die Bedingung der Spalten- bzw. Zeilenregularität erfüllt, ist der Algorithmus mit einem Risiko belastet; er muß ergebnislos abgebrochen (oder auf andere Weise weitergeführt) werden, falls während der Rechnung eine Nullspalte bzw. Nullzeile auftritt. Ebenso wie beim Gaußschen Algorithmus haben wir auch jetzt wieder die Wahl zwischen der expliziten und der impliziten Durchführung. Beispiel. Spaltenreduktion in drei Schritten, explizite Durchführung, m = 4, n = 3.
0 1 -2 0
1 0 0 0
0 1 0 0
0 0 1 0
0 0 0 I
0 1 2
o
3 0 5 -2
0 I
0 8
1 1 0 0 312 0 0 12 -1/12 0 I 0 0 I 0 I -312 0 -2 I 512 0 o -18 o -2 8 -213 0 0 0 1
312 0 512 1
I
0 0 0
0 1 -2 0
0 -1/12 I -312 -2 -2/3 0
LJ
0 0 1 0
0 0 0
0
312
1 0
114 0
I
o -118
0 3 0 1 0 1 0 5 -2 0 -2 8
0 0 1 0 0 0 0 -2
12 0 0 0
lh
In dieser Originalform ist der Algorithmus indessen zu aufwendig. Mit weniger Operationen kommt man zum Ziel, wenn im Fall 1 die Matrix L J aus (10) in zwei Faktoren L und i zerlegt wird. In einem ersten Durchlauf werden die Spalten wie beim Gaußschen Algorithmus reduziert, das gibt mit der gleichen Matrix L wie dort (14)
und nun erfolgt in einem zweiten Durchlauf die vollständige Reduktion der Spalten: (15)
mit derselben Pivotmatrix wie bei Gauß. Entsprechend verfährt man bei der Zeilenreduktion (12) bis (13).
84
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Ein Beispiel mit m = n = 3, explizite Durchführung. Erster Durchlauf in zwei Schritten. L 1 1 0 0
1 0 8 -1 -1 -11 4 1
-3 0 1 0
3
1 0 0 1
0 1
2
1 0 0 1
1 0 5 -1 1 0 1 0 -10 4
-3 1 0 0
A
10 0 1 1 0 -3 1 0 0 5 -1 -5 2 1 0 0 2 (a)
Die Pivots liegen damit fest. In umgekehrter Reihenfolge erfolgt nun der zweite Durchlauf: L
0 0,5 1
A
1 0 0 1 1
0
-3 1 0 0 5 -1 -5
2 1 0 0
2
-0,2 1 0
1 0 0 1 0 0 -5,5 2 0,5 0 5 0 -5 2 1 0 0 2
2,1 -0,4 -0,1 1 0 0 0,5 0 5 0 - 5,5 2 -5 2 1 0 0 2
(b)
• 6.7 Hermitesehe (reellsymmetrische) Matrix
Ist A hermitesch (im Reellen symmetrisch), so ist es vorteilhaft, wenn auch nicht zwingend, die Gaußsche Transformation kongruent durchzuführen, d. h. R = L * zu setzen. Wählt man darüber hinaus alle Pivots aus der Hauptdiagonale, so wird LA L * =
n = Diag
[
L 12 und reduzieren anschließend nach Gauß mit
2 -5 -6+2i
-\
5 3-i
-1
5
(e)
4-i
2. Reduktion der zweiten (transformierten) Spalte. Diese wird zunächst berechnet aus
Die beiden letzten - in (f) eingerahmten - Elemente von V2 werden nach Euklid reduziert mit Hilfe der Matrix L 23 , die wir zu [,23 erweitern durch eine sogenannte Ränderung
L 23
=
[ 4-3J -\3
10
, L 23 = A
0
['
o4 -30J
0 -\3
10
.
(g)
104
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Sodann berechnen wir das Produkt
[,23L, =
2
[
-I
-2-6i 3+3i 5+20i -9-IOi
-I
J
3i 1-10i
(h)
und daraus die transformierte Spalte Ö2
(i)
Hier ist nun 023 = Tk = - 39 das reelle Pivot, mit dem das komplexe Element 022 = 12 - i zu annullieren ist. Es liegt der Fall 2 vor. Die drei Zahlen üj = 12, Tj = - 1 und Tk = - 39 haben den größten gemeinsamen Teiler tjk = I, somit ist die zweite Zeile mit - 39 zu multiplizieren; sodann wird die mit - (12 - i) multiplizierte dritte Zeile zur zweiten addiert, womit die Matrix L 2 (h) übergeht in die endgültige Transformationsmatrix L. Mit dieser wird dann die gestaffelte Matrix S = LA berechnet.
Schließlich ermitteln wir noch die Determinante von A gemäß detS 1'39'(-11+32i) detA = - - = = 11-32i detL -39
(k)
6.16 Die Normalform
Von der Pivotmatrix n ist es nicht mehr weit bis zu der in (5.56) definierten Normalform einer Matrix A. Halten wir nochmals fest, daß bislang zur Transformation LAR = n ausnahmslos die Grundoperation III benötigt wurde; demzufolge ist det L = det R = 1. Erst an dieser Stelle benötigen wir erstmalig die Grundoperationen I und 11 aus Abschnitt 5.3. Grundoperation I Die Zeilen und Spalten der Pivotmatrix n werden so umgeordnet, daß die r Pivots auf die Plätze 11, 22, ... , rr geraten. Dies bedeutet die Transformation pzn Ps = n mit zwei Permutationsmatrizen Pz (Zeilenumordnung) und Ps (Spaltenumordnung). Ist A hermitesch (reellsymmetrisch) und definit (somit auch regulär), so entfällt diese Umordnung, da die Pivots bereits auf der Hauptdiagonale stehen. Grundoperation 11 Es werden nach (5.26) bis (5.28) entweder die ersten r Zeilen oder die ersten r Spalten von jj durch die Pivots dividiert bzw. mit deren Kehrwerten multipliziert. Es läßt sich auch beides kombinieren durch die Produktzerlegung des Pivots, z. B. 7r = 100 = 4· 25; es wird die Zeile durch 4 und die Spalte durch 25 dividiert oder umgekehrt.
105
6.17 Dreieckszerlegung einer quadratischen Matrix
Ist A quadratisch und regulär, so empfiehlt es sich, via Pivotregulierung die ersten n - 1 Pivots zu Eins zu machen und in die Hauptdiagonale zu verlegen. Es resultiert dann die allein durch die Grundoperation III hergestellte sogenannte Determinanten/arm Nd
LAR
= Nd =
[~o ~ ~ ~ ..
o
.. ]
0 0
det L
= 1 , det R = 1 .
(41)
1 0 0 detA
Dieses Verfahren versagt nur dann, wenn im Verlaufe der Transformation die Situation eintritt, daß unterhalb und rechts des Diagonalelementes ajj = 1rjj lauter Nullen stehen. Dies trifft zum Beispiel in der Matrix
A =
5 0 0J [o0 43 -211
(41 a)
schon beim ersten Schritt zu. Dazu ein Beispiel mit m = n = 3, Gauß-Jordan explizit in einem Durchlauf.
1 0 0 1 -2 1 0 10 PV 0 0 0 1 0 1 2 1
-3 0 1 0 3
1 0,6 1
2 -10 1 o -5 -3 1 -5 0 1 -3 3 -1 6 0 0 5
-5
0 -5 1
-2 - 1,2 3
1 0 0 1 -2 1 -3 1 0 0 6 7 0 0 1 0 1 2
1 -4 0,4 - 1,4 -1
6
n.
-1
1 0 0 1 -2 1 -3 1 -5 0 1 -3 00 1 0 1 2
1 0 0 0 1 0 , det A = det n = 5 . 0 0
L
Probe: LA =
2 1
5
n
(Anmerkung: die Abkürzung PV weist auf Pivotregulierung hin.)
6.17 Dreieckszerlegung einer quadratischen Matrix Es sei A quadratisch und regulär. Werden die Pivots aus der Hauptdiagonale auf den Plätzen 11,22, ... ,n n gewählt, so wird offenbar L eine untere normierte Dreiecksmatrix, n eine Diagonalmatrix D n und R eine obere Dreiecksmatrix:
L=
,R=
(42)
106
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Wir zeigten in Satz 1 aus Abschnitt 5.7, daß die Inverse einer normierten unteren (oberen) Dreiecksmatrix ihrerseits eine normierte untere (obere) Dreiecksmatrix ist, es wird somit LA R == D
-> A
== L - 1D R - 1 == L - 1 (D R -
oder
1)
== (L - 1D) R -
1
(43)
~R ,
(44)
'-----r---J
'--v---.J
"'l R
&.L
A == ~L
je nachdem, ob man die Diagonalmatrix D zum rechten oder zum linken Faktor schlägt; in beiden Fällen resultiert eine sogenannte Dreieckszerlegung der Matrix A. Ist A singulär, r< n, und gelingt es dennoch, die Pivotfolge 11,22, ... ,rr einzuhalten (was nicht immer möglich sein muß), so sind in L - 1 die letzten d r == n - r Spalten und in R - I die letzten d r Zeilen Einheitsvektoren; die Konfiguration (42) geht damit über in
, n == Dr ==
L==
t--I~----->t--i '
R ==
I, . (45)
'f----J
r
Ist A hermitesch (reellsymmetrisch) und transformiert man kongruent, so wird A == L -1 D(L - 1)*,
D reell ,
(46)
und hier wird man die reelle Diagonalmatrix D weder nach rechts noch nach links in die Klammer nehmen. Eine - für manche Zwecke erwünschte - Dreieckszerlegung ist jedoch keineswegs immer durchführbar, wie wir oben schon andeuteten. Wir erinnern bei dieser Gelegenheit an die reguläre hermitesche Matrix
A==
[~ ~ -~ =~J i i
0
0 0
0 0
, detA == 1
aus dem Abschnitt 6.10. Auch die zweireihige Matrix
A == [: :] , detA
*0
läßt sich nicht in das Produkt von zwei Dreiecksmatrizen zerlegen.
6.18 Eigenzeilen und Eigenspalten einer singulären Matrix
107
• 6.18 Eigenzeiten und Eigenspalten einer singulären Matrix
Die Pivotmatrix n habe m - r = d m Nullzeilen und n - r = d n Nullspalten, zum Beispiel mit d m = 2 und d n = 3
n
L
(47)
R
Dann gilt offenbar für die durch Pfeile markierten Zeilen und Spalten .
e1 n
=0
oder mit
T
nek = 0
,
n = LAR
.
e1LAR=o
T
,
LARek=o,
und wenn wir die erste Gleichung von rechts mit R mit L - 1 multiplizieren, Ilj A
(48)
= OT,
Ark = 0
I.
(49) I
und die zweite von links
(50)
Die d m Vektoren lj heißen Eigenzeiten und die d n Vektoren rk Eigenspalten der Matrix A. Sie sind jeweils unter sich linear unabhängig, weil die Einheitsvektoren in (48) es sind. Nun ist jede Linearkombination der dm Eigenzeilen (die wir im Gegensatz zum Schema (47), aus dem sie gewonnen werden, von 1 bis d m durchnumerieren) (51)
und jede Linearkombination der dn Eigenspalten (52)
108
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
ebenfalls eine Eigenzeile bzw. Eigenspalte von A; denn multipliziert man (51) von rechts mit A bzw. (52) von links mit A, so wird zufolge (50) 1m A = cto T+C 20 T + ... +cdmo T
(53)
bzw.
Arn = c,o+c2o+ ... +cdn 0 ,
(54)
wie immer man die reellen oder komplexen Koeffizienten ci, ck wählt. Man sagt: die Gesamtheit der Eigenzeilen spannt einen Linkseigenraum (auch Linksnullraum oder Zeilenkern ) der Dimension d m und die Gesamtheit der Eigenspalten einen Rechtseigenraum (auch Rechtsnullraum oder Spaltenkern ) auf. Ist dm = 1, so gibt es nur eine Eigenzeile, und diese ist bis auf ihre Länge, das heißt bis auf den Faktor c I eindeutig, gleichviel, welche Pivotstrategie eingeschlagen wurde. Ist aber d m > 1, so hängt die Erscheinungsform der Eigenzeilen von der Pivotstrategie ab; man kann daher nicht sagen, die Matrix A besäße diese oder jene Eigenzeilen - dies verbietet sich schon im Hinblick auf die lineare Kombinierbarkeit (51) -, sondern unabhängig vom numerischen Vorgehen und daher der Matrix wirklich eigentümlich (im Sinne dieses Wortes) ist allein der von den dm Eigenzeilen (gleich welcher Erscheinungsform) aufgespannte dm-dimensionale Linkseigenraum, und das Entsprechende gilt für die d n Eigenspalten. Erstes Beispiel. Die Matrix II aus Abschnitt 6.1 mit n = 5, m = 3, r = 2. Es ist d m = m - r = 3 - 2 = 1, dn = n - r = 5 - 2 = 3, somit gibt es eine Eigenzeile e 3, weil die Nullzeile die Nummer 3 hat, (a)
und es gibt die drei Eigenspalten der Nummern 2, 3 und 5, weil dies die Nummern der Nullspalten von II sind,
"~ [~J . "~ [~J . '5~ m.
(b)
In der Tat sind damit die Gleichungen (48) erfüllt, denn es ist
e 3ll=oT; lle2=o, lle3=o, lles=o.
(c)
Zweites Beispiel. m = n = 4, Gauß explizit. Nach zwei Reduktionsschritten bricht das Verfahren ab, der Rang ist somit r = 2. 1 1 0 -2 0 1 -3 0 0 -1 0 0
0 0 1 0
0 0 0 1
14 14
1
2 3 1
3 3 2 4
1 0 0 0
0 1 0 0
1 -3
-5 4 -4 2 -1 -2 -7 6 0 0 1 0
0 0 0 1
5 -4
0
A
1
-7/3 1/3
1 -2 -3 -1
0 0 1 0 0 1 0 0
0 0 1 0 0 0 o -3 6 -6 0 o -7 14 -14 1 0 I -2 2 1 -3 0 1 0 0 0 0
5 -4 0 0 1 0 1 0
0
2
1
-2
109
6.18 Eigenzeilen und Eigenspalten einer singulären Matrix 1 0 -2 1 5/3 -7/3 - 5/3 1/3
0 1 0 0 o -3 0 0 0 1 0 0
0 0 1 0
0 0 0 0
0 0 0 0
13 = ( 5/3 - 7/3 1 0) 14 = (- 5/3 1/3 0 1)
n
(b)
(a)
L R
1 -3 -1 2 0 1 2 -2 1 0 0 0 0 0 0 1
(c)
Wir haben hier im Gegensatz zu (51), (52) die korrekte Numerierung gewählt, die mit dem Generalschema (a) übereinstimmt. Man überzeuge sich, daß 13A = 0 T, 14 A = 0 T und Ar3 = 0, Ar4 = 0 ist. Jede Linearkombination (d)
ist wiederum eine Eigenzeile bzw. Eigenspalte. Zum Beispiel wird mit
c3
= -10,
c4
=2
(e)
und tatsächlich ist Ar = 0, wie es sein muß.
Werden die d m Eigenzeilen /J zu einer Linkseigenmatrix L e und die d n Eigenspalten Tk zu einer Rechtseigenmatrix Re zusammengefaßt,
(55)
so schreiben sich damit die Gleichungen (50) kompakter als
1
LeA
= 0, ARe = 0 I·
(56)
Die Erscheinungsform der beiden Eigenmatrizen hängt wesentlich ab von der gewählten Pivotstrategie, wie wir abschließend noch zeigen wollen. Zuerst die Eigenzeilen. Wählt man die Pivots zeilenweise von unten nach oben, so geht die Einheitsmatrix Im in eine normierte obere Dreiecksmatrix über. Erscheinen darüber hinaus in der Pivotmatrix 11 die dm Nullzeilen als die letzten ganz oben (was die Pfeile im Schema (57) andeuten), so sind demnach aus der Matrix L die oberen d m Zeilen herauszugreifen, und das bedeutet, daß L e von Trapezform ist, wie unmittelbar aus dem Schema ersichtlich
= rs\',;;·
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
110
LSJ
~
---~
Le
>~I (57)
L~
Das Analoge gilt für die Matrix Re' wenn die Pivots spaltenweise von rechts nach links gewählt werden und die dn Nullspalten in 1t ganz links auftreten
~R
(58)
Wir nennen dies die Normalform der Eigenmatrizen L e und Re' Sollen beide diese (numerisch erwünschte) Normalform besitzen, so müssen demnach die Pivots aus der von unten rechts nach oben links verlaufenden Diagonale (das ist bei quadratischen Matrizen die Hauptdiagonale) gewählt werden, also fortschreitend in der Reihenfolge m n, m - 1 n - 1 usw., was allerdings im allgemeinen nicht möglich sein wird. Aber selbst die Normalform von nur einer der beiden Eigenmatrizen L e oder Re ist dann nicht gegeben, wenn wie im Schema (47) die Pfeile wie wir sagen wollen "fehlplaziert" sind, die Nullzeilen bzw. Nullspalten in [] somit nicht erst geschlossen am Ende der Reduktion, sondern im Laufe der Rechnung schon vorher erscheinen. Wir kommen auf diesen wichtigen Sachverhalt im Abschnitt 10.10 noch einmal zurück. Wir wiederholen das letzte Beispiel mit der Pivotfolge 44, 33, also von rechts unten nach links oben fortschreitend. Man erhält
L
1 0 0 0
0 -1/10 -7/10 1 - 1/2 - 1/2 0 1 1/3 0 1 0
0 0 0 0
0 0 0 0
0 0 -10/3 0
0 0 0 6
0 0 1 7/6
0 0 0 1
L = 2
I11J 11 lp lo
0 1
-0,1 -0,7J -0,5 -0,5 (b)
(a)
1 0 0 1 1 1 1 1/2
R
In der Tat stehen in (b) und (c) die Normalformen (57) und (58) vor uns.
o11 ] 0,5
.
(c)
6.19 Die normierte Eigendyade als Projektor
111
6.19 Die normierte Eigendyade als Projektor
Es sei jetzt die singuläre Matrix A quadratisch von der Ordnung n mit dem Rang r, somit ist der Defekt dm = dn = d = n - r, und wir fassen ebenso wie in (55) die Eigenzeilen und Eigenspalten zusammen zu den beiden Rechteckmatrizen
L,~ [
-n-
(59)
Deren Erscheinungsform hängt auch jetzt wieder ab von der Pivotstrategie, oder anders ausgedrückt: wählen wir zwei reguläre, aber sonst beliebige d-reihige Matrizen Cl und Cr> so erfüllen die transformierten Eigenmatrizen (60) ebenfalls die beiden Gleichungssysteme (56), denn es ist ja
LA=CILeA=CIO=O, L-..J
AR=AReCr=OCr=O. L-J
(61)
Wir können dies auch so sehen: Alle die unendlich vielen Matrizen L e und Re (59), die durch verschiedene Pivotstrategien erzeugt werden, gehen ineinander über durch eine bestimmte Wahl der beiden Matrizen Cl und Cr. Es wäre daher wünschenswert, eine Repräsentation der beiden Eigenräume von A zu haben, die unabhängig ist von der willkürlich eingeschlagenen Pivotstrategie, und eine solche Darstellung ist in der Tat möglich für den Fall, daß die Produktmatrix LeRe regulär ist. Dann nämlich existiert ihre Inverse und damit auch das normierte d-fache dyadische Produkt, die sogenannte Eigendyade (62)
der Ordnung n vom Range d, und diese Matrix ist wie gewünscht invariant gegenüber der Wahl von Cl und Cr, denn die transformierte Eigendyade jj wird mit den Matrizen (60)
(63)
Die Matrizen Cr und Cl heben sich wieder heraus, und damit haben wir einen Repräsentanten der beiden von Le und Re aufgespannten Eigenräume der Matrix A gefunden, der unabhängig ist von der Pivotstrategie.
112
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Die Eigendyade (62) hat einige bemerkenswerte Eigenschaften, wie wir jetzt aufzeigen wollen. Zunächst bilden wir das Quadrat von D (64)
es gilt somit (65)
und damit weiter zufolge D 3 = D 2 D
= DD = D
usw. auch
DP = D, p = 2,3, ....
(66)
Matrizen dieser Eigenschaft heißen idempotent und werden als Projektor bezeichnet. Satz 2: Die Eigendyade D ist ein Projektor. Ferner gilt ein einfacher Satz über die Spur und die Determinante einer Eigendyade, nämlich sp D
= n - r = d;
det D
=0
.
(67)
Den Beweis dafür können wir erst später erbringen mit Hilfe der Eigenwerte des Paares D; In - Kenntnisse, die uns im Augenblick noch nicht zur Verfügung stehen. Bevor wir eine weitere bedeutsame Beziehung herleiten, wollen wir eine Erweiterung vornehmen, die sich in vielen Fällen als nützlich, wenn nicht erforderlich erweist. Es sein N eine reguläre, aber sonst beliebige Normierungsmatrix der Ordnung n, und das damit gebildete dreifache Produkt LeNRe sei ebenfalls regulär. Dann definieren wir damit die verallgemeinerte Eigendyade (68)
die für N = In in (62) übergeht, und auch diese Matrix ist ein verallgemeinerter oder N-Projektor, welcher zufolge D'N-1'D=NRe(Le NR e )-I L e N·N- 1·NRe(Le NR e )-I L e N (69)
der Gleichung (70)
113
6.19 Die normierte Eigendyade als Projektor
und somit auch wieder als Verallgemeinerung von (66) der erweiterten Relation (71)
genügt. Schließlich multiplizieren wir den Projektor (68) von links mit L e und sodann von rechts mit Re (72)
und bekommen damit die angekündigten Beziehungen (73)
Daß es Matrizen gibt, die eine Darstellung mittels Eigendyaden nicht zulassen, zeigt das folgende Beispiel
Hier ist das Produkt LeRe nicht invertierbar, weil Eigenzeile und Eigenspalte zueinander orthogonal sind. A ist eine sogenannte Jordan-Zelle, vergleiche (18.69). Erstes Beispiel. Die singuläre Matrix A hat den Rang, = 1. Man findet nach leichter Rechnung die Eigenzeile (; und die Eigenspalte ' •. In der Tat ist (; A = OT und AI. = 0 mit
A=
[21J 4
T ,1.=(-2
2
1),
'e=
[-IJ 2
;
T le'e=4*0.
(a)
Natürlich ist auch al: eine Eigenzeile und 'eb eine Eigenspalte, wo a und b von Null verschiedene, aber sonst beliebige (auch komplexe) Skalare sind. Dagegen ist die Eigendyade
(b)
von a und b unabhängig. Nach (67) ist sp D = n - , = 2 - 1 = 1 und det D = 0. Zweites Beispiel.
A=[;
~=;~l.
-1 -2
I~J
(a)
114
6 Die Algorithmen von Gauß, Banachiewicz und Gauß-Jordan
Erstes Pivot sei
all =
0 0 3 -2 1 0 0 1/3 0 1 0 1
0 0 0
3, dann gibt Gauß explizit bereits nach dem ersten Schritt
0 0 0
n,
L e -_ [-2/3 1 0J 1/3 0 1
Rang r = 1, Defekt d = 2 .
1 -2 10 0 1 0 0 0 1
L
R
(b)
,
Das Produkt LeRe ist regulär und damit invertierbar. Man findet nach leichter Rechnung
1 [ 7 - 20J , (LeRe)-1 =3LeRe =3 - 2 51
13
[13 20J 2 7
90J
1 [42 ,D=Re(LeRe)-ILe =-6 -18 3960 51 3 6 21
(c) Probe: sp D = n - r = 3 - 1 = 2 und det D = 0 nach (67). Wählt man ein anderes erstes Pivot, etwa al3 = - 30, so ergeben sich andere Matrizen L e und Re' doch wird die Eigendyade D (c) davon nicht betroffen, wovon der Leser sich überzeugen möge. Schließlich überprüfe man noch die Beziehungen (73) mit N = 13, also LeD = L e und DRe = Re mit den Eigenmatrizen (b) und der Eigendyade (c).
• 6.20 Schlußbemerkung Es ist nicht übertrieben zu sagen, daß der Gaußsehe Algorithmus das Kernstück der Matrizenalgebra darstellt. Dies betrifft sowohl das Auflösen linearer Gleichungssysteme (Abschnitt 7), die Biorthonormierung zweier Matrizen Bund A (Abschnitt 8), die Transformation einer Matrix bzw. eines Matrizenpaares auf die Normalform, die Behandlung des Eigenwertproblems und zahlreiche andere Problemkreise, die wir erst im Teil 2 des Buches erschließen werden. So gesehen basiert letztendlich der gesamte Matrizenkalkül auf der numerisch problemgerechten Erstellung der Pivotmatrix n, die wir deshalb so ausführlich in allen ihren Varianten dargelegt haben. Der Nachteil der Algorithmen von Banachiewicz bzw. Cholesky liegt in der Starrheit ihres Ablaufs begründet, ein Umstand, der unter anderem weder eine Pivotregulierung noch ganzzahliges Rechnen ermöglicht. Der Algorithmus von Gauß-Jordan besitzt diese Nachteile nicht, leidet aber daran, daß er bei spaltensingulärer bzw. zeilensingulärer Matrix A überhaupt versagt. Wir werden uns deshalb in den weiteren Partien unseres Studiums aus guten Gründen fast ausschließlich auf den Gaußsehen Algorithmus stützen. Zum Schluß dieses Abschnitts sei nochmals nachdrücklich vermerkt, daß alle hier vorgeführten Modifikationen weder Zeilen- noch Spaltenvertauschungen erforderlich machen, so daß in den Äquivalenztransformationen
ausnahmslos det L
=
richtig ist.
1,
det R
=
1
(75)
115
7.1 AufgabensteIlung
7 Auflösung linearer Gleichungssysteme • 7.1 AufgabensteIlung Vorgelegt sei das bereits auf Seite 1 dieses Buches dem Matrizenkalkül vorangestellte Gleichungssystem (1.1) in der Kurzschreibweise (1.4), ein System von m Gleichungen mit nUnbekannten all XI aZI XI
+ +
a12xZ + azzxz +
+ +
alnxn = b l aznxn = b z
(1)
wo die reellen oder komplexen Elemente ajk ebenso wie die "rechte Seite" b gegeben und die Unbekannten Xl' ... 'X n gesucht sind. Normalerweise liegt in den Anwendungen ein Gleichungssystem von n Gleichungen mit ebenso vielen Unbekannten vor, die Systemmatrix A ist dann quadratisch. Ist sie außerdem regulär, so existiert ihre Inverse A - 1 und damit die (formale) Lösung X = A - I b, und da die Inverse eindeutig ist, gilt der
Satz 1: Das Gleichungssystem Ax = b mit regulärer quadratischer Matrix A besitzt eine eindeutige Lösung. Bei singulärer Matrix A ist dagegen die Existenz einer Lösung keineswegs gesichert, wie schon das einfache Beispiel detA
= 0,
b=
GJ
(1 a)
zeigt. Ziehen wir nämlich die erste Gleichung zweimal von der zweiten ab, so erhalten wir (1 b)
und dies ist offenbar für kein Wertepaar Xl' Xz erfüllbar. Ist jedoch die rechte Seite b wie man sagt verträglich, dergestalt, daß anstelle von (1 a) die Gleichung (1 c)
resultiert, so gibt es unendlich viele Zahlenpaare Xl' Xz als Lösungen. Andererseits können auch dann mehrere Lösungen existieren, wenn jede beliebige rechte Seite verträglich ist. Zum Beispiel sei (1 d)
116
7 Auflösung linearer Gleichungssysteme
Lösungen sind hier (1 e)
beliebig wählbar ist. Die praktische Lösung eines Gleichungssystems geschieht stets über die Pivotmatrix n. Da ein System der Art l1Y = centkoppelt ist, können die n Unbekannten Yt, ... 'Y n in beliebiger Reihenfolge, daher auch gleichzeitig und unabhängig voneinander berechnet werden: das Nonplusultra einer Gleichungsauflösung! WO X3
Beispiel: lly
= c mit m = n = 3.
o !i ~3J)
n, so gibt es mehr Gleichungen als Unbekannte, das System heißt überbestimmt. Bei quadratischer Matrix A, m = n stehen n Gleichungen für n Unbekannte zur Verfügung, hier ist dm = dn = d der Defekt schlechthin.
133
7.10 Allgemeine inhomogene Gleichungssysteme
Die Diskussion erfolgt stets in drei Schritten. 1. Lösbar oder nicht? } 2. Falls lösbar, Berechnung einer Partikularlösung. (45) 3. Fallunterscheidung: 3a. Die Lösung ist eindeutig, 3 b. Die Lösung ist mehrdeutig. Wie geht man nun praktisch vor? Wie immer geschieht die Transformation auf das Gleichungssystem Ilz = b (10) mittels des Gaußschen Algorithmus, wo die Linksmatrix L nicht interessiert und somit nicht mitgenommen zu werden braucht. Das transformierte Gleichungssystem hat nun folgendes Aussehen
zn
Zl
Ilz = b ,
tl
•
•
51 52 ... , 5m
• n
f-
(46)
-I
woran die Fallunterscheidung (45) leicht zu treffen ist. 1. Lösbar oder nicht? Die Pivotmatrix hat dm ~ 0 Nullzeilen. Prüfe, ob auf den Zeilen gleicher Nummer auch im Vektor b Nullen stehen
5a = e a b; a = 1,2, ... ,dm
.
(47)
1a. Dies trifft nicht zu. Dann ist das Gleichungssystem (46) und damit auch das Originalsystem (43) widersprüchlich, da, wie man sagt, die rechte Seite 5 mit Il und damit auch die rechte Seite b mit A unverträglich ist. Es existiert keine Lösung. Schluß der Diskussion. 1b. Die dm Verträglichkeitsbedingungen (47) sind erfüllt. Dies trifft sicherlich zu für dm = 0; es gibt keine Nullzeile, A ist zeilenregulär . 2. Berechnung einer Partikular/äsung (Sonder/äsung). Im System (46) sind jene d n Unbekannten Zj' die über den Nullspalten stehen, beliebig wählbar. Wir setzen sie der Einfachheit halber gleich Null. Die übrigen Unbekannten werden aus den restlichen r Gleichungen eindeutig berechnet, das gibt den Vektor xp und daraus nach (9) die Partikularlösung xp = R zp
(48)
3. Eindeutig oder nicht? 3a. Die Pivotmatrix besitzt keine Nullspalten, d n = 0; Il und damit auch A ist spaltenregulär. Dann ist (48) die einzige Lösung, das System ist eindeutig lösbar.
7 Auflösung linearer Gleichungssysteme
134
3b. Die Pivotmatrix besitzt dn Nullspalten, dann existiert nach (7.8) die homogene Lösung A Xh = 0 mit d n frei wählbaren Konstanten Cj' und damit wird die gesuchte Gesamtlösung (49) denn es ist (50)
wie in (43) verlangt. Sonderfall. Die Matrix ist zeilenregulär, dann gibt es keine Verträglichkeitsbedingungen, und sie ist spaltenregulär, dann gibt es keine homogene Lösung, somit ist für jede beliebige rechte Seite b die eindeutige Lösung x = xp ' Beides zugleich ist aber nur möglich für m = n = r, und das ist die reguläre quadratische Matrix A, siehe Satz 1 im Abschnitt 7.1. Die Lösung (49), ausführlich (51)
stellt eine Hyperebene der Dimension dn dar, die jetzt aber zufolge der rechten Seite b nicht mehr den Nullpunkt 0 enthält, sondern parallel verschoben wurde; ein Beispiel im Reellen für m = n = 3 und r = 1 zeigt die Abb. 7.4. Die Lösungsebene E enthält 00 2 Punkte, die beschrieben werden durch den Koordinatennullpunkt xp innerhalb von E, die beiden Basisvektoren '1 und '2 und die Koordinaten Cl und C2' Nun hängt aber die Erscheinungsform der Vektoren x p und '1' ... ,'dn ab von der gewählten Pivotstrategie, mit der A in 11 transformiert wird; man kann daher nicht sagen, es gäbe die Partikularlösung (48) ebensowenig wie es die Eigenspalten 'j gibt. Eine andere Strategie führt auf andere Vektoren Xp , Xl' X2; ein festgewählter Punkt Q der Hyperebene ist somit auf viele Arten darstellbar, siehe dazu Abb.7.4.
Lösungsebene
- ~
a
P~-'r'hZ \~ ... P \ Tz
'
/
o
r,
/
Xl
Abb. 7.4. Die Lösungsebene E für m = n = 3, r = 1 im Reellen
135
7.10 Allgemeine inhomogene Gleichungssysteme
Fassen wir als das wichtigste Ergebnis zusammen: Das inhomogene Gleichungssystem Ax = b hat genau eine eindeutige Lösung x = xp unter den folgenden Bedingungen: a. m;?: n. Das Gleichungssystem ist nicht überbestimmt. b. r = m. Die Matrix A ist spaltenregulär. c. Die rechte Seite b erfüllt die d m Verträglichkeitsbedingungen (47). Dazu wiederholen wir nochmals: Ist A quadratisch und regulär, somit m = n = r, dm = 0, so sind alle drei Bedingungen erfüllt. Erstes Beispiel. m = n = 2.
3/4
+ 2x2 = A 3xI + 6x2 = 9/4 • XI
[1 2J
=
3 6'
b=
[3/4J
(a)
9/4
In diesem einfachen Fall können wir uns die Transformation auf die Pivotmatrix ersparen. Wir schreiben das Gleichungssystem (a) spaltenweise auf, bekommen
und daraus folgt die Gleichung einer Geraden
g(xJ>x2) =
3
XI
+ 2x2 - -
4
=
0
(c)
nach Abb. 7.5. Jeder Punkt auf der Lösungsgeraden (c) ist eine Lösung des Gleichungssystems (a). Ohne die Einführung von Begriffen wie Rang, Verträglichkeit usw. kommen wir somit zum Ziel. Um nun dennoch unsere Theorie zu bestätigen, berechnen wir Eigenzeile und Eigenspalte aus den Gleichungssystemen I TA = 0 T bzw. Ar = 0
b
I
r
8/J
IJ
r Abb.7.5. Die Lösungsgerade g zum ersten Beispiel
136
7 Auflösung linearer Gleichungssysteme
(d)
Der Rang von A ist r = 1, somit nach (44) d m = m - r = 2 - 1 = 1 (es gibt eine Eigenzeile) und d n = n - r = 2 - 1 = 1 (es gibt eine Eigenspalte). Die Dimension der "Hyperebene" ist hier d = 2 - 1 = 1, und das ist unsere Gerade g g. Da beide Vektoren (d) von unbestimmter Länge sind (a und ß können ja beliebig gewählt werden, sogar komplex, sie müssen nur von Null verschieden sein), gehört zu I eine Gerade I und zu r eine Gerade r durch den Nullpunkt in Richtung von I bzw. r. Wir sehen, die Lösungsgerade gg ist der Eigenspalte r parallel. Für b = 0 geht die Lösungsgerade über in die Eigenspalte r, und das ist die homogene Lösung. Wir bemerken noch, daß der Vektor b auf der Eigenzeile I senkrecht steht. Dies ist kein Zufall, siehe Satz 3 im Anschluß an Formel (53). Der Leser vergewissere sich, daß ein solches direktes Vorgehen ohne Transformation auf die Pivotmatrix schon im nächsten Beispiel mit m = n = 3 nicht mehr praktikabel ist. Zweites Beispiel mit m
= n = 3;
A
b
1
2 1
3 1
0
1
-3
o -1
! 11 0 1 0 1 0 -1 ~1 I 0
0 1 I
2
5 3 10 1 1 0 0 1 0 0
Gauß Standard explizit.
1 0
0 0 1
0 1 0 0 0 0
1
2 -2
-2 1 -3
1
1 0
I
1 0
verträglich!
-2
1 0 0 1 -3 1 0 1
0
-2 1 -3 0 0
0 0 1
-5
R
(a)
Die Partikularlösung zp wird zurücktransformiert und die allgemeine Lösung angeschrieben
Das dritte Beispiel wählen wir aus der Statik, siehe Abb. 7.6. Die Gleichgewichtsbedingungen lauten A x = b mit 1
o
IJ
o
an
'
b-
-
K J [P Pa+Kb
(a)
mit den nunbekannten Auflagerkräften x t ,x2'" .,xn . Wir wählen alt = 1 als erstes Pivot und bekommen
,
b-
K P
J
- [ P(a-al)+Kb
(b)
7.10 Allgemeine inhomogene Gleichungssysteme
a
137
c
b
Abb. 7.6. Starrer Balken auf n Stützen
Verträglichkeit. Unabhängig von der Anzahl n der Stützen muß K = 0 sein, damit Gleichgewicht möglich ist, denn anderenfalls würde der Balken davonrollen. Jetzt unterscheiden wir: Fall a) n > 2. Das Gleichungssystem ist überbestimmt. Gleichgewicht ist möglich, aber nicht eindeutig. Fall b) n = 2. Das Gleichungssystem ist bestimmt, sofern 02 1 ist,
*" °
(c)
Fall c) n = 1. Von der Matrix A verbleibt nur noch die erste Spalte
verträglich verträglich?
(d)
Eine weitere Verträglichkeitsbedingung lautet jetzt a = a,. Die Kraft P muß somit im Auflagerpunkt A angreifen, damit Gleichgewicht möglich ist. Die dann eindeutige Lösung ist Xl = P. Viertes Beispiel. Das Gleichungssystem Xj
-
3X2+ 2x3- X4
2
-2x1+ 6x2- 4x3 + 3x4 + 2xs = - 1 3x l - 7x2+ 8x3 - 3X4 + Xs =
4
x,- x2+ 4x3- X4+ Xs =
0
7xs =
4
2x,+
lOx3+
Ax=b
(a)
ist zu lösen. Wir rechnen Gauß Standard explizit. Gewählte Reihenfolge (Jk=
1,4,2(,3,5),
(j=
1,2,3(,4,5) .
(b)
138
7 Auflösung linearer Gleichungssysteme 1
2 -3 -1 -2
2 -1 1 -3 -2 6 -4 3 3 -7 8 -3 1 -1 4 -1 2 0 10 0
0 0 1 -1 -3
1
3 -2
1 0 0 0 0
0 0 2 2 6
0
1 -1
0 0 2 2 6
0 2 1 1 7
0 1 1 0 0 0 0 0 -2 0
2 -1 4 0 4
0 0 2 2 6
0 2 2 3 1 -2 1 -2 7 0
0 1
0 0 2
0 0 0 1 -2
1 0
0 1 0 0 0
0 0 2 2 6
0 0 1
2 3 -2 -2 -6
1
3
1 0 0 0 0
0 0 2 0 0
0 0 0 0 0
0 1 0 0 0
0 0 0 0 0
2 3 -2 0 0
Zt Z4 Zz
=2 =3 = -1
verträglich verträglich
o -0,5
(c)
Das System ist verträglich. Die Partikularlösung xp wird berechnet, die Eigenspalten sind e3 und es' Diese drei Vektoren werden jetzt in der umgekehrten Reihenfolge der Zeilen, nach (b) also 3, 2, 1 zurücktransformiert, wie in (13), (14) beschrieben.
(Zp e3 es) =
(0
1 -1
0 -0,5)
-+
(l
3 -2
1
Hier ist zufällig
[-l
['J!
+]
0 -1 1 0 -2 1 0 2 -5 -3,5) .
[-;
-+
0 -1
tJ
1 0 0 ( 3 0 -2 ) -5 -1 -0,5 1 o = 0 -2 0 1
[-1 -"'j
(Xp '3
's)
(d)
n[-"']
Die Gesamtlösung lautet somit
-1
X=Xp=Xh=
[-1
-0,5) (0 0 0 1 -2)
(-1 -1
o)(
x p = zp'
n
0 0 1 0 0
-1
+Z3
~ +zs
-0,5
_~
.
(e)
Der Leser überzeuge sich, daß das Gleichungssystem (a) erfüllt ist für beliebige Werte von Z3 und zs.
7.10 Allgemeine inhomogene Gleichungssysteme
139
Abschließend leiten wir noch zwei Sätze her, die zwar in praxi nicht allzuviel nützen, für theoretische Fragestellungen jedoch unentbehrlich sind. Setzen wir in die Verträglichkeitsbedingungen (47) b = Lb ein, so wird daraus eULb=/Ub=O;
a=1,2, ... ,dm
(52)
,
und damit haben wir den Satz 2: Das Gleichungssystem A x = bist genau dann verträglich, wenn die rechte Seite b zu allen d m = m - r Eigenzeiten orthogonal ist. Sodann denken wir uns die Pivotmatrix 11 vom Rang r und die rechte Seite b umgeordnet und zusammengefaßt zur Gesamtmatrix
(11, b) =
[~ : I~J.
(53)
Der Rang dieser um eine Spalte erweiterten Matrix ist ebenfalls r, da mit Hilfe der r Pivots durch Zeilenkombination die r Komponenten von b annuliert werden
können; die Anzahl der Pivots wird davon nicht berührt. Nun werden wir im Abschnitt 9.1 zeigen, daß der Rang einer Matrix invariant ist gegenüber Äquivalenztransformationen, somit gilt das soeben Gesagte auch für die erweiterte Originalmatrix (A, b), und diesen Sachverhalt sprechen wir aus als Satz 3: Das Gleichungssystem A x = bist genau dann verträglich, wenn der Rang der erweiterten Matrix (A,b) gleich dem Rang von A ist. Speziell für die quadratische Matrix A stellen wir alles in den letzten Abschnitten Gesagte im sogenannten Alternativsatz übersichtlich zusammen:
m=n
detA
homogen Ax=o
Fall 1.1: x=o Triviallösung
Fall 1.2: a) x = 0 Triviallösung b) x = Clrl + ... +c,ur,u; Il=n-r Eigenspalten
inhomogen Ax=b
Fall 2.1: x=A-1b
Fall 2.2: a) Keine Lösung vorhanden, Widerspruch, b) Falls b verträglich, Lösung vorhanden, aber nicht eindeutig.
=f::.
0, r = n
detA = 0, r ,
(8)
siehe das Generalschema (3), wo der Index p auf die Permutation hinweist.
3. Schritt. Normierung der Diagonalmatrix Dr- Die Pivots werden in Faktoren zerlegt (9)
und sodann die ersten r Zeilen von L p und Bp durch 11, ••• ,Ir sowie die ersten r Spalten von Rp und A p durch r\> ... ,rr dividiert. Natürlich kann man auch alle Faktoren Ij oder alle Faktoren rj gleich Eins setzen, doch empfiehlt sich namentlich bei betragsgroßen Pivots eine Aufteilung nach (9). Im Generalschema (3) stehen nun die fünf Matrizen fertig vor uns, wo mit (10)
die gestellte Forderung nach der Normalform (2) erfüllt ist:
o
o
J
(11)
r
s-r
(-r
Beispiel. Gegeben sind A und B, das Produkt BA = C wird berechnet.
B=
[01-6 -IJ 1 0
2
1
'
A=
1 20 2 lJ 1 [ 1
BA=C=
1 0
-2 -4
[-3 0-IJ 1
0
2
(a)
1
Der Gaußsche-Algorithmus, durchgeführt im Generalschema (3), ergibt 1 2 1 2 1 1 -2 -4
3 1 0 1 0
h
1 13
-3
2 -1 2 -2 1 1 -2 -2 -4 5 1
1
0 A 0 1
1
B
1
0 -1 0 1 -6 -1 0 2 1 0 2 1
1 3 0 1
0 1
1 0 0
0 1 0
L
1 0 0
1
o -2
0 0 1
R
0 0
JJ
5 3 1 0 2 0 1 0 2 1
o -2 1 0
Ä
0 1
(b)
146
8 Orthogonalsysteme
Wir vertauschen jetzt die beiden Zeilen der Horizontalleiste des Zahlenkreuzes und anschließend die zweite und dritte Spalte der Vertikalleiste (dies kann auch in umgekehrter Reihenfolge geschehen). Es resultiert das Kreuz (c)
2 2 1 -2 1 -2 5 -4 1 -1 1 -2
0 1 1 3
1 0
0 5
1
-2 0
0
1
0
0 0
1 1 1
Ap Bp
0 1 0 2 1 0 3 1 0 2
-2
1
1 0
0
1
-0,4 0 0,2
0 1 1 3
(c)
LN RN
1
-0,2 -0,4 -0,4
0 0
1
2 2
AN
1
-4
BN
0 1 0 2 1 0 3 1 0 2
(d)
0 1 0
Eine Zerlegung von 1122 = 5 wäre hier wenig sinnvoll. Wir dividieren die gesamte zweite Spalte durch 5 und bekommen das Ergebnis in (d) mit den fünf gesuchten Matrizen der Transformation. Probe: BNAN=N, ferner ARN=A N und LNB = B N· Der Leser wiederhole die Aufgabe mit einer anderen Pivotstrategie.
8.2 Biorthonormalsysteme
Es sei nun s = t, dann ist die Produktmatrix CI quadratisch von der Ordnung t
(12)
BA=C,
Sie sei überdies regulär, also vom Range r = t, dann wird die Normalform (13)
gleich der r-reihigen Einheitsmatrix, und diesen Sachverhalt können wir mit den Zeilen bzw. Spalten von Bund A
B= A=
l
[ ] b
BN =
bl
[al'
ooa]
,
[
bj.
b~
]
A N = [aN'l" . aN,]
(14)
(15)
auch so formulieren:
b~aN,k = 1 für j = 1,2, ... , t b~aNk = 0 für j, k = 1, 2, ... , t; j
(16)
*' k
(17)
8.2 Biorthonormalsysteme
147
oder mit dem Kronecker-Symbol (2.43) kürzer gefaßt
Ib~aN,k
= 0jk
I;
(18)
j, k = 1, 2, ... ,t .
Die beiden vorgelegten Matrizen Bund A sind damit zu B N und AN biorthonormiert worden; ihre Zeilen b~ und Spalten aN,k bilden ein Orthonorma/system. Sind B und/oder A komplex, so wird diese Operation als normierte Unitarisierung bezeichnet. Beispiel. Die Matrizen Bund AsolIen biorthonormiert werden:
B=[2~ -7=~ ~-7J' -2 -3
2
3 1 -2 -1 3 0 2 -2 -1 1 -3 2 0 1 1 1 -3 -4
1 1 3 4 4 -3
A=
1
-21
-13 3 0 2 -2 -1 [ 1 -3 2
o
1
A B
0 1
7
1 -1 -2
3 -2 -14 4 14 2 -4 -17 1 -4 -12 0 1 4
1 0 0
0 0 0 1 0 -25
=
[~4 -34 iJ4
(a)
1
3 -2 -4 -1 4 2 2 -4 -5 1 -4 0 0 1 1
2 1 -2 -2 0 2 3 3 1 -4 3 -1 4 2 -2 -3 2 1
-1
C=BA
1 0 0 1 -2 -2 0 2 0 1 -3 0 7 2 3 -7 0 -7 -4 2 6 5 2 -7 0
1
3
A jj
1 -2 -2 0 2 0 7 2 3 -7 -2 55 19 23 -56
(b)
Die Pivotmatrix ist regulär, somit ist eine Biorthonormierung möglich. Die Permutation entfällt, da wir die Pivots aus der Hauptdiagonale gewählt haben. Jetzt erfolgt die Normierung, die sich hier fast ohne Rechnung erledigt. Wir dividieren die dritte Spalte von Ä durch 5 und die dritte Zeile von jj durch - 5 und bekommen
~ -; J'
- 4,6
11,2
AN = [ -
r ~: ~ HJ
01 - 4 - 2,4 1 0,8
.
(c)
8 ürthogona!systeme
148
8.3 Das vervollständigte Matrizenprodukt Es sei jetzt Beine zeilenreguläre Matrix mit r Zeilen und n Spalten und A eine spaltenreguläre Matrix mit r Spalten und n Zeilen
n
d=n-r.
(19)
Wie im Abschnitt 6.15 dargelegt, gehören zur Matrix B genau d linear unabhängige Eigenzeilen und zu A d linear unabhängige Eigenspalten, die wir zur Matrix L e bzw. Re zusammenfassen
] t· -n-
-d-
ld
(20)
und mit diesen bestehen die beiden homogenen Gleichungssysteme (21)
Mittels der beiden Matrizen L e und Re ergänzen wir nun das Paar (19) zu je einer vollständigen quadratischen Matrix der Ordnung n in folgender Anordnung (22) n
d
Das Produkt dieser beiden Matrizen ist dann
mit den beiden quadratischen Matrizen der Ordnung r bzw. d (24)
und es gilt nach dem Entwicklungssatz für Determinanten det Cu = det Cr . det Cd .
(25)
8.3 Das vervollständigte Matrizenprodukl
149
Damit ist das Produkt Cu entkoppelt, und nun können getrennt und unabhängig voneinander die beiden Matrizen Cr und Cd auf ihre Normalform transformiert werden (26)
insgesamt also ist (27) d
Wir heben an dieser Stelle hervor, daß zwar r gleich dem Zeilenrang von Bund gleich dem Spaltenrang von A ist, doch nicht etwa gleich dem Rang des Produktes Cr = BA sein muß, sondern sehr wohl kleiner sein kann, wie das einfache Beispiel zweier vom Nullvektor verschiedener orthogonaler Vektoren b T und a mit b T a = 0 zeigt. Das Produkt ist eine }-}-Matrix vom Range Null, während b T und a selbst den Rang Eins haben. Es sei nun die Produktmatrix Cr = BA ausdrücklich regulär, dann ist N r = Ir' Was aber ist mit Cd = LeRe? Um dies zu klären, fragen wir, ob das homogene Gleichungssystem (28) nichttriviale Lösungen besitzt, bejahendenfalls wäre nämlich Au singulär. Die Multiplikation der GI. (28) von links mit B ergibt nun (29)
und daraus folgt mit
Cl
=
0,
da BA als regulär vorausgesetzt wurde. Es verbleibt so(30)
denn da Re spaltenregulär ist, muß auch c2 verschwinden, so daß insgesamt C = 0 wird, und das bedeutet, daß die Gesamtmatrix Cu regulär ist. Die Determinanten von Cu und Cr sind somit von Null verschieden, also muß nach (25) auch die Determinante von Cd von Null verschieden, somit Cd selbst regulär sein. Wir sprechen diesen Sachverhalt aus als
Satz 1: Die Regularität der Produktmatrix Cr = BA zieht die Regularität der Produktmatrix Cd = LeRe nach sich. Damit wird dann auch Nd = I d ; die Normalform von Cu = BuA u ist daher gleich der n-reihigen Einheitsmatrix
8 Orthogonalsysteme
150
(31)
Die beiden Matrizen B vN und A vN bilden jetzt ein vollständiges Biorthonormalsystem bzw. bei unterlassener Normierung ein vollständiges Biorthogonalsystem. Wir erläutern das Vorgehen wieder an einem Beispiel. Gegeben sind die Matrizen Bund A, die vollständig biorthonormiert werden sollen,
-~]
01
1 -3 2 B= [ 3 -2 -I 2J '
A = [ - ;4 -I I 3
C=BA =
'
[136 145J
(a)
Als erstes berechnen wir die Eigenspalten der Matrix B. Gauß implizit gibt
1
-3
1 -3
2 0 3 -2 -1 2
0 1 1 0
0
7
-7
o -3,5
3 -2 0
1
0
~ ~HB.
0 2
3,5
t
1
(b)
t
Eigenspalten der Pivotmatrix HB sind somit e2 und e3, mithin sind die Eigenspalten von B die Vektoren '2 = Re2 und '3 = Re3:
u!lr--_. CL LJJUs L -2 ]
(0 - 3,5
3,5
1)
(-3,5
3,5)
(l
3 -2 0)
(3
-2)
Beide Spalten multiplizieren wir mit 2, um auf ganze Zahlen zu kommen, und gewinnen damit die Matrix Re (c). Probe: BRe = O!
6-4J [~ ~ -7
=
(c)
Re .
7
Es folgen die Eigenzeilen der Matrix A nach der gleichen Vorgehensweise:
-2
2
1
-I
-4
1
I
-2
5 0 -5 1 0
1
4 -1 1 3
13 o -13 0 1 0
1 .-3
0
1
HA
~ o
o
n,
r=n,
(42)
wo die mn-Matrix Aspaltenregulär und die rechte Seite b verträglich ist. Dann existiert, wie wir aus Abschnitt 7.10 wissen, eine eindeutige Lösung x. Ein besonderer Kunstgriff besteht nun in der sogenannten Kondensation des überbestimmten Systems auf ein bestimmtes System der Ordnung r mittels geeigneter Linearkombination der m Zeilen von A auf nur n Zeilen einer quadratischen Matrix der Ordnung n. Die einfachste Kondensation besteht offenbar im Herausgreifen von n geeigneten Zeilen des Gleichungssystems (42)
8.6 Überbestimmte Gleichungssysteme. Kondensation. Die Pseudoinverse
aJX = bJ
,
157
(43)
j = (1' ... ,(n ,
doch ist es im allgemeinen zweckmäßiger, eine geeignete zeilenreguläre Matrix B zu wählen und mit dieser zu kondensieren n m m
BAx=Bb,
n
IB
A
b
BA
Bb
m
n ,
(44)
wozu allerdings die Regularität der Produktmatrix C = BA vorausgesetzt werden muß. Es existiert dann deren Inverse, und damit wird die Lösung des kondensierten Systems (45)
mit der sogenannten BA-Inversen
IKBA=C-1B mit C=BA
I,
(46)
und es ist offensichtlich (47) so daß die Inverse K BA die Rolle der gewöhnlichen Inversen A -1 im Falle m = n übernimmt. In der Wahl von B ist man relativ frei, doch ist es vom numerischen wie vom theoretischen Standpunkt aus optimal, B = A * zu setzen; dann wird aus (47) (ohne den jetzt überflüssigen Index) I K= C-1A*
mit
C=A*A
pos. deLI·
(48)
Diese spezielle Matrix heißt die Pseudoinverse, auch generalisierte oder Ha/binverse der spaltenregulären Matrix A. Dazu ein Beispiel. Gegeben ist das Gleichungssystem Ax = b mit
(a)
8 Orthogonalsysteme
158
A ist spaltenregulär und die rechte Seite b mit A verträglich, mithin existiert eine eindeutige Lösung x. Wir berechnen das Produkt C = A TA und daraus die Inverse nach (3.19) T
A A = C=
[
18 -9J 1 1 [15 9J 1 [5 3J 9 15 , C - = 189 9 18 = 63 3 6
_
(b)
Die Pseudoinverse K und die Lösung x sind damit leicht berechnet
Proben: Ax = bund KA = 12 ,
Zur Kontrolle der Rechnung setzt man die Lösung x in die Ausgangsgleichung (42) ein und bekommt
Ax-b=o,
(49)
wie verlangt. War aber die rechte Seite nicht verträglich (was man oft vorher nicht wissen kann), so entsteht eine Gleichung mit Resten (Fehlern, Residuen, Dejekten)
Ax-b=v,
(50)
und nun kann man fordern, daß das überbestimmte Gleichungssystem (42) wenigstens "im Mittel verträglich" wird. Diese Forderung führt dann auf die von Gauß begründete Ausgleichsrechnung, auf die wir im Abschnitt 12.1 noch zu sprechen kommen. Wie leicht nachzurechnen, bekommt man auf Grund der Definitionsgleichung (48) die folgenden hermiteschen Matrizenprodukte
KK* = C- 1 AA* =K*C 2 K K*K =A*C- 2 A } G=AK =AC-1A*
Ordnung n, Rang r, pos. def.
(51) (52)
Q'dnung m, Rang, = n.
(53) (54)
Das letzte, gemischte Produkt besitzt die bemerkenswerte Eigenschaft
G 2 =AK'AK=AI,K=AK=G,
(55)
L--..J
woraus dann auch GP = G für jede natürliche Zahl p folgt. Matrizen dieser Eigenschaft werden idempotent genannt oder auch als Projektor bezeichnet. Die Pseudoinverse wird nicht allein zur Lösung von überbestimmten Gleichungssystemen herangezogen, sondern erfüllt innerhalb des Matrizenkalküls noch mannigfache andere Funktionen, weshalb es zweckmäßig sein kann, die
9.1 Die Pivotmatrix
159
konjugiert-komplexe Matrix K* anstelle von KaIs Pseudoinverse einzuführen, worauf beim Literaturstudium zu achten ist. Der an diesen Fragen interessierte Leser sei auf die zusammenfassende Notiz bei Maess [37, S. 163] und auf eine Arbeit von Zielke [11Oc] hingewiesen.
9 Lineare Abhängigkeit und Rang • 9.1 Die Pivotmatrix
Wir haben schon in den Abschnitten 1.6 und 2.3 den Begriff der linearen Abhängigkeit und im Zusammenhang damit den Rang einer Matrix eingeführt und wollen nun unsere Kenntnisse in wesentlichen Punkten ergänzen. Beginnen wir mit der Definition 1: Der Rang ist ein Maß für die Singularität einer Matrix und fügen sogleich hinzu den Satz 1: Der Rang r ist gleich der Anzahl der Pivotelemente.
Dies besagt aber, daß man im allgemeinen nicht um die Äquivalenztransformation n
>-
LAR=[]=
-I
•
•
1 I
m
•
(1)
• t
herumkommen wird, um den Rang einer Matrix A zu bestimmen, und da die Anzahl der Pivots nicht größer sein kann als die kleinere der beiden Reihenzahlen von [] und somit auch von A, gilt trivialerweise
r=5min(m,n) .
(2)
Natürlich entsteht sofort die Frage, ob nicht verschiedene Pivotstrategien auf Pivotmatrizen mit verschieden vielen Elementen führen können. Dies ist leicht verneint; denn wird eine vorgelegte mn-Matrix A mittels zweier regulärer quadratischer, aber sonst beliebiger Matrizen Sund T transformiert auf
SAT=A,
(3)
und transformieren wir diese Matrix ein weiteres Mal mit den beiden Matrizen
(4)
9 Lineare Abhängigkeit und Rang
160
so resultiert insgesamt
LAR = LS-1SATT- 1R = LAR = n l---J
(5)
l---.J
mit derselben Pivotmatrix
n wie in (1), und da Sund T beliebig waren, gilt der
Satz 2: Zwei äquivalente Matrizen A und A = SA T haben denselben Rang. • 9.2 Die Basis Die einfachste Basis ist die Einheitsmatrix, entweder aufgefaßt als Spaltenbasis In oder Zeilenbasis
r
(6)
mit den Einheitsvektoren ek und ihren Transponierten e k . Nun ist die Einheitsmatrix eine Pivotmatrix mit n Elementen, somit ist nach Satz 1 ihr Rang r = n. Entfernt man aus In einige Spalten (aus einige Zeilen), so bleibt offensichtlich der Rest spaltenregulär (zeilenregulär); zum Beispiel wird für n = 6
r
000 1 0
0
000 010
(7)
o 0 1 000 ••- - - n - - - -
r=3
Ist nun A eine reguläre quadratische Matrix der Ordnung n, so wird
und da man auch hier wieder die Matrix A Er von links mit A - 1 bzw. die Matrix ErA von rechts mit A - 1 multiplizieren und damit die Aussage auf die Pivotmatrizen (7) zurückführen kann, haben wir den
'*
Satz 3: Irgend r< n (r 0) Spalten (Zeilen) einer regulären quadratischen Matrix A sind spaltenregulär (zeilenregulär) und damit linear unabhängig. Die Matrix A selbst bildet eine Basis.
9.3 Dyadische Zerlegung
161
Fügt man andererseits zu einer Basis eine oder mehrere Spalten (Zeilen) hinzu, so ist die so entstehende Rechteckmatrix spaltensingulär (zeilensingulär), wie man sich anhand der Pivotmatrix leicht klarmacht. 9.3 Dyadische Zerlegung Wir multiplizieren die Gleichung (1) von links mit L -1 und von rechts mit R- 1 und nennen diese Matrizen zwecks Erleichterung der Schreibweise P und Q, dann wird
A=PllQ
(9)
Schreibt man nun die Pivotmatrix mit den Rechts- und Linkseigenvektoren bzw. e k als dyadische Zerlegung II =
L e/Trjke k
ej
(10)
,
so geht die Gleichung (9) über in (11)
mit r Spalten Pj aus P und r Zeilen qk aus Q, und diese sind je für sich linear unabhängig nach Satz 3, da sie einer Basis P bzw. Q entnommen wurden. Die Darstellung (11) der Matrix A heißt deshalb eine reguläre (auch minimale dyadische) Zerlegung von A oder eine Basisjaktorisierung. Numerisch durchgeführt stellt sie nichts anderes dar als den Algorithmus von Banachiewicz aus Abschnitt 6.5. Faßt man die Spalten Pj und die Zeilen qk in einer Matrix Pr bzw. Qr und die Pivots zur Diagonalmatrix D r zusammen,
P, =
~,p,
Q' =
p,j ,
[
::
l'
D,
= D;ag(n,}
,
(12)
wo wir der Einfachheit halber alles durchnumerieren (um die lästige Doppelindizierungjk zu umgehen), so läßt sich aufgrund der Lesart (2.33) die Gleichung (11) auch als dreifaches Produkt schreiben n
r r A = PrDrQr m
Qr
Dr
DrQr
Pr
A
(13)
und dies ist oft zweckmäßiger als die Darstellung durch eine Summe.
9 Lineare Abhängigkeit und Rang
162
9.4 Der dominierende Minor Wir kommen nun zu einer ganz anderen Auffassung des Ranges. Ist die Matrix
A quadratisch und regulär, so hat sie den vollen Rang r = n. Ist aber A eine beliebige mn-Matrix, so beherbergt sie doch stets eine quadratische reguläre Untermatrix, einen sogenannten dominierenden Minor M r der Ordnung r, während alle übrigen etwa vorhandenen Minoren höherer Ordnung singulär sind. Dies führt uns zu der Definition 2: Der Rang einer Matrix ist gleich der Ordnung des dominierenden regulären Minors (oder irgendeines der dominierenden Minoren).
Ist zum Beispiel A eine Dyade, so sind, wie wir im Abschnitt 2.5 sahen, alle Minoren von zweiter und höherer Ordnung singulär; reguläre Minoren sind somit, falls vorhanden, von der Ordnung 1, und das sind die von Null verschiedenen Elemente selber; mithin ist auch der Rang der Dyade höchstens gleich 1. Sind alle m' n Elemente gleich Null, so ist A die Nullmatrix und besitzt den Rang O. Wir greifen nun irgendeinen dominierenden Minor M r der Ordnung raus A heraus und schaffen ihn der einfachen Darstellung wegen durch Umordnung der Zeilen und Spalten in die linke obere Ecke. Sodann transformieren wir M r auf die r-reihige Pivotmatrix (14) die als Rumpfmatrix bezeichnet werde. Diese Transformation betrifft auch die ersten r Zeilen von B und die ersten r Spalten von C, es wird somit insgesamt (15) Benutzen wir jetzt die r Pivots zur Reduktion nach unten und rechts, so verbleibt
c[ffil ~ [~J '
(16)
wo nun nicht allein A und B, sondern auch die Matrix Q unten rechts in die Nullmatrix übergegangen ist. Denn besäße Q auch nur ein einziges von Null verschiedenes Element, so könnten wir dies in die obere linke Ecke von Q bringen und hätten damit einen regulären Minor der Ordnung r+ 1 (in (16) eingezeichnet), was aber nicht sein kann, denn M r wurde ja als dominierender Minor angenommen. Natürlich ist es gar nicht erforderlich, den zur Pivotisierung ausgewählten dominierenden Minor in die linke obere Ecke zu schaffen; dies geschah nur der einfachen Darstellung halber. De facto bleiben alle Elemente der Matrix M r auf ihrem Platz, und da zur Transformation ausschließlich Elevatoren benutzt werden, bleibt auch die Determinante erhalten,
163
9.5 Lineare Abhängigkeit von Vektoren und Matrizen
det M r = det llr
(17)
mithin gilt der Satz 4: Die Determinante der Rumpfmatrix llr ist gleich der Determinante des durch die Pivotstrategie favorisierten dominierenden Minors M r . Dazu ein Beispiel mit m
= 3 und n = 4.
~-4 -5
-3
2 1 4 -6
1 6
-2 Rumpfmatrix
n2 =
1
4 5 8 10
0 2
-8 0 -16 -20 0 1 16 0
-4 -5
1
1 0
0 32
0 40
-2 -2,5
n 2 und Minor M 2 (beide eingerahmt) haben dieselbe Determinante,
[-8
0
01tJ '
M2 =
[-2 3J 2
1
'
det n 2 = det M 2 =
-
8 .
(b)
Mit einer anderen Strategie resultiert bereits nach dem ersten Schritt das Ergebnis (d). 1
-2
1
2
2
4 -0,4
n2 =
[j
CJ-4 1 4 -6 0,6
1l40-5J0
'
8
10
-0,8
1
M2
=
[
[3 -5J 1
5
'
0 rolO~5 oWo 0
o
0 0
det ll2
n.
(c)
0
= det M 2 = 20
.
(d)
9.5 Lineare Abhängigkeit von Vektoren und Matrizen Kommen wir schließlich zum Begriff der linearen Abhängigkeit. Dieser bringt im Prinzip nichts Neues; anstatt mit der Matrix A selbst operiert man lediglich mit dem zugeordneten homogenen Gleichungssystem (18)
oder spaltenweise geschrieben (19)
und postuliert damit wie schon in (1.25) als
164
9 Lineare Abhängigkeit und Rang
Definition 3: Folgt aus der Gleichung (19) notwendig Cl = C2 = ... heißen die n Spalten 01,02" .. ,an der Matrix A linear unabhängig.
= Cn = 0,
so
Denselben Sachverhalt können wir auch so formulieren: Besitzt das homogene Gleichungssystem Ac = 0 nur die Triviallösung, so sind die Spalten von A linear unabhängig, andernfalls linear abhängig. Der Leser wiederhole dazu die Abschnitte 1.6 und 7.8. Der Begriff der linearen Abhängigkeit ist ohne weiteres von Vektoren auf Matrizen übertragbar. Wieder gilt: Gibt es Skalare Cl' C2, ... , cp derart, daß sich aus p vorgegebenen Matrizen ~ gleichen Formates die Nullmatrix kombinieren läßt, (20) ohne daß alle Cj verschwinden, so heißen die Matrizen linear unabhängig. Faßt man die n Spalten der Länge m einer Matrix zu einem Hypervektor mit m' n Elementen (Komponenten) zusammen, so überträgt sich die Forderung (20) auf die ihr nun gleichwertige Forderung (19), und wieder ist klar, daß mehr als m'n mnMatrizen linear abhängig sein müssen. Ist aber A quadratisch, und betrachtet man speziell die n+ 1 (nicht n 2 + 1!) Matrizenpotenzen A O = In> Al = A,A 2, ••• ,An, so besteht bereits zwischen diesen eine lineare Abhängigkeit (mit cn = 1) (21)
mit gewissen durch die Matrix A selbst festgelegten Koeffizienten Co bis c n -1' Dies ist der berühmte Satz von Cayleigh und Hamilton, einer der tiefstgreifenden und faszinierendsten Sätze des Kalküls überhaupt, den wir im Abschnitt 14.3 beweisen werden. Beispiel
A --
(3 -IJ ' 2
0
A 2 _-
[7 -3J 6
-2
.
Behauptung:
Co
= 2,
CI
= - 3 ,
(a)
und wirklich ist
2/2-3A +A2 =
2[1o 01d -3 (3 -IJ (7 -3J rloo oj01 +
2
0
=
6
(b)
-2
9.6 Der Rang eines Matrizenproduktes Wir fragen jetzt, welche Beziehungen zwischen dem Rang rc eines Matrizenproduktes AB = C und den Rängen 'A und rB der beiden Faktormatrizen A und B bestehen. Um dies zu beantworten, multiplizieren wir die Gleichung A B = C beidseitig mit zwei regulären Matrizen La und Rb' nehmen eine innere Erweiterung vor
9.6 Der Rang eines Matrizenproduktes
165
LaARa( LbRa )-1 LbBRb = LaCRb '--.,--J
'---v--!
Ä
p
'----.,---)
11
(22)
'----.,---)
=
C,
P= (L bR a )-1 regulär
(23)
und bestimmen die beiden Paare La; Ra und L b; Rb so, daß A und B in ihre Normalformen (6.13) übergehen:
p
f
r
A
P
B
=>
C
~
1
1-----''''----+---+--+-------11 A f m. (24)
L---'-----'------'--_----'1 f-14~--
n - - - - - - I .I
Aus der Matrix P wurde somit eine Matrix K der Höhe,A und der Breite p herausgeschnitten, die mit 11 multipliziert den oberen Teil S der Matrix Cergibt; deren dominierender Minor bestimmt dann den Rang von C und damit den der Ausgangsmatrix C. Da P regulär ist, muß nach Satz 2 die Matrix K zeilenregulär sein und besitzt demnach mindestens einen dominierenden Minor der Ordnung/A. Dieser kann sich innerhalb von K irgendwo befinden, im Extremfall ganz links oder ganz rechts, und beide Fälle haben wir jetzt zu diskutieren anhand der drei folgenden nichtnegativen Größen Spaltendefekt von A:
dA
,
(25)
ZeilendefektvonB:
dB=P-'B~O,
(26)
=P-'A~O
(27)
oder, was dasselbe ist, (27a)
Wir verfolgen nun den Rang 'c als ganzzahlige Funktion (Relation) von 'B' indem wir 'B die Werte 0, 1,2, ... ,p annehmen lassen. Dies bedeutet, daß aus der Matrix K die ersten 'B Spalten herausgeschnitten werden, wodurch sich im Fall CD (der Minor sitzt links) die gestrichelte und im Fall Ci> (der Minor sitzt rechts) die durchgezogene Linie, insgesamt somit das Parallelogramm OEFG der Abb. 9.1 ergibt, und damit ist der Rang 'c als Ordinate dieses Parallelogramms in Schranken eingeschlossen, wobei die drei in Abb. 9.1 eingerahmten Fälle zu unterscheiden sind. Nun basiert diese Abbildung auf der Annahme, daß in der Matrix K zwischen dem Minor links und dem Minor rechts eine Lücke besteht, mithin die Differenz
166
9 Lineare Abhängigkeit und Rang · - - - - dA - - - - - 1 - - 'Ä
r rt'
------1
1-1
f
K=
TA I
11
1. L
~
t=_r,,_-_-.~I_.__=___=___=__=_-p-=--d-A'~--=---=---=-------~-J E
F
Abb. 9.1. Der Rang 'c als ganzzahlige Funktion des Ranges
E /
/
/
F
o
~L2LE __ A
/
/
p
'B
o
/
/
/
F
G P Fall I1: dA < 'A
TB
für den Fall I:
dA
2. Dann greifen wir aus der Matrix A der Ordnung n zwei Zeilen und Spalten gleicher Nummer j und k heraus und wenden auf den so festgelegten Hauptminor (122) die Transformation (123) an nach folgendem Schema
,,
,,
,
Zeile j
0jj-ajk
Zeile k
akj-Okk.
I"", 1 ,,
(125)
,,
,
So betrachtet, kann die Ähnlichkeitstransformation Quant als Gaußscher Algorithmus aufgefaßt werden, allerdings mit der Einschränkung, daß der zweite Schritt nun nicht mehr der Zeilenreduktion, sondern der Wiederherstellung der Einheitsmatrix In dient, die durch den ersten Schritt zerstört worden ist. Kommen wir nun zum Eigentlichen. Das sogenannte Zielelement al/v soll in al/v überführt werden (speziell in al/v = 0 bei Reduktion, doch ist dies für den Mechanismus selbst nicht wesentlich), und dies kann auf vielerlei Weise geschehen: innerhalb der Spalte fJ. von oben nach unten oder umgekehrt und innerhalb der Zeile v von links nach rechts oder umgekehrt. Wir schildern im folgenden die ersten beiden Fälle, wobei nach Schema (125)j[::::J=>[:: * * * * ****
0 * * * 0***
~
::JH'
* * 001**
(140)
Wie leicht zu sehen, sind auf Grund der Vorgehensweise L und R normierte untere Dreiecksmatrizen, deren Determinante gleich eins ist: (141) Ausnahmesituation. Sollte im Laufe der Rechnung ein Kodiagonalelement gleich Null werden, so wird dieses durch Pivotregulierung via Quant nach Abschnitt 10.9 zu eins gemacht, und dann erst erfolgt die Reduktion nach unten. Stehen aber unterhalb des verschwindenden Kodiagonalelementes lauter Nullen, so fällt dieser Reduktionsschritt einfach aus; die Hessenberg-Matrix zerfällt dann an dieser Stelle. Für n = 5 etwa ergibt das folgenden Verlauf, falls nach dem ersten Schritt h32 = 0 geworden ist:
A[::::
:]=>[~ ~:: :]=>[~: ~ : : :]H.
***** *****
00*** 00***
00* 000
** **
(142)
Infolge der Pivotregulierung sind L H und RH nun keine unteren Dreiecksmatrizen mehr, doch ist nach wie vor det L H = det RH = 1. Erstes Beispiel. Ähnlichkeitstransformation einer Matrix A auf die Hessenberg-Form H mit n = 4, halbexplizit, das heißt, wir führen nur R mit, nicht L. Da Q21 = 0 ist, liegt die Ausnahmesituation vor, die Transformation beginnt daher mit einer Pivotregulierung.
194
10 Gebundene Transformationen
H
A 0 -1
0 1
2 1 0 0 0 3 1 0 0 0 2 1 -1 2 1 0
0 1 0 1
1 1 0 2
2 1 0 -2
2
0 1 0 1 2 1 1 2
0 0 1 0 0 1 0 -1 2 1 0 0 1 3 1
(a)
14
0 0 1 0 0 0 0 1
0 0 0 0 0 0 1 0 0 1 0 0 -1 0 1
0 1 0 1
0 -1
1 0 0 0 0 1 0 1
0 0 0 0 0 0 1 R 0 0 1 0 0 -1 0 1
1
1
0 1
Damit ist die erste Spalte reduziert. Zufällig ist hier h42 = 0, so daß wir schon fertig sind. Probe nach (107): AR = RH. Wir merken noch an, daß R keine untere Dreiecksmatrix ist zufolge der Pivotregulierung, es gilt dennoch det R = 1, da ausschließlich Elevatoren benutzt wurden.
Eine zweite Ähnlichkeitstransformation überführt die Hessenberg-Matrix auf die sogenannte Kodiagona/matrix K gemäß 0 h 21
LKHRK==K==
0 0
0
h 32
0 0
0 0
0 0 0
0 0 0
kIn k 2n k 3,n
............................ 0 0 0 ... hn,n-I
LKIRK==I,
(143)
kn-1,n k nn
wo also die Kodiagonalelemente (139) aus H stehenbleiben. Im Regelfall sind sie alle von Null verschieden und können somit als Pivots dienen, mit deren Hilfe der rechte obere Teil in H abgeräumt wird mit Ausnahme der letzten Spalte, die nach der Transformation die neuen Elemente kin bis k nn enthält. Während man bei der ersten Transformation (138) noch die Wahl hat zwischen dem gequantelten und dem normalen Vorgehen, ist nun der Algorithmus Quant obligatorisch, weil andernfalls der Algorithmus numerisch instabil wird, siehe dazu [110]. Die Reduktion geschieht zeilenweise von links nach rechts, beginnend mit der ersten Zeile und endend mit der vorletzten. Für n == 4 beispielsweise ergibt sich das folgendes Reduktionsmuster
[~ ~J [~ ~J [~ ~J [~ ~J * * * * * * 0 *
0 0
H
HI
* * * * 0 *
* * 0 *
0 0 0 0 * 0 0 *
H2
H 3 ==K
0 0 0 0
(143a)
wo der Index die Anzahl der erzeugten Nullzeilen (mit Ausnahme des letzten Elementes) kennzeichnet. Man vergleiche dazu auch das Schema (179a).
10.10 Die Ähnlichkeitstransformation auf die Begleitmatrix
195
L K und R K sind obere normierte Dreiecksmatrizen. Insgesamt haben wir damit beim Übergang von A auf K LKL H A RHRK = K
A RHRK = RKRH A
-+
A
'-----v-------J
~
oder L
-+
A
=K
R
'-----v-------J
'-----v-------J
R
R
(144)
A
(145)
Die Produktmatrizen L und R (sofern man sie überhaupt ausmultipliziert) sind im allgemeinen vollbesetzt, da aber in beiden Transformationen ausnahmslos Elevatoren verwendet wurden, ist in jedem Fall det L = 1 , det R = 1 .
(146)
Eine dritte, als Skalierung bezeichnete Ähnlichkeitstransformation auf die Günthersehe Begleitmatrix G DKD-1=G;
D=Diag(d t d 2
..•
dn -
(147)
1 1)
mit den Diagonalelementen
(148)
überführt dann schließlich die Kodiagonalelemente in Einsen und die letzte Spalte von K in die letzte Spalte der Matrix G (97) (149)
doch zeigt es sich, daß die Skalierung nicht unproblematisch ist, da die Produkte (148) bei hoher Ordnungszahl n und betragsgroßen Kodiagonalelementen be-
trächtlich anwachsen können, weshalb die Begleitmatrix G zumeist nur von theoretischem Wert ist. Für weitere Einzelheiten sei der Leser auf die Arbeiten [110] und [126] verwiesen. Zweites Beispiel. Ähnlichkeitstransformation einer Hessenberg-Matrix H auf die Kodiagonalmatrix K und anschließende Skalierung. Wir rechnen via Quant implizit und bekommen H
2 1 0
-4 2 0
K
4 17 1 -11 3 -8
1 -2
0
~ Z~~J
h 32
-2 0 6 -5 0 2 -3 -11 1 0 3 -8
k 33
1
= K.
0
0 0 0 11 1 2 -3 -7 1 0 3 -8
2
(vergleiche (143» .
0
o
0 11 2 0 -15 o 3 -11
1 -I
(a)
10 Gebundene Transformationen
196
Mittels der Spaltenelevatoren erzeugen wir jetzt die Matrix L k
-2 1 2 0
2 1 0 0 1 0 1 0 o 0 0 1
o
0 1 0 1 0 0 1
o
1 2-2 1 0 1 0 1 0 0 1
1 2-2
o o
1 0
1 1
LK .
(b)
Nun zur Skalierung. Die Diagonalelemente der Matrix D (147) sind nach (148) (c)
und damit wird die letzte Spalte von G nach (149) mit n = 3
g3=Dk 3 =
r~L~ 0~ ~ld [-:~J ~ G= Lor~ ~1 -11 -~~J -11 [-~~J - 11
.
(d)
Zur Kontrolle rechne man noch (DLK)H = G(DLK ) mit DL K =
612 -12J [o0 3 3 0
.
(e)
1
• 10.11 Normiert-unitäre Transformationen. Unitäre Ergänzung
Unitäre Transformationen werden vorzugsweise auf normale (insonderheit hermitesche) Paare, aufgrund ihrer numerischen Stabilität jedoch ebenso auf beliebige Paare angewendet. Ist nun ein solches vorgelegt, so überführt man nach (103), (104) zunächst Bin 11 und anschließend 11 in In. Ist das Paar aber normal, so erfolgt statt dessen die Kongruenztransformation
LoALÖ = A o ; LoBLÖ = D = Diag (djj > pos. def.
(150)
und in einem zweiten Schritt die Normierung von D auf In (151) mittels der positiven Diagonalmatrix D w = Diag (+
lfd;> .
(152)
Wir beziehen uns deshalb im folgenden auf das spezielle Paar A; Im einerlei, ob A normal ist oder nicht und vollführen die unitäre Kongruenztransformation (153) Ebenso wie bei der Ähnlichkeitstransformation haben wir auch hier die beiden Möglichkeiten der kompakten Durchführung mit der ganzen Zeile bzw. Spalte oder der Quantelung.
10.11 Normiert-unitäre Transformationen. Unitäre Ergänzung
197
a) Kompakt. Dem lange vor Gauß bekannten Elevator entspricht hier die erst in neuerer Zeit von Householder [19] kreierte normiert-unitäre und gleichzeitig hermitesche (und somit nach der Eigenschaftstafel 4.1 involutorische) als Reflektor bezeichnete Transformationsmatrix (154)
denn in der Tat ist
qq*) q*) qq* (/)(/) = ( I n- 2 - (Iq n- 2 - = I n+(4-2-2)- = In q*q
q*q
q*q
(155)
b) Gequantelt. Durch einen einfachen Kunstgriff werden die Matrizen der Ähnlichkeitstransformation Quant unitär ergänzt, eine Maßnahme, von welcher die grundlegenden Gleichungen (126) bzw. (131) zur Bestimmung des Quotienten qkj bzw. qjk gar nicht berührt werden. 1. Reduktion nach unten. Die zweiten Spalten der beiden Matrizen aus (122) - wo jetzt der Index G auf Gauß hinweisen soll (156)
werden unitär ergänzt auf
-eh;] . 1
,
R kj --
[1 -
qkj
eh;] -L* 1
-
k·
(157)
J
Das (vertauschbare) Produkt dieser beiden Matrizen ist (158)
mit dem Längenquadrat der Zeilen und Spalten von L kj und R kj (159) (das gleich der Determinante von L jk und R jk ist), also sind L kj und R kj = L kj zueinander unitär, wie verlangt.
198
10 Gebundene Transformationen
z o
Quant
Quant unitär (nicht-normiert)
Abb. 10.1. Der Übergang von Quant auf Quant unitär durch orthogonale Ergänzung im Reellen
Die Abb. 10.1 verdeutlicht nochmals diesen einfachen Kunstgriff im Reellen. Durch Hinzufügen der waagerechten Strecke AB wird der Winkel ader Ähnlichkeitstransformation Quant zu einem rechten ergänzt, und die beiden mit 1 und 2 bezeichneten Spalten der Matrix L kj haben dadurch die gleiche Länge bekommen. Wir berechnen nun mit den beiden Matrizen (157) das Produkt
Ajk =
LkjAjkRkj =
[1- h i
J]
[ajj
1
qkj
akj
aj~
ak
ajr ajkqkj+ ( - i'Jkjakj + i'Jkjakkqkj) [
akj+ qkjajj- akkqkj- qkjajkqkj
(1
i'JkJ]
1
- qkj
__
[~jj ~j~ _ ~ akj
ak
ajk + (- i'Jkjakk + ajji'Jkj - i'Jkjakji'Jkj)! akk
+ qkjajk+ (akji'Jkj+ qkjajji'Jkj)
J
(160) und konstatieren, daß alle vier Elemente der transformierten Matrix quadratisch von qkj abhängig sind, wobei der Deutlichkeit halber die gegenüber (123) auf Grund des Elementes i'Jkj neu hinzugekommenen Summanden in Klammern stehen. Um nun die beiden Transformationsmatrizen (157) zu normieren, braucht man sie nur durch die Größe Wkj aus (159) zu dividieren und bekommt somit
-1i'Jkj!
J
,
~k' = J
_1_ (1 Wkj
-qkj
i'J kj! ; 1
J
Wkj =
+
Vi +qkji'Jkj . (161)
Kommen wir nun zur Gesamttransformation. Das Schema (125) ist im Hinblick auf die jetzt vollbesetzten Transformationsmatrizen (161) offenbar zu erweitern auf
10.11 Normiert-unitäre Transformationen. Unitäre Ergänzung
199
(162)
wo die Elemente der doppelt schraffierten Reihen quadratisch, diejenigen der einfach schraffierten linear und die übrigen überhaupt nicht von qkj abhängig sind. Als Erweiterung der Transformationsvorschriften (127) und (128) haben wir demnach: Erster Schritt. Zeilenkombination. Ersetze die Zeilen aj und a k der Matrix A durch j ii = (aj-akqkj)/wkj,
ii k = (ak+qkjaj)/wkj .
L.....J
(163)
L-J
Zweiter Schritt. Spaltenkombination. Ersetze die Spalten iij und iik der Matrix durch aj
= (iij-iikqk)lwkj'
ak
= (ii k + qkjiij)/wkj
L-l
.
A
(164)
L.-J
Damit wurde die Matrix A über A in A transformiert. Noch eine Randbemerkung. Ist qkj reell und setzt man qkj = tan ([J, so geht zufolge Wkj
= VI +qrj = VI +tan 2 ([J = _1_
(165)
cos ([J
die Matrix (161) über in
f kj = cos
([J
(1 - tan ([J] tan([J 1
=
[c~s ([J SIn([J
-sin([J] , cos ([J
(166)
und das ist die bereits im Abschnitt 1.2 eingeführte Matrix der ebenen Drehung, siehe auch Abb. 10.1. Doch wird weder die Winkelfunktion noch der Winkel selbst etwa explizit ermittelt; die Darstellung (166) ist daher nur von akademischem Wert und führt vollends im Komplexen zur Absurdität, wenn zusätzlich noch Hyperbelfunktionen herangezogen werden. Um nochmals ganz klar heraus-
10 Gebundene Transformationen
200
zustellen, daß der für die Transformation allein maßgebliche Quotient qkj ursprünglich dem Gaußschen Algorithmus und somit einer Äquivalenztransformation entstammt (worauf der Index G hinweisen soll), sei dies nochmals zusammengefaßt: Gauß äquivalent G G LkjAjkRkj = Ä jk
Quant ähnlich
Quant unitär normiert unitär
G 0_1 _ LkjAjkLkj = A jk
. (167)
)
G
In jedem Fall ist demnach die erste Spalte der Transformationsmatrix L kj bzw. L kj durch den zur Reduktion ausersehenen Quotienten qkj festgelegt. 2. Reduktion nach oben. Die beiden Transformationsmatrizen (156) werden ergänzt zu (168) und anschließend normiert
1[1
_ , RNjk -
Wjk
ii.jk
-qjk]
1
mit
WJk =
1 + qjkii.jk> 1 . (169)
Abschließend noch zwei Bemerkungen zur normiert unitären Transformation. Ist A hermitesch (reellsymmetrisch), so ist es auch die transformierte Matrix A. Man braucht daher nur den linken unteren (rechten oberen) Teil einschließlich der Hauptdiagonale zu berechnen und den rechten oberen (linken unteren) Teil hermitesch (reellsymmetrisch) zu ergänzen, wodurch der Rechenaufwand sich annähernd auf die Hälfte reduziert. Und noch ein Zweites zur Information. Wir sahen in (166), daß alle vier Elemente /ijj , /ijk , /i kj und /i kk quadratisch von qkj abhängig sind. Wählt man daher das zu reduzierende Zielelement im doppelt schraffierten Innenfeld der Matrix (162), so hat man eine quadratische Gleichung zu lösen. Eine solche Transformation benutzte als erster Jacobi [110b], während die lineare Reduktion im Außenfeld auf Givens [110a] zurückgeht, weshalb die Transformationsmatrizen (161) und (170) in der Literatur oft nach Jacobi bzw. Givens benannt werden. Außer der hier besprochenen zweiseitigen wird bisweilen auch die nur einseitige unitäre Transformation herangezogen, und zwar speziell für eine Variante des Gaußschen Algorithmus, was zwar größeren Aufwand erfordert, dafür aber ge-
10.12 Nicht-normiert unitäre Transformationen
201
wisse numerische Vorteile bringt; wir kommen im Abschnitt 28 noch darauf zurück. Wird eine Matrix A mit n Spalten mit einer normiert-unitären Matrix U von links multipliziert, was einer Linearkombination ihrer m Zeilen gleichkommt, UA = Ä, mithin Uaj = äj , so gilt zufolge aj U* = äj die Beziehung (170)
und Entsprechendes gilt bei normiert-unitärer Linearkombination der Spalten einer Matrix. Ein Beispiel. Gegeben ist die Matrix A (a), und es werden mittels der vier normiert-unitären Matrizen Ljk (b) die Zeilen I, 2; 1, 4; 3, 4 und 2, 4 der Matrix A linear kombiniert.
A =
r
[-o~
1] 1 2
vlö
i
3+2i
[1 -3J 3 1
-
~61J
(a)
1] 1 4
V6
[1 -2+iJ 2+i 1
3] 1 4
v5
(
2J 2] V21(1
1 -2 1
'
4
i
-iJ 1
(~)
Man erhält nach einiger Rechnung die transformierte Matrix
A=
0,387298 - 0,387298 i 2,134936+ 3,753308 i [ -1,196837 - 0,346410 i 3,306094 + 1,889987 i
- 3,136887 - 0,279149 i 2,526215 + 1,098944 i 1,210915 + 1,076707 i - 0,242697 + 3,287562 i
- 4,640781 + 2,449490 i] 1,259991 + 1,570352 i 2,205557 - 0,230940 i 1,570352 + 1,423290 i
(c)
Zur Probe bestätigen wir die Relation (170): (d)
Führt man die vier Transformationen (b) an der Einheitsmatrix 14 durch, so geht diese über in die normiert-unitäre Matrix U. Mit dieser müssen die folgenden Kontrollen erfüllt sein: U* U = 14
,
U U*
= 14
und
UA
=A .
(e)
Zur Anregung: Der Leser erfinde noc~ einige weitere normiert-unitäre Matrizen L jk und führe damit die Transformation der Matrix A (c) fort. Wiederum müssen alle oben angegebenen Kontrollen erfüllt sein.
10.12 Nicht-normiert unitäre Transformationen
Nicht-normiert unitäre Transformationen arbeiten mit dem halben Rechenaufwand, vermeiden das Radizieren, das aus dem Bereich der rationalen Zahlen herausführt und sind überdies anwendbar nicht nur auf B = In> sondern auch auf die reelle und positive Diagonalmatrix
B = D = Diag ,
(171)
202
10 Gebundene Transformationen
womit also bei einem normalen Paar A; B die Normierung (151), (152) entfallen kann. Es sei nun aus dem Paar A; D das zweireihige Paar (172)
herausgegriffen, dann ist die nicht-normiert unitäre Ergänzung bei Reduktion nach unten
mit
L kj =
[1
wt
1 +qk/hjdj/dkk > 1 ,
(173)
qkj
=
(174)
'---.J
und es wird die transformierte Matrix (175) diagonal und positiv wie verlangt. Mit anderen Worten: Die Matrizen L kj und R kj sind zueinander D-unitär, siehe dazu Abb. 10.2 und vergleiche Abb. 10.1.
z
Quant
Abb. 10.2. Zur Transformation Quant D - unitär
Nun zur Gesamttransformation. Anstelle der beiden Ersetzungsvorschriften (163) und (164) haben wir nun sehr viel einfacher:
Erster Schritt. Zeilenkombination. Ersetze die Zeilen aj und a k der Matrix A durch ~j j k d /d a = a -a qkj jj kk' L...-J'---.J
il = a k + qkja j L....J
(176)
203
10.12 Nicht-normiert unitäre Transformationen
Zweiter Schritt. Spaltenkombination. Ersetze die Spalten iij und iik der Matrix A durch aj = iij-akqkjdj/dkk ,
ak = ii k + qkjiij .
(177)
'--'
L......J~
Damit ist A über A in A übergegangen, und in D ist die Ersetzung (175) vorzunehmen. Ein Beispiel. Gegeben ist das hermitesche Paar at.
A= [
11
I-i
-~
:+iJ
=A*;
1 1
D=
[dÜI
~
0
(a)
0
Mittels einer D-unitären Transformation soll das Element a31 in ä31 = 1 überführt werden. Reduktion nach unten ergibt nach (130) mit f.l = I, j = 2, k = 3 den Quotienten ä31-a31
1-(I-i)
a21
i
q32=---=
= 1
(b)
Damit werden die beiden Transformationsmatrizen der Ordnung n = 3 mit den zweireihigen eingerahmten Teilmatrizen (173)
: -q,,~,,/J~ -i:l~ I: -~/lll,~ ;,,- ~l,- i:l~ dJ ~l,
q32
I
I
I
und eine einfache Rechnung liefert das transformierte Paar
n n
L 32 A R 32
[all
= A = - (2 ~ 5i)/3
(c)
A; 15, das seinerseits hermitesch ist:
- (2 + 5i)/3 5/3 8/3
o
10/3
o
~J . (d)
Dazu eine Probe. Nach (174) ist
(e)
und in der Tat wird a22=d22w~2=2·5/3=10/3,
a33=d33w~2=3·5/3=5,
(f)
wie es nach (175) sein muß.
Bei Reduktion nach oben haben wir anstelle von (173) das Paar (178) mit (179) womit alles weitere analog zum Vorhergehenden verläuft.
204
10 Gebundene Transformationen
Der Verzicht auf die Normierung verringert wie eingangs erwähnt den Rechenaufwand fast auf die Hälfte, doch kann bei großen Ordnungszahlen die numerische Stabilität darunter leiden, weshalb man von Zeit zu Zeit eine sogenannte Regeneration oder Postnormierung vornimmt. Es resultiere nach (l Transformationen das Paar A e ; D e , dann führt man mit diesem die Normierung (151), (152) N
durch und fährt mit dem so regenerierten Paar A e; In fort. Auch nach der letzten Transformation wird man so vorgehen, um mit einem speziellen Paar A; In den Algorithmus zu beenden; dies besonders dann, wenn bereits beim Start D = In war. Ist die Diagonalmatrix D (171) regulär, aber sonst beliebig, so geht man vom Paar A; D auf das Paar D -1 A; In über. 10.13 Unitäre Transformation auf obere Hessenberg-Matrix
Vorgelegt sei das Paar A; D der Ordnung n, wo A beliebig und D eine reelle Diagonalmatrix mit positiven (negativen) Elementen dpp ist, und geplant wird eine unitäre Ähnlichkeitstransjormation auf das Paar H; jj mit der reellen Diagonalmatrix jj mit positiven (negativen) Elementen dpp , während H eine obere Hessenberg-Matrix ist, die spaltenweise in n - 2 Schritten hergestellt wird, für n = 5 beispielsweise nach folgender Strategie:
(179a)
Wir beschreiben die Reduktion der ersten Spalte. Beim Start ist L = In zu setzen. Ausnahme. Es ist a31 = a41 = ... = an l = O. Dann gehe über zur nächsten Spalte. Regelfall. Mindestens eines der Elemente a31 bis an l ist von Null verschieden. 1. Vertauschung 1a) Suche aus den Elementen a21 bis an l das betragsgrößte; es sei das Element ajl'
1b) Es ist j = 2. Dann weiter mit Programmpunkt 2.
10.13 Unitäre Transformation auf obere Hessenberg-Matrix
205
1c) Es istj>2. 1c I) Vertausche die Zeilen 2 und j in L und A. 1cII) Vertausche die Spalten 2 und j in A. 1c III) Vertausche die Elemente d22 und djj in D. 2.
Reduktion
Als Pivot dient das Element am Platz 21 in der aktuellen Matrix A. Die Nullen werden an den Plätzen 31,41, ... ,n1 (nicht unbedingt in dieser Reihenfolge) erzeugt mit Hilfe der Matrix L kj (173) für j = 2. 2a) Berechne die signifikanten Elemente der Matrix L k2 :
2b) Zeilenkombination der aktuellen Matrix L , d.h.
qk2
Zeile . 2J) -P2k ([Zelle k
(B)
2cI) Zeilenkombination der aktuellen Matrix A (C)
2c II) Spaltenkombination der Matrix A N
fik=äk+tik2ä2} fi 2 = ä 2 -P2k ä k
,
d.h.
~
[~
qk2 ~
i1
r/)
~J
_
i1
(D)
r/)
-P2k
~
2d) Transformation der aktuellen Matrix D. Berechne den Skalar W~2 und daraus weiter die Elemente 22 und kk :
a
a
(E)
Die zweiten Zeilen der Matrizen L, A und D und ebenso die zweite Spalte von A werden demnach n - 2mal ersetzt, die übrigen Zeilen und Spalten nur einmal. Der Schritt der Nummer k fällt aus, wenn 0kl = 0 ist. Damit ist die erste Spalte reduziert. Die Reduktion der weiteren Spalten verläuft analog, siehe dazu das erste Beispiel. Zum Schluß der Transformation sind die drei Matrizen In' A und D in L, H und D übergegangen, und es gilt
LAL* =H; LDL* =D .
(F)
206
10 Gebundene Transformationen
Außerdem besteht die Beziehung
spD -1 A =
n
L
Q/1/./d/1/1 =
/1; 1
n
L
h/1/1ld/1/1 = spD -1 H
(G)
/1; 1
Ist insonderheit A hermitesch, so ist auch H hermitesch und somit tridiagonal, siehe dazu das zweite Beispiel. Erstes Beispiel. n = 4, AreeIl, D positiv. Gegeben ist
A =
[-!
~ ~ _tl~J , [~ ! ~ ~J
(a)
D=
2 -1 -6
0 0 0 4
Reduktion der ersten Spalte. Es liegt der Regelfall vor, da nicht alle Elemente Null sind. 1. Vertauschung
la) Das betragsgrößte der Elemente 1c III) wird dann
Lv =
ist
°21,°31,°41
unterhalb der Kodiagonale gleich
°31,°41
041
= 2,
mithin ist j
[30 32] [i [i ~] 0 0 0 1
0 0 1 0
Av =
2 4 -6 -1 0-2 2 1 -1 1 5 0
, Dv =
= 4. 0 4 0 0
Nach 1b) bis
0 0 2 0
1]
,
(b)
wo der Index V auf Vertauschung hinweist. 2. Reduktion
1. Schritt, k 2. Schritt, k
= 3. = 4.
Annullierung des Elementes Annullierung des Elementes
031 042
= 0 entfällt. = - 1. (c)
(B):
_
/
Lv - 0,5 ..... [
1 0
0 0
3
o
o
o 1
0
_ / 2 4 (C): A v - 0,5 0-2 [ ..... -1 1
(D): Ä =
W~2 = 1 +Q42P24
o o oo1 ] 1
o 1
o
[ o~ f.~':~-:; ] o
(E):
n)-2. [~ -; -;-1 b- [i -! o
-2 2 1 3 2 -0,5 '--2../
2·
~
-: [ ~
0-4
o
=L.
(d)
o 0,5
-163 -12 2 1
J
_-A.
(e)
2 -0,5 3 -16
4
2 2
(I)
= 1 +0,5'2 = 2 ;
d22 = d22W~2 = 4·2 = 8, d44 = d44W~2 = 1-2 = 2 .
(g)
10.13 Unitäre Transformation auf obere Hessenberg-Matrix
207
Damit ist auch jj berechnet, und wir stellen nochmals alle drei Matrizen zusammen:
LI =
[' OOOJ o
-2 0 1 0 0 1 0
o
,A, =
1 0 0,5
~J [i ~J
[
-4 3 4 4 -16 0 -4 2 2 0 4
0 8 0 0
, D,=
0 0 2 0
(h)
Reduktion der zweiten Spalte. Es liegt der Regelfall vor. 1. Vertauschung
Entfällt, da die Elemente a42 = - 4 und a43 = 4 betragsgleich sind. 2. Reduktion
(B):
(C):
L,=
i([~
0 -2 0 1
Ic[l
-4 3 4 -16 -4 2 2 4
[1
-4 3 4 -16 -8 o 4 0
AI=
0 0 1 0
1
o
J
[~
=>
0,5 )-1 2 0 0 I
J)-1" [l
-Ii'
(D):
,.1,=
2 0
-\
1
1
J
=>
[l
0 -2 -1 1
0]
0 0 1 1 -0,5 1 0,5
-4 3 4 -16 -8 0 4 0
2 0 -1 1
-4 I 5 4 -16 -16 -8 1 -I 3 5 0
(i)
-
(j)
= LI
] J
=,.11·
(k)
=,.11 =A 2 =H.
(I)
V
(E):
W~3
= 1 +Q43P34 = 1 + 1·1 = 2
(h)
->
-
d 33
(m)
= d33W432 = 2·2 = 4
, d44
= d44W~3 = 2·2 = 4
(n)
.
Damit wird endgültig 0 o -2 0 [' 0 L= o -I 1 o 1 1
-L]
L4
0
(0):
IJ=
aJlJl
-
l dJlJl
, H=
0,5
2
4
2
4
=-3 + - + - + - = 5
[-' I '] 4
o o
4 -16 - 16 -8 1 - 1 0 3 5
D=
[~ ~J 0 8 0 0
0 0 4 0
(0)
4
L ~JlJl=~+~+~+~=5 Jl=
Der Leser führe auch die Probe (F) durch!
I dJlJl
1
8
4
4
(p)
208
10 Gebundene Transformationen
Zweites Beispiel. Areellsymmetrisch, D = In' 0 0 0 0 0 0 0 0 0
0 0 1
0 1 2
1 2 3
........................ , .... n-4 n-3 n-2 n-3 n-2 n-I n-2 n-l n
A=
0 0 1 0 1 2 1 2 3
nungerade:
sp A = a 2
detA = (_1)a,
n+l
mit a = - - , 2
n gerade:
detA = (-l)P,
mit
n
ß=-. 2
spA = ß(ß+ l) (a)
Da Areellsymmetrisch ist, trifft dies auch für H zu, somit ist H tridiagonal. Auch die Transformationsmatrix L ist reell_ Es wurden einige Ergebnisse mit 16-stelliger Mantisse berechnet, siehe Tabelle (b). Die erste Spalte enthält die Spurkontrolle (G), die zweite die Abweichungen von der Symmetrie. Dabei ist Ykj = h kj - hjk für j *" k. Die auftretenden Fehler sind einigermaßen akzeptabel, gemessen an der Größenordnung der Elemente 0jk von A und der Spur von A
n
L 01'1'- L hl'l' ldl'l'
IYkj Imax
spA
100 200 300 400 500
-2,1-10- 12 4,8-10- 11 6,8'10- 11 -2,4'10- 11 -1,7'10- 10
1,6-10- 12 2,9'10- 11 4,3'10- 11 2,9'10- 10 4,1'10- 10
2550 10100 22650 40200 62750
(b)
Bei großen Ordnungszahlen ist es zweckmäßig, die Kontrollgleichungen (F) in ihre n Spalten aufzulösen und nur einige von ihnen heranzuziehen: ?
sl'=LA(1I')T_h>=o,
?
tl'=LIn(1l')T-dl'~o; JI= 1,2, ... ,n .
(c)
Von jeder der ausgewählten Spalten sI' und tl' wird allein das betragsgrößte Element ausgedruckt. Zum Beispiel hat für n = 500 und JI = n = 500 das betragsgrößte Element von S500 bzw. t soo den Wert 6,1'10- 9 bzw. 3,6'10- 10 • Für das spezielle Beispiel n = 500 sind auf Seite 210 die letzten 60 Elemente der Haupt- und Kodiagonale von H sowie der Hauptdiagonale von jj angegeben.
10.14 Ganzzahlige Ähnlichkeitstransformation auf obere Hessenberg-Matrix Ist die quadratische Matrix A reell und ganzzahlig, so gelingt die Ähnlichkeitstransformation LA L -1 = H auf die Hessenberg-Matrix H mit det L = 1, wo L und H ganzzahlig sind, mit Hilfe des in den Abschnitten 6.12 bis 6.15 beschriebenen Euklidischen Algorithmus, wobei nach jedem Reduktionsschritt der Partner In via Quant (Abschnitt 10.9) sogleich wiederhergestellt wird. Bezeichnen wir als aktuelle Restspalte fiIJ die Spalte der Länge n - fJ. unterhalb des Hauptdiagonalelements, so ist der Algorithmus in wenigen Worten beschrieben. Algorithmus QuantiEuklid (QE) Gegeben: A quadratisch, reell, ganzzahlig. Ordnung
n;::>: 3.
10.14 Ganzzahlige Ähnlichkeitstransformation auf obere Hessenberg-Matrix
209
1) Die Restspalte iilJ ist die Nullspalte. Keine Aktion. Sonst aber: 2) Reduktion der Restspalte iilJ nach Euklid Standard bzw. Euklid-Gauß. Das verbleibende Element TIJ steht 2a) am Platz /1. + 1, /1.. Keine Aktion. 2 b) am Platz k/1., wo k =1= /1. + 1 ist. Die Zeile k wird mit - 1 multipliziert, sodann werden die Zeilen kund /1. + 1 miteinander vertauscht. Dies wird durchgeführt von /1. = 1 bis /1. = n - 2. ENDE. Eine ganzzahlige Transformation empfiehlt sich besonders dann, wenn das charakteristische Polynom p(A) = det (A - H n ) = det (H - H n ) zu ermitteln ist, was durch sukzessives Berechnen der Hauptabschnittsdeterminanten der Matrix F(A) = H - H n geschieht. Erstes Beispiel. Gegeben ist die ganzzahlige reelle Matrix der Ordnung n = 4
A =
[-~ ~ j 2 3
!]
spA = -9 .
(a)
5-6
Wir transformieren zunächst ohne Mitführung der Matrizen L und R = L - 1• f1 = 1, Reduktion der ersten Restspalte. Es sind vier Schritte erforderlich:
0 1 -1 0
-2
[]
3 4 0 0 1 1 4 0 -1 3 5 -6 1
0
0 1 0 -2
1
0
-2 43 18 0 15 -5 1 35 0 -84 -36 13 2 50 21 -6 0
2
0
-2 7 4 0 5 1 1 1 1 2 -2 -2 3 0 2 8 5 -6
0 -2
0
-2 1
o
o
1
2
0 1 -2 0
0
-2 7 18 0 Nicht 1 5 15 -5 eindeutig. 2 -2 -6 3 Auch 2 8 21 -6 ä41 = 2 wäre 0 2 1 0 möglich.
43 18 0 25 15 -5 -58 - 36 13 -12 -9 4
(b)
1
f1 = 2. Reduktion der zweiten Restspalte. Es sind zwei Schritte erforderlich:
0 0 -5 1
-2 1
o o 0
43 18 0 15 -5 25 -58 -36 13 -12 -9 4 0
1
Probe: spA =spH= -9.
5
0 0 1 6
-2
0
0
43 18 90 25 15 70 0 2 9 38 o -12 -9 -41 1
o -6
1
43 25 2
o
-522 -405 90J 70 -219 38 =H. -1077 187 (c)
210
10 Gebundene Transformationen Kodiagonale von H
Hauptdiagonale von H 441 442 443 444 445 446 447 448 449 450 451 452 453 454 455 456 457 458 459 460 461 462 463 464 465 466 467 468 469 470 471 472 473 474 475 476 477 478 47 0 (ajj< 0) ist. Doch reicht das zur Definitheit nicht aus, wie das Gegenbeispiel
*"
(1 "')
zeigt, wo all = 1 und a22 = 3 zwar beide positiv sind, jedoch für Xj = 2 und = - 1 die Form den negativen Wert A = 4 - 8 + 3 = - 1 annimmt. Immerhin haben wir auf diese Weise ein einfaches negatives Kriterium gewonnen; denn sind die Hauptdiagonalelemente nicht alle von gleichem Vorzeichen, so ist die Matrix A und ihre Form A sicherlich indefinit. Besonders einfach erledigt sich die Frage nach der Definitheit, wenn A eine Diagonalmatrix ist. Ihre Elemente heißen aus bald verständlichen Gründen die Eigenwerte der Matrix A und werden mit ajj = Aj bezeichnet. Die zu X2
(6)
gehörige Form (1') ist eine Summe von reinen Quadraten ohne gemischte Produkte XjX2 usw. (7)
und da die Quadrate xJ zufolge x*"o nicht alle verschwinden können, gilt der Satz 1: Eine Diagonalmatrix A und ihre Form A ist positiv (negativ) definit, wenn ihre n Diagonalelemente ajj positiv (negativ) sind.
223
11.2 Definite quadratische Formen
Ist nun aber die Matrix A vollbesetzt wie in (1"), so führt der Gaußsche Algorithmus auf die - zufolge Symmetrie von A diagonale - Pivotmatrix
(8) und damit wird die transformierte Form mit den neuen Variablen Zj als den Komponenten des Vektors x = Raz ebenfalls eine Quadratsumme wie in (7) (9)
folglich geht der Satz 1 über in den Satz 2: Eine reellsymmetrische Matrix A und ihre Form A ist positiv (negativ) deRa = II die n Pivots positiv finit, wenn nach der Kongruenztransformation R (negativ) sind.
hA
Ein anderes Kriterium, welches die Transformation (8) entbehrlich macht, ergibt sich auf folgende Weise. Wir unterteilen die Matrix A in sogennante Hauptabschnittsmatrizen oder Hauptminoren von aufsteigender Ordnung nach folgendem Muster
A=~
(10)
Es ist also allgemein (11)
und speziell für die Pivotmatrix
, ... ,lln=ll.
(12)
Ist A definit, so sind, wie wir sahen, alle Hauptdiagonalelemente von Null verschieden, somit gelingt der Gaußsche Algorithmus in der natürlichen Reihenfolge mit den Pivots auf den Plätzen 11, 22, ... n - 1, n - 1, und man zeigt leicht, daß die Hauptabschnittsdeterminanten H 1, H 2, ••• , H n der Hauptminoren von A und II einander gleich sind, Hj=detAj=detllj
j= 1,2, ... ,n ,
(13)
224
11 Quadratische Formen
und daraus folgt nach (12) n
Hn =
Il
7tj =
detA. (14)
j=l
Sind nun alle n Pivots positiv, so sind es auch ihre Produkte, sind sie aber alle negativ, so sind die Produkte (14) abwechselnd negativ und positiv; andere Möglichkeiten der Vorzeichenfolge scheiden damit bei Definitheit aus. Stellen wir abschließend alles Gesagte nochmals übersichtlich zusammen:
Bedingungen für positive
negative Definitheit
notwendig
ajj> 0 Hauptdiagonalelemente ajj< 0
(a)
notwendig und hinreichend
Aj>O 7tj>O
Eigenwerte Aj
x(r)
=
n
L xjwj(r)
(63)
j=t
mit den nEigenlösungen (56) und den Anfangsbedingungen (62); eine Formulierung, die auch als Überlagerungsprinzip bezeichnet wird. Als wichtigstes Ergebnis halten wir fest, daß auch bei mehrfachen Eigenwerten keine Eigenlösungen der Form rcos wr, r sin wr oder ähnlich auftreten, wie dies bei nichtdiagonalähnlichen Paaren der Fall ist, siehe dazu Abschnitt 20.6. Für die speziellen Anfangsbedingungen (64)
verschwinden zufolge der Orthogonalitätsbedingung yi BXk = 0 für j:l= k in (62) alle Quotienten bis auf einen, und es verbleibt wegen (65) von der Summe (63) allein die Eigenlösung (66) Bei beliebigen Anfangsbedingungen dagegen ist die Lösung x(r) im allgemeinen keineswegs periodisch. Halten wir schließlich noch fest, daß nicht nur einige oder alle Eigenwerte Aj komplex sein können, sondern auch die beiden Matrizen A und B sowie der Parameter v 2 , siehe dazu die Fallunterscheidung (43) bis (47). 14.5 Das Minimalpolynom
Der Satz von Cayleigh-Hamilton (13.121) läßt eine Modifikation zu für den Fall mehrfacher Eigenwerte, sofern das Paar A;/n diagonalähnlich ist. Wir definieren zunächst das Minimalpolynom (67)
Es besteht im Gegensatz zum charakteristischen Polynom aus nur s Faktoren; die sogenannte Minimumgleichung m (A) = 0 hat somit die s Eigenwerte als einfache Nullstellen.
280
14 Diagonalähnliche Matrizenpaare
Um den angekündigten Satz herzuleiten, transformieren wir die Matrix F(A) = A -Un
(68)
auf die Diagonalform (69)
und fassen wie schon in (20) die s verschiedenen Eigenwerte in Gruppen zusammen F(A) = Diag( Al-A ... ArA'" '-----v----J d, mal
'----.,---! dj mal
As-A ) .
(70)
'----.,---! ds mal
In der Hauptdiagonale der Matrix F(Aj) stehen demnach dj Nullen F(Aj) = Diag( Al-Aj ... '-----r----J d, mal
0
... As-Aj) ,
'--r-------J
~ ds mal
dj mal
(71)
und dies bringt uns auf eine einfache Idee. Bilden wir nämlich das Produkt der s Matrizen (72)
so ist dieses offensichtlich gleich der Nullmatrix, da die Hauptdiagonale von P lauter Nullen enthält, und das ist es schon, was wir haben wollten. Um dieses Resultat auf die Originalmatrix F(A) zu übertragen, multiplizieren wir die Gleichung (72) von links mit X und von rechts mit Y und nehmen innerhalb der Gleichung s-l Erweiterungen mit YX = In vor XPY= XF(AI) Y XF(Ai) y ... ~~
... XF(A s ) Y= 0 .
(73)
'--v--J
Mit den unterklammerten dreifachen Produkten (74)
wird daher (75)
und nun zeigt ein Vergleich mit (66) die Gültigkeit von
281
14.5 Das Minimalpolynom
Satz 4: Eine diagona/ähnliche Matrix A genügt der Minimumg/eichung: m(A)=O
-+
(76)
m(A)=O.
Natürlich kann man die Gleichung (66) auch ausmultiplizieren, (77)
dann gilt auch (78) Liegt nun das Paar A;B mit regulärer Matrix B vor, so ersetzt man in (75) bzw. (78) die Matrix A durch B - 1A oder AB - I und damit (79)
Es sei allerdings auf einen ganz wesentlichen Punkt hingewiesen: während die Gleichung von Cayleigh-Hamilton in der geschlossenen Form (13.120) p(A) = 0 allein die Kenntnis des charakteristischen Polynoms det (A - .1 In) = P (.1) voraussetzt, müssen zur Bestätigung der Minimumgleichung m (A) = 0 die Eigenwerte At, ... ,An bekannt sein. Erstes Beispiel mit s = 2, n = 3.
A = [-; ; -1 -2
=~J0
(a)
Da wir nicht wissen, ob das Paar A;/ diagonalähnlich ist oder nicht, machen wir den Versuch mit p(A)
= (A -Al/HA -,1.3/) = (A +3'/)(A -5'/)
,
(b)
in Zahlen p(A)=
[~ ~ =~J -1 -2 3
[-; -~ =~J -1 -2 -5
=
r~ 0~ ~l~j
L~
=0
(c)
und finden bestätigt, daß p (A) = m (A) = 0 die Minimumgleichung ist. Somit ist das Paar A; / diagonalähnlich. Zweites Beispiel mit s = 2, n = 3.
A=
[-~ -3
;
8
-:J
(a)
1
Hier ist p(A) = (A -O'/)(A -5'/)
*0 ,
(b)
282
15 Diagonalkongruente (normale) Matrizenpaare
sondern erst die Cayleigh-Hamiltonsche Gleichung p(A) = (A -O'/HA -O'/HA -5'/) = A
3-
5A 2 = 0 .
(c)
Das Paar A;/ ist demnach nicht diagonalähnlich.
15 Diagonalkongruente (normale) Matrizenpaare • 15.1 Die Normalitätseigenschaft
Ein Sonderfall der Diagonalähnlichkeit ist die im Abschnitt 10.4 abgehandelte Diagonalkongruenz eines Paares A;B mit der Transformationseigenschaft F(A)
=IX* F(A)X =A -Un 1= Diag (Ar A)
.
(1)
Ein solches Paar heißt normal bezüglich B oder einfach B-normal. Es erfüllt das äußere Kriterium (2)
und dies bedeutet, daß man ohne Kenntnis der Eigenwerte im vorhinein entscheiden kann, ob die Transformation (1) möglich ist oder nicht. Wie man die Definitheit von B überprüft, zeigt die Übersicht (11.15). Die Umkehrung der Kongruenztransformation (1), nämlich F(A) = BXF(A)X* B
(3)
läßt sich, da F(A) diagonal ist, als Summe schreiben n
F(A) =
L (Aj-A)Dj
,
(4)
j= 1
und das ist die schon oft mit Vorteil herangezogene Spektralzerlegung mit den Eigendyaden (Stützdyaden ) j = 1,2, ... ,n ,
(5)
wo der Nenner zufolge der in (2) vorausgesetzten Definitheit von B nicht verschwinden kann xjBXj=1=O;
j= 1,2, .. . ,n .
(6)
283
15.1 Die Normalitätseigenschaft
Da die Zerlegung (4) für jeden reellen oder komplexen Wert des Parameters A gültig ist, gilt auch n
A =
L
)=1
n
A)D)
B=
L J'D)
(7)
)=1
und diese getrennte Schreibweise ist zumeist vorteilhafter als die kompakte Darstellung (4). Schließlich ist noch der Formenquotient (13.77) x*Ax· q. = :J..:..:..::l. = A' J *B x) J x)
(8)
von Bedeutung und im Zusammenhang damit das mit einem beliebigen Vektor w * 0 gebildete Formenpaar A;B n
n
n
)=1
)=1
)=1
L A)D)w= L A)w*D)w= L A)m)
A=w*Aw=w*
n
L
B=w*Bw=w*
n
1'D)w=
)=1
L
(9)
,
n
J'w*D)w=
)=1
L
(10)
1'm)
)=1
mit den reellen als Gewichten (oder Massen) fungierenden Größen m)
= w *D) w
*0 ,
(11 )
die bei positiver (negativer) Definitheit von B positiv (negativ) sind. Setzen wir noch A) = u) + i v), so haben wir damit für A und B die SummendarsteIlung n
A=w*Aw=
)=1
n
n
L u)m)+i L v)m)
B= w*Bw=
)=1
L
)=1
m)
(12)
gewonnen. Darin sind die Größen (11) die Formenquotienten _ *D _ *Bx)xjB _ (w*Bx)(xjBw) m) - w )w - w wx* BxJ x*J Bx·J J
(13)
und dies können wir mit den verallgemeinerten Projektionen p)= w*Bx)
(14)
284
15 Diagonalkongruente (normale) Matrizenpaare
auch kürzer so schreiben (15) Die Konstruktion eines B-normalen Paares verläuft ähnlich wie im Abschnitt 14 für ein diagonalähnliches Paar beschrieben:
1. Wähle die Matrix X = (XI x2 ... x n ) regulär, aber sonst beliebig reell oder komplex. 2. Berechne B= (XX*)-I. 3. Wähle n Eigenwerte und berechne die Matrix A nach (7) mittels der Eigendyaden D j (5) oder direkt nach (3) (wo A = 0 zu setzen ist) als A = BXAX* B. Beispiel. Zu konstruieren ist ein normales Matrizenpaar der Ordnung n = 2 mit vorgegebenem Spektrum AI' A2 und der Modalmatrix (a). Wir berechnen die Matrix B in (b), mit dieser die Vektoren (c) und weiter die Stützdyaden (5) in (d).
x=
[Xl X2]
[:
1[1+2iJ 5 2+4i
BX t = -
,
_~]
:+] ,
(a),
1[ 2-i J 5 -1-2i
BX2 = -
(b)
(c),
DI
1[12J
= -
5
2
4
,
D2 =
1[li]
-
5
-i
. (d)
1
Die Matrix A wird damit nach (7)
1[12J +-2[1 iJ
A --
5
2 4
5
-i
(e)
1
Der Leser überzeuge sich von der Richtigkeit. Es ist AXt muß. Für At = - 5 und A2 = 5 zum Beispiel wird A =
[1 iJ [-2-1 -2J -4 -i 1 +
=
[0 -2+iJ -2-i -3
= AI BX t und AX2 = A2Bx2' wie es sein (f)
hermitesch, weil die Eigenwerte reell gewählt wurden. Man berechne die Matrix A für Al = 3 - i und A2 = - 1 + 2 i und überprüfe damit die Gültigkeit der Gleichung (2).
In den Anwendungen treten normale Paare mit komplexen Eigenwerten so gut wie niemals auf, ja nicht einmal hermitesche Paare als deren einfachste Vertreter. Um so bedeutsamer sind die reellsymmetrischen Paare, wie wir in den Abschnitten 15.5 und 15.6 anhand von Beispielen hinlänglich belegen werden. • 15.2 Hermitesche (reellsymmetrische) Paare Es sei nun A hermitesch,
A* =A ,
(16)
15.2 Hermitesche (reellsymmetrische) Paare
285
dann ist das Kriterium (2) in trivialer Weise erfüllt; doch ist das Paar A;B nur dann normal, wenn B definit ist. Daß diese Forderung nicht entbehrt werden kann, zeigt das folgende Beispiel. Beispiel. n = 2, hermitesches Paar. A
=
[~ -1
iJ '
0
det A
=-
I ; B
=
[0 I-i
I + iJ ' 0
det B
=-
2 .
(a)
Die charakteristische Gleichung lautet (b)
Da die Elemente b ll und b22 nicht beide positiv oder negativ sind, ist das notwendige Kriterium für Definitheit nach (11.15 a) verletzt. Das Paar ist somit zwar hermitesch, aber nicht normal; folglich brauchen die Eigenwerte auch nicht reell zu sein.
Da nun eine hermitesche Form reell ist, sind auch die Eigenwerte Aj als Formenquotienten (8) reell und damit die Hauptdiagonalelemente ajj und bjj von A und B als spezielle Formen, gebildet mit den Einheitsvektoren ej' wobei überdies die Elemente bjj zufolge der Definitheit von B alle positiv (negativ) sind. Damit werden auch die Spuren sp A und sp B reell, aber auch, wie sich zeigen läßt, die Koeffizienten der charakteristischen Gleichung det (A - AB) = p(A) = O. Komplex sind daher allein die Eigenvektoren Xj. Die Diskussion des Formenquotienten (8) führt nun unmittelbar auf den Satz 1: Sind die beiden hermiteschen Matrizen A und B gleichsinnig (gegensinnig ) definit, so sind die Eigenwerte des Paares A; B positiv (negativ) und von Null verschieden. Ist aber A indefinit, so können nicht alle Eigenwerte von gleichem Vorzeichen sein. Der Eigenwert Null tritt genau d = n - r mal auf, wenn A den Rang r< n besitzt. Wie schon eingangs erwähnt, kommen hermitesche Paare in praxi kaum vor, sondern dienen lediglich der theoretischen Abrundung. Um so wichtiger sind ihre reellen Vertreter mit (17)
Auch für sie gilt alles vorher Gesagte; es ist nur überall das Zeichen * durch T zu ersetzen. Im Gegensatz zu den hermiteschen Matrizenpaaren sind auch die Eigenvektoren reellsymmetrischer Paare reell, sofern sie nicht - aus welchen Gründen immer - mit einem komplexen Faktor multipliziert werden. Quadratische Formen reellsymmetrischer Paare spielen eine Rolle bei der schon in Abschnitt 11.6 diskutierten Geometrie der Flächen- bzw. Flächenpaare zweiten Grades, deren Theorie wir im Abschnitt 15.5 vertiefen werden. Ihre Bedeutung in der Physik haben sie als Formen der kinetischen und potentiellen Energie. Ist deren Summe konstant, so führen die Lagrangeschen Gleichungen zweiter Art auf eine gewisse Klasse von Bewegungsgleichungen, die wir im Abschnitt 15.6 in voller Allgemeinheit abhandeln werden.
286
15 Diagonalkongruente (normale) Matrizenpaare
15.3 Schiefhermitesche (schiefsymmetrische) Matrix Es sei nun A schiefhermitesch, A
*=
B* = B der.
- A;
(18)
und somit B-normal, wie aus dem Kriterium (2) in trivialer Weise hervorgeht. Da der Zähler S im Formenquotienten (8) nach (11.33) rein imaginär ist, gilt der Satz 2: Die Eigenwerte einer sehiejhermitesehen Matrix A zum definiten hermitesehen Partner B sind rein imaginär. Der Eigenwert Null tritt genau d = n - r mal auf, wenn A singulär vom Range rist. Da eine schiefhermitesche Form rein imaginär oder Null ist, sind die Hauptdiagonalelemente ajj von A als spezielle Formen zum Einheitsvektor ej rein imaginär oder gleich Null. Die Koeffizienten des charakteristischen Polynoms sind ebenso wie die Eigenvektoren komplex. Im Sonderfall der reellen schiefsymmetrischen Matrix A mit reellsymmetrischem und definitem Partner B A
T= _
B T = B der.
A;
(18')
ist die charakteristische Gleichung reell und vom Typ (13.64), (13.65) zufolge A = ±iP, somit A2 = _p2. Daraus folgt: ist n ungerade, so muß A singulär sein und hat damit mindestens einen Eigenwert A = O. Ein Beispiel. n = 3. AreeIl schiefsymmetrisch, B = 13, A verkörpert das vektorielle Produkt nach (12.9):
A
= [_
~z - ~z ay
ax
-
::J ' 0
a=
[::] ,
az
a Ta
=
a; + a; +
a~ .
(a)
Wir fragen, für welche Vektoren x die Gleichung
axx = Ax = AX
(b)
bestehen kann. Die charakteristische Gleichung
det(A-H)
= -A3_(a;+a;+a~)A =
-A 3-a TaA
=
0
(c)
liefert die drei Eigenwerte
Al =0, A2=
+iM,
A3=
-iM.
(d)
Wie leicht zu sehen, ist Xl = a, und in der Tat ist a x a = 0, wie bekannt. Die Eigenvektoren x2 und x3 sind komplex und ohne geometrische Bedeutung.
15.4 B-unitäres Matrizenpaar Ein B-unitäres Paar gehorcht über die Gleichung (2) hinaus der Bedingung (19)
wo die reelle Größe a beliebig vorgebbar ist.
15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
287
Aus Ax = ABx folgt x* A * = Xx* B* = Xx* B. Multipliziert man die linken und rechten Seiten dieser Gleichung unter Zwischenschaltung der Matrix B - 1 miteinander, so wird (20)
und damit gilt der Satz 3: Die Eigenwerte eines B-unitären Paares A; B liegen auf dem Kreis um den Nullpunkt der komplexen Zahlenebene mit dem Radius a: (21) Auch die reellen Werte - a und + a können demnach zum Eigenwertspektrum gehören. Ist das Paar A;B reell, so geht (19) über in (22)
Auch die Koeffizienten der charakteristischen Gleichung sind nunmehr reell, somit gilt (23) und dazu gehört der Gleichungstyp (13.66) bis (13.70), denn mit aAj ist auch 1/(aAj) ein Eigenwert. Es sei nun speziell B = In und a 2 = 1, dann haben wir die strikte Unitarität bzw. im Reellen die strikte normierte Orthogonalität (Orthonormalität) A *A
= In = A A *
bzw.
A TA
= In = A AT.
(24)
Die Eigenwerte liegen jetzt auf dem Einheitskreis und sind im reellen Fall überdies konjugiert komplex, das ist der Fall d) in Abb. 13.2. Im übrigen sei dem Leser die Wiederholung der Abschnitte 2.8 und 4.2 empfohlen. • 15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem Im reellen Raum der Dimension n seien zwei konzentrisch gelegene Flächen zweiten Grades gegeben A
= xrAxa = ±r~;
B
= xbBxb = r~,
B pos. def.
(25)
Die Matrizen A und B sind reellsymmetrisch und dimensionslos, die Vektoren X a und xb haben ebenso wie die Größen ra und rb die Dimension einer Länge. Beide Flächen haben den gleichen Mittelpunkt 0, daher setzen wir x a = a w;
xb = ßw ,
(26)
288
15 Diagonalkongruente (normale) Matrizenpaare
ähnlich wie schon in (11.41). Mit den Rayleigh-Quotienten (27)
sind dann die Beträge (die Längen) der beiden Ortsvektoren x a und xb nach (11.44)
-
'a
(28)
OPa = a = rY1=R=a[=w=ll
für jede vorgegebene Richtung ww mit dem Richtungsvektor W beliebiger Länge. Wir fragen jetzt, ob die beiden Flächen gemeinsame konjugierte Durchmesser besitzen, dann muß nach (11.50) gelten (29)
oder in
W
formuliert (30)
Dies aber ist nichts anderes als die Orthogonalitätsbedingung für die n Eigenvektoren des Paares A;B. Zufolge AWj = AßWj wird dann Ra [wjl = Aßb[Wjl, und damit gehen die Gleichungen (28) über in
a.= J
,
a
'VI')J YRb[wjl
(31)
•
'
Die Eigenvektoren selbst sind nach (26) und (11.45) j = 1,2, ... ,n
(32)
und die dazugehörigen Bildvektoren j = 1,2, ... ,n
.
(33)
Es sei nun speziell B = Im dann ist B = xIBxb =,~ die Gleichung einer Kugel mit dem Radius 'b' Der Rayleigh-Quotient nimmt den Wert Eins an (34)
289
15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
und damit wird aus (31)
(35)
J
Zufolge der strikten Orthogonalität W wk = 0 stehen die konjugierten Durchmesser aufeinander senkrecht; sie werden als Hauptachsen der Fläche A = r~ bezeichnet, und die Größen aj sind deren halbe Längen. An den Flächen zweiten Grades wurde Mitte des 19. Jahrhunderts die Theorie der reellsymmetrischen Matrizen weitgehend ausgerichtet, weshalb die Ausdrücke Eigenwertproblem und Hauptachsenproblem oft als Synonyme benutzt wurden. Für den berechnenden Ingenieur ist die Theorie der Flächen zweiten Grades keineswegs so wirklichkeitsfern, wie es auf den ersten Blick scheinen könnte. Es existiert nämlich in der Mechanik des starren Körpers eine Massengeometrie (siehe [54, S. 242 - 252]) und ebenso eine Geometrie der Flächenmomente zweiten Grades (siehe [55, S. 291 - 294]) in vollständiger Analogie zur "gewöhnlichen" Geometrie, was wir wenigstens in Umrissen andeuten wollen. Beginnen wir mit der Massenmatrix (12.20). Setzen wir F = m 12 B mit der Masse m des starren Körpers und einer beliebig wählbaren Vergleichslänge I, so wird das Massenträgheitsmoment bezüglich einer durch den Vektor w festgelegten Achse w w durch den Punkt F
e
(36)
womit der Anschluß an die Theorie der Flächen zweiten Grades erreicht ist. Da @F positiv definit ist, läßt sich dem starren Körper im Punkt Fein Trägheitsellipsoid w T Bw = const. zuordnen, das in groben Zügen die Gestalt des Körpers nachahmt und dessen Gradient der Drallvektor ist. Die Eigenwertaufgabe Bw = A. w legt daher die drei orthogonalen Hauptdrehachsen mit den zugehörigen Eigendrehmassen (Hauptdrehmassen) fest. Speziell für eine in der ~-I1-Ebene gelegene starre Scheibe verschwinden zufolge (= 0 zwei der Produkte (12.22), und es verbleibt die Massenträgheitsmatrix e F bzw. die Flächenträgheitsmatrix JF
B ebenso wie
e F = [ef~ 0 o
(37)
wo die Matrix JF aus e F entsteht, wenn die Masse m bzw. dm durch die Fläche F bzw. dF der starren Scheibe ersetzt wird. Die Matrix zerfällt somit in einen Skalar, der als polares Moment bezeichnet wird, und in die zweireihige Matrix
290
15 Diagonalkongruente (normale) Matrizenpaare
(37') mit den sogenannten axialen Trägheits- bzw. Flächenmomenten als Elementen. Auch die zu den Matrizen (37') gehörende Trägheitsellipse ahmt in groben Zügen die Gestalt der starren Scheibe nach. Die Abb. 15.1 zeigt ein gängiges Balkenprofil mit den Hauptachsen bezüglich des Schwerpunktes S.
Abb. 15.1. Flächenträgheitsellipse eines Balkenprofils
Ein Beispiel. n = 2, Kegelschnitte.
A -_
[-4 -3J
'
det A = - 25.
indef. Hyperbel ;
(a)
B --
[17 -6J
• det B = 100,
pos. def. Ellipse .
(b)
-3
-6
4
8
A) Hauptachsen der Hyperbel A = ± r~.
(c)
Die Halbachsenlängen sind nach (35) (d)
B) Hauptachsen der Ellipse B = r~.
(e)
(f) C) Gemeinsame konjugierte Halbmesser.
1 det(A-AB) = l00A 2 -25 =0 • AI = - - • 2
15.5 Reelle Flächenpaare zweiten Grades. Das Hauptachsenproblem
291 (g)
Die Rayleigh-Quotienten zu
Rb'
200
=-
25
Wj
und
8
= 4, R b2 = - = 8 1
w2
sind
,
(h)
und damit haben wir nach (31) die gemeinsamen konjugierten Halbmesser in
'a V4 I ,C V1I2' = 'alV 2;
Richtung w,:
0,
=
Richtung
02
= -'a- .- 1 =,a 12
w2:
b1 =
V1I2VS
Die Ergebnisse zeigt die Abb. 15.2 für die Werte
V4 = 'b
'b 12
(i)
'a = 1,5 und 'b = 1.
0.7 0.6
-0. 7
-0. 6
0.:;'
-0.5'·. -0. 4
~.,
0.3
O. 4
0.5'. 0.6
0.7
//
'.
. -0.6 -0.7
Abb. 15.2. Kegelschnitte mit Hauptachsen und konjugierten Durchmessern (Computerausdruck)
292
15 Diagonalkongruente (normale) Matrizenpaare
• 15.6 Lineare Schwingungssysteme Eine der wichtigsten Anwendungen reellsymmetrischer Matrizenpaare findet sich bei den linearen (besser linearisierten) Bewegungsgleichungen der Physik, speziell der Mechanik, deren Herk~nft auf der Existenz zweier reeller quadratischer Formen beruht. Das System habe n Freiheitsgrade und werde beschrieben durch n dimensionsgleiche Koordinaten Xj (Längen, Winkel, auch Flächen u.a.), die zum Vektor T (Xl x2'" x n ) = x zusammengefaßt werden. Stammen alle auf den Verband einwirkenden äußeren Kräfte aus Potentialfeldern, so gilt bekanntlich der Energiesatz (Erhaltungssatz) (38)
E(t)+ = CtS2+c2s2+2mgssinqJ =
(Cl
+C2)s2+2mgs(qJ-qJ3/3! + ... ) I
.
(c)
I
3. Streichen aller in (b) und (c) unterklammerten nichtquadratischen Terme; es verbleibt 2 2 2 mg 2E=ms +/i(lip) ; 2(/>= (C I +C2)S +2-s(lqJ) /
(d)
oder nach Division durch m und mit den Akürzungen Cl +C2 2y=--, mg
g v 2 =/
(e)
(f)
und dies ist genau die quadratische Form (11.1') für n = 2 mit den Variablen Die dimensionslosen Matrizen aus (41) sind somit
Xl
= sund x2 = /qJ.
(g)
(h)
5. Die Eigenwerte und damit die Eigenkreisfrequenzen sind
At=y-V y 2+11/i 0;
W2=V~.
(i)
Nehmen wir die beiden Federn fort, so wird mit c t = c2 = 0 auch y = 0, und es verbleibt At
= -
~
< 0, wt = v ~; A2 = + ~ > 0, w2 = V~ .
(j)
6. Die Eigenvektoren berechnen wir nur für den Sonderfall (j): (k)
7. Das Anpassen an zwei vorgegebene Vektoren Xo und i o sei dem Leser überlassen. 8. Die Lösung ist nach (44)
x(t) =
[ -V;-J I I
1 (t)
+
[+ V;-J 1
12(t)
(I)
mit den beiden Eigenlösungen a) Fliehbewegung (m)
296
15 Diagonalkongruente (normale) Matrizenpaare
b) Harmonische Schwingung . sin wzt ,r-:: 1r-:!z(t)=!zocoswzt+!zo--, wz=Vgl /·V lltJ·
Wz
Abb. lS.Sa,b. Die beiden Eigenbewegungen der Wippe von Abb. 15.3 ohne Federn
•
a
(n)
Die Bewegungen verlaufen nach Abb. 15.5 um so langsamer, je größer die Drehträgheit der Wippe im Verhältnis zur Masse m ist. Sei die Masse des Brettes Sm, dann ist (t)=E(t)=v A(t)+B(t) = "'" [wJj(t)+fj(t)l= "'" [wJjo+fjol. j=1 j=l (49)
Hieraus folgt zunächst nicht ohne weiteres, daß jeder Summand für sich konstant sein müßte, doch hatten wir in (14.49) gezeigt, daß für die skalare Differentialgleichung bx(t) = -v 2 ax(t) mit den reellen Größen a, bund v 2 die Beziehung (50)
gilt, und damit zerfällt der Erhaltungssatz (49) in die n separaten Erhaltungssätze (51)
und dies gilt ebenso für negative Eigenwerte (Fliehbewegung) und für die Translation mit Wj = O. 15.7 Die hermiteschen Komponenten eines normalen Paares
Wie schon in (4.8) gezeigt, läßt sich jede quadratische Matrix A eindeutig zerlegen in (52)
mit den beiden hermiteschen Komponenten
1
H 1 = - (A
2
+ A *), H 2 =
-
1
2i
(A - A *) .
(53)
300
15 Diagonalkongruente (normale) Matrizenpaare
Zerlegen wir auch die Eigenwerte (54)
in Real- und Imaginärteil, so wird nach (7) n
A
=
L
j=l
n
AjDj =
n
L (uj+ivj}Dj = L
j=l
j=l
n
ujDj+i
L
j=l
vjDj
(55)
Nun ist die Dyade D j hermitesch und sie bleibt es, wenn sie mit einem reellen Skalar Uj oder Vj multipliziert wird. Damit erweisen sich zufolge der Eindeutigkeit der Zerlegung (52) die beiden hermiteschen Komponenten als H1=
n
L
j= 1
ujDj , H 2 =
n
L
j= 1
(56)
vjDj
Als nächstes betrachten wir die konjugiert-transponierte Matrix
A
*=
n
L Aj D j
=
j= 1
n
L XjDj
j=
(57)
,
1
und dies Ergebnis besagt, daß das Paar A *;B die konjugierten Eigenwerte Xj zu den Eigendyaden D j und damit zu den Eigenvektoren Xj des Paares A;B besitzt. Drittens schließlich bilden wir das dreifache Produkt
A*B- 1A =
n
L
j=l
XjDjoB-1o
n
L
j=l
AjDj =
n
L
j=l
XjDß-1DjAj
(58)
Hier verschwinden alle gemischten Produkte zufolge der Orthogonalitätsbedingung (14.34), weshalb die Doppelsumme in eine einfache Summe übergeht, und diese vereinfacht sich weiter nach (14.37) zu
A*B- 1A
n
=
L n= 1
n
XjAjDß-1Dj =
L
j= 1
XjAjDj
(59)
Das hermitesche Paar A * B - 1A; B (und ebenso natürlich das Paar AB - 1A *; B) hat somit die Betragsquadrate XjAj als Eigenwerte zu den Eigendyaden Dj und damit zu den Eigenvektoren Xj des Originalpaares A; B. Wir beobachten hier eine allein den normalen Paaren eigentümliche Korrespondenz zwischen den Eigenwerten und zugehörigen Matrizen, ein Ergebnis, das wir in der folgenden Übersicht nochmals zusammenfassen.
301
15.8 Fragen der Normierung
Matrix zum Partner B
Eigenwerte
Eigenvektoren
A A*
Aj Xj
'""'
Hj
1
= -(A +A *)
2 1 H 2 = -(A-A*) 2i A*B- 1A 1
AB- A*
Uj Xj
(60)
Vj
}
-
2
2
AjAj=Uj+Vj
~
Aus dieser Eigenschaft folgt offenbar noch mehr, nämlich: Hat die hermitesche Komponente H 2 den Defekt d 2 = n - r2' so sind d 2 Eigenwerte des Paares A;B reell. Und analog: hat die hermitesche Komponente H 1 den Defekt d 1 = n - r1> so sind d j Eigenwerte des Paares A; B rein imaginär. Im Extremfall gilt: Ist H 2 = 0, so ist A = H j hermitesch mit n reellen Eigenwerten, ist H j = 0, so ist A = i H 2 schiefhermitesch mit n rein imaginären Eigenwerten. Auf Grund des Trägheitsgesetzes von Sylvester aus Abschnitt 11.4 lassen sich noch weiter gehende Aussagen machen; wir kommen im Abschnitt 21 darauf zurück.
15.8 Fragen der Normierung Die Normierung eines Eigenvektors Xj' d. h. die Festlegung seines Betrages kann auf mannigfache Weise geschehen. Betrachten wir daraufhin die hermitesche Form des normalen Paares A;B, (61)
Ist nun A hermitesch, so sind die Eigenwerte Al' ... , An reell. Sie seien der Größe nach numeriert wie in Abb. 15.8, dann begrenzen sie ein Stück der reellen Achse,
a keine Normierung
b B-Normierung
Abb. 15.8a-c. Die Eigengeraden der Matrix F(,l,)
cF-Normierung
302
15 Diagonalkongruente (normale) Matrizenpaare
das als Wertebereich des hermiteschen Paares A;B bezeichnet wird. Die hermitesche Form (61) stellt dann eine zum Eigenwert Aj gehörige Eigengerade dar (62) Wir sehen: die Steigung tan Yj ist abhängig von der Länge (dem Betrag) des Vektors Xj, weshalb bei fehlender Normierung jede Eigendyade im allgemeinen eine andere - negative - Steigung besitzt, wie in Abb. 15.8 veranschaulicht. Wie bringen wir nun in das regellose Gewirr der Eigengeraden eine Ordnung? Im einfachsten Fall setzt man (63) womit die Länge des Vektors festgelegt, der Vektor selbst wie wir sagen B-normiert ist; es wird tan Yj = - 1, alle nEigengeraden schneiden die A-Achse unter dem gleichen Winkel Y = 135° und sind damit einander parallel, siehe Abb. 15.8b. Wählen wir dagegen anstelle von B eine zunächst beliebige hermitesche und definite Normierungsmatrix N und dividieren die Gleichung (61) durch die Form xj NXj, so wird x*Bx· tan y. = __ J_ _ J J
*
(64)
Xj NXj
wo nun die Steigung tang Yj der Geraden ebenfalls unabhängig von der Länge des Vektors Xj geworden ist; denn ersetzt man Xj durch eXj, wo e ein beliebiger reeller oder auch komplexer Skalar ist, so kürzt sich dieser in (64) heraus. Dessenungeachtet sind natürlich nach wie vor die Steigungen der Eigengeraden voneinander verschieden, was jedoch kein Nachteil zu sein braucht. Im Gegenteil, wählen wir speziell
!N=t5-
I
F(A);
t5,Areell,
N=N*def.l,
(65)
so wird aus (52) nach Division durch xj NXj = t5 -I xj F(A )Xj
(66)
und da gF(Xj, A) = t5 unabhängig von Xj gilt, muß jede Eigengerade durch den Knotenpunkt P mit der Abszisse A und der Ordinate t5 gehen. Während also die B-Normierung (63) die Eigengeraden gleichrichtet, bewirkt die F-Normierung mittels der Matrix (65) eine Bündelung im Punkte P; ein Sachverhalt, auf dem eine Reihe leistungsstarker Algorithmen wie etwa die iterative Einschließung [178) sowie weitere Einschließungssätze beruhen. Die Abb. 15.8c zeigt zugleich, daß die
15.9 Die singulären Werte eines allgemeinen Matrizenpaares
303
positive (negative) Definitheit der Normierungsmatrix N (65) gesichert ist bei Wahl von
0, Am stehenden Spalten von A, Bund R m m m werden ersetzt durch die Spalten - a, - bund - r, dann erst erfolgt 2a). m
(m)
3. Zeilenkombination. Gauß-Jordan-Algorithmus an den drei Matrizen L; A (m)
und B.
START L =/n'
~~!
~~~+,
und hier sind zwei Fälle zu unterscheiden. (Es ist 3a) Das Hauptdiagonalelement
(m)
bJ1J1
f.1
(21)
= n - m + 1).
ist von Null verschieden. Dann werden die
m (m)
(m)
(m)
drei Zeilen der Nummer m von L, A und B durch b/1/1 dividiert. 3 b) Das Hauptdiagonalelement ist unten so, daß
(m)
bJ1J1 =
(m)
bJ1J1
= O. Dann erfolgt Pivotregulierung von
1 wird. (m)
Sodann wird via Gauß-Jordan mit der Eins in der Hauptdiagonale als Pivot in B (m)
nach unten und oben reduziert. Dabei gehen alle Elemente in A unterhalb der Hauptdiagonale in Nullen über, und es ist m aJ1~ = Aj. Ende der Transformation der Nummer v = m. Da uns die Vielfachheit des Eigenwertes Aj nicht bekannt ist, wird im nächsten Durchgang wiederum Aj in die Matrix Fj,m-l (15), jetzt von der Ordnung m-l, eingesetzt und die Transformation (16) bis (21) durchgeführt. Dieses Spiel wird so lange fortgesetzt, bis die Pivotmatrix (16) regulär wird; dann gibt es keine weitere Eigenspalte mehr, und die Prozedur bricht damit ab. Die Vielfachheit aj des Eigenwertes Aj ist gleich der Anzahl der Ordnungserniedrigungen und wird in die Datenliste (1) eingetragen. Ist schon beim zweiten Mal die Pivotmatrix regulär, so heißt dies, daß Aj ein einfacher Eigenwert ist. Sodann wird der nächste Eigenwert Aj+ 1 aufgerufen und mit diesem eine Anzahl von aj + 1 Transformationen durchgeführt bis schließlich hin zum letzten Eigenwert As ' womit dann die obere Dreiecksmatrix ~ gewonnen ist. Wir werden im Abschnitt 18.4 noch zeigen, daß der Defekt dj von Ordnungserniedrigung zu Ordnungserniedrigung nicht anwachsen kann; bei einem nichtderogatorischen Eigenwert Aj ist somit dj = 1 für jede Matrix F jv (15). Erstes Beispiel
'
B=~= r~L~ ~ ~J ~ I 1 0
(Jj
(a)
? ?
Erste Ordnungserniedrigung Wir beginnen mit AI = 4. (Natürlich wäre auch A2 möglich, der Leser führe dies anschließend zur Übung durch!)
314
16 Die B1ock-Diagonalmatrix. Strukturfragen
1. Mit der singulären Matrix F Jn = Fn(A J) = A - 4B (t 5) führen wir die Transformation LFlnR = fl ln (16) durch, beginnend mit der letzten (hier dritten) Spalte, und gewinnen den normierten Rechtseigenvektor 'k ='J
[ 1-1-;~;-6J -+', [-:/31J ' -;
F'n=
(b)
Probe: Fln'J = o!
=
3
2. Wir berechnen die drei Bildvektoren (beim Start ist R = I)
(c)
3
3
3
und führen sie als erste Spalten in A, Bund R = I ein, das gibt (3) A =
[G -6J -1 -5 4/3 -5 -4 9 12
,
(d) (3)
3. Gauß-Jordan, durchgeführt an der Matrix B. Da oben links eine Eins steht, entfällt (3)
die Division. Wir bekommen mit L = I 3
L 1 -1/3 1
1 0 0
(3)
(3)
A
B
-1 -6 4 0 0 1 0 4/3 -5 -5 0 1 -4 9 12 2
1 0 0 1/3 0 1 -1 1 0 2 B
2
L
A
4
0 0 1 - 1/3 1 0 0 1 1
-1
o - 14/3
0
8
-6
1 0 0
-3
6
0 0 0 1 1 0 2
(e)
2
Die erste Ordnungserniedrigung ist damit vollzogen. In B ist die erste Spalte b J = eJ, und links 2
oben in A steht der Eigenwert AJ = 4, wie es sein muß. Zweite O,dnungserniedrigung 2
2
1. Wir gehen nochmals mit AJ = 4 in das Paar A 2;B2 der Ordnung 2 (das unten rechts in A;B (e) steht) ein und erhalten F2 (4)=A 2 -4B2 =
[
- 1413 - 3J -4 [0
8
6
lJ = [- 14/3 -7J , 1 0 4 6 (f)
16.2 Die Transformation auf obere Dreiecksmatrix
315
Der Eigenvektor '2 ist normiert und wird vervollständigt zu 2. Die drei Bildvektoren
v
'2.
(g)
rn - rn 222
werden als zweite Spalten in A, Bund Reingeführt:
(2) A
=
[4
0
o
- 8/3 4
6J
- 3 6
;
(2) B
=
[1
0 0
- 2/3 1
0J 1 0
,
RI =
2
[1
1 1/3
-
(2)
Cd 0J 1 - 2/3
(h)
1
(2)
3. Zeilenkombination. Division der zweiten Zeile von L (e), A und B durch - 2/3 ergibt 1 0 0 1 0 0 4 3 -6 112 -312 0 0 4 912 0 1 -312 1 0 4 6 0 1 0 1 0
(i)
und weiter nach Gauß-Jordan I
I
L
I
A
B
1 0 0 0 0 4 3 -6 0 1 1 112 -3/2 0 0 4 912 0 1 -312 -1 112 312 1 0 0 3/2 0 0 3/2
(j)
O.
Wir setzen ein drittes Mal AI = 4 ein, das gibt F t = A I -4B t = 3/2-4(312) = -912 *" Die "Pivotmatrix" (hier ein Skalar) ist somit regulär, der Eigenwert At hat folglich ausgedient, und es ist der nächste Eigenwert der Liste (a) an der Reihe. Da wir hier aber bereits am Ende angelangt sind, folgt als I
I
1
D,itte Transformation. Division der letzten Zeile von L, A und B durch 312 und anschließend ein Gauß-Jordan-Schritt
o
o
L
o
A
0 1 0 0 3/2 1 0 1 1 1/3 1 2/3
B
4 3 -6 1 0 0 0 4 6 0 1 0 0 0 1 0 0 1
(k)
Ende der Gesamttransjormation. Die Transformationsmatrizen sind
OOJ o 1 1 2/3
I
v
, R = R = (rl '2 r3)
= [1 -1
o 1
(I)
1/3 -2/3
Die Matrix R ist nichts anderes als die Folge der drei Vektoren (b), (f) und'3 = ohne Rechnung an, wie bereits im Text erwähnt. Probe: LAR=A ="\1; LBR=I!
e3
und fällt somit
316
16 Die Block-Diagonalmatrix. Strukturfragen
Zur numerischen Durchführung noch folgendes. Liegt bei jeder der n Ordnungserniedrigungen der Regelfall (17, 1a) vor, so braucht die Transformationsmatrix R gar nicht mitgeführt zu werden, da einfach gilt R=(rl
v
v
r2 ... r n_1
(21 a)
en ) .
Besondere Vereinfachungen ergeben sich beim speziellen Eigenwertproblem B = In' Hier wird nach jeder Ordnungserniedrigung die Einheitsmatrix In wiederhergestellt, so daß im Programmpunkt 3c) nur nach unten und nicht auch nach oben reduziert werden muß. Außerdem kann man auf die Mitführung der Matrix L verzichten, da sie als Inverse von R nachträglich leicht zu gewinnen ist. Es sei nun der aufgerufene Eigenwert Aj derogatorisch, dann weist die Pivotmatrix (16) djl > 1 Nullspalten auf, mithin gibt es auch djl linear unabhängige Rechtseigenvektoren, die im Regelfall nach dem Muster (6.58) erscheinen
1
1 0 0
I
m
rjl =
0 1 0
Zeile fJ
0
rj2 =
Zeile fJ - 1
0
rj3 =
0 0 1
Zeile fJ- 2
0
, usw.
* *
* *
* *
*
*
*
mit fJ=m-n+1
(21 b)
Die Vektoren rj2,rj3,' .. werden dann für die nachfolgenden Ordnungserniedrigungen aufgehoben (gespeichert); ansonsten verläuft der Algorithmus normal wie im nicht-derogatorischen Fall mit der Besonderheit, daß jetzt oberhalb der Hauptdiagonale in A ebenfalls Nullen erscheinen. Wieder ist der aktuelle Eigenwert Aj so lange in (15) einzusetzen, bis die Pivotmatrix (16) regulär wird. Der Eigenblock ~j hat dann (im Unterschied zu dem bereits besprochenen Fall (22a» die Struktur (22b) angenommen, wobei die Ordnung der einzelnen Diagonalblöcke nicht anwachsen kann, wie wir im Abschnitt 18.4 noch zeigen werden.
•
a) nicht-derogatorisch oder total defektiv
b) semi-derogatorisch oder beschränkt defektiv
•
•
•
•
•
•
(22)
•
•
c) strikt derogatorisch oder nicht defektiv
317
16.2 Die Transformation auf obere Dreiecksmatrix
Im Fall 22c) ist der Defekt block diagonalähnlich, "lj = Zweites Beispiel. n L=R- 1 •
= 6, B = 16,
d j1
gleich der Vielfachheit
(Jj'
mithin ist der Eigen-
Ajlj.
Eigenwert A = 5. Wir verzichten auf die Mitführung der Matrix
Die Transformation der singulären Matrix F(5) = A - 5/6 auf die Pivotmatrix, beginnend mit der letzten Spalte, liefert drei Rechtseigenvektoren in der Normalform.
~
=A = [ ' ;
-8 -6
(a)
Wir führen mit diesen die ersten drei Ordnungserniedrigungen durch und bekommen
~
=
5 0 0 050 0 0 5 000 000 000
=35 =4 4 32J -11 -7 6 3 - 4 0 ' -1 7 0 -5 10 5
t
3
sp A
= 30.
3
R
=
0 000000] [0110 0 0 0 1 0 0 0 2 1 - 1 1 0 0 0 0 -1 0 1 0 2 3 -3 0 0 1
(b)
3
wo der dreireihige Block oben rechts in A zufolge der Normalform von R unverändert geblieben 3 3 3 ist. In das Paar A 3; 13 der Ordnung 3 unten rechts in A; 1 = A; 16 setzen wir ein zweites Mal den Eigenwert A = 5 ein und erhalten mit der wiederum singulären Matrix F3 (5) zwei weitere Rechtseigenvektoren (c)
die zu vervollständigen sind. Die vierte Ordnungserniedrigung ergibt somit
~ [j =
0 5 0 0 0 0
-7 -4 -5 -4 - 14,5 -7 5 4 0 5 0 10
0 0 5 0 0 0 v
~]
2
, sp A = 30 .
k=
~
0 0 1 0 0 1 1 -1 0 -1 3 -3
0 0 0 1 0,5 0 2
2
0 0 0 0 1 0
~] 2
(d)
Mit dem Vektor '5 = e6 liegt der Ausnahmefall vor. Es wird deshalb in A, 1 und R die mit - 1 multiplizierte fünfte Spalte mit der sechsten vertauscht
318
16 Die Block-Diagonalmatrix. Strukturfragen
(2)
A=
[j
0 5 0 0 0 0
[1
0 0 1 0 0 1 1 -1 o -1 3 -3
1
R=
-7
0 0 5 0 0 0
3 2 6 0 0 5
-5 - 14,5 5 0 0 0 0 0 1 0,5 0
4
(2)
7 4J -4
1=
-5 -10
[1
0 1 0 0 0 0
0 0 1 0 0 0
0 0 0 o 0 o 1 o 0 o 0 1
']
0 0 0 -1 0
~] ~R
0 0 0 0 0 1
(e)
-1 0
Anstatt nach der Vorschrift 3a) bis 3c) vorzugehen (der Leser führe dies aber zur Kontrolle (2)
(2)
durch), ist es hier natürlich einfacher, wenn wir die beiden letzten Zeilen von A und I vertauschen und anschließend die sechste Zeile mit - 1 multiplizieren. Es wird dann nach (10) 5 0 0 0 0 0
0 5 0 0 0 0
-7
0 0 5 0 0 0 I
1
0
2
4 4
6 0 5 0
-4 -10 5
3
-5 - 14,5 5 0 0
7
(f)
0
1
Der Schritt von A; I nach A; I gemäß (9a) ist hier nicht erforderlich, da unten rechts in I eine 1 steht. Kontrollen: sp"l = spA = 30. AR = R"l.
• 16.3 Die Transformation auf Block-Diagonalmatrix Wir kommen jetzt zu der in (11) angekündigten zweiten Transformation, die wir zweckmäßig in der Form '\IQ = QA
(23)
schreiben. Zu ihrer Durchführung ist die Partitionierung der Matrix'\l mit den rechteckigen Blöcken C 2 = C 12 , C3, .•• ,Cs nach dem Muster
~C12 '\1=
0
C 13 C 23 '\1 3
CI,s-1 C 2,S-1 C 3,s-1
CIs C 2s
0 0
0 0
'\I s- I
Cs-l,s
0
'\I s
0 0
'\12
0 0
..........................
C 3s
16.3 Die Transformation auf Block-Diagonalmatrix
~1@J[;]
o
~2
3
0
0
~3
0 0
0 0
0 0
...
...............
319
D~
(24)
~s-1
0
~s
erforderlich, und auch die gesuchte Transformationsmatrix Q muß in dazu passender Weise unterteilt werden
11~~'" o h ... Q=
0
0
13
0 0
0 0
0 0
..............
B~ Is-
0
1
(25)
Is
In der Matrix~ (24) wurden außerdem die Hauptabschnittsmatrizen oder Hauptminoren H1 = ~ l'
H2 =
[~10 ~C2J 2
, ... ,
(26)
Hs = ~
hervorgehoben, die im folgenden in den Algorithmus eingehen. Denn multipliziert man die Gleichung (23) aus und setzt die einzelnen Blöcke auf beiden Seiten einander gleich, so entstehen die Relationen Ordnung ml = al Ordnung m2 = al + a2
......................................................
}
(27)
Ordnung ms-l=al+a2+ ... +as-1 oder auch
(28)
und das sind s - 1 zweigliedrige lineare Matrizengleichungen in der Normalform (19.37) für die gesuchten Blockstreifen Q2 bis Qs aus Q (25). Wir greifen eine beliebige heraus und lassen der Übersichtlichkeit wegen die Indizes fort HQ-Q~
= -C ,
(29)
320
16 Die Block-Diagonalmatrix. Strukturfragen
dann entsteht, wie im Abschnitt 19.7 gezeigt wird, mit der Spaltenaufteilung (30)
und den Elementen OliV des Eigenblockes (6) ein gestaffeltes Gleichungssystem für die Spalten ql bis qm aus Q ql } q2
{H-U)qt = -Cl {H-U)q2 = -C2+q\OI2
---+ ---+
(~~.~~~~~.~.~~~~.~~~~3.~.~2.~2~
~.~3
(H-AI)qm = -C m +qIOlm+q2 02m+··· +qm-IOm-l.m
---+
.
(31)
qm
Zufolge der Verschiedenheit der Eigenwerte Aj in den einzelnen Eigenblöcken ist die Matrix der linken Seite regulär und überdies von oberer Dreiecksform, was die Auflösung des Systems (31) in willkommener Weise vereinfacht. Sie kann für alle s - 1 Matrizengleichungen (28) gleichzeitig und unabhängig voneinander durchgeführt werden (Parallelrechner!), womit die Transformationsmatrix Q und nach (14) auch die Inverse Q -I und weiter nach (12) auch das Paar Y;X bekannt ist. Zur Kontrolle bestätigt man YAX = A und YBX = In nach (2). Zerlegen wir nun die Matrizen Y und X in Blockstreifen
_n_J y1 y2
(32)
ys
so haben wir die bereits im Abschnitt 10.2 - in etwas anderer Bezeichnungsweise - durchgeführte Spektralzerlegung auch faktisch gewonnen (damals noch unter der unbewiesenen Voraussetzung, es gäbe eine solche Transformation), und zwar ist s
s
A =
L
(BXj)"lj{yj B)
j=1
B=
L (BXj)Ij{yj B)
(33)
j=1
somit auch s
F{A)=A-AB= ~ (BXj)Fj{A)(yjB)
mit Fj=""lrUj
j=l
und daraus resultieren die beiden Eigenwertgleichungen
für jeden Parameterwert A.
(34)
16.3 Die Transformation auf Block-Diagonalmatrix
321
Sind alle Eigenblöcke diagonal, ~j = lt.jIj , Fall (22c), so läßt sich der mittlere Faktor aus dem dreifachen Produkt in (34) herausziehen, somit wird zufolge Fj = (lt.rlt.)Ij F(lt.)
= A -lt.B =
s
s
j=l
j=l
L (lt.rlt.)(BXj)(yj B) = L (lt.rlt.)Dj
(36)
mit den von den Eigenwerten unabhängigen Eigendyaden (eigentlich Eigen-Blockdyaden) (37)
und die Eigenwertgleichungen (35) gehen über in (38) Sind alle n Eigenwerte voneinander verschieden, so entarten die Blockstreifen (32) zu den jeweils n Links- bzw. Rechtseigenvektoren, und es wird F(lt.)=A-lt.B=
n
n
j=l
j=l
L (lt.rlt.)(BXj)(yjB) = L (lt.rlt.)Dj
(39)
mit den echten Dyaden (40)
während die s Gleichungen (38) zufolge s = n zerfallen in (41)
Kommen wir schließlich zum Rechenaufwand. Es seien zunächst alle s Eigenwerte Aj nichtderogatorisch, dann ergibt eine einfache Auszählung der erforderlichen Operationen die folgende Bilanz
Transformation
Anzahl der Operationen A vollbesetzt; B = In A und B vollbesetzt
LAR=~
1 4 +_n 5 3 _n 12
1
Q-l~Q=A
-n
3
Y= Q-1L ; X=RQ
-n
5
3
Summe
1 12
11
6
3
6
-n+-n 12
3
6
1
n3
6
4
17
-n
6
1
4
-n+-n
6
3
(42)
322
16 Die B1ock-Diagonalmatrix. Strukturfragen
Im derogatorischen Fall kann dies erheblich weniger sein, da ja die Pivotmatrix (16) mit einem Schlage gleich mehrere Rechtseigenvektoren (21 b) für den gleichen Rechenaufwand liefert. Vorausgesetzt wurde von Anfang an - siehe die Datenliste (1)1 -, daß alle Eigenwerte bekannt seien. Dies trifft in praxi natürlich fast niemals zu, und wir werden später noch sehen, daß gerade in der Auffindung der Eigenwerte das Hauptproblem liegt und daß der dazu benötigte Rechenaufwand die Bilanz (42) um ein Mehrfaches übertreffen kann. Erstes Beispiel. Wir greifen auf das erste Beispiel aus Abschnitt 16.2 zurück. Es war
A
=[-75-,-~ -6J ~;
B=
(' OOJ 0 0 1 010
,
$Uj
2
(a)
1
ferner nach (I)
J
0 0 1 1/3 1 2/3
o
L= [:
LAR
='l =[:1
0
R= [-:
1J -
~~ =G -~J
LBR=I3
. '
1 1/3 -2/3
3
4
0
·
(b)
Es ist s = 2, somit bleibt nur eine einzige Matrizengleichung (29) zu lösen mit
und daraus folgt die Transformationsmatrix (25)
(d)
Die beiden Gesamttransformationsmatrizen (12) sind daher mit L und Raus (a)
(e)
und damit wird in der Tat
YAX=A
=
r'lt 0J r6 ~
L0 'l2 Lb
0
~l
d
Zum Zwecke der Spektralzerlegung berechnen wir nun die Matrizen
1[3 0J
BXt =-
3
1 -2 -3 3
1[ 12J
, BX2 =3
11 -18
;
16.3 Die Transformation auf Block-Diagonalmatrix
yIB=~
[-1 -8 -12J '
3
5
7
6
y2B=~(1
323
2
(g)
3)
3
und finden mit
~
1
=
G:] , ~ = 2
1 ;
11 =
G~] ,
(h)
12 = 1
nach (33) A = (BXj)I1 (yl B)+ (BX2)I2(y 2B) =
~ [-;~ 9
27
-33 -90J
1 [12
- 67 - 78
+-
117 162
9
11
24 22
36J 33
- 18 - 36 - 54
(i)
(j)
Schließlich überprüfen wir noch die Eigenwertgleichungen (35). Es ist
(k)
wie es sein muß, und ebenso richtig ist yl A zeugen möge.
Zweites Beispiel. n = 5,
S =
=~ I yl B,
y2 A
=~ 2 y2 B,
3 mit
0 0 0 0 0
0 0 0 0 0
4 -4 2 0 0
3 0 0 -1
wovon man sich über-
l
0 0 4 5
0 -1
(a)
324
16 Die Block-Diagonalmatrix. Strukturfragen
Die beiden Matrizen C] (d) und Q] (gesucht) werden in ihre Spalten zerlegt, und damit wird das gestaffelte System (31) mit der oberen Dreiecksmatrix (e) gelöst:
Zusammen mit Q2 aus (c) haben wir damit die gesuchte Transformationsmatrix
1 0 0 0 0
]
-2 2
0 1 0 0 0
-3 -29/3 o -16/3 0 -413 1 0 1 0
1 0 0
(g)
und, falls gewünscht, nach (14a) auch die Inverse
Q-I = [11~
-Q2 12 0
Probe: Q-1'lQ =A!
:J [~ :, ~J "l!
I]
0
0
13
33713]
0 2 1 -2 o 8/3 0 1 o 4/3 0 0 1 0 0 0 o 1
.
(h)
16.4 Die Struktur der Eigenmatrix. Natürliche Charakteristik
Der Eigenmatrix (bzw. dem Eigenblock )
o o
o
o
o o
o o
(43)
ordnen wir jetzt die Folge der Defekte als natürliche Charakteristik [;]
d jl d j2 ... dj,Pj
(j)
I
(44)
zu. Diese gibt uns erschöpfende Auskunft über die Eigenschaften der Matrix Fj bzw. "'lj' deren Gesamtheit als ihre Struktur bezeichnet wird. Es sind dies im einzelnen: 1. Die Summe der Defekte ist gleich der Vielfachheit des Eigenwertes (45)
325
16.4 Die Struktur der Eigenmatrix. Natürliche Charakteristik
Anmerkung: in der klassischen Literatur wird bisweilen unterschieden zwischen der algebraischen Vieljachheit Gj und der geometrischen Vieljachheit djl • 2. Durch die Defekte dj sind die Formate aller
PI Blöcke festgelegt.
3. Es gibt djl Nullspalten in Fj und damit djl linear unabhängige Rechtseigenvektoren Xj zum Eigenwert Äj • 4. Pj ist der Index der Nilpotentheit, das heißt, es gilt
FPj = 0, }
F1!r 1 *- 0 . J
aber
(46)
Um die letzte Aussage zu beweisen, potenzieren wir die Matrix Fj . So wird beispielsweise für Pj = 4
[ 9" 9 9'1 13
F = }
0 0 8 23 8 24 0 0 0 8 34 o 0 0 0
FJ= mit
~
0 0 0 0
8 13 = 8 12 8 23
0 0 0 0
8J1o
,
F2
j -
' FJ=
0
8 24 = 8 23 8 34
[~ [~
oo o o 0 0 0 0
8 ~'~J 13
0 8 24 0 0 0 0 0 0 0 0
'
n
8 14 = 8 12 8 23 8 34
(46a)
(46b)
Wie man leicht bestätigt, steht für beliebige Blockordnung Pj oben rechts in der das Produkt Matrix
F?-t
(47)
und da nach Satz 1 (51) die Kodiagonalblöcke sämtlich spaltenregulär sind, ist nach Satz 6 aus Abschnitt 9.6 auch ihr Produkt spaltenregulär und kann damit nicht gleich der Nullmatrix sein. Folglich ist auch die Potenz von Fj mit dem Index Pr 1 nicht gleich Null, womit (46) bewiesen ist. Wir beweisen als nächstes eine grundlegende Eigenschaft der Kodiagonalblöcke der Matrix (43). Es seien die ersten beiden Ordnungserniedrigungen nach der Strategie (9) vollzogen und es liege der semi-derogatorische Fall (22 b) mit djl > 1 und dj2 > 1 vor; dann haben wir die Situation
(48)
326
16 Die Block-Diagonalmatrix. Strukturfragen
mit der im allgemeinen vollbesetzten Matrix 8 12 , Diese muß nun spaltenregulär sein; denn wäre sie es nicht, so würde nach einer Äquivalenztransformation von 8 12 auf die Pivotmatrix fl 12 , bei welcher der Rang der Gesamtmatrix ~ und damit die Anzahl ihrer Nullspalten ungeändert bleibt, in fl12 mindestens eine Nullspalte vorkommen, und diese wäre zugleich eine Nullspalte von ~, da ja unterhalb von 8 12 bzw. fl12 lauter Nullen stehen. Dies ist aber ein Widerspruch, da ~ laut Konstruktion genau djl Nullspalten (und nicht etwa mehr) besitzt. Folglich ist 8 12 spaltenregulär, und diese Schlußweise setzt sich induktiv von Block zu Block fort. Wir haben damit den für die Transformationstheorie bedeutsamen Satz 1: Die Pr 1 Kodiagonalblöcke der daher nicht von Querformat:
Eigenmatrix~j
sind spaltenregulär und
(49)
Aus dieser Ungleichung folgt trivialerweise sogleich der Satz 2: Die Defekte djv bilden eine nicht aufsteigende Folge: (50)
und dies heißt im nicht-derogatischen Fall, daß djl
=
1 die Gleichheit (51)
nach sich zieht, eine Eigenschaft, die wir bereits im Abschnitt 16.2 behauptet hatten. Da im allgemeinen jeder der sEigenblöcke seine eigene Struktur besitzt, hat es wenig Sinn, von der Struktur des Paares A; B schlechthin zu sprechen, mit einer Ausnahme: Sind alle sEigenblöcke Skalarmatrizen (52)
so wird auch das transformierte Paar A;In als Ganzes diagonal (53)
Das Paar ist somit diagonalähnlich oder wie wir sagen wollen von einfacher Struktur. Sind alle n Eigenwerte voneinander verschieden, s = n, so liegt dieser Fall eo ipso vor.
327
16.5 Die Normierung der Kodiagonale
Damit könnte man die Eigenmatrix~j auf sich beruhen lassen, und in der Tat gibt es in praxi nicht mehr von ihr zu wissen. Nichtsdestoweniger werden wir in den folgenden drei Abschnitten die schon in (10.100) angekündigte Jordan-Form herleiten, der sich ein knapper Exkurs über die Hauptvektoren anschließen wird. Der Leser, der uns über den Abschnitt 18.3 hinaus bis hierhin gefolgt ist, kann aber das folgende überschlagen, ohne daß der Anschluß an die beiden getrennt zu studierenden Abschnitte 19 und 20 dadurch beeinträchtigt wird. 16.5 Die Normierung der Kodiagonale
Der im letzten Abschnitt angekündigten Transformation auf die Jordan-Matrix dient als erstes die Ähnlichkeitstransformation der Matrix Fj auf die gleichstrukturierte Matrix N 1P
, J
_1
N 2p -I , J N 3p -I , J
o o
0 0
0 0
(54)
o o
(j)
gemäß (55)
mittels der Block-Diagonalmatrix (56)
wodurch die Blöcke von Fj übergehen in (57)
dabei aber nach Satz 2 aus Abschnitt 9.1 ihren Rang behalten: RangNvk = Rang8vk
für
v,k= 1,2, .. "Pj .
(58)
Wir benutzen nun die Matrix Dj zur Normierung der Kodiagonale, indem wir verlangen, daß die Pj - 1 spaltenregulären Kodiagonalblöcke aus Fj nach der Transformation die
Normal'orm N v,v+1 = J'
~ D
=
[::::ll 0
d v>dv+l
v=1,2, ... ,Pj (59)
328
16 Die B1ock-Diagonalmatrix. Strukturfragen
annehmen. Da nur Pj-1 solcher Blöcke vorhanden sind, die Matrix (56) aber Pj Blöcke enthält, können wir über einen von ihnen frei verfügen, und zwar wählen wir Dj,p gleich der Einheitsmatrix und beginnen die Normierung unten rechts. J (Man könnte ebenso gut mit der Einheitsmatrix D j1 oben links beginnen.) Schreitet man die Kodiagonale hinauf bis in die erste Blockzeile, so ist damit der Algorithmus festgelegt. Es seien zunächst alle Kodiagonalblöcke quadratisch, dann lautet die Rekursionsvorschrift zur Bestimmung der Blöcke aus D j (60)
wo mit der Tilde der aktuelle (bereits von rechts transformierte) Kodiagonalblock bezeichnet werde. Im nicht-derogatorischen Fall (22a) ist alles skalar, und es wird (61)
womit die Kodiagonalelemente in Einsen übergehen. Im allgemeinen sind die Kodiagonalblöcke nicht alle quadratisch; sie müssen daher zu quadratischen regulären Matrizen ergänzt werden, was auf vielfache Weise möglich ist, und zwar am einfachsten so, daß ihre Determinante den Wert eins annimmt, also zum Beispiel
[::J ~
,
[a:J ~ [a:l -~J
mit
falls
all
a21
*0
bzw.
*0 (62)
und ähnlich nach diesem Muster. Bei großen Ordnungszahlen kommt auch eine vollständige Orthonormierung nach den Methoden aus Abschnitt 8 in Frage. Erstes Beispiel. Nichtderogatorischer Block F der Ordnung (J = 4. Die Kodiagonalelemente 5, - 3 und 2 werden in dieser Reihenfolge zu 1 gemacht
F=
0 0 -3 ["o 2 0 80 o 0 0
-"J 10 5 0
---l
[1
- [1
2
40
0 0
0 0
o -15
-":] 10 1 0
-3040 "] o 1-213 001 o 0 0
---l
1/2]
1 -4/3 ["0 0 1 -213 1 0 0 0 0 0 0 0
= N
.
(a)
329
16.5 Die Normierung der Kodiagonale Mit der Diagonalmatrix D=
4. Für nichtquadratische Kodiagonalblöcke hingegen sind die Gleichungen (67) überbestimmt und somit nicht eindeutig lösbar; am einfachsten wählt man sie nach dem Muster NZ3
(68) Wir führen das erste Beispiel aus Abschnitt 16.5 fort. Mit der normierten Matrix
N=
[~o ~ ~~:] [~ ~ n
o
J13
0 0 0 0
=
1 0
wird nach (67b) für p
=
-4/3
0 0 0 0
1
(c)
o
o
4 (d)
und damit ist die gesuchte Transformationsmatrix
S=
['0 o '"1 '" 0J 0 _ ['0 -2I - 2/3 1/2 010-001 S23
0001000
Probe:
NS = SK mit K=
[1
1 0 0 0
l] 0 1 0 0
!]
(e)
332
16 Die Block-Diagonalmatrix. Strukturfragen
Mit der Matrix D berechnen wir noch das Produkt DS und machen mit F die Kontrolle (64)
D=
-30 0 0 0J [-30 60 -15 0 -15 0 0 DS= 0 -15 10 0050' 005 [ 0001 000
o2 -38 o 0 o 0
-15J 10 5 . 0
(f)
In der Tat ist F(DS) = (DS)K, wie es sein muß. Zweites Beispiel aus Abschnitt 16.5, Formel (k). Gegeben ist N und gesucht wird S
N =
0Nl2 N [1 [0o 00 0, S00 13]
1
=
N 23
Sl2
12
0J 0
.
(m)
0 13
Nach (67) ist mitp = 3 die einzige Gleichung Sl2N23 = N 13 zu lösen, und dies gibt nach (68) ohne jeglichen Rechenaufwand
(n)
Nun wird mit
S=
[~o ~220 1~J 3
'
S- I =
lI [
0
-Sl2
o
12 0
0J 0 13
, 13 = 1 ,
(0)
>,
D = Diag , D-I=Diag(D,1 Di l 13
(p)
und den Matrizen aus (h) und (j) das Produkt
-2 -0,70 o -0,50 -2 -1,45 0 0 0 0 0 0
4 4 7 -4 -10 0
0 0 1 0 0 0
0 0 0 0,1 0 0
0 0 0 0 0 1
(q)
und seine Inverse
-0,5 0,7 0 -2 -1 -1,5 0 0 0 0 0 0
0 0 1 0 0 0
0 0 0 0 10 0
0,08 -0,80 -0,30 -0,10 -4 0
0 0 0 0 0 1
(r)
Kontrolle (DS) -I F(DS) = K mit
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
-7 -5 -14,5 0 0 0
3 2 6 0 0 0
4 4 7 -4 -10 0
0 0 0 0 0 0
0 0 0 0 0 0
0 0 0 0 0 0
1 0 0 0 0 0
0 1 0 0 0 0
0 0 0 1 0 0
(s)
333
16.7 Die Jordan-Matrix
16.7 Die Jordan-Matrix o
Unsere hiermit erreichte Normalform K bzw. K hat den Vorteil, daß sie in augenfälliger Weise die nicht-derogatorische Matrix (22a) in Blöcken nachahmt, was besonders deutlich wird, wenn wir die Kodiagonalblöcke mit dem Symbol] kennzeichnen 0 1 0 0 0 1 0 0 0
0 0 0 0 0 0
.............. .
0 0 0 0
o ... o ...
0 1 0 0
a) nicht-derogatorisch
0 1 0 0 0 ] 0 0 0
0 0 0 0 0 0
...............
(69)
0 0 o ... 0 ] 0 0 o ... 0 0 b) semi-derogatorisch
dafür besitzt sie den Nachteil, daß sie nicht blockdiagonal ist, ein Schönheitsfehler, der indessen leicht zu beheben ist durch eine gleichsinnige Umordnung der Spalten und Zeilen oder, was dasselbe ist, durch eine Ähnlichkeitstransformation mit einer Permutationsmatrix Pj gemäß (70)
Dies bedeutet nach (64) die Gesamttransformation (71)
oder mit der neu eingeführten Transformationsmatrix (72)
endgültig (73)
Natürlich existiert die Permutationsm~trix Pj nur auf dem Papier; de facta werden die Spalten und Zeilen der Matrix Kj (auch in der Maschine) lediglichoumgestellt, und zwar durch Auflösung der geschlossenen Blockspalte~ von Kj in Sequenzen nach folgender Maßgabe: Greife aus den Blockspalten K j1 bis Kj,p die jeweils erste, zweite usw. Spalte heraus und belasse jede dieser Pj Sequenzen in der vorgefundenen Reihenfolge. Damit liegt die Permutation fest, und nun werden auch die Zeilen von Xj in der gleic~en Weise umgeordnet. Dur~h diese Maßnahme rücken alle Einsen der Matrix K j in die Kodiagonale von Jj , und es entsteht die Block-Diagonalmatrix als die klassische Jordan-Form des Eigenblockes Fj bzw. "lj = Fj+Ajlj
334
16 Die Block-Diagonalmatrix. Strukturfragen
-aj.wr
l-aj1-+--<x.jz-1 .,.
I
01
I
I I
I
I I
(74)
-------0--I I I II-'--~Oj
0.wj
- - - - . ',
mit den sogenannten Jordan-Kästchen oder Jordan-Zellen J jt bis Jj,Wj-l' die alle die nicht-derogatorische Form (69a) besitzen, während der letzte Block der Ordnung (75)
a·J,W j ==d'1-d'2~1 J J
(falls vorhanden) die Nullmatrix bzw. Diagonalmatrix Jj,W
J
== 0,
JJ',w
J
(76)
== Diag (),)
ist, weshalb wir die Größe (75) geradezu als die Diagonalität der Eigenmatrix bezeichnen wollen. Ihre besondere Bedeutung wird uns bei den mehrdeutigen Funktionen im Abschnitt 20.7 klar werden. Man erkennt übrigens leicht, daß auf Grund der Ungleichungen (52) auch die Ordnungen der ersten wj-l Jordan-Zellen nicht anwachsen können, (77)
siehe dazu das Schema (74). Werfen wir abschließend nochmals einen Blick auf die Ausgangssituation (22). Von hier aus gesehen bieten die dort aufgeführten drei Fälle sich so dar: a) nicht-derogatorisch, Wj == 1. Jj besteht aus einer einzigen Zelle. b) semi-derogatorisch, Wj> 1. Jj enthält mindestens eine Zelle, dazu die Diagonalmatrix (76), falls djt > dj2 ist. c) strikt derogatorisch, Wj == 1. J j ist gleich der Diagonalmatrix (76). Dazu ein einfaches Beispiel mit (44).
(Jj
= 11 = 5 + 2 + 2 + 1 + 1 nach der natürlichen Charakteristik
+---- 5
Numerierung
2
1. Sequenz 2. Sequenz
6
•(
.4
5
2~2---.+-1---++----1
6
7
2
3. Sequenz 4. Sequenz 5. Sequenz Permutation
3
8
9
9 7
10
11
4
5
3
8 10 11
6
8
10
11
2
7
9
3
4
5
-(a)
16.8 Die Jordan-Spektralzerlegung
335
In dieser Reihenfolge werden die Spalten und Zeilen umgeordnet, das gibt
1 2 3 4
5 Kj = 6 7 8
9 10 11
1 6 8 10 11 2
7 9 3 4
5
1 0 0 0 0 0 0 0 0 0 0 0
2 0 0 0 0 0 0 0 0 0 0 0
3 0 0 0 0 0 0 0 0 0 0 0
4 0 0 0 0 0 0 0 0 0 0 0
5 0 0 0 0 0 0 0 0 0 0 0
6 1 0 0 0 0 0 0 0 0 0 0
7 0 1 0 0 0 0 0 0 0 0 0
8 0 0 0 0 0 1 0 0 0 0 0
9 0 0 0 0 0 0 1 0 0 0 0
10 0 0 0 0 0 0 0 1 0 0 0
11
O~
0 0 0 0 0 0 0 0 1 0
1681011279345 0 1 0 0 0 0 0 0 0 0 O~ 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0 0
(b)
mit
Oj = d jJ - d j2 = 5 - 2 = 3. Potenziert man die Matrix Kj blockweise wie in (46), (47), soostellt man fest, daß alle von Null verschiedenen Blöcke von Normalform sind. In der Matrix Jj dagegen potenzieren sich die Hauptdiagonalblöcke (hier drei an der Zahl, davon der dritte ein Nullblock) unabhängig voneinander, wobei der erste Block als letzter zu Null wird, natürlich mit der gleichen Potenz Pj = 5 wie bei der Matrix Kj .
16.8 Die Jordan-Spektralzerlegung
Kommen wir endlich zur Gesamttransformation. Faßt man die s Transformationsmatrizen Tj zur Block-Diagonalmatrix (78)
zusammen, so wird (79)
oder
Y
A
X
=J;
B X-
=In
-+
- I XY=B-
(80)
mit der Jordan-Matrix (81)
336
16 Die Block-Diagonalmatrix. Strukturfragen
und damit lautet die Spektralzerlegung der charakteristischen Matrix s
F(A):=:A-AB:=:
1:
j=
(82)
(BXj)(Jj-Uj)(yjB) . 1
Diese Darstellung läßt sich verfeinern durch Unterteilung der Transformationsmatrizen Tj (72) und ihrer Inversen (die wir aus Gründen der Indizierung mit f j bezeichnen) in zur Jordan-Matrix Jj (74) passende Blockstreifen
-\
Tj
:=:
[
~
Tj :=:
l l r Ia
rlj
[ r"
Tj2
ajl
aj2
jl
aaj2
fj,wj
•
Tj :=:
I
fjt fj2
J,Wj
~
1
-- --
(83)
J'Wj
T
aj,Wj
und Einführung der Produktmatrizen f
jk
yj
:=:
I yjk !ajk
I
XjTjk :=: X jk
n
,S}
j:=:1,2, ... [ k:=:1,2""'Wj
In
ajk
(84)
,
womit (82) übergeht in die s
Jordan-Spektralzerlegung
mit
F(A):=:
L
f
W·
j=tk=t
(BXjk)Gjk(A)(yjkB)
(85)
(86)
Außerdem bestehen die Wt + w2 + ... + Ws "Eigenwert"-Gleichungen j :=: 1,2, [ k:=: 1,2,
,S
}
,Wj
(87)
für beliebige Werte von A. Speziell für A :=: 0 geht F(A) in A und Gjk(A) in Jjk über. Wir können unsere Betrachtungen zur Jordan-Matrix nicht beschließen ohne die Frage nach der Eindeutigkeit. Zunächst die Reihenfolge der Eigenmatrizen.
337
16.8 Die Jordan-Spektralzerlegung
Diese ist völlig willkürlich und hängt ab vorn Aufruf der Eigenwerte Aj der Liste (1). Aber auch innerhalb der Jordan-Matrix Jj ist die Reihenfolge der Zellen beliebig. Selbst wenn man auf der Anordnung (77) besteht, sind bei gleicher Ordnung benachbarter Zellen diese untereinander vertauschbar, ohne daß sich das Bild ändert, und dies alles findet seinen Ausdruck in der dyadischen Zerlegung (85), denn auch hier sind selbstredend die WI + W2 + ... + Ws Summanden vertauschbar. Eindeutig sind somit allein die s natürlichen Charakteristiken (44), und dies hat seinen Grund darin, daß der Rang und damit der Rangabfall oder Defekt dje invariant ist gegenüber einer Äquivalenz- bzw. Ähnlichkeitstransformation. Daß die Transformationsmatrizen Yund X aus (80) nicht eindeutig sind, haben wir auf Schritt und Tritt erlebt, so bei der Blockdiagonalmatrix (56) (Djl = I jl oder Dj,p = Ij,p?), der Überbestimmtheit der Matrizen Sv.v+ I (68) und anderenorts. In ein~m ge~issen Sinn eindeutig sind die Transformationsmatrizen Yund X nur dann, wenn alle n Eigenwerte verschieden und damit A und B diagonalähnlich sind; aber noch nicht einmal das ist richtig, da zwar die jeweils n Linksund Rechtseigenvektoren der Richtung, nicht aber der Länge nach festgelegt sind, somit beliebig normiert werden können. Fazit: Es gibt unendlich viele Matrizenpaare Y;X mit YBX = In' die das Paar A;B auf J;In transformieren. Wir führen unser Beispiel aus Abschnitt 16.6 mit n = 6 zu Ende. Die Strukturmatrix K (s) wird nach der Vorschrift (t) permutiert, das gibt die Jordan-Matrix J (u) mit zwei Zellen und einem Diagonalteil der Ordnung I, somit ist a t = 3, az = 2 und a3 = 1. Daß dies mit der Defektfolge d l = 3, dz = 3, d3 = 1 übereinstimmt, ist Zufall. Alte Reihenfolge
2 3 4
Neue Reihenfolge
4 6
5 6 (t)
2 5
3
5 0 0 0
1 5 0 0
0 1 5 0
0
0
0
0 0 0
0 0 0 5
0 0 0 1 0 5 0 0
0 0 0 0
(u)
0
5
Auf die gleiche Weise ordnen wir die Spalten von DS (q) und die Zeilen von (DS)- I (r) um und bekommen mit der angegebenen Aufteilung in Blockstreifen
T= (DS)P=
[~~ ~ ~ o -4 o -10 o 0
0 0 1
o
0
o
0
Tz
TI
T- 1 = f=
-0,70 0 -0,50 0 -1,45 0 o 0,1
7- - : !- =-!-~_!: -:-=-: :- : :01]
---::-!0-,5-_-=-1-' [
o
0 10-4 ----:'1-----:'1--:,5::--1:----:0:-'-....,0,..,,3=-=0,.---;:0
::
f3
(v)
338
16 Die Block-Diagonalmatrix. Strukturfragen
Folglich besteht mit den drei Jordan-Anteilen
(w)
~ ~~ ~ ~ =t~ ~] l~ 1~'5 o~ -~L I~:: ~]
l
o
0 0 0 2 -4 + 0 0 0 0 0 5 -10 0 0 00000500
o
5 0 0
o o
o
{~+ ~ !+!] ~ [!
-2 0 0
0 5 0
o
o o o
-7 -5 .s -14,5 0 5 0 0 0 0
0 0 0
1 1].
(x)
~ -1~
In der Tat ergibt die Addition dieser drei Matrizen die Matrix~, Formel (f), zweites Beispiel aus Abschnitt 16.2, und dies ist gleichbedeutend mit der Ähnlichkeitstransformation T J T - I = ~ , wovon man sich durch Ausmultiplizieren mit den Matrizen (v) überzeugen möge. Nun greifen wir zurück auf die Transformationsmatrix (e) (zweites Beispiel aus Abschnitt 16.2)
[Io 0 0 1
X=R=
0 0 2 I o 0 2 3
0 0 0 I 0 -I I -I 0,5 -3 0
0 0 0 0
!]
o ' r ' X0
'0
0 -I I o
und erhalten damit die Gesamttransformationsmatrizen
[-'
o
X=XT=
-2 -2 2 2
4 0 4 0 7 0 1 0 -9 -I 0 -:..11
-0,7 -0,5 -1,45 -0,45 1,45 1,45
X-I =
y=
-I
1,6 [ -12 -0,4
0,46 0,3 -05 0:4 2 -0,6
0,24 - 0,3 -0,5 -2,4 -2 0,1
0 0
o
0 0 0 I 0 0 o 0 I 0,5 -I 0
o
OOJ
(y)
X und Y (= X -I, weil B = 16 ist)
J]
,
-I
-3
X3
X2
XI
- 0,66 0,20
0 0 0 0,1 0,05 0
[
0 0 I 0 0 1 -2: -I I -2 -3 3 -1 -0,5 -0,5
o
o
0,5
(z)
o
10
o
Damit haben wir endgültig YF(.I.)X=G(.I.)
mit F(.I.)=A-H6
,
G(.I.)=J-H6 .
(A)
16.9 Ein Rückblick von höherer Warte Die Spektralzerlegung (85) wird mit B s
F(.1) =
= 16, S = 1 und
wt
=3
3
wj
L L
339
XjkGjk(.1) yjk =
j=lk=l
L
(B)
XkGk(.1) yk
k=l
mit den Blockstreifen (z) und den drei Jordan-Zellen nach (w)
für beliebige Werte von .1, wovon der Leser sich überzeugen möge.
16.9 Ein Rückblick von höherer Warte
Halten wir eine Weile inne und schauen zurück auf das bis hierhin Erreichte. Worum ging es in Wirklichkeit? Ausgangspunkt war die B-ähnliche Transformation (2). (Dort wurde speziell A = "\l verlangt, was in diesem Zusammenhang aber nicht wesentlich ist) YAX=Ä;
YBX=B=In
(88)
Subtrahieren wir in der ersten Gleichung auf der linken Seite den Term l YBX und auf der rechten den Term l In (= l YBX), so erhalten wir YF(l)X = F(l)
(89)
mit F(l)=A-lB,
F(l)=Ä-lB=Ä-Un
(90)
für beliebige (im allgemeinen komplexe) Werte des Parameters .Ä.. Die Gleichung
(89) schreiben wir auf dreifache Weise um YF(.Ä.)=F(.Ä.)X- t ; F(l)= y-1p(l)X- t ; F(.Ä.)X= y-1p(l)
(91)
und gewinnen mit den aus YBX = In (88) resultierenden Inversen y-1=BX,
X-1=YB
(92)
die drei grundlegenden Beziehungen YF(l) = F(l) YB ; F(.Ä.)=BX P(l)YB; linksseitig beidseitig
F(l)X=BXF(.Ä.) rechtsseitig
(93)
Bis hierhin verlief alles rational, d. h. unter Anwendung der vier Grundrechnungsarten. Nun aber verlangen wir, daß A in die Block-Diagonalmatrix
340
16 Die Block-Diagonalmatrix. Strukturfragen
Ä = DiagÄ z,···,Äs -+
O}
(19c)
Ä=Äs+1,Äs+Z,···,Ä n
Al besitzt die s-reihigen Eigenvektoren Yl,Y2," "Ys ' A
z die (n-s)-reihigen
Eigenvektoren Zs+ 1> Zs+ 2, ... , Zn' von denen nicht alle linear unabhängig zu sein brauchen. Die Gesamtmatrix A hat dann die n-reihigen Eigenvektoren
Xj A
_
°j ,
[Yj!
J. _- 1, 2, ... , s,
[OJ J.-- s + 1, ... , n ,
Xj A
Zj
-
,
(20)
die linear unabhängig sind, soweit es die Yj und die Zj sind. Die zur Ausgangsmatrix A gehörigen Vektoren Xj erhält man dann aus den Xj durch entsprechendes Umstellen der Komponenten, womit auch diese Eigenvektoren abwechselnde Nullkomponenten haben, soweit nicht unter den zu Al und A z gehörigen Eigenwerten Äj gleiche Werte vorkommen, wobei dann auch Linearkombinationen der zu At und A z gehörigen Eigenvektoren möglich sind, deren sämtliche Plätze besetzt sind. Beispiel
A =
[-'~
0 5 0 1 -6 0
1 [-'-1
1 0 4 0 0 o -5 0 2 0 2 o 6
o
Ä"
1
2
2 0 0
6 0 0
o -5
o o OOJ 0 0 5 4 1 2
(a)
(b)
(c)
Zur Doppelwurzel A = 2 gibt es nur einen linear unabhängigen Eigenvektor y.
IA 2 -HI = (A-I)(A-6) = 0, A4 = 1 , AS = 6
Z4
=
x,"
(-:J '
HJ '
Z5
=
GJ .
x,," [-
(d)
(e)
tJ ' UJ ' [lJ X,"
X,"
(I)
352
17 Eigenwerte spezieller Matrizen
Hier sind aber auch x = OXt + bX4 Eigenvektoren zur gemeinsamen Wurzel A = 1, zu der also das zweidimensionale lineare Vektorgebilde
(g)
x Probe: Ax = AX
-1
0 1 0 2 0 5 0 4 0 8 0 0 o -5 0 1 0 2 0 -6 0 2 0 6 A=
1
1
0 -2 0 2
0
1
0 -2 0 2 1
-1
0 2 2 0 -2 0 4 2
0 1 0
0 4 0
-1
1
-b
0 0
20 0
0
0 0 24 0
-20
-1
6
-b
0
0
1
6
20 1
1
0
b -20
b
(h)
II. Diagonalelemente sind Null, Abb. 17.2
Durch Zeilen- und entsprechende Spaltenvertauschung geht hier A über in
(21) mit zwei quadratischen s- und (n - s )-reihigen Nullmatrizen. Ein Zerfallen der charakteristischen Gleichung findet hier nicht mehr statt, wohl aber wieder für die aus A durch Quadrieren entstandene Matrix (22) mit den Eigenwerten )(j = AJ bei gleichen Eigenvektoren Xj. Diese Matrix ist also wieder von der Form Gleichung (19), jedoch mit der Besonderheit, daß
Abb. 17.2. Schachbrettmatrix, Fall II
353
17.2 Schachbrettmatrizen
(23)
Beide Matrizen, von denen St s-reihig, S2 (n - s )-reihig ist mit sund n - s wie unter I, besitzen nun, wie sich zeigen läßt, die gleichen Eigenwerte Xi bis auf Xo = 0 im Falle ungerader Reihenzahl n als zusätzlichem Eigenwert von SI- Man rechnet dann (24)
und, falls Al z:j::
0
(25)
wozu im Falle ungerader Reihenzahl n noch
I A2yo = 0 1-+ Yo
zu
Xo = 0
(26)
kommt. Es sei nun zunächst x:j:: 0, d. h. A 2 A 1 ist nichtsingulär, und es ist Z = y:j:: o. Damit folgt dann
At
(27)
Macht man nun für den Eigenvektor i von
x=
[:~J
'
A den
Ansatz (27a)
so erhält man durch Einsetzen in die Eigenwertgleichung
Ax= [0 At] [aYJ = [bAlZ] = [b Y ] =A [aYJ A2 0 bz aA 2y xaz bz für die Konstanten
a, b die
Bedingung
Aa = b, Ab = xa,
(27b)
woraus (28)
folgt bei beliebigem a. Insbesondere für a = 1 erhalten wir als zu zwei Eigenvektoren
Xj
* 0 gehörige
17 Eigenwerte spezieller Matrizen
354
(29)
mit A.j = +~, wozu im Falle ungerader Zahl n noch
(29a)
kommt. Die endgültigen Vektoren x und A ergeben sich aus x durch Umstellen, z.B. für n = 5: (29b)
Ist nun aber einer der Eigenwerte Xj = 0, so sind A t A 2 und A 2 A t singulär. In diesem Falle sind, wie man sich auf ähnliche Weise wie oben durch Ansatz für i klarmacht, nur solche Vektoren y, z zulässig, die die homogenen Gleichungen (30)
erfüllen, von denen wenigstens eine einen von Null verschiedenen Lösungsvektor besitzt. Damit wird dann
i=
° [~J
+b
[:J
[:~J
(31)
bei beliebigen Konstanten 0, b. Ist nur einer der Vektoren y, z von Null verschieden, so enthält i nur diesen einen Vektor und bzw. b kann 1 gesetzt werden.
°
17.3 Zyklische Matrizen
Unter solchen mit den Differenzenmatrizen verwandten versteht man Matrizen, deren Zeilen aus ihrer ersten durch zyklische Vertauschung hervorgehen. Lautet die erste Zeile der n-reihigen Matrix (32)
mit n beliebigen Elementen 00 0n-l
A= [
01 00
02 01
~n.~~ .~n.~I. •~o 01
02
03'"
0k'
so wird die Matrix
on_t] 0n-2
~~.-.3 00
(33)
17.3 Zyklische Matrizen
355
Mit den n-ten Einheitswurzeln Gk =
eik (2n/n l
k = 0, 1, ... , n-1
(34)
sind dann die Eigenvektoren und Eigenwerte
Xk
:i] ;
=[
k
= 0, 1, ... ,n - 1 ,
(35)
n-l
Gk
(36)
oder kurz
I
Ak
I;
= a 1Xk
k
= 0, 1, ... ,n -
(37)
1 .
Daß diese Ausdrücke Eigenvektoren und Eigenwerte sind, also die Gleichung erfülJen, ist mit G'k = 1 leicht zu verifizieren. Die lineare Unabhängigkeit der n Vektoren xk folgt aus der Eigenvektormatrix X = (Xk), deren Determinante als Vandermondesche Determinante zu den n verschiedenen Zahlen Gk von NulJ verschieden ist.
AXk = AkXk
Ein Beispiel mit n = 4. Wir ermitteln die vier Einheitswurzeln (34) und daraus die Eigenvektoren (35) in (b) und die Eigenwerte (36) in (c).
A=[;-~-~~] o -1
X,"
3 0
m'
AO= 4 ,
2 -1 3 2
X,"
{:~:: 1;2
= -1
1;3
i
=-
[J ' [J ' X,"
Al=2-4i,
(a)
X,"
[=1]
(b)
(c)
Zur Kontrolle berechnen wir nach (13.9a) (d)
Eigenwerte und Eigenvektoren können auch reelJ ausfalJen, z. B. bei der reelJ symmetrischen Matrix zyklischer Bauart
356
17 Eigenwerte spezieller Matrizen
A= mit
AI
b a b
G
= a+2b
x, ~
:] , AZ = A3
=a-
b ,
m'X2~ H] , x,~ U] ,
wo sich die aus (35) errechneten komplexen Vektoren xz, x3 durch Linearkombination in reelle Form überführen lassen. 17.4 Spezielle dreireihige Bandmatrizen
Eine wichtige Rolle in den Anwendungen spielt die Eigenwertaufgabe F(a)x = (K -a/)x =
(38)
0
mit der speziellen Tridiagonalmatrix
K=
0 1 0 1 0 1 0 1 0
0 0 0 0 0 0
(39)
...............
0 0 0 1 0 0 0 ... 1 0
0
deren Eigenwerte aj und Eigenvektoren hörige kote Eigenwertgleichung
Xj
sich explizit angeben lassen. Die zuge-
(40)
ist eine sogenannte (homogen-lineare) Dijjerenzeng/eichung zweiter Ordnung; hinzu treten die beiden Randg/eichungen (Randbedingungen ) für k = 1 und k = n, die besagen, daß als Ausdruck der Verstümmelung XO=O,X n +l=O
(41)
sein muß. Erinnern wir uns der aus dem Additionstheorem für Kreisfunktionen stammenden Identität sin (k-l)/pr 2 cos /pj·sin k /Pj+ sin (k+ 1)/Pj = 0 ,
(42)
357
17.4 Spezielle dreireihige Bandmatrizen
so erkennen wir, daß mit Gj = 2 cos rpj
(43)
als Eigenwert und den jeweils drei aufeinanderfolgenden Sinusfunktionswerten
;k'~: .~'s~~(k'~ i)~;'} xk
= sm krpj
(44)
xk+l =sin(k+1)rpj
..................
die n - 2 Differenzengleichungen (40) identisch erfüllt sind ebenso wie die erste Randbedingung (41) wegen Xo = sinOrpj = 0 ,
(45)
während die zweite (46)
verlangt, daß (n+1)rpj=jn;
(47)
j= 1,2, ... ,n
sein muß, wodurch die nEigenwerte (43) festgelegt sind: j
Gj = 2 cos rpj = 2 cos - - n
n+1
j = 1,2, ... ,n .
(48)
Sie sind reell, sämtlich voneinander verschieden, begrenzt durch -2 .. . ,ae) mit der Spektralzerlegung n
G(aO,al,···,ae )=
j
L
= 1
n
~(ao,al,···,ae)Dj;
N=
L
j=
1
1'Dj ,
(17)
wie leicht einzusehen. Der Vollständigkeit halber vermerken wir noch, daß Parametermatrizen im Zusammenhang mit einer Eigentermaufgabe (Eigenwertaufgabe) als charakteristische Matrizen bezeichnet werden, eine Ausdrucksweise, von der wir früher auch stets Gebrauch gemacht haben. Um nun eine für diagonalähnliche Parametermatrizen kennzeichnende Beziehung von größter Bedeutung aufzudecken, wählen wir irgend zwei verschiedene Parameterwerte A, und AU, bekommen damit die beiden konstanten Matrizen n
F(A,) =
n
L §j(A,)Dj
;
j=1
ff(AU) =
L §j(Au)Dj
j=1
(17 a)
und bilden das dreifache Produkt
n
=
L §j(A,) §j(Au)Dj
j=
,
(18)
1
wo infolge der Beziehung (10) von den n 2 dreifachen Produkten die n(n -1) gemischten Produkte herausfallen. Ebenso folgt 1
F(AU)N- F(A,) =
n
L §j(AU) §j(A,)Dj
j=
,
(19)
1
und nun zeigt ein Vergleich von (18) und (19), daß infolge der Vertauschbarkeit (20)
366
18 Parametermatrizen
der skalaren Eigenterme auch die dreifachen Matrizenprodukte (21)
bzw.
(22)
vertauschbar sind. Wir haben damit den fundamentalen
Satz 3: Ein diagonalähnliches Matrizenpaar F(Ä); N bzw. G(uo,Ul>'" ,ue ); N genügt der Vertauschbarkeitsrelation (21) bzw. (22)jür jeden beliebigen Parameterwert Ä bzw. jür jedes beliebige Parametertupel uo, U I' ... ,Ue' Der Leser studiere dazu die Abb. 18.1, die für zwei verschiedene Parameterwerte Ä1 und Än die jeweils vier Elemente der Diagonalmatrizen L1 (Ä 1) und L1 (Ä n ) zeigt. Um die gewonnenen Einsichten abzurunden, schreiben wir die n Eigentermgleichungen (12) mit der Diagonalmatrix L1 (Ä) der Eigenterme gemeinsam mit der Einheitsmatrix In L1 (Ä)
= Diag ( ~(Ä»; In = Diag (1)
(23)
in der kompakten Form
F(Ä)X=NXL1(Ä);
NX=NXIn
,
(24)
oder nach Multiplikation von rechts mit X-I = YN nach (6) und weil die unterklammerte Matrix ebenfalls wegen (6) gleich N - 1 ist
F(Ä) = NXL1(Ä)YN ; N=N XIY N=N,
(25)
'--.,--!
und dies ist, wenn man es richtig liest, nichts anderes als die Spektralzerlegung, was besonders deutlich wird, wenn man die Eigendyaden (7) in Produkte zerlegt und die Gleichungen (11) so formuliert (26)
wo die Nenner nach (4) gleich 1 sind. Man beachte aber, daß der Vorteil der dyadischen Zerlegung mit den Eigendyaden (7) gerade darin besteht, daß diese nicht normiert sind, ein Sachverhalt, der vor allem die Dimensionsechtheit aller hier abgeleiteten Formeln und Beziehungen garantiert; denn multipliziert man die Vekto-
367
18.2 Spektralzerlegung einer diagonalähnlichen Parametermatrix
ren Xj' yi und die Matrizen F(A) und N mit jeweils beliebigen skalaren Faktoren, so kürzen diese sich alle wieder heraus, wie es bei einer an der Praxis orientierten Darstellung sein muß. Halten wir abschließend fest, daß der eigentliche Wert der dyadischen Zerlegung in Form von n Summanden gegenüber der kompakten Schreibweise (24) in der strikten Trennung der Eigenterme ~(A) von den Modalmatrizen Y und X und der durch sie definierten Normierungsmatrix N besteht; ein für die praktische Nutzanwendung nicht hoch genug einzuschätzender Vorzug, welchen die folgende kleine Übersicht nochmals verdeutlichen möge.
Geometrie (Metrik)
Spektrum
(27)
F(A)
-+
~(A)
Beispiel. Gegeben ist das Matrizenpaar F(A); N F(A) = [ -
2
9j(A)-2
-4 9j(A)-3
~(A)
~(A)
mit
9j(A)+2
2 9j(A)+3
~(A)I
~(A)j
; N=
[-4 3J -7 5
(a)
A
9j(A) = cOsA + (I-A)-2,
~(A) = e A + Jt 2dt = e A +A 3/3
o
(b)
Um nachzuprüfen, ob Diagonalähnlichkeit vorliegt, wählen wir einen speziellen Wert für A, etwa AI = 0 und bekommen mit (c)
die nun konstante Matrix F(O)
=
[-11-6 4J7
(d)
.
Die Rechtseigenwertaufgabe (F(O) - c,N)x = 0 ergibt nun aus det (F(O)- c,N) = c,2 - 3c, + 2 die beiden Eigenwerte c,\ = 2 = 9j (0) und C,2 = 1 = ~(O), wie es sein muß, dazu die Modalmatrix (e)
Die dazugehörige Linkseigenwertaufgabe (FT(O)-c,NT)y = Modalmatrix
0
gibt dieselben Eigenwerte und die
(f)
In der Tat geht mit diesen beiden Modalmatrizen die Matrix F(A) gemeinsam mit N über in YF(A)X= [9j(A)
o
0 J; YNX= [1 01 ,
~(A)
0
lj
(g)
18 Parametermatrizen
368
und dies ist nun ganz unabhängig davon, wie die Eigenterme ~ (A) und S'2 (A) gewählt werden. Man setze All = 1 und überzeuge sich von der Richtigkeit der Vertauschbarkeitsrelation (21).
18.3 Diagonalähnliche Matrizentupel Wir spezialisieren jetzt unsere Ergebnisse auf Matrizentupe/ der Art (28)
die in den linearen Gleichungssystemen (1) bzw. (2) auftreten entweder als die schon in (10.6) betrachteten Polynommatrizen (29) oder allgemeiner mit der mehrparametrigen Matrix (30)
die mit alJ =).IJ in (29) übergeht, doch kommen in den Anwendungen auch Mischformen zwischen Potenzen von). und weiteren Parametern ao, ab ... vor, so zum Beispiel bei auf Knicken gefährdeten gedämpften Schwingungssystemen mit den Parametern). und ).2, ferner aO,al"'" [111]. Grundlegend und charakteristisch für das Tupel ist ebenso wie für das Matrizenpaar A;B bzw. A o; AI sein Verhalten gegenüber Transformationen der Art (31)
wieder unter der ausdrücklich getroffenen Voraussetzung, daß die beiden regulären Matrizen Y und X konstante Elemente besitzen. Grundsätzlich dürften ihre Elemente auch Funktionen des Parameters). sein, wenn sie nur für jeden Parameterwert ). regulär bleiben, doch ist es gerade typisch und wesentlich für die folgende Fragestellung, daß Y und X konstant sein sollen, somit nur zwei mal n 2 (und nicht mehr) Elemente bereithalten, über die man geeignet verfügen kann. In die für jede diagonalähnliche Parametermatrix F()') gültige Spektraldarstellung F()')
=
n
L
§j()')Dj
j= I
;
N
=
n
L
l'Dj
(32)
j= I
setzen wir nun die Polynommatrix (29) ein, und da das Ergebnis für jeden beliebigen Parameterwert ). richtig ist, gelten die (} + 1 separaten Spektralzerlegungen n
AIJ =
L ~jDj
j=1
,u=0,1,2, ... ,(} .
(33)
369
18.3 Diagonalähnliche Matrizentupel
Die Eigenterme sind hier die Eigenpolynome j = 1,2, .. . ,n
(34)
mit den konstanten Koeffizienten
... , d g}.=yjAgxj jN y
(35)
Xj
als Quotienten von je zwei Bilinearformen, gebildet mit den Eigenvektoren ; und Xj. Auch die für jeden beliebigen Parameterwert A gültige Vertauschbarkeitsrelation (21) kann nur richtig sein, wenn sie für alle Koeffizientenmatrizen At/ einzeln gilt:
IAt/N-1Av=AvN-1At/!; ,u,v=O,1,2, ... ,{!,
v>,u,
(36)
wo,u = v eine nichtssagende Identität erzeugen würde und durch Vertauschen von ,u und v jeweils dieselbe Gleichung entstünde; deshalb die in (36) gemachte Einschränkung v>,u. Wir haben damit den Satz 4: Die {! + 1 Koejjizientenmatrizen At/ einer zu N diagonalähnlichen Polynommatrix (29) genügen den {! ({! + 1)/2 Vertauschbarkeitsrelationen (36). Mit diesen Relationen stehen uns nun äußere Kriterien zur Verfügung, die eine Entscheidung darüber erlauben, ob, wenn irgend ein Paar At/; N diagonalähnlich ist, (37)
auch das gesamte Tupel sich mit den gleichen Modalmatrizen Yund X auf Diagonalform transformieren läßt: Y{A JX = {(\) (\) (\) ... (\)J
YNX= (\) .
(38)
Um diesen Test durchzuführen, genügt es, für eine {! + l-reihige Indexpaarfolge, etwa Ao;A I' A o;A 2, ... , Ao;A g zu prüfen, ob für sie alle die Vertauschbarkeitsrelationen (36) erfüllt sind oder nicht. Beispiel. Gegeben ist ein singuläres Matrizenpaar A;B und eine Normierungsmatrix N:
A=a
[-1-lJ o
; B=ß
0
[2 1J 2
1
, N=
[1 0J 2
(a)
1
Das Paar A;N läßt sich, wie man leicht nachrechnet, mit Hilfe der beiden Modalmatrizen
y=
[ O-IJ -1
1
;
x=
[1-1J -1
2
(b)
370
18 Parametermatrizen
simultan auf Diagonalform transformieren. Da nun die Vertauschbarkeitsrelation (c)
erfüllt ist, geht auch das Paar B;/n mit den gleichen Modalmatrizen Yund X auf Diagonalform über:
YAX=
G:] ;
YBX=
GojoJ
,YNX=
[-1 ojtJ . 0
(d)
18.4 Selbstnormierende Tupel
Halten wir nochmals fest: die beiden Modalmatrizen Yund X determinieren nach (6) die Normierungsmatrix N = (Xy)-t. Gibt man daher die Matrix Nvor, so ist damit umgekehrt entweder Y oder X festgelegt, und dies ist der in den Anwendungen eigentlich interessierende Fall. Ja mehr noch, im allgemeinen sind N und F(Ä) gegeben, und gesucht sind die Modalmatrizen Y und X sowie die Diagonalmatrix LI (Ä) der Eigenterme ~(Ä) des Paares F(Ä); N. Wenn nun das vorgelegte Tupel selbst eine oder mehrere reguläre Matrizen enthält, so kann man eine von diesen, etwa Aq> als Normierungsmatrix N wählen. Solche Tupel nennen wir selbstnormierend. Die Vertauschbarkeitsrelationen (36) sind dann für J.I. =
' der nun die Rolle von N übernimmt, verkleinert oder aber man beläßt ihn im Tupel, was zur Folge hat, daß in den Eigentermgleichungen (12) bzw. (13) sich zwei Terme herausheben. Im linearen Fall F(Ä) = A - AB beispielsweise wird mit N = B
(38a) In der Tat fällt der Term ABxk heraus, und übrig bleibt die erfüllte Eigenwertgleichung A xk = ÄkBxk' wie es sein muß oder vielmehr, wie wir dies so zu sehen gewohnt sind. Von hier aus betrachtet verstehen wir auch, weshalb bei den Matrizenpaaren von einer Vertauschbarkeit von A und B niemals die Rede war, einfach deshalb, weil B selbst die Rolle von N innehatte. Dies ist aber nicht so selbstverständlich, wie es erscheinen mag. Bei den sogenannten singulären Büschein zum Beispiel, das sind Paare A; B, deren beide Partner singulär sind, ist dies gar nicht durchführbar, wohl aber findet sich unter Umständen eine Normierungsmatrix (man vergleiche dazu (15.68»
N=aA+ßB
(39)
wo die Skalare a und ß so zu wählen sind, daß N regulär wird, und dieses Vorgehen läßt sich auf Tupel verallgemeinern, indem man (40)
18.5 Über die Eigenwerte von Matrizenprodukten
371
setzt und die Parameter afl so bestimmt, daß N regulär wird, und dies ist gegebenenfalls sogar dann möglich, wenn sämtliche Matrizen Afl des Tupels singulär sind! 18.5 Über die Eigenwerte von Matrizenprodukten
Schon im Abschnitt 13.7 hatten wir festgestellt, daß die beiden Eigenwertaufgaben (41)
dieselben Eigenwerte Aj zu im allgemeinen verschiedenen Rechtseigenvektoren Vj und Wj besitzen. Die Frage nach dem Zusammenhang mit den beiden Eigenwertaufgaben (42) und Fc
Yl'YZ,·· ·,Yn
(43)
hatten wir dabei offengelassen. Ist nun eines der Paare (42), (43) diagonalähnlich - was, wie wir wissen, gesichert ist, wenn unter den Eigenwerten aj bzw. Yj keine mehrfachen vorkommen - und erklären wir B = In zur Normierungsmatrix N, so garantiert die erfüllte Vertauschbarkeitsrelation AC= CA ,
(44)
daß die Matrizen A, C und In und damit auch die Produkte A C und CA gemeinsam auf Diagonalform übergehen. Dies bedeutet aber ersichtlich, daß die Eigenwerte Aj von (41) die Produkte (45)
aus (42) und (43) sind zu denselben Links- und Rechtseigenvektoren der Paare A C;In und CA;In ebenso wie C;In und A;InJa, wir können nun sehr viel mehr zeigen. Die Eigenwertaufgabe (fl- nN)x =
0
(46)
mit fl = AoAiA z '" A Q
(47)
besitzt als Eigenwerte die Produkte (48)
372
18 Parametermatrizen
der Eigenwerte aus den
e + 1 separaten
Eigenwertaufgaben (49)
zu den gleichen Links- und Rechtseigenvektoren yi und Xj' sofern von den Vertauschbarkeitsbedingungen (36) e + 1 voneinander unabhängige erfüllt sind und gesichert ist, daß mindestens ein Paar A; N diagonalähnlich ist. Dazu ein einfaches Beispiel. Gegeben seien die beiden Paare A;I2 und C;I2 mit
A=
[1 -1J ' C= [ 9 5J; 24
-10-6
somit sind A und C bezüglich N =
h
AC=CA=P=
[19 I1J
-22-14'
(a)
vertauschbar. Nun ist (b)
Da die beiden Eigenwerte verschieden sind, ist das Paar A;I2 diagonalähnlich, somit gehen zufolge der erfüllten Vertauschbarkeitsbedingung auch die Paare C;h und P;I2 gemeinsam mit diesem auf Diagonalform über, wobei sich die Eigenwerte multiplizieren. In der Tat wird (c)
und weiter (d)
somit 8 = 2· 4 und - 3 = 3· ( - 1), wie es sein muß, aber nur unter strenger Beachtung der Reihenfolge, die allein durch die zugehörigen gemeinsamen Eigenvektoren Xl und x2 festgelegt wird. Die erforderliche kleine Rechnung möge der Leser durchführen.
18.6 Parameternormale Matrizen
Wir kommen nun, sozusagen als Krönung aller bisher angestellten Überlegungen zu der vollständigen und abgeschlossenen Klasse der parameternormalen Matrizen, indem wir ebenso wie im Abschnitt 16.3 verlangen, daß die Parametermatrix F()") (1) bzw. 0(0'0,0'1>" "O'e) (2) nicht nur diagonalähnlich, sondern darüberhinausgehend diagonalkongruent, oder wie wir sagen wollen, normal bezüglich N sei, eine Einschränkung, die gleichbedeutend ist mit der Forderung, daß die Linkseigenvektoren yi gleich den konjugiert-komplexen Rechtseigenvektoren Xj sind, zwischen den Modalmatrizen Y und X somit die Beziehung (50)
besteht. Welche Folgerungen zieht diese Bedingung nun nach sich? Zunächst wird die Normierungsmatrix N nach (6) N = (XX*) -1 = N*
pos. der.
(51)
373
18.6 Parameternormale Matrizen
hermitesch und überdies positiv definit, weil das Produkt XX* es ist - man vergleiche dazu alles in Abschnitt 16.3 Gesagte - und dies wiederum bedeutet, daß an die Stelle der Biorthonormalität (4) die N-Unitarität (52)
tritt. Auch die Eigendyaden (7) werden nun hermitesch und positiv semidefinit (53) und damit gehen die Eigenterme (15) über in die mit den Eigenvektoren deten Rayleigh-Quotienten
Xj
gebil-
(54)
oder allgemeiner für die mehrparametrige Matrix (2)
Um nun auch äußerlich zum Ausdruck zu bringen, daß die Eigendyaden (53) hermitesch sind, bilden wir die beiden Matrizen F()')
=
n
L ~()')Dj;
F*().)
j=l
=
n
L
j=l
ffj*()')Dj ,
(56)
- wo sich das Zeichen * selbstredend immer auch auf den Parameter bezieht, ). * = X - und berechnen wiederum die dreifachen Produkte
n
=
L
j=
ffj*()')~()')Dj
(57)
~().)ffj*()')Dj'
(58)
1
bzw. n
F().)N-1F*().)=
L
j=l
woraus folgt
I F*().)N- 1F()') =
F().)N- 1F*().)
I
(59)
18 Parametermatrizen
374
und entsprechend
(60)
ein Ergebnis, das wir aussprechen wollen als
Satz 5: Eine parameternormale Matrix F()') bzw. 0(0'0,0'1> ... , O'{!) genügt außer den beiden Vertauschbarkeitsrelationen (21), (22), welche die Parameter-Diagonalähnlichkeit sicherstellen, den die Parameter-Diagonalkongruenz garantierenden Relationen (59), (60)jür jeden beliebigen Parameterwert ). bzw. jedes beliebige Parametertupel 0'0,0'1> ... 0'{!' Speziell für Matrizentupel (A l; N (28) folgt daraus nach der gleichen Schlußweise wie in Abschnitt 21.3, daß für jedes Paar separat gelten muß (61)
und damit gilt der
Satz 6: Die Koejjizientenmatrizen A/l eines parameternormalen Paares F()');N bzw. 0(0'0,0'1"" ,O'{!); N genügen außer den Vertauschbarkeitsrelationen (36) den weiteren Relationen (61). Diese neu hinzugekommenen und nur für normale Tupel (A l; N gültigen Bedingungen unterteilen wir in zwei Gruppen. Zunächst die {} + 1 Gleichungen (62)
welche besagen, daß zu jedem der {} + 1 normalen Paare A/l; N eine N-unitäre Modalmatrix X/l gehört, und zweitens die {} ({} + 1) Relationen
IAZN-1Ay=AyN-1AZ
I;
,Ll,v=0,1,2, ... ,{} ,
v>,Ll,
(63)
von denen nur die Hälfte wesentlich ist, denn durch Übergang auf das KonjugiertKomplexe folgt wegen (N - 1)* = N- 1 (64)
und das sind die gleichen Bedingungen (63), wo nur ,Ll und v vertauscht wurden, weshalb wir uns, wie dort durch die Nebenbedingung v>,Ll angedeutet, auf {}({} + 1)/2 Bedingungen beschränken können. Jede von ihnen besagt nun, daß die zu den beiden Paaren A/l;N und Ay;N gehörigen N-unitären Modalmatrizen die
18.6 Parameternormale Matrizen
375
gleichen sind: X/1 == Xv' Um daher ein vorgelegtes Tupel {A J;N auf Parameternormalität zu testen, braucht man nur eine einzige der Bedingungen (62) und dazu {l + 1 geeignet ausgewählte Bedingungen (63) heranzuziehen. Sind nun insbesondere die Eigenterme ~(..1.) bzw. ~(ao,al>" .,al?) reell, was nur möglich ist bei Beschränkung auf reelle Parameterwerte, so ist F*(..1.) == F(..1.) bzw. G*(ao,a), ... ,al?) == G(ao,at,· .. ,al?)' und dies bedeutet, daß die Vertauschbarkeitsrelationen der Parameter-Diagonalkongruenz von denen der Parameter-Diagonalähnlichkeit sich nur noch durch den Zusatz N == N* pos. der. unterscheiden. Die Gleichungen (62) gehen dann über in die nichtssagende Identität (65)
(die wir bei Parameter-Diagonalähnlichkeit schon in (36) ausgeschieden hatten!), und dies ist auch klar; denn daß die hermiteschen Paare A/1;N je eine N-unitäre Modalmatrix X/1 besitzen, muß nicht eigens durch eine Vertauschbarkeitsbedingung gezeigt werden; dies wurde auf direktem Wege bereits im Abschnitt 15 bewiesen. Die Relationen (63) (66) dagegen behalten ihre Aussagekraft durch den Zusatz N* == N pos. der., der gegenüber einer nicht-hermiteschen Normierungsmatrix N garantiert, daß das Tupel (A J; N parameter-hermitesch ist. Für selbstnormierende hermitesche Matrizentripel wurde dies zum ersten Mal von Caughey [127 e1 gezeigt. Betrachten wir abschließend als einfachsten Sonderfall die in . 1. lineare Matrix
F(..1.)==A o+A t ..1.;N,
N*==N pos. der. ,
(67)
dann haben wir zunächst die beiden Kriterien (62) (68) und eine Vertauschbarkeitsbedingung (63) (69) Nun sei eine der beiden Matrizen, etwa At selber hermitesch und positiv definit, dann kann sie als Normierungsmatrix dienen und werde At == N == B genannt; A o heiße einfachheitshalber A. Die Vertauschbarkeitsrelation (69) ist dann in trivialer Weise erfüllt ebenso wie die zweite Gleichung (68), und übrig bleibt (70)
und dies ist das bereits in (15.2) zitierte äußere Kriterium für die B-Normalität eines Matrizenpaares .
18 Parametermatrizen
376
Zum Schluß ist es nicht überflüssig, auf einen grundlegenden Unterschied hinzuweisen. Während die Bedingungen (62) der Parameter-Normalität die Existenz einer dem Tupel {A};N gemeinsamen N-unitären Modalmatrix X garantiert, gibt es ein entsprechendes äußeres Kriterium für parameterdiagonalähnliche Matrizen nicht! Aus diesem Grunde mußten wir für diese uns durch Rechnung immer erst überzeugen, ob für mindestens ein Paar Ap;N bzw. für festgewählte Parameterwerte die Paare F(AI);N oder 0(0-0 ,0- 1" , .,0-1.'); N Diagonalähnlichkeit vorlag; erst dann konnten die Vertauschbarkeitsrelationen in Kraft treten. Daß dies nicht anders sein kann, macht schon der allereinfachste Fall der linearen Matrix F(A) == A - AB klar: Diagonalähnlichkeit ist stets gesichert bei lauter verschiedenen Eigenwerten Aj. Sind einige von ihnen mehrfach, so entscheidet der Rangabfall der Matrix F(A) über die Struktur, und das heißt über die Frage Diagonalmatrix oder Jordan-Matrix (19.1). Gäbe es dafür ein äußeres Kriterium, so würde dies gleichzeitig darüber entscheiden, ob Eigenwerte mehrfach sind oder nicht. Dies aber ist unmöglich, weil damit auf rationale Weise über die durch die algebraische Gleichung det F(A) == 0 festgelegten und somit algebraisch-irrationalen Eigenwerte etwas ausgesagt werden könnte. Beispiel. Gegeben ist das Matrizentupel (A I;N mit
0 -2+i! [ -2-i -3
J'
A = [2+i
A 1 -- [2+i
o
4+2ij AJ = [ 4+2i 8+4d '
2
N=
~ [2 5
2+iJ 2-i 5
= N*
J
4i 2+4i
(a)
,
1. iJ . 1
(b)
-1
pos. def.,
-2-2+i 2
N-1 = [ 5
l
i
J
(c)
Es ist zu verifizieren, daß die folgenden Relationen erfüllt sind: a)
b) c)
e(e + 1)/2 = 3(3 + 1)/2 = 6 Vertauschbarkeitsbedingungen (36), } e + 1 = 4 Normalitätsbedingungen (62), e(e + 1)/2 = 6 Vertauschbarkeitsbedingungen (63).
(d)
Um die dem Tupel [A};N gemeinsame N-unitäre Modalmatrix X zu ermitteln, greifen wir irgendein Paar heraus, etwa A 2 ;N und bestimmen aus der Eigenwertgleichung (A 2 -aN)x = 0 zunächst die Eigenwerte und weiter die Eigenvektoren (e)
In der Tat gehen alle vier Matrizen All gemeinsam mit N in die Diagonalformen X* AIiX und X* N X über, wovon der Leser sich überzeugen möge. Auch ist X X* = N - 1, wie es nach (51) sein muß.
18.7 Lineare Abhängigkeit von einem Leitpaar
Wir greifen aus dem Tupel (28) irgendeine geeignete Matrix A k heraus, und das so bevorzugte sogenannte Leitpaar Ak;N sei diagonalähnlich bzw. diagonalkon-
377
18.7 Lineare Abhängigkeit von einem Leitpaar
gruent, somit N-normaI. Die erste Eigenschaft ist nur durch Nachrechnen zu bestätigen (falls nicht physikalische Gründe dies sicherstellen, was oft der Fall ist), die zweite wird durch das Erfülltsein der Bedingung (62) (71)
garantiert. Nun seien alle übrigen Matrizen des Tupels Linearkombinationen der Art (72) dann gehen sie alle bei der Transformation mit den durch das Leitpaar Ak;N festgelegten Modalmatrizen Y; X bzw. X*; X gemeinsam mit N auf Diagonalform über, was infolge der Voraussetzung selbstverständlich ist. Der Leser überzeuge sich dennoch durch Einsetzen von (72) in (36) bzw. (63), daß diese Gleichungen identisch erfüllt sind. In praxi dagegen hat man lediglich aus den beiden Eigenwertaufgaben (73)
die Modalmatrizen Yund X bzw. X* und X zu berechnen und transformiert damit sämtliche Matrizen zusammen mit N gemeinsam auf Diagonalform:
YAvX=evDiag~Akxj>+avDiag(yjNxj>; v=0,1,2, ... ,{!,
v*k (74)
Die lineare Abhängigkeit (72) liegt in den Anwendungen bisweilen vor. Sie vereinfacht die Rechnung besonders dann, wenn auch die Normierungsmatrix N aus dem Tupel selbst stammt oder zumindest aus einigen oder allen Partnern des Tupels nach (40) linear kombinierbar ist. Dieser Fall tritt in allereinfachster Weise auf bei der Polynommatrix - in jetzt etwas anderer Bezeichnungsweise als in (29) -
F(A) = C+DA+MA 2
,
(75)
wie sie uns in der Theorie der gedämpften Schwingungen, aber auch in der Statik I, somit zur Selbstnormierung geeignet. Als Leitpaar wählen C;M, und es werde sog. modale Dämpfung vorausgesetzt, d. h. es gelte wie in (72) D=eC+aM,
(76)
1 Stumpf, H.: On the linear and nonlinear stability analysis in the theory of thin elastic shells. Ing.-Arch. Bd. 51 (1981) S. 195 - 213.
378
18 Parametermatrizen
Im
A
Re
Abb. 18.2. Koordinatenverschiebung
eine Beziehung, die in der technischen Praxis als Bequem/ichkeitshypothese [127 g] bezeichnet wird, da sie oft nicht exakt, sondern nur annähernd erfüllt ist. Führen wir jetzt nach Abb. 18.2 die neue Koordinate ~ = A- A ein, so wird nach leichter Rechnung (77)
oder mit (76)
F(O= [C(1+eA}+MA(a+A)] + [eC+(a+2A)M]~ +
Me
(78)
Über A verfügen wir nun so, daß der Inhalt der geschweiften Klammer verschwindet, wählen somit A = - 1/e und bekommen
(79)
Das Paar C; M habe die Modalmatrizen Y und X, dann wird YCX = Diag (vj CXj) =: Diag (c) YMX
= Diag und (k) folgen nun nach leichter Rechnung (I)
Nur zur Probe rechnen wir noch
n= 1 . B
Y, +k 13 Y3 = g" T?
in Zahlen
[-
1 1 1 4 3 llJ (2J+ 3[5J (20J
(m)
Die zwei Spalten (i) und (I) stellen wir zur Matrix Y zusammen. Diese transponiert ergibt die gesuchte Matrix X
Y=
~l Y3J G_~ ~J ' Y2
=
T
y =
G-D X. =
Einsetzprobe nach (a).
(n)
Das Verfahren wird noch effizienter, wenn man auch die Matrix B auf Kodiagonalform transformiert; die Anzahl der Operationen für die Lösung der Matrizengleichung ist dann für m = n proportional zu n 3 und bleibt ähnlich gering auch für m"* n.
19.6 Dekomposition (Entflechtung)
393
19.6 Dekomposition (Entflechtung)
Wieder gehen wir aus von der Normalform (53). Diese Matrizengleichung wird umgewandelt in ein gewöhnliches Gleichungssystem (64)
mit einer quadratischen Matrix H der Ordnung n und der Matrix R der rechten Seiten, so daß unabhängig voneinander die m Gleichungssysteme HXj.l=rj.l;
f.,l=1,2, ... ,m
(65)
zu lösen sind. Die Determinante der Systemmatrix H ist (66)
mit den Produkten Qv aus (45). Der Beweis der Methode ist nicht ganz einfach und erfordert mathematische Hilfsmittel, die uns hier nicht zur Verfügung stehen. Der Algorithmus sei deshalb einfach nur mitgeteilt. Algorithmus Dekomposition
1. Ermittlung der Matrix H 1a. Berechne die Koeffizienten qm bis qo des Polynoms in a (67)
1b. Bilde die Folge der n-reihigen Matrizen Tm = O+qm1n ,
Tm-I =ATm+qm-lIn, .. ·,To=AT1+qoln=H. (68)
2. Ermittlung der Matrix R 2a. Bilde die Folge der m-reihigen Matrizen
,
Kontrolle qolm - BPo ';" 0 (Cayleigh-Hamilton). 2b. Berechne die Matrizenprodukte der Höhe n und der Breite m (70)
394
19 Matrizengleichungen
2c. Bilde die Folge der Matrizen der Höhe n und der Breite m Sm-t=o+Pm- t , Sm-2=ASm-t+Pm-2,···,So=ASt+Po=R
(70a) 3. Berechnung der Lösungsmatrix X Mit Hilfe des Gaußschen Algorithmus wird die Äquivalenztransformation (71)
LHR=ll
auf die leicht zu invertierende Pivotmatrix II durchgeführt. Dann ist gemäß (64)
(71 a)
IX=Rll-tLI·
Wir vermerken noch, daß der Algorithmus von (67) bis (70a) divisionsfrei verläuft. Sind A, Bund C ganzzahlig, so sind es demnach auch Hund R; es kann somit nach den Methoden der Abschnitte 6.12 bis 6.15 die Lösung ganzzahlig und folglich fehlerfrei gewonnen werden. Die Dekomposition läßt sich verallgemeinern auf die nicht normierte Matrit
2
t
zengleichung (33) unter der Voraussetzung, daß entweder A und A oder Bund 2
B miteinander vertauschbar sind, siehe dazu die Originalarbeit [126]. Die eigentliche Schwierigkeit besteht in der Aufstellung der Polynomgleichung (67) (und das ist mit a = - A nichts anderes als das charakteristische Polynom des Paares B;Im). Man wird deshalb das Paar B;Im vorweg auf Km;/m mit der Kodiagonalmatrix Km transformieren, dann ergibt sich das Polynom quasi von selbst. Transformiert man darüber hinaus auch das Paar A;In auf Kn;Im so ist der Gesamtaufwand zur Lösung der Matrizengleichung proportional zu m' n . (m + n), somit für m = n proportional zu n 3. Erstes Beispiel. n = 2, m = 3.
AX+XB= C mit A = [ :
t a.
det
(B+aI
3) =
det
[~:a
B = [-:
o
~:J0 C [44 00J2 =
(a)
t
2
a 1
(c)
19.6 Dekomposition (Entflechtung)
395
[ ~J [ -] 1 0 0
0 1 0
o -2
1 -1 1
1
o -1
[-~
1 0 -1 -1
Probe: qoI 3 -BPo = -2I3 -BPo = [
0 0 0
[:
CP t =
2b. CP2 = CI3 =
0
= P2
:J
,
0 0 0
(d)
-~J
~J
!
e
-8 -4J =Pt , 1 -9 -3
4 CPo = [-4 =Po · -6 2 I:J 2c. S2
SI
=0
[:
+P2 =
0 :J
=AS +P = G-~J 2
:J + [
[:
G-~J
-~J -9 -3 -8
0
I
So =ASt +Po =
(e)
-8
0
-4J + [-4 -6 [: -10 -5
4 2 108J
[:
-8
-4J -10 -5
=C9 -12 2 -12
:J
(f)
=~;
3. Die Gaußsche Transformation lohnt hier nicht. Wir berechnen die Inverse von H direkt nach (3.19) und bekommen aus der Gleichung HX= R (64) mit H (c) und R (g) die Lösung
Zweites Beispiel. Die Ljapunov-Gleichung (49) mit B*
BX+XB=2B 2
= Bund C = 2B 2 , also (a)
•
Die Lösung- ist X = B, wie man durch Einsetzen leicht bestätigt. Der Algorithmus wird auf dem Computer durchgeführt und liefert eine durch Rundungsfehler verfälschte Matrix Z anstelle der exakten Lösung X = B. Die Matrix LI = BZ+ZB-2B 2
(b)
ist deshalb von Null verschieden. Ihre Elemente 0jk sind um so größer, je höher die Ordnungszahl n ist. Um sich einen Einblick in die Genauigkeit der Rechnung zu verschaffen, läßt man die Werte
I0jk Irnin'
°
1
= -;
n
n
n
L LI j=lk=1
0jk
I, I0jk Irnax
(c)
19 Matrizengleichungen
396
ausdrucken, wo öder Betragsmittelwert aller n 2 Elemente von LI ist. Allerdings darf man aus der Kleinheit der Werte (c) nicht voreilig auf die Genauigkeit der Näherungslösung Z schließen; wir kommen auf solche Fragen im Teil 2 des Buches noch ausführlich zurück. Speziell sei B die Differenzenmatrix (17.57) (dort A genannt), dann liefert die Maschine die folgenden Ergebnisse Ö
IÖjklmin
1,1'10- 15
Iöjkl max
5,5 '10- 15
n=5 n = 10 n = 15 n = 20
0 1,8'10- 12 3,3 '10- 8 9,6'10- 8 9,5'10- 5
1,4'10- 14 3,8'10- 11 1,6'10- 7 3,7'10- 4
n= n= n= n=
4,0'10- 7 1,2'10- 5 1,2'10- 5 4,7'10- 4
5,3 '10- 3 1,4'10- 2 4,4'10- 2 9,1'10- 1
1,0'10- 11
(d)
21 22 23 24
7,9'10- 4 3,1,10- 3 1,1'10- 2 1,7'10- 1
Schon ab n = 20 werden danach die Ergebnisse absolut unbrauchbar. Wir werden später noch sehen, wie sich durch geeignete Modifikation des Algorithmus die Resultate verbessern lassen.
Wir betonen nochmals, daß die Dekomposition divisionsfrei verläuft. Sind A, Bund C ganzzahlig, so sind es demnach auch Hund R. Dies ist einerseits ein Vorteil, doch entstehen auf diese Weise bei hoher Ordnung n sehr große Zahlen, weshalb der Algorithmus durch Überlauf gefährdet ist. 19.7 Rekursion
Dieses Verfahren setzt das gestaffelte Gleichungssystem (30) voraus. In der Matrizengleichung (33) I
1
2
2
AXB+AXB= C
(72) 2
1
muß deshalb das Paar B; B nach (34) bis (36) transformiert werden auf (73)
Damit werden die Matrizensummen (27) I I
2 2
Skj= Abkj+Abkj
I
=
2 _
(74)
Aokj+Abkj ,
womit das gestaffelte System (30) mit (36) übergeht in I
2 _
(A ·1 + A bll)xI 2 _
I
= CI }
2 _
A b l2 XI + (A -1 + A b22 )X2 2
AblmXI +
2
Ab2m X2+'"
= C2 I
2
+(A-1+Abmm )xm =Cm
(75)
397
19.8 Entkopplung
und daraus können die Vektoren Xl bis
xm rekursiv berechnet werden. EntscheiI
2 _
.
dend für die Lösbarkeit sind die Matrizen A + A bjj in der Hauptdiagonale. Sind sie alle regulär, so ist das System eindeutig lösbar, sonst aber widersprüchlich oder verträglich mit dann unendlich vielen Lösungen. Um den Aufwand gering zu halten, empfiehlt sich eine ÄhnlichkeitstransforI
2
mation des Paares A; A auf Kn;/n mit der Kodiagona/matrix K n I
2
LaARa = K n ; LaARa = In .
(76)
Das System (75) vereinfacht sich damit zu
(Kn+lnbI1)XI .......
=
~.I~~~ ~.~~~~.~n.~2.2~~~
blmXI +
CI }
~.~2.
(77)
b2m X2+'" + (Kn +Inbmm)xm = Cm
Die Auflösung der m Gleichungssysteme aus der Hauptdiagonale erfordert dann statt jeweils n 3/3 Operationen nur deren 3 n. 19.8 Entkopplung I
2
2
1
Das Paar A; A habe sn und das Paar B; B sm verschiedene Eigenwerte; dann transformieren wir nach den Methoden aus Abschnitt 16.3 beide Paare auf die Block-Diagonalmatrix mit dreiecksförmigen Eigenblöcken I
I
LaARa = Diag('\jj)' 2
2
LbBRb=Diag('\jkk),
2
LaARa = Diag(ljj) = In
(79)
J=1,2"",sn
I
LbBRb=Diag(lkk)=Im ; k= 1,2,oo"sm,
(80)
und damit zerfällt nach (19) die Matrizengleichung (33) in eine Anzahl von Gleichungen kleinerer Ordnung (wo X und C aus (36) folgen)
[J:
1,2, ..
"Sn
1
k-1,2"",smj (81)
die alle nach (75) rekursiv gelöst werden. Sind beide Paare diagonalähnlich, so liegt totale Entkopplung vor, und es wird noch einfacher
[J:
1,2, .,n k -1,2, ... 00
1.
,mj
(82)
398
19 Matrizengleichungen
Der Aufwand für die beiden Transformationen (79), (80) ist beträchtlich und zahlenmäßig nicht angebbar, auch sind sie nicht fehlerfrei durchführbar. Man begnügt sich daher mit einer Näherung dergestalt, daß außerhalb der Hauptdiagonalblöcke betragskleine Elemente stehenbleiben und wendet dann das bekannte Iterationsverfahren von Gauss-Seidel an. Näheres dazu wird beschrieben in [126, S.66-68].
19.9 Algebraisch nichtlineare Matrizengleichungen Die skalare algebraische Gleichung (83) läßt sich mit einer Produktzerlegung ihrer Koeffizienten auch so schreiben (84)
P/J(x) = a+bxc+dxexf+··· +kxlxmx'" vxw = 0
(mit a = Po), wodurch sich gegenüber der Ausgangsgleichung (83) natürlich nichts geändert hat. Nicht so, wenn wir hier Matrizen einsetzen
P/J(X) = A +BXC+DXEXF+ ... + KXLXM· .. VXW= 0 ;
(85)
denn da diese im allgemeinen nicht vertauschbar sind, gelingt eben nicht die Zurückführung von (85) auf die entsprechende Polynomgleichung (83). Die Gleichung (85) stellt eine eingliedrige algebraische Matrizengleichung vom Grade /-l dar. Summierung über mehrere Matrizen ergibt dann analog zu (24) die mehrgliedrige Gleichung
p/J(X)=A+
at
j
j
az j
j
j
ap
j
j
j
j
j
L BXC+ L DXEXF+ ... + L KXLXM.. · VXW=O, j = I
j = I
j= 1
(86)
wo die Summationsindizes I1 v im allgemeinen voneinander verschieden sind. Der einfachste Vertreter dieser Spezies ist die quadratische Matrizengleichung mit 111 = 2 und 112 = t vom Riccati-Typ (87)
Schreiben wir diese etwas um, (88) oder in anderer Bezeichnungsweise (89)
399
19.9 Algebraisch nichtJineare Matrizengleichungen
so erkennen wir im unterklammerten Anteil unsere normierte Gleichung (37) wieder. Diese Tatsache legt es nahe, die Gleichung iterativ zu lösen nach der Vorschrift v:: 0, 1,2,.
(90)
beginnend mit einer ersten Näherung X o, zum Beispiel X o =' 0, sofern keine bessere Näherung bekannt ist. Das Verfahren konvergiert allerdings nur für betragskleine Elemente der Matrix A \2 und ist sehr aufwendig, da ja für jeden Iterationsschritt die lineare Matrizengleichung der linken Seite von (90) gelöst werden muß. Nun hatten wir schon in (10.23) gesehen, daß bei einer linearen Ähnlichkeitstransformalion ein quadratischer Term auftritt, und zwar gerade von der Art (87), wo damals nur alles skalar war. Dies legt den Gedanken nahe, die Riccati-Gleichung über eine Ähnlichkeitstransformation in Blöcken auf folgende Weise zu lösen
(91)
Verlangt man hier A21 :: 0, so ist dies identisch mit (87). Die Transformation verläuft wie im Abschnitt 16.2 geschildert. Benötigt werden irgend m Eigenwerte (unter ihnen auch gleiche) aus dem Spektrum des Paares A; I mn , die in die Ähnlichkeilstransformation eingehen
EEl' m
n
(92)
wo R 11 im Regelfall eine normierte untere Dreiecksmatrix ist. Eine zweite Ähnlichkeitstransformation macht daraus mit
(93)
400
19 Matrizengleichungen
wobei der Nullblock unten links erhalten bleibt und der Rest nicht weiter interessiert. Die Gesamttransformation ist somit (94)
und damit ist, wie ein Vergleich mit (91) zeigt, die gesuchte Lösung der RiccatiGleichung (95)
oder besser gesagt eine der zahlreichen Lösungen, die es gibt. Daß es nicht nur eine geben kann, zeigt schon die skalare quadratische Gleichung P2(X)
= a21-xall +a22x-xa12x= a21 +(a22-alt)x-aI2x2 = 0 ,
(96)
die genau zwei Lösungen besitzt. Literatur zur Riccati-Gleichung: die Lehrbücher von MüllerlSchiehlen [39] und Schwarz [16], sowie die grundlegenden Arbeiten von Laub [127 c] und BunseGerstner/Mehrmann [127d]. Ein Demonstrationsbeispiel mit
A =2.A =[0 ll
12
1J.
lJ
oo -1 1
[-8J
[0 -lJ
• A 22 = 412
A 21 =
• R=
2
[1
XI
x2
o1 o
0J0
.
•
X=
[xJ x
•
(a)
(b)
1
Die drei Rechtseigenvektoren des Paares A; 13 sind (c)
Damit sind die eingerahmten Spalten die drei Lösungen der Riccati-Gleichung. wovon man sich durch Einsetzen in (87) überzeugen möge.
19.10 Zusammenfassung. Ausblick
Mit den hier angeführten Sätzen und Methoden ist das große Gebiet der Matrizengleichungen nicht annähernd erschöpft. So fehlen das Matrizen-Eigenwertproblem mit gesuchten Eigenmatrizen X j , die Systeme von linearen Matrizengleichungen mit den unbekannten Matrizen Xt>X2, . .. ,XI? und vor allem die transzendent nichtlinearen Matrizengleichungen wie beispielsweise 5 j(X) =XA sinX+XBX+aX = 0
mit einer oder auch mehreren Unbekannten.
(97)
20.1 Der Austausch von Eigenwerten. Deflation
401
Schwierigkeiten ganz anderer Art tun sich auf, wenn die Koeffizientenmatrizen A, B usw. nicht wie bisher vorausgesetzt quadratisch, sondern rechteckig sind. Schon der einfachste Fall A X B = C ist hier problematisch; wir kommen im Abschnitt 46 noch darauf zurück.
20 Matrizenfunktionen • 20.1 Der Austausch von Eigenwerten. Deflation Zum Matrizenpaar A;B mit regulärer Matrix B gehöre die Datenliste (18.1) Eigenwert (1)
Vielfachheit und es werde nach der Vorgehensweise von Abschnitt 18.3 die B-ähnliche Transformation auf die Diagonalmatrix der Eigenblöcke durchgeführt YAX=Diag(~)=A; YBX=Diag(l)=In
--+
B- 1 =XY;
(2)
dann bestehen die Spektra/darstellungen B-1A =
s
L Xj~/yjB)
AB- 1 =
s
L
(BXj)~jyj
j=l
j= 1
s
B=
L (BXj)~(yj B)
(3)
j= 1
und daraus abgeleitet die Eigenwertgleichungen
(4) Wir ersetzen nun nach Abb.20.1 einige oder alle Eigenwerte durch beliebig vorgebbare Ersatz-Eigenwerte Xj
I
Aj
--+
Xj
I;
Aj
der Liste (1)
(5)
j = 1,2, ... ,s .
Dann gilt für die so modifizierte Matrix A mit denselben Matrizen B, yj und X j anstelle von (3) und (4) B-1A
=
s
L Xj~j(yjB), j= 1
AB-I
=
s
L
(BXj)~jyj ,
(6)
j= 1
(7)
402
20 Matrizenfunktionen tU
X'" AZ
Aj
AI
0
U
u
11=0
Abb.20.1. Austausch der Eigenwerte Aj gegen die Werte }(j in der komplexen Zahlenebene
Abb. 20.2. Zur Deflation
wo nun die Eigenmatrix~j den neuen Eigenwert )(j besitzt. Hat der Eigenwert Aj die Vielfachheit Gj> 1, so ist prinzipiell ein mehrdeutiger Ersatz mit Gj verschiedenen Werten gemäß (8)
möglich, doch stellt dies im allgemeinen einen schwerwiegenden Eingriff in die Struktur der Matrix dar. Ist nämlich der Eigenblock nicht-derogatorisch, so verliert er diese Eigenschaft, da er nun zufolge der Verschiedenheit der Eigenwerte
Xj
mehr als einen Eigenvektor besitzt. Soll also die Struktur (und das heißt die Charakteristik) des Eigenblocks erhalten bleiben, so ist folgendes zu verlangen: Fall a) Ist ~j nicht-derogatorisch, so wird Aj eindeutig durch )(j ersetzt. Fall b) Ist ~j derogatorisch und zerfällt daher in Pj nicht-derogatorische Jorv
dan-Zellen, so darf in jeder dieser Zellen Aj gegen einen anderen Wert )(j ausgetauscht werden, mehrdeutiger Ersatz. Zwar geht im Fall b) die Vielfachheit des Eigenwertes Aj verloren, doch bleibt der Index der Nilpotentheit ebenso wie die Gesamtheit der Eigen- und Hauptvektoren erhalten, wenn auch zu jetzt verschiedenen Eigenwerten Xj, wie man sich anhand der Jordan-Form leicht klarmacht. Ersetzt man speziell den Grfachen Eigenw.ert Aj durch lauter Nullen, so geht die Matrix ~j in die strikte Dreiecksmatrix ~j über. Geschieht dies für alle s Blöcke, so hat das modifizierte Paar A;B den n-fachen Eigenwert Null, sogenannte Deflation nach Abb. 20.2. War insonderheit das Paar A;B diagonalähnlich, so ist dadurch A in die Nullmatrix A = 0 übergegangen. Schließlich erinnern wir noch an die bekannten Beziehungen sp(B-1A)=sp(AB- 1)=
n
L j=l
Aj,
det(B-'A)=det(AB- 1)=
n
TI j=l
Aj. (9)
20.1 Der Austausch von Eigenwerten. Deflation
403
Nach dem Austausch der Eigenwerte gilt daher
sp (B -
A) = sp (A B - I) =
1
n
L Xj
,
det (B -
1
A) = det (A B - 1) =
rr n
Xj ,
j= 1
j=l
(9a)
und diese beiden Gleichungen stellen eine nützliche Kontrolle der Ersetzung dar. Ein Beispiel. Das spezielle Paar A; h mit
A =
Y=
[
-4 -12 12J 5 12 - 8 , 2 4 0
[111 22-1-2-IJ [ Y1J y2
(a)
=
:J
Damit wird
YAX=A =
[:1
[~ -~
=
o0J , 4
YI3 X = 13
,
Datenliste
~j 24 . Gj
(b)
2 1
1. Eindeutiger Ersatz gemäß der Liste (c) führt auf die beiden Matrizen (d). (Die zweite ist hier ein Skalar).
2
2
4 (c) ,
4711
4711 -10
"'1 ~ -- [4711
o
-3J, ~2=-10, 4711
(d)
und nun folgt nach (6) mit B = 13
A =Xl~ 1 y l +X2~2y2 =
=
[
[
-12 0 4705 12J + [ -100 -20 -4708 -4705 4705 -4711 -9422 9422 -10 -20
I~J
10
3 -12 4705 12J , spA=9412= -4718 -4725 4715 -4721 -9442 9432 j=l
L)(j'
(e)
2. Mehrdeutiger - verbotener! - Ersatz gemäß der Liste (f) führt auf die Matrizen (g).
2 2 4
o
(f) ,
5 0
- rLoo -
"\1 1 =
3J 5 ,"\1 2 = 0 .
(g)
(h)
besitzt drei linear unabhängige Eigenvektoren, womit die Struktur zerstört wurde.
404
20 Matrizenfunktionen
• 20.2 Was ist eine Matrizenfunktion? Sagen wir zunächst, was sie nicht ist: eine Funktion einer Variablen, die man differenzieren oder integrieren könnte - solche echten Funktionen besprechen wir im Abschnitt 20.6 -, sondern gemeint ist eine Matrix f(B- 1A) bzw. f(AB- 1) mit konstanten Elementen, deren Eigenwerte Jej mit denen des Paares A;B nicht willkürlich, sondern durch eine vorgegebene Funktion f, anstelle von (5) also durch die Beziehung
I
Jej
= f()..j)
I;
j
= 1,2, ... ,s
(10)
verknüpft sind. Treffender wäre deshalb zu sagen: f(B -I A) bzw. f(A B - I) ist die Funktionswertematrix zum Paar A;B, doch bleiben wir der Tradition folgend bei der obigen Ausdrucksweise. Die Abb. 20.3 zeigt die Funktion Je = f(A) = A2 in der komplexen Zahlenebene, die Abb. 20.4 zwei Funktionen im Reellen. i,v
I o
u
Abb.20.3. Austausch gemäß der Funktion
Xj =
Al
Ersetzen wir in den Formeln des Abschnittes 20.1 die Größen B - 1 A, ~j und -I A), fr'J. j) und f(A) , so bekommen wir der Reihe nach
Jej durch f(B
s
(6)
-+f(B-1A)=
L XJ(~j)(yjB);
f(AB- 1)=
j=1
s
L (BXj)f(~j)yj,
j=l
j = 1,2, ... ,s , s
(9a)
-+
spf(B - 1A) = spf(A B
-I)
=
L f(Aj) j = 1
detf(B-1A)
t
= detf(AB- ) =
s
II f(Aj)
j=
1
}
(11)
(12)
(13)
Ist nun das Paar A;B diagonalähnlich (insonderheit normal), so gilt für alle sEigenblöcke (14)
405
20.3 Die skalare Taylor-Entwicklung
JtlQ------------j
Abb. 20.4. Reelle Matrizenfunktionen
womit sich der Skalar f(),) aus dem Produkt in (11) herausziehen läßt s
f(B-1A}=
L f(A)Xj(yjB}
s
L f(Aj)(BXj}yj
, f(AB- 1}=
j=l
,
(15)
j=l
und die Eigenwertgleichungen (12) lauten zufolge (14) (16) ein Ergebnis, das wir seiner Wichtigkeit wegen aussprechen wollen als Merksatz: Bei diagonalähnlichen (insonderheit normalen) Paaren A;B sind die s Eigenwerte Aj durch die Funktionswerte Xj = f(Aj} zu ersetzen. Beispiel. Daß der bloße Ersatz der Eigenwerte Aj durch f(Aj) im allgemeinen nicht genügt, zeigt die Matrix A mit den Funktionen cos A und sin A. A= (A
o
012J, A
Damit wird (cosA)2 =
[
cosA: (COSA 012J 0 cos A '
2 COS0 A
und weiter (COSA)2+(sinA)2=
20
COS AJ ' cos 2 A 12
SinA:
2 (sin A)2 = (sin A 0
G
2012(COSjA+sinA>]"*
rL
sinA 0
OI2J sin A
20
G~J
12 sin AJ sin2 A
=/2 ,
(a)
(b)
(C)
Soll also der Satz des Pythagoras auch für Matrizen gelten, (cos A)2 + (sin A)2 = In> so sind die Matrizen (a) nicht zulässig außer für 012 = O. Dann aber ist A diagonalähnlich (sogar selbst diagonal), und es gilt unser Merksatz.
• 20.3 Die skalare Taylor-Entwicklung Wir beschränken uns im folgenden auf analytische Funktionen; das sind solche, die eine Taylor-Entwicklung an einer - nicht immer frei wählbaren - vorgegebenen Stelle (J zulassen
406
20 Matrizenfunktionen
f(x)=f(a)+f'(a)~+~f"(a)e+ ... +~fV)(a)C+ ... 2!
V!
;
~=x-a
(17)
und führen diese Reihe an drei Musterbeispielen exemplarisch vor. 1. Die Exponentialfunktion eX oder exp x: Die Reihe exp x = exp a
[
1 + ~ + -1
2!
~2+
... + -1 v!
~ v +...
J
;
~ =
x- a
(18)
konvergiert in der ganzen komplexen Zahlenebene für beliebige Werte von a. 2. Der natürliche Logarithmus (Hauptzweig): 1 2
In x = In a + 11- - 11 + ... + ( - 1)
2
V+l
x-a a*O, 11=-. (19)
1 v - 11 + ... v
a
3. Die Hyperbelfunktion: 2 (1) v 11+··· v ) x - I =a - 1 (1 -11+11+·.·+-
x-a a*O,1'{=--. a
(20)
Beide Reihen konvergieren für
1111 u\=15,
u2=15,
det(V-vB) = -2v(v 2 -81) = 0
u3=-3
(d)
(e)
Die eindeutige Zuordnung gewinnt man natürlich nur durch Kenntnis der Eigenvektoren, die sich am einfachsten aus (V - vjB)xj = 0 ergeben. Man erhält die Modalmatrix
(f)
und damit AX=
-9+ 15i -9-15i -12J Li -i . 45+27i 45-27i 0 ; BX= 3 3 [ -36+60i -36-60i 6 4i -4i
(g)
Aus AX = BXA ergeben sich dann als Quotienten die Eigenwerte AJ =15+9i,
A2=15-9i,
A3 =-3.
(h)
427
21.3 Der Einfluß einer Störung Im lOi
).,0
.
u' iv
)."
• R, -5
10
5
/5
Re
• R,
-5i
.
-lOi
Abb.21.2. Wertebereich und Rayleigh-Quotienten für ein reelles normales Matrizenpaar der Ordnung n=3
).,;
w,
Wir bilden nun den Rayleigh-Quotienten zum Vektor = (1 i O)T und bekommen R I = 7 - 3i, dagegen wird zum Matrizenpaar AT;B mit dem gleichen Vektor R, = 7 + 3i, wie es nach (14) sein muß. Ein zweiter Vektor w2 = (3 - i O)T ergibt den Rayleigh-Quotienten R 2 = 0,6 + 1,8i, und dieser liegt nach Abb. 21.2 auf der Verbindungslinie von A3 = - 3 und AI = 15 + 9i. Wie ist dies zu erklären? Wir berechnen die Massen (10) (w* Bx)(x* Bw)
m.=w*D.w= J
J
und bekommen c,
ml =
J
* Xj BXj
J
= 6i,
(6i)( -6i) 18
c2
= 0,
ce·
=...LJ.. N
c3
= 12,
= 2, m2 = 0 ,
(i)
j
ferner die Nenner N,
= N 3 = 18
12'12
m3=--=8,
18
und daraus weiter (j)
somit nach (11) (k)
wie oben. Da m2 = 0 ist, muß der Schwerpunkt auf der Verbindungslinie von AI und A2 liegen und teilt diese im Verhältnis 1:4 der Massen, also R 2A, = 4'R2A3' wie leicht nachzuprüfen.
J
Kondensiert man insbesondere mit einem Einheitsvektor w = ej, so wird = ajj und e Bej = bjj ; die Hauptdiagonalquotienten
J
e A ej
qj = ajj / bjj ;
j = 1,2, ... , n
(15)
eines normalen Paares liegen somit innerhalb oder auf dem Rande des Wertebereiches. 21.3 Der Einfluß einer Störung
Es sei
Xj
ein Eigenvektor und wein Näherungsvektor (16)
428
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
dessen Länge OP wir nach Abb. 21.3 so wählen, daß der Differenzvektor c auf dem Vektor Bx senkrecht steht (17)
p Tl!
Tl!
I
Abb.21.3. Zur Normierung des Vektors w
errechnen wir damit die hermitesche Form
A = w *A w = (Xj + c)* A (Xj + c) = x jA Xj + x jA c + c *A Xj
+c*Ac
wo zufolge der Normierung (17) nur zwei Summanden verbleiben (19)
und eine ähnliche Rechnung ergibt (20)
Der Rayleigh-Quotient wird damit (21)
und dies können wir mit den beiden Quotienten
c*Ac
R[c] = - - = { }
c*Bc
c*Bc
ß=xjBxj
(22)
nach Division von A und B durch xlBXj kürzer so formulieren R[w) = Aj+{}ß 1+ß
(23)
21.4 Der Wertebereich eines nichtnormalen Paares
429
oder schließlich mit Aj = R [Xj] als Beziehung zwischen den drei zu den Vektoren (21) gehörenden Rayleigh-Quotienten in der prägnanten Form R [w]- R [Xj] = R[w]-R[cj]
ß.
(24)
Aus der Gleichung (23) berechnet sich nun die Differenz
ß
(25)
o·=R[w]-k=«(J-A·)- . J } J l+ß
Sie ist proportional dem Faktor ß, und dieser ist nach (22) quadratisch klein mit dem Längenverhältnis der beiden Vektoren c und Xj, und das bedeutet in praxi: Selbst ein grob gewählter Näherungsvektor w kann eine brauchbare Näherung R[w] für den Eigenwert Aj liefern. Wir werden im Abschnitt 26 noch ausführlich auf diesen für die Numerik wichtigen Sachverhalt zurückkommen. 21.4 Der Wertebereich eines nichtnormalen Paares Es sei nun das Paar A; B beliebig, dann bestehen mehrere Möglichkeiten, den Rayleigh-Quotienten zu definieren. Das nächstliegende ist natürlich, an die Kondensation (2) anzuknüpfen und mit zwei Näherungsvektoren (26) den Quotienten R[z,w]
ZT Aw
(27)
=-T-
z Bw
zu bilden. Sind die Störungen d und c klein, so darf man erwarten, daß die Differenz (28)
ebenso wie in (25) quadratisch klein wird, was in der Tat zutrifft. Ein Beispiel.
A=
[-;2 ; =~J 4 -15
;
B=
[~1 2~ 0~J -
(a)
Zum Eigenwert A = 5 gehören die Eigenvektoren
yT=(_3 -61).
x=[jJ.
(b)
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
430
Mit dem Vektor
s=
[lJ
(c)
wird der Rayleigh-Quotient
zTAw R[z,w]=-zTBw
(d)
für die folgenden vier Fälle berechnet:
a)z=y+es, b) z=y+es c) z=y-es d) z=y-es
w=x+es} w=x-es w=x+es . w=x-es
(e)
Die Abb. 21.4 zeigt den Rayleigh-Quotienten als Funktion von e für O~e~ 1. Man erkennt an der horizontalen Tangente im Nullpunkt deutlich die quadratische (und nicht etwa lineare) Abhängigkeit R(e). R 7.0
a 6.5 6.0 5.5 5.0 4.5 4.0 3.5
b
3.0 2.5 2.0
L _ _-'--_ _-'--_ _--'-_ _--'-_ _-'-_ _--'--_ _--'--_ _--'--_ _--'-_ _--'-_ e 0.0
0.1
0.2
0.3
0.4
0.5
0.6
0.7
0.8
0.9
1.0
Abb. 21.4. Die Abhängigkeit des Rayleigh-Quotienten R von einer Störung e
Eine - in der Praxis übliche - Vergröberung besteht nun darin, die Kondensation mit dem Näherungsvektor wallein vorzunehmen und damit den RayleighQuotienten wie im normalen Fall einzuführen als
431
21.4 Der Wertebereich eines nichtnormalen Paares
w*Aw
(29)
R[w]=--
w*Bw
Läßt man auch hier den Vektor w die Gesamtheit aller komplexen Vektoren mit n Komponenten durchlaufen, so wird der Wertebereich des Quotienten (29) nicht mehr geradlinig begrenzt, sondern durch eine geschlossene Randkurve j(u, v), welche das durch die Eigenwerte Aj festgelegte Vieleck nach Abb. 21.5 im allgemeinen von außen umfaßt; eine Ausnahme zeigt die Abb. 21.6. Ist das Paar reell, so liegt ebenso wie der Polygonzug auch der Wertebereich spiegelbildlich zur reellen Achse. Einzelheiten zu diesem Fragenkreis findet der interessierte Leser in den Arbeiten von Kippenhahn [127h] und Toeplitz [127i]. tU
tU
o
I------E~--+------o>_____t___,=_--
2(2
u
u
Abb. 21.5. Der Wertebereich eines nichtnormalen Paares (schematische Darstellung)
Abb. 21.6. Der Wertebereich eines nichtnormalen reellen Paares für n = 3 (zweites Beispiel)
Wenn es im allgemeinen auch nicht gelingt, die Randkurve j(u, v) des Wertebereiches explizit zu ermitteln, so läßt sich doch immerhin durch ein achsenparalleles Rechteck nach Abb. 21.5 der Wertebereich einschließen, wie wir jetzt zeigen wollen. Es sei zunächst B hermitesch und definit (insonderheit B = In), aber A beliebig. Dann berechnen wir die beiden hermiteschen Komponenten 1
H, = - (A + A *), 2
Hz
1
= - (A - A *) 2i
(30)
und haben damit den Rayleigh-Quotienten aufgespalten in Real- und Imaginärteil
w*Aw w*H,w . w*Hzw ;: . R[] +1· =u+1W w =---= w*Bw w*Bw w*Bw
(31)
Ordnen wir die reellen Eigenwerte des Paares H,; B der Größe nach (32)
21 Kondensation. Der Rayleigh-Quotient und sein Wertebereich
432
und ebenso die reellen Eigenwerte des Paares H 2;B (33) so führt das nach (31) auf die beiden Einschließungen (34) Der Wertebereich liegt somit innerhalb des achsenparallelen Viereckes der Abb. 21.5. Jede seiner vier Seiten wird von innen einmal in einem Punkt (in Ausnahmefällen auch entlang einer Strecke) berührt, wie leicht einzusehen. Ist das Paar A;B reell, so ist auch das umschließende Rechteck (ebenso wie Polygonzug und Wertebereich) spiegelbildlich zur reellen Achse gelegen. Es sei nun B regulär, aber nicht hermitesch, dann multiplizieren wir die Eigenwertaufgabe
Ax = ABx; B regulär
(35)
von links mit B* und bekommen
B* Ax = AB*Bx
(36)
oder kurz
AX=ABx
(37)
mit
B=B*B
A=B*A wo nun
B hermitesch
-
R[w] =
(38)
und positiv definit ist. Mit dem Rayleigh-Quotienten
w*Aw - . = ~+lW w*B w
(39)
A
A
verläuft dann alles wie in (31) bis (34) beschrieben. Die hermiteschen Komponenten (30) sind somit zu ersetzen durch 1
H t = -(B*A +A *B), 2
1
H 2 = -(B* A -A*B) 2i
(40)
Erstes Beispiel. Die Eigenwerte des Paares
A = [-;
° °ZJ , ° -1
B=
[1Zi _OZi 1
sind in ein Rechteck einzuschließen.
~!J
(a)
433
21.4 Der Wertebereich eines nichtnormalen Paares Wir berechnen die beiden hermiteschen Komponenten 1
[
°
-1,5
0,5 -0,5iJ ° °0,5i 2 -0,5i
(b)
-1,5i 3 0,5 -0,5iJ -0,5 1,5i 0,5 + 0,5i - 0,5
(c)
-1,5 0,5+0,5i
H j =-(B*A+A*B) 2 1 H 2 =-(B*A-A*B)=
[
2i
°
°
und die Partnermatrix 6 -5i 5i 5 [ 3 -2i
B*B=B=
(e)
Die Eigenwerte des Paares
H,;B sind (t)
und die des Paares H 2;B
ß,= -2,475877,
ß2
=
0,184045 , ß3 =3,291832
(g)
tu tß3 -