LINEARE ALGEBRA I, 2004/2005 RAINER SCHULZE-PILLOT
Inhaltsverzeichnis 0. Einleitung 1. Mengen und logisches Schließen 2...
42 downloads
1726 Views
1MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
LINEARE ALGEBRA I, 2004/2005 RAINER SCHULZE-PILLOT
Inhaltsverzeichnis 0. Einleitung 1. Mengen und logisches Schließen 2. Abbildungen und Gruppen 3. K¨orper, Vektorr¨aume und lineare Gleichungssysteme 4. Basis und Dimension 5. Lineare Abbildungen und Matrizen 6. Dimensionsformel und Quotientenraum 7. Basiswechsel und Transformation der Koordinatenmatrix 8. Determinante und multilineare Algebra 9. Eigenvektoren und Eigenwerte 10. Ringe, Ideale und Polynomring 11. Eigenwerte und Diagonalisierung 12. Bilinearformen, hermitesche Formen und Skalarprodukte 13. Bilinearformen und Dualraum 14. Hauptachsentransformation und Spektralsatz 15. Multilineare Algebra und Tensorprodukt 16. Jordansche Normalform 17. Elementarteilersatz und Moduln u ¨ber Polynomringen Index
1
2 10 16 30 43 65 78 87 96 112 121 136 144 156 170 186 196 206 216
2
RAINER SCHULZE-PILLOT
0. Einleitung Die Vorlesung “Lineare Algebra” hat Probleme als Ausgangspunkt, die Sie aus dem Mathematikunterricht der Oberstufe gut kennen. Wir schauen uns als Beispiel Abituraufgaben an: Abitur Saarland 2003, Aufgabe 2: 1. Gegeben ist eine gerade Pyramide (siehe Zeichnung) mit quadratischer Grundfl¨ache. Die Seitenl¨ange des in der x1 x2 -Ebene liegenden Quadrates ABCD betr¨agt 80 m; die Pyramide hat eine H¨ohe von 60 m. 1.1 Stellen Sie eine Normalengleichung der Ebene e auf, in der die Seitenfl¨ache ABS liegt. 1.2 Berechnen Sie den Winkel, den die Ebene e : 3x2 + 2x3 − 120 = 0 (Teil 1.1) mit der Pyramidenkante DS bildet. 1.3 Im angegebenen Koordinatensystem der Pyramide ist ein Rich 2 → tungsvektor der Sonnenstrahlen u= 4 . Der Schattenpunkt −3 0 S der Pyramidenspitze S liegt in der x1 x2 -Ebene. Berechnen Sie die Koordinaten von S 0 . 1.4 Wie weit ist der Punkt S 0 (40|80|0) von den Eckpunkten A und B der Pyramide entfernt? 1.5 Begr¨ unden Sie: Jeder Punkt der Pyramidenh¨ohe OS hat von den vier Seitenfl¨achen der Pyramide den gleichen Abstand. Bestimmen Sie den Punkt von OS, der sowohl von den vier Seitenfl¨achen als auch von der Grundfl¨ache der Pyramide den gleichen Abstand hat. 2. Zeigen Sie mit den Mitteln der Vektorrechnung: In einem Trapez, in dem die eine Grundseite doppelt so lang ist wie die andere, teilen sich die Diagonalen im Verh¨altnis 2 : 1. Hinweis: Die zueinander parallelen Seiten eines Trapezes heißen Grundseiten. →→ Zun¨achst 1.1: Zur Berechnung der Normalgleichung x n +d = 0 (oder ausmultipliziert: x1 n1 + x2 n2 + x3 n3 + d = 0) haben wir verschiedene M¨oglichkeiten: a) Wir setzen die drei Punkte A, B, C ein, die in der Ebene liegen und erhalten die drei Gleichungen −40n1 + 40n2 + d = 0 40n1 + 40n2 + d = 0 60n3 + d = 0. Rechnung ergibt rasch, dass alle L¨osungen proportional zu der L¨osung n1 = 0, n2 = 3, n3 = 2, d = −120 sind.
LINEARE ALGEBRA I, 2004/2005
3
0 → Man setzt also n= 3, d = −120 und hat die Normalenglei2 chung. → → → b) Der Normalenvektor n muss senkrecht auf AB und SB stehen, also proportional zum Vektorprodukt (Kreuzprodukt) dieser beiden Vektoren sein. 80 40 0 → → AB × SB= 0 × 50 = 4800 0 −60 3200 0 ist proportional zu 3. 2 0 →→ → → Wir setzen n= 3 und berechnen d aus x n= −d f¨ ur jedes x 2 in der Ebene. →
Setzen wir etwa f¨ ur x den Ortsvektor von A ein, so erhalten wir wieder d = −120. 1.2 lassen wir aus, 1.3 geht offenbar so: →
→
Sei s der Ortsvektor von S, s0 der Ortsvektor des Schattenpunkts S 0 . → Man erh¨alt S 0 , indem man von S so weit in Richtung des Vektors u geht, bis man auf die x1 x2 -Ebene trifft. 2 → → Also: s0 = s +t 4 , wobei t so gew¨ahlt wird, dass die letzte Koordi−3 nate von S 0 gleich 0 ist. 0 s1 0 2 s02 = 0 + t 4 0 60 −3 ⇒ t = 20,
s01 = 40,
s02 = 80.
1.4 und 1.5 lassen wir wieder aus und schauen uns 2. an: Wir k¨onnen die Ecken des Trapezes als die Punkte (0|0), (2|0), (a|b), (a + 1|b) mit beliebigen von 0 verschiedenen a, b annehmen. Die beiden Diagonalen haben dann die Parameterdarstellungen a 2−a a+1 bzw. +s . t b −b b
4
RAINER SCHULZE-PILLOT
Im Schnittpunkt sind die Koordinaten gleich, wir erhalten die Gleichungen t(a + 1) = a + s(2 − a) tb = b(1 − s). Es folgt: t = 1 − s, also (1 − s)(a + 1) = a + s(2 − a) ⇒ s = 31 , t = 23 , die Diagonalen teilen sich also gegenseitig im Verh¨altnis 2:1 wie behauptet. Ganz ¨ahnlich ist die Aufgabe 2 von 2004: 1. Gegeben A(4|2|5), B(6|0|6) und die Gerade g : sind die Punkte 6 −1 → x= 6 + λ · 4 . 9 1 1.1 Berechnen Sie eine Koordinatengleichung der Ebene e, die den Punkt A und die Gerade g enth¨alt und weisen Sie nach, dass auch der Punkt B in dieser Ebene liegt. 1.2 Auf der Geraden g gibt es einen Punkt C so, dass die Strecken AB und BC senkrecht aufeinander stehen. Berechnen Sie die Koordinaten des Punktes C. (Zur Kontrolle: C(7|2|8)) 1.3 Erg¨anzen Sie das rechtwinklige Dreieck ∆ABC durch Berechnung des Punktes D zum Rechteck ABCD und zeigen Sie dann, dass dieses Rechteck sogar ein Quadrat ist. 1.4 Das Quadrat ABCD ist die Grundfl¨ache einer geraden quadratischen Pyramide, deren Spitze S in der x − z-Ebene liegt. Berechnen Sie die Koordinaten der Pyramidenspitze S und das Volumen der Pyramide ABCDS. (Zur Kontrolle: S(1, 5|0|10, 5)) 1.5 Es gibt eine Kugel, die durch alle Eckpunkte der Pyramide ABCDS geht. Berechnen Sie die Koordinaten des Mittelpunktes M dieser Kugel. 2. Ein W¨ urfel mit der Kantenl¨ange a ist gem¨aß folgender Abbildung in einem kartesischen Koordinatensystem positioniert. 2.1 Berechnen Sie das Maß des Winkekls zwischen zwei Raumdiagonalen des W¨ urfels. 2.2 Zeigen Sie: Der Abstand urfelecke P2 von der Raumdiago√ der W¨ nalen P5 P3 betr¨agt 13 a 6. 1.1 sucht eine Koordinatengleichung ax + by + cz + d = 0. 5 10 In der Ebene liegen die Punkte A(4|2|5), (6|6|9) (λ = 0) und 10
LINEARE ALGEBRA I, 2004/2005
5
(λ = 1). Wir setzen ein und erhalten die Gleichungen 4a + 2b + 5c + d = 0 6a + 4b + 9c + d = 0 5a + 10b + 10c + d = 0, geschicktes Aufl¨osen liefert die L¨osung a = 1,
b = 1,
c = −2,
d = 0,
zu der alle anderen L¨osungen proportional sind. Alternativ h¨atten wir wieder das Vektorprodukt zweier Vektoren auszurechnen, die Punkte in der Ebene verbinden. Einsetzen zeigt, dass B in der Ebene liegt. 1.2:
2 AB = −2 1 −λ 6 − λ − 6 → BC = 6 + 4λ = 6 + 4λ , 3+λ 9+λ−6 wenn wir C mit Hilfe der gegebenen Parameterdarstellung von g schreiben. →
→
→
AB und BC stehen genau dann senkrecht, wenn das Skalarprodukt dieser beiden Vektoren 0 ist, das liefert die Beziehung −2λ − 12 − 8λ + 3 + λ = 0, also λ = −1, C = (7|2|8). Die weiteren Rechnungen ersparen wir uns und u ¨berlegen statt dessen, wohin wir uns von diesem Ausgangspunkt bewegen wollen - sicher wird es nicht darum gehen, ein weiteres halbes Jahr mit dem Rechnen von Aufgaben dieses wohlbekannten Typs zuzubringen, das w¨are ja auch langweilig. Was war unseren Aufgaben gemeinsam? Es ging um geometrische Probleme im Raum bzw. in der Ebene, die mit algebraischen Methoden gel¨ost werden: Der Anschauungsraum wird u uhrung von Koordinaten bez¨ uglich eines kartesischen Ko¨ber die Einf¨ ordinatensystems mit dem R3 identifiziert, man rechnet mit den Koordinaten der Punkte bzw. der Vektoren, die als Differenz zweier Punkte auftreten (bzw. als die Translation, die einen Punkt in den anderen verschiebt). Diese Rechnungen u ¨bersetzen das gegebene geometrische Problem in die Aufgabe, ein System von linearen Gleichungen in einer, zwei, drei oder vier Variablen zu l¨osen, was durch (mehr oder minder) geschicktes Eliminieren von Variablen geschieht.
6
RAINER SCHULZE-PILLOT
Eine (in der Schule meist benutzte) Vereinfachung lieferte die M¨oglichkeit, das Vektorprodukt zu benutzen. Statt bei der Aufgabe 1.1 durch Einsetzen von drei Punkten A(x1 |x2 |x3 ), B(x01 |x02 |x03 ), C(x001 |x002 |x003 ) in die zu findende Ebenengleichung ax + by + cz + d = 0 die drei Gleichungen (A) ax1 + bx2 + cx3 + d = 0 (B) ax01 + bx02 + cx03 + d = 0 (C) ax001 + bx002 + cx003 + d = 0 in den Unbekannten a, b, c, d zu erhalten, bilden wir die Differenzen → → → AB, AC und suchen einen Vektor n, der auf diesen senkrecht steht: Mit 0 00 0 x − x y y x − x 1 1 1 1 1 1 → → AB= y2 = x02 − x2 , AC= y20 = x002 − x2 x003 − x3 y30 x03 − x3 y3 erhalten wir die zwei Gleichungen n1 y1 + n2 y2 + n3 y3 = 0 n1 y10 + n2 y20 + n3 y30 = 0, oder ¨aquivalent durch Einsetzen (und mit a = n1 , b = n2 , c = n3 ): (B 0 ) a(x01 − x1 ) + b(x02 − x2 ) + c(x03 − x3 ) = 0 (C 0 ) a(x001 − x1 ) + b(x002 − x2 ) + c(x003 − x3 ) = 0, die wir auch als (B 0 ) = (B)−(A) bzw. (C 0 ) = (C)−(A) aus dem ersten Gleichungssystem erhalten. Bilden des Vektorprodukts liefert uns dann die L¨osung 0 a y1 y1 b = y2 × y20 , c y3 y30 also
a = y2 y30 − y3 y20 b = y3 y10 − y1 y30 c = y1 y2 − y2 y10 . Der Satz, dass das Vektorprodukt senkrecht auf beiden Faktoren steht, erspart uns also hier das L¨osen des Gleichungssystems durch Elimination von Variablen: Wir haben eine Formel, die uns die L¨osung f¨ ur die zwei Gleichungen (B 0 ), (C 0 ) liefert.
Damit haben wir auch schon die ersten Programmpunkte f¨ ur diese Vorlesung: • Beschreibe ein L¨osungsverfahren f¨ ur (beliebig große) lineare Gleichungssysteme (in beliebig vielen Variablen). • Suche eine Formel f¨ ur L¨osungen. Allerdings werden wir bei der L¨osung dieser Aufgaben anders vorgehen, als Sie es aus der Schule gew¨ohnt sind:
LINEARE ALGEBRA I, 2004/2005
7
¨ • Im Vordergrund steht nicht das Uben und Beherrschen von L¨osungstechniken, sondern das Studium abstrakter Begriffe, die zun¨achst beim L¨osen linearer Gleichungssysteme und beim Behandeln analytischgeometrischer Probleme entstehen und anschließend in allen mathematischen Disziplinen, rein oder angewandt, Grundlage der ¨ Uberlegungen sind. Dies beginnt mit dem schon aus der Schule bekannten Begriff des Vektorraums, es folgen Symmetrien, Gruppen, Abbildungen und vieles mehr. • Besonderen Wert legen wir auf saubere Begr¨ undungen der Lehrs¨atze durch logisch einwandfreie Beweise. Ziel des Studiums ist ja, dass Sie nicht nur erlernte Methoden anwenden k¨onnen sondern in der Lage sind, selbst neue Methoden zu finden oder Analoga zu bekannten Methoden in neuen Situationen einzuf¨ uhren. Das ist nur m¨oglich, wenn man neue Verfahren und Ideen in nachpr¨ ufbarer Weise begr¨ unden kann. • Speziell m¨ochte ich hier die Lehramtsstudierenden ansprechen. Es wird in der letzten Zeit viel davon gesprochen, dass es notwendig sei, das Lehramtsstudium nicht mit letzten Endes u ¨berfl¨ ussigem Fachwissen zu u ¨berfrachten, worauf es ankomme, sei eine verl¨assliche Beherrschung des Schulstoffs sowie p¨adagogi¨ sche F¨ahigkeiten. Nat¨ urlich ist Uberfrachten sch¨adlich (sonst fin¨ ge das Wort nicht mit “Uber” an), nat¨ urlich sind Ihre p¨adagogischen F¨ahigkeiten (und vor allem Ihr Interesse am Umgang mit Sch¨ ulern) wichtig f¨ ur Ihren Beruf. Wenn Sie aber lebendigen Unterricht geben wollen, mit dem Sie Sch¨ ulerinnen und Sch¨ uler f¨ ur die Mathematik interessieren und vielleicht sogar begeistern wollen, dann m¨ ussen Sie erheblich mehr k¨onnen als das, was Sie Tag f¨ ur Tag beibringen. Auch von Lehrerinnen und Lehrern f¨ ur Geschichte oder Englisch (z.B.) erwartet man ja, dass sie nicht nur den Schulstoff beherrschen, sie sollen etwa f¨ ur Geschichte wissen, wie Geschichtswissenschaft arbeitet, wie das entsteht, was in Geschichtsb¨ uchern steht und wie die verschiedenen Unterrichtsgegenst¨ande zusammenh¨angen, sie sollten etwa f¨ ur Englisch die Kultur und Geschichte des Landes kennen und die Literatur kennen und lieben.
Genauso sollten Lehrerinnen und Lehrer f¨ ur Mathematik die exakte Begr¨ undung der Differentialrechnung kennen, um selbst beurteilen zu k¨onnen, welche Ausschnitte man im Unterricht pr¨asentiert, sie sollten abstrakte algebraische Strukturen ebenso kennen wie die Techniken der angewandten Mathematik, um den Lehrstoff richtig einordnen zu k¨onnen und bei zweifelsohne anstehenden Lehrplanreformen treibende Kraft und nicht geplagtes Opfer zu sein.
8
RAINER SCHULZE-PILLOT
• Die Beherrschung von L¨osungsverfahren steht zwar nicht im Vordergrund, ist aber auch nicht unwichtig; man muss erlernte L¨osungsverfahren schon alleine deshalb ein paarmal durchf¨ uhren, um sicher zu sein, dass man sie richtig verstanden hat. Virtuosit¨at anzustreben, lohnt sich allerdings in der Regel nicht, daf¨ ur rechnet der Computer zu gut. Wir werden daher stets auch anschauen, wie man konkrete Rechenverfahren mit Hilfe eines Computeralgebrasystems, etwa MAPLE, rasch und kraftsparend durchf¨ uhrt. Schon ein paar einfache Beispiele f¨ ur lineare Gleichungssysteme d¨ urften davon u ¨berzeugen, dass man hier nicht mit dem Rechner konkurrieren sondern lieber lernen sollte, ihn sinnvoll einzusetzen. Zum Abschluss dieses einleitenden Teils m¨ochte ich ganz kurz skizzieren, womit ich mich wissenschaftlich besch¨aftige: Mein Spezialgebiet ist Zahlentheorie. Die Zahlentheorie besch¨aftigt sich mit grundlegenden Eigenschaften der ganzen Zahlen und mit dem Studium ganzzahliger L¨osungen von Gleichungen. Klassische S¨atze der Zahlentheorie sind etwa: • Eine Primzahl p l¨asst sich ganau dann als p = x2 +y 2 mit x, y ∈ Z schreiben, wenn p − 1 durch 4 teilbar ist. • Eine (positive) ganze Zahl n l¨asst sich genau dann als n = x2 + y 2 + z 2 mit x, y, z ∈ Z schreiben, wenn n nicht von der Form 4j (8k + 7) mit j, k ∈ N0 = N ∪ {0} ist. • Bezeichnet π(X) die Anzahl der Primzahlen p ≤ X, so strebt der Quotient π(X) · log X f¨ ur X −→ ∞ gegen 1. X Ein nicht ganz so klassischer Satz der Zahlentheorie wurde vor 10 Jahren von Andrew Wiles bewiesen: Die Gleichung xn + y n = z n hat f¨ ur nat¨ urliches n ≥ 3 keine L¨osung x, y, z mit x, y, z ∈ Z, x · y · z 6= 0. Eine spannende (aber nicht ganz korrekte) Schilderung der Entdeckung dieses Beweises wird in dem Buch Fermats letzter Satz“ von Simon ” Singh gegeben. Eine offene Frage der Zahlentheorie ist: Gilt die Vermutung von Goldbach: Jede gerade Zahl kann man als Summe von zwei Primzahlen schreiben? In dem Roman Onkel Petros und die Goldbach’sche Vermutung“ von ” A. Doxiadis geht es um einen Mathematiker, der versucht, diese Vermutung zu beweisen.
LINEARE ALGEBRA I, 2004/2005
9
Man weiß u ur sie nur: ¨ber diese Vermutung außer numerischer Evidenz f¨ Jede hinreichend große Zahl l¨asst sich als Summe p1 + p2 p3 oder als p1 + p2 mit Primzahlen p1 , p2 , p3 schreiben (das wurde von dem chinesischen Mathematiker Chen bewiesen).
10
RAINER SCHULZE-PILLOT
1. Mengen und logisches Schließen Bevor wir mit der in der Einleitung versprochenen Behandlung linearer Gleichungssysteme beginnen, sollen zun¨achst relativ einfache Beispiele der ebenfalls angek¨ undigten abstrakten Begriffe und Strukturen behandelt werden. Als allererstes muss aber in diesem Abschnitt die im Weiteren zu benutzende Sprechweise festgelegt werden. Wir erinnern daher zun¨achst an die Sprechweisen der Mengenlehre, die im wesentlichen aus der Schule bekannt sein d¨ urften. Erinnerung. Eine Menge ist eine Zusammenfasssung von Objekten, den Elementen der Menge. Ist M eine Menge und x ein Element von M , so schreibt man x ∈ M. Bei Mengen mit endlich vielen Elementen gibt man die Menge oft durch Aufz¨ahlen der Elemente an: Ist M die Menge aus den Elementen 1, 2, 3, so schreibt man M = {1, 2, 3}. Eine andere M¨oglichkeit zur Beschreibung einer Menge ist, zun¨achst eine Grundgesamtheit anzugeben, aus der alle Elemente der Menge stammen, und dann eine Eigenschaft, welche diejenigen Elemente der Grundgesamtheit charakterisiert, die zu der Menge geh¨oren sollen. Ein Beispiel hierf¨ ur: Sei zun¨achst N = N die Menge der nat¨ urlichen Zahlen. Dann bezeichnet {n ∈ N | n ist durch 2 teilbar} die Menge der geraden nat¨ urlichen Zahlen. Elemente von Mengen k¨onnen alle erdenklichen Objekte sein, insbesondere kann eine Menge auch Element einer Menge sein: Wir betrachten etwa die Menge M1 = {1}, die als einziges Element die Zahl 1 hat und die Menge M2 = {M1 }, die als einziges Element die Menge M1 hat Zwei Mengen M und M 0 sind genau dann gleich, wenn sie die gleichen Elemente enthalten. Im vorigen Beispiel sind also M1 und M2 nicht gleich, denn das einzige Element von M1 ist die Zahl 1, das einzige Element von M2 ist die Menge M1 , die zweifelsohne nicht dasselbe ist wie die Zahl 1.
LINEARE ALGEBRA I, 2004/2005
11
Wir fassen die wichtigsten Schreibweisen zusammen: Schreibweisen der Mengenlehre: x∈M
x ist Element von M
x 6∈ M
x ist nicht Element von M
M1 ⊂ M2 M1 ist enthalten in M2 , M1 ist Teilmenge von M2 : F¨ ur alle x ∈ M1 gilt x ∈ M2 . M1 $ M2 M1 ⊆ M2 mit M1 6= M2 M2 ⊇ M1 M2 ist Obermenge von M1 : gleichwertig zu M1 ⊂ M2 . M1 ∪ M2
Vereinigung von M1 und M2 : x ist genau dann Element von M1 ∪ M2 , wenn x Element von M1 oder Element von M2 ist (oder von beiden Mengen, s.u.).
M1 ∩ M2
Durchschnitt von M1 und M2 : x ist genau dann Element von M1 ∩ M2 , wenn x Element von M1 und Element von M2 ist.
M1 \ M2
Differenz von M1 und M2 : x ist genau dann Element von M1 \ M2 , wenn x ∈ M1 und x 6∈ M2 gilt. Ist M2 Teilmenge von M1 , so heißt M1 \ M2 auch das Komplement von M1 in M2 .
M1 × M2 Das kartesische Produkt Es besteht aus allen geordneten Paaren (m1 , m2 ) mit m1 ∈ M1 , m2 ∈ M2 . Geordnete Paare heißt: Zwei Paare (m1 , m2 ), (m01 , m02 ) sind genau dann gleich, wenn m1 = m01 und m2 = m02 gilt. ∅
P(M )
Die leere Menge. Sie hat kein Element und ist Teilmenge jeder Menge. Ist M1 ∩ M2 = ∅, so sagt man: x1 und x2 seien disjunkt oder elementfremd. Beispiel f¨ ur verschiedene Beschreibungen der gleichen Menge: {x ∈ R | x2 = 1} = {1, −1} = {x ∈ R | x4 = 1} Die Potenzmenge von M. Ihre Elemente sind alle Teilmengen von M.
Man beachte wieder, dass wie bei der Gleichheit auch die Teilmengenbeziehung (Enthaltensein) von Mengen nur durch die Elemente beschrieben ist. Insbesondere ist in unserem Beispiel M1 = {1}, M2 = {M1 } von oben M1 zwar Element von M2 , aber nicht Teilmenge von M2 .
12
RAINER SCHULZE-PILLOT
Aus der Beschreibung der Teilmengenbeziehung folgt auch: Genau dann ist M = M 0 , wenn M ⊆ M 0 und M 0 ⊆ M gilt. Wir sehen schon bei der Beschreibung der Vereinigung zweier Mengen, dass man vorsichtig mit der genauen Bedeutung umgangssprachlicher Wendungen wie “oder” bei der Verwendung im mathematischen Sprechen sein muss. Wir fassen daher auch die wichtigsten Regeln und Sprechweisen beim logischen Schließen zusammen: Logisches Schließen. Seien A und B Aussagen; diese k¨onnen wahr (W) oder falsch (F) sein, eine dritte M¨oglichkeit gibt es nicht (tertium non datur). Dieses Prinzip wird von den Vertretern des Intuitionismus abgelehnt. In der Logik werden zudem andere Bewertungsm¨oglichkeiten f¨ ur Aussagen untersucht (fuzzy logic). A und B (A ∧ B)
Ist genau dann wahr, wenn A wahr ist und B wahr ist.
A oder B (A ∨ B)
Ist genau dann wahr, wenn wenigstens eine der beiden Aussagen wahr ist (nicht ausschließendes “oder”).
Nicht A (¬A) (Negation, Verneinung)
Ist genau dann wahr, wenn A falsch ist.
Aus A folgt B (A ⇒ B) Ist genau dann wahr, wenn (A und B) oder (Nicht A) wahr ist (¨aquivalent: genau dann falsch, wenn A wahr und B falsch ist). Man sagt auch: A ist hinreichende Bedingung f¨ ur B, B ist notwendige Bedingung f¨ ur A A ist ¨aquivalent zu B (A ⇔ B)
Ist genau dann wahr, wenn A und B den gleichen Wahrheitswert haben, also beide falsch oder beide richtig sind (¨aquivalent: (A ⇒ B) und (B ⇒ A).
Wahrheitstafeln. A und B W F W W F F F F A⇒B W F W W F F W W
A oder B W F W W W F W F A⇔B W F W W F F F W
LINEARE ALGEBRA I, 2004/2005
13
Bei allen Tabellen stehen links die Werte f¨ ur A und oben die Werte f¨ ur B. F¨ ur Aussagenverbindungen, in denen mehr als zwei Aussagen vorkommen, muss man die Wahrheitstafel entweder mehrdimensional machen (was zeichnerische Probleme aufwirft) oder eine andere geeignete Tabellenform benutzen, in der man alle Kombinationen von Wahrheitswerten unterbringen kann. Vor allem die Regel daf¨ ur, wann “Aus A folgt B” wahr ist, ist etwas gew¨ohnungsbed¨ urftig. Sie hat zur Folge, dass man aus einer falschen Annahme alles schließen kann. Eine beliebte Konsequenz hiervon ist, dass f¨ ur die leere Menge jede Aussage wahr ist, genauer: Jede Aussage der Form: “Alle Elemente von M haben die Eigenschaft A” ist f¨ ur M = ∅ wahr, egal was A f¨ ur eine Eigenschaft ist. Man kann diese Aussage n¨amlich auch so formulieren: Ist x ∈ ∅, so folgt: x hat Eigenschaft A. Da die Annahme x ∈ ∅ falsch ist, ist obige Aussage richtig, so unsinnig sie auch wirken mag. Sie werden bald sehen, dass diese scheinbar an der Grenze zwischen Spitzfindigkeit und grobem Unfug liegende Sprechweise sehr sinnvoll ist, denn oft weiß man bei Formulierung einer Aussage vom Typ “Alle Elemente von M haben die Eigenschaft A” nicht von vornherein, ob eine vielleicht sehr kompliziert beschriebene Menge M die leere Menge ist oder nicht, will aber Aussagen formulieren, die auf jeden Fall richtig sind. Ein Beispiel aus der Einleitung w¨are etwa, als M die Menge aller geraden positiven Zahlen zu w¨ahlen, die sich nicht als Summe von zwei Primzahlen schreiben lassen: Kein Mensch weiß heute, ob diese Menge leer ist oder nicht. Zwei wichtige Konsequenzen aus unseren Schlussregeln sind: • Die Aussage A ⇒ B ist genau dann wahr, wenn ¬B ⇒ ¬A wahr ist (Regel von der Kontraposition). Ein h¨aufiger Irrtum ist, statt dessen ¬A ⇒ ¬B nachzuweisen; an Hand der Wahrheitstafeln sehen Sie sofort, dass das etwas ganz anderes ist (n¨amlich ¨aquivalent zu B ⇒ A.) Man nennt diesen Irrtum auch mit der in obiger Tabelle eingef¨ uhrten Sprechweise eine Verwechslung von notwendiger und hinreichender Bedingung. • Um A ⇔ B nachzuweisen, muss man A ⇒ B und B ⇒ A nachweisen. Wir haben schon gesehen, dass man oft Aussagen vom Typ F¨ ur alle ” x ∈ M gilt . . .“ formuliert. Daf¨ ur und f¨ ur die ebenfalls h¨aufig vorkommenden Existenzaussagen Es gibt ein x ∈ M , so dass . . . gilt“ werden ” als Bezeichnung aus der Logik auch Quantoren verwendet:
14
RAINER SCHULZE-PILLOT
Quantoren. F¨ ur alle x gilt A: ∀x : A Es gibt x, f¨ ur das A gilt: ∃x : A Wir fassen noch ein paar wichtige Regeln tabellarisch zusammen: Wichtige Regeln. A ⇒ B ist a¨quivalent zu ¬B ⇒ ¬A (Kontraposition, siehe oben) ¬ (A und B) ist ¨aquivalent zu (¬A oder ¬B) ¬ (A oder B) ist a¨quivalent zu (¬A und ¬B). ¬(∀x : A) ist ¨aquivalent zu ∃x : ¬A. ¬(∃x : A) ist a¨quivalent zu ∀x : ¬A. Besonders bei den beiden letzten Regeln f¨ ur die Verneinung von Quantoren werden anfangs h¨aufig Fehler gemacht. In dieser Vorlesung werden die Quantoren nur selten benutzt werden, in der Regel werden die entsprechenden Aussagen ausgeschrieben (schon alleine, um das Tempo zu bremsen). Wir stellen jetzt zwei wichtige Beweismethoden vor, f¨ ur die Sie bald viele Beispiele kennen lernen werden: H¨ aufige Beweismethoden. • Beweis durch Widerspruch: Um eine Aussage A zu beweisen, nimmt man an, sie sei falsch und leitet daraus eine als falsch bekannte Aussage B her. Das heißt formal: Man zeigt: (¬A ⇒ B) und ¬B sind wahr. Betrachten der Wahrheitstafeln zeigt: Dann muss ¬A falsch, also A wahr sein. Besonders knifflig ist das bei Existenzaussagen: Man beweist die Existenz eines x (aus einer gewissen Grundmenge M ) mit der Eigenschaft E dadurch, dass man zeigt: Die Annahme, es g¨abe kein solches x ∈ M , f¨ uhrt auf einen Widerspruch. Ein solcher Beweis liefert oft keinen Hinweis darauf, wie das gew¨ unschte Element x tats¨achlich gefunden werden kann. Die oben erw¨ahnten Intuitionisten lehnen solche Existenzbeweise als unzul¨assig ab, da man nur Objekte als existent ansehen d¨ urfe, die man auch konstruieren kann (in endlich vielen Schritten). • Beweis durch vollst¨andige Induktion: Man hat f¨ ur jede nat¨ urliche Zahl n ≥ 1 eine Aussage P (n) (etwa: P (n): Die Summe 1 + 2 + · · · + n der nat¨ urlichen Zahlen von 1 bis n ist gleich n(n + 1)/2). Die G¨ ultigkeit von P (n) f¨ ur alle n beweist man, indem man zeigt: – Induktionsanfang: P (1) ist g¨ ultig – Induktionsschritt: Falls P (n) f¨ ur ein n ≥ 1 g¨ ultig ist, so ist auch P (n + 1) g¨ ultig (bei Voraussetzung der Induktionsannahme P (n) folgt P (n + 1)).
LINEARE ALGEBRA I, 2004/2005
15
Zum Abschluss dieses Abschnitts listen wir noch die am h¨aufigsten vorkommenden Zahlmengen auf: Zahlmengen • N = N = {1, 2, 3, . . . }: Die Menge der nat¨ urlichen Zahlen (ohne die Null) • N0 = N0 = N ∪ {0} • Z = Z = {. . . , −2, −1, 0, 1, 2, . . . }: Die Menge der ganzen Zahlen • Q = Q = { ab | a, b ∈ Z, b 6= 0}: Die Menge der rationalen Zahlen • R = R: Die Menge der reellen Zahlen Der Mathematiker Leopold Kronecker (1823-1891) sagte angeblich: “Die ganzen Zahlen hat der liebe Gott gemacht, alles andere ist Menschenwerk”. In der Vorlesung u ¨ber Analysis werden Sie mehr zu diesem Menschenwerk erfahren, wir nehmen in dieser Vorlesung diese Zahlmengen als gegeben an.
16
RAINER SCHULZE-PILLOT
2. Abbildungen und Gruppen Das Studium von Abbildungen zwischen verschiedenen Mengen (in der Schule meistens “Zuordnungen” genannt) spielt in allen Zweigen der Mathematik eine zentrale Rolle. Wir stellen die Definitionen zusammen ¨ und verschaffen uns eine Ubersicht u ¨ber die wichtigsten Eigenschaften von Abbildungen und deren Zusammenh¨ange. Definition 2.1. Seien X, Y Mengen. Eine Abbildung (oder Funktion) f : X −→ Y ordnet jedem x ∈ X genau ein y ∈ Y zu. Man schreibt: x 7→ y = f (x). f : X −→ Y heißt: • injektiv, wenn gilt: Ist f (x1 ) = f (x2 ), so ist x1 = x2 • surjektiv, wenn gilt: F¨ ur jedes y ∈ Y gibt es (wenigstens) ein x ∈ X mit f (x) = y • bijektiv, wenn f injektiv und surjektiv ist (¨aquivalent: F¨ ur jedes y ∈ Y gibt es genau ein x ∈ X mit y = f (x)). Ist f : X −→ Y eine Abbildung, so heißt g : Y −→ X Umkehrabbildung von f , wenn gilt • F¨ ur jedes x ∈ X ist g(f (x)) = x • F¨ ur jedes y ∈ Y ist f (g(y)) = y. Man schreibt dann: g = f −1 Ist f : X −→ Y eine Abbildung, so ist (2.1)
f (X) := Im(f ) := {y ∈ Y | es gibt x ∈ X mit y = f (x)}
das Bild von f. Analog schreibt man f¨ ur jede Teilmenge M ⊆ X : (2.2)
f (M ) := {y ∈ Y | es gibt x ∈ M mit y = f (x)}
und nennt diese Menge das Bild von M unter f. Ist N ⊆ Y eine Teilmenge von Y , so schreibt man (2.3)
f −1 (N ) := {x ∈ X | f (x) ∈ N }
und nennt diese Menge das Urbild von N unter f (diese Bezeichnung ist etwas irritierend, denn eine Umkehrabbildung f −1 muss nicht existieren. Sie ist aber dennoch u ¨blich). Sind f : X −→ Y und g : Y −→ Z Abbildungen, so ist die Abbildung g ◦ f : X −→ Z definiert durch (g ◦ f )(x) = g(f (x)) f¨ ur alle x ∈ X (Komposition von Abbildungen, Hintereinanderausf¨ uhrung). Ist f : X −→ Y Abbildung, M ⊆ X eine Teilmenge, so wird die Abbildung f |M : M −→ Y definiert durch f |M (x) = f (x) f¨ ur x ∈ M (Einschr¨ankung oder Restriktion von f auf M . Bemerkung 2.2. • Zwei Abbildungen f, g : X −→ Y sind gleich, wenn f (x) = g(x) f¨ ur alle x ∈ X gilt. Es ist also unerheblich, ob sie eventuell durch verschiedene Vorschriften gegeben sind, die am Ende die gleiche Wirkung haben.
LINEARE ALGEBRA I, 2004/2005
17
• Nicht jede Abbildung besitzt eine Umkehrabbildung (siehe n¨achstes Lemma). • Man sieht: f ist genau dann surjektiv, wenn f (X) = Y gilt. • Ist f umkehrbar mit Umkehrabbildung g = f −1 , so ist das Urbild einer Teilmenge N ⊆ Y von Y unter f das Bild von N unter g = f −1 , die beiden denkbaren Bedeutungen von f −1 (N ) stimmen also u ur ¨berein. Ist f nicht umkehrbar, so hat das Symbol f −1 f¨ sich genommen keine Bedeutung, so dass Urbild von N unter ” f“ die einzige m¨ogliche Bedeutung von f −1 (N ) ist. • Bei der Komposition g ◦ f zweier Abbildungen wird zuerst f und dann g angewendet, also quasi von Rechts nach Links gelesen. Beispiel: • Mit X = Y = {1, 2, 3} wird durch f (1) = 3, f (2) = 1, f (1) = 1 keine Abbildung gegeben: f (1) ist nicht eindeutig definiert und f (3) ist u ¨berhaupt nicht definiert. Dagegen wird durch f (1) = 2, f (2) = 1, f (3) = 1 eine Abbildung gegeben, die allerdings weder injektiv noch surjektiv ist. √ • Mit X = Y = R wird durch f (x) = x keine Abbildung gegeben, weil f (x) f¨ ur x < 0 nicht definiert ist (jedenfalls nicht als reelle Zahl). Ersetzt man hier X durch X 0 = R≥0 := {x ∈ R | x ≥ 0} (und legt fest, dass die positive Wurzel genommen werden soll), so wird durch die gleiche Vorschrift eine Abbildung f : X 0 −→ R gegeben, die injektiv, aber ncht surjektiv ist. Ersetzt man auch noch Y durch Y 0 = R≥0 , so erh¨alt man eine bijektive Abbildung X 0 −→ Y 0 . • Sei X = Y = R sowie f : X −→ Y durch f (x) = x + 1 und g : X −→ Y durch g(x) = x2 gegeben. Dann ist (g ◦ f )(x) = (x + 1)2 = x2 + 2x + 1 f¨ ur alle x ∈ X, dagegen ist (f ◦ g)(x) = x2 + 1 f¨ ur alle x ∈ X. • Sei X eine Menge. Die identische Abbildung IdX : X −→ X von X ist durch IdX (x) = x f¨ ur alle x ∈ X definiert. Mit dieser Notation wird die Umkehrabbildung g einer Abbildung f : X −→ Y durch g ◦ f = IdX , f ◦ g = IdY charakterisiert. Lemma 2.3. (i) Sind f : X −→ Y , g : Y −→ Z, h : Z −→ W Abbildungen, so ist h ◦ (g ◦ f ) = (h ◦ g) ◦ f (die Komposition von Abbildungen ist assoziativ, d. h., man darf Klammern verschieben). (ii) f : X −→ Y besitzt genau dann eine Umkehrabbildung, wenn f bijektiv ist; die Umkehrabbildung ist in diesem Fall eindeutig bestimmt und ebenfalls bijektiv. (iii) Sind f : X −→ Y , g : Y −→ Z bijektive Abbildungen, so ist auch g ◦ f bijektiv, und es gilt (g ◦ f )−1 = f −1 ◦ g −1 .
18
Beweis. (2.4)
RAINER SCHULZE-PILLOT
(i) F¨ ur jedes x ∈ X ist (h ◦ (g ◦ f ))(x) = = = =
h((g ◦ f )(x)) h(g(f (x)) (h ◦ g)(f (x)) ((h ◦ g) ◦ f )(x).
Da die beiden Abbildunge (h ◦ (g ◦ f ) und (h ◦ g) ◦ f in allen x ∈ X den gleichen Wert annehmen, sind sie gleich. (ii) Ist f bijektiv, so definiere man g : Y −→ X wie folgt: F¨ ur y ∈ Y gibt es nach Definition genau ein x ∈ X, f¨ ur das f (x) = y gilt. Dann setze man g(y) := x. Dadurch wird jedem y ∈ Y ein eindeutig bestimmtes x ∈ X zugeordnet, man hat also eine Abbildung g : Y −→ X definiert. Dass diese die behauptete Eigenschaft hat, ist jetzt klar. Hat umgekehrt f eine Umkehrabbildung g, so m¨ ussen wir zeigen, dass f injektiv und surjektiv ist. Sind zun¨achst x1 , x2 ∈ X mit f (x1 ) = f (x2 ), so ist x1 = g(f (x1 )) = g(f (x2 )) = x2 , f ist also injektiv. Ist y ∈ Y beliebig, so ist y = f (g(y)) Bild des Elements g(y) von X unter f, also ist f auch surjektiv. Die Umkehrabbildung g ist eindeutig bestimmt, denn f¨ ur y ∈ Y gibt es genau ein x ∈ X mit f (x) = y, wegen (g ◦ f )(x) = x ist dann zwangsl¨aufig g(y) = x. Dass die Umkehrabbildung ebenfalls ¨ bijektiv ist, rechne man als Ubung nach. (iii) Sind x1 , x2 ∈ X mit (g ◦ f )(x1 ) = (g ◦ f )(x2 ), so ist g(f (x1 ) = g(f (x2 ), also gilt f (x1 ) = f (x2 ) wegen der vorausgesetzten Injektivit¨at von g. Da auch f injektiv ist, folgt x1 = x2 , und man sieht, dass g ◦ f injektiv ist. Ist z ∈ Z, so gibt es ein y ∈ Y mit g(y) = z, da g surjektiv ist. Zu diesem y ∈ Y gibt es ein x ∈ X mit f (x) = y, da auch f nach Voraussetzung surjektiv ist. Nimmt man beide Gleichungen zusammen, so erh¨alt man (g ◦ f )(x) = z. Das beliebig angenommene z ∈ Z ist also Bild des Elements x ∈ X unter g ◦ f , und damit folgt die Surjektivit¨at von g ◦ f. Insgesamt sieht man, dass g ◦ f bijektiv ist. Dass f −1 ◦ g −1 die Umkehrabbildung von g ◦ f ist, rechnet man mit Hilfe des Assoziativgesetzes f¨ ur die Komposition von Abbildungen nach. Bemerkung. Mitunter ist die folgende Charakterisierung injektiver und surjektiver Abbildungen n¨ utzlich, die ii) des vorigen Lemmas ver¨ allgemeinert (siehe Ubungen zur Analysis): Seien X, Y Mengen, f : X −→ Y eine Abbildung. Dann gilt: a) f ist genau dann injektiv, wenn es eine Abbildung g : Y −→ X gibt mit g ◦ f = IdX .
LINEARE ALGEBRA I, 2004/2005
19
b) f ist genau dann surjektiv, wenn es eine Abbildung g : Y −→ X gibt mit f ◦ g = IdY . Ebenfalls h¨aufig benutzt wird die folgende Variante dieser Aussage: Seien X, Y Mengen, f : X −→ Y, g : Y −→ X Abbildungen mit g ◦ f = IdX . Dann ist g surjektiv und f injektiv. Lemma 2.4. Sei M eine endliche Menge, f : M −→ M eine Abbildung. Dann gilt: f ist genau dann injektiv, wenn f surjektiv ist. ¨ Beweis. Man beweise das als Ubung. Bemerkung. Die Aussage von Lemma 2.4 ist falsch, wenn M unendlich viele Elemente hat. Das wird gerne mit dem Bild von Hilberts Hotel veranschaulicht (David Hilbert, 1862-1943): In einem Hotel mit unendlich vielen Zimmern sind alle Zimmer belegt. Dennoch weiß man am Empfang Rat, als ein weiterer Gast ankommt: Man bittet u ¨ber die Sprechanlage des Hauses alle G¨aste, in das Zimmer mit der n¨achsth¨oheren Nummer zu ziehen. Dadurch wird Zimmer 1 frei, und dort kann der neue Gast einziehen. In mathematischer Terminologie: Eine Abbildung f von der Menge X aller Zimmer in sich selbst wird definiert durch: Das Bild von Zimmer Nr. n unter f ist Zimmer Nr. n + 1. Diese Abbildung ist injektiv (also hat auch nach dem Umzug jeder Gast sein eigenes Zimmer), aber nicht surjektiv, denn Zimmer Nr. 1 ist nicht im Bild dieser Abbildung und ist daher nach Anwenden der Abbildung frei f¨ ur den neuen Gast. Auf ganz ¨ahnliche Weise kann man auch 10 oder sogar unendlich viele (mit nat¨ urlichen Zahlen durchnummerierte) G¨aste in dem voll belegten Hotel einquartieren. Wie? Definition 2.5. Sei M eine Menge. Eine Permutation von M ist eine bijektive Abbildung f : M −→ M . Die Menge der Permutationen von M wird mit Perm(M ) bezeichnet. Ist speziell Mn := {1, . . . , n} = {j ∈ N | 1 ≤ j ≤ n}, so wird die Menge der Permutationen von Mn mit Sn bezeichnet; Sn heißt die symmetrische Gruppe auf n Elementen. Satz 2.6. a) Sn hat n! = 1 · 2 · 3 · · · n Elemente. b) Sei e = Id die identische Abbildung von Mn in sich. Dann gilt: i) f ◦ (g ◦ h) = (f ◦ g) ◦ h f¨ ur alle f, g, h ∈ Sn ii) e ◦ f = f ◦ e f¨ ur alle f ∈ Sn iii) f −1 ◦ f = f ◦ f −1 = e f¨ ur alle f ∈ Sn . Beweis. die Aussage b) ist klar. Teil a) beweisen wir durch vollst¨andige Induktion nach n, wobei wir zun¨achst die Behauptung etwas st¨arker formulieren: Wir zeigen n¨amlich: Sind X = {x1 , . . . , xn } und Y zwei Mengen mit jeweils n Elementen, so gibt es genau n! bijektive Abbildungen f : X −→ Y. Ist n = 1, Y = {y}, so gibt es nur eine Abbildung, n¨amlich f (x1 ) = y, die Behauptung ist also richtig f¨ ur n = 1.
20
RAINER SCHULZE-PILLOT
Sei n > 1 und die Behauptung bewiesen f¨ ur alle X, Y mit |X| = |Y | < n. F¨ ur das Bild y1 = f (x1 ) von x1 unter einer bijektiven Abbildung f : X −→ Y gibt es genau n M¨oglichkeiten. Fixiert man ein beliebiges y1 ∈ Y, so gibt es genau so viele bijektive Abbildungen f : X −→ Y mit f (x1 ) = y1 , wie es bijektive Abbildungen g : X \ {x1 } −→ Y \ {y1 } gibt. Nach Induktionsannahme gibt es (n−1)! solche Abbildungen. Insgesamt gibt es also n · (n − 1)! = n! verschiedene bijektive Abbildungen X −→ Y. Bemerkung. a) Das Kommutativgesetz (f ◦ g = g ◦ f f¨ ur alle f, g) gilt nicht in Sn , falls n ≥ 3 ist. b) Aussage b) des Satzes gilt f¨ ur die Menge der Permutationen einer beliebigen Menge. Die oben festgestellten Eigenschaften der Komposition der Elemente der Menge Sn (oder allgemeiner Perm(X)) erinnern an die Gesetze f¨ ur das Rechnen mit Zahlen. Sie sind der Anlass f¨ ur die folgende abstrakte Definition: Definition 2.7. Eine (nicht leere) Menge G mit einer Verkn¨ upfung ◦ : (a, b) 7−→ a ◦ b (also einer Abbildung G × G −→ G, die jedem Paar (a, b) von Elementen von G ein Element c = a ◦ b von G zuordnet) heißt Gruppe, wenn gilt: (i) a ◦ (b ◦ c) = (a ◦ b) ◦ c f¨ ur alle a, b, c ∈ G (Assoziativgesetz) (ii) Es gibt ein (eindeutig bestimmtes) Element e ∈ G mit e ◦ a = a ◦ e = a f¨ ur alle a ∈ G. (e heißt neutrales Element.) (iii) Zu jedem a ∈ G gibt es ein (eindeutig bestimmtes) Element a0 (oder a−1 ) in G mit a0 ◦ a = a ◦ a0 = e. (a0 heißt inverses Element zu a.) (iv) Gilt u ur alle a, b ∈ G, ¨berdies das Kommutativgesetz a◦b = b◦a f¨ so heißt die Gruppe kommutativ oder abelsch (nach Niels Henrik Abel, 1802-1829) Bemerkung. a) Es reicht, in ii) die Existenz eines Elements e ∈ G mit e ◦ a = a f¨ ur alle a ∈ G (also eines linksneutralen Elements von G) und in iii) f¨ ur jedes a ∈ G die Existenz eines a0 ∈ G mit a0 ◦ a = e (also f¨ ur jedes a ∈ G die Existenz eines linksinversen Elements) zu ¨ verlangen. Beweis als Ubung, genauso geht es nat¨ urlich mit rechts statt links. Dagegen erh¨alt man etwas anderes (nicht besonders sinnvolles), wenn man die Existenz eines linksneutralen Elements und f¨ ur jedes a ∈ G die Existenz eines rechtsinversen Elements verlangt. b) Nach Niels Henrik Abel ist auch der seit 2003 j¨ahrlich als Analogon zum Nobelpreis in Oslo verliehene Abel-Preis mit einem
LINEARE ALGEBRA I, 2004/2005
21
Preisgeld von 6 Millionen Norwegischen Kronen (ca. 730000 Euro) benannt (bisherige Preistr¨ager: 2003 Jean Pierre Serre, 2004 Michael Atiyah und Isadore Singer). Satz 2.8. Sei (G, ◦) eine Gruppe. Dann gilt: (a) F¨ ur alle a ∈ G ist (a−1 )−1 = a. (b) F¨ ur alle a, b ∈ G ist (a ◦ b)−1 = b−1 ◦ a−1 . (c) Sind a, b ∈ G, so gibt es genau ein x ∈ G mit a ◦ x = b und genau ein y ∈ G mit y ◦ a = b. (d) Sind a, x, y ∈ G mit x ◦ a = y ◦ a, so ist x = y. (e) Sind a, x, y ∈ G mit a ◦ x = a ◦ y, so ist x = y. ¨ Beweis. (a) und (b) rechne man als Ubung nach. (c) Ist x ∈ G wie angegeben, so multipliziert man die Gleichung a ◦ x = b von links mit a−1 und erh¨alt auf der linken Seite a−1 ◦ (a ◦ x) = (a−1 ◦ a) ◦ x = e ◦ x = x und auf der rechten Seite a−1 ◦ b, insgesamt also x = a−1 ◦ b. Das zeigt die Eindeutigkeit des gesuchten x. Setzt man umgekehrt x = a−1 ◦ b, so rechnet man wie oben nach, dass dieses x die Gleichung a ◦ x = b l¨ost. Analog ¨ (Ubung) geht man f¨ ur die Gleichung y ◦ a = b vor. (d) Multipliziert man die Gleichung von rechts mit a−1 , so erh¨alt man mit einer Rechnung wie in Teil (c), dass x = y gilt. (e) Man geht wie oben vor, nur dass man jetzt die Gleichung von links mit a−1 multipliziert. Beispiele fu ¨ r Gruppen: (Z, +), (R \ {0}, ·), (R, +), Sn , Perm(M ). Bemerkung. Wenn bei einer Gruppe klar ist, von welcher Verkn¨ upfung die Rede ist, l¨asst man h¨aufig auch das Verkn¨ upfungssymbol fort und schreibt die Verkn¨ upfung einfach als (a, b) 7−→ ab (oder a · b). F¨ ur das n n −1 Produkt a ur (a ) schreibt man a−n | · a{z· · · a} schreibt man dann a , f¨ n−mal
und setzt a0 = e. Wird die Verkn¨ upfung additiv als (a, b) 7−→ a + b geschrieben, so schreibt man na := n.a := a · · + a}, 0 f¨ ur das neu| + ·{z n−mal
trale Element, −a f¨ ur das zu a inverse Element und (−n).a = (−n)a f¨ ur −(na) sowie 0.a = 0. Um ein weiteres sehr h¨aufig vorkommendes Beispiel einer Gruppe beschreiben zu k¨onnen, brauchen wir eine kleine Vor¨ uberlegung: Lemma 2.9. (Division mit Rest) Seien a, b ∈ Z, b 6= 0. Dann gibt es (eindeutig bestimmte) q, r ∈ Z mit 0 ≤ r < |b|, so dass a = bq + r gilt.
22
RAINER SCHULZE-PILLOT
Beweis. Das ist eigentlich klar, aber wir wollen ja das Beweisen u ¨ben: Da (−b) · (−q) = bq gilt, gen¨ ugt es, den Fall b > 0 zu betrachten (man sagt: Ohne Einschr¨ankung der Allgemeinheit sei b > 0). Unter den Vielfachen nb ≤ a mit n ∈ Z gibt es ein gr¨oßtes, das wir qb nennen; es gilt dann qb ≤ a, (q + 1)b > a. Also ist r := a − qb ≥ 0 und auch r < b = |b|. Die Eindeutigkeit folgt so: Ist a = qb + r = q 0 b + r0 wie oben, so ist 0 = a − a = (q − q 0 )b + (r − r0 ), also r −r0 = (q 0 −q)b. Ist q = q 0 , so folgt r = r0 . Andernfalls ist r −r0 ein von 0 verschiedenes Vielfaches von b. Andererseits ist aber |r − r0 | < b, das liefert einen Widerspruch. Beispiel: Sei n ∈ N. Auf der mit Z/nZ (gesprochen: Z modulo nZ oder verk¨ urzt Z modulo n) bezeichneten Menge {0, 1, . . . , n − 1} wird folgende Verkn¨ upfung eingef¨ uhrt: a + b = r, wobei r der Rest von a + b bei Division mit Rest von a + b durch n ist. Dann gilt (wie man leicht nachrechnet): (Z/nZ, +) ist eine kommutative Gruppe mit neutralem Element 0, in der das Inverse zu a das Element (n − a) ist. In dieser Gruppe gilt ferner: • Addiert man ein beliebiges Element n-mal zu sich selbst, so erh¨alt man 0. • Jedes Element kann man erhalten, indem man 1 eine geeignete Anzahl von Malen zu sich selbst addiert (n¨amlich a mal f¨ ur a 6= 0). Definition 2.10. Sei (G, ◦) eine Gruppe. Eine Teilmenge ∅ = 6 H⊆G heißt Untergruppe, wenn gilt: (i) F¨ ur alle a, b ∈ H gilt a ◦ b ∈ H (ii) F¨ ur alle a ∈ H gilt a−1 ∈ H. Bemerkung. a) Man kann statt i) und ii) auch fordern: (i’) F¨ ur alle a, b ∈ H gilt a ◦ b−1 ∈ H, das liefert eine ¨aquivalente Definition. b) Ist H ⊆ G eine Untergruppe von G und e = eG das neutrale Element von G, so ist e ∈ H. (Um das zu zeigen, w¨ahle man ein x ∈ H (das geht, weil H nach Voraussetzung 6= ∅ ist). Dann ist wegen ii) auch x−1 ∈ H und wegen i) muss dann auch x ◦ x−1 = e ∈ H gelten.) Man pr¨ uft dann sofort nach, dass H mit der auf H eingeschr¨ankten Verkn¨ upfung von G selbst eine Gruppe ist, in der e = eG das neutrale Element ist. Ebenso u ¨berlegt man ¨ sich (Ubung), dass eine Teilmenge H von G, die mit der auf sie eingeschr¨ankten Verkn¨ upfung von G selbst eine Gruppe ist, Untergruppe von G im Sinne der Definition 2.10 ist. Beispiel: • (Z, +) ist Untergruppe von (R, +).
LINEARE ALGEBRA I, 2004/2005
23
• {f ∈ Sn | f (1) = 1} ist Untergruppe der symmetrischen Gruppe Sn . • ist n ∈ N eine gerade Zahl, so ist {a ∈ Z/nZ | a ist gerade } eine Untergruppe von Z/nZ. Einen besonders einfachen Typ von Untergruppe erh¨alt man, wenn man in einer Gruppe die Menge aller Potenzen eines Elements der Gruppe betrachtet. Definition und Lemma 2.11. Sei G eine Gruppe, x ∈ G ein Element von G. Die Menge (2.5)
hxi := {xn | n ∈ Z}
ist eine Untergruppe von G, sie heißt die von x erzeugte Untergruppe von G. hxi ist der Durchschnitt aller Untergruppen von G, die x enthalten. Eine Gruppe G, in der es ein Element x ∈ G mit hxi = G gibt, nennt man zyklisch. Gibt es ein n ∈ N mit xn = e, so heißt (2.6)
ord(x) := min{n ∈ N | xn = e}
die Ordnung von x, andernfalls sagt man, x habe unendliche Ordnung und schreibt ord(x) = ∞. Es gilt: (2.7)
ord(x) = |hxi|,
die Ordnung des Elements x von G ist also gleich der Ordnung der von x erzeugten Untergruppe hxi (wobei man die Elementanzahl einer Gruppe auch als ihre Ordnung bezeichnet). Beweis. hxi ist nicht leer, da x ∈ hxi gilt. Ist xn ∈ hxi, so ist auch (xn )−1 = x−n ∈ hxi, sind xn , xm ∈ hxi, so ist auch xn xm = xn+m ∈ hxi. Also ist hxi eine Untergruppe von G. Offensichtlich muss jede Untergruppe von G, die x als Element enth¨alt, auch alle Potenzen von x als Element enthalten, hxi ist also im Durchschnitt all dieser Untergruppen enthalten. Da wir bereits gezeigt haben, dass hxi selbst Untergruppe von G ist, ist klar, dass hxi an der Bildung des Durchschnitts \ U U ⊆G ist Untergruppe x∈U
aller Untergruppen U von G mit x ∈ U teilnimmt, also ist \ U ⊆ hxi, U ⊆G ist Untergruppe x∈U
es folgt die behauptete Gleichheit.
24
RAINER SCHULZE-PILLOT
Sei jetzt m = ord(x) endlich. Ist n ∈ Z, so schreibe man (Division mit Rest) n = qm + r mit r, q ∈ Z, 0 ≤ r < m. Man hat xn = xqm+r = xmq xr = (xm )q xr = eq xr = exr = xr , also ist hxi = {e = x0 , x, x2 , . . . , xm−1 }. Die hier vorkommenden Potenzen xr mit 0 ≤ r < m sind paarweise verschieden, denn ist 0 ≤ r1 ≤ r2 < m mit xr1 = xr2 , so multipliziert man diese Gleichung mit x−r1 = (xr1 )−1 und erh¨alt e = xr2 −r1 mit 0 ≤ r2 − r1 < m. Da m nach Definition die kleinste nat¨ urliche Zahl n n ist, f¨ ur die x = e gilt, muss hier r1 − r2 = 0, also r1 = r2 gelten. Man sieht also, dass hxi genau m = ord(x) Elemente hat. Genauso sieht man, dass hxi unendlich viele Elemente hat, wenn ord(x) = ∞ gilt. Sobald man in der Algebra eine Struktur definiert hat, k¨ ummert man sich um die strukturerhaltenden Abbildungen. Das gilt auch f¨ ur die von uns soeben definierte Gruppenstruktur: Definition 2.12. (G1 , ◦) und (G2 , ∗) seien Gruppen. Eine Abbildung f : G1 −→ G2 heißt Homomorphismus von Gruppen (Gruppenhomomorphismus), wenn gilt: F¨ ur alle g, g 0 ∈ G1 ist f (g ◦ g 0 ) = f (g) ∗ f (g 0 ). Ist f : G1 −→ G2 ein Homomorphismus von Gruppen, so heißt die Menge Ker(f ) := {g ∈ G1 | f (g) = e2 } der Kern von f (e2 ist hier das neutrale Element von G2 ). Ist f : G1 −→ G2 ein bijektiver Homomorphismus von Gruppen, so sagt man, f sei ein Isomorphismus von Gruppen oder ein Gruppenisomorphismus. Ist f : G1 −→ G2 ein Isomorphismus von Gruppen, so sagt man auch, G2 sei isomorph zu G1 und schreibt G2 ∼ = G1 . Satz 2.13. Sei f : G1 −→ G2 ein Homomorphismus von Gruppen. Dann gilt: (a) f (e1 ) = e2 und f (a−1 ) = f (a)−1 f¨ ur alle a ∈ G. (b) Die Mengen Ker(f ) und Im(f ) := {f (g) | g ∈ G1 } sind Untergruppen von G1 bzw. G2 . (c) f ist genau dann injektiv, wenn Ker(f ) = {e1 } gilt. (d) Ist f bijektiv, so ist auch die Umkehrabbildung f −1 ein Gruppenhomomorphismus (und damit sogar ein Gruppenisomorphismus).
LINEARE ALGEBRA I, 2004/2005
25
Bemerkung. • Wenn keine Missverst¨andnisse entstehen k¨onnen, verzichtet man darauf, e1 und e2 unterschiedlich zu notieren, ebenso f¨ ur die Verkn¨ upfungen. Man schreibt dann etwa in Definition 2.12 bzw. Satz 2.13 einfach f (g ◦ g 0 ) = f (g) ◦ f (g 0 ) oder sogar f (gg 0 ) = f (g)f (g 0 ) bzw f (e) = e (wobei zumal die letztere Notation eigentlich unkorrekt ist). • Sind zwei Gruppen G1 , G2 zueinander isomorph, so rechnet man in G1 genauso wie in G2 , alle gruppentheoretischen Aussagen u ur G2 und umgekehrt. Ist etwa x ∈ ¨ber G1 gelten also genauso f¨ G1 ein Element der Ordnung n in G1 , so ist sein Bild f (x) unter einem Isomorphismus f : G1 −→ G2 ein Element der Ordnung n in G2 , gilt eine Gleichung x1 · · · xr = e in G1 , so gilt mit f (xj ) = yj auch die Gleichung y1 · · · yr = e in G2 etc.. Beweis von Satz 2.13.
(a) Es gilt
f (e1 ) = f (e1 e1 ) = f (e1 )f (e1 ) = e2 f (e1 ), es folgt (wegen der K¨ urzungsregel aus Satz 2.8) f (e1 ) = e2 . Ist a ∈ G beliebig, so ist f (a)(f (a))−1 = e2 = f (e1 ) = f (aa−1 ) = f (a)f (a−1 ), es folgt (wieder wegen Satz 2.8) f (a−1 ) = f (a)−1 . (b) Sind a, b ∈ Ker(f ), so ist f (ab) = f (a)f (b) = e2 e2 = e2 , also ab ∈ Ker(f ). Ist a ∈ Ker(f ), so ist f (a) = e2 , also auch f (a−1 ) = (f (a))−1 = e2 , also ist auch a−1 ∈ Ker(f ). Wegen f (e1 ) = e2 ist schließlich Ker(f ) 6= ∅, damit sind alle Anforderungen an eine Untergruppe nachgepr¨ uft. ¨ Die Aussage f¨ ur das Bild von f rechne man als Ubung nach. (c) Ist a ∈ Ker(f ), so ist f (e1 ) = e2 = f (a). Ist f injektiv, so folgt hieraus a = e1 , in diesem Fall ist also Ker(f ) = {e1 }. Ist umgekehrt Ker(f ) = {e1 } und sind a, b ∈ G mit f (a) = f (b), so ist e2 = f (a)(f (b))−1 = f (a)f (b−1 ) = f (ab−1 ), also ab−1 ∈ Ker(f ) = {e1 }, also ab−1 = e1 , d.h. a = b, die Abbildung f ist also in diesem Fall injektiv. ¨ (d) Diese Aussage beweise man als Ubung. Beispiel: Sei G eine Gruppe und x ∈ G mit ord(x) = n < ∞. Wir definieren eine Abbildung f : Z/nZ −→ hxi durch (2.8)
f (¯ r) := xr .
26
RAINER SCHULZE-PILLOT
¨ Man rechne als Ubung nach, dass f ein Isomorphismus von Gruppen ist. Ist x ∈ G ein Element unendlicher Ordnung, so definiert man analog durch f (r) := xr einen Isomorphismus f : Z −→ hxi von Gruppen. Wir haben damit folgenden einfachen Satz bewiesen: Satz 2.14. Sei G eine zyklische Gruppe. Ist G endlich mit |G| = n, so ist G isomorph zur Gruppe Z/nZ. Ist G unendlich, so ist G isomorph zu (Z, +). Definition 2.15. Sei M eine Menge. Eine Relation auf M ist eine Teilmenge R ⊆ M × M ; f¨ ur (a, b) ∈ R schreibt man auch a R b. ¨ Eine Relation ∼ auf M heißt Aquivalenzrelation, wenn gilt (i) a ∼ a f¨ ur alle a ∈ M (Reflexivit¨at). (ii) F¨ ur alle a, b ∈ M gilt: Aus a ∼ b folgt b ∼ a (Symmetrie). (iii) F¨ ur alle a, b, c ∈ M gilt: Aus a ∼ b und b ∼ c folgt a ∼ c (Transitivit¨at). Beispiel. • Auf M = R ist ≤ eine Relation (die zugeh¨orige Menge ist {(a, b) | a ≤ b}). Diese Relation ist reflexiv und transitiv, aber nicht ¨ symmetrisch, sie ist also keine Aquivalenzrelation. ¨ • Auf jeder Menge ist die Gleichheit eine Aquivalenzrelation. • Auf der Menge aller endlichen Mengen wird durch X ∼ Y ⇔ |X| = |Y | ¨ eine Aquivalenzrelation gegeben. Zwei Mengen sind genau dann uglich dieser Relation, wenn sie die gleiche Ele¨aquivalent bez¨ mentanzahl (M¨achtigkeit) haben. ¨ • Isomorphie von Gruppen ist eine Aquivalenzrelation auf der Menge aller Gruppen. • Auf Z wird f¨ ur n ∈ N \ {0} eine Kongruenz modulo n genannte ¨ Aquivalenzrelation wie folgt definiert: a ist genau dann kongruent zu b modulo n (Notation: a ≡ b mod n), wenn a und b bei Division durch n mit Rest denselben Rest lassen. Ist also etwa n = 2, so sind genau die geraden Zahlen kongruent zu 0 modulo 2, die ungeraden Zahlen sind kongruent ¨ zu 1 modulo 2, die Menge Z zerf¨allt in zwei Aquivalenzklassen (siehe die n¨achste Definition): Die eine Klasse besteht aus den geraden Zahlen, die andere besteht aus den ungeraden Zahlen. Innerhalb einer Klasse sind alle Zahlen zueinander kongruent modulo 2, zwei Zahlen aus verschiedenen Klassen sind nicht zueinander kongruent. ¨ Ist n = 3, so besteht etwa die Aquivalenzklasse der 1 (d. h. die Menge aller zu 1 modulo 3 kongruenten ganzen Zahlen) aus den
LINEARE ALGEBRA I, 2004/2005
27
Zahlen . . . , −8, −5, −2, 1, 4, 7, . . . . ¨ Jede solche Aquivalenzklasse bez¨ uglich der Kongruenz modulo n (d. h. die Menge aller zu einem festen a ∈ Z modulo n kongruenten Zahlen) nennt man auch eine arithmetische Progression modulo n. ¨ • Sei Y eine Menge mit der Aquivalenzrelation ∼1 , f : X −→ Y eine Abbildung. Dann wird auf X durch x ∼2 x0 ⇔ f (x) ∼1 f (x0 ) ¨ eine Aquivalenzrelation definiert. Speziell wird f¨ ur jede Abbildung f : X −→ Y durch x ∼f x0 ⇔ f (x) = f (x0 ) ¨ ¨ eine Aquivalenzrelation ∼f auf X definiert, deren Aquivalenzklassen (im Sinne der folgenden Definition) die Urbilder von einelementigen Mengen auf Y sind. ¨ Definition und Satz 2.16. Sei M eine Menge mit der Aquivalenzrelation ∼, f¨ ur a ∈ M bezeichne [a] die Menge [a] := {c ∈ M | a ∼ c}. Dann gilt f¨ ur a, b ∈ M : [a] = [b] oder [a] ∩ [b] = ∅. ¨ Die Menge [a] heißt Aquivalenzklasse von a bez¨ uglich der Relation ∼. ¨ Die Menge M ist disjunkte Vereinigung der in ihr enthaltenen Aquivalenzklassen. ¨ Ist X ⊆ M eine Teilmenge, die aus jeder Aquivalenzklasse genau ein Element enth¨alt, so heißt X ein vollst¨andiges Repr¨asentantensystem ¨ der Aquivalenzklassen. Beweis. Seien zun¨achst a, b ∈ M mit [a] ∩ [b] 6= ∅, sei c ein Element des Durchschnitts. Dann gilt a ∼ c, b ∼ c. Wegen der Symmetrie der Relation folgt c ∼ b, wegen der Transitivit¨at folgt aus a ∼ b, b ∼ c, dass a ∼ b gilt, also b ∈ [a]. Genauso folgert man, dass alle Elemente von [b] in [a] liegen, dass also [b] ⊆ [a] gilt. Wiederum ganz genauso kann man [a] ⊆ [b] folgern (Vertauschen der Rollen von a und b im obigen Schluss), so dass [a] = [b] folgt. Das war zu zeigen, denn unsere Schlussregeln aus dem ersten Abschnitt haben zur Folge: Die Aussage A oder B“ ist ¨aquivalent zur Aussage ” ¬B ⇒ A. In unserem aktuellen Fall ist A die Aussage: [a] = [b], die Aussage B ist die Aussage: [a] ∩ [b] = ∅, die Aussage ¬B ist die Aussage: [a] ∩ [b] 6= ∅. Beispiel: Sei n ≥ 1 aus N, man bezeichne mit Zn die Menge der ¨ ¨ Aquivalenzklassen in Z bez¨ uglich der Aquivalenzrelation Kongruenz ¨ ” modulo n“, die Klasse von j werde mit [j] bezeichnet. Ahnlich wie im
28
RAINER SCHULZE-PILLOT
Beispiel nach Lemma 2.9 definieren wir auf Zn eine Verkn¨ upfung + durch [a] + [b] = [a + b]; man muss sich dann u ¨berzeugen, dass diese Verkn¨ upfung wohldefiniert ist. Das heißt, man muss zeigen: Ist [a1 ] = [a2 ], [b1 ] = [b]2 , so ist [a1 + b1 ] = [a2 + b2 ]. Man rechne das ¨ als Ubung nach und pr¨ ufe nach, dass Zn mit dieser Verkn¨ upfung eine kommutative Gruppe mit neutralem Element [0] ist. ¨ Ebenfalls als Ubung rechne man nach: Die Abbildung f : Z/nZ → Zn , die durch f (a) = [a] gegeben ist, ist ein Isomorphismus von Gruppen. Man macht dann meist keinen Unterschied mehr zwischen Zn und Z/nZ und nennt beide Gruppen die Gruppe der Restklassen modulo n. Genau wie oben zeigt man ferner: Auf Z/nZ wird eine weitere wohldefinierte Verkn¨ upfung gegeben durch: a · b = ab. F¨ ur diese gelten das Assoziativgesetz und das Kommutativgesetz, 1 ist neutrales Element, und f¨ ur die Verkn¨ upfungen + und · gilt das Distributivgesetz (a + b)c = ac + bc. Dagegen gilt hier (etwa im Gegensatz zu Q, R) nicht unbedingt (das heißt nicht f¨ ur jedes n), dass jedes von [0] verschiedene Element von Z/nZ ein bez¨ uglich der Multiplikation · inverses Element hat. Lemma 2.17. Sei G eine Gruppe, H ⊆ G eine Untergruppe. Dann ¨ wird durch x ∼ y ⇔ y −1 x ∈ H eine Aquivalenzrelation auf G definiert. ¨ Die Aquivalenzklasse von x ∈ G heißt Linksnebenklasse von x bez¨ uglich H in G und wird auch mit xH bezeichnet, es gilt xH = {xh | h ∈ H}. Falls es nur endlich viele Linksnebenklassen von H in G gibt, so heißt ihre Anzahl der Index von H in G und wird mit (G : H) bezeichnet. Ist H endlich mit r := |H| Elementen, so haben auch alle Linksnebenklassen bez¨ uglich H jeweils |H| Elemente. Die Menge der Linksnebenklassen bzgl. H in G wird mit G/H bezeichnet (G modulo H). ¨ Beweis. Wir zeigen zun¨achst, dass ∼ eine Aquivalenzrelation ist: −1 F¨ ur jedes x ∈ G ist xx = e ∈ H, also gilt x ∼ x (Reflexivit¨at). Sind x, y ∈ G mit x ∼ y, so ist y −1 x ∈ H, also x−1 y = (y −1 x)−1 ∈ H, also gilt y ∼ x (Symmetrie). Sind x, y, z ∈ G mit x ∼ y, y ∼ z, so ist y −1 x ∈ H, z −1 y ∈ H, also (z −1 y)(y −1 x) = z −1 (yy −1 )x = z −1 x ∈ H, also x ∼ z (Transitivit¨at). ¨ Ist y aus der Aquivenzklasse von x, so ist h := x−1 y ∈ H (wegen der Symmetrie), also y = xh mit h ∈ H. Ist umgekehrt y = xh mit h ∈ H, so ist x−1 y = x−1 xh = h ∈ H, also y ∼ x, also ist y ein Element der ¨ Aquivalenzklasse von x. Es gilt also wie behauptet xH = {xh | h ∈ H}.
LINEARE ALGEBRA I, 2004/2005
29
¨ Aus der letzten Gleichung folgt sofort, dass f¨ ur endliches H alle Aquivalenzklassen xH bez¨ uglich ∼ genau |H| Elemente haben. Beispiel: • Sei G = Sn die symmetrische Gruppe auf n Elementen (die Gruppe der Permutationen von n Elementen), H die Untergruppe H = {h ∈ Sn | h(1) = 1}. Dann besteht f¨ ur f ∈ Sn die Linksnebenklasse f H aus allen g ∈ Sn mit g(1) = f (1). Jede von diesen hat |H| = (n − 1)! Elemente und es gibt genau n solche Linksnebenklassen. • Sind G1 , G2 Gruppen, f : G1 −→ G2 ein Homomorphismus und H = Ker(f ) ⊆ G1 , so sind die Linksnebenklassen von H in G genau die Mengen f −1 ({y}) := {x ∈ G | f (x) = y} f¨ ur die y ∈ Im(f ), also die Urbildmengen einpunktiger Mengen. Bemerkung. Ganz analog kann man Rechtsnebenklassen Hx = {hx | h ∈ H} ¨ definieren; sie sind die Aquivalenzklassen bez¨ uglich der Relation x ∼ y ⇔ yx−1 ∈ H. Definition 2.18. Sei G eine Gruppe und H ⊆ G eine Untergruppe. Falls f¨ ur alle x ∈ G die Gleichung xH = Hx gilt, so heißt die Untergruppe H ein Normalteiler in G. Bemerkung 2.19. Ist die Untergruppe H der Gruppe G ein Normalteiler in G, so kann man auf der Nebenklassenmenge G/H eine wohldefinierte Verkn¨ upfung durch (xH) ◦ (yH) = (xy)H erkl¨aren. G/H mit dieser Verkn¨ upfung ist eine Gruppe und heißt die Faktorgruppe von G nach H; ein Beispiel hierf¨ ur ist (mit G = Z, H = nZ = {na | a ∈ Z}) die oben bereits diskutierte Gruppe (Z/nZ, +). Wir kommen darauf sp¨ater zur¨ uck. Korollar 2.20. (Satz von Lagrange) (Joseph Louis Lagrange, 17631813) Sei G eine endliche Gruppe, H ⊆ G eine Untergruppe. Dann ist |G| = (G : H) · |H|; insbesondere ist |H| ein Teiler von |G|. Beweis. Das ist nach dem vorigen Lemma klar.
Beispiel: Sei |G| = p eine Primzahl. Dann folgt aus dem Korollar, dass G nur die Untergruppen {e}, G hat, aber keine nichttrivialen echten Untergruppen. Speziell f¨ ur die zyklische Untergruppe H = hxi folgt: Korollar 2.21. Sei G eine endliche Gruppe und x ∈ G. Dann ist die Elementordnung ord(x) ein Teiler der Gruppenordnung |G|.
30
RAINER SCHULZE-PILLOT
3. K¨ orper, Vektorr¨ aume und lineare Gleichungssysteme Definition 3.1. Eine Menge K mit Verkn¨ upfungen +, · heißt K¨orper, wenn gilt (i) (K, +) ist eine kommutative Gruppe (mit neutralem Element 0). (ii) Die Multiplikation · ist assoziativ und kommutativ, und K × := K \ {0} ist bzgl. · eine Gruppe (mit neutralem Element 1) (iii) Es gilt das Distributivgesetz a(b + c) = ab + ac
f¨ ur alle a, b, c ∈ K
Beispiele: Q und R sind K¨orper, ebenso F2 := Z/2Z. Die beiden erstgenannten K¨orper mit ihren Rechenregeln sind aus der Schule vertraut. Der K¨orper F2 = Z/2Z ist etwas gew¨ohnungsbed¨ urftig, in ihm gilt 1 + 1 = 0. Er spielt bei Anwendungen in der Informatik eine wichtige Rolle, ist aber auch vom Standpunkt der reinen Algebra ein interessanter Gegenstand. Allgemeiner gilt: Z/nZ mit den Verkn¨ upfungen + und · ist genau dann ein K¨orper, wenn n = p eine Primzahl ist, er wird dann mit Fp bezeichnet. In diesem Fall ist p · 1 := |1 + ·{z · · + 1} = 0, p− mal
und p ist die kleinste aller nat¨ urlichen Zahlen r, f¨ ur die r · 1 = 0 gilt. Man sagt, der K¨orper Z/pZ habe Charakteristik p. Bemerkung. i) In einem K¨orper ist stets 1 6= 0, also haben K¨orper wenigstens 2 Elemente. ii) Verlangt man in (ii) nicht, dass die Multiplikation kommutativ ist und in (iii) zus¨atzlich das zweite Distributivgesetz (a + b)c = ac + bc f¨ ur alle a, b, c ∈ K, so erh¨alt man die Definition eines Schiefk¨orpers. Beispiele daf¨ ur sehen wir sp¨ater. iii) Wir werden bei der nachfolgenden Behandlung linearer Gleichungssysteme sehen, dass wir f¨ ur Koeffizienten und Variable des Gleichungssystems nur die in Definition 3.1 festgelegten Eigenschaften ben¨otigen. Diese Eigenschaften heißen die K¨orperaxiome. Die abstrakte axiomatische Vorgehensweise hat den Vorteil, dass alle S¨atze, die wir f¨ ur lineare Gleichungssysteme herleiten, automatisch f¨ ur Gleichungssysteme u ¨ber einem beliebigen K¨orper gelten, wir also z. B. die in vieler Hinsicht sehr verschiedenen K¨orper R und F2 nicht getrennt behandeln m¨ ussen.
LINEARE ALGEBRA I, 2004/2005
31
Definition 3.2. Das System von Gleichungen a11 x1 + . . . + a1n xn = b1 .. .
(3.1)
ap1 x1 + . . . + apn xn = bp mit Koeffizienten a11 , . . . , apn und b1 , . . . bp in dem K¨orper K heißt lineares Gleichungssystem (¨ uber dem K¨orper K) in den n Unbekannten x1 , . . . , xn . Es heißt homogen, wenn b1 = . . . = bp = 0 gilt, inhomogen sonst. Ein Vektor x1 x = ... ∈ K n , xn dessen Komponenten x1 , . . . , xn die Gleichungen l¨osen, heißt ein L¨osungsvektor (oder einfach eine L¨osung) f¨ ur das Gleichungssystem. Die pn Koeffizienten des Gleichungssystems werden in der (p × n)Matrix a11 . . . a1n .. A = ... . ap1 . . . apn zusammengefaßt; diese hat die p Zeilen t
z1 = (a11 , . . . , a1n ), . . . ,
t
zp = (ap1 , . . . , apn )
und die n Spalten a11 s1 = ... , . . . , ap1
a1n sn = ... apn
Die Menge der (p×n)-Matrizen mit Eintr¨agen aus K heißt M (p×n, K) (oder Matp,n (K), K p,n ). F¨ ur das System (3.1) schreiben wir auch abk¨ urzend Ax = b. Das System, das abgek¨ urzt als Ax = 0 geschrieben wird, heißt das zu Ax = b geh¨orende homogene Gleichungssystem. Aus der Schulmathematik ist die geometrische Interpretation eines solchen linearen Gleichungssystems in den F¨allen n = 2 und n = 3 bekannt: Ist n = 2, so besteht die L¨osungsmenge der i-ten Gleichung in (3.1) aus den Ortsvektoren der Punkte einer Geraden gi (falls nicht alle aij Null sind, die Gleichung also weder trivial noch widerspr¨ uchlich ist). Die L¨osungsmenge des ganzen Gleichungssystems besteht dann aus den Ortsvektoren derjenigen Punkte, die auf allen Geraden gi (1 ≤ i ≤ p) liegen, sie besteht aus den Punkten auf einer Geraden (falls alle gi gleich
32
RAINER SCHULZE-PILLOT
sind), einem Punkt oder ist leer (falls die Geraden keinen gemeinsamen Schnittpunkt haben). ¨ Ahnlich ist die Situation f¨ ur n = 3 : Die L¨osungsmenge der i-ten Gleichung in (3.1) besteht jetzt im nichttrivialen Fall aus den Ortsvektoren der Punkte einer Ebene Ei . Die L¨osungsmenge des ganzen Gleichungssystems besteht dann aus den Ortsvektoren derjenigen Punkte, die auf allen Ebenen Ei (1 ≤ i ≤ p) liegen (in denen sich also die Ebenen schneiden), sie besteht aus den Punkten auf einer Ebene (falls alle Ei gleich sind), einer Geraden, einem Punkt oder ist leer (falls die Ebenen keinen gemeinsamen Schnittpunkt haben). In beiden F¨allen geh¨ort der Ursprung 0 genau dann zur L¨osungsmenge, wenn bei allen Gleichungen die rechte Seite 0 ist, das Gleichungssystem also homogen ist. Wir werden in diesem Abschnitt sehen, dass sich lineare Gleichungssysteme in mehr als 3 Variablen, bei denen es keine direkte geometrische Interpretation gibt, im Prinzip ¨ahnlich verhalten. Bevor wir lineare Gleichungssysteme n¨aher untersuchen, wollen wir aber den Begriffsapparat f¨ ur die Theorie der Vektorr¨aume und ihrer strukturerhaltenden Abbildungen, der linearen Abbildungen, bereitstellen, da beide Themen eng zusammenh¨angen. Definition 3.3. Sei (K, +, ·) ein K¨orper, (V, +) eine kommutative Gruppe, zus¨atzlich sei eine (ebenfalls mit · bezeichnete) Verkn¨ upfung · : K × V −→ V gegeben (Skalarmultiplikation). (V, +) mit dieser Verkn¨ upfung heißt ein K-Vektorraum, falls gilt: V1 V2 V3 V4
= = = =
SM1 SM2 SM3 SM4
1·v =v (a + b)v = av + bv a(v + w) = av + aw a(bv) = (ab)v
f¨ ur f¨ ur f¨ ur f¨ ur
alle alle alle alle
v∈V a, b ∈ K, v ∈ V a ∈ K, v, w ∈ V a, b ∈ K, v ∈ V.
Das neutrale Element bez¨ uglich + von V heißt der Nullvektor und wird mit 0 oder 0 bezeichnet. Eine Teilmenge W von V heißt Teilraum (Untervektorraum, Unterraum), falls W Untergruppe von (V, +) bez¨ uglich + ist und a·w ∈W
f¨ ur alle a ∈ K, w ∈ W
gilt. Bemerkung 3.4. Die Eigenschaften V1=SM1 bis V4=SM4 zusammen mit den Eigenschaften, die sich aus der Forderung ergeben, dass (V, +) eine abelsche Gruppe ist, heißen die Vektorraumaxiome.
LINEARE ALGEBRA I, 2004/2005
33
Beispiele: a1 . n . | ai ∈ K f¨ ur 1 ≤ i ≤ n • K = |K × ·{z · · × K} = . n−mal an a1 b1 a1 + b 1 mit Addition ... + ... = ... an bn an + b n und Skalarmultiplikation a1 λa1 λ · ... = ... . an λan n Die Elemente von K schreiben wir in der Regel wie oben als a1 Spaltenvektoren ... . Den Zeilenvektor (a1 , . . . , an ) schreibt an t man auch als a. Wenn dadurch keine Verwirrung entstehen kann, schreibt man ihn einfach (eigentlich inkorrekt) ebenfalls als a. • R ist (mit der gew¨ohnlichen Multiplikation als Skalarmultiplikation) ein Q-Vektorraum. Allgemeiner gilt: Ist L ein K¨orper, K ⊆ L ein Teilk¨orper (also K eine Teilmenge, die bez¨ uglich + und · selbst ein K¨orper ist), so ist L ein K-Vektorraum. • Ist K ein K¨orper, M eine Menge, so ist
V := K M := {f : M −→ K | f ist Abbildung} mit den Verkn¨ upfungen: f1 + f2 = g mit g(a) = f1 (a) + f2 (a) λf = h mit h(a) = λ · f (a)
f¨ ur alle a ∈ M f¨ ur alle a ∈ M
ein K-Vektorraum. ¨ Man u dass diese Konstruktion f¨ ur M = ¨berlege sich als Ubung, {1, 2, . . . , n} ⊆ N erneut den Vektorraum K n (in leichter Verkleidung) liefert. Allgemeiner k¨onnen wir in dieser Definition auch K durch einen K-Vektorraum W ersetzen und erhalten wieder einen K-Vektorraum. Dagegen ist (mit den gleichen Verkn¨ upfungen) {f : M −→ R | f (x) ≥ 0 f¨ ur alle x ∈ M } bzw. {f : M −→ R | f ist injektiv} kein R-Vektorraum (letzteres falls |M | > 1).
34
RAINER SCHULZE-PILLOT
x1 2 • G1 := ∈ R | x1 + x2 = 0 ist ein Teilraum von R2 , dax2 x1 2 gegen ist G2 := ∈ R | x1 + x2 = 1 kein Teilraum von x2 R2 . Geometrisch gesehen ist G1 die Menge der Ortsvektoren der Punkte einer Geraden durch den Ursprung, w¨ahrend G2 eine Gerade beschreibt, die nicht durch den Ursprung geht. • Das vorige Beispiel l¨asst sich offensichtlich verallgemeinern: Im (mit dem 3-dimensionalen Anschaungsraum identifizierten) Vektorraum R3 sind die Geraden und Ebenen durch den Ursprung Untervektorr¨aume, w¨ahrend Geraden bzw. Ebenen, die nicht durch ¨ den Ursprung gehen, keine Untervektorr¨aume sind. Als Ubung rechne man das einmal mit Hilfe der Geraden- bzw. Ebenengleichungen nach, zum anderen mit der Parameterdarstellung (zur Erinnerung: sind x0 , x1 , x2 drei Punkte der Ebene E, die nicht auf einer gemeinsamen Geraden liegen, und setzt man a1 := x1 − x0 , a2 := x2 − x0 , so ist E = {x0 + t1 a1 + t2 a2 | t1 , t2 ∈ R}, die Darstellung der Punkte der Ebene in dieser Form mit den freien Variablen (Parametern) t1 , t2 nennt man eine Parameterdarstellung der Ebene. Analog (aber nat¨ urlich nur mit einem Parameter) ist die Parameterdarstellung einer Geraden definiert). • Der Nullraum {0} ist ein Teilraum des Vektorraums V (V ein beliebiger K-Vektorraum, 0 der Nullvektor in V ). Ist U ein Teilraum des Vektorraums V , so ist der Nullvektor 0V ein Element von U (siehe Teil b) der Bemerkung nach Definition 2.10, wo der analoge Sachverhalt f¨ ur Untergruppen festgestellt wird). Lemma 3.5. Sei K ein K¨orper, V ein K-Vektorraum. Dann gilt: (i) a · 0 = 0 · v = 0 f¨ ur alle a ∈ K, v ∈ V (ii) a · (−v) = (−a) · v = −(a · v) f¨ ur alle a ∈ K, v ∈ V (iii) (−a)(−v) = av f¨ ur alle a ∈ K, v ∈ V (iv) a(v − w) = av − aw f¨ ur alle a ∈ K, v ∈ V (v) (a − b)v = av − bv f¨ ur alle a, b ∈ K, v ∈ V . Insbesondere gelten diese Regeln f¨ ur V = K mit der K¨orpermultiplikation als Skalarmultiplikation. Beweis. (i) a · 0 = a · (0 + 0) = a · 0 + a · 0 wegen SM3, es folgt a · 0 = 0. ¨ Die andere Behauptung beweist man analog (Ubung). (ii) a · (−v) + a · v = a · (v + (−v)) wegen SM3 , wegen v + (−v) = 0 und (i) folgt a · (−v) + a · v = 0, der Vektor a · (−v) ist also bez¨ uglich der Addition im Vektorraum V invers
LINEARE ALGEBRA I, 2004/2005
35
zu a · v, das heißt a · (−v) = −(a · v). Analog zeigt man die andere ¨ Behauptung (Ubung). ¨ (iii) Ubung. ¨ (iv) Ubung. ¨ (v) Ubung. Der Zusammenhang zwischen dem Vektorraumbegriff und linearen Gleichungssystemen wird durch den folgenden Satz beschrieben: Satz 3.6. Sei Ax = b ein lineares Gleichungssystem mit Koeffizienten in K (mit A ∈ M (p × n, K), b ∈ K p ), L = L(A, b) ⊆ K n die L¨osungsmenge, L0 = L(A, 0) die L¨osungsmenge des zugeh¨origen homogenen Systems Ax = 0. Dann gilt: a) L0 ist ein Untervektorraum von K n . b) Sind x, y ∈ L L¨osungen des Gleichungssystems, so ist die Differenz x − y eine L¨osung des zugeh¨origen homogenen Gleichungssystems (also x − y ∈ L0 ). c) F¨ ur x0 ∈ L ist L = {x0 + y | y ∈ L0 } =: x0 + L0 (hat man eine spezielle L¨osung x0 des inhomogenen Systems, so erh¨alt man alle L¨osungen des inhomogenen Systems, indem man alle L¨osungen des zugeh¨origen homogenen Systems zu der speziellen L¨osung x0 hinzuaddiert). Insbesondere gilt: Genau dann besitzt Ax = b f¨ ur jedes b ∈ K p h¨ochstens eine L¨osung (anders gesagt: Falls das Gleichungssysem l¨osbar ist, so ist es eindeutig l¨osbar), wenn Ax = 0 nur die triviale L¨osung x = 0 hat. Beweis. Das rechnet man direkt nach.
Wie schon bei den Gruppen betrachten wir jetzt die strukturerhaltenden Abbildungen f¨ ur Vektorr¨aume. Definition 3.7. Seien V, W Vektorr¨aume u ¨ber dem K¨orper K. Eine Abbildung f : V −→ W heißt linear (oder auch Homomorphismus von Vektorr¨aumen), falls gilt: a) f (v + w) = f (v) + f (w) f¨ ur alle v, w ∈ V b) f (av) = af (v) f¨ ur alle a ∈ K, v ∈ V . Ist f : V −→ W linear, so heißt Ker(f ) := {v ∈ V | f (v) = 0W } der Kern von f . Lemma 3.8. Seien V, W Vektorr¨aume u ¨ber dem K¨orper K, sei f : V −→ W eine lineare Abbildung. Dann gilt: a) f (0V ) = 0W .
36
RAINER SCHULZE-PILLOT
b) F¨ ur alle v ∈ V ist f (−v) = −f (v). c) F¨ ur alle v1 , v2 ∈ V ist f (v1 − v2 ) = f (v1 ) − f (v2 ). Beweis. Das folgt aus den entsprechenden Aussagen u ¨ber Gruppenhomomorphismen, angewendet auf die abelschen Gruppen (V, +) und (W, +) und den Homomorphismus f : V −→ W . Beispiel: • K = R = V , f (x) = ax (a ∈ R beliebig fest) ist linear. • K = R = V , f (x) =2x − 3 ist nicht linear. x1 x1 + x2 + x3 3 ist linear. x2 • K = R, V = R , f x2 = x3 0 • K = R, V = {f : R −→ R | f ist in ganz R differenzierbar} W = {f : R −→ R} D : V −→ W gegeben durch D(f ) = f 0 (Ableitung) ist eine lineare Abbildung. • K = R, V = W = {f : [0, 1] −→ R | f ist stetig in [0, 1]} I : V −→ W R x gegeben durch I(f )(x) := 0 f (t)dt ist linear. Lemma 3.9. V, W seien K-Vektorr¨aume, f : V −→ W eine lineare Abbildung. Dann sind Kern(f ) := {v ∈ V | f (v) = 0W } und Im(f ) := {f (v) | v ∈ V } =: f (V ) Unterr¨aume von V bzw. W . f ist genau dann injektiv, wenn Ker(f ) = {0V } gilt. Beweis. Aus den entsprechenden Aussagen u ¨ber Gruppenhomomorphismen folgt, dass Ker(f ) und Im(f ) Untergruppen von (V, +) bzw. (W, +) sind und dass die Aussage u ¨ber die Injektivit¨at von f gilt. Die Abgeschlossenheit unter Multiplikation mit Skalaren rechnet man sofort nach. ¨ Bemerkung. Man u f¨ ur V = W = Rn mit ¨berlege sich als Ubung n = 2 oder n = 3, dass eine lineare Abbildung f : V −→ V genau dann linear ist, wenn sie 0 auf 0 abbildet und Geraden auf Geraden oder auf einen Punkt abbildet. Dies erkl¨art die Bezeichnung linear “(lateinisch: ” linea = Gerade). Definition und Lemma 3.10. Sei a11 . . . a1n .. = (a ) 1≤i≤p ∈ M (p × n, K). A = ... ij . 1≤j≤n ap1 . . . apn
LINEARE ALGEBRA I, 2004/2005
37
Dann definiert A durch x1 LA ... :=
xn mit yi =
n X
aij xj
y1 .. . yp
(1 ≤ i ≤ p) eine Abbildung
j=1
LA : K n −→ K p , die zu A geh¨orige lineare Abbildung von K n nach K p . Man schreibt auch LA (x) =: Ax. Wir k¨onnen jetzt auch den soeben eingef¨ uhrten Begriff der linearen Abbildung mit dem Problem verbinden, lineare Gleichungssysteme zu l¨osen: Satz 3.11. Sei Ax = b ein lineares Gleichungssystem mit Koeffizienten in K (mit A ∈ M (p × n, K), b ∈ K p ), L = L(A, b) ⊆ K n die L¨osungsmenge, L0 = L(A, 0) die L¨osungsmenge des zugeh¨origen homogenen Systems Ax = 0. Dann gilt: a) Das System Ax = b ist genau dann l¨osbar, wenn b ∈ Im(LA ) gilt; n die L¨osungsmenge L ist das Urbild L−1 A ({b}) = {x ∈ K | LA (x) = b}. b) Insbesondere gilt f¨ ur die L¨osungsmenge L0 des homogenen Gleichungssystems L0 = Ker(LA ). Beweis. Klar.
Diese begriffliche Kl¨arung bringt uns bei dem konkreten Problem, L¨osungen von Gleichungssystemen explizit zu bestimmen, zun¨achst nicht weiter, wird sich aber sp¨ater als n¨ utzlich erweisen. Um die L¨osungen eines linearen Gleichungssystems explizit zu bestimmen verwendet man in der Regel ein Gauß - Elimination“ (Carl Fried” rich Gauß, 1777-1855) genanntes algorithmisches Verfahren, das aber im Prinzip schon lange vor Gauß in China bekannt war (unter dem Namen fang cheng“ kommt es in den Neun Kapiteln u ¨ber die Kunst ” ” der Mathematik“ aus der Zeit der Han-Dynastie, vermutlich im ersten Jahrhundert vor Christus vor); es verallgemeinert und formalisiert das von Gleichungssystemen in zwei oder drei Variablen vertraute Verfahren, durch geschicktes Addieren von Gleichungen und Multiplizieren von Gleichungen mit Zahlen 6= 0 das Gleichungssystem auf eine Gleichung in einer Unbekannten zu reduzieren, die man dann leicht l¨osen kann. Zun¨achst schreiben wir eine Form eines Gleichungssystems auf, in der es (wie wir gleich sehen werden) besonders leicht zu l¨osen ist:
38
RAINER SCHULZE-PILLOT
Definition 3.12. Sei A ∈ M (p × n, K). Man sagt, A (bzw. das lineare Gleichungssystem Ax = b) habe Zeilenstufenform, wenn gilt: i) Es gibt 0 ≤ r ≤ p, so daß gilt: Ist i > r, so ist aij = 0 f¨ ur alle j, ist 1 ≤ i ≤ r, so gibt es ein j mit aij 6= 0. ii) F¨ ur 1 ≤ i ≤ r sei s(i) := min{j | aij 6= 0} die Nummer der ersten Spalte von links, die in der i-ten Zeile ein Element 6= 0 enth¨alt. Mit dieser Bezeichnung gilt: s(1) < s(2) < . . . < s(r). Die Elemente ai,s(i) heißen die Pivotelemente der Matrix in Zeilenstufenform. Wir sagen, A habe reduzierte Zeilenstufenform, wenn u ¨berdies gilt: iii) ai,s(i) = 1 f¨ ur 1 ≤ i ≤ r iv) ak,s(i) = 0 f¨ ur 1 ≤ k < i ≤ r Ist ein Gleichungssystem bzw. seine Matrix in Zeilenstufenform, so lassen sich seine L¨osungen leicht bestimmen. Satz 3.13. a) Ist das lineare Gleichungssystem Ax = b mit A ∈ M (p × n, K) in Zeilenstufenform mit r = r(A), so hat es keine L¨osungen, wenn nicht br+1 = . . . = bp = 0 gilt. b) Ist das lineare Gleichungssystem Ax = b mit A ∈ M (p × n, K) in reduzierter Zeilenstufenform l¨osbar (also br+1 = · · · = bp = 0) und zus¨atzlich s(i) = i f¨ ur 1 ≤ i ≤ r, so sind mit −a1,n −a1,r+1 .. .. . . −ar,n −ar,r+1 1 l1 = , . . . , ln−r = 0 . 0 .. . .. 0 1 0 die L¨osungen von Ax = b genau die s¨amtlichen Vektoren b1 .. . br x= + t1 l1 + · · · + tn−r ln−r 0 . .. 0 mit t1 , . . . , tn−r ∈ K, und jede L¨osung l¨asst sich in eindeutiger Weise so schreiben. Die Vektoren l1 , . . . , ln−r heißen ein System von Fundamentall¨osungen des homogenen Gleichungssystems Ax = 0. Ist hier r = n,
LINEARE ALGEBRA I, 2004/2005
39
so ist {l1 , . . . , ln−r } = ∅ und es gibt nur die eine L¨osung b1 .. . b x = r 0 . .. 0 (r > n ist nicht m¨oglich) Beweis. a) ist klar, denn f¨ ur i > r ist die i-te Gleichung 0 = bi , und das ist offensichtlich unl¨osbar f¨ ur bi 6= 0. b) ist nicht viel schwerer: Geben wir beliebige Werte t1 , . . . , tn−r der Variablen xr+1 , . . . , xn vor, so wird die i-te Gleichung zu xi +
n X
aij tj−r = bi ,
j=r+1
eine L¨osung des Gleichungssystems mit diesen Werten der Variablen xr+1 , . . . , xn ist also gleich b1 .. . br + t1 l1 + · · · + tn−r ln−r , 0 . .. 0 und umgekehrt ist jeder Vektor dieses Typs eine L¨osung des Gleichungssystems. Als n¨achsten Schritt stellen wir die Umformungen zusammen, die wir an einem Gleichungssystem vornehmen wollen: Definition 3.14. Sei A = (aij ) ∈ M (p × n, K) eine Matrix mit Zeilen z1 , . . . , t zp ∈ K n . Eine elementare Zeilenumformung von A ist gegeben durch:
t
i) Addition der mit λ ∈ K multiplizierten j-ten Zeile zur i-ten Zeile (also t zi 7−→ t z0i = t zi + λt zj ) f¨ ur i 6= j. ii) Multiplikation der i-ten Zeile mit λ ∈ K × := K \ {0}. iii) Vertauschen von i-ter Zeile und j-ter Zeile.
40
RAINER SCHULZE-PILLOT
Eine elementare Zeilenumformung des linearen Gleichungssystems Ax = b ist eine elementare Zeilenumformung der erweiterten Matrix a11 . . . a1n b1 (A|b) := ... ap1 . . . apn bp ¨ zu der erweiterten Matrix (A0 |b0 ), gefolgt vom Ubergang zum linearen 0 0 Gleichungssystem A x = b . Die beschriebenen Umformungen sind zum L¨osen des Gleichungssystems brauchbar, weil sie die L¨osungsmenge nicht ver¨andern: Lemma 3.15. Geht das lineare Gleichungssystem Ax = b durch elementare Zeilenumformungen in das Gleichungssystem A0 x = b0 u ¨ber, x1 .. ∈ K n genau dann eine L¨osung von Ax = b, wenn so ist x = . xn es eine L¨osung von A0 x = b0 ist. Geht A0 aus A durch Vertauschen der j-ten Spalte der Matrix mit der k-ten Spalte hervor, so entspricht das einer Vertauschung der Variablen xj mit der Variablen xk im Gleichungssystem, also einer Vertauschung der j-ten mit der k-ten Komponente in den L¨osungsvektoren. Beweis. Klar.
N¨ utzlich werden die Umformungen dadurch, dass sie es erlauben, ein beliebiges Gleichungssystem (in algorithmischer, also programmierbarer Weise) in die beschriebene einfache Gestalt (Zeilenstufenform) u ¨berzuf¨ uhren: Satz 3.16. Jede Matrix A ∈ M (p × n, K) kann durch wiederholte elementare Zeilenumformungen in (reduzierte) Zeilenstufenform gebracht werden. L¨asst man noch Spaltenvertauschungen zu, so l¨asst sich sogar s(i) = i f¨ ur 1 ≤ i ≤ r erreichen. Beweis. Wir beweisen das durch vollst¨andige Induktion nach der Anzahl p der Gleichungen (bzw. Zeilen der Matrix). Induktionsanfang: Ist p = 1, so hat man nur eine Gleichung. Ist j0 minimal mit a1j0 6= 0, so setze man s(1) = j0 und multipliziere die (einzige) Gleichung mit a−1 uhrt sie in reduzierte Zeilenstu¨berf¨ 1j0 , das u fenform. Sind alle aij = 0, so ist die Gleichung bereits in reduzierter Zeilenstufenform. Induktionsannahme: Sei p > 1 und die Behauptung bewiesen f¨ ur Gleichungssysteme mit weniger als p Gleichungen. Induktionsschritt: Sind alle aij = 0, so ist das Gleichungssystem bereits in reduzierter Zeilenstufenform. Andernfalls sei j0 das Minimum aller
LINEARE ALGEBRA I, 2004/2005
41
j, f¨ ur die ein Element 6= 0 in der j-ten Spalte der Matrix steht, sei i0 so gew¨ahlt, dass ai0 j0 6= 0 gilt. Wir subtrahieren jetzt f¨ ur alle i 6= i0 die mit aij0 · a−1 i0 j0 multiplizierte i0 -te Gleichung (bzw. Zeile der Matrix) von der i-ten Gleichung (bzw. Zeile der Matrix). Danach stehen in allen Zeilen der Matrix außer der i0 -ten nur Nullen in der j0 -ten Spalte. Anschließend multiplizieren wir die i0 -te Gleichung (bzw. Zeile der Matrix) mit a−1 i0 j0 und vertauschen dann die neue i0 -te Gleichung (bzw. Zeile der Matrix) (die jetzt mit 0 · · · 0 1 beginnt) mit der ersten Gleichung (bzw. Zeile der Matrix). Jetzt haben wir eine Matrix A1 erreicht, bei der links von der j0 -ten Spalte alle Eintr¨age 0 sind und in der j0 -ten Spalte in der ersten Zeile 1, in allen anderen Zeilen 0 steht. Sei A0 die (p−1)×n-Matrix, die man aus A1 durch Streichen der ersten Zeile erh¨alt. Nach Induktionsannahme kann man diese Matrix durch elementare Zeilenumformungen in reduzierte Zeilenstufenform bringen. F¨ uhrt man diese Umformungen mit A1 durch (unter Beachtung der Nummerierung der Zeilen: Die i-te Zeile von A0 entspricht der i + 1-ten Zeile von A1 ), so a¨ndert sich nichts an der ersten Zeile und an den ersten j0 Spalten von A1 , und die resultierende p × n - Matrix A2 hat reduzierte Zeilenstufenform. Dass man durch abschließendes Ordnen der Spalten erreichen kann, dass s(i) = i f¨ ur 1 ≤ i ≤ r gilt, ist klar. Mit dem Lemma und dem Satz sind wir jetzt in der Lage, ein beliebiges lineares Gleichungssystem zu l¨osen bzw. als unl¨osbar nachzuweisen sowie gleichzeitig die Struktur der L¨osungsmenge zu bestimmen. Wir fassen die Aussagen in einem Satz und drei Korollaren zusammen, deren Beweise sich aus den bisher bewiesenen Aussagen unmittelbar ergeben (man beachte, dass die Behauptungen u ¨ber die Struktur der L¨osungsmenge sich bei Umnummerieren der Variablen nicht¨andern, wir also in der Zeilenstufenform die durch solches Umnummerieren erreichbare spezielle Gestalt mit s(i) = i f¨ ur alle i annehmen d¨ urfen): Satz 3.17. Sei A ∈ M (p × n, K), b ∈ K p . Dann gilt: Entweder hat das Gleichungssystem Ax = b keine L¨osungen, oder es gibt r ∈ N (0 ≤ r ≤ p) und Vektoren x0 , l1 , . . . , ln−r ∈ K n , so daß gilt: Jede L¨osung x ∈ K n von Ax = b l¨aßt sich auf genau eine Weise als x = x0 + t1 l1 + · · · + tn−r ln−r mit t1 , . . . , tn−r ∈ K schreiben, und alle solchen Vektoren x ∈ K n sind L¨osungen von Ax = b. Jedes System l1 , . . . , ln−r von Vektoren aus K n mit dieser Eigenschaft heißt System von Fundamentall¨osungen des zugeh¨origen homogenen Gleichungssystems Ax = 0. Ist hier r = n, so ist {l1 , . . . , ln−r } = ∅. Korollar 3.18. Hat das lineare Gleichungssystem Ax = b mehr Unbekannte als Gleichungen (n > p) und besitzt es u ¨berhaupt L¨osungen,
42
RAINER SCHULZE-PILLOT
so ist die L¨osung nicht eindeutig. Insbesondere gilt: Ein homogenes lineares Gleichungssystem Ax = 0 mit A ∈ M (p × n, K) und n > p hat nichttriviale L¨osungen. Korollar 3.19. Ein inhomogenes lineares Gleichungssystem Ax = b mit A ∈ M (n × n, K), dessen zugeh¨origes homogenes Gleichungssystem nur die triviale L¨osung hat, besitzt (bei beliebigem b ∈ K p ) eine eindeutige L¨osung. Korollar 3.20. Das lineare Gleichungssystem Ax = b mit A ∈ M (p × n, K) und p > n ist nicht f¨ ur alle b ∈ K p l¨osbar. Bemerkung. a) Die durch das lineare Gleichungssystem Ax = b zun¨achst implizit gegebene L¨osungsmenge L = {x ∈ K n | LA (x) = b} wird durch die Darstellung in Satz 1.11 parametrisiert, d.h., wir erhalten ihre Elemente als Bild der bijektiven Abbildung (t1 , . . . , tn−r ) 7−→ x0 + t1 l1 + · · · + tn−r ln−r von K n−r nach L. Wir hatten gesehen, dass die L¨osungsmenge die Nebenklasse x0 + Ker(LA ) von x0 bez¨ uglich des Unterraums Ker(LA ) von K n ist. Ein Ziel des n¨achsten Abschnitts wird sein, f¨ ur jeden Untern raum U ⊆ K (und allgemeiner f¨ ur jeden K-Vektorraum) eine solche Parametrisierung zu erreichen. b) Wir werden sp¨ater sehen, daß die Zahl r nicht davon abh¨angt, auf welchem Weg man die Matrix in Zeilenstufenform u uhrt. ¨berf¨ c) Die elementaren Umformungen definieren Abbildungen u : M (p × n, K) −→ M (p × n, K), und zu jeder elementaren Umformung entsteht auch die Umkehrabbildung u−1 : M (p × n, K) −→ M (p × n, K) durch elementare Umformungen. Die Menge E = {f : M (p × n, K) −→ M (p × n, K) | f l¨asst sich als Abfolge elementarer Umformungen schreiben}, ist daher eine Untergruppe der Gruppe der bijektiven Abbildungen von M (p × n, K) auf sich.
LINEARE ALGEBRA I, 2004/2005
43
4. Basis und Dimension Wir haben im vorigen Abschnitt gesehen, dass man im L¨osungsraum eines homogenen linearen Gleichungssystems eine Menge von Vektoren l1 , . . . , ln−r finden kann (ein System von Fundamentall¨osungen), die die Eigenschaft hat, dass P sich jeder L¨osungsvektor in eindeutiger Weise als Linearkombination n−r j=1 tj lj mit Koeffizienten tj ∈ K schreiben l¨asst. Noch nicht v¨ollig klar ist, ob die Anzahl der Fundamentall¨osungen nur vom Gleichungssystem, nicht aber von den durchgef¨ uhrten Rechenschritten abh¨angt. In diesem Abschnitt soll gezeigt werden, dass wir ein (Basis genanntes) Vektorsystem mit ¨ahnlichen Eigenschaften in jedem Vektorraum finden k¨onnen, und dass die Elementanzahl eines solchen Systems, wenn es endlich ist, eine feste nur vom betrachteten Vektorraum abh¨angige Zahl ist (die Dimension des Vektorraums). Zun¨achst stellen wir ein paar einfache Eigenschaften und Bezeichnungen zusammen. Vorab aber noch eine Bemerkung. Wir haben schon wiederholt ohne Beweis benutzt, dass man f¨ ur jede assoziative Verkn¨ upfung (a, b) 7→ a ◦ b in einem Produkt von n ≥ 3 Elementen Klammern beliebig verschieben kann, dass also etwa (a1 ◦ (a2 ◦ a3 )) ◦ a4 = (a1 ◦ a2 ) ◦ (a3 ◦ a4 ) = a1 ◦ ((a2 ◦ a3 ) ◦ a4 ) gilt; man l¨asst dann in l¨angeren Produkten die Klammern auch ganz fort und schreibt a1 ◦ a2 ◦ . . . ◦ an f¨ ur jeden der Ausdr¨ ucke aus obiger Gleichung. Der Beweis dieser Tatsache ist eine (verh¨altnism¨aßig langweilige) Routine¨ ubung im sauberen Aufschreiben von Induktionsbeweisen. Genauso zeigt man mit vollst¨andiger Induktion, dass man bei einer kommutativen Verkn¨ upfung (a, b) 7→ a ◦ b in einem Produkt von n Elementen die Faktoren beliebig anordnen kann. Bei einer additiv geschriebenen Verkn¨ upfung schreibt man daher (ohne R¨ ucksicht auf die Anordnung) n X
ai =
i=1
X
ai = a1 + a2 + . . . + an ,
i∈{1,...,n}
bei einer multiplikativ geschriebenen Verkn¨ upfung n Y Y ai = ai = a1 · a2 · . . . · an . i=1
i∈{1,...,n}
Nun also zu den angek¨ undigten Eigenschaften und Bezeichnungen f¨ ur Vektorr¨aume:
44
RAINER SCHULZE-PILLOT
Lemma 4.1. Sind U1 , U2 Unterr¨aume des K-Vektorraums V , so sind auch U1 ∩ U2 und U1 + U2 := {u1 + u2 ∈ V | u1 ∈ U1 , u2 ∈ U2 } Unterr¨aume von V . Beweis. Zun¨achst ist U1 ∩ U2 6= ∅, da 0 ∈ Uj f¨ ur j = 1, 2 gilt. Sind v, w ∈ U1 ∩ U2 , so ist v + w ∈ U1 , da v ∈ U1 , w ∈ U1 gilt und U1 ein Unterraum ist. Genauso ist v + w ∈ U2 , also gilt v + w ∈ U1 ∩ U2 . Ist λ ∈ K, so ist λv ∈ U1 , λv ∈ U2 , da v ∈ U1 , v ∈ U2 gilt und U1 und U2 Unterr¨aume von V sind. Damit ist gezeigt, dass U1 ∩ U2 ein Unterraum ist. Auch U1 + U2 ist wegen 0 ∈ U1 + U2 nicht die leere Menge. Sind v = v1 + v2 und w = w1 + w2 mit v1 , w1 ∈ U1 , v2 , w2 ∈ U2 Vektoren in U1 + U2 , so ist v + w = (v1 + w1 ) + (v2 + w2 ) wegen des Kommutativund des Assoziativgesetzes f¨ ur die Addition in V , und da U1 und U2 Unterr¨aume sind, ist v1 + w1 ∈ U1 , v2 + w2 ∈ U2 und es folgt v + w ∈ U1 + U2 . Genauso rechnet man nach, dass λv ∈ U1 + U2 f¨ ur λ ∈ K gilt. Bemerkung. Analog gilt auch: Ist G eine Gruppe mit Untergruppen H1 , H2 , so ist H1 ∩ H2 ebenfalls eine Untergruppe von G. Ist (G, +) eine abelsche Gruppe mit Untergruppen H1 , H2 und ist H1 + H2 wie oben definiert, so ist H1 + H2 eine Untergruppe von G. Eine a¨hnliche Aussage f¨ ur nicht kommutative Gruppen gilt im allgemeinen nicht. Definition 4.2. Seien M, I Mengen, M I := Abb(I, M ) die Menge aller Abbildungen von I nach M . Die Elemente von M I heißen auch durch I indizierte Familien von Elementen von M ; f¨ ur die Abbildung f : I −→ M mit f (i) =: mi ∈ M (i ∈ I) wird auch (f (i))i∈I =: (mi )i∈I geschrieben. Lemma 4.3. Ist K ein K¨orper, I eine Menge, so ist K I mit den Verkn¨ upfungen (f + g)(i) := f (i) + g(i) ∈ K (λf )(i) := λ · f (i) ∈ K ein K-Vektorraum, dessen Nullvektor die Nullabbildung (0(i) = 0 ∈ K f¨ ur alle i ∈ I) ist. Mit den gleichen Verkn¨ upfungen ist auch die Teilmenge K (I) := {f ∈ K I | f (i) 6= 0 nur f¨ ur endlich viele i ∈ I} ein K-Vektorraum (ein Unterraum von K I ). Beweis. F¨ ur K I haben wir das bereits im Beispiel nach Definition 3.3 nachgerechnet. Man pr¨ uft leicht nach, dass K (I) ein Unterraum von K I und damit ebenfalls ein Vektorraum ist.
LINEARE ALGEBRA I, 2004/2005
45
Beispiel: • Ist I = N, K = R, so ist RN die Menge der reellen Folgen (a0 , a1 , . . .). R(N) ist dann die Teilmenge der Folgen (an )n∈N , f¨ ur die fast alle an Null sind, f¨ ur die es also ein n0 ∈ N gibt, so dass an = 0 f¨ ur alle n ≥ n0 gilt. • Ist I = {1, . . . , n}, so wird M I durch f 7−→ (f (1), . . . , f (n)) bijektiv auf M n = M · · × M} abgebildet. | × ·{z n−mal
Lemma 4.4. Ist (Ui )i∈I eine \ beliebige Familie von Unterr¨aumen des K-Vektorraums V , so ist Ui ein Unterraum von V . i∈I
Beweis. Das beweist man genauso wie die obige Aussage u ¨ber den Durchschnitt von zwei Unterr¨aumen. Definition und Lemma 4.5. Seien U1 , . . . , Un Vektorr¨aume u ¨ber dem K¨orper K. Dann wird das kartesische Produkt n Y U1 × · · · × Un =: Ui i=1
mit den folgenden Verkn¨ upfungen zu einem K-Vektorraum (der das Produkt der Ui genannt wird): (4.1) (4.2)
(u1 , . . . , un ) + (u01 , . . . , u0n ) := (u1 + u01 , . . . , un + u0n ) λ(u1 , . . . , un ) = (λu1 , . . . , λun ).
Ist allgemeiner (Ui )i∈I eine beliebige Familie von K-Vektorr¨aumen (also anders gesagt: eine Abbildung von I in die Menge der Vektorr¨aume), so schreibt man Y Ui i∈I
f¨ ur die Menge aller Familien (ui )i∈I mit ui ∈ Ui f¨ ur alle i ∈ I und nennt dieseQMenge das Produkt der R¨aume Ui . Die Menge i∈I Ui wird zu einem K-Vektorraum durch die Verkn¨ upfungen (ui )i∈I + (u0i )i∈I := (ui + u0i )i∈I λ(ui )i∈I = (λui )i∈I .
(4.3) (4.4)
Man setzt ferner a M Ui := Ui := {(ui )i∈I | ui 6= 0 f¨ ur nur endlich viele i ∈ I} i∈I
i∈I
und nennt diese Menge das Coprodukt (oder Koprodukt) oder die (¨außere)`direkte Summe der Ui . Q Es gilt: i∈I Ui ist ein Unterraum von i∈I Ui .
46
RAINER SCHULZE-PILLOT
Beweis. Man rechnet das direkt nach.
Bemerkung. a) Sind alle R¨aume Ui in der Q vorigen Definition ` gleich I einem festen Vektorraum V , so ist i∈I Ui = V , i∈I Ui = L (I) . i∈I Ui = V Q ` L b) Ist die Menge I endlich, Q so ist i∈I Ui = i∈I Ui = i∈I Ui . Ist I = {1, . . . , n}, so ist i∈I Ui = U1 × · · · × Un . Definition 4.6. Sei M = {v1 , . . . , vn } ⊆ V eine endliche Teilmenge des K - Vektorraums V . Ein Element v ∈ V heißt Linearkombination der Elemente von M , wenn es t1 , . . . , tn ∈ K gibt, so dass n X v= ti vi = t1 v1 + . . . + tn vn i=1
gilt. Ist M ⊆ V eine beliebige (m¨oglicherweise unendliche) Teilmenge von V , so heißt v ∈ V eine Linearkombination der Elemente von M , wenn es n ∈ N und v1 , . . . , vn ∈ M gibt, so dass n X v= ti vi = t1 v1 + . . . + tn vn i=1
mit geeigneten Koeffizienten t1 , . . . , tn ∈ K gilt (anders gesagt: Wenn v Linearkombination endlich vieler Elemente von M ist). Die lineare H¨ ulle Lin(M ) (oder Span(M )) ist die Menge aller Linearkombinationen von Elementen von M (mit der Konvention Lin(∅) = {0}. Man schreibt auch hM i := Lin(M ) oder f¨ ur endliche Mengen M = {v1 , . . . , vn } auch hM i =: hv1 , . . . , vn i. Lin(M ) heißt auch der von M erzeugte (aufgespannte) Teilraum und M ein Erzeugendensystem von Lin(M ). Beispiel: 0 1 0 • Sind v1 = 0, v2 = 1, v3 = 0 ∈ K 3 , so ist hv1 , v2 , v3 i = 1 0 0 3 K . 1 0 5 • Sind v1 = 0, v2 = 2, v3 = 2 ∈ R3 , so ist v3 ∈ hv1 , v2 i. 1 0 5 1 Dagegen ist 0 6∈ hv1 , v2 i. 0 Satz 4.7. Sei V ein K-Vektorraum. Dann ist Lin(M ) f¨ ur jede Menge M ⊆ V ein Unterraum von V . Ferner gilt: a) M ⊆ V ist genau dann ein Unterraum, wenn M = Lin(M ) gilt. b) Lin(M ) ist der Durchschnitt aller Unterr¨aume U von V mit U ⊇ M.
LINEARE ALGEBRA I, 2004/2005
47
c) F¨ ur M ⊆ M 0 ist M ⊆ Lin(M ) ⊆ Lin(M 0 ). d) Lin(Lin(M )) = Lin(M ). e) F¨ ur Unterr¨aume U1 , U2 von V ist Lin(U1 ∪ U2 ) = U1 + U2 . Beweis. Zun¨achst ist 0 ∈ Lin(M ), denn f¨ ur M = ∅ gilt das per definitionem und sonst ist 0 = 0 · v f¨ ur ein beliebiges v ∈ M . Dass f¨ ur Vektoren v, w ∈ Lin(M ) und λ ∈ K auch λv + w eine Linearkombination der Elemente von M ist, sieht man sofort, also ist Lin(M ) in der Tat ein Unterraum von V . Zu den weiteren Punkten: a) ist klar. b) Ist U ⊇ M ein Unterraum von V , so sind alle Linearkombinationen der Elemente von M in U , also ist Lin(M ) ⊆ U , damit ist Lin(M ) im Durchschnitt aller Unterr¨aume enthalten, die M als Teilmenge enthalten. Umgekehrt ist Lin(M ) selbst ein Unterraum, der M enth¨alt, nimmt also an der Durchschnittsbildung teil und enth¨alt daher den Durchschnitt aller Unterr¨aume von V , die M als Teilmenge enthalten. c) ist klar d) folgt aus a) und der Tatsache, dass Lin(M ) ein Unterraum von V ist. e) U1 + U2 ist ein Unterraum von V , der U1 ∪ U2 enth¨alt, enth¨alt also nach b) den Unterraum Lin(U1 ∪ U2 ). Andererseits ist klar, dass U1 + U2 in Lin(U1 ∪ U2 ) enthalten ist. Bemerkung. a) Sei A ∈ M (p × n, K) eine p × n-Matrix mit Spalten s1 , . . . , sn ∈ K p . Dann ist das lineare Gleichungssystem Ax = b genau dann l¨osbar, wenn b ∈ hs1 , . . . , sn i gilt. X b) Elemente von Lin(M ) schreiben wir auch als a(m)m mit m∈M
a ∈ K (M ) , also mit einer Abbildung a : M −→ K, so daß a(m) 6= 0 nur f¨ ur endlich viele m ∈X M gilt. Die (zun¨achst unendliche) Summe a(m)m verstehen wir dam∈M
bei als die endliche Summe X
a(m)m.
m∈M a(m)6=0
Ist M endlich mit M = {m1 , . . . , mn } und paarweise verschiedenen mi , so schreibt sich f¨ ur a1 , . . . , an ∈ K die Linearkombination
48
RAINER SCHULZE-PILLOT n X
ai mi in obiger Schreibweise als
i=1
X
a(m)m mit der durch
m∈M
a(m) =
ai 0
falls m = mi sonst
definierten Funktion a : M −→ K. Definition 4.8. Sei V ein K-Vektorraum, M = {v1 , . . . , vn } ⊆ V eine endliche Teilmenge. M heißt Basis von V , wenn gilt: F¨ ur jedes v ∈ V gibt es genau ein n-Tupel (a1 , . . . , an ) ∈ K n mit v=
n X
ai v i
i=1
(jedes v ∈ V l¨asst sich in eindeutiger Weise als Linearkombination der vi darstellen). Ein n-Tupel (v1 , . . . , vn ) ∈ V n nennt man auch ein Vektorsystem. Es heißt (geordnete) Basis, wenn die vi paarweise verschieden sind und {v1 , . . . , vn } eine Basis ist. Ist allgemeiner M ⊆ V eine beliebige Teilmenge, so heißt M Basis von V , wenn gilt: X Zu jedem v ∈ V gibt es genau ein a ∈ K (M ) mit v = a(m)m. m∈M
¨ Aquivalent ist: Jedes v ∈ V l¨asst sich in eindeutiger Weise als Linearkombination der Elemente von M schreiben (oder: Ist v ∈ V , P so gibt es n ∈ N sowie vi ∈ M, ai ∈ K, ai 6= 0 f¨ ur 1 ≤ i ≤ n so dass v = ni=1 ai vi ist, und n sowie die ai , vi sind durch v eindeutig bestimmt). Eine beliebige Familie (vi )i∈I ∈ V I wird auch Vektorsystem genannt, sie heißt Basis von V , wenn die vi paarweise verschieden sind und {vi | i ∈ I} eine Basis von V ist. Ist V = {0}, so heißt ∅ eine Basis von V . Beispiel. 1 0 0 ... , so heißt (e1 , . . . , en ) • Ist V = K n und e1 = , . . . , e = n ... 0 0 1 die Standardbasis (oder kanonische Basis) von K n . • Die in Satz 3.13 und Satz 3.17 angegebenen Fundamentall¨osungen des homogenen linearen Gleichungssystems Ax = 0 bilden eine Basis des L¨osungsraums.
LINEARE ALGEBRA I, 2004/2005
49
• Ist V ein K-Vektorraum und {v1 , . . . , vn } eine Basis von V , so erh¨alt man durch a1 n X . .. 7−→ ai v i ∈ V i=1 an eine bijektive lineare Abbildung K n −→ V : V und K n sind zueinander isomorphe K-Vektorr¨aume. Definition und Satz 4.9. Sei V ein K-Vektorraum, M ⊆ V eine Teilmenge. M heißt linear unabh¨angig, wenn die folgenden ¨aquivalenten Bedingungen erf¨ ullt sind: a) F¨ ur jedes u ∈ M ist u 6∈ Lin(M \ {u}) b) Sind u1 , . . . , un ∈ M beliebige paarweise verschiedene Elemenn X te von M (n ∈ N) und a1 , . . . , an ∈ K mit ai ui = 0, so ist i=1
a1 = · · · = an = 0. (0 l¨aßt sich nur auf die triviale Weise als Linearkombination der Elemente von M darstellen.) Ist M nicht linear unabh¨angig, so heißt M linear abh¨angig. Eine Familie (vi )i∈I ∈ V I heißt linear unabh¨angig, wenn die vi paarweise verschieden sind und {vi | i ∈ I} als Menge unabh¨angig ist. Insbesondere haben wir also f¨ ur n-Tupel (v1 , . . . , vn ) ∈ V n von Vektoren in V : Das n-Tupel (v1 , . . . , vn ) ∈ V n heißt linear unabh¨angig, wenn die vi paarweise verschieden sind und die Menge {v1 , . . . , vn } linear unabh¨angig ist. Bemerkung. a) M ist genau dann linear unabh¨angig, wenn f¨ ur jeden Vektor u ∈ M gilt: u l¨asst sich nicht als Linearkombination der Vektoren in M \ {u} darstellen (ist also unabh¨angig von den anderen Vektoren in M ). b) Ist M ⊆ V linear unabh¨angig, so ist M ein minimales Erzeugendensystem von Lin(M ): Entfernt man einen der Vektoren u von M , so ist die verbleibende Teilmenge M \ {u} kein Erzeugendensytem von Lin(M ) mehr. Anders formuliert (Kontraposition): Ist M 0 ⊆ M eine Teilmenge von M mit Lin(M 0 ) = Lin(M ), so ist M0 = M. Beweis von Satz 4.9. Wir m¨ ussen zeigen, dass die Bedingungen a) und b) zueinander ¨aquivalent sind. Sei a) erf¨ ullt und seien u1 , .P . . , un ∈ M paarweise verschiedene Vektoren, seien a1 , . . . , an ∈ K mit ni=1 ai ui = 0. Da ui f¨ ur 1 ≤ i ≤ n nach Voraussetzung nicht zur linearen H¨ ulle von M \ {ui } geh¨ort, ist keines der ui eine Linearkombination der anderen. Nach Aufgabe 4a) von Blatt 6 folgt, dass alle ai gleich 0 sind.
50
RAINER SCHULZE-PILLOT
Gilt andererseits a) nicht, so sei u1 ∈ M ein Vektor mit u1 ∈ Lin(M \ {u1 }). Es gibt dann also paarweise und von u1 verschiedene Vektoren P u2 , . . . , un ∈ M und a2 , . . . , an ∈ K, so dass u1 = ni=2 ai ui gilt. Mit a1 = −1 ist dann aber n X i=1
ai ui = −u1 +
n X
ai u i = 0
i=2
eine nichttriviale Linearkombination des Nullvektors aus paarweise verschiedenen Vektoren von M , also gilt auch b) nicht. Beispiel: 1 0 0 • Die Vektoren 0 , 1 , 0 in R3 sind linear unabh¨angig. 0 0 1 1 0 5 Dagegen sind 0 , 2 , 2 linear abh¨angig. 1 0 5 1 0 1 0 , 1 , 0 ist linear abh¨angig, • Das Tripel 0 0 0 0 1 0 1 1 0 , 1 ist linear 0 , 1 , 0 = die Menge 0 0 0 0 0 unabh¨angig. • Die Ortsvektoren von 3 Punkten im R3 sind genau dann linear abh¨angig, wenn die Punkte auf einer gemeinsamen Ebene durch den Ursprung liegen. ¨ Aquivalent: Die Richtungsvektoren dreier Geraden durch den Ursprung sind genau dann linear abh¨angig, wenn diese Geraden in einer gemeinsamen Ebene liegen. a) Eine Menge M ⊆ V ist genau dann linear abh¨angig, n X wenn sich 0 als nichttriviale Linearkombination 0 = ai ui mit
Korollar 4.10.
i=1
paarweise verschiedenen ui ∈ M und Elementen ai ∈ K, so dass nicht alle ai = 0 sind, schreiben l¨aßt. b) M ist genau dann linear unabh¨angig, wenn M eine Basis von Lin(M ) ist, wenn sich also jeder Vektor in Lin(M ) auf genau eine Weise als Linearkombination der Elemente von M schreiben l¨aßt. c) Sei M eine linear unabh¨angige Teilmenge von V , v ∈ V . Es gilt genau dann v ∈ Lin(M ) , wenn v ∈ M ist oder M ∪ {v} linear abh¨angig ist.
LINEARE ALGEBRA I, 2004/2005
51
Beweis. a) ist klar. Zu b): Ist M eine Basis von Lin(M ), so ist 0 = P v∈M 0 · v die eindeutige Darstellung des Nullvektors 0 als Linearkombination der Elemente von M , also ist M nach a) linear unabh¨angig. Ist umgekehrt M linear unabh¨angig, so l¨asst sich zun¨achst nach Definition von Lin(M ) jeder Vektor von Lin(M ) als Linearkombination der Elemente von M schreiben. Sind a, b ∈ K (M ) mit X X a(v)v = b(v)v, v∈M
v∈M
P
so ist v∈M (a(v) − b(v))v = 0, wegen der linearen Unabh¨angigkeit von M also a(v) − b(v) = 0 f¨ ur alle v ∈ M , d.h, a = b, die Schreibweise ist also eindeutig und M ist eine Basis von Lin(M ). Zu c): Ist v ∈ Lin(M ), so ist offenbar Lin(M ) = Lin(M ∪{v}). Ist dann v 6∈ M , so ist M ∪ {v} nach Teil a) der Definition linear abh¨angig, da dann M = (M ∪ {v}) \ {v} gilt. Ist umgekehrt v ∈ M , so ist offenbar v ∈ Lin(M ). Ist M ∪ {v} linear abh¨angig, so gibt es Vektoren v1 , . . . P , vr ∈ M und a1 , . . . , ar+1 ∈ K, die nicht alle 0 sind, so dass ar+1 v + rj=1 aj vj = 0 gilt. W¨are ar+1 = 0, so w¨are diese Gleichung bereits eine lineare Relation zwischen den Vektoren v1 , . . . , vr ∈ M im Widerspruch zur linearen Unabh¨angigkeit von M . Also ist ar+1 6= 0 und daher v=
−a−1 r+1
r X
aj v j ,
j=1
also ist v ∈ Lin(M ).
Der folgende Satz liefert drei immer wieder benutzte Charakterisierungen einer Basis: Satz 4.11. Sei V ein K-Vektorraum, M ⊆ V . Dann sind ¨aquivalent: a) M ist eine Basis von V b) M ist linear unabh¨angig und Lin(M ) = V (M ist linear unabh¨angiges Erzeugendensystem) c) M ist minimales Erzeugendensystem von V d) M ist maximale linear unabh¨angige Teilmenge von V (d.h., M ist linear unabh¨angig und f¨ ur V ⊇ M 0 ⊇ M linear unabh¨angig 0 folgt M = M ). Beweis. a) ⇒ b): Ist M eine Basis von V , so ist V = Lin(M ) und damit ist nach Korollar 4.10 die Menge M als Basis von Lin(M ) linear unabh¨angig. b) ⇒ c): Das ist Teil b) der Bemerkung nach Definition und Satz 4.9 c)⇒ d): M ist linear unabh¨angig nach Teil a) der Definition der linearen Unabh¨angigkeit. Ist n¨amlich v ∈ M , so ist wegen der vorausgesetzten Minimalit¨at von M die Menge M 0 := M \ {v} kein Erzeugendensystem
52
RAINER SCHULZE-PILLOT
von V , und es gilt v 6∈ Lin(M 0 ), denn sonst w¨are V ) Lin(M 0 ) = Lin(Lin(M 0 )) ⊇ Lin(M 0 ∪ {v}) = Lin(M ) = V ; es folgt also die lineare Unabh¨angigkeit von M . F¨ ur jedes v ∈ V \ M ist V = Lin(M ) = Lin((M ∪ {v}) \ {v}) ⊆ Lin(M ∪ {v}) ⊆ V, also herrscht hier u ¨berall Gleichheit, und nach Teil a) der Definition der linearen Unabh¨angigkeit kann eine echte Obermenge von M nicht mehr linear unabh¨angig sein. d) ⇒ a) Da M eine Basis von Lin(M ) ist, m¨ ussen wir Lin(M ) = V zeigen. Sei v ∈ V . Ist v ∈ M , so ist v ∈ Lin(M ). Andernfalls ist nach Voraussetzung M ∪ {v} ( M , also ist M ∪ {v} linear abh¨angig. Nach c) von Korollar 4.10 ist dann v ∈ Lin(M ). Satz 4.12. Jeder K-Vektorraum V hat eine Basis. Ist V endlich erzeugt (d.h., V = Lin(M ) f¨ ur eine endliche Menge M ⊆ V ), so hat V eine endliche Basis. Beweis. Im endlich erzeugten Fall sei M ein endliches Erzeugendensystem von V , etwa |M | = r. Ist M minimal, so sind wir fertig. Andernfalls entfernen wir solange Vektoren aus M , bis wir bei einem minimalen Erzeugendensystem angekommen sind (das ist sp¨atestens nach r Schritten der Fall), dieses ist dann nach dem vorigen Satz eine Basis. Der Beweis im nicht endlich erzeugten Fall ist etwas schwieriger, er wird in der folgenden Bemerkung skizziert. Bemerkung. a) Beim Beweis im endlich erzeugten Fall stellt man fest, daß jedes endliche Erzeugendensystem eine Basis enth¨alt. b) Beim Beweis im nicht notwendig endlich erzeugten Fall benutzt man das Zorn’sche Lemma (Max August Zorn, 1906-1993): Sei Ω eine Menge, P(Ω) die Menge aller Teilmengen von Ω (die Potenzmenge von Ω). Sei M ⊆ P(Ω), I eine beliebige Indexmenge. Eine Familie (Mi )i∈I von Mengen Mi ∈ M heißt eine Kette in M, wenn Mi ⊆ Mj oder Mj ⊆ Mi f¨ ur alle i, j ∈ I gilt. Es gelte: Zu jeder Kette (Mi )i∈I in M gibt es ein M ∈ M mit Mi ⊆ M f¨ ur alle i ∈ I (eine obere Schranke der Kette). Dann hat M ein maximales Element (d.h., es gibt ein M ∈ M, so daß aus M 0 ∈ M mit M 0 ⊇ M stets M 0 = M folgt). Damit ist der Beweis dann einfach: Die Menge M der linear unabh¨angigen Teilmengen von V ist durch Inklusion (Enthaltensein) teilweise geordnet, und die Vereinigung einer Kette von
LINEARE ALGEBRA I, 2004/2005
53
ineinander enthaltenen linear unabh¨angigen Mengen ist wieder eine linear unabh¨angige Menge und damit eine obere Schranke der Kette. Man kann also das Zorn’sche Lemma darauf anwenden und findet, dass es in V (mindestens) eine maximale linear unabh¨angige Teilmenge gibt, diese ist dann nach dem vorigen Satz eine Basis von V . Wir k¨onnen sogar etwas mehr beweisen: Betrachten wir f¨ ur eine gegebene linear unabh¨angige Menge X ⊆ V statt M die Teilmenge MX := {M ⊆ V | X ⊆ M, M ist linear unabh¨angig }, so k¨onnen wir genauso wie oben argumentieren und erhalten eine Basis von V , die X enth¨alt (siehe 4.15). c) Das hier benutzte Zorn’sche Lemma ist ein wichtiges, wenn auch nicht ganz unumstrittenes Hilfsmittel beim Beweis von S¨atzen u ¨ber unendliche Mengen. Es ist ¨aquivalent zum etwas harmloser klingenden Auswahlaxiom: Ist I eine beliebige Indexmenge, (Mi )i∈I eine beliebige durch I indizierte Familie von Mengen, so gibt es eine Abbildung f von I in die Vereinigungsmenge der Mi , die jedem i ∈ I ein f (i) ∈ Mi zuordnet (man kann eine Auswahl von mi ∈ Mi f¨ ur alle i treffen). Ferner sind diese beiden Aussagen zum Wohlordnungsaxiom a¨quivalent, welches aussagt: Ist M irgendeine Menge, so kann man auf ihr eine totale Ordnung definieren, bez¨ uglich der jede nichtleere Teilmenge ein kleinstes Element hat. Die St¨arke der Aussage des Wohlordnungsaxioms wird deutlich, wenn man als Beispiel M = R betrachtet. Definition und Lemma 4.13. Sei (v1 , . . . , vn ) ∈ V n ein n-Tupel (auch Vektorsystem genannt). Elementare Umformungen von (v1 , . . . , vn ) sind i) die Ersetzung von vi durch vi + λvj (i 6= j, λ ∈ K) ii) die Ersetzung von vi durch λvi (0 6= λ ∈ K) iii) die Vertauschung von vi und vj . Sei (vi0 , . . . , vn0 ) ein Vektorsystem, das aus (v1 , . . . , vn ) durch wiederholtes Anwenden elementarer Umformungen hervorgeht. Dann gilt: a) (v10 , . . . , vn0 ) ist genau dann linear unabh¨angig, wenn (v1 , . . . , vn ) linear unabh¨angig ist. b) hv1 , . . . , vn i = hv10 , . . . , vn0 i Beweis. Klar. Bemerkung.
54
RAINER SCHULZE-PILLOT
• Lemma 4.13 gilt genauso f¨ ur beliebige (nicht notwendig endliche) Familien von Vektoren. • Geht (v10 , . . . , vn0 ) aus (v1 , . . . , vn ) durch elementare Unformungen hervor, so auch (v1 , . . . , vn ) aus (v10 , . . . , vn0 ). Beispiel: Sind t z1 , . . . , t zp die Zeilen der (p × n)-Matrix A u ¨ber K, t 0 t 0 0 z 1 , . . . , z p die der Matrix A , die aus A durch elementare Umformungen hervorgeht, so geht (nat¨ urlich) (z01 , . . . , z0p ) aus (z1 , . . . , zp ) durch elementare Umformungen hervor. Lemma 4.14. Sei VX ein K-Vektorraum, ∅ = 6 M ⊆ V eine Basis von V , 0 6= w ∈ V , w = a(u)u und u0 ∈ M mit a(u0 ) 6= 0. u∈M
Dann ist M 0 := (M \ {u0 }) ∪ {w} eine Basis von V . Beweis. Man ersetze in M zun¨achst den Vektor u0 durch u00 := a0 u0 und anschließend (durch P endlich viele Umformungen vomTyp i)) den Vektor u00 durch w = u∈M a(u)u. Insgesamt kann man also durch eine Abfolge elementarer Umformungen u0 durch w ersetzen, also von M zu M0 u ¨bergehen. Nach dem vorigen Lemma ist dann ebenso wie M auch M 0 ein linear unabh¨angiges Erzeugendensystem und damit eine Basis von V . Satz 4.15. (Austauschsatz) Sei V ein K-Vektorraum, M eine Basis von V , (w1 , . . . , wp ) ∈ V p ein linear unabh¨angiges Vektorsystem. Dann gibt es Elemente u1 , . . . , up von M , so daß (M \ {u1 , . . . , up }) ∪ {w1 , . . . , wp } eine Basis von V ist. Insbesondere gilt: a) Ist M endlich, so ist p ≤ |M |. b) Ist M (beliebiges) endliches Erzeugendensystem, so ist |M | eine obere Schranke f¨ ur die Elementanzahl linear unabh¨angiger Teilmengen. c) (Basiserg¨anzungssatz) Ist V endlich erzeugt, so l¨asst sich jede linear unabh¨angige Teilmenge zu einer Basis erweitern. Beweis. Wir beweisen die erste Behauptung durch vollst¨andige Induktion nach p: Induktionsanfang: F¨ ur p = 1 folgt die Aussage direkt aus dem Lemma. Induktionsannahme: Sei p > 1 und die Aussage f¨ ur Systeme von p − 1 Vektoren bewiesen. Induktionsschritt: Wir benutzen die Induktionsannahme um geeignete Vektoren u1 , . . . , up−1 ∈ M durch w1 , . . . , wp−1 zu ersetzen, wir erhalten so eine neue Basis M 0 von V , der die Vektoren w1 , . . . , wp−1 angeh¨oren. Der Vektor wp besitzt eine (eindeutige) Darstellung X wp = a(u)u u∈M 0
LINEARE ALGEBRA I, 2004/2005
55
als Linearkombination der Vektoren der Basis M 0 , und es gibt wenigstens ein u =: up ∈ M 0 \ {w1 , . . . , wp−1 } = M \ {u1 , . . . , up−1 }, f¨ ur das a(up ) 6= 0 ist, da wp wegen der vorausgesetzten linearen Unabh¨angigkeit von w1 , . . . , wp nicht Linearkombination von w1 , . . . , wp−1 ist. Nach dem Lemma k¨onnen wir up durch wp ersetzen und erhalten die gesuchte Basis M 00 mit w1 , . . . , wp ∈ M 00 . Die restlichen Aussagen folgen direkt hieraus, wobei wir c) so allerdings nur f¨ ur endliche linear unabh¨angige Teilmengen beweisen k¨onnen. Um eine unendliche linear unabh¨angige Teilmenge zu einer Basis zu erg¨anzen, verwendet man wieder das Zorn’sche Lemma (siehe die Bemerkung nach Satz 4.12. Der folgende Satz ist eine direkte Folgerung: Satz 4.16. Sei V ein K-Vektorraum. Dann gilt: Ist V endlich erzeugt, so sind alle Basen von V endlich und haben die gleiche Anzahl von Elementen. Wir k¨onnen jetzt die Dimension eines Vektorraums definieren: Definition 4.17. Sei V ein K-Vektorraum. Ist V endlich erzeugt, so heißt die Anzahl der Elemente einer Basis von V die Dimension dim V = dimK V von V . Ist V nicht endlich erzeugt, so heißt V unendlich dimensional. Bemerkung. Im nicht endlich erzeugten Fall kann man zeigen, daß zwei Basen eines K-Vektorraumes V die gleiche M¨achtigkeit haben. Korollar 4.18. Sei V ein endlich erzeugter K-Vektorraum, U ⊆ V ein Unterraum von V . Dann ist dim U ≤ dim V , und genau dann gilt dim U = dim V , wenn U = V ist. Beweis. Da eine Basis von U insbesondere linear unabh¨angig ist, kann sie nach dem Austauschsatz 4.15 zu einer Basis von V erg¨anzt werden. Daraus folgt sofort die Behauptung. Beispiel: Im R3 bilden die Vektoren 1 −1 1 2 −1 u1 = , u2 = , u3 = 4 −2 4 3 eine Basis. Wir wollen einen der Vektoren durch 3 w1 = 5 −8 ersetzen. 1. Schritt: Man stelle w1 als Linearkombination der Basis dar: w1 = 2u1 − u2
56
RAINER SCHULZE-PILLOT
(dazu l¨ose ein lineares Gleichungssystem a1 u1 + a2 u2 + a3 u3 = w1 ). 2. Schritt: Man w¨ahle ein i ∈ {1, 2, 3}, so dass der Koeffizient ai bei ui nicht Null ist, also i = 1 oder i = 2. Nach Lemma 4.14 ist dann {w1 , u2 , u3 } eine Basis von R3 . Jetzt sei zus¨atzlich
und ebenso
{w1 , u1 , u3 }
0 w2 = 1 2
gegeben. Wir wollen zwei der Vektoren {u1 , u2 , u3 } durch {w1 , w2 } ersetzen. Wir haben schon gezeigt: {w1 , u2 , u3 } ist Basis. Man stellt jetzt w2 in dieser Basis dar (1. Schritt): 1 3 w2 = w1 + u2 2 2 2. Schritt: Der Koeffizient bei (wenigstens) einem der verbleibenden ui ist nicht Null, in diesem Fall bei u2 . Nach Lemma 4.14 ist dann {w1 , w2 , u3 } eine Basis des R3 . Bemerkung. Das in den Beispielen praktizierte Verfahren f¨ ur den Austausch l¨asst sich wie folgt als algorithmisches Verfahren formulieren, das den Austausch explizit macht (Gauß-Elimination). Sei die Basis M = {u1 , . . . , un } gegeben, schreibe wi =
n X
aij uj
(1 ≤ i ≤ p)
j=1
mit Koeffizienten aij ∈ K; die aij bilden eine p × n-Matrix A = (aij ). Man bringe nun die Matrix A durch elementare Zeilenumformungen auf spezielle Zeilenstufenform A0 = (a0ij ). Diese Umformungen bringen die Gleichungen n X wi = aij uj j=1
in die Gestalt wi0
=
n X
a0ij uj ,
j=1
wo das p-Tupel (w10 , . . . , wp0 ) aus (w1 , . . . , wp ) durch elementare Umformungen hervorgeht. Spaltenvertauschungen in der Matrix entsprechen hier Umnummerierungen der uj ; daher k¨onnen wir die Matrix (a0ij )
LINEARE ALGEBRA I, 2004/2005
nach geeignetem Umnummerieren der uj 1 0 ... ∗ 1 0 ··· 0 . .. 0 ···
57
in die Gestalt bringen:
0 .. . 0
Das liefert das umgeformte Gleichungssystem P wi0 = ui + nj=i+1 a0ij ui (1 ≤ i ≤ r) wi0 = 0
(r < i ≤ p),
also r = p wegen der linearen Unabh¨angigkeit der wi und damit der wi0 . Man sieht jetzt direkt, dass man u1 , . . . , up durch w10 , . . . , wp0 ersetzen kann, dass also auch (w10 , . . . , wp0 , up+1 , . . . , un ) eine Basis ist. Da (w10 , . . . , wp0 ) aus (w1 , . . . , wp ) durch elementare Umformungen hervorgeht, ist auch (w1 , . . . , wp , up+1 , . . . , un ) eine Basis. (Die Auswahl der Auszutauschenden unter den uj versteckt sich hier in den Spaltenvertauschungen.) Beispiel: • Der K-Vektorraum K n u ¨ber dem K¨orper K hat die Dimension n. • Der K-Vektorraum K (N) hat keine endliche Basis, da die Vektoren fi : N −→ K mit fi (j) = δij (Kronecker-Delta) (i ∈ N beliebig) linear unabh¨angig sind. Korollar 4.19. Sei V ein K-Vektorraum der endlichen Dimension n. Dann gilt: a) Eine linear unabh¨angige Teilmenge von V ist genau dann eine Basis von V , wenn sie n Elemente hat. b) Ein Erzeugendensystem von V ist genau dann eine Basis von V , wenn es n Elemente hat. c) n ist die maximale Anzahl linear unabh¨angiger Vektoren in V und die minimale Elementanzahl von Erzeugendensystemen in V. ¨ Beweis. Ubung!
Der Dimensionsbegriff l¨asst sich auf lineare Gleichungssysteme anwenden: Definition 4.20. Sei A ∈ M (p × n, K) eine (p × n)-Matrix mit Zeilen t z1 , . . . , t zp ∈ K n und Spalten s1 , . . . , sn ∈ K p . Dann ist
58
RAINER SCHULZE-PILLOT
dimhz1 , . . . , zp i =: rg(A) der Rang (Zeilenrang) von A, dimhs1 , . . . , sn i der Spaltenrang von A. ˜ die Anzahl Korollar 4.21. a) Ist A ∈ M (p × n, K) und r = r(A) der Zeilen, die in einer Zeilenstufenform A˜ von A nicht identisch 0 sind, so ist r = rg(A). Insbesondere ist r unabh¨angig von der Art und Weise, in der die Zeilenstufenform erreicht wurde. b) Der L¨osungsraum des homogenen Gleichungssystems Ax = 0 hat Dimension n − rg(A). Bemerkung. Ist die Matrix A˜ in Zeilenstufenform, so hat der Unterraum ˜ = b hat L¨osung} {b ∈ K p | Ax die Basis (e1 , . . . , er ), wo die ei die Standardbasis des K p bilden, hat also Dimension r. Hier ist also Zeilenrang = Spaltenrang. Wir werden gleich sehen, dass diese Gleichheit allgemein gilt. Lemma 4.22. Sei f : V −→ W eine lineare Abbildung von KVektorr¨aumen. Dann gilt: a) Ist f bijektiv, so ist auch die Umkehrabbildung f −1 linear. f und f −1 heißen dann Isomorphismen von K-Vektorr¨aumen. Ist V = W , so spricht man auch von Automorphismen b) f ist genau dann ein Isomorphismus, wenn f Basen von V in Basen von W abbildet. c) Ist f ein Isomorphismus, so ist dim(V ) = dim(W ). Beweis. a) geht genauso wie bei Gruppenhomomorphismen b) Sei f bijektiv, M eine Basis von V und N := f (M ) ihr Bild unter f. Ist dann w ∈ W , so gibt es (genau ein) v ∈ V mit f (v) = w. Dr¨ uckt man v als Linearkombination X v= a(u)u u∈M
P der Vektoren der Basis M aus, so ist w = f (v) = u∈M a(u)f (u), der (beliebig gew¨ahlte) Vektor w ∈ W ist also Linearkombination der Vektoren f (u) ∈ N . P Kann man w auf eine weitere Weise w = u∈M b(u)f (u) als Linearkombination der Vektoren f (u) ∈ N schreiben, so ist v = P −1 f (w) = u∈M b(u)u, also a = b, da M eine Basis von V ist. Also ist f (M ) eine Basis von W , durch f werden also wie behauptet Basen auf Basen abgebildet. Hat f umgekehrt die Eigenschaft, Basen von V auf Basen von W abzubilden, so ist f zun¨achst injektiv: Ist v ∈ V, v 6= 0 so kann man {v} zu einer Basis M von V erg¨anzen, und da f (M ) nach Voraussetzung eine Basis von W ist, ist 0 6∈ f (M ), also f (v) 6= 0, wir haben also Ker(f ) = {0}, d.h., f ist injektiv.
LINEARE ALGEBRA I, 2004/2005
59
f ist aber auch surjektiv, denn ist w ∈ W und M eine Basis von V , so kann man (da f (M ) eine Basis von W ist) X w= a(u0 )u0 (∗) u0 ∈f (M )
schreiben. Da jedes u0 ∈ f (M ) sich wegen der bereits bewiesenen Injektivit¨at von f eindeutig als f (u) mit u ∈ M schreiben l¨asst, k¨onnen wir (∗) auch in X X w= a(u)f (u) = f ( a(u)u) u∈M
u∈M
umformen und sehen w ∈ f (V ). c) folgt direkt aus b). Korollar 4.23. Sei A ∈ M (p × n, K) eine p × n-Matrix mit Eintr¨agen aus dem K¨orper K. Dann ist der Zeilenrang von A gleich dem Spaltenrang von A. Beweis. Jede elementare Umformung (und damit auch jede Abfolge elementarer Umformungen) definiert, angewendet auf Vektoren x ∈ K p , eine umkehrbare Abbildung f : K p −→ K p , deren Linearit¨at man sofort nachpr¨ uft; die Abbildung f ist also ein Isomorphismus von K p auf sich. Formt man A durch elementare Umformungen in eine Matrix A0 in reduzierter Zeilenstufenform mit r = rg(A) = rg(A0 ) um, so ist, wie oben bemerkt, r die Dimension von U 0 := {b0 ∈ K p | A0 x = b0 hat eine L¨osung}. Ist f : K p −→ K p der zu der Abfolge elementarer Umformungen geh¨orige Isomorphismus, so ist offenbar U 0 = f (U ) mit U = {b ∈ K p | Ax = b hat eine L¨osung}, der Unterraum U ⊆ K p hat also die gleiche Dimension r = rg(A) wie U 0 . Da die Dimension von U der Spaltenrang von A ist, folgt die Behauptung. Bemerkung. Die Bezeichnungen Zeilenrang“ und Spaltenrang“ ha” ” ben sich damit als u ussig erwiesen und werden im Weiteren nicht ¨berfl¨ mehr vorkommen, man spricht nur noch vom Rang einer Matrix, der dann gleichzeitig die Maximalanzahl linear unabh¨angiger Zeilen und die Maximalanzahl linear unabh¨angiger Spalten der Matrix ist. Wir halten noch ein h¨aufig benutztes Kriterium f¨ ur die L¨osbarkeit eines linearen Gleichungssystems fest: Korollar 4.24. Sei K ein K¨orper, seien A ∈ M (p × n, K), b ∈ K p . Dann gilt: Das lineare Gleichungssystem Ax = b ist genau dann l¨osbar,
60
RAINER SCHULZE-PILLOT
wenn die Matrix A und die erweiterte Matris (A | b) ∈ M (p × (n + 1), K) den gleichen Rang haben. Beweis. Das Gleichungssystem ist genau dann l¨osbar, wenn b zur linearen H¨ ulle der Spaltenvektoren von A geh¨ort, wenn also der von den Spalten s1 , . . . , sn von A erzeugte Unterraum < s1 , . . . , sn > des K p gleich < s1 , . . . , sn , b > ist, Das ist aber ¨aquivalent zur Gleichheit der Dimensionen und damit zur Gleichheit der R¨ange von A und der erweiterten Matrix (A | b). Satz 4.25. Sei V ein K-Vektorraum der endlichen Dimension n, B = {w1 , . . . , wn } eine Basis von V . Dann sind die Abbildungen fB :
Kn −→ V a1 Pn ... 7−→ j=1 aj wj an
und
Kn a1 Pn .. . j=1 aj wj 7−→ an zueinander inverse bijektive lineare Abbildungen (Isomorphismen von K-Vektorr¨aumen). cB heißt die Koordinatenabbildung bez¨ uglich der Basis B. cB :
V
−→
Beweis. Die Abbildung cB ist wohldefiniert, da B eine Basis von V ist Pnund daher jeder Vektor v ∈ V eine eindeutige Darstellung v = j=1 aj wj hat. Dass fB und cB linear und zueinander invers sind, rechnet man sofort nach. Bemerkung. a) Ist V = K n und B die Standardbasis, so sind cB und fB beide die identische Abbildung IdV . b) Der Satz zeigt, dass jeder endlich dimensionale K-Vektorraum f¨ ur n = dimK (V ) zu K n isomorph ist, also f¨ ur jede Basis B durch fB parametrisiert wird. Durch seine Dimension ist also der Isomorphietyp eines (endlich erzeugten) Vektorraums eindeutig bestimmt. Umgekehrt kann man bei Vorgabe einer Basis B in V durch cB Koordinaten bez¨ uglich dieser Basis einf¨ uhren. Die Basis braucht dabei keine zus¨atzlichen Eigenschaften wie Rechtwinkligkeit (die ja auch in einem beliebigen Vektorraum gar nicht definiert ist) zu erf¨ ullen. Auch im K n kann man von der Standardbasis ab¨ weichende Basen angeben (das wird in den Ubungen geschehen) und dann die Koordinaten eines Vektors x bez¨ uglich dieser Basis einf¨ uhren, diese werden im allgemeinen nat¨ urlich von seinen Koordinaten xi bez¨ uglich der Standardbasis abweichen.
LINEARE ALGEBRA I, 2004/2005
61
c) Analog kann man zeigen, dass ein nicht endlich erzeugter Vektorraum mit Basis B isomorph zu K (B) ist und dass der Isomorphietyp dieses Vektorraums nur von der M¨achtigkeit von B abh¨angt. Wir wenden die Ergebnisse u ¨ber Basen auf endliche K¨orper an. Zun¨achst ¨ fassen wir die bereits in den Ubungen erzielten Ergebnisse zusammen: Definition und Lemma 4.26. Sei K ein K¨orper, f¨ ur n ∈ N sei n · 1K = 1K + · · · + 1K = | {z } n−mal
n X
1K ∈ K,
j=1
wo 1K das Einselement des K¨orpers bezeichnet. Dann gilt: a) Falls es ein n ∈ N \ {0} gibt mit n · 1K = 0, so ist char(K) := min{n ∈ N \ {0} | n · 1K = 0} eine Primzahl. Diese Zahl heißt Charakteristik von K. (Gibt es kein n ∈ N \ {0} wie oben, so ist char(K) = 0.) b) Ist char(K) 6= 0, so ist Prim(K) := {n · 1K | n ∈ N} ein Teilk¨orper von K, der zu Z/pZ isomorph ist. Ist char(K) = 0, so ist Prim(K) := {±
a · 1K | (a, b ∈ N, b 6= 0)} b · 1K
ein Teilk¨orper von K, der zu Q isomorph ist. In jedem Fall ist Prim(K) der Durchschnitt aller Teilk¨orper von K und heißt der Primk¨orper von K. ¨ Beweis. Das wurde im wesentlichen in den Ubungen gezeigt.
Satz 4.27. Sei L ein endlicher K¨orper. Dann ist |L| eine Potenz von char(L) (also insbesondere Potenz einer Primzahl). ¨ Beweis. Wie ebenfalls in den Ubungen gezeigt ist L ein Vektorraum ∼ u ¨ber seinem Primk¨orper K = Z/pZ (mit p = char(L)). Dieser Vektorraum ist sicher endlich erzeugt, da ja L selbst endlich ist, Also ist er isomorph zu K n f¨ ur ein n ∈ N und hat damit pn Elemente. Satz 4.28. (Dimensionsformel fu aume) Sei V ein K¨ r Unterr¨ Vektorraum, seien U1 , U2 zwei Unterr¨aume von V . Dann gilt dim(U1 + U2 ) + dim(U1 ∩ U2 ) = dim U1 + dim U2 . Beweis. Wir beweisen das im Fall, dass V endlich erzeugt ist. Sei {u1 , . . . , ur } eine Basis von U1 ∩U2 . Wir eg¨anzen sie durch Vektoren v1 , . . . , vs zu einer Basis von U1 und durch Vektoren w1 , . . . , wt zu einer Basis von U2 , haben also r+s = dim(U1 ), r+t = dim(U2 ). Die Vektoren u1 , . . . , ur , v1 , . . . , vs , w1 , . . . , wt erzeugen offenbar den Raum U1 + U2 .
62
RAINER SCHULZE-PILLOT
Sie sind linear unabh¨angig, denn ist r X
ai u i +
i=1
s X
bj vj +
j=1
t X
ck wk = 0
k=1
(mit ai , bj , ck ∈ K), so ist v :=
r X
ai u i +
i=1
s X
bj vj = −
j=1
t X
ck wk ∈ U1 ∩ U2 ,
k=1
Pr
0 i=1 ai ui
kann also als Linearkombination geschrieben werden. Da aber (u1 , . . . , ur , vP m¨ ussen die beiden Schreib1 , . . . , vs ) eine P Basis von U1 ist, P weisen v = ri=1 ai ui + sj=1 bj vj und v = ri=1 a0i ui u ¨bereinstimmen, 0 ur alle i. Damit ist das heißt, die bj sind gleich Null und ai = ai gilt f¨ dann aber r t X X ai u i + ck wk = 0 i=1
k=1
eine lineare Relation zwischen den Basisvektoren u1 , . . . , ur , , w1 , . . . , wt von U2 , also sind auch alle ai und alle ck gleich Null, was die behauptete lineare Unabh¨angigkeit zeigt. Die r + s + t = (r + s) + (r + t) − r = dim(U1 ) + dim(U2 ) − dim(U1 ∩ U2 ) Vektoren u1 , . . . , ur , v1 , . . . , vs , w1 , . . . , wt bilden also eine Basis von U1 + U2 , was die Behauptung beweist. Beispiel: • Eine Ursprungsgerade U1 im R3 , die nicht in der Ursprungsebene U2 liegt (U1 ∩ U2 = {0}), spannt mit ihr zusammen den R3 auf (dim(U1 + U2 ) = 3). • Zwei verschiedene Ebenen U1 und U2 durch den Ursprung im R3 schneiden sich in einer Geraden (dim(U1 ∩ U2 ) = 1) und spannen zusammen den R3 auf (dim(U1 + U2 ) = 3). Definition und Lemma 4.29. Sind U1 , U2 Unterr¨aume des K-Vektoraums V mit U1 ∩ U2 = {0}, so heißt ihre Summe U1 + U2 auch eine direkte Summe; man schreibt U1 ⊕ U2 . Es gilt dann dim(U1 ⊕ U2 ) = dim U1 + dim U2 , und jeder Vektor v ∈ U1 ⊕ U2 l¨asst sich auf genau eine Weise als v = u1 + u2 mit u1 ∈ U1 , u2 ∈ U2 schreiben. Ferner gilt in diesem Fall: Ist (v1 , . . . , vr ) eine Basis von U1 , (w1 , . . . , ws ) eine Basis von U2 , so ist (v1 , . . . , vr , w1 , . . . , ws ) eine Basis von U1 ⊕U2 . Ist U1 ⊕ U2 = V , so heißen U1 und U2 auch zueinander komplement¨ar. ¨ Beweis. Siehe Ubungen.
Lemma 4.30. Ist U ⊆ V ein Unterraum des K-Vektorraums V , so gibt es einen zu U komplement¨aren Unterraum U 0 von V .
LINEARE ALGEBRA I, 2004/2005
63
Beweis. Man erg¨anze (im endlich erzeugten Fall) eine Basis {u1 , . . . , ur } von U durch Vektoren u01 , . . . , u0s zu einer Basis von V . Der Raum U 0 :=< u01 , . . . , u0s > ist dann ein zu U komplement¨arer Unterraum.
Bemerkung. Im allgemeinen gibt es viele verschiedene M¨oglichkeiten, einen komplement¨aren Unterraum zu einem gegebenen Unterraum U ⊆ V zu finden. Ist etwa U ⊆ R3 eine Ebene durch den Ursprung, so sind alle Geraden durch den Ursprung, die nicht in dieser Ebene liegen, komplement¨are Unterr¨aume (und nicht etwa nur die eine, die senkrecht auf der Ebene steht). Bemerkung. Der Gauß-Algorithmus, mit dessen Hilfe man eine Matrix bzw. ein lineares Gleichungssystem auf Zeilenstufenform bringen kann, macht es nach Wahl einer Basis m¨oglich, alle Grundaufgaben der linearen Algebra in algorithmischer Weise zu l¨osen. Diese Aufgaben seien hier noch einmal zusammengestellt: • Gegeben seien Vektoren a1 , . . . , ar ∈ K n . Man finde eine Basis von ha1 , . . . , ar i! (Allgemein: Gegeben Vektoren w1 , . . . , wr ∈ V (ausgedr¨ uckt als Linearkombinationen der Vektoren v1 , . . . , vn einer vorgegebenen Basis von V ). Man finde eine Basis von hw1 , . . . , wr i). L¨osung: Im allgemeinen Fall gehe man zu Koordinatenvektoren bez¨ uglich der gegebenen Basis u ¨ber; es reicht also, den Fall V = K n zu behandeln. Hier betrachte man die Matrix mit den Zeilen t a1 , . . . , t ar . Man forme sie in Zeilenstufenform um, die nicht verschwindenden Zeilen bilden eine Basis. • Gegeben sei eine Basis (v1 , . . . , vn ) von V und linear unabh¨angige Vektoren u1 , . . . , ur . Man finde Indizes j1 , . . . , jr , so dass (v1 , . . . , vn ) bei Austausch von vj1 , . . . , vjr durch u1 , . . . , ur eine neue Basis von V liefert. L¨osung: Siehe das Beispiel und die Bemerkung nach Satz 3.14. • Gegeben Vektoren a1 , . . . , an ∈ K p , U = ha1 , . . . , an i. Man finde ein lineares Gleichungssystem, dessen L¨osungsraum U ist. (Das entsprechende Problem in einem allgemeinen Vektorraum wird wie im ersten Punkt durch Betrachten von Koordinaten auf das Problem in K n zur¨ uckgef¨ uhrt.) L¨osung: Man betrachte die Matrix A ∈ M (p × n, K), deren Spalten a1 , . . . , an sind. U ist dann die Menge aller b ∈ K p , f¨ ur die das lineare Gleichungssystem Ax = b l¨osbar ist. Man bringe die erweiterte Matrix (A|b) ∈ M (p × (n + 1), K) durch elementare Zeilenumforungen auf Zeilenstufenform (A0 |b0 ), bei der alle Zeilen von A0 ab der (r + 1)-ten nur Nullen enthalten
64
RAINER SCHULZE-PILLOT
(r = r(A) = Zeilenrang von A). Man hat dann p X cij bj f¨ ur 1 ≤ i ≤ p b0i = j=1
mit gewissen cij ∈ K, und Ax = b ist genau dann l¨osbar, wenn b0r+1 = · · · = b0p = 0 ist. Das System aus den linearen Gleichungen p X cij bj = 0 (r < i ≤ p) j=1
in den Variablen b1 , . . . , bp hat also genau den L¨osungsraum U . • Gegeben seien Unterr¨aume U1 , U2 von V (durch Angabe von Erzeugenden). Man finde Basen von U1 ∩ U2 , U1 + U2 . L¨osung: Nimmt man die im vorigen Punkt gewonnenen linearen Gleichungssysteme, deren L¨osungsr¨aume U1 und U2 sind, so ist U1 ∩ U2 genau die Menge aller Vektoren, die allen Gleichungen zusammen gen¨ ugen. Das Gauß-Verfahren liefert eine Basis dieses L¨osungsraumes. U1 + U2 ist der Raum, der von allen angegebenen Erzeugern zusammen aufgespannt wird; wie im ersten Punkt angegeben findet man eine Basis. Anzumerken ist noch, dass es in Einzelf¨allen h¨aufig schnellere und elegantere L¨osungen als die hier angegebenen gibt.
LINEARE ALGEBRA I, 2004/2005
65
5. Lineare Abbildungen und Matrizen Satz 5.1. V und W seien K-Vektorr¨aume (K ein K¨orper), B = {v1 , . . . , vn } eine Basis von V , w1 , . . . , wn ∈ W beliebige Vektoren in W . Dann gibt es genau eine lineare Abbildung f : V −→ W mit f (vi ) = wi f¨ ur 1 ≤ i ≤ n (zu jeder Vorgabe von Bildern der Basisvektoren existiert genau eine lineare Abbildung, die diese Vorgabe erf¨ ullt, die lineare Fortsetzung der Vorgabe auf den Basisvektoren). Ist (u1 , . . . , ur ) ein beliebiges linear unabh¨angiges Vektorsystem in V und sind w1 , . . . , wr ∈ W gegeben, so gibt es wenigstens eine lineare Abbildung f : V −→ W mit f (ui ) = wi f¨ ur 1 ≤ i ≤ r (auch diese heißt dann eine lineare Fortsetzung der Vorgabe ui 7→ wi ). Beweis. Offenbar gibt es h¨ochstens eine lineare Abbildung f : V −→ W mit f (vi ) = wi f¨ ur 1 ≤ i ≤ r, denn f¨ ur jede solche Abbildung liegen die Werte auf beliebigen Vektoren v ∈ V durch n n n X X X f( aj vj ) = aj f (vj ) = aj wj j=1
j=1
j=1
wegen der Linearit¨at fest. Umgekehrt kann man durch n n X X f( aj vj ) := aj wj j=1
j=1
wegen der eindeutigen Darstellbarkeit jedes Vektors aus V als Linearkombination der Basisvektoren eine wohldefinierte Abbildung f : V −→ W angeben, die offenbar die Bedingung f (vi ) = wi f¨ ur 1 ≤ i ≤ r erf¨ ullt und deren Linearit¨at man leicht nachrechnet. F¨ ur die zweite Behauptung erg¨anze man (u1 , . . . , ur ) zu einer Basis von V und wende den ersten Teil an. Die Voraussetzung der linearen Unabh¨angigkeit der Vektoren u1 , . . . , ur bzw. v1 , . . . , vn in diesem Satz kann nicht fortgelassen werden, da die Bilder von Vektoren ui ∈ V unter der linearen Abbildung f alle linearen Relationen erf¨ ullen m¨ ussen, die zwischen den ui gelten: Lemma 5.2. V, W seien K-Vektorr¨aume, f : V −→ W eine lineare Abbildung. Dann gilt: Ist (v1 , . . . , vn ) ∈ V n linear abh¨angig, so ist auch (f (v1 ), . . . , f (vn )) linear abh¨angig. Geauer gilt: Ist f : V −→ WP eine lineare Abbildung mitP f (vi ) = wi und sind ai ∈ K(1 ≤ i ≤ n) mit ni=1 ai vi = 0, so ist auch ni=1 ai wi = 0. Beweis. Klar.
Beispiel: Ist V = R2 , W = R3 , v1 , v2 , v3 ∈ V beliebige Vektoren, (w1 , w2 , w3 ) in W linear unabh¨angig, so gibt es keine lineare Abbildung
66
RAINER SCHULZE-PILLOT
f : V −→ W mit f (vi ) = wi f¨ ur 1 ≤ i ≤ 3 (da die vi und damit nach dem Lemma f¨ ur lineares f auch die f (vi ) notwendig linear abh¨angig sind). Korollar 5.3. V und W seien K-Vektorr¨aume (K ein K¨orper), (v1 , . . . , vn ) eine Basis von V , (w1 , . . . , wp ) eine Basis von W , A ∈ M (p × n, K) eine p × n-Matrix. Dann gibt es genau eine lineare Abbildung f : V −→ W mit f (vj ) =
p X
aij wi
f¨ ur 1 ≤ j ≤ n.
i=1
Ist insbesondere V = K n , W = K p , (v1 , . . . , vn ) und (w1 , . . . , wp ) die Standardbasen von K n bzw K p , so ist f gleich der Abbildung LA aus Lemma 3.10. f entsteht durch lineare Fortsetzung der Vorgabe f (vj ) = P i aij wi . Beweis. Das folgt direkt aus Satz 5.1 u ¨ber die lineare Fortsetzung von Abbildungen. Definition und Lemma 5.4. Sei K ein K¨orper. a) Die Menge HomK (V, W ) der linearen Abbildungen des K-Vektorraums V in den K-Vektorraum W ist ein Unterraum des Vektorraums Abb(V, W ) aller Abbildungen von V nach W . Ist V = W , so schreibt man EndK (V ) := HomK (V, W ), die linearen Selbstabbildungen von V nennt man auch Endomorphismen. b) Die Menge M (p × n, K) ist mit komponentenweise definierter Addition und Multiplikation mit Skalaren λ ∈ K ein zu K pn isomorpher K-Vektorraum. c) Bezeichnet man f¨ ur A ∈ M (p × n, K) mit t A die n × p-Matrix t A = B = (bij ) mit bij = aji f¨ ur 1 ≤ i ≤ n, 1 ≤ j ≤ p, so wird durch A 7→ t A ein Isomorphismus M (p × n, K) −→ M (n × p, K) gegeben. Die Matrix t A heißt die zu A transponierte Matrix (seltener: gest¨ urzte Matrix), ihre Zeilen sind die Spalten von A und umgekehrt. ¨ Beweis. a) wurde in den Ubungen gezeigt, b) und c) sind klar.
Bemerkung. Da Zeilenvektoren der L¨ange n auch als 1 × n-Matrizen, Spaltenvektoren der L¨ange n als n × 1-Matrizen aufgefasst werden k¨onnen, verallgemeinert c) der Definition die Notation t z f¨ ur die Zeilenvektoren einer Matrix. Korollar 5.5. Sei HomK (V, W ) der K-Vektorraum der linearen Abbildungen des K-Vektorraums V in den K-Vektorraum W . Seien B = (v1 , . . . , vn ) und B 0 = (w1 , . . . , wp ) Basen von V bzw. W .
LINEARE ALGEBRA I, 2004/2005
67
F¨ ur f ∈ HomK (V, W ) mit f (vj ) =
p X
aij wi
i=1
sei MBB0 (f ) := (aij ) .
(5.1)
F¨ ur A = (aij ) ∈ M (p × n, K) sei fBB0 (A) die lineare Fortsetzung der Vorgabe P fBB0 (A)(vj ) := pi=1 aij wi . (5.2) Dann werden durch (5.3)
f − 7 → MBB0 (f ) A 7−→ fBB0 (A)
zueinander inverse Isomorphismen von K-Vektorr¨aumen zwischen HomK (V, W ) und M (p × n, K) gegeben. MBB0 (f ) heißt die Matrix von f bez¨ uglich der Basen B, B 0 . Ist V = W so schreibt man auch MB (f ) := MBB (f ),
fB (A) := fBB (A).
Beweis. In Korollar 5.3 wurde gezeigt, dass zu A ∈ M (p × n, K) genau eine lineare Abbildung fBB0 (A) wie in (5.2) existiert. Dass die beiden Abbildungen f 7−→ MBB0 (f ) und A 7−→ fBB0 (A) zueinander invers sind, ist klar, dass sie linear sind, rechnet man nach. Bemerkung. a) Man hat also (nach Wahl von Basen in Bild- und Urbildraum) eine einfache Beschreibung f¨ ur lineare Abbildungen: Diese entsprechen genau den pn-Tupeln von Elementen im Grundk¨orper K, die als Eintr¨age der zugeordneten Matrix auftreten. Allgemeine Abbildungen, die nicht die Linearit¨atsbedingung erf¨ ullen, sind erheblich schwieriger zu beschreiben. b) Die Korrespondenz zwischen linearen Abbildungen auf der einen Seite und Matrizen auf der anderen Seite h¨angt wesentlich von der Auswahl der Basen B, B 0 in V, W ab, wir werden im n¨achsten Abschnitt untersuchen, wie sie sich ¨andert, wenn man zu anderen Basen u ¨bergeht. c) Die j-te Spalte der der Abbildung f zugeordneten Matrix ist der Koordinatenvketor von f (vj ) bez¨ uglich der Basis B 0 . n p d) Ist V = K , W = K und sind B, B 0 die jeweiligen Standardbasen, so hat man fBB0 (A) = LA ,
MBB0 (LA ) = A.
Ein wichtiger Spezialfall entsteht, wenn man speziell als Bildraum W den Grundk¨orper K betrachtet:
68
RAINER SCHULZE-PILLOT
Definition und Korollar 5.6. Sei V ein Vektorraum u ¨ber dem K¨orper 0 K mit Basis B = (v1 , . . . , vn ), sei B die (einelementige) Basis {1} = B 0 des K-Vektorraums K. Der Vektorraum HomK (V, K) =: V ∗ heißt der Dualraum von V , er ist zu K n und damit zu V durch die Abbildung f (v1 ) (5.4) f 7→ ... = t (MBB0 (f )) f (vn ) isomorph. Die Elemente des Dualraums heißen auch Linearformen oder lineare Funktionale. Das Urbild des j-ten Vektors ej der Standardbasis von K n unter diesem Isomorphismus wird mit vj∗ bezeichnet; es gilt ( 1 falls i = j (5.5) vj∗ (vi ) = δij := 0 sonst (das Symbol δij in obiger Bedeutung heißt Kronecker-Delta (Leopold Kronecker, 1823-1891)). {v1∗ , . . . , vn∗ } heißt die zu {v1 , . . . , vn } duale Basis von V ∗ . P Bemerkung. Da vi∗ ( nj=1 xj vj ) = xi gilt, heißen die vi∗ auch die Koordinatenfunktionen zur Basis B = (v1 , . . . , vn ). Es gilt ∗ v1 (v) cB (v) = ... f¨ ur alle v ∈ V ; ∗ vn (v) man schreibt auch ∗ v1 cB = ... . vn∗ Beispiele: • V = W = R2 , B = B 0 beliebige Basis von V , f (v) = rv (0 < r ∈ R) die Streckung um den Faktor r: r 0 B MB0 (f ) = 0 r (unabh¨angig von B = B 0 ). • V = W = R2 , f = Dϕ = Drehung um den Winkel ϕ im Gegen 1 0 uhrzeigersinn, B = B = Standardbasis aus 0 = e1 , 01 = e2 . Man hat cos ϕ − sin ϕ B MB0 (Dϕ ) = sin ϕ cos ϕ
LINEARE ALGEBRA I, 2004/2005
69
(Drehmatrix). Bei gleichzeitiger Streckung um den Faktor r hat man die Matrix r cos ϕ −r sin ϕ r sin ϕ r cos ϕ f¨ ur die Drehstreckung. • V = W = R2 , f sei die lineare Abbildung mit f (e1 ) = re1 , f (e2 ) = e2 (Streckung um den Faktor r in x-Richtung, Scherung) (0 < r ∈ R). Bez¨ uglich der Standardbasen hat f die Matrix r 0 . 0 1 • V = W = R2 , 0 < r ∈ R, f sei die lineare Abbildung mit f (e1 + e2 ) = r(e1 + e2 ), f (e1 − e2 ) = e1 − e2 (Streckung in Richtung der Geraden y = x um den Faktor r). Ist B1 = B10 = {e1 + e2 , e1 − e2 }, so ist r 0 B1 . MB0 (f ) = 1 0 1 Bez¨ uglich der Standardbasis B2 = B20 = {e1 , e2 } ist r+1 r−1 B2 2 2 . MB0 (f ) = r−1 r+1 2
2
2
In der Matrixbeschreibung bez¨ uglich B2 sieht man die geometrischen Eigenschaften von f wesentlich schlechter als in der Beschreibung bez¨ uglich B1 . Lemma 5.7. V, W seien K-Vektorr¨aume, f : V −→ W eine lineare Abbildung. Dann sind ¨quivalent: a) f ist injektiv. b) Sind v1 , . . . , vr ∈ V linear unabh¨angig, so sind f (v1 ), . . . , f (vr ) ∈ W linear unabh¨angig. c) F¨ ur jede Basis B = (vi )i∈I von V bilden die Vektoren (f (vi ))i∈I eine Basis des Bildes Im(f ) ⊆ W von f . ¨ Beweis. Ubung (siehe auch Lemma 4.22)
Korollar 5.8. V und W seien K-Vektorr¨aume. a) Ist f : V −→ W linear, so gilt genau dann dim(Im(f )) = dim V , wenn f injektiv ist. b) V und W sind genau dann isomorph, wenn sie die gleiche Dimension haben. c) Ist dim V = dim W und f : V −→ W linear, so ist f genau dann injektiv, wenn es surjektiv ist. Beweis. a) und b) sind direkte Folgerungen aus dem Lemma. Die Behauptung c) folgt aus a) und b).
70
RAINER SCHULZE-PILLOT
Wir betrachten jetzt den Zusammenhang zwischen Matrizen und linearen Abbildungen weiter, vor allem wollen wir sehen, was f¨ ur die Matrizen der Komposition (Hintereinanderausf¨ uhrung) von linearen Abbildungen entspricht. Definition 5.9. (Matrizenprodukt) Sei K ein K¨orper. F¨ ur Matrizen A ∈ M (r × p, K) und B ∈ M (p × n, K) ist das Produkt AB ∈ M (r × n, K) definiert durch p X aij bjk (1 ≤ i ≤ r, 1 ≤ k ≤ n). AB = C = (cik ) mit cik = j=1
(F¨ ur Matrizen A, B, bei denen die Zeilenanzahl von B nicht gleich der Spaltenanzahl von A ist, ist ein Matrizenprodukt nicht definiert.) Beispiele: b1 .. ∈ M (n × 1, K). • A = (a1 , . . . , an ) ∈ M (1 × n, K), B = . bn Dann ist AB = (a1 b1 + · · · + an bn ) ∈ M (1 × 1, K). (1 × 1-Matrizen identifiziert man meist mit K¨orperelementen). Das verallgemeinert das bekannte Skalarprodukt im R3 . Dagegen ist BA ∈ M (n × n, K) die n × n-Matrix mit ij-Eintrag ai bj . Man identifiziert meist n × 1-Matrizen mit als Spalten geschriebenen Vektoren, 1 × n-Matrizen nennt man dann Zeilenvektoren und schreibt den Zeilenvektor wie schon fr¨ uher benutzt als a1 t (a1 , . . . , an ) = a mit a = ... . an Das “Skalarprodukt” von a und b in K n im obigen Sinne ist dann also t a · b. • Die Faustregel f¨ ur das Ausrechnen von Matrixprodukten ist: Den ik-Eintrag von AB erh¨alt man, indem man die i-te Zeile von A mit der k-ten Spalte von B multipliziert (als Skalarprodukt im obigen Sinne). Damit das geht, muss nat¨ urlich die L¨ange einer Zeile von A (= Spaltenanzahl von A) gleich der L¨ange einer Spalte von B (= Zeilenanzahl von B) sein. 1 2 5 6 • Sei A = ,B= in M (2 × 2, R). 3 4 7 8 19 22 23 34 Dann ist AB = , BA = . 43 50 31 46 Insbesondere ist AB 6= BA, die Matrixmultiplikation ist also selbst dann nicht kommutativ, wenn AB und BA das gleiche Format haben.
LINEARE ALGEBRA I, 2004/2005
71
Lemma 5.10. Das Matrizenprodukt ist assoziativ und distributiv (also (AB)C = A(BC), A(B+C) = AB+AC, (A+B)C = AC +BC), wenn die vorkommenden Produkte und Summen definiert sind, insbesondere ist jeweils die linke Seite genau dann definiert, wenn die rechte Seite definiert ist. Beweis. Man rechnet das nach. F¨ ur die Assoziativit¨at hat man etwa: Seien A ∈ M (s × r, K), B ∈ M (r × p, K), C ∈ M (p × n, K). Der il-Eintrag (1 ≤ i ≤ r, 1 ≤ l ≤ n) der r × n-Matrix (AB)C ist p p r r X X X X ( aij bjk )ckl = aij ( bjk ckl ), k=1 j=1
j=1
k=1
also gleich dem il- Eintrag von A(BC).
Bemerkung: Die Matrix En ∈ M (n × n, K), deren Diagonaleintr¨age 1 sind und f¨ ur die alle anderen Eintr¨age 0 sind, heißt die n × nEinheitsmatrix (En = (δij ), wo δij das Kronecker-Delta ist). F¨ ur diese gilt: En A = A BEn = B
f¨ ur alle A ∈ M (n × r, K), f¨ ur alle B ∈ M (p × n, K).
Insbesondere hat man in der Menge M (n × n, K) mit + und Matrizenprodukt zwei Verkn¨ upfungen, f¨ ur die alle K¨orperaxiome mit Ausnahme der Kommutativit¨at der Multiplikation und der Existenz multiplikativer Inverser erf¨ ullt sind. Man sagt, M (n × n, K) =: Mn (K) sei ein Ring (mit Einselement En ), der Matrizenring vom Grad oder von der Ordnung n. Dass multiplikative Inverse nicht immer existieren, sieht man etwa an 0 1 0 1 0 0 = . 0 0 0 0 0 0 Lemma 5.11. Sei K ein K¨orper, A ∈ M (p×m, K), B ∈ M (m×n, K). Dann gilt: t (AB) = t B t A. Beweis. Man rechne das nach.
Lemma 5.12. V und W seien K-Vektorr¨aume mit Basen B = (v1 , . . . , vn ), B 0 = (w1 , . . . , wp ). Sei f : V −→ W linear, A = MBB0 (f ) die Matrix von A bez¨ uglich der Basen B und B 0 . Sei p n X X x= xi vi ∈ V mit f (x) = y = yi wi . j=1
i=1
Dann ist y1 x1 ... = A · ... . yp xn
72
RAINER SCHULZE-PILLOT
Insbesondere ist die Abbildung LA : K n −→ K p aus Lemma 2.7 durch das Matrizenprodukt gegeben: LA (x) = A · x (wobei K n mit M (n × 1, K) identifiziert wird). Man hat das kommutative Diagramm f
V −→ ↓ cB LA K n −→
W ↓ cB 0 Kp
(d.h., cB0 ◦ f = LA ◦ cB ). Beweis. Es gilt n n X X f( xj vj ) = xj f (vj ) j=1
=
j=1 n X j=1
xj
m X
aij wi
i=1
m X n X = ( aij xj )wi . i=1 j=1
Koeffizientenvergleich mit dem Ausdruck m X f (x) = yi wi i=1
liefert also die erste Behauptung. Die zweite Behauptung ist nach Definition von LA eine direkte Folgerung aus der ersten. Lemma 5.13. U, V, W seien K-Vektorr¨aume mit endlichen Basen B, B 0 , B 00 . Ferner seien lineare Abbildungen f : U −→ V,
g : V −→ W
gegeben. Dann ist 0
MBB00 (g ◦ f ) = MBB00 (g)MBB0 (f ). (Die Matrix der Komposition g ◦ f ist das Produkt aus der Matrix von g und der Matrix von f .) Beweis. Auch hier hilft wieder nur stures Nachrechnen: Sind B = {u1 , . . . , un }, B 0 = {v1 , . . . , vp }, B 00 = {w1 , . . . , wr } so hat man 0 nach Definition der der Abbildung zugeordneten Matrix mit MBB00 (g) = B = (bij ), MBB0 (f ) = A = (ajk ) p p X X f (uk ) = ajk vj , g(vj ) = bij wi , j=1
i=1
LINEARE ALGEBRA I, 2004/2005
73
wendet man g auf f (uk ) an, so erh¨alt man also p X
(g ◦ f )(uk ) =
j=1 p
X
=
ajk g(vj ) r X ajk ( bij wi )
j=1 r X
=
i=1 p
X ( bij ajk )wi ,
i=1 j=1
was die Behauptung zeigt, da
Pp
j=1 bij ajk
der ik-Eintrag von BA ist.
Bemerkung. Man h¨atte sich immerhin das Nachrechnen der Assoziativit¨at der Matrizenmultiplikation ersparen k¨onnen: Da man ja schon weiß, dass die Komposition von Abbildungen assoziativ ist, kann man aus Lemma 5.13 und der bijektiven Korrespondenz zwischen Matrizen und linearen Abbildungen schließen, dass auch die Matrizenmultiplikation assoziativ sein muss. Zugegebenermaßen wirkt die Methode des direkten Nachrechnens intuitiv doch vertrauenerweckender als dieser arbeitssparende Trick. Definition und Korollar 5.14. Sei f : V −→ W eine lineare Abbildung von K-Vektorr¨aumen. Dann ist der Rang von f definiert als rg(f ) := dim(Im(f )). Sind B, B 0 endliche Basen von V und W und A = MBB0 (f ) die Matrix von f bez¨ uglich B, B 0 , so ist der Rang von f gleich dem Rang der Matrix A. Insbesondere gilt in diesem Fall: a) f ist genau dann surjektiv, wenn rg(A) = dim(W ) gilt. b) f ist genau dann injektiv, wenn rg(A) = dim(V ) gilt. Beweis. Wir wissen bereits, dass der Rang der linearen Abbildung LA : K n −→ K m gleich rg(A) ist, und aus dem zweiten Teil von Lemma 5.12 folgt, dass LA und f gleichen Rang haben, da das Bild von f durch die Koordinatenabbildung cB0 isomorph auf das von LA abgebildet wird. Die Behauptung a) ist damit sofort klar. F¨ ur b) stellen wir zun¨achst fest, dass wiederum nach Lemma 5.12 die Abbildungen f und LA gleichzeitig injektiv sind (d.h., die Injektivit¨at von f ist ¨aquivalent zur Injektivit¨at von LA ). Da die Injektivit¨at von LA gleichwertig dazu ist, dass das Gleichungssystem Ax = 0 nur die triviale L¨osung hat, folgt b) aus dem, was wir u ¨ber lineare Gleichungssysteme gezeigt haben. Definition und Korollar 5.15. Eine Matrix A ∈ M (n × n, K) heißt invertierbar, wenn es eine Matrix B ∈ M (n × n, K) gibt mit AB =
74
RAINER SCHULZE-PILLOT
BA = En (man nennt invertierbare Matrizen auch regul¨ar, nicht invertierbare Matrizen singul¨ar). F¨ ur die K-Vektorr¨aume V, W seien Basen B = (v1 , . . . , vn ) bzw. B 0 = (w1 , . . . , wp ) gegeben, f : V −→ W sei linear mit A = MBB0 (f ) ∈ M (p × n, K). Dann gilt: a) Es gibt genau dann B ∈ M (n × p, K) mit AB = Ep , wenn f surjektiv ist (oder ¨aquivalent: wenn rg(A) = p gilt). b) Es gibt genau dann B 0 ∈ M (n × p, K) mit B 0 A = En , wenn f injektiv ist (oder ¨aquivalent: wenn rg(A) = n gilt). c) A ist genau dann invertierbar, wenn f bijektiv ist. d) Die regul¨aren Matrizen in M (n×n, K) bilden eine Gruppe; diese wird mit GLn (K) bezeichnet, sie heißt die allgemeine lineare Gruppe bzw. auf Englisch general linear group. Beweis. c) ist eine direkte Folgerung aus a) und b). F¨ ur d) muss man nur nachpr¨ ufen, dass das Produkt zweier invertierbarer Matrizen in¨ vertierbar ist (Ubung: Warum ist der Rest dieser Behauptung klar?); das folgt aber aus (AB)−1 = B −1 A−1 . a) und b) kann man, wenn man will, durch L¨osen linearer Gleichungssysteme zeigen: F¨ ur a) u ¨berlegt man sich, dass die L¨osbarkeit der Matrixgleichung AB = Ep ist a¨quivalent ist zur L¨osbarkeit von Ax = b ¨ f¨ ur jedes b, b) f¨ uhrt man auf a) zur¨ uck, indem man die Aquivalenz von 0 t t 0 B A = En mit A B = En feststellt. Alternativ (und konzeptioneller) kann man f¨ ur a) so vorgehen: AB = p Ep ist ¨aquivalent zu LA ◦ LB = IdK . Gilt diese Gleichung, so ist bekanntlich LA surjektiv und LB injektiv, und die Surjektivit¨at von LA ist gleichwertig zu der von f . Ist umgekehrt f surjektiv, so gibt es Vektoren v10 , . . . , vp0 ∈ V mit f (vi0 ) = wi . Es gibt dann (genau eine) lineare Abbildung g : W −→ V mit g(wi ) = vi0 f¨ ur 1 ≤ i ≤ p, f¨ ur dieses g ist dann offenbar f ◦ g = IdW . Analog zeigt man b). ¨ Beispiel: Als Ubung zeige man, dass f¨ ur ( ac db ) ∈ M (2 × 2, K) gilt: a b d −b d −b a b = c d −c a −c a c d ad − bc 0 = 0 ad − bc = (ad − bc)E2 . Es folgt, dass ( ac db ) ∈ M (2 × 2, K) genau dann invertierbar ist, wenn ad − bc 6= 0 gilt. Korollar 5.16. Sei K ein K¨orper, A ∈ M (p × m, K), B ∈ M (m × n, K). Dann ist rg(AB) ≤ min(rg(A), rg(B)).
LINEARE ALGEBRA I, 2004/2005
75
Beweis. Da der Rang von AB gleich der Dimension des Bildes der linearen Abbildung LA ◦LB ist und dieses Bild offenbar gleich LA (LB (K m )) ⊆ LA (K p ) ist, ist sofort rg(AB) ≤ rg(A) klar. Da aber die Dimension von LA (LB (K m )) nicht gr¨oßer sein kann als die von LB (K m ), folgt auch rg(AB) ≤ rg(B). Beispiele: Sei V = W = R2 , B = B 0 die Standardbasis. F¨ ur Winkel α und β impositiven Sinn hat die Drehung Dα um α die Matrix cos α − sin α , analog f¨ ur Dβ . Da Dα ◦ Dβ = Dα+β gilt, ist die Aussin α cos α sage von Lemma 5.13 hier ¨aquivalent zu den Additionstheoremen f¨ ur Sinus und Cosinus: sin(α + β) = sin α · cos β + cos α · sin β cos(α + β) = cos α · cos β − sin α · sin β . Speziell hat die Drehung um 90o die Matrix 0 −1 J= mit J 2 = −E2 1 0 (= Matrix der Drehung um 180o ). Satz 5.17. Sei C := hE2 , Ji der von den Matrizen E2 und J = 0 −1 aufgespannte Unterraum von M (2 × 2, R). 1 0 Dann gilt: C ist (bez¨ uglich der Matrizenverkn¨ upfungen) ein K¨orper mit Einselement 1 = E2 ; f¨ ur das Element i := J gilt i2 = −1. Die Teilmenge {aE2 | a ∈ R} ist ein zu R isomorpher Teilk¨orper, der im allgemeinen mit R identifiziert wird; man schreibt dann auch 1 f¨ ur E2 und a f¨ ur aE2 . Der K¨orper C heißt der K¨orper der komplexen Zahlen, i die imagin¨are Einheit. In C hat jedes Element z eine eindeutige Darstellung z = a+bi mit a, b ∈ R und es gelten die Rechenregeln (a + bi)(c + di) = (ac − bd) + (ad + bc)i a − bi (a + bi)−1 = 2 falls a + bi 6= 0 ist. a + b2 Beweis. Man rechnet nach, dass i2 = −E2 gilt und folgert daraus sofort die angegebene Rechenregel und die multiplikative Abgeschlossenhheit von C. Die G¨ ultigkeit der Assoziativ- und Distributivgesetze folgt aus deren G¨ ultigkeit f¨ ur den Matrizenring, ebenso die Gruppeneigenschaft von (C, +) und die Tatsache, dass E2 multiplikativ neutral ist. Dass die auf C eingeschr¨ankte Matrizenmultiplikation kommutativ ist, rechnet man sofort nach, und dass jedes von Null verschiedene Element a + bi = ab −b invertierbar ist, folgt aus dem a Beispiel nach Definition und a −b Korollar 5.15: Danach ist a+bi = b a genau dann invertierbar, wenn
76
RAINER SCHULZE-PILLOT
a2 + b2 = 0 gilt, und dann gilt die angegebene Formel f¨ ur das inverse Element. Bemerkung: • Der K¨orper C ist algebraisch abgeschlossen, d.h., dass jedes Polynom p(x) = a0 + a1 x + · · · + an xn mit Koeffizienten a0 , . . . , an in C eine Nullstelle in C hat. Daraus folgt (siehe den sp¨ateren Paragraphen u ¨ber Polynome), dass f¨ ur jedes Polynom p wie oben (mit an 6= 0) gilt: Es gibt z1 , . . . , zn ∈ C mit p(x) = an (x − z1 ) . . . (x − zn ) (die zi sind dabei nicht notwendig verschieden). Zum Beispiel gilt in C: x2 + 1
= (x + i)(x − i)
(x3 − 1) = (x − 1)(x + 21 −
√
3 i)(x 2
+ 21 +
√
3 i). 2
• Den K¨orper C veranschaulicht man sich meist in der Gauß’schen Zahlenebene: a Dem Element z = a + ib wird der Punkt in der Ebene zub geordnet, der Punkt, den also gerade man durch Anwendung der a −b 1 Matrix auf den Punkt erh¨alt. b a 0 √ Setzt man r := a2 + b2 , so kann man a = r cos ϕ, b = r sin ϕ a −b mit einem geeigneten Winkel ϕ schreiben, die Matrix b a ist also die Matrix einer Drehstreckung, die sich aus einer Streckung um den Faktor r und einer Drehung um den Winkel ϕ zusammensetzt. Man sieht, dass dann r gerade der Abstand des Punktes ( ab ) vom Ursprung und ϕ der Winkel des Ortsvektors mit der x-Achse ist. F¨ ur die komplexe Zahl cos ϕ+i sin ϕ ergibt sich in der Analysis die Darstellung cos ϕ + i sin ϕ = exp(iϕ) (Der Winkel ϕ wird dabei im Bogenmaß gemessen).
Zusammenfassung Matrizen und lineare Abbildungen f : V −→ W sei eine lineare Abbildung (V, W endlichdimensionale K-Vektorr¨aume). 1. Eine lineare Abbildung f : V −→ W ist bestimmt durch die Bilder der Basisvektoren von V , zu jeder Vorgabe von Bildern
LINEARE ALGEBRA I, 2004/2005
77
existiert genau eine lineare Abbildung (lineare Fortsetzung der Vorgabe auf den Basisvektoren). (auch g¨ ultig bei unendlicher Dimension) Entscheidender Punkt: Eindeutige Darstellung der Vektoren von V als Linearkombinationen der Basisvektoren. 2. Nach Punkt 1 wird f eindeutig charakterisiert durch Angabe der Koordinaten aij der f (vj ) bez¨ uglich der Basisvektoren wi in W . Diese Koeffizienten werden in der Matrix A = MBB0 (f ) zusammengefasst. Der Zusammenhang zwischen Matrix und Abbildung ist P f (vj ) = aij wi Pn Pp f ( j=1 xj vj ) = mit i=1 yi wi y1 x1 . .. = A · ... . yp xn 3. Ist f : V −→ W linear, so hat das Bild f (V ) = Im(f ) Dimension ≤ dim V . Wir werden im n¨achsten Abschnitt sehen, dass die Differenz gerade die Dimension des Kerns von f ist (Dimensionsformel). Also: Eine lineare Abbildung kann nicht die Dimension vergr¨oßern. 4. Zur Hintereinanderausf¨ uhrung (Komposition) von Abbildungen geh¨ort das Produkt der zugeh¨origen Matrizen. Der (ik)-Koeffizient des Produkts AB ist das “Skalarprodukt” aus i-ter Zeile von A und k-ter Spalte von B. 5. Die Matrix A ∈ M (p × n, K) geh¨ort genau dann zu einer surjektiven Abbildung, wenn rg(A) = p, genau dann zu einer injektiven Abbildung, wenn rg(A) = n gilt; in jedem Fall ist rg(A) ≤ min(n, P ). Die Differenz n−rg(A) ist (siehe die Dimensionsformel im n¨achsten Abschnitt) die Dimension des Kerns der zugeh¨origen linearen Abbildung, sie heißt auch der Defekt von A.
78
RAINER SCHULZE-PILLOT
6. Dimensionsformel und Quotientenraum In diesem Abschnitt untersuchen wir zun¨achst den Zusammenhang zwischen der Dimension von V und der Dimension des Bildes der Abbildung und betrachten dann einige Begriffe, die beim gr¨ undlicheren Studium linearer Abbildungen n¨ utzlich sind. Satz 6.1. (Dimensionsformel f¨ ur lineare Abbildungen): V und W seien endlichdimensionale K-Vektorr¨aume, f : V −→ W eine lineare Abbildung. Dann gilt: Ist U 0 ein komplement¨arer Unterraum zu U := Ker(f ) (also U + U 0 = V, U ∩ U 0 = {0}), so ist f |U 0 : U 0 −→ Im(f ) =: W 0 ein Isomorphismus von U 0 auf Im(f ) = W 0 . Insbesondere gilt dim(Ker(f )) + dim(Im(f )) = dim V. Bemerkung: Dieser Satz gilt sinngem¨aß auch im Fall unendlicher Dimensionen, d.h., dass etwa aus dim V = ∞ und dim(Ker(f )) < ∞ folgt, dass dim(Im(f )) = ∞ ist. Beweis. Offenbar ist f |U 0 injektiv, da ja U 0 ∩Ker(f ) = {0} gilt. Da jeder Vektor v ∈ V sich als v = u + u0 mit u0 ∈ U 0 , u ∈ Ker(f ) schreiben l¨asst, hat man f (v) = f (u) + f (u0 ) = 0 + f (u0 ) ∈ Im(f |0U ), also ist f |U 0 als Abbildung von U 0 nach W 0 = Im(f ) auch surjektiv. Da die Dimension von U 0 gleich dim(V ) − dim(U ) ist und Isomorphismen die Dimension erhalten, folgt auch die behauptete Dimensionsformel. Damit ist der Beweis im Prinzip fertig. M¨ochte man sich noch u ¨berlegen, wie man einen komplement¨aren Unterraum U 0 zweckm¨assig konstruiert, so kann man so vorgehen (und dabei die Dimensionsformel noch einmal zu Fuß“ beweisen): ” Seien {u1 , . . . , ur } eine Basis von Ker(f ) und {w1 = f (v1 ), . . . , wt = f (vt )} eine Basis von Im(f ). Die Vektoren u1 , . . . , ur , v1 . . . , vt ∈ V sind linear unabh¨angig, denn ist r X i=1
ai u i +
t X
bj vj = 0,
j=1
so ist r t t X X X 0 = f( ai u i + bj vj ) = bj wj , i=1
j=1
j=1
weil die wj linear unabh¨angig sind, m¨ ussen also alle bj gleich Null sein. Pr Pt Pr Dann folgt aber aus 0 = i=1 ai ui + j=1 bj vj = i=1 ai ui wegen
LINEARE ALGEBRA I, 2004/2005
79
der linearen Unabh¨angigkeit der ui , dass auch alle ai gleich Null sein m¨ ussen. Die Vektoren u1 , . . . , ur , v1 . . . , vt ∈ V erzeugen aber auch den VektorPt raum V , denn ist v ∈ V mit f (v) = w = j=1 bj wj , so ist t t X X f( bj v j ) = bj f (vj ) = f (v), j=1
j=1
Pt
also ist v − j=1 bj vj ∈ Ker(f ) und l¨asst sich daher als LinearkombinaP tion ri=1 ai ui der Basisvektoren ui von Ker(f ) darstellen. Wir erhalten also die Darstellung v=
r X i=1
ai u i +
t X
bj vj
j=1
des beliebigen Vektors v ∈ V . Insgesamt sehen wir, dass (u1 , . . . , ur , v1 . . . , vt ) eine Basis von V ist und daher U 0 :=< v1 , . . . , vt > ein zu Ker(f ) komplement¨arer Unterraum ist. Beispiel: • Ist 0 6= f ∈ V ∗ = HomK (V, K) eine nicht verschwindende Linearform, so ist dim(Ker(f )) = dim(V ) − 1. Man sagt, der Kern von f habe Kodimension 1 bzw. sei eine Hyperebene. Insbesondere f¨ ur V = R3 ist das die bekannte Tatsache, dass f¨ ur (a, b, c) 6= (0, 0, 0) die Menge x y | ax + by + cz = 0 ⊆ R3 z eine Ebene durch den Ursprung im R3 ist. • Ist V ein endlichdimensionaler K-Vektorraum mit Unterr¨aumen U1 , U2 , so dass V = U1 ⊕U2 gilt, so kann man lineare Abbildungen p1 : V −→ U1 , p2 : V −→ U2 durch p1 (u1 + u2 ) := u1 , p2 (u1 + u2 ) := u2 definieren; p1 und p2 sind surjektiv. Man hat Ker(p1 ) = U2 , Ker(p2 ) = U1 , Im(p1 ) = U1 , Im(p2 ) = U2 . Man hat die kurze exakte Sequenz i
p2
1 0 −→ U1 −→ U1 ⊕ U2 = V −→ U2 −→ 0
(d.h., es gilt : i1 ist injektiv, p2 ist surjektiv, und es gilt Im(i1 ) = Ker(p2 )). • Ist V ein endlichdimensionaler K-Vektorraum mit beliebigen Unterr¨aumen U1 , U2 , so sei W := U1 × U2 das kartesische Produkt von U1 und U2 (mit komponentenweisen Verkn¨ upfungen); bekanntlich gilt dim(W ) = dim(U1 ) + dim(U2 ).
80
RAINER SCHULZE-PILLOT
Wendet man die Dimensionsformel f¨ ur lineare Abbildungen auf die durch d((u1 , u2 )) = u1 − u2 ∈ V definierte lineare Abbildung d : W −→ V an, so erh¨alt man die Dimensionsformel f¨ ur Unterr¨aume (siehe Satz 4.28). Bemerkung. Wendet man die Dimensionsformel auf die zu einer Matrix A ∈ M (p × n, K) geh¨orige lineare Abbildung LA : K n −→ K p an, so erh¨alt man aus der Dimensionsformel einen neuen Beweis der Gleichheit von Zeilenrang (n−dim(Ker(LA ))) und Spaltenrang (dim(Im(LA ))). Korollar 6.2. Seien V, W endlichdimensionale Vektorr¨aume u ¨ber dem K¨orper K, sei f : V −→ W eine lineare Abbildung mit rg(f ) = r. a) Ist B = {v1 , . . . , vn } eine Basis von V , so kann man eine Basis B 0 von W w¨ahlen, so dass die Matrix MBB0 (f ) reduzierte Zeilenstufenform hat. b) Man kann Basen B von V und B 0 von W so w¨ahlen, dass 0 ... 0 .. .. . Er . 0 . . . 0 B MB0 (f ) = 0 . . . 0 0 . . . 0 . .. .. .. .. . . . 0 ... 0 0 ... 0 Beweis. F¨ ur a) definiere man rekursiv f¨ ur 1 ≤ i ≤ r Zahlen s(i) durch s(1) := min{j | f (vj ) 6= 0} s(i) := min{j | f (vj ) 6∈ Lin(f (v1 ), . . . , f (vi−1 )} f¨ ur i > 1. Wir setzen dann wi := f (vs(i) ) f¨ ur 1 ≤ i ≤ r. Die Vektoren w1 , . . . , wr sind linear unabh¨angige Vektoren im r-dimensionalen Raum Im(W ). Wir erg¨anzen sie (in beliebiger Weise) zu einer Basis w1 , . . . , wp (mit p = dim(W )) von W , die die gew¨ unschte Eigenschaft hat. F¨ ur Teil b) der Behauptung w¨ahlen wir die Basen in V und W wie im Beweis der Dimensionsformel (Satz 6.1) und haben die Behauptung. Korollar 6.3. Sei f : V 7−→ W eine lineare Abbildung, W 0 := Im(f ). Dann gibt es eine lineare Abbildung s : W 0 7−→ V mit f ◦ s = IdW 0 . Jede solche lineare Abbildung s heißt ein Schnitt von f (da sie f¨ ur jedes 0 −1 w ∈ W genau einen Vektor aus der Urbildmenge f ({w}) herausschneidet), ihr Bild ist ein zu Ker(f ) komplement¨arer Unterraum. Beweis. Das folgt direkt aus dem Beweis von Satz 6.1, die Existenz des Schnittes haben wir auch schon in Definition/Korollar 5.15 a) gezeigt.
LINEARE ALGEBRA I, 2004/2005
81
Beispiel: Sei V = R2 , W = R, f : V −→ W durch x 7→ y − 3x. y Das Urbild von z ∈ R unter f ist die Gerade mit der Gleichung y = 3x + z, bei variablem z erh¨alt man die Schar paralleler Geraden mit Steigung 3. Wir haben f¨ ur jedes a ∈ R den durch az sa (z) = (1 + 3a)z gegebenen Schnitt sa . Sein Bild ist die Gerade x { |(3a + 1)x − ay = 0}, y die aus jeder Geraden aus der Schar paralleler Geraden mit Steigung 3 genau einen Punkt enth¨alt. Man sieht, dass hier bei variierendem a alle Ursprungsgeraden außer der Geraden y = 3x vorkommen. Bei der Behandlung linearer Abbildungen ist es oft hilfreich, im Ur¨ bildraum V der linearen Abbildung f : V −→ W die Aquivalenzklassen unter der Relation v1 ∼ v2 ⇔ f (v1 ) = f (v2 ) zu betrachten. Wir hatten bereits bei der Behandlung der Gruppentheorie gesehen, dass dies gleichzeitig die Nebenklassenmengen v + Ker(f ) = {v + u | u ∈ Ker(f )} f¨ ur die v ∈ V sind. Wir kommen jetzt zu der seinerzeit bereits angek¨ undigten Untersuchung der algebraischen Struktur auf dieser Nebenklassenmenge. Wir erinnern zun¨achst daran, dass die Nebenklassenmenge G/H aus Teilmengen von G vom Typ N = {xh | h ∈ H} f¨ ur Elemente x ∈ G besteht und dass f¨ ur ein solches N ∈ G/H f¨ ur jedes x0 ∈ N die Gleichung N = x0 H gilt. Satz 6.4. a) Sei G eine Gruppe, H ⊆ G ein Normalteiler (also xH = Hx f¨ ur alle x ∈ G). Dann wird auf der Nebenklassenmenge G/H durch (xH) ◦ (yH) := (xy)H eine wohldefinierte Verkn¨ upfung eingef¨ uhrt, bez¨ uglich der G/H eine Gruppe ist. G/H mit dieser Verkn¨ upfung heißt die Faktorgruppe oder Quotientengruppe von G nach H.
82
RAINER SCHULZE-PILLOT
b) Sei V ein K-Vektorraum, U ⊆ V ein Unterraum. Dann wird die Faktorgruppe V /U = {v + U | v ∈ V } durch λ(v + U ) = λv + U
(λ ∈ K)
ein K-Vektorraum (der Faktorraum oder Quotientenraum von V nach U ). Beweis. a): Wir m¨ ussen zun¨achst zeigen, dass die Verkn¨ upfung wohldefiniert ist, d.h., wir m¨ ussen zeigen, dass das Ergebnis der Verkn¨ upfung der Nebenklasse N1 = xH = x0 H mit der Nebenklasse N2 = yH = y 0 H nicht davon abh¨angt, welche m¨ogliche Darstellung der Nebenklassen man ausgew¨ahlt hat. Genauer ist zu zeigen: Sind x, x0 , y, y 0 ∈ G mit xH = x0 H, yH = y 0 H, so gilt xyH = x0 y 0 H. Wir nutzen daf¨ ur aus, dass H ein Normalteiler ist und benutzen, dass man beim Rechnen mit Nebenklassen Klammern versetzen darf, dass also (xy)H = {(xy)h | h ∈ H} = {x(yh) | h ∈ H} = {xz | z ∈ yH} = x(yH) gilt und erhalten: x0 y 0 H = = = = = = = =
x0 (y 0 H) wegen der Klammerregel x0 (yH) weil yH = y 0 H gilt x0 (Hy) weil H Normalteiler ist (x0 H)y wegen der Klammerregel (xH)y weil xH = x0 H gilt x(Hy) wegen der Klammerregel x(yH) weil H Normalteiler ist (xy)H wegen der Klammerregel.
(Wer mag, kann auch stattdessen nachrechnen, dass aus x0 = xh1 , y 0 = yh2 folgt, dass es ein h3 ∈ H mit x0 y 0 = xyh3 gibt. Man muss dabei ausnutzen, dass man wegen der Normalteilereigenschaft von H ein h01 ∈ H mit h1 y = yh01 finden kann.) Dass f¨ ur die so definierte Verkn¨ upfung das Assoziativgesetz gilt, folgt dann sofort aus dem Assoziativgesetz f¨ ur G. Auch dass die Nebenklasse H = eH neutrales Element bez¨ uglich dieser Verkn¨ upfung ist und dass die Nebenklasse a−1 H invers zur Nebenklasse aH ist, sieht man sofort. b): Da die additive Gruppe von V kommutativ ist, brauchen wir uns um die Normalteilerbedingung keine Sorgen zu machen: Jeder Unterraum U von V ist auch Normalteiler in (V, +), wir k¨onnen also die Faktorgruppe V /U bilden und m¨ ussen zeigen, dass wir auf die angegebene Weise f¨ ur diese eine Multiplikation mit Skalaren λ ∈ K definieren k¨onnen. Seien also v1 , v2 ∈ V mit v1 + U = v2 + U , d.h. v1 − v2 ∈ U . Dann ist, weil U ein Unterraum ist, λ(v1 − v2 ) ∈ U , also λv1 + U = λv2 + U .
LINEARE ALGEBRA I, 2004/2005
83
Die Verkn¨ upfung ist also wohldefiniert, und die G¨ ultigkeit von V1 bis V4 aus Definition 3.3 folgt wie oben direkt aus deren G¨ ultigkeit f¨ ur V. Definition 6.5. Die Elemente v + U des Faktorraums V /U heißen affine Unterr¨aume der Dimension dim(U ). Ist dim(U ) = 1, so spricht man von affinen Geraden (Geraden, die nicht notwendig durch den Ursprung gehen), ist dim(U ) = 2, so spricht man von affinen Ebenen (Ebenen, die nicht notwendig durch den Ursprung gehen). Bemerkung. Ist speziell V = R3 , so gibt es f¨ ur den Unterraum U die M¨oglichkeiten: • U = {0}. Die Nebenklasse v + U besteht nur aus dem Vektor v, V /U ist isomorph zu V . • dim(U ) = 1, d. h., U ist eine Gerade g durch den Ursprung. Die Nebenklasse v + U ist als Punktmenge die Parallele zu g durch den Punkt Pv mit Ortsvektor v (affine Gerade durch den Punkt Pv parallel zu g). Der Faktorraum V /U ist zweidimensional, ein vollst¨andiges Repr¨asentantensystem f¨ ur seine Elemente (Nebenklassen) findet man in jeder Ursprungsebene, die die Gerade g nicht enth¨alt (und daher ein zu U komplement¨arer Unterraum ist). • dim(U ) = 2, d. h., U ist eine Ebene E durch den Ursprung. Die Nebenklasse v + U ist als Punktmenge die zu E parallele Ebene durch den Punkt Pv mit Ortsvektor v. Der Faktorraum V /U ist 1-dimensional, ein vollst¨andiges Repr¨asentantensystem f¨ ur seine Elemente (Nebenklassen) findet man in jeder Ursprungsgeraden, die die Ebene E nicht enth¨alt (und daher ein zu U komplement¨arer Unterraum ist). • U = V , der Faktorraum V /U besteht nur aus der Nullklasse: V /U = {0}. Satz 6.6. Sei V ein endlichdimensionaler K-Vektorraum, U ⊆ V ein Unterraum, pU : V −→ V /U die Projektion v 7→ v + U , so ist pU linear mit Ker(pU ) = U , und f¨ ur jeden zu U komplement¨aren Unterraum U 0 von V ist die Einschr¨ankung pU |U 0 : U 0 −→ V /U von pU auf U 0 ein Isomorphismus. Insbesondere hat man dimK (V /U ) = dimK V − dimK U. Bemerkung: a) Im Fall m¨oglicherweise unendlicher Dimension ist diese Gleichung sinngem¨aß verstanden auch richtig. (Ist dim(V ) unendlich und dim U endlich, so ist dim(V /U ) unendlich.)
84
RAINER SCHULZE-PILLOT
b) Der Satz zeigt, dass der Quotientenraum (oder Faktorraum) es in gewisser Weise erm¨oglicht, mit allen zu U komplement¨aren Unterr¨aumen gleichzeitig zu arbeiten, ohne einen von ihnen wirklich anzugeben. Das macht manche Schl¨ usse eleganter, ohne sie aber eigentlich inhaltlich zu ver¨andern. Wem komplement¨are Unterr¨aume sympathischer sind, der kann in der Linearen Algebra immer statt des Quotientenraums mit komplement¨aren Unterr¨aumen arbeiten. Anders sieht es bei den Gruppen aus: Ist G eine Gruppe und H ⊆ G ein Normalteiler, so wird man im allgemeinen keine Untergruppe in G finden, die die Rolle des komplement¨aren Unterraums in obigem Satz spielen k¨onnte; Beispiele ¨ werden in den Ubungen vorkommen. Auch wenn man den Begriff des Vektorraums u ¨ber einem K¨orper zu dem eines Moduls u ¨ber einem Ring (etwa u ¨ber dem Ring Z der ganzen Zahlen) verallgemeinert, hat man keinen Ersatz f¨ ur den komplement¨aren Unterraum. Beweis. Man rechnet sofort nach, dass pU linear und surjektiv ist und Kern U hat. Die Dimensionsformel liefert dann die Behauptung. Alternativ kann man auch, ¨ahnlich wie im Beweis der Dimensionsformel, aus ¨ Basen f¨ ur U und f¨ ur V /U eine Basis f¨ ur V konstruieren (Ubung). Beispiele: x 3 0 | x ∈ R . V /U ist zweidimensional; zwei • V =R,U = 0 Vektoren in V sind genau dann in der gleichen Klasse modulo U , wenn sie sich h¨ochstens in der x-Koordinate unterscheiden: ¨ Durch Ubergang zu V /U vernachl¨assigt man Unterschiede, die in U liegen, man vergisst quasi die x-Koordinate des Vektors. • Ist f : V −→ W eine lineare Abbildung von K-Vektorr¨aumen und U = Ker(f ), so sind zwei Vektoren v, v 0 ∈ V genau dann in der gleichen Klasse modulo U , wenn f (v) = f (v 0 ) gilt. Beim ¨ Ubergang von V zu V /U vernachl¨assigt man alle Information u ¨ber den Vektor v, die sich nicht aus seinem Bild f (v) unter f gewinnen l¨asst. Der folgende Satz liefert mit Hilfe des Begriffs Faktorraum eine weitere Version der Dimensionsformel f¨ ur Kern und Bild einer linearen Abbildung: Satz 6.7. (Homomorphiesatz): Sei f : V −→ W eine lineare Abbildung von K-Vektorr¨aumen, U ⊆ Ker(f ) ein Unterraum von V . Dann gibt es genau eine lineare Abbildung f˜U : V /U −→ W , so dass
LINEARE ALGEBRA I, 2004/2005
85
f = f˜U ◦ pU gilt; dabei ist pU die durch pU (v) := v + U definierte Projektion von V auf V /U . Man sagt auch: Das Diagramm f
V
−→ W
↓ pU
% f˜U
V /U ist kommutativ (oder kommutiert). Wenn man ein solches kommutatives Diagramm hat, so sagt man ferner, die Abbildung f faktorisiere u ¨ber V /U . ˜ Die Abbildung fU ist genau dann injektiv, wenn U = Ker(f ) ist; sie definiert dann einen Isomorphismus von V /U auf das Bild Im(f ) von f , man hat also (6.1)
V /Ker(f ) ∼ = Im(f ).
Beweis. Man k¨onnte das aus Satz 6.1 und Satz 6.6 durch die Isomorphie zwischen V /U und einem beliebigen zu U komplement¨aren Unterraum folgern, f¨ ur sp¨atere Verallgemeinerungen ist aber der folgende Beweis ausbauf¨ahiger, der auf die Benutzung des komplement¨aren Unterraums v¨ollig verzichtet und im Grunde genommen auch einfacher ist: Das Bild eines Vektors v ∈ V unter f h¨angt nur von seiner Klasse modulo Ker(f ) ab, da ja f¨ ur u ∈ Ker(f ) offenbar f (v + u) = f (v) + f (u) = f (v) gilt. Anders gesagt: F¨ ur alle Vektoren v 0 ∈ v + Ker(f ) gilt f (v 0 ) = f (v). Da U ⊆ Ker(f ) vorausgesetzt wurde, gilt die gleiche Aussage erst recht, wenn wir die Klasse von v modulo Ker(f ) durch die (kleinere) Klasse von v modulo U ersetzen. Wir k¨onnen also f˜U durch f˜U (v + U ) := f (v) definieren, da wir uns soeben u ¨berzeugt haben, dass diese Definition nicht von der Aquswahl des Repr¨asentanten der Nebenklasse abh¨angt. Dass dieses f˜U linear ist, rechnet man schnell nach: f˜U ((v1 + U ) + λ(v2 + U )) = f˜U ((v1 + λv2 ) + U ) = f (v1 + λv2 ) = f (v1 ) + λf (v2 ) = f˜U (v1 + U ) + λf˜U (v2 + U ). Umgekehrt sieht man sofort, dass die Anforderung f = f˜U ◦ pU die Abbildung f˜U eindeutig festlegt:
86
RAINER SCHULZE-PILLOT
Hat man eine Abbildung g : V /U −→ W mit f = g ◦ pU , so gilt zwangsl¨aufig g(v + U ) = g(pU (v)) = f (v) = f˜U (v + U ) f¨ ur alle v + U ∈ V /U . Schließlich ist f˜U genau dann injektiv, wenn der Kern dieser Abbildung gleich dem Nullvektor {0 + U } des Vektorraums V /U ist. Nach Definition von f˜U ist Ker(f˜U ) = {v + U | f (v) = 0} = {v + U | v ∈ Ker(f )}, das ist genau dann gleich {0 + U }, wenn Ker(f ) ⊆ U gilt, was wegen der Voraussetzung U ⊆ Ker(f ) ¨aquivalent zu U = Ker(f ) ist. Da das Bild von f˜U offenbar gleich Im(f ) ist, folgt der Rest der Behauptung. Bemerkung. • Sind A, B Mengen, f : A −→ B eine Abbildung, so heißt f¨ ur b ∈ B das Urbild f −1 (b) := {a ∈ A | f (a) = b} von b auch die Faser von b unter f (oder die Faser u ¨ber b); man stellt sich quasi alle Elemente mit dem gleichen Bild b an einer Schnur aufgereiht vor, die in b befestigt ist. Ist f : V −→ W lineare Abbildung von K-Vektorr¨aumen, so ist V /Ker(f ) die Menge der Fasern von f . • Man hat die kurzen exakten Sequenzen 0 −→ Ker(f ) −→ V
−→ V /Ker(f ) −→ 0 ,
0 −→ Ker(f ) −→ V
−→
f
Im(f )
−→ 0 .
• Der Homomorphiesatz wird h¨aufig angewendet, wenn es bequem ist, die in f enthaltene Information in einen trivialen Anteil (Projektion auf V /Ker(f )) und einen nichttrivialen Anteil (f˜U mit U = Ker(f )) aufzuspalten. f˜U heißt auch die von f induzierte Abbildung von V /U nach W . Das folgende Korollar ist die Version des Homomorphiesatzes f¨ ur Quotientenraumvermeider. Korollar 6.8. Sei f : V −→ W eine lineare Abbildung von KVektorr¨aumen, U ⊆ Ker(f ) ein Unterraum, U 0 ⊆ V ein Unterraum von V mit U ⊕ U 0 = V . Sei p : V −→ U 0 die durch p(u + u0 ) = u0 f¨ ur u ∈ U , u0 ∈ U 0 definierte lineare Abbildung. Dann ist f = f |U 0 ◦ p. ¨ Beweis. Ubung. Sie k¨onnen diese Aussage entweder direkt beweisen oder unter Benutzung des Homomorphiesatzes und der Isomorphie zwischen V /U und U 0 .
LINEARE ALGEBRA I, 2004/2005
87
7. Basiswechsel und Transformation der Koordinatenmatrix Definition 7.1. Sei V ein K-Vektorraum mit Basen B = (v1 , . . . , vn ) und B 0 = (v10 , . . . , vn0 ). Es gelte vj0
=
n X
sij vi
f¨ ur 1 ≤ j ≤ n .
i=1
¨ Dann heißt die Matrix S = (sij ) ∈ M (n × n, K) die Ubergangsmatrix 0 0 von B zu B (Matrix des Basiswechsels von B zu B ). ¨ Die Ubergangsmatrix dr¨ uckt also die Vektoren der neuen Basis B 0 durch die Vektoren der alten Basis B aus, ihre Spalten sind die Koordinatenvektoren der neuen Basisvektoren bez¨ uglich der alten Basis. Beispiele: • Sei V = R2 mit der Standardbasis B = (e1 , e2 ). Die Basis B 0 = (e01 , e02 ) gehe aus B durch Drehung umden Winkel ϕ imGegencos ϕ − sin ϕ uhrzeigersinn hervor, also e01 = , e02 = . Dann sin ϕ cos ϕ cos ϕ − sin ϕ ¨ ist S = die Ubergangsmatrix von B zu B 0 sin ϕ cos ϕ • Allgemeiner sei B = (e1 , . . . , en ) die Standardbasis des K n und B 0 = (s1 , . . . , sn ) eine weitere Basis des K n . Dann ist die Matrix ¨ S mit den Spalten s1 , . . . , sn die Ubergangsmatrix von B zu B 0 . Lemma 7.2. a) Mit den Bezeichnungen von Definition 7.1 ist die 0 ¨ Ubergangsmatrix S gleich MBB (IdV ). Insbesondere ist S inver¨ tierbar und S −1 = MBB0 (IdV ) die Ubergangsmatrix von B 0 zu B. b) Ist f : V −→ V der lineare Isomorphismus mit f (vi ) = vi0 (1 ≤ i ≤ n), so ist S = MBB (f ). c) Das Diagramm V cB
cB 0
↓ & LS K n −→ Kn
ist kommutativ. P P F¨ ur v = ni=1 xi vi = nj=1 yj vj0 (xi , yi ∈ K f¨ ur 1 ≤ i ≤ n) gilt x1 y1 . .. = S · ... . (7.1) xn yn Beweis. Das Diagramm ist nur eine andere Schreibweise f¨ ur die Gleichung (7.1), die wir durch Nachrechnen beweisen:
88
RAINER SCHULZE-PILLOT
n X
yj vj0
=
j=1
=
=
n X j=1 n X
yj
n X
sij vi
i=1 n X ( sij yj )vi
i=1 j=1 n X
xi vi ,
i=1
Pn
Vergleich der Koeffizienten bei vi ergibt xi = hauptung.
j=1
sij yj , also die Be
Bemerkung: Die Matrix S dr¨ uckt also einerseits die neuen Basisvek0 toren (Vektoren von B ) durch die alten Basisvektoren (Vektoren von B) aus, andererseits die Koordinaten x1 , . . . , xn bez¨ uglich der alten Basis durch die Koordinaten y1 , . . . , yn bez¨ uglich der neuen Basis. In der ¨ Bezeichnung “Ubergangsmatrix von B zu B 0 ” steckt daher eine gewisse ¨ Willk¨ ur, die oben bemerkte Uberkreuzung, die viel Verwirrung hervorruft, liegt aber in der Natur der Sache, man kann nur w¨ahlen, in welcher Richtung man sie durchl¨auft. Satz 7.3. (Transformation der Koordinatenmatrix bei Basiswechsel) Sei f : V −→ W linear. Seien B = (v1 , . . . , vn ) und B 0 = (v10 , . . . , vn0 ) 0 ¨ Basen von V und S = MBB (IdV ) die Ubergangsmatrix von B zu B 0 , ¨ seien C = (w1 , . . . , wp ) und C 0 = (w10 , . . . , wp0 ) Basen von W mit Uber0 gangsmatrix T = MCC . Dann gilt: 0 Ist A = MCB (f ), A0 = MCB0 (f ), so ist A0 = T −1 AS. Beweis. Man hat das kommutative Diagramm Kn
A·
−→ K p & c−1 C
cB % V
↓ T −1 ·
↑S·
cB 0 & Kn
A0 ·
W % c−1 C0
−→ K p
(wobei die mit A ·, S ·, A0 ·, T −1 · bezeichneten Pfeile jeweils die Multiplikation von links mit der betreffenden Matrix darstellen, also die linearen Abbildungen LA , LS usw.), an dem man die Gleichheit A0 = T −1 AS abliest. Den besonders h¨aufigen Spezialfall V = Rn , W = Rp mit Standardbasen B, C notieren wir als Korollar: Korollar 7.4. Seien B 0 = (s1 , . . . , sn ) und C 0 = (t1 , . . . , tp ) Basen von K n bzw. K p , S bzw. T die Matrix mit Spalten (s1 , . . . , sn ) bzw.
LINEARE ALGEBRA I, 2004/2005
89
(t1 , . . . , tp ), A ∈ M (p × n, K). Dann ist 0
MCB0 (LA ) = T −1 AS (wobei LA wie u ¨blich durch LA (x) = A · x gegeben ist). Definition und Korollar 7.5. F¨ ur einen K-Vektorraum V sei End(V ) die Menge der linearen Abbildungen von V nach V (diese heißen auch Endomorphismen von V ). Ist V endlichdimensional mit Basis B, so heißt MB (f ) := MBB (f ) die Matrix von f bez¨ uglich B. Dann gilt: 0 ¨ Ist B eine weitere Basis von V , S die Ubergangsmatrix von B zu B 0 , 0 0 −1 A = MB (f ), A = MB0 (f ), so ist A = S AS. Korollar 7.6. Ist B = (s1 , . . . , sn ) ∈ K n , S die Matrix mit Spalten s1 , . . . , sn , so hat LA bez¨ uglich B die Matrix A0 = S −1 AS. Beweis. F¨ ur alle drei Korollare ist der Beweis klar.
Definition 7.7. a) Seien A, A0 ∈ M (p × n, K). Dann heißen A und A0 ¨aquivalent (A ∼ A0 ), wenn es invertierbare Matrizen S ∈ M (n × n, K), T ∈ M (p × p, K) gibt, so dass A0 = T −1 AS gilt. b) Seien A, A0 ∈ M (n × n, K). Dann heißen A und A0 ¨ahnlich (oder konjugiert) (A ≈ A0 ), wenn es eine invertierbare Matrix S ∈ M (n × n, K) gibt, so dass A0 = S −1 AS gilt. Bemerkung: Ist G eine Gruppe, so heißen Elemente x, x0 ∈ G zueinander konjugiert, wenn es g ∈ G gibt mit x0 = g −1 xg. Lemma 7.8. a) Die Matrizen A, A0 ∈ M (p × n, K) sind genau dann ¨aquivalent zueinander, wenn sie bez¨ uglich geeigneter Basen von K n , K p die gleiche lineare Abbildung f : K n −→ K p darstellen. b) Die Matrizen A, A0 ∈ M (n × n, K) sind genau dann konjugiert zueinander, wenn sie bez¨ uglich geeigneter Basen von K n den gleichen Endomorphismus von K n darstellen. ¨ ¨ ¨ Lemma 7.9. Aquivalenz und Ahnlichkeit von Matrizen sind Aquivalenzrelationen. Beweis. F¨ ur beide Lemmas (oder eigentlich: Lemmata) ist der Beweis klar. Definition und Lemma 7.10. In M (n × n, K) sei E ij (f¨ ur 1 ≤ i, j ≤ n) die Matrix, deren ij-Eintrag gleich 1 ist und deren sonstige Eintr¨age 0 sind. Dann gilt f¨ ur eine Basis (v1 , . . . , vn ) von K: a) Die elementare Basisumformung vj 7−→ vj0 = vj + λvi (1 ≤ i, j ≤ ¨ n, i 6= j) (mit vk 7−→ vk0 = vk f¨ ur k 6= j) hat die Ubergangsmatrix Tij (λ) = En + λE ij .
90
RAINER SCHULZE-PILLOT
Es gilt Tij (λ)Tij (λ0 ) = Tij (λ + λ0 ), insbesondere ist Tij (λ) invertierbar mit (Tij (λ))−1 = Tij (−λ). Die Matrizen Tij (λ) heißen Elementarmatrizen. b) F¨ ur j 6= i hat die elementare Basisumformung vj 7−→ vj0 = vi , vi 7−→ vi0 = vj , vk 7−→ vk0 = vk
f¨ ur k 6∈ {i, j}
(Vertauschung von vi und vj ) die Matrix Pij = En − E ii − E jj + E ij + E ji (der k`-Eintrag von Pij ist δk` f¨ ur i 6= k 6= j, i 6= ` 6= j, 0 f¨ ur k = ` = i und f¨ ur k = ` = j, 1 f¨ ur k = i, ` = j und f¨ ur k = j, ` = i). Die Pij heißen elementare Permutationsmatrizen, Produkte von Matrizen vom Typ Pij heißen Permutationsmatrizen. c) F¨ ur 1 ≤ i ≤ n und λ ∈ K, λ 6= 0 hat die elementare Basisumformung vi 7−→ vi0 := λvi , vj 7−→ vj0 := vj f¨ ur j 6= i die Matrix
1 .. . 1 λ Di (λ) := 1 .. .
, 1
bei der das Diagonalelement in Position (i, i) gleich λ ist. Beweis. Auch hier folgt der Beweis direkt aus der Definition der Matrix des Basiswechsels. Lemma 7.11. Sei A ∈ M (p×n, K) eine Matrix mit Zeilen t z1 , . . . , t zp und Spalten s1 , . . . , sn . Dann gilt: a) Tij (λ) · A geht aus A durch die Zeilenumformung zi 7−→ zi + λzj hervor, A · Tij (λ) durch die Spaltenumformung sj 7−→ sj + λsi . (Dabei ist einmal Tij (λ) ∈ M (p × p, K), einmal Tij (λ) ∈ M (n × n, K)!) b) Pij · A geht aus A durch Vertauschen von i-ter und j-ter Zeile hervor, A·Pij durch Vertauschen von i-ter Spalte und j-ter Spalte. Beweis. Man rechnet das nach. Zum Beispiel f¨ ur Tij (λ) · A bemerkt man zun¨achst, dass diese Matrix in allen Zeilen außer der i-ten mit A u ur k 6= i die k-te Zeile von Tij (λ) der k-te Standard¨bereinstimmt, da f¨ Einheitsvektor, also gleich der k-ten Zeile der Einheitsmatrix ist. In der i-ten Zeile hat Tij (λ) · A in der il-Position den Eintrag 1 · ail + λ · ajl ,
LINEARE ALGEBRA I, 2004/2005
91
also den Eintrag, der durch Addition der mit λ multiplizierten j-ten Zeile zur i-ten Zeile entsteht. ¨ Genauso rechnet man die anderen Behauptungen nach (Ubung). Satz 7.12. Sei A ∈ M (n × n, K) regul¨ar (rg(A) = n). Dann gibt es Matrizen T1 , . . . , Tr , die alle von einem der Typen Tij (λ), Pij , Di (λ) sind, so dass Tr · · · T1 A = En gilt. Wendet man die entsprechenden elementaren Umformungen (in der gleichen Reihenfolge) auf En an, so erh¨alt man die zu A inverse Matrix A−1 . Beschr¨ankt man die Matrizen Tk von oben auf Elementarmatrizen, so erreicht man immerhin noch, dass ! d1 0 .. Tr · · · T1 A = D = . 0 dn eine Diagonalmatrix mit d1 · · · dn = 6 0 ist. Man kann in diesem Fall sogar noch erreichen, dass 1 0 ... D= 0 1 d gilt. Wendet man die diesen Elementarmatrizen entsprechenden elementaren Umformungen vom Typ i) (in der gleichen Reihenfolge) auf En an, so erh¨alt man DA−1 =: B, also A−1 = D−1 B. Beweis. Wir haben gesehen, dass jede elementare Zeilenumformung der Matrix A durch Multiplikation der Matrix von links mit einer geeigneten Matrix T realisiert werden kann; dabei ist T entweder eine Elementarmatrix, eine Permutationsmatrix oder eine Diagonalmatrix Di (λ). Da der Rang der Matrix A gleich ihrer Zeilenanzahl n ist, ist die reduzierte Zeilenstufenform die Einheitsmatrix (keine Zeile ist die Nullzeile, und es ist kein Platz da f¨ ur Stufen, die um mehr als einen Index springen). Bringt man also die Matrix A durch elementare Umformungen, die Multiplikation von links mit Matrizen T1 , . . . , Tr entsprechen, auf reduzierte Zeilenstufenform, so erh¨alt man wie behauptet Tr · · · T1 A = En . Um die Behauptung f¨ ur auf Elementarmatrizen beschr¨ankte Tk zu zeigen, m¨ ussen wir noch einmal den Beweis f¨ ur die M¨oglichkeit der Transformation einer beliebigen Matrix auf (reduzierte) Zeilenstufenform (Satz 3.16) durchlaufen und sehen, dass wir in der gegebenen speziellen Situation einer quadratischen n × n- Matrix vom vollen Rang n nur die (durch Multiplikation mit Elementarmatrizen darstellbaren) Umformungen vom Typ i) ben¨otigen (also auf die Transformationen
92
RAINER SCHULZE-PILLOT
der Typen ii) (Multiplikation einer Zeile mit λ 6= 0) und iii) (Vertauschen zweier Zeilen) verzichten k¨onnen) wenn wir statt der reduzierten Zeilenstufenform En der Matrix nur die etwas allgemeinere Diagonalgestalt erreichen wollen. Wegen der rekursiven Struktur des Beweises (bzw. des algorithmischen Verfahrens) m¨ ussen wir nur den Rekursionsschritt u ufen, der das ¨berpr¨ Problem auf das gleiche Problem mit um eins verminderter Zeilen- und Spaltenzahl zur¨ uckf¨ uhrt. Eine Vertauschung zweier Zeilen nimmt man in diesem Schritt dann vor, wenn die erste Zeile im 1, 1- Eintrag eine Null hat. Da der Rang der Matrix n ist, ist irgendein ai1 ungleich Null, und durch Addition der i-ten Zeile zur ersten (Typ i)!) erreicht man auch a11 6= 0. Eine Multiplikation einer Zeile mit λ 6= 0 benutzt man dann, wenn man den ersten von 0 verschiedenen Eintrag einer Zeile zu 1 machen will. Streben wir (wie im ersten Teil der Behauptung) nur Diagonalgestalt an, so k¨onnen wir auf diesen Schritt ebenfalls verzichten. Wir m¨ ussen uns jetzt nur noch u ¨berzeugen, dass wir mit ausschließli cher Bentzung der Umformungen vom Typ i) die Matrix d01 d02 in die Gestalt 10 d10d2 umformen k¨onnen. Dazu durchlaufen wir die folgenden Schritte: • • • •
Addiere die erste Zeile zur zweiten 1 Addiere die mit 1−d multiplizierte zweite Zeile zur ersten Zeile d1 Addiere die mit −d1 multiplizierte erste Zeile zur zweiten Zeile Die Matrix hat jetzt die Gestalt 10 d1cd2 ; man addiere noch die mit d−c multiplizierte zweite Zeile zur ersten und hat die 1 d2 gew¨ unschte Gestalt erreicht.
Korollar 7.13. Ist A invertierbar, so erh¨alt man die Inverse von A, indem man die Matrix (A|En ) ∈ M (n × 2n, K) durch elementare Zeilenumformungen auf reduzierte Zeilenstufenform (reduced row echelon form) bringt; das Ergebnis ist dann (En |A−1 ). Beweis. Schreiben wir wie im vorigen Satz Tr · · · T1 A = En , so folgt A−1 = (Tr · · · T1 )En , was die Behauptung zeigt.
Bemerkung: In Satz 7.12 und Korollar 7.13 kann man genauso gut mit Spaltenumformungen statt mit Zeilenumformungen arbeiten (A wird dann von rechts mit Elementarmatrizen multipliziert). Beispiel: Siehe Maple-Worksheet 3 auf der Webseite der Vorlesung.
LINEARE ALGEBRA I, 2004/2005
93
Lemma 7.14. a) Sind A ∈ M (r×p, K) und B ∈ M (p×n, K) obere Dreiecksmatrizen (untere Dreiecksmatrizen) (also aij = 0 f¨ ur i > j f¨ ur obere, aij = 0 f¨ ur i < j f¨ ur untere Dreiecksmatrizen), so ist AB obere (bzw. untere) Dreiecksmatrix. b) Eine Dreiecksmatrix A ∈ M (n × n, K) ist genau dann invertierbar, wenn alle Diagonaleintr¨age aii von Null verschieden sind. Beweis. Man rechnet das nach. Seien etwa A = (aij ), B = (bjk ) obere Dreiecksmatrizen, also aij =P0 falls i > j und bjk = 0 falls j > k. Der ik-Eintrag von AB ist pj=1 aij bjk . Betrachtet man f¨ ur Indices i, k mit i > k den Summanden f¨ ur ein festes j, so kann man zwei F¨alle unterscheiden: Ist i > j, so ist aij = 0 und damit der Summand aij bjk gleich 0. Ist i ≤ j, so ist wegen i > k auch j > k und daher bjk = 0; das Produkt aij bjk ist also auch in diesem Fall gleich 0. Also sind im Produkt C = (cik ) := AB alle cik mit i > k gleich 0, d. h., die Matrix AB ist ebenfalls eine obere Dreiecksmatrix. Die Rechnung f¨ ur untere Dreiecksmatrizen verl¨auft analog. F¨ ur b) nehmen wir an, ein Diagonaleintrag der Dreiecksmatrix A sei gleich 0 und setzen i0 = min{1 ≤ i ≤ n | aii = 0}. Dann sieht man sofort, dass der von den ersten i0 Spalten (bei oberer Dreiecksmatrix) bzw. Zeilen (bei unterer Dreiecksmatrix) aufgespannte Teilraum des K n Dimension i0 − 1 hat; die Matrix kann also nicht Rang n haben und kann damit nicht invertierbar sein. Umgekehrt beweist man im Fall, dass alle Diagonaleintr¨age von 0 verschieden sind, leicht die lineare Unabh¨angigkeit der Spaltenvektoren (bzw. der Zeilenvektoren) der oberen (bzw. unteren) Dreiecksmatrix A. Satz 7.15. Sei A ∈ M (p × n, K). a) Es gibt eine invertierbare Matrix T ∈ M (p × p, K), so dass T A Zeilenstufenform hat. T kann als Produkt von Elementarmatrizen und Permutationsmatrizen gew¨ahlt werden. Er 0 0 Er b) A ist ¨aquivalent zu und zu mit r = rg(A). 0 0 0 0 c) (LU -Zerlegung, auch LR-Zerlegung genannt): Es gibt eine Permutationsmatrix P , so dass man P A = LU mit einer unteren Dreiecksmatrix L ∈ M (p × p, K) und einer oberen Dreiecksmatrix U ∈ M (p × n, K) schreiben kann. Man erh¨alt diese Zerlegung, indem man P A durch Gauß-Elimination auf Zeilenstufenform U bringt (unter Verzicht auf die Bedingung ak,s(i) = 0 f¨ ur −1 1 ≤ k < i < r); L ist das Produkt der zugeh¨origen Elementarmatrizen. Beweis. a) ist klar: Wie bei Satz 3.16 bringt man die Matrix A durch elementare Zeilenumformungen in Zeilenstufenform und findet T als das Produkt derjenigen Matrizen, die durch Linksmultiplikation die
94
RAINER SCHULZE-PILLOT
benutzten Umformungen liefern. Da wir hier auf die Normierungsbedingung verzichten, dass das erste von 0 verschiedene Element jeder Zeile gleich 1 ist, ben¨otigen wir dabei keine Matrizen vom Typ Di (λ) und kommen mit Elementarmatrizen und Permutationsmatrizen aus. ¨ Bei b) ist nach Definition der Aquivalenz von Matrizen zu zeigen, dass 0 es invertierbare Matrizen T und S gibt, so dass Er 0 0 T AS = 0 0 gilt. Wir wissen bereits, dass wir A durch eine Kombination elementarer Zeilenumformungen und elementarer Spaltenumformungen in diese Gestalt bringen k¨onnen. Bezeichnet man mit T 0 das Produkt der Matrizen, die zu den ben¨otigten elementaren Zeilenumformungen geh¨oren, mit S das Produkt der Matrizen, die zu den ben¨otigten elementaren Spaltenumformungen geh¨oren, so hat man die gesuchten Matrizen. Die Gestalt 0 Er 0 0 erreicht man durch weitere Spaltenvertauschungen. Man kann b) aber auch ganz anders zeigen: Nach Korollar 6.2 wissen n p wir, dass LA bei Wahl geeigneter uglich Basen in K und in K bez¨ 0 Er dieser Basen die Matrix hat, was nach Lemma 7.8 die Be0 0 hauptung zeigt. F¨ ur c) muss man erneut in den Ablauf des Gauß - Algorithmus einsteigen; wir skizzieren das hier nur. Zun¨achst definiere man f¨ ur 1 ≤ i ≤ r wie schon fr¨ uher s(i) als das kleinste j, f¨ ur das die Teilmatrix aus den ersten j Spalten von A den Rang i hat. Man u ¨berlegt sich dann, dass man durch geeignete Zeilenvertauschungen erreichen kann, dass in der so umgeformten Matrix A0 f¨ ur alle 1 ≤ i ≤ r die Teilmatrix aus den ersten i Zeilen und den ersten s(i) Spalten Rang i hat. Da Zeilenvertauschungen durch Linksmultiplikation mit elementaren Permutationsmatrizen erreicht werden, findet man also eine Permutationsmatrix P , f¨ ur die P A = A0 diese Eigenschaft hat. Durchl¨auft man nun den Gauß-Algorithmus, so sieht man, dass die einzige Umformung, die man ben¨otigt, um A0 auf (nicht reduzierte) Zeilenstufenform zu bringen, Umformungen vom folgenden Typ sind: Addition der mit λ ∈ K multiplizierten j-ten Zeile zur i-ten Zeile f¨ ur ein Paar (i, j) mit j < i. Diese Umformungen werden durch Linksmultiplikation mit Elementarmatrizen bewirkt, die untere Dreiecksmatrizen sind, ihr Produkt bezeichnet man mit L−1 . Die Matrix in Zeilenstufenform ist eine obere Dreiecksmatrix, die wir U nennen.
LINEARE ALGEBRA I, 2004/2005
95
Damit haben wir P A = LU erreicht. Der Verzicht auf die Reduziertheit der Zeilenstufenform von U im obigen Argument ist wesentlich: Will man reduzierte Zeilenstufenform erreichen, so muss man weiter unten stehende Zeilen zu weiter oben stehenden Zeilen addieren; daf¨ ur ben¨otigt man Elementarmatrizen, die obere statt unterer Dreiecksmatrizen sind. Beispiel: Siehe Maple-Worksheet 3 auf der Webseite der Vorlesung. Bemerkung. Die LU -Zerlegung spielt in der numerischen linearen Algebra eine wichtige Rolle, Sie werden ihr in der Vorlesung Praktische ” Mathematik“ wieder begegnen. Zusammenfassung: Hat der K-Vektorraum V Basen B = (v1 , . . . , vn ), B 0 = (v10 , . . . , vn0 ) P n mit vj0 = i=1 sij vi , so ist S = (sij ) die Matrix des Basiswechsels von 0 ¨ B zu B 0 (Ubergangsmatrix von B zu B 0 ), sie ist gleich MBB (IdV ) sowie gleich MBB (f ), wo f die lineare Abbildung von V in sich mit f (vj ) = vj0 (1 ≤ j ≤ n) ist. Ist f : V −→ W linear, A = MCB (f ) ∈ M (p×n, K) mit Basen B von V , C von W , so geh¨ort A0 ∈ M (p×n, K) genau dann zu f bez¨ uglich Basen 0 0 0 −1 B von V , C von W , wenn A = T AS mit T ∈ GLn (K), S ∈ GLn (K) ¨ gilt; S und T sind dabei die Ubergangsmatrizen von B zu B 0 bzw. von C 0 zu C 0 ; A und A heißenin diesem Fall ¨aquivalent. Ist rg(A) = r, so ist A Er 0 (wobei die Eintr¨age 0 Nullmatrizen geeigneter ¨aquivalent zu 0 0 Gr¨oße bezeichnen). Ist A quadratisch (p = n) und A0 = S −1 AS mit S ∈ GLn (K), so heißen A und A0 ¨ahnlich (oder konjugiert); ¨aquivalent ist, dass A = 0 MBB (f ), A0 = MBB0 (f ) f¨ ur geeignete Basen eines n-dimensionalen KVektorraums V ist, f ∈ End(V ). Elementare Zeilenumformungen einer Matrix entsprechen speziellen Basiswechseln (wi 7−→ wi + λwj ) im Bildraum, elementare Spaltenumformungen speziellen Basiswechseln im Urbildraum, sie k¨onnen auch durch Links- bzw. Rechtsmultiplikation mit Elementarmatrizen realisiert werden. Dies f¨ uhrt auf ein Berechnungsverfahren zur Inversenberechnung mittels elementarer Umformungen (Korollar 7.13 ) sowie zu Zerlegungen von Matrizen in Produkte von Dreiecksmatrizen und Permutationsmatrizen (LU-Zerlegung, LR-Zerlegung).
96
RAINER SCHULZE-PILLOT
8. Determinante und multilineare Algebra Definition 8.1. Sei V ein K-Vektorraum. Eine r-fache Multilinearform auf V ist eine Abbildung f : V r −→ K, so dass f¨ ur 1 ≤ i ≤ r, v1 , . . . , vr , vi0 ∈ V , λ ∈ K gilt: f (v1 , . . . , vi−1 , vi + λvi0 , vi+1 , . . . , vr ) = f (v1 , . . . , vr ) + λf (v1 , . . . , vi−1 , vi0 , vi+1 , . . . , vr ) (Die Abbildung fi : V −→ K, die durch fi (v) = f (v1 , . . . , vi−1 , v, vi+1 , . . . , vr ) gegeben ist, ist linear.) f heißt alternierend, wenn gilt: Sind v1 , . . . , vr nicht paarweise verschieden, so ist f (v1 , . . . , vr ) = 0. Lemma 8.2. Identifiziert man M (2 × 2, K) mit (K 2)2 und fasst die Determinante det ab db als Funktion der Spalten ac , db auf, so ist det : K 2 × K 2 −→ K eine 2-fache alternierende Multilinearform (k¨ urzer: alternierende Bilinearform). Beweis. Nachrechnen!
ab
Bemerkung: Fasst man die Determinante det c d = ad − bc einer 2 × 2-Matrix als Funktion der Spalten auf, so ist sie nach obigem Lemma eine alternierende auf K 2 . Betrachtet man 2-fache Multilinearform a −b zwei Punkte v = b und w0 = r · −a mit zueinander orthogonalen a −rb 2 Ortsvektoren im R , so ist det(v, w0 ) = det = r(a2 + b2 ) b ra √ √ das Produkt der Seitenl¨angen a2 + b2 und r( a2 + b2 ) des von den Ortsvektoren aufgespannten Rechtecks (mit Ecken 0, v, w0 , v + w0 ). Schert man das Rechteck zum Parallelogramm mit Ecken 0, v, w0 + λv, v + w0 + λv
(λ ∈ R),
so bleibt der Fl¨acheninhalt ebenso wie die Determinante det(v, w0 + λv) = det(v, w0 ) + λ det(v, v) = det(v, w0 ) unver¨andert; der Betrag der Determinante gibt also f¨ ur beliebige Vekto2 ren v, w im R die Fl¨ache des von ihnen aufgespannten Parallelogramms an. Lemma 8.3. Sei f : V r −→ K eine r-fache alternierende Multilinearform und v1 , . . . , vr ∈ V , λ ∈ K. Dann gilt: a) F¨ ur i 6= j ist f (v1 , . . . , vi−1 , vi + λvj , vi+1 , . . . , vr ) = f (v1 , . . . , vr ) (elementare Umformungen vom Typ vi 7−→ vi + λvj des Vektorsystems (v1 , . . . , vr ) ¨andern die Determinante nicht).
LINEARE ALGEBRA I, 2004/2005
97
b) f (v1 , . . . , vi−1 , λvi , vi+1 , . . . , vr ) = λf (v1 , . . . , vr ) c) Setzt man vi0 = vj , vj0 = vi und vk0 = vk f¨ ur i 6= k 6= j, so ist f (v10 , . . . , vr0 ) = −f (v1 , . . . , vr ) (Vertauschen von zwei Vektoren ¨andert das Vorzeichen). Bemerkung: Eigenschaft c) begr¨ undet das Wort “alternierend”. Ist 2 := 1 + 1 6= 0, so kann man aus c) die definierende Eigenschaft einer alternierenden Multilinearform zur¨ uckgewinnen, f¨ ur char(K) = 2 ist das i.a. nicht m¨oglich und c) wird schw¨acher als die definierende Eigenschaft. Beweis von Lemma 8.3. F¨ ur a) hat man (falls etwa j > i ist) f (v1 , . . . , vi−1 , vi + λvj , vi+1 , . . . , vj , . . . , vr ) = f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj , . . . , vr ) + λf (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj , . . . , vr ) = f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj , . . . , vr ) wie behauptet. b) folgt direkt aus der Definition der Multilinearit¨at. F¨ ur c) findet man (etwa f¨ ur j > i) mit Hilfe von a) und b) f (v1 , . . . , vi−1 , vj , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vr ) = f (v1 , . . . , vi−1 , vj + vi , vi+1 , . . . , vj−1 , vi , vj+1 , . . . , vr ) = f (v1 , . . . , vi−1 , vj + vi , vi+1 , . . . , vj−1 , vi − (vj + vi ), vj+1 , . . . , vr ) = f (v1 , . . . , vi−1 , vj + vi , vi+1 , . . . , vj−1 , −vj , vj+1 , . . . , vr ) = f (v1 , . . . , vi−1 , vj + vi − vj , vi+1 , . . . , vj−1 , −vj , vj+1 , . . . , vr ) = f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , −vj , vj+1 , . . . , vr ) = −f (v1 , . . . , vi−1 , vi , vi+1 , . . . , vj−1 , vj , vj+1 , . . . , vr ) Definition 8.4. Ist f eine alternierende n-fache Multilinearform auf K n , so wird f mit Hilfe der u ¨blichen Identifikation von Mn (K) mit n n (K ) durch f (A) := f (a1 , . . . , an ) f¨ ur eine Matrix A ∈ Mn (K) mit Spalten a1 , . . . , an auch als Abbildung f : Mn (K) → K aufgefasst. Eine Determinantenfunktion auf Mn (K) ist eine Abbildung d : Mn (K) −→ K, die als Funktion der Spalten a1 , . . . , an ∈ K n einer Matrix A ∈ Mn (K) eine alternierende n-fache Multilinearform ist und d(En ) = 1 erf¨ ullt. Korollar 8.5. Ist d : Mn (K) −→ K eine Determinantenfunktion und A ∈ Mn (K) mit rg(A) < n, so ist d(A) = 0.
98
RAINER SCHULZE-PILLOT
Beweis. Ohne Einschr¨ankung k¨onnen wir annehmen, dass die erste Spalte a1 von A eine Linearkombination n X a1 = λj aj j=2
ist. Die Multilinearit¨at von d ergibt dann n n X X d( λj aj , a2 , . . . , an ) = λj d(aj , a2 , . . . , an ) j=2
j=2
und weil d alternierend ist, sind hier alle Terme auf der rechten Seite gleich 0. Satz 8.6. Es gibt h¨ochstens eine Determinantenfunktion d : Mn (K) −→ K. Ist d˜ : Mn (K) −→ K (als Funktion der Spalten) eine alternierende n-fache Multilinearform und l¨asst sich A ∈ Mn (K) durch elementare Spaltenumformungen vom Typ i) in die Gestalt 1 0 ... mit δ ∈ K D= 0 1 δ ˜ ˜ n ), insbesondere ist d(A) = δ f¨ bringen, so ist d(A) = δ d(E ur eine Determinantenfunktion d. ˜ Beweis. Ist rg(A) < n, so ist nach dem vorigen Korollar d(A) = 0. Hat die Matrix A vollen Rang, so wissen wir aus dem Beweis von Satz 7.12, dass wir A durch elementare Zeilenumformungen vom Typ i) (zi 7→ zi + λzj mit j 6= i) in Diagonalgestalt 1 0 .. . D= 0 1 δ bringen kann. Genauso ist das nat¨ urlich durch elementare Spaltenumformungen vom Typ i) m¨oglich, und von diesen wissen wir, dass sie den Wert der alternierenden n-fachen Multilinearform d˜ nicht ¨andern ˜ ˜ (Lemma 8.3 a)), es gilt also d(A) = d(D). Lemma 8.3 b) impliziert ˜ ˜ dann, dass d(D) = δ d(En ) ist, was zu zeigen war (ist d eine Determinantenfunktion, so ist nach Definition d(En ) = 1). Lemma 8.7. Seien dn−1 : Mn−1 (K) −→ K und dn : Mn (K) −→ K Determinantenfunktionen. F¨ ur 1 ≤ j ≤ n und A ∈ Mn (K) sei Anj die (n − 1) × (n − 1)-Matrix, die aus A durch Streichen der n-ten Zeile und der j-ten Spalte entsteht (Streichungsmatrix). Dann gilt: n X dn (A) = (−1)n+j anj dn−1 (Anj ). j=1
LINEARE ALGEBRA I, 2004/2005
99
Beweis. Wir bezeichnen wieder mit a1 , . . . , an ∈ K n die Spalten der Matrix A. x1 ! x1 .. .. ˆˆ := ˆ := . und x F¨ ur einen Vektor x = schreiben wir x . xn−1 xn 0 x1 .. ∈ K n−1 . . xn−1 y1 ! y1 .. .. F¨ ur y = ∈ K n−1 schreiben wir i(y) := ∈ K n und . . yn−1 0
yn−1
d d = y f¨ ˆˆ ) = x ˆ f¨ ur y ∈ K n−1 . haben i(x ur x ∈ K n und i(y) Wir nutzen die Multilinearit¨at von dn aus und haben dn (A) = dn (a1 , . . . , an ) ˆn + ann en ) = dn (ˆ a1 + an1 en , . . . , a n X ˆn ) + ˆn ), = dn (ˆ a1 , . . . , a anj dn (ˆ a1 , . . . , en , . . . , a j=1
wobei im j-ten Summanden der Summe der Vektor en im j-ten Argument von dn steht und wo man bereits ber¨ ucksichtigt hat, dass alle ˆn + ann en ) auftreweiteren bei der Expansion von dn (ˆ a1 + an1 en , . . . , a tenden Terme verschwinden, weil der Vektor en in wenigstens zwei der Argumente der alternierenden Multilinearform dn auftritt. Da die Maˆ1 , . . . , a ˆn h¨ochstens Rang n − 1 hat, ist auch der trix mit den Spalten a Term dn (aˆ1 , . . . , aˆn ) gleich 0 und wir haben n X ˆn ). dn (A) = anj dn (ˆ a1 , . . . , en , . . . , a j=1
Der Ausdruck ˆˆn )) ˆˆ1 ), . . . , en , . . . , i(a ˆn ) = dn (i(a dn (ˆ a1 , . . . , en , . . . , a (mit en an der j-ten Stelle) im j-ten Summanden der rechten Seite dieser Gleichung kann jetzt als eine Funktion ˆˆj−1 , a ˆˆj+1 , . . . , a ˆˆn ) := dn (i(a ˆˆ1 ), . . . , en , . . . , i(a ˆˆn )) ˆˆ1 , . . . , a d˜n−1 (a ˆˆ1 , . . . , a ˆˆj−1 , a ˆˆj+1 , . . . , a ˆˆn ∈ K n−1 aufgefasst werden; der n − 1 Vektoren a als solche ist d˜n−1 offenbar eine alternierende n − 1-fache Multilinearform. Wegen der bereits bewiesenen Eindeutigkeit einer Determinantenfunktion ist dann d˜n−1 = d˜n−1 (En−1 )dn−1 . Da nun d˜n−1 (En−1 ) = dn (e1 , . . . , ej−1 , en , ej , . . . , en−1 ) gilt und die Matrix mit diesen Spalten durch n − j Spaltenvertauschungen in En u uhrt werden kann (man vertausche die j-te Spalte ¨berf¨
100
RAINER SCHULZE-PILLOT
nacheinander mit der (j + 1)-ten, (j + 2)-ten,. . . , n = (j + (n − j))-ten Spalte), folgt d˜n−1 (En−1 ) = (−1)n−j = (−1)n+j , was die Behauptung zeigt, da die (n − 1) × (n − 1)-Matrix mit den ˆˆ1 , . . . , a ˆˆj−1 , a ˆˆj+1 , . . . , a ˆˆn ∈ K n−1 gerade die Streichungsmatrix Spalten a Anj ist. Satz 8.8. F¨ ur jedes n ∈ N \ {0} gibt es genau eine Determinantenfunktion det : Mn (K) −→ K. Sie heißt die Determinante. Beweis. Wir zeigen das durch vollst¨andige Induktion, wobei der Induktionsanfang klar ist, da wir f¨ ur n = 1 und n = 2 bereits die Determinante kennen. Wir betrachten also n > 2 und nehmen an, f¨ ur j < n sei bereits die Existenz einer Determinantenfunktion dj bewiesen. Wir definieren dann dn auf die (wie wir wissen) einzig m¨ogliche Weise: dn (A) :=
n X
(−1)n+j anj dn−1 (Anj ).
j=1
Wir m¨ ussen zeigen, dass diese Funktion als Funktion der Spalten der Matrix A eine alternierende n-fache Multilinearform ist. ! a011 .. Zun¨achst die Multilinearit¨at: Wir w¨ahlen einen Vektor a01 = ∈ . 0 an1
K n und λ ∈ K, bezeichnen mit B die Matrix mit den Spalten b1 = ˜1 = a01 , b2 = a2 , . . . , bn = an und mit A˜ die Matrix mit den Spalten a 0 ˜2 = a2 , . . . , a ˜n = an . Dann ist a1 + λa1 , a ˜ := dn (A)
n X
(−1)n+j a ˜nj dn−1 (A˜nj )
j=1 1+n
= (−1)
(a1n +
λa01n dn−1 A1j
+
n X
anj (dn−1 (Anj ) + λdn−1 (Bnj ))
j=2
= dn (A) + λdn (B), was die Linearit¨at als Funktion der ersten Spalte zeigt. Genauso (mit etwas mehr Notationsaufwand) zeigt man die Linearit¨at als Funktion der anderen Spalten. Um zu sehen, dass dn alternierend ist, nehmen wir an, dass die erste Spalte und die k-te Spalte f¨ ur ein k 6= 1 u ¨bereinstimmen (und bemerken wieder, dass man genauso argumentieren kann, wenn ein anderes Paar von Spalten u ¨bereinstimmt). Alle Streichungsmatrizen Anj mit j 6= 1, j 6= k besitzen dann ebenfalls zwei gleiche Spalten und liefern daher einen Beitrag dn−1 (Anj ) = 0.
LINEARE ALGEBRA I, 2004/2005
101
Wir erhalten ˜ = (−1)1+n an1 dn−1 Anj + (−1)k+j anj dn−1 (Ank ) dn (A) = (−1)1+n an1 dn−1 Anj + (−1)k+n an1 (−1)k dn−1 (An1 ) = 0 Lemma 8.9. Ist A ∈ M (n × n, K) regul¨ar, so ist det(A) 6= 0. Beweis. Das folgt direkt aus Satz 8.6.
Satz 8.10. (Multiplikativit¨ at der Determinante) F¨ ur alle A, B ∈ M (n × n, K) gilt det(AB) = det(A) det(B). Insbesondere gilt f¨ ur eine invertierbare Matrix A ∈ Mn (K): det(A−1 ) = (det(A))−1 . Beweis. Ist rg(A) < n oder rg(B) < n, so ist auch rg(AB) < n (Korollar 5.16) und beide Seiten der Gleichung sind 0. Andernfalls l¨asst B sich durch elementare Spaltenumformungen vom Typ i) in die Gestalt 1 0 ... B0 = 0 1 δ mit δ = det(B) bringen, und durch die gleichen Spaltenumformungen wird AB in AB 0 u uhrt. ¨berf¨ 0 AB und AB haben also die gleiche Determinante, da Spaltenumformungen vom Typ i) bekanntlich die Determinante nicht ¨andern. Die Matrix AB 0 hat aber die gleichen ersten n − 1 Spalten wie A und ihre n-te Spalte ist das δ-fache der n-ten Spalte von A. Die Multilinearit¨at der Determinante impliziert also det(AB) = det(AB 0 ) = δ det(A) = det(B) det(A) wie behauptet. Alternativ kann man auch so vorgehen: Hat die Matrix B die Spalten (b1 , . . . , bn ), so hat AB die Spalten (Ab1 , . . . , Abn ). Die Abbildung dA : Mn (K) −→ K, die durch dA (B) := det(AB) gegeben ist, ist daher als Funktion der Spalten von B eine nfache alternierende Multilinearform, wegen der Eindeutigkeit der Determinante (Satz 8.6) folgt also det(AB) = dA (B) = dA (En ) det(B) = det(A) det(B). Korollar 8.11. a) Sind A und A0 in Mn (K) zueinander ¨ahnliche (konjugierte) Matrizen, so ist det(A) = det(A0 ).
102
RAINER SCHULZE-PILLOT
b) Sei V ein endlichdimensionaler K-Vektorraum, f ∈ End(V ) ein Endomorphismus von V . Dann ist die Determinante det(MB (f )) von f bez¨ uglich einer Basis B von V unabh¨angig von der Wahl der Basis B. Beweis. a) ist klar, da ja A und A0 genau dann ¨ahnlich zueinander sind, wenn A0 = S −1 AS mit einer invertierbaren Matrix S ∈ Mn (K) gilt, woraus wegen der Multiplikativit¨at der Determinante sofort det(A) = det(A0 ) folgt. Da zwei Matrizen genau dann den gleichen Endomorphismen bez¨ uglich verschiedener Basen repr¨asentieren, wenn sie zueinander ¨ahnlich sind, ist auch b) klar, da sie dann nach a) die gleiche Determinante haben. Definition 8.12. (Determinante eines Endomorphismus) Sei V ein endlichdimensionaler K-Vektorraum und f ∈ End(V ) ein Endomorphismus von V . Dann ist die Determinante det(f ) von f definiert als det(f ) := det(MB (f )) f¨ ur eine beliebige Basis B von V . Korollar 8.13. Die Menge SLn (K) := {A ∈ M (n × n, K) | det(A) = 1} ist eine Untergruppe von GLn (K); sie heißt die spezielle lineare Gruppe. SLn (K) besteht genau aus den Matrizen, die sich als Produkt von Elementarmatrizen Tij (λ) schreiben lassen. Beweis. Die Multiplikativit¨at der Determinante ist gleichwertig zu der Aussage, dass det ein Gruppenhomomorphismus von der Gruppe GLn (K) in die multiplikative Gruppe K × des K¨orpers K ist. Der Kern dieses Gruppenhomomorphismus ist offenbar SLn (K), diese Menge ist also eine Untergruppe. Elementarmatrizen T haben wegen det(T ) = det(T En ) = det(En ) Determinante 1, also haben auch alle Produkte von Elementarmatrizen Determinante 1. Umgekehrt folgt aus Satz 8.6, dass man f¨ ur jede Matrix A ∈ Mn (K) der Determinante 1 ein Produkt T von Elementarmatrizen finden kann, so dass T A = En und damit A = T −1 gilt. Da mit T auch T −1 ein Produkt von Elementarmatrizen ist, folgt auch die andere Richtung der Behauptung. Satz 8.14. (Symmetrie der Determinante) F¨ ur A ∈ Mn (K) ist det(A) = det(t A). Insbesondere ist die Determinante als Funktion der Zeilen einer (n×n)Matrix multilinear und alternierend und bleibt bei elementaren Zeilenumformungen vom Typ i) (zi 7−→ zi + λzj f¨ ur i 6= j) unver¨andert. Beweis. Hat A Rang < n, so sind oben beide Seiten gleich 0.
LINEARE ALGEBRA I, 2004/2005
103
Andernfalls k¨onnen wir ein Produkt T von Elementarmatrizen finden, so dass 1 0 ... TA = 0 1 δ mit δ = det(T A) = det(T ) det(A) = det(A) gilt. Wir sehen dann durch Transponieren dieser Gleichung, dass 1 0 ... t t = TA A T = t (T A) = 0 1 det(A) und daher det(A) = det(T A) = det(t At T ) = det(t A) gilt (man beachte, dass Elementarmatrizen Determinante 1 haben und dass die Transponierte einer Elementarmatrix ebenfalls Elementarmatrix ist). Wer m¨ochte, kann die Multilinearit¨at der Determinante als Funktion der Zeilen einer Matrix nat¨ urlich auch mit Gewalt an Hand der Formel n X dn (A) := (−1)n+j anj dn−1 (Anj ). j=1
nachrechnen.
Erinnerung: F¨ ur die weitere Untersuchung der Determinante werden einige Tatsachen u ¨ber Permutation ben¨otigt. Wir erinnern daher an Folgendes: Die bijektiven Abbildungen σ : {1, . . . , n} −→ {1, . . . , n} heißen Permutationen. Sie bilden die Gruppe Sn , diese hat n! = 1·2 · · · n Elemente. Permutationen werden geschrieben als 1 2 ··· n σ= . σ(1) σ(2) σ(n) Definition 8.15. Ein Element σ ∈ Sn , f¨ ur das es i 6= j ∈ {1, . . . , n} gibt mit σ(i) = j, σ(j) = i, σ(k) = k f¨ ur alle k 6∈ {i, j} heißt Transposition. (Eine Transposition vertauscht also zwei Elemente von {1, . . . , n} und l¨asst die anderen fest). Lemma 8.16. Jedes σ ∈ Sn l¨asst sich als Produkt von Transpositionen schreiben (in nicht eindeutiger Weise). ¨ Beweis. Man beweist das durch vollst¨andige Induktion nach n (Ubung) Definition 8.17. F¨ ur σ ∈ Sn sei Pσ := (pij ) ∈ Mn (R) gegeben durch 1 i = σ(j) pij = 0 sonst
104
RAINER SCHULZE-PILLOT
Pσ heißt die σ zugeordnete Permutationsmatrix, ihre Determinante det(Pσ ) =: sgn(σ) ∈ R heißt das signum oder Vorzeichen von σ. Lemma 8.18. Die Abbildung σ 7−→ Pσ ist ein Gruppenhomomorphismus von Sn in die Gruppe GLn (R), die Abbildung σ 7−→ sgn(σ) ein Gruppenhomomorphismus von Sn in die (multiplikative) Gruppe {±1}. Ist σ = τ1 · · · τ r mit Transpositionen τi , so ist sgn(σ) = (−1)r . Insbesondere ist der Wert von r modulo 2 unabh¨angig von der Wahl der Zerlegung von σ in Transpositionen, d.h., f¨ ur ein festes σ haben entweder alle Zerlegungen in Transpositionen von σ eine gerade L¨ange oder alle Zerlegungen in Transpositionen von σ haben eine ungerade L¨ange. Beweis. Ist Lσ : Rn −→ Rn die lineare Abbildung, die auf den Vektoren ej der Standardbasis durch Lσ (ej ) = eσ(j) operiert, so ist offenbar Lσ◦τ = Lσ ◦ Lτ f¨ ur σ, τ ∈ Sn und Lσ hat bez¨ uglich der Standardbasis n des R die Matrix Pσ . Es folgt, dass σ 7−→ Pσ und daher (wegen der Multiplikativit¨at der Determinante) auch σ 7−→ sgn(σ) wie behauptet ein Gruppenhomomorphismus ist. F¨ ur eine Transposition τ geht Pτ aus der Einheitsmatrix En durch Vertauschen der i-ten und der j-ten Spalte hervor, hat also Determinante −1. Das zeigt die behauptete Formel f¨ ur sgn(σ) und gleichzeitig, dass sgn Werte in {±1} nimmt; man sieht hieraus ebenfalls, dass der Wert von r modulo 2 unabh¨angig von der Wahl der Zerlegung ist. Definition 8.19. Eine Permutation σ heißt gerade, wenn sgn(σ) = +1 ist, ungerade, wenn sgn(σ) = −1 ist. Die Menge An = {σ ∈ Sn | sgn(σ) = +1} der geraden Permutationen heißt die alternierende Gruppe. Bemerkung: An ist (als Kern des Homomorphismus sgn : Sn −→ {±1}) ein Normalteiler in Sn mit |An | = n!2 . Man kann zeigen, dass An f¨ ur n 6= 4 der einzige nichttriviale Normalteiler von Sn ist und dass An f¨ ur n 6= 4 selbst keine nichttrivialen Normalteiler hat. Gruppen mit letzterer Eigenschaft nennt man einfach, sie sind (seit 1982) vollst¨andig klassifiziert: Es gibt einige unendliche Serien, z.B. die Gruppen An f¨ ur n ≥ 5 oder die Gruppen SLn (K) f¨ ur endliche K¨orper K, sowie 26 sogenannte sporadische Gruppen, die in keine der Serien passen. Die gr¨oßte dieser sporadischen Gruppen, die sogenannte Monster-Gruppe, hat Ordnung 246 · 320 · 59 · 76 · 112 · 133 · 17 · 19 · 23 · 29 · 31 · 41 · 47 · 59 · 71 . Definition 8.20. Eine Permutation σ ∈ Sn heißt ein Zykel der L¨ange r, wenn gilt:
LINEARE ALGEBRA I, 2004/2005
105
Es gibt a1 , . . . , ar ∈ {1, . . . , n} mit σ(ai ) = ai+1 f¨ ur 1 ≤ i ≤ r − 1, σ(ar ) = a1 . Man schreibt dann σ = (a1 · · · ar ) = (a2 · · · ar a1 ) = · · · = (ar a1 · · · ar−1 ) und nennt σ auch eine zyklische Permutation der Elemente a1 , . . . , ar . Lemma 8.21. Jede Permutation σ ∈ Sn l¨asst sich bis auf die Reihenfolge in eindeutiger Weise als Produkt σ = γ1 · · · γd elementfremder Zykeln γj schreiben, so dass jedes a ∈ {1, . . . , n} in (genau) einem der Zykel vorkommt. Beweis. F¨ ur σ ∈ Sn und a ∈ {1, . . . , n} definieren wir die Bahn von a unter der zyklischen Untergruppe < σ >⊆ Sn , die von σ erzeugt wird, als Bσ (a) := {a, σ(a), . . . , σ k−1 (a)}
mit k = min{j ∈ N| σ j (a) = a},
sie besteht offenbar aus allen σ j (a) mit j ∈ N. Die verschiedenen Bahnen unter einem festen σ ∈ Sn sind genau die ¨ ¨ Aquivalenzklassen unter der Aquivalenzrelation a ∼ a0 ⇔ es gibt j ∈ N mit σ j (a) = a0 , die Menge {1, . . . , n} ist also (f¨ ur jedes σ ∈ Sn ) die disjunkte Vereinigung der Bahnen unter σ. Sind a1 , . . . , ad Repr¨asentanten der verschiedenen Bahnen und k1 , . . . , kd die Elementanzahlen der Bahnen, so sieht man unmittelbar, dass σ die Zykelzerlegung σ = γ1 · · · γd
mit γi = (ai σ(ai ) . . . σ ki −1 (ai ))
hat.
Beispiel:
1 2 3 4 5 6 = (1 3 5)(2 4)(6), 3 4 5 2 1 6
Id{1,...,6} = (1)(2)(3)(4)(5)(6). Lemma 8.22. Sei σ ∈ Sn das Produkt von d Zykeln wie in Lemma 8.21 und Produkt von r Transpositionen. Dann ist r ≡ n − d mod 2. Beweis. Da (1 2)(2 3) · · · (k − 1, k) = (1 2 . . . k) ist, kann ein Zykel der L¨ange k als Produkt von k − 1 Transpositionen dargestellt werden. Ist daher σ = γ1 · · · γd
mit γi = (ai σ(ai ) . . . σ ki −1 (ai ))
106
RAINER SCHULZE-PILLOT
mit Zykeln γi der L¨angen ki , so haben wir eine Zerlegung von σ in ein Produkt von r Transpositionen mit r=
d X
(ki − 1) = −d +
i=1
d X
ki = n − d.
i=1
Da wir bereits wissen, dass r modulo 2 eindeutig festliegt, folgt die Behauptung. Bemerkung. Einen Beweis dieses Lemmas, der keine Determinantentheorie benutzt, findet man in §16 des Buchs Lineare Algebra“ von G. ” Stroth (Heldermann Verlag 1995), wo als Quelle auf Neumann, Stoy, Thompson: Groups and geometry, Oxford Science Publications 1994 verwiesen wird. Mit diesem Beweis kann man dann unabh¨angig, nur mit Hilfe elementarer Aussagen u ¨ber Permutationen, zeigen, dass die Parit¨at einer Zerlegung in Transpositionen unabh¨angig von der Wahl der Zerlegung ist. Insbesondere kann man also das Vorzeichen einer Permutation auch ohne Benutzung von Determinanten definieren. Satz 8.23. (Formel von Leibniz) F¨ ur A = (aij ) ∈ M (n × n, K) gilt P det(A) = σ∈Sn sgn(σ)a1,σ(1) · · · an,σ(n) P = σ∈Sn sgn(σ)aσ(1),1 · · · aσ(n),n . Beweis. Wir bezeichnen mit Abbn ⊇ Sn die Menge aller Abbildungen von {1, . . . , n} −→ {1, . . . , n} und haben auf Grund der Multilinearit¨at der Determinante n n X X det(A) = det( ai1 ei , . . . , ain ei ) i=1
=
X
i=1
aσ(1),1 · · · aσ(n),n det(eσ(1) , . . . , eσ(n) ).
σ∈Abbn
In dieser Summe liefern alle σ, die nicht in Sn (also nicht bijektiv und damit auch nicht injektiv) sind, einen Beitrag 0, da bei ihnen im Term det(eσ(1) , . . . , eσ(n) ) wenigstens zwei Argumente gleich sind. F¨ ur σ ∈ Sn ist det(eσ(1) , . . . , eσ(n) ) = sgn(σ), und es folgt die zweite der behaupteten Formeln. Die erste Formel folgt daraus wegen det(A) = det(t A). Bemerkung: a) Die Formel von Leibniz ist f¨ ur praktische Rechnungen nicht besonders brauchbar; man rechnet die Determinanten in der Regel effizienter durch elementare Umformung der Matrix in Dreiecksgestalt aus (siehe Korollar 8.24). Die Formel ist aber u.a. wichtig, um die Gr¨oße der Determinante in Abh¨angigkeit von den Koeffizienten absch¨atzen zu k¨onnen.
LINEARE ALGEBRA I, 2004/2005
107
b) Mit dem richtigen Differenzierbarkeitsbegriff f¨ ur Funktionen mehrerer Ver¨anderlicher (siehe Vorlesung Analysis 2) zeigt die Formel von Leibniz, dass die Determinante als Funktion der Eintr¨age der Matrix unendlich oft differenzierbar ist. c) Mit Hilfe der Formel von Leibniz kann man auch die Determinantentheorie “von unten” aufbauen: Man verwendet sie als Definition und zeigt, dass die so definierte Determinante die bekannten Eigenschaften hat. Insbesondere kann man direkt aus der Formel von Leibniz die Multiplikativit¨at der Determinante folgern. Bemerkung: Die Menge der singul¨aren Matrizen ist die Nullstellenmenge des durch die Leibnizsche Formel gegebenen Polynoms in den n2 Eintr¨agen der Matrix, also von kleinerer Dimension als n2 . Korollar 8.24. a) Sei T = (tij ) ∈ M (n × n, K) eine Dreiecksmatrix (obere oder untere). Dann ist det(T ) = t11 · · · tnn . A B b) Sei ∈ M (n × n, K) eine Blockmatrix mit A ∈ M (r × 0 C r, K), B ∈ M (r × (n − r), K), C ∈ M ((n − r) × (n − r), K). A B = det(A) det(C). Dann ist det 0 C ¨ Man benutze entweder die Formel von Leibniz oder Beweis. Ubung. geeignete elementare Umformungen. Satz 8.25. (Entwicklungsformel von Laplace) F¨ ur A ∈ M (n × n, K) gilt: a) F¨ ur 1 ≤ i ≤ n ist n X det(A) = (−1)i+j aij det(Aij ) j=1
(Entwicklung nach der i-ten Zeile). b) F¨ ur 1 ≤ j ≤ n ist n X det(A) = (−1)i+j aij det(Aij ) i=1
(Entwicklung nach der j-ten Spalte). (Aij ist wie u ¨blich die Streichungsmatrix). Korollar 8.26. a) (Vandermonde-Determinante). Seien a1 , . . . , an ∈ K. Dann ist 1 a1 · · · an−1 1 Y .. = (8.1) det ... ... (aj − ai ). . n−1 i<j 1 an an (Die Matrix in Gleichung 8.1 heißt Vandermonde-Matrix.)
108
RAINER SCHULZE-PILLOT
b) F¨ ur σ ∈ Sn ist sgn(σ) =
Y σ(j) − σ(i) i<j
j−i
= (−1)α ,
wo α = #{(i, j) | i < j und σ(i) > σ(j)} die Anzahl der Fehlst¨ande von σ ist. Beweis. a) Wir beweisen das durch Induktion nach n = 1. Die Behauptung ist klar f¨ ur n = 1 und f¨ ur n = 2. Sei n > 2 und die Behauptung bewiesen f¨ ur die (n−1)×(n−1) Vandermonde-Matrix. Seien s1 , . . . , sn die Spalten der Matrix. Wir f¨ uhren nacheinander die Spaltentransformationen sn → 7 .. . s2 → 7
sn − a1 sn−1 .. . s2 − a1 s1
durch (die die Determinante nicht ver¨andern) und erhalten die Matrix 1 0 ··· 0 1 a2 − a1 · · · an2 − a1 an−2 2 . . . .. .. 1 an − a1 · · · ann−1 − a1 ann−2 Entwickeln wir die Determinante in Gleichung (8.1) nach der ersten Zeile, so erhalten wir a2 − a1 · · · an2 − a1 a2n−2 .. . det ... . an − a1 · · · an−1 − a1 an−2 n n Ziehen wir hier f¨ ur 2 ≤ i ≤ n aus der i − 1-ten Zeile den Faktor ai − a1 heraus, so erhalten wir a2 − a1 · · · an2 − a1 an−2 1 a2 · · · a2n−2 n 2 Y .. .. , = det ... (ai −a1 ) det ... ... . . n−2 n−2 i=2 an − a1 · · · an−1 − a a 1 a a 1 n n n n Da nach Induktionsannahme 1 a2 · · · an−2 2 Y .. = ... ... (aj − ai ) . n−2 2≤i<j≤n 1 an an gilt, folgt die Behauptung. b)Wir betrachten die Vandermonde-Matrix A mit Eintr¨agen a1 = 1, a2 = 2, . . . , an = n, deren Determinante nach a) gleich Y (j − i) 1≤i<j≤n
LINEARE ALGEBRA I, 2004/2005
109
ist. Ist Pσ die der Permutation σ zugeordnete Permutationsmatrix, so geht Pσ A aus A durch Aus¨ uben der Permutation σ auf die Zeilen von A aus, Pσ A ist also die Vandermonde-Matrix mit a1 = σ(1), a2 = σ(2), . . . , an = σ(an ). Wir haben also Y sgn(σ) det(A) = det(Pσ A) = (σ(j) − σ(i)) det(A) 1≤i<j≤n
und daher sgn(σ) =
Y σ(j) − σ(i) i<j
j−i
wie behauptet.
Bemerkung: a) Beim hier gew¨ahlten Aufbau der Determinantentheorie folgt die Entwicklungsformel genauso wie ihr Spezialfall i = n in Lemma 8.7 leicht aus den Multilinearit¨atseigenschaften und der Eindeutigkeit der Determinante. Baut man die Determinantentheorie umgekehrt ausgehend von der Formel von Leibniz auf, so zeigt man die Entwicklungsformel durch direkte Rechnung. b) Der Entwicklungssatz von Laplace kann zu Entwicklungsformeln f¨ ur die Entwicklung nach beliebigen Zeilen- und Spaltensystemen verallgemeinert werden (siehe Lorenz, IV, §6). Satz 8.27. (Cramer’sche Regel) Sei A = (a1 , . . . , an ) ∈ GLn (K), b ∈ K n. x1 Dann l¨asst sich die (eindeutig bestimmte) L¨osung x = ... des lixn nearen Gleichungssystems Ax = b durch xj =
det Aj det A
(1 ≤ j ≤ n)
mit Aj = (a1 , . . . , aj−1 , b, aj+1 , . . . , an ) berechnen. Bemerkung: Auch die Cramer’sche Regel ist f¨ ur praktische Rechnung weniger effizient als die Berechnung durch den Gauß-Algorithmus. Sie erlaubt aber, die Abh¨angigkeit des L¨osungsvektors von den Eintr¨agen der Matrix A und dem Vektor b zu bestimmen, auch hier erh¨alt man z.B. beliebig h¨aufige Differenzierbarkeit. Satz 8.28. Zu A = (aij ) ∈ M (n × n, K) sei die Komplement¨armatrix A˜ = (˜ aij ) definiert durch a ˜ij = (−1)i+j det(Aij )
110
RAINER SCHULZE-PILLOT
(Aji die Streichungsmatrix, die durch Streichen der j-ten Zeile und der i-ten Spalte von A entsteht). Dann gilt ˜ = det(A) · En . AA˜ = AA Insbesondere gilt f¨ ur A ∈ GLn (K): A−1 =
1 ˜ A. det(A)
Bemerkung: Auch dieser Satz ist f¨ ur die praktische Inversenberechnung weniger geeignet als das Verfahren mit Hilfe elementarer Umformungen aus Satz 8.6. Man kann aber wieder die Aussage des Satzes benutzen, um theoretische Aussagen (Absch¨atzungen, Differenzierbarkeit) u ¨ber die Abh¨angigkeit der Inversen von den Eintr¨agen der Matrix A zu beweisen. Bemerkung: Bei den Beweisen dieses Abschnitts wurde nicht benutzt, dass Elemente 6= 0 in K invertierbar sind. Geht man die S¨atze und Beweise durch, so sieht man daher, dass alle Aussagen genauso f¨ ur Matrizen mit Eintr¨agen aus einem beliebigen kommutativen Ring R mit Einselement gelten. Die Kommutativit¨at der Multiplikation geht allerdings entscheidend ein; f¨ ur Matrizen u ¨ber den Hamiltonschen Quaternionen (Aufgabe 57) funktioniert die Determinantentheorie nicht ohne weiteres. Zusammenfassung: Die Determinante det(A), aufgefasst als Funktion der Spalten s1 , . . . , sn oder der Zeilen t z1 , . . . , t zn einer Matrix A ∈ M (n × n, K) ist eine alternierende n-fache Multilinearform mit det(En ) = 1; sie ist durch diese Eigenschaften eindeutig charakterisiert. F¨ ur sie gilt die Rekursionsformel (Laplace’sche Entwicklungsformel) Pn i+j det(A) = aij det(Aij ) i=1 (−1) Pn i+j = aij det(Aij ) j=1 (−1) mit den Streichungsmatrizen Aij . Ferner gilt die Formel von Leibniz P det(A) = σ∈Sn sgn(σ)a1,σ(1) · · · an,σ(n) P = σ∈Sn sgn(σ)aσ(1),1 · · · aσ(n),n . Beide Formeln werden in der Regel nicht zur praktischen Rechnung benutzt (stattdessen: Gauß-Algorithmus). Die Determinante von A ist genau dann 0, wenn die Matrix A singul¨ar ist. Die Determinante ist multiplikativ; ¨ahnliche Matrizen haben die gleiche
LINEARE ALGEBRA I, 2004/2005
111
Determinante. Mit Hilfe der Determinante erh¨alt man explizite Formeln f¨ ur die L¨osung eines linearen Gleichungssystems mit regul¨arer Matrix (Cramer’sche ˜ = (det A) · En mit Regel) und f¨ ur die Inverse einer Matrix (AA˜ = AA i+j a ˜ij = (−1) det(Aji )). Eine weitere wichtige Anwendung (Berechnung von Eigenwerten) wird im n¨achsten Abschnitt behandelt.
112
RAINER SCHULZE-PILLOT
9. Eigenvektoren und Eigenwerte Definition 9.1. Sei f : V −→ V lineare Abbildung von K-Vektorr¨aumen. Ein Vektor v 6= 0 aus V heißt Eigenvektor von f , wenn es λ ∈ K gibt mit f (v) = λv. Die Zahl λ ∈ K heißt dann der zugeh¨orige Eigenwert von f . Ist λ Eigenwert von f , so heißt Vλ (f ) := Vλ := {v ∈ V | f (v) = λv} der Eigenraum von f zum Eigenwert λ. Ist A ∈ Mn (K), so heißen die Eigenwerte und Eigenvektoren der zugeh¨origen linearen Abbildung LA : K n −→ K n auch die Eigenwerte und Eigenvektoren von A. Beispiele:
•
•
•
•
3 0 −1 1 1 2 −1 ∈ M3 (R) hat den Eigenvektor 2 zum A = −1 1 1 1 Eigenwert 2. 3 Die Matrix der Drehung des Rum die x-Achse um den Winkel 1 0 0 ϕ, A = 0 cos(ϕ) − sin(ϕ) ∈ M3 (R) hat den Eigenvektor 0 sin(ϕ) cos(ϕ) 1 0 zum Eigenwert 1 (Eigenvektoren zum Eigenwert 1 nennt 0 man auch Fixvektoren). Allgemeiner hat jede Drehung des R3 um eine Achse die Vektoren in Richtung der Achse als Fixvektoren. Sei C ∞ (R) := D(R) der R-Vektorraum der unendlich oft differenzierbaren Funktionen f : R −→ R, D : D(R) −→ D(R) die Ableitungsabbildung f 7−→ f 0 . Dann ist λ ∈ R Eigenwert von D mit zugeh¨origem Eigenvektor fλ (x) = exp(λx). Ist W der C-Vektorraum der unendlich oft differenzierbaren Funktionen f : R −→ C, die periodisch mit Periode 2π sind, und D wie oben der Ableitungsoperator, so ist f¨ ur jedes n ∈ Z die durch inx gn (x) := e = exp(inx) gegebene Funktion gn ein Eigenvektor von D zum Eigenwert in. In beiden F¨allen kann man zeigen, dass diese Eigenvektoren (bis auf skalare Vielfache) die einzigen Eigenvektoren von D sind. 0 −1 A= ∈ M (2 × 2, R) hat keine Eigenwerte in R: Wegen 1 0 A2 = −E2 m¨ usste f¨ ur einen Eigenvektor x zum Eigenwert λ gelten: −x = A2 x = A(λx) = λ(Ax) = λ2 x,
LINEARE ALGEBRA I, 2004/2005
113
also λ2 = −1. • Hat die Matrix A den Eigenvektor x zum Eigenwert λ, so ist f¨ ur T ∈ GLn (K) der Vektor T −1 x ein Eigenvektor der zu A ¨ahnlichen ¨ Matrix T −1 AT zum Eigenwert λ. Ahnliche Matrizen haben also die gleichen Eigenwerte und ihre Eigenr¨aume zu einem festen Eigenwert sind zueinander isomorph. Bemerkung: Es ist zweckm¨aßig, den Nullvektor nicht als Eigenvektor zuzulassen (siehe Definition). Dagegen kann λ = 0 durchaus als Eigenwert vorkommen. Lemma 9.2. Sei V ein endlichdimensionaler K-Vektorraum mit Basis B = (v1 , . . . , vn ), f : V −→ V ein Endomorphismus Pn von V , A = MB (f ) die Matrix von f bez¨ uglich B. Dann ist v = x vi genau dann i=1 i x1 Eigenvektor von f zum Eigenwert λ ∈ K, wenn x = ... Eigenvektor xn von A zum Eigenwert λ ist. Zu beidem ¨aquivalent ist: v ∈ Ker(λ Idv − f ) mit v 6= 0. Ferner sind folgende Aussagen ¨aquivalent: a) λ ∈ K ist Eigenwert von f , b) λ ∈ K ist Eigenwert von A, c) det(λEn − A) = 0, d) Ker(λ IdV − f ) 6= {0}. Ist λ Eigenwert von A, so erh¨alt man s¨amtliche Eigenvektoren von V zum Eigenwert λ durch L¨osen des linearen Gleichungssystems (λEn − A)x = 0 ¨ Beweis. Der einzige nicht evidente Teil der Behauptung ist die Aquivalenz der Aussagen a)-d). Hiervon ist a)⇔ b) ebenfalls klar, ferner ist klar, dass a) und b) ¨aquivalent zu d) sind, da Ker(λ IdV −f )\{0} genau aus den Eigenvektoren zum Eigenwert λ besteht. Da die Determinante von det(λEn − A) genau dann 0 ist, wenn die Matrix λEn − A singul¨ar ist und letzteres dazu ¨aquivalent ist, dass λ IdV − f nicht bijektiv (und damit auch nicht injektiv nach Satz 5.8) ist, folgt auch der Rest der Behauptung. 3 0 −1 1 2 −1 ∈ M (3 × 3, R), Beispiel: Sei wie oben A = −1 1 1 3 3 f = LA : R −→ R . Die Matrix A − λE3 wird wie folgt umgeformt: 3−λ 0 −1 1 2−λ −1 1 2 − λ −1 −→ 0 (λ − 3)(2 − λ) 2 − λ . −1 1 1−λ 0 3−λ −λ
114
RAINER SCHULZE-PILLOT
Ist λ = 2, so vertauscht man zweite und dritte Zeile und erh¨alt 1 0 −1 0 1 −2 ; 0 0 0 man findet die L¨osung x3 = 1, x2 = 2, 1 2 =: v2 zum Eigenwert 2. 1 Ist λ 6= 2, so dividiere man die zweite weiter um: 1 2 − λ −1 1 0 λ − 3 1 −→ 0 0 3 − λ −λ 0
x1 = 1, also den Eigenvektor
Zeile durch 2 − λ und forme 2 − λ −1 λ−3 1 . 0 1−λ
Man sieht, dass diese Matrix f¨ ur λ = 1 und f¨ ur λ = 3 singul¨ar wird, diese sind also ebenfalls Eigenwerte. 1 F¨ ur λ = 1 findet man den Eigenvektor 1 =: v1 zum Eigenwert 1, 2 1 f¨ ur λ = 3 den Eigenvektor 1 =: v3 zum Eigenwert 3. 0 Die Vektoren v1 , v2 , v3 bilden eine Basis des R3 , bez¨ uglich der LA die Matrix 1 0 0 0 2 0 0 0 3 in Diagonalgestalt hat. LA ist also die lineare Abbildung, die man erh¨alt, indem man in v1 ¨ Richtung keine Anderung vornimmt, in v2 -Richtung um den Faktor 2 und in v3 -Richtung um den Faktor 3 streckt. Definition und Lemma 9.3. Sei V ein endlichdimensionaler K-Vektorraum. f ∈ End(V ) heißt diagonalisierbar, wenn eine der folgenden ¨aquivalenten Aussagen gilt: a) V hat eine Basis aus Eigenvektoren von f . b) Bez¨ uglich einer geeigneten Basis von V hat die Matrix von f Diagonalgestalt. c) Ist B Basis von V und A = MB (f ), so gibt es T ∈ GLn (K), so dass T −1 AT eine Diagonalmatrix ist. Ist die Matrix von f bz¨ uglich einer geeigneten Basis von V eine Dreiecksmatrix, so heißt f trigonalisierbar. Eine Matrix A ∈ Mn (K) heißt diagonalisierbar bzw. trigonalisierbar, wenn der Endomorphismus LA von K n die jeweilige Eigenschaft hat.
LINEARE ALGEBRA I, 2004/2005
115
¨ Aquivalent dazu ist, dass es T ∈ GLn (K) gibt, so dass T −1 AT Diagonalgestalt bzw. Dreiecksgestalt hat. Beweis. Klar.
Beispiele • Die im vorigen Beispiel diskutierte Matrix A ∈M3 (R) ist diago1 1 1 1 0 0 nalisierbar, mit T = 1 2 1 ist T −1 AT = 0 2 0. 2 1 0 0 0 3 2 • Eine Drehung (6= Id) in R (insbesondere die oben diskutierte 0 −1 Drehung um 90o mit Matrix ) hat keinen Eigenvektor 1 0 in R2 , ist also nicht diagonalisierbar. Da f¨ ur eine obere Dreiecksmatrix der erste Standardbasisvektor e1 und f¨ ur eine untere Dreiecksmatrix en ein Eigenvektor ist, hat jede trigonalisierbare Matrix Eigenvektoren. Eine nichttriviale Drehung im R2 ist also auch nichttrigonalisierbar. 0 −1 Allerdings wird etwa die Matrix , als Matrix u ¨ber C 1 0 betrachtet, diagonalisierbar: Man findet Eigenwerte die beiden 1 1 i, −i mit zugeh¨origen Eigenvektoren , ∈ C2 (dabei ist i −i wie u a re Einheit mit i2 = −1). ¨blich i die imagin¨ 1 1 • Die Matrix A = hat als einzigen Eigenwert 1 und alle 0 1 1 Eigenvektoren sind Vielfache von (unabh¨angig davon, u ¨ber 0 welchem K¨orper man die Matrix betrachtet). Die Matrix ist also weder in M (2 × 2, R) noch in M (2 × 2, C) diagonalisierbar. Da sie Dreiecksgestalt hat, ist sie nat¨ urlich trigonalisierbar. Lemma 9.4. Sei V ein K-Vektorraum, f ∈ End(V ). Die Vektoren v1 , . . . , vr seien Eigenvektoren von f zu den paarweise verschiedenen Eigenwerten λ1 , . . . , λr . Dann sind v1 , . . . , vr linear unabh¨angig. Insbesondere gilt: Ist dim(V ) = n, so kann f nicht mehr als n verschiedene Eigenwerte haben. Beweis. Wir beweisen das durch vollst¨andige Induktion nach der Anzahl r der Vektoren. F¨ ur r = 1 ist die Behauptung trivial (Induktionsanfang), wir betrachten also r > 1 und nehmen an, die Behauptung sei f¨ ur r0 < r Eigenvektoren bewiesen (Induktionsannahme). Ist dann r X ai v i = 0 i=1
116
RAINER SCHULZE-PILLOT
mit Skalaren ai ∈ K, so wenden wir f auf diese Gleichung an und erhalten r r X X 0= ai f (vi ) = λ i ai v i . i=1
i=1
Wir multiplizieren die erste dieser beiden Gleichungen mit λ1 und haben jetzt die beiden folgenden Gleichungen: λ 1 a1 v 1 + λ 1 a2 v 2 + · · · + λ 1 ar v r = 0 λ1 a1 v1 + λ2 a2 v2 + · · · + λr ar vr = 0. Wir subtrahieren die erste Gleichung von der zweiten und haben (λ2 − λ1 )a2 v2 + · · · + (λr − λ1 )ar vr = 0. Da nach Induktionsannahme die Vektoren v2 , . . . , vr linear unabh¨angig sind, ist (λ2 − λ1 )a2 = . . . = (λr − λ1 )ar = 0, und da alle λj − λ1 6= 0 sind, folgt a2 = . . . = ar = 0, Pr
wegen i=1 ai vi = 0 also auch a1 v1 = 0 und damit wegen v1 6= 0 auch a1 = 0. P Wir haben also gezeigt, dass aus ri=1 ai vi = 0 folgt, dass a1 = . . . = ar = 0 gilt, die Vektoren v1 , . . . , vr sind also wie behauptet linear unabh¨angig. Satz 9.5. Sei V ein K-Vektorraum, f ∈ End(V ), λ1 , . . . , λr ∈ K seien paarweise verschiedene Eigenwerte von f , Ui := Vλi die jeweiligen Eigenr¨aume (1 ≤ i ≤ n). Dann bilden die Ui eine direkte Summe, jeder Vektor u aus U1 + · · · + Ur = {u1 + . . . + ur | ui ∈ Ui f¨ ur 1 ≤ i ≤ r} l¨asst sich also nur auf eine Weise als u = u1 + · · · + ur mit ui ∈ Ui f¨ ur 1 ≤ i ≤ n darstellen. Beweis. Wegen der Charakterisierung der direkten Summe in Aufgabe ¨ 1 von Blatt 7 der Ubungen folgt das direkt aus dem vorigen Lemma. Definition 9.6. Sei A ∈ Mn (K). Dann ist die charakteristische Polynomfunktion χA : K −→ K gegeben durch χA (λ) := det(λ · En − A). F¨ ur A ∈ Mn (K) ist χA (λ) =
n X
ai λ i
i=0
mit an = 1, man sagt: χA ist ein normiertes Polynom vom Grad n.
LINEARE ALGEBRA I, 2004/2005
117
Definition und Lemma 9.7. Sind A und A0 aus Mn (K) zueinander ¨ahnliche (konjugierte) Matrizen, so ist χA = χA0 . Ist V ein endlichdimensionaler K-Vektorraum, f ∈ End(V ), A die Matrix von f bez¨ uglich einer (beliebigen) Basis B, so ist χf := χA Beweis. Der Lemma-Anteil hiervon ist wegen T −1 (λ · En − A)T = λ · En − T −1 AT und der Multiplikativit¨at der Determinante klar. Korollar 9.8. λ ∈ K ist genau dann Eigenwert der Matrix A ∈ Mn (K) (des Endomorphismus f ∈ End(V )), wenn χA (λ) = 0 (χf (λ) = 0) gilt. Beweis. Auch das ist klar nach Lemma 9.2.
Satz 9.9. Sei V ein K-Vektorraum der Dimension n, f ∈ End(V ) so, dass f¨ ur alle λ ∈ K n Y χf (λ) = (λ − βi ) i=1
mit paarweise verschiedenen β1 , . . . , βn ∈ K gilt (das charakteristische Polynom χf von f zerf¨allt u ¨ber K vollst¨andig in verschiedene Linearfaktoren). Dann ist f diagonalisierbar. Beweis. Ist χf (λ) =
n Y (λ − βi ), i=1
so sind die βi Eigenwerte von f . Sind v1 , . . . , vn Eigenvektoren zu diesen Eigenwerten, so sind diese Vektoren nach Lemma 9.4 linear unabh¨angig, da die βi als paarweise verschieden vorausgsetzt wurden. Sie bilden also wegen dim(V ) = n eine Basis von V , die aus Eigenvektoren von f besteht, d.h., f ist diagonalisierbar. Falls χf zwar in Linearfaktoren zerf¨allt, diese aber nicht paarweise verschieden sind (wenn es also Linearfaktoren gibt, die zu einer h¨oheren Potenz in χf aufgehen), so wird es schwieriger zu entscheiden, ob f diagonalisierbar ist. Dies sieht man zum Beispiel durch Betrachten der Matrizen ( 10 11 ) und ( 10 01 ): W¨ahrend die zweite offenbar diagonal (und damit diagonalisierbar) ist, ist die erste nicht diagonalisierbar, beide Matrizen haben aber die gleiche charakteristische Polynomfunktion (λ − 1)2 . Immerhin k¨onnen wir noch den folgenden Satz zeigen: Definition und Satz 9.10. Sei V ein K-Vektorraum der Dimension n, f ∈ End(V ) so, dass f¨ ur alle λ ∈ K χf (λ) =
n Y (λ − βi ) i=1
118
RAINER SCHULZE-PILLOT
mit (nicht notwendig verschiedenen) β1 , . . . , βn ∈ K gilt (χf zerf¨allt u ¨ber K vollst¨andig in Linearfaktoren). Dann ist f trigonalisierbar. Umgekehrt gilt: Ist f trigonalisierbar, so zerf¨allt das charakteristische Polynom χf von f als n Y χf (λ) = (λ − βi ) i=1
mit β1 , . . . , βn ∈ K (die aber nicht notwendig paarweise verschieden sind). ¨ Insbesondere gilt also: Uber C ist jeder Endomorphismus trigonalisierbar. Beweis. Ist f trigonalisierbar, so hat f bez¨ uglich einer geeigneten Basis v1 , . . . , vn von V die (o. E. obere) Dreiecksmatrix β1 ∗ ∗ ... ∗ , βn f¨ ur die charakteristische Polynomfunktion χf von f gilt also n Y χf (λ) = (λ − βi ). i=1
Die andere Richtung der Behauptung zeigen wir durch Induktion nach n = dim(V ), wobei wir an einer Stelle einen Vorgrif auf den n¨achsten Abschnitt machen m¨ ussen. Der Induktionsanfang n = 1 ist trivial. Sei also n > 1 und die Behauptung f¨ ur R¨aume W mit dim(W ) < n gezeigt (Induktionsannahme). Da die charakteristische Polynomfunktion von f wie angegeben zerf¨allt, ist jedenfalls β1 ein Eigenwert, es gibt also einen Eigenvektor v1 zum Eigenwert β1 . Wir erg¨anzen ihn zu einer Basis B 0 von V . Bez¨ uglich dieser hat f die Matrix β1 ... 0 A0 = ... B 0 mit einer (n − 1) × (n − 1)-Matrix B. Wegen der Formel f¨ ur die Determinante einer Blockmatrix aus Korollar 8.24 ist n Y (λ − βi ) = χf (λ) = (λ − β1 )χB (λ). i=1
LINEARE ALGEBRA I, 2004/2005
119
Im n¨achsten Abschnitt werden wir sehen, dass daraus folgt, dass die charakteristische Polynomfunktion χB (λ) als n Y χB (λ) = (λ − βi ) i=2
zerf¨allt. Nach Induktionsannahme ist B trigonalisierbar, es gibt also T 0 ∈ GLn−1 (K), so dass (T 0 )−1 BT obere Dreiecksgestalt hat. Setzt man 1 0 ... 0 0 ∈ GLn (K), T = . .. T0 0 so hat T
−1
0
A T Dreiecksgestalt, A0 und damit f ist also trigonalisierbar.
Korollar 9.11. Sei A ∈ Mn (K) so, dass χA u ¨ber K vollst¨andig in Linearfaktoren zerf¨allt. Dann ist A trigonalisierbar, d. h., es gibt T ∈ GLn (K), so dass T −1 AT Dreiecksgestalt hat (mit den Eigenwerten β1 , . . . , βn als Diagonalelementen). Sind die Linearfaktoren paarweise verschieden, so ist A sogar diagonalisierbar. Will man in der Frage der Diagonalisierbarkeit u ¨ber den soeben erreichten Stand hinauskommen, so erweist sich das folgende Problem als hinderlich: F¨ K¨orper K k¨onnen verschiedene Polynomterme p(x) = Punr endliche i i=0 ai x die gleiche Funktion p : K −→ K definieren; z.B ist f¨ ur K = F2 = Z/2Z: xn = x
f¨ ur alle x,
n ∈ N \ {0},
also etwa x3 + 1 = x2 + 1 = x3 + x2 + x + 1 f¨ ur alle x ∈ F2 , eine Polynomfunktion kann also durch verschiedene Terme gegeben werden und auch der Grad einer Polynomfunktion (als h¨ochster vorkommender Exponent im definierenden Term) ist nicht eindeutig definiert. Es ist daher zweckm¨aßig, zu einer Definition des Begriffs Polynom“ bzw. ” polynomialer Term“ zu kommen, die diese Mehrdeutigkeit ausschließt. ” Das werden wir im n¨achsten Abschnitt tun. Zusammenfassung: Eigenvektoren eines Endomorphismus f des Vektorraums V sind Vektoren v 6= 0, so dass f (v) = λv f¨ ur ein λ ∈ K ist; dieses λ heißt der zugeh¨orige Eigenwert. Eigenvektoren zu verschiedenen Eigenwerten sind linear unabh¨angig.
120
RAINER SCHULZE-PILLOT
Ist V endlichdimensional, so sind die Eigenwerte genau die Nullstellen des charakteristischen Polynoms χf = det(λIdV − f ). Ist f diagonalisierbar(¨ahnlich (konjugiert) zu einer Diagonalmatrix), so zerf¨allt χf in Linearfaktoren, das gleiche gilt sogar, wenn f nur trigonalisierbar (¨ahnlich (konjugiert) zu einer Dreiecksmatrix) ist. Zerf¨allt umgekehrt χf in Linearfaktoren, so ist f trigonalisierbar, sind diese Linearfaktoren paarweise verschieden, so ist f sogar diagonalisierbar. Kommen Linearfaktoren mehrfach vor, so k¨onnen wir im Moment noch nicht entscheiden, ob f diagonalisierbar ist oder nicht, es gibt Beispiele f¨ ur beide M¨oglichkeiten.
LINEARE ALGEBRA I, 2004/2005
121
10. Ringe, Ideale und Polynomring Um das am Ende des vorigen Abschnitts angesprochene Problem bei der Behandlung von Polynomen auszur¨aumen, werden wir in diesem P Abschnitt einen abstrakten Ring von Polynomen ni=1 ai X i u ¨ber dem K¨orper K in einer Variablen X definieren, in dem zwei Polynome genau dann gleich sind, wenn sie die gleichen Koeffizeinten haben. Zun¨achst erinnern wir daran, was ein Ring ist und f¨ uhren ein paar erg¨anzende Begriffe ein. Definition 10.1. Eine Menge R mit Verkn¨ upfungen +, · : R×R −→ R heißt Ring, wenn gilt: a) (R, +) ist kommutative Gruppe (mit neutralem Element 0). b) · ist assoziativ: F¨ ur a, b, c ∈ R gilt a · (bc) = (ab) · c. c) Es gelten die Distributivgesetze a(b + c) = ab + ac (a + b)c = ac + bc
f¨ ur a, b, c ∈ R
Falls es ein neutrales Element 1 ∈ R bez¨ uglich der Multiplikation · gibt, so heißt 1 das Einselement des Ringes und R ein Ring mit Einselement. Ist die Multiplikation · kommutativ, so heißt R ein kommutativer Ring. Gibt es a, b ∈ R, a 6= 0 6= b mit ab = 0, so heißen a, b Nullteiler in R, andernfalls heißt R nullteilerfrei. Ein kommutativer Ring mit Einselement, der nullteilerfrei ist, heißt Integrit¨atsbereich. Bemerkung. a) In einem Ring gilt stets a · 0 = 0 · a = 0 f¨ ur alle a ∈ R. b) Gibt es im Ring R ein neutrales Element bez¨ uglich der Multiplikation, so ist dieses eindeutig bestimmt. c) F¨ ur den Rest dieser Vorlesung haben alle Ringe ein Einselement. In der Literatur wird die Existenz des Einselements manchmal zur Definition des Begriffes Ring hinzugenommen, manchmal nicht. d) Der Nullring {0} ist von dieser Definition ebenfalls zugelassen, in ihm ist das einzige Element gleichzeitig Nullelement und Einselement. Lemma 10.2. Ein kommutativer Ring R ist genau dann nullteilerfrei, wenn in R die K¨ urzungsregel gilt, d. h., wenn f¨ ur a, b, c ∈ R, a 6= 0 gilt: ab = ac ⇔ b = c. Beweis. Sei R nullteilerfrei und seien a, b, c ∈ R, a 6= 0 mit ab = ac. Dann ist 0 = ab−ac = a(b−c) mit a 6= 0, also b−c = 0 nach Definition der Nullteilerfreiheit und daher b = c.
122
RAINER SCHULZE-PILLOT
Gilt umgekehrt in R die K¨ urzungsregel und sind a, b ∈ R, a 6= 0 mit ab = 0, so ist 0 = ab = a0 und nach der K¨ urzungsregel folgt b = 0, also ist R nullteilerfrei. Beispiele: • Z/mZ f¨ ur m ∈ Z ist ein Ring. Etwa f¨ ur m = 4 ist 2 ein Nullteiler. • Z ist ein Ring ohne Nullteiler. • Ist K ein K¨orper, so ist K erst recht ein Ring (ohne Nullteiler). • Ist K ein K¨orper, so ist Mn (K) ein Ring. • Ist K ein K¨orper, V ein K-Vektorraum, so ist End(V ) ein Ring. • Sei C(R) die Menge der stetigen Funktionen von R nach R. Dann ist C(R) bez¨ uglich der u ¨blichen Operationen (f + g)(x) = f (x)+g(x), (f g)(x) = f (x)g(x) ein kommutativer Ring, der nicht nullteilerfrei ist. Das Gleiche gilt, wenn man stattdessen die Menge aller Funktionen oder die Menge aller differenzierbaren Funktionen von R nach R betrachtet. Definition 10.3. Sei (R, +, ·) ein kommutativer Ring. Ein Ideal I ⊆ R ist eine Teilmenge, f¨ ur die gilt: a) (I, +) ist eine Untergruppe von (R, +). b) F¨ ur a ∈ R, x ∈ I gilt ax ∈ I. Gibt es ein c ∈ R, so dass I = {ac | a ∈ R} gilt, so heißt I ein Hauptideal, man schreibt I = (c) = Rc und sagt, dass c das Hauptideal I = (c) erzeugt. Beispiel: a) Im Ring Z der ganzen Zahlen ist jede Untergruppe bez¨ uglich der Addition bereits ein Ideal: Ist H ⊆ Z eine Untergruppe von Z und a + ··· + a falls n ≥ 0 | {z } n−mal wegen a ∈ H, n ∈ Z, so ist na = −(a + · · · + a) falls n < 0 | {z } |n|−mal
der Untergruppeneigenschaft von H ebenfalls in H. Insbesondere ist also f¨ ur m ∈ Z die Untergruppe mZ = {mn | n ∈ Z} ein Ideal in Z, das von m erzeugt wird. b) Ist R ein Ring, c ∈ R, so ist (c) := {ac | a ∈ R} ein Ideal, das von c erzeugte Hauptideal. c) Ist R ein Ring, c1 , . . . , cn ∈ R, so ist n X I := (c1 , . . . , cn ) := { ai ci | ai ∈ R} i=1
ein Ideal, das von c1 , . . . , cn erzeugte Ideal. Alle Ideale dieses Typs heißen endlich erzeugt. Es gibt Ringe, in denen jedes Ideal endlich erzeugt ist, solche Ringe heißen noethersch (Emmy Noether, 1882-1935). Es gibt aber auch Ringe, die diese Eigenschaft nicht
LINEARE ALGEBRA I, 2004/2005
123
haben. Ein ring, in dem jedes Ideal sogar ein Hauptideal ist, heißt Hauptidealring d) Ist R = K K¨orper, so sind {0} und K die einzigen Ideale. Lemma 10.4. Im Ring Z der ganzen Zahlen ist jedes Ideal ein Hauptideal, also von der Form (m) = mZ = {mq | q ∈ Z} f¨ ur ein m ∈ Z. Beweis. Sei I ⊆ Z ein Ideal. Ist I = {0}, so ist I das von 0 erzeugte Hauptideal. Ist I 6= {0}, so gibt es positive Zahlen in I, da zu jedem a ∈ I auch −a ∈ I gilt. Sei m die kleinste positive Zahl in I und n ∈ I beliebig. Nach Lemma 2.9 (Division mit Rest) k¨onnen wir n = mq + r mit q, r ∈ Z, 0 ≤ r < m schreiben. Da r = n − mq ∈ I gilt und m nach Definition die kleinste positive Zahl in I ist, folgt aus r < m, dass r = 0 gilt. Daher ist n = mq ∈ (m) = mZ f¨ ur jedes n ∈ I, also I ⊆ (m) = mZ. Da aus der Idealeigenschaft umgekehrt (m) = mZ ⊆ I folgt, ist die Behauptung bewiesen. Satz 10.5. Sei R kommutativer Ring, I ⊆ R ein Ideal, R/I := {a + I | a ∈ R} die Menge der Nebenklassen von I in R. Dann wird R/I durch die Verkn¨ upfungen (a + I) + (b + I) = (a + b) + I (a + I)(b + I) = ab + I zu einem kommutativen Ring mit Nullelement 0 + I und Einselement 1 + I. R/I heißt der Faktorring von R nach I. Beweis. Dass die angegebene Addition auf R/I wohldefiniert ist und aus R/I eine kommutative Gruppe macht, wissen wir bereits aus Satz 6.4 (Definition der Faktorgruppe). Wir m¨ ussen zeigen, dass auch die angegebene Multiplikation wohldefiniert ist. Das l¨auft nach dem u ¨blichen Schema ab: Seien a, a0 , b, b0 ∈ R mit a + I = a0 + I, b + I = b0 + I, also mit a − a0 ∈ I, b − b0 ∈ I. Dann ist a0 b0 = a0 b − a0 (b − b0 ) = ab − (a − a0 )b − a0 (b − b0 ) ∈ ab + I, da wegen a − a0 ∈ I, b − b0 ∈ I aus der Definition des Ideals folgt, dass auch (a−a0 )b ∈ I, a0 (b−b0 ) ∈ I und daher auch −(a−a0 )b−a0 (b−b0 ) ∈ I gilt. Also ist die zun¨achst von der Auswahl der Repr¨asentanten der Nebenklassen abh¨angige Definition des Produkts zweier Nebenklassen a + I, b+I in Wahrheit von der Auswahl dieser Repr¨asentanten unabh¨angig, die Multiplikation ist wohldefiniert. Dass die Multiplikation in R/I die in der Definition eines Rings geforderten Eigenschaften hat, pr¨ uft man sofort mit Hilfe der entsprechenden Eigenschaften der Multiplikation in R nach.
124
RAINER SCHULZE-PILLOT
Definition 10.6. Sei R ein kommutativer Ring. a) Sind a, b ∈ R, so heißt a ein Teiler von b (a|b, a teilt b), wenn es c ∈ R gibt mit ac = b. b) a ∈ R heißt Einheit in R, wenn es a0 ∈ R gibt mit aa0 = 1. Die Menge der Einheiten wird mit R× bezeichnet. c) a, b ∈ R heißen zueinander assoziiert, wenn es eine Einheit ∈ R gibt mit b = a. Beispiele: • Die Einheiten in Z sind +1, −1. a und b in Z sind genau dann assoziiert, wenn |a| = |b| gilt. • Die Einheiten im Ring C(R) der stetigen reellen Funktionen sind die Funktionen, die keine Nullstelle haben. • In einem K¨orper K sind alle Elemente außer 0 Einheiten, die Menge K × der Einheiten von K ist also gleich K \ {0}. Ferner teilt in einem K¨orper jedes a 6= 0 jedes K¨orperelement b und alle Elemente 6= 0 sind zueinander assoziiert. Die Begriffe aus der obigen Definition sind also nur interessant in Ringen, in denen nicht alle von 0 verschiedenen Elemente multiplikativ invertierbar sind. Lemma 10.7. Sei R ein kommutativer Ring. Dann bilden die Einheiten von R bez¨ uglich der Multiplikation eine Gruppe, die Einheitengrup× pe R von R. ¨ Beweis. Ubung
Lemma 10.8. Sei R kommutativer Ring. Dann gilt f¨ ur a, b ∈ R genau dann a|b, wenn (b) ⊆ (a) gilt. ¨ Beweis. Ubung
Beispiel: In Z sind (nach Lemma 10.4) alle Ideale Hauptideale, das Ideal (a) besteht genau aus den durch a teilbaren Zahlen. Sind a, b ∈ Z, so ist also auch das Ideal (a, b) = {ma + nb | m, n ∈ Z} ein Hauptideal, etwa gleich (d) mit einem d ∈ Z, das ≥ 0 gew¨ahlt werden kann. Sei jetzt wenigstens eine der Zahlen a und b von 0 verschieden. F¨ ur d gilt dann wegen (a) ⊆ (a, b) = (d): d|a, d|b, d ist also ein gemeinsamer Teiler von a und b. Jeder gemeinsame Teiler von a und b teilt alle ma + nb und daher auch d; d ist daher der gr¨oßte gemeinsame Teiler von a und b. Insbesondere sehen wir: Der gr¨oßte gemeinsame Teiler ggT(a, b) von a und b l¨asst sich als d = ma + nb mit m, n ∈ Z schreiben. In Analogie zu diesem Beispiel nennt man in einem beliebigen Hauptidealring R jedes Element d, das das von zwei Ringelementen a, b erzeugte Ideal (a, b) erzeugt, einen gr¨oßten gemeinsamen Teiler von a und b und schreibt d = ggT(a, b). Der gr¨oßte gemeinsame Teiler
LINEARE ALGEBRA I, 2004/2005
125
d = ggT(a, b) ist dann genau wie oben durch folgende Eigenschaft charakterisiert: d teilt a und b, und jeder gemeinsame Teiler d0 von a und b teilt auch d. Durch diese Eigenschaft kann man einen gr¨oßten gemeinsamen Teiler sogar in einem beliebigen kommutativen Ring (ohne Nullteiler) definieren, es ist dann aber im Allgemeinen nicht klar, ob zu zwei Ringelementen a, b ein gr¨oßter gemeinsamer Teiler existiert. Definition 10.9. Sind R, R0 Ringe, so heißt f : R −→ R0 Ringhomomorphismus, wenn f¨ ur alle a, b ∈ R gilt: f (a + b) = f (a) + f (b), f (ab) = f (a)f (b). Sind R, R0 Ringe mit Einselementen 1R , 1R0 , so verlangt man noch: f (1R ) = 1R0 . Ist f zus¨atzlich bijektiv, so heißt es Ringisomorphismus. Lemma 10.10. Seien R, R0 (kommutative) Ringe, f : R −→ R0 ein Ringhomomorphismus. Dann ist Ker(f ) ein Ideal in R. ¨ Beweis. Ubung
Definition 10.11. Sei R ein Ring. Eine abelsche Gruppe (M, +) mit einer Verkn¨ upfung · : R × M −→ M heißt ein R-Modul, wenn gilt: a) (ab)m = a(bm) a, b ∈ R, m ∈ M , b) a(m1 + m2 ) = am1 + am2 , (a1 + a2 )m = a1 m + a2 m a, a1 , a2 ∈ R, m, m1 , m2 ∈ M c) 1 · m = m m ∈ M (Die Anforderung c) wird in der Literatur mitunter fortgelassen.) Beispiel: a) Ist R = K ein K¨orper, so sind die K-Moduln genau die KVektorr¨aume. b) Ist M irgendeine abelsche Gruppe, so wird M durch m + ·{z · · + m} a≥0 | a−mal a · m := − (m + · · · + m) a < 0 {z } | |a|−mal
zu einem Z-Modul. Insbesondere wird Z/mZ durch a · j := aj zu einem Z-Modul. c) Sei K ein K¨orper, R = Mn (K) der Ring der n × n-Matrizen. Dann wird K n durch die Verkn¨ upfung (A, x) 7→ A · x zu einem R-Modul. d) Genauso wird ein K-Vektorraum V durch (f, v) 7→ f (v) ∈ V zu einem End(V )-Modul.
126
RAINER SCHULZE-PILLOT
Lemma 10.12. Sei R ein kommutativer Ring. Dann ist I ⊆ R genau dann ein Ideal in R, wenn I mit den Verkn¨ upfungen von R ein R-Modul ist. ¨ Beweis. Ubung Definition 10.13. Sind M, M 0 zwei R-Moduln, so heißt f : M −→ M 0 ein R-Modulhomomorphismus, wenn gilt: a) f (m1 + m2 ) = f (m1 ) + f (m2 ) m1 , m2 ∈ M , b) f (am) = af (m) a ∈ R, m ∈ M . Ist f zus¨atzlich bijektiv, so heißt es Isomorphismus von R-Moduln. Beispiel: Ist R = K K¨orper, so sind die K-Modulhomomorphismen genau die linearen Abbildungen. Bemerkung: Die Begriffe Linearkombination, lineare H¨ ulle, Summe, lineare Abh¨angigkeit/Unabh¨angigkeit u bertragen sich sinngem¨ aß von ¨ Vektorr¨aumen auf Moduln. Definition 10.14. Ein R-Modul M heißt frei, wenn es eine Teilmenge B ⊆ M gibt, so dass jedes m ∈ M sich eindeutig als X m= a(b) · b b∈B
mit a(b) ∈ R, a(b) 6= 0 f¨ ur nur endlich viele b ∈ B schreiben l¨asst. (Ist B = {b1 , . . . , br } endlich, so heißt das P also: Jedes m ∈ M l¨asst sich eindeutig als m = ri=1 ai bi mit ai ∈ R schreiben.) Eine solche Teilmenge B heißt eine Basis von M . Der R-Modul M heißt endlich erzeugt, wenn es Elemente P m1 , . . . , mr = M gibt, so dass jedes Element von M sich als m = ri=1 ai mi mit ai ∈ R schreiben l¨asst, die Menge {m1 , . . . , mr } heißt dann ein Erzeugendensystem. Beispiel: a) Ist R = K K¨orper, so ist jeder K-Modul frei (da jeder Vektorraum eine Basis hat), er ist genau dann endlich erzeugt, wenn er endliche Dimension hat. b) In Z/mZ (als Z-Modul) gibt es keine Basis, da f¨ ur jedes v 6= 0 in Z/mZ gilt: m·v = 0 (und Darstellungen daher niemals eindeutig sind). Bemerkung: Nicht alle Eigenschaften von Basen von Vektorr¨aumen u ¨bertragen sich auf Basen von R-Moduln. Wie wir im letzten Beispiel oben gesehen haben, muss es in einem Z-Modul keine Basis geben. Auch wenn ein Modul frei ist, gilt z. B. der Austauschsatz (Satz 4.15) nicht, da in seinem Beweis durch beliebige Elemente 6= 0 dividiert wird, w¨ahrend wir bei Moduln u ¨ber einem allgemeinen kommutativen Ring nur durch Einheiten des Rings dividieren k¨onnen und in der Regel nicht alle von 0 verschiedenen Elemente Einheiten sind.
LINEARE ALGEBRA I, 2004/2005
127
Definition 10.15. Sei R ein kommutativer Ring. Eine R-Algebra ist ein R- Modul A, auf dem zus¨atzlich eine Multiplikation (a, b) 7→ a · b definiert ist und f¨ ur den gilt: a) (A, +, ·) ist ein Ring mit Einselement. b) F¨ ur a, b ∈ A, λ ∈ R gilt λ(a · b) = (λa) · b = a · (λb). Beispiel: a) Ist K ein K¨orper und L ⊇ K ein Oberk¨orper von K, so ist L eine K-Algebra. b) Ist R ein kommutativer Ring und Mn (R) die Menge der n × nMatrizen u ¨ber R, so ist Mn (R) eine R-Algebra. c) Ist K ein K¨orper, V ein K-Vektorraum, so ist End(V ) eine KAlgebra. Nach diesen allgemeinen Definitionen und Aussagen u ¨ber Ringe wenden wir uns wieder unserem Ziel zu, einen abstrakten Polynomring einzuf¨ uhren. Definition 10.16. Sei R ein kommutativer Ring. Ein Polynomring u ¨ber R in einer Unbestimmten X ist ein kommutativer Ring A (mit Einselement) 1 und einem ausgezeichneten Element X, so dass gilt: a) A ist eine R-Algebra b) Jedes Element f 6= 0 von A l¨asst sich eindeutig als f=
n X
ai X i
mit ai ∈ R, an 6= 0
i=0
f¨ ur ein n ∈ N schreiben. Hat f 6= 0 diese Darstellung, so heißt f vom Grad n, man schreibt deg(f ) = n. Dem Nullpolynom wird manchmal der Grad −∞ zugeordnet. Das Polynom f heißt normiert, falls an = 1 gilt. Mit dieser Definition wissen wir zwar, was wir erreichen wollen, wir m¨ ussen uns aber den gew¨ unschten Polynomring erst noch konstruieren. P Es ist naheliegend, wie man dabei vorzugehen hat: Ein Polynom f = ni=0 ai X i soll durch das (n + 1)-Tupel seiner Koeffizienten ai ∈ R bestimmt sein, wobei n = deg(f ) ∈ N0 von f abh¨angt und beliebig groß sein kann. Erg¨anzen wir dieses (n + 1)-Tupel durch unendlich viele Nullen zu einer unendlichen Folge (aj )j∈N0 von Elementen von R, so sind in dieser Folge offenbar nur endlich viele (n¨amlich h¨ochstens deg(f ) + 1 viele) Folgenglieder von 0 verschieden. Umgekehrt erhalten wir jede Folge (aj )j∈N0 von Elementen von R, in der nur endlich viele Folgenglieder von 0 verschieden sind, als Fortsetzung des Koeffiziententupels eines Polynoms, Polynome im Sinne unserer Definition m¨ ussen also in Bijektion zu solchen Folgen stehen.
128
RAINER SCHULZE-PILLOT
Da im Polynomring das Distributivgesetz gelten P soll, ist ferner klar, n i dass das Produkt f g von zwei Polynomen f = i=0 ai X und g = Pm P P n+m j k j=0 bj X gleich k=0 ck X mit ck = i+j=k ai bj sein muss, wenn es u unscht zu konstruie¨berhaupt m¨oglich ist, den Polynomring wie gew¨ ren. Das f¨ uhren wir jetzt durch. Definition und Satz 10.17. Sei R ein kommutativer Ring (mit Einselement). In A := R[X] := R(N0 ) = {a = (aj )j∈N0 | aj ∈ R, aj = 0 f¨ ur fast alle j} werde eine Verkn¨ upfung (Multiplikation) definiert durch: (a · b)n =
n X
aj bn−j ,
j=0
ferner sei die Addition wie u ¨blich durch (a + b)n = an + bn definiert. Dann gilt: a) A mit + und · ist eine kommutative R-Algebra b) Die Elemente e(i) ∈ A seien f¨ ur i ∈ N0 definiert durch (e(i) )n := δin . Dann ist e(0) das Einselement von A, und f¨ ur i, j ∈ N0 gilt e(i) · e(j) = e(i+j) . Insbesondere gilt mit X := e(1) : X i = e(i)
f¨ ur alle i ∈ N0 .
c) Ist 0 6= a ∈ A und n := max{j ∈ N0 | aj 6= 0}, so ist a=
n X
aj X j .
j=0
d) Der Ring A ist ein Polynomring u ¨ber R im Sinne von Definition 10.16. Jeder Polynomring A0 in einer Unbestimmten X 0 u ¨ber R ist zu A kanonisch isomorph durch n X i=0
i
ai X 7−→
n X
ai (X 0 )i .
i=0
e) Ist R nullteilerfrei, so auch A = R[X] und es gilt deg(f g) = deg(f ) + deg(g) f¨ ur von 0 verschiedene Polynome f, g. f) Die Einheiten in R[X] sind die konstanten Polynome c (Polynome vom Grad 0) mit c ∈ R× .
LINEARE ALGEBRA I, 2004/2005
129
Beweis. a) Dass (A, +) eine abelsche Gruppe ist, wissen wir bereits. Die Assoziativit¨at der Multiplikation m¨ ussen wir nachrechnen: Sind a, b, c ∈ A, so ist der n-te Koeffizient ((ab)c)n von (ab)c gleich n X k X ( (aj bk−j ))cn−k =
X
ar b s c t ,
r,s,t r+s+t=n
k=0 j=0
und den gleichen Wert erh¨alt man, wenn man den n-ten Koeffizienten von a(bc) ausrechnet. Die Existenz des Einselements sehen wir in b), die Kommutativit¨at ist klar, das Distributivgesetz und die Identit¨at λ(ab) = (λa) · b = a · (λb) f¨ ur λ ∈ R, a, b ∈ A rechnet man leicht nach. Pn (0) b) Offenbar ist (e(0) · a)n = j=0 ej an−j = 1 · an = an und daher (0) e · a = a f¨ ur beliebiges a ∈ A, e(0) ist daher neutrales Element bez¨ uglich der Multiplikation in A. Sind i, j ∈ N0 , so hat man ( n n X X 1 falls i + j = n (i) (j) (i) (j) (e · e )n = ek en−k = δik δj,n−k = , 0 sonst k=0 k=0 also e(i) · e(j) = e(i+j) wie behauptet. Mit vollst¨andiger Induktion folgt daraus sofort X i := (e(1) )i = e(i) . c) folgt sofort aus b). Der erste Teil von d) ist jetzt ebenfalls sofort klar. Hat man einen 0 weiteren Polynomring AP u Unbestimmten X 0 , so ist ¨ber R in einer P n n zun¨achst die Abbildung i=0 ai X i 7−→ i=0 ai (X 0 )i bijektiv. Dass sie ein Ringhomomorphismus ist, rechnet P Pm man ileicht nach. e) folgt schließlich so: Sind f = i=0 ai X , g = nj=0 bj X j ∈ A mit am 6= 0, bn 6= 0, so ist n+m X f ·g = ck X k k=0
mit cm+n = am bn 6= 0, da R nach Voraussetzung nullteilerfrei ist. Also gilt in A, dass aus f 6= 0, g 6= 0 folgt, dass f g 6= 0 ist und dass f g den Grad n + m hat. Insbesondere erbt also der Polynomring A wie behauptet die Nullteilerfreiheit seines Grundrings R. ¨ f) Ubung Bemerkung. a) Im Weiteren wird einfach von dem Polynomring R[X] in einer Unbestimmten u ¨ber R gesprochen, seine Elemente werden als P n i i=0 ai X geschrieben und auf die Definition durch Folgen kein Bezug mehr genommen. Elemente von R[X] fasse man als P Die i formale Ausdr¨ ucke ai X auf. Die konstanten Polynome (Polynome vom Grad 0) cX 0 mit c ∈ R werden mit den Elementen
130
RAINER SCHULZE-PILLOT
von R identifiziert, man fasst also den Grundring R u ¨ber diese Identifikation als Teilring des Polynomrings R[X] auf. b) Ist S irgendeine R-Algebra, so kann P man Elemente von S in Polynome aus R[X] einsetzen: Ist f = ni=0 ai X i ∈ R[X], s ∈ S, so ist n X f (s) := ai si ∈ S, i=0
Wenn dadurch kein Irrtum entstehen kann, so bezeichnet man (nicht v¨ollig korrekt) auch die hierduch gegebene Abbildung s 7→ f (s) von S nach S mit f , will man vorsichtiger sein, so kann man sie zur Unterscheidung von f ∈ K[X] etwa mit f¯ bezeichnen. W¨ahlt man hier S = A, so ergibt Einsetzen von X : f (X) = P n i i=0 ai X = f , man braucht also nicht zwischen f und f (X) zu unterscheiden. Lemma 10.18. Sei R ein kommutativer Ring, S eine R-Algebra und s ∈ S. Dann wird durch f 7−→ f (s) ∈ S ein Ringhomomorphismus R[X] −→ S gegeben; der Einsetzungshomomorphismus in s. Beweis. Man rechnet nach, dass auf Grund der Rechengesetze in S die Gleichungen (f1 + f2 )(s) = f1 (s) + f2 (s), (f1 f2 )(s) = f1 (s)f2 (s) und 1(s) = (1 · X 0 )(s) = 1 · s0 = 1S gelten und die Abbildung daher in der Tat ein Ringhomomorphismus ist. Satz 10.19. (Euklidischer Algorithmus, Division mit Rest) Sei K ein K¨orper, f, g ∈ K[X] mit g 6= 0. Dann gibt es q, r ∈ K[X], so dass f = qg + r mit r = 0 oder deg(r) < deg(g) gilt. r und q sind eindeutig bestimmt. Beweis. Wir beweisen diese Aussage durch vollst¨andige Induktion nach deg(f ), beginnend bei deg(f ) =P 0. Der Induktionsanfang deg(f ) = 0 Pn m i i a X , g = b X mit am 6= ist trivial. Wir schreiben f = i=0 i i=0 i 0, bn 6= 0, m ≥ 1 und nehmen an, die Aussage sei f¨ ur deg(f ) < m bereits bewiesen. Ist deg(f ) < deg(g), so ist die Aussage (mit q = 0, r = f ) trivial, wir k¨onnen also n ≤ m annehmen. Dann ist der Grad von am f1 := f − ( X m−n )g bn m−1 X am m−n n m = (am X − ( X )bn X ) + ci X i bn i=0 =
m−1 X i=0
ci X i
LINEARE ALGEBRA I, 2004/2005
131
(mit gewissen ci ∈ K, die hier nicht weiter interessieren) offenbar kleiner als m, wir k¨onnen also nach Induktionsannahme f1 = q1 g + r mit r = 0 oder deg(r) < deg(g) schreiben und erhalten f = (q1 + was mit q = q1 + liefert.
am X m−n bn
am m−n X )g + r, bn
die gew¨ unschte Zerlegung f = qg + r f¨ ur f
Beispiel: Durch den u ¨blichen Prozess der Polynomdivision erh¨alt man etwa: (X 4 − 1) = (X 2 + 2X + 1)(X 2 − 2X + 3) + (−4X − 4). Bemerkung. a) Im Beweis benutzt Pn mani Division durch den Leitkoeffizienten bn 6= 0 von g = i=0 bi X ; das Verfahren der Division mit Rest l¨asst sich daher nicht ohne weiteres auf den Polynomring R[X] u ¨ber einem Ring R u ¨bertragen. b) Betrachtet man die Gleichung f = qg + r, so sieht man, dass alle gemeinsamen Teiler von f und g auch r = f − qg teilen und damit auch gemeinsame Teiler von g und r sind. Da der Schluss sich umkehren l¨asst, sind genauer die gemeinsamen Teiler von f und g genau die gemeinsamen Teiler von g und r, ein gr¨oßter gemeinsamer Teiler von f und g ist daher auch gr¨oßter gemeinsamer Teiler von g und r und umgekehrt. Definition und Korollar 10.20. Sei K ein K¨orper. a) Sei f ∈ K[X], f 6= 0, a ∈ K mit f (a) = 0. Dann gibt es ein eindeutig bestimmtes q ∈ K[X] mit f = (X − a)q. b) Sind β1 , . . . , βr verschiedene Nullstellen von 0 6= f ∈ K[X], so gibt es eindeutig bestimmte ei ∈ N \ {0}, g ∈ K[X] mit r Y f= (X − βi )ei g und g(βi ) 6= 0 f¨ ur 1 ≤ i ≤ r. i=1
Der Exponent ei in dieser Darstellung heißt die Vielfachheit der Nullstelle βi des Polynoms f , ist ei = 1, so spricht man von einer einfachen Nullstelle, sonst von einer mehrfachen. c) Seien f, g ∈ K[X] mit n > max(deg(f ), deg(g)), seien a1 , . . . , an ∈ K paarweise verschieden mit f (ai ) = g(ai ) f¨ ur 1 ≤ i ≤ n. Dann ist f = g. Insbesondere gilt: Hat K unendlich viele Elemente, so folgt aus f (a) = g(a) f¨ ur alle a ∈ K, dass f = g gilt. Beweis. a) Wir teilen f mit Rest durch X − a. W¨are der Rest hierbei nicht 0, so h¨atte er wegen deg(X −a) = 1 Grad 0, w¨are also gleich einer
132
RAINER SCHULZE-PILLOT
Konstanten c ∈ K. Setzen wir in die Polynomgleichung f = (X −a)q+c den Wert a ∈ K ein, so erhalten wir 0 = f (a) = (a − a)q(a) + c, also c = 0. b) Zun¨achst ist klar, dass man eine Darstellung r Y f= (X − βi )ei g und g(βi ) 6= 0 f¨ ur 1 ≤ i ≤ r. i=1
erh¨alt, indem man a) so oft iteriert, bis der verbleibende Faktor g in keinem der βi verschwindet. derartige Darstellungen f = Qr Qr Hat man ezwei 0 0 ei 0 i i=1 (X − βi ) g = f = i=1 (X − βi ) g und ist etwa e1 ≥ e1 , so kann e01 man, da K[X] nullteilerfrei ist, den Faktor (X − β1 ) in der rechten Gleichung dieser Kette k¨ urzen und erh¨alt 0
(X − β1 )e1 −e1
r r Y Y 0 (X − βi )ei g = f = (X − βi )ei g 0 . i=2
i=2
Einsetzen von β1 in diese Gleichung liefert dann e1 − e01 = 0, da sonst die linke Seite 0 erg¨abe und die rechte nicht. Das iteriert man f¨ ur die 0 anderen Faktoren (X − βi ) und erh¨ a lt am Ende g = g . P Q c) In b) sehen wir, dass f = ri=1 (X −βi )ei g Grad deg(g)+ ri=1 ei hat, insbesondere muss r ≤ n f¨ ur die Anzahl r der verschiedenen Nullstellen eines Polynoms f 6= 0 vom Grad n gelten. Anders gesagt: Nimmt ein Polynom f in n verschiedenen Stellen a1 , . . . , an den Wert 0 an, so muss deg(f ) ≥ n gelten. Da in der Situation von c) deg(f − g) < n gilt und f − g in den n verschiedenen Stellen a1 , . . . , an den Wert 0 annimmt, ist f − g = 0, also f = g. Bemerkung. a) Sind f ∈ K[X] und a, c ∈ K mit f (a) = c und hat f − c in a eine e-fache Nullstelle, so sagt man auch, f nehme in a den Wert c mit der Vielfachheit e an. b) Nimmt das Polynom f vom Grad n in den verschiedenen Elementen a1 , . . . , ar von K die Werte c1 , . . . , cr mit den Vielfachheiten e1 , . . . , er an, so betrachte man das Polynom f1 =
r X i=1
ci
r Y (X − aj )ej (ai − aj )ej j=1 j6=i
Pr
vom Grad n1 < i=1 ei (das Lagrange’sche Interpolationspolynom f¨ ur die vorgegebenen Werte und Vielfachheiten). Offenbar nimmt auch f1 die Werte ci in den P Stellen ai mit den Vielfachheiten ei an. Ist auch n = deg(f ) < ri=1 ei , so sieht man genauso wie in c) des vorigen Korollars, dass f1 = f gilt. Man hat also nicht nur die Eindeutigkeitsaussage aus Teil c) des Korollars,
LINEARE ALGEBRA I, 2004/2005
sondern kann das eindeutige Polynom vom Grad n1 < mit der gegebenen Werteverteilung explizit angeben.
133
Pr
i=1 ei
Satz 10.21. Sei K ein K¨orper. Dann ist im Polynomring K[X] jedes Ideal ein Hauptideal. Ein Ideal I 6= {0} wird erzeugt von dem (eindeutig bestimmten) normierten Polynom kleinsten Grades in I. Beweis. Sei I 6= {0} ein Ideal in K[X] und g ein normiertes Polynom vom kleinstm¨oglichen Grad in I. Ist f ∈ I, so kann man f = qg + r mit q, r ∈ K[X] und r = 0 oder deg(r) < deg(g) schreiben. Da r = f −qg ∈ I aus der Idealeigenschaft von I folgt und deg(g) der kleinstm¨ogliche Grad eines Polynoms 6= 0 in I ist, muss r = 0 gelten, also ist f im von g erzeugten Hauptideal (g). Wir haben also I ⊆ (g), und da offenbar (g) ⊆ I gilt, ist I = (g) wie behauptet. Ist g1 ebenfalls ein normiertes Polynom vom kleinsten m¨oglichen Grad in I, so ist nach dem eben gezeigten g1 = gh mit h ∈ K[X], wegen deg(g) = deg(g1 ) muss dann deg(h) = 0 sein, d.h., h = c ∈ K ist konstant. Da g und g1 normiert sind, ist h = 1, also g = g1 , die Eindeutigkeitsaussage ist also auch klar. Beispiel. Sei I = (f1 , f2 ) ⊆ K[X] ein Ideal. Division mit Rest ergibt f1 = f2 q1 + f3 mit f3 = 0 oder deg(f3 ) < deg(f2 ), offenbar ist (f1 , f2 ) = (f2 , f3 ). Iteriert man dieses Verfahren, so muss man schließlich f¨ ur ein j ∈ N bei fj = qj fj+1 + 0 ankommen, da der Grad des Restes bei jeder Division kleiner wird, bei der nicht der Rest 0 auftritt. Man hat dann (f1 , f2 ) = (f2 , f3 ) = · · · = (fj , fj+1 ) = (fj+1 ). Normiert man fj+1 , indem man es durch seinen Leitkoeffizienten teilt, so hat man den gesuchten Erzeuger g bestimmt. Dieses Rechenverfahren heißt der euklidische Algorithmus. Beginnt man mit der Gleichung fj−1 = qj−1 fj + fj+1 , in der letzte Rest g = fj+1 6= 0 auftritt, und fasst diese als eine Gleichung f¨ ur g = fj+1 auf, in die man sukzessive aus den dar¨ uber stehenden Gleichungen f¨ ur fj , fj−1 , . . . , f2 , f1 einsetzt, so erh¨alt man Polynome h1 , h2 mit h1 f1 + h2 f2 = g. Definition und Korollar 10.22. Sei S eine K-Algebra, s ∈ S, Is := {f ∈ K[X] | f (s) = 0} = 6 {0} das Verschwindungsideal (der Annullator) von s in K[X]. Dann ist Is = (g), wo g das normierte Polynom kleinsten Grades in Is ist. g heißt das Minimalpolynom von s u ¨ber K; es teilt alle Polynome f ∈ K[X] mit f (s) = 0.
134
Beweis. Klar.
RAINER SCHULZE-PILLOT
Beispiel: a) Ist S = K und a = s ∈ K, so ist (X − a) das Minimalpolynom von a u ¨ber K. Wir erhalten also einen (nicht ganz) neuen Beweis der Aussage, dass in diesem Fall jedes Polynom f mit f (a) = 0 durch (X − a) teilbar ist. b) Ist S = C und K = Q, so ist (X 2 + 1) das Minimalpolynom von i u ¨ber Q. Das Minimalpolynom von i u ¨ber C ist dagegen (X − i); es teilt X 2 + 1 wegen X 2 + 1 = (X − i)(X + i) ( der andere Faktor (X + i) ist dabei das Minimalpolynom der Nullstelle −i von X 2 + 1). Lemma 10.23. Sei f ∈ K[X], a ∈ K mit f (a) 6= 0. Dann gibt es h1 , h2 ∈ K[X] mit h1 f + h2 (X − a) = 1. Beweis. Wir teilen f mit Rest durch (X − a) und erhalten f = q(X − a) + r mit r = 0 oder deg(r) < deg(X − a) = 1. Wegen f (a) 6= 0 ist r 6= 0, also 0 6= r = c ∈ K. Mit h1 = 1/c, h2 = −q/c erhalten wir die Behauptung. Bemerkung. Ist I als I = (f1 , . . . , fr ) gegeben, so heißt der (normierte) Erzeuger g von I auch der gr¨oßte gemeinsame Teiler der Polynome f1 , . . . , fr , man schreibt g = ggT(f1 , . . . , fr ). Zun¨achst gilt n¨amlich offenbar g | fi f¨ ur 1 ≤ i ≤ r, das Polynom g ist also ein gemeinsamer Teiler der fi . Andererseits gibt es wegen g ∈ I = (f1 , . . . , fr ) Polynome h1 , . . . , hr ∈ K[X] mit g = h1 f1 + · · · + hr fr , woraus folgt, dass g durch jeden gemeinsamen Teiler der fi teilbar ist und daher insbesondere unter allen gemeinsamen Teilern der fi den gr¨oßtm¨oglichen Grad hat. Ist der gr¨oßte gemeinsame Teiler der Polynome fi das konstante Polynom 1, so nennt man sie auch teilerfremd. Wendet man die gleichen Ideen auf den Ring Z der ganzen Zahlen an und ersetzt die Normiertheitsbedingung durch Positivit¨at, so erh¨alt man den gew¨ohnlichen gr¨oßten gemeinsamen Teiler zweier ganzer Zahlen sowie ein Verfahren zur Bestimmung dieses gr¨oßten gemeinsamen Teilers durch den euklidischen Algorithmus. Bemerkung. Die auf R(N0 ) bei der Konstruktion des Polynomrings R[X] definierte Addition und Multiplikation kann man auch auf die Menge RN0 aller Folgen von Elementen aus R fortsetzen. Man pr¨ uft leicht nach, dass RN0 mit diesen Verkn¨ upfungen ebenfalls eine R-Algebra ist. Diese heißt Ring der formalen Potenzreihen in einer Variablen X u mit R[[X]] bezeichnet. Die Folge (aj )j∈N0 wird ¨ber R und wird P j dann auch formal als ∞ j=0 aj X geschrieben; dies ist eine rein formale
LINEARE ALGEBRA I, 2004/2005
135
Schreibweise, denn unendliche Summen sind in R[X] nicht definiert. Man bemerkt, dass das Produkt im Ring der formalen Potenzreihen genauso definiert ist, wie das Cauchy-Produkt konvergenter Reihen in der Analysis. Ist eine R-Algebra S gegeben, in der ein Konvergenzbegriff definiert ist (f¨ ur K = Q, R oder C etwa S = R oder = C), so bilden die in einem Element s ∈ S konvergenten formalen Potenzreihen einen Unterring von R[[X]] und Einsetzen von s in die Elemente dieses Unterrings liefert einen Ringhomomorphismus nach S.
136
RAINER SCHULZE-PILLOT
11. Eigenwerte und Diagonalisierung In diesem Paragraphen sind die folgenden Notationen fixiert: K ist ein K¨orper, V ein n-dimensionaler K-Vektorraum mit Basis B, f ∈ End(V ) mit Matrix A = MB (f ) bez¨ uglich B. Wir erinnern daran, dass die zun¨achst f¨ ur Matrizen mit Eintr¨agen aus einem K¨orper K entwickelte Determinantentheorie aus Abschnitt 8 auch u ¨ber einem beliebigen kommutativen Ring gilt. Insbesondere liefert f¨ ur einen beliebigen kommutativen Ring R die Leibniz’sche Formel X det(A) = sgn(σ)a1σ(1) · · · anσ(n) σ∈Sn
eine Definition der Determinante einer Matrix A ∈ Mn (R), die folgende Eigenschaften hat: • det(A) ist sowohl als Funktion der Zeilen von A als auch als Funktion der Spalten von A eine alternierende n-fache Multilinearform mit Werten in R • A ist in Mn (R) genau dann invertierbar, wenn det(A) eine Einheit im Ring R ist. • F¨ ur A, B ∈ Mn (R) gilt det(AB) = det(A) det(B). • F¨ ur die durch a ˜ij = (−1)i+j det(Aji ) definierte Komplement¨armatrix A˜ = (˜ aij ) ∈ Mn (R) der Matrix A ∈ Mn (R) gilt ˜ = AA˜ = det(A)En . AA Definition 11.1. Das charakteristische Polynom der Matrix A ∈ Mn (K) ist gegeben als χA := det(XEn − A) ∈ K[X] (dabei ist X − a11 X 0 . . . −a1n X 0 .. .. ∈ Mn (K[X]) XEn − A = . . −an1 X 0 . . . X − ann X 0 als Matrix mit Koeffizienten im Polynomring K[X] aufzufassen). Bemerkung. Die charakteristische Polynomfunktion aus Abschnitt 9 erh¨alt man mit dieser Definiton als die Funktion λ 7→ χA (λ). Von ihr wird im Weiteren nicht mehr die Rede sein, wir betrachten ab sofort nur noch das charakteristische Polynom als ein Element des Polynomrings K[X], in das wir Elemente s jeder beliebigen K-Algebra S, insbesondere also Elemente von K selbst, einsetzen k¨onnen, um die Werte χA (s) zu erhalten. Wir zeigen jetzt das Lemma, das den am Ende von Abschnitt 9 gemachten Schluss rechtfertigt. Lemma 11.2. Sei V ein endlichdimensionaler K-Vektorraum mit Unterr¨aumen U1 , U2 , f¨ ur die V = U1 ⊕U2 gilt, seien (v1 , . . . , vr ) eine Basis
LINEARE ALGEBRA I, 2004/2005
137
von U1 und (vr+1 , . . . , vn ) eine Basis von U2 sowie B = (v1 , . . . , vn ) die aus diesen zusammengesetzte Basis von V . Sei f ∈ End(V ) mit f (U1 ) ⊆ U1 und A1 C A= (A1 ∈ Mr (K), C ∈ M (r×(n−r), K), A2 ∈ Mn−r (K)) 0n−r,r A2 die Matrix von f bez¨ uglich der Basis B. Dann gilt: Ist χf = h1 h2 mit h1 , h2 ∈ K[X] und ist h1 gleich dem charakteristischen Polynom χf |U1 = χA1 der Einschr¨ankung von f auf U1 , so ist χA2 = h2 . Beweis. Es gilt h1 h2 = χf = χA1 χA2 = h1 χA2 . Da in K[X] die K¨ urzungsregel gilt, folgt χA2 = h2 .
Definition und Lemma 11.3. Sind A und A0 aus Mn (K) zueinander ¨ahnliche (konjugierte) Matrizen, so ist χA = χA0 . Ist V ein endlichdimensionaler K-Vektorraum, f ∈ End(V ), A die Matrix von f bez¨ uglich einer (beliebigen) Basis B, so ist χf := χA Beweis. Das beweist man genauso wie die entsprechende Aussage u ¨ber die charakteristische Polynomfunktion in Definition/Lemma 9.7 aus Abschnitt 9. Lemma 11.4. F¨ ur A ∈ Mn (K) ist χP A ∈ K[X] ein normiertes Polynom vom Grad n. Schreibt man χA = ni=0 ai X i , so ist an−1 = −tr(A) die Spur n X Spur(A) = tr(A) = aii i=1
der Matrix A und a0 = (−1)n · det(A). Beweis. Die Behauptungen folgen direkt aus der Leibniz’schen Formel f¨ ur die Determinante. ¨ Korollar 11.5. Ahnliche (konjugierte) Matrizen haben die gleiche Spur. Beweis. Das ist nach dem vorigen Lemma klar, da wir bereits wissen, dass ¨ahnliche Matrizen das gleiche charakteristische Polynom haben. Lemma 11.6. Sei A ∈ Mn (K). Dann gilt: a) Es gibt 0 6= f ∈ K[X] mit f (A) = 0. Das Minimalpolynom von Au ¨ber K wird mit µA,K oder µA bezeichnet. b) Ist µA,K das Minimalpolynom von A u ¨ber K, L ⊇ K ein Erweiterungsk¨orper, so ist µA,L = µA,K .
138
RAINER SCHULZE-PILLOT
Beweis. a) In dem n2 -dimensionalen K-Vektorraum Mn (K) k¨onnen die 2 n2 + 1 Elemente En , A, A2 , . . . , An nicht linear unabh¨angig sein. Ist Pn2 i i=0 ci A = 0n eine nichttriviale lineare Relation zwischen ihnen, so Pn2 ist f := i=0 ci X i ∈ K[X] ein von 0 verschiedenes Polynom in K[X] mit f (A) = 0n . b) Zun¨achst ist zu bemerken, dass es wegen Mn (K) ⊆ Mn (L) m¨oglich ist, A auch als Element der L-Algebra Mn (L) aufzufassen und es daher sinnvoll ist, vom Minimalpolynom von A u ¨ber L zu sprechen. (i) i Hat die Matrix A die Koeffizienten ajk , so ist f¨ ur m ∈ N0 , c0 , . . . , cm ∈ Pm i L die Matrixgleichung i=0 ci A = 0n nichts anderes als ein lineares Gleichungssystem aus den n2 Gleichungen m X
(i)
ci ajk = 0 (1 ≤ j, k ≤ n)
i=0 (i)
mit Koeffizienten ajk ∈ K. Es gibt also genau dann ein Polynom 0 6= f ∈ L[X] vom Grad ≤ m, wenn dieses lineare c0 Gleichungssystem in .. ∈ Lm+1 hat. m + 1 Variablen eine nichttriviale L¨osung . cm Da ein homogenes lineares Gleichungssystem mit Koeffizienten in K genau dann im Oberk¨orper L eine nichttriviale L¨osung hat, wenn es bereits in K eine nichttriviale L¨osung hat, sieht man, dass das Minimalpolynom von A u ¨ber K den gleichen Grad hat wie das Minimalpolynom von f u ussen beide also wie ¨ber L, wegen K[X] ⊆ L[X] m¨ behauptet gleich sein. Beispiel.
1 0 • Ist A1 = 0 2 0 0 1 0 • Ist A2 = 0 2 0 0 so ist µA2= (X 1 0 • Ist A3 = 0 2 0 1
0 0 ∈ M (3 × 3, R), so ist µA = (X − 1)(X − 2). 2 0 0 ∈ M (3 × 3, R), 3 − 1)(X − 2)(X − 3). 0 0 ∈ M (3×3, R), so ist µA3 = (X −1)(X −2)2 . 2
Satz 11.7. (Cayley-Hamilton) F¨ ur das charakteristische Polynom χA von A ∈ Mn (K) gilt: χA (A) = 0n . Insbesondere ist das Minimalpolynom µA der Matrix A ein Teiler des charakteristischen Polynoms χA .
LINEARE ALGEBRA I, 2004/2005
139
Beweis. Setzt man A in das Polynom χA (X) = det(XEn − A) ∈ K[X] ein, so erh¨alt man dasselbe Ergebnis, wie wenn man in der Matrix X − a11 X 0 . . . −a1n X 0 .. .. ∈ Mn (K[X]) XEn − A = . . −an1 X 0 . . . X − ann X 0 die Variable X durch A (also insbesondere X 0 durch A0 = En ) ersetzt und anschließend die Determinante der so erhaltenen Matrix A − a11 En . . . −a1n En .. .. C := . . −an1 En . . . A − ann En berechnet. Die Eintr¨age dieser Matrix C sind Elemente des kommutativen Teilrings m X K[A] := { ci Ai | m ∈ N0 , c0 , . . . , cm ∈ K} ⊆ Mn (K) i=0
des Matrizenrings Mn (K), insbesondere ist also χA (A) = det(C) ∈ K[A] ⊆ Mn (K) selbst wieder eine n × n-Matrix. Der ganz einfache Beweisversuch χA (A) = det(AEn − A) = det(A − A) = 0 geht also in die falsche Richtung. Stattdessen gehen wir wie folgt vor: Mit C = (cij ) wie oben gilt offenbar f¨ ur jedes j f¨ ur die Standardbasisn vektoren ei von K die Gleichung n n X X cij ei = (δij A − aij En )ei i=1
i=1
= Aej −
n X
aij ei
i=1
= 0. Wir multiplizieren diese Gleichung mit dem jk-Koeffizienten c˜jk der Komplement¨armatrix C˜ von C, summieren u ur ¨ber j und erhalten f¨ 1≤k≤n n n X X 0 = c˜jk cij ei =
=
j=1 n X
i=1 n X
(
cij c˜jk )ei
i=1 j=1 n X
δik det(C)ei
i=1
= χA (A)ek
140
RAINER SCHULZE-PILLOT
wegen C · C˜ = det(C)En und det(C) = χA (A). Das heißt aber, dass Multiplikation mit der Matrix χA (A) ∈ Mn (K) die Nullabbildung von K n in sich liefert, dass also χA (A) = 0n gilt. Korollar 11.8. Das Minimalpolynom µA von A ∈ Mn (K) hat die gleichen Nullstellen wie das charakteristische Polynom χA . Beweis. Nach dem vorigen Satz ist klar, dass das Minimalpolynom µA ein Teiler von χA in K[X] ist und daher alle Nullstellen von µA auch Nullstellen von χA sind. Ist umgekehrt λ ∈ K eine Nullstelle von χA , so ist λ ein Eigenwert von A, es gibt also einen Vektor x 6= 0 in K n mit AxP= λx; es gilt dann offenbar auch Aj x = λj x f¨ ur alle j ∈ N0 . Ist µA = ri=1 ci X i , so haben wir wegen µA (A) = 0n daher 0 = µA (A)x r X = c i Ai x i=1
=
r X
c i λi x
i=1
= µA (λ)x und daher µA (λ) = 0.
0
Lemma 11.9. Sind A, A ∈ Mn (K) zueinander ¨ahnliche Matrizen (also A0 = S −1 AS mit S ∈ GLn (K)), so haben sie das gleiche Minimalpolynom. ¨ Beweis. Ubung, man zeige zun¨achst (S −1 AS)j = S −1 Aj S. Lemma 11.10. Das Minimalpolynom des Endomorphismus f ∈ End(V ) ist gleich dem Minimalpolynom seiner Matrix A bez¨ uglich einer beliebigen Basis von V . Beweis. Klar.
Satz 11.11. Sei f ∈ End(V ) so, dass das charakteristische Polynom von f u ¨ber K als r Y χf = (X − βi )ei i=1
mit paarweise verschiedenen βi und ei ∈ N in Linearfaktoren zerf¨allt. Dann gilt: f (bzw. die zugeh¨orige Matrix A ∈ Mn (K)) ist genau dann diagonalisierbar, wenn das Minimalpolynom µf (= µA ) nur einfache Nullstellen hat, wenn also r Y µf = (X − βi ) i=1
gilt.
LINEARE ALGEBRA I, 2004/2005
141
Beweis. Ist f diagonalisierbar, so ist V die direkte Summe der Eigenr¨aume Vi zu den Eigenwerten βi , und jeder Eigenraum Vi ist f invariant (d.h., f (Vi ) ⊆ Vi ). Da offenbar (f − βi IdV )|Vi = 0 gilt, ist r Y (f − βi IdV )|Vj = 0 i=1
Q f¨ ur alle 1 ≤ j ≤ r, d.h., f wird von dem Polynom ri=1 (X − βi ) annulliert. Da nach Korollar 11.8 das Q Minimalpolynom µf von f durch alle X − βi teilbar ist, folgt µf = ri=1 (X − βi ) wie behauptet. Die Gegenrichtung zeigen wir durch Induktion nach der Anzahl r der verschiedenen Eigenwerte von f . Wir nehmen ur an, dass µf nur einfache Nullstellen hat, dass alQ daf¨ so µf = ri=1 (X − βi ) gilt. Ist r = 1, so ist f = β1 IdV , f ist also diagonalisierbar. Sei jetzt r ≥ 2 und die Behauptung f¨ ur Endomorphismen mit weniger als r verschiedenen Eigenwerten bereits bewiesen (Induktionsannahme). Q Sei g = ri=2 (f − βi IdV ). Nach Lemma 10.23 gibt es Polynome h1 , h2 ∈ K[X] mit r Y h1 (X − βi ) + h2 (X − β1 ) = 1, i=2
wir haben also h1 (f )g + h2 (f )(f − β1 IdV ) = gh1 (f ) + (f − β1 IdV )h2 (f ) = IdV und k¨onnen daher jeden Vektor v ∈ V als v = v1 + v2 mit v1 = g(h1 (f )(v)) ∈ Im(g) und v2 = (f − β1 IdV )(h2 (f )(v)) ∈ Im(f − β1 IdV ) schreiben. Q Wegen ri=1 (f − βi IdV ) = 0 ist Im(g) ⊆ Ker(f − β1 IdV ), es gilt also V = Im(f − β1 IdV ) + Ker(f − β1 IdV ) und wegen dim(Im(f − β1 IdV )) + dim(Ker(f − β1 IdV ) = dim(V ) folgt, dass die Summe direkt ist. Der Teilraum W = Im(f − β1 IdV ) von V ist f -invariant, und f |W ∈ End(W ) hat wegen W ∩ Ker(f − β1 IdV ) = {0} nicht den Eigenwert β1 . Dieser Endomorphismus von W hat also weniger als r verschiedene Eigenwerte, und da sein charakteristisches Polynom als Teiler von χf ebenfalls in Linearfaktoren zerf¨allt, ist er nach Induktionsannahme diagonalisierbar. Der Teilraum Ker(f − β1 IdV ) = V1 ist der Eigenraum von f zum Eigenwert β1 ; er ist ebenfalls f -invariant und f |V1 = β1 IdV1 ist diagonalisierbar. Wegen V = W ⊕ V1 ist dann auch f diagonalisierbar (man w¨ahle in jedem dieser Teilr¨aume eine Basis aus Eigenvektoren von f , die Vereinigung dieser Basen ist dann eine Basis aus Eigenvektoren von f f¨ ur V ).
142
RAINER SCHULZE-PILLOT
Definition 11.12. Sei A ∈ Mn (K) mit χA = (X − β)e g mit einem Polynom g ∈ K[X] mit g(β) 6= 0. Dann heißt e die algebraische Vielfachheit des Eigenwerts β von A. Ist s die Dimension des Eigenraums zum Eigenwert β von A, so heißt s die geometrische Vielfachheit des Eigenwerts β. Entsprechend sind algebraische und geometrische Vielfachheit der Eigenwerte eines Endomorphismus f eines endlichdimensionalen K-Vektorraums definiert. Lemma 11.13. Ist A ∈ Mn (K) (bzw. f ∈ End(V ), V endlichdimensionaler K-Vektorraum), β ein Eigenwert von A (von f ) mit algebraischer Vielfachheit e und geometrischer Vielfachheit s, so ist e ≥ s. Beweis. Ist Vβ der Eigenraum von f zum Eigenwert β und (v1 , . . . , vn ) eine Basis von V , die durch Erg¨anzung einer Basis von Vβ entsteht, so hat f bez¨ uglich dieser Basis eine Blockmatrix βEs B 0 C und daher charakteristisches Polynom χf = (X − β)s χC . Also ist die algebraische Vielfachheit e von β wenigstens so groß wie s. Satz 11.14. Sei V ein n-dimensionaler K-Vektorraum, f ∈ End(V ), Q χf = ri=1 (X − βi )ei mit paarweise verschiedenen βi , ei ∈ N \ {0}, Ui = Vβi der Eigenraum zum Eigenwert βi . Dann gilt: f ist genau dann diagonalisierbar, wenn dim(Ui ) = ei f¨ ur 1 ≤ i ≤ r gilt (wenn also die algebraischen Vielfachheiten gleich den geometrischen Vielfachheiten sind). Beweis. Ist f diagonalisierbar, so liest man die Gleichheit von algebraischen und geometrischen Vielfachheiten direkt an der Matrix von f bez¨ uglich einer Basis ab, die aus Eigenvektoren besteht. Sind umgekehrt die algebraischen Vielfachheiten ei P der Eigenwerte βi gleich ihren geometrischen Vielfachheiten si , so ist ri=1 si = dim(V ). Da die Eigenr¨aume Ui = Vβi zu den Eigenwerten βi nach Satz 9.5 eine direkte Summe bilden, ist V die direkte Summe der Eigenr¨aume von f und f daher diagonalisierbar. 1 0 Beispiel: F¨ ur die Matrix A = ∈ M (2 × 2, K) (K beliebiger 1 1 K¨orper) ist 1 der einzige Eigenwert; die algebraische Vielfachheit ist 2, die geometrische Vielfachheit ist 1. Die Matrix ist trigonalisierbar, aber nicht diagonalisierbar.
LINEARE ALGEBRA I, 2004/2005
143
Bemerkung. Im Grunde genommen sagt dieser Satz, dass man die Frage, ob die Matrix A diagonalisierbar ist oder nicht, dadurch entscheidet, dass man versucht, A zu diagonalisieren: Man bestimmt zun¨achst die Eigenwerte, indem man das charakteristische Polynom und dessen Nullstellen berechnet und stellt dann f¨ ur jeden Eigenwert β durch Bestimmen der Dimension des L¨osungsraumes des linearen Gleichungssystems (A − βEn )x = 0 fest, ob er die maximal m¨ogliche geometrische Vielfachheit hat. Ist dies f¨ ur einen Eigenwert nicht der Fall, so ist die Matrix nicht diagonalisierbar, andernfalls ist es praktisch kein zus¨atzlicher Aufwand, f¨ ur die L¨osungsr¨aume der Gleichungssysteme (A − βEn )x = 0 neben der Dimensionsbestimmung auch gleich noch Basen zu bestimmen. Diese sind dann Basen der jeweiligen Eigenr¨aume und ergeben zusammengenommen eine Basis von V = K n , die aus Eigenvektoren von A besteht, bez¨ uglich der die Matrix des Endomorphismus LA also eine Diagonalmatrix D ist. Ist S ∈ Mn (K) die Matrix, deren Spalten diese Eigenvektoren sind, so ist S −1 AS = D eine Diagonalmatrix. Sind zwei Matrizen diagonalisierbar, so sieht man leicht, dass sie genau dann zueinander ¨ahnlich (konjugiert) sind, wenn sie die gleichen Eigenwerte mit den gleichen Vielfachheiten haben; ferner ist klar, dass eine nicht diagonalisierbare Matrix niemals zu einer diagonalisierbaren a¨hnlich sein kann. Offen bleibt im Moment die Frage, wie man von zwei nicht diagonalisierbaren Matrizen entscheidet, ob sie zueinander ¨ahnlich sind. Wir werden diese Frage bei der Behandlung der Jordan’schen Normalform weiter untersuchen.
144
RAINER SCHULZE-PILLOT
12. Bilinearformen, hermitesche Formen und Skalarprodukte Wir haben bereits in Abschnitt 8 Multilinearformen und insbesondere als Spezialfall Bilinearformen betrachtet. Wir erinnern f¨ ur letztere noch einmal an die Definition: Definition und Lemma 12.1. Sei V ein K-Vektorraum. Eine Bilinearform auf V ist eine Abbildung β : V × V −→ K, f¨ ur die gilt: β(v1 + v2 , w) = β(v1 , w) + β(v2 , w) β(v, w1 + w2 ) = β(v, w1 ) + β(v, w2 ) β(λv, w) = λβ(v, w) = β(v, λw) (f¨ ur alle v, v1 , v2 , w, w1 , w2 ∈ V , λ ∈ K). (β ist in jedem Argument linear.) Gilt β(v, w) = β(w, v) f¨ ur alle v, w ∈ V , so heißt β symmetrisch. Gilt β(v, v) = 0 f¨ ur alle v ∈ V , so heißt β alternierend, in diesem Fall gilt β(v, w) = −β(w, v) f¨ ur alle v, w ∈ V . Bilinarformen auf endlichdimensionalen Vektorr¨aumen k¨onnen mit Hilfe von Matrizen beschrieben werden: Definition und Lemma 12.2.
a) Sei A ∈ Mn (K). Dann wird durch
βA (x, y) := t xAy eine Bilinearform βA auf K n definiert. Diese ist genau dann symmetrisch, wenn A symmetrisch ist (also t A = A gilt). F¨ ur die Vektoren e1 , . . . , en der Standardbasis gilt β(ei , ej ) = aij , insbesondere folgt aus βA = βA0 , dass A = A0 gilt. b) Sei V ein K-Vektorraum mit Basis B = (v1 , . . . , vn ), β : V × V −→ K eine Bilinearform. Sei A = (aij ) ∈ M (n × n, K) gegeben durch aij = β(vi , vj ). Dann heißt A die Gram-Matrix von β bez¨ uglich B, man schreibt A = MB (β).) Es gilt n n n X X X β( xi vi , yi vi ) = βA (x, y) = aij xi yj , i=1
i=1
i,j=1
β ist genau dann symmetrisch, wenn A symmetrisch ist c) Durch A 7→ βA und β 7→ MB (β) werden zueinander inverse Bijektionen zwischen Mn (K) und der Menge Bil(K n ) der Menge der Bilinearformen auf K n gegeben. Diese sind Isomorphismen von K-Vektorr¨aumen, wenn man Bil(K n ) durch (β +β 0 )(x, y) := β(x, y)+β 0 (x, y), (λβ)(x, y) := λ·β(x, y) zu einem K-Vektorraum macht.
LINEARE ALGEBRA I, 2004/2005
145
Beispiel: Das Standardskalarprodukt auf Rn ist definiert durch t
t
hx, yi := xy = yx =
n X
xi yi .
i=1 n
Es gilt f¨ ur x1 , x2 , x, y1 , y2 , y ∈ R , λ ∈ R: hx1 + x2 , yi hx, y1 + y2 i hλx, yi hx, yi
= = = =
hx1 , yi + hx2 , yi hx, y1 i + hx, y2 i λhx, yi = hx, λyi hy, xi
Das Standardskalarprodukt ist also eine symmetrische Bilinearform auf Rn . Seine Gram-Matrix bez¨ uglich der Standardbasis ist die Einheitsmatrix En . Die genauso definierte symmetrische Bilinearform auf K n f¨ ur einen beliebigen Grundk¨orper K heißt die Einheitsform. Ist U ⊆ Rn ein Unterraum mit Basis B = (v1 , . . . , vr ), so ist die Einschr¨ankung des Standardskalarprodukts auf U nat¨ urlich ebenfalls eine symmetrische Bilinearform. Ihre Gram-Matrix A bez¨ uglich B ist A = (hvi , vj i). Ist T ∈ M (n × r, R) die Matrix mit den Spalten v1 , . . . , vr , so ist A = t T T . Lemma 12.3. Sei V ein K-Vektorraum mit Basen B = (v1 , . . . , vn ), B 0 = (v10 , . . . , vn0 ), β : V × V −→ K eine Bilinearform. Seien A, A0 ∈ Mn (K) die Gram-Matrizen von β bez¨ uglich der Basen 0 ¨ B, B , sei T ∈P GLn (K) die Ubergangsmatrix von der Basis B zur Basis ur 1 ≤ j ≤ n. B 0 , also vj0 = ni=1 tij vi f¨ Dann gilt A0 = t T AT. Ist B = (v1 , . . . , vn ) eine Basis von K n und T ∈ GLn (K) die Matrix mit den Spalten v1 , . . . , vn , so hat die Einheitsform bez¨ uglich B die Matrix t TT. Beweis. Nachrechnen!
Speziell f¨ ur den Fall des Grundk¨orpers C betrachten wir noch eine Variante des Begriffs Bilinearform. Wir erinnern zun¨achst an die wichtigsten Eigenschaften der komplexen Zahlen: Definition und Lemma 12.4. F¨ ur z = a + bi sei die komplex konjugierte Zahl als z = a − bi definiert. Dann gilt: a) Die Abbildung z 7−→ z (komplexe Konjugation) ist ein Automorphismus des K¨orpers C, insbesondere gilt z1 + z2 = z 1 + z 2 , z1 · z2 = z 1 · z 2 f¨ ur alle z1 , z2 ∈ C.
146
RAINER SCHULZE-PILLOT
b) F¨ ur z = a + bi (a, b ∈ R) ist z−z z+z , Im(z) := b = . Re(z) := a = 2 2i Es gilt R = {z ∈ C | z = z}, iR = {bi | b ∈ R} = {z ∈ C | z = −z} √ c) F¨ ur z = a + bi ∈ C sei |z| = a2 + b2 ∈ R der Betrag von z. Dann gilt |z|2 = z · z, |z1 z2 | = |z1 | |z2 | f¨ ur alle z, z1 , z2 ∈ C. d) Der komplexe Betrag erf¨ ullt die Axiome einer Norm |z| ≥ 0 mit |z| = 0 nur f¨ ur z = 0 |λz| = |λ| |z| f¨ ur λ ∈ R, z ∈ C |z1 + z2 | ≤ |z1 | + |z2 | f¨ ur z1 , z2 ∈ C (Dreiecksungleichung). Definition 12.5. Sei V ein Vektorraum u ¨ber dem K¨orper C der komplexen Zahlen. Eine Abbildung β : V × V −→ C heißt eine hermitesche Form, wenn f¨ ur alle u1 , u2 , u, v, v1 , v2 ∈ V, λ ∈ C gilt: β(u1 + u2 , v) β(λu, v) β(u, v1 + v2 ) β(u, λv) β(v2 , v1 )
= = = = =
β(u1 , v) + β(u2 , v) λβ(u, v) β(u, v1 ) + β(u, v2 ) λβ(u, v) β(v1 , v2 )
Gilt hier statt der letzten Gleichung β(v2 , v1 ) = −β(v1 , v2 )
f¨ ur alle v1 , v2 ∈ V,
so heißt β schiefhermitesch. ˜ w) := Bemerkung. Ist β : V ×V −→ C hermitesch, so wird durch β(v, iβ(v, w) eine schiefhermitesche Form β˜ definiert (und umgekehrt). Lemma 12.6. Sei β : V × V −→ C eine hermitesche oder schiefhermitesche Form. Dann gilt: a) Ist β hermitesch, so ist β(v, v) ∈ R f¨ ur alle v ∈ V . b) Ist β schiefhermitesch, so ist β(v, v) ∈ iR f¨ ur alle v ∈ V . Definition 12.7. Sei V ein K-Vektorraum mit K = R oder K = C. β : V × V −→ C sei eine symmetrische Bilinearform, falls K = R gilt, eine hermitesche Form im Falle K = C. β heißt positiv definit, wenn β(v, v) > 0 f¨ ur alle v ∈ V , v 6= 0 gilt. Eine positiv definite symmetrische Bilinearform bzw. hermitesche Form β auf V heißt auch ein Skalarprodukt. Ein endlichdimensionaler R-Vektorraum mit einem Skalarprodukt heißt auch ein euklidischer Raum, ein endlichdimensionaler C-Vektorraum mit einem Skalarprodukt heißt ein unit¨arer Raum. L¨asst man hier die Einschr¨ankung auf endlichdimensionale R¨aume fort, so spricht man in beiden F¨allen auch von einem Pr¨a-Hilbert-Raum.
LINEARE ALGEBRA I, 2004/2005
147
Beispiel: a) Das Standardskalarprodukt auf Rn ist offenbar positiv definit, es ist also ein Skalarprodukt im Sinne der obigen Definition. Ebenso ist die Einschr¨ankung des Standardskalarprodukts auf einen beliebigen Unterraum U ⊆ Rn ein Skalarprodukt auf U . b) Die hermitesche Standardform auf Cn ist n X hx, yi := xj y j . j=1
Pn
Sie ist positiv definit, da i=1 |xi |2 ≤ 0 a¨quivalent zu x = 0 ist. Ist U ⊆ Cn ein Unterraum mit Basis B = (v1 , . . . , vr ), so ist die Einschr¨ankung des Standardskalarprodukts auf U ebenfalls eine hermitesche Form. Ihre Gram-Matrix A bez¨ uglich B (siehe unten) ist die hermitesche Matrix (hvi , vj i). Ist T ∈ M (n × r, C) die Matrix mit den Spalten v1 , . . . , vr , so ist A = t T T . c) Dagegen ist f¨ ur V = C2 die Form β(x, y) = x1 y 1 − x2 y 2 zwar hermitesch, aber nicht positiv definit. d) Die Form β(x, y) = ix1 y 1 + ix2 y 2 ist schiefhermitesch, ebenso die Form β(x, y) = x1 y 2 − x2 y 1 . e) Sei V der (unendlichdimensionale) C-Vektorraum der stetigen Fuktionen f : [0, 1] −→ C. Auf V wird dann ein Skalarprodukt durch Z 1 hf, gi := f (x)g(x)dx 0
definiert, seine Einschr¨ankung auf den in V enthaltenen R-Vektorraum der stetigen Fuktionen f : [0, 1] −→ R ist nat¨ urlich ebenfalls ein Skalarprodukt. Der Zusammenhang zwischen hermiteschen bzw. schiefhermiteschen Formen und Matrizen ist ganz ¨ahnlich wie bei Bilinearformen, wir geben diese Aussagen ohne Beweis an: Lemma 12.8.
a) Sei A ∈ Mn (C). Dann wird durch P βA (x, y) = t xAy = nj,k=1 xj y k ajk (mit t y = (y 1 , . . . , y n ))
eine Abbildung βA : Cn × Cn −→ C definiert. Diese ist genau dann hermitesch, wenn t A = A gilt (wobei A durch komplexe Konjugation aller Eintr¨age gebildet wird), genau dann schiefhermitesch, wenn t A = −A gilt.
148
RAINER SCHULZE-PILLOT
Die Matrix A heißt dann ebenfalls hermitesch bzw. schiefhermitesch. b ) Sei V ein C-Vektorraum, β : V × V −→ C eine hermitesche oder schiefhermitesche Form, B = (v1 , . . . , vn ) eine Basis von V , A = MB (V ) = (β(vi , vj )) die Gram-Matrix von β bez¨ uglich B. Pn Pn Dann gilt f¨ ur v = j=1 xj vj , w = j=1 yj vj : β(v, w) = t xAy = βA (x, y). P Die Koordinatenabbildung cB : V −→ Cn (gegeben durch cB ( nj=1 xj vj ) = x) ist daher ein Isomorphismus, der β in βA u uhrt. ¨berf¨ t β ist genau dann hermitesch, wenn A = A gilt, genau dann schiefhermitesch, wenn t A = −A gilt. c) Ist B 0 = (v10 , . . . , vn0 ) eine weitere P Basis von V und T die Matrix des Basiswechsels (also vk0 = nj=1 tjk vj ), A = MB0 (β) die GramMatrix von β bez¨ uglich B 0 , so ist A0 = t T AT . Lemma 12.9. Sei (V, h , i) ein euklidischer oder unit¨arer K-Vektorraum (mit K = R oder K = C). Dann gilt f¨ ur die durch p kvk := hv, vi gegebene Norm von v die Cauchy-Schwarz’sche Ungleichung |hv, wi| ≤ kvk · kwk. In dieser Ungleichung steht genau dann das Gleichheitszeichen, wenn v und w linear abh¨angig sind. Die Norm hat ferner die Eigenschaften kvk ≥ 0 mit kvk = 0 nur f¨ ur v = 0 kλvk = |λ| kvk f¨ ur λ ∈ C kv1 + v2 k ≤ kv1 k + kv2 k (Dreiecksungleichung) und es gilt die Parallelogrammgleichung kv1 + v2 k2 + kv1 − v2 k2 = 2(kv1 k2 + kv2 k2 ). Definition 12.10. Sei K = R oder K = C, sei V ein K-Vektorraum. Eine Abbildung v 7→ kvk heißt eine Norm auf V , wenn gilt: kvk ≥ 0 mit kvk = 0 nur f¨ ur v = 0 kλvk = |λ| kvk f¨ ur λ ∈ K kv1 + v2 k ≤ kv1 k + kv2 k (Dreiecksungleichung). Das Paar (V, k
k) heißt dann ein normierter Raum.
Korollar 12.11. Ein euklidischer oder unit¨arer Vektorraum (V, h , wird durch p kvk := hv, vi zu einem normierten Raum.
i)
LINEARE ALGEBRA I, 2004/2005
149
Definition 12.12. Sei V ein K-Vektorraum mit symmetrischer Bilinearform oder (im Fall K = C) hermitescher Form β : V × V −→ K. Vektoren v, w ∈ V heißen orthogonal oder senkrecht zueinander (bez¨ uglich β), wenn β(v, w) = 0 gilt. Unterr¨aume U1 , U2 von V heißen orthogonal (oder senkrecht) zueinander, wenn β(u1 , u2 ) = 0 f¨ ur alle u1 ∈ U1 , u2 ∈ U2 gilt. Sind U1 , . . . , Ur zueinander paarweise orthogonale Teilr¨aume mit U1 ⊕ . . . ⊕ Ur = V , so schreibt man auch V = U1 ⊥ . . . ⊥ Ur und sagt, V sei die orthogonale direkte Summe der Uj . Eine Basis (v1 , . . . , vn ) von V heißt Orthogonalbasis von V bez¨ uglich β, falls die vi paarweise orthogonal sind. (v1 , . . . , vn ) heißt Orthonormalbasis, wenn β(vi , vj ) = δij f¨ ur 1 ≤ i, j ≤ n gilt. Offensichtlich bilden die Standardbasisvektoren e1 , . . . , en eine Orthonormalbasis des Rn bzw. des Cn bez¨ uglich des Standardskalarprodukts. Umgekehrt hat eine symmetrische Bilinearform bzw. eine hermitesche Form bez¨ uglich einer Orthonormalbasis die Einheitsmatrix als GramMatrix und ist daher zwangsl¨aufig ein Skalarprodukt. Der folgende Satz zeigt, dass sich ein beliebiges Skalarprodukt durch einen geeigneten Basiswechsel auf das Standardskalarprodukt zur¨ uckf¨ uhren l¨asst und liefert auch gleich einen Algorithmus f¨ ur die Bestimmung der Matrix des Basiswechsels. Satz 12.13. (Gram-Schmidt) Sei K = R oder K = C, sei V ein KVektorraum mit Skalarprodukt h , i, sei B = (v1 , . . . , vn ) eine Basis von V . uglich β eine Dann gibt es eine Basis B 0 = (v10 , . . . , vn0 ) von V , die bez¨ Orthonormalbasis ist und f¨ ur die Lin(v1 , . . . , vj ) = Lin(v10 , . . . , vj0 ) f¨ ur 1 ≤ j ≤ n gilt (f¨ ur die also die Matrix des Basiswechsels von B zu B 0 eine obere Dreiecksmatrix ist). Korollar 12.14. Ist A eine positiv definite hermitesche Matrix, so gibt es T ∈ GLn (C) mit A = t T · T . Die Matrix T kann als obere (untere) Dreiecksmatrix gew¨ahlt werden. Bemerkung. ¨ a) Das Gram-Schmidt-Verfahren liefert den Ubergang von A zu −1 t −1 T AT = En als eine Abfolge von simultanen Zeilen- und Spaltenumformungen: In jedem Schritt des P Verfahrens wird ein Vektor vj durch einen Vektor v˜j = vj + j−1 k=1 λkj vk ersetzt. Die
150
RAINER SCHULZE-PILLOT
Gram-Matrix wird in diesem Schritt ge¨andert, indem gleichzeitig zur j-ten Zeile f¨ ur 1 ≤ k ≤ j − 1 die mit λkj multiplizierte k-te Zeile addiert und zur j-ten Spalte f¨ ur 1 ≤ k ≤ j − 1 die mit λkj multiplizierte k-te Spalte addiert wird. Abschließend werden die vj normiert, also jede Zeile/Spalte mit kv1j k multipliziert. b) Das Gram-Schmidt-Verfahren ist nichts anderes als eine Verallgemeinerung des Verfahrens der quadratischen Erg¨anzung. c) Der Beweis des Satzes von Gram und Schmidt liefert sogar einen leicht implementierbaren Algorithmus (siehe Maple-Worksheet 5 auf der Webseite der Vorlesung f¨ ur den Fall K = R). d) Das Gram-Schmidt-Verfahren kann auch angewendet werden, um in unendlichdimensionalen Vektorr¨aumen mit Skalarprodukt Orthogonal- bzw. Orthonormalsysteme zu finden. Insbesondere in Vektorr¨aumen von Funktionen mit einem u ¨ber das Integral definierten Skalarprodukt ist das eine der h¨aufigsten Anwendungen des Verfahrens; dies ist auch die Situation, in der das Verfahren von Gram und Schmidt eingef¨ uhrt wurde. a b Beispiel. Die Matrix wird durch die Transformation: b c 7−→ 2. Zeile − ab · erste Zeile 7−→ 2. Spalte − ab · erste Spalte a 0 2 in Diagonalgestalt u uhrt, diese liefert die Matrix , ¨berf¨ 0 c − |b|a 2 ,v1 i die zu der Orthogonalbasis aus v1 , v20 = v2 − hv v = v2 − ab v1 hv1 ,v1 i 1 geh¨ort. Dementsprechend geht f¨ ur v = x1 v1 + x2 v2 der Wert hv, vi = 2 2 a|x1 | +cg|x2 |+2Re(bx1 x2 ) (mit v = x01 v10 +x02 v20 , v10 = v1 , v20 = v2 − ab v1 ) |b|2 u ¨ber in hv, vi = a|x01 |2 + (c − a )|x02 |2 mit x01 = x1 + ab x2 , x02 = x2 (insbesondere f¨ ur reelle a, b, c, x1 , x2 ist das genau die Formel der quadratischen Erg¨anzung). 2. Zeile 2. Spalte
Satz 12.15. Sei V ein (endlichdimensionaler) euklidischer oder unit¨arer Raum u ¨ber K (K = R oder K = C) mit Skalarprodukt h , i, sei U ⊆ V ein Untervektorraum. Dann gilt: a) Das orthogonale Komplement U ⊥ = {v ∈ V | hv, ui = 0 f¨ ur alle u ∈ U } ist ein Unterraum von V . b) Es ist V = U ⊕ U ⊥ , insbesondere ist dim(U ⊥ ) = dim(V ) − dim(U ). Man schreibt in dieser Situation auch: V = U ⊥ U ⊥ . Bemerkung. a) gilt auch f¨ ur beliebige hermitesche oder schiefhermitesche Formen (bzw. symmetrische oder alternierende Bilinearformen).
LINEARE ALGEBRA I, 2004/2005
151
Auch die Aussage von Teil b) l¨asst sich verallgemeinern. Eine solche Verallgemeinerung, die wir in diesem Abschnitt noch brauchen werden, ist: Lemma 12.16. Sei V ein K-Vektorraum, β : V × V −→ K eine symmetrische Bilinearform oder eine hermitesche Form (falls K = C), U ⊆ V ein Unterraum, der eine Orthogonalbasis (u1 , . . . , ur ) aus Vektoren uj mit β(uj , uj ) 6= 0 (1 ≤ j ≤ r) besitzt. Dann ist V = U ⊕U ⊥ und die Projektionen v1 ∈ U , v2 ∈ U ⊥ von v ∈ V auf U, U ⊥ lassen sich als Pr β(v,uj ) v1 = j=1 β(uj ,uj ) uj , v2 = v − v1 berechnen. Wir wollen jetzt noch ein paar geometrische Anwendungen des Skalarprodukts betrachten. Lemma 12.17. Sei V = Rn , h , i das Standardskalarprodukt. Sei H0 ⊆ Rn ein (n − 1)-dimensionaler Teilraum (eine Hyperebene durch 0), v ∈ V und H = v + H0 (die zu H0 parallele affine Hyperebene durch v). Sei y ∈ V . ur dieses Dann gibt es genau ein u0 ∈ H, so dass y − u0 ∈ H0⊥ gilt. F¨ u0 gilt: ky − u0 k = min{ky − xk | x ∈ H} =: d(y, H). Korollar 12.18. (Hesse’sche Normalform) Sei H = v + H0 wie im vorigen Lemma. Dann gilt f¨ ur 0 6= a ∈ H0⊥ : a) H = {x ∈ RnP | ha, x − vi = 0} b) Mit ha, vi = ni=1 Pnai vi =: b ist n n H = {x ∈ R | i=1 ai xi = b} = {x ∈ R | ha, xi = b} n c) F¨ ur y ∈ R ist Pn ai y i − b ; d(y, H) = i=1 kak insbesondere gilt f¨ ur kak = 1 (a ein Einheitsnormalenvektor): n X d(y, H) = | ai yi − b| falls kak = 1. i=1
Die n¨achsten Anwendungen des Skalarprodukts besch¨aftigen sich mit dem Problem der Volumenberechnung. Definition und Lemma 12.19. Sei (V, h , i) ein euklidischer Vektorraum. F¨ ur Vektoren v1 , . . . , vm ∈ V sei die Gram’sche Determinante definiert als G(v1 , . . . , vm ) := det(hvi , vj i), wo (hvi , vj i) wie u ¨blich die Matrix A = (aij ) ∈ M (m × m, R) mit aij = hvi , vj i bezeichnet. Dann gilt:
152
RAINER SCHULZE-PILLOT
a) G(v1 , . . . , vm ) ≥ 0 mit G(v1 , . . . , vm ) = 0 genau dann, wenn (v1 , . . . , vm ) linear abh¨angig sind. b) Ist A ∈ M (n × n, R) eine Matrix mit Spalten s1 , . . . , sn ∈ Rn , h , i das kanonische Skalarprodukt im Rn , so ist G(s1 , . . . , sn ) = (det(A))2 . Bemerkung. Im Rn ist bekanntlich | det A| das Volumen des von den Spalten s1 , . . . , sn der Matrix A aufgespannten Parallelotops n X P ={ λj sj | 0 ≤ λj ≤ 1}. i=1
p
Man definiert analog G(v1 , . . . , vm ) als das m-dimensionale Volumen des von den Vektoren v1 , . . . , vm des n-dimensionalen euklidischen Raums V (etwa V = Rn ) aufgespannten m-dimensionalen Parallelotops im Rn . Auf diese Weise erh¨alt man Maße f¨ ur niederdimensionale Teilmengen des Rn , was etwa f¨ ur Oberfl¨achenberechnungen oder f¨ ur Kurven- und Fl¨achenintegrale von Bedeutung ist. Satz 12.20. (Ungleichung von Hadamard) Sei (V, h , i) ein ndimensionaler euklidischer Vektorraum. Dann ist f¨ ur v1 , . . . , vm ∈ V p Vol(v1 , . . . , vm ) := G(v1 , . . . , vm ) ≤ kv1 k · · · kvm k. Bekanntlich verlangt jede algebraische Struktur nach einer Untersuchung der strukturerhaltenden Abbildungen (Morphismen). Wir wollen jetzt die Abbildungen von euklidischen oder unit¨aren Vektorr¨aumen untersuchen, die sich mit der zus¨atzlichen Struktur vertragen, die durch das Skalarprodukt gegeben ist. Da im Anschauungsraum R3 der Winkel α zwischen den Vektoren v und w bekanntlich mit Hilfe der Formel hv, wi cos(α) = kvkkwk durch die Berechnung von Skalarprodukten bestimmt wird, u ¨berzeugt man sich leicht, dass solche Abbildungen in diesem Fall gerade diejenigen linearen Abbildungen sind, die zus¨atzlich winkeltreu und abstandstreu sind. Definition 12.21. Sei K ein (beliebiger) K¨orper, V ein K-Vektorraum, β : V × V −→ K eine symmetrische Bilinearform oder K = C und β : V × V −→ C eine hermitesche Form. Ein Automorphismus f ∈ Aut(V ) = GL(V ) = {f ∈ End(V ) | f ist bijektiv} heißt eine Isometrie von β, wenn β(f (v), f (w)) = β(v, w) f¨ ur alle v, w ∈ V gilt.
LINEARE ALGEBRA I, 2004/2005
153
¨ f wie oben heißt Ahnlichkeitstransformation von β, wenn es ein λ ∈ K ∗ gibt, so dass β(f (v), f (w)) = λβ(v, w) f¨ ur alle v, w ∈ V ¨ gilt; das zugeh¨orige λ heißt dann die Ahnlichkeitsnorm von f . Ist β symmetrische Bilinearform, so heißen die Isometrien von β auch ¨ orthogonale Abbildungen bez¨ uglich β, die Ahnlichkeitstransformatio¨ nen heißen orthogonale Ahnlichkeiten. Die Menge der orthogonalen ¨ Abbildungen bez¨ uglich β wird mit O(V, β), die der orthogonalen Ahnlichkeiten mit GO(V, β) bezeichnet. Ist β hermitesche Form, so heißen die Isometrien von β auch unit¨are ¨ Abbildungen bez¨ uglich β, die Ahnlichkeitstransformationen heißen uni¨ t¨are Ahnlichkeiten. Die Menge der unit¨aren Abbildungen bzgl. β wird ¨ mit U (V, β), die Menge der unit¨aren Ahnlichkeiten mit GU (V, β) bezeichnet. Das folgende Lemma zeigt, dass eine abstandstreue lineare Abbildung automatisch auch winkeltreu ist und rechtfertigt damit den Namen Isometrie“ f¨ ur die mit dem Skalarprodukt vertr¨aglichen linearen Ab” bildungen. Lemma 12.22. Seien V, K, β wie oben. Ein Automorphismus f ∈ ¨ Aut(V ) ist genau dann Isometrie (Ahnlichkeit), wenn β(f (v), f (v)) = β(v, v) f¨ ur alle v ∈ V gilt (bzw. wenn es ein λ ∈ K ∗ gibt, so dass β(f (v), f (v)) = λβ(v, v) f¨ ur alle v ∈ V gilt). Beispiel. F¨ ur ein V wie oben und v ∈ V mit β(v, v) 6= 0 ist die Spiegelung an der zu v orthogonalen Hyperebene definiert als 2β(x, v) v; sv (x) = x − β(v, v) sie l¨asst die Elemente von (Kv)⊥ elementweise fest und multipliziert die Vektoren in Richtung von v mit −1, verallgemeinert also die bekannten Geradenspiegelungen in der Ebene und Ebenenspiegelungen im Raum. Man rechnet leicht nach, dass sv eine Isometrie ist. Etwas allgemeiner kann man im Fall K = C f¨ ur v wie oben, λ ∈ C mit |λ| = 1 eine Isometrie sv,λ wie folgt definieren: sv,λ (x) = x −
(1 − λ)β(x, v) v; β(v, v)
sv,λ l¨asst die Elemente von (Kv)⊥ elementweise fest und multipliziert die Vektoren in Richtung von v mit dem Faktor λ. Lemma 12.23. Seien V, K, β wie oben. Die Mengen O(V, β), GO(V, β) bzw. U (V, β), GU (V, β) sind Gruppen. Die Mengen SO(V, β) = {f ∈ O(V, β) | det(f ) = 1} und SU (V, β) = {f ∈ U (V, β) | det(f ) = 1} sind Untergruppen (die spezielle orthogonale bzw. spezielle unit¨are Gruppe).
154
RAINER SCHULZE-PILLOT
Ist speziell K = R oder C, V = K n , β das Standardskalarprodukt, so werden die Gruppen der bzgl. der Standardbasis zu orthogonalen bzw. unit¨aren Abbildungen geh¨origen Matrizen mit On (R), Un (C) (mit Untergruppen SOn (R), SUn (C)) bezeichnet, diese Matrizen heißen orthogonal bzw. unit¨ar. Die Elemente von SOn (R) werden auch Drehungen genannt. Lemma 12.24. Sei K = C oder K = R, sei β eine positiv definite symmetrische Bilinearform bzw. hermitesche Form auf V , B = (v1 , . . . , vn ) eine Orthonormalbasis von V , f ∈ End(V ) und U = MB (f ) ∈ Mn (C) die Matrix von f bez¨ uglich der Basis B. Dann ist f genau dann orthogonal bzw. unit¨ar, wenn t U = U −1 gilt. ¨ Aquivalent ist: Die Spalten von U bilden eine Orthonormalbasis des Rn n bzw. des C bez¨ uglich des Standardskalarprodukts. Wir wollen zum Abschluss dieses Abschnitts noch untersuchen, welche Gestalt abstandstreue Abbildungen des Rn in sich haben, die nicht notwendig linear sind. Definition 12.25. Eine Abbildung ϕ : Rn −→ Rn heißt euklidische Bewegung, wenn f¨ ur alle x, y ∈ Rn kϕ(x) − ϕ(y)k = kx − yk gilt, wenn ϕ also abstandserhaltend ist. Satz 12.26. Sei ϕ : Rn −→ Rn eine Abbildung. Dann sind ¨quivalent: a) ϕ ist eine euklidische Bewegung mit ϕ(0) = 0. b) F¨ ur alle x, y ∈ Rn gilt hϕ(x), ϕ(y)i = hx, yi. c) Es gibt eine orthogonale Matrix A, so dass ϕ(x) = A · x f¨ ur alle x ∈ Rn gilt, d.h., ϕ ist eine (lineare) orthogonale Abbildung. Beweis. a)⇒b): Sei ϕ eine euklidische Bewegung, die den Nullpunkt festl¨asst. Zun¨achst haben wir f¨ ur x ∈ Rn : hϕ(x), ϕ(x)i = = = = =
kϕ(x)k2 kϕ(x) − ϕ(0)k2 kx − 0k2 kxk2 hx, xi.
F¨ ur x, y ∈ Rn haben wir dann −2hϕ(x), ϕ(y)i = hϕ(x) − ϕ(y), ϕ(x) − ϕ(y)i − hϕ(x), ϕ(x)i − hϕ(y), ϕ(y)i = hx − y, x − yi − hx, xi − hy, yi = −2hx, yi, die Abbildung ϕ erh¨alt also wie behauptet das Skalarprodukt.
LINEARE ALGEBRA I, 2004/2005
155
b)⇒ c): Falls eine Abbildung ψ : Rn −→ Rn das Skalarprodukt erh¨alt und jeden der kanonischen Basisvektoren ei festl¨asst und x ∈ Rn ein Vektor mit ψ(x) = y ist, so ist xi = = = =
hx, ei i hψ(x), ψ(ei )i hy, ei i yi ,
also ψ(x) = x f¨ ur alle x ∈ Rn , d.h., ψ = Id. Wir betrachten jetzt unsere Abbildung ϕ, von der wir annehmen, dass sie das Skalarprodukt erh¨alt. F¨ ur 1 ≤ i ≤ n sei ϕ(ei ) =: e0i , sei A die Matrix, deren Spalten die Vektoren e01 , . . . , e0n sind. Da ϕ das Skalarprodukt erh¨alt, bilden die e0i eine Orthonormalbasis des Rn , die Matrix A ist also eine orthogonale Matrix und die Abbildung LA ebenso wie ihre inverse A−1 erh¨alt das Skalarprodukt. Daher erh¨alt −1 auch die Abbildung ρ := LA ◦ϕ das Skalarprodukt; da sie alle ei fixiert, ist sie die Identit¨at, es gilt also ϕ = LA mit der orthogonalen Matrix A, d.h, es gilt c) c)⇒ a) schließlich ist trivial. Korollar 12.27. Sei ϕ : Rn −→ Rn eine euklidische Bewegung, sei a := ϕ(0) ∈ Rn , sei Ta die durch Ta (x) := x + a definierte Translation um den Vektor a. Dann gibt es eine orthogonale Matrix A ∈ On (R) ⊆ GLn (R), so dass ϕ = Ta ◦ LA gilt, so dass also ϕ(x) = Ax + a n
f¨ ur alle x ∈ R ist. Jede euklidische Bewegung l¨asst sich also als Komposition einer Translation und einer linearen orthogonalen Abbildung schreiben.
156
RAINER SCHULZE-PILLOT
13. Bilinearformen und Dualraum Auch in diesem Abschnitt ist V immer ein Vektorraum u ¨ber dem K¨orper K. Die Tatsache, dass eine Abbildung β : V × V −→ K eine Bilinearform ist, kann man auch so ausdr¨ ucken: F¨ ur jedes feste v ∈ V sind die beiden Abbildungen w 7→ β(v, w) und w 7→ β(w, v) lineare Abbildungen von V nach K. F¨ ur das Weitere sei deshalb an den Begriff Dualraum und seine grundlegenden Eigenschaften erinnert: Ist V ein K-Vektorraum, so heißt die Menge HomK (V, K) der linearen Abbildungen von V nach K der Dualraum V ∗ ; seine Elemente heißen Linearformen oder Funktionale. Ist V endlichdimensional mit Basis B = (v1 , . . . , vn ), so bilden die Linearformen vj∗ mit vj∗ (vi ) = δij eine Basis B ∗ von V ∗ ; diese heißt die zu B duale Basis. P vj∗ ist die j-te Koordinatenfunktion bez¨ uglich B: vj∗ ( ni=1 xi vi ) = xj . Der Dualraum V ∗ ist dann zu V isomorph, f¨ ur jede Basis B = (v1 , . . . , vn ) von V hat man den Isomorphismus ΦB : V −→ V ∗ mit ΦB (vj ) = vj∗ f¨ ur 1 ≤ j ≤ n. Es gibt aber keinen kanonischen, das heißt von Auswahlen wie etwa der Auswahl einer Basis B von V unabh¨angigen Isomorphismus zwischen V und V ∗ . Hat V unendliche Dimension, so enth¨alt V ∗ zwar Elemente vj∗ wie oben, diese bilden aber kein Erzeugendensystem von V ∗ mehr, die Vektorr¨aume V und V ∗ sind dann nicht isomorph (um letzteres zu zeigen,braucht man Argumente u ¨ber Kardinalzahlen, die ¨ahnlich verlaufen, wie der ber¨ uhmte Diagonalschluss von Cantor, mit dem gezeigt wird, dass die Menge der reellen Zahlen nicht abz¨ahlbar ist). Man hat aber: Satz 13.1. Sei V ein K-Vektorraum, V ∗ sein Dualraum, (V ∗ )∗ =: V ∗∗ sein Bidualraum (der Dualraum von V ∗ ). F¨ ur v ∈ V sei v ∗∗ ∈ V ∗∗ gegeben durch v ∗∗ (f ) := f (v) f¨ ur f ∈ V ∗ . Dann ist die durch ι(v) := v ∗∗ ∈ V ∗∗ gegebene Abbildung ι : V −→ V ∗∗ eine injektive lineare Abbildung. Ist V endlichdimensional, so ist ι ein (kanonischer) Isomorphismus von V auf V ∗∗ . ¨ Beweis. Ubung.
Definition und Lemma 13.2. Sei V ein endlichdimensionaler KVektorraum mit Basis B = (v1 , . . . , vn ) und β : V × V −→ K eine Bilinearform.
LINEARE ALGEBRA I, 2004/2005
157
a) Durch β˜1 (v)(w) := β(w, v),
β˜2 (v)(w) := β(v, w) werden lineare Abbildungen β˜1 , β˜2 : V −→ V ∗ definiert. b) Hat β bez¨ uglich der Basis B die Gram-Matrix A, so ist M B∗ (β˜1 ) = A, M B∗ (β˜2 ) = t A. B
B
c) Das Diagramm Bil(V )
β7→β˜1
JJ JJ JJ J β7→MB (β) JJ%
/ Hom(V, V ∗ ) ppp ppp p p px pp f 7→MBB∗ (f )
Mn (K) ist kommutativ und alle Abbildungen in diesem Diagramm sind Isomorphismen. Bemerkung. Ist B = (v1 , . . . , vn ) eine Orthonormalbasis von V bez¨ uglich ∗ ∗ ∗ ∗ β und B = (v1 , . . . , vn ) die dazu duale Basis des Dualraums V , so gilt f¨ ur die Abbildung β˜ = β˜1 = β˜2 : V −→ V ∗ : ˜ j ) = v ∗ (1 ≤ j ≤ n). β(v j
Offenbar entsprechen im vorigen Lemma die Isomorphismen von V auf V ∗ genau den Bilinearformen, deren Gram-Matrix invertierbar ist. Wir wollen diese Bilinearformen n¨aher untersuchen: Definition 13.3. Sei V ein K-Vektorraum. Eine symmetrische oder alternierende Bilinearform β : V × V −→ K heißt nichtausgeartet, wenn gilt: Ist v ∈ V und β(v, w) = 0 f¨ ur alle w ∈ V , so ist v = 0. F¨ ur eine beliebige Bilinearform β ersetzt man die Bedingung von oben durch: Ist v ∈ V und β(v, w) = β(w, v) = 0 f¨ ur alle w ∈ V , so ist v = 0. Beispiel: • Die Einheitsform β0 auf K n mit β0 (x, y) = t xy ist nichtausgeartet, da β0 (x, ej ) = xj f¨ ur 1 ≤ j ≤ n gilt. • Die symmetrische Bilinearform β(x, y) = x1 y1 − x2 y2 auf K 2 ist nichtausgeartet. • Die symmetrische Bilinearform β(x, y) = x1 y3 −x2 y3 +x3 y1 −x3 y2 1 3 auf R ist ausgeartet: Man hat β( 1 , y) = 0 f¨ ur alle y ∈ R3 . 0
Lemma 13.4. Sei β : V × V −→ K eine Bilinearform auf dem endlichdimensionalen K-Vektorraum V . Dann sind ¨aquivalent: a) β ist nichtausgeartet.
158
RAINER SCHULZE-PILLOT
b) Sind v1 , v2 ∈ V mit β(v1 , w) = β(v2 , w) f¨ ur alle w ∈ V , so ist v1 = v2 . c) Die lineare Abbildung β˜2 : V −→ V ∗ , die durch β˜2 (v)(w) = β(v, w) gegeben ist, ist bijektiv. d) Die lineare Abbildung β˜1 : V −→ V ∗ , die durch β˜1 (v)(w) = β(w, v) gegeben ist, ist bijektiv. Im Weiteren werden wir uns meist auf die Untersuchung symmetrischer oder alternierender Bilinearformen beschr¨anken, weil diese in Anwendungen am h¨aufigsten vorkommen. Zudem u ¨berlegt man sich leicht, dass man f¨ ur char(K) 6= 2 jede Bilinearform eindeutig als Summe einer symmetrischen und einer alternierenden Bilinearform schreiben kann ¨ (Ubung). Definition 13.5. Sei β eine symmetrische oder alternierende Bilinearform auf dem K-Vektorraum V . Das Radikal rad(V, β) = radβ (V ) von (V, β) ist definiert durch rad(V, β) = {v ∈ V | β(v, w) = 0 f¨ ur alle w ∈ V } = {v ∈ V | β(w, v) = 0 f¨ ur alle w ∈ V }. Beispiel: Die symmetrische Bilinearform β(x, y) = x1 y3 − x2 y3 + 1 x3 y1 − x3 y2 auf R3 hat als Radikal den vom Vektor 1 erzeugten 0
Unterraum des R3 . Wie bei der Betrachtung des Zusammenhangs zwischen Matrizen und linearen Abbildungen stellt sich auch bei der Beschreibung von Bilinearformen durch Matrizen die Frage, ob und wie man zu einer gegebenen Bilinearform eine Basis des zu Grunde liegenden Vektorraums findet, bez¨ uglich der die Matrix der Bilinearform eine besonders einfache Gestalt hat. Wir haben zun¨achst: Lemma 13.6. Sei β eine symmetrische oder alternierende Bilinearform auf dem K-Vektorraum V . Ist U ein zu rad(V, β) komplement¨arer Unterraum von V , so ist β|U ×U : U × U −→ K eine nichtausgeartete Bilinearform. Sind (v1 , . . . , vr ) eine Basis von rad(V, β) und (vr+1 , . . . , vn ) eine Basis von U , so ist (v1 , . . . , vn ) eine Basis von V , bez¨ uglich der β eine GramMatrix der Gestalt 0r 0r,n−r 0n−r,r A mit einer invertierbaren Matrix A ∈ Mn−r (K) hat.
LINEARE ALGEBRA I, 2004/2005
Beweis. Klar.
159
Wir k¨onnen uns also im Weiteren auf die Untersuchung nichtausgearteter symmetrischer bzw. alternierender Bilinearformen beschr¨anken. Satz 13.7. (Gram-Schmidt, verallgemeinert) Sei K ein K¨orper mit char(K) 6= 2, V ein endlichdimensionaler K-Vektorraum, β : V × V −→ K eine symmetrische Bilinearform auf V . Dann hat V eine Orthogonalbasis bez¨ uglich β, also eine Basis (v1 , . . . , vn ) mit β(vi , vj ) = 0 f¨ ur i 6= j. Beweis. Wir beweisen das durch Induktion nach n = dim(V ), der Anfang dim(V ) = 1 ist trivial. Wir betrachten also n > 1 und nehmen an, die Behauptung sei f¨ ur R¨aume kleinerer Dimension als n bewiesen. Da β nichtausgeartet ist, gibt es v ∈ V mit β(v, v) 6= 0, denn sonst w¨are wegen der Polarisierungsformel 2β(v, w) = β(v + w, v + w) − β(v, v) − β(w, w) die Bilinearform β identisch gleich 0 (an dieser Stelle ben¨otigen wir die Voraussetzung char(K) 6= 2). Der von v erzeugte Unterraum U ⊆ V liefert wegen Lemma 12.16 eine Zerlegung V = U ⊕ U ⊥ in eine orthogonale direkte Summe. Da U ⊥ Dimension n − 1 hat, besitzt U nach Induktionsannahme eine Orthogonalbasis; erg¨anzt man diese um den Vektor v, so erh¨alt man die gesuchte Orthogonalbasis von V . Bemerkung. Man beachte, dass dieser eventuell etwas unkonstruktiv wirkende Beweis in Wahrheit nichts anderes als das Gram-Schmidt’sche Orthogonalisierungsverfahren aus dem vorigen Abschnitt ist - jedenfalls dann, wenn man beim Versuch, es auf eine vorgegebene Basis von V anzuwenden, nie einen Vektor u mit β(u, u) = 0 erh¨alt. Wenn das passiert, muss man das Verfahren unterbrechen und den Vektor zun¨achst durch einen besser geeigneten ersetzen. Auch dies l¨asst sich leicht algorithmisch formulieren, man b¨ ußt aber die Dreiecksgestalt der Matrix der Basistransformation ein. Satz 13.8. (Tr¨ agheitssatz von Sylvester) Sei V ein endlichdimensionaler R-Vektorraum der Dimension n, β : V × V −→ R eine nichtausgeartete symmetrische Bilinearform. Dann gibt es eine Basis von V , bez¨ uglich der die Matrix von β Diagonalgestalt mit Eintr¨agen ±1 hat. Dabei sind die Anzahlen p der Eintr¨age +1 und q der Eintr¨age −1 von der Auswahl der Basis unabh¨angig. Das Paar (p, q) (oder gelegentlich auch die Zahl p−q) heißt die Signatur von β. Bemerkung. Alles bisherige kann auch f¨ ur hermitesche Formen auf ¨ einem komplexen Vektorraum durchgef¨ uhrt werden, die einzige Anderung ist, dass die Abbildung β˜2 dann in Definition und Lemma 13.2 bez¨ uglich der Basen B von V , B ∗ von V ∗ die Matrix t A¯ bekommt.
160
RAINER SCHULZE-PILLOT
Insbesondere gilt der Tr¨agheitssatz von Sylvester auch f¨ ur hermitesche Formen. Korollar 13.9. Sei A ∈ GLn (C) eine regul¨are hermitesche Matrix. Dann gibt es T ∈ GLn (C), so dass t T AT¯ eine Diagonalmatrix mit Eintr¨agen ±1 ist. Ist A reell symmetrisch, so kann auch T ∈ GLn (R) gew¨ahlt werden. Satz 13.10. (Determinantenkriterium von Jacobi) Sei A ∈ Mn (R) symmetrisch, f¨ ur 1 ≤ k ≤ n sei Ak ∈ Mk (R) die aus den ersten k Zeilen und Spalten von A gebildete (k × k)-Matrix, dk := det(Ak ). Dann gilt: A ist genau dann positiv definit, wenn dk > 0 f¨ ur 1 ≤ k ≤ n gilt. Beweis. Die Behauptung k¨onnen wir auch wie folgt ausdr¨ ucken: Die durch A gegebene Bilinearform β = βA ist genau dann positiv definit, wenn f¨ ur 1 ≤ k ≤ n ihre Einschr¨ankung auf den von den ersten k Vektoren der Standardbasis (e1 , . . . , en ) erzeugten Unterraum Uk bez¨ uglich dieser Basisvektoren eine Gram-Matrix Ak mit positiver Determinante dk hat. Ist β positiv definit, so ist auch die Einschr¨ankung von β auf Uk positiv definit, und nach dem Satz von Gram-Schmidt kann man die Matrix Ak f¨ ur jedes k als Ak = t Tk · Tk mit T ∈ GLk (R) schreiben, hat also dk = (det(Tk ))2 > 0 f¨ ur 1 ≤ k ≤ n. Sind umgekehrt alle dk positiv, so k¨onnen wir eine leicht umformulierte Version des Gram-Schmidt-Verfahrens anwenden, um aus der Standardbasis eine Orthogonalbasis (v1 , . . . , vn ) von Rn bez¨ uglich β zu konstruieren, f¨ ur die v1 , . . . , vk f¨ ur 1 ≤ k ≤ n den Raum Uk erzeugen und f¨ ur die β(vj , vj ) > 0 f¨ ur 1 ≤ j ≤ n gilt; das impliziert offenbar, dass β und damit A positiv definit ist. Zun¨achst ist v1 = e1 mit β(e1 , e1 ) = d1 > 0. Hat man f¨ ur k > 1 bereits paarweise orthogonale Vektoren v1 , . . . , vk−1 mit den gew¨ unschten Eigenschaften konstruiert, so hat Uk nach Lemma 12.16 eine Zerlegung ⊥ ⊥ Uk = Uk−1 ⊕ Uk−1 mit dim(Uk−1 ) = 1. Wir w¨ahlen dann vk als einen ⊥ Vektor, der Uk−1 erzeugt. Damit sind die vj offenbar paarweise orthogonal und so, dass v1 , . . . Q , vk f¨ ur 1 ≤ k ≤ n den Raum Uk erzeugen. Die Determinante d0k = kj=1 β(vj , vj ) der Gram-Matrix von β|Uk ×Uk bez¨ uglich (v1 , . . . , vk ) unterscheidet sich von dk nur um ein von 0 verschiedenes Quadrat, ist also f¨ ur alle k ebenfalls positiv. Also sind alle β(vj , vj ) in der Tat positiv, und die Behauptung ist bewiesen. Bemerkung. Die Aussage des Korollars gilt auch f¨ ur komplexe hermitesche Matrizen (man beachte, dass dann alle dk reell sind). F¨ ur alternierende Bilinearformen ist die Situation sogar noch einfacher, zun¨achst brauchen wir ein Lemma u ¨ber orthogonale Zerlegungen, das in dieser Situation anwendbar ist.
LINEARE ALGEBRA I, 2004/2005
161
Lemma 13.11. Sei V ein K-Vektorraum mit nichtausgearteter symmetrischer oder alternierender Bilinearform β und U ⊆ V ein Unterraum, f¨ ur den β|U ×U nichtausgeartet ist. Dann ist V = U ⊕ U ⊥. Beweis. Sei (u1 , . . . , ur ) eine Basis von U . Da β|U ×U nach Voraussetzung nichtausgeartet ist, gibt es eine Basis (w1 , . . . , wr ) von U , so dass β(ui , wj ) = δij f¨ ur 1 ≤ i, j ≤ r gilt. Ist nun v ∈ V beliebig, so setzen wir v
0
=
r X
β(v, wi )ui ∈ U
i=1
v 00 = v − v 0 Dann ist β(v, wj ) = β(v 0 , wj ) f¨ ur 1 ≤ j ≤ r, also v 00 = v − v 0 ∈ U ⊥ , also ist V = U + U ⊥ . Da β|U ×U nichtausgeartet ist, ist U ∩ U ⊥ = {0}, also wie behauptet V = U ⊕ U ⊥. Satz 13.12. Sei β : V × V −→ K nichtausgeartete alternierende Bilinearform (also β(v, v) = 0 f¨ ur alle v ∈ V , das impliziert, dass β schiefsymmetrisch ist und ist f¨ ur char(K) 6= 2 ¨aquivalent dazu), V endlichdimensional. Dann hat V eine Basis, bez¨ uglich der β die Matrix J 0 0 1 J mit J = .. . −1 0 0 J hat. Insbesondere ist dim(V ) = 2m gerade. Beweis. Sei v 6= 0 ein beliebiger Vektor in V . Weil β als nichtausgeartet vorausgesetzt ist, gibt es w ∈ V mit β(v, w) = 1. Ist U = Lin(v, w), 0 1 so hat β|U ×U bez¨ uglich der Basis (v, w) die Matrix ( −1 0 ). Nach dem vorigen Lemma k¨onnen wir U orthogonal abspalten und sehen, dass die Behauptung durch vollst¨andige Induktion nach dim(V ) folgt. Korollar 13.13. Sei A ∈ M (n × n, K) eine alternierende Matrix (also t xAx = 0 f¨ ur alle x ∈ K n ) mit det(A) 6= 0. Dann gibt es T ∈ GLn (K) mit J 0 t .. , T AT = . 0 J J wie im Satz. Beweis. Klar.
162
RAINER SCHULZE-PILLOT
Bemerkung. a) Der Beweis des Satzes kann so gef¨ uhrt werden, dass man einen Algorithmus erh¨alt, vermittels dessen A durch simultane Zeilen- und Spaltenumformungen in die Gestalt J 0 .. . 0
J
gebracht wird. b) Ist A alternierend und T wie im Korollar, so ist det(A) = (det(T ))2 , insbesondere ist det(A) ein Quadrat in K. c) det(A) ist (nach der Formel von Leibniz) ein Polynom F1 in den Eintr¨agen der Matrix A, und zwar ein homogenes Polynom vom Grad n = 2m (ein Polynom P P P F (X1 , . . . , Xr ) = dj1 =0 dj2 =0 · · · djr =0 aj1 ,...,jn X1j1 · · · Xrjr heißt homogen vom Grad n, wenn nur Ausdr¨ ucke X j1 · · · X jr mit j1 + · · · + jr = n darin vorkommen). Will man die Determinante nur auf alternierende Matrizen anwenden, so kann man die Variablen Xii gleich 0 setzen und f¨ ur Xij mit i > j die Einsetzung Xij = −Xji vornehmen, man erh¨alt ein Polynom F in den Variablen X12 , . . . , X1n , X23 , . . . , Xn−1,n mit F (a12 , . . . , a1n , a23 , . . . , an−1,n ) = det(A) f¨ ur jede alternierende Matrix A ∈ Mn (K) (und f¨ ur beliebigen K¨orper K). Man kann dann zeigen: Es gibt ein Polynom P in den Koeffizienten aij mit i < j von A mit P (X12 , . . . , X1n , X23 , . . . , Xn−1,n )2 = F (X12 , . . . , Xn−1,n ); das Polynom P ist homogen vom Grad n, es heißt die Pfaff ’sche Form. Der Versuch, diesen Sachverhalt analog auf symmetrische Bilinearformen zu u uhrt auf ein nichttriviales Problem und damit auf ¨bertragen, f¨ einen neuen Begriff: Definition und Lemma 13.14. Sei A ∈ M (2 × 2, K) symmetrisch, det(A) 6= 0. A sei isotrop, d.h., es gebe einen Vektor x ∈ K 2 mit t xAx = 0, x 6= 0. Dann gibt es T ∈ GL2 (K) mit t
T AT =
0 1 . 1 0
Ist A wie oben, so heißt die quadratische Form QA (x) := t xAx bzw. die symmetrische Bilinearform βA (x, y) = t xAy hyperbolisch, (K 2 , QA ) heißt hyperbolische Ebene.
LINEARE ALGEBRA I, 2004/2005
163
Satz 13.15. (Witt-Zerlegung) Sei A ∈ M (n × n, K) symmetrisch, (A ∈ Mnsym (K)) nichtausgeartet. Dann gibt es r ∈ N, T ∈ GLn (K), sym B ∈ Mn−2r (K), so dass 0 J 0 0 .. . t T AT = J0 0 0 B 0 1 mit J 0 = und B anisotrop (d.h., t xBx = 0 ⇒ x = 0) gilt. 1 0 Bemerkung. a) Man kann zeigen, dass r eindeutig bestimmt ist. r ist die Dimension eines maximalen Teilraums U von V = K n mit βA |U = 0. r heißt der Witt-Index oder Tr¨agheitsindex von A. Ist K = R und A von der Signatur (p, q), so ist r = min(p, q). ¨ Die anisotrope Matrix B ist eindeutig bis auf Aquivalenz unter t B ∼ SBS, S ∈ GLn−2r (K), also bis auf umkehrbare lineare Koordinatentransformation. ¨ b) Uber anisotropes A sagt der Satz nichts aus. Die Klassifikation der anisotropen β h¨angt stark vom K¨orper K ab (¨ uber R ist sie sehr einfach, u ¨ber Q kompliziert), sie ist ein Hauptproblem der algebraischen Theorie der quadratischen Formen. Wir werden im n¨achsten Abschnitt in der Situation eines euklidischen oder unit¨aren Vektorraumes zu einem Endomorphismus des Vektorraums die adjungierte Abbildung betrachten. Jetzt wollen wir zusammenstellen, was man zu diesem Begriff in der allgemeinen Situation eines Vektorraums mit symmetrischer Bilinearform aussagen kann und wie der Zusammenhang dieses Begriffs mit dem Dualraum ist. Definition und Lemma 13.16. Seien V, W Vektorr¨aume u ¨ber dem K¨orper K, f : V −→ W eine lineare Abbildung. Dann wird durch f t (ψ) := ψ ◦ f (ψ ∈ W ∗ ) eine lineare Abbildung f t : W ∗ −→ V ∗ definiert. Diese heißt die transponierte Abbildung zu f . Lemma 13.17. Seien V, W endlichdimensionale Vektorr¨aume u ¨ber dem K¨orper K mit Basen B1 von V , B2 von W . Sei f : V −→ W eine lineare Abbildung und A = MBB21 (f ) die Matrix von f bez¨ uglich der Basen B1 von V , B2 von W .
164
RAINER SCHULZE-PILLOT
Dann ist t
B∗
A = MB1∗2 (f t ),
wo B1∗ und B2∗ die zu B1 bzw. B2 dualen Basen von V ∗ bzw. W ∗ sind. Beweis. Nachrechnen.
Satz 13.18. Sei V ein endlichdimensionaler K-Vektorraum, β : V × V −→ K eine (beliebige) nichtausgeartete Bilinearform. Sei f ∈ End(V ). Dann gibt es genau einen Endomorphismus f ∗ ∈ End(V ) mit β(f (v), w) = β(v, f ∗ (w)) f¨ ur alle v, w ∈ V. f ∗ ist die (eindeutig bestimmte) lineare Abbildung, die das Diagramm f∗
V −→ V ˜ β1 ↓ ↓ β˜1 ft
V ∗ −→ V ∗ kommutativ macht, f ∗ heißt die bez¨ uglich β zu f adjungierte Abbildung. Beweis. Die Bedingung β(f (v), w) = β(v, f ∗ (w)) f¨ ur alle v, w ∈ V. k¨onnen wir (unter Vertauschen von rechter und linker Seite der Gleichung) auch so formulieren: F¨ ur alle v, w ∈ V gilt β˜1 (f ∗ (w))(v) = β˜1 (w)(f (v)) = (f t (β˜1 (w)))(v). Sie ist also ¨aquivalent zu β˜1 ◦ f ∗ = f t ◦ β˜1 , also zu f ∗ = (β˜1 )−1 ◦ f t ◦ β˜1 . Man definiert also f ∗ durch diese Gleichung und hat die Behauptung gezeigt. Korollar 13.19. Sei V ein endlichdimensionaler K-Vektorraum, β : V × V −→ K eine nichtausgeartete symmetrische Bilinearform und B = (v1 , . . . , vn ) eine Orthonormalbasis von V bez¨ uglich β. Sei f ∈ End(V ) mit Matrix A bez¨ uglich B. Dann hat die bez¨ uglich β zu f adjungierte Abbildung f ∗ bez¨ uglich der Basis B die Matrix t A. Beweis. Ohne Einschr¨ankung istP V = K n , B die Standardbasis und β die Einheitsform, also β(x, y) = ni=1 xi yi f¨ ur x, y ∈ K n , und f = LA .
LINEARE ALGEBRA I, 2004/2005
165
Mit g := Lt A gilt dann f¨ ur 1 ≤ j, k ≤ n: n X β(Aej , ek ) = aij β(ei , ek ) i=1
=
n X
aij δik
i=1
= akj n X = aki δij i=1
=
n X
aki β(ej , ei )
i=1
= β(ej , t Aek ) = β(ej , g(ek )). Wegen der Bilinearit¨at von β folgt daraus, dass β(LA (x), y) = β(x, Lt A y) f¨ ur alle x, y ∈ K n gilt, dass also wie behauptet Lt A die zu LA adjungierte Abbildung ist.
Zum Abschluss dieses Paragraphen stellen wir noch einige (in der Vorlesung nicht behandelte) Dinge zusammen, die den Zusammenhang zwischen Dualraum und Bilinearformen weiter untersuchen und ausnutzen. Spezialf¨alle hiervon f¨ ur den Fall reeller oder komplexer Vektorr¨aume mit Skalarprodukt werden wir sp¨ater noch gesondert (und vereinfacht) betrachten. Definition und Lemma 13.20. Seien U, V Vektorr¨aume u ¨ber K. a) Ist β : U × V −→ K eine Bilinearform, M ⊆ U , N ⊆ V , so sind die orthogonalen Komplemente von M, N bez¨ uglich β definiert durch: M ⊥ = {v ∈ V | β(u, v) = 0 f¨ ur alle u ∈ M } ⊥ N = {u ∈ U | β(u, v) = 0 f¨ ur alle v ∈ N }. b) Ist M ⊆ V , F ⊆ V ∗ , so ist der Annullator von M bzw. F definiert durch: M 0 := {f ∈ V ∗ | f (v) = 0 f¨ ur alle v ∈ M } 0 F := {v ∈ V | f (v) = 0 f¨ ur alle f ∈ F }. Es gilt: Die Mengen M ⊥ , ⊥ N , M 0 , F 0 sind Unterr¨aume des jeweiligen Vektorraums. Lemma 13.21. Seien U, V, β wie bisher. Es gilt f¨ ur M ⊆ U :
166
RAINER SCHULZE-PILLOT
a) M1 ⊆ M2 ⇒ M1⊥ ⊇ M2⊥ , M10 ⊇ M20 . b) M ⊥ = Lin(M )⊥ , M 0 = Lin(M )0 c) ⊥ (M ⊥ ) ⊇ M , (M 0 )0 ⊇ M . d) (⊥ (M ⊥ ))⊥ = M ⊥ , M 000 = M 0 . F¨ ur Teilr¨aume gilt ferner e) (M1 + M2 )⊥ = M1⊥ ∩ M2⊥ , (M1 + M2 )0 = M10 ∩ M20 , M1⊥ + M2⊥ ⊆ (M1 ∩ M2 )⊥ , M10 + M20 ⊆ (M1 ∩ M2 )0 . Analoge Aussagen gelten f¨ ur ⊥ N (mit N ⊂ V ) und F 0 (F ⊆ U ∗ oder F ⊆ V ∗ ). Im Weiteren sei stets U = V und β symmetrisch oder schiefsymmetrisch. Der Unterschied zwischen M ⊥ und ⊥ M entf¨allt dann, und wir schreiben h¨aufig β˜ := β1 . Satz 13.22. Sei V ein K-Vektorraum, U ⊆ V ein Unterraum. Dann gilt: a) Es ist V ∗ /U 0 ∼ = U ∗ , ein Isomorphismus wird durch f + U 0 7−→ f |U gegeben. Insbesondere kann jedes g ∈ U ∗ zu g˜ ∈ V ∗ fortgesetzt werden (d.h., g˜|U = g). b) Es gilt (V /U )∗ ∼ = U 0 , ein Isomorphismus wird durch f −→ f ◦ πU gegeben, wo πU : V −→ V /U die Projektion ist (also πU (v) = v + U ). c) Ist V endlichdimensional, so ist dim(U ) + dim(U 0 ) = dim(V ) und analog dim(F ) + dim(F 0 ) = dim(V ) f¨ ur einen Teilraum F ⊆ V ∗ . Beispiel. Sei A = (aij ) ∈ M (p×n, K) eine Matrix mit Zeilen t z1 , . . . , t zp , t zi = (ai1 , . . . , ain ) ∈ K n = V . F¨ ur 1 ≤ i ≤ p sei fi ∈ V ∗ gegeben durch fi (x) =
n X
aij xj .
j=1
Der Isomorphismus ϕ mit ϕ(ej ) = e∗j von V = K n nach V ∗ bildet zi auf fi ab f¨ ur 1 ≤ i ≤ p, also hat Lin(f1 , . . . , fp ) die gleiche Dimension wie Lin(z1 , . . . , zp ), n¨amlich rg(A).
LINEARE ALGEBRA I, 2004/2005
167
Mit U := {x ∈ Kn | Ax = 0} gilt U = (Lin(f1 , . . . , fp ))0 , also dim(U ) = n − dim(Lin(f1 , . . . , fp )) = n − rg(A) nach Satz 13.22 c). Der Satz enth¨alt also die bekannte Formel f¨ ur die Dimension des L¨osungsraums eines linearen Gleichungssystems. Erinnerung. Eine symmetrische (oder schiefsymmetrische) Bilinearform β : V ×V −→ K heißt nichtausgeartet, wenn sie eine der folgenden ¨aquivalenten Eigenschaften hat: a) β˜ : V −→ V ∗ ist injektiv. b) Ist v ∈ V mit β(v, w) = 0 f¨ ur alle w ∈ V , so ist v = 0. ⊥ c) V = {0} Ist V endlichdimensional, so sind hierzu auch noch ¨aquivalent: d) β˜ : V −→ V ∗ ist ein Isomorphismus. e) Zu jedem f ∈ V ∗ gibt es genau ein v ∈ V mit β(v, w) = f (w) f¨ ur alle w ∈ V . Auch f¨ ur eine Bilinearform β, die weder symmetrisch noch antisymmetrisch ist, sagt man, β sei nichtausgeartet, wenn β1 und β2 injektiv sind. Ist V endlichdimensional, so sieht man leicht, dass β1 genau dann in¨ jektiv ist, wenn β2 surjektiv ist (Beweis als Ubung). Korollar 13.23. Sei β : V × V −→ K symmetrische oder antisymmetrische Bilinearform. ˜ )0 . a) Ist M ⊆ V , so ist M ⊥ = β(M b) Ist U ⊆ V ein Teilraum, so ist dim(U ) + dim(U ⊥ ) = dim(V ) + dim(V ⊥ ∩ U ). c) Ist β nichtausgeartet, U ⊆ V ein Teilraum, so ist dim(U ) + dim(U ⊥ ) = dim(V ). d) Ist U ⊆ V ein Teilraum, β|U nichtausgeartet, so ist V = U ⊕ U ⊥. Beispiel. Pn a) Sei V = Cn , β(x, y) = j=1 xj yj die Standardbilinearform, sei n = 2m gerade. F¨ ur 1 ≤ j ≤ m sei fj = ej + iej+m ; sei U = Lin(f1 , . . . , fm ). Dann ist U = U ⊥ , obwohl β nichtausgeartet ist. β|U ×U ist identisch 0, man sieht, dass die Einschr¨ankung einer nichtausgearteten Bilinearform auf einen Teilraum ausgeartet sein kann. Nach Teil c) des Korollars ist m die maximale Dimension eines Teilraums U mit β|U ×U = 0.
168
RAINER SCHULZE-PILLOT
b) Ist V = Fn2 , so heißen Unterr¨aume C ⊆ Fn2 auch lineare Codes, da sie benutzt werden, um Daten f¨ ur die Speicherung oder f¨ ur ¨ die Ubermittlung von Nachrichten zu codieren. Man u ¨bermittelt Nachrichten, indem man die einzelnen Zeichen oder W¨orter der Nachricht in Bitfolgen der L¨ange n (also Elemente von Fn2 ) verwandelt (codiert) und daf¨ ur nur Folgen (Codeworte) in C zul¨asst. F¨ ur x ∈ V nennt man w(x) = #{1 ≤ j ≤ n | xj 6= 0} das (Hamming-) Gewicht von x. Ist das Minimalgewicht w(C) = min{w(x) | 0 6= x ∈ C} gleich d, so unterscheiden sich je zwei Elemente von C in wenigstens d Stellen, d heißt deshalb auch der Minimalabstand von C. Hat C den Minimalabstand 2t + 1, so kann der Code t bei der Nachrichten¨ ubermittlung entstandene Fehler korrigieren. Empf¨angt man y ∈ Fn2 , so decodiert man es als dasjenige (eindeutig bestimmte) x ∈ C mit w(x − y) ≤ t (sofern es ein solches gibt). ¨ Sind bei der Ubermittlung nicht mehr als t Fehler aufgetreten, so erh¨alt man auf diese Weise korrekt den gesendeten Vektor aus C zur¨ uck. Man definiert hier den zu C dualen Code als das OrthokompleP ment C ⊥ bez¨ uglich der Standardbilinearform β(x, y) = nj=1 xj yj . Die Eigenschaften von C und C ⊥ h¨angen zusammen; besonders interessiert man sich f¨ ur selbstduale Codes, also C mit C = C ⊥ , also gerade solche Teilr¨aume C, f¨ ur die β|C identisch verschwindet (und die maximal mit dieser Eigenschaft sind). Die schw¨achere Eigenschaft β(x, y) = 0 f¨ ur alle x ∈ C erreicht ˜ man, idem man zum erweiterten Code C ⊆ Fn+1 u ¨bergeht: 2 x1 n X . n+1 ˜ .. C := {x ∈ F2 | ∈ C, xn+1 = xj }. j=1 xn Es ist in der Codierungstheorie u ¨blich, die Transponierten der Vektoren einer Basis in die Zeilen einer Matrix, der sogenannten Erzeugermatrix GC (generator matrix) einzutragen, die Matrix GC ⊥ heißt dann Kontrollmatrix und hat die Eigenschaft C = {x ∈ Fn2 | GC ⊥ · x = 0}, f¨ ur selbstduale Codes stimmen also Erzeugermatrix und Kontrollmatrix u ¨berein. Ein Beispiel ist der Hammingcode 1 0 0 1 1 0 1 0 1 0 0 0 1 0 1
CH ⊆ F72 mit Kontrollmatrix 0 1 1 1 1 1
LINEARE ALGEBRA I, 2004/2005
und Erzeugermatrix 1 1 0 1
1 0 1 1
0 1 1 1
1 0 0 0
0 1 0 0
0 0 1 0
169
0 0 . 0 1
Der Code hat Minimalgewicht 3. Der erweiterte Code ist selbstdual und hat Minimalgewicht 4.
170
RAINER SCHULZE-PILLOT
14. Hauptachsentransformation und Spektralsatz Definition und Lemma 14.1. Sei K = R oder K = C, V ein euklidischer oder unit¨arer Vektorraum u ¨ber K, f ∈ End(V ). Dann gibt es genau eine Abbildung f ∗ ∈ End(V ) mit hf v, wi = hv, f ∗ wi
f¨ ur alle v, w ∈ V.
f ∗ heißt die zu f adjungierte Abbildung. Ist f = f ∗ , so heißt f selbstadjungiert. Ist B eine Orthonormalbasis von V und A = MB (f ) die Matrix von f bez¨ uglich B, so hat f ∗ bez¨ uglich B die Matrix A∗ := t A; diese heißt die zu A adjungierte Matrix. A heißt selbstadjungiert (oder hermitesch), wenn A = A∗ gilt. Beweis. Im euklidischen Fall ist das bereits in Korollar 13.19 gezeigt worden; im unit¨aren Fall w¨ahlt man zun¨achst eine Orthonormalbasis B, setzt A = MB (f ) und beweist dann wie in Korollar 13.19, dass die lineare Abbildung, deren Matrix bez¨ uglich B die adjungierte Matrix A∗ ist, zu f adjungiert ist. Bemerkung. Der Zusammenhang zwischen der Matrix von f und der Matrix von f ∗ wird komplizierter, wenn die Basis, bez¨ uglich der die Matrizen betrachtet werden, keine Orthonormalbasis ist. Lemma 14.2. Seien K, V, h , i wie oben, f, g ∈ End(V ), λ ∈ K. Dann gilt: a) (f + g)∗ = f ∗ + g ∗ b) (λf )∗ = λf ∗ c) (f ◦ g)∗ = g ∗ ◦ f ∗ d) (f ∗ )∗ = f f¨ ur alle f, g ∈ End(V ), λ ∈ K. Beispiel. Skalarprodukte und adjungierte Abbildungen lassen sich auch f¨ ur unendlichdimensionale Vektorr¨aume definieren; allerdings ist dann die Existenz der adjungierten Abbildung nicht mehr garantiert. Betrachte V = C[X] mit dem Skalarprodukt Z 1 hf, gi := f (t)g(t)dt. 0
F¨ ur h ∈ C[X] hat man den Endomorphismus Mh von V , der durch Mh (f ) := hf gegeben ist. Man sieht: Mh∗ = Mh ; in diesem Fall existiert also die adjungierte Abbildung. Sei andererseits D der durch D(f ) = f 0 gegebene Ableitungsoperator.
LINEARE ALGEBRA I, 2004/2005
171
Falls es hierzu eine adjungierte Abbildung D∗ gibt, so gilt f¨ ur alle f, g ∈ V hf, D∗ gi + hf, Dgi = f (1)g(1) − f (0)g(0) (partielle Integration). Ist also g(1) = 1, g(0) = 0 und h = D∗ g + Dg, so ist Z 1 f (t) h(t)dt = f (1) f¨ ur alle f ∈ C[X]. 0
Speziell f¨ ur f = (X − 1) · h erh¨alt man Z 1 (t − 1)2 |h(t)|2 dt = 0, also h = 0, 0
das ist ein Widerspruch zu Z 1 f (t) h(t)dt = f (1) f¨ ur alle f ∈ C[X]. 0
Eine adjungierte Abbildung zu D existiert also nicht. Ziel dieses Abschnitts ist es, Normalformen f¨ ur selbstadjungierte, unit¨are und orthogonale Transformationen herzuleiten. Wir werden zeigen, dass f¨ ur selbstadjungierte und f¨ ur unit¨are Transformationen Orthonormalbasen aus Eigenvektoren existieren; f¨ ur orthogonale Transformationen ist die Lage geringf¨ ugig komplizierter, da sie keine reellen Eigenwerte haben m¨ ussen. Da selbstadjungierte Matrizen auch symmetrische Bilinearformen (bzw. im komplexen Fall hermitesche Formen) beschreiben, ergibt sich eine geometrische Deutung, die etwa im Falle von 2 × 2-Matrizen besagt, dass eine Menge Q ⊆ R2 , die als Nullstellengebilde Q = {(x1 , x2 ) ∈ R | a11 x21 + 2a12 x1 x2 + a22 x22 + b1 x1 + b2 x2 + c = 0} einer Gleichung zweiten Grades in den Koordinaten x1 , x2 gegeben ist, sich durch Koordinatentransformation (x1 , x2 ) 7−→ (x01 , x02 ) (wo die x0i die Koordinaten des Punktes bez¨ uglich eines neuen kartesischen Koordinatensystems sind), in eine der Normalgestalten 2
2
{P = (x01 , x02 ) | λ1 x0 1 + λ2 x0 2 = 1} oder 2
{P = (x01 , x02 ) | x0 1 + 2px02 = 0} u uhren l¨asst. Insbesondere sieht man dabei, dass abgesehen von ¨berf¨ Entartungsf¨allen wie {(x1 , x2 ) | x21 = 0} und solchen F¨allen, in denen keine oder nur triviale reelle L¨osungen vorliegen, die Quadriken Q Kegelschnitte (Ellipsen, Hyperbeln, Parabeln) sind, deren Hauptachsen die Achsen des neuen Koordinatensystems sind. Diese Deutung f¨ uhrt zu dem Namen “Hauptachsentransformation” und ist auch der geometrische Ursprung der Resultate dieses Abschnitts.
172
RAINER SCHULZE-PILLOT
Lemma 14.3. Sei V ein euklidischer oder unit¨arer Vektorraum, f ∈ End(V ) ein selbstadjungierter Endomorphismus. Dann sind alle Nullstellen in C des charakteristischen Polynoms von f reell und Eigenvektoren zu verschiedenen Eigenwerten sind orthogonal zueinander. Insbesondere zerf¨allt das charakteristische Polynom χf als n Y χf = (X − λi ) i=1
mit reellen λi (und hat daher reelle Koeffizienten). Beweis. Ist V unit¨ar und λ ∈ C eine Nullstelle des charakteristischen Polynoms χf , so ist λ ein Eigenwert von f , es gibt also einen Vektor v 6= 0 in V mit f (v) = λv. Dann hat man λhv, vi = = = =
hf (v), vi hv, f ∗ (v)i hv, f (v)i ¯ vi, λhv,
¯ = λ gilt, dass also λ also hat man nach K¨ urzen von hv, vi 6= 0, dass λ reell ist. Ist V euklidisch, so fasse man die Matrix A von f bez¨ uglich einer Orthonormalbasis von V als komplexe hermitesche Matrix auf; das obige Argument zeigt dann, dass alle Eigenwerte dieser komplexen hermiteschen Matrix reell sind, diese sind aber genau die Nullstellen des charakteristischen Polynoms χf = χA von f . Sind v und w Eigenvektoren zu verschiedenen Eigenwerten λ 6= µ von f , so hat man λhv, wi = hf (v), wi = hv, f (w)i = µ ¯hv, wi, wegen µ ¯ = µ 6= λ folgt hv, wi = 0.
Bemerkung. Will man den Fundamentalsatz der Algebra (jedes nicht konstante Polynom zerf¨allt in C[X] in ein Produkt von Linearfaktoren) beim Beweis des Zerfalls des charakteristischen Polynoms vermeiden, so kann man mit etwas reeller Analysis leicht zeigen, dass f wenigstens einen reellen Eigenwert hat und daraus durch vollst¨andige Induktion auf den Zerfall des charakteristischen Polynoms schließen (oder diesen letzten Schritt gleichzeitig mit einer rein reellen Version des n¨achsten Satzes beweisen). Satz 14.4. (Spektralsatz, 1. Fassung): Sei V euklidisch oder unit¨ar, f ∈ End(V ) ein selbstadjungierter Endomorphismus. Dann hat V eine Orthonormalbasis aus Eigenvektoren von f .
LINEARE ALGEBRA I, 2004/2005
173
Beweis. Wir beweisen das durch vollst¨andige Induktion nach n = dim(V ), der Fall n = 1 ist trivial. Sei also n > 1 und die Behauptung f¨ ur R¨aume der Dimension < n bewiesen. Nach dem vorigen Lemma hat f einen Eigenvektor v zu einem Eigenwert λ ∈ R. Mit W := (Lin(v))⊥ ist dann V = Lin(v) ⊕ W . F¨ ur w ∈ W ist hv, f (w)i = hf (v), wi = λhv, wi = 0, es gilt also f (W ) ⊆ (Lin(v))⊥ = W . Nach Induktionsannahme besitzt dann W eine Orthonormalbasis aus Eigenvektoren des selbstadv bilden diese eine jungierten Endomorphismus f |W . Zusammen mit kvk Orthonormalbasis von V , die aus Eigenvektoren von f besteht. Korollar 14.5. Ist A ∈ M (n×n, C) hermitesch, so gibt es eine unit¨are Matrix S ∈ GLn (C) (die im Fall A ∈ M (n×n, R) als reelle orthogonale Matrix gew¨ahlt werden kann), so dass t
SAS = S −1 AS
Diagonalgestalt hat. Beweis. Der unit¨are Raum Cn (bzw. f¨ ur A ∈ Mn (R) der euklidische Raum Rn ) mit dem Standardskalarprodukt hat nach dem vorigen Satz eine Orthonormalbasis (s1 , . . . , sn ) aus Eigenvektoren der selbstadjungierten Abbildung LA : Cn −→ Cn . Die Matrix S, deren Spalten die Vektoren (s1 , . . . , sn ) sind, ist dann unit¨ar (bzw. in On (R) falls A ∈ Mn (R) ist), und S −1 AS ist eine Diagonalmatrix. Da S unit¨ar ist, ¯ gilt S −1 = t S. Bemerkung. Eine Orthonormalbasis aus Eigenvektoren l¨asst sich leicht algorithmisch bestimmen: Zun¨achst finde man die verschiedenen Eigenvektoren λ1 , . . . , λr von der selbstadjungierten Matrix A. Durch L¨osen der linearen Gleichungssysteme (A − λi En )x = 0 (i)
(i)
findet man Basen w1 , . . . , wsi der Eigenr¨aume Vλi . Jede dieser Basen f¨ uhre man mit Hilfe des Gram-Schmidt-Verfahrens in eine Orthonormalbasis des jeweiligen Vλi u ¨ber. Da die Vλi nach Lemma (i) 14.3 paarweise orthogonal zueinander sind, bilden die wj (1 ≤ i ≤ r, n R 1 ≤ ji ≤ si ) zusammen eine Orthonormalbasis von V = . Cn
174
RAINER SCHULZE-PILLOT
3 0 −1 Beispiel. Sei A = 0 2 0 . −1 0 3 Es ist χA = (X − 2)(X 2 + 8 − 6X) = (X − 2)2 (X − 4), wir haben also λ1 = 2, λ2 = 4. Der Eigenraum zu λ1 = 2 ist der L¨ osungsraum des homogenen li 1 0 −1 nearen Gleichungssystems mit Matrix 0 0 0 , er hat die Basis −1 0 1 1 0 0 √2 1 0 , 1 , die auf die Orthonormalbasis 0 , 1 f¨ uhrt. √1 1 0 0 2 Der Eigenraum zu λ2 = 4 ist derL¨osungsraum des homogenen linearen 1 0 1 Gleichungssystems mit Matrix 0 2 0, er hat die Orthonormalba1 0 1 −1 √2 sis 0 . √1 2
Insgesamt hat man die Orthonormalbasis 1 −1 √ 0 √2 2 0 , 1 , 0 , √1 √1 0 2 2 die Matrix T mit diesen Spalten ist in O3 (R) 2 0 −1 t T AT = T AT = 0 2 0 0
und liefert 0 0 . 4
Korollar 14.6. Sei V ein euklidischer oder unit¨arer Raum mit Skalarprodukt h , i, sei ( C β : V × V −→ R eine hermitesche Form bzw. eine symmetrische Bilinearform. Dann hat V eine Orthonormalbasis (bez¨ uglich h , i), bez¨ uglich der die Matrix von β Diagonalgestalt hat (die also gleichzeitig Orthogonalbasis f¨ ur β ist). Beweis. Ohne Einschr¨ankung ist V = Cn bzw. V = Rn mit dem Standardskalarprodukt. Die Gram-Matrix A von β bez¨ uglich der Standardbasis ist hermitesch, es gibt also eine unit¨are Matrix S 0 mit Spalten (s01 , . . . , s0n ) so dass (S 0 )−1 AS 0 = t S¯0 AS 0 eine Diagonalmatrix ist. Mit S = S¯0 ist also t SAS¯ =: D eine Diagonalmatrix, die Gram-Matrix von
LINEARE ALGEBRA I, 2004/2005
175
β bez¨ uglich der Orthonormalbasis des Cn bzw. Rn , die aus den Spalten von S besteht, ist daher gleich dieser Diagonalmatrix. Korollar 14.7. Sei A ∈ Mn (C) hermitesch, T ∈ GLn (C) so, dass t T AT¯ = B Diagonalgestalt mit p Eintr¨agen +1, q Eintr¨agen −1, r = n − p − q Eintr¨agen 0 auf der Diagonale hat. Dann ist p die Anzahl der positiven, q die Anzahl der negativen Eigenwerte von A und r = n − rg(A) die Vielfachheit von 0 als Eigenwert von A. Beweis. Sei U ∈ Un (C) eine unit¨are Matrix, so dass λ1 t¯ .. U AU = U −1 AU =: D = . λn eine Diagonalmatrix ist; die Eintr¨age λ1 , . . . , λn von D sind dann die Eigenwerte von A. Sind u1 , . . . , un die Spalten von U , so sei (f¨ ur 1 ≤ i ≤ n) si = √u¯ i |λi |
¯ i f¨ falls λi 6= 0 und si = u ur λi = 0, ferner sei S ∈ GLn (C) die Matrix mit Spalten s1 , . . . , sn . Dann ist t SAS¯ eine Diagonalmatrix mit p0 Eintr¨agen +1, q 0 Eintr¨agen −1 und r0 Eintr¨agen 0, wo p0 die Anzahl der positiven Eigenwerte von A, q 0 die Anzahl der negativen Eigenwerte von A (jeweils mit Vielfachheiten) und r0 die Vielfachheit von 0 als Eigenwert von A ist. Nach dem Tr¨agheitssatz von Sylvester ist dann aber p = p0 , q = q 0 , r = r0 . Satz 14.8. (Spektralsatz, zweite Fassung) Sei V ein euklidischer oder unit¨arer Raum, f ∈ End(V ) selbstadjungiert, λ1 , . . . , λr die verschiedenen Eigenwerte von f . F¨ ur λ ∈ Spec(f ) := {λ1 , . . . , λr } = {λ ∈ R | λ ist Eigenwert von f } sei Vλ der Eigenraum von f zu λ. (Die Menge Spec(f ) der Eigenwerte von f heißt auch das Spektrum von f ) Dann gilt: L a) V = rj=1 Vλj , und die Vλj sind paarweise orthogonal zueinander. b) (Spektralzerlegung von f ) Ist pλj die orthogonale PProjektion auf Vλi bez¨ uglich der Zerlegung aus a), so ist f = rj=1 λj pλj , und alle pλj sind selbstadjungiert. Korollar 14.9. Sei A ∈ Mnsym (R) positiv semidefinit symmetrisch (also t xAx ≥ 0 f¨ ur alle x ∈ Rn ). Dann gibt es genau eine positiv semidefinite symmetrische Matrix B, so dass B 2 = A gilt. B heißt die positiv semidefinite Wurzel von A. Ist A positiv definit, so auch B.
176
RAINER SCHULZE-PILLOT
Beweis. Sei T ∈ On (R) so, dass λ1 t −1 .. T AT = T AT =: D = .
λn
eine Diagonalmatrix ist. Man setze √ λ1 .. D1 := .
√
λn
und B := t T −1 D1 T −1 = T D1 T −1 . Dann ist B 2 = A und B ist symmetrisch positiv semidefinit, definit genau dann, wenn A definit ist. Um die Eindeutigkeit zu sehen betrachten wir eine beliebige symmetrische positiv semidefinite Matrix B2 mit B22 = A. Dann ist B2 diagonalisierbar und die Eigenr¨aume von B2 zu den Eigenwerten µi sind √ die Eigenr¨aume von A = B22 zu den Eigenwerten µ2i . Also ist µi = λi und B2 hat die gleichen Eigenwerte und die gleichen Eigenr¨aume wie B, also ist B2 = B. Korollar 14.10. (Hauptachsentransformation einer Quadrik) Sei A ∈ M (n × n, R) symmetrisch, b ∈ Rn , c ∈ R, Q := {x ∈ Rn | tP xAx + t xb + c =P0} n n = {x ∈ Rn | j=1 bj xj + c = 0} i,j=1 aij xi xj + die durch A, b, c gegebene Quadrik. Dann gibt es a ∈ Rn und U ∈ On (R) (mit Spalten u1 , . . . , un ), so dass Q bez¨ uglich des (kartesischen) Koordinatensystems mit Ursprung in a und Achsen in Richtung der ui gegeben ist als Q = {a +
n X
x0i ui |
i=1
oder als Q = {a +
n X i=1
x0i ui
r X
2
λi x0 i + c0 = 0}
i=1
|
r X
2
λi x0 i + µx0n = 0};
i=1
dabei ist r = rg(A), λ1 , . . . , λr ∈ R alle von 0 verschieden. Ein Orthonormalsystem u1 , . . . , un von Vektoren mit dieser Eigenschaft heißt ein Hauptachsensystem der Quadrik. Die λi sind dabei gegeben durch r Y n−r χA = X (X − λi ), i=1
die ui sind Eigenvektoren von A zu den Eigenwerten λi . Bemerkung
LINEARE ALGEBRA I, 2004/2005
177
a) Ist r = n, so erreicht man stets die erste der angegebenen Normalformen f¨ ur die Quadrik. b) Ist r = n und sind die λi paarweise verschieden, so sind die ui bis auf einen Faktor ±1 eindeutig bestimmt. Beispiele. • Siehe das Worksheet auf der Web-Seite der Vorlesung. 2 2 • F¨ ur die Ellipse E = {t (x, y) ∈ R2 | xa2 + yb2 = 1} sind die Vektoren t (1, 0) und t (0, 1) ein Hauptachsensystem. Dieses ist bis auf den Faktor ±1 eindeutig, wenn a 6= b ist, wenn also die Ellipse kein Kreis ist. F¨ ur den Kreis bilden je zwei zueinander orthogonale Einheitsvektoren ein Hauptachsensystem. Korollar 14.11. (Polarzerlegung) Sei T ∈ GLn (R). Dann hat T eine eindeutige Zerlegung T =P ·U mit T positiv definit symmetrisch, U ∈ On (R). Diese Zerlegung heißt die Polarzerlegung von T . Korollar 14.12. (Singul¨ arwertzerlegung, Cartan-Zerlegung) Sei A ∈ M (m × n, R), m ≤ n. Dann gibt es Matrizen U1 ∈ Om (R), U2 ∈ On (R) und µ1 , . . . , µm ∈ R≥0 , so dass µ1 0 .. U1 AU2 = . 0 0 µm gilt. Die µi sind eindeutig bestimmt, µ21 , . . . , µ2m sind die Eigenwerte von A · t A. F¨ ur n ≤ m erh¨alt man entsprechend µ1 U1 AU2 = 0
0 ...
, µn
0 wo die µ2j die Eigenwerte von t AA sind. Beweis. Wir beschr¨anken uns beim Beweis auf den Fall m ≤ n, der andere Fall geht daraus durch Transponieren hervor. Sei V = Rn , W = Rn , f := LA : V −→ W die duch A bez¨ uglich der Standardbasen von V und W gegebenen lineare Abbildung. Auf V und auf W haben wir das Standardskalarprodukt h, i.
178
RAINER SCHULZE-PILLOT
Auf V betrachten wir nun die offenbar positiv semidefinite symmetrische Bilinearform β, die durch β(x, y) := hf (x), f (y)i = t x (t AA)y gegeben ist, ihre Gram-Matrix bez¨ uglich der Standardbasis von V ist t AA. Sei (v1 , . . . , vn ) eine Orthonormalbasis von V bez¨ uglich des Standardskalarprodukts, die bez¨ uglich β eine Orthogonalbasis ist, f¨ ur die also β(vi , vj ) = λj δij gilt; eine solche Basis von V gibt es nach Korollar 14.6. Die λj sind nichtnegativ, sie seien so angeordnet, dass λj > 0 f¨ ur 1 ≤ j ≤ p und λp+1 = · · · = λn = 0 gilt. Dabei ist t p ≤ rg( AA) ≤ rg(A) = m, und f¨ ur j > p gilt 0 = β(vj , vj ) = hf (vj ), f (vj )i, also f (vj ) = 0 p F¨ ur 1 ≤ j ≤ m setzen wir dann µj = λj und wj :=
f (vj ) µj
falls j ≤ p,
die Vektoren w1 , . . . , wp bilden dann wegen hf (vj ), f (vk )i = µ2j δjk ein Orthonormalsystem im euklidischen Raum W . Wir erg¨anzen dieses Orthonormalsystem durch Vektoren wp+1 , . . . , wm zu einer Orthonormalbasis von W und haben f (vj ) = µj wj f¨ ur 1 ≤ j ≤ m sowie f (vj ) = 0 f¨ ur j > m. Die Matrix von f bez¨ uglich der Orthonormalbasen (v1 , . . . , vn ) von V und (w1 , . . . , wm ) von W hat daher die in der Behauptung angegebene Gestalt µ1 0 .. . 0 . 0 µm Ist U1−1 ∈ Um (C) die Matrix mit den Spalten w1 , . . . , wm und U2 ∈ Um (C) die Matrix mit den Spalten v1 , . . . , vn , so ist wie behauptet µ1 0 .. U1 AU2 = . 0 , 0 µm p wobei µj = λj gilt und die λj die Eigenwerte von t AA sind. Da man leicht zeigt, dass tAA und A tA die gleichen von 0 verschiedenen ¨ Eigenwerte haben (mit Vielfachheiten) (Ubung), sind die µ2j auch die Eigenwerte von A tA.
LINEARE ALGEBRA I, 2004/2005
179
Um die Eindeutigkeit der µj zu zeigen, betrachten wir eine Zerlegung µ1 0 .. U1 AU2 = . 0 0 µm wie in der Behauptung mit zun¨achst beliebigen µj ∈ R und U1 ∈ Um (C), U2 ∈ Un (C). Dann ist µ1 0 .. = (U1 AU2 ) t (U1 AU2 ) . 0 0 µm = U1 (A tA)U1−1 , µ21 , . . . , µ2m sind also (mit den gleichen Vielfachheiten) genau die Eigenwerte von (A tA). Bemerkung. Die Singul¨arwertzerlegung ist ein wichtiges Werkzeug bei der numerischen Behandlung von Matrizen. Im Fall m = n, A ∈ GLn (R) erh¨alt man eine Zerlegung, die in der Theorie der Lie-Gruppen eine große Rolle spielt und dort als Cartan-Zerlegung bekannt ist. Definition und Lemma 14.13. Sei V ein unit¨arer Raum u ¨ber C, ∗ ∗ f ∈ End(V ). f heißt normal, wenn f f = f f gilt. Eine Matrix A ∈ Mn (C) heißt normal, wenn A · tA = tA · A Ist B = (v1 , . . . , vn ) eine Orthonormalbasis von V , so ist ein Endomorphismus f ∈ End(V ) genau dann normal, wenn seine Matrix bez¨ uglich der Basis B normal ist. Insbesondere gilt: Ist die Matrix von f bez¨ uglich einer Orthonormalbasis von V eine normale Matrix, so ist die Matrix von f bez¨ uglich jeder beliebigen Orthonormalbasis von V eine normale Matrix. Beweis. Klar.
Bemerkung. Nach den bisherigen Ergebnissen zum Spektralsatz gibt es zu einer reellen Matrix A genau dann eine Orthonormalbasis des Rn aus Eigenvektoren ! von A, wenn A symmetrisch ist (dass aus A = λ1 0 .. t T T die Symmetrie von A folgt, ist trivial.) Genau. 0 λn so gibt es f¨ ur A ∈ Mn (C) genau dann eine Orthonormalbasis des Cn (bez¨ uglich des Standardskalarprodukts) aus Eigenvektoren von A zu reellen Eigenwerten, wenn A hermitesch ist. Der Begriff normal“ dient dazu, hier auch den Fall nicht reeller Eigen” werte zu behandeln.
180
RAINER SCHULZE-PILLOT
Lemma 14.14. Sei K ein beliebiger K¨orper, V ein K-Vektorraum, f, g ∈ End(V ) mit f ◦ g = g ◦ f . a) Ist λ ein Eigenwert von f , Vλ := Vλ (f ) der zugeh¨orige Eigenraum von f , so ist g(Vλ ) ⊆ Vλ . b) Ist K = R oder K = C und V euklidisch bzw. unit¨ar, so ist g ∗ (Vλ⊥ ) ⊆ Vλ⊥ . Satz 14.15. Sei V ein unit¨arer Raum u ¨ber C. Dann gibt es zu f ∈ End(V ) genau dann eine Orthonormalbasis (bez¨ uglich des Standardskalarprodukts) von V aus Eigenvektoren von f , wenn f normal ist. Allgemeiner gilt: Ist M ⊆ End(V ) eine Unteralgebra, die kommutativ und unter Adjungiertenbildung abgeschlossen ist, so gibt es eine Orthonormalbasis von V (bez¨ uglich des Standardskalarprodukts), die aus simultanen Eigenvektoren der Elemente von M besteht. Beweis. Ist B = (v1 , . . . , vn ) eine Orthonormalbasis von V , die aus Eigenvektoren des Endomorphismus f besteht, so ist die Matrix A von f bez¨ uglich dieser Basis eine Diagonalmatrix. Man sieht dann sofort, dass A∗ A = AA∗ gilt, also ist A und damit f normal nach Definition/Lemma 14.13. Um umgekehrt die Existenz einer Orthonormalbasis aus Eigenvektoren f¨ ur ein normales f zu zeigen, stellen wir nzun¨achst fest, dass diese aus der allgemeineren Aussage u ¨ber kommutative und unter Adjunktion abgeschlossene Algebren von Endomorphismen folgt. Ist n¨amlich f ∈ End(V ) normal, so ist die von f und f ∗ erzeugte Unteralgebra C[f, f ∗ ] := {
m X
aij f i (f ∗ )j | m ∈ N0 , aij ∈ C}
i,j=0
eine kommutative und unter Adjunktion abgeschlossene Teilalgebra von End(V ), eine Orthonormalbasis aus gemeinsamen Eigenvektoren aller Elemente von C[f, f ∗ ] besteht dann nat¨ urlich insbesondere aus ∗ Eigenvektoren von f ∈ C[f, f ]. Sei also jetzt M eine kommutative und unter Adjunktion abgeschlossene Teilalgebra von End(V ). Wir zeigen die Behauptung durch Induktion nach n = dim(V ), der Induktionsanfang n = 1 ist wieder einmal trivial. Ist n > 1 und die Behauptung f¨ ur unit¨are R¨aume gezeigt, deren Dimension kleiner als n ist, so ist die Behauptung sicher trivial, wenn M = C · IdV gilt. Andernfalls sei f 6∈ C · IdV und λ ∈ C ein Eigenwert von f mit Eigenwert λ, sei Vλ := Vλ (f ) der zugeh¨orige Eigenraum. F¨ ur g ∈ M gilt dann wegen der Kommutativit¨at von M nach Lemma 14.14 g(Vλ ) ⊆ Vλ ,
g ∗ (Vλ⊥ ) ⊆ Vλ⊥ .
Da M abgeschlossen unter Adjunktion ist, ist g ∗ ∈ M , und wir erhalten (mit (g ∗ )∗ = g) genauso g ∗ (Vλ ) ⊆ Vλ ,
g(Vλ⊥ ) ⊆ Vλ⊥ .
LINEARE ALGEBRA I, 2004/2005
181
In der Zerlegung V = Vλ ⊕ Vλ⊥ operiert also M auf beiden Summanden, und nach Induktionsannahme haben Vλ und Vλ⊥ jeweils eine Orthonormalbasis aus gemeinsamen Eigenvektoren aller Elemente von M (Da M 6= C · IdV ist, haben beide Summanden kleinere Dimension als V ). Setzt man diese Basen von Vλ und Vλ⊥ zu einer Basis von V zusammen, so hat man die gesuchte Orthonormalbasis von V aus gemeinsamen Eigenvektoren aller Elemente von M . Bemerkung. Auf ¨ahnliche Weise kann man zeigen: Ist K ein beliebiger K¨orper, V ein endlichdimensionaler K-Vektorraum, M ⊆ End(V ) eine kommutative Unteralgebra, so dass alle Elemente von M diagonalisierbar sind, so besitzt V eine Basis aus simultanen Eigenvektoren der Elemente von M . Korollar 14.16. Ist A ∈ Mn (C) eine normale Matrix (also t A · A = A · t A), so gibt es U ∈ Un (C), so dass t U AU Diagonalgestalt hat. Beweis. Das ist die Matrixversion des vorigen Satzes, man erh¨alt sie, indem man den Satz auf den Endomorphismus LA von Cn anwendet und die Vektoren der danach gefundenen Orthonormalbasis des Cn aus Eigenvektoren von A als Spaltenvektoren in die unit¨are Matrix U eintr¨agt. Korollar 14.17. Sei A ∈ Un (C). Dann gibt es U ∈ Un (C), so dass ! λ1 t ... mit λj ∈ C, |λj | = 1 U AU = λn gilt. Insbesondere gilt: Alle Eigenwerte einer unit¨aren Matrix haben Betrag 1, alle Eigenwerte einer reellen orthogonalen Matrix sind entweder 1 oder −1. Beweis. Wegen A∗ = A−1 ist A offenbar normal, l¨asst sich also durch Konjugation mit einer unit¨aren Matrix in Diagonalgestalt bringen. Wir m¨ ussen nur noch zeigen, dass alle Eigenwerte einer unit¨aren Matrix Betrag 1 haben. Ist also x ∈ Cn ein Eigenvektor der unit¨aren Matrix A zum Eigenwert λ , so gilt |λ|2 hx, xi = hAx, Axi = hx, A∗ Axi = hx, xi, also |λ|2 = 1. Korollar 14.18. Sei A ∈ On (R). Dann gibt es U ∈ On (R), so dass ! D1 0 .. U −1 AU = . 0 Dr
182
RAINER SCHULZE-PILLOT
mit Dj = (±1) ∈ M (1 × 1, R) oder Dj =
cos θj − sin θj sin θj cos θj
∈ M (2 ×
2, R), θj ∈ R gilt. Beweis. Eine a¨quivalente Formulierung der Behauptung ist: Es gibt eine Orthonormalbasis von Rn bez¨ uglich des Standardskalarprodukts, bez¨ uglich der die Matrix der A zugeordneten lineare Abbildung f = LA (mit LA (x) = Ax) die angegebene Gestalt hat. Wir zeigen diese Behauptung durch Induktion nach n, der Induktionsanfang n = 1 ist trivial. Sei also n > 1 und die Behauptung f¨ ur n0 < n gezeigt. Hat A eine reellen Eigenwert λ, so ist λ = ±1. Ist v eine Eigenvektor von f zu diesem Eigenwert, so gibt es zu dem (ebenfalls orthogonalen) Endomorphismus f |(Lin(v))⊥ eine Orthonormalbasis von (Lin(v))⊥ , bez¨ uglich der die Matrix von f |(Lin(v))⊥ die angegebene Gestalt hat. v Erg¨anzt man diese durch kvk zu einer Orthonormalbasis von V = Rn , so hat f bez¨ uglich dieser Basis die angegebene Gestalt, und wir sind in diesem Fall fertig. Andernfalls ist keiner der Eigenwerte von A reell. Sei dann λ ∈ C ein Eigenwert von fC := LA : Cn −→ Cn und v ∈ Cn ein Eigenvektor von fC mit kvk = 1. Da A reell ist, gilt f¨ ur den Vektor v, der aus v durch komponentenweise komplexe Konjugation entsteht, Av = Av = λv = λv, ¯ und da ¯ ist also ein Eigenvektor von fC zum Eigenwert λ, der Vektor v ¯ nach Voraussetzung λ nicht reell ist, ist λ 6= λ. Ebenso wie f¨ ur selbstadjungierte Abbildungen gilt auch f¨ ur unit¨are Abbildungen, dass Eigenvektoren zu verschiedenen Eigenwerten orthogonal zueinander sind: Man hat n¨amlich f¨ ur unit¨ares f und Eigenvektoren 0 0 w, w zu Eigenwerten µ 6= µ mit |µ| = |µ0 | = 1 −1
hw, w0 i = hf (w), f (w0 )i = µµ0 hw, w0 i = µ(µ0 ) hw, w0 i, wegen µ 6= µ0 folgt dann hw, w0 i = 0. ¯ i = 0, f¨ Wir haben also hv, v ur die Vektoren ˜ 1 := v + v ¯, w
˜ 2 := i(v − v ¯ ) ∈ Rn w
√ ˜ j ,√ ˜ j i f¨ ˜ 1 k = kw ˜ 2 k = 2. gilt also (man rechne hw w ur j = 1, 2√aus) kw ˜ 1 / 2, w2 := w ˜ 2 / 2 bilden also eine OrthoDie Vektoren w1 := w normalbasis von U := Lin(w1 , w2 ). Da |λ| = 1 gilt, kann man λ = exp(iθ) = cos(θ) + i sin(θ) mit θ ∈ R schreiben, man rechnet dann leicht nach, dass f (w1 ) = cos(θ)w1 + sin(θ)w2 f (w2 ) = − sin(θ)w1 + cos(θ)w2
LINEARE ALGEBRA I, 2004/2005
183
gilt, so dass als f |U bez¨ uglich der Orthonormalbasis (w1 , w2 ) von U die Matrix cos(θ) − sin(θ) sin(θ) cos(θ) hat. Erg¨anzt man (w1 , w2 ) mit Hilfe der Induktionsannahme durch eine Orthonormalbasis von U ⊥ , bez¨ uglich der f |U ⊥ eine Matrix vom angegebenen Typ hat, so erh¨alt man eine Basis von V , bez¨ uglich der f eine Matrix vom angegebenen Typ hat. Korollar 14.19. Ist A ∈ O3 (R), so hat det(A) · A wenigstens einen Fixvektor (6= 0); (det A) · A stellt eine Drehung um die Achse in Richtung des Fixvektors dar. Insbesondere gilt der Satz vom Fußball: Auf einem Fußball gibt es wenigstens zwei Punkte, die sich zu Beginn der zweiten Halbzeit des Spiels am gleichen Ort (relativ zum Stadion) befinden wie zu Beginn der ersten Halbzeit. Bemerkung. Beim Satz vom Fußball macht man nat¨ urlich die idealisierenden Annahmen, dass der Ball beim Anpfiff stets genau auf dem Anstoßpunkt liegt, dass beide Halbzeiten mit dem gleichen Ball gespielt werden und dass der Ball w¨ahrend der ersten Halbzeit nicht deformiert wurde. Beweis. Der erste Teil des Satzes folgt aus dem vorigen Korollar: Da det(A) = ±1 f¨ ur A ∈ On (R) gilt und det(det(A)A) = (det(A))4 f¨ ur A ∈ O3 (R) ist, hat A1 := det(A)A Determinante 1. In der Normalgestalt aus dem vorigen Lemma ist A1 daher entweder eine Diagonalmatrix mit einer geraden Anzahl von Eintr¨agen −1, also wenigstens einem Eintrag +1, oder von der Form ±1 0 0 0 cos θ − sin θ , 0 sin θ cos θ wobei der Eintrag oben links +1 sein muss, damit die Determinante +1 wird. A1 hat also in jedem Fall den Eigenwert 1, d.h., die durch A gegebene lineare Abbildung hat einen Fixvektor. In der Ebene senkrecht zum Fixvektor wirkt die durch A1 gegebene lineare Abbildung durch den unteren rechten 2 × 2-Block der Normalgestalt der Matrix, also durch ±Id (= Drehung um 0◦ oder um 180◦ ) falls diese diagonal ist bzw. durch die Drehung um den Winkel θ andernfalls. Zum Beweis des Satzes vom Fußball wird noch ein Lemma gebraucht: Lemma 14.20. Sei 0 < t0 ∈ R, f¨ ur t ∈ [0, t0 ] ⊆ R sei gt : Rn −→ Rn eine abstandstreue Abbildung (euklidische Bewegung), die nach Korollar 12.27 als gt (x) = At · x + gt (0) mit At ∈ On (R) f¨ ur alle t ∈ [0, t0 ]
184
RAINER SCHULZE-PILLOT
2 geschrieben sei; die Abbildung t 7−→ At ∈ Mn (R) ∼ = Rn sei dabei stetig. Dann ist det(At ) = 1 f¨ ur alle t ∈ [0, t0 ]. 2 Beweis. Die Abbildung A 7→ det(A) von Mn (R) ∼ = Rn nach R ist auf Grund der Formel von Leibniz f¨ ur die Determinante stetig, daher ist die zusammengesetzte Abbildung t 7→ det(At ) : [0, t0 ] −→ R stetig. Sie hat in t = 0 den Wert 1 und kann nur die Werte 1 und −1 annehmen. Nach dem Zwischenwertsatz muss sie dann konstant gleich 1 sein.
Beweis des Satzes vom Fußball. Die Bewegung des Balls ist eine euklidische Bewegung, bei der bei jedem Anstoß der Ballmittelpunkt an der gleichen Stelle im Stadion ist (n¨amlich senkrecht u ¨ber dem Anstoßpunkt in der durch den Radius des Balls gegebenen H¨ohe). W¨ahlen wir diesen Punkt als Ursprung des Koordinatensystems, so geht also die Position y eines Punktes auf dem Ball, der sich beim Anpfiff des Spiels in x befand, bei Beginn der zweiten Halbzeit aus x durch y = Ax mit A ∈ SO3 (R) hervor. Nach dem ersten Teil des Satzes hat A einen Fixvektor, ist also die Drehung um die Achse durch diesen Vektor. Die beiden Punkte, in denen diese Achse durch die Oberfl¨ache des Balls geht, befinden sich daher beim Anpfiff zur zweiten Halbzeit an der gleichen Stelle wie beim Anpfiff zur ersten Halbzeit. Beispiel. Zwei Drehungen f 6= Id 6= g im R3 sind genau dann miteinander vertauschbar, wenn sie entweder die gleiche Drehachse haben oder wenn es Drehungen um zueinander orthogonale Achsen um jeweils 180o sind. Dass in den genannten F¨allen die Drehungen miteinander vertauschbar sind, pr¨ uft man leicht nach. Um zu zeigen, dass dies die einzig m¨oglichen F¨alle sind, nehmen wir zun¨achst an, dass f keine Drehung um 180o ist; das ist ¨aquivalent dazu, dass 1 der einzige reelle Eigenwert ist. Man beachte, dass der Eigenraum von f (bzw. g) zum Eigenwert 1 wegen det(f ) = det(g) = 1 und f 6= Id 6= g auf jeden Fall eindimensional ist, sei Rv1 der Eigenraum von f zum Eigenwert 1. Da f und g miteinander vertauschen, ist der Eigenraum R˜ v1 zum Eigenwert 1 von g invariant unter f , also v˜1 ein Eigenvektor von f . Da 1 der einzige Eigenwert in R von f ist, folgt R˜ v1 = Rv1 , d.h. f und g sind Drehungen um die gleiche Achse. Es bleibt der Fall, dass f und g beides Drehungen um 180o sind, also einen 1-dimensionalen Eigenraum (Rv1 bzw. R˜ v1 ) zum Eigenwert 1 und einen 2-dimensionalen Eigenraum (V−1 bzw. V˜−1 ) zum Eigenwert −1 haben. Wie oben ist v˜1 ein Eigenvektor von f , ist also entweder in Rv1 (d.h., die Drehachsen sind gleich) oder im zu v1 orthogonalen Eigenraum V−1
LINEARE ALGEBRA I, 2004/2005
185
von f zum Eigenwert −1; in diesem Fall sind die Drehachsen orthogonal zueinander. Zusammenfassung F¨ ur einen beliebigen K¨orper K und A ∈ Mnsym (K) symmetrisch gibt es T ∈ GLn (K), so dass t T AT Diagonalgestalt hat (Gram-Schmidt). Dabei ist im allgemeinen t T 6= T −1 , die Eintr¨age der Diagonalmatrix sind in der Regel keine Eigenwerte von A und A ist nicht notwendig diagonalisierbar. Ist A ∈ Mnsym (R), so gibt es dagegen U ∈ On (R) mit t U AU = D diagonal. Da hier t U = U −1 gilt, sind die Eintr¨age der Diagonalmatrix die Eigenwerte von A, A ist diagonalisierbar. Die Spalten der Transformationsmatrix U bilden eine Orthonormalbasis des Rn aus Eigenvektoren von A. Verzichtet man auf die Bedingung U ∈ On (R), so erreicht man hier (falls det(A) 6= 0 ist) 1 .. . 1 t T AT = −1 . .. −1 mit einer oberen Dreiecksmatrix T ∈ GLn (R), die Anzahl p der Eintr¨age +1 bzw. q der Eintr¨age −1 ist dabei nach dem Tr¨agheitssatz von Sylvester eindeutig bestimmt und gleich der Anzahl (mit Vielfachheit) der positiven bzw. negativen Eigenwerte von A (aber ±1 ist im allgemeinen kein Eigenwert von A), (p, q) (oder gelegentlich p − q) heißt die Signatur von A. Ist A ∈ Mn (C) hermitesch, so gibt es U ∈ Un (C), so dass t U AU eine Diagonalmatrix ist. Da hier t U = U −1 gilt, sind die Eintr¨age der Diagonalmatrix die Eigenwerte von A, A ist diagonalisierbar, die Eigenwerte von A sind u ¨berdies reell. Ist A ∈ Mn (C) nur normal, so kann A wie oben diagonalisiert werden, die Eigenwerte brauchen dann aber nicht reell zu sein (sind sie reell, so ist A schon hermitesch). Die Spalten der Matrix U¯ bilden in jedem dieser F¨alle eine Orthonormalbasis des Cn aus Eigenvektoren von A. Da unit¨are und orthogonale Matrizen insbesondere normal sind, gilt die Aussage f¨ ur normale Matrizen von oben insbesondere auch f¨ ur unit¨are und f¨ ur orthogonale Matrizen. F¨ ur beide sind alle Eigenwerte vom Betrag 1. F¨ ur orthogonale Matrizen folgt, daß sie sich durch Konjugation A 7−→ T −1 AT mit T ∈ On (R) in Blockdiagonalgestalt bringen lassen, wobei die Bl¨ocke ±1 oder 2-dimensionale Drehmatrizen sind.
186
RAINER SCHULZE-PILLOT
15. Multilineare Algebra und Tensorprodukt In diesem Abschnitt geht es darum, multiplikative Strukturen auf Vektorr¨aumen zu beschreiben. Definition und Lemma 15.1. Seien K-Vektorr¨aume U, V, W gegeben. Eine Abbildung β : U × V → W heißt bilinear, falls f¨ ur alle u, u1 , u2 ∈ U, v, v1 , v2 ∈ V, λ ∈ K gilt: β(λu1 + u2 , v) = λβ(u1 , v) + β(u2 , v) β(u, λv1 + v2 ) = λβ(u, v1 ) + β(u, v2 ). Analog sind k-fach lineare Abbildungen (multilineare Abbildungen) f¨ ur beliebiges k ∈ N definiert. Sind (ui )i∈I , (vj )j∈J Basen von U bzw. V , so gibt es zu jeder Familie (wij )i∈I,j∈J von Elementen wij in W genau eine bilineare Abbildung β : U × V → W mit β((ui , vj )) = wij f¨ ur alle i ∈ I, j ∈ J. Beispiele. a) Sei K ein K¨orper, V = K[X]. Man hat die bilineare Abbildung (15.1)
(
n X i=1
ai X i ,
m X j=1
bj X j ) 7→
m+n X
ck X k mit ck =
k=1
X
ai b j
i+j=k
von K[X] × K[X] in K[X]. b) Mit K und V wie oben hat man die bilineare Abbildung n m n X m X X X i j (15.2) ( ai X , bj X ) 7→ ai bj X1i X2j ∈ K[X1 , X2 ] i=1
j=1
i=1 j=1
von K[X] × K[X] in den Polynomring K[X1 , X2 ] = (K[X1 ])[X2 ] in zwei Variablen X1 , X2 . c) Sie jetzt V = K 3 . Man hat das aus der analytischen Geometrie der Oberstufe bekannte Kreuzprodukt x2 y3 − x3 y2 (15.3) x × y = x 3 y 1 − x 1 y 3 , x1 y2 − x2 y1 das eine bilineare Abbildung K 3 × K 3 → K 3 definiert. d) U1 , V1 seien K-Vektorr¨aume mit Dualr¨aumen U := U1∗ , V := V1∗ . Bezeichnet man mit BilK (U1 ×V1 ) den Vektorraum der bilinearen Abbildungen von U1 × V1 nach K (Bilinearformen auf U1 × V1 ), so hat man die folgende bilineare Abbildung T : U × V −→ BilK (U1 × V1 ) (f, g) 7−→ T (f, g) mit T (f, g)(u, v) = f (u)g(v). Seien jetzt U1 und V1 endlichdimensional mit Basen (u1 , . . . , um ), (v1 , . . . , vn ); wir haben dann in U und V die dazu dualen Basen (u∗1 , . . . , u∗m ), (v1 , . . . , vn∗ )
LINEARE ALGEBRA I, 2004/2005
187
Im Bild von T befinden sich dann insbesondere die T (u∗i , vj∗ ) =: Bij , f¨ ur die ( 1 falls i = k, j = l T (u∗i , vj∗ )(uk , vl ) = Bij (uk , vl ) = 0 sonst gilt. Da diese Bilinearformen Bij offenbar eine Basis von BilK (U1 ×V1 ) bilden, wird dieser Raum vom Bild von T erzeugt. Man beachte, dass das Bild einer bilinearen Abbildung im Allgemeinen kein Vektorraum ist, im hier betrachteten Fall besteht das Bild aus allen Bilinearformen, deren Matrix (β(ui , vj )) sich als x t y ∈ M (m × n, R) mit x ∈ K m , y ∈ K n schreiben l¨asst, also Rang 1 hat. Die erste dieser bilinearen Abbildungen ist symmetrisch, die dritte antisymmetrisch (sogar alternierend), die zweite ist weder symmetrisch noch antisymmetrisch, auf die letzte lassen sich diese Begriffe nicht anwenden, da die zugrundeliegenden Vektorr¨aume U und V nicht gleich sind. Definition 15.2. Seien K-Vektorr¨aume U, V gegeben. Dann gibt es einen K-Vektorraum X und eine bilineare Abbildung T := ⊗ : U ×V → X, so dass das Paar (X, ⊗) folgende (universelle) Eigenschaft hat: Ist W irgendein K-Vektorraum und β : U × V → W eine bilineare Abbildung, so gibt es genau eine lineare Abbildung β˜ : X → W, die das Diagramm (15.4)
;X ww w ww β˜ ww ww β /W U ×V ⊗
kommutativ macht. Der Vektorraum X mit der bilinearen Abbildung ⊗ heißt Tensorprodukt von U und V , man schreibt X = U ⊗ V = U ⊗K V und notiert die Abbildung T = ⊗ als (u, v) 7→ T (u, v) = u ⊗ v. Beispiel: Sind U1 , V1 , U = U1∗ , V = V1∗ wie in d) des vorigen Beispiels von endlicher Dimension, so hat X := BilK (U1 × V1 ) mit der Abbildung T : U × V −→ X := BilK (U1 × V1 ) die in der Definition eines Tensorprodukts von U und V geforderte Eigenschaft. Dass T bilinear ist, haben wir bereits gesehen. Sind W und β : U × V −→ W wie in der Definition und ist β(u∗i , vj∗ ) =: wij ∈ W , so definieren wir β˜ : BilK (U1 × V1 ) −→ W als die (eindeutig bestimmte) lineare Abbildung, die auf den Basisvektoren Bij von BilK (U1 × V1 ) durch ˜ ij ) = wij β(B
188
RAINER SCHULZE-PILLOT
gegeben ist, f¨ ur diese gilt offenbar β˜ ◦ T = β. Sie ist ge lineare Abbildung von BilK (U1 × V1 ) nach W , die kommutativ macht, denn f¨ ur jede derartige Abbildung
auch die einzidas Diagramm βˆ muss
ˆ ij ) = β(T ˆ ((u∗ , v ∗ ))) = wij β(B i j gelten. Satz 15.3. Seien K-Vektorr¨aume U, V gegeben. Dann existiert das Tensorprodukt von U und V und ist bis auf (eindeutige) Isomorphie eindeutig bestimmt. Genauer: Sind (W1 , ⊗1 ), (W2 , ⊗2 ) beide wie in Definition 15.2, so gibt es genau einen Isomorphismus ϕ : W1 → W2 , so dass das Diagramm (15.5)
v; ⊗1 vvv v vv vv
W1
ϕ U × VH HH ⊗ HH 2 HH HH # W2
kommutativ ist. Man spricht daher von dem Tensorprodukt von U und V. Beweis. Sind W1 , W2 mit bilinearen Abbildungen Tj : U × V −→ Wj Tensorprodukte von U und V , so gibt es nach Definition lineare Abbildungen ϕ1 : W1 −→ W2 , ϕ2 : W2 −→ W1 mit ϕ1 ◦ T1 = T2 , ϕ2 ◦ T2 = T1 . Dann ist ϕ1 ◦ ϕ2 ◦ T2 = T2 , ϕ2 ◦ ϕ1 ◦ T1 = T1 , und die Eindeutigkeitsanforderung in der Definition des Tensorprodukts impliziert ϕ1 ◦ ϕ2 = IdW2 , ϕ2 ◦ϕ1 = IdW1 , die Abbildungen ϕ1 , ϕ2 sind also zueinander inverse Isomorphismen, die (wiederum wegen der Eindeutigkeitsanforderung in der Definition des Tensorprodukts) eindeutig bestimmt sind. Zum Nachweis der Existenz eines Tensorprodukts gibt es im Wesentlichen zwei Varianten: Variante 1: Ist (ui )i∈I eine Basis von U und (vj )j∈J eine Basis von V , so sei X ein K-Vektorraum mit einer Basis (xij )(i,j)∈I×J (etwa X = K (I×J) ). Man definiert dann T : U × V −→ X als die eindeutig bestimmte bilineare Abbildung mit T (ui , vj ) = xij f¨ ur alle i ∈ I, j ∈ J und rechnet nach, dass das Paar (X, T ) in der Tat die charakteristische (universelle) Eigenschaft des Tensorprodukts hat. Variante 2: Sei X 0 ein K-Vektorraum mit einer Basis (x(u,v) )(u,v)∈U ×V , etwa X 0 = K (U ×V ) . In X 0 sei N der Unterraum, der von allen Elementen
LINEARE ALGEBRA I, 2004/2005
189
der Form x(u+u0 ,v) − x(u,v) − x(u0 ,v) x(u,v+v0 ) − x(u,v) − x(u,v0 ) x(λu,v) − λx(u,v) x(u,λv) − λx(u,v) erzeugt wird, sei X = X 0 /N . Die Abbildung T (u, v) := x(u,v) + N ist dann bilinear und man rechnet wiederum nach, dass das Paar (X, T ) in der Tat die charakteristische (universelle) Eigenschaft des Tensorprodukts hat. Diese zweite Variante hat den Vorteil, nicht von der Existenz von Basen abzuh¨angen und daher auch f¨ ur beliebige Moduln u ¨ber einem beliebigen Ring zu funktionieren. Bemerkung. In beiden Beweisen sieht man, dass die Elemente u ⊗ v mit u ∈ U, v ∈ V ein Erzeugendensystem des Raums U ⊗ V bilden; diese Elemente werden auch reine Tensoren genannt. Ist keiner der R¨aume U, V eindimensional, so gibt es Elemente von U ⊗ V , die nicht von dieser Form sind, siehe das Beispiel nach dem n¨achsten Korollar. Korollar 15.4. Seien K-Vektorr¨aume U, V gegeben, seien (ui )i∈I , (vj )j∈J Basen von U bzw. V. a) Die Familie der (ui ⊗ vj )i∈I,j∈J ist eine Basis von U ⊗ V. b) Ist dim(U ) = m, dim(V ) = n, so ist dim(U ⊗ V ) = mn. c) Ist w ∈ U ⊗ V, so gibt es eindeutig bestimmte Vektoren xj ∈ U (j ∈ J), yi ∈ V (i ∈ I), so dass gilt: X X ui ⊗ y i . xj ⊗ vj = w= j∈J
i∈I
Bemerkung. Man kann also die Elemente 1 ⊗ vj gewissermaßen als “Basis” von U ⊗ V bez¨ uglich verallgemeinerter Linearkombinationen mit Koeffizienten xj ∈ U auffassen. ¨ Beispiel: Als Ubung zeige man, dass sich das Element e1 ⊗ e 1 + e 2 ⊗ e 2 ∈ R2 ⊗ R 2 nicht als u ⊗ v mit u, v ∈ R2 schreiben l¨asst. Korollar 15.5. Seien endlichdimensionale K-Vektorr¨aume U, V gege0 ben, seien (u , (vj )1≤j≤m , (vj0 )1≤j≤m Basen von U bzw. i )1≤i≤n Pi )n1≤i≤n , (u P 0 V mit ui = k=1 tki u0k , vj = m origen Matrizen. l=1 slj vl , T, S die zugeh¨ Dann gilt: P P a) Ist x = i,j aij ui ⊗ vj = k,l a0kl u0k ⊗ vl0 ∈ U ⊗ V, A = (aij ), A0 = (a0kl ) ∈ M (m × n, K), so ist A0 = T At S.
190
RAINER SCHULZE-PILLOT
b) P Sind (u∗i ), (u0 ∗i ) die zugeh¨origen dualen Basen von U ∗ , und F = P ∗ 0 0∗ 0 ∗ k,l akl u k ⊗ vl ∈ U ⊗ V, so ist i,j aij ui ⊗ vj = A0 = t T −1 At S. Bemerkung: In der Physik werden h¨aufig Tensoren als Koeffizientenschemata mit gewissen Transformationseigenschaften bei Wechsel des Koordinatensystems definiert (etwa in den “Feynman Lectures on Physics”). Das obige Korollar zeigt, dass solche Koeffizientenschemata gerade als die Koeffizienten bez¨ uglich der angebenen Basen der Tensorprodukte auftreten. F¨ ur Verwirrung sorgt dabei gelegentlich die Tatsache, dass sich f¨ ur eine orthogonale Matrix T der Unterschied zwischen U ⊗ V und U ∗ ⊗ V wegen t T −1 = T nicht in den Transformationseigenschaften auswirkt. Beispiele. a) Koeffizientenerweiterung: Sei V ein K-Vektorraum, L ⊇ K ein K¨orper, der K enth¨alt (ein Oberk¨orper), man denke etwa an K = R, L = C. Der K¨orper L kann auch als K-Vektorraum aufgefasst werden (bez¨ uglich der in L definierten Multiplikation von Elementen von K mit Elementen in L), man kann also das Tensorprodukt (von K-Vektorr¨aumen) L ⊗K V bilden. Das ist zun¨achst ein K-Vektorraum, der f¨ ur dimK (V ) = n, dimK (L) = m die K-Dimension mn hat. Man kann jetzt aber auch eine multiplikative Verkn¨ upfung von Elementen des K¨orpers L mit Elementen von L ⊗K V definieren: F¨ ur λ ∈ L wird durch (a, v) 7→ (λa) ⊗ v (a ∈ L, v ∈ V ) eine bilineare Abbildung Mλ : L × V → L ⊗ V definiert, die auf Grund der universellen Eigenschaft des Tensorprodukts zu einer linearen Abbildung Mλ : L ⊗K V → L ⊗K V mit Mλ (a ⊗ v) = (λa)⊗v (a ∈ L, v ∈ V ) f¨ uhrt. Man pr¨ uft leicht nach, dass durch λ.w := Mλ (w)(λ ∈ L, w ∈ L ⊗K V ) eine Struktur eines L-Vektorraums auf P der abelschen P Gruppe L ⊗K V eingef¨ uhrt wird, bez¨ uglich der λ. i ai ⊗ vi = i (λai ) ⊗ vi gilt; der urspr¨ ungliche Vektorraum V ist durch v 7→ 1 ⊗ v eingebettet in L ⊗K V und geht bei Multiplikation mit Elementen von K in sich u ¨ber. Man nennt L ⊗K V mit dieser LVektorraumstruktur die Koeffizientenerweiterung VL von V nach L; als L-Vektorraum hat VL die gleiche Dimension wie sie V als K-Vektorraum hat, eine Basis (vi ) von V u uhrt zu der ¨ber K f¨ Basis (1 ⊗ vi ) von VL u ur K = R, L = C heißt ¨ber L. Speziell f¨ VC die Komplexifizierung von V. Durch die Konstruktion mittels des Tensorprodukts liefert die Koeffizientenerweiterung eine basisfreie Verallgemeinerung der nat¨ urlichen Inklusion Rn ⊆ Cn ,
LINEARE ALGEBRA I, 2004/2005
191
die wir schon mehrfach benutzt haben. Ein h¨aufig vorkommender Spezialfall ist V = K[X] mit VL ∼ urlicher Weise). = L[X] (in nat¨ b) Sei U = V = K[X]. Man rechnet leicht nach, dass die zu Anfang dieses Abschnitts betrachtete bilineare Abbildung ϕP: K[X] P P P × K[X] → K[X1 , X2 ], die durch ( i ai X i , j bj X j ) 7→ i j ai bj X1i X2j gegeben ist, zu einem Isomorphismus ϕ¯ : K[X]⊗K[X] → K[X1 , X2 ] f¨ uhrt. c) Auf C ⊗R C kann man in ¨ahnlicher Weise wie in a) eine Multiplikation definieren, f¨ ur die (z1 ⊗z2 )(z10 ⊗z20 ) = z1 z10 ⊗z2 z20 gilt, damit ¨ wird C⊗R C zu einem Ring. Man u ob die¨berlege sich als Ubung, ser Ring ein K¨orper ist (Warnung: Der offensichtliche Versuch, die Inversenbildung durch (z1 ⊗ z2 )−1 = z1−1 ⊗ z2−1 zu definieren, st¨oßt zumindest auf Schwierigkeiten, weil sich nicht jedes Element des Tensorprodukts in dieser Form schreiben l¨asst.) Korollar 15.6. a) Es gibt einen nat¨ urlichen Isomorphismus (U ⊗ V )∗ ∼ = Bil(U, V ) := {β : U × V → K | β ist bilinear}; dieser bildet die Bilinearform β auf die Linearform β¯ mit u⊗v 7→ β(u, v) ab. b) Es gibt einen nat¨ urlichen Isomorphismus (U ⊗ V )∗ ∼ = Hom(U, V ∗ ); dieser bildet F ∈ Hom(U, V ∗ ) auf die Linearform ab, die u ⊗ v auf (F (u))(v) abbildet. c) Es gibt nat¨ urliche injektive lineare Abbildungen U ∗ ⊗ V → Hom(U, V ) → (U ⊗ V ∗ )∗ ; diese sind f¨ ur endlichdimensionale U, V Isomorphismen. Satz 15.7. Seien K-Vektorr¨aume U, V, W1 , W2 gegeben, seien f : U −→ W1 , g : V −→ W2 lineare Abbildungen. Dann gibt es genau eine lineare Abbildung f ⊗ g : U ⊗ V −→ W1 ⊗ W2 mit (f ⊗ g)(u ⊗ v) = f (u) ⊗ g(v) f¨ ur alle u ∈ U, v ∈ V. Beweis. Sei f ×g : U ×V −→ W1 ⊗W2 durch (f ×g)(u, v) = f (u)⊗g(v) gegeben. Die Abbildung f ×g ist, wie man nachrechnet, bilinear, liefert also ein (eindeutig bestimmtes) lineares (f ⊗ g) : U ⊗ V −→ W1 ⊗ W2 mit (f ⊗ g)(u ⊗ v) = (f × g)(u, v) = f (u) ⊗ g(v) f¨ ur alle u ∈ U, v ∈ V , dieses ist die gesuchte Abbildung.
Lemma 15.8. Seien K-Vektorr¨aume V1 , V2 , V3 gegeben. Es gibt einen nat¨ urlichen Isomorphismus (V1 ⊗ V2 ) ⊗ V3 → V1 ⊗ (V2 ⊗ V3 )
192
RAINER SCHULZE-PILLOT
mit (v1 ⊗ v2 ) ⊗ v3 7→ v1 ⊗ (v2 ⊗ v3 ) f¨ ur alle v1 ∈ V1 , v2 ∈ V2 , v3 ∈ V3 . Bemerkung: Man schreibt daher k-fache Tensorprodukte ungeklammert als V1 ⊗ · · · ⊗ Vk . Korollar 15.9. Sei M : V1 × · · · × Vk → X eine k-fach multilineare Abbildung (V1 , . . . , Vk , X seien dabei K-Vektorr¨aume) und ⊗ : V1 × · · · × Vk → V1 ⊗ · · · ⊗ Vk durch (v1 , . . . , vk ) 7→ v1 ⊗ · · · ⊗ vk gegeben. ¯ , die das Diagramm Dann gibt es genau eine lineare Abbildung M V1 6 ⊗ l ⊗ lllll
(15.6)
l lll lll M
· · · ⊗ Vk
¯ M
/X
V1 × · · · × Vk
kommutativ macht. Das k-fache Tensorprodukt ist durch diese universelle Eigenschaft bis auf eindeutige Isomorphie eindeutig bestimmt. Lemma 15.10. Sei V ein K-Vektorraum, k ∈ N \ {0}, σ ∈ Sk eine Permutation, sei V ⊗k := V · · ⊗ V} . | ⊗ ·{z k-mal
Dann gibt es genau eine lineare Abbildung Lσ ∈ End(V ⊗k ) mit Lσ (v1 ⊗ · · · ⊗ vk ) = vσ(1) ⊗ · · · ⊗ vσ(k) f¨ ur alle v1 , . . . , vk ∈ V. Beweis. Die Abbildung L0σ : V k −→ V ⊗k , die durch Lσ (v1 , . . . , vk ) = vσ(1) ⊗ · · · ⊗ vσ(k) f¨ ur alle v1 , . . . , vk ∈ V gegeben ist, ist, wie man nachrechnet, k-fach multilinear, liefert also eine eindeutig bestimmte lineare Abbildung Lσ ∈ End(V ⊗k ) mit Lσ (v1 ⊗ · · · ⊗ vk ) = vσ(1) ⊗ · · · ⊗ vσ(k) f¨ ur alle v1 , . . . , vk ∈ V. Definition 15.11. Sei V ein K-Vektorraum, k ∈ N \ {0}. a) Sei W0 der von den w − Lσ (w) (w ∈ V ⊗k , σ ∈ Sk ) erzeugte Unterraum von V ⊗k . Dann heißt Symk (V ) := V ⊗k /W0 die k-te symmetrische Potenz von V. Die Klasse von v1 ⊗ · · · ⊗ vk in Symk (V ) wird mit v1 ∨ · · · ∨ vk bezeichnet. b) Sei W1 der von den v1 ⊗ · · · ⊗ vk , in denen ein Vektor wenigstens zweimal vorkommt (vi = vj f¨ ur ein Paar (i, j) mit i 6= j), ⊗k erzeugte Unterraum von V . Dann heißt ^k V := V ⊗k /W1
LINEARE ALGEBRA I, 2004/2005
193
die k-te ¨außere Potenz (das k-fache Graßmann-Produkt) von V. V Die Klasse von v1 ⊗ · · · ⊗ vk in k V wird mit v1 ∧ · · · ∧ vk bezeichnet. Bemerkung: Der Unterraum W1 von V ⊗k enth¨alt alle w−sgn(σ)(Lσ (w)) mit w ∈ V ⊗k , σ ∈ Sk , ist die Charakteristik von K nicht 2, so wird W1 auch von diesen Elementen erzeugt. Satz 15.12. Sei V ein K-Vektorraum, k ∈ N \ {0}. a) Ist β : V k → X eine k-fach lineare symmetrische Abbildung in einen K-Vektorraum X, so gibt es genau eine lineare Abbildung βˇ : Symk V → X mit ˇ 1 ∨ · · · ∨ vk ) = β(v1 , . . . , vk ) f¨ β(v ur alle v1 , . . . , vk ∈ V. b) Ist α : V k → X eine k-fach lineare alternierende Abbildung in einen VkK-Vektorraum X, so gibt es genau eine lineare Abbildung V → X mit α ˆ: α ˆ (v1 ∧ · · · ∧ vk ) = α(v1 , . . . , vk ) f¨ ur alle v1 , . . . , vk ∈ V. V Die R¨aume Symk V, k V mit den zugeh¨origen Abbildungen (v1 , . . . , vk ) 7→ v1 ∨· · ·∨vk and (v1 , . . . , vk ) 7→ v1 ∧· · ·∧vk sind durch diese universellen Eigenschaften bis auf eindeutige Isomorphie eindeutig bestimmt. Korollar 15.13. Sei U ein endlichdimensionaler K-Vektorraum, V := U ∗ sein Dualraum, k ∈ N. alt Mit Multsym aume der k-fachen k (U ) bzw. Multk (U ) seien die K-Vektorr¨ symmetrischen bzw. alternierenden Multilinearformen auf U bezeichnet. Dann gilt sym Symk V ∼ = Multk (U ) ^k V ∼ = Multalt k (U ) Beweis. Fehlt noch.
Bemerkung. Sind k1 , k2 ∈ N und k = k1 +k2 , so hat man eine bilineare Abbildung ^k β : ((v1 , . . . , vk1 ), (vk1 +1 , . . . , vk )) 7−→ v1 ∧ · · · ∧ vk ∈ V. Da diese sowohl als Funktion der ersten k1 Eintr¨age v1 , . . . , vk1 als auch als Funktion der folgenden k2 Eintr¨age vk1 +1 , . . . , vk eine alternierende k-fache Multilinearform ist, f¨ uhrt sie zu einer bilinearen Abbildung ^k1 ^k2 ^k βˆ : V × V −→ V, f¨ ur die ˆ 1 ∧ · · · ∧ vk ), (vk +1 ∧ · · · ∧ vk )) = v1 ∧ · · · ∧ vk β((v 1 1
194
RAINER SCHULZE-PILLOT
f¨ ur alle v1 , . . . , vk ∈ VVgilt. V Diese wird mit w1 ∈ k1 V =: W1 , w2 ∈ k2 V =: W2 auch als ˆ 1 , w2 ) (w1 , w2 ) 7−→ w1 ∧ w2 := β(w ^k W1 × W2 −→ V geschrieben. Ist speziell k1 = k2 = k/2, so kann diese Notation Missverst¨ andnisse V ausl¨osen: Man h¨ ute man sich davor, den Vektorraum 2 W1 der DiV 0 mension ( n2 ) mit n0 = ( kn1 ) mit dem Vektorraum k V der Dimension ( nk ) zu verwechseln. Lemma 15.14. Sei V ein K-Vektorraum mit Basis (v1 , . . . , vn ), k ∈ N, sei W ein weiterer K-Vektorraum. a) F¨ ur i1 , . . . , ik ∈ N mit 1 ≤ i1 ≤ · · · ≤ ik ≤ n und beliebiges w = w(i1 ,...,ik ) ∈ W gibt es genau eine symmetrische k-fach multilineare Abbildung M(isym : V k −→ W mit 1 ,...,ik ) ( w(i1 ,...,ik ) falls i1 = j1 , . . . , ik = jk M(isym ((vj1 , . . . , vjk )) = 1 ,...,ik ) 0 sonst. b) F¨ ur i1 , . . . , ik ∈ N mit 1 ≤ i1 < . . . < ik ≤ n und beliebiges w = w(i1 ,...,ik ) ∈ W gibt es genau eine alternierende k-fach multilineare Abbildung M(ialt1 ,...,ik ) : V k −→ W mit ( w(i1 ,...,ik ) falls i1 = j1 , . . . , ik = jk M(ialt1 ,...,ik ) ((vj1 , . . . , vjk )) = 0 sonst. ¨ Beweis. Man beweise das als Ubung durch multilineare und symmetrische bzw. alternierende Fortsetzung. Satz 15.15. Sei V ein K-Vektorraum mit Basis (v1 , . . . , vn ), k ∈ N \ {0}. a) Die vi1 ∨ · · · ∨ vik mit 1 ≤ i1 ≤ · · · ≤ ik ≤ n bilden eine Basis von Symk V. Der Vektorraum Symk V hat die Dimension n+k−1 . k b) Die vi1 ∧ · · · ∧ vik mit 1 ≤ i1 < · · · < ik ≤ n bilden eine Basis V V von k V. Der Vektorraum k V hat die Dimension nk . Vk Bemerkung: V = {0}, falls k > n gilt, und der VnInsbesondere ist Vektorraum V hat f¨ ur n-dimensionales V die Dimension 1. Beispiel Sei V = R3 mit der Standardbasis e1 , e2 , e3 . Der Raum V2 V = V ∧ V hat die Basis w1 = e2 ∧ e3 , w2 = e3 ∧ e1 , w3 = e1 ∧ e2 . Man rechnet nach: x ∧ y = (x2 y3 − x3 y2 )w1 + (x3 y1 − x1 y3 )w2 + (x1 y2 − x2 y1 )w3 .
LINEARE ALGEBRA I, 2004/2005
195
Die Koordinaten von x ∧ y bez¨ uglich der Basis (w1 , w2 , w3 ) sind also gerade die Komponenten des Kreuzprodukts (Vektorprodukts) x × y der Vektoren x, y. Korollar 15.16. a) Sei V ein n-dimensionaler K-Vektorraum mit Basis (v1 , . . . , vn ), sei f ∈ End(V ). Dann ist f (v1 )∧· · ·∧f (vn ) = det(f )(v1 ∧ · · · ∧ vn ). b) Sei e1 , . . . , en die Standardbasis des K n , sei A ∈ M (n × n, K). Dann ist Ae1 ∧ · · · ∧ Aen = det(A)(e1 ∧ · · · ∧ en ).
196
RAINER SCHULZE-PILLOT
16. Jordansche Normalform In diesem Abschnitt ist stets K ein K¨orper, V ein n-dimensionaler K-Vektorraum mit Basis B, f ∈ End(V ) mit Matrix A = MB (f ). ¨ Es ist zweckm¨aßig, sich zun¨achst noch einen Uberblick u ¨ber ein paar grundlegende Eigenschaften des Polynomrings K[X] zu verschaffen, auch wenn man diese bei den folgenden Argumenten mit etwas Liebe zur Sache umgehen kann (und die zentralen Resultate dieses Paragraphen in der Tat ohne Benutzung dieser Eigenschaften gefunden wurden). Definition und Lemma 16.1. Ein Polynom q ∈ K[X], das nicht konstant ist (also Grad ≥ 1 hat), heißt irreduzibel, wenn gilt: Ist q = h1 h2 mit h1 , h2 ∈ K[X], so ist h1 oder h2 konstant. Ist q ∈ K[X] irreduzibel, so gilt: a) Ist h ∈ K[X] mit q - h, so gibt es g1 , g2 ∈ K[X] mit g1 q+g2 h = 1, das von den Polynomen q und h erzeugte Ideal (q, h) = {g1 q + g2 h | g1 , g2 ∈ K[X]} ist also gleich K[X]. Man sagt dann, q und h seien teilerfremd oder h¨atten gr¨oßten gemeinsamen Teiler 1 und schreibt ggT(q, h) = 1. b) Sind h1 , h2 ∈ K[X] mit q | h1 h2 , so ist q | h1 oder q | h2 (man sagt, q sei ein Primelement des Ringes K[X]). c) Ist q normiert und q2 6= q ein weiteres normiertes irreduzibles Polynom, so sind q und q2 teilerfremd. Beweis. a): Sei I := (q, h) das von den Polynomen q und h erzeugte Ideal. Da K[X] ein Hauptidealring ist, gibt es ein g ∈ K[X], das I erzeugt, f¨ ur das also g | q, g | h gilt. Da q irreduzibel ist, folgt aus g | q, dass g konstant ist oder g = cq mit c ∈ K, c 6= 0 gilt. W¨are g = cq mit c ∈ K, so w¨are auch q = c−1 g im Widerspruch zur Annahme q - h ein Teiler von h. Im verbleibenden Fall g = c ∈ K, c 6= 0 ist aber c−1 g = 1 ∈ I wie behauptet. b): Ist q - h1 , so finden wir nach a) Polynome g1 , g2 mit g2 q + g1 h1 = 1. Wir multiplizieren diese Gleichung mit h2 und erhalten g2 qh2 + g1 h1 h2 = h2 . Da auf der linken Seite beide Summanden durch q teilbar sind, muss auch h2 durch q teilbar sein. c): Da q2 irreduzibel ist und die M¨oglichkeit q2 = cq mit c ∈ K durch die Normiertheitsbedingung ausgeschlossen ist, kann q kein Teiler von q2 sein, nach a) sind also q und q2 teilerfremd. Satz 16.2. Im Polynomring K[X] hat jedes normierte Polynom h eine (bis auf Reihenfolge) eindeutige Zerlegung r Y e h= qj j ej ∈ N, qj irreduzibel und paarweise verschieden. j=1
LINEARE ALGEBRA I, 2004/2005
197
(Man sagt, der Ring K[X] sei faktoriell oder besitze eindeutige Primfaktorzerlegung). Bemerkung. Ist K = C, so hat (Fundamentalsatz der Algebra) jedes nicht konstante Polynom h ∈ C[X] eine Nullstelle a ∈ C und ist daher durch X − a teilbar. Daraus folgt, dass die irreduziblen Polynome in C[X] genau die linearen Polynome X −a sind. Die Primfaktorzerlegung in C[X] wird dann die schon fr¨ uher betrachtete Zerlegung r Y h= (X − aj )ej , j=1
wo a1 , . . . , ar die verschiedenen Nullstellen von h sind. Lemma 16.3. Seien p1 , p2 ∈ K[X] teilerfremd, f ∈ End(V ) mit p1 (f )p2 (f ) = 0, seien V1 = Ker(p1 (f )), V2 = Ker(p2 (f )). Dann sind V1 und V2 f -invariante Unterr¨aume von V mit V = V1 ⊕V2 . Allgemeiner gilt: Sind p1 , . . . , pr paarweise teilerfremde Polynome mit p1 (f ) · · · pr (f ) = 0 , so hat man eine Zerlegung V = V1 ⊕ · · · ⊕ Vr in die f -invarianten Teilr¨aume Vi := Ker(pi (f )) (1 ≤ i ≤ r). e Sind die pj = qj j Potenzen verschiedener irreduzibler Polynome und hat das Polynom χf von f die Primfaktorzerlegung Q charakteristische e χf = rj=1 qj j , so heißt diese Zerlegung auch die Prim¨arzerlegung von V bez¨ uglich f . Beweis. Zun¨achst ist wegen f ◦ pj (f ) = pj (f ) ◦ f klar, dass V1 und V2 invariant unter f sind. Wir finden nun Polynome g1 , g2 mit g1 p1 + g2 p2 = 1, also g1 (f ) ◦ p1 (f ) + g2 (f ) ◦ p2 (f ) = IdV . F¨ ur v ∈ V1 ∩ V2 ist dann v = IdV (v) = (g1 (f ) ◦ p1 (f ))(v) + (g2 (f ) ◦ p2 (f ))(v) = 0, also ist V1 ∩ V2 = {0}. Ist v ∈ V beliebig, so ist v = = = =
IdV (v) (g1 (f ) ◦ p1 (f ))(v) + (g2 (f ) ◦ p2 (f ))(v) (p1 (f ) ◦ g1 (f ))(v) + (p2 (f ) ◦ g2 (f ))(v) v2 + v1
wobei v2 := (p1 (f ) ◦ g1 (f ))(v) ∈ V2 = Ker(p2 (f )) v1 := (p2 (f ) ◦ g2 (f ))(v) ∈ V1 = Ker(p1 (f )) wegen p1 (f ) ◦ p2 (f ) = p2 (f ) ◦ p1 (f ) = 0 gilt.
198
RAINER SCHULZE-PILLOT
Wir haben also V1 + V2 = V und damit insgesamt V = V1 ⊕ V2 . Die Aussage f¨ ur Polynome p1 , . . . , pr folgt hieraus leicht durch vollst¨andi¨ ge Induktion nach r (Ubung). Definition 16.4. Sei V ein K-Vektorraum. Der Endomorphismus f ∈ End(V ) heißt nilpotent, wenn es ein m ∈ N gibt mit f m = 0. Das kleinste derartige m heißt dann der Nilpotenzindex von f , man sagt auch, f sei m-stufig nilpotent. Satz 16.5. (Hauptraumzerlegung) Sei f ∈ End(V ) so, dass das charakteristische Polynom χf in Linearfaktoren zerf¨allt: Qr χf = i=1 (X − βi )ei mit paarweise verschiedenen βi und ei ∈ N \ {0}. Sei Vi := Ker(f −βi Id)ei der Hauptraum zum Eigenwert βi von f . Dann gilt: a) V =
r M
Vi
i=1
b) Die Vi sind f -invariante Teilr¨aume mit dim(Vi ) = ei . c) Es ist f = fd + fn mit fd , fn ∈ End(V ), fd diagonalisierbar, fn nilpotent und fd fn = fn fd . Korollar 16.6. Setzt man eine Basis B von V aus Basen der Hauptr¨aume Vi zusammen, so hat f bez¨ uglich B die Blockmatrix
β1 Ee1 + N1
0 ...
0
,
βr Eer + Nr
wo die Ni ∈ M (ei × ei , K) nilpotente Matrizen mit Niei = 0 sind. Bemerkung. Die Hauptraumzerlegung l¨asst sich leicht algorithmisch durchf¨ uhren (durch L¨osen linearer Gleichunssysteme). Wegen des Satzes u ber Trigonalisierbarkeit (Satz 9.10) sieht man, dass die Ni in Drei¨ ecksgestalt gebracht werden k¨onnen. In der Tat l¨asst sich f¨ ur die Ni noch eine sehr viel einfachere Normalform erreichen: Satz 16.7. (Normalform fu ¨ r nilpotente Endomorphismen) Sei g ∈ End(V ) nilpotent vom Index d. Dann gibt es eindeutig bestimmte s1 , . . . , sd ∈ N mit d · sd + (d − 1)sd−1 + · · · + s1 = dim(V ) = n
LINEARE ALGEBRA I, 2004/2005
199
und eine Basis B von V , bez¨ uglich der g die Blockmatrix Jd ... Jd Jd−1 .. . 0 J d−1 .. . 0 J1 .. .
J1 mit jeweils sν Jordan-K¨astchen 0 1 · · · · 0 Jν = 0 · · · 1 0
der Gr¨oße ν × ν in der Diagonale (1 ≤ ν ≤ d) hat. Durch Umnummerieren der Basisvektoren l¨asst sich hier auch 0 1 0 · · 0 1 0 · · t Jν = ∈ M (ν × ν, K) 0 · · · · · · 0 1 0 erreichen. Satz 16.8. (Jordan’sche Normalform) Sei f ∈ End(V ) so,Qdass das charakteristische Polynom χf in Linearfaktoren zerf¨allt, χf = ri=1 (X− βi )ei mit paarweise verschiedenen βi und ei ∈ N \ {0}. Dann gibt es eine Basis B von V , bez¨ uglich der die Matrix von f Blockgestalt β1 Ee1 + N1 0 .. , . 0 βr Eer + Nr hat, wobei jedes Ni (1 ≤ i ≤ r) nilpotent ist und die Normalform aus Satz 16.7 mit Jordank¨astchen Jν in der Diagonale hat. Ein Block der
200
RAINER SCHULZE-PILLOT
Gestalt βi 1 · · · · 0 0 · · ·
∈ Mν (K) 1 βi
(oder dessen Transponierte) heißt auch Jordanblock der Gr¨oße d zu βi . Diese Blockgestalt heißt die Jordan’sche Normalform der Matrix von f ; sie ist bis auf die Anordnung der Bl¨ocke auf der Diagonalen eindeutig bestimmt. Zwei Matrizen A, B ∈ Mn (K) mit in Linearfaktoren zerfallendem charakteristischen Polynom sind genau dann zueinander ¨ahnlich (konjugiert), wenn sie die gleiche Jordan’sche Normalform haben. Insbesondere gilt: Die Matrix A ∈ Mn (K) ist genau dann diagonalisierbar, wenn ihr charakteristisches Polynom in ein Produkt von (nicht notwendig verschiedenen) Linearfaktoren zerf¨allt und ihre Jordan’sche Normalform Diagonalgestalt hat. Beweis. Diese Aussage folgt direkt, wenn man in die durch die Hauptraumzerlegung gegebene Blockgestalt der Matrix die Normalform einer nilpotenten Matrix aus Satz 16.7 einsetzt. Korollar 16.9. Zu A ∈ M (n × n, C) gibt es eine (und bis auf Anordnung der Bl¨ocke in der Diagonale nur eine) Matrix B in Jordan’scher Normalform, so dass B = S −1 AS f¨ ur ein S ∈ GLn (C) ist (B ist ¨ahnlich (konjugiert) zu A). Beweis. Klar nach dem vorigen Satz.
Beweis von Satz 16.7. Wir skizzieren hier zwei verschiedene Beweise. F¨ ur den ersten Beweis zeigt man zun¨achst das folgende Lemma: Lemma 16.10. (Fitting) Sei g ∈ End(V ), d := min{` ∈ N | Ker(g ` ) = Ker(g `+1 )}, sei χg = X r p mit p ∈ K[X], X6 |p. Dann gilt: a) d = min{` ∈ N | Im(g ` ) = Im(g `+1 )}. b) F¨ ur alle i ∈ N ist Ker(g d+i ) = Ker(g d ), Im(g d+i ) = Im(g d ). c) U := Ker(g d ) und W := Im(g d ) sind g-invariante Unterr¨aume, es gilt (g|U )d = 0, und g|W ist bijektiv (ist also ein Automorphismus von W ). d) Das Minimalpolynom µg|U von g|U ist X d . e) Es ist V = U ⊕ W mit dim U = r ≥ d. ¨ Beweis. Siehe Ubungen, siehe auch das Buch von Fischer.
LINEARE ALGEBRA I, 2004/2005
201
Man benutzt dann die aufsteigende Filtrierung von V durch die ginvarianten Unterr¨aume Uν := Ker(g ν ) f¨ ur 0 ≤ ν ≤ d, in der die Inklusionen Uν ⊆ Uν+1 strikte Inklusionen sind (nach dem Lemma von Fitting) und in der g −1 (Uν−1 ) = Uν f¨ ur 1 ≤ ν ≤ d gilt. Man w¨ahlt dann Wd als einen zu Ud−1 komplement¨aren Unterraum in Ud = V , stellt fest, dass g(Wd ) ⊆ Ud−1 mit Ud−2 ∩ g(Wd ) = {0} gilt und erg¨anzt g(Wd ) zu einem zu Ud−2 komplement¨aren Unterraum von Ud−1 . Indem man dieses Verfahren iteriert erh¨alt man direkte Summenzerlegungen V = Ud = Ud−1 ⊕ Wd = Ud−2 ⊕ Wd−1 ⊕ Wd = · · · = W1 ⊕ · · · ⊕ Wd in Teilr¨aume Wj mit Uj = Uj−1 ⊕ Wj , f¨ ur die g|Wj f¨ ur j > 1 injektiv ist und Wj nach Wj−1 ⊆ Uj−1 mit g(Wj ) ∩ Uj−2 = {0} abbildet. (d)
(d)
Die gesuchte Basis erh¨alt man dann, indem man eine Basis w1 , . . . , wsd (d) (d) von Wd w¨ahlt, die (linear unabh¨angigen) Vektoren g(w1 ), . . . , g(wsd ) (d−1) (d−1) durch w1 , . . . , wsd−1 zu einer Basis von Wd−1 erg¨anzt und so fortf¨ahrt bis schließlich die Bilder (d)
(2)
g d−1 (w1 ), . . . , g d−1 (ws(d) ), . . . , g(w1 ), . . . , g(ws(2) ) 2 d (1)
(1)
aller Basisvektoren von W2 unter g durch w1 , . . . , ws1 zu einer Basis von W1 = U1 erg¨anzt werden. Dabei ist Wj isomorph zum Faktorraum P Uj /Uj−1 und hat Dimension dν=j sν . Ordnet man diese Basisvektoren in der Reihenfolge (d)
(d)
(d)
g d−1 (w1 ),g d−2 (w1 ), . . . , w1 , . . . , g d−1 (ws(d) ), . . . , ws(d) , d d (d−1)
g d−2 (w1
(d−1)
), . . . , w1
(1)
, . . . , w1 , . . . , ws(1) 1
an, so ist die Matrix von f in der gew¨ unschten Gestalt. Sei umgekehrt v1 , . . . , vn eine Basis von V , bez¨ uglich der die Matrix von f die angegebene Gestalt hat. Dann spannen die sd Vektoren vd , v2d , . . . , vsd d einen Raum Wd auf, die sd−1 Vektoren vsd d+d−1 , vsd d+2(d−1) , . . . , vsd d+sd−1 (d−1) spannen zusammen mit den Vektoren g(vd ) = vd−1 , . . . , g(vsd d ) = vsd d−1 einen Raum Wd−1 auf, und so fort, bis die s1 Vektoren v1+Pd
j=2
jsj , . . . , vs1 +
Pd
j=2
jsj
zusammen mit den Bildern aller Basisvektoren von W2 unter g den Raum W1 = Ker(g) aufspannen. Man hat dann genau wie oben, dass Wj isomorph zum Faktorraum P Uj /Uj−1 ist und Dimension dν=j sν hat. Insbesondere sieht man, dass
202
RAINER SCHULZE-PILLOT
man die Anzahl sν der K¨astchen Jν aus den von Basiswahlen unabh¨angigen Zahlen dim(Uj /Uj−1 ) f¨ ur 1 ≤ j ≤ d berechnen kann, die Normalform also in der Tat eindeutig ist. Bevor wir zum zweiten Beweis kommen bemerken wir noch, dass man das Lemma von Fitting auch benutzen kann, um einen von der Arithmetik des Polynomrings unabh¨angigen Beweis der Hauptraumzerle¨ gung zu f¨ uhren; wir verweisen auch hierf¨ ur auf die Ubungen sowie das Buch von Fischer. F¨ ur den zweiten Beweis ben¨otigt man zun¨achst den folgenden Satz, dessen Beweis wir im n¨achsten Abschnitt behandeln werden: Satz 16.11. Sei V ein endlichdimensionaler K-Vektorraum, f ∈ End(V ). Dann gibt es r ∈ N, r ≤ n = dim(V ), Vektoren v1 , . . . , vr ∈ V und eindeutig bestimmte normierte irreduzible Polynome q1 , . . . , qr ∈ K[X] (die nicht notwendig paarweise verschieden sind) sowie (ebenfalls eindeutig bestimmte) µj ∈ N(1 ≤ j ≤ r), so dass gilt: µ
a) Ist p ∈ K[X], so ist genau dann p(f )(vj ) = 0, wenn qj j ein Teiler von p in K[X] ist. b) Ist v ∈ V , so kann man v=
r X
pj (f )(vj )
j=1 (v)
ur jemit Polynomen pj = pj ∈ K[X] schreiben, dabei sind f¨ µj (v) des v ∈ V die Polynome pj = pj modulo qj K[X] eindeutig bestimmt. Insbesondere gilt mit Vj := K[X]vj := {p(f )(vj ) | p ∈ K[X]}: V = V1 ⊕ · · · ⊕ Vr , und f¨ ur 1 ≤ j ≤ r ist µ Vj ∼ = K[X]/qj j K[X].
Korollar 16.12. Mit den Bezeichnungen des Satzes gilt: µ
a) Ist deg(qj j ) = tj und λ ∈ K, so bilden die Vektoren vj , (f − λ IdV )vj , . . . , (f −λ IdV )tj −1 vj eine Basis des K-Vektorraums K[X]vj . b) Es gilt r Y µ χf = qj j . j=1
c) Sind die qj so nummeriert, dass {q1 , . . . , qr } = {q1 , . . . , qt } mit einem t ≤ r und paarweise verschiedenen q1 , . . . , qt sowie µi = max{µj | 1 ≤ j ≤ r, qj = qi } f¨ ur 1 ≤ i ≤ t gilt, so gilt f¨ ur das
LINEARE ALGEBRA I, 2004/2005
203
Minimalpolynom µf von f µf =
t Y
µ
qj j .
j=1
Insbesondere hat das Minimalpolynom die gleichen irreduziblen Faktoren wie das charakteristische Polynom (siehe Korollar 11.8 f¨ ur den Fall, dass das charakteristische Polynom in ein Produkt von Linearfaktoren zerf¨allt). Beweis des Korollars. a) ist klar f¨ ur λ = 0. F¨ ur beliebiges λ expandiert man (f − λ IdV )k f¨ ur 1 ≤ k ≤ tj nach dem binomischen Lehrsatz und ¨ sieht, dass die Ubergangsmatrix zwischen den Vektoren vj , . . . , f tj −1 (vj ) und den Vektoren vj , (f − λ IdV )vj , . . . , (f − λ IdV )tj −1 vj eine Dreicksmatrix mit Determinante 1 ist. Die letzteren Vektoren bilden daher ebenfalls eine Basis des Raums K[X]vj . b): Offenbar reicht es, die Behauptung f¨ ur die R¨aume Vj = K[X]vj = {p(f )(vj ) | p ∈ K[X]} zu zeigen (einen solchen Unterraum nennt man einen f -zyklischen Unterraum). Ist (mit q := qj , µ := µj , w := vj ) P q µ (X) = ti=1 ai X i mit at = 1, so bilden die Vektoren v, f (w), . . . , f t−1 (w) eine Basis von Vj =: W , bez¨ uglich der f |W die Matrix 0 . . . 0 −a0 1 0 . . . 0 −a1 . .. .. . ... . . ∈ Mt (K) . .. ... 0 0 . 0 . . . 1 −at−1 hat. P ¨ Man rechne als Ubung nach, dass q µ = ti=1 ai X i das charakteristische Polynom dieser Matrix ist (sie wird auch die Begleitmatrix von f genannt). Die Aussage c) u ¨ber das Minimalpolynom ist trivial. Wir kommen jetzt zur¨ uck zum zweiten Beweis von Satz 16.7. Da g nilpotent vom Index d ist, ist das Minimalpolynom µg von g gleich X d , nach Teil c) des vorigen Korollars folgt, dass qj = X f¨ ur alle j gilt. d Da g = 0 ist, sind die Exponenten µj alle zwischen 1 und d, und f¨ ur µj = ν hat g|K[X]vj bez¨ uglich der Basis dieses Teilraums Vj = K[X]vj aus den Vektoren vj , g(vj ), . . . , g ν−1 vj die Matrix t Jν (bzw. bez¨ uglich der Basis g ν−1 vj , . . . , g(vj ), vj die Matrix Jν ). Bezeichnen wir mit sν die Anzahl der j mit µj = ν, so erhalten wir bez¨ uglich der aus diesen Basen der Vj zusammengesetzten Basis von V wieder die Matrix von g in der behaupteten Normalgestalt. Die Eindeutigkeit folgt in diesem Fall daraus, dass man aus der Basis von V , bez¨ uglich der die Matrix von g die Normalform annimmt, wieder
204
RAINER SCHULZE-PILLOT
eine Zerlegung von V gem¨aß Satz 16.11 gewinnt, indem man als Vektoren vj aus dieser Basis zu jedem K¨astchen Jν den letzten Basisvektor aus dem zugeh¨origen Abschnitt der Basis w¨ahlt. Die Eindeutigkeit der Zerlegung von V nach Satz 16.11 impliziert dann die Eindeutigkeit der Normalform. Zum Abschluss dieses zweiten Beweises bemerken wir noch, dass man mit Hilfe von Satz 16.11 die Existenz und Eindeutigkeit der Jordanschen Normalform eines Endomorphismus f Q mit in Linearfaktoren zerfallendem charakteristischem Polynom χf = si=1 (X −βi )ei auch direkt ohne den Umweg u ¨ber die Hauptraumzerlegung und die daraus folgende Reduktion auf den nilpotenten Fall beweisen kann. Die qj sind dann die irreduziblen Faktoren (X − βi ) von χf und man betrachtet in jedem der R¨aume Vj = K[X]vj die in Korollar 16.12 gegebene Basis vj , (f − βi IdV )vj , . . . , (f − βi IdV )tj −1 vj . Bemerkung. Man kann Satz 16.11 auf einen beliebigen Endomorphismus f ∈ End(V ) mit nicht notwendig in Linearfaktoren zerfallendem charakteristischem Polynom anwenden. Die qj sind dann die irreduziblen Faktoren in K[X] des charakteristischen Polynoms χf (wobei ein irreduzibler Faktor auch mehrfach vorkommen kann). Man erh¨alt dann mit Hilfe von Korollar 16.12 eine Matrix in Blockgestalt, bei der µ die Bl¨ocke die Begleitmatrizen der vorkommenden Potenzen qj j sind. Diese Form der Matrix wird als rationale Normalform bezeichnet, da man sie etwa auch u ¨ber dem K¨orper Q der rationalen Zahlen betrachten kann, wo das charakteristische Polynom in der Regel nicht in Linearfaktoren zerf¨allt. Bemerkung. a) Die Matrix A ∈ Mn (K) sei ¨ahnlich zur Matrix B in Jordanscher Normalform β1 Ee1 + N1 0 ... , B= 0 βr Eer + Nr wobei jedes Ni (1 ≤ i ≤ r) nilpotent ist und die Normalform aus Satz 16.7 mit Jordank¨astchen Jν in der Diagonale hat und die βi die verschiedenen Eigenwerte von A sind. F¨ ur 1 ≤ i ≤ r ist die Matrix Ni nilpotent von einem Index d(i) mit 1 ≤ d(i) ≤ ei , alle Jordank¨astchen, die in der Blockgestalt von Ni vorkommen, haben eine Gr¨oße ν mit 1 ≤ ν ≤ d(i), wobei die Gr¨oße d(i) wenigstens einmal vorkommt, d(i) also auch als die maximale Gr¨oße eines Jordank¨astchens definiert werden kann, das in der Normalgestalt von Ni vorkommt. Das Minimalpolynom von B (und damit das von A) ist das Produkt der Minimalpolynome der βi Eei + Ni . Da X d(i) das Minimalpolynom von Ni ist, ist (X − βi )d(i) das Minimalpolynom von
LINEARE ALGEBRA I, 2004/2005
205
βi Eei + Ni . Das Minimalpolynom von B (und damit das von A) erf¨ ullt also r Y µB = µA = (X − βi )d(i) , i=1
wo d(i) die maximale Gr¨oße eines in der Jordan’schen Normalform B von A vorkommenden Jordanblocks der Form βi 1 · · · · 0 ∈ Mν (K) 0 · · · 1 βi ist. b) Man kann zeigen: Sind A, A0 ∈ Mn (K), K ein beliebiger K¨orper, und L ⊇ K ein Erweiterungsk¨orper, in dem χA und χA0 in Linearfaktoren zerfallen, so sind A und A0 genau dann in Mn (K) zueinander konjugiert, wenn sie u ¨ber L die gleiche Jordan’sche Normalform haben. c) Die Bestimmung der Jordan’schen Normalform ist zur algorithmischen Kl¨arung der Frage, ob zwei gegebene Matrizen zueinander konjugiert sind, nur in Grenzen geeignet, da daf¨ ur die Nullstellen des charakteristischen Polynoms bestimmt werden m¨ ussen, was algorithmisch schwierig ist.
206
RAINER SCHULZE-PILLOT
¨ber Polynomringen 17. Elementarteilersatz und Moduln u In diesem Abschnitt ist, sofern nicht ausdr¨ ucklich etwas anderes vorausgesetzt wird, stets R = Z oder R = K[X] mit einem K¨orper K. Die Hauptaussagen dieses Paragraphen gelten allgemeiner auch f¨ ur einen Hauptidealring R, einige Beweise vereinfachen sich aber in der angegebenen Situation deutlich. Wir setzen dann f¨ ur a ∈ R : R=Z |a| deg(a) (17.1) N (a) = 2 R = K[X], a 6= 0 0 a=0 und nennen N (a) die Norm von a. Diese Funktion N : R −→ N0 ist multiplikativ, erf¨ ullt also N (ab) = N (a)N (b) f¨ ur alle a, b ∈ R. Ferner ist N (a) = 1 genau dann, wenn a in R ein multiplikatives Inverses hat (Einheit im Ring R ist), wenn also ( ±1 falls R = Z a= c ∈ K, c 6= 0 falls R = K[X] gilt. Wir wissen weiter, dass folgendes gilt: In jedem der beiden F¨alle hat man eine Division mit Rest in R (auch euklidischer Algorithmus genannt): Sind a, b ∈ R, b 6= 0, so gibt es q, r ∈ R, mit N (r) < N (b), so dass a = qb + r gilt. Ferner gibt es in beiden Ringen zu je zwei Elementen a1 , a2 einen gr¨oßten gemeinsamen Teiler d = ggT(a1 , a2 ), der dadurch gegeben ist, dass das von a1 , a2 erzeugte Ideal (a1 , a2 ) von d erzeugt wird; die Existenz von d folgt daraus, dass in R jedes Ideal ein Hauptideal ist (und ist daher auch f¨ ur jeden Hauptidealring gegeben). Der gr¨oßte gemeinsame Teiler d = ggT(a1 , a2 ) ist nur bis auf Multiplikation mit Einheiten im Ring R eindeutig bestimmt; er ist durch die beiden folgenden zueinander ¨aquivalenten Eigenschaft charakterisiert: a) d | a1 , d | a2 , und f¨ ur jedes d0 mit d0 | a1 , d0 | a2 gilt d0 | d. b) d | a1 , d | a2 , und f¨ ur jedes d0 mit d0 | a1 , d0 | a2 gilt N (d0 ) ≤ N (d), ist also ein bez¨ uglich der Norm N gr¨oßter gemeinsamer Teiler von a1 und a2 . Wir fassen diese Eigenschaften zusammmen: Definition und Lemma 17.1. Sind a1 , a2 ∈ R gegeben, so ist d ∈ R gr¨oßter gemeinsamer Teiler von a1 , a2 (man schreibt d = ggT(a1 , a2 )), wenn d ein gemeinsamer Teiler von a1 und a2 ist und gr¨oßtm¨ogliche Norm unter allen gemeinsamen Teilern von a1 und a2 hat. ¨ Aquivalent ist: d erzeugt das von a1 und a2 erzeugte Ideal (a1 , a2 ) ⊆ R.
LINEARE ALGEBRA I, 2004/2005
207
Sind d, d0 ∈ R gr¨oßte gemeinsame Teiler von a1 und a2 , so gibt es eine Einheit ∈ R× mit d0 = d. Der gr¨oßte gemeinsame Teiler von zwei Elementen a1 , a2 ist also bis auf Assoziiertheit (Multiplikation mit Einheiten) eindeutig bestimmt, und die Norm N (ggT(a1 , a2 )) ist eine eindeutig bestimmte Zahl in N0 . Bemerkung. a) In Z sind die Einheiten ±1, in K[X] sind die Einheiten genau die konstanten Polynome c0 6= 0. b) Sind Elemente a1 , . . . , an ∈ R gegeben, so gibt es auch einen bis auf Multiplikation mit Einheiten eindeutig bestimmten gr¨oßten gemeinsamen Teiler d = ggT(a1 , . . . , an ), dieser erzeugt das von a1 , . . . an erzeugte Ideal (a1 , . . . , an ) = {b1 a1 + · · · + bn an | b1 , . . . , bn ∈ R}. • Sind Elemente a1 , . . . , an ∈ R und ist λ ∈ R, so ist ggT(a1 + λaj , a2 , . . . , an ) = ggT(a1 , . . . , an ) f¨ ur alle j 6= 1, da a1 +λaj , a2 , . . . , an offenbar das gleiche Ideal erzeugen wie a1 , . . . , an . Lemma 17.2. Sei R ein Integrit¨atsbereich. Dann ist eine Matrix A ∈ Mn (R) genau dann in Mn (R) invertierbar, wenn det(A) eine Einheit in R ist. Die Menge der invertierbaren Matrizen in Mn (R) wird mit GLn (R) bezeichnet. ¨ Beweis. Siehe Ubungen Satz 17.3 (Elementarteilersatz, Smith-Normalform). Sei A ∈ M (p × n, R), A 6= 0. Dann gibt es Matrizen S ∈ GLp (R), T ∈ GLn (R), so dass d1 . . . 0 .. . 0 0 . . . dr (17.2) SAT = 0 . . . . . . . . . 0 . .. .. .. .. .. . . . . 0 ... ... ... 0 mit dj 6= 0 und dj | dj+1 f¨ ur 1 ≤ j ≤ r − 1 gilt. Die Diagonalelemente d1 , . . . , dr heißen Elementarteiler der Matrix A, die Matrix (17.2) heißt Elementarteilerform (Smith-Normalform) von A. Der erste Elementarteiler d1 ist dabei der gr¨oßte gemeinsame Teiler der Eintr¨age aij der Matrix A. Beweis. Bevor wir den eigentlichen Beweis beginnen, erinnern wir daran, dass die elementaren Zeilenumformungen einer Matrix A ∈ M (p × n, R) der drei Typen i) Addition der mit λ ∈ R multiplizierten j-ten Zeile zur i-ten Zeile (also t zi 7−→ t z0i = t zi + λt zj ) f¨ ur i 6= j.
208
RAINER SCHULZE-PILLOT
ii) Multiplikation der i-ten Zeile mit einer Einheit λ ∈ R× . iii) Vertauschen von i-ter Zeile und j-ter Zeile.
durch Multiplikation von links mit einer Matrix aus GLp (R) realisiert werden k¨onnen (n¨amlich mit einer Elementarmatrix Tij (λ), einer Diagonalmatrix Di (λ) bzw. einer Permutationsmatrix Pij ). Genauso werden die elementaren Spaltenumformungen durch Multiplikation von rechts mit der entsprechenden Matrix aus GLn (R) realisiert. Wir k¨onnen also die Behauptung beweisen, indem wir zeigen, dass A sich durch elementare Zeilen- und Spaltenumformungen der angegebenen Typen in die angegebene Gestalt bringen l¨asst. Das zeigen wir jetzt durch Induktion nach der Anzahl p der Zeilen von A (wie schon beim Gauß - Algorithmus u ¨ber einem K¨orper K kann man den Beweis auch als Angabe eines rekursiven Algorithmus auffassen). F¨ ur p = 1 nehmen wir an, dass A nicht die Nullzeile ist (sonst ist nichts zu zeigen) und erreichen durch Spaltenvertauschungen, dass a11 6= 0 die kleinste Norm unter allen a1j 6= 0 hat. Anschließend teilen wir alle a1j mit Rest durch a11 , schreiben also a1j = λj a11 + a01j mit N (a01j ) < N (a11 ) (und ziehen die mit λj multiplizierte 1-te Spalte von A von der j-ten ab. Wir erhalten eine Zeile, in der entweder alle Eintr¨age außer a11 gleich 0 sind oder die minimale Norm eines von 0 verschiedenen Eintrags kleiner als N (a11 ) ist, im letzteren Fall platzieren wir ein Element minimaler Norm durch Spaltenvertauschungen in Position 1, 1 und beginnen von vorn. Da die Norm eines Elements in N0 liegt, kann diese minimale Norm nur endlich oft verkleinert werden, nach endlich vielen Schritten erhalten wir also eine Zeile der Form (d1 , 0, . . . , 0). In dieser ist offenbar d1 der gr¨oßte gemeinsame Teiler aller Eintr¨age. Da eine Umformung a1j 7→ a01j = a1j − λj a11 den gr¨oßten gemeinsamen Teiler aller Eintr¨age nicht a¨ndert, ist d1 = ggT(a11 , . . . , a1n ). Sei jetzt p > 1 und die Behauptung f¨ ur Matrizen mit weniger als p Zeilen gezeigt. Wir bringen zun¨achst durch Zeilen - und Spaltenvertauschungen einen Eintrag minimaler Norm in die Position 1, 1 und erreichen dann in der gleichen Weise wie eben durch Zeilen- und Spaltenumformungen, dass in der ersten Zeile und der ersten Spalte alle Elemente außer a11 =: d1 gleich 0 sind; die minimale Norm eines Eintrags der Matrix hat sich dabei vermindert oder ist gleich geblieben, und N (d1 ) ist nicht gr¨oßer als die anf¨angliche minimale Norm eines Eintrags der Matrix. Falls jetzt alle Eintr¨age der Matrix durch d1 teilbar sind, f¨ uhrt man die Matrix A0 ∈ M ((p − 1) × (n − 1), R), die man durch Streichen der ersten Zeile und Spalte erh¨alt, mit Hilfe der Induktionsannahme in die Form
LINEARE ALGEBRA I, 2004/2005
d2 . . . 0 ... 0 . . . dr 0 ... ... ... . .. .. .. .. . . . 0 ... ... ...
209
0 0 .. . 0
mit dj 6= 0 und dj | dj+1 f¨ ur 2 ≤ j ≤ r − 1 u ¨ber, dabei ist d2 als gr¨oßter gemeinsamer Teiler der Eintr¨age von A0 durch d1 teilbar. Andernfalls sei etwa aij nicht durch a11 = d1 teilbar. Man addiert dann die erste Zeile zur i-ten und dividiert aij mit Rest durch d1 . Mit aij = λj d1 + a0ij subtrahiert man die mit λj multiplizierte (neue) 1-te Spalte von der j-ten und hat einen Eintrag a0ij erzeugt, dessen Norm kleiner als N (d1 ) und damit kleiner als die anf¨angliche minimale Norm eines Eintrags der Matrix ist. Man beginnt dann das Verfahren von Neuem. Da die Norm Werte in N0 nimmt, kann die minimale Norm nur endlich oft vermindert werden, nach endlich vielen Schritten muss also der Fall erreicht werden, in dem alle Eintr¨age durch den Eintrag d1 in Position 1, 1 teilbar sind und man die Induktionsannahme anwenden kann. Bemerkung: a) L¨asst man nur Multiplikation von links bzw. von rechts mit einer invertierbaren Matrix zu, so erreicht man untere bzw. obere Dreiecksgestalt (Hermite-Normalform) ¨ b) F¨ ur Matrizen in M (p × n, R) kann man Aquivalenz (¨ uber R) genauso wie in Definition 7.7 f¨ ur M (p × n, K) definieren; der Elementarteilersatz sagt dann aus, dass jede Matrix aus M (p×n, R) zu (im wesentlichen genau) einer Matrix in Elementarteilergestalt ¨aquivalent ist. Satz 17.4. Sei A ∈ M (p × n, R), T ∈ M (p × p, R). Dann gilt f¨ ur 1≤r≤p: Die r × r Unterdeterminanten ( r × r Minoren) von T A sind Linearkombinationen (mit Koeffizienten in R) der r × r Unterdeterminanten von A. Das Gleiche gilt f¨ ur AS mit S ∈ M (n × n, R). Insbesondere gilt f¨ ur S ∈ GLp (R), T ∈ GLn (R) : a) Der gr¨oßte gemeinsame Teiler der r × r Unterdeterminanten von A ist (bis auf Multiplikation mit Einheiten) gleich dem gr¨oßten gemeinsamen Teiler der r × r Unterdeterminanten von SAT .
210
RAINER SCHULZE-PILLOT
b) Ist
d1 . . . 0 .. . 0 . . . dr SAT = 0 ... ... . .. .. .. . . 0 ... ...
(17.3)
... .. . ...
0 0 .. . 0
in Elementarteilergestalt, so ist f¨ ur 1 ≤ j ≤ r der gr¨oßte gemeinsame Teiler der j × j Unterdeterminanten von A gleich d1 . . . dj ; er heißt der j-te Determinantenteiler von A. c) Die Elementarteiler d1 , . . . , dj der Matrix A sind bis auf Multiplikation mit Einheiten eindeutig bestimmt. Beispiel: Sei R = Q[X], 3 X + X 2 − 2X − 2 X 5 − 4X A= . X 5 − 4X X 5 − X 4 − 4X + 4 Wir bringen A durch elementare Umformungen u ¨ber R = Q[X] in Elementarteilergestalt: ZII 7→ZII −(X 2 −X+3)ZI X 3 + X 2 − 2X − 2 X 5 − 4X −−−−−−−−−−−−−−→ 5 5 4 X − X − 4X + 4 3 X 2− 4X X + X − 2X − 2 X 5 − 4X −3X 2 + 6 −X 7 + X 6 − 2X 5 − X 4 + 4X 3 − 4X 2 + 8X + 4
Z ↔Z ,Z
7→3Z
II −−I−−− −−II−−−−II →
−3X 2 + 6 −X 7 + X 6 − 2X 5 − X 4 + 4X 3 − 4X 2 + 8X + 4 3(X 3 + X 2 − 2X − 2) 3(X 5 − 4X)
ZII 7→ZII +(X+1)ZI ,SI 7→−SI /3
−−−−−−−−−−−−−−−−−−→
X 2 − 2 −X 7 + X 6 − 2X 5 − X 4 + 4X 3 − 4X 2 + 8X + 4 0 −X 8 − X 6 + 3X 4 + 4X 2 + 4
SII 7→SII −(−X 5 +X 4 −4X 3 +X 2 −4X−2)SI
−−−−−−−−−−−−−−−−−−−−−−−−→
X2 − 2 0 0 −(X 2 − 2)(X 2 + 2)(X 2 − X + 1)(X 2 + X + 1)
Der Elementarteilersatz wird h¨aufig auch in einer Form gebraucht, in der er Aussagen u ¨ber endlich erzeugte R- Moduln und deren Untermoduln macht:
LINEARE ALGEBRA I, 2004/2005
211
Satz 17.5. a) Sei M ⊆ Rp ein (endlich erzeugter) R-Untermodul. Dann gibt es Elemente x1 , . . . , xp ∈ Rp , r ∈ N, d1 , . . . , dr ∈ R mit dj 6= 0 f¨ ur 1 ≤ j ≤ r und dj | dj+1 , so dass gilt: i) (x1 , . . . , xp ) ist Basis von Rp . ii) (d1 x1 , . . . , dr xr ) ist Basis von M. Insbesondere ist M ein freier Modul. b) Ist M ein endlich erzeugter R-Modul, so gibt es x1 , . . . , xn ∈ M, c1 , . . . , cn ∈ R, die nicht Einheiten in R sind, mit c1 , . . . , cr 6= 0, cr+1 = · · · = cn = 0 (f¨ ur ein r ≤ n) und ci | ci+1 f¨ ur i < r, so dass jedes v ∈ M sich als n X v= ai x i i=1
mit modulo ci (d.h. bis auf Addition von Vielfachen von ci ) eindeutig bestimmten ai schreiben l¨asst. Beweis. a) Im folgenden Lemma werden wir sehen, dass ein beliebiger Untermodul von Rp zwangsl¨aufig endlich erzeugt ist (diese Aussage gilt nicht u ur die ¨ber einem beliebigen kommutativen Ring R, die Ringe, f¨ sie gilt, heißen noethersch). Sei also w(1) , . . . , w(n) ein Erzeugendensystem von M und A ∈ M (p × n, R) die Matrix mit Spalten w(1) , . . . , w(n) . Nach dem Elementarteilersatz f¨ ur Matrizen (Satz 17.3) findet man S ∈ GLp (R), T ∈ GLn (R), so dass SAT die Elementarteilergestalt d1 . . . 0 .. . 0 0 . . . dr 0 . . . . . . . . . 0 . .. .. .. .. .. . . . . 0 ... ... ... 0 hat. Wir setzen S˜ := S −1 und bezeichnen die Spalten von S˜ mit v(1) , . . . , v(p) ; diese Vektoren bilden wegen S ∈ GLp (R) eine Basis von Rp . Pn (l) Ebenso erzeugen die Vektoren u(k) := f¨ ur 1 ≤ k ≤ n l=1 tlk w p wegen T ∈ GLn (R) den gleichen Untermodul von R wie die Vektoren w(1) , . . . , w(n) , n¨amlich M . Da die Koeffizienten bik von B = SAT die Vektoren u(k) als p X u(k) = bik v(i) i=1
durch die v
(i)
ausdr¨ ucken, haben wir schließlich ( dk v(k) k ≤ r u(k) = 0 k>r
212
RAINER SCHULZE-PILLOT
wie behauptet. F¨ ur b) sei M erzeugt von y1 , . . . , yn und f : Rn −→ M die durch a1 n X . .. f := ai yi an
i=1
gegebene lineare Abbildung; diese ist surjektiv, da die yi den Modul M erzeugen. Wir finden dann nach a) eine Basis (x01 , . . . , x0n ) von Rn und c1 , . . . cn ∈ R und r ∈ N mit ci | ci+1 und ci = 0 f¨ ur r < i ≤ n, so dass 0 0 (c1 x1 , . . . , cr xr ) eine Basis des Untermoduls N := Ker(f ) ⊆ Rn ist. Der Homomorphiesatz f¨ ur Moduln liefert dann einen Isomorphismus n ∼ R /Ker(f ) = M , da f surjektiv ist. Offensichtlich ist M∼ = Rn /Ker(f ) ∼ = Rx01 /Rc1 x01 ⊕ · · · ⊕ Rx0r /Rcr x0r ∼ = R/c1 R ⊕ · · · ⊕ R/cr R, was die Behauptung beweist (man w¨ahle xi ∈ M als das Bild von x0i ∈ Rn unter f ). Bemerkung. Teil a) des Satzes kann man als die f¨ ur Moduln u ¨ber R g¨ ultige Version des Basiserg¨anzungssatzes aus der Theorie von Vektorr¨aumen u ¨ber K¨orpern ansehen. Zwar kann man eine beliebige Basis des Untermoduls M ⊆ Rp nicht mehr unbedingt zu einer Basis von Rp erg¨anzen, aber man kann immerhin eine Basis von M finden, die aus Vielfachen eines Teils der Vektoren einer geeigneten Basis von Rp besteht. Teil b) gibt die f¨ ur einen beliebigen endlich erzeugten R-Modul g¨ ultige Version des Satzes von der Existenz von Basen in K- Vektorr¨aumen: Die Koeffizienten in der Schreibweise eines beliebigen Vektors aus M als Linearkombination der Erzeugenden x1 , . . . , xn sind zwar nicht mehr wie bei einer Basis eindeutig bestimmt, aber immerhin eindeutig modulo den ci . Mehr l¨asst sich hier, wie das Beispiel des Z-Moduls Z/2Z zeigt, nicht erreichen. Bemerkung. Mit Hilfe eines Satzes der Algebra (chinesischer Restsatz) kann man die Behauptung b) auch in etwas modifizierter Gestalt beweisen: b’) Ist M ein endlich erzeugter R-Modul, so gibt es y1 , . . . , ym ∈ M, c1 , . . . , cm ∈ R mit Potenzen von Primelementen c1 , . . . , cr und cr+1 = · · · = cn = 0 (f¨ ur ein r ≤ n), so dass jedes v ∈ M sich als m X v= ai y i i=1
mit modulo ci eindeutig bestimmten ai schreiben l¨asst. Satz 17.6. Jeder Untermodul von Rn (n ∈ N) ist endlich erzeugt.
LINEARE ALGEBRA I, 2004/2005
213
Beweis. Wir schreiben f¨ ur 1 ≤ r ≤ n x1 . . . xr n , Fr := ∈ R 0 ... 0 also Rn := Fn , und setzen Mr := Fr ∩ M , ferner betrachten wir f¨ ur 1 ≤ j ≤ n die j-te Koordinatenabbildung πj : Rn −→ R x1 .. . xr 7→ xj . 0 . .. 0 Wir zeigen durch Induktion nach r, dass Mr ein Erzeugendensystem mit m(r) ≤ r Elementen hat, insbesondere also endlich erzeugt ist (schaut man im Beweis genauer hin, so sieht man, dass dieses Erzeugendensystem sogar eine Basis ist). F¨ ur alle j und r ist πj (Mr ) offenbar ein Ideal in R, also (da in R jedes Ideal ein Hauptideal ist) ein Hauptideal. Induktionsanfang: Ist π1 (M1 ) erzeugt von a1 , so ist also xa1 0 n M1 = .. ∈ R | x ∈ R , . 0
d.h., der Vektor
a1 0
.. .
! ist eine Basis (und damit ein Erzeugendensys-
0
tem) von M1 . Ist jetzt r > 1 und die Behauptung f¨ ur Ms mit s < r gezeigt, so betrachten wir das Hauptideal π (M ) = (ar ) mit einem ar ∈ R, und a1 r r . a.. r es gibt einen Vektor a = 0 ∈ Mr . .. . 0
214
RAINER SCHULZE-PILLOT
x1 . x.. r Ist dann x = 0 ∈ Mr , so ist xr = car mit c ∈ R, also ist .. . 0 x − ca ∈ Mr−1 . In Mr−1 gibt es nach Induktionsannahme ein Erzeugendensystem {y1 , . . . , ys } ⊆ Mr−1 mit s ≤ r − 1, und man sieht, dass {y1 , . . . , ys , ys+1 := a} ein Erzeugendensystem von Mr mit s + 1 ≤ r Elementen ist (in der Tat sogar eine Basis, wenn {y1 , . . . ys } ⊆ Mr−1 eine Basis war). Beweis von Satz 16.11. Wir fassen den Vektorraum V als Modul u ¨ber dem Ring R = K[X] auf, indem wir setzen: P · v := P (f )(v) (v ∈ V, P ∈ K[X]). Da V schon als K- Vektorraum endlich erzeugt ist, ist erst recht der K[X]-Modul V endlich erzeugt. Wir finden also nach Teil b) des vorigen Satzes Vektoren w1 , . . . , ws ∈ V und Polynome P1 , . . . , Ps ∈ R mit Pi | Pi+1 , so dass jedes v ∈ V sich als s X v= ai wi i=1
mit modulo Pi eindeutig bestimmten ai ∈ R schreiben l¨asst. W¨are eines der Pi gleich 0, so h¨atte der Untermodul K[X]wi und damit V selbst unendliche Dimension u ¨ber K, also sind alle Pi von 0 verschieden. H¨atten wir die in der Bemerkung nach Satz 17.5 skizzierte Version b’) der Aussage des Satzes, so h¨atten wir jetzt bereits die Aussage von Satz 16.11. Der folgende Schluss erlaubt es uns, diese Version im gegebenen Spezialfall zu erreichen: Q 1 (1) µ(1) Wir zerlegen P1 als P1 = kj=1 (qj ) j in ein Produkt von Potenzen (1)
irreduzibler Polynome qj . Wenden wir Satz 16.3 u ¨ber die Prim¨arzerlegung auf den K-Vektorraum W1 := K[X]w1 an, so erhalten wir eine Zerlegung (1)
(1)
W1 = W11 ⊕ · · · ⊕ W1k1 mit W1j = Ker((qj )µj (f )), und man u ¨berzeugt sich leicht, dass (1)
gilt. Mit (1)
vj :=
P1
(1)
W1j = Ker((qj )µj (f )) = K[X]
P1 (1) (1) (qj )µj
(1) (1) (qj )µj
(f )(w1 )
w1
LINEARE ALGEBRA I, 2004/2005
215
haben wir also f¨ ur den Raum W1 Vektoren wie in Satz 16.11 gefunden. Wir f¨ uhren die gleiche Konstruktion f¨ ur alle Wi durch und erhalten die Behauptung von Satz 16.11. Wir k¨onnen die Ergebnisse u ¨ber Elementarteiler auch noch verwenden, ¨ um ein Kriterium f¨ ur Ahnlichkeit von Matrizen in Mn (K) f¨ ur einen beliebigen K¨orper K herzuleiten. Satz 17.7. Sei K ein K¨orper, seien A, B ∈ M (n × n, K) gegeben. Dann sind ¨aquivalent: a) A und B sind ¨ahnlich (konjugiert) zueinander. b) Die charakteristischen Matrizen XEn − A, XEn − B ∈ M (n × n, K[X]) von A, B sind ¨aquivalent u ¨ber K[X] (also XEn − A = S(XEn − B)T mit S, T ∈ GLn (K[X])). c) Der durch die Multiplikation X X ( ai X i ).v 7→ ai (Ai v) i
i
von Elementen von K[X] mit Elementen von K n definierte K[X]Modul MA (mit zu Grunde liegender abelscher Gruppe K n ) ist isomorph zum analog definierten K[X]-Modul MB . Beweis. F¨ ur den Beweis sei auf das Buch von Lorenz verwiesen.
Korollar 17.8. Sei K ein K¨orper, seien A, B ∈ M (n × n, K) gegeben. Dann gilt: A und B sind genau dann ¨ahnlich (konjugiert) zueinander, wenn ihre charakteristischen Matrizen (bis auf Multiplikation mit Einheiten in K[X]) die gleichen Determinantenteiler haben. Beweis. Das folgt aus dem vorigen Satz und Satz 17.3.
Bemerkung. a) Ob zwei n × n- Matrizen u ¨ber K ¨ahnlich (konjugiert) zueinander sind, kann also im Prinzip dadurch entschieden werden, dass man alle j × j- Unterdeterminanten der jeweiligen charakteristischen Matrizen berechnet. In der Regel wird es f¨ ur praktische Zwecke einfacher sein, den in Satz 17.3 beschriebenen modifizierten Gauß-Algorithmus durchzuf¨ uhren. b) Aufbauend auf dem letzten Satz und dem Korollar kann man nun auch Normalformen u ur beliebige K¨orper K untersuchen ¨ber K f¨ (Frobenius- bzw. Weierstraß-Normalform). Dies wird hier nicht weiter ausgef¨ uhrt, Einzelheiten findet man etwa im Buch von Lorenz.
Index R-Algebra, 127 m-stufig nilpotent, 198 GLn (K), 74 SLn (K), 102 ¨ Ahnlichkeiten, orthogonale, 153 ¨ Ahnlichkeiten, unit¨ are, 153 ¨ Ahnlichkeitsnorm, 153 ¨ Ahnlichkeitstransformation, 153 ¨ Aquivalenz u ber R, 209 ¨ ¨ Aquivalenzklasse, 27 ¨ Aquivalenzrelation, 26 ¨ Ubergangsmatrix, 87 a¨hnlich, 89, 101 a¨hnliche Matrizen, 89 a¨quivalent, 12, 89 a¨quivalente Matrizen, 89 a¨ußere Potenz, 193
Austauschsatz, 54, 126 Auswahlaxiom, 53 Automorphismus, 58 Axiome Vektorraum-, 32 Bahn, 105 Basis, 48 geordnete, 48 Basis, kanonische, 48 Basiserg¨anzungssatz, 54 Basiswechsel, 87 Begleitmatrix, 203 Bewegung euklidische, 154 Beweis durch Widerspruch, 14 Bidualraum, 156 bijektiv, 16 bilineare Abbildung, 186 Bilinearform, alternierende, 161 Blockmatrix, 107
Abbildung, 16 bilineare, 186 lineare, 35 multilineare, 186 transponierte, 163 Abbildung, adjungierte, 164, 170 Abbildung, identische, 19 Abbildung, lineare, 37 Abbildung, orthogonale, 153 Abbildungen, unit¨ are, 153 abelsch, 20 adjungiert, 170 adjungierte Abbildung, 164, 170 adjungierte Matrix, 170 affine Ebene, 83 Gerade, 83 affiner Unterraum, 83 Algebra, 127 algebraisch abgeschlossen, 76 algebraische Vielfachheit, 142 Algorithmus Euklidischer, 130 allgemeine lineare Gruppe, 74 alternierende Bilinearform, 161 alternierende Gruppe, 104 anisotrop, 163 Annullator, 133, 165 Assoziativgesetz, 20 assoziiert, 124 aufgespannter Teilraum, 46 Aussage, 12
Cauchy-Schwarz’sche Ungleichung, 148 Cayley-Hamilton, Satz von, 138 Charakteristik, 30, 61 charakteristische Polynomfunktion, 116 Code, linearer, 168 Coprodukt, 45 Cramer’sche Regel, 109 Defekt, 77 Determinante, 100 Determinante eines Endomorphismus, 102 Determinante, Gram’sche, 151 Determinantenfunktion, 97 Determinantenkriterium von Jacobi, 160 Determinantenteiler, 210 Diagonalmatrix, 91 Diagramm, kommutatives, 85 Differenz, 11 digonalisierbar, 114 Dimension, 55 Dimensionsformel f¨ ur lineare Abbildungen, 78 f¨ ur Unterr¨aume, 61 direkte Summe, 45, 62, 116 disjunkt, 11 Distributivgesetz, 30 Division mit Rest, 21, 130, 206 216
LINEARE ALGEBRA I, 2004/2005
Drehmatrix, 69 Drehstreckung, 69 Drehung, 68 Drehungen, 154 Dreiecksmatrix, 107 Dreiecksungleichung, 146, 148 duale Basis, 68 Dualraum, 68, 156 Durchschnitt, 11 Ebene affine, 83 Ebene, hyperbolische, 162 Eigenraum, 112 Eigenvektor, 112 Eigenwert, 112 einfache Gruppe, 104 Einheit, 124 einheitengruppe, 124 Einheitsmatrix, 71 Einschr¨ ankung, 16 Einselement, 121 Einsetzungshomomorphismus, 130 Element, 11 Element, inverses, 20 Element, neutrales, 20 elementare Umformungen, 53 elementare Zeilenumformung, 39 Elementarmatrizen, 90, 102 Elementarteiler, 207 Elementarteilersatz, 207 elementfremd, 11 Elementordnung, 23 Ellipse, 171 End(V), 89 endlich erzeugt, 122 endlich erzeugter Modul, 126 Endomorphismen, 89 Endomorphismus, 66 enthalten, 11 Entwicklung nach der j-ten Spalte, 107 Entwicklung nach der j-ten Zeile, 107 Entwicklungsformel von Laplace, 107 Erzeugendensystem, 46 Erzeugendensystem, minimales, 49 Erzeugermatrix, 168 erzeugte Untergruppe, 23 euklidische Bewegung, 154 Euklidischer Algorithmus, 130 euklidischer Algorithmus, 206 euklidischer Raum, 146 Existenzaussagen, 14
217
Faktorgruppe, 29, 81 Faktorisieren einer linearen Abbildung, 85 Faktorraum, 82 Faktorring, 123 falsch, 12 Familie, 44 Fehlst¨ande, 108 Filtrierung, 201 Fitting, Lemma von, 200 Fixvektoren, 112 folgt, 12 Form, hermitesche, 146 formale Potenzreihen, 134 Formel von Leibniz, 106, 162 Fortsetzung, lineare, 65, 66, 77 freier Modul, 126, 211 Fußball, Satz vom, 183 Funktion, 16 Funktional lineares, 68 Funktionale, 156 general linear group, 74 generator matrix, 168 geometrische Vielfachheit, 142 Gerade affine, 83 gerade Permutation, 104 Gewalt, 103 Gewicht, 168 Gleichungssystem, lineares, 31 gr¨oßter gemeinsamen Teiler, 206 gr¨oßter gemeinsamer Teiler, 124, 134 Graßmann-Produkt, 193 Grad (eines Polynoms), 127 Gram’sche Determinante, 151 Gram-Matrix, 144 Gram-Schmidt, 149, 159 Gruppe, 20 abelsche, 20 kommutative, 20 symmetrische, 19 zyklische, 23 Gruppe, alternierende, 104 Gruppe, einfache, 104 Gruppe, spezielle lineare, 102 Gruppe, spezielle orthogonale, 153 Gruppe, spezielle unit¨are, 153 Gruppe, sporadische, 104 Gruppenhomomorphismus, 24 Gruppenisomorphismus, 24
218
RAINER SCHULZE-PILLOT
H¨ ulle, lineare, 46 Hadamard, Ungleichung von, 152 Hamiltonsche Quaternionen, 110 Hamming, 168 Hamming-Gewicht, 168 Hammingcode, 168 Hauptachsen, 171 Hauptachsensystem, 176 Hauptachsentransformation, 176 Hauptideal, 122 Hauptidealring, 123 Hermite-Normalform, 209 hermitesche Form, 146 Hesse’sche Normalform, 151 homogen, 31, 162 homogenes Polynom, 162 Homomorphiesatz, 84 Homomorphismus, 24 von Vektorr¨ aumen, 35 Hyperbel, 171 hyperbolisch, 162 hyperbolische Ebene, 162 Hyperebene, 79 Ideal, 122 identische Abbildung, 19 Index, 28 Induktion, vollst¨ andige, 14 Induktionsanfang, 14 Induktionsannahme, 14 Induktionsschritt, 14 induzierte Abbildung, 86 inhomogen, 31 injektiv, 16 Integrit¨ atsbereich, 121 inverses Element, 20 invertierbar, 73 Isometrie, 152 isomorph, 24, 69 Isomorphismus, 24 von Vektorr¨ aumen, 58 isotrop, 162 Jacobi, Determinantenkriterium von, 160 Jordan’sche Normalform, 199, 200 Jordan-K¨ astchen, 199 Jordanblock, 200 K¨ orper, 30 K¨ orperaxiome, 30 kanonische Basis, 48 kartesisches
Produkt, 11 Kegelschnitte, 171 Kern, 24 Kodimension, 79 Koeffizientenerweiterung, 190 kommutativer Ring, 121 kommutatives Diagramm, 85 Kommutativgesetz, 20 Komplement orthogonales, 150 komplement¨ar, 62 Komplement¨armatrix, 109 komplex konjugiert, 145 komplexe Konjugation, 145 komplexe Zahlen, 75 Komplexifizierung, 190 Komposition, 16 Kongruenz modulo n, 26 Konjugation, komplexe, 145 konjugiert, 89, 101 Kontraposition, 14 Kontrollmatrix, 168 Koordinatenabbildung, 60 Koordinatenfunktionen, 68, 156 Koprodukt, 45 Kreuzprodukt, 186, 195 Kronecker-Delta, 68 L¨osung triviale, 35 L¨osungsvektor, 31 Lagrange, 29 Lagrange’sches Interpolationspolynom, 132 Laplace, 107 leere Menge, 11 Leibniz, 106, 162 Leibniz, Formel von, 162 linear, 35 linear abh¨angig, 49 linear unabh¨angig, 49 lineare Abbildung, 35, 37 lineare Fortsetzung, 65, 66, 77 lineare Funktionale, 68 lineare H¨ ulle, 46 lineares Gleichungssystem, 31 Linearfaktoren, 117, 118 Linearform, 68, 79 Linearformen, 156 Linearkombination, 46 Linksnebenklasse, 28 logisches Schließen, 12 LR-Zerlegung, 93
LINEARE ALGEBRA I, 2004/2005
LU-Zerlegung, 93 Matrix, 31 transponierte, 66 Matrix der Komposition, 72 Matrix des Basiswechsels, 87 Matrix von f , 67 Matrix, adjungierte, 170 Matrizen, ¨ ahnliche, 101 Matrizen, konjugierte, 101 Matrizenprodukt, 70 Matrizenring, 71 maximale linear unabh¨ angige Teilmenge, 51 Minimalabstand, 168 minimales Erzeugendensystem, 49 Minimalgewicht, 168 Minimalpolynom, 133, 137 Modul, 125 Modul, endlich erzeugtr, 126 Modul,freier, 126, 211 Modulhomomorphismus, 126 Monster-Gruppe, 104 Multiplikativit¨ at der Determinante, 101 Negation, 12 neutrales Element, 20 nichtausgeartet, 157, 167 nilpotent, 198 m-stufig, 198 Nilpotenzindex, 198 noethersch, 122 Norm, 146, 148 Normalform f¨ ur nilpotente Endomorphismen, 198 Jordan’sche, 199 rationale, 204 Normalteiler, 29 normierter Raum, 148 normiertes Polynom, 127 Nullstelle einfache, 131 mehrfache, 131 Nullteiler, 121 nullteilerfrei, 121 Nullvektor, 32 Obermenge, 11 oder, 12 Ordnung, 23 unendliche, 23 orthogonal, 149 Orthogonalbasis, 149
219
¨ orthogonale Ahnlichkeiten, 153 orthogonale Abbildung, 153 orthogonales Komplement, 150 Orthonormalbasis, 149 Parabel, 171 Parallelogrammgleichung, 148 Parameter, 34 Parameterdarstellung, 34 Permutation, 19 Permutation, gerade, 104 Permutation, ungerade, 104 Permutation, zyklische, 105 Permutationen, 103 Permutationsmatrix, 104 Permutationsmatrizen, 90 Pfaff’sche Form, 162 Pivotelement, 38 Polynom, homogenes, 162 Polynom, normiertes, 127 Polynomfunktion, charakteristische, 116 Polynomring, 127 positiv definit, 146 Potenz,¨außere, 193 Potenz,symmetrische, 192 Potenzmenge, 11 Potenzreihen formale, 134 Pr¨a-Hilbert-Raum, 146 Prim¨arzerlegung, 197 Primk¨orper, 61 Produkt, 45 kartesisches, 11 Quadrik, 171, 176 Quantoren, 13 Quaternionen, Hamiltonsche, 110 Quotientengruppe, 81 Quotientenraum, 82 Radikal, 158 Rang, 58 einer linearen Abbildung, 73 rationale Normalform, 204 Raum euklidischer, 146 unit¨arer, 146 Rechtsnebenklassen, 29 reduced row echelon form, 92 reduzierte Zeilenstufenform, 38, 92 Reflexivit¨at, 26 regul¨ar, 74 reine Tensoren, 189
220
RAINER SCHULZE-PILLOT
Relation, 26 Repr¨ asentantensystem, 27 Rest, Division mit, 130 Restriktion, 16 Ring, 71, 121 noetherscher, 122 Ring, kommutativer, 121 Ringhomomorphismus, 125 Ringisomorphismus, 125 Satz von Lagrange, 29 Satz vom Fußball, 183 Scherung, 69 schiefhermitesch, 146 Schiefk¨ orper, 30 selbstadjungiert, 170 semidefinit, 175 semidefinite Wurzel, 175 senkrecht, 149 Signatur, 159 signum, 104 singul¨ ar, 74 Skalarmultiplikation, 32 Skalarprodukt, 70, 146 Smith-Normalform, 207 Spaltenrang, 58 Spaltenvektor, 33 Spektralsatz, 172, 175 Spektralzerlegung, 175 Spektrum, 175 spezielle lineare Gruppe, 102 spezielle orthogonale Gruppe, 153 spezielle unit¨ are Gruppe, 153 sporadische Gruppe, 104 Spur, 137 Standardbasis, 48 Standardskalarprodukt, 145 Streckung, 68 Streichungsmatrix, 98, 107 Summe direkte, 45 surjektiv, 16 Sylvester, Tr¨ agheitssatz von, 159 Symmetrie, 26 symmetrisch, 144 symmetrische Gruppe, 19 symmetrische Potenz, 192 Teiler, 124 gr¨ oßter gemeinsamer, 206 gr¨ oßter gemeinsamer, 124 Teilmenge, 11
Teilmenge, maximale linear unabh¨angige, 51 Teilraum, 32 Tensoren reine, 189 Tensorprodukt, 187 Tensorprodukt, k-faches, 192 Tr¨agheitsindex, 163 Tr¨agheitssatz von Sylvester, 159 Transitivit¨at, 26 transponierte Abbildung, 163 transponierte Matrix, 66 Transposition, 103 trigonalisierbar, 114 triviale L¨osung, 35 Umformungen, elementare, 53 Umkehrabbildung, 16 und, 12 unendlich dimensional, 55 ungerade Permutation, 104 Ungleichung von Hadamard, 152 Ungleichung, Cauchy-Schwarz’sche, 148 ¨ unit¨are Ahnlichkeiten, 153 unit¨are Abbildungen, 153 unit¨arer Raum, 146 Untergruppe, 22 erzeugte, 23 Unterraum, 32 f -zyklischer, 203 affiner, 83 komplement¨arer, 62 Untervektorraum, 32 Urbildmenge, 29 Vandermonde-Determinante, 107 Vektorprodukt, 186, 195 Vektorraum, 32 Vektorraumaxiome, 32 Vektorsystem, 48 Vereinigung, 11 Verneinung, 12 Verschwindungsideal, 133 Vielfachheit, 131 Vielfachheit, algebraische, 142 Vielfachheit, geometrische, 142 vollst¨andige Induktion, 14 Vorzeichen, 104 wahr, 12 Wahrheitstafeln, 12 Witt-Index, 163 Witt-Zerlegung, 163
LINEARE ALGEBRA I, 2004/2005
Wohlordnungsaxiom, 53 Wurzel, semidefinite, 175 Zeilenrang, 58 Zeilenstufenform, 38 reduzierte, 38, 92 Zeilenumformung, elementare, 39 Zeilenvektor, 33 Zeilenvektoren, 70 Zorn’sches Lemma, 52 Zykel, 104 zyklische Gruppe, 23 zyklische Permutation, 105 zyklischer Unterraum, 203
221