Mathematik fu r Ingenieure II (fu r Informatiker)
Claus Hillermeier
Sommersemester 2001
Institut fu r Angewandt...
52 downloads
727 Views
563KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Mathematik fu r Ingenieure II (fu r Informatiker)
Claus Hillermeier
Sommersemester 2001
Institut fu r Angewandte Mathematik Friedrich-Alexander-Universit at Erlangen
Inhaltsverzeichnis 2 Vektoren
2.1 Vektorraume . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.1.1 Die Vektorraumaxiome . . . . . . . . . . . . . . . . . 2.1.2 Beispiele von Vektorraumen . . . . . . . . . . . . . . 2.1.3 Rechenregeln . . . . . . . . . . . . . . . . . . . . . . 2.1.4 Untervektorraume . . . . . . . . . . . . . . . . . . . . 2.2 Lineare Unabhangigkeit . . . . . . . . . . . . . . . . . . . . 2.3 Basis und Dimension . . . . . . . . . . . . . . . . . . . . . . 2.4 Summe zweier Vektorraume . . . . . . . . . . . . . . . . . . 2.5 Lineare Abbildungen . . . . . . . . . . . . . . . . . . . . . . 2.5.1 De nition und elementare Eigenschaften . . . . . . . 2.5.2 Bild und Kern . . . . . . . . . . . . . . . . . . . . . . 2.5.3 Projektionsabbildungen . . . . . . . . . . . . . . . . 2.5.4 Injektive lineare Abbildungen . . . . . . . . . . . . . 2.5.5 Der Vektorhomomorphiesatz . . . . . . . . . . . . . . 2.5.6 Der Raum der Homomorphismen . . . . . . . . . . . 2.6 Matrizen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.6.1 De nition einer Matrix uber K . . . . . . . . . . . . 2.6.2 Eine Matrix als Darstellung einer linearen Abbildung 2.6.3 Matrizenrechnung . . . . . . . . . . . . . . . . . . . . 2.6.4 Rang einer Matrix . . . . . . . . . . . . . . . . . . . 2.6.5 Determinanten . . . . . . . . . . . . . . . . . . . . . 2.7 Lineare Gleichungssysteme . . . . . . . . . . . . . . . . . . . 2.7.1 Aufgabenstellung . . . . . . . . . . . . . . . . . . . . 2.7.2 Losungsmenge . . . . . . . . . . . . . . . . . . . . . . 2.7.3 Explizite Losung: Cramersche Regel . . . . . . . . . . 2.7.4 Numerische Losung: Gau'scher Algorithmus . . . . . 2.8 Skalarprodukt und Orthogonalitat . . . . . . . . . . . . . . . 2.8.1 De nition des Skalarprodukts . . . . . . . . . . . . . 2.8.2 Langenmessung . . . . . . . . . . . . . . . . . . . . . 2.8.3 Winkelmessung . . . . . . . . . . . . . . . . . . . . . 2.8.4 Orthogonale Abbildungen . . . . . . . . . . . . . . . 2.9 Eigenwerte und Eigenvektoren . . . . . . . . . . . . . . . . . 2.9.1 Basiswechsel . . . . . . . . . . . . . . . . . . . . . . . 2.9.2 Eigenwerte und charakteristisches Polynom . . . . . .
i
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
1
1 1 3 4 5 7 9 14 17 17 19 20 21 22 24 27 27 29 32 35 38 45 45 45 47 48 53 53 54 55 57 60 60 62
2 Vektoren 2.1
Vektorr aume
2.1.1 Die Vektorraumaxiome
Aus dem Physikunterricht ist die physikalische Groe "Kraft\ wohlvertraut. Sie ist durch ihre Starke und ihre Richtung im dreidimensionalen Raum (d.h. dem Raum unserer Anschauung) charakterisiert. Geometrisch lat sich eine Kraft daher als gerichtete Strecke (d.h. "Pfeil\) *a der Form % darstellen, wobei die Lange des Pfeiles die Starke der Kraft angibt. Gerichtete Strecken dieser Art bezeichnen wir als Vektoren des (dreidimensionalen) Anschauungsraumes. Bemerkung:
Da eine Kraft durch Lange und Richtung des zugehorigen Pfeiles vollstandig beschrieben ist { die Information u ber den Aufpunkt (= Punkt, an dem die Kraft angreift) wird separat angegeben und ist nicht Teil des Kraftvektors selbst {, enthalt der Anfangspunkt des Kraftpfeils keine Information uber den Kraftvektor und ist in diesem Sinne als beliebig anzusehen. Um dies zu modellieren, werden alle gerichteten Strecken, die durch Parallelverschiebung auseinander hervorgehen, miteinander identi ziert, also als gleich angesehen. Streng genommen fassen wir also alle gleichlangen, gleichgerichteten Pfeile in einer Aquivalenzklasse zusammen und be trachten eine solche Aquivalenzklasse von Pfeilen als mathematisches Modell eines Kraftvektors. Aufpunktunabhangige Pfeile (bzw. Pfeilklassen) wie der Kraftvektor werden auch als freie Vektoren des Anschauungsraumes bezeichnet. Das Attribut frei\ unterscheidet besagte Vektoren " von einem zweiten Typus gerichteter Strecken im Anschauungsraum, den sogenannten Ortsvektoren (siehe Abschnitt 2.1.4), die stets an den Ursprung angeheftet sind.
Die physikalische Beobachtung lehrt: Greifen an einem Punkt zwei verschiedene Krafte an, so ergibt sich der Vektor der wirksamen Gesamtkraft durch Vervollstandigung der beiden Kraftvektoren zu einem Parallelogramm. Diese physikalische Beobachtung legt es nahe, uber die Parallelogrammkonstruktion eine Addition von Vektoren des Raumes zu de nieren: 1 1
1
b
a+b
1 a
Mit geometrischen Argumenten lasst sich leicht zeigen, dass die Vektoren des Raumes bezuglich der so de nierten Addition eine kommutative Gruppe bilden. Ein "Pfeil\ der * La*nge 0 reprasentiert das Nullelement 0 . Zu *a invers ist derjenige Vektor, bezeichnet als * a , der dieselbe Lange hat wie a , aber die entgegengesetzte Richtung: 1
1
−a
a
1
* a angreift (mit 2 R ), so Wenn nun an einem Punkt das -fache einer gegebenen Kraft * * kann der zugehorige Kraftvektor b aus a durch Streckung um den Faktor gewonnen werden: *
8 >
*
:
*
a fur > 0 a fur < 0 keine fur = 0: *
Durch die geometrische Konstruktion der Streckung ist eine auere Verknupfung de * niert, namlich die Multiplikation eines Vektors a des Raumes mit einer reellen Zahl 2 R . * Fur diese auere Verknupfung, geschrieben als a , gilt oensichtlich: 1 *a = *a * * ( a ) = ( ) a
fur alle Vektoren *a des Raumes fur alle *a und 8 ; 2 R
Daruber hinaus spielen die Addition von Vektoren und die auere Multiplikation nach Art von Distributivgesetzen zusammen: *
*
( a + b ) = a + b ( + ) *a = *a + *a *
*
Verknupfungen mit diesen Eigenschaften lassen sich nicht nur uber den Vektoren des physikalischen dreidimensionalen Raumes konstruieren, sondern auch uber vielen anderen Mengen mathematischer Objekte. Fur die auere Multiplikation kommt dabei nicht nur der Korper der reellen Zahlen in Betracht. Auch andere (Zahl-)Korper (wie z.B. Q oder C ) k onnen prinzipiell diese Rolle spielen. Wir verallgemeinern daher die bei Vektoren des physikalischen Raumes vorgefundene Situation zu folgender De nition des abstrakten Vektorraumes: Eine Menge V heit Vektorraum uber dem Korper K , wenn es eine innere Verknupfung "+\ (genannt Addition) gibt, so dass (V1) (V; +) eine kommutative Gruppe ist, und wenn es eine auere Verknupfung (genannt Multiplikation mit Skalaren oder kurz: skalare Multiplikation)
! V* : (K;*aV) ! 7 a 2 V
*
gibt mit folgenden Eigenschaften (8 ; 2 K ; *a; b 2 V ; 1 bezeichne das Einselement von K ): (V2) 1 *a = *a (V3) ( *a ) = ( ) *a *
*
(V4) (*a + b ) = *a + b
2
(V5) ( + ) *a = *a + *a Die Elemente von V heien Vektoren, die von K Skalare. K selbst wird auch Skalarenkorper genannt. In den Vektorraum-Beispielen, die uns begegnen werden, ist der Skalarenkorper meist R , gelegentlich einmal C . Weitere Bezeichnungen: Das neutrale Element bezuglich der Addition* in V heit auch Nullvektor, geschrieben * * * 0 . Das zu a 2 V inverse Element wird als a geschrieben und auch der zu a negative Vektor genannt. Wenn der Vektor-Charakter aus dem Zusammenhang klar hervorgeht, werden wir ab jetzt die Vektorpfeile uber den Buchstabensymbolen weglassen. 2.1.2 Beispiele von Vektorraumen a) Im R n , der Menge der n-Tupel reeller Zahlen, konnen wir eine Addition dadurch
de nieren, dass wir komponentenweise die gewohnte Addition in R ausfuhren: Seien x := (x1 ; : : : ; xn) und y := (y1; : : : ; yn) 2 R n (beliebig) gegeben, so wird die Summe x + y erklart durch x + y := (x1 + y1 ; : : : ; xn + yn ) 2 R n :
Analog lat sich de nieren, wie man ein n-Tupel x = (x1 ; : : : ; xn) 2 R n mit einer reellen Zahl zu multiplizieren hat: x := (x1 ; : : : ; xn ) 2 R n :
Die beiden "neuen\ Rechenoperationen (= Verknupfungen) sind einfach dadurch entstanden, dass wir das, was wir sonst - bereits gewohntermaen - mit reellen Zahlen tun, nun eben mit jeder (reellen) Komponente des n-Tupels tun. Daher ubertragen sich auch die Rechenregeln fur reelle Zahlen auf diese beiden Verknupfungen im R n . Man weist also ohne Schwierigkeit nach, dass fur die soeben de nierte Addition und skalare Multiplikation im R n die Vektorraumaxiome (V1) bis (V5) gelten. Insbesondere ist 0 := (0; : : : ; 0) 2 R n der Nullvektor und (x1 ; : : : ; xn) := ( x1 ; : : : ; xn ) das zu (x1 ; : : : ; xn) inverse Element. R n wird also mit diesen Verkn upfungen zu einem Vektorraum uber dem Korper R . b) Sei X eine (beliebige) Menge und Abb(X; R ) die Menge aller Abbildungen f : X ! R . Die Funktionswerte jeder solchen Funktion f sind also reelle Zahlen. Wir konnen daher aus zwei Funktionen f und g 2 Abb(X; R ) eine neue Funktion, genannt f + g, gewinnen, die jedem Argument x 2 X die Summe der Funktionswerte f (x) und g (x) zuweist: f +g :
! R 7 f (x) + g(x) : !
X x
Da die so de nierte Addition von Funktionen argumentweise (d.h. fur jedes einzelne Funktionsargument x 2 X ) auf die Addition in R zuruckgefuhrt wurde, ubertragen sich die Rechenregeln fur reelle Zahlen auf diese Verknupfung. 3
(Abb(X; R ); +) ist also eine kommutative Gruppe, mit der Nullabbildung 0 : X ! R ; 0(x) = 0 2 R 8 x 2 X als Nullvektor und f : X ! R ; ( f )(x) := f (x) als der zu f negativen Abbildung. Analog lat sich argumentweise eine skalare Multiplikation mit einer Zahl 2 R de nieren durch (f ) : X ! R ; (f )(x) := f (x) 8 x 2 X: Da somit sowohl Addition wie auch skalare Multiplikation von reellwertigen Funktionen (also Abbildungen nach R ) uber die Addition bzw. Multiplikation in R de niert worden sind, ubertragen sich die Rechenregeln fur reelle Zahlen auf Abb(X; R ), und die Vektorraumaxiome (V2) bis (V5) sind ebenfalls erfullt. Abb(X; R ) ist also ein Vektorraum uber R (kurz: ein reeller Vektorraum). 2.1.3 Rechenregeln
Aus den Vektorraumaxiomen (V1) bis (V5) lassen sich leicht folgende Rechenregeln herleiten, die fur jeden beliebigen Vektorraum V uber einem Korper K gelten: * * v 2V (i) 0 *v = 0 8 * * 0 = 0 8 2K * (ii) Aus *v = 0 fur ein* 2 K ; *v 2 V folgt: * = 0 oder v = 0 (iii) ( 1) *v = *v (inverser oder negativer Vektor zu *v ) 8 *v 2 V . Exemplarisch beweisen wir (ii), also die Aussage * * * * " v = 0 *=)* = 0 oder v = 0 \: Sei also v = 0 . Zwei Falle lassen sich unterscheiden: ) = 0. In diesem Fall ist die Aussage trivialerweise erfullt. ) 6= 0. Dann muss es zu ein inverses Element 1 bezuglich der Multiplikation in K geben, d.h. 1 = 1. Damit folgt: *
v
* (V2) 1 *v = ( 1 ) *v (V3) 1 ( v ) = = * (Voraussetz.) 1 * 0 (i) = = 0:
q.e.d.
4
2.1.4 Untervektorraume
Wir betrachten nun Teilmengen U V eines Vektorraumes V uber dem Korper K . Klarerweise lassen sich Elemente aus U miteinander addieren und mit Elementen aus K multiplizieren. Dennoch ist nicht jede Teilmenge U V automatisch selbst ein Vektorraum (uber K ), denn es kann z.B. vorkommen, dass x + y 2= U , obwohl x; y 2 U : U
.
x x+y y
In diesem Fall liefert die Addition in V keine Addition (d.h. innere Verknupfung) U U ! U , wie es fur einen Vektorraum U erforderlich ware. Damit die auf V de nierte Addition und Skalarmultiplikation auch auf der Teilmenge U V eine Addition U U ! U und eine Skalarmultiplikation K U ! U induzieren, muss also gelten: (U1) x; y 2 U =) x + y 2 U (d.h. U ist abgeschlossen gegenuber der Addition) (U2) x 2 U; 2 K =) x 2 U (d.h. U ist abgeschlossen gegenuber der Multiplikation mit Skalaren). Weiterhin muss U , um Vektorraum sein zu konnen, eine Gruppe bezuglich der Addition * bilden, insbesondere also das neutrale Element 0 (d.h. den Nullvektor) enthalten. Folglich muss notwendigerweise gelten: (U3) U 6= ;. Tatsachlich sind die Bedingungen (U1) bis (U3) nicht nur notwendig, sondern auch bereits hinreichend dafur, dass die Teilmenge U V mit der durch V gegebenen Addition und Skalarmultiplikation selbst ein Vektorraum uber K ist. Wir nennen daher eine Teilmenge U V , die die Bedingungen (U1) bis (U3) erfullt, einen Untervektorraum von V (oder kurz: Unterraum von V). Bemerkung: Damit U eine Untergruppe von V bezuglich der Addition bilden kann, muss laut Abschnitt 1.6 gelten: Fur jedes x 2 U ist auch ( x) 2 U . Bedingung (U2) stellt dies in der Tat sicher, denn aus (U2) folgt: ( 1) x 2 U , und Rechenregel (iii) besagt: ( 1) x = ( x) .
5
Beispiele: *
(1) In einem beliebigen Vektorraum V sind die Teilmengen f 0 g und V stets Untervektorraume von V . (2) Im dreidimensionalen Anschauungsraum wahlen wir einen Punkt aus und bezeichnen * ihn als Nullpunkt 0 . * Nun betrachten wir die Menge aller gerichteten Strecken, deren Anfangspunkt 0 ist. Im Unterschied zu den zu Beginn dieses Kapitels betrachteten freien Vektoren * (aufpunktunabhangig!) werden die Pfeile mit xiertem Anfangspunkt 0 als Ortsvektoren des Anschauungsraumes bezeichnet. Mit den bereits de nierten Verknupfungen fur gerichtete Strecken, also der Addition mittels Parallelogrammkonstruktion und der Skalarmultiplikation mittels Streckung, bildet die Menge der Ortsvektoren einen Vektorraum uber R . Da jedem Ortsvektor eindeutig ein Punkt des Raumes { namlich der Endpunkt der Strecke { zugeordnet werden kann (! Name!), konnen wir die Menge von Ortsvektoren auch als Menge der Punkte des Anschauungsraumes auassen. Die Untervektorraume dieses * (Vektor-)Raumes sind { auer f 0 g und dem gesamten Raum selbst { die Ebenen durch den Nullpunkt und die Geraden durch den Nullpunkt: 1
Gerade durch 0 1
.
0
1 Ebene durch 0 (Nachweis: siehe geometrische Eigenschaften der Parallelogrammkonstruktion und der Streckung!)
Wir merken noch an, dass der Durchschnitt zweier Untervektorraume von V stets wieder ein Untervektorraum von V ist.
6
2.2
Lineare Unabh angigkeit
Wir betrachten einen Vektorraum V uber dem Korper K , k Vektoren v1 ; : : : ; vk 2 V und k Skalare 1; : : : ; k 2 K . Wegen der Abgeschlossenheit von V gegenuber Addition und Skalarmultiplikation ist (1 v1 + : : : + k vk ) wieder ein Vektor aus V . Wir nennen (1 v1 + : : : + k vk ) 2 V eine Linearkombination der Vektoren v1 ; : : : ; vk . Wir halten nun das k-Tupel (v1; : : : ; vk ) fest und bilden alle moglichen Linearkombinationen dieser Vektoren v1 ; : : : ; vk 2 V . Die auf diese Weise erzeugte Menge von Linearkombinationen wird auch lineare Hulle von (v1; : : : ; vk ) genannt und mit L(v1 ; : : : ; vk ) bezeichnet: (
k X
L(v1 ; : : : ; vk ) :=
i=1
)
i v i j i 2 K :
Die Summe zweier Linearkombinationen von (v1; : : : ; vk ) ist wieder eine Linearkombination von (v1; : : : ; vk ): (1 v1 + : : : + k vk ) + (1 v1 + : : : + k vk ) = (Vektorraumaxiom V5) (1 + 1 ) v1 + : : : + (k + k ) vk = Auch ist fur jedes 2 K das -fache einer Linearkombination von (v1 ; : : : ; vk ) wieder eine solche: (1 v1 + : : : + k vk ) (V4),=(V3) (1 )v1 + : : : + (k )vk : Da weiterhin L(v1 ; : : : ; vk ) nicht leer ist, erfullt die Teilmenge L(v1; : : : ; vk ) V die Bedingungen (U1) bis (U3) und ist somit ein Untervektorraum von V . Ein Tupel (v1; : : : ; vk ) von k Vektoren aus V heit linear abhangig, wenn man einen dieser k Vektoren als Linearkombination der ubrigen (k 1) Vektoren schreiben kann. Diesen Vektor kann man aus dem Tupel (v1 ; : : : ; vk ) entfernen, ohne die lineare Hulle zu andern, d.h. die lineare Hulle der ubrigen (k 1) Vektoren ist identisch mit L(v1 ; : : : ; vk ). Begrundung: Sei vk = 1v1 + : : : + k 1vk 1. Dann gilt: 1 v1 + : : : + k 1 vk 1 + |{z} k vk = (1 + k 1 )v1 + : : : + (k 1 + k k 1 )vk 1 : {z } | [k (1 v1 +:::+k
1
vk
1
)]
2 L(v1 ;::: ;vk 1 )
Wenn das Tupel (v1 ; : : : ; vk ) nicht linear abhangig ist (d.h. wenn man keinen Vektor als Linearkombination der anderen erhalten kann), so heit es linear unabhangig. Im Beispiel des Vektorraumes der Ortsvektoren des Anschauungsraumes (siehe Abschnitt 2.1.4) sind zwei Vektoren (bzw. Punkte) a und b genau dann linear abhangig, wenn a durch eine Streckung in b uberfuhrt werden kann (a = b), d.h. wenn beide Punkte auf derselben Geraden durch den Ursprung liegen:
.
a
. b
.
0
7
Ansonsten spannen die Strecken 0!a und 0!b ein nichtverschwindendes Parallelogramm auf und sind linear unabhangig:
.
.
b
.
.
0
a
Fur den rechentechnischen Umgang mit dem Begri der linearen Unabhangigkeit ist die folgende, etwas formale De nition zweckmaiger. De nition: Ein Tupel (v1 ; : : : ; vk ) von Vektoren eines Vektorraumes V uber K heit linear unabhangig, wenn eine Linearkombination von v1; : : : ; vk * nur dann Null (d.h. der Nullvektor 0 ) sein kann, wenn alle KoeÆzienten i verschwinden, d.h. wenn * aus 1 v1 + : : : + k vk = 0 2 V folgt: 1 = : : : = k = 0 2 K : Um nachzuweisen, dass die beiden De nitionen der linearen Unabhangigkeit aquivalent sind, ist zu zeigen: ) (v1 ; : : : ; vk ) linear unabhangig gema formaler De nition =) kein vi ist Linearkombination der ubrigen (k 1) Vektoren. ) Kein vi ist Linearkombination der anderen =) (v1; : : : ; vk ) linear unabhangig gema formaler De nition. Exemplarisch wollen wir ) zeigen (per Widerspruchsbeweis): k * P Gelte also () : ivi = 0 =) i = 0 8 i 2 f1; : : : ; kg. i=1 Angenommen, es gabe ein j 2 f1; : : : ; kg, so dass vj eine Linearkombination der ubrigen Vektoren ware, d.h. vj = 1 v1 + : : : + j 1 vj 1 + j +1vj +1 + : : : + k vk =
k X
i vi :
i=1 i6=j
Dann ware aber die Linearkombination k X i=1 i6=j
*
i vi + ( 1) vj = 0 ;
obwohl nicht alle KoeÆzienten Null sind, da ja ( 1) 6= 0. Widerspruch zu () ! 8
q.e.d.
2.3
Basis und Dimension
Sei V ein Vektorraum uber dem Korper K . Ein Tupel (v1 ; : : : ; vn) von n Vektoren aus V heit eine Basis von V , wenn es folgende zwei Bedingungen erfullt: a) L(v1 ; : : : ; vn) = V b) (v1; : : : ; vn) ist linear unabhangig. n P
Aussage a) bedeutet, dass man jeden Vektor v 2 V als Linearkombination v = ivi i=1 schreiben kann. Mittels der Basisvektoren v1; : : : ; vn kann man also per Linearkombination den ganzen Vektorraum V erzeugen oder "aufspannen\. Aussage b) bewirkt, dass sich jedes v 2 V auf genau eine Weise als Linearkombination schreiben lat: Satz: Ist (v1 ; : : : ; vn ) eine Basis von V , dann gibt es zu jedem v 2 V genau ein n-Tupel (1 ; : : : ; n) 2 K n (also: ein n-Tupel von KoeÆzienten), so dass gilt: v=
n X i=1
i vi :
Beweis: Wegen L(v1 ; : : : ; vn) = V gibt es zu jedem v 2 V mindestens ein solches Koef ziententupel (1 ; : : : ; n) 2 K n . Angenommen, es gabe deren zwei, also v = 1 v1 + : : : + *nvn = 1v1 + : : : + nvn. Dann ware (1 1)v1 + : : : + (n n)vn = v v = 0 . Aufgrund der linearen Unabhangigkeit von (v1 ; : : : ; vn) folgt daraus (i i) = 0 und damit i = i 8 i = 1; : : : ; n. q.e.d. Anhand dieses Beweises zeigt sich, dass die formale De nition der linearen Unabhangigkeit in der Tat "praxistauglich\ ist. Beispiele (und Gegenbeispiele) fur Basen: 1) Analog zum dreidimensionalen Anschauungsraum wird auch die (zweidimensionale) * Zeichenebene durch die Wahl eines Nullpunkts 0 zu einem Vektorraum uber R , dem Raum der Ortsvektoren der Zeichenebene (siehe Abschnitt 2.1.4). In diesem Vektorraum lasst sich die Basis-Eigenschaft direkt veranschaulichen: V2
V
V1
.
0
(v1; v2 ) ist Basis
1
1
.
0
(v) ist zwar linear unabhangig (gema formaler De nition!), aber L(v) 6= Zeichenebene (sondern nur: Gerade) Daher: (v) keine Basis. 9
V2
V1
V3
Zwar gilt L(v1 ; v2; v3) = Zeichenebene, aber: (v1 ; v2; v3 ) linear abhangig =) keine Basis. 2) Wenn wir besagte Zeichenebene mit einem rechtwinkligen Koordinatensystem aus* statten (beachte: damit ist auch 0 festgelegt!) und auf jeder Koordinatenachse die Lange 1 (in der gewahlten Einheit, z.B. 1cm) abtragen, erhalten wir eine spezielle Basis (v1 ; v2) dieses Vektorraumes V :
b
x
1 v2 1 0
v1
1 a
Jeder Vektor x 2 V wird nun eindeutig durch seine KoeÆzienten (a; b) 2 R 2 bezuglich dieser Basis charakterisiert, d.h. x = av1 + bv2 . Die Werte der beiden KoeÆzienten (auch Koordinaten genannt) ergeben sich durch senkrechte Projektion von x auf die beiden Koordinatenachsen. Da umgekehrt jedes Koordinatentupel (a; b) 2 R 2 genau eine Linearkombination av1 + bv2 und damit genau einen Vektor aus V spezi ziert, etabliert die Zuordnung Vektor ! Koordinatentupel (bei festgehaltener Basis!) eine Eins-zu-Eins-Korrespondenz (= Bijektion) zwischen V und R 2 , die sogenannte Koordinatenabbildung. Wir werden sp ater sehen, dass diese Bijektion auch die Verknupfungsstruktur beider Vektorraume aufeinander abbildet. Die beschriebene "rechtwinklige Einheitsbasis\ erlaubt es also, den R 2 in der Zeichenebene zu veranschaulichen. (Analoges gilt fur die Beziehung zwischen dem R 3 und dem dreidimensionalen Anschauungsraum).
10
3) Im R n ist die sogenannte "kanonische Basis\ oder Standardbasis (e1; : : : ; en) de niert als e1 = (1; 0; : : : ; 0) e2 = (0; 1; : : : ; 0) ... en = (0; 0; : : : ; 1): Wenn wir vermoge der Koordinatenabbildung die Zeichenebene mit dem R 2 und den Anschauungsraum mit dem R 3 identi zieren, so lasst sich die Standardbasis leicht veranschaulichen: R2
R3
e3 =(0,0,1)
e2 =(0,1)
.. e1 =(1,0)
e2 =(0,1,0) e1 =(1,0,0)
Wir fragen uns nun, ob ein Vektorraum zwei Basen mit unterschiedlich vielen Basisvektoren haben kann. Bei der Beantwortung hilft uns folgender Satz, der uber das Auswechseln von Vektoren einer Basis Auskunft gibt. Austauschsatz: Sei V ein Vektorraum uber K und (b1 ; : : : ; bn ) eine Basis von V . Seien weiterhin die m Vektoren (a1 ; : : : ; am ) aus V linear unabhangig, wobei m n. Dann lassen sich in der Basis (b1 ; : : : ; bn) m Vektoren bi gegen die Vektoren aj aus (a1 ; : : : ; am ) austauschen, d.h. bei geeigneter Numerierung gilt: (a1 ; : : : ; am ; bm+1 ; : : : ; bn) ist ebenfalls eine Basis von V: Beweis durch Induktion: () (Ind.anf.) Fur m = 0 ist die Aussage richtig. ( ) Wir nehmen an, die Behauptung gelte fur m 1, d.h. es gelte L(a1 ; : : : ; am 1 ; bm ; : : : ; bn ) = V und (a1; : : : ; am 1; bm ; : : : ; bn) ist linear unabhangig. Dann gilt wegen am 2 V : ()
am =
m X1
11
i=1
i ai +
n X j =m
j bj :
Dabei konnen die j nicht alle verschwinden, da sonst (a1; : : : ; am) nicht linear unabhangig ware. Durch Umbenennung der bj konnen wir daher stets erreichen, dass der KoeÆzient von bm nicht verschwindet: m 6= 0. wegen()
=)
m X1
bm = |
n X 1 j i ai bj + am m j =m+1 m i=1 m {z } 2L(a ;::: ;am ;bm ;::: ;bn ) 1
1
+1
Daraus folgt zweierlei: (A) bm 2 L(a1 ; : : : ; am 1 ; am ; bm+1 ; : : : ; bn) und damit V = L(a1 ; : : : ; am 1 ; bm ; : : : ; bn ) = L(a1 ; : : : ; am 1 ; am ; bm; : : : ; bn) = L(a1 ; : : : ; am ; bm+1 ; : : : ; bn) (B) am 2= L(a1 ; : : : ; am 1 ; bm+1 ; : : : ; bn), denn sonst ware bm 2 L(a1 ; : : : ; am 1 ; bm+1 ; : : : ; bn ) im Widerspruch zur Induktionsannahme. Folglich ist (a1 ; : : : ; am 1 ; am ; bm+1; : : : ; bn) linear unabhangig. Mit f(A) und (B)g ist aber genau der Induktionsschluss von (m 1) nach m vollzogen. q.e.d. Der Austauschsatz gibt nun die Antwort auf die oben gestellte Frage: Satz und De nition: Sind (v1 ; : : : ; vm ) und (w1 ; : : : ; wn) Basen des Vektorraums V , so ist m = n (d.h. Basen eines Vektorraums enthalten stets dieselbe Zahl von Vektoren). Man nennt n die Dimension von V , kurz dim V . Beweis (durch Widerspruch): Angenommen, es ware m < n. (Fall "n < m\ geht analog.) Dann ware nach dem Austauschsatz (v1 ; : : : ; vm; wm+1 ; : : : ; wn) eine Basis von V . Insbesondere ware daher (v1 ; : : : ; vm ; wm+1) linear unabhangig, im Widerspruch zu wm+1 2 L(v1 ; : : : ; vm), da (v1 ; : : : ; vm ) ja laut Voraussetzung Basis von V ist. q.e.d. Weil die Standardbasis des R n n Vektoren enthalt, folgt sofort: dim R n = n : Einen Vektorraum V , der eine Basis aus endlich vielen Elementen besitzt, bezeichnen wir als endlichdimensional. Hat V dagegen keine solche Basis (bzw. hat V eine Basis aus unendlich vielen Elementen), so heit V unendlichdimensional.
12
Mit dem Austauschsatz konnen wir weiterhin folgern: Satz: Die Dimension dim V ist die Maximalzahl linear unabhangiger Vektoren in V . Beweis (durch Widerspruch): Annahme: dim V = n; (v1 ; : : : ; vn) Basis von V , es gibt ein Tupel (a1 ; : : : ; am ) von m linear unabhangigen Vektoren aus V mit m > n. =) Austauschen von v1 ; : : : ; vn durch die n Vektoren a1 ; : : : ; an fuhrt zur neuen Basis (a1 ; : : : ; an) von V . =) Fur an+1 ; : : : ; am gilt jeweils: aj 2 L(a1 ; : : : ; an), im Widerspruch zur linearen Unabhangigkeit der Vektoren (a1 ; : : : ; am ). q.e.d. Wenn man also entscheiden will, ob ein Tupel aus r Vektoren in V linear unabhangig ist, sollte man zuerst einmal prufen, ob r dim V gilt. Falls nein, sind die r Vektoren auf alle Falle linear abhangig. Beispiel: Vier Vektoren im R 3 sind stets linear abhangig.
13
2.4
Summe zweier Vektorr aume
Aus zwei Untervektorraumen U; W eines Vektorraumes V lat sich durch Addition ein neuer Untervektorraum U + W konstruieren: Die Summe U + W wird de niert als U + W := fu + w j u 2 U; w 2 W g: U + W ist in der Tat ein Untervektorraum von V, denn *
*
* *
*
i) 0 2 U; 0 2 W =) 0 = 0 + 0 2 U + W ii) Mit u1 + w1; u2 + w2 2 U + W und 2 K folgt sofort: + w2}) 2 U + W (u1 + w1) + (u2 + w2 ) = |(u1 {z + u2}) + (|w1 {z 2U
(u1 + w1 ) = |{z} u1 + |{z} w1 2 U + W: 2U
2W
2W
Besonders interessant ist der Fall, wenn U und W moglichst elementefremd sind, d.h. nur den Nullvektor, der ja immer in Untervektorraumen enthalten sein muss, gemeinsam besitzen. Wir de nieren daher: * Gilt fur zwei Untervektorraume U und W U \ W = f 0 g, so heit U + W direkte Summe, und man schreibt U W . Die Brauchbarkeit von direkten Summen beruht darauf, dass sich jeder Vektor aus U W auf eindeutige Weise in einen Vektor aus U und einen Vektor aus W zerlegen lat. Satz: Jeder Vektor v 2 U W lat sich eindeutig darstellen in der Form v = u + w mit u 2 U; w 2 W . Beweis: Angenommen, es gabe zwei Zerlegungen v = u1 + w1 = u2 + w2 ; so folgt: u| 1 {z u}2 = w 2 w1 : | {z } 2U
2
=) =)
W
*
u1 u2 = w2 w1 2 U \ W = f 0 g u1 = u2 ; w2 = w1 :
q.e.d. Veranschaulichung im
R3
=
W : |{z} * * Ebene durch 0 Gerade durch 0 U
|{z}
14
W U w v 1
.0 u
In den Anwendungen stellt sich oft die Aufgabe, zu einem gegebenen Untervektorraum U eines Vektorraums V ein Komplement W so zu nden, dass V = U W . Diese Komplementbildung ist laut folgendem Satz immer moglich, aber nicht eindeutig: Satz: Sei U ein Untervektorraum des Vektorraumes V uber K (dim V = n). Dann gibt es einen (nicht eindeutig bestimmten) Untervektorraum W von V , so dass V = U W . Beweis durch Konstruktion von W : Seien fb1 ; : : : ; br g eine Basis von U und fa1; : : : ; ang eine Basis von V . (Beachte: n r, da U Unterraum von V .) Nach eventueller Umindizierung der ai ist wegen des Austauschsatzes (b1 ; : : : ; br ; a| r+1; {z : : : ; an} ) eine Basis von V . Umbenennung zu br+1 ; : : : ; bn
Wir de nieren nun W := L(br+1 ; : : : ; bn) und weisen nach, dass dann gilt: U W = V : 1) U +W =
=
r P
=1
i n P
i=1
i bi +
n P
i bi i=r+1
i bi j i 2 K
j i; i 2 K
= L(b1 ; : : : ; bn) = V
2) Sei x 2 U \ W =)
x=
=) =)
r P
=)
i=1
r P i=1
i bi
i bi und x = n P
*
i bi = 0
n P i=r+1
i bi
i=r+1 1 = : : : = r = 0 und r+1 = : : : = n = 0; da (b1 ; : : : ; bn )
linear unabhangig ist. * * x = 0 =) U \ W = f 0 g: 15
q.e.d.
Aus obiger Konstruktion des Komplements W lat sich zweierlei ablesen: A) Aus dim V = n und dim U = r folgt (einfach Basis von W abzahlen!): dim W = n r. Dieser Dimensionszusammenhang lat sich auf beliebige direkte Summen verallgemeinern, d.h. es gilt stets: dim U W = dim U + dim W: B) Der zu U komplementare Untervektorraum W ist nicht eindeutig bestimmt, sondern hangt davon ab, auf welche Weise wir die Basis (b1 ; : : : ; br ) von U zu einer Basis des (Gesamt-)Vektorraums V erganzen (siehe 1. Teil des Beweises). Beispiel: Sei V = R 3 ; U = L(e1 ; e2 ). W2
W1
e3 =(0,0,1) e2 =(0,1,0) U= "1−2−Ebene" e1 =(1,0,0)
Wahlen wir als Basis des R 3 das Tripel (e1 ; e2; e3) (also die Standardbasis), d.h. [in der Nomenklatur des Beweises] a3 = (0; 0; 1), so erhalten wir W1 = L(e3 ) = f(0; 0; ) j 2 R g. Wahlen wir dagegen (e1 ; e2; a3 = (0; 1; 1)) als Basis von V , so erhalten wir W2 = L(a3 ) = f(0; ; ) j 2 R g . Allgemein konnen wir (e1; e2 ) durch einen beliebigen Vektor a3 = (a; b; c) mit c 6= 0 zu einer Basis von V erganzen. Bei einer solchen Basiswahl ergibt sich das Komplement W zu W = L(a3 ) = f (a; b; c) j 2 R g.
16
2.5
Lineare Abbildungen
2.5.1 De nition und elementare Eigenschaften Seien V und W zwei Vektorraume uber K . Unter den (beliebigen) Abbildungen f : V ! W sind diejenigen besonders interessant, die mit den Vektorraumverknupfungen "+\ und "\ in V und W "vertraglich\ sind. Vertraglichkeit mit "+\ bedeutet, dass es gleichgultig ist, ob wir zwei Vektoren in V erst addieren und dann die Summe nach W abbilden oder ob wir die Vektoren erst separat nach W abbilden und dann ihre Bilder addieren, kurz:
(H1)
f (x + y ) = f (x) + f (y )
"
"
" + \ in V
y
.
. .x
x+y
8 x; y 2 V
" + \ in W
.
f(x+y)
f
. f(y)
+
.f(x)
W
V
Erinnern wir uns an Abschnitt 1.6, so konnen wir dies noch vornehmer ausdrucken: Eigenschaft (H1) heit, dass f ein Gruppen-Homomorphismus bezuglich der durch die Addition erzeugten Gruppenstruktur auf V und W ist. Wenn eine Abbildung f : V ! W daruber hinaus auch die skalare Multiplikation in V bzw. W respektiert, d.h. wenn neben (H1) auch gilt: (H2) f ( z)
"
skalare Multipl. in V
= f (z) 8 z 2 V; 2 K ;
"
skalare Multipl. in W
so heit f lineare Abbildung oder (Vektorraum-)Homomorphismus.
17
. .x
x+y y
.
f(y)
.
.
0
f
λ.z
V
.
1
1 0
. z
.
f(x+y)=f(x) + f(y)
f
W
.
. f(x)
f(z)
. f( λ . z)= λ . f(z)
Wissen wir von einer Abbildung f : V ! W , dass sie linear ist, so konnen wir uber f bereits weitreichende Aussagen treen: (L1) * * f (0V ) = 0W ; * * wobei 0V bzw. 0W die Nullvektoren in V bzw. W bezeichnen. Dies folgt direkt aus der entsprechenden Aussage fur Gruppen-Homomorphismen f : G ! H (siehe Abschnitt 1.6): "Das neutrale Element eG von G wird auf das * neutrale Element eH von H abgebildet: f (eG) = eH .\ (Beachte: Der Nullvektor 0 ist ja nichts anderes als das neutrale Element bezuglich der inneren Verknupfung "+\.) (L2) f bildet linear abhangige Vektoren auf linear abhangige Vektoren ab. Beweis: Seien a1; : : : ; ak linear abhangige Vektoren von V , so existieren Skalare k * P i 2 K (i = 1; : : : ; k), die nicht alle gleich 0 sind, so dass i ai =0V . i=1 k k * * P P Wegen f i ai = i f (ai ) = f (0V ) =0W sind die Bildvektoren f (ai ) ebeni=1 i=1
falls linear abhangig. q.e.d. Bemerkung: Was f aus linear unabhangigen Vektoren macht, kann man dagegen nicht allgemein (d.h. fur beliebige lineare Abbildungen f ) sagen, siehe spater. (L3) Sei U ein (beliebiger) Untervektorraum von V . Dann ist das Bild von U unter f; f (U ), ein Untervektorraum von W mit dim f (U ) dim U . Beweis:
) Wegen f (0V ) = 0W 2 f (U ) ist f (U ) nicht leer. ) Abgeschlossenheit gegenuber "+\ und "\: Seien f (x); f (y) 2 f (U ), d.h. x; y 2 U . Dann gilt: f (x) + f (y) = f (x + y) 2 f (U ) | {z } 2U
18
8 ; 2 K :
) Linear abhangige Vektoren bleiben unter f linear abhangig. Daher kann sich die
Maximalzahl linear unabhangiger Vektoren nicht erhohen (sondern hochstens verringern) =) dim f (U ) dim U .
Die Forderung der Linearitat ist so stark, dass eine lineare Abbildung f : V ! W (mit dim V = n) bereits durch n Bildvektoren, namlich die "Basisbilder \, vollstandig festgelegt ist: Satz: Sei (v1 ; : : : ; vn) eine Basis von V . Dann ist jede lineare Abbildung f : V ! W durch die Angabe der Bilder f (vi ) = wi 2 W der n Basisvektoren eindeutig festgelegt. Beweis: Jeder Vektor v 2 V lat sich eindeutig schreiben als Linearkombination n P v = i vi . Fur sein Bild gilt: i=1
f (v ) = f
n P i=1
i vi =
n P i=1
i f (vi ) =
n P i=1
i wi .
q.e.d. Bemerkung: Die Basisbilder konnen beliebig gewahlt werden und brauchen insbesondere nicht linear unabhangig zu sein. Der Satz und die Bemerkung lassen sich zu folgender Aussage zusammenfassen: Seien (v1 ; : : : ; vn) eine Basis von V . Dann gibt es zu jedem n-Tupel (w1; : : : ; wn) von Vektoren aus W genau eine lineare Abbildung f : V ! W mit f (vi) = wi fur i = 1; : : : ; n. Aussagen dieses Typs ("es gibt genau ein : : : \) sind in der Mathematik hau g anzutreen und heien auch Existenz-("es gibt ein : : : \) und Eindeutigkeits-("es gibt hochstens ein : : : \)-Aussagen. 2.5.2 Bild und Kern
Erinnern wir uns: Jeder Gruppen-Homomorphismus f : G ! H (G und H seien Gruppen) de niert in naturlicher Weise Untergruppen von G und H , die fur die Abbildung charakteristisch sind, namlich Kern (f ) = f 1(feH g) als Untergruppe von G und Bild (f ) = f (G) als Untergruppe von H: An eine lineare Abbildung - die ja ein Spezialfall eines Gruppen-Homomorphismus ist sind strengere Forderungen gestellt als an einen allgemeinen Gruppen-Homomorphismus (namlich: Vertraglichkeit auch mit der Skalarmultiplikation). Daher ist es nicht verwunderlich, dass auch Kern und Bild einer linearen Abbildung f : V ! W nicht nur Untergruppen von V bzw. W bezuglich der Verknupfung "+\ sind, sondern sogar (fur diese Abbildung charakteristische) Untervektorraume. Konkret de nieren wir (in U bereinstimmung mit der entsprechenden De nition fur GruppenHomomorphismen) fur eine lineare Abbildung f : V ! W (V und W seien Vektorraume
19
uber K ) *
Kern (f ) = fv 2 V j f (v) = 0W g Bild (f ) = f (V ) = ff (v) j v 2 V g Rang (f ) = dim Bild (f ) und stellen fest: (A) Kern (f ) ist ein Untervektorraum (kurz: Unterraum) von V (B) Bild (f ) ist ein Unterraum von W . Aussage (B) folgt direkt aus Aussage (L3) (setze einfach U = V ). Der Nachweis von (A) bleibt dem Horer/Leser als kleine U bung selbst uberlassen. 2.5.3 Projektionsabbildungen
Aus verschiedenen Situationen ist uns der Begri "Projektion\ wohlvertraut. Beispielsweise zeigt ein Bauplan verschiedene Projektionen des 3D-Objektes "Haus\ auf die Zeichenebene. Im Lichte unserer frisch erworbenen Kenntnisse konnen wir nun Projektionen als spezielle lineare Abbildungen de nieren. De nition: Seien U und W zwei Unterraume des Vektorraumes V mit U W = V , d.h. fur jedes v 2 V existiert eine eindeutige Zerlegung v = u + w mit u 2 U und w 2 W . Dann heit die lineare Abbildung PU :
V = U W v = u+w
! V 7 u !
Projektionsabbildung (auf U langs W ) oder kurz Projektion.
Veranschaulichung: W U v
.0
1
w
u = Pu v
parallele Gerade zu W
20
Bemerkungen: (1) Der Nachweis der Linearitat von PU sei dem Horer/Leser als (kleine) U bung angeraten. (2) Aus der De nition folgen die Eigenschaften: ) Kern PU = W ) Bild PU = U = fv 2 V j PU (v ) = v g (alle Vektoren aus U bleiben durch PU unverandert)
) (PU Æ PU )(v ) = PU (v ) 8 v 2 V , d.h. PU Æ PU = PU . (3) Die Eigenschaften ( ) und ( ) sind kennzeichnend fur Projektionen, d.h. fur eine lineare Abbildung P : V ! V sind folgende drei Aussagen aquivalent: (P1) P ist Projektionsabbildung (P2) Bild P = fv 2 V j P (v) = vg (P3) P Æ P = P 2.5.4 Injektive lineare Abbildungen
Wir erinnern uns (siehe Abschnitt 1.3): Eine (allgemeine) Abbildung g heit injektiv, wenn aus g(x) = g(y) folgt x = y (d.h. jeder Bildpunkt hat nur einen Urbildpunkt). Wodurch zeichnen sich nun injektive lineare Abbildungen aus? *
(I1) Eine lineare Abbildung f : V ! W ist genau dann injektiv, wenn Kern (f ) = f0V g. Beweis: () Sei f injektiv. Fur jedes v 2* Kern (f ) gilt f (v) = 0W* = f (0V ). Die Injektivitat liefert v = 0V , so dass Kern (f ) = f0V g. * ( ) Sei Kern (f ) = f0V g. * * Wegen f (x) = f (y) () f (x) f (y) = 0W () f (|x {z y}) = 0W *
2 Kern (f )
gilt dann: f (x) = f (y) =) x y = 0 bzw. x = y. q.e.d. (I2) Jede injektive lineare Abbildung erhalt die Dimension, d.h. sie fuhrt linear unabhangige Vektoren in linear unabhangige Vektoren uber. Beweis: Seien (v1 ; : : : ; vn) linear unabhangige Vektoren aus V und die lineare Abbildung f : V ! W injektiv. Zu untersuchen ist die lineare Unabhangigkeit der Bildvektoren f (v1); : : : ; f (vn):
21
Aus
n X i=1
|
*
i f (vi ) =0W folgt {z
f(
n X i=1
|
}
i vi )
{z
}
2 Kern(f )
n P
wegen der Injektivitat (() Kern (f ) = f0V g): ivi = 0V . Da die vi 's linear i=1 unabhangig sind, folgt daraus 1 = : : : = n = 0. q.e.d. (I3) Da auch die Umkehrung von (I2) gilt, ergibt sich insgesamt: Die injektiven linearen Abbildungen sind genau die dimensionserhaltenden linearen Abbildungen, d.h. f : V ! W injektiv () dim Bild (f ) = dim V . Bijektive lineare Abbildungen heien auch (Vektorraum-)Isomorphismen. Zwei Vektorraume V und W heien isomorph, wenn es einen Isomorphismus von V auf W gibt. Da ein Isomorphismus eine Eins-zu-Eins-Zuordnung sowohl der Elemente wie auch der Verknupfungsstruktur zwischen diesen Elementen vornimmt, konnen wir zwei isomorphe Vektorraume als gleich bis auf (elementweise) Umbenennung ansehen. Ein Beispiel fur einen Isomorphismus ist die Koordinatenabbildung zwischen dem Raum der Ortsvektoren und dem R 3 (siehe Abschnitt 2.3). Wir wissen bereits, dass jede (beliebige) lineare Abbildung f : V ! W durch die Angabe der Basisbilder eindeutig festgelegt ist (und dass zu jeder Wahl von Basisbildern eine lineare Abbildung f existiert/gehort). Sei nun (v1 ; : : : ; vn) eine Basis von V , so gilt: f : V ! W ist genau dann ein Isomorphismus, wenn f (v1); : : : ; f (vn) eine Basis von W ist. Daraus konnen wir eine wichtige Folgerung ableiten: Satz: Je zwei n-dimensionale Vektorraume uber K sind isomorph. Beweis: Wahle in V eine Basis (v1 ; : : : ; vn ) und in W eine Basis (w1 ; : : : ; wn) und de niere eine lineare Abbildung f durch f (vi) = wi 8 i = 1; : : : ; n. Laut obiger Aussage ist f ein Isomorphismus.
q.e.d. Beispielsweise sind also alle n-dimensionalen Vektorraume uber dem Korper R isomorph zu R n . Um "lineare Vorgange\ in einem beliebigen n-dimensionalen Vektorraum uber R zu studieren, genugt es also, sich den "ubersichtlichen\ R n anzusehen. 2.5.5 Der Vektorhomomorphiesatz
Wir wissen bereits, dass bei einer linearen Abbildung die Dimension, d.h. die Maximalzahl linear unabhangiger Vektoren, geringer werden kann. Soeben haben wir gesehen, dass fur jede dimensionserhaltende lineare Abbildung f gilt: Kern (f ) = f0g. Im Umkehrschluss muss also gelten: Der Kern einer linearen Abbildung, die die Dimension verringert, hat die Dimension 1. 22
Dass Kern(f ) tatsachlich ein Ma fur den Verlust an linearer Unabhangigkeit (durch f ) ist, ist ein Teilaspekt des folgenden Satzes, der die allgemeine Struktur einer linearen Abbildung angibt: Vektorhomomorphiesatz: Seien V und W Vektorraume uber K und f : V ! W eine lineare Abbildung. Wir wahlen einen Unterraum U von V so, dass V = U Kern (f ) (beachte: U nicht eindeutig, kann also verschieden gewahlt werden). PU sei die Projektion auf U und f jU : U ! f (V ) W die Restriktion (Einschrankung) von f auf U .
Dann gilt (a) f = f jU Æ PU , d.h. die Abbildungen f : V ! f (V ) W und f jU Æ PU : V ! U ! f (V ) W stimmen punkteweise uberein, wobei (b) f jU den Unterraum U (von V ) isomorph auf f (V ) (= Unterraum von W ) abbildet. Anders ausgedruckt: Eine beliebige lineare Abbildung f : V ! W lat sich zerlegen in einen trivialen Anteil f jKern (f ) 0 (Nullabbildung), und einen injektiven Anteil f jU , der U isomorph auf f (V ) W abbildet. Eine suggestive Form, einen solchen Sachverhalt darzustellen, ist ein "kommutatives Diagramm\: f
V
f (V) − W
PU
f | U : Isomorphismus U
Veranschaulichung: Kern (f)
.
v
f
| Kern (f)
. . 0w
U
0V
.
.
u
f(u)=f(v)
f
|U
23
f(V) = f(U)
Aus V = U Kern(f ) folgt dim V = dim U + dim Kern(f ). Da wegen der Isomorphie von f jU gilt: dim U = dim f (V ) = dim Bild (f ), erhalten wir als wichtige Folgerung aus dem Vektorhomomorphiesatz: dim V = dim Bild (f ) + dim Kern(f ) 2.5.6 Der Raum der Homomorphismen V und W seien zwei gegebene Vektorraume uber K .
Wir betrachten nun die Menge aller (Vektorraum-)Homomorphismen (=linearen Abbildungen) von V nach W , in Kurzschreibweise: Hom (V; W ). Mit welchen Verknupfungsstrukturen konnen wir diese Menge ausstatten? Seien f und g Abbildungen aus Hom (V; W ). Da die Bilder f (v) (fur v 2 V ) als Elemente des Vektorraums W addiert und mit Skalaren multipliziert werden konnen, konnen wir diese Verknupfungen muhelos auf die Abbildungen selbst ubertragen: Wir de nieren argumentweise (d.h. fur jedes einzelne Funktionsargument v 2 V ) eine innere Verknupfung (Addition) 8 ! Hom (V; W ) < Hom (V; W ) Hom (V; W ) +:: (f; g) 7! f + g mit (f + g)(v) := f (v) + g(v) 8 v 2 V und eine Multiplikation mit einem Skalar (aus K ) 8 Hom (V; W ) ! Hom (V; W ) < K :: (; f ) 7! f mit ( f )(v) := f (v) 8 v 2 V: Der Nachweis, dass f + g und f wieder lineare Abbildungen sind, dass also tatsachlich gilt f + g 2 Hom (V; W ) und f 2 Hom (V; W ) wie oben geschrieben, sei dem Leser als kleine U bung empfohlen. Da wir beide Verknupfungen argumentweise auf die entsprechenden Verknupfungen in W zuruckgefuhrt haben, ubertragt sich die Vektorraumstruktur von W auf den Raum der linearen Abbildungen: Satz: Hom (V; W ) wird mit obigen Verknupfungen selbst zu einem Vektorraum uber K . (Beweis ! U bung fur den Leser). Der Nullvektor in Hom (V; W ) ist die Nullabbildung 0:
! W 7 ! 0W 8 v 2 V;
V v
das zu f inverse Element (bezuglich der Addition) die Abbildung f:
V v
! W 7 ! f (v ):
24
Bemerkung: Die eben vorgestellte Ausstattung der Menge Hom (V; W ) mit einer Vektorraumstruktur ist der entsprechenden Konstruktion in Abb (X; R ), also der Menge der Abbildungen einer (beliebigen) Menge X in die reellen Zahlen, eng verwandt, siehe Abschnitt 2.1.2 . Lineare Abbildungen, die von einem Vektorraum V (uber K ) in denselben Vektorraum V fuhren [also: Elemente von Hom (V; V )], werden auch als Endomorphismen uber V bezeichnet. Da fur f 2 Hom (V; V ) die Bilder f (v) wieder in V liegen, konnen wir einen zweiten Endomorphismus dahinterschalten. Auf der Endomorphismenmenge Hom (V; V ) lat sich also in Form der Hintereinanderschaltung eine zweite innere Verknupfung angeben: Hom (V; V ) Hom (V; V ) ! Hom (V; V ) (g; f ) ! 7 gÆf Æ:: mit (g Æ f )(v) := g(f (v)) 8 v 2 V 8
j ist. oberhalb unter− halb Hauptdiagonale
Matrizen des folgenden Typs haben ablesbaren Rang: Ist A eine Matrix mit m Zeilen, so dass die ersten r Hauptdiagonalelemente ungleich 0, die letzten m r Zeilen und alle Elemente unterhalb der Hauptdiagonalen aber gleich 0 sind, so ist Rang (A) = r. 0
Also:
A=
B B B B B @
1
a11 : : :
C 0 ... C C ... ... C =) Rang (A) = r C 0 : : : 0 arr : : : A 0
Beweis: Weglassen der letzten m r Zeilen andert den Rang nicht. Die ersten r Zeilen sind linear unabhangig, denn aus 1 (erste Zeile )+2 (zweite Zeile) + : : : + r (r-te Zeile) = 0 folgt 1 = 0 (wegen a11 6= 0), 2 = 0 (wegen a22 6= 0) usw. q.e.d. Das Verfahren zur Bestimmung des Ranges einer Matrix reduziert sich nun auf die Frage: Wie bringen wir die Matrix durch elementare Umformungen auf die obige Form? Sei A 2 K (m;n) bereits in der links gezeigten Gestalt: 36
n a11 k−1 m−k+1
0
..
a11
*
.a
0
k−1, k−1
0 k−1
.. 0
B
. ak−1, k−1 a~ kk
0
* * ~ B
n−k+1
Ist B = 0 (Nullmatrix), so ist Rang (A) = k 1. Ist B 6= 0, so gibt es ein aij 6= 0 mit i k und j k (d.h. aij aus Teilmatrix B ). Vertauscht man in A die i-te und k-te Zeile und dann die j-te und k-te Spalte, so erhalt man eine Matrix A~ mit a~kk = aij 6= 0. Durch elementare Zeilenumformungen vom Typ (3) kann A~ auf die rechts gezeigte Gestalt gebracht werden. Beginnt man dieses Verfahren bei k = 0 (d.h. die Ausgangsmatrix muss keinerlei besondere Gestalt aufweisen) und setzt es solange fort, bis die Restmatrix B~ entweder Null oder mangels Zeilen bzw. Spalten nicht mehr vorhanden ist, so erhalt man eine Matrix mit ablesbarem Rang (= Rang der Ausgangsmatrix!). Wenden wir uns nun speziell den Isomorphismen (genauer: Automorphismen) K n ! K n zu. Die zugehorigen Matrizen liegen klarerweise in K (n;n) , sind also quadratisch. Was zeichnet sie noch aus? Wir erinnern uns: Eine lineare Abbildung A : K n ! K n ist genau dann ein Isomorphismus, wenn die Vektoren A(e1 ); : : : ; A(en) eine Basis des K n bilden. Die n Spalten der zum Isomorphismus A gehorigen Matrix A formen also eine Basis, d.h. sie sind linear unabhangig. Wir fuhren zunachst einen Namen ein: Eine quadratische Matrix A 2 K (n;n) heit invertierbar, wenn die zugehorige lineare Abbildung ein Isomorphismus ist. Die Matrix der Umkehrabbildung heit dann die zu A inverse Matrix und wird mit A 1 bezeichnet. Die obigen U berlegungen ergeben den Satz: Eine quadratische Matrix A 2 K (n;n) ist genau dann invertierbar, wenn sie maximalen Rang besitzt, d.h. wenn Rang (A) = n. Bemerkung: Eine (n n)-Matrix A mit Rang (A) = n wird auch regular oder nichtsingular genannt. Da die regularen (n n)-Matrizen und die Automorphismen K n ! K n eins-zu-eins einander zugeordnet werden konnen und auch die Verknupfungen (Addition, Skalarmultiplikation und Matrizenmultiplikation bzw. Hintereinanderausfuhrung der zugehorigen Automorphismen) einander genau entsprechen, ubertragt sich unser Wissen uber Automorphismen K n ! K n sofort auf die regularen Matrizen ( K (n;n) ): (a) Eine Matrix besitzt hochstens eine Inverse. 37
0
(b) A invertierbar =) A 1 A = A A 1 = E , wobei E := B @
1
...
0
1 C A
die Matrix zur
0 1 Identitatsabbildung ! ist. [E wird auch (n n)-Einheitsmatrix genannt.] (c) Ist A invertierbar, so auch A 1 , und es gilt: (A 1) 1 = A. (d) Aus dem Diagramm Kn
Kn
AB
IK
n
B IK
n
B −1
A IK n A
−1
B−1 A −1
entnimmt man sofort:
(AB ) 1 = B 1 A 1
(e) Das Analogon zur Gruppe der Automorphismen (bezuglich des Hintereinanderausfuhrens) ist die Gruppe der regularen (n n)-Matrizen bezuglich der Matrizenmultiplikation. Wir notieren noch zwei weitere Rechenregeln fur regulare Matrizen aus K (n;n) : (AT ) 1 = (A 1 )T (An) 1 = (A 1 )n 8 n 2 N ; wobei die n-te Potenz von A de niert ist als An := A :{z: : A} (mit A0 := E ). | n mal 2.6.5 Determinanten
In diesem Abschnitt betrachten wir nur quadratische Matrizen, also Matrizen aus K (n;n) . Gegeben sei also A 2 K (n;n) . Da z.B. die Existenz von A 1 davon abhangt, ob A maximalen Rang n hat, ware ein einfaches Kriterium wunschenswert, das anzeigt, ob Rang (A) = n erfullt ist. Dieser Wunsch fuhrt uns auf die sog. Determinante jAj 2 K , eine Zahl, die sich jeder quadratischen Matrix A uber K zuordnen lat. Vorweg zwei Beobachtungen: () Eine (n n)-Matrix besteht aus n Spaltenvektoren (jeweils aus K n ). Daher konnen wir K (n;n) und das kartesische Produkt K| n :{z: : K n} (d.h. die Menge von n-Tupeln n mal aus Vektoren des K n ) miteinander identi zieren. 38
( ) Maximaler Rang von A ist aquivalent zur linearen Unabhangigkeit der Spalten von A. Was wir suchen, ist also eine Groe, die einem Tupel von n Vektoren des K n - etwa Spaltenvektoren einer Matrix - zugeordnet ist und die durch ihren Wert anzeigt, ob dieses Tupel von Vektoren linear unabhangig ist oder nicht. Daruber hinaus sollte die Groe linear von jedem der Vektoren des Tupels abhangen und in einer naheliegenden Weise normiert sein. Genau dies leistet die im folgenden de nierte Determinanten-Funktion. De nition: Die Funktion det : K| n :{z: : K n} ! K n mal mit den Eigenschaften (a) det(x1; x2 ; : : : ; xn) = 0 genau dann, wenn (x1; x2 ; : : : ; xn ) linear abhangig, (b) det(x1; : : : ; xn) ist multilinear, d.h. linear in jedem Faktor: det(x + y; x2; : : : ; xn) = det(x; x2 ; : : : ; xn) + det(y; x2; : : : ; xn) ; analog fur x2 ; : : : ; xn, (c) det(e1; : : : ; en) = 1, wobei (e1 ; : : : ; en) die Standardbasis des K n ist, heit Determinantenfunktion auf K n : : : K n . Sind insbesondere die Vektoren xi Spaltenvektoren einer (n n)-Matrix A = (aij ), so heit det(: : : ) die Determinante von A und wird in der Form det A := jAj := 0
a1i
. geschrieben, wobei mit ai := B @ ..
ani
a11 : : : a1n
...
...
an1 : : : ann
:= det(a1; : : : ; an)
1 C A
2 K n die Spaltenvektoren von A bezeichnet sind.
Fur den Moment wollen wir annehmen, dass eine derartige Funktion tatsachlich existiert, und einige Folgerungen aus den Eigenschaften (a) bis (c) ableiten. (1) Aus (a) folgt insbesondere, dass det(x1 ; : : : ; xn) = 0, wenn zwei der im Argument enthaltenen Vektoren gleich sind. (2) Addiert man zu einem Vektor im Argument eine Linearkombination der ubrigen Vektoren, so andert sich det(x1 ; : : : ; xn) nicht.
39
Beweis: Wegen (b) gilt:
0
1
B B B @
det x1 ; : : : ; xi +
n P j =1 j 6=i
C C nC A
j xj ; : : : ; x
= det(x1 ; : : : ; xi ; : : : ; xn) + det(x1; : : : ;
=
X
j 6=i
|
j xj ; : : : ; xn ) =
{z
}
Linearkombination der Vektoren x1 ; : : : ; xi 1 ; xi+1 ; : : : ; xn
= det(x1 ; : : : ; xn) wegen (a). (3) Bei Vertauschung zweier Vektoren im Argument wechselt die Determinantenfunktion ihr Vorzeichen: det(x1 ; : : : ; xi ; : : : ; xk ; : : : ; xn) = det(x1 ; : : : ; xk ; : : : ; xi ; : : : ; xn) Der Beweis beruht auf wiederholter Anwendung von Eigenschaft (2): det(x1 ; : : : ; xi; : : : ; xk ; : : : ; xn) = det(x1 ; : : : ; xi + xk ; : : : ; xk ; : : : ; xn) = det(x1 ; : : : ; xi + xk ; : : : ; xk (xi + xk ); : : : ; xn) = det(x1 ; : : : ; (xi + xk ) xi; : : : ; xi ; : : : ; xn) = det(x1; : : : ; xk ; : : : ; xi; : : : ; xn) wegen(b). (4) Sei eine Permutation der Zahlen (1; 2; : : : ; n) mit dem Signum sgn(), de niert als sgn() = ( 1)Z , Z = Zahl der benotigten Paarvertauschungen, um aus der Ausgangsreihenfolge (1; : : : ; n) die Permutation ((1); : : : ; (n)) zu erzeugen. Dann folgt aus (3) unmittelbar: det(e(1) ; e(2) ; : : : ; e(n) ) = sgn() det(e1 ; e2; : : : ; en) (c) = sgn(): Dass eine Determinantenfunktion mit den Eigenschaften (a) bis (c) wirklich existiert, weisen wir nun nach, indem wir sie explizit konstruieren. * * Wir berechnen also*- mit Hilfe der Eigenschaften (a) bis (c) det( x1 ; : : : ; xn ) fur n beliebige Vektoren *x1 ; : : : ; x*n 2 K n : Interpretation der xi als Spaltenvektoren einer (n n)-Matrix ergibt 0
*
det(x1; : : :
* ; xn
) = det
B B B B B @
x11
...
(b)
=
j j j j j
x1n
...
xn1 xnn * KoeÆzienten von x1 bezuglich der Standardbasis |{z}
= det
j j j ::: j j
n P k1 =1
xk 1 ek : : :
n P k1 ;k2 ;::: ;kn =1
1
1
n P
kn =1
xkn n ekn
1 C C C C C A
=
xk 1 xk 2 : : : xkn n det(ek ; : : : ; ekn ) 1
2
1
40
(zur Indizierung: Die insgesamt n voneinander unabhangig durchzufuhrenden Summationen erfordern n verschiedene Summationsindices, hier: k1 ; : : : ; kn). Nehmen fur einen der insgesamt nn Summanden zwei der Indices k1; k2; : : : ; kn den gleichen Wert an, dann gilt wegen (1): det(ek ; : : : ; ekn ) = 0 [gleicher Basisvektor kommt zweimal vor!]. Einen Beitrag liefern also nur diejenigen Summanden, bei denen die Indices k1; : : : ; kn alle verschieden sind. Dies bedeutet: Wir mussen uber alle n! Permutationen der Zahlen (1; 2; : : : ; n) summieren: det(x*1; : : : ; x*n) = P = x(1)1 x(2)2 : : : x(n)n det(e(1) ; e(2) ; : : : ; e(n) ) 1
=
P
sgn() x(1)1 x(2)2 : : : x(n)n
Dass die so de nierte Determinantenfunktion auch tatsachlich die Bedingungen (a) bis (c) erfullt, sei dem Leser als U bung uberlassen. Fur den Spezialfall der Determinante einer Matrix lautet das obige Resultat (sogenannte Determinantenform von Leibniz): det A =
a11 : : : a1n
...
...
an1 : : : ann
=
X
sgn() a(1)1 : : : a(n)n ;
wobei uber alle Permutationen der Zahlen (1; 2; : : : ; n) zu summieren ist. Wie sieht nun det A explizit aus? A 2 K (1;1) : det A = ja11 j = a11
A 2 K (2;2) : det A = aa11 aa12 = 21 22
; 1) a21 a12 = |sgn(1 ; 2) a11 a22 + sgn(2 {z } | {z } +1
1
= a11 a22 a21 a12 Schema:
+
− a 11
a 12
a 21
a 22
41
A 2 K (3;3) : Wir listen zunachst die Permutation auf,
sgn()
123 132 231 213 312 321
+1 1 +1 1 +1 1
1 !2 !2 2 !1 !3 3 !3 !1 > > : | {z } | {z } 8 > >