Skript zur Vorlesung ,,Stochastische Analysis” Version vom 04.05.2004 J. Creutzig
i
Inhaltsverzeichnis I
Stochastisc...
22 downloads
613 Views
437KB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Skript zur Vorlesung ,,Stochastische Analysis” Version vom 04.05.2004 J. Creutzig
i
Inhaltsverzeichnis I
Stochastische Prozesse
1
1
Grundlegende Definitionen . . . . . . . . . . . . . . . . . . . . . . . . .
1
1.1
Stochastische Prozesse und Filtrationen . . . . . . . . . . . . . .
1
1.2
Stopzeiten . . . . . . . . . . . . . . . . . . . . . . . . . . . . . .
4
1.3
Bedingte Erwartungen . . . . . . . . . . . . . . . . . . . . . . .
7
2
Der Poisson-Prozeß . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
3
Martingale . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
4
3.1
Martingale in diskreter Zeit . . . . . . . . . . . . . . . . . . . . 15
3.2
Martingale in stetiger Zeit . . . . . . . . . . . . . . . . . . . . . 19
Der Kolmogorovsche Konsistenzsatz . . . . . . . . . . . . . . . . . . . . 29
II Brownsche Bewegung
34
1
Eine Konstruktion der Brownschen Bewegung . . . . . . . . . . . . . . 36
2
Das Wiener Maß und das Donskersche Invarianzprinzip . . . . . . . . . 38
3
4
2.1
Das Wiener-Maß . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.2
Schwache Konvergenz . . . . . . . . . . . . . . . . . . . . . . . . 39
2.3
Das Donskersche Invarianzprinzip . . . . . . . . . . . . . . . . . 41
Markov-Eigenschaft der Brownschen Bewegung 3.1
Mehrdimensionale Brownsche Bewegung . . . . . . . . . . . . . 43
3.2
Markov-Prozesse . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3
Starke Markov-Eigenschaft und Spiegelungsprinzip . . . . . . . 45
3.4
Brownsche Filtrationen . . . . . . . . . . . . . . . . . . . . . . . 47
Pfadeigenschaften der Brownschen Bewegung . . . . . . . . . . . . . . . 48
III Stochastische Integration 1
. . . . . . . . . . . . . 42
50
Konstruktion des stochastischen Integrals . . . . . . . . . . . . . . . . . 50 1.1
Integral f¨ ur einfache Prozesse . . . . . . . . . . . . . . . . . . . 50
1.2
Fortsetzung des Integrals . . . . . . . . . . . . . . . . . . . . . . 52
2
Die Ito-Formel . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3
Die geometrische Brownsche Bewegung . . . . . . . . . . . . . . . . . . 64 ii
Kapitel I Stochastische Prozesse Literatur: Karatzas, Shreve (1999, Chap. 1).
1
Grundlegende Definitionen
1.1
Stochastische Prozesse und Filtrationen
Wir wollen eine klassische Art von stochastischen Prozessen untersuchen, n¨amlich solche, die als zeitliche Evolutionen eines zuf¨alligen Systemes angesehen werden k¨onnen. Hierzu wird der Begriff der Filtration und eines adaptierten Prozesses eingef¨ uhrt.
Definition 1. Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ), Meßraum (S, S) sowie Menge I. (i) Stochastischer Prozeß mit Zustandsraum (S, S) und Parametermenge I: Familie X = (Xt )t∈I von A-S-meßbaren Abbildungen1 Xt : Ω → S. (ii) Trajektorie (Pfad, Realisierung) von X: Abbildung I → S, t 7→ Xt (ω) mit festem ω ∈ Ω. Beispiel 1. (i) I = N: Grenzwerts¨atze der Stochastik. (ii) I = {1, . . . , n}2 : Bildverarbeitung, siehe Winkler (1995). (iii) I = Zd : statistische Physik, siehe Georgii (1988). (iv) I = Rd : Geostatistik, siehe Cressie (1993). 1
Alternative Schreibweisen: X(t), X(t, ·).
1
Fortan,2 falls nicht anders erw¨ahnt, nehmen wir an, daß I ⊂ R,
S = Rd ,
S = B(Rd ) Borelsche σ-Algebra.
Wichtigster Fall ist hierbei I = [0, t0 ] bzw. I = [0, ∞[ . Ab jetzt seien stets gegeben: Prozesse X = (Xt )t∈I und Y = (Yt )t∈I auf (Ω, A, P ). Definition 2. (i) X und Y ununterscheidbar, falls P -f.s.3 ∀t∈I:
Xt = Yt .
(ii) Y Modifikation (Version) von X, falls ∀t∈I:
P ({Xt = Yt }) = 1.
(iii) X und Y besitzen dieselben endlich-dimensionalen Randverteilungen, falls4 ∀ B ∈ B(Rnd ) :
∀ n ∈ N ∀ t1 , . . . , tn ∈ I
P ({(Xt1 , . . . , Xtn ) ∈ B}) = P ({(Yt1 , . . . , Ytn ) ∈ B}). Bemerkung 1. Offenbar gilt (i) ⇒ (ii) ⇒ (iii). Umkehrungen sind i.A. falsch. Jedoch gilt: (i) ⇔ (ii), falls X und Y P -f.s. rechtsseitig (linksseitig) stetige Pfade besitzen. ˙ Eigenschaft (iii) ist auch sinnvoll, falls X und Y auf verschiedenen Siehe ¨ UbungDie Wahrscheinlichkeitsr¨aumen definiert sind. Definition 3. (i) Filtration: Familie F = (Ft )t∈I von σ-Algebren Ft ⊂ A mit ∀ s, t ∈ I :
s < t ⇒ Fs ⊂ Ft .
(ii) X adaptiert zu Filtration F, falls Xt Ft -S-meßbar f¨ ur alle t ∈ I. (iii) Kanonische Filtration zu X: FX t = σ ({Xs : s ≤ t}) ,
t ∈ I.
Bemerkung 2. Offenbar ist FX die kleinste Filtration, zu der X adaptiert ist. Proposition 1. Gegeben: Menge Ω1 und Meßraum (Ω2 , A2 ). F¨ ur Abbildungen U : Ω1 → Ω2 , V : Ω1 → R sind a¨quivalent 2
Notation: Inklusion ⊂ nicht notwendig strikt. Eigenschaft a gilt P -f.s.: ∃ A ∈ A : P (A) = 1 ∧ A ⊂ {ω ∈ Ω : ω erf¨ ullt a}. 4 Analog f¨ ur Prozesse auf verschiedenen Wahrscheinlichkeitsr¨aumen. 3
2
(i) V ist σ({U })-B(R)-meßbar. (ii) Es existiert eine Abbildung g : Ω2 → R, die A2 –B(R)-meßbar ist mit V = g ◦ U . Beweis. (ii) ⇒ (i): klar. (i) ⇒ (ii): ,,Maßtheoretischer Dreisatz”: Die Behauptung ist offenbar richtig f¨ ur einfache Funktionen V (Summen von gewichteten Indikatorfunktionen); mittels monotoner Limiten erhaelt man dann die Behauptung f¨ ur positive Funktionen V , und durch Zerlegung in Positiv– und Negativteil folgt die Behauptung f¨ ur allgemeines V . Bemerkung 3. Setze5 Ω2 = S [0,t] , A2 = S[0,t] , definiere U : Ω → Ω2 durch (U (ω))(s) = Xs (ω). ¨ Dann σ({U }) = FX ur jede σ-Algebra A0 in Ω gilt (siehe Ubung): t , denn f¨ U A0 -A2 -meßbar
∀ s ∈ [0, t] : Xs A0 -S-meßbar
⇔
⇔
0 FX t ⊂ A.
Somit f¨ ur A ⊂ Ω A ∈ FX t
⇔
∃ B ∈ A2 : A = U −1 (B).
F¨ ur V : Ω → R zeigt Proposition 1, daß V genau dann FX t -B(R)-meßbar ist, wenn ∀ ω ∈ Ω : V (ω) = g X· (ω)|[0,t] mit einer A2 -B(R)-meßbaren Abbildung g : S [0,t] → R. Im folgenden sei I = [0, ∞[. Gegeben: Filtration F = (Ft )t∈I in A. Definition 4. F rechtsseitig stetig, falls ∀t∈I:
Ft =
\
Ft+ε .
ε>0
Bemerkung 4. Offenbar ist f¨ ur jede Filtration F durch \ F∗t := Ft+ε ε>0
eine rechtsstetige Filtration F∗ definiert, die F verfeinert. Definition 5. (i) X meßbar, falls I × Ω → S,
(t, ω) 7→ Xt (ω)
(B(I) ⊗ A)-S-meßbar ist. (ii) X progressiv meßbar (bzgl. F), falls f¨ ur jedes t ≥ 0 die Abbildung [0, t] × Ω → S, (B([0, t]) ⊗ Ft )-S-meßbar ist. 5
Notation S[0,t] =
N
s∈[0,t]
S.
3
(s, ω) 7→ Xs (ω)
Bemerkung 5. Ist X progressiv meßbar, so ist nach dem Satz von Fubini auch f¨ ur jedes feste t die Abbildung Xt (·) : Ω → S auch Ft –S–meßbar; folglich ist X adaptiert. Ferner ist f¨ ur jedes A ∈ S [ {(s, ω) ∈ [0, t] × Ω : Xs (ω) ∈ A} ∈ B([0, t])⊗A , {(t, ω) ∈ I ×Ω : Xt (ω) ∈ A} = | {z } t∈N
und also ist X auch meßbar.
∈B([0,t])⊗Ft
6
Definition 6. Ein stochastischer Prozeß X = (Xt )t≥0 heißt stetig/rechtsseitig stetig/linksseitig stetig, falls f¨ ur jedes ω ∈ Ω der Pfad (Xt (ω))t≥0 stetig/rechtsseitig stetig/linksseitig stetig ist. X heißt cadlag 7 –Prozeß, falls alle Pfade von X jeder Stelle stetig von rechts sind, und einen linksseitigen Grenzwert an jeder Stelle haben. Proposition 2. ⇒
X adaptiert und rechtsseitig (linksseitig) stetig
X progressiv meßbar. (n)
Beweis. Im Falle rechtsseitiger Stetigkeit. Fixiere t > 0, setze I0 ](k − 1)/2n · t, k/2n · t] f¨ ur n ∈ N und k = 1, . . . , 2n . Definiere Xs(n) (ω) = Xk/2n ·t (ω),
(n)
= {0} und Ik
=
(n)
falls s ∈ Ik .
Dann folgt f¨ ur alle ω ∈ Ω und s ∈ [0, t] lim Xs(n) (ω) = Xs (ω).
n→∞
Ferner gilt f¨ ur B ∈ S n
{(s, ω) ∈ [0, t] × Ω :
Xs(n) (ω)
∈ B} =
=
2 [
(n)
{(s, ω) ∈ Ik × Ω : Xk/2n ·t (ω) ∈ B}
k=0 2n [
(n) Ik × {Xk/2n ·t ∈ B} ∈ B([0, t]) ⊗ Ft .
k=0
1.2
Stopzeiten
Oft wird bei Beobachtung eines zuf¨alligen Prozesses auf das Eintreten eines vom Prozeßverlauf abh¨angigen Ereignisses gewartet. Zur Modellierung solcher Ereignisse werden Stopzeiten erkl¨art und untersucht.
Gegeben: Prozeß X = (Xt )t∈I auf Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration F = (Ft )t∈I . Betrachte Abbildungen T : Ω → I ∪ {∞}. 6
Es gilt eine schwache Umkehrung: meßbar und adaptiert ⇒ Existenz einer progressiv meßbaren Modifikation, siehe Karatzas, Shreve (1999, p. 5). 7 Continu ` a droite, limites ` a gauche.
4
Definition 7. (i) T Stopzeit (bzgl. F), falls ∀t∈I:
{T ≤ t} ∈ Ft .
(ii) T optionale Zeit (bzgl. F), falls ∀t∈I:
{T < t} ∈ Ft .
Im folgenden sei I = [0, ∞[. Bemerkung 6. Betrachte die kanonische Filtration FX . Genau dann ist T Stopzeit bzgl. FX , wenn f¨ ur jedes t ∈ I eine Menge B ∈ S[0,t] mit {T ≤ t} = {ω ∈ Ω : X· (ω)|[0,t] ∈ B} existiert, siehe Bemerkung 3. Proposition 3. ⇒
T Stopzeit
T optionale Zeit.
Es gilt ⇔“ im Falle einer rechtsseitig stetigen Filtration. ” Beweis. ⇒“: ” {T < t} =
∞ [ n=1
{T ≤ t − 1/n} ∈ Ft . | {z } ∈Ft−1/n
⇐“: F¨ ur jedes m ∈ N ” {T ≤ t} =
∞ \ n=m
{T < t + 1/n} ∈ Ft+1/m . | {z } ∈Ft+1/n
Mit der Stetigkeitsannahme folgt {T ≤ t} ∈ Ft . Proposition 4. Mit S, T , T1 , . . . sind auch S + T und supn∈N Tn Stopzeiten bzgl. F. Im Falle einer rechtsseitig stetigen Filtration gilt dies auch f¨ ur inf n∈N Tn . Beweis. F¨ ur die Summe. Es gilt {S + T > t} = {S = 0, T > t} ∪{0 < S < t, S + T > t} ∪ {S = t, T > 0} ∪ {S > t} {z } | {z } | {z } | ∈Ft
∈Ft
sowie {0 < S < t, S + T > t} =
[ r∈Q∩]0,t[
5
{r < S < t, T > t − r} ∈ Ft . | {z } ∈Ft
∈Ft
Definition 8. Eintrittszeit in Γ ∈ B(Rd ):8 HΓ (ω) = inf{t ∈ I : Xt (ω) ∈ Γ}. HΓ heißt Deb´ ut– oder Eintrittszeit von X in Γ. Proposition 5. Sei X zu F adaptiert. Dann (i) X rechtsseitig stetig ∧ Γ offen (ii) X stetig ∧ Γ abgeschlossen
⇒ ⇒
HΓ optionale Zeit. HΓ Stopzeit.
Beweis. ad (i): Es gilt {HΓ < t} =
[
[
{Xs ∈ Γ} =
s∈[0,t[
s∈Q∩[0,t[
{Xs ∈ Γ} ∈ Ft . | {z } ∈Fs
ad (ii): Wir f¨ uhren den ε–Saum einer Menge ein: F¨ ur ε > 0 sei Γε := x ∈ Rd : inf |x − y| < ε , y∈Γ
T hierbei sei | · | der euklidische Abstand. Offenbar ist Γε offen, und Γ = n∈N Γ1/n (Γ ist abgeschlossen). Ferner gilt wegen der Stetigkeit von X f¨ ur alle t > 0 und alle ω ∈ Ω: Es existiert ein s ≤ t, sodaß Xs (ω) ∈ Γ ⇔ F¨ ur alle n ∈ N existiert eine Zahl s < t, sodaß Xs (ω) ∈ H1/n . Also ist {HΓ ≤ t} =
\
{HΓ1/n < t} ∈ Ft . | {z } n∈N ∈Ft nach (i)
Bemerkung 7. Der vorige Satz kann viel allgemeiner formuliert und bewiesen werden: Ist die Filtration F rechtsstetig und vollst¨andig (d.h. jede Teilmenge A einer Nullmenge B ∈ Ft geh¨ort auch zu Ft ), und ist X progressiv meßbar, so ist f¨ ur jedes Γ ∈ S die Gr¨oße HΓ eine Stopzeit, vergleiche hierzu [D-M 78], Kapitel IV, Theorem ¨ 50. Umgekehrt kann jede Stopzeit als Deb´ utzeit geschrieben werden, siehe Ubung. Gegeben: Stopzeit T . Definition 9. σ-Algebra der T -Vergangenheit: FT = {A ∈ A : ∀ t ∈ I : A ∩ {T ≤ t} ∈ Ft }. Bemerkung 8. Man rechnet leicht nach, daß FT eine σ-Algebra und T FT -B(I ∪ {∞})-meßbar ist. 8
Wie u ¨blich: inf ∅ = ∞.
6
Betrachte den Prozeß X zur Stopzeit T , XT : {T < ∞} → S,
XT (ω) := XT (ω) (ω),
und den gestoppten Prozeß9 (XT ∧t )t∈I . Proposition 6. Sei X progressiv meßbar. Dann (i) XT ist FT -S-meßbar. (ii) (XT ∧t )t∈I ist progressiv meßbar. Beweis. ad (ii): Fixiere t > 0, setze B = B([0, t]). Die Abbildung [0, t] × Ω → [0, t] × Ω,
(s, ω) 7→ (T (ω) ∧ s, ω)
ist B ⊗ Ft -B ⊗ Ft -meßbar10 . Die Abbildung [0, t] × Ω → S,
(z, ω) 7→ Xz (ω)
ist n.V. B ⊗ Ft -S-meßbar. Betrachte die Komposition. ad (i): Es gilt {XT ∈ B} ∩ {T ≤ t} = {XT ∧t ∈ B} ∩ {T ≤ t} ∈ Ft | {z } | {z } ∈Ft wg. (ii)
∈Ft
f¨ ur B ∈ S.
1.3
Bedingte Erwartungen
Dies ist eine kurze Wiederholung von Stoff aus der Wahrscheinlichkeitstheorie. F¨ ur Beweise verweisen wir auf die angegebene Literatur:
G¨anssler, Stute (1977, Kap. V), Yeh (1995, App. B, C). Gegeben: Zufallsvariable X auf Wahrscheinlichkeitsraum (Ω, A, P ) mit E(|X|) < ∞ sowie σ-Algebra B ⊂ A. Stets Borelsche σ-Algebra auf R. Definition 10. Jede Zufallsvariable Z auf (Ω, A, P ) mit (i) Z ist B-meßbar, R R (ii) ∀ B ∈ B : B Z dP = B X dP heißt (Version der) bedingte(n) Erwartung von X gegeben B. Bez.: Z = E(X | B). Im Falle X = 1A mit A ∈ A heißt Z (Version der) bedingte(n) Wahrscheinlichkeit von A gegeben A. Bez.: Z = P (A | B). 9 10
Notation ∧ f¨ ur min. {T ∧ s ≤ u} = [0, t] × {T ≤ u} ∪ [0, u] × Ω.
7
Proposition 7. Die bedingte Erwartung existiert und ist P -f.s. eindeutig bestimmt11 . Beweis. Spezialfall: X ≥ 0. Durch Z Q(B) =
X dP,
B ∈ B,
B
wird ein endliches Maß auf (Ω, B) definiert. Es gilt Q P |B . Nach dem Satz von Radon-Nikodym existiert eine B-meßbare Abbildung Z : Ω → [0, ∞[ mit Z ∀ B ∈ B : Q(B) = Z dP. B
Der allgemeine Fall wird durch Zerlegung in Positiv- und Negativteil erledigt. R R Zur Eindeutigkeit: Aus B Z1 dP |B = B Z2 dP |B f¨ ur alle B ∈ B folgt Z1 = Z2 P |B f.s. Beispiel 2. Betrachte meßbare Partititon B1 , . . . , Bn von Ω mit P (Bj ) > 0 f¨ ur j = 1, . . . , n. Die erzeugte σ-Algebra B = σ({B1 , . . . , Bn }) ist ( ) [ B= Bj : J ⊂ {1, . . . , n} . j∈J
Es gilt n X
E(X | B)(ω) =
E(X | Bi ) · 1Bi (ω),
ω ∈ Ω,
i=1
wobei E(X | B) =
E(1B · X) P (B)
die elementare bedingte Erwartung von X gegeben B bezeichnet. Extremf¨alle: n = 1, also Ω = B1 und B = {∅, Ω} sowie E(X | B) = E(X). |Ω| = n,
also |Bi | = 1 und A = B = P(Ω) sowie E(X | B) = X.
Die explizite“ Bestimmung von bedingten Erwartungen ist i.a. nicht-trivial. ” Bemerkung 9. Klar: Z E(X | B) dP = E(E(X | B)).
E(X) = Ω
Ferner: E(X | B) = X, falls X B-meßbar. Proposition 8. Die bedingte Erwartung ist positiv und linear. Beweis. Folgt aus den entsprechenden Eigenschaften des Integrals und den Abschlußeigenschaften von Mengen meßbarer Abbildungen. 11
Im folgenden oft kurz X = Y oder X ≥ Y , falls diese Eigenschaften f.s. gelten. Ebenso identifizieren wir Abbildungen, die f.s. u ¨bereinstimmen.
8
Proposition 9. Sei Y B-meßbar mit E(|X · Y |) < ∞. Dann E(X · Y | B) = Y · E(X | B). Beweis. Klar: Y · E(X | B) ist B-meßbar. Spezialfall: Y = 1C mit C ∈ B. Dann gilt f¨ ur B ∈ B: Z Z Z Y · E(X | B) dP = E(X | B) dP = B
B∩C
Z X · Y dP.
X dP =
B∩C
B
Jetzt algebraische Induktion. Proposition 10. F¨ ur σ-Algebren B1 ⊂ B2 ⊂ A gilt E(E(X | B1 ) | B2 ) = E(X | B1 ) = E(E(X | B2 ) | B1 ). Beweis. Die erste Identit¨at folgt mit Bemerkung 9. Zur zweiten Identit¨at beachte man f¨ ur B ∈ B1 ⊂ B2 Z Z Z E(E(X | B2 ) | B1 ) dP = E(X | B2 ) dP = X dP. B
B
B
Proposition 11. Seien X und B unabh¨angig. Dann E(X | B) = E(X). Beweis. Klar: E(X) B-meßbar. Sei B ∈ B. Nach Voraussetzung sind X und 1B unabh¨angig. Also Z Z E(X) dP = E(X) · E(1B ) = E(X · 1B ) = X dP. B
B
Proposition 12 (Jensensche Ungleichung). Sei J ⊂ R ein Intervall, und gelte X(ω) ∈ J f¨ ur alle ω ∈ Ω. Sei φ : J → R konvex mit E(|φ ◦ X|) < ∞. Dann: φ(E(X | B)) ≤ E(φ ◦ X | B). Beweis. G¨anssler, Stute (1977, Kap. V.4). Bemerkung 10. Spezialfall: J = R und φ(u) = |u|p mit p ≥ 1. Dann: E(|X| | B) ≤ (E(|X|p | B))1/p . Hiermit (E(|X|q | B))1/q ≤ (E(|X|p | B))1/p f¨ ur 1 ≤ q ≤ p sowie Z
p
1/p
|E(X | B)| dP
Z ≤
Ω
p
|X| dP
1/p .
Ω
Also ist E(· | B) ein idempotenter beschr¨ankter linearer Operator auf Lp (Ω, A, P ). Speziell f¨ ur p = 2: orthogonale Projektion auf den Unterraum L2 (Ω, B, P ). 9
Oft liegt folgende Situation vor. Gegeben: Meßraum (Ω0 , A0 ) und A-A0 -meßbare Abbildung Y : Ω → Ω0 . Betrachte die von Y erzeugte σ-Algebra B = σ({Y }). Definition 11. Bedingte Erwartung von X gegeben Y : E(X | Y ) = E(X | σ({Y })). Anwendung von Proposition 1 auf obige Situation: Faktorisierung der bedingten Erwartung: Es existiert eine A0 -meßbare Abbildung g : Ω0 → R mit E(X | Y ) = g ◦ Y. Je zwei solche Abbildungen stimmen PY -f.s. u ¨berein. Definition 12. Bedingte Erwartung von X gegeben Y = y: E(X | Y = y) = g(y), wobei g wie oben gew¨ahlt. Analoge Begriffsbildung f¨ ur bedingte Wahrscheinlichkeiten, wobei X = 1A mit A ∈ A. Beispiel 3. Gelte (Ω, A, P ) = ([0, 1], B([0, 1], λ) und (Ω0 , A0 ) = (R, B(R)). Ferner ( 1, falls ω ∈ [0, 1/2], 2 X(ω) = ω , Y (ω) = ω − 1/2, falls ω ∈ ]1/2, 1]. Dann σ({Y }) = {A ∪ B : A ∈ {∅, [0, 1/2]}, B ⊂ ]1/2, 1] , B ∈ A} sowie E(X | Y )(ω) = und E(X | Y = y) =
( 1/12, falls ω ∈ [0, 1/2], ω2,
falls ω ∈ ]1/2, 1]
( 1/12,
falls y = 1, 2
(y + 1/2) , falls y ∈ ]0, 1/2].
Beachte, daß P ({Y = y}) = 0 f¨ ur alle y ∈ ]0, 1/2]. Bemerkung 11. Klar: f¨ ur A0 ∈ A0 gilt Z Z X dP = E(X | Y = y) dPY (y) {Y ∈A0 }
A0
und insbesondere 0
Z
P (A ∩ {Y ∈ A }) =
P (A | Y = y) dPY (y) A0
f¨ ur A ∈ A. 10
Wie der folgende Satz zeigt, ist die bedingte Erwartung der beste Sch¨atzer im Quadratmittel. Proposition 13. Gelte E(X 2 ) < ∞. Dann gilt f¨ ur jede A0 -meßbare Abbildung φ : Ω0 → R Z Z 2 (X − E(X | Y )) dP ≤ (X − φ ◦ Y )2 dP Ω
Ω
mit Gleichheit gdw. φ = E(X | Y = ·) PY -f.s. Beweis. Setze Z ∗ = E(X | Y ) und Z = φ ◦ Y . Die Jensensche Ungleichung liefert E((Z ∗ )2 ) = E(E(X | Y )2 ) ≤ E(E(X 2 | Y )) = E(X 2 ) < ∞. OBdA: E(Z 2 ) < ∞. Dann E(X − Z)2 = E(X − Z ∗ )2 + E(Z ∗ − Z)2 +2 · E((X − Z ∗ )(Z ∗ − Z)). | {z } ≥0
Mit den Propositionen 1, 8 und 9 folgt Z ∗ ∗ E((X − Z )(Z − Z)) = E((X − Z ∗ )(Z ∗ − Z) | Y ) dP ZΩ = (Z ∗ − Z) · E((X − Z ∗ ) | Y ) dP ZΩ = (Z ∗ − Z) · (E(X | Y ) − Z ∗ ) dP. | {z } Ω =0
Frage: Sind durch A 7→ P (A | Y = y) Wahrscheinlichkeitsmaße auf (Ω, A) gegeben? Sind ggf. die bedingten Erwartungen E(X | Y = y) die Erwartungswerte von X bzgl. dieser Wahrscheinlichkeitsmaße? Definition 13. Regul¨are bedingte Wahrscheinlichkeit gegeben Y : Abbildung P A | Y : A × Ω0 → R mit (i) P A | Y (·, y) Wahrscheinlichkeitsmaß f¨ ur jedes y ∈ Ω0 , (ii) P A | Y (A, ·) A0 -meßbar f¨ ur jedes A ∈ A, Z 0 (iii) P (A ∩ {Y ∈ A }) = P A | Y (A, y) dPY (y) f¨ ur alle A ∈ A und A0 ∈ A0 . A0
Bemerkung 12. Klar wg. (ii), (iii): P A | Y (A, y) = P (A | Y = y). Proposition 14. Es sei Ω0 ein polnischer Raum und A0 = B(Ω0 ) die Borelsche σ– Algebra auf Ω0 . Dann existiert eine regul¨are bedingte Wahrscheinlichkeit gegeben Y . A|Y F¨ ur je zwei solche Wahrscheinlichkeiten Pi existiert A0 ∈ A0 mit PY (A0 ) = 1 und ∀ y ∈ A0 ∀ A ∈ A :
A|Y
P1
11
A|Y
(A, y) = P2
(A, y).
Beweis. Siehe G¨anssler, Stute (1977, Kap. V.3) oder Yeh (1995, App. C). Proposition 15. In der Situation von Definition 13 gilt Z (i) X(ω) dP A | Y (ω, ·) A0 -meßbar, Ω
Z Z (ii)
X(ω) dP A0
A|Y
Z
X dP f¨ ur A0 ∈ A0 .
(ω, y) dPY (y) = {Y
Ω
∈A0 }
Also f¨ ur PY -f.a. y ∈ Ω0 Z
X(ω) dP A | Y (ω, y).
E(X | Y = y) = Ω
Beweis. Algebraische Induktion. Proposition 16. In der Situation von Proposition 14 gilt f¨ ur PY -f.a. y ∈ Ω0 ∀ A0 ∈ A0 :
P A | Y (Y −1 (A0 )), y) = 1A0 (y).
Beweis. Siehe Yeh (1995, p. 486).
2
Der Poisson-Prozeß
Der Poisson–Prozeß ist ein wichtiger und leicht zu konstruierender Prozeß, der der Prototyp eines ’Z¨ahlprozesses’ ist. Intuitiv kann man sich vorstellen, daß z.B. die Anzahl von ’Ausf¨allen’ von Ger¨aten im Verlaufe der Zeit gez¨ahlt werden soll.
Betrachte Folge (Ti )i∈N von iid. Zufallsvariablen auf (Ω, A, P ), jeweils exponentialverP teilt12 mit Parameter λ > 0. Setze S0 = 0 und Sn = ni=1 Ti f¨ ur n ∈ N. Definiere Nt = max{n ∈ N0 : Sn ≤ t}. S 13 Klar: P ( ∞ P ({supn∈N Sn < ∞}) = 0. OBdA: die komplei=1 {Ti ≤ 0}) = 0 und ment¨aren Eigenschaften gelten auf ganz Ω. Sn ist also stets streng monoton steigend, Ns endlich und Ns = n ⇔ Sn ≤ s < Sn+1 . Im folgenden I = [0, ∞[. Definition 14. X = (Xt )t∈I Poisson-Prozeß mit Intensit¨at λ > 0 bzgl. Filtration F = (Ft )t∈I , falls (i) X cadlag Prozeß mit Werten in N0 , (ii) X adaptiert an F, 12
F¨ ur t ≥ 0: P ({Ti ≤ t}) = 1 − exp(−λt); charakterisierende Eigenschaft (Ged¨achtnislosigkeit): P ({Ti ≥ t} | {Ti ≥ s}) = P ({Ti ≥ t − s}) f¨ ur 0 ≤ s < t. 13 Starkes Gesetz der großen Zahlen: Sn /n → 1/λ P -f.s.
12
(iii) X0 = 0, (iv) f¨ ur 0 ≤ s < t ist Xt − Xs (a) unabh¨angig von Fs , (b) Poisson-verteilt14 mit Parameter λ(t − s). Satz 1. (Nt )t∈I ist Poisson-Prozeß mit Intensit¨at λ bzgl. (FN t )t∈I . Klar: es gilt (i)–(iii). Der Beweis von (iv) ergibt sich mit dem folgenden Lemma 2. Lemma 1. Sei 0 ≤ s < t, n ∈ N und A ∈ FN s . (i) Es existiert ein B ∈ σ({T1 , . . . , Tn }), sodaß A ∩ {Ns = n} = B ∩ {Ns = n} . (ii) Es gilt P ({Sn+1 > t} ∩ A ∩ {Ns = n}) = e−λ(t−s) P (A ∩ {Ns = n}) . (iii) Die Abbildung ω 7→ SNs (ω)+1 (ω) ist eine Zufallsgr¨oße. (iv) Wir haben P ({SNs +1 > t} ∩ A) = e−λ(t−s) P (A) . Beweis. ad (i): Die Behauptung ist ¨aquivalent zu N FN s ∩ {Ns = n} := {A ∩ {Ns = n} : A ∈ Fs } ⊆ σ({T1 , . . . , Tn }) ∩ {Ns = n} .
Daher gen¨ ugt es, die Behauptung nur f¨ ur ein Erzeugendensystem von FN s zu zeigen; sei also oBdA A = {ω : Nr (ω) ∈ C} f¨ ur ein C ∈ B(R) und ein r ≤ s. Dann folgt A ∩ {Ns = n} = {ω : Sn (ω) ≤ n < Sn+1 (ω), max{k : Sk (ω) ≤ r}}
= {ω : Sn (ω) ≤ n < Sn+1 (ω), max{k ≤ n : Sk (ω) ≤ r}} ∈ σ({T1 , . . . , Tn }) ∩ {Ns = | {z } ∈σ({T1 ,...,Tn })
ad (ii): Klar: Tn+1 und (Sn , 1B ) unabh¨angig. Es sei oBdA Ω = Ω1 × Ω2 ein Produktraum, und B = Ω1 × B1 , sowie Sn = Sn (ω2 ), Tn+1 = Tn+1 (ω1 ). Dann folgt P ({Sn+1 > t} ∩ A ∩ {Ns = n}) = P ({Tn+1 + Sn > t} ∩ B ∩ {Sn ≤ s})
=
= Eω1 Eω2 1{Tn+1 (ω1 )+Sn (ω2 )>t}∩B∩{Sn (ω2 )≤s} Z ∞ Eω2 1{u+Sn (ω2 )>t}∩B∩{Sn (ω2 )≤s} λe−λu , du = Z ∞0 = P ({Sn > t − u} ∩ B ∩ {Sn ≤ s}) · λ exp(−λu) du t−s Z ∞ = exp(−λ(t − s)) · P ({Sn > s − u} ∩ B ∩ {Sn ≤ s}) · λ exp(−λu) du 0
= exp(−λ(t − s)) · P ({Sn+1 > s} ∩ {Sn ≤ s} ∩ B) = exp(−λ(t − s)) · P (A ∩ {Ns = n}). 14
F¨ ur k ∈ N0 : P ({Xt − Xs = k}) = (λ(t − s))k /k! · exp(−λ(t − s)).
13
S
ad (iii) et (iv): {SNs ∈ B} = SNs p; weiter ist
n {Sn
P ({SNs > t} ∩ A) =
∈ B} ∩ {Ns = n} impliziert die Meßbarkeit von
X
P ({Ns = n} ∩ {Sn > t} ∩ A) ;
n∈N0
aus Teil (ii) folgt die Behauptung. Lemma 2. F¨ ur 0 ≤ s < t, A ∈ FN s und k ∈ N0 gilt (λ(t − s))k exp(−λ(t − s)). k! Beweis. Sei k ∈ N und n ∈ N0 . Bezeichne mit φk die Dichte von P (A ∩ {Nt − Ns = k}) = P (A) ·
Yk =
n+k+1 X
T` .
`=n+2
Wie oben ergibt sich z := P (A ∩ {Nt − Ns ≤ k} ∩ {Ns = n}) = P (B ∩ {Sn+k+1 > t} ∩ {Ns = n}) = P (B ∩ {Ns = n} ∩ {Sn+1 + Yk > t}) Z ∞ = P (B ∩ {Ns = n} ∩ {Sn+1 + u > t}) ·φk (u) du. {z } | 0 =:h(u)
Weiter gilt f¨ ur u > t − s, daß {Ns = n} ∩ {Sn+1 + u > t} = {Ns = n} , und daher folgt Z ∞ h(u) · φk (u) du = P (B ∩ {Ns = n}) · P ({Yk ≥ t − s}) . t−s
Lemma 1, Teil (ii) zeigt Z t−s Z h(u) · φk (u) du = 0
t−s
P (B ∩ {Ns = n}) · exp(−λ(t − u − s)) · φk (u) du.
0
Yk ist Gamma–verteilt mit Parameter (λ, k), also φk (u) =
λk uk−1 · exp(−λu) (k − 1)!
und P ({Yk > u}) =
k−1 X (λu)j j=0
j!
· exp(−λu) ,
damit rechnet man nun leicht nach, daß z = P (A ∩ {Ns = n}) ·
k X (λ(t − s))j j=0
Jetzt Summation u ¨ber n ∈ N etc. 14
j!
exp(−λ(t − s)).
Proposition 17. Die kanonische Filtration (FN t )t∈I ist rechtsseitig stetig. Beweis. Wesentlich: Die Pfade sind rechtsseitig konstant. Siehe Protter (1990, p. 16) f¨ ur allgemeines Ergebnis f¨ ur Z¨ahlprozesse. Obige Konstruktion des Poisson-Prozesses ist universell. Es gibt verteilungsfreie Charakterisierungen des Poisson-Prozesses. Siehe G¨anssler, Stute (1977, Kap. VII.5). Anwendungen des Poisson-Prozesses: z. Bsp. Warteschlangentheorie, Finanzmathematik. Ausblick: Punktprozesse in Rd .
3
Martingale
Gegeben: Filtration F = (Ft )t∈I und adaptierter reellwertiger Prozeß X = (Xt )t∈I auf (Ω, A, P ) mit ∀ t ∈ I : E(|Xt |) < ∞. Kurzschreibweise: (Xt , Ft )t∈I , falls X an F adaptiert. Definition 15. (Xt , Ft )t∈I Submartingal, falls ∀ s, t ∈ I :
s < t ⇒ Xs ≤ E(Xt | Fs ).
Supermartingal : ≥“, Martingal =“. ” ” Beispiel 4. F¨ ur einen Poisson-Prozeß (Xt , Ft )t∈I mit Intensit¨at λ > 0 und 0 ≤ s < t gilt E(Xt | Fs ) = E(Xt − Xs | Fs ) + E(Xs | Fs ) = E(Xt − Xs ) + Xs = λ(t − s) + Xs . Also liegt ein Submartingal vor. Definiere einen kompensierten Poisson-Prozeß durch Mt = Xt − λt. Dann ist (Mt , Ft )t∈I ein Martingal. Die Martingaltheorie im kontinuierlichen Fall I = [0, ∞[ wird oft unter R¨ uckgriff auf den vorab betrachteten diskreten Fall entwickelt. Wir diskutieren einige Elemente dieser Theorie.
3.1
Martingale in diskreter Zeit
Zun¨achst sei I = N0 . Beispiel 5. Cox-Ross-Rubinstein Modell: einfaches Modell f¨ ur Aktienkurs zu Zeiten t ∈ N0 . W¨ahle A0 > 0, 0 < p < 1, 0 < d < u, 15
und betrachte (Yt )t∈N iid. mit P ({Yt = u}) = p = 1 − P ({Yt = d}). Definiere F0 = {∅, Ω} und At = A0 ·
t Y
Ft = σ({Y1 , . . . , Yt })
Ys ,
s=1
f¨ ur t ∈ N. Klar: F = FA . F¨ ur ganzzahlige 0 ≤ s < t ! t Y E(At | Fs ) = As · E Yk = As · E(Y1 )t−s = (pu + (1 − p)d)t−s · As . k=s+1
Also ⇔
(At , Ft )t∈N0 Submartingal
E(Y1 ) ≥ 1
und ⇔
(At , Ft )t∈N0 Martingal
dt}
Dann E(XT ) = E(X0 ). Beweis. F¨ ur Tn = min{T, n} gilt Z
Z
|E(XT ) − E(XTn )| ≤
|XT | dP +
|Xn | dP
{T >n}
{T >n}
und somit limn→∞ E(XTn ) = E(XT ). Satz 2 liefert E(X0 ) = E(XTn ). Satz 4 (Doobsche Zerlegung). F¨ ur Mt =
t X
Xs − E(Xs | Fs−1 ) + X0 ,
At =
s=1
t X
E(Xs | Fs−1 ) − Xs−1
s=1
gilt (i) Xt = Mt + At , (ii) (Mt , Ft )t∈N0 ist Martingal, (iii) (Xt , Ft )t∈N0 Submartingal
⇔
(At )t∈N0 P -f.s monoton wachsend.
Beweis. ¨ Ubung. Satz 5. Sei (Xt , Ft )t∈N0 Submartingal. F¨ ur beschr¨ankte Stopzeiten S ≤ T gilt15 XS ≤ E(XT | FS ) und somit E(XS ) ≤ E(XT ). Im Martingal-Fall gilt jeweils =“. ” Beweis. Weil das Ereignis {XS ≥ E(XT | FS ) + 1/n} eine FS –meßbare Menge ist, gen¨ ugt es zu zeigen, daß Z Z XS dP ≤ E(XT | FS ) dP ∀A ∈ FS . A
A
Wir verwenden die Doob–Meyer–Zerlegung X = M + A. Offenbar ist AS ≤ AT , also AS = E(AS | FS ) ≤ E(AT | FS ), und es bleibt zu zeigen, daß Z Z Z MS dP = E(MT | FS ) dP = MT dP . A 15
A
A
Beachte, daß XS FS -meßbar ist. Vgl. Proposition 6 im kontinuierlichen Fall.
17
Sei R = S · 1A + T · 1Ac 16 . Dann gilt {R ≤ t} = ({S ≤ t} ∩ A) ∪ ({T ≤ t} ∩ Ac ) ∈ Ft . Also ist R eine beschr¨ankte Stopzeit, und nach Satz 2 haben wir E(MT ) = E(M0 ) = E(MR ) = E(MS · 1A ) + E(MT · 1Ac ) ; durch Subtraktion von E(MT · 1Ac ) folgt die Behauptung. Ist X Martingal, so sind X und −X Submartingale; aus dem schon bewiesenen folgt dann E(XS ) ≤ E(XT | FS ) und E(−XS ) ≤ E(−XT | FS ) , und also die Gleichheit. Gegeben: (Xt , Ft )t∈I mit I = {t0 , . . . , tn } f¨ ur t0 < · · · < tn sowie a < b. Definiere Stopzeiten T1 = inf{t ∈ I : Xt ≤ a}, T2 = inf{t ∈ I : Xt ≥ b, t > T1 }, .. . T2k+1 = inf{t ∈ I : Xt ≤ a, t > T2k }, T2k+2 = inf{t ∈ I : Xt ≥ b, t > T2k+1 }, .. . ¨ sowie die Anzahl der Uberquerungen (Upcrossings) des Intervalls [a, b] von unten nach oben ( 0, falls T2 = ∞, UIX (a, b) = max{k ∈ N : T2k ≤ tn }, sonst. Satz 6 (Upcrossing-Inequality). F¨ ur jedes Submartingal (Xt , Ft )t∈I gilt E(UIX (a, b)) ≤
E((Xtn − a)+ ) − E((Xt0 − a)+ ) . b−a
Beweis. Sei OBdA a = 0; Da wegen der Jensenschen Ungleichung auch X + ein Sub+ martingal ist und E(UIX (0, b)) = E(UIX (0, b)), k¨onnen wir weiter oBdA X ≥ 0 annehmen. Definiere Stopzeiten S0 = t0 und Si = Ti ∧ tn f¨ ur i ∈ N. Dann Xtn − Xt0 =
∞ X
(XS2j − XS2j−1 ) +
j=1
sowie
∞ X
(XS2j+1 − XS2j )
j=0
(XS2j − XS2j−1 ) ≥ b · UIX (0, b).
j=1 16
∞ X
Ac = Ω\A ∈ FS ⊆ FT
18
Satz 5 sichert E(XS2j+1 ) ≥ E(XS2j ). Fazit E(Xtn ) − E(Xt0 ) ≥ b · E(UIX (0, b)).
Satz 7 (Submartingal-Ungleichungen). F¨ ur jedes Submartingal (Xt , Ft )t∈I und µ > 0 gilt P ({ max Xti ≥ µ}) ≤ 1/µ · E(Xt+n ), i=0,...,n
P ({ min Xti ≤ −µ}) ≤ 1/µ · E(Xt+n ) − E(Xt0 ) . i=0,...,n
Beweis. Siehe Chung (1974, Theorem 9.4.1). Schließlich noch zwei Martingalkonvergenzs¨atze mit I = −N bzw. I = Z. Proposition 18. Gegeben: Submartingal17 (Xt , Ft )t∈−N mit inf E(Xt ) > −∞.
(1)
t∈−N
Dann existiert X−∞ ∈ L1 (Ω, A, P ), so daß lim Xt = X−∞
t→−∞
P -f.s. und in L1 .
Beweis. Siehe Chung (1974, Theorem 9.4.7) oder G¨anssler/Stute (1977, Satz 6.5.10). Proposition 19. Gegeben: Filtration (Ft )t∈Z und Zufallsvariable Y auf (Ω, A, P ) mit E(|Y |) < ∞. In L1 (Ω, A, P ) und P -f.s. gilt [ \ lim E(Y | Ft ) = E Y | σ Ft , lim E(Y | Ft ) = E Y | Ft . t→∞
t→−∞
t∈Z
t∈Z
Beweis. Siehe Chung (1974, Thm. 9.4.8).
3.2
Martingale in stetiger Zeit
Im folgenden sei I = [0, ∞[. Satz 8 (Optional Sampling Theorem). F¨ ur jedes rechtsseitig stetige Martingal (Xt , Ft )t∈I gilt ∀ T beschr¨ankte Stopzeit : E(XT ) = E(X0 ). 17
Sogenanntes inverses Submartingal.
19
Beweis. Gelte T (ω) ≤ N f¨ ur alle ω ∈ Ω. F¨ ur n ∈ N sei Tn definiert durch Tn (ω) = k/2n
⇔
T (ω) ∈ [(k − 1)/2n , k/2n [ .
F¨ ur t ∈ [(k − 1)/2n , k/2n [ zeigt Proposition 3 {Tn ≤ t} = {Tn ≤ (k − 1)/2n } = {T < (k − 1)/2n } ∈ F(k−1)/2n ⊂ Ft , d.h. Tn ist Stopzeit. F¨ ur alle ω ∈ Ω: Tn (ω) ≤ N + 1
∧
lim Tn (ω) & T (ω).
n→∞
Somit wegen der rechtsseitigen Stetigkeit: lim XTn (ω) = XT (ω).
n→∞
(2)
Satz 5 zeigt E(XN +1 | FTn ) = XTn . Ubung 2.5. Mit (2) folgt Also ist {XTn : n ∈ N} gleichgradig integrierbar, siehe ¨ lim E(XTn ) = E(XT ).
n→∞
Schließlich ist (Xk/2n )k≤2n ein Martingal, und deshalb zeigt Satz 2 ∀ n ∈ N : E(XTn ) = E(X0 ).
Die folgenden Begriffe und Ergebnisse sind grundlegend bei der Einf¨ uhrung des stochastischen Integrals. Definition 16. F erf¨ ullt die u ¨blichen Voraussetzungen, falls (i) F rechtsseitig stetig, (ii) {A ⊂ Ω : ∃ B ∈ A : A ⊂ B ∧ P (B) = 0} ⊂ F0 .
20
Satz 9. Erf¨ ullt seien (i) (Xt , Ft )t∈I Submartingal, (ii) t 7→ E(Xt ) rechtsseitig stetig, (iii) die u ¨blichen Voraussetzungen. Dann existiert eine cadlag Modifikation Y von X, so daß (Yt , Ft )t∈I ein Submartingal ist. Beweis. Sei n ∈ N fest; wir setzen Qn := [0, n] ∩ Q und w¨ahlen eine aufsteigende Folge S Qk ⊆ Qn von endlichen Teilmengen mit Qn = k Qk . Aus Satz 7 erhalten wir P (max |Xt | ≥ µ) ≤ t∈Qk
2 E(Xn+ ) . µ
(3)
Weiterhin: Falss das Ereignis supt∈Qn |Xt | = ∞ eintritt, so folgt, daß f¨ ur jedes m ∈ N m ein k ∈ N existiert mit supt∈Qk |Xt | ≥ 2 ; folglich hat man f¨ ur jedes m ∈ N mit (3): P (sup |Xt | = ∞) ≤ sup P (sup |Xt | ≥ 2m ) ≤ 2−m+1 E(Xn+ ) . t∈Qn
k∈N
t∈Qk
Also existiert B ∈ A mit P (B) = 1 und ∀ω∈B ∀n∈N:
sup |Xt (ω)| < ∞. t∈[0,n]∩Q
F¨ ur a < b beliebig sei UnX (a, b) = sup UQXk (a, b) k∈N
sowie Cn (a, b) = {UnX (a, b) < ∞},
C=
\ \
Cn (a, b).
n∈N a 0. Dann Xt = Xt − λt + |{z} λt . | {z } =Mt
=At
Wir wissen: (Mt , Ft )t∈I ist ein Martingal. Klar: (At , Ft )t∈I ist wachsend. 18
As (ω) ≤ At (ω), falls s ≤ t.
22
Satz 10 (Doob-Meyer-Zerlegung). Erf¨ ullt seien19 (i) (Xt , Ft )t∈I stetiges Submartingal, (ii) ∀ t ∈ I :
Xt ≥ 0,
(iii) die u ¨blichen Voraussetzungen. Dann existiert ein stetiges Martingal (Mt , Ft )t∈I und ein stetiger wachsender Prozeß (At , Ft )t∈I mit ∀ t ∈ I ∀ ω ∈ Ω : Xt (ω) = Mt (ω) + At (ω). Diese Zerlegung ist eindeutig bis auf Ununterscheidbarkeit. Beweisskizze. Details bei Karatzas Shreve (1999, Chap. 1.4). Wir diskutieren die Existenz f¨ ur t ∈ [0, a] mit a > 0. Betrachte eine rechtsseitig stetige Modifikation (Yt )t∈[0,a] des Submartingals Xt − E(Xa | Ft ),
t ∈ [0, a],
gem. Satz20 9. F¨ ur n ∈ N und I (n) = {j/2n · a : j = 0, . . . , 2n } hat man die Doobsche Zerlegung (n) (n) Y t = M t + At , t ∈ I (n) . Ein Kompaktheitsschluß, f¨ ur den (ii) verwendet wird,21 zeigt: es ex. eine Teilfolge (nk ) (n) (Aa )k∈N von (Aa )n∈N sowie Z ∈ L1 (Ω, A, P ), so daß ∀ ξ ∈ L∞ (Ω, A, P ) :
lim E(ξ · Aa(nk ) ) = E(ξ · Z).
k→∞
Betrachte rechtsseitig stetige Modifikationen (Mt )t∈[0,a] des Martingals E(Xa − Z | Ft ),
t ∈ [0, a],
Yt + E(Z | Ft ),
t ∈ [0, a],
sowie (At )t∈[0,a] des Submartingals
gem. Satz 9. Klar: Xt = Mt + At und M ist ein Martingal. Zu zeigen bleibt die linksseitige Stetigkeit von A und M sowie die Monotonie von A; hier geht die Stetigkeit von X ein. Im folgenden: F erf¨ ulle die u ¨blichen Voraussetzungen. Kurz: Martingal statt Martingal bzgl. F. Gleichheit von Prozessen im Sinne der Ununterscheidbarkeit. 19
Allgemeinere Fassung bei Karatzas, Shreve (1999). Anwendbar wg. (i) und Proposition 18. (n) 21 Man zeigt die gleichgradige Integrierbarkeit von Aa und nutzt dann den Satz von Dunford– Pettis: Eine gleichgradig integrierbare Folge in L1 besitzt eine in L1 schwach konvergente Teilfolge. 20
23
Definition 18. X quadratisch integrierbar, falls ∀ t ∈ I : E(Xt2 ) < ∞. Bez.: Mc2 = Mc2 (F) sei der Vektorraum aller stetigen, quadratisch integrierbaren Martingale mit X0 = 0. Bemerkung 14. Klar: f¨ ur X ∈ Mc2 ist X 2 = (Xt2 )t∈I stetiges Submartingal. Definition 19. Quadratische Variation von X ∈ Mc2 ist der22 stetige, wachsende Prozeß (At )t∈I in der Doob-Meyer-Zerlegung Xt2 = Mt + At von X 2 . Bez.: hXit = At . Vgl. ¨ Ubung 3.3.b f¨ ur den kompensierten Poisson-Prozeß. Definition 20. F¨ ur X, Y ∈ Mc2 heißt23 hX, Y it = 41 (hX + Y it − hX − Y it ),
t ∈ I,
der Kreuz-Variationsprozeß. X und Y heißen orthogonal, falls hX, Y i = 0. Lemma 3. Seien A(1) , A(2) F–adaptierte stetige, wachsende, integrierbare Prozesse auf [0, a], sodaß M := A(1) − A(2) ein F–Martingal ist mit M0 = 0. Dann sind A(1) und A(2) ununterscheidbar. Beweis. Es sei zun¨achst (ξt , Ft ) ein beschr¨anktes24 , rechtsstetiges Martingal. Dann folgt Z mn X ξt Mt = ξs− dMs = lim ξt(n) [Mt(n) − Mt(n) ] . (6) n→∞
(0,t]
j=1
j−1
j
j−1
(n)
(n)
Hierbei sei (tj )j≤mn eine beliebige, verfeinernde Zerlegung von [0, t] mit maxj |tj − (n) tj−1 | → 0. Weiter haben wir P –f.s., daß mn mn X X ξt(n) [Mt(n) − Mt(n) ] ≤ N |Mt(n) − Mt(n) | j=1
j−1
j
j−1
j
j=1
j−1
(1)
(1)
(2)
(2)
≤ N Vt0 M ≤ N (At − A0 + At − A0 ) ; damit haben wir eine integrable Majorante f¨ ur die Summen gefunden und schließen aus (6), daß mn X Eξt Mt = lim E ξt(n) [Mt(n) − Mt(n) ] . (7) n→∞
j=1
22
j−1
j
Eindeutig bestimmt bis auf Ununterscheidbarkeit. Polarisation. 24 d.h. es existiert N > 0, sodaß P –f.s. ξt ≤ N f¨ ur alle t ≤ a 23
24
j−1
Nun rechnet man aber leicht nach, daß E(ξt(n) Mt(n) ) = E(ξt(n) Mt(n) ), und daher folgt j−1
j
j−1
j−1
aus (7), daß E(ξt Mt ) = 0. Sei nun ξ eine beschr¨ankte Zufallsvariable; und sei ξt eine rechtsstetige Modifikation von E(ξ|Ft ) nach Satz 925 , dann folgt 0 = E(ξt Mt ) = E(E(ξMt | Ft )) = E(ξMt ) . Dies impliziert aber P (Mt = 0) = 1 f¨ ur alle t > 0; aus der Stetigkeit von A(1) und A(2) folgt die Ununterscheidbarkeit. Proposition 20. F¨ ur X, Y ∈ Mc2 gilt (i) hX, Xi = hXi, (ii) a¨quivalent sind (a) XY − Z ist Martingal ∧ Z = A0 − A00 mit A0 , A00 stetig, wachsend, (b) Z = hX, Y i, (iii) ¨aquivalent sind (a) X, Y orthogonal, (b) XY Martingal, (c) E((Xt − Xs ) · (Yt − Ys ) | Fs ) = 0 f¨ ur alle 0 ≤ s < t,
26
(iv) h·, ·i ist symmetrisch und bilinear, (v) hX, Y i2 ≤ hXi · hY i. Beweis. ad (i): hX, Xit = 14 h2Xit = hXit . ad (ii): (b) ⇒ (a)“: (X + Y )2 − hX + Y i und (X − Y )2 − hX − Y i sind Martingale, ” somit auch ihre Differenz (X + Y )2 − (X − Y )2 − hX + Y i + hX − Y i = 4XY − 4hX, Y i. (a) ⇒ (b)“: Folgt aus Lemma 3. ” ad (iii): (a) ⇔ (b)“ folgt aus (ii). ” (b) ⇔ (c)“. ” E((Xt − Xs ) · (Yt − Ys ) | Fs ) = E(Xt Yt + Xs Ys − Xt Ys − Xs Yt | Fs ) = E(Xt Yt | Fs ) − Xs Ys . ad (iv): Symmetrie klar. F¨ ur α ∈ R sind (αX) · Y − hαX, Y i und α · (XY ) − α · hX, Y i gem. (ii) Martingale. Mit (ii) folgt ebenfalls αhX, Y i = hαX, Y i. Beweis der Additivit¨at analog. ad (v): Folgt wie u ¨blich aus (iv) und hXit ≥ 0. 25 26
ξt ist automatisch beschr¨ ankt, da E(ξ|Ft ) ≤ supω |ξ(ω)| P –f.s. Inkremente sind bedingt unkorreliert“. ”
25
Definition 21. Sei π = {t0 , . . . , tm } mit 0 = t0 < · · · < tm = t Zerlegung von [0, t]. Ferner sei p ∈ ]0, ∞[. Dann heißt (p) Vt (X; π)
m X Xt − Xt p = k k−1 k=1
p-te Variation von X auf [0, t] bzgl. π. Ferner heißt kπk = max (tk − tk−1 ) k=1,...,m
die Feinheit von π. Die durch mt (X; δ)(ω) = sup{|Xr (ω) − Xs (ω)| : r, s ∈ [0, t], |r − s| ≤ δ} definierte Abbildung mt (X; ·)(·) : [0, t] × Ω → [0, ∞] heißt Stetigkeitsmodul von X auf [0, t]. Bemerkung 15. Sei X stetig. Dann ist mt (X; ·)(·) endlich und mt (X; δ) ist Ft -B(I)meßbar. Ferner ∀ ω ∈ Ω : lim mt (X; δ)(ω) = 0. δ→0
Satz 11. Gelte limn→∞ kπn k = 0 f¨ ur Folge von Zerlegungen πn von [0, t] und sei c X ∈ M2 . Dann P -stoch. (2) Vt (X; πn ) → hXit . Beweis. 1. Fall: X und hXi beschr¨ankt auf [0, t]. Genauer \ P {max{|Xs |, hXis } ≤ K} = 1. s∈[0,t]
Wir zeigen hier sogar L2 -Konvergenz. Mit obigen Bezeichnungen gilt 2 m 2 X (2) E Vt (X; π) − hXit = E (Xtk − Xtk−1 )2 − (hXitk − hXitk−1 ) {z } | k=1 =Yk
=
m X
E(Yk · Y` ).
k,`=1
Wir zeigen ∀ k 6= ` : E(Yk · Y` ) = 0. F¨ ur 0 ≤ s < t ≤ u < v gilt27 E((Xv − Xu )2 | Ft ) = E(Xv2 − Xu2 | Ft ) = E(Xv2 − hXiv − (Xu2 − hXiu ) | Ft ) + E(hXiv − hXiu | Ft ) = E(hXiv − hXiu | Ft ). 27
E(Xu Xv | Ft ) = E(E(Xu Xv | Fu ) | Ft ) = E(Xu E(Xv | Fu ) | Ft ) = E(Xu2 | Ft ).
26
(8)
Somit f¨ ur k < ` (und analog f¨ ur ` < k) E(Yk · Y` | Ftk ) = Yk · E(Y` | Ftk ) = 0, so daß (8) folgt. Also E
(2) Vt (X; π)
=
m X
− hXit
2
2 E (Xtk − Xtk−1 )2 − (hXitk − hXitk−1 )
k=1 m X
≤2
E (Xtk − Xtk−1 )4 + (hXitk − hXitk−1 )2
k=1
(4) ≤ 2 · E Vt (X; π) + 2 · E (mt (hXi; kπk) · hXit ) . Es gilt E
2
(2) Vt (X; π)
≤ 6 · K 4,
siehe Karatzas, Shreve (1999, Lemma 1.5.9). Ferner (4)
(2)
Vt (X; π) ≤ mt (X; kπk)2 · Vt (X; π) und hiermit (4) E(Vt (X; π))
2 1/2 1/2 (2) ≤ E Vt (X; π) · E mt (X; kπk)4 ≤ 3K 2 · E mt (X; kπk)4
1/2
.
Klar mt (X; δ) ≤ 2K,
mt (hXi; δ) ≤ K.
Der Lebesguesche Grenzwertsatz und die Stetigkeit der Pfade sichern 2 (2) lim E Vt (X; πn ) − hXit = 0. n→∞
2. Fall: keine Beschr¨anktheitsvoraussetzungen. R¨ uckf¨ uhrung auf 1. Fall (Lokalisation). Definiere TK = inf{t ∈ I : |Xt | ≥ K ∨ hXit ≥ K}, K ∈ N. Proposition 5 zeigt, daß TK Stopzeit ist. Die gestoppten Prozesse (K)
Xt
= XTK ∧t ,
t ∈ I,
und XT2K ∧t − hXiTK ∧t ,
t ∈ I,
sind beschr¨ankte Martingale, siehe ¨ Ubung 4.1. Die Eindeutigkeit der Doob-MeyerZerlegung liefert hXiTK ∧t = hX (K) it . 27
Gem¨aß Fall 1.) gilt f¨ ur festes K ∈ N 2 (2) lim E Vt (X (K) ; πn ) − hX (K) it = 0.
n→∞
Setze (2)
Bnε = {|Vt (X; πn ) − hXit | ≥ ε},
AK = {TK < t}.
Es gilt limK→∞ TK (ω) = ∞ f¨ ur alle ω ∈ Ω wegen der Stetigkeit der Pfade von X und hXi, also lim P (AK ) = 0. K→∞
Weiter P (Bnε ) = P (Bnε ∩ AK ) + P (Bnε \ AK ) (2)
≤ P (AK ) + P ({|Vt (X (K) ; πn ) − hX (K) it | ≥ ε}), und somit lim sup P (Bnε ) ≤ P (AK ). n→∞
Abschließend: Die Wahl von p = 2 bei der Variation ist angemessen f¨ ur stetige, quadratisch integrierbare Martingale. Satz 12. Sei (Xt , Ft )t∈I Prozeß mit stetigen Pfaden, p > 0 und Lt Zufallsvariable, so daß P -stoch. (p) Vt (X; πn ) → Lt falls kπn k → 0. Dann gilt f¨ ur q > p (q)
Vt (X; πn )
P -stoch.
→
0
und28 f¨ ur 0 < q < p (q)
Vt (X; πn ) · 1{Lt >0}
P -stoch.
→
∞ · 1{Lt >0} ,
falls kπn k → 0. Beweis. ¨ Ubung 5.1. Eine wichtige Konsequenz der S¨atze 11 und 12: die Definition von stochastischen Integralen bzgl. stetiger quadratisch-integrierbarer Martingale X, etwa mit hXit > 0 f¨ ur alle t > 0, kann nicht pfadweise unter R¨ uckgriff auf die deterministische LebesgueStieltjes-Theorie erfolgen. 28
∞ · 0 = 0.
28
4
Der Kolmogorovsche Konsistenzsatz
Wir diskutieren die Existenz von stochastischen Prozessen mit vorgegebenen endlichdimensionalen Verteilungen.
Es sei (S, S) ein Meßraum, I 6= ∅, und X = (Xt )t∈I stochastischer Prozeß auf (Ω, A, P ) mit Zustandsraum (S, S). F¨ ur eine Teilmenge J ⊆ I, J 6= ∅ setzen wir XJ : Ω → S J ,
(XJ (ω))(t) := Xt (ω),
t∈J .
¨ Bemerkung 16. XJ ist A–SJ –meßbar (s. Ubung 1.4). Nun assoziieren wir zum Prozeß X ein Wahrscheinlichkeitsmaß: Definition 22. In obiger Situation heißt das Bildmaß XI P auf (S I , SI ), gegeben durch (XI P )(A) := P ({ω ∈ Ω : X· (ω) ∈ A}) , A ∈ SI , die Verteilung von X. Zwei Prozesse, die die gleiche Verteilung haben, haben offenbar die gleichen endlichdimensionalen Verteilungen. Bemerkung 17. Ist µ ein Wahrscheinlichkeitsmaß auf (S I , SI ), so ist der kanonische Prozeß Xt (ω) := ω(t), ω ∈ S I , t ∈ I offenbar ein Prozeß mit XI µ = µ. Also: Konstruktion von stochastischen Prozessen ↔ Konstruktion von Wahrscheinlichkeitsmaßen auf (S I , SI ). Beispiel 8. blen.
(i) Produktmaß: I, (S, S) beliebig → Prozeß aus unabh¨angigen Varia-
(ii) Markov–Kerne: I = N, (S, S) beliebig (Ionesa–Tulcea) Sei nun I beliebig, P0 (I) := {J ⊆ I : |J| ∈ N}. F¨ ur ∅ = 6 J1 ⊆ J2 ⊆ I sei π(J2 , J1 ) : S J2 → S J1
(zj )j∈J2 7→ (zj )j∈J1 .
Definition 23. F¨ ur den stochastischen Prozeß X auf I nennen wir die Familie (XJ P ) J∈P0 (I) die Familie der endlichdimensionalen Randverteilungen von X. Bemerkung 18.
(i) Offenbar ist f¨ ur J = {t1 , . . . , tn }, A1 , . . . , An ∈ S:
XJ P (A1 × · · · × An ) = P ({Xt1 ∈ A1 ∧ · · · ∧ Xtn ∈ An }) . (ii) Da die Menge SI0 :=
[
σ(π(I, J))
J∈P0 (I)
ein schnittstabiler Erzeuger von SI ist (Zylindermengen), ist XI P durch die endlichdimensionalen Randverteilungen XJ P schon eindeutig bestimmt. 29
¨ Nun also Frage: Wann existiert ein Prozeß mit vorgegebenen Randverteilungen? Aquivalent: Wann existiert ein Wahrscheinlichkeitsmaß mit vorgegebenen Randverteilungen? Definition 24. Eine Familie (µJ )J∈P0 (I) von Wahrscheinlichkeitsmaßen µJ auf (S J , SJ ) heißt projektiv, falls ∀∅ 6= J1 ⊆ J2 ∈ P0 (I)
µJ1 = π(J2 , J1 )µJ2 .
Klar: X stochastischer Prozeß ⇒ (XJ P )J∈P0 projektiv. Definition 25. Ein topologischer Raum (M, O) heißt polnisch genau dann, wenn eine Metrik d auf M existiert, sodaß (i) (M, d) die Topologie O erzeugt, (ii) (M, d) ist vollst¨andig und separabel. Beispiel 9. M = Rd , jeder separable Banachraum, M = C([0, ∞[) mit der durch gleichm¨aßige Konvergenz erzeugten Topologie. F¨ ur topologischen Raum (M, O) sei B(M ) = σ(O) (Borel–σ–Algebra). Maße auf (M, B(M )) heißen Borelmaße. ¨ Satz 13. (Außere Regularit¨at von Borelmaßen) Es sei (M, d) ein metrischer Raum und ν ein Wahrscheinlichkeitsmaß auf (M, B(M )). Dann gilt ν(A) = inf{ν(O) : O ⊇ A, O offen} = sup{ν(C) : C ⊆ A, A abgeschlossen} . ¨ Beweis. Ubung 5.4. Satz 14. (Innere Regulatrit¨at von Borelmaßen) Es sei (M, O) ein polnischer Raum und ν ein Wahrscheinlichkeitsmaß auf (M, B(M )). Dann gilt ν(A) = sup{ν(C) : C ⊆ A, C kompakt} . Beweis. Wir zeigen zun¨achst, daß ν Radonsch ist, also sup{ν(C) : C ⊆ M, C kompakt} .
(9)
Ohne Einschr¨ankung sei (M, d) ein vollst¨andiger separabler metrischer Raum, und (mi )i∈N dicht in M . Bilde Bn,i := {m ∈ M : d(m, mi ) < 1/n} , i, n ∈ N . Sei nun ε > 0 beliebig und n ∈ N fest. W¨ahle in = in (ε) ∈ N mit ν(M \
in [
Bn,i ) ≤ ε · 2−n .
i=1
30
Sei B :=
T∞ Sin n=1
i=1
Bn,i . Dann
¯ ≤ ν(M \N ) ≤ ν(M \B)
∞ X
ν(M \
n=1
in [
Bn,i ) ≤ ε .
i=1
¯ kompakt ist. Dazu zeigen wir, Um (9) zu folgern, m¨ ussen wir noch zeigen, daß B daß jede Folge in B eine Cauchy–Teilfolge enth¨alt. Sei also (zi )i∈N ∈ B. Dann ex. i∗1 ∈ {1, . . . , in }, sodaß |{i ∈ N : zi ∈ Bn,i∗1 }| = ∞. Man kann also eine Teilfolge ausw¨ahlen, die stets in Bn,i∗1 liegt. Durch Iteration und das klassische Diagonalisierungsargument bekommt man so eine Folge von Indices i∗n und eine Teilfolge (yn ) von (zi ), welche f¨ ur alle m ≤ n erf¨ ullt: yn ∈ Bm,i∗m . Hieraus folgt wegen diam (Bm,i ) ≤ 1/m sofort, daß yn ¯ Also eine Cauchyfolge ist. Weil M vollst¨andig ist, existiert ein Grenzwert f¨ ur yn in B. ¯ kompakt, und (9) folgt. Nun sei A ∈ B(M ) beliebig; nach Satz 13 existiert f¨ ist B ur ε > 0 eine abgeschlossene Menge C ⊆ A mit ν(A\C) ≤ ε. Wegen (9) gibt es auch eine kompakte Menge K ⊆ M mit ν(M \K) ≤ ε. D := C ∩ K ⊆ A ist kompakt, und ν(A\D) ≤ 2ε .
Satz 15. [Daniell 1918, Kolmogorov 1933] Sei (S, O) ein polnischer Raum, S = B(S), und (µJ )J∈P0 (I) eine projektive Familie von Wahrscheinlichkeitsmaßen. Dann existiert genau ein Wahrscheinlichkeitsmaß µ auf (S I , SI ) mit µJ = π(I, J)µ f¨ ur alle J ∈ P0 (I). F¨ ur den Beweis ben¨otigen wir zwei Lemmata. Lemma 4. Ist (S, O) ein polnischer Raum und J eine endliche Menge, so ist (S J , OJ ) ein polnischer Raum, und B(S J ) = (B(S))J . Beweis. G¨anssler/Stute, Satz 1.3.12. Lemma 5. Es sei I 6= ∅ und Jn ∈ P0 (I). Weiter seien Kn ⊆ S Jn kompakt, und wir setzen n \ Yn = π −1 (I, Jl )(Kl ) . l=1
Falls f¨ ur jedes n ∈ N gilt, daß Yn 6= ∅ ist, so ist
T
n
Yn 6= ∅.
Dies verallgemeinert den Cantorschen Durchschnittssatz im Falle I = {t}. Beweis. Es sei (yn )n∈N eine beliebige Folge mit yn ∈ Yn . F¨ ur t ∈ Jn und m ≥ n ist ym ∈ Yn , also folgt ym (t) = π(Jn , {t})[π(I, Jn )
)] ∈ π(Jn , {t})(Kn ) . | {z } ∈π −1 (I,Jn (Kn )) kompakt (ym ) |{z}
S Setze J = ∞ onnen nun wieder durch iterative Teilfolgenbildung und n=1 Jn . Wir k¨ Diagonalisierung eine Teilfolge ynl bilden, sodaß f¨ ur jedes t ∈ J die Folge ynl (t) konvergiert; wir definieren z˜ ∈ S J durch z˜(t) := lim ynl (t) , l→∞
31
t∈J .
Nun w¨ahlen wir ein beliebiges z ∈ S I mit π(I, J)(z) = z˜; nun folgt leicht (zt )t∈Jn ∈ Kn T aufgrund der Abgeschlossenheit von Kn , und damit z ∈ n Yn . Beweis von Satz 15. Eindeutigkeit siehe Bemerkung 18. Existenz: Wir betrachten wieder [ SI0 := σ(π(I, J)) . J∈P0 (I)
F¨ ur A ∈ SI0 , A = π −1 (I, J)(B), B ∈ SJ , J ∈ P0 (I), setzen wir µ ˆ(A) := µJ (B) . Dies ist wohldefiniert, weil µJ eine projektive Familie ist. Weiter rechnet man sofort nach, daß µ ˆ ein Inhalt auf SI0 ist. Nach den Maßfortsetzungss¨atzen gen¨ ugt es nun zu I zeigen, daß µ ˆ stetig in der leeren Menge und damit ein Pr¨amaß auf S0 ist. Seien also Zn ∈ SI0 mit Zn & ∅. Annahme: inf n µ ˆ(Zn ) = α > 0. Es sei Zn = π −1 (I, Jn )(Bn ) mit Bn ∈ SJn . OBdA k¨onnen wir J1 ⊆ J2 ⊆ · · · voraussetzen. Nach Lemma 4 und Satz 14 existieren nun kompakte Mengen Kn mit µJn (Bn \Kn ) ≤ 2−n α. Setze Zn0 = π −1 (I, Jn )(Kn ), dann folgt µ ˆ(Zn \Zn0 ) ≤ 2−n α. Damit hat man µ ˆ(Zn ) − µ ˆ(Yn ) = µ ˆ(
n [
(Zn \Zi0 )) ≤
X
µ ˆ(Zi \zi0 ) < α.
i=1
Da µ ˆ(Zn ) ≥ α, folgt hieraus µ ˆ(Yn ) > 0, und damit Yn 6= ∅. Aus Lemma 5 folgt nun T Y = 6 ∅, ein Widerspruch. n n Definition 26. In der Situation von Satz 15 nennen wir µ den projektiven Limes der Familie (µJ ), µ = limJ µJ . Anwendung: Prozesse mit unabh¨angigen Zuw¨achsen. Definition 27. Sei I = [0, ∞[, X = (Xt )t∈I ein stochastischer Prozeß auf (Ω, A, P ) mit Zustandsraum (Rd , B(Rd )). (i) X hat unabh¨angige Zuw¨achse (Inkremente), falls f¨ ur alle n ∈ N und 0 ≤ t0 < · · · < tn die Folge Xt1 − Xt0 , . . . , Xtn − Xtn−1 unabh¨angig ist. d
(ii) X hat station¨are Zuw¨achse, falls f¨ ur alle 0 ≤ s < t gilt: Xt − Xs = Xt−s − X0 . Sei X ein Prozeß mit unabh¨angigen Inkrementen; setze νs,t := PXt −Xs , 0 ≤ s ≤ t. Beispiel 10. Der Poisson–Prozeß mit Intensit¨at λ hat unabh¨angige Inkremente mit νs,t als Poisson–Verteilung zum Parameter λ(t − s). Bemerkung 19.
(i) Offenbar gilt νs,t = νs,r ∗ νr,t , 0 ≤ s < r < t . 32
(ii) Falls X0 = 0 f.s. , so ist die Verteilung von X schon durch (νs,t ) eindeutig bestimmt, denn f¨ ur 0 = t0 < . . . < tn ist (Xt1 , . . . , Xtn ) = Σ(Xt1 − Xt0 , . . . , Xtn − Xtn−1 ) , wenn man Σ((xi )) := ((
P
j≤i
xi )) setzt. Also PXt1 ,...,Xtn = Σ(νt1 ,t0 ∗ · · · ∗ νtn ,tn−1 ).
Satz 16. Sei (νt,s )0≤s λ}) = 0
λ→∞ n∈N
und lim sup Qn ({mt (f ; δ) > ε}) = 0
δ→0 n∈N
f¨ ur alle ε > 0 und t ∈ I. Man verifiziert 2.) f¨ ur Pn = Qn , und somit gilt: jede Teilfolge von (Pn )n∈N besitzt eine konvergente Teilfolge. Betrachte nun die endlich-dimensionalen Randverteilungen“ der Maße Pn . Dazu sei ” πt1 ,...,tk : C(I) → Rk : f 7→ (f (t1 ), . . . , f (tk )) f¨ ur k ∈ N und t1 , . . . , tk ∈ I paarweise verschieden. F¨ ur alle k und ti zeigt man πt1 ,...,tk Pn → N (0, K), wobei K durch (1) gegeben ist12 . Damit folgt die Unabh¨angigkeit des Grenzwertes von den betrachteten Teilfolgen, vgl. Bemerkung 18 (ii). Ebenso folgt, daß dieser Grenzwert das Wiener-Maß ist. Beachte: Obiger Beweis beinhaltet eine weitere Konstruktion der Brownschen Bewegung (und des Wiener-Maßes). Satz 4 erm¨oglicht die n¨aherungsweise Berechnung von Funktionalen der Brownschen Bewegung z. Bsp. mittels Monte-Carlo-Methoden (Simulation von Irrfahrten).
3
Markov-Eigenschaft der Brownschen Bewegung
Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration F = (Ft )t∈I sowie d ∈ N und Wahrscheinlichkeitsmaß µ auf (Rd , B(Rd )). 12
F¨ ur k = t1 = 1 ist dies der Zentrale Grenzwertsatz.
42
3.1
Mehrdimensionale Brownsche Bewegung
Definition 6. W = (Wt )t∈I d-dimensionale Brownsche Bewegung bzgl. F mit Startverteilung µ, falls (i) W Rd -wertig mit stetigen Pfaden, (ii) W adaptiert an F, (iii) W0 P = µ, (iv) f¨ ur 0 ≤ s < t ist Wt − Ws (a) unabh¨angig von Fs , (b) N (0, (t − s) Idd )-verteilt. Speziell falls µ({x}) = 1: d-dimensionale Brownsche Bewegung mit Startpunkt x ∈ Rd . (1) (d) mit StartF¨ ur jede d-dimensionale Brownsche Bewegung W = Wt , . . . , Wt t∈I (1) (d) (1) (d) punkt x = (x , . . . , x ) gilt: W , . . . , W sind unabh¨angige Brownsche Bewegungen der Dimension eins mit Startpunkten x(1) , . . . , x(d) . Konstruktion13 : Ω = (C(I))d , A = (B(C(I)))d , Wt ((f1 , . . . , fd )) = (f1 (t), . . . , fd (t)) mit kanonischer Filtration, P 0 d-faches Produkt des Wiener-Maßes, Wahrscheinlichkeitsmaß P = P µ auf (Ω, A) definiert durch14 Z µ P (A) = P 0 (A − x) dµ(x), A ∈ A. (7) {z } Rd | =P x (A)
Siehe Karatzas, Shreve (1999, p. 72) zur B(Rd )-B([0, 1])-Meßbarkeit von x 7→ P x (A). Im Sinne der schwachen Konvergenz kann eine d-dimensionale Brownsche Bewegung durch eine d-dimensionale Irrfahrt approximiert werden. µ
Definition 7. Sei M metrischer Raum und µ ∈ M(M ). Bezeichne mit B(M ) die µ-Vervollst¨andigung von B(M ). Dann heißt \ µ B(M ) U(M ) = µ∈M(M )
die σ-Algebra der universell meßbaren Mengen. Kurz: universelle Meßbarkeit f¨ ur k U(M )-B(R )-Meßbarkeit. Definition 8. d-dimensionale Brownsche Familie ist eine Familie (Wt )t∈I von Abbildungen Wt : Ω → Rd und eine Familie (P x )x∈Rd von Wahrscheinlichkeitsmaßen auf (Ω, A), so daß gilt 13 14
Es gilt (B(C(I)))d = B(C(I)d ), siehe G¨anssler, Stute (1977, Satz 1.3.13). Vgl. Faltung.
43
(i) f¨ ur alle A ∈ A: x 7→ P x (A) universell meßbar, (ii) f¨ ur alle x ∈ Rd : (Wt )t∈I ist Brownsche Bewegung mit Startwert x auf (Ω, A, P x ). Konstruktion: siehe oben; hier wird sogar die Borel-Meßbarkeit in (i) erreicht. Eine Brownsche Familie liefert Brownsche Bewegungen mit beliebigen Startverteilungen gem¨aß (7).
3.2
Markov-Prozesse
Motivation: Ged¨achtnislosigkeit“ von Irrfahrten. ” Definition 9. Rd -wertiger adaptierter Prozeß X = (Xt )t∈I heißt Markov-Prozeß mit Startverteilung µ, falls (i) X0 P = µ, (ii) f¨ ur s, t ≥ 0 und Γ ∈ B(Rd ) P ({Xs+t ∈ Γ} | Fs ) = P ({Xs+t ∈ Γ} | Xs ). Speziell falls µ({x}) = 1: Markov-Prozeß mit Startpunkt x ∈ Rd . Analog f¨ ur Teilmengen von [0, ∞[ als Indexmengen, insbesondere f¨ ur die diskrete Indexmenge N0 . Proposition 6. Sei X Markov-Prozeß. Setze Bs = σ({Xu : u ≥ s}). Dann (i) f¨ ur s ∈ I und A ∈ Bs P (A | Fs ) = P (A | Xs ), (ii) f¨ ur s ∈ I und Y Bs -meßbar mit E(|Y |) < ∞ E(Y | Fs ) = E(Y | Xs ). Beweis. ad (i): siehe Karatzas, Shreve (1999, p. 76, 77). ad (ii): algebraische Induktion unter Verwendung von (i). Definition 10. d-dimensionale Markov-Familie ist eine Familie (Xt )t∈I von Abbildungen Xt : Ω → Rd und eine Familie (P x )x∈Rd von Wahrscheinlichkeitsmaßen auf (Ω, A), so daß gilt (i) f¨ ur alle A ∈ A: x 7→ P x (A) universell meßbar, (ii) f¨ ur alle x ∈ Rd : (Xt )t∈I ist Markov-Prozeß mit Startwert x auf (Ω, A, P x ), (iii) f¨ ur x ∈ Rd , s, t ≥ 0 und Γ ∈ B(Rd ) gilt P x ({Xs+t ∈ Γ} | Xs = y) = P y ({Xt ∈ Γ}) f¨ ur Xs P x f.a. y ∈ Rd . 44
Proposition 7. Jede d-dimensionale Brownsche Bewegung ist ein Markov-Prozeß. Jede d-dimensionale Brownsche Familie ist eine Markov-Familie. Beweis. Betrachte d-dimensionale Zufallsvektoren X, Y auf (Ω, A, P ) und eine σAlgebra G ⊂ A. Gelte: X und G unabh¨angig, Y G-B(Rd )-meßbar. Dann folgt f¨ ur d Γ ∈ B(R ) P ({X + Y ∈ Γ} | G) = P ({X + Y ∈ Γ} | Y ) (8) und f¨ ur Y P -f.a. y ∈ Rd P ({X + Y ∈ Γ} | Y = y) = P ({X + y ∈ Γ}),
(9)
siehe Karatzas, Shreve (1999, p. 121). Anwendung: G = Fs , X = Ws+t − Ws , Y = Ws . Mit (8) folgt: W ist Markov-Prozeß. Ferner liefert (9) P x ({Ws+t ∈ Γ} | Ws = y) = P x ({Ws+t − Ws + y ∈ Γ}). Die Verteilung von Ws+t − Ws + y bzgl. P x ist N (y, t Idd ) und stimmt folglich mit der Verteilung von Wt bzgl. P y u ¨berein. Bemerkung 4. Es gilt weder Markov-Prozeß ⇒ Martingal“ noch Martingal ⇒ ” ” Markov-Prozeß“. Gegenbeispiel zur ersten Implikation: Poisson-Prozeß; Beweis siehe oben. Gegenbeispiel zur zweiten Implikation: ¨ Ubung 7.4.
3.3
Starke Markov-Eigenschaft und Spiegelungsprinzip
Betrachte eine eindimensionale Brownsche Bewegung W bzgl. F und ihre Niveauzeiten Tb (ω) = inf{t ∈ I : Wt (ω) = b},
b ∈ R.
Diese sind Stoppzeiten, siehe Proposition I.5.(ii). Fragen: Wie lautet die Verteilung von Tb ? Gilt insbesondere Tb < ∞ P -f.s.? Im Falle einer positiven Antwort: ist (WTb +t −WTb )t∈I eine Brownsche Bewegung und unabh¨angig von FTb ? Setze Ft+ =
\
Ft+ε
ε>0
sowie FT + = {A ∈ A : ∀ t ∈ I : A ∩ {T ≤ t} ∈ Ft+ } f¨ ur optionale Zeiten T : Ω → I ∪ {∞}. Bemerkung 5. (i) (Ft+ )t∈I ist rechtsseitig stetige Filtration mit Ft ⊂ Ft+ , (ii) T optionale Zeit bzgl. F ⇔ T Stoppzeit bzgl. F+ 45
(iii) FT + ist σ-Algebra. Ferner FT ⊂ FT + f¨ ur Stoppzeiten T . Definition 11. Optionale Zeit T heißt P -endlich, falls P ({T < ∞}) = 1. Definition 12. Rd -wertiger progressiv meßbarer Prozeß X = (Xt )t∈I heißt starker Markov-Prozeß mit Startverteilung µ, falls (i) X0 P = µ, (ii) f¨ ur t ≥ 0, Γ ∈ B(Rd ) und jede P -endliche optionale Zeit S gilt P ({XS+t ∈ Γ} | FS+ ) = P ({XS+t ∈ Γ} | XS ). Speziell falls µ({x}) = 1: starker Markov-Prozeß mit Startpunkt x ∈ Rd . Definition 13. d-dimensionale starke Markov-Familie ist eine Familie (Xt )t∈I von Abbildungen Xt : Ω → Rd und eine Familie (P x )x∈Rd von Wahrscheinlichkeitsmaßen auf (Ω, A), so daß gilt (i) f¨ ur alle A ∈ A: x 7→ P x (A) universell meßbar, (ii) f¨ ur alle x ∈ Rd : (Xt )t∈I ist starker Markov-Prozeß mit Startwert x auf (Ω, A, P x ), (iii) f¨ ur x ∈ Rd , t ≥ 0, Γ ∈ B(Rd ) und jede P x -endliche optionale Zeit S gilt P x ({XS+t ∈ Γ} | XS = y) = P y ({Xt ∈ Γ}) f¨ ur XS P x f.a. y ∈ Rd . Satz 5. Jede d-dimensionale Brownsche Bewegung ist ein starker Markov-Prozeß. Jede d-dimensionale Brownsche Familie ist eine starke Markov-Familie. Beweis. Siehe Karatzas, Shreve (1999, Sections 2.6 B, C). Im folgenden sei W eine d-dimensionale Brownsche Bewegung und S eine P -endliche optionale Zeit. Satz 6. Durch Bt = WS+t − WS ,
t ∈ I,
wird eine Brownsche Bewegung bez¨ uglich (FB t ) mit Startwert 0 definiert, die unabh¨angig von FS+ ist. Beweis. Siehe Karatzas, Shreve (1999, p. 86, 87). Satz 7 (Spiegelungsprinzip). Sei S Stoppzeit und d = 1. Durch ( Wt falls 0 ≤ t < S Bt = 2WS − Wt falls t ≥ S wird eine Brownsche Bewegung bez¨ uglich (FB t ) mit Startwert 0 definiert. 46
Beweis. Siehe Partzsch (1984, p. 47). Anwendung: Die Verteilungen der Niveauzeiten Tb und damit der Maxima auf kompakten Intervallen [0, u] f¨ ur eine eindimensionale Brownsche Bewegung mit Startwert 0. 15 OBdA b > 0. F¨ ur u > 0 P ({Tb ≤ u}) = P ({ max Wt ≥ b}) t∈[0,u]
= P ({Tb ≤ u} ∩ {Wu ≤ b}) + P ({Tb ≤ u} ∩ {Wu > b}) = P ({Tb ≤ u} ∩ {Wu ≤ b}) + P ({Wu > b}). Mit Satz 7 folgt P ({Tb ≤ u} ∩ {Wu ≤ b}) = P ({Wu ≥ b}). Fazit r
2 Z ∞ 2 y P ({Tb ≤ u}) = 2 · P ({Wu ≥ b}) = · exp − dy πu b 2u r 2 Z ∞ 2 y = · √ exp − dy. π b/ u 2
3.4
Brownsche Filtrationen
Die Filtration im kanonischen Modell der Brownschen Bewegung ist nicht rechtsseitig stetig. Ferner existieren in diesem Modell Mengen A ∈ B(C(I)) mit P∗ (A) = 0 und A 6∈ Ft f¨ ur alle t ∈ I, vgl. ¨ Ubung 8.2. F¨ ur beliebige Filtrationen F = (Ft )t∈I setzen wir ! F∞ = σ
[
Ft .
t∈I
Betrachte einen d-dimensionalen Prozeß X auf (Ω, A, P ) mit seiner kanonischen Filtration FX . Setze NP = {A ⊂ Ω : ∃ B ∈ FX ∞ : A ⊂ B ∧ P (B) = 0}. Nach Einschr¨ankung von P auf FX andigung erh¨alt man ∞ und anschließender Vervollst¨ X P ein Wahrscheinlichkeitsmaß auf σ(F∞ ∪ N ), welches wieder mit P bezeichnet wird. Durch P FPt = σ(FX t ∈ I, t ∪ N ), erh¨alt man eine von X und P abh¨angige Filtration FP , genannt die augmentierte Filtration. Proposition 8. F¨ ur jeden starken Markov-Prozeß erf¨ ullt FP die u ¨blichen Voraussetzungen. 15
Mit W ist auch −W Brownsche Bewegung bzgl. derselben Filtration, siehe Proposition 10.
47
Beweis. Siehe Karatzas, Shreve (1999, p. 90) zum Beweis der rechtsseitigen Stetigkeit. Klar: NP ⊂ FP0 . Proposition 9. F¨ ur jede d-dimensionale Brownsche Bewegung W gilt: W ist auch P bzgl. F eine Brownsche Bewegung. Beweis. Klar. Somit insbesondere konstruiert: eine Brownsche Bewegung unter den u ¨blichen Voraussetzungen u ¨ber die Filtration. Betrachte nun eine Brownsche Familie (Wt )t∈I , (P x )x∈Rd . Definiere P µ gem¨aß (7) sowie \ µ et = F FPt , t ∈ I. µ∈M(Rd )
e ist rechtsseitig stetig und es gilt Klar: die Filtration F µ
P e FW t ⊂ Ft ⊂ Ft .
Satz 8. Jede d-dimensionale Brownsche Familie (Wt )t∈I , (P x )x∈Rd ist auch bzgl. der et )t∈I auf (Ω, F e∞ ) eine d-dimensionale Brownsche Familie. Filtration (F Beweis. Siehe Karatzas, Shreve (1999, p. 93). Im Beweis l¨aßt sich nur die universelle e∞ zeigen. Meßbarkeit der Abbildungen x 7→ P x (F ) f¨ ur alle F ∈ F e heißt auch die universelle Filtration der Brownschen Familie. Obige Filtration F
4
Pfadeigenschaften der Brownschen Bewegung
Im folgenden sei W = (Wt )t∈I eine eindimensionale Brownsche Bewegung mit Startwert 0 auf (Ω, A, P ) bzgl. der Filtration (Ft )t∈I . Proposition 10 (Symmetrie). (−Wt )t∈I ist Brownsche Bewegung bzgl. (Ft )t∈I mit Startwert 0. Proposition 11 (Skalierungsinvarianz). F¨ ur jedes c > 0 definiert 1 Xt = √ · Wc·t , c
t ∈ I,
eine Brownsche Bewegung bzgl. (Fc·t )t∈I mit Startwert 0. Beweise der nachstehenden Fakten finden sich bei Karatzas, Shreve (1999, Chap. 2.9). Proposition 12 (Projektive Spiegelung bei t = ∞). Durch ( t · W (1/t) falls t > 0 Xt = 0 falls t = 0 wird eine Brownsche Bewegung bzgl. FX mit Startwert 0 definiert. 48
Proposition 13 (Zeitumkehr). F¨ ur jedes T > 0 wird durch Xt = WT − WT −t ,
t ∈ [0, T ],
eine Brownsche Bewegung auf [0, T ] bzgl. (FX t )t∈[0,T ] mit Startwert 0 definiert. Proposition 14 (Starkes Gesetz der großen Zahlen). Wt =0 t→∞ t lim
P -f.s.
Proposition 15 (Gesetz vom iterierten Logarithmus). lim sup √ t→∞
Wt =1 2t · ln ln t
P -f.s.
Proposition 16 (H¨ older-Stetigkeit und Nichtdifferenzierbarkeit). P -f.s. gilt: W in keinem Punkt H¨older-stetig mit Exponent γ > 1/2. Vgl. Abschnitt 1. Proposition 17 (L´ evyscher Stetigkeitsmodul). m1 (W ; δ) lim sup √ =1 δ→0 2δ · ln δ −1
P -f.s.
Betrachte die Niveaumengen Zb (ω) = {t ∈ I : Wt (ω) = b}. Proposition 18. P -f.s. gilt: Zb ist abgeschlossen und unbeschr¨ankt, hat LebesgueMaß null besitzt den H¨aufungspunkt null f¨ ur b = 0 und keine isolierten Punkte in ]0, ∞[.
49
Kapitel III Stochastische Integration Literatur: Karatzas, Shreve (1999, Chap. 3). Gegeben: Wahrscheinlichkeitsraum (Ω, A, P ) mit Filtration1 F = (Ft )t∈I f¨ ur I = [0, ∞[, die den u blichen Voraussetzungen gen¨ u gt, sowie Prozesse X = (X ) ¨ t t∈I und c M = (Mt )t∈I ∈ M2 . Speziell: M = W eindimensionale Brownsche Bewegung mit Startwert 0.
1
Konstruktion des stochastischen Integrals
Die S¨atze I.11 und I.12 zeigen in nichttrivialen F¨allen2 f¨ ur alle t > 0: P -f.s. ist M von unbeschr¨ankter Variation auf [0, t]. Somit ist eine pfadweise Definition von stochastischen Integralen Z t Xu (ω) dMu (ω), t ∈ I, ω ∈ Ω, It (X)(ω) = 0
i.a. nicht m¨oglich.
1.1
Integral fu ¨ r einfache Prozesse
Definition 1.
(i) X = (Xt )t∈I heißt einfach, falls es 0 = t0 < t1 < . . . ,
lim ti = ∞
i→∞
und Zufallsvariablen ξi auf (Ω, A, P ) gibt, so daß sup sup |ξi (ω)| < ∞ ω∈Ω i∈N0 1 2
Im folgenden Adaptiertheit und Martingaleigenschaft stets bzgl. dieser Filtration. Insbesondere f¨ ur M = W .
50
und ∀ i ∈ N0 :
ξi Fti -meßbar,
und
∞ X
Xt (ω) = ξ0 (ω) · 1{0} (t) +
ξi (ω) · 1]ti ,ti+1 ] (t) .
(1)
i=0
Bez.: L0 Vektorraum der einfachen Prozesse. (ii) F¨ ur X einfach mit Darstellung (1) setze das stochastische Integral von X bzgl. M auf [0, t]: It (X)(ω) :=
n−1 X
ξi (ω) · (Mti+1 (ω) − Mti (ω)) + ξn (ω) · (Mt (ω) − Mtn (ω)),
i=0
=
X
ξi · (Mt∧ti+1 − Mt∧ti ).
i∈N0
Lemma 1. Sei A = (At )t∈I stetig und wachsend. Dann sind a¨quivalent (i) ∀ 0 ≤ s < t :
E((Mt − Ms )2 | Fs ) = E(At − As | Fs ),
(ii) A = hM i. Beweis. (ii) ⇒ (i)“ siehe Beweis von Satz I.11. ” (i) ⇒ (ii)“: folgt aus ” E(Mt2 | Fs ) − Ms2 = E((Mt − Ms )2 | Fs ) = E(At | Fs ) − As und der Eindeutigkeitsaussage f¨ ur die Doob-Meyer-Zerlegung von M 2 . Proposition 1. (i) It (·) ist wohldefiniert und linear auf L0 , (ii) f¨ ur X ∈ L0 gilt (It (X))t∈I ∈ Mc2 und3 Z hI(X)it =
t
Xu2 dhM iu ,
0
(iii) f¨ ur X ∈ L0 gilt Z
2
E(It (X) ) = E
t
Xu2
dhM iu .
0
Beweis. ad (i): klar. ad (ii): F¨ ur 0 ≤ s < t und i ∈ N0 gilt4 E(ξi · (Mt∧ti+1 − Mt∧ti ) | Fs ) = ξi · (Ms∧ti+1 − Ms∧ti ). 3 4
Das rechts stehende Integral ist pfadweise als klassisches Riemann–Stieltjes–Integral definiert Fallunterscheidung; siehe auch ¨ Ubung 4.2.
51
t ∈ [tn , tn+1 ]
Hiermit folgt die Martingaleigenschaft von I(X), und jetzt ist klar: I(X) ∈ Mc2 . Durch
Z At =
t
Xu2 dhM iu
0
wird offenbar ein wachsender stetiger Prozeß definiert. Zu zeigen bleibt die Martingaleigenschaft von I(X)2 − A. Gelte s ∈ [tm−1 , tm [ und t ∈ [tn , tn+1 [, also m − 1 ≤ n. 1. Fall: m − 1 < n. Dann It (X) − Is (X) = ξm−1 · (Mtm − Ms ) +
n−1 X
ξi · (Mti+1 − Mti ) + ξn · (Mt − Mtn ).
i=m
Gelte 0 ≤ s < t ≤ u < v und sei Y beschr¨ankt und Fu -meßbar. Dann E(Y · (Mv − Mu ) · (Mt − Ms ) | Fu ) = 0. Mit Lemma 1 folgt E((It (X) − Is (X))2 | Fs ) n−1 X 2 2 2 2 2 2 = E ξm−1 · (Mtm − Ms ) + ξi · (Mti+1 − Mti ) + ξn · (Mt − Mtn ) | Fs =E
2 ξm−1
i=m n−1 X
· (hM itm − hM is ) +
ξi2
· (hM iti+1 − hM iti ) +
ξn2
· (hM it − hM itn ) | Fs
i=m
Z =E
t
Xu2
dhM iu | Fs
= E(At − As | Fs ).
(2)
s
Wende nochmals Lemma 1 an. 2. Fall: m − 1 = n. Einfacher. ad (iii): W¨ahle s = 0 und integriere (2).
1.2
Fortsetzung des Integrals
Wir definieren zun¨achst I f¨ ur eine Klasse von Prozessen, die L0 umfaßt, wobei insbesondere die Eigenschaften aus Proposition 1 erhalten bleiben. Betrachte das durch Z Z
∞
1A (u, ω) dhM iu (ω) dP (ω)
µM (A) = Ω 0
definierte5 MaßµM auf (I × Ω, B(I) ⊗ A). Im Spezialfall M = W erh¨alt man µW = λ ⊗ P, wobei λ das Lebesgue-Maß bezeichnet. 5
µM ist wohldefiniert, siehe G¨ anssler, Stute (1977, Kap. 1.8) oder ¨ Ubung 9.4.
52
Definition 2. Sei X meßbar und adaptiert. Setze6 Z t Z 2 2 [X]t = E Xu dhM iu = 1[0,t] · Xu2 (ω) dµM (t, ω) 0
I×Ω
sowie [X] =
∞ X
2−t · (1 ∧ [X]t ).
t=1 ∗
∗
Sei L = L (M ) der Vektoraum der meßbaren progressiv meßbaren Prozesse X mit [X]t < ∞ f¨ ur alle t ∈ I (also [X] < ∞). Offenbar ist L0 ⊂ L∗ . Wir betrachten fortan stets die durch [X − Y ] definierte Metrik auf L∗ . Wir erinnern an den Lebesgueschen Differentiationssatz: Satz 1 (Lebesgue). Es sei f eine Lebesgue-integrable Funktion auf (0, ∞). Dann gilt f¨ ur Lebesgue–fast alle Punkte t > 0, daß Z t lim f (y) dy = f (t) . h→0
t−h
Lemma 2. Sei X meßbar, adaptiert und beschr¨ankt durch c ≥ 0. Dann existiert eine Folge (X (n) )n∈N von durch c beschr¨ankten Prozessen in L0 mit Z t (n) 2 (Xu − Xu ) du = 0. ∀t∈I: lim E n→∞
0
Beweis. 1. Fall: X stetig. Interpolation durch Treppenfunktionen, Lebesguescher Grenzwertsatz. 2. Fall: X progressiv meßbar. Setze7 Z s∧t Ys (ω) = Xu (ω) du, Zs(m) (ω) = m · Ys (ω) − Y(s−1/m)∨0 (ω) 0
f¨ ur m ∈ N. Es gilt: Y , Z (m) sind stetig, adaptiert, und damit progressiv meßbar, und Z (m) ist beschr¨ankt durch c. Der Lebesguesche Differentiationssatz sichert (m) ∀ ω ∈ Ω : lim Z· (ω) = X· (ω) λ-f.s. , m→∞
und deshalb lim Z (m) = X
m→∞
λ ⊗ P -f.s.
Mit dem Lebesgueschen Grenzwertsatz folgt Z t (m) 2 lim E (Xu − Zu ) du = 0. m→∞
6 7
0
[X]t ist L2 -Norm von 1[0,t] · X bzgl. µM . Notation: ∨ f¨ ur max.
53
Approximiere Z (m) geeignet gem¨aß Fall 1.). 3. Fall: X meßbar, adaptiert. Wir zeigen, daß Y wiederum adaptiert ist. Jeder Prozeß e siehe Karatzas, Shreve X wie oben besitzt eine progressiv meßbare Modifikation X, (1999, Prop. I.1.12). Wir zeigen, daß durch Z s∧t e eu (ω) du, Ys (ω) = X s ∈ I, 0
eine Modifikation des oben definierten Prozesses Y gegeben ist. Betrachte den adaptierten meßbaren Prozeß s ∈ I.
ηs (ω) = 1{Xs 6=Xes } (ω), Es gilt Z E
t
ηu du
Z =
0
t
Z
0
und somit
t
eu }) du = 0 P ({Xu 6= X
E(ηu ) du = 0
Z
t
P
ηu du = 0 = 1.
0
Weiterhin
Z
t
{Ys 6= Yes } ⊂
ηu du > 0 .
0
Also ist Ye eine Modifikation von Y , und unter den u ¨blichen Voraussetzungen ist mit e Y auch Y adaptiert. Fahre fort wie im 2. Fall. Proposition 2. L0 liegt dicht in L∗ . ¨ Beweis. Analog zu der Uberlegung im Beweis von Lemma 2 m¨ ussen wir nur zu festem [m] [m] T > 0 eine Folge von Elementen X ∈ L0 finden mit [X −X ]T → 0. Weiter k¨onnen (K) wir ohne Einschr¨ankung annehmen, daß X beschr¨ankt ist, denn Xt := Xt · 1|Xt |>K ist auch progressiv meßbar, und nach dem Satz von der monotonen Konvergenz folgt [X − X (K) ]T → 0. Sei also |Xt (ω)| ≤ C f¨ ur t ∈ [0, T ], ω ∈ Ω, und sei ObdA Xt (ω) = 0, t > T . Weiter ist Vt := hM it + t stetig und f¨ ur P –fast alle ω ∈ Ω streng wachsend; obdA sei f¨ ur alle ω ∈ Ω hM i nichtfallend und ≥ 0, also Vt (ω) streng wachsend. Dann existiert f¨ ur jedes ω ∈ Ω eine stetige, streng wachsende Funktion Ts (ω), sodaß VTs (ω) (ω) = hM iTs (ω) + Ts (ω) = s f¨ ur alle s. Insbesondere gilt • Ts (ω) ≤ s, • {Ts ≤ t} = {hM it + t ≥ s} ∈ Ft , also ist Ts Stopzeit f¨ ur jedes s. Setze Gs := FTs und Ys (ω) := XTs (ω) (ω). Nach Proposition I.68 ist Y ein G–adaptierter Prozeß; weiter l¨aßt sich Ts schreiben als Ts (ω) = sup t · 1{hM it +t≤s} (ω) , t≤s t∈Q
8
Hier geht die progressive Meßbarkeit von X ein.
54
und hieraus erh¨alt man leicht, daß Y meßbar ist. Folglich d¨ urfen wir Lemma 2 anwenden und erhalten, daß f¨ ur ε > 0 und R ∈ R stets ein Y ε ∈ L0 existiert, sodaß Z R E |Ys − Ysε | ds < ε/2 . 0
Weil aber wegen Xt (ω) ≤ C, Xt = 0, t > T leicht folgt, daß Z ∞ Z ∞ 2 E |Ys | ds = E 1{Ts ≤T } |XTs |2 ds 0 0 Z hM iT +T = E |XTs |2 ds 0
≤ C(E hM iT + T ) < ∞ , kann man f¨ ur hinreichend großes R ein Y ε ∈ L0 finden mit Z ∞ E |Ys − Ysε |2 ds < ε ,
Ysε = 0, s ≥ s0 .
0
Wir k¨onnen Ysε als endliche Summe schreiben, Ysε
= ξ0 · 1{0} (s) +
n X
ξsj−1 · 1]sj−1 ,sj ] (s) ,
j=1
mit ξsj meßbar bzgl. Gsj = FTsj und beschr¨ankt. Nun machen wir den Zeitwechsel r¨ uckg¨angig; ε Xtε := YhM it +t = ξ0 · 1{0} (t) +
n X
ξsj−1 · 1]Tsj−1 ,Tsj ] (t) .
j=1
Man verifiziert leicht, daß X ε meßbar und adaptiert ist. Weiter k¨onnen wir absch¨atzen: Z ∞ Z T Z T ε 2 ε 2 |Ysε − Ys |2 ds < ε . E |Xt − Xt | dhM it ≤ E |Xt − Xt | d(hM it + t) ≤ E 0
0
0
Dummerweise ist Xtε kein einfacher Prozeß; daher m¨ ussen wir noch zu guter Letzt zeigen, daß sich ein Prozeß der Gestalt ηt := ξsj−1 · 1]Tsj−1 ,Tsj ] (t) durch einfache Prozesse approximieren lassen. Dies geschieht durch Zeitdiskretisierung. Der Einfachheit halber sei sj−1 = 1, sj = 2. Setze Tim
:=
2m+1 X+1 k=1
k 1](k−1)/2m ,k/2m ] (Ti ), 2m
und definiere ηtm
:= ξ1 · 1]T1m ,T2m ] (t) =
2m+1 X+1
ξ1 · 1T1 0:
(1)
sup sup Vt (B; π)(ω) ≤ K. ω∈Ω
π
Dann sichert der Lebesguesche Grenzwertsatz 2 (2) lim E Vt (B; πn ) = 0 n→∞
f¨ ur alle Folgen von Partitionen mit limn→∞ kπn k = 0. Im allgemeinen Fall: Lokalisation. Details bei Karatzas, Shreve (1999, p. 149–153). 62
Beispiel 3. W¨ahle f (x) = x2 , X = M = W und B = 0. Dann14 Z t 2 Wt = 2 Wu dWu + t. 0
Bemerkung 5. Man verwendet oft die symbolische Kurzschreibweise df (Xt ) = f 0 (Xt ) dMt + f 0 (Xt ) dBt + 21 f 00 (Xt ) dhM it = f 0 (Xt ) dXt + 12 f 00 (Xt ) dhM it f¨ ur die Formel aus Satz 5. Zum Vergleich die Kettenregel der klassischen Differentialrechnung: df (Xt ) = f 0 (Xt ) dXt . R R R Man schreibt kurz Y dX f¨ ur Y dB + Y dM . Satz 5 enth¨alt die Grundversion der Ito-Formel. Allgemeinere Varianten, deren Beweise ¨ahnlich wie der oben skizzierte verlaufen, lauten wie folgt. Satz 6. Sei f : I × R → R mit stetigen partiellen Ableitungen ft = f (1,0) ,
fx = f (0,1) ,
fxx = f (0,2)
und sei X von der Form (5). Dann folgt Z t Z t Z t f (t, Xt ) =f (0, X0 ) + ft (u, Xu ) du + fx (u, Xu ) dMu + fx (u, Xu ) dBu 0 0 0 Z t 1 +2 fxx (u, Xu ) dhM iu , t ∈ I. 0
Nun zur Ito-Formel f¨ ur Rd -wertige Prozesse X, die komponentenweise von der Form (5) sind. Betrachte Abbildungen f : I × Rd → R mit stetigen partiellen Ableitungen f (1,0) mit 0 ∈ Nd0 ,
f (0,α) mit α ∈ Nd0 und |α| ≤ 2.
Die Bezeichnungen ft , fxi und fxi xj sind kanonisch. Gelte (i)
(i)
(i)
(i)
Xt = X0 + Mt + Bt ,
t ∈ I, i ∈ {1, . . . , d},
(i)
so daß X0 F0 -meßbar, M (i) ∈ Mc2 , B (i) stetig, adaptiert mit beschr¨ankter Variation (i) auf beliebigen kompakten Intervallen und B0 = 0. Satz 7. Unter obigen Voraussetzung gilt Z t f (t, Xt ) =f (0, X0 ) + ft (u, Xu ) du 0
+
d Z t X
1 2
d X i,j=1
14
Die Berechnung von
+
0
i=1
+
fxi (u, Xu ) dMu(i)
Rt 0
d Z X i=1
Z
t
fxi (u, Xu ) dBu(i)
0
t
fxi xj (u, Xu ) dhM (i) , M (j) iu ,
0
Wu dWu ist jetzt ein Einzeiler, vgl. Bsp. 1
63
t ∈ I.
Satz 8 (partielle Integration). Z t Z t (1) (2) (1) (2) (1) (2) Xt · Xt = X0 · X0 + Xs dXs + Xs(2) dXs(1) + hM (1) , M (2) it , 0
t ∈ I.
0
Beweis. Ito-Formel mit f (t, x1 , x2 ) = x1 · x2 .
3
Die geometrische Brownsche Bewegung
Literatur: Irle (1999, Kap. 8), Bingham, Kiesl (1998, Chap. 4.6). F¨ ur α ∈ R und σ, s0 > 0 definieren wir f : I × R → R durch f (t, x) = s0 · exp(α t + σ x). Sei W eine eindimensionale Brownsche Bewegung mit Startwert 0. Setze St = f (t, Wt ), also St = s0 · exp(α t + σ Wt ), t ∈ I. ¨ Ubung 7.2 behandelt den Spezialfall α = 0 und σ = 1. Definition 7. Der oben definierte Prozeß S = (St )t∈I heißt geometrische Brownsche Bewegung mit Startwert s0 und Volatilit¨at σ. Fortan: S geometrische Brownsche Bewegung. Anwendung der Ito-Formel f¨ ur X = M = W und B = 0: Z t Z t Z t 1 2 Su dWu + 2 σ · St = S0 + α · Su du + σ · Su du 0 0 0 Z t Z t 1 2 = S0 + α + 2 σ · Su du + σ · Su dWu . 0
(6)
0
Also l¨ost S die stochastische Integralgleichung (6). Definition 8. Drift der geometrischen Brownschen Bewegung S: µ = α + 21 σ 2 . Lemma 4. F¨ ur t ∈ I gilt E(St ) = s0 · exp(µ t),
Var(St ) = s20 · exp(2µ t) · exp(σ 2 t) − 1 .
Beweis. Mit Satz 2 oder elementar. Lemma 5. Die relativen Inkremente (St − Ss )/Ss , 0 ≤ s < t, sind unabh¨angig von Fs und station¨ar. Die returns St /Ss sind lognormalverteilt. 64
Beweis. Verwende (St − Ss )/Ss = exp(α (t − s) + σ (Wt − Ws )) − 1. Das Donskersche Invarianzprinzip l¨aßt sich auf die geometrische Brownsche Bewegung u ¨bertragen. Wir verwenden die Bezeichnungen und Annahmen aus Abschnitt II.2.3. Hier nur der Martingal-Fall mit s0 = 1. Definiere H : C(I) → C(I) durch (Hf )(t) = exp(− 21 σ 2 t + σ f (t)). ¨bung 11.4. Klar: HP∗ ist die Dann konvergiert HPn schwach gegen HP∗ ; Beweis U Verteilung der geometrischen Brownschen Bewegung mit Startwert 1, Drift 0 und Volatilit¨at σ, und HPn ist die Verteilung von S (n) = HX (n) . Es gilt (n)
(n)
St (ω) = exp(− 21 σ 2 t + σ Xt (ω)) und f¨ ur t ∈ [k/n, (k + 1)/n] mit k ∈ N0 − 12
2
σ t+σ
(n) Xt
k X √ √ √ √ 1 √ (ξj − 12 σ 2 / n) + (t n − k/ n) · (ξk+1 − 12 σ 2 / n). = n j=1
Somit (n) St
=
k Y
exp j=1 |
√ (n) t n−k 1 1 2 √ ξj − 2 σ / n · Yk+1 . n {z } (n)
Yj (n)
(n)
Klar: f¨ ur jedes n ∈ N sind Y1 , Y2 , . . . iid. (n)
Spezialfall: ξj zweipunktverteilt. Dann ist Sk/n , k ∈ N0 , der Aktienpreisprozeß in einem Cox-Ross-Rubinstein-Modell, siehe Beispiel I.5. Im Falle P ({ξj = ±σ}) = 12 (n) nimmt Yj jeweils mit Wahrscheinlichkeit 21 die Werte √ exp(±σ/ n) · exp(− 12 σ 2 /n) an.
65
Literatur R. J. Adler, The Geometry of Random Fields, Wiley, Chichester, 1981. L. Arnold, Stochastische Differentialgleichungen, Oldenbourg, M¨ unchen, 1973. K. L. Chung, A Course in Probability Theory, Academinc Press, New York, 1974. K. L. Chung, R. J. Williams, Introduction to Stochastic Integration, Birkh¨auser, Boston, 1990. R. J. Elliott, Stochastic Calculus and Applications, Springer, New York, 1982. A. Friedman, Partial Differential Equations of Parabolic Type, Prentice-Hall, Englewood Cliffs, 1964. A. Friedman, Stochastic Differential Equations and Applications, Vol. 1, Academic Press, New York, 1975. P. G¨anssler, W. Stute, Wahrscheinlichkeitstheorie, Springer-Verlag, Berlin, 1977. I. I. Gihman, A. V. Skorohod, The Theory of Stochastic Processes III, Springer, Berlin, 1979. I. Karatzas, S. E. Shreve, Brownian Motion and Stochastic Calculus, Springer-Verlag, New York, 1999. K. R. Parthasarathy, Probability Measures on Metric Spaces, Academic Press, New York, 1967. L. Partzsch, Vorlesungen zum eindimensionalen Wienerschen Prozeß, Teubner, Leipzig, 1984. P. Protter, Stochastic Integration and Differential Equations, Springer-Verlag, 1990. L. C. G. Rogers, D. Williams, Diffusions, Markov Processes and Martingales, Vol. 2, Cambridge Univ. Press, 2000. J. Yeh, Martingales and Stochastic Analysis, World Scientific, Singapore, 1995. sowie N. H. Bingham, R. Kiesel, Risk-Neutral Valuation, Springer-Verlag, London, 1998. N. A. C. Cressie, Statistics for Spatial Data, Wiley, New York, 1993.
E. Eberlein, Grundideen moderner Finanzmathematik, DMV-Mitteilungen 3/98, 10–20, 1998. H. F¨ollmer, Ein Nobelpreis f¨ ur Mathematik?, DMV-Mitteilungen 1/98, 4–7, 1998. H.-O. Georgii, Gibbs Measures and Phase Transitions, de Gruyter, Berlin, 1988. P. E. Kloeden, E. Platen, Numerical Solution of Stochastic Differential Equations, Springer, Berlin, 1995. A. Irle, Finanzmathematik, Teubner, Stuttgart, 1998. G. Winkler, Image Analysis, Random Fields and Dynamic Monte Carlo Methods, SpringerVerlag, Berlin, 1995.
67