Springer-Lehrbuch
Karl Mosler ´ Friedrich Schmid
Wahrscheinlichkeitsrechnung und schlieûende Statistik Zweite, verbesserte Auflage
Mit 42 Abbildungen und 7 Tabellen
12
Univ.-Professor Dr. Karl Mosler Univ.-Professor Dr. Friedrich Schmid Universitåt zu Kæln Seminar fçr Wirtschafts- und Sozialstatistik Albertus-Magnus-Platz 50923 Kæln
[email protected] [email protected] Auf dem Umschlag sind abgebildet (von links): Carl Friedrich Gauss (1777±1855) Karl Pearson (1857±1936) Ronald Aylmer Fisher (1890±1962) Andrei N. Kolmogoroff (1903±1987)
ISBN-10 ISBN-13
3-540-27787-0 Springer Berlin Heidelberg New York 978-3-540-27787-3 Springer Berlin Heidelberg New York
ISBN 3-540-00970-1 1. Auflage Springer Berlin Heidelberg New York
Bibliografische Information Der Deutschen Bibliothek Die Deutsche Bibliothek verzeichnet diese Publikation in der Deutschen Nationalbibliografie; detaillierte bibliografische Daten sind im Internet çber abrufbar. Dieses Werk ist urheberrechtlich geschçtzt. Die dadurch begrçndeten Rechte, insbesondere die der Ûbersetzung, des Nachdrucks, des Vortrags, der Entnahme von Abbildungen und Tabellen, der Funksendung, der Mikroverfilmung oder der Vervielfåltigung auf anderen Wegen und der Speicherung in Datenverarbeitungsanlagen, bleiben, auch bei nur auszugsweiser Verwertung, vorbehalten. Eine Vervielfåltigung dieses Werkes oder von Teilen dieses Werkes ist auch im Einzelfall nur in den Grenzen der gesetzlichen Bestimmungen des Urheberrechtsgesetzes der Bundesrepublik Deutschland vom 9. September 1965 in der jeweils geltenden Fassung zulåssig. Sie ist grundsåtzlich vergçtungspflichtig. Zuwiderhandlungen unterliegen den Strafbestimmungen des Urheberrechtsgesetzes. Springer ist ein Unternehmen von Springer Science+Business Media springer.de ° Springer-Verlag Berlin Heidelberg 2004, 2006 Printed in Germany Die Wiedergabe von Gebrauchsnamen, Handelsnamen, Warenbezeichnungen usw. in diesem Werk berechtigt auch ohne besondere Kennzeichnung nicht zu der Annahme, dass solche Namen im Sinne der Warenzeichen- und Markenschutz-Gesetzgebung als frei zu betrachten wåren und daher von jedermann benutzt werden dçrften. Umschlaggestaltung: Design & Production, Heidelberg SPIN 11527114
154/3153-5 4 3 2 1 0 ± Gedruckt auf såurefreiem Papier
Vorwort
Dieses Lehrbuch gibt eine Einfiihrung in die Wahrscheinlichkeitsrechnung und in die fiir die Wirtschaftswissenschaften relevanten Methoden der schHefienden Statistik. Es ist aus Vorlesungen entstanden, die die Autoren regelmafiig an der Wirtschafts- und Sozialwissenschaftlichen Fakultat der Universitat zu Koln halten, und umfasst insbesondere den Stoff der dortigen DiplomVorpriifung im Bereich „Wahrscheinhchkeitsrechnung und statistische Inferenz". Dartiber hinaus enthalt es zahlreiche Erganzungen, insbesondere weitere statistische Verfahren sowie Hinweise, die fiir das Verstandnis und die Anwendung der Verfahren und die Interpretation ihrer Ergebnisse niitzUch sind. Die in diesem Buch dargestellten Methoden sind universell und finden in den unterschiedhchsten Wissensbereichen Anwendung. Die Beispiele sind allerdings vornehmhch dem Bereich der Wirtschafts- und Sozialwissenschaften entnommen. Eine Einfiihrung in die Methoden der deskriptiven Datenanalyse und in die Wirtschaftsstatistik bietet unser Lehrbuch „Beschreibende Statistik und Wirtschaftsstatistik" (Springer-Verlag, Berhn u.a. 2005). Der praktische Einsatz statistischer Verfahren ist ohne Computer nicht vorstellbar. Auch im Grundstudium der Wirtschaftswissenschaften sollen die Studierenden die Moglichkeiten des Computereinsatzes kennenlernen und an einschlagige statistische Software herangefiihrt werden. Hierbei beschranken wir uns auf den Einsatz der Programme Microsoft® Excel und SPSS. Das Programm Excel bietet zwar nur begrenzte und etwas umstandliche Moglichkeiten der Auswertung, ist aber den Studierenden leicht zuganglich und deshalb am besten fiir Anfangeriibungen geeignet. Fiir anspruchsvollere Methoden der statistischen Auswertung greifen wir auf das Programm SPSS
zuriick, das zwar ebenfalls keine idealen Moglichkeiten bietet, jedoch Sozialund Wirtschaftswissenschaftlern haufig als Arbeitsumgebung zur Verfiigung steht. Im Anschluss an einige Kapitel werden Hinweise zur Durchftihrung der wichtigsten Verfahren am Computer gegeben. Datensatze zum Einiiben dieser Verfahren findet man auf der Internetseite http://www.wiso.uni-koeln.de/p/mosler-schmid. Auf diese Internetseite werden auch Ubungsaufgaben und etwaige Erganzungen und Korrekturen zu diesem Lehrbuch gestellt. Einschlagige Klausuraufgaben findet man in Bomsdorf, Crohn, Mosler und Schmid (2004), einen Abriss der wichtigsten Formeln in Bomsdorf, Crohn, Mosler und Schmid (2003). Das Literaturverzeichnis am Ende des Buches umfasst ausgewahlte Lehrbiicher der Wahrscheinlichkeitsrechnung und der statistischen Inferenz, Tabellenwerke, interaktive Lernprogramme sowie Einftihrungen in statistische Software. Auf spezielle erganzende Literatur wird in den einzelnen Kapiteln hingewiesen. Bei der Bearbeitung des Buchmanuskripts haben uns die wissenschaftlichen Mitarbeiter und studentischen Hilfskrafte des Seminars fiir Wirtschafts- und Sozialstatistik der Universitat zu Koln tatkraftig unterstiitzt. Cenannt seien Prau Nana Dyckerhoff sowie die Herren Dr. Eckard Crohn, Jadran Dobric, Jens Kahlenberg, Christoph Scheicher und Axel Schmidt. Sie haben das Manuskript mehrfach gelesen und zahlreiche Korrekturen und Verbesserungsvorschlage beigesteuert. Herr Peter Kosater hat die Excel- und SPSSAnleitungen entworfen. Herr Dr. Rainer Dyckerhoff hat die Tabellen berechnet. Ihnen alien sei herzlich gedankt. Piir die zweite Auflage wurde der gesamte Text sorgfaltig durchgesehen. Viele Kollegen anderer Hochschulen haben uns auf Druckfehler und Verbesserungsmoglichkeiten hingewiesen. Ihnen alien danken wir herzlich, besonders unserem Dresdner Kollegen Herrn Prof. Stefan Huschens. Koln, im Juli 2005
Karl Mosler Priedrich Schmid
Inhaltsverzeichnis 0
Einfiihrung
1
1
Zufallsvorgange und Wahrscheinlichkeiten
5
1.1
Zufallsvorgange
5
1.1.1
Ergebnismengen
6
1.1.2
Ereignisse und ihre Verkniipfung
7
1.2
1.3
1.4
Wahrscheinlichkeiten
13
1.2.1
Formale Definition der Wahrscheinlichkeit
14
1.2.2
Laplace-Experimente
17
1.2.3
Anordnung und Auswahl von Objekten (Kombinatorik)
18
Bedingte Wahrscheinlichkeit und Unabhangigkeit
24
1.3.1
Bedingte Wahrscheinlichkeit
24
1.3.2
Rechenregeln
25
1.3.3
Totale Wahrscheinlichkeit und Formel von Bayes . . .
27
1.3.4
Unabhangigkeit von Ereignissen
31
Erganzungen
36
1.4.1
Allgemeiner Additions- und Multiplikationssatz flir Wahrscheinlichkeiten 36
1.4.2
Subjektive Wahrscheinlichkeit und WettbegrifF . . . .
38
1.4.3
Praktische Bestimmung von Wahrscheinlichkeiten . . .
39
vii
viii
2
INHALTSVERZEICHNIS
Zufallsvariable und Verteilungen
41
2.1
Grundbegriffe
42
2.1.1
Verteilungsfunktion
44
2.1.2
Quantilfunktion
47
2.1.3
Diskrete Zufallsvariable
51
2.1.4
Stetige Zufallsvariable
53
2.1.5
AfRn-lineare Transformation von Zufallsvariablen . . .
58
2.1.6
Unimodalitat
60
2.1.7
Symmetrie
62
2.2
2.3
2.4
2.5
2.6
Verteilungsparameter
63
2.2.1
Erwartungswert
63
2.2.2
Varianz
67
2.2.3
Ungleichung von Tschebyscheff
70
2.2.4
Schiefe und Wolbung
72
Spezielle diskrete Verteilungen
.
75
2.3.1
Binomialverteilung
76
2.3.2
Poisson-Verteilung
79
2.3.3
Geometrische Verteilung
82
2.3.4
Hypergeometrische Verteilung
86
Spezielle stetige Verteilungen
89
2.4.1
Rechteckverteilung
90
2.4.2
Exponentialverteilung
94
2.4.3
Pareto-Verteilung
99
2.4.4
Normalverteilung
102
2.4.5
Lognormalverteilung
Ill
2.4.6
Ubersicht iiber einige spezielle Verteilungen
114
Erganzungen
116
2.5.1
Borel-Mengen, Verteilung einer Zufallsvariablen . . . .
116
2.5.2
Erwartungswert einer Wette als subjektive Wahrscheinlichkeit
116
Anhang: Verwendung von Excel und SPSS
118
INHALTSVERZEICHNIS
3
Gemeinsame Verteilung und Grenzwertsatze
125
3.1
Gemeinsame Verteilung von Zufallsvariablen
126
3.1.1
Gemeinsame Verteilung von zwei Zufallsvariablen . . .
126
3.1.2
Gemeinsame Verteilung von n Zufallsvariablen
....
143
3.1.3
Summen von unabhangigen Binomial-, Poisson- und Gaufi-Variablen
149
3.2
3.3
4
ix
Grenzwertsatze
152
3.2.1
Schwaches Gesetz der grofien Zahlen
153
3.2.2
Wahrscheinlichkeit und relative Haufigkeit
155
3.2.3
Konvergenz der empirischen Verteilungsfunktion
3.2.4
Zentraler Grenzwertsatz
...
156 158
Erganzungen
164
3.3.1
Multivariate Normalverteilung
164
3.3.2
Poisson-Prozess
166
3.3.3
Monte-Carlo-Simulation
170
Stichproben und Stichprobenfunktionen
173
4.1
Zufallsstichproben und statistisches Schliefien
174
4.1.1
Zufallsstichproben
174
4.1.2
Statistisches Schliei3en
177
4.1.3
Stichproben aus endlichen Grundgesamtheiten
....
180
4.2
Stichprobenfunktionen (Statistiken)
182
4.3
Statistiken bei normalverteilter Stichprobe
183
4.3.1
Chi-Quadrat-Verteilung
184
4.3.2
t-Verteilung
185
4.3.3
F-Verteilung
187
4.4
4.5
Erganzungen
189
4.4.1
Verwendung von Zufallszahlen
189
4.4.2
Weitere Verfahren der Stichprobenauswahl
189
Anhang: Verwendung von Excel und SPSS
192
INHALTSVERZEICHNIS
5
Schatzverfahren fiir Parameter
195
5.1
Punktschatzung
195
5.1.1
Unverzerrtheit und Konsistenz
197
5.1.2
Schatzung von Erwartungswerten
198
5.1.3
Schatzung von Wahrscheinlichkeiten und Anteilswerten 199
5.1.4
Schatzung von Varianzen und Standardabweichungen
201
5.1.5
Schatzung von Quantilen
203
5.1.6
Schatzung von KorrelationskoefRzienten
203
5.2
5.3
Konstruktionsprinzipien fiir Punktschatzer
204
5.2.1
Momentenschatzer
204
5.2.2
Maximum-Likelihood-Schatzer
206
5.2.3
ML-Schatzer bei speziellen Verteilungen
208
5.2.4
Eigenschaften von ML- und Momentenschatzern
...
211
Intervallschatzung
212
5.3.1
Konfidenzintervalle
213
5.3.2
Intervall fiir fj. einer Normalverteilung, a^ bekannt . . 214
5.3.3
Intervall fiir /i einer beliebigen Verteilung, <j^ bekannt
5.3.4
Intervall fiir // einer Normalverteilung, (j^ unbekannt . 217
5.3.5
Intervall fiir fi einer beliebigen Verteilung, cr^ unbekannt218
5.3.6
Intervall fiir cr^ einer Normalverteilung
218
5.3.7
Intervall fiir eine Wahrscheinlichkeit oder einen Anteilswert
219
5.3.8
Wahl des Stichprobenumfangs
221
5.3.9
Intervall fiir p bei Normalverteilung
224
215
5.4
Beispiel: Schatzung bei Aktienrenditen
224
5.5
Erganzungen
228
5.5.1
Beste lineare Schatzung eines Erwartungswerts . . . .
228
5.5.2
EfRzienz von Punktschatzern
229
5.5.3
Robuste Schatzung
230
5.5.4
Bayes-Schatzer
231
5.6
Anhang: Verwendung von Excel und SPSS
234
INHALTSVERZEICHNIS
6
Hypothesentests
237
6.1
Grundbegriffe
238
6.2
Tests fur Erwartungswerte
243
6.2.1
Tests flir einen Erwartungswert
244
6.2.2
Vergleich zweier Erwartungswerte
252
6.2.3
Vergleich von Erwartungswerten bei verbundener Stichprobe 257
6.3
6.4
6.5
6.6
Tests fiir Varianzen
261
6.3.1
Tests fiir eine Varianz
261
6.3.2
Vergleich zweier Varianzen
262
Tests fiir Wahrscheinlichkeiten und Anteilswerte
265
6.4.1
Tests fiir eine Wahrscheinhchkeit
266
6.4.2
Vergleich zweier Wahrscheinlichkeiten
267
Anpassungs- und Unabhangigkeitstests
269
6.5.1
x^-Statistik
270
6.5.2
x^'Anpassungstests
271
6.5.3
x^-Unabhangigkeitstests
275
Erganzungen 6.6.1
6.7 7
xi
281
Vergleich mehrerer Erwartungswerte (einfache Varianzanalyse)
281
6.6.2
Vergleich mehrerer Varianzen
283
6.6.3
Vergleich mehrerer Wahrscheinlichkeiten
285
Anhang: Verwendung von Excel und SPSS
288
Lineare Regression
291
7.1
Lineare Einfachregression
291
7.1.1
Das Modell der linearen Einfachregression
292
7.1.2
Punktschatzung der Koeffizienten
294
7.2
Intervallschatzung und Tests
299
7.2.1
300
Intervallschatzung der Parameter
xii
INHALTSVERZEICHNIS
7.2.2
Tests ftir die Parameter
301
7.3
Prognose bei Einfachregression
304
7.4
Lineare Mehrfachregression
306
7.5
Erganzungen
310
7.6
7.5.1
ML-Schatzung einer Unearen Einfachregression
7.5.2
Eigenschaften der Schatzer
7.5.3
Lineare Mehrfachregression in Matrizendarstellung . . 313
Anhang: Verwendung von Excel und SPSS
....
310 311
316
Tabellenanhang
317
Literaturverzeichnis
335
Index
339
Kapitel 0
Einfiihrung Unter Statistik versteht man allgemein die methodische Erhebung und Auswertung von Daten. Statistik als Methodenlehre gliedert sich in zwei grofie Bereiche, die beschreibende Statistik und die schliefiende Statistik. Die letztere nennt man auch induktive Statistik oder statistische Inferenz. Schliefiende Statistik bedeutet so viel wie Schlussfolgerung aus Daten. Dies ist eine Art Logik, die es erlaubt, aus vorliegenden Daten Schllisse zu Ziehen. Allerdings gelten die betreffenden Folgerungen nicht mit Sicherheit, sondern nur „mit grofier Wahrscheinlichkeit" und unter bestimmten Annahmen iiber die Entstehung der Daten. In der statistischen Inferenz werden die beobachteten Daten als Ergebnisse von Zufallsvorgangen angesehen und im Rahmen von Wahrscheinlichkeitsmodellen analysiert. Die Wahrscheinlichkeitsrechnung bildet deshalb die Grundlage der statistischen Inferenz. Die wirtschaftswissenschaftliche Theorie macht Aussagen iiber okonomische Grofien und ihre Beziehungen untereinander. Diese Aussagen beziehen sich auf reale Sachverhalte. Ihre Giiltigkeit kann anhand von Beobachtungen des wirtschaftlichen Geschehens bestatigt oder widerlegt werden. Die schliefiende Statistik stellt Methoden bereit, um Aussagen der Theorie anhand von Beobachtungsdaten als Hypothesen zu testen. Aufierdem umfasst sie Methoden, um unbekannte Modellparameter zu schdtzen und um klinftige Entwicklungen zu prognostizieren. Beobachtungen mlissen zunachst einmal beschrieben und gemessen werden. Die Beobachtung und Messung des wirtschaftlichen Geschehens und die Sammlung der so gewonnenen Daten sind die Aufgaben der Wirtschaftsstatistik. Die beschreibende Statistik, auch deskriptive Statistik genannt, dient dazu, die Daten unter bestimmten Aspekten zu beschreiben und die in den Daten enthaltene Information auf ihren - ftir eine gegebene Prage-
2
(3. EiNFUHRUNG
Theorie
Empirie
i
i
Testen Schatzen
Messen Beschreiben
stellung - wesentlichen Kern zu reduzieren. In diesem Sinne geht die beschreibende Statistik der schliefienden Statistik voraus. Der Wirtschaftswissenschaftler braucht die Wahrscheinlichkeitsrechnung nicht nur im Rahmen der statistischen Auswertung von Daten. Zahlreiche okonomische Theorien - etwa des Konsumverhaltens, der Investition und der Finanzierung - enthalten Begriffe der Wahrscheinlichkeitsrechnung wie WahrscheinUchkeitsverteilung, Erwartungswert und Varianz. Ohne soHde Kenntnisse der WahrscheinHchkeitsrechnung ist der Zugang zu zentralen Bereichen der mikrookonomischen Theorie und der betriebswirtschafthchen Risikoanalyse nicht moghch. Die folgenden drei Beispiele soUen Anwendungen von Wahrscheinhchkeitsmodellen in den Wirtschaftswissenschaften illustrieren: Beispiel 0.1 (Geldanlage in Aktien): Die kilnftige Rendite einer Aktie (Ausschiittungen plus Kursdifferenzen) kann als eine „Zufallsvariable^', das ist das Ergebnis eines Zufallsvorgangs, modelliert werden. Sie wird dann insbesondere durch ihren mittleren Wert („Erwartungswert") und ihre Streuung („Varianz'^) charakterisiert. Die Varianz stellt ein Mafi fiir das Risiko der Aktie dar. Zieht ein Anleger mehrere Aktien in Betracht, ist eine fiir ihn giinstige Diversifikation, das ist Mischung, des Portefeuilles zu bestimmen. Grundsdtzlich wird durch Diversifikation das Risiko verkleinert; Verluste der einen Aktie konnen durch Gewinne einer anderen kompensiert werden. Jede Mischung hat eine bestimmte Varianz und einen bestimmten Erwartungswert des Portefeuilleertrags zur Folge. Beispiel 0.2 (Personelle Einkommensverteilung): Unter der personellen Einkommensverteilung versteht man die Verteilung der Einkommen der Haushalte (oder Individuen) einer Population. Die personelle Einkommensverteilung Idsst sich im Rahmen eines Wahrscheinlichkeitsmodells darstellen: Indem man eine Einheit aus der Population „zufdllig zieht", wird die Hohe ihres Einkommens zu einer Zufallsvariablen. Die WahrscheinUchkeitsverteilung dieser Zufallsvariablen entspricht der Einkommensverteilung in der Population. Diese Verteilung Idsst sich durch theoretische Uberlegungen begriinden und/oder auf der Grundlage von empirischen Untersuchungen spezifizieren.
Von Bedeutung sind hier bestimmte Parameter der Verteilung, wie der Erwartungswert (der dem mittleren Einkommen in der Population entspricht), die Streuung und bestimmte Quantile. Beispel 0.3 (Ereignisanalyse): Zwischen zwei interessierenden Ereignissen, etwa dem Beginn und dem Ende der Arbeitslosigkeit einer Person oder dem Beginn eines Versicherungsvertrags und dem Eintreten des ersten versicherten Schadens, verstreicht eine gewisse Zeit. Diese Zeitdauer wird in der Ereignisanalyse als Zufallsvariable aufgefasst und ndher untersucht. Auch hier ergibt sich das Problem, wie ihre Verteilung zu spezifizieren und durch Parameter zu charakterisieren ist Verfahren der schliefienden Statistik finden in vielen Bereichen der Wirtschafts- und Sozialwissenschaften Anwendung, besonders in der empirischen Wirtschaftsforschung. Wenn ein WahrscheinUchkeitsmodell unbekannte Parameter enthalt, sind diese aus Daten zu schatzen. Weiterhin sind Hypothesen iiber die Parameter zu priifen. Wir geben im Folgenden zwei spezielle Beispiele fiir die Anwendung von Methoden der schliefienden Statistik: Beispiel O.4 (Makrookonomische Konsumfunktion): Abbildung 1 enthalt den privaten Konsum CH und das verfugbare Einkommen der privaten Haushalte y ^ in den Jahren 1974 bis 1992 zu konstanten Preisen (in DM). Die in den verschiedenen Jahren t beobachteten Wertepaare {CH^t^^H t) ^^^^ ^^^ Punkte dargestellt, dazu eine Gerade, die aufgrund einer linearen Regression, CH^t=(3o + (3iY}i, + ut^ CH
1400 4 1300 1200-1
1100-1 1000 900 800 H I
900
I
I
I
I
I
T"
'V yH
1000 1100 1200 1300 1400 1500
Abbildung 1: Lineare Regression des privaten Konsums CH auf das verfugbare Einkommen Y^ der privaten Haushalte
0. EiNFUHRUNG
berechnet wurde. Dabei wird die Steigung Pi als marginale Konsumneigung und der Achsenabschnitt PQ als autonomer Konsum bezeichnet. Es stellt sich die Frage, wie PQ und Pi zu schdtzen sind und wie sich der Konsum fiir spdtere Jahre prognostizieren Idsst. Von Interesse ist auch, ob die Annahme eines linearen Zusammenhangs gerechtfertigt ist oder ob eher ein nichtlinearer Zusammenhang unterstellt werden muss. Beispiel 0.5 (Analyse von Finanzmarktdaten): Finanzmarktdaten wie die Kurse von Aktien und von Wdhrungen werden unter vielfdltigen Aspekten untersucht. Fasst man die Rendite einer Aktie als Zufallsvariable auf so stellt sich die Frage, welche parametrische Verteilungsannahme - etwa die der Normalverteilung - dem empirischen Befund angemessen ist. Die erwartete Rendite und die Volatilitdt der Rendite miissen geschdtzt und die Genauigkeit der Schdtzungen beurteilt werden. Ferner ist zu untersuchen, ob erwartete Rendite und Volatilitdt im Zeitablauf konstant sind, oder ob sie sich verdndern. Abschliefiend geben wir eine kurze Definition von Statistik. Statistik ist die methodische Erhebung und Auswertung von Daten, insbesondere • die methodische Erhebung und Bereinigung der Daten, • die graphische Darstellung, • das Charakterisieren durch Kennzahlen, • das Schatzen unbekannter Parameter, • das Testen von Hypothesen, • die Prognose kunftiger Entwicklungen. Die letzten drei Aufgaben und Teile der ersten werden der schhefienden Statistik, die tibrigen der beschreibenden Statistik zugerechnet.
Erganzende Liter at ur zu Kapitel 0: Die meisten Lehrbiicher zur Wahrscheinlichkeitsrechnung und schhefienden Statistik enthalten Einftihrungen in deren typische Fragestellungen und Anwendungsgebiete. Wir verweisen beispielhaft auf Fahrmeir et al. (2004) und Bomsdorf (2002). Eine popularwissenschaftHche stichwortartige Einfiihrung bietet Kramer (2002).
Kapitel 1
Zufallsvorgange und Wahrscheinlichkeiten Im taglichen Leben und besonders im Wirtschaftsleben hat man es haufig mit Vorgangen zu tun, deren Ergebnis zunachst nicht bekannt, sondern „vom Zufall abhangig" ist. Als Beispiele seien genannt: eine Ausspielung im Lotto, die Bedrohung einer landwirtschaftlichen Region durch Hagelschlag oder die eines Radfahrers durch Unfall, die Entwicklung des Borsenkurses einer Aktie, die Vorteilhaftigkeit einer bestimmten Investition. Die Wahrscheinlichkeitsrechnung stellt mathematische Modelle und Rechenverfahren bereit, die es erlauben, die zufallsabhangigen Ergebnisse eines solchen Vorgangs zu modellieren und die Wahrscheinlichkeiten ihres Eintretens zu berechnen. In diesem Kapitel werden die wichtigsten Grundbegriffe zur Modellierung zufalliger Vorgauge vorgestellt und an einfachen Beispielen illustriert.
1.1
Zufallsvorgange
Unter einem Zufalls vor gang wollen wir zunachst^ einen Vorgang verstehen, bei dem zwar • im Voraus feststeht, welche moglichen Ergebnisse der Vorgang haben kann, • das tatsachliche Ergebnis jedoch im Voraus nicht bekannt ist. •^Dies ist noch keine ganz prazise Definition; eine solche folgt im Abschnitt 1.2.1 mit Hilfe des formalen BegrifFs der Wahrscheinlichkeit.
6
1. ZUFALLSVQRGANGE UND W A H R S C H E I N L I C H K E I T E N
Einen Zufallsvorgang, der geplant und kontroUiert ablauft, nennt man auch ein Zufallsexperiraent. Ein Beispiel fiir ein Zufallsexperiment ist die bekannte Ziehung der Lottozahlen. Ein Zufallsexperiment ist prinzipiell beliebig oft unter gleichen Bedingungen wiederholbar. Demgegentiber sind die meisten Zufallsvorgange, die im Wirtschaftsleben eine Rolle spielen, keine Zufallsexperimente, da die Bedingungen, unter denen sie stattfinden, nicht kontroUiert werden konnen und sich im Zeitablauf andern.
1.1.1
Ergebnismengen
Die Menge aller moglichen Ergebnisse eines Zufallsvorgangs heifit Ergebnismenge und wird mit Q bezeichnet. Ein Element to eO. heifit Ergebnis. Die Anzahl \Q.\ der Elemente von Q entspricht also der Anzahl der Ergebnisse; sie kann endlich oder unendlich sein. Es folgen Beispiele von Zufallsvorgangen und ihren Ergebnismengen. Beispiel 1.1 (Ziehen einer Losnummer): In einem Behdlter befinden sich N Lose, die von 1 bis N durchnummeriert sind. Ein Los wird gezogen. Es ist ^ = {1,2,...,iV}. Beispiel 1.2 (Wiirfel): Ein Wurfel wird einmal geworfen. Die Ergebnismenge 25^0 = {1,2,3, 4,5,6}. Beispiel 1.3 (Roulette): Beim Roulette wird eine Zahl ausgespielt. Hier ist f] = { 0 , l , . . . , 3 6 } . Beispiel 1.4 (Dreimaliger Miinzwurf): Das Zufallsexperiment bestehe darin, dass eine Miinze dreimal nacheinander geworfen wird. Jedes Ergebnis des Zufallsexperiments ist dann ein Tripel von K's (fiir Kopf) und Z's (fiir Zahl), die Ergebnismenge also =
Q
{{K,K,K),{K,K,Z),{K,Z,K),{Z,K,K), {K, Z, Z), (Z, K, Z), (Z, Z, K), {Z, Z, Z)} .
Beispiel 1.5 (Lotto): Beim Lotto „6 aus 49" werden aus den Zahlen 1 bis 49 zundchst sechs Gewinnzahlen und dann aus den verbleibenden Zahlen eine Zusatzzahl gezogen. a) Die Menge aller moglichen Ziehungen von sechs Gewinnzahlen ist Q =
iuj
=
{XI,X2,XS,X4,X5,XQ}
uj ist sechselementige Teilmenge von { 1 , 2 , . . . , 49}
b) Die Menge aller moglichen Ziehungen von sechs Gewinnzahlen mit Zusatzzahl ist {xi, a;2,..., xe} ist sechselementige n= {LJ = {{xi,...,xe},{x7}) Teilmenge von { 1 , . . . , 49} und X7 e { l , 2 , . . . , 4 9 } \ { x i , . . . , X 6 }
1.1.
ZUFALLSVORGANGE
Man beachte, dass die sechs Gewinnzahlen alle verschieden sind und es bei ihrer Ziehung nicht auf die Reihenfolge ankommt. Deshalb notieren wir ein Ergebnis u der Ziehung als Menge von sechs Zahlen. Die Zusatzzahl wird aus den verbleibenden Zahlen ausgespielt Sie ist nicht mit den Gewinnzahlen vertauschbar; deshalb notieren wir das Ergebnis der Ziehung mit Zusatzzahl als Paar bestehend aus einer sechselementigen und einer einelementigen Menge. Beispiel 1.6 („Mensch-drgere-Dich-nichV'): Ein Wiirfel wird solange geworfen, bis zum ersten Mai „6" erscheint. Die Menge der Ergebnisse Idsst sich so schreiben: Q
-
{(a:i,...,XA;_i,6)|xiG {1,2,3,4,5} /iir i - 1 , . . . ,fc - l,fc G N} U{(xi,X2,...)|xiG {1,2,3,4,5} fiir z - 1 , 2 , . . . }
Dabei besteht die zweite Menge dieser Vereinigung aus alien unendlichen FoU gen, in denen nur die Zahlen von 1 bis 5 vorkommen. Es ist zwar zu erwarten, dass in praktisch alien Wurffolgen irgendwann eine „6" geworfen wird. Man kann jedoch nicht prinzipiell ausschlieflen, dass nie eine „6" auftritt. Off enbar ist |Q| = oo. Bei den Beispielen 1.1 bis 1.6 handelt es sich um Glucksspiele, also Zufallsexperimente. Solche Glucksspiele sind einfache Modelle, an denen im Folgenden die Grundbegriffe der Wahrscheinlichkeitsrechnung veranschaulicht werden und die komplizierteren Zufallsvorgangen als Bezugspunkt und zum Vergleich dienen. Die beiden nachsten Beispiele betreffen Zufallsvorgange im Bereich der Investition und Finanzierung, die keine Experimente sind. Beispiel 1.7: Nettoertrag einer Investition in €, die ein Unternehmen durchfuhrt. Als Ergebnismenge wdhlt man fi = R oder ein geeignetes Intervall. In vielen Anwendungen ist es schwierig, die Menge der moglichen Ergebnisse eines Zufallsvorgangs explizit zu beschreiben, so im folgenden Beispiel. Beispiel 1.8 (Rentenfonds): Ein Bankkaufmann erwdgt, einen neuen Investmentfonds in festverzinslichen Wertpapieren aufzulegen. Fiir ihn ist der Zufallsvorgang „Entwicklung des Rentenmarkts in den nachsten funf Jahren" von Bedeutung. Wie soil er f] festlegen?
1.1.2
Ereignisse u n d ihre Verkniipfung
Unter einem Ereignis versteht man eine Zusammenfassung von Ergebnissen. Ein Ereignis ist also eine Teilmenge von fi. Ereignisse werden meist mit A, J5, C , . . . oder Ai, ^ 2 , • • • usw. bezeichnet. Wenn das Zufallsexperiment ein u; G ^ als Ergebnis hat, sagt man, das Ereignis A tritt ein. Fur jedes Ergebnis to gilt uj e Vt und u; ^ 0 . Die leere Menge 0 nennt man deshalb das unmogliche Ereignis, die gesamte Ergebnismenge f2 das
8
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
sichere Ereignis. Jedes Ereignis der Form {u} ist ein Elementarereignis. Q ist also die Vereinigung aller Elementarereignisse. Wenn A C B ist, sagt man, dass das Eintreten des Ereignisses A das Eintreten des Ereignisses B nach sich zieht (auch: dass das Eintreten von A das Eintreten von B impliziert); denn fiir jedes Ergebnis LO £ A folgt dann ujeB. Beispiel 1.9: In einem Horsaal befinden sich N Studierende. Aus einer Lostrommel, die N durchnummerierte Lose enthdlt (vgl. Beispiel 1.1), zieht jeder Studierende ein Los. Anschliefiend wird der Studierende, der eine vorher festgelegte Nummer - z.B. die Nummer 10 - gezogen hat, befragt. Wir nennen ihn oder sie Toni und betrachten die folgenden Ereignisse: A
F
Toni hat bereits die Klausur in „Deskriptive Statistik und Wirtschaftsstatistik'^ bestanden. — Toni hat bereits die Klausur in „ Wahrscheinlichkeitsrechnung und statistische Inferenz^' bestanden. = Toni ist eine Frau.
M W
= =
B
=
Toni ist ein Mann. Toni hat in der Schule bereits Unterricht in Wahrscheinlichkeitsrechnung gehabt.
Im Beispiel 1.9 handelt es sich um eine so genannte Zufallsziehung aus einer endlichen Grundgesamtheit. Die Grundgesamtheit besteht aus Untersuchungseinheiten, die bestimmte Merkmalsauspragungen besitzen. Ein Ereignis entspricht hier einer Teilmenge von Untersuchungseinheiten, die eine bestimmte Merkmalsauspragung aufweisen. Beispiel 1.2 (Fortsetzung): Einmaliges Werfen eines Wurfels. Hier sind die Elementarereignisse {1}, {2}, {3}, {4}, {5}, {6}. Beispiele fiir weitere Ereignisse sind A B
= =
{2,4,6} {1,3,5}
(= Augenzahl gerade), (= Augenzahl ungerade).
Offensichtlich zieht das Eintreten von C = {6} (= Augenzahl „6") das Eintreten von A nach sich. Aus Ereignissen lassen sich durch einfache logische Verkniipfungen (so genannte Ereignisoperationen) neue Ereignisse bilden:
1.1.
ZUFALLSVORG ANGE
Das Durchschnittsereignis A D B tritt genau dann ein, wenn A und B eintreten. Die Ereignisse A und B heifien unvereinbar oder disjunkt, wenn
AnB = 0.
•
»
i ID A
Das Vereinigungsereignis AUB tritt genau dann ein, wenn A oder B (oder beide) eintreten.
Das DifFerenzereignis A\B tritt genau dann ein, wenn A und nicht B eintritt.
Das Ereignis f]J \ A heifit Komplementarereignis von7l (in Zeichen A). Es tritt genau dann ein, wenn A nicht eintritt. OfFenbar gilt (A) = A.
Durchschnitts- und Vereinigungsbildung lassen sich leicht auf endlich viele Ereignisse Ai, A 2 , . . . , ^ n verallgemeinern: Das Durchschnittsereignis 0?=! ^* ^^^^^ genau dann ein, wenn alle Ai eintreten. Das Vereinigungsereignis Ur=i ^« ^^^^^ genau dann ein, wenn mindestens ein Ai eintritt. Die Ereignisse i4i, ^2? • • • 5 ^ n heifien paarweise disjunkt, wenn Ai n Aj = 0 ftir alle i, j = 1 , . . . , n, fiir die i ^ j ist, gilt. Die Ereignisse Ai, ^ 2 , . . . , ^ n bilden eine vollstandige Zerlegung (= Partition von Q, wenn sie nichtleer und paarweise disjunkt sind und ihre Verei-
10
1, ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
nigung insgesamt Q ergibt (vgl. Abbildung 1.1), also: Ai Ai nAj
y^ 0 = 0
fur alle i, fiir alle i ^ j ,
n
[JAi = n.
Abbildung 1.1: Die Mengen ^1,^2, A3 und A4 bilden eine vollstandige Zerlegung von Q. Beispiel 1.3 (Fortsetzung): Ausspielen einer Zahl beim Roulette, mit Q = { 0 , 1 , . . . , 36}. Einen Roulettespieler interessieren besonders die folgenden Ereignisse (siehe Abbildung 1.2): Z = {0} U = { 1 , 3 , . . . , 35} G = {2,4,...,36} R = {1,3,5,7,9,12,14,16,18,19,21,23,25,27,30,32,34,36} N = {2,4,6,8,10,11,13,15,17,20,22,24,26,28,29,31,33,35} M = { 1 , 2 , . . . , 18} G = {19,20,..., 36}
(= Zero) {= Impair) l=Pair) (= Rouge) (= Noir) (= Manque) {= Passe)
Offenbar bilden die drei Ereignisse Z, U und G eine vollstandige Zerlegung von Q. Ebenso stellen die drei Ereignisse Z^R und N eine vollstandige Zerlegung dar. Dies gilt auch fiir Z, M und P. Regeln fiir Ereignisoperationen Fiir Ereignisoperationen gelten die nachfolgenden Regeln, die aus der Mengenlehre bekannt sind.
1.1.
ZUFALLSVORG ANGE
11
Abbildung 1.2: Roulette-Tisch
AUB =:BUA AnB = BnA AU{BUC) {AUB)UC An{BnC) {AnB)nC AU{BnC) = {AUB)n{AuC) An {B u C) = {An B)ulAnC) AUB = AnB AnB=AuB
Kommutativgesetze Assoziativgesetze Distributivgesetze De Morgansche Regeln
12
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
Potenzmenge und Ereignisalgebra von Q. ist die Potenzmenge
Die Gesamtheit aller Teilmengen
V{n) = {A\ A ist Teilmenge von n}, Jedes Ereignis ist also ein Element der Potenzmenge. Welche Elemente der Potenzmenge man als Ereignisse ansieht, hangt natiirlich von der konkreten Fragestellung ab. Bei endlichem Q liegt es nahe, alle Teilmengen von f] als Ereignisse anzusehen. Wenn \Q.\ = n ist, hat namlich die Potenzmenge ebenfalls endlich viele Elemente, und zwar |p(f])|=2l"' = 2 ^ . (1.1) Wenn jedoch fi unendlich ist, ist die Potenzmenge ebenfalls unendlich. Dann betrachtet man in der Regel nicht alle Teilmengen von fi als Ereignisse, sondern beschrankt sich auf einen Teil von ihnen. Sei A eine Menge von Teilmengen von Q, A C V{^). Lediglich die Elemente von A werden dann als Ereignisse bezeichnet, nicht jedoch die iibrigen Teilmengen von fi. Um mit den Ereignissen in A sinnvoll rechnen zu konnen, fordert man, dass A in Bezug auf die oben definierten Ereignisoperationen abgeschlossen ist, d.h., dass die Verkniipfung von Ereignissen in A mit „und", „oder" und „nicht" wieder zu Ereignissen in A fiihrt. Im Einzelnen soil gelten: (Al) fi ist ein Ereignis, d.h. Q e A. (A2) Das Komplement eines jeden Ereignisses ist ein Ereignis, d.h.
AeA
=^
IGA.
(A3) Die Vereinigung von je zwei Ereignissen ist ein Ereignis, d.h. A.BeA
=>
AUBGA.
Ein Mengensystem A C P(r^), das diese drei Forderungen erfiillt, wird als Ereignisalgebra bezeichnet. Jede Ereignisalgebra enthalt damit mindestens das sichere Ereigns Q und das unmogliche Ereignis 0 . Offenbar ist V{^) selbst eine Ereignisalgebra. Beispiel 1.3 (Fortsetzung): Wenn ein Spieler beim Roulette grundsdtzlich nur auf „Rouge" oder auf „Noir" setzt, interessieren ihn in erster Linie diese beiden Ereignisse. Die kleinste Ereignisalgebra, die die Ereignisse R und N enthalt, ist A = {n,0,R,N,'R,T^,Z,'Z). (Man prilfe die fiir eine Ereignisalgebra geforderten Eigenschaften nach!) Allgemein folgt aus (A2) und (A3): Fiir beliebige A und B e A gilt 'A e A und B e A wegen (A2) und aui3erdem AUB E A wegen (A3), also (wiederum wegen (A2)) AnB = AUBeA. In einer Ereignisalgebra A gilt deshalb:
1.2.
WAHRSCHEINLICHKEITEN
13
• Der Durchschnitt von je zwei Ereignissen ist ein Ereignis, A.BeA
=»
AnBeA.
Mittels vollstandiger Induktion lasst sich weiter folgern, dass eine Ereignisalgebra A nicht nur in Bezug auf Vereinigung und Durchschnitt von zwei Ereignissen, sondern auch beziiglich Vereinigung und Durchschnitt von endlich vielen Ereignissen abgeschlossen ist: • Die Vereinigung von je n Ereignissen ist ein Ereignis, n
Ai,A2,..,yAneA
==>
[JAieA.
• Der Durchschnitt von je n Ereignissen ist ein Ereignis,
AuA2,.,.,AneA
=>
f]AieA. i=l
Bei unendlichen Ergebnismengen, etwa wenn Q ein Intervall der reellen Zahlen ist, fordert man statt (A3) die Eigenschaft (A3') Die Vereinigung einer jeden unendlichen Folge von Ereignissen ist ein Ereignis, oo
Ai,A2,As,,..eA
=>
[JAieA.
Ein Mengensystem A^ das (Al), (A2) und (A3') erfiillt, bezeichnet man als eine Ereignis-cr-Algebra. Offenbar ist die Forderung (A3') starker als die Forderung (A3). Dann gilt auch: • Der Durchschnitt einer jeden unendlichen Folge von Ereignissen ist ein Ereignis, Ai,A2,As,...eA
=^
f]AieA. i=l
1.2
Wahrscheinlichkeiten
Bei einem Zufallsvorgang wird jedem Ereignis eine Zahl zwischen 0 und 1 als Wahrscheinlichkeit fur sein Eintreten zugeordnet. Wie immer diese Zuordnung im konkreten Fall erfolgt, es miissen gewisse for male Regeln gelten, damit man mit den Wahrscheinlichkeiten in sinnvoller Weise rechnen kann. Die Kolmogoroffschen Axiome (Abschnitt 1.2.1) bestehen aus drei solchen Regeln, die besonders einfach sind und aus denen sich alle weiteren Rechenregeln fiir Wahrscheinlichkeiten ableiten lassen.
14
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
1.2.1
For male Definition der Wahrscheinlichkeit
1st f^ eine Ergebnismenge und A eine zugehorige Ereignisalgebra, so definieren wir zunachst die Wahrscheinlichkeit von Ereignissen formal als Abbildung P:
A A
—> R, K-> P ( A ) ,
die folgenden drei Forderungen geniigt: (Kl)
P (^) > 0
(K2)
p{n) = i,
(K3)
P{AUB)
Nichtnegativitat
fiir alle A,
Normierung = P{A) + P{B), falls AnB ==
0.
AdditivitSt
Nun konnen wir auch den Begriff des Zufallsvorgangs praziser fassen. Ein Zufallsvorgang besteht aus einer Ergebnismenge, einer Ereignisalgebra und einer gemaiS (Kl), (K2) und (K3) definierten Wahrscheinlichkeit. Eigenschaften und Rechenregeln Fiir Ereignisse A und B gilt: P{A)
= 1-P{A),
(1.2)
P{&) PiA) 0
= 0, < P ( S ) , falls A c s , < P{A) < 1.
(1.3) (1.4) (1.5)
B E W E I S Die Formel (1.2) fiir die Wahrscheinlichkeit des Komplementarereignisses beweist man so: Wegen (K3) mit B = A und (Kl) gilt
P{A) + P(A) = PiA U 1 ) = P ( n ) = 1, also P(A) = 1 - P{A). Setzt man in (1.2) speziell A — Q, ein, folgt P ( 0 ) = P(fi) = 1 - P{n) = 1 - 1 = 0, d.h. (1.3). Gelte nun A C B; dann ist B = AL\{B\A) und An{B\A) also P{B) = P{A) + P{B \ A) > PiA), da PiB\A)
= 0,
> 0; es folgt (1.4). Aus (Kl), (K2) und (1.4) schlieiSt man (1.5). D
Eine Wahrscheinlichkeit ist demnach eine nichtnegative Funktion, die jedem Ereignis eine Zahl zwischen 0 und 1 zuordnet und additiv in dem Sinne ist,
1.2.
WAHRSCHEINLICHKEITEN
15
dass die Wahrscheinlichkeit einer Vereinigung zweier disjunkter Ereignisse gleich der Summe der beiden einzelnen WahrscheinUchkeiten ist. Fiir die WahrscheinUchkeit des Differenzereignisses A\B = AnB ergibt sich allgemein die Formel P{A\B) = P{A)-P{AnB) ,
(1.6)
und speziell, wenn B in A enthalten ist, P{A\B)
= P{A) - P{B),
falls Be. A.
(1.7)
BEWEIS Da A die disjunkte Vereinigung von A\B und A(^ B ist, gilt P{A) = P{A \B) + P{A n J5), woraus (1.6) folgt. Wenn B C A gilt, ist AnB = B und wir erhalten (1.7). D
Flir drei paarweise disjunkte Ereignisse A, B und C folgt aus der Forderung (K3), dass P{AUBUC)
= P{{AUB)UC) = P{AUB) + P{C) = P{A) + P{B) + P{C),
(1.8)
Allgemein zeigt man durch vollstandige Induktion fiir endlich viele Ereignisse A i , . . . , An: (K3) ist aquivalent zu P(Ai U A2 U . . . U An) = P(Ai) + P(A2) + . . . + P(An), sofern Ai n Aj = & fiir alle i j^ j . Kurz:
sofern die Ai paarweise disjunkt sind. Fiir Ereignisse A^B und C, die nicht notwendig paarweise disjunkt sind, gelten die Additionssatze
P{AUB) --= P{A) + P{B)-P{AnB) , PiAUBUC) --= P{A) + PiB) + P{C) -P{AnB)-P{BnC)-P{AnC) +P(AnBnC) .
(1.10) (1.11)
BEWEIS Den Additionssatz (1.10) fiir zwei Mengen A und B erhalt man so: Da AU B die disjunkte Vereinigung von A\B und B ist, gilt
P{A UB) = P{A \B) + P{B) = P{A)-P{AnB)-{-
P{B),
16
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
letzteres wegen (1.6). Um den Additionssatz (1.11) fiir drei Ereignisse A, B und C zu zeigen, ersetzt man in (1.10) das Ereignis B durch BUC und erhalt P {AU B U C) = P {A) + P {B U C) - P {An {B U C)) , Mehrfache Anwendung von (1.10) liefert
P{BUC)
= P{B)-\-P{C)-P{BnC)
,
p {An {BUC)) = P{{AnB)u{AnC)) = P{A nB)-\- P{A nc)- P{{A nB)n{An C)) = P{A nB) + P{A nC)-P{AnBnC), und alles zusammen ergibt (1.11).
•
Wir illustrieren einige Rechenregeln fiir Wahrscheinlichkeiten an einem einfachen Beispiel: Beispiel 1.10: In einer Kleinstadt erscheinen die Lokalbldtter „Abendzeitung^^ und „BildposV'. Die Wahrscheinlichkeit, dass ein Einwohner die Abendzeitung liest, sei 0.6, die Bildpost liest, sei 0.5, die Abendzeitung oder die Bildpost (oder beide) liest, sei 0.9. Wie grofi ist die Wahrscheinlichkeit, dass ein Einwohner a) beide Lokalbldtter liest, b) keines der beiden Lokalbldtter liest, c) ein Lokalblatt, aber nicht beide liest? zu a) Bezeichne A das Ereignis, dass der Einwohner die Abendzeitung liest, B dass er die Bildpost liest. Es ist P{A nB) = P{A) + P{B) - P{A UB) = 0.6 + 0.5 - 0.9 = 0.2 . zu b) Es ist P{A nB)=
P{A \JB) = l - P{A u 5 ) - 1 - 0.9 = 0.1.
zu c) Es ist P{{A\JB)\{AnB))
= =
P{AuB)-P{{AuB)n{AnB)) P{AuB)-P{AnB) = 0.9-0.2 = 0.7.
1.2.
WAHRSCHEINLICHKEITEN
17
Allgemeiner fordert man von einer Wahrscheinlichkeit die Additivitat in Bezug auf unendliche Folgen disjunkter Ereignisse. Als a-additive Wahrscheinlichkeit wird eine Abbildung einer Ereignis-a-Algebra in die reellen Zahlen bezeichnet, fiir die (Kl) und (K2) gilt, sowie an Stelle von (K3) die starkere Bedingung (K3'), (K3')
P(
[jAi]
= E P{Ai),
falls Ai r]Aj = 0 fiir
i^j.
Die Regeln (Kl), (K2) und (K3') fiir eine cr-additive Wahrscheinlichkeit P nennt man auch die KolmogorofFschen Axiome^. Die KolmogorofFschen Axiome sagen jedoch nichts dariiber aus, wie bei einem konkreten Zufallsvorgang die Wahrscheinlichkeiten numerisch festgelegt werden sollen. Wie das bei einer bestimmten Art von Zufallsexperimenten, namlich den Laplace-Experimenten, geschehen kann, wird in Abschnitt 1.2.2 gezeigt. Im Ubrigen verweisen wir auf die erganzenden Abschnitte 1.4.2 und 1.4.3 iiber subjektive Wahrscheinlichkeiten und die praktische Bestimmung von Wahrscheinlichkeiten.
1.2.2
Laplace-Experiment e
Ein Zufallsexperiment heifit Laplace-Experiment, wenn fi eine Menge mit n Elementen ist, fi = {^1,^2, • • • , ^ n } , und die Wahrscheinlichkeit eines Ereignisses AdO. durch
'' ^ ^ = 0.429 • 10"^ ,
P (Jiinf Richtige ohne ZusatzzahV)
=
(Da)(y) = 0.180 • lO-"*,
22
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
4. Kombinationen mit Zuriicklegen Durch Ziehen mit Zuriicklegen werden wieder k Objekte ohne Beriicksichtigung der Reihenfolge ausgewahlt. Hierbei kommt es darauf an, wie haufig Objekt Nr. 1 ausgewahlt wurde, wie haufig Objekt Nr. 2 ausgewahlt wurde, etc. Sei rrij die Haufigkeit, mit der Objekt Nr. j ausgewahlt wurde. Gesucht ist also die Anzahl der Moglichkeiten, die mi,7712,..., m^ so festzulegen, dass mi + m2 + . . . + mn = A: und 0 < rrij < k fiir j = 1,2,..., n gilt. Bildlich veranschaulichen kann man sich das durch die folgende Graphik, in der die k ausgewahlten Objekte mit Hilfe von Strichen in n Klassen sortiert sind:
* * **
I
**
I•• • I
mi Objekte mit Nr. 1 7712 Objekte mit Nr. 2
** *
rrin Objekte mit Nr. n
Die k Objekte und die n — 1 Striche sind hier nebeneinander aufgereiht und nehmen zusammen n+fc—1 Platze ein. Die gesuchte Anzahl der Moglichkeiten entspricht jetzt der Anzahl der Moglichkeiten, aus den insgesamt n + k — 1 moglichen Platzen fiir Objekte und Striche n — 1 Platze fiir die Striche auszuwahlen. Sie ist gleich n + / c - l \ _ /n + / c - l n-1 J~ [ k Beispiel 1.17: Bei einer Wahl stehen zehn Kandidaten zur Auswahl; der Wdhlerhat drei Stimmen, die aber „gehdufelt^^ werden diirfen, d.h. der Wdhler hat das Recht, bei einem Kandidaten mehr als ein Kreuz zu machen. Offensichtlich gibt es 10 + (3 - 1)>^ _ /^12>^ _ 12! _ 1 2 - 1 1 - 1 0 _ 3 J \3 J 3!-9! 3-2.1 Moglichkeiten, die Kreuze zu setzen, da es auf die Reihenfolge, in der die Kreuze gesetzt werden, nicht ankommt.
1.2.
23
WAHRSCHEINLICHKEITEN
Anzahl der Auswahlen von k aus n verschiedenen Objekten: ohne Beriicksichtigung der Reihenfolge (Kombinationen) ohne Zuriicklegen
C)
mit Zuriicklegen
("%'-')
mit
[
Beriicksichtigung der Reihenfolge (Variationen) | n! (n-fc)!
n'^
Abschliefiend noch zwei Beispiele zur Berechnung von Wahrscheinlichkeiten mit Hilfe der Kombinatorik: Beispiel 1.18: Die PIN-Nummer einer Bankkarte besteht aus vier Ziffern, von denen die erste keine Null ist. Wie viele verschiedene PIN-Nummern gibt es? Berechnen Sie die Wahrscheinlichkeit, durch dreimaliges y,Probieren" eine PIN-Nummer zu erraten. Es gibt 9 • 10^ verschiedene Nummern. Die gesuchte Wahrscheinlichkeit (drei giinstige von insgesamt 9 • 10^ Moglichkeiten) betrdgt
9 • 103
1 3000
0.00033.
Beispiel 1.19: Ein Hacker hat drei Minuten Zeit, in einen Computer einzubrechen und kann dabei pro Sekunde 1000 Passworter ausprobieren. Er weifl, dass das Passwort aus sechs Zeichen, ndmlich vier Ziffern und zwei unterschiedlichen Buchstaben, besteht. Wie grofi ist die Wahrscheinlichkeit, dass der Hacker Erfolg hat? Fiir das Passwort gibt es (2) • 26 • 25 • 10^ verschiedene Moglichkeiten. Dabei zdhlt (2) die Moglichkeiten, die Stellen der Buchstaben festzulegen. In drei Minuten filhrt der Hacker 180 000 Versuche durch. Die gesuchte Wahrscheinlichkeit betrdgt demnach 180 000 = 0.00185. (l) . 26 • 25 • 104
24
1.3 1.3.1
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
Bedingte Wahrscheinlichkeit und Unabhangigkeit Bedingte Wahrscheinlichkeit
In diesem Abschnitt behandeln wir zunachst, wie die Wahrscheinlichkeit flir ein Ereignis A zu modifizieren ist, wenn als zusatzhche Information zur Verfiigung steht, dass ein anderes Ereignis B schon eingetreten ist. In diesem Fall geniigt es, von den Ergebnissen in A nur noch die in Erwagung zu ziehen, die auch in B liegen. Man betrachtet das Ereignis AD B und bezieht seine Wahrscheinlichkeit auf diejenige von B. Dies flihrt zur folgenden Definition: Ist B ein Ereignis mit P{B) > 0, so heifit fiir jedes Ereignis A
^iMB^-'-^ bedingte Wahrscheinlichkeit von A unter der Bedingung B. Die bedingte Wahrscheinlichkeit wird so interpretiert: P{A\B) gibt die Wahrscheinlichkeit daftir an, dass A eintritt, wenn man bereits weifi, dass B eingetreten ist. Beispiel 1.9 (Portsetzung): Im Horsaal befinden sich 280 Personen, 144 von ihnen sind Prauen. 70 der Anwesenden haben schon im Lotto „6 aus -^P" gespielt, davon 36 Prauen. 28 Personen haben bereits (mindestens) einmal im Lotto gewonnen. Durch Zufallsziehung wird eine Person ausgewdhlt. Wir betrachten die Ereignisse: F L G
= Die Person ist eine Prau. = Die Person hat im Lotto gespielt. = Die Person hat gewonnen.
Dann ist offenbar P{G nL) = P{G) = ^ , P{L) = ^
P(G|L) = ^
^ ^\^)
und daher
= #=0.4 280
die bedingte Wahrscheinlichkeit dafur, dass die Person im Lotto gewonnen hat (vorausgesetzt, sie hat uberhaupt im Lotto gespielt). Beispiel 1.20: Das Werfen eines fairen Wurfels ist ein Laplace-Experiment; vgl. Beispiel 1.2. Sei A = {6} und B = {2,4,6} , dann ist P {A) = ^ , jedoch P{B)
P({2,4,6})
6
1.3.
BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
25
Die bedingte Wahrscheinlichkeit fiir eine „6^' unter der Bedingung, dass eine gerade Augenzahl eingetreten ist, ist also | . Wir Ziehen nun einige Folgerungen aus der obigen Definition. Bei fest gegebenem Ereignis B mit P{B) > 0 ist die bedingte WahrscheinUchkeit P{'\B):
A A
- ^ ^->
M, P{A\B),
selbst eine WahrscheinUchkeit, denn es gilt (Kl)
P{A\B)>0
fiir beliebige Ereignisse
(K2)
P(n\B)
(K3)
P{Ai U A2\B) = P{Ai\B) + P{A2\B),
= l
AeA,
flir das sichere Ereignis fi, falls Ai n ^2 = 0 ist.
Die ersten beiden Aussagen sind offensichtlich, die dritte macht man sich so klar:
da mit Ai n A2 = & auch die beiden Mengen Ai H B und ^2 H ^ disjunkt sind. Die auf ein fest gegebenes Ereignis B bedingte Wahrscheinlichkeit P{'\B) erftillt also die drei Axiome der Wahrscheinlichkeit. Damit gelten alle bisher fiir gewohnliche Wahrscheinlichkeiten hergeleiteten Rechenregeln auch fiir bedingte Wahrscheinlichkeiten.
1.3.2
Rechenregeln
Aus der Definition der bedingten Wahrscheinlichkeit folgt, dass fiir beliebige AeA P{A\Q) P{A\B)
= =
P{A), 1, w e n n ^ c A .
(1.14) (1.15)
Wenn also B C A gilt, d.h. S mit Sicherheit das Ereignis A zur Folge hat, dann tritt A unter der Bedingung B auch mit Wahrscheinlichkeit 1 ein. Durch Umformen der Definition der bedingten Wahrscheinlichkeit erhalt man den Multiplikationssatz fiir zwei Ereignisse P{A nB) = P{A\B) • P{B),
wenn P{B) > 0.
26
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
Ebenso gilt P{A nB) = P{B\A) • P{Al,
wenn P{A) > 0.
Der Multiplikationssatz fiir drei Ereignisse lautet P{Ar]BnC)=
P{A\B n C) •
P{B\C)
•
P{C)
,
wenn P{B n C) > 0.
Aus P{B n C) > 0 folgt namlich, dass P{C) > P{B H C) > 0 ist. Deshalb gilt
P{AnBnC) = P{An(^nC)) = P{A\BnC) • P{B\C) • P{C). ^"
V
'
=p{BnC)
Fiir mehr als drei Ereignisse gilt ein allgemeiner Multiplikationssatz flir Wahrscheinlichkeiten; siehe Abschnitt 1,4.1 in den Erganzungen zu diesem Kapitel. Beispiel 1.21: In einem Restaurant bestellen gewohnlich 40% der Gdste keine Vorspeise und 30% der Gdste keinen Nachtisch. 15% der Gdste nehmen weder Vorspeise noch Nachtisch. Wie grofi ist die Wahrscheinlichkeit, dass a) ein Gast keine Nachspeise nimmt, unter der Bedingung, dass er auch keine Vorspeise genommen hat? b) ein Gast, der eine Vorspeise gewdhlt hat, auch noch einen Nachtisch bestellt? Bezeichne V das Ereignis, dass der Gast eine Vorspeise bestellt, N das Ereignis, dass er einen Nachtisch ordert. Aus den gegebenen Prozentzahlen erhalten wir die Wahrscheinlichkeit en P{V)
=
P{N)==
l-P{V)
- 1 - 0.4 = 0.6,
1-P(N)
= 1 - 0 . 3 = 0.7,
p(Fn]v) - p{vuN)
= 0.15.
zu a) Es ist ,—,-, P(NV) ^ ' ^
PiVDN) 0.15 ^ ,-, ^ = ^ = 0.375. P{V) 0.4
1.3.
BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
27
zu b) Es ist P(N\V^ ^ '^
=
=
PjNnV) PiV)
P{N) +
P{V)-P{NUV) P{V)
PjN) + P{V) - (1 PjVUN)) P{V) 0.7+ 0 . 6 - ( 1 - 0 . 1 5 ) 0.6 l-3-0-85^a45^Q^3 0.6 0.6
Beispiel 1.22: Zum Erwerb eines Scheines sind einem Studenten drei Versuche erlaubt. Fiir die drei Ereignisse Ai = „Student besteht beim i-ten Versuch",
i = 1,2,3,
seien die folgenden bedingten Wahrscheinlichkeiten gegeben: P{Ai) P{A2\Ai) P ( T a l l i n As)
= =
0.6, 0.5,
=
0.4.
Wie grofi ist die Wahrscheinlichkeit, den Schein zu erwerben? Es ist P{AI{JA2UA3)
1.3.3
=
1 - P (Ai U ^2 U A3)
=
1 - P ( l l 0^420^3)
= =
1-P(l3l^n:42)-P(l2|^)-P(^) 1 - ( 1 - 0 . 4 ) - ( 1 - 0 . 5 ) - ( 1 - 0 . 6 ) = 0.88.
Totale Wahrscheinlichkeit und Formel von Bayes
Wir nehmen nun an, dass Ai,A2,..-,An eine vollstandige Zerlegung der Ergebnismenge Cl und B ein Ereignis ist. Dann sind (vgl. Abbildung 1.3)
{BnAi),iBnA2),...,{BnAn) disjunkte Ereignisse und deshalb
(
n
\J{BnAi)\ =
2= 1
\
n
=
J2P{B\A,)-P{A,).
Y^PiBnAi),
28
1. ZUFALLSVORGANGE UND WAHRSCHEINLICHKEITEN
Wir erhalten die Formel von der totalen Wahrscheinlichkeit:
PiB) = J2PiB\A,).PiA,) i=l
Die nicht bedingte, d.h. „totale" Wahrscheinlichkeit P {B) ergibt sich dabei als gewichtetes Mittel der bedingten Wahrscheinlichkeiten P {B \ Ai) mit Gewichten P{Ai).
Abbildung 1.3: Zur Formel von der totalen Wahrscheinlichkeit Fiir jedes z = 1,2,..., n gilt gemafi der Definition der bedingten Wahrscheinlichkeit P(A i m PJAnB) P{B\Ai).P{Ai) Daraus und aus der Formel von der totalen Wahrscheinlichkeit folgt die Formel von Bayes*^
P{B\Ai)^P{Ai)
P{Ai\B)
i = 1,2,... , n .
tp{B\A^)^P{A^)
Beispiel 1.23: Die Produktion von Kiihlschrdnken erfolgt an drei Produktionsstdtten. Eine Verbraucherorganisation untersucht, ob die Gerdte die Garantiezeit ohne einen Defekt uberstehen. Da die drei Produktionsstdtten mit unterschiedlichen Fertigungsstandards arbeiten, weisen die Gerdte je nach ^Thomas Bayes (1702-1761)
1.3.
BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
29
Fertigungsstdtte unterschiedliche Defektraten auf: 1.5% in Produktion 1, 1% in Produktion 2, 3% in Produktion 3. Die beiden ersten Produktionsstdtten haben jeweils einen Anteil von 40% an der Gesamtproduktion, die dritte Produktionsstdtte einen Anteil von 20%. Aus der Gesamtproduktion wird nun zufdllig ein Stilck entnommen. Wie grofl ist die Wahrscheinlichkeit, dass ein defekter Kiihlschrank aus der Produktion 1 stammt? Zur Losung definieren wir zundchst die relevanten Ereignisse: Ai'. B:
Kiihlschrank stammt aus Produktion i, Kiihlschrank ist defekt.
z = 1,2,3,
Aus den Angaben folgt P{Ai) P{B\Ai)
= =
0.4, 0.015,
P{B)
=
P{A2) P{B\A2)
= =
0.4, 0.01,
P(A3) = 0.2, P{B\A3) = 0.03,
J2P{B\A,).P{A,) i=l
=
0.015-0.4 4-0.01-0.4 4-0.03-0.2 = 0.016,
Die Wahrscheinlichkeit, dass der defekte Kiihlschrank aus der Produktion 1 stammt, betrdgt 37.5%. Wichtige Anwendungen finden die bedingten Wahrscheinlichkeiten und die Formel von Bayes im Bereich der medizinischen Statistik. Wir geben hierzu ein Beispiel. Beispiel 1.24-' An Patienten einer bestimmten Population wird mithilfe eines Labortests untersucht, ob eine bestimmte Krankheit vorliegt oder nicht. Der Anteil TT der Kranken in der Population ist bekannt. Falls der konkrete Patient krank ist, zeigt der Test mit einer Wahrscheinlichkeit von 99% die Krankheit an (Ergebnis „positiv"); falls er nicht krank ist, zeigt der Test mit einer Wahrscheinlichkeit von 2% die Krankheit an. Wie grofl ist die Wahrscheinlichkeit, dass der Test bei einem zufdllig aus der Population ausgewdhlten Probanden a) die Krankheit anzeigt, b) ein korrektes Ergebnis liefert? c) Wie grofl ist die Wahrscheinlichkeit, dass die Krankheit vorliegt unter der Bedingung, dass der Test sie anzeigt?
30
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
Zur Losung verwenden wir die Bezeichnungen K (= Krankheit liegt vor) und T (= Test zeigt Krankheit an). Dem Text entnimmt man P{K) - TT,
P ( T |i^) - 0.99,
P{T \K) = 0.02 .
zu a) Gesucht ist hier P{T). Nach der Formel der totalen Wahrscheinlichkeit ist P{T) = P{T \K) ' P{K) + P{T | Z ) . P(K), also P{T)
-
0.99 •7r + 0 . 0 2 - ( I - T T )
=
0.02 +0.97-TT.
zu b) Die gesuchte Wahrscheinlichkeit ist P{{T n K) [J {T n'K)
= = = =
P{TnK) + P{Tnl{) P{T \K) ' P{K) + P(T\K) . P{K) 0.99 • TT + (1 - 0.02) • (1 - TT) 0.98 +0.01-TT.
zu c) Gesucht ist nun P{K \T). Nach der Formel von Bayes gilt P{K\T)
=
P{T\K)'P{K) P{T \K) • P{K) + P{T \K) . P{K) 0.99 -TT
_
0.99 • TT + 0.02 • (1 -
/
0.02
V
TT)
l-TT^
0-99
^
TT
Offensichtlich hat P{K) = n jeweils einen starken Einfluss auf die bedingte Wahrscheinlichkeit P{K\T) und die weiteren Ergebnisse. So ergibt sich = = = z=z
0.846 0.333 0.047 0.005
fiir fiir fiir fiir
•K
=
TT
=
TT
=
n =
0.1, 0.01, 0.001, 0.0001.
Ist Z.B. der Anteil der Kranken ein Promille (also n — 0.001^; so sind nur 4.7% der Probanden mit positivem Testergebnis wirklich krank. Zur Interpretation der Formel von Bayes Eine mogliche Interpretation der Formel von Bayes lautet wie folgt: Ai^...^An sind sich ausschliefiende mogliche Zustande der Welt („Hypothesen"), von denen genau einer zutrifft. B ist das Ergebnis eines Experiments oder einer Beobachtung.
1.3.
BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
31
Fiir jede der n Hypothesen Ai sei die Wahrscheinlichkeit bekannt, dass B eintritt, wenn Ai gilt. Aufierdem sei mit P{Ai) eine - eventuell subjektive (vgl. Abschnitt 1.4.2) - Wahrscheinlichkeit gegeben, dass die Hypothese Ai zutrifft. P{Ai) heifit A-priori-Wahrscheinlichkeit von Ai. Die bedingte Wahrscheinlichkeit P{B\Ai) ist die Wahrscheinlichkeit von J5, wenn die Hypothese Ai zutrifft. P{Ai\B) wird A-posteriori-WahrscheinUchkeit von Ai genannt. Sie gibt die (nach der Beobachtung) ermittelte Wahrscheinlichkeit daflir an, dass Ai zutrifft unter der Bedingung, dass das Versuchsergebnis B beobachtet worden ist. P{Ai\B) wird mit der Formel von Bayes berechnet.
1.3.4
Unabhangigkeit von Ereignissen
Zwei Ereignisse A und B sollen, anschaulich gesprochen, unabhangig heifien, wenn das Eintreten von A keinerlei „Einfluss" auf das Eintreten von B hat und umgekehrt. Die formale Definition ist: Zwei Ereignisse A und B heifien stochastisch unabhangig (kurz: unabhangig), wenn P{AnB)=P{A)'P{B). A und B heifien abhangig, wenn sie nicht unabhangig sind. Man beachte, dass man in dieser Definition A und B vertauschen kann. Wir Ziehen einige Folgerungen: 1. Unter der Annahme P {B) > 0 gilt offensichtlich A und B unabhangig 4=^ P {A\B) = P {A) . Ebenso gilt unter der Annahme P (A) > 0 A und B unabhangig P {B\A) = P (B) . Bei unabhangigen Ereignissen A und B hangen die bedingten Wahrscheinlichkeiten P {A\B) bzw. P {B\A) also nicht von den „bedingenden" Ereignissen B bzw. A ab. 2. Mit A und B sind auch die folgenden beiden Ereignisse jeweils unabhangig: A und 'B, A und B, 'A und 'B. BEWEIS
Die erste dieser Aussagen sieht man wie folgt ein: P{An^
= = =
P{A\B)
= P{A)-P{AnB) P{A)-P{A)'P{B) P{A)^{1-P{B))==P{A)>P{B).
Die beiden anderen Aussagen zeigt man analog.
D
32
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
3. 1st A ein Ereignis mit P (A) = 0 oder P {A) = 1, so ist A von jedem beliebigen Ereignis B unabhangig. BEWEIS
AUS P{A)
= 0 folgt namlich P (A) - P {B) = 0 - P {B) = 0
und P{AnB)
< P{A) = 0, 3\soP{AnB)
P{AnB)
=
=0
P{A)'P{B).
Aus P (^) = 1 folgt in ahnlicher Weise P {A)'P {B) = hP (B) = P {B), Offenbar ist P{AUB) = 1 und deshalb P{AnB)
= = =
P{A) + P{B)-P{A[J B) 1 + P{B)-1 = P{B) l'P{B) = P{A)'P{B).
D
4. Wenn A und B disjunkt sind sowie P{A) ,P {B) > 0, konnen A und B nicht unabhangig sein. Dann gilt namlich P{AnB)
=
O^P{A)'P{B),
Beispiel 1.9 (Fortsetzung): Bei der Zufallsziehung im Horsaal betrachten wir wieder die Ereignisse F (Die ausgewdhlte Person ist eine Frau) und L (Die Person hat im Lotto gespielt). Mit den oben gegebenen Zahlen erhalten wir P{L) = ^ = 0.25 sowie
P{L n F)
36
P ( L | F ) = 1 ^ 1 ^ = | | = 0.25. Es folgt, dass (in dieser Population) die Ereignisse L und F unabhangig sind: Ob jemand im Lotto spielt oder nicht, hdngt nicht vom Geschlecht ab. Beispiel 1.25: Eine Miinze (mit Zahl = Z und Wappen = W) wird zweimal geworfen. Es ist fi = {{Z,Z), (Z, 1^) {W, Z) {W, W)]. Wir fassen das Zufal Is experiment als Laplace-Experiment auf. Sei Z\ W2 W12
— Zahl beim ersten Wurf = Wappen beim zweiten Wurf — Wappen bei beiden Wiirfen.
Z\ und W2 sind unabhangig, da P{ZinW2)
=
P{{Z,W})
= i
und
P{Zi)-P{W2)
= _
P{{Z,Z},{Z,W})'P{{Z,W},{W,W}) 1 1 _ 1 2 ' 2 ~ 4'
1.3.
BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
33
W2 und W12 sind abhangig, da P{W2nWi2)
=
P{{w,w})
P{W2)
=
P{{W,W},{Z,W})
PiyVn)
=
P{{W.W\)
=
^ i
P{W2)-P{W,2)
-
=
i, =
= i, ^ ^
i,
also
i-
Wir wollen nun den Begriff der stochastischen Unabhangigkeit von zwei auf n Ereignisse verallgemeinern. Die n Ereignisse ^1,^2? • • • ^^n heifien paarweise unabhangig, wenn P {Ai n A^) = P {Ai)' P {Aj)
fur alle ij
= 1,... ,n mit i ^ j .
Die n Ereignisse Ai^A2^ • •., ^ n heifien vollstandig unabhangig, kurz: unabhangig, wenn fiir jede Auswahl von m Indizes ii, ^2? • • • > ^m ^ {1» 2 , . . . , n}, 2 < m < n. P{Ai, DAi.n..
.nAiJ
= P{Ai,) 'PiAi,)....
'P{AiJ
gilt, d.h. wenn fiir jede Auswahl aus den n Ereignissen die entsprechende Produktformel fiir deren Wahrscheinlichkeiten gilt. Paarweise und vollstandige Unabhangigkeit sollen nun fiir n = 3 verdeutlicht werden. Seien Ai,A2^ As drei Ereignisse. Sie sind paarweise unabhangig, wenn die drei Bedingungen P{AinA2) P{AinAs) P{A2nAs)
= = -
P(Ai).p(A2), P(Ai).P(A3), P{A2)'P{As)
erfiillt sind. Ai, ^ 2 , As sind vollstandig unabhangig, wenn zusatzlich zu diesen Bedingungen noch P{Ai n ^2 n As) = P{Ai) 'P{A2)
'P{As)
gilt. Beispiel 1.26: Zwei faire Wilrfel werden geworfen, und zwar so, dass jedes der moglichen Ergebnisse (bestehend aus zwei Augenzahlen) in gleicher Weise auftreten kann. Wir fassen dieses Zufallsexperiment als Laplace-Experiment
34
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
auf. Bezeichne A\ A2 A3
— Augenzahl beim ersten Wurf ist ungerade, = Augenzahl beim zweiten Wurf ist ungerade, = Augensumme ist ungerade.
Die Ereignisse ^ 1 , ^ 2 , ^ 3 sind paarweise unabhdngig, aber nicht (vollstdndig) unabhdngig. Es gilt offensichtlich P{A^nA2)
= \=
l-\
P{A^nA,)
= i =
i . i =
P{Ai)-P{A3),
P{A2nA^)
= \=
\ . \ =
P{A2)-P{As),
P{AinA2nAz)
=
= P(^)-P(^2),
o^l.l.l=P(Ai)-PiA2)-P{A3).
Die Ereignisse Ai, A2 und As sind demnach nicht unabhdngig. Beispiel 1.27: Drei elektronische Bauelemente sind wie folgt geschaltet: Ai
Wir nehmen an, dass die Elemente unabhdngig voneinander arbeiten. Die Ausfallwahrscheinlichkeiten der Elemente seien bekannt, und zwar jeweils gleich 5%. Wie grofi ist die Wahrscheinlichkeit, dass das Gesamtsystem ausfdllt? Bezeichne Ai das Ereignis, dass das i-te Element ausfdllt. Dann ist
P(^in(^2UA3))
= PiiAinA2)LiiAinA3)) P{Air\A3)-P{AinA2nA3) = P{AinA2) + = 0.05^ + 0.052-0.05^ = 0.0049.
1.3.
BEDINGTE WAHRSCHEINLICHKEIT UND UNABHANGIGKEIT
35
Einen Zufallsvorgang, bei dem lediglich interessiert, ob ein bestimmtes Ereignis (genannt „Erfolg") eintritt oder nicht, nennt man ein BernoulliExperiment^ . Unter einer Bernoulli-Versuchsreihe der Lange n versteht man die unabhangige Wiederholung von n gleichartigen Bernoulli-Experimenten. Genauer: Ein Bernoulli-Experiment werde n-mal durchgefiihrt. Bezeichne Ai das Ereignis, dass bei der i-ten Durchfiihrung des Experiments ein „Erfolg" eintritt. Die Versuchsreihe heifit Bernoulli-Versuchsreihe, wenn (Bl) die Ereignisse Ai,A2,,,.
,An (vollstandig) unabhangig sind und
(B2) alle Ai die gleiche Wahrscheinlichkeit haben. Beispiel 1.28: Ein Schiitze schieflt auf eine Scheibe. Das Ereignis A = Schiitze trifft die Scheibe habe die Wahrscheinlichkeit P {A) = 0.6. Der Schiitze schieflt n-mal. Dies wird als unabhdngige Wiederholung eines Bernoulli-Experimentes aufgefasst: Ai tritt ein, wenn beim i-ten Schuss die Scheibe getroffen wird. Jedes der Ai besitzt die gleiche Wahrscheinlichkeit und die Ereignisse ^ i , A 2 , . . . ,>ln werden als unabhdngig vorausgesetzt. Dies bedeutet insbesondere, dass beim Schiltzen weder Lern- noch Ermildungseffekte auftreten. a) Wie grofl ist die Wahrscheinlichkeit, dass er bei den ersten vier Schilssen nicht trifft? Die Wahrscheinlichkeit betrdgt
=
0.4^ = 0.0256.
b) Wie grofl ist die Wahrscheinlichkeit, dass er bei den ersten drei Schilssen mindestens einmal trifft? Die gesuchte Wahrscheinlichkeit ist
P(AiUA2UA3)
4jacob Bernoulli (1654-1705)
=
p(Ain]42n]43)
=
i - P ( ^
=
1-0.4^ = 0.936.
0^20^3)
36
1. ZUFALLSVORGANGE UND W A H R S C H E I N L I C H K E I T E N
1.4 Erganzungen 1.4.1
AUgemeiner Additions- u n d Multiplikationssatz fiir Wahrscheinlichkeiten
Die Wahrscheinlichkeit einer Vereinigung von endhch vielen Ereignissen berechnet man mit dem folgenden allgemeinen Additionssatz fiir Wahrscheinlichkeiten (Formel von Sylvester)^ Fiir beliebige Ereignisse Ai, A2, ... ^An ^ A gilt
"(.y/*)
=
P{Ai
uA2U...UAn)
•nA,J k=l
{n,.-.,u}C{l,...,n}
= E^(^^) - J2 PiAiHAj) +
E
P(^i ^ ^J ^ ^k)
i,j,k:i<j)
I0M
=
0,
lAnB{(^)
=
1A{(^) ^IB{(^)
= 1^(0;)-l^M,
IAUBH
=
1A{UJ)W1B{UJ)
=
1A{1A{^)
+ 1BH)
.
wobei das Symbol A das Minimum und das Symbol V das Maximum zweier Zahlen bezeichnet, z.B. - 2 A 17 = - 2 und 1.2 V 0.5 == 1.2. Beispiel 2.2 (Fortsetzung): Den Nettogewinn beim Setzen auf die erste Colonne kann man mit Hilfe einer Indikatorvariablen schreiben, Y{uj)
=
2 . I c , (a;) - 1 • %^ (c.) = 2 • I c , {UJ) - (1 - I c , {co)) 3.1c,M-l.
Viele Zufallsvorgange haben selbst Zahlen als Ergebnisse, dann ist Q C R. Wenn das Ergebnis to selbst als Merkmal interessiert, kann man dies durch die Zufallsvariable X {LJ) = LU,
LO eQ,
also durch die identische Abbildung, zum Ausdruck bringen. Beispiel 2.3 (vgl. Beispiel 1.2): Werfen eines Wilrfels mit Jl = { 1 , 2 , . . . , 6}. Wenn die geworfene Augenzahl als solche von Interesse ist, betrachtet man die Zufallsvariable X {i) = i fur i = 1,2,..., 6. Sehr wichtig ist es, die Zufallsvariable X und ihren Wert x sorgfaltig zu unterscheiden. Formal ist X eine Funktion und x eine Zahl. Inhaltlich besteht der Unterschied darin, dass X die Situation ex ante beschreibt, bevor sich das zufallige Geschehen ereignet, wahrend x sich auf die Situation ex post bezieht, wenn sich das zufallige Geschehen ereignet hat und sein Ergebnis feststeht. Uber X konnen Wahrscheinlichkeitsaussagen getroffen werden, liber x jedoch nicht.
44
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
2.1.1
Verteilungsfunktion
Eine Zufallsvariable X nimmt ihre Werte mit bestimmten Wahrscheinlichkeiten an. Das grundlegende Hilfsmittel, um mit diesen Wahrscheinlichkeiten zu rechnen, ist die Verteilungsfunktion von X. Dies ist die Funktion
Statt Fx{x) schreibt man auch F(x), wenn keine Verwechslungen zu erwarten sind. Die Verteilungsfunktion der Zufallsvariablen X ordnet also jeder Zahl x die Wahrscheinlichkeit eines Ereignisses zu, namlich des Ereignisses, dass X den Wert x oder einen kleineren Wert annimmt. Flir dieses Ereignis schreibt man auch kiirzer {X < x} = {uj\X {LJ) < x} und fiir seine Wahrscheinlichkeit unter Weglassung der geschweiften Klammern P{X < x) = P{{uj\X (uj) <x}). Hierbei haben wir stillschweigend vorausgesetzt, dass fiir jedes x G R diese Menge ein Ereignis ist, also {X < x} e A gilt. Die Funktion B h-^ P{X e B) heifit Verteilung der Zufallsvariablen X , wobei B alle Teilmengen von R durchlauft, die ein Ereignis beschreiben, d.h. flir die {(JJ\X{UJ) E B] e. A ist. Eigenschaften der Verteilungsfunktion Die Verteilungsfunktion F einer Zufallsvariablen X besitzt allgemein die folgenden Eigenschaften: 1. F ist monoton wachsend: F{x) < F{y) fiir x < y. Die Monotonie folgt sofort daraus, dass fiir a; < y die Mengeninklusion {X<x}c{X< y} gilt. 2. F wachst von null bis eins: lim F{x) = 0
und
lim F{x) = 1.
Dies liegt zum einen daran, dass fiir x —> —oo die Menge {X < x} gegen die leere Menge 0 konvergiert und dass P ( 0 ) = 0 ist, zum anderen daran, dass die Menge {X < x} fiir x —> oo gegen Q konvergiert und p{n) = 1 ist.
2.1.
45
GRUNDBEGRIFFE
3. F ist rechtsstetig, d.h. der Punktionswert F{x) ist an jeder Stelle x gleich dem rechtsseitigen Limes, d.h. ^mF{y)
= F{x).
y>x
Auf den Beweis der Rechtsstetigkeit wollen wir verzichten. Man beachte, dass eine Verteilungsfunktion im Allgemeinen nicht stetig ist. Sie kann Sprtinge aufweisen, an denen der linksseitige Limes lim F(x) y—^x y<x
^
'
kleiner als der Punktionswert F{x) ist. Die drei Eigenschaften einer Verteilungsfunktion lassen sich kurz so zusammenfassen: Eine Verteilungsfunktion wachst monoton von 0 (bei x = — oo) bis 1 (bei x = oo) und ist rechtsstetig. Umgekehrt kann man zu jeder gegebenen Funktion F , die diese drei Eigenschaften besitzt, eine Zufallsvariable X so konstruieren, dass F die Verteilungsfunktion von X ist. Beispiel 2.2 (Fortsetzung): Die Zufallsvariable X „Nettogewinn'' bei Setzen von 1 € auf die erste Colonne hat die Verteilungsfunktion 0 F{x) =
25 37
flir X < - 1 , fiir - 1 < X < 2 , fiir X > 2.
F(x)
->•
-1
X
0
Abbildung 2.1: Verteilungsfunktion der Zufallsvariablen „Nettogewinn" in Beispiel 2.2 Man sieht in Abbildung 2.1, dass der Graph von F an den Stellen x = —\ und X = 2 springt, F aber rechtsstetig ist.
46
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
Beispiel 2.1 (Fortsetzung): Beim dreimaligen Werfen der Milnze nehmen wir an, dass es sich um ein Laplace-Experiment handelt. Dies bedeutet, dass jede der Ergebnisfolgen aus K (= Kopf) und Z (= Zahl) die gleiche Wahrscheinlichkeit besitzt. Filr die Zufallsvariable X = „Anzahl Kopf' gilt dann 1
P{X = 0) P{X = 2) =
P{X = 1)
§,
P{X = 3) = i
und filr die Verteilungsfunktion fiir fur fiir flir ftir
0 0.125 F{x) = l 0.5 0.875 1
X < 0, 0 < x < 1, 1 < X < 2, 2 < X < 3, a; > 3 .
In vielen Anwendungen der Wahrscheinlichkeitsrechnung geniigt es, statt einer Zufallsvariablen X lediglich ihre Verteilungsfunktion zu untersuchen. Oft ist es kompliziert oder iiberhaupt nicht moglich, Q. und die Abbildungsvorschrift X : f^ -^ M explizit anzugeben, jedoch lassen sich die Wahrscheinlichkeiten, mit denen eine Zufallsvariable bestimmte Werte annimmt oder der Verlauf ihrer Verteilungsfunktion aus sachlogischen Erwagungen unmittelbar bestimmen. Eine explizite Angabe der Ergebnismenge fi und punktweise Definition einer Zufallsvariablen X als X(cj), a; G fi, ist in der Kegel nicht notig und aus Sicht des Anwenders ohne Belang. Beispiel 2.4' Die Lebensdauer eines elektronischen Bauteils wird durch die Bedingungen seiner Herstellung, die Umstdnde seiner Nutzung und durch zahlreiche weitere Einflilsse bestimmt. Wir fassen die Lebensdauer deshalb als Zufallsvariable auf und bezeichnen sie mit X. Die im konkreten Fall realisierte Dauer X{ijo) hdngt dann vom Ergebnis uj des ihr zugrundeliegenden Zufallsvorgangs ab. Um UJ £ Q und die Zuordnung UJ J—> X{uj) zu beschreiben, milsste man sdmtliche Einflussfaktoren spezifizieren, was praktisch kaum moglich ist. Besser ist es, ganz darauf zu verzichten und sich durch sachbezogene Uberlegungen eine Vorstellung vom Verlauf der Verteilungsfunktion zu verschaffen. Man kann zeigen (siehe unten Abschnitt 2.4-2), dass, wenn das Bauteil in einem bestimmten Sinn nicht „altert'', die folgende Verteilungsfunktion (mit geeignetem Parameter X) angemessen ist: F{x) =
0, 1-e
— Ax
falls X < 0, falls X > 0.
Zahlreiche weitere Beispiele finden sich in den folgenden Abschnitten 2.3 und 2.4 liber spezielle Verteilungen.
2.1.
GRUNDBEGRIFFE
47
Die Verteilungsfunktion F einer Zufallsvariablen gibt die Wahrscheinliclikeit fiir alle Ereignisse der Form {X < x}, a; G R, an. Hieraus kann man die Wahrscheinlichkeiten fiir alle anderen interessierenden Ereignisse ableiten. Die Wahrscheinlichkeit, dass X in ein - beschranktes oder unbeschranktes I n t e r vail ^ fallt, lasst sich in besonders einfacher Weise aus der Verteilungsfunktion berechnen: P{X>x) P{a<X 1 . 2 ) = 0.4.
Wie man sieht, treffen bei Zufallsvariablen, die wie die im Beispiel 2.5 mit relativ grofier Wahrscheinlichkeit einzelne Werte annehmen, die obigen Interpretationen nicht genau zu. Weitere Hinweise zur Berechnung von Quantilen finden sich im Abschnitt 2.4. In der statistischen Literatur und Software kommen auch auch andere Definitionen von Quantilen vor. Eigenschaften der Quantilfunktion Die Quantilfunktion Q hat ahnliche for male Eigenschaften wie die Verteilungsfunktion: Sie ist 1. monoton wachsend, d.h. fiir p < p' ist Q (p)
0. Da F fiir alle x y^ 0 differenzierbar ist, erhalten wir die Dichte falls X < 0, falls x>0. In diesem Beispiel ist der Trdger gleich [0, oo[. Die Dichte ist in Abbildung 2.8 dargestellt.
Intervallwahrscheinlichkeiten Zum Schluss dieses Abschnitts fassen wir die Formeln ftir die Wahrscheinlichkeit, dass X in ein Intervall fallt, noch einmal tabellarisch zusammen. Je nach Verteilungstyp gilt Folgendes:
58
2 . ZUFALLSVARIABLE UND V E R T E I L U N G E N
fix)
Abbildung 2.8: Dichte der Lebensdauerverteilung im Beispiel 2.4
allgemein P{a<X
stetige Verteilung /
< b) F{b) - F{a)
f{x)dx
Ja
P{X < b)
F{b)
diskrete Verteilung
j\a<Xj a)
l-F(a)
/ Ja
2.1.5
f{x) dx j\xj>a
Affin-lineare Transformation von Zufallsvariablen
Haufig kennt man die Verteilung einer Zufallsvariablen X und ist an der Verteilung einer anderen Zufallsvariablen Y interessiert, die mit X durch eine monoton wachsende affin-lineare Transformation - d.h. eine Nullpunktsverschiebung und/oder Skalenanderung - verknlipft ist. Im Folgenden geben wir die Verteilungsfunktion, die Quantilfunktion und - im Fall einer stetigen Variablen - die Dichte von Y an. Gegeben sei die Verteilungsfunktion Fx einer Zufallsvariablen X. Mit a, 6 € M und 6 > 0 wird durch Y = a + bX eine weitere Zufallsvariable definiert. Dann gilt:
2.1.
59
GRUNDBEGRIFFE
1. Die Verteilungsfunktion Fy von Y ist y-a
Fviy) = Fx
(2.3)
y€
denn fiir 6 > 0 gilt Fy{y)^P{a
bX0.
(2.7)
Umgekehrt kann man leicht durch Integration zeigen, dass aus (2.7) wiederum (2.6) folgt, beide Bedingungen also in aquivalenter Weise die Symmetrie einer stetigen Zufallsvariablen charakterisieren.
2.2.
63
VERTEILUNGSPARAMETER
Beispiel 2.9: Zwei Beispiele filr Dichten von symmetrischen Verteilungen findet man in Abbildung 2.4 und 2.7. Die in Abbildung 2.4 dargestellte Dichte ist offenbar symmetrisch zu c = 0, wdhrend die Dichte in Abbildung 2.7 symmetrisch zu c = 180 ist; vgl. auch Beispiel 2.6. Die erste Dichte gehort zur Klasse der Normalverteilungen, die zweite zur Klasse der Rechteckverteilungen. Beides sind wichtige Klassen von symmetrischen Verteilungen, die wir in den Abschnitten 2.4-1 und 2.4-4 ausfuhrlich behandeln werden.
2.2
Verteilungsparameter
In diesem Abschnitt wollen wir einige Grofien einfiihren, die die Verteilung einer Zufallsvariablen im Hinblick auf ihre Lage, Streuung und Schiefe beschreiben. Sie werden Verteilungsparameter genannt, da sie einerseits von der Verteilung abhangen, andererseits die Verteilung unter bestimmten Aspekten charakterisieren.
2.2.1
Erwart ungswert
Als Erstes soil die allgemeine Lage einer Zufallsvariablen X beschrieben werden. Ist X diskret, so ist die Verteilung von X durch die Gesamtheit der moglichen Werte Xj und ihrer Wahrscheinlichkeiten pj gegeben. Ist X stetig, so ist die Verteilung durch die Dichte f{x) bestimmt. Der Erwart ungswert der Verteilung von X ist folgendermafien definiert^: ( Yl ^jPj '
E[X] = {
f^lls X diskret,
3
oo
/ xf{x)dx,
falls X stetig.
Man schreibt auch E [X] = fix Bei einer diskreten Zufallsvariablen X werden also alle Werte Xj aus dem Trager von X mit den zugehorigen Wahrscheinlichkeiten pj = P{X = Xj) gewichtet und aufsummiert, bei einer stetigen Zufallsvariablen tritt an die Stelle der Summe ein Integral. •^Es gibt Zufallsvariable (mit unendlichem Trager), bei denen die den Erwartungswert definierende Summe bzw. das Integral einen unendlichen Wert ergeben oder uberhaupt nicht konvergieren. Zum Beispiel besitzt die stetige Zufallsvariable mit der Dichte f{x) = (14- ^)^^ ^ ^ ' l^^i^^®^ Erwartungswert, da das uneigentliche Integral J^^x-jY^—^z^dx nicht konvergiert. W^eitere Beispiele liefern die Pareto-Verteilungen in Abschnitt 2,4.3.
64
2. ZUFALLSVARIABLE UND VERTEILUNGEN
Beispiel 2.2 (Fortsetzung): Beim Roulette erhdlt man • den dreifachen Einsatz, wenn man auf Colonne gesetzt hat (und die gesetzte Colonne erscheint), • den 36-fachen Einsatz, wenn man auf Zahl gesetzt hat (und die gesetzte Zahl erscheint). Die Nettoauszahlung ist in beiden Fallen eine diskrete Zufallsvariable, ^Colonne
^^ \
_-t
bzw. Xzahi - 1 - 1 ^
falls die Colonne erscheint, falls nicht, falls die Zahl erscheint, IIU, falls nicht.
Fiir die Erwartungswerte gilt E[Xcolonne]
=
1 ("•'•)• 37 ^ ^ ' 37 ^ ~ 3 7 '
E[Xzahl]
=
(-!)•§ + 35-^
1 = ~37
Offenbar stellt der Erwartungswert einer Zufallsvariablen X nicht immer einen moglichen Wert von X dar. So nimmt im Beispiel die Zufallsvariable ^Colonne ^ur die beiden Werte —1 und 2 an. Ihr Erwartungswert ist jedoch E [XColonne] = -j^', ei gehort nicht zum Trager von XcoionneIst X eine stetige Zufallsvariable, so gilt P{X = x) = 0 fiir alle x G R. Die Berechnung des Erwartungswerts kann deshalb nicht wie bei diskreten Zufallsvariablen erfolgen. Vielmehr wird bei stetigen Zufallsvariablen nach der obigen Formel jeder Wert x aus dem Trager mit der Dichte f{x) gewichtet und dann integriert. Dabei kann man den Integrationsbereich auf den Trager beschranken, da auCerhalb des Tragers die Dichte gleich null ist. Beispiel 2.6 (Fortsetzung): Die Zufallsvariable X hat die Dichte f{x) = 3 ^ , falls 0 < re < 360, / ( x ) = 0 sonst. Ihr Erwartungswert ist 00
360
E[X] = f xf{x)dx = J x^dx
= 180.
E r w a r t u n g s w e r t einer t r a n s f o r m i e r t e n Zufallsvariablen Haufig benotigt man nicht den Erwartungswert von X selbst, sondern den einer transformierten Zufallsvariablen Y = g{X). Die Transformation kann beispielsweise eine affin-lineare Funktion Y = a-{- bX^ eine Potenz wie y — X^ oder
2.2.
65
VERTEILUNGSPARAMETER
Y = X^ oder eine Exponentialfunktion Y = expX sein. Ftir eine beliebige Punktion ^ : R —> M berechnet man den Erwartungswert der transformierten Zufallsvariablen Y = g{X) mit der Formel ( Y^g{xj)pj ,
E[9{X)] = {
falls X diskret,
3 oo
/ 9{^)fx{x)dx
^ falls X stetig.
Beispiel 2.2 (Fortsetzung): Wir betrachten die Zufallsvariablen Xcoionne ^^^ Xzahi sowie die Funktion g{x) — x^, Dann ist ^
l^Colonnej
{-If
l^Zahl]
{-If
^
73 „2 12 1.97, 1-2^ = 37 37 37 1261 1-35^ = 34.08. 37 37 37 25
Beispiel 2.6 (Fortsetzung): a) Fiir die Zufallsvariable X mit Dichte fx[x) = 3^^, falls 0 < x < 360, gilt +00
E[X']=
360
I x'fx{x)dx=
360
Jx'^
1 ax =
360
1 3 X
43200.
360 3
b) Nachdem der Kandidat eine weitere Runde erreicht hat, bietet ihm der Showmaster das folgende Spiel an: Wenn das Gliicksrad in der Stellung x stehen bleibt, erhdlt der Kandidat
1000.exp(3|^)€ ausgezahlt. Wie hoch ist der Erwartungswert der Auszahlung? Der Erwartungswert betrdgt 360
X 1000 • exp 360
/ l««°-^^P(3lo)36o'^ 360
=
1000 3 L 360. exp ( 3 ^ ) lOOOe^-1000 = 1718.28 € .
Rechnen mit dem Erwartungswert Transformiert man die Werte der Zufallsvariablen X mit einer affin-linearen Abbildung x H-» a H- 6 a:, so erhalt
66
2. ZUFALLSVARIABLE UND VERTEILUNGEN
man eine neue Zufallsvariable Y mit den Werten Y{uj) = a-{- 6X(a;), uj e Q,, Der Erwartungswert der transformierten Zufallsvariablen Y = a -{- bX ist dann gleich E[a + bX] =a + bE[X].\ (2.8) Anschaulich besagt die Formel (2.8), dass die Erwartungswertbildung mit der Addition einer Konstanten und der Multiplikation einer Zahl „vertauscht" werden kann. BEWEIS
Im Fall einer stetigen Variablen X mit Dichte / gilt OO
/
PCX)
{a-\-bx)f{x)dx -OO OO
/
=
/•OO
/
af{x)dx-^
/
«/—OO
bxf{x)dx
J — OO
/»00
f{x)dx-^b -OO
xf{x)dx
= a-l + bElX].
J — OO
Falls X diskret ist, ist auch a + bX eine diskrete Zufallsvariable und es gilt E[a-\-bX]
=
^ ( a + 6xj)p^- = ^ 3 3
=
6a;^p^-
ap^-+ ^ 3
3 3
3
a + bE[X].
D
Beispiel 2.10: Die Zufallsvariable X gebe das Bruttomonatsgehalt eines zufdllig ausgewdhlten Angestellten einer Unternehmensholding wieder. Von X sei nur der Erwartungswert fix = 4700 € bekannt. Tarifverhandlungen ergaben eine Lohnsteigerung um einen Sockelbetrag von 300 € und eine zusdtzliche lineare Erhohung von 3%. Das Bruttogehalt nach der Tariferhohung betrdgt Y = 300 -f 1.03X. Sein Erwartungswert betrdgt dann E[Y]
=
E[300 + 1.03X] = 300 +1.03 £'[X]
-
300 + 1.03-4700 = 5141 € .
Es ist hier nicht erforderlich, die Wahrscheinlichkeitsfunktion riablen Y zu kennen.
der Zufallsva-
Zentrierung Zieht man von einer Zufallsvariablen X ihren Erwartungswert ab, so erhalt man die z e n t r i e r t e Zufallsvariable X — fix- Sie hat wegen (2.8) den Erwartungswert E[X -fix]=
fix - l^x
=0.
Wenn X s y m m e t r i s c h zu einem bekannten Wert c verteilt ist und der Erwartungswert existiert, gilt E[X]=:C.
2.2.
VERTEILUNGSPARAMETER
67
BEWEIS Die Symmetrie der Verteilung besagt (s.o. Abschnitt 2.1.7), dass X — c wie —X -he verteilt ist, also auch den gleichen Erwartungswert besitzt. Folglich ist
E[X-c] E[X]-c 2E[X]
= =
El-X + c], -E[X]+c, 2c,
woraus die Behauptung E[X] = c folgt.
D
E r w a r t u n g s w e r t als L a g e p a r a m e t e r Nicht nur fiir symmetrische Verteilungen charakterisiert der Erwartungswert die Lage einer Zufallsvariablen. Wegen (2.8) gilt namlich: Wird die Zufallsvariable X um die Konstante a auf der reellen Achse verschoben, so verschiebt sich der Erwartungswert um die gleiche Konstante, E[a-\-X] = a-\-E[X]. Ein Verteilungsparameter, der diese Eigenschaft besitzt, heifit lageaquivariant. Wird X mit einem Skalenfaktor 6 > 0 multipliziert, so ist E[bX] = bE[X]. Ein Verteilungsparameter, der sich um den gleichen Skalenfaktor andert, wird skalenaquivariant genannt. Einen Verteilungsparameter, der lage- und skalenaquivariant ist, nennt man einen L a g e p a r a m e t e r . Demnach ist der Erwartungswert ein Lageparameter. Wegen Gleichung (2.4) ist auch jedes Quantil Xp von X ein Lageparameter, insbesondere der Median XQ.SErwartungswert und Median sind nicht nur Lageparameter, sie beschreiben auch - in unterschiedlicher Weise - ein „Zentrum" der Verteilung. Wenn die Verteilung symmetrisch zu einem Wert c ist, sind beide gleich diesem Wert c. Im Allgemeinen sind Erwartungswert und Median jedoch verschieden. Weitere Zentralitatseigenschaften des Erwartungswerts hangen mit der Varianz der Zufallsvariablen zusammen. Sie werden im folgenden Abschnitt behandelt.
2.2.2
Varianz
Neben der Lage einer Zufallsvariablen, die durch den Erwartungswert charakterisiert wird, ist ihre Streuung von besonderem Interesse. Sie wird durch die Varianz beschrieben. Die Varianz von X, V[X] = E [{X - ,xxf]
,
ist der Erwartungswert der Zufallsvariablen g{X) = [X — fix) ? also der Erwartungswert der quadrierten Abweichung der Zufallsvariablen X von ihrem
68
2 . ZUFALLSVARIABLE UND VERTEILUNGEN
Erwartungswert /ix- Fiir diskrete bzw. stetige Verteilungen ist die Varianz durch die Formeln ( 12{^j ~ l^x)'^ Pj ,
V[X] = {
falls X diskret,
oo
J {x — yixYfx{x)
dx,
falls X stetig,
gegeben. Offenbar kann die Varianz keinen negativen Wert annehmen."* Die positive Wurzel aus der Varianz, a[X] =
+./V\X],
heifit Standardabweichung. Weitere Notationen fiir Standardabweichung und Varianz sind ax = (J[X],
(j\ = a'^[X] = Var[X] = V[X].
Zur Berechnung der Varianz ist die folgende Formel niitzlich: V{X] =
E[X']-,,%
(2.9)
In (2.9) geniigt es, fix sowie i^fX'^] zu berechnen, was meistens weniger Aufwand als die Berechnung mit Hilfe der obigen Definitionsformel erfordert. Der Beweis von (2.9) folgt aus E[{X-txxf]
=
E[X^]-2E[X-fix]
+ fil
= E[X^]-2E[X]-fix + lJi^x = E[X']-n\. • Beispiel 2.2 (Fortsetzung): Wir betrachten wieder beim Roulette die Zufallsvariablen Xcoionne '^'^id Xzahi' Beide haben den gleichen Erwartungswert — ^ . Fiir die Varianzen ergibt sich V[Xcolonne\
=
^l^Col
onne ]-
(T[Xcolonne]
V[Xzahl]
{E[Xcolonne])
=
g-B) —.
=
1.40,
=
^[^Zahl] - {E[Xzahl]f 1261 / 1 \^ — - [ - - ) =34.0804.
= O'iXzahl] =
5.84.
^Es gibt allerdings Zufallsvariable, bei denen diese Summe bzw. dieses Integral unendlich grofi werden, also keine endliche Varianz existiert. Beispiele sind die i-verteilten Variablen mit ly e)
e, Z{uj) = 0 sonst,
gegeben ist. Offenbar gilt Z{uj) E[Z] E[Z]
<
e).
Also ist P{\X-fix\>e) 1 - 1^ =
25
Setzt man e — Xax (niit einem A > 1), so ergeben sich zwei aquivalente Versionen der Tschebyscheff-Ungleichung, P{\X-,ix\<XcTx)
>
1 - ^
P{\X-fix\>\(rx)
0.5 benutzt man die Beziehung X ~ J5(n,7r)
X r^ B{n,7T' =
I-TT).
2.3.
SPEZIELLE DISKRETE VERTEILUNGEN
79
Wenn X die Zahl der „Erfolge" Ai einer Bernoulli-Versuchsreihe BEWEIS beschreibt, dann beschreibt die Zufallsvariable Y = n — X namlich die Zahl der „Misserfolge" Ai. Die Unabhangigkeit der Folge Ai,,,, .A^ zieht die Unabhangigkeit der Folge Ai,,.,,An nach sich. Es gilt P{Ai) = 1 — TT fiir i = l , . . . , n . Also handelt es sich bei den Ai ebenfalls um eine BernoulliVersuchsreihe, und Y = n — X ist binomialverteilt mit den Parametern n und n' = 1 — 7T.
D
Beispiel 2.16: Es sei X ~ B{n =. 10,7r = 0.8). Man bestimme P[X > 9). Die gesuchte Wahrscheinlichkeit betrdgt P{X>9)
wobeifiirY wurden.
2.3.2
= = =
P{X = 9)-\-P{X = 10) P{Y = 1) + P{Y = 0) 0.2684 + 0.1074 = 0.3758,
= n—X ~ B{n = 10, TT' = 0.2) die Werte der Tabelle 1 verwendet
Poisson-Vert eilung
Wir gehen wieder von einer Bernoulli-Versuchsreihe aus, treflFen aber spezielle Annahmen iiber die Parameter n und TT. Wir nehmen an, dass das BernoulliExperiment sehr haufig wieder holt wird, n also grofi ist. Andererseits sei die Wahrscheinlichkeit TT = P{A) fiir einen Erfolg sehr klein. A wird deshalb ein „seltenes Ereignis" genannt. Die Anzahl X der Erfolge bei n Versuchen ist dann binomialverteilt, X ~ 5(n,7r), mit P(^X = x)=
M7r^(l-7r)^-^
fiir x = 0 , 1 , 2 , . . . , n .
(2.16)
In diesem Ausdruck lasst man nun • n gegen unendlich und zugleich • TT gegen null gehen, derart, dass nir gegen eine positive Zahl fx konvergiert. Die Binomialwahrscheinlichkeit (2.16) konvergiert bei diesem Grenztibergang, und zwar gegen
lim f''V''(l - ^T'"" = e-^ 4 •
(2.17)
Man kann zeigen, dass der Limes fiir jede nichtnegative ganze Zahl x definiert und groBer als null ist. Fiir die Exponentialfunktion gilt die Reihendarstellung oo
e''= exp(Ai) = ^ k=l
^
Ij-,
M€E.
80
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
Summiert man die rechte Seite der Gleichung (2.17) iiber alle x = 0 , 1 , 2 , . . . , ergibt sich deshalb (mit Summationsindex x statt k)
x=0
x=0
=
e-^e^ = e^ = I,
Der Limes definiert also eine Wahrscheinlichkeitsfunktion. Eine diskrete Zufallsvariable X mit der Wahrscheinlichkeitsfunktion p(^X = x)=e-^^
x\
flir :r = 0 , 1 , 2 , . . .
heisst Poisson-verteilt^ mit Parameter /i > 0, in Zeichen: X ~ Po{fi). Der Trager von X ist Tx = N U {0} - { 0 , 1 , 2 , . . . } . Tabellen Die Wahrscheinlichkeiten P{X = x) lassen sich leicht berechnen. Flir Werte von /JL zwischen 0.1 und 10 sind sie aufierdem in Tabelle 2 des Anhangs tabelliert. Fiir kleine /i zeigt die Poisson-Verteilung eine starke Asymmetrie (Rechtsschiefe), wahrend die Verteilung fiir grofiere /x fast symmetrisch ist. Abbildung 2.14 illustriert dies anhand zweier Poisson-Verteilungen mit /x = 2 bzw. fi= 12. Viele okonomische und technische Sachverhalte konnen mit Poisson-verteilten Zufallsvariablen beschrieben werden. Beispielsweise lasst sich die Anzahl der in einem bestimmten Zeitraum ankommenden Kunden in einem Bedienungssystem haufig auf diese Weise modellieren; vgl. Abschnitt 3.3.2. Die Poisson-Verteilung Po{fx) kann man wegen der erwahnten Limesbeziehung als Approximation der Binomial verteilung B{n,'K) flir kleines TT und grofies n auffassen. In diesem Fall gilt die Naherung ^ V ' ' ( l - -^T'"" « e-^^ x) x\
mit fi = n7v.
Eine gebrauchliche Faustregel lautet, dass die Approximation im konkreten Fall als zulassig angesehen werden kann, wenn die drei Bedingungen TT < 0.1,
n > 50 und nyr < 9
erflillt sind. Beispiel 2.17: 50 Sduglinge erhalten eine bestimmte Impfung. Die Wahrscheinlichkeit, dass ein Sdugling die Impfung nicht vertrdgt, ist TT = 0.05. ^Simeon Denis Poisson (1781-1840)
2.3.
81
SPEZIELLE DISKRETE VERTEILUNGEN
fix)
0.3 4 Po{2)
0.2
O.H 0.0
—^—.-
0
X
10
fix) 0.3 Po(12)
0.2 O.H 0.0
^ 0
10
llTT|>»»»y, 15 25 20
^
Abbildung 2.14: Wahrscheinlichkeitsfunktion der Poisson-Verteilung Po{ii) mit 11 = 2 bzw. /i = 12
Die Reaktionen der einzelnen Sduglinge auf die Impfung sind unabhdngig voneinander. Sei X = Anzahl der Sduglinge, die die Impfung nicht vertragen. Man berechne P(X = 0),P{X = l ) , P ( X = 2),F(X > 3) exakt und approximativ und vergleiche die Werte der Wahrscheinlichkeiten (^^ Excel/SPSS). Es gilt X ~ B{n = 50, TT = 0.05). Wegen n < 0.1, n > 50 und UTT - 2.5 < 9 konnen wir die Verteilung von X durch die Poisson-Verteilung Po{fi = 2.5) approximieren. Die exakten und gendherten Wahrscheinlichkeiten sind:
P{X P{X P{X P{X
= = = >
0) 1) 2) 3)
S ( n = 50,7r = 0.05) 0.0769 0.2025 0.2611 0.4595
Po(/x = 2.5) 0.0821 0.2052 0.2565 0.4562
E r w a r t u n g s w e r t u n d Varianz einer Zufallsvariablen X ~ Po{ii) sind S[X] = M,
V[X]=ii.
82
2 . ZUFALLSVARIABLE UND V E R T E I L U N G E N
Sowohl der Erwartungswert einer Poisson-Verteilung als auch ihre Varianz sind also gleich dem Parameter /i der Verteilung. Dies macht man sich anschaulich daran klar, dass die Po(^)-Wahrscheinlichkeiten die Grenzwerte von ^(n,7r)-Wahrscheinlichkeiten sind. Erwartungswert und Varianz einer jeden 5 ( n , 7r)-Verteilung betragen nn bzw. n7r(l — TT). Wegen nn -^ fx muss der Erwartungswert im Limes gleich fi sein. Ebenso gilt wegen TT -^ 0 fiir die Varianz die Limesbeziehung n7r(l — TT) —^ /i. Dies lasst sich auch exakt zeigen: BEWEIS
ES
gilt J,
OO
OO
x=0
=
e
x=l
^
X\
-'Y^t^iB^ -= /ie"-''^a:=0 x=l
M-
Die zweite dieser Gleichungen ergibt sich durch Weglassen des ersten Summanden (der gleich null ist), die vierte durch Ubergang vom Summationsindex X (beginnend mit eins) zum Summationsindex x — 1 (beginnend mit null). Um die Varianz von X E[X%
E
E[X'^
Po{fi) zu bestimmen, berechnen wir zunachst
x2e-
1 gibt es Unterschiede zur Binomialverteilung, die sich durch den unterschiedlichen Ziehungsmodus erklaren. Approximation Andererseits ist unmittelbar klar, dass dann, wenn sich viele Kugeln in der Urne befinden und nur wenige Kugeln gezogen werden, kein grofier Unterschied zwischen dem Ziehen mit und ohne Zuriicklegen besteht. Fiir jedes feste x und n gilt die Grenzbeziehung /M\ /N-M\ \ X ) \ n—x )
o
N-^oo
n 7r^(l-7rr-
M—>oo
Die Wahrscheinlichkeiten der hypergeometrischen Verteilung H{n, AT, M) konnen deshalb durch die einer Binomialverteilung B{n,7T = ^ ) approximiert werden. Fiir die Zulassigkeit der Approximation im konkreten Fall ist die folgende Faustregel iiblich: -^ < 0.05. Der Quotient -^ heifit Auswahlsatz. Beispiel 2.21: Aus einer Urne mit 100 Kugeln (davon 50 roten) werden drei Kugeln ohne Zuriicklegen gezogen. Wie grofl ist die Wahrscheinlichkeit, dass genau eine rote unter den drei gezogenen Kugeln ist? Mit X = Anzahl der roten Kugeln unter den drei gezogenen
2.4.
SPEZIELLE STETIGE VERTEILUNGEN
89
gilt X ~ H{n = 3, AT = 100, M = 50) und deshalb
Sim
P{X = 1) = - 4 i ^ = 0-3788. Da der Auswahlsatz -^ = ^ klein genug ist, diirfen wir diese Wahrscheinlichkeit auch ndherungsweise mithilfe der Binomialverteilung bestimmen. Es gilt ^ = ^ = 0-5 und approximativ X ~ B{n = 3,7r = 0.5). Aus der Binomialverteilungstabelle (Tabelle 1 im Anhang) erhalten wir P{X = 1) ^ 0.3750. Erwartungswert und Varianz von X ~ H{n, N, M) sind E\X]
--
^N '
Mit TT = ^ erhalten wir
E[X]
=
nn,
V[X] =
nnil-n)^^.
Wahrend es beim Erwartungswert keinen Unterschied zwischen dem Ziehen mit und ohne Zuriicklegen gibt, verhalt es sich mit der Varianz anders: Wegen N -n j^—j < 1,
falls n > 1,
ist die Varianz von X beim Ziehen ohne Zuriicklegen kleiner als beim Ziehen mit Zuriicklegen. Im Extremfall n = A^, d.h. wenn alle Kugeln aus der Urne entnommen werden, gilt sogar V[X] = 0, denn dann ist P{X = M) = 1.
2.4
Spezielle stetige Verteilungen
In diesem Abschnitt behandeln wir verschiedene stetige Verteilungen, die zum Kernbestand der Wahrscheinlichkeitsrechnung gehoren und in vielen Anwendungen eine RoUe spielen. Anders als bei den diskreten Verteilungen des Abschnitts 2.3, die samtlich aus dem Urnenmodell mit bzw. ohne Zuriicklegen entwickelt werden konnten, liegen diesen stetigen Verteilungen sehr unterschiedliche Modellansatze zugrunde. Einige von ihnen werden wir in spateren Anwendungen erlantern.
90
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
m
Fix)
1
^
X
Abbildung 2.17: Dichte und Verteilungsfunktion der Rechteckverteilung R{a,p)
2.4.1
Rechteckverteilung
Eine Zufallsvariable X heifit rechteckverteilt mit Parametern a,/3 G R a < /?, in Zeichen: X ~ R{a,P)^ wenn sie die Dichte
/c.) = { A '
falls a < X < P y sonst,
besitzt. Die Rechteckverteilung wird auch als uniforme Verteilung oder stetige Gleichverteilung bezeichnet. Der Trager der Rechteckverteilung ist Tx = [o;, /?]. Auf dem Intervall [a, /?] ist die Verteilungsfunktion linear mit konstanter Steigung l/(/J — a ) , ansonsten ist sie konstant, also (vgl. Abbildung 2.17)
r 0, Fix) =
x—a (3-a '
1i 1.
falls X < a falls a < X (3
Die Rechteckverteilung R{a,(3) ist dann ein sinnvolles Modell fur eine Zufallsvariable X, wenn man weifi, dass X nur Werte zwischen a und /? annimmt und innerhalb des Intervalls [a, /?] keine Werte „bevorzugt" auftreten. Dann hangt die Wahrscheinlichkeit dafiir, dass X in ein Teilintervall von [a,^] fallt, nur von der Lange des Teilintervalls ab und ist proportional dieser Lange. Beispiel 2.22: Ein Autofahrer gibt seinen Wagen zur Inspektion und muss deshalb mit der Straflenbahn fahren. Er weifi nur, dass die Ziige im ZehnMinuten-Rhythmus verkehren und geht zur Haltestelle, um auf den ndchsten
2.4.
91
SPEZIELLE STETIGE VERTEILUNGEN
Zug zu warten. Sei X seine Wartezeit an der Haltestelle (in Minuten). Welche Wahrscheinlichkeitsverteilung fiir X bietet sich an? Offenbar ist X ~ R{a = 0^/3 = 10) erne plausible Annahme. Beispiel 2.6 (Fortsetzung): In dem Spiel des Femseh-Showmasters bezeichne X den angezeigten Winkel in Grad bei Stillstand des Gliicksrads. Dann ist X ~ R{a = 0,P = 360) eine sinnvolle Verteilungsannahme. Unter den Rechteckverteilungen ist die mit den Parametern a = 0 und 0 = 1 von besonderer Bedeutung. Eine Zufallsvariable Z ~ i?(0,1) hat die Dichte /z(
falls 0 < X < 1, sonst,
^)-{J'
und die Verteilungsfunktion
r 0, Fzix)
-
falls X < 0, falls 0 < X < 1, falls X > 1.
Man nennt ein solches Z ~ i?(0,1) auch standard-rechteckverteilt. Wir zeigen nun, dass eine affin-lineare Transformation der Zufallsvariablen Z wieder rechteckverteilt ist. Sei a,/? G R , a < /?, und X =
a-\-{P-a)Z.
Dann ist X ~ i ? ( a , / ? ) . BEWEIS Wegen der Formel (2.5) fiir die Dichte einer afRn transformierten Variablen gilt ^/ \ ^ f x-a X e
/(^) = -^ fz \P-aJ (3-a '^
'
Es folgt
/c.) = {
^-^falls ' 0 < | 5 g < 1, d.h. falls sonst.
Also ist X r^ R{a,f3).
a<x x) =
P{x<X
<x-j-Ax\X
>x).
h{x)Ax gibt also naherungsweise die Wahrscheinlichkeit an, dass ein Objekt im Intervall ]x, x 4- Ax] ausfallt unter der Bedingung, dass es den Zeitpunkt X erlebt. Speziell sei X exponentialverteilt, X ~ Exp{X). Dann ist S{x) = e~^^ und f{x) = Xe~^^, also
"w-lsy-l^-* f""^"Bei der Exponentialverteilung ist demnach die Ausfallrate konstant und hangt nicht vom Alter x des Objektes ab. Man kann leicht (namlich durch Integration der konstanten Ausfallrate A) mit Hilfe von Formel (2.19) zeigen, dass die Exponentialverteilung sogar die einzige Lebensdauerverteilung ist, die diese Eigenschaft besitzt. Die Konstanz der Ausfallrate entspricht offenbar der Gedachtnislosigkeit der Exponentialverteilung.
2.4.3
Pareto-Verteilung
Wir beginnen mit einem Anwendungsbeispiel. Aus einer Grundgesamtheit von Haushalten werde auf zufallige Weise ein Haushalt ausgewahlt und sein Einkommen mit X bezeichnet. Dann ist X eine Zufallsvariable. Fiir jedes X entspricht der Wert der Verteilungsfunktion F{x) von X dem Anteil der Haushalte, die ein Einkommen von x oder weniger beziehen. S{x) = 1 — F{x) entspricht dem Anteil der Haushalte mit einem Einkommen grofier als x. Pareto^ untersuchte die Einkommensverteilungen wohlhabender Haushalte und stellte dabei fest, dass die empirischen Verteilungen - besonders flir grofie Einkommen x - der approximativen Beziehung ln(5(x)) ^A-a\nx
(2.20)
geniigen. Dies ist eine (approximative) lineare Gleichung in den logarithmierten Grofien \n{S{x)) und Inx. Tragt man in einem doppelt logarithmischen Koordinatensystem den Anteil S{x) gegen x ab, so ergibt sich naherungsweise eine Gerade mit Steigung —a. ^Vilfredo Pareto (1848-1923)
100
2. ZUFALLSVARIABLE UND VERTEILUNGEN
Beschranken wir uns nun auf die Verteilung der Einkommen, die ein bestimmtes Niveau c libersteigen, und nehmen an, dass (2.20) mit geeigneten Zahlen A und a exakt gilt: \n{S{x)) = A — a\nx fiiT x > c. Dies ist zur Gleichung S{x) = e'^x'^ aquivalent, also zur Gleichung F{x) = 1 - S{x) = 1 - e'^x-^
fiir X > c.
Wegen der Beschrankung der Grundgesamtheit auf Haushalte mit Mindesteinkommen c setzen wir F{x) = 0 fur x < c. Speziell gilt F{c) = 0 und daher e^c " = 1, d.h. e"^ = c^. Insgesamt folgt 0,
Fix)
falls X < c,
1 — (— j ,
falls X > c.
Eine Zufallsvariable X mit dieser Verteilungsfunktion heifit P a r e t o - v e r t e i l t mit Parametern c > 0 und a > 0, in Zeichen: X ~ Par {a, c). Der Trager von X ~ Par {a, c) ist Tx = [c, oo[, die Dichte falls X < c,
/w =
a+l
ac^'x-''-'^
falls X > c .
/(^)
-^x
^x
Abbildung 2.20: Dichte und Verteilungsfunktion der Pareto-Verteilung Par{a 2.5, c = 4)
2.4.
SPEZIELLE STETIGE VERTEILUNGEN
101
Beispiel 2.25: Von den Studierenden an einer exklusiven Privatuniversitdt sei bekannt, dass jeder ein verfilgbares Monatseinkommen von mindestens 1500 € hat, Es sei gemafi Par{a = 2.1, c = 1500) verteilt (^ SPSS). a) Berechnen Sie den Median der
Einkommensverteilung.
b) Wie viel Prozent der Studierenden haben 2500 €" oder mehr zur Verfugung? a) Gesucht ist also X0.5. Es gilt F{xo.6)
/1500y' \ ^0.5 /
1500
^ /i5ooy'
=
V ^0.5 /
=
0.5
=
0.5^
=r
2086.60.
0.5
^0.5 3:^0.5
Der Median betrdgt 2086.60 €. zu b) Wir berechnen
l-F(2500) = l - ( l - ( | ^ ) " )
=0.3421.
34.2% der Studierenden verfiigen iiber ein Einkommen von mehr als 2500 €. Erwartungswert und Varianz Wir wollen noch Erwartungswert und Varianz einer F a r (a, c)-Verteilung bestimmen. Dazu berechnen wir E^fX"^] ftir beliebiges n G N, a;" ac^- x'''-^
dx
/•OO
X) 1*^^
1
, n-a 1
falls a > n ,
,^ ac^
a —n a —n Die Integration erfordert, dass a > n ist. Ftir Erwartungswert und Varianz einer Pareto-Verteilung erhalten wir fx = E[X] =
rye
, a —1
falls a > 1,
102
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
V[X] = E [X^] - iJ,^
V\X\ =
ac a-1
a-2
ac" (a-2)(a-l)2'
falls a > 2 .
Beispiel 2.25 (Fortsetzung): Erwartungswert und Standardabweichung der Pareto-Verteilung mit a == 2.1 und c — 1500 berechnet man wie folgt: E[X] V[X]
Vvjx]
-
2.1 • 1500
- 2 863.64 € ,
2.1 • 1500^ - 3 9 049 586.78 € 2 , 0.1 1.12 -= 6 248.97 € . -
1st X ~ Par {a, c) und ist c' > c, so gilt fiir x > c' P{X >x\X
>c') =
PiX>x) P(X>c')
(f)" (^)"
V^
Die bedingte Verteilung von X unter der Bedingung X > c' ist also wieder eine Pareto-Verteilung. Sie hat denselben Parameter a wie die nicht bedingte Verteilung; ihr anderer Parameter ist c'. Beispiel 2.26: Die Einkommen (in €) der Mitglieder eines noblen Golfklubs seien Par{a, c)-verteilt mit a = 2.4 und c = 200000. Wie ist das Einkommen derjenigen Teilgesamtheit der Mitglieder verteilt, deren Einkommen mindestens d = 300000 € betragt? Nach obiger Uberlegung ist dieses Einkommen Par {a = 2.4; c' = 300000)verteilt.
2.4.4
Normalverteilung
Eine Zufallsvariable X heiCt normalverteilt oder GauB-verteilt'^ mit Parametern /i G M und a^ > 0, in Zeichen: X ^ N (/i,a-2), wenn ihre Dichte durch /(x) = ^ = e - H ^ r , gegeben ist. •^Carl Priedrich Gaufi (1777-1855)
xGM,
2.4.
103
SPEZIELLE STETIGE VERTEILUNGEN
^ u
Abbildung 2.21: Dichte (f{u) der Standard-Normalverteilung Im Spezialfall fx = 0 und a'^ = 1 heii3t die Verteilung Standard-Normalverteilung. In diesem Buch bezeichnen wir eine standard-normalverteilte Zufallsvariable mit [/, [/ ~ A^(0,1), und ihre Dichte mit ^(u). Es ist
ue Zwischen der Normalverteilungsdichte / mit Parametern /i und cr^ und der Standard-Normalverteilungsdichte (p besteht ofFenbar die folgende Beziehung: f{x)
1 = -(p[
fx-fx -——
X e.
Die Formel entspricht der Formel (2.5) ftir die Dichte einer affin-linear transformierten Variablen. Auf die affin-lineare Transformationsbeziehung zwischen U und X werden wir unten genauer eingehen. Eigenschaften der Dichtefunktion Die Dichtefunktion (^ (u), u G M, der Standard-Normalverteilung hat folgende wesentliche Eigenschaften (vgl. Abbildung 2.21): 1. (f{u) hat sein Maximum an der Stelle u = 0 mit (p{0) = -4= = 0.39894. 2. (f{u) ist symmetrisch zu c = 0, d.h. if {—u) = (p (u) ftir alle li G R. 3. (f{u) ist positiv ftir alle u eR und geht sowohl iui u —^ oo als auch ftir u -^ —00 gegen 0. 4. (p{u) besitzt Wendepunkte an den Stellen u = 1 und u = —1.
104
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
Insbesondere ist eine standard-normalverteilte Zufallsvariable U ~ iV(0,1) unimodal mit eindeutigem Modus 0 und nimmt Werte auf der ganzen reellen Achse an. Aus den Eigenschaften von (p folgen unmittelbar die Eigenschaften der Dichte f{x) einer beliebigen Normalverteilung N{II^(T'^)^ namlich: 1. f{x) hat sein Maximum an der Stelle x = /i mit / ( / i ) = - . - l = = 1.0.3989. cr v27r CF 2. f{x) ist symmetrisch zu //, d.h. / (// — x) = / (/i + x) fiir alle x G M. 3. / ( x ) ist positiv fiir alle x G M und geht sowohl fiir x —> oo als auch fiir X —> —00 gegen 0 .
4. /(x) besitzt Wendepunkte an den Stellen x = ^-\- a und x = fx — a. Eine normalverteilte Zufallsvariable X ~ N{fx,a^) ist unimodal mit eindeutigem Modus fi und nimmt beliebig grofie und kleine Werte an. Verteilungsfunktion Die zur Standard-Normalverteilung gehorende Verteilungsfunktion wird mit ^ bezeichnet,
vgl. Abbildung 2.23. Dieses Integral lasst sich nicht durch bekannte Funktionen wie Polynome oder Exponentialfunktionen ausdriicken oder sonst auf einfache Weise berechnen. Eine Wertetabelle fiir ^{u) findet man als Tabelle 4 im Tabellenanhang. Manche Taschenrechner geben ebenfalls die Werte von $ {u) aus. Dennoch lassen sich einige Eigenschaften der Verteilungsfunktion ^ direkt ableiten: 1. $ ist streng monoton wachsend, da $ ' {u) =
(f{u)>0.
2. Da die Dichtefunktion cp symmetrisch zu 0 ist, folgt fiir die Verteilungsfunktion $ (u) = 1 - $ {-u) , u G Insbesondere ist ^ (0) = i .
2.4.
105
SPEZIELLE STETIGE VERTEILUNGEN
n
1
r—I
1
\—^n—'^i
-14 -12 -10 - 8 - 6 - 4 - 2
0
— -•
iV(0,l) iV(0,4)
-
iV(2,l)
r"—r^^—i
\
1
1
2
8
10
12
4
6
r^ ^ 14
Abbildung 2.22: Dichten verschiedener Normalverteilungen ^u)
•>- u
Abbildung 2.23: Verteilungsfunktion ^{u) der Standardnormalverteilung Da die Verteilungsfunktion $ streng monoton wachsend ist, besitzt sie eine Umkehrfunktion. Fiir jedes p G]0, 1[ erhalt man deshalb das p-Quantil der Standard-Normalverteilung Up = Q{p) = $ - 1 (p) als eindeutige Losung der Gleichung $ (u) = p. Es gilt hier $ ($~^ (p)) =p ^~^ ($ (u)) — u
fiir 0 < p < 1, fiir—oo 0, so gilt fiir die mit /j. und a transfermierte Zufallsvariable aU -\- fx ^ N [ii.a'^) . BEWEIS Die erste Aussage weist man so nach: Die Verteilungsfunktion der standardisierten Variablen ist
Fx^{u)
= = =
P{^^^^ 3) und P{0 < X
Excel/SPSS).
0 gilt
Friy)
= P{Y^>0,
ri = e^ > 1.
Es gilt fx = \n^ und cr^ = In r/, also
Fviy)
falls y < 0, 0, ^ j ' l n ^ - h r e ^ , ^ falls, > 0 . /Inr/
Mit den Parametern ^ und rj lassen sich Erwartungswert und Varianz offenbar so ausdrticken:
Jede Lognormalverteilung ist rechtsschief. Als Momentenschiefe ergibt sich 71 = ^77 - 1 (ry + 2) > 0, da ry > 1 ist. Fiir die Wolbung gilt 72 = r/^ + 277^ + 37/2 - 3 > 3 . Beispiel 2.31: Die Verteilung der verfugbaren Einkommen (in 1000C^ in einer Gesamtheit von Haushalten sei durch LN (/u = 0.9, cr^ = O.l) gegeben. Man berechne Erwartungswert, Standardabweichung, Median und Modus dieser Einkommensverteilung.
114
2. ZUFALLSVARIABLE UND V E R T E I L U N G E N
Bezeichne Y das Einkommen eines zufdllig ausgewdhlten Haushaltes. Der Modus ist VM = e^-^-O-i = 2.2255, der Median ^ = e^-^ = 2.4596, der Gestaltparameter rj = e^'^ = 1.1052. Weiter erhalten wir E[Y] 07[y]
= ^VV = 2.5857, -
y/eviv
- 1) = 0.8387.
Die Lognormalverteilung hat wichtige Anwendungen in der Analyse von Renditeverteilungen am Aktienmarkt; siehe Beispiel 3.14 im Abschnitt 3.2.4 und das Zahlenbeispiel im Kapitelanhang (^-> Excel/SPSS).
2.4.6
Ubersicht liber einige spezielle Verteilungen
Die folgende Ubersicht enthalt Erwartungswert, Varianz und Trager aller bisher eingeftihrten speziellen Verteilungen. Ftir alle aufier der hypergeometrischen Verteilung sind auch die Momentenschiefe und die Wolbung aufgeftihrt.
2.4.
115
SPEZIELLE STETIGE VERTEILUNGEN
«
CO
CO
4-
'^
1
^
II
CO
+ t^
1
T—t
CM
oi 1 CO
CO
CO
Oi | i O
^ +
1
Ci
-H| :i
1
«^
CD
1 CN
1 s^
7 +
+ CO
CO 1
1
CO
1
1^-^
^1 ^
«.
CN
H^
1 1—1
+^
CN
+ I
1
1 o
o
o
cs
rH
rH
1
CO T-H
>
1
^
+A > 1 CN \
VI '^
r^
C
VI
1
O
1. In Excel wird die Aufgabe mit der Funktion LOGNORMVERT(x;Mittelwert;Standabwn) gelost. Hier entspricht Mittelwert dem /i und Standabwn dem a in LNdd^a"^), Flir die genannten Parameter erhalten wir /j, = 2 und P{Si > 1) = 1 - P{Si < 1) = 1 - LOGNORMVERT(l;2;5) = 0.6554. Die Quantile Xp der Lognormalverteilung werden mit der Funktion LOGINV(p; Mittelwert;Standabwn) bestimmt. Der Median der Lognormalverteilung XQ.S ist mit den genannten Parametern gleich xo.6 = LOGINV(0,5;2;5) = 7.3890. SPSS I Die Losung der obigen Aufgabe ist auch in SPSS unter Verwendung der Funktionenfamilie *.LNORMAL(q,a,b) moglich. Dabei entspricht (anders als in Excel!) a dem Median e^ der Lognormalverteilung L(/z,(j^), b dem a und q dem Argument der Verteilungsfunktion. Mit den obigen Parametern erhalten wir P(5i>l) xo.5
= =
1-P(5i-{l
Wie man sieht, haben Z und V die gleichen Randverteilungen wie X und Y in Teil a), die gemeinsamen Verteilungen sind jedoch verschieden. Im Gegensatz zu X und Y sind Z und V nicht unabhdngig. Im Allgemeinen wird, wie man an diesem Beispiel sieht, die gemeinsame Verteilungsfunktion durch die Randverteilungsfunktionen nicht eindeutig best immt.
3.1.
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
129
Unabhangigkeit transformierter Zufallsvariablen Man kann zeigen: Wenn zwei Zufallsvariable X und Y stochastisch unabhangig sind, so sind auch die beiden Zufallsvariablen g{X) und h{Y) stochastisch unabhangig, wobei g und h beliebige reellwertige Funktionen seien. Mit anderen Worten, die Unabhangigkeit wird auf Transformationen der Zufallsvariablen „vererbt". Gemeinsam diskrete Verteilung Zwei Zufallsvariable X und Y heiiSen gemeinsam diskret verteilt, wenn es endlich viele (oder abzahlbar unendlich viele) Werte xi, X2,... und yi, y25 • • • gibt, so dass
j
k
ist. Die Wahrscheinlichkeiten P{X --= Xj) --
- Xj^Y
-=
- Xj^Y
=^Vk).
yk)^
j == 1 , 2 , . . . ,
k
und
p(r =:= yk) =
k^ = 1 , 2 , . . . ,
3
heifien Randwahrscheinlichkeiten von X bzw. Y. Wenn X und Y gemeinsam diskret verteilt sind, sind ihre Randverteilungen ebenfalls diskret. Unter der Voraussetzung P{Y = yk) > 0 konnen wir die bedingte Wahrscheinlichkeit fiir X = Xj unter der Bedingung, dass Y = y^ gilt, definieren. Sie ist gleich P{X = Xj\Y--y^'
P{Y = yk)
'
i = i,2,....
Ebenso definiert man P{Y =
yk\X-=^^^-
P{X = xj,Y = yk) P{X = xj) '
fc = l , 2 , . . . ,
unter der Voraussetzung P{X = Xj) > 0. Auch die bedingten Verteilungen sind diskrete Verteilungen. Sind X und Y gemeinsam diskret verteilt, so sind sie genau dann stochastisch unabhangig, wenn flir alle j und k die Bedingung P{X = Xj, y = y/fc) = P{X = ^j) • Piy = Vk)
(3.1)
erftillt ist. Beispiel 3.2: Wir betrachten eine Urne mit N Kugeln; davon seien M rot und N — M weifl.
130
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
a) Es wird zweimal mit Zurucklegen gezogen. Sei falls die erste gezogene Kugel rot ist, falls die erste gezogene Kugel weii3 ist, Y
falls die zweite gezogene Kugel rot ist, falls die zweite gezogene Kugel weifi ist.
-~{l:
Die gemeinsamen Wahrscheinlichkeiten von X und Y sowie ihre Randwahrscheinlichkeiten sind in der folgenden Tabelle zusammengefasst:
1
y=o
y =1 1 M N-M 'N \ N
N-M N
X =0
X = l\
\
M
N-M
N'
N
m'\
N-M N
M N
M AT
1
Es ist zu priifen, oh die Bedingung (3.1) in den vier Fallen (X^Y) = (0,0), (0,1), (1,0), (1,1) erfullt ist. Das ist offensichtlich der Fall. Demnach sind X und Y stochastisch unabhdngig. b) Es wird zweimal ohne Zurucklegen gezogen. Seien X und Y wie in a) definiert. Nun gilt:
[ X =0
\ X = l\
Y =0 N-M N
Y =l N-l-M N-l
'
M
N-M
¥'
N-l
N-M N
N-M N
M ' N -I
M N '
M-l N-l
M
77
1 \
N-M N
M N
1
3.1.
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
131
Die Randwahrscheinlichkeiten von X und Y sind beim Ziehen mil Zurilcklegen (Teil a)) und ohne Zurucklegen (Teil b)) dieselben. Beim Ziehen ohne Zuriicklegen sind X und Y jedoch nicht unabhdngig, da die Bedingung (3.1) zum Beispiel fiir die Werte X = 1,Y = 0 verletzt ist; es gilt ndmlich M N-M N ' N
M ^ N
N-M N-1 '
G e m e i n s a m stetige Verteilung Zwei Zufallsvariable X und Y heifien gemeinsam stetig verteilt, wenn es eine Funktion /.XY gibt mit
FxY{oo,y)=^
y
X
/
/ fxY{z,v)dzdv
fur alle x,y G M.
(3.2)
Die Funktion fxY heifit dann gemeinsame Dichte von X und Y. An den Stellen (x,y), an denen FXY partiell nach x und y differenzierbar ist, gilt fxY{x,y)
dxdy
(3.3)
FxY{x,y).
Die gemeinsame Dichte hat die Eigenschaften fxY{x,y) oo
oo
/
/
> 0
fur a:,t/ G M,
fxY{x,y)dxdy
1.
— oo —cx)
Aus der Dichte fxY kann man ftir gegebene ai, 6i, a2,62 ^ I^ die gemeinsame WahrscheinHchkeit 62
P(ai <X '
f e-^-^ + | e - ^ - ^ (2e-^ - 1) (2e-^ - 1), I 0
falls z,v>0, sonst.
Die folgende Punktion von a: € R, fxY{x,y) fx\Y=y{oo) = { friv) 0,
'
falls / r ( 2 / ) > 0 , falls fY{y) = 0,
nennt man die bedingte Dichte von X unter der Bedingung, dass Y = y zutrifft. Ebenso ist durch
fY\x=x{y)
fxY{x,y) fx{x) 0,
'
falls
fx{x)>^,
falls / x ( x ) = 0 ,
fiir alle y G R die bedingte Dichte von Y unter der Bedingung X = x definiert. Beispiel 3.1 (Fortsetzung): Fiir die Gluhlampen in Teil b) wollen wir die bedingte Dichte von Z unter der Bedingung V = 2 berechnen. Zundchst stellen wir fest, dass wegen fv{2) = e~^ > 0 die bedingte Dichte fz\v^2{^)^^ ^ ^?
3.1.
135
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
definiert ist. Fiir z 0 gilt fz\V=2{z)
fzv{z,2) /v(2)
=
e-^-2 + ie-^-2(2e-^ - l)(2e-2 - 1) 1 + ^e-^(2e-^ - l)(2e-2 - 1)
=
e
=
e-^ - 0.3647e-^(2e-^ - 1).
Mit der Bedingung V = l.b berechnet man ebenso die bedingte Dichte _ r e-' - 0. 2769e-^(2e-
fz\v=iAz)
1),
" I 0'
falls z > 0, falls z < 0,
Wie wir sehen, hdngt im Teil b) des Beispiels die bedingte Dichte vom Wert der Bedingung ab. Fiir die Gliihlampen im Teil a) hingegen gilt (unter der Voraussetzung y >0) o-x-y
= e
fx\Y=y{x)
fviy)
falls X > 0 , falls X < 0 .
0,
Hier ist unter jeder Bedingung Y = y, y > 0, die bedingte Dichte von X unabhdngig von der Bedingung und gleich der Randdichte vonX. Dies liegt an der stochastischen Unabhdngigkeit der beiden Variablen X und Y, Gleiches gilt fiir die bedingte Dichte von Y unter der Bedingung X — x, x >0. Allgemein gilt: Wenn zwei Zufallsvariable unabhangig sind, sind ihre bedingten Dichten gleich ihren Randdichten. Kovarianz zweier Zufallsvariablen E[Y]. Die Zahl
Bezeichne /ix = ^l^]
axY = Gov [X, Y] = E [{X -fix){Y-
und /dy =
fiy)]
heifit Kovarianz von X und Y. Es ist^
' T,Ili^}-l^x)iyk-IJ'Y)P{X J
= Xj,Y = yk) ,
f^
falls X, Y gemeinsam diskret verteilt sind,
Cou[x,r] = < ^
oo
oo
/
/ {x-f^x){y-fJ^Y)fxY{x,y)
dxdy,
falls X, Y gemeinsam stetig verteilt sind.
^Die Kovarianz ist hier nur dann definiert, wenn die Doppelsumme bzw. das Doppelintegral einen endlichen Wert ergibt.
136
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Die wichtigsten Eigenschaften der Kovarianz sind: 1. Die Kovarianz ist symmetrisch in X und Y, d.h. Cov[X,Y]
= Cov[Y,X]
.
2. Die Kovarianz ist nicht normiert. Sie kann behebig grofie positive und beUebig kleine negative Werte annehmen. Das Vorzeichen von Cov [X, Y] lasst sich so interpretieren: Eine positive Kovarianz deutet an, dass es einen positiv ausgerichteten hnearen Zusammenhang zwischen X und Y gibt, wobei grofien X-Werten tendenziell grofie F-Werte entsprechen. Eine negative Kovarianz deutet an, dass es einen negativ ausgerichteten hnearen Zusammenhang zwischen X und Y gibt, wobei grofien X-Werten tendenziell kleinere F-Werte entsprechen. Eine Kovarianz nahe null deutet an, dass es keinen derartigen hnearen Zusammenhang gibt. 3. Flir beliebige reelle Zahlen a, 6, c und d gilt Cov [a 4- 6X,c + dy] - 6 • d . Cov [X,Y] . 4. Es gilt die Umformung Cov[X,Y]
=
E\{X-E[X]){Y-E[Y])]
=
E [XY] - E [XE [Y]] -E[E
[X] Y]-\-E[E
[X] E [Y]] ,
also Cov [X, Y]=E
[XY] -E[X]E
[Y] .
Diese Formel erieichtert oft die Berechnung einer Kovarianz. Aufierdem sieht man aus ihr, dass Cov[X,Y]={)
E [XY] = E[X]E
[Y] .
5. Eine hinreichende, aber nicht notwendige Bedingung fiir Cov[X^ "K] = 0 ist, dass X und Y unabhangig sind: X und Y stochastisch unabhangig
Cov[X,Y]=^
BEWEIS Seien X und Y unabhangig. Wenn sie gemeinsam diskret verteilt sind, gilt
3.1.
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
E[XY]
=
137
^ ^ x , y , P ( X = x,-,y = y,) j
k
= YlYl'^jykP{X j
= xj)P{Y = yk)
k
= YlxjP{X
= Xj)Y,ykP{Y
j
=
= yk)
k
E[X]E[Y],
[Y] = 0. Wenn X und Y stetig Es folgt Cov[X, Y] = E [XY] -E[X]E verteilt sind, verlauft die Rechnung analog. D Ein Beispiel zweier Zufallsvariablen, die Kovarianz null besitzen, aber nicht unabhangig sind, wird in Beispiel 3.3 gegeben. Korrelationskoeffizient zweier Zufallsvariablen Eine positive Kovarianz weist auf eine positive Abhangigkeit von X und Y hin. Die Kovarianz stellt allerdings kein Mafi der Abhangigkeit dar, da sie skalenabhangig ist. Durch Normierung der Kovarianz erhalt man den KorrelationskoefRzient e n nach Bravais-Pearson^ _ .^^, pxY = Corr \X, Y\ =
Cov[X,Y]
./v\x\^/vWV
vorausgesetzt, X und Y besitzen positive, endliche Varianzen. Die wesentlichen Eigenschaften des Korrelationskoeffizienten sind: 1. Der Korrelationskoeffizient hat keine Benennung, er ist dimensionslos. 2. Der Korrelationskoeffizient ist normiert, -l 0, falls bd
X, Y unkorreliert
Die umgekehrte Implikation trifft im Allgemeinen nicht zu, wie das folgende Beispiel zeigt. Beispiel 3.3: Es sei X = [/~A^(0,1)
und
Y = X'^.
Dann ist E[X] = 0, E[Y] = E[X'^] = V[X] = 1 und Cov[X,Y]
=
Cov[X,X'^]
=
E[X^]-E[X]
=
E[{X-0){X'^-1)] = 0,
da (wegen der Symmetrie der Standard-Normalverteilung zu null) E[X^] = 0 ist. Es gilt also pxv = 0. Andererseits folgt wegen der funktionalen Beziehung zwischen X und Y z.B. aus dem Ereignis X >2 das Ereignis y > 4. Daher gilt
P(X>2,y>4) P{X > 2) • P{Y > 4)
= P(X>2),
2),
Demnach sind X und Y stochastisch abhdngig.
aber da P{Y > 4) < 1 ist.
3.1.
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
139
Trotz exaktem quadratischem Zusammenhang zwischen X und Y ist im Beispiel die Korrelation gleich null. Man erkennt daran, dass pxv zwar die Starke eines etwaigen linearen Zusammenhanges, aber nicht die eines quadratischen Zusammenhanges misst. Beispiel 3.2 (Fortsetzung): Wir betrachten wieder die Urne mit N Kugeln, davon seien M rot und N — M weifi. Es sei „
_ ~
/ 1^ (^ 0
falls die erste gezogene Kugel rot ist, sonst,
^
_ ""
J 1, [ 0
falls die zweite gezogene Kugel rot ist, sonst.
Die gemeinsame Verteilung von X und Y wurde schon hergeleitet unter der Voraussetzung, dass 1. mit Zurilcklegen gezogen wurde, 2. ohne Zurilcklegen gezogen wurde. Im ersten Fall, beim Ziehen mit Zurilcklegen, sind X und Y unabhdngig und folglichCov[X,Y] =0. Im zweiten Fall sind X und Y nicht unabhdngig. Wir berechnen ihre Kovarianz wie folgt: E{X]
=
EIXY]
E{Y] =
f ,
= 0+ 0+ 0+ 1
Cov[X,Y]
=
^(^-^)
N{N-l)
E[XY]~E[X]E[Y] NMjM
=
=
V [X] ^_(M_y
^ ^ ^ ^ ^ - ^ - ^
- 1) - M^jN - 1) _ M{N - M) N'^(N-l) " ~ N'^{N - 1) '
Zur Berechnung des Korrelationskoeffizienten V[Y]
'
benotigen wir noch
E [X^] - E [Xf 2
_ MN-M'^
_
Als Korrelationskoeffizient ergibt sich Cov[X,Y]
] _
M(N-M)
140
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Man sieht also, dass beim Ziehen ohne Zurilcklegen X und Y negativ korreliert sind. Allerdings ist pxY ^ 0, wenn die Anzahl N der Kugeln in der Ume grofl ist. E r w a r t u n g s w e r t u n d Varianz einer S u m m e Zum Schluss dieses Abschnittes geben wir zwei wichtige Rechenregeln fiir den Erwartungswert und die Varianz einer Summe zweier Zufallsvariablen X und Y an. Der Erwartungswert einer Summe ist gleich der Summe der Erwartungswerte, E[X + Y] = E[X] + E[Y], BEWEIS
E[X + Y]
Fiir gemeinsam diskret verteilte Zufallsvariable X, Y ist =
}_^}_^{xj J
+ yk)PiX
3
= yk)
k
k
i
=
= xj,Y
k
3
k
E[X] + E[Y].
Fiir gemeinsam stetig verteilte Zufallsvariable X,Y analog.
verlauft die Rechnung D
Die Varianz einer Summe ist gleich der Summe der Varianzen plus zweimal die Kovaxianz, V\X + Y] = V[X] + V[Y] + 2 Cov\X, Y]. BEWEIS
Allgemein gilt y [ X + y]
=
E[{X^Y-E[X
=
E[{{X-E[X])
+
=
E[{X - E[X\f]
+ E[{Y -
+2E[{X =
+ Y\f] {Y-E[Y\)y E[Y]f]
- E[X]){Y - E[Y])]
V[X] + V[Y] +
2Cov[X,Y].
a
Die Varianz der Summe wird durch die Kovarianz beeinflusst. Nur wenn die Kovarianz null ist, d.h. die beiden Variablen unkorreliert sind, ist die
3.1.
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
141
Varianz der Summe gleich der Summe der beiden Varianzen. Ansonsten gilt: Eine positive Kovarianz vergrofiert, eine negative Kovarianz verkleinert die Varianz der Summe. Die beiden Rechenregeln kann man unmittelbar auf L i n e a r k o m b i n a t i o n e n von X und Y iibertragen. Fiir beliebige a, 6 G R gilt E[aX + bY]
=
V[aX + bY]
=
aE[X]-\-bE[Y], a'^V[X] + b'^V[Y] + 2abCov[X, Y].
Wir illustrieren diese wichtigen Formeln an zwei Beispielen aus der Portefeuilleanalyse. Beispiel 3.4- Seien RA und RB die auf ein Jahr bezogenen prozentualen Renditen der Aktien A bzw. B und sei fXA=E [RA] ,
f^B = E [RB] ,
aA = VyWA]^
^B =
PAB = Corr[RA,RB]
VV[RB],
-
Ein Anleger legt den Anteil a seines Vermogens in A-Aktien und den restlichen Anteil 1 — a in B-Aktien an. Driicken Sie die erwartete Gesamtrendite und die Varianz der Gesamtrendite durch die obigen Grofien aus und diskutieren Sie die Formeln. Die Gesamtrendite ist RG =aRA +
{l-a)RB-
Ihr Erwartungswert und ihre Varianz betragen E[RG]
=
V[RG]
=
a^A-\-{'^-o)iiB'> a^al +
{l-afal-i-2a{l-a)aA(TBpAB-
Man sieht: • Die erwartete Gesamtrendite ist ein gewichtetes Mittel der einzelnen Renditen. • Wenn PAB negativ ist, ist die Varianz der Gesamtrendite kleiner als im Falle unkorrelierter Renditen. • Wenn PAB positiv ist, ist die Varianz der Gesamtrendite grofler als im Falle unkorrelierter Renditen.
142
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Interessant ist der hypothetische Fall PAB = —1- Es gilt dann V
[RG]
=
(a CAf + ((1 - a) asf
=
{aaA-{l-a)aBf
- 2a a A (1 - a) GB
.
In diesem Fall kann man durch geeignete Wahl des Parameters a die Varianz der Gesamtrendite auf null reduzieren, es gilt ndmlich V[RG]=0
3 lauten entsprechend. Auch gemeinsam diskret verteilte Zufallsvariable, ihre gemeinsame Wahrscheinlichkeitsfunktion und ihre Randwahrscheinlichkeiten werden analog definiert. Stochastische Unabhangigkeit Die Zufallsvariablen X^, z = 1 , . . . , n hei6en stochastisch unabhangig (kurz: unabhangig), wenn die gemeinsame Verteilungsfunktion das Produkt der Randverteilungsfunktionen ist, d.h. wenn Fxu...,Xn {xi,...,Xn)
= Fx, (xi) . . . . 'Fx^ (xn)
fur a l l e x i , . . . , X n G
Wenn die Zufallsvariablen X i , . . . , Xn stochastisch unabhangig sind und alle dieselbe Randverteilung besitzen, nennt man sie unabhangig identisch verteilte Zufallsvariable. Im Fall gemeinsam stetig verteilter Zufallsvariablen ist die stochastische Unabhangigkeit aquivalent zur Gtiltigkeit einer entsprechenden Produktformel fiir die Dichten. Im Fall gemeinsam diskret verteilter Zufallsvariablen entspricht dem eine Produktformel fiir die Wahrscheinlichkeiten. Folgerungen aus der Unabhangigkeit Wenn n > 2 Zufallsvariable stochastisch unabhangig sind, dann sind sie jeweils paarweise unabhangig, und deshalb auch paarweise unkorreliert. Ferner folgt aus der stochastischen Unabhangigheit der Zufallsvariablen X i , . . . , X n , dass beliebige Transformationen gi{Xi),.,, ,gn{Xn) ebenfalls stochastisch unabhangig sind, die Unabhangigkeit sich also „vererbt". Zum Beispiel sind, wenn Xi und X2 unabhangig sind, auch Xi und exp(X2) unabhangig. Erwartungswert und Varianz einer Summe Zum Schluss dieses Abschnittes sollen die Rechenregeln fiir den Erwartungswert und die Varianz einer Summe zweier Zufallsvariablen (vgl. Abschnitt 3.1.1) auf n Zufallsvariablen verallgemeinert werden.
3.1.
GEMEINSAME VERTEILUNG VON ZUFALLSVARIABLEN
145
Wir betrachten gemeinsam verteilte Zufallsvariable X i , . . . , Xn und reelle Zahlen ai, . . . , an- Fur den Erwartungswert und die Varianz der Linearkombination Y^^=i ^i^i gilt
Y^aiXi
=
E [aiXi
-f 0 2 ^ 2 + . . . +
anXn]
=
aiE[Xi] + ... + anE[Xn]
i=l
=
Y^aiE[Xi], 2=1
V ^aiXi
-
V [aiXi + . . . + anXn] n
n
i = l j=i
i=i n
=
^
n
n
n
a2 K [Xi] + 2 X I E
«i«i Cov [Xi,Xj
i=l
Bei der letzten Umformung nutzt man die Symmetrie der Kovarianz aus: Wegen Cov [Xi^Xj] = Cov [Xj.Xi] konnen jeweils zwei Summanden zusammengefasst werden. In Matrizenschreibweise lauten die beiden Formeln so: E[X a'] = M a',
F[X a'] = a C o v ( X ) a ' ,
wobei a = ( a i , . . . ,a^) die zum Zeilenvektor zusammengefassten KoefRzienten der Linearkombination darstellt. Falls die Variablen X i , . . . , Xn paarweise unkorreliert sind (dies ist insbesondere dann der Fall, wenn sie stochastisch unabhangig sind), so ergibt sich V y^^ajXi i=l
T.^lV[Xi] i=l
Wir wollen diese Formeln nun an einigen Beispielen illustrieren. Beispiel 3.6: Ein Anleger besitzt 100 A-Aktien (Kurs 50 €), 150 B-Aktien (Kurs 40 €) und 50 C-Aktien (Kurs 20 €). Bezeichnen RA^RB '^'^d Re die einjahrigen Renditen (in %). Uber ihre Erwartungswerte, Standardabweichungen und Korrelationskoeffizienten nimmt er Folgendes an:
146
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
fiA = E[RA] = 10, jdB = E[RB] = 5, lie = E[Rc] = 5 ,
a^ = 25, CTB = 25, o-c = 20,
pAB = 0.5 , = 0.5, PBC = 0.
PAC
Berechnen Sie den Wert (in €) des Portefeuilles zum jetzigen Zeitpunkt sowie den Erwartungswert und die Standardabweichung des Portefeuillewertes nach einem Jahr. Der jetzige Wert des Portefeuilles betrdgt (in €) Po = 100 • 50 + 150 . 40 + 50 • 20 = 12000. Der Portefeuillewert Pi nach einem Jahr ist eine Zufallsvariable,
P. = 100.50(l + ^ ) + 1 5 0 . 4 0 . ( l + ^ ) + 5 0 . 2 0 . ( l +
^
Der Erwartungswert von Pi ist
E[Pi]
=
100.50('l + ^ ^ U l 5 0 . 4 0 . ( ' l + ^ [ ^ ^ l 100
= =
100 • 50 • 1.1 + 150 • 40 • 1.05 + 50 • 20 • 1.05 12 850.
Um die Varianz von Pi zu berechnen, benotigen wir
V[RA]
= O\ =
625,
V\RB\
= O\ =
625,
V\Rc\ = 0% = 400,
und Cm}{RA, RB\
^OA-OB-
PAB = 25 • 25 • 0.5 = 312.5,
COV[RA, RC]
= 0 (3.6) Durch Ubergang zu den Komplementareignissen erhalt man daraus die aquivalente Aussage 1
''
lim P n—»oo
/^ < e
1.
i=l
Die Formel (3.6) ist eine Aussage iiber die Abweichung des arithmetischen Mittels Xn, vom Erwartungswert [x. Die Wahrscheinlichkeit, dass diese Abweichung grofier oder gleich einem vorgegeben Wert e ist, geht fiir grofie n gegen null. Anschaulich bedeutet das Schwache Gesetz, dass sich die Verteilung von Xn niit wachsendem n immer mehr auf den Punkt \x „zusammenzieht".'^ ^Das Schwache Gesetz der grofien Zahlen ist von dem so genannten Star ken G e s e t z der grofien Zahlen zu unterscheiden. Letzteres lautet:
({-|„'i-.i|:/iM=/^})=iDas Starke Gesetz der grofien Zahlen besagt, dass das arithmetische Mittel Xn(}j^) im folgenden Sinne „fast sicher" gegen den Erwartungswert ^ konvergiert: Die Menge der Ergebnisse a;, fiir die die Konvergenz zutrifft, hat die Wahrscheinlichkeit 1.
154
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
BEWEIS Der Beweis des Schwachen Gesetzes ist sehr einfach. Aus der Tschebyscheffschen Ungleichung (siehe Abschnitt 2.2.3), angewandt auf X^, folgt
p(ix„-,i>.)£) = 0 .
lim P(\Xn-\A
D Beispiel 3.11: In einer Abfullanlage wird gemahlener Kaffee in Tiiten gefiillt Der Fertigungsleiter kann den Sollwert jd der Fiillungen einstellen. Die beim individuellen Abfullen realisierte Fullmenge schwankt jedoch in zufdlliger Weise um den Sollwert jd. Bezeichne Xi die Fullmenge beim Abfullen der i-ten Tilte. Xn ist dann die durchschnittliche Fullmenge bei n-maligem Abfullen. Wir nehmen an, dass die Abweichungen vom Sollwert stochastisch unabhangige, identisch verteilte Zufallsvariable mit Erwartungswert null darstellen. Dann sind die Fullmengen ebenfalls unabhdngig identisch verteilte Zufallvariable; sie haben den Erwartungswert /i. Aus dem Schwachen Gesetz der groflen Zahlen folgert man, dass die durchschnittliche Fullmenge von n Packungen nach Wahrscheinlichkeit gegen den Sollwert konvergiert. Mit anderen Worten: Fiir jede noch so kleine „Messgenauigkeit'^ e geht die Wahrscheinlichkeit, dass eine Differenz zwischen der durchschnittlichen Fullmenge und dem Sollwert gemessen werden kann, gegen null. Das heiflt, diese Wahrscheinlichkeit kann beliebig verkleinert werden, wenn man n nur hinreichend grofl wdhlt. Konvergenz nach Wahrscheinlichkeit Das Schwache Gesetz der grofien Zahlen besagt, dass sich eine Folge von Zufallsvariablen, namlich die Folge der arithmetischen Mittel X^, mit wachsendem n einer Zahl, namlich dem Erwartungswert //, nahert. AUgemein sei Yi,Y2^Ys,... eine Folge von Zufallsvariablen und 9 eine Zahl. Man sagt, dass die Folge Yn stochastisch gegen 6 konvergiert, wenn lim Pi\Yn -e\<e)
=l
fiir jedes €>0
(3.7)
gilt. Die stochastische Konvergenz wird auch Konvergenz nach W a h r scheinlichkeit genannt. Man beachte, dass dies keine gewohnliche Konvergenz einer Zahlenfolge ist. Nicht die Werte der Yn konvergieren gegen die Zahl ^, sondern die Wahrscheinlichkeit, dass diese Werte um weniger als einen kleinen Betrag e von 6 abweichen, konvergiert gegen 1. Statt (3.7) schreibt man kurz p lim Yn = 0.
3.2.
G RENZWERTS ATZE
155
Eine einfach zu iiberpriifende hinreichende (aber nicht notwendige) Bedingung ist die folgende: Eine Folge von Zufallsvariablen Yn konvergiert dann nach Wahrscheinlichkeit gegen eine Zahl 6, wenn lim V[Yn] = 0
und
lim E[Yn] = 0.
Das Schwache Gesetz der grofien Zahlen besagt, dass die Folge der arithmetischen Mittel nach Wahrscheinlichkeit gegen den Erwartungswert konvergiert, plimXn
3.2.2
= /i.
Wahrscheinlichkeit und relative Haufigkeit
Der Begriff der relativen Haufigkeit ist mit dem Begriff der Wahrscheinlichkeit eng verbunden. Die relative Haufigkeit eines Ereignisses aus unabhangigen Wiederholungen eines Zufallsexperimentes wird intuitiv als eine Naherung flir die Wahrscheinlichkeit des Ereignisses angesehen. Mit Hilfe des Schwachen Gesetzes der grofien Zahlen ist es nun moglich, die Beziehung zwischen theoretischer Wahrscheinlichkeit und beobachteter relativer Haufigkeit prazise zu formulieren. Betrachten wir eine Bernoulli-Versuchsreihe mit n unabhangigen Versuchen. Bei jedem Versuch trete das Ereignis A mit Wahrscheinlichkeit TT ein. Die Zufallsvariablen Xi seien wie folgt definiert: Xi
1, 0,
falls A beim z-ten Versuch eintritt, falls A beim i-ten Versuch eintritt.
Dann ist hn
2
• Xn = — y
Xi
i=\
die relative Haufigkeit des Eintretens von A, Es gilt fiir alle i Xi - B{1,
TT)
und
// = E[Xi] = E\Xn] =
TT
.
Das Gesetz der grofien Zahlen besagt nun, dass die relative Haufigkeit hn stochastisch gegen die Wahrscheinlichkeit TT konvergiert, p lim hn = 7T. n-^oo
Man beachte, dass die relativen Haufigkeiten Zufallsvariable und keine Zahlen sind. Die Limesbeziehung lasst sich deshalb nicht als gewohnlicher Limes einer Folge von Zahlen beschreiben. Sie ist ein Limes im Sinne der Konvergenz nach Wahrscheinlichkeit.
156
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Das Schwache Gesetz der grofien Zahlen bildet eine Brlicke zwischen den formalen Konzepten der Wahrscheinlichkeitsrechnung und den beobachtbaren Ergebnissen von konkreten Zufallsvorgangen. Die relative Haufigkeit eines Ereignisses ist eine Naherung fiir die Wahrscheinlichkeit des Ereignisses. Im Sinne der stochastischen Konvergenz ist die Wahrscheinlichkeit des Ereignisses gleich dem Grenzwert der relativen Haufigkeiten bei wiederholter unabhangiger Durchfiihrung des Experiments. Beispiel 3.12: Beim Werfen eines fairen Wiirfels interessiere das Ereignis A = Augenzahl „6^\ Die Erfahrung lehrt, dass bei unabhdngig wiederholten Wiirfen sich die relative Hdufigkeit, eine „6'' zu werfen, in aller Kegel mit wachsender Zahl der Wiirfe dem Wert ^ ndhert. Allerdings ist weder theoretisch noch praktisch auszuschliefien, dass dem nicht so ist, etwa dass in einer noch so langen Folge von Wiirfen niemals eine „6'^ auftritt. (In einem solchen Fall konvergiert die relative Hdufigkeit fiir n —> oo gegen null, und nicht gegen ^.) Das Schwache Gesetz der groflen Zahlen besagt nun, dass man solche Fdlle in bestimmter Weise vernachldssigen darf dass ndmlich fiir grofie n die Wahrscheinlichkeit einer „feststellbaren Abweichung^' der beobachteten Hdufigkeit vom theoretischen Wert | beliebig klein wird.
3.2.3
Konvergenz der empirischen Verteilungsfunktion
Wir gehen in diesem Abschnitt wieder von einer Folge Xi, X 2 , . . . , X ^ , . . . von unabhangigen Zufallsvariablen aus, die identisch verteilt sind mit der Verteilungsfunktion F. Ihre Werte werden mit x i , X 2 , . . . , 0;^, • • • bezeichnet. Zunachst betrachten wir fiir ein festes n und gegebene Werte xi,0:2, •.. ,^n die Funktion^ Fn{x) = — ' (Anzahl Xi < x)
fiir a; G M.
Fn{x) ist eine monoton wachsende Funktion von x mit Werten im Intervall [0,1]. An jeder Stelle Xi macht sie einen Sprung der Hohe ^, i = 1 , . . . ,n. Mit _ J 1, falls Xi < X, erhalt man
^{xi<x} - I 0,
M\sxi>x,
1 "" Fn{x) = - ^ ^{xi<x}
fiir X G R.
^Vgl. die empirische Verteilungsfunktion in der beschreibenden Statistik.
3.2.
GRENZWERTSATZE
157
Nun beriicksichtigen wir, dass die Xi Werte von Zufallsvariablen sind, und setzen in die Funktion Fn{x) fiir jedes i die Zufallsvariable Xi an die Stelle von Xi ein: 1 "^ 2= 1
Fiir festes x ist dabei l{Xi<x} ^^^^ Bernoulli-verteilte Zufallsvariable, die den Wert 1 annimmt, wenn das Ereignis {Xi < x} eintritt, und den Wert 0, wenn das Ereignis nicht eintritt. Die Zufallsvariablen l{Xi<x}^ ^ = l , . . . , n , sind unabhangig und, da P{Xi < x) = F{x) gilt, identisch ^(l,7r)-verteilt mit TT = F{x). Die empirische Verteilungsfunktion Fn{x) an der Stelle x ist ihr arithmetisches Mittel. Es gilt deshalb E[Fn{x)]
=
VarlF.ix)] =
F(x),
1 ^ - 1 ^ ,
Wenn wir (fiir festes x € R) n gegen unendlich streben lassen, so folgt aus dem Schwachen Gesetz der groBen Zahlen plimFn(x)
=
F(x),
=
0.
d.h.
n—+00
plim{Fn{x) - F{x))
(3.8)
n-^oo
Mit anderen Worten: Die empirische Verteilungsfunktion Fn{x) strebt an jeder festen Stelle x eR nach Wahrscheinlichkeit gegen den Wert der Verteilungsfunktion F{x). Es gilt in diesem Zusammenhang ein viel weiter gehendes Resultat, namlich plim (sup \Fn{x) - F{x)\) = 0. n—»oo
(3.9)
x£R
Grenzwertsatze dieser Art werden als Glivenko-Cantelli-Satze^ bezeichnet^. Der Unterschied zwischen (3.8) und (3.9) ist bemerkenswert. Wahrend (3.8) besagt, dass Fn{x) — F{x) an jeder einzelnen Stelle x nach Wahrscheinlichkeit gegen 0 konvergiert, aber evtl. mit unterschiedlicher Geschwindigkeit, bedeutet (3.9), dass sogar der maximale Abstand sup^j^ji \Fn{x) — F{x)\ nach Wahrscheinlichkeit gegen 0 konvergiert. Ist also die Anzahl n der Beobachtungen Xi geeignet grofi, so lasst sich F{x) durch die empirische Verteilungsfunktion Fn{x) gleichmafiig iiber ihren gesamten Verlauf beliebig genau approximieren. Dies ist von fundamentaler Bedeutung fiir die schlieCende Statistik. ^Valerii Ivanovich Glivenko (1897-1940), Francesco Paolo Cantelli (1875-1966). ^Eine noch starkere Aussage als (3.9) enthalt der folgende Satz: Es gilt P ( l i m ^_+oo supjpgji |i^n(^) ~"-^(3^)1 = O) =^ 1- Di© gleichmafiige Konvergenz der empirischen Verteilungsfunktion gilt nicht nur nach Wahrscheinlichkeit, sondern fur alle Ergebnisse u mit Ausnahme solcher, die zusammen die Wahrscheinlichkeit 0 besitzen. Dies ist die urspriingliche Form des Satzes von Glivenko-Cantelli.
158
3.2.4
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Zentraler Grenzwertsatz
Aus Abschnitt 3.1.3 wissen wir, dass eine Summe von n unabhangigen und identisch normalverteilten Zufallsvariablen Xi, X 2 , . . . , Xn^^N^j,^ cr^) wieder normalverteilt ist, n
, na
,
i=l
und demnach auch das arithmetische Mittel 1
""
n ^ 1=1
/
2\
\
n J
^
'^
Sind die Xi selbst nicht normalverteilt, so gelten diese Aussagen grundsatzlich nicht. Jedoch kann man zeigen, dass sie zumindest naherungsweise fiir grofie n erfiillt sind. Dies folgt aus dem so genannten Zentralen Grenzwertsatz. Er bezieht sich in seiner einfachsten Form^ auf eine Folge Xi, X2, X 3 , . . . von unabhangigen und identisch verteilten Zufallsvariablen mit E[Xi] = fi und V[Xi] = (7^ > 0. Es werden keine weiteren Annahmen iiber die (identische) Verteilung der Xi gemacht. Sie kann insbesondere stetig oder diskret sein. Der Zentrale Grenzwertsatz bezieht sich nicht direkt auf die Summe Yn oder das arithmetische Mittel Xn , sondern auf die zugehorige standardisierte Variable n \^
V. _
^,1
Fiir Un gilt E[Un] = 0 und V[Un] = 1. Zentraler G r e n z w e r t s a t z
Unter den obigen Voraussetzungen gilt
lim P{Un 00 gegen die Verteilungsfunktion $ einer ^Die Giiltigkeit des Zentralen Grenzwertsatzes ist nicht nur fiir unabhangige, identisch verteilte Xi gegeben, sondern er gilt auch unter bestimmten Bedingungen fiir Variable Xi, die zwar unabhangig, aber nicht identisch verteilt sind. Die bekanntesten derartigen Bedingungen wurden 1901 von Ljapunov und 1922 von Lindeberg aufgestellt. Sie laufen darauf hinaus, dass die Varianz keines der Xi gegeniiber den iibrigen Varianzen zu sehr ins Gewicht fallt. Auch gibt es Versionen des Zentralen Grenzwertsatzes, bei denen eine bestimmte schwache Abhangigkeit der Variablen zugelassen ist.
3.2.
GRENZWERTSATZE
159
standard-normalverteilten Zufallsvariablen U konvergiert. 1st also n groB genug, so ist Un naherungsweise standard-normalverteilt, was wir mittels C/„ i^^'iV(0,l) ausdrlicken. Man kann nun die Standardisierung rlickgangig machen und erhalt
J2Xi"^N{nti,na^)
(3.10)
bzw. X„ = i f : x / S ? ' - i v f M , - ) .
(3.11)
Aus dem Zentralen Grenzwertsatz folgt, dass man ftir eine nicht zu kurze endliche Folge unabhangiger identisch verteilter Zufallsvariablen Xi, ^ 2 , . . . , X^ die Verteilung der Summe Y^ = Yl7=i ^i durch eine Normalverteilung mit Erwartungswert n/d und Varianz na'^ annahern kann. Ebenso kann man die Verteilung des arithmetischen Mittels fiir nicht zu kleine n durch eine entsprechende Normalverteilung approximieren. Beispiel 3.13: Bin Restaurant bewirtet am Abend 60 Gdste. Der Rechnungsbetrag des i-ten Gastes in € werde durch die Zufallsvariable Xi beschrieben. Die Zufallsvariablen X i , . . . , XQQ seien unabhdngig und identisch verteilt. Der Abendumsatz Y = Xli=i ^i ^^^ dann naherungsweise normalverteilt. Ist E[Xi] = 30 und ^/V[Xi] = 10, so gilt E[Y]
=
60-30 = 1800,
y/V[Y]
=
\ / 6 0 . 100 = VmO
Y
= 77.46,
also
""SS^ Ar(1800,6000).
Beispiel 3.14- Sei KQ der am Tag t = 0 bekannte Kurs einer Aktie und seien
die Tagesrenditen in Prozent. Wir nehmen an, dass / ? i , . . . , i?t unabhdngige und identisch verteilte Zufallsvariable sind. Dann ist
'^.=^^0 ri('+4)
160
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
der Kurs am t-ten Tag. Es ist
SO dass fiir nicht zu kleines t der logarithmierte Kurs In Kt nach dem Zentralen Grenzwertsatz ndherungsweise normalverteilt ist mit fit
=
E[lnKt]
= \nKo + t'E In 1 +
3L 100
at
=
Damit gilt Kt ' ' - ' '
V[\nKt ] =
t^V In 1 +
Ri
100
LN{^XU(T1).
Wir wollen die allgemeinen Approximationsformeln (3.10) und (3.11) nun auf spezielle Verteilungen der Xi anwenden und geeignet modifizieren. A p p r o x i m a t i o n der Binomialverteilung d u r c h die N o r m a l v e r t e i l u n g Sei X r^ B (1,7r)-verteilt und seien Xi, X 2 , . . . unabhangige Wiederholungen von X, Dann gilt (Abschnitt 3.1.3) Yn^^Xi ~ B(n,7r). Es ist E[Xi] = n und V [Xi] = TT {1 — TT) fiir jedes i. Durch Anwendung des Zentralen Grenzwertsatzes erhalten wir
J2 Xi-nn z=l
appr
y/nn {1 —
N{0,1).
TT)
Wenn wir die Standardisierung riickgangig machen, folgt hieraus yx/S?'Ar(n7r,n7r(l-7r)). i=l
Dies bedeutet, dass man die Verteilungsfunktion von B (n, TT) durch die Verteilungsfunktion der Normalverteilung A^ (nyr, TITT (1 — TT)) approximieren kann. Es ist also
P[J2Xi/n7r(l — TT) J '
be
Fiir ganzzahlige b erhalt man eine in der Regel genauere Approximation, wenn man die folgende Stetigkeitskorrektur vornimmt,
P\Y,Xi — IT) I ,
, ^ r^ . . 6 G { 0 , 1 , . . . , n} .
(3.12)
3.2.
GRENZWERTS ATZE
161
^(4,0.5)
*- X
Abbildung 3.3: Approximation einer S(4,0.5)-Verteilungsfunktion gemaB (3.12) durch die AT(/x,cr^)-Verteilungsfunktion mit fi = 4-0.5 — 0.5 = 1.5 und a^ = 4.0.5-0.5= 1. Grund fiir die Stetigkeitskorrektur ist, dass hier eine Verteilungsfunktion, die Spriinge aufweist, durch eine stetige Verteilungsfunktion approximiert wird. Konkret wird die gemafi dem Zentralen Grenzwertsatz approximierende Verteilungsfunktion der N{fi = nn^a'^ = n7r(l — 7r))-Verteilung um 0.5 nach links verschoben, so dass sie der Verteilungsfunktion der B(n,7r)-Verteilung an deren Sprungstellen naherkommt; siehe Abbildung 3.3. Aus (3.12) leitet man zwei weitere Approximationsformeln her. >a
1_$
a — 0.5 — nir ^JwK (1 — TT)
und
p\a 40 fiir die Anwendbarkeit des Zentralen Grenzwertsatzes ist mit Vorsicht zu verwenden. In einigen Fallen ist sie zu restriktiv, in anderen Fallen zu locker.
3.3
Erganzungen
3.3.1
Multivariate Normalverteilung
Die fiir die Anwendungen bedeutsamste gemeinsame Verteilung von Zufallsvariablen ist die multivariate Normalverteilung. Wir fuhren die multivariate Normalverteilung durch eine wichtige Eigenschaft ein, die diese Verteilung auch eindeutig charakterisiert.
3.3.
ERGANZUNGEN
165
Seien X i , X 2 , . . . ,Xn gemeinsam verteilte Zufallsvariable, n > 2. Man nennt sie multivariat normalverteilt, wenn fiir jede Wahl der KoefRzienten ai, a2, .,. ,an G R die Linearkombination Y = aiXi
4- 0 2 ^ 2 + . . . +
anXn
eine univariate (d.h. gewohnliche) Normalverteilung besitzt. Wahlt man nun a^ — 1 und aj = 0 fiir z ^^^ j , so folgt unmittelbar, dass Xi univariat normalverteilt ist. Dies gilt fiir i = 1 , . . . ,n. Die Umkehrung trifft jedoch nicht zu: Ist jede einzelne der Zufallsvariablen Xi, X 2 , . . . , Xn univariat normalverteilt, so muss die gemeinsame Verteilung nicht notwendigerweise eine multivariate Normalverteilung sein. Besitzen Xi, X 2 , . . . , Xn eine multivariate Normalverteilung, so ist diese durch ihre Erwartungswerte und Varianzen fii = E[Xi],
a^ = V[Xi],
z= l,...,n,
sowie ihre Kovarianzen aij = Cov[Xi,Xj]
= ai aj pij ,
i^ jy
eindeutig bestimmt. In Vektor- und Matrixschreibweise (vgl. Abschnitt 3.1.2) heifit dies: Eine multivariate Normalverteilung wird durch ihren Erwart u n g s w e r t v e k t o r jj, — (/xi,..., /i^) und ihre Kovarianzmatrix Cov[X] = H = [aij] eindeutig charakterisiert. Unabhangigkeit und (paarweise) Unkorreliertheit sind im Fall der gemeinsamen Normalverteilung aquivalent: Sind X i , . . . ,Xn multivariat normalverteilt, so gilt X i , . . . , Xn sind unabhangig 4=» pij — 0 fiir alle i 7^ j . Wie wir aus Beispiel 3.3 wissen, gilt diese Aquivalenz fiir andere Verteilungen nicht. Wenn E eine invertierbare Matrix ist, besitzt die multivariate Normalverteilung eine Dichte; es handelt sich dann um eine stetige Verteilung. Abbildung 3.2 zeigt die Dichte der bivariaten (n = 2) Normalverteilung mit \x\—\i2—^ und a\ = 0.25, cr| = 1, pu = 0.8, d.h. 0.25 0.4
0.4 1
Beispiel 3.6 (Fortsetzung): Der Anleger nimmt zusdtzlich an, dass RA.RB und Re gemeinsam multivariat normalverteilt sind, Wie ist unter dieser zusatzlichen Annahme die Rendite des Portefeuilles verteilt, und wie grofi ist die Wahrscheinlichkeit, dass sie 8% iibersteigt?
166
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Die Portefeuillerendite betrdgt _100 150 50 ^ ^ - 3 0 0 ^ ^ + 300^^ + 300^^Rp ist damit (univariat) normalverteilt. Fiir den Erwartungswert und die Varianz gilt
2
3
1
v(fi,) = (|)^25'+(5)^25'+(l)^2o^ +0.5 • ? • ^ • 25 • 25 + 0.5 • ? • i • 25 • 20 6 6 6 6 =
302.78.
Weiterhin ist , ' 1 = 1 - $(0.08) = 1 - 0.5319 = 0.4681. V 302.78/ Mit 46.8 Prozent Wahrscheinlichkeit iibertrifft die Rendite acht Prozent.
3.3.2
Poisson-Prozess
Die Poisson-Verteilung Po{^) wurde im Abschnitt 2.3.2 eingeftihrt. Eine wichtige Anwendung ist die folgende: An zufalligen Zeitpunkten treten bestimmte Ereignisse ein, die man als Ankiinfte bezeichnet, z.B. • das Eintreten eines Kunden in ein Ladengeschaft, • das Vorbeifahren eines Autos an einem Kontrollpunkt, • das Eintreffen eines Telefonanrufes in einem Call-Center.
3.3.
I
ERGANZUNGEN
9—9
9
167
1
0
t
^
1
9—9
9
9—I
t-\-At
9
p^
5
Abbildung 3.5: Ankunftsprozess Uber die Ankiinfte treflFen wir folgende Annahmen: (PI) Zur Zeit t = 0 findet keine Ankunft statt. Die Wahrscheinlichkeit, dass in einem kleinen Zeitintervall der Lange At genau eine Ankunft stattfindet, ist in erster Naherung proportional zu A^. Mit dem Proportionalitatsfaktor A ist diese Wahrscheinlichkeit also « A • At und hangt insbesondere nicht von der Lage des Intervalls auf der Zeitachse ab. (P2) Die Anzahlen der Ankiinfte in disjunkten Zeitintervallen sind stochastisch unabhangig. Damit haben wir - ohne Anspruch auf formale Genauigkeit - die Grundannahmen fiir den Poisson-Prozess beschrieben. Fiir t G R-i- sei Xt =
Anzahl der Ankiinfte im Zeitraum von 0 bis t.
Offenbar ist Xt fiir jedes t eine Zufallsvariable. Die Gesamtheit der Zufallsvariablen Xt, t > 0, in Zeichen: (^Xt)^^^ , heifit Poisson-Prozess. Der PoissonProzess ist ein spezieller stochastischer Prozess. Sein Parameter ist A. Aus den beiden Grundannahmen kann man herleiten, dass fiir beliebige 0 < s < t die Zahl Xt — Xs der Ankiinfte zwischen den Zeitpunkten 5 und t Poisson-verteilt ist, und zwar mit dem Parameter A • (t — 5), Xt-Xs 0, lasst sich der Poisson-Prozess auch auf andere Weise beschreiben. Sei Wi =
Zeit zwischen der (i — l)-ten und der z-ten Ankunft.
168
3. GEMEINSAME VERTEILUNG UND GRENZWERTSATZE
Fiir einen Poisson-Prozess gilt: (P3) Wi,W2,Ws,...
sind stochastisch unabhangig.
(P4) Jedes Wi ist exponentialverteilt mit Parameter A, d.h. Wi ~
Exp{X).
Wir wollen nun den Poisson-Prozess an einem einfachen Beispiel illustrieren. Beispiel 3.17: Die Anzahl Xt der Schadensmeldungen, die bei einer kleinen Sachversicherung eintreffen, bilde einen Poisson-Prozess mit Parameter A = 4. Dies bedeutet, dass das relevante Ereignis die Ankunft einer Schadensmeldung ist; Zeiteinheit ist die Stunde. Ein Arbeitstag moge um 9 Uhr beginnen. a) Wie grofi ist die Wahrscheinlichkeit, dass bis 17 Uhr mindestens 40 Schadensmeldungen eintreffen ? b) Wie grofi ist die Wahrscheinlichkeit, dass bis 17 Uhr in jeder Stunde mindestens zwei Schadensmeldungen eintreffen? c) Wie grofi ist die Wahrscheinlichkeit, dass die erste Schadensmeldung schon vor 9.30 Uhr eintrifft? d) Wie grofi ist die Wahrscheinlichkeit, dass der zeitliche Abstand zwischen dem Eintreffen der ersten fiinf Schadensmeldungen jeweils nicht mehr als 20 Minuten betrdgt? zu a) Gesucht ist die Wahrscheinlichkeit, dass in acht Stunden (9.00 bis 17.00 Uhr) mindestens 40 Schadensmeldungen eintreffen, P{Xs>40)
= l-P{Xs40)
-
1-P(X8 2)f
= (0.9084)^ = 0.4637.
zu c) Die Wahrscheinlichkeit, dass die erste Schadensmeldung vor 9.30 Uhr eintritt, kann auf zwei Arten berechnet werden. cl) Uber die Zwischenankunftszeiten:
Zu berechnen ist
P{Wi l)
= l-P{Xo,6
= 0).
Die Verteilung von X0.5 ist XQ.S ~ Po{idt = X-t = A-O.b = 2). Daraus folgt P {X0.5 > 1) == 1 - P{Xo,5 = 0) - 1 - 0.1353 - 0.8647. zu d) Gesucht ist hier die Wahrscheinlichkeit, dass der zeitliche Abstand zwischen dem Eintreffen der ersten fiinf Schadensmeldungen jeweils nicht mehr als 20 Minuten (d.h. \ Stunden) betrdgt. Bezeichne Di das Ereignis, dass Wi 0 lim P{\en{XuX2^...,Xn)-e\<e)
= l
ist. Konsistenz besagt anschaulich, dass sich die Verteilung des Schatzers mit zunehmendem Stichprobenumfang n immer mehr auf den zu schatzenden Wert 6 zusammenzieht und dass die Wahrscheinlichkeit, den Parameter um mehr als einen beliebig kleinen Wert e zu verfehlen, mit wachsendem Stichprobenumfang gegen null geht. Einen Schatzer, dessen Verzerrung ftir n —> 00 gegen null geht,
lim E\en-0]
= 0,
nennt man asymptotisch unverzerrt oder asymptotisch erwartungstreu. Eine ftir die Konsistenz hinreichende (aber nicht notwendige) Bedingung ist: Ein Schatzer 6n ist dann konsistent, wenn ftir n —> 00 sowohl die Varianz als auch die Verzerrung von 6n gegen null gehen, d.h. lim V On = 0 n-^oo
und
lim E On = 0. n—*oo
Sowohl die Unverzerrtheit als auch die Konsistenz sind wunschenswerte Eigenschaften eines Schatzers. Unverzerrtheit ist eine Eigenschaft von On^ die sich auf einen festen Stichprobenumfang n bezieht. Konsistenz ist dagegen eine so genannte asymptotische Eigenschaft, welche voraussetzt, dass man grundsatzlich beliebig lange Stichproben in Betracht Ziehen kann.
5.1.2
Schatzung von Erwartungswerten
Fiir eine Zufallsvariable X mit unbekannter Verteilung ist der Erwartungswert ji = E[X] zu schatzen. Hierftir stehe eine Stichprobe Xi, ^ 2 , . . . , Xn aus
5.1.
199
PUNKTSCHATZUNG
X zur Verfiigung. Ein geeigneter Schatzer ftir (JL = E[X] ist das Stichprobenmittel 1
X
n
'^
^
i==l
Wir zeigen, dass X unverzerrt ftir /i ist. Es gilt
E[X] = E
n "^
n ^
i=l
n
i=\
d.h. X ist unverzerrt ftir /x. Da X unverzerrt ist, stimmt der mittlere quadratische Fehler von X mit der Varianz uberein. Er ist gleich MSE{X)
= V[X] = V
- E ^ ^ =^J2v[Xi] = -V[X]. i=l
i=l
Wenn V[X] = a^ bekannt ist, kann man daraus V\X\ — ^ berechnen. Zur Schatzung von a^ siehe Abschnitt 5.1.4. Offenbar wird die Varianz von X bei grofierem Stichprobenumfang n kleiner. Mit wachsendem n wird die Schatzung in diesem Sinne genauer. Naheres zum Vergleich der Genauigkeit von Schatzern findet man im Abschnitt 5.5.2. Die Konsistenz von X fiir fx folgt direkt aus dem Schwachen Gesetz der grofien Zahlen; siehe Abschnitt 3.2.1. Dieses besagt gerade, dass p lim X = fi.
Beispiel 5.1 (Fortsetzung): X ist erwartungstreu fiir jix - Aus den Daten ergibt sich der Schdtzwert x = 599.94 € .
5.1.3
Schatzung von Wahrscheinlichkeiten u n d Anteilswerten
In diesem Abschnitt soil der Parameter TT einer jB(l,7r)-verteilten Zufallsvariablen X geschatzt werden. Wiederum stehe eine Stichprobe X i , . . . , X n aus X zur Verfiigung. Wegen E[X] = n ist 1 ""
7r = X i=l
200
5. SCHATZVERFAHREN FUR PARAMETER
ein geeigneter Schatzer flir TT. Dieser ist, wie in Abschnitt 5.1.2 gezeigt wurde, erwartungstreu und konsistent. ft ist gleich dem Anteil der Stichprobenelemente mit Xi = 1. Fiir die Varianz von n gilt
n
n
Fiir die Schatzung von V[k] sei auf Abschnitt 5.1.4 verwiesen. Beispiel 5.2: Bezeichne n den Anteil der Raucherinnen unter den weiblichen Studierenden der Universitdt zu Koln. Fine Studentin wird zufdllig ausgewdhlt. Sei ^ _ J 1, 1^ 0,
falls die Studentin raucht, falls die Studentin nicht raucht.
Dann ist n = P{X = 1). In einer Stichprobe vom Umfang n = 20 befinden sich vier Als Schdtzwert erhalten wir demnach TT = ^ = 0.2.
Raucherinnen.
Beispiel 5.1 (Fortsetzung): Hier bezeichnet Xi die Ausgaben des i-ten Studierenden in der Stichprobe. Urn TT = P{X > 1000) = P{Xi > 1000) zu schdtzen, setzen wir ^ . 1, ' ~ ^ 0,
falls Xi > 1000, falls Xi < 1000.
Aus den Daten des Beispiels 5.1 ergibt sich fiir den Schdtzer it = Y der Wert 0.14' Fbenso schdtzt man etwa die Wahrscheinlichkeiten 7r4oo = P{X
< 400)
und
TTSOO == P{X
< 200)
durch 7r4oo = 0.34 bzw. 7r2oo = 0.06. Wie in Kapitel 4 ausgefiihrt, liefert bei endlicher Grundgesamtheit das Ziehen mit Zuriicklegen eine einfache Zufallsstichprobe Xi, X 2 , . . . , X n aus X. Beim Ziehen ohne Zuriicklegen sind dagegen die X^, i = 1 , . . . , n, abhangig. Schatzt man in diesem Fall TT mit TT, SO ergibt sich als Varianz
n
N -I
'
N —n also ein kleinerer Wert, da — — - < 1 ist, wenn n > 2.
5.1.
201
PUNKTSCH ATZUNG
5.1.4
Schatzung von Varianzen u n d S t a n d a r d a b weichungen
Ftir eine Zufallsvariable X mit unbekannter Verteilung ist die Varianz cr^ = V[X] zu schatzen. Gegeben sei eine Stichprobe X i , X 2 , . . . ^Xn aus X. Ein Schatzer ftir a^ ist die Stichprobenvarianz
i=l
i=l
Sie ist allerdings nicht erwartungstreu. Um dies einzusehen, berechnen wir den Erwartungswert von 5^, £;[52]
=
E
Ih^^-^f i=l
= lJ2^{Xf]-E{x']. 2=1
Zur Bestimmung von E[Xf] verwenden wir die Varianz von X^, a' = V[Xi] =
ElXf]~n\
und erhalten
E{Xf]=a^+n\ Ebenso gilt ftir die Varianz von X ^2
a" = E[X^] - {E[X]f V[X] = — n
= E[X'^] - /i2
und deshalb E[X
+ /i^
Die beiden Ergebnisse werden in die obige Gleichung eingesetzt:
Els'] = i f : „ H , v ( ^ H - . ' ) n-1 n n Um einen erwartungstreuen Schatzer zu konstruieren, korrigiert man die Stichprobenvarianz um den Faktor :^ und erhalt so die korrigierte Stichprobenvarianz
2=1
202
5. SCHATZVERFAHREN FUR PARAMETER
Offenbar ist ^[5*2] = E
=
n-1
a\
also 5*^ ein unverzerrter Schatzer fiir a^. Dagegen ist 5^ ein verzerrter Schatzer fiir a^. Seine Verzerrung betragt b{S^) = E[S^] -a'=
"^^c^ n
-G^^
--a^ n
.
Sie hangt von cr^ ab und geht fiir n —> oo gegen null. Weiter lasst sich zeigen, dass sowohl 5^ als auch 5*^ konsistent fiir a'^ sind; es gilt plim52 = p l i m 5 * 2 = a 2 . n—>oo
n—»oo
Schatzung der Standardabweichung Um a — y/V[X] zu schatzen, bieten sich sowohl \ / 5 ^ wie y/S*^ als Schatzer an. Beide sind nicht erwartungstreu fiir a. Sie sind jedoch konsistent, d.h. es gilt p l i m V ^ = plimV5*2 = c7. n—>oo
n—*oo
Eine konkrete Realisation von 5^ oder S wird mit 5^ bzw. s bezeichnet. Beispiel 5.1 (Fortsetzung): Mit den Daten des Beispiels 5.1 ergibt sich der Schatzwert s = Vs^ = 322.60 € . Speziell wenn X eine Bernoulli-verteilte Zufallsvariable ist, gilt E[X]=7r
und
V[X] = 7r{l - n).
Da Xi nur die Werte 0 und 1 annimmt, gilt immer Xf = Xi und folglich
=
X(l-X)
-
7r(l-7r),
letzteres wegen X = n. Ein erwartungstreuer Schatzer fiir cr^ = 7r(l — TT) ist deshalb durch :»*2 _
^
c2
n—1 gegeben.
^
n—1
5.1.
PUNKTSCHATZUNG
5.1.5
203
Schatzung von Quantilen
Fiir eine Zufallsvariable X sollen der Median XQ.S oder ein anderes Quantil Xp geschatzt werden. Ein geeigneter Schatzer ist der Stichprobenmedian bzw. allgemein das entsprechende Stichprobenquantil, das wir im Folgenden definieren. Sei X i , . . . ,Xn eine Stichprobe aus X. Das kleinste Xi bezeichnet man mit X(i), das zweitkleinste mit X^2) und so weiter bis zum grofiten X(^n)' ^^^ Zufallsvariablen X(i),X(2),... ,X(„) heifien Ordnungsstatistiken. Sie sind aufsteigend geordnet,
Mithilfe der Ordnungsstatistiken definiert man fiir 0 < p < 1 das p-Quantil der Stichprobe als
[np] ist der ganzzahlige Teil von np. Diese Definition des Stichprobenquantils entspricht der des Quantils in der beschreibenden Statistik. Als Schatzer fiir das unbekannte Quantil Xp von X ist Xp konsistent, aber im Allgemeinen nicht unverzerrt. Beispiel 5.1 (Fortsetzung): Aus den gegebenen Daten sollen die drei Quariile von X geschatzt werden. Es ist ^0.25 ^0.5 ^0.75
= =
336, 561, 797.
Gemdfl der Schatzung liegen die Ausgaben, die den „mittleren" 50% der Studierenden entsprechen, zwischen 336 und 797 €.
5.1.6
Schatzung von KorrelationskoefHzienten
Der Korrelationskoeffizient CovlX.Y] PXY
-
,/vmvW]
eines Paars von Zufallsvariablen {X, Y) misst die Starke des linearen Zusammenhangs von X und Y; vgl. Abschnitt 3.1.1. Um pxY zu schatzen, verwenden wir eine einfache Stichprobe (Xi.Yi),..., (X^, Y^) aus (X, Y). Wir
204
5. SCHATZVERFAHREN FUR PARAMETER
setzen also voraus, dass jedes der n Paare (Xi, F i ) , . . . , (X„, Yn) dieselbe gemeinsame bivariate Verteilung besitzt und die Paare (Xi^Yi) fiir verschiedene Indizes i voneinander unabhangig sind. Insbesondere hat dann jedes der Paare den gleichen Korrelationskoeffizienten pxYDen (theoretischen) Korrelationskoeffizienten pxv Stichproben-Korrelationskoeffizienten
schatzt man durch den
l±{Xi-X){Y,-Y) i=l
rxY i=l
V
i=l
Der Schatzer rxv ist zwar im Allgemeinen nicht erwartungstreu, er ist jedoch konsistent und asymptotisch erwartungstreu, d.h. die Verzerrung des Schatzers verschwindet, wenn der Stichprobenumfang n gegen unendlich strebt. Abschnitt 5.4 enthalt ein Beispiel mit Aktienmarktdaten, bei dem u.a. die Korrelationskoeffizienten der Tagesrenditen verschiedener Aktien geschatzt werden.
5.2
Konstruktionsprinzipien fur Punktschatzer
Bei manchen Schatzproblemen ist es besonders einfach, einen geeigneten Schatzer anzugeben. So liegt es nahe, den Erwartungswert einer Zufallsvariablen durch das Stichprobenmittel zu schatzen. Bei anderen Schatzproblemen ist das Auffinden eines geeigneten Schatzers schwieriger. Es gibt jedoch generelle Prinzipien, nach denen man Punktschatzer konstruieren kann. Zwei allgemeine Vorgehensweisen, die ML-Methode und die Momenten-Methode, wollen wir hier darstellen. Weitere vielbenutzte Moglichkeiten zur Konstruktion von Punktschatzern sind die Kleinste-Quadrate-Schatzung (siehe Kapitel 7) und die Bayes-Schatzung (siehe Abschnitt 5.5.4).
5.2.1
M o m e n t enschatzer
Erwartungswert und Varianz bezeichnet man auch als Momente. Weitere Momente sind die Schiefe und die Wolbung. Den Erwartungswert p einer Zufallvariablen X haben wir durch das Stichprobenmittel X, die Varianz cr^ durch die Stichprobenvarianz 5^ oder die korrigierte Stichprobenvarianz 5*^
5.2.
KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER
205
geschatzt. Die Schiefe 71 und die Wolbung 72 von X schatzt man durch
Die genannten Schatzer heifien Stichprobenmomente oder auch empirische Momente. Bei vielen Schatzproblemen lasst sich der unbekannte Parameter 6 als eine Funktion von Momenten von X darstellen. Dann fallt es leicht, einen Schatzer flir 6 anzugeben. Man ersetzt einfach die in der Funktion vorkommenden Momente durch die entprechenden Stichprobenmomente. Ein so konstruierter Schatzer wird Momentenschatzer genannt. Momentenschatzer sind in alien relevanten Fallen konsistent, jedoch im Allgemeinen nicht erwartungstreu. Beispiel 5.3: Sei X exponentialverteilt mit Parameter X > 0, d.h. X r^ Exp{\). Wir wissen, dass E[X] = j ist Also lasst sich X als Funktion von E[X] darstellen, X = ;^n^; und
X ist ein Momentenschdtzer fiir X. Beispiel 5.4-' Bei einer Pareto-verteilten Zufallsvariablen X ~ Par{a, c) sei c gegeben. Der Parameter a soil geschatzt werden. Wir unterstellen a > 1; dann ist der Erwartungswert endlich und gleich
E[X]
""
a-1
Durch Umformung folgt a = E[X] - c Mit dem Stichprobenmittel X konstruieren wir daraus einen fiir a, a
Momentenschdtzer
X
Ein Beispiel, bei dem zwei Parameter mit der Momentenmethode geschatzt werden, ist das folgende: Beispiel 5.5: Aufgrund einer Stichprobe X i , , . . , Xn aus X ~ R{a, (3), a < (3, sollen die beiden Parameter a und (3 der Rechteckverteilung geschatzt werden. Wegen ElX]==^l,
v{X] =
^{(3-a)'
206
5. SCHATZVERFAHREN FUR PARAMETER
gilt a = E[X] - ^3V[X],
p = E[X] +
V^V[X],
woraus man die Momentenschdtzer
erhdlt.
5.2.2
Maximum-Likelihood-Schatzer
Wir beschreiben die Maximum-Likelihood-Methode (kurz: ML-Methode) zunachst in allgemeiner Form. Voraussetzung flir ihre Anwendung ist eine parametrische Verteilungsannahme, dass namlich die Verteilung von X bis auf einen oder mehrere Parameter festgelegt ist. Die Verteilungsfunktion F von X gehore zu einer Klasse ^ , die die Form j^ =
{Fe\e£e}
hat, wobei 6 einen unbekannten Parameter oder auch einen Parametervektor bezeichnet. © ist die Menge der Werte, die fiir 6 in Betracht gezogen werden; man nennt sie den Parameterraum. Die Annahme besagt: Zur vollstandigen Beschreibung der Verteilung von X fehlt nur die Kenntnis des Parameters 9. Dies ist eine parametrische Verteilungannahme; siehe Abschnitt 4.1.2. Beispiel 5.6: Im Beispiel der Pannenhdufigkeit (vgl. Beispiel 4-6) ^^t das Auftreten einer Panne bei einem zufdllig ausgewdhlten Fahrzeug Bernoulliverteilt mit Parameter n, X ^ B{1^7r), 0 < n < 1. Dies stellt eine parametrische Verteilungsannahme dar. Hier ist 6 = TT und Q =]0,1[. Beispiel 5.3 (Fortsetzung): Hier haben wir als parametrische Verteilungsannahme X ~ Exp{X) vorausgesetzt; die Klasse der moglichen Verteilungen von X lautet explizit T =
{FA
I FA(x) = 1 - e-^^,x > 0, A
G]0,OO[}
mit 6 = X und Q =]0, oo[. Gegeben sei eine Stichprobe X i , X 2 , . . . , X „ aus einer Zufallsvariablen X, die entweder diskret oder stetig verteilt ist. Man betrachtet die gemeinsame Wahrscheinlichkeitsfunktion bzw. Dichte der Stichprobe,
Lie) = f{xu...,xn\\e)
= fix, II e)• fix^ \\e)-...-/(x„
||e),
in Abhangigkeit von 6 bei gegebenen Beobachtungen xi,X2,... ,Xn. L{6) heifit Likelihood-Funktion der Stichprobe. Ihr Logarithmus
m
= HLie)) - E Inifixi II 6)) i=i
5.2.
KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER
207
ist die Loglikelihood-Funktion. Einen Wert 9, der die Likelihood-Funktion maximiert, Lie) - max L((9), nennt man ML-Schatzwert fiir den Parameter d. Der entsprechende Schatzer heifit ML-Schatzer. Anstatt die Likelihood-Funktion zu maximieren, ist es meist glinstiger, die Loglikelihood-Funktion zu maximieren, da durch die Logarithmierung aus dem Produkt eine Summe wird. Die Stelle des Maximums der Likelihood-Funktion stimmt mit der der Loglikelihood-Funktion liberein, denn der Logarithmus ist eine streng monoton wachsende Funktion. Das Vorgehen der ML-Schatzung sei nun am Beispiel erlautert. Beispiel 5.6 (Fortsetzung): Es ist Xi ~ B{1,TT), Ergebnis von n = 10 Beobachtungen laute
0
= A^'exp I -Ay^a;^ i=l
Die Loglikelihood-Funktion ist n
1{X) = \nL{X) = n\nX - X^Xi,
A>0.
i=i
Um A zu bestimmen, wird die erste Ableitung berechnet und null gesetzt: n
i'W = j-J2'^i
= o,
x=n E^i
i=l
Da die zweite Ableitung liberall negativ ist, /''(A) tatsachlich ein globales Maximum, und
X ist der ML-Schatzer fiir A.
1 X
-^
< 0, ist dies
210
5. SCHATZVERFAHREN FUR PARAMETER
Normalverteilung Dann ist
2x
_
/(//, (j^)
=
1
Sei Xi ~ A/'(/x,a'^), 0 e Q = {{fi,a'^)\fi
£ R,a^ > 0},
__ /
{Xn-l^f
(^l-/^)^\
1
/
1 '^ In L(^\x^ cr^) = —n In \/27r — n In a — —2 2 J ( ^ * ~ ^^ •
Die beiden partiellen Ableitungen sind
n
Nullsetzen der beiden Ableitungen liefert
[i^x
und
1 "" (j^ = — /^(a^i — /i) 2 ^
•
-
5^
1
Eine Uberpriifung der zweiten Ableitungen sowie der Rander von © ergibt, dass bei ft = x und a^ = 5^ das globale Maximum vorliegt. Also ist
(A,a2) = (X,52)
der ML-Schatzer fur (/i,(J^). Die folgende Tabelle enthalt Momenten- und ML-Schatzer fiir die Parameter der im Kapitel 2 eingeftihrten speziellen diskreten und stetigen Verteilungen. In jedem Fall liegt eine Stichprobe X i , X 2 , . . . ,Xn aus X zugrunde.
5.2.
211
KONSTRUKTIONSPRINZIPIEN FUR PUNKTSCHATZER
Verteilung
Momentenschatzer
ML-Schatzer
X~S(l,7r)
7r = X
7r = X
X ~ Poifi)
/i = X
/i = X
X ~ Exp{X)
^=#
^=#
^2 = 52
^2 = 52
X^N{fi,a^) CT=V52 X ~ G(7r) X ~
^ = #
^T-
Par{a,c)
a
j X ~ Par{a, c), c bekannt
X
^= *
^R{a,(5)
a =c^ X-1
c = m i n { X i , . . . i^n) ^ ^ -
n
Eln(^) d = min{Xi,... /3 == m a x { X i , . .
Wie aus der Tabelle zu ersehen ist, stimmt in einigen Fallen der Momentenschatzer mit dem ML-Schatzer iiberein. Die ML-Schatzer werden in der Kegel (wie in den obigen Beispielen) durch Differenzieren der entsprechenden Loglikelihood-Funktion hergeleitet. Ausnahmen bilden die Parameter a und /? der Kechteckverteilung sowie der Parameter c der Pareto-Verteilung, deren ML-Schatzer man durch direkte Maximierung der Likelihood-Funktion bestimmt, da diese nicht differenzierbar ist.
5.2.4
Eigenschaften von ML- und Momentenschatzern
Es stellt sich schliefilich die Frage, ob die nach der ML-Methode bzw. nach der Momentenmethode konstruierten Schatzer auch gute Schatzer sind, genauer.
212
5. SCHATZVERFAHREN FUR PARAMETER
welche Glitekriterien sie erfiillen. Wie bereits im Abschnitt 5.2.1 bemerkt wurde, sind Momentenschatzer in der Regel konsistent. Dasselbe gilt flir ML-Schatzer. Momenten- und MLSchatzer sind haufig nicht erwartungstreu, jedoch asymptotisch erwartungstreu. Schliefilich sind ML-Schatzer und auch die meisten Momentenschatzer fiir grofie Stichprobenumfange n approximativ normalverteilt, d.h. es gilt
Hierbei ist ^-~ naherungsweise die Varianz des Schatzers On- Sie hangt zumeist selbst vom unbekannten Parameter 6 ab und muss dann zusatzlich geschatzt werden. ML-Schatzer haben im Vergleich zu anderen Schatzern (etwa Momentenschatzer n) in der Regel eine geringere Varianz, wenn der Stichprobenumfang n grofi ist. In vielen Schatzsituationen lasst sich sogar zeigen, dass der MLSchatzer die kleinstmogliche Varianz besitzt. Einen solchen Schatzer nennt man asymptotisch efRzient: Kein anderer Schatzer 6n fiir 6 hat dann, wenn die Stichprobenlange n gegen unendlich geht, eine kleinere Varianz als On- Zum Begriff der Effizienz eines Schatzers siehe auch Abschnitt 5.5.2. Nachteilig bei der ML-Methode ist jedoch, dass eine parametrische Verteilungsannahme iiber X getroffen werden muss.
5.3
Intervallschatzung
Bei der Punktschatzung wird ein einzelner unbekannter Parameter durch eine Zahl, den Schatzwert, geschatzt, bei der Intervallschatzung hingegen durch ein Intervall. Der folgende Abschnitt behandelt die Grundbegriffe der Intervallschatzung und einige spezielle Methoden, um Intervallschatzer zu bestimmen. Wir beginnen mit einem Beispiel. Beispiel 5.7: Um den unbekannten Erwartungswert einer Zufallsvariablen X zu schdtzen, wird eine Stichprobe Xi, X 2 , . . . , X^ aus X beobachtet. Wir setzen voraus, dass X normalverteilt ist, X ~ N{ix^a'^). Dann ist X ein Punktschdtzer fiir IX. Allerdings trifft dieser Schdtzer praktisch nie den unbekannten Wert /J,, da er selbst normalverteilt ist und daher p(X = /d)=0 gilt. Zur Erganzung ist es sinnvoll, ein von der Stichprobe abhdngiges Intervall zu bestimmen, das /j, mit einer bestimmten Wahrscheinlichkeit einschlieflt.
5.3.
INTERVALLSCHATZUNG
213
Da X symmetrisch zu seinem Erwartungswert ji verteilt ist, liegt es nahe, ein Intervall der Form [X — e^X + e] zu wdhlen; vgl. Abbildung 5.1. Dies ist ein „zufdlliges Intervall'^ der Ldnge 2e; ihm konnen daher Wahrscheinlichkeiten zugeschrieben werden. Wenn etwa die Einschlusswahrscheinlichkeit gleich 95% sein soil, ist die Ldnge des Intervalls so festzulegen, dass P(X - e < fi <JC + e) = 0.95 gilt. Mit den realisierten Werten der Stichprobe ist der Punktschdtzwert x eine Zahl und das Schdtzintervall \x — e,x -{• e] ein gewohnliches Intervall.
-*- X X
/^
Abbildung 5.1: Schatzintervall fiir fi im Beispiel 5.7
5.3.1
Konfidenzint ervalle
Sei X eine Zufallsvariable, deren Verteilung von 6 abhangt, und Xi,... ,Xn eine Stichprobe aus X. Der unbekannte Parameter 6 soil durch ein Intervall geschatzt werden. Ein von der Stichprobe abhangiges, abgeschlossenes Intervall [OU^OQ] mit
P{Ou 40. Ein approximatives Konfidenzintervall wie dieses, das lediglich fiir n —> oo das Niveau 1 — a exakt einhalt, nennt man auch ein asymptotisches Konfidenzintervall. Beispiel 5.9: Speziell sei a = 0.05,cr = 2,x = 7 und n = 100. a) Fiir das Tschebyscheff-Intervall erhalten wir a \/na
2 = 0.89. v'lOO • 0.05
Das Konfidenzintervall zum Niveau von mindestens 0.95 hat demnach den Wert [ 7 - 0 . 8 9 , 7 4-0.89] = [6.11, 7.89]. b) Da n = 100 > 40 hinreichend grofi ist, kann man auch das approximative Konfidenzintervall benutzen. Hierfiir ergibt sich a 2 € = ui-o,-— = 1 . 9 6 — = = 0.39.
' V^
vToo
Das approximative Konfidenzintervall zum Niveau 0.95 hat den Wert [ 7 - 0 . 3 9 , 7 + 0.39] = [6.61, 7.39].
5.3.
INTERVALLSCHATZUNG
217
Allgemein sind die Schranken, die unter Berufung auf den Zentralen Grenzwertsatz berechnet werden, enger als die Schranken, die sich aus der Tschebyscheffschen Ungleichung ergeben. Hier zeigt sich, dass die zusatzliche Information „n ist hinreichend grofi" ein genaueres Konfidenzintervall ermoglicht. In der konkreten Anwendung verwendet man deshalb das TschebyscheffIntervall nur dann, wenn der Stichprobenumfang zu gering ist, um die Anwendung des Zentralen Grenzwertsatzes zu rechtfertigen.
5.3.4
Intervall fiir /i einer Normalverteilung, cr^ unbekannt
Das Konfidenzintervall fiir p, einer Normalverteilung bei unbekannter Varianz wird analog dem bei bekannter Varianz konstruiert, indem man fiir die unbekannte Varianz a^ einen Schatzer, namlich 5^, einsetzt. Das so standardisierte Stichprobenmittel
ist dann allerdings nicht mehr standard-normalverteilt, sondern es besitzt eine ^-Verteilung mit n — 1 Preiheitsgraden (siehe Abschnitt 4.3.2). Das Konfidenzintervall fiir fj, zum Niveau 1 - a bei unbekannter Varianz hat die Grenzen Ou,o = X T ^ n - l , l - f
^v^^r=T
wobei tn-i,i-^ das (1 — ^)-Quantil der t-Verteilung mit n — 1 Freiheitsgraden bezeichnet. Wegen nS'^ = {n - 1)5*^ kann man die Grenzen des Intervalls oflFenbar auch in der Form (5.1) schreiben. Beispiel 5.10: Sei X normalverteilt, p, und o^ unbekannt. Fiir den Erwartungswert p soil ein Konfidenzintervall zum Niveau 1 — a — 0.99 bestimmt werden. Dazu wird aus X eine Stichprobe vom Umfang n = 12 gezogen, die fiir das Stichprobenmittel und die korrigierte Stichprobenvarianz die Werte X = 20 bzw. s*^ = 4 ergibt. Das Konfidenzintervall fiir p wird nach der Formel (5.1) mit Hilfe der t-Verteilung bestimmt (^-^ Excel/SPSS). Fiirn — l — 11 Freiheits grade und l — a = 0.99 lautet das (1 — ^)'Quantil der t-Verteilung ^11,0.995 = 3.1058. Daraus und aus dem Resultat der Stichprobe
218
5. SCHATZVERFAHREN FUR PARAMETER
(x = 20 und s* = 2) berechnet man die Grenzen des konkreten Konfidenzintervalls Ou =
2 0 - 3 . 1 0 5 8 - ^ = 18.2069, VT2
6o =
20 + 3 . 1 0 3 8 ^ = 21.7931. \/l2
Damit erhdlt man das konkrete Konfidenzintervall [18.21, 21.79].
5.3.5
Intervall fiir /i einer beliebigen Verteilung, a^ unbekannt
Nun werde keine Normalverteilungsannahme liber X getroffen. Sei X beliebig verteilt mit Erwartungswert JJ, und Varianz a^; beide Parameter seien unbekannt. Man schatzt wiederum cr^ durch 5^. Wenn n hinreichend grofi ist, gilt nach dem Zentralen Grenzwertsatz Ji. — Jul J— appr
v/^"^^'iV(0,l),
a und, da p lim ^ = 1 ist, auch -A — fJj I— appr
"":V^"??'"iV(o,i).
s
Man erhalt (analog zu Abschnitt 5.3.3) 5 . , ^ P(X-ui_,^<M<X +
5 \ « , _ ~ j « l - a .
Das Intervall [^u ? Oo] = X -ui-q—=,
^ y/n
X +
ui-^-j=\
2 y/nj
ist ein asymptotisches (also approximatives) Konfidenzintervall fiir /i zum Niveau 1 — a. Fiir ein Beispiel hierzu sei auf Abschnitt 5.4 verwiesen.
5.3.6
Intervall fiir cr^ einer Normalverteilung
Wir konstruieren nun ein Konfidenzintervall fiir die Varianz a^ einer Normalverteilung. Gegeben sei wieder eine Stichprobe X i , . . . , X^ aus X ~ A^(/i, cr^),
5.3.
INTERVALLSCH ATZUNG
219
wobei II und cr^ unbekannt sind. Aus den Eigenschaften der x^-Verteilung folgt, dass nS^ 2 An-1
^2
und deshalb die Wahrscheinhchkeitsaussage
p(xUf G Go
gegen
Hi : 6 £ Qi.
HQ heifit Nullhypothese, Hi heiCt Gegenhypothese oder Alternative. Die Nullhypothese heifit einfach, wenn Go genau ein Element enthalt, d.h. wenn |Go| = 1 ist. Anderenfalls heifit sie zusammengesetzt. Ebenso wird die Gegenhypothese als einfach oder zusammengesetzt bezeichnet. In den meisten Testproblemen ist Gi das Komplement von Go, Gi = G \ GQ. Dann spricht man von einer voUstandigen Alternative. Sei nun G = R oder ein Intervall in R und sei ^o ^ G eine vorgegebene Zahl. Ein Testproblem der Form Ho:e = eo
gegen
Hi : 6 ^ OQ
heifit zweiseitiges Testproblem. Hier ist Go = {^o} und Gi = G \ {^o}Die Testprobleme Ho ::
gegen
Ho
gegen
e<eo :: e>eo
Hx:e>6o Hi:e< 00
und
nennt man einseitige Testprobleme. Im ersten einseitigen Testproblem ist Go =] — oo, ^o] und Gi =]^05 oo[, im zweiten Go = [OQ, OO[ und Gi =] — oo, ^o[Beispiel 6.1 (Geburten): In einer Bevolkerung soil untersucht werden, oh die Geburtswahrscheinlichkeiten fur Jungen und Mddchen gleich sind. Die Wahrscheinlichkeit n fiir die Geburt eines Jungen stellt den unbekannten Parameter 6 dar, n = 6 G Q = [0,1]. Die Hypothese gleicher Wahrscheinlichkeiten ist IT — 0.5; sie ist die Nullhypothese. Gegenhypothese sei die vollstdndige Alternative w ^0.5. Das Testproblem lautet also Ho : n = 0.5
gegen
Hi : n
^O.b.
Es ist ein zweiseitiges Testproblem mit einfacher Null- und zusammengesetzter Gegenhypothese. Beispiel 6.2 (Dicke von Folien): Bei der Untersuchung der Dicke der von einer Maschine produzierten Folien bezeichne X die Starke eines Folienstucks
6.1.
GRUNDBEGRIFFE
239
in /dm. Wir machen die Verteilungsannahme, dass X ~ iV(/i, 16) ist mit unbekanntem Erwartungswert fd und (aus frilheren Messungen) bekannter Varianz CJ^ = 16. Es soil getestet werden, ob fi grofier als fdQ = 55 ist oder nicht (^-> Excel). Hier ist der Parameter 6 = fJ^, und das Testproblem lautet Ho : fd 55.
Es handelt sich um ein einseitiges Testproblem mit rechtsseitiger Alternative. Null- und Altemativhypothese sind zusammmengesetzt. Ein Test fiir ein gegebenes Testproblem ist ein Verfahren, um in Abhangigkeit von der Stichprobe zu entscheiden, ob HQ zugunsten von Hi abgelehnt werden kann oder nicht. Er ist durch eine Statistik T = T{Xi,... ,Xn), die als Priifgrofie oder Testgrofie bezeichnet wird, und eine Menge K C M, den kritischen Bereich, gegeben. Das Testverfahren lautet: T{Xi,...,Xn) ^ K T ( X i , . . . , Xn) ^ K
=> =>
Ho wird abgelehnt, Ho wird nicht abgelehnt.
Beispiel 6.1 (Fortsetzung): Zehn zufdllig ausgewdhlte Geburten werden beobachtet. Sie liefern eine Stichprobe X i , X 2 , . . . ,-^10 aus X, y _ I ^ 0
-Ai
bei Geburt eines Jungen, bei Geburt eines Mddchens.
Als Priifgrofie fiir das obige Testproblem bietet sich 10
T {Xi,...
,Xn) =}
Xj
an, das ist die Anzahl der geborenen Jungen. Die Nullhypothese Ho : n = 0.5 soil abgelehnt werden, wenn Yli=i ^i ^^ klein oder zu grofi ist. Beispiel 6.2 (Fortsetzung): Auf der Basis von zwanzig zufdllig ausgewdhlten Folienstiicken erhalten wir eine Stichprobe X i , . . . , X20 CLUS X. Eine geeignete Priifgrofie ist hier
i=l
also die mittlere Stdrke der Folienstilcke in der Stichprobe. Ho '. f^ < 55 soil dann abgelehnt werden, wenn X zu grofi ist, also X > k. Der kritische Bereich ist demnach K = ]k^oo[ mit einem noch zu bestimmenden kritischen Wert k. Um den kritischen Bereich K geeignet festzulegen, betrachten wir in Abhangigkeit von K die Fehler, die beim Test auftreten konnen, und ihre Wahrscheinlichkeiten. Bei einem Test konnen zwei Arten von Fehlern auftreten:
240
6. HYPOTHESENTESTS
• Fehler erster Art Der Fehler erster Art besteht darin, HQ abzulehnen, obwohl HQ richtig ist. Die maximale Wahrscheinhchkeit, einen Fehler erster Art zu begehen, wird mit a bezeichnet. a heifit Niveau (auch: Signifikanzniveau) des Tests. • Fehler zweiter Art Der Fehler zweiter Art besteht darin, HQ nicht abzulehnen, obwohl HQ falsch ist. Die maximale Wahrscheinlichkeit, einen Fehler zweiter Art zu begehen, wird mit /3 bezeichnet. Insgesamt sind vier Falle zu unterscheiden, die wir in der folgenden Tabelle zusammenfassen:
HQ richtig HQ falsch
Testentscheidung HQ ablehnen I HQ nicht ablehnen Fehler erster Art kein Fehler kein Fehler Fehler zweiter Art
Die Testgrofie T ( X i , . . . , Xn) hangt von der Stichprobe ab und ist daher eine Zufallsvariable. Die Wahrscheinlichkeit, dass sie im kritischen Bereich K des Tests liegt, wenn 6 der „wahre" Parameter ist, wird mit P ( T ( X i , . . . ,Xn) G i^ II ^) bezeichnet. Diese Wahrscheinlichkeit hangt natiirlich von 6 ab. Man betrachtet sie als Funktion von 0,
Die Funktion G heifit Giitefunktion (englisch: power function) des Tests. Als Operationscharakteristik des Tests wird die Funktion
oc{e) = i-G{e), 0 G G , bezeichnet. Insbesondere ist^ a = sup G{e) = 1-
inf OC{e)
die maximale Wahrscheinlichkeit ftir einen Fehler erster Art, und P= l-
inf G((9) = sup {OC{e))
^Das Symbol sup steht fur das S u p r e m u m , das Symbol inf steht fiir das Infimum einer Menge von reellen Zahlen. Beispielsweise ist das Supremum eines endlichen Intervalls gleich dessen oberer Grenze, gleichgiiltig, ob das Intervall offen, halboffen oder abgeschlossen ist.
6.1.
GRUNDBEGRIFFE
241
ist die maximale Wahrscheinlichkeit fiir einen Fehler zweiter Art. Wenn die Nullhypothese einfach ist, ©o = {^0} ? entfallt beim Fehler erster Art die Maximierung, es ist dann a = G{9o)' Beispiel 6.1 (Fortsetzung): Im Beispiel der Geburten wdhlen wir als kritischen Bereich K = {0,1} U {9,10}. Fur die Priifgrofie gilt dann Xli=i -^i ~ B{10,7T), also ist die Giitefunktion GW
=
pff;X,G{0,l}|l7rj+pff;X,€{9,10}||7rj
Es handelt sich um eine einfache Nullhypothese ©0 = {0.5}. Die Wahrscheinlichkeit fiir den Fehler erster Art betragt demnach a = G(0.5) = 0.0010 + 0.098 + 0.098 + 0.0010 - 0.0216. Fiir den Fehler zweiter Art gilt
-
1-a
-
0.9784.
Bei diesem Beispiel gilt offensichtlich 0 = 1 — a, Diese Beziehung trifft bei zahlreichen, jedoch nicht bei alien Tests zu. Beispiel 6.2 (Fortsetzung): Die Nullhypothese, dass die mittlere Foliendicke hochstens 55 jj.m betrdgt, ist eine zusammengesetzte Hypothese; ebenso ist die Alternative zusammengesetzt. Die Testgrofie ^ = ^ Y^i=i -^i '^^^ offenbar normalverteilt mit (^ = y^
und unbekanntem fx, und daher ^~^~iV(0,l).
Als kritischen Wert wdhlen wir k = 57^ also K =]57, cx)[, und berechnen die Giitefunktion sowie die Fehlerwahrscheinlichkeiten a und (3. Es gilt
242
6. HYPOTHESENTESTS
Offenbar wdchst G{^) monoton mit fi. Fur die Fehlerwahrscheinlichkeit erster Art folgt daher a
=
sup G(/x) -
G(55)
M55
Auch in diesem Beispiel ist also P = 1 — a. Bei den beiden Beispielen wurden Testgrofie T und kritischer Bereich K jeweils vorgegeben und a und /? berechnet. In der Praxis des Testens geht man jedoch anders vor. Da es im Allgemeinen nicht moghch ist Tests zu konstruieren, bei denen sowohl a als auch /? klein (oder sogar null) sind, muss man sich damit zufrieden geben, eine der beiden Fehlerwahrscheinlichkeiten zu kontrollieren, d.h. klein zu halten. Dies ist im Folgenden immer die maximale Fehlerwahrscheinlichkeit erster Art a, das ist die maximale Wahrscheinlichkeit HQ abzulehnen, obwohl HQ richtig ist. Die maximale Fehlerwahrscheinlichkeit zweiter Art ist dann, von Spezialfalien abgesehen, nicht mehr zu kontrollieren, d.h. sie kann hoch sein. Wie an den obigen Beispielen zu sehen ist, kann /? = I—a gelten, und je kleiner a ist, umso grofier ist /?. Dieser Sachverhalt muss bei der Interpretation des Testergebnisses beriicksichtigt werden. OfFensichtlich sind die Testergebnisse „iJo ablehnen" und „iJo nicht ablehnen" von sehr unterschiedlicher Qualitat. Wahrend man sich gegen falschliches Ablehnen von HQ durch Wahl eines kleinen a schiitzen kann, kann man sich gegen falschliches Nicht ablehnen im Allgemeinen nicht schiitzen. Aus diesem Grund wird man bei einer Ablehnung von HQ davon ausgehen, dass HQ, da es im Widerspruch zu den empirischen Daten steht, falsch ist. Damit ist Hi bestatigt oder - wie man auch sagt - statistisch gesichert. Jedoch ist zu berlicksichtigen, dass es sich hier nicht um absolute Sicherheit handelt, denn, auch wenn die Nullhypothese zutrifFt, kann der Test zur Ablehnung ftihren, was allerdings hochstens mit der Wahrscheinlichkeit a vorkommt. Man sagt deshalb auch, dass Hi zum Signifikanzniveau a (d.h. mit einer maximalen Fehlerwahrscheinlichkeit erster Art von a) gesichert ist, und nennt den Test einen Signifikanztest zum Niveau a. Demgegeniiber kann man beim Nichtablehnen von HQ nicht davon ausgehen, dass HQ zutrifft. Vielmehr wird man dieses Testergebnis so interpretieren, dass HQ nicht in Widerspruch zu den empirischen Daten steht. Man kann
6.2.
T E S T S FUR ERWARTUNGSWERTE
243
deshalb HQ beibehalten, ohne durch den Test eine ausdrlickhche Bestatigung fiir HQ erhalten zu haben. Die unterschiedUche QuaUtat der Testergebnisse „ifo ablehnen" und „ifo nicht ablehnen" hat auch Konsequenzen fiir die Formuherung von HQ und Hi. Es ist bei den Tests der hier vorgestellten Art keineswegs gleichgiiltig, welche Vermutung als HQ und welche als Hi formuUert wird. Mochte der Statistiker seine Vermutung durch den Test bestatigen, so muss er sie als Gegenhypothese Hi formulieren, denn nur in diesem Fall kann er die falschliche Ablehnung von HQ (und damit die falschliche Bestatigung von Hi) kontrollieren. Offenbar hangt die Testentscheidung, HQ abzulehnen oder nicht, wesentlich vom gewahlten Signifikanzniveau a ab. Die meisten speziellen Tests kann man zu verschiedenen Niveaus a durchfiihren. Dabei vergrofiert sich mit wachsendem a der kritische Bereich K, und die Ablehnung der Nullhypothese wird - bei gleicher Datenlage - „erleichtert". Die Hypothesen und das Signifikanzniveau miissen jedoch festgelegt sein, bevor man die konkreten Daten auswertet. Wichtig fiir die Interpretation der Testergebnisse ist das Folgende: Die Fehlerwahrscheinlichkeiten a und /? beziehen sich auf das Testverfahren und nicht auf die individuellen Testergebnisse. So ist a die maximale Wahrscheinlichkeit, dass, wenn HQ zutrifft, das Verfahren dennoch zu einer Ablehnung von HQ fiihrt. Diese Wahrscheinlichkeit bezieht sich auf die Situation vor der Erhebung der Daten und vor der Durchfiihrung des Tests. Liegt das konkrete Testergebnis vor, so ist dieses entweder richtig oder falsch. Jedoch trifft die folgende Haufigkeitsinterpretation zu: Bei haufiger Durchfiihrung desselben Tests zum Signifikanzniveau a mit jeweils neuen, unabhangig entstandenen Daten wird in ungefahr a • 100% aller Falle ein Fehler erster Art begangen. Die folgenden Abschnitte enthalten Standardverfahren, mit denen Hypothesen iiber die Lage und Streuung von Merkmalen unter verschiedenen Voraussetzungen getestet werden.
6.2
Tests fiir Erwartungswerte
Zu den Standardaufgaben der schlieCenden Statistik gehort es, Aussagen liber die Mittelwerte quantitativer Merkmale, d.h. liber die Erwartungswerte der entsprechenden Zufallsvariablen, zu treflFen. Die Aussagen beziehen sich auf die Lage einer Zufallsvariablen auf der reellen Zahlenachse oder auf den Vergleich der Lage mehrerer Zufallsvariablen. Die folgenden Abschnitte enthalten die Standardverfahren, mit denen Hypothesen liber Erwartungswerte getestet werden konnen. Sie beziehen sich auf einen Erwartungswert sowie auf den Vergleich von zwei Erwartungswerten.
244
6. HYPOTHESENTESTS
6.2.1
Tests fiir einen Erwartungswert
Es sei X eine Zufallsvariable mit Erwartungswert fx = E[X] und Varianz cr^ = V[X]. X i , . . . , X n sei eine einfache Stichprobe aus X, Unter verschiedenen Voraussetzungen iiber die Verteilung von X sowie iiber a^ (bekannt oder unbekannt) werden Tests fiir /j, hergeleitet. 1. Tests fiir fi einer Normal verteilung, wenn cr^ bekannt ist (Gau6-Tests) Wir beginnen mit dem Testproblem i^o : /i = /io
gegen
if i : // 7^ //Q ,
wobei /io ein vorgegebener Wert fiir /i ist. Es handelt sich um ein zweiseitiges Testproblem. HQ ist eine einfache Nullhypothese, Hi eine zusammengesetzte Alternative. Wie im Abschnitt 6.1 angekiindigt, wollen wir einen Test herleiten, dessen Fehlerwahrscheinlichkeit erster Art gleich a ist, wobei wir a vorgeben. Es liegt nahe, das Stichprobenmittel X als Testgrofie zu verwenden und HQ abzulehnen, wenn X von /ZQ deutlich verschieden ist. Falls X in der Nahe von /io liegt, gibt es keinen Grund HQ abzulehnen. Anstatt X selbst als TestgroBe einzusetzen, verwenden wir das standardisierte Stichprobenmittel als Testgrofie a Falls
HQ
zutrifft, gilt yi =
JJLQ
und deshalb
Wir lehnen HQ ab, wenn diese Priifgrofie einen sehr grofien oder einen sehr kleinen Wert annimmt. Dies entspricht einer erheblichen Differenz zwischen X und IXQ. Die Testentscheidung wird aufgrund der standardisierten Testgrofie getroffen: Lehne HQ ab, wenn {X - /io) y/n
> /c.
wobei k noch geeignet festzulegen ist. Abweichungen der Priifgrofie nach oben und nach unten fiihren so in gleicher Weise zur Ablehnung. Die Zahl k ist der kritische Wert des Tests. Wir bestimmen k so, dass die Wahrscheinlichkeit HQ abzulehnen, obwohl HQ zutrifft, hochstens a betragt.
6.2.
245
T E S T S FUR ERWARTUNGSWERTE
Mx)
Abbildung 6.1: Ablehnbereich zum zweiseitigen Gaufi-Test
Dann ist P {HQ wird abgelehnt 11 HQ ist richtig)
a
> /c II i^o ist richtig I
=
pm>k),
da unter HQ die Verteilungsannahme in (6.-1) zutrifft. Aus a = P {\U\ > k) folgt jedoch sofort, dass k das (l — f ) — Quantil der A^(0,1) ist, d.h. k = i i i _ | . Ist z.B. a = 0.05, so ergibt sich k = uo.975 = 1.96. Wir wollen nun die Giitefunktion des Tests herleiten. Sie gibt die Wahrscheinlichkeit ftir das Ablehnen von HQ als Funktion des wahren Wertes von fj, an. In unserem Fall ist also ftir // € 0 = R G(/i)
=
P {HQ wird abgelehnt || /i) > ^ i - f II /^
=
1-P
{X -
/XQ)
>/n I
Wl-a II M 1 1
> Ui-a
M
Ui-a-^^
^°^^^) Ui-a) = a.
248
6. HYPOTHESENTESTS
G(/.)
0 Abbildung 6.3: Giitefunktion des Tests auf Ho : jj, < iJ,o gegen Hi : /j, > /JLO fiir fio = 1.0, C7^ = 1.0 sowie n = 10,20,50.
Damit gilt aber sup P
> ui-a II A* = Q^.
^
Die maximale Fehlerwahrscheinlichkeit erster Art ist also gleich a. Fiir die Giitefunktion dieses Tests ergibt sich G{lX)
=
PI ^
P(U>
> Ui_a II M
'-
ui.a
-
(/i-/io)\/n' a
Abbildung 6.3 stellt die Giitefunktion des Tests fiir /io = 1-0, a^ = 1.0 sowie n = 10, n = 20 und n = 50 dar. Im Bereich der Gegenhypothese {/j, > fxo = 1) ist der obere Graph der fiir n = 50, der mittlere der fiir n = 20 und der untere der fiir n = 10. Auch hier steigt die Giitefunktion auf der Gegenhypothese rascher bei grofierem als bei kleinerem n an.
6.2.
249
T E S T S FUR ERWARTUNGSWERTE
Die Herleitung eines Tests fiir iJo : M > Mo
gegen
Hi
: fj.< /do
sowie deren Glitefunktion verlauft analog. Diese drei Tests heifien GauC-Tests. Sie sind in der folgenden Testbox zusammenfassend dargestellt. Verteilungsannahme
X i , . . . , X n ~ N{fx, cr^), cr^ bekannt
Nullhypothese
Ho: fJ> = p^o Ho : p < po
Gegenhypothese
Hi\
p^
po
PriifgroBe Ho ablehnen, falls
Hi: p> po
Ho : p> Po
Hi: p< Po 1
a \T\ > ui_«
T > Ui.a
T < -ui-a 1
Wenn X nicht normalverteilt, aber n hinreichend grofi ist, gelten die Tests approximativ. Als Faustregel verwenden wir: n > 40. Beispiel 6.2 (Fortsetzung): Die Foliendicke X wird als normalverteilte Zufallsvariable mit bekannter Varianz a'^ = 16 [/im^] angesehen. Die Hypothese Ho, dass der Erwartungswert p dieser Normalverteilung gleich dem Sollwert Po = 55[/im] ist, soil anhand einer Stichprobe der Ldnge n = 25 uberpriift werden. Das Niveau sei a = 0.05. Aufgrund der Interessenlage dessen, der die Untersuchung vornimmt, scheiden wir drei Fdlle, ndmlich: Die Uberpriifung geschieht durch
unter-
1. eine Eichkommission, die an einer Abweichung vom Sollwert po = 55 sowohl nach unten als auch nach oben interessiert ist, 2. den Fabrikbesitzer, von dem wir hier annehmen, dass er lediglich wissen will, ob die Folien im Mittel zu dick hergestellt und somit zuviel Rohstoffe verbraucht werden, 3. eine Verbraucherorganisation, deren Interesse nur der Frage gilt, ob der wahre Erwartungswert p kleiner als der Sollwert po ist. Nullhypothese, Gegenhypothese und kritischer Bereich sind dann wie folgt zu wdhlen: 1. Ho:p = 55,Hi:p^
55, \T\ > u i _ ^ = 1.96,
250
6. HYPOTHESENTESTS
2. Ho: fi 55, T > ui-a = 1.64,
3. iJo : /i > 55, iJi : /x < 55, T < -ui-a
= -1-64.
Die Testgrofie ist bei alien drei Tests
a
4
Ergeben die Beobachtungen als Stichprobenmittel x = 56.4[/im], so hat die Testgrofie den Wert 56.4-55 r— ^ v / 2 5 = 1.75. 4 1. Beim ersten Testproblem ist dann der Ablehnbereich i i : = ] - o o , - 1 . 9 6 [ U ]1.96,oo[. Da der Wert der Testgrofie nicht im kritischen Bereich liegt, lautet die Testentscheidung, dass Ho : JJ. = bb nicht zugunsten von Hi : fi ^ bb abgelehnt wird. 2. Beim zweiten Testproblem ergibt sich der Ablehnbereich
Da hier die Testgrofie in den kritischen Bereich fdllt, lautet die Testentscheidung: „Ho: // < 55 wird zugunsten von ifi: /i > 55 abgelehnt". Das Ergebnis Hi: fi > bb ist zu einem Signifikanzniveau von b% statistisch gesichert. 3. Der Ablehnbereich ist hier A: =
]-OO,-1.64[,
so dass der Wert der Testgrofie nicht in K liegt. Es ist also keine Ablehnung von Ho zugunsten von Hi moglich. Im Fall 2. wird die Nullhypothese somit abgelehnt, in den Fallen 1. und 3. jedoch nicht. Inhaltlich bedeutet dies, dass - zum Niveau b% - die Hypothese Hi des Fabrikbesitzers durch die Daten statistisch gesichert ist: Im Mittel werden die Folien zu dick hergestellt. Alle iibrigen Hypothesen sind nicht statistisch gesichert. Wir sehen hier ein Beispiel, in dem zu einem gegebenen Niveau a die zweiseitige Alternative aufgrund der gegebenen Daten nicht gesichert werden kann, eine einseitige Alternative aber doch. Bei der einseitigen Alternative wird
6.2.
251
T E S T S FUR ERWARTUNGSWERTE
die Nullhypothese abgelehnt, da der kritische Wert des einseitigen Tests (das Quantil ui-a) kleiner ist als der obere kritische Wert des zweiseitigen Tests (das Quantil ui-^). 2. Tests fiir /j, einer N o r m a l v e r t e i l u n g , wenn a^ u n b e k a n n t ist (t-Tests) Bei vielen praktischen Anwendungen ist die Varianz cr^ nicht bekannt. Es liegt nahe, in der Testgrofie des Gaufi-Tests a^ durch den Schatzer 5^ oder 5*^ zu ersetzen. Dadurch andert sich jedoch deren Verteilung. Es gilt jetzt, wenn fi = fjio ist, {X - Ho) y/n
(X-/io)v^
tn-1 ( n - l ) (T2
Als Testgrofie verwenden wir deshalb {X - iUo) A/TI _ {X - fio)
Vn-l
Die folgenden Tests werden ahnlich wie die drei Gaufi-Tests durchgeflihrt. Jedoch sind die Quantile der N{0,1)-Verteilung nun durch Quantile der tn-iVerteilung zu ersetzen. Diese Tests heifien ^Tests; sie sind in der Testbox ubersichtlich zusammengefasst: X i , . . . , Xn ~ N{jj,, cr^), cr^ unbekannt
Verteilungsannahme Nullhypothese
HQ:
Gegenhypothese
Hi: ix^ ixo
Prlifgrofie Ho ablehnen, falls
fi = fio
-s |r|>tn-l,l-f
Ho'' IJ' < /J'O
Ho' fJ'> fJ'O
Hi: fx> 1^0
Hi: iK^io
- Lin
y/n-l
1
"Y
= —-7;
v^
5* T >
tn-l,l-a
T
l^Y abgelehnt. Die obigen Zweistichproben-Gaufi-Tests konnen auch dann verwendet werden, wenn X und Y nicht exakt normalverteilt sind, aber n und m geniigend grofi und (j\ und Gy bekannt sind. Als Faustregel soil hier wieder n, m > 40 gelt en. Der bisher betrachtete Fall, dass a'x und Gy bekannt sind, ist sehr speziell. In der statistischen Praxis sind die Varianzen in aller Kegel unbekannt. Falls n und m geniigend grofi sind (Faustregel wie oben: n,m> 40) lassen sich die Gaufi-Tests jedoch modifizieren, indem man a'x und ay durch die Schatzer
6.2.
255
T E S T S FUR ERWARTUNGSWERTE
Sx und Sy ersetzt. Die modifizierten Tests, die in der nachfolgenden Testbox zusammengefasst sind, gelten lediglich approximativ und dies wegen des Zentralen Grenzwertsatzes auch, wenn X und Y nicht normalverteilt sind. Verteilungs1 annahme
X i , . . . , X n , Y i , . . . , Km u n a b h a n g i g , 40
|
Nullhypothese
Ho: fix = Mv
^ o : fJ'X < fJ'Y
Ho: fix > fiY
Gegenhypothese
Hi', fix ¥" l^y
Hi: fxx > fJ'Y
Hi: fix < fiY
Priifgrofie
T-
^ - ^
^
Ho ablehnen, falls
|T|>^i_^
y^ + f T>Ui-a
T
IdY
Inmin-i-irn-2)
~V
n +m
HQ:
fdx > IdY
Hi: lix < IJiY
~X-Y ^ ( ^ _ 1)5^2 ^ ( ^ _ 1)5*2
1
1 Ho ablehnen, falls
|T| >
tn+rn-2,l-q
T > tn+m-2,l-a
T
Excel) habe man X = 56.4, y = 54.2, s*x = 13.4,5y? = 10.4 erhalten. Dann betrdgt der Wert der Testgrofie 15 • 10 • (15 + 1 0 - 2 ) 56.4 - 54.2 = 1.54. 15 + 10 ^714 • 13.4 + 9 • 10.4 Filra = 0,01 ^5^^23,0.99 = 2.50 der kritische Wert. Da der Wert der Testgrofie nicht im kritischen Bereich liegt, kann HQ nicht abgelehnt werden. Auf Basis der vorliegenden Daten ist es also nicht statistisch gesichert, dass die mittlere Bestellsumme nach der Werbekampagne gestiegen ist.
6.2.
T E S T S FUR ERWARTUNGSWERTE
6.2.3
257
Vergleich von Erwartungswerten bei verbundener Stichprobe
Wir kehren zum Vergleich zweier Merkmale zurlick, lassen jedoch im Gegensatz zu Abschnitt 6.2.2 nun Abhangigkeiten zwischen den Beobachtungen der beiden Merkmale zu. Viele statistische Probleme sind vom folgenden Typ: Eine Anzahl von Untersuchungseinheiten erfahrt eine bestimmte „Behandlung". X stellt den Wert eines interessierenden Merkmals vor der Behandlung dar, Y den Wert desselben Merkmals nach der Behandlung. Beispielsweise sei X die Arbeitsproduktivitat einer Person vor einem Berufsforderungslehrgang, Y die Arbeitsproduktivitat nach dem Lehrgang. Fiir jede Untersuchungseinheit i beobachtet man das Wertepaar {xi^yi)^ i = 1 , . . . , n. Jeder der Beobachtungswerte (x^, yi) wird als Realisation eines Paars (Xi^Yi) von Zufallsvariablen aufgefasst. Wenn die n Paare untereinander vollstandig unabhangig sind, wird {Xi.Yi),... ,{Xn,Yn) als verbundene Stichprobe (englisch: paired sample oder matched pairs) bezeichnet. Dabei sind in der Regel fiir jedes i die beiden Zufallsvariablen Xi und Yi voneinander abhangig. Die gemeinsame (bivariate) Verteilung von (Xi^Yi) kann fiir jedes Paar verschieden sein. Sei (Xi, Y i ) , . . . , (X^, Yn) eine verbundene Stichprobe. Aufierdem sei (Xi^Yi) fiir jedes i gemeinsam bivariat normalverteilt mit
E[Xi] --= E\Yi] -= Corr\Xi,Yi] --=
V\X,] V[Y^
l^i, i^i, PXY
- 4,
= -
•
Wir testen die Nullhypothese, dass fiir jede Untersuchungseinheit i die beiden Zufallsvariablen Xi und Yi den gleichen Erwartungswert haben, gegen die Alternative, dass bei mindestens einer Untersuchungseinheit ungleiche Erwartungswerte vorliegen: Ho : l^i = Vi fiir alle i
gegen
Hi : nicht HQ .
Zur Konstruktion einer Testgrofie verwenden wir die Differenzen Di = Xi—Yi. Offenbar ist fiir jedes i die Zufallsvariable Di univariat normalverteilt, Di ~ N{iXi - i^i.a^)
mit
a^ = a ^ 4- cry -
2ax(JYPXY,
und die Di sind stochastisch unabhangig. Unter HQ sind alle Di identisch verteilt mit Di ~ A^(0, cr^)
mit
cr^ = cr^ + (7y — 2axo-YpxY •
258
6. HYPOTHESENTESTS
Unter der Nullhypothese stellt also D i , . . . , Dn eine einfache Stichprobe aus einer Zufallsvariablen D dar. Mit dieser einfachen Stichprobe flihrt man einen gewohnlichen ^Test auf HQ : E[D] = 0 gegen Hi : E[D] 7^ 0 durch. Flir das ursprlingliche Testproblem erhalt man den folgenden Test:
1 Verteilungs1 annahme
(Xi.Yi)
~ N{yLi,Vi,(j'x,GY,pxY)
unabhangig, z = 1,.. , n
Nullhyp.
Ho : fXi = Ui flir alle i
Gegenhyp.
Hi: jjii ^ Vi flir mindestens ein z
PrufgroBe
^ = -^^/^^^:, wobeiS=if;A,5|, = i f ; ( A --W
1 Ho ablehnen, falls
|r|>i„_i,i_»
Ein wichtiger Spezialfall des obigen Testproblems liegt vor, wenn vorausgesetzt werden kann, dass alle Xi den gleichen Erwartungswert fii = /J> besitzen, und alle Yi den gleichen Erwartungswert Ui = y. Dann vereinfacht sich das Testproblem wie folgt, die Testgrofie und der kritische Bereich andern sich jedoch nicht:
1 Verteilungs1 annahme
{Xi.Yi) ~ N{iJL,v,a'x,aY,PxY)
Nullhyp.
Ho : /JL = 1/
Gegenhyp.
Hi:
unabhangig, i = 1,... ,n
fi^u
PrlifgroBe 1 Ho ablehnen, falls
|T|>t„_i,j_ =
Beispiel 6.4- Wie im Beispiel 6.3 soil die Auswirkung einer Werbekampagne untersucht werden (^-^ Excel/SPSS). Hier handelt es sich allerdings um einen festen Kundenstamm, der regelmdfiig Bestellungen aufgibt. Beobachtet wird deshalb das Bestellverhalten von n = 15 Kunden im Monat vor der Werbekampagne und im Monat danach. Es ergeben sich folgende Bestellsummen:
6.2.
259
T E S T S FUR ERWARTUNGSWERTE
Bestellsumme vorher nachher i 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
Differenz
Xi
Vi
di
51 53 52 56 53 52 55 52 56 59 64 55 60 61 56
54 52 53 55 51 53 58 56 54 58 62 58 60 63 59
-3 1 -1 1 2 -1 -3 -4 2 1 2 -3 0 -2 -3
Man bildet in der Tabelle die Differenzen di und erhdlt d = —0.7333, sj^ 4.3289, SD = 2.0806. Die Prufgrofie hat den Wert
SD
2.0806
-1.3187.
Filr a = 0.05 ist ^ n - i , i - f = ^i4,o.975 = 2.1448 > | - 1.3188|. Die Nullhypothese, dass sich die Werbekampagne nicht auf das mittlere Bestellverhalten ausgewirkt hat, kann also zum Niveau 5% nicht abgelehnt werden. Abbildung 6.4 stellt die wichtigsten Tests fiir Erwartungswerte bei normalverteilten Stichproben in einem Baumdiagramm iibersichthch dar.
•
(T)
cr
Oi ffi^
C=:
CD
cr
0)
CO
Ofq
I
CO
CD
u cr cr
•-J
o O t3 3:
C/3 CO
^
cr cr
p
Gaufi-Test
a-^ bekannt
t-Test
a'^ unbekannt
Einfax:he NV-Stichprobe X i , . . . ,Xn
Gaufi-Test
Zweistichproben-
^ X ' ^ v bekannt
Tests fur Erwartungswerte
t-Test
Zweistichproben-
^2_ _ ^2_
o^'x^cFy unbekannt
iiber Differenzen
gewohnlicher t-Test
Zweifache NV-Stichprobe X i , . . . , X n , Vi, - • •, ^m
6.3.
T E S T S FUR VARIANZEN
6.3
261
Tests fiir Varianzen
Mit den Tests tiber einen oder mehrere Erwartungswerte wird die Lage von Verteilungen iiberpruft bzw. verglichen. Sie stellen die mit am haufigsten angewandten Signifikanztests dar. Gelegentlich ist auch die Streuung einer Verteilung oder der Vergleich zweier Verteilungen bezuglich ihrer Streuungen von Interesse. Im Folgenden geben wir Tests fiir eine Varianz sowie einen Test zum Vergleich von zwei Varianzen an.
6.3.1
Tests fur eine Varianz
Es sei X ~ -/V(//, cr^) und X i , . . . , X„ eine Stichprobe aus X. Um Hypothesen tiber a'^ zu testen, liegt es nahe, die Stichprobenvarianz oder ein geeignetes Vielfaches von ihr als Testgrofie zu wahlen. Wir wissen aus Abschnitt 4.3.1, dass n
Als Testgrofie fiir das zweiseitige Testproblem Ho'.a'^ = al
gegen
Hi : a'^ ^ a^
wahlt man deshalb T-T(X
y._in-l)S*^_nS^
und lehnt iJo ab, wenn T besonders grofi (T > ^2) oder besonders klein {T (Ty
Ho : (7x ^ cry i Hi
: ax
< CTy
e*2
Priifgrofie Ho ablehnen, falls
^ ~
T < Fn_i,m-i,f Oder T > Fn-i,yn-l,l-f
Hierbei bezeichnet Fn-i^m-i.a m — 1 Freiheitsgraden.
q*2 ^Y
T> J^n—l,m—ljl — a
T
My
gegen Hi \ fix < f^y
getestet werden. Um den Zweistichproben-t-Test anwenden zu konnen, mussen wir zundchst prilfen, ob die beiden Varianzen a\ und ay ubereinstimmen. Wir verwenden dafur einen F-Test zum Niveau 10%. Nullhypothese fiir dieses Testproblem ist G\ = dy, Gegenhypothese (j\ ^ dy . Aus den gegebenen Daten erhalten wir 15
n - 15,
Yl^i
15
= 124.92
und
25
^yi
= 1135.8616,
i=l
i=l
m = 25,
^xl 25
= 270.82
und
i=l
^
yf = 3172.2964,
i=l 15
X = 8.328,
nsj^ = X^C^i - ^f
= 95.5279,
i=l 25
y = 10.8328,
s3^^ = ^^^
ms^ = "^iVi " vf = 238.5575,
2^{xi -xY
=^^ 95.5279 - 6.8234
6.4.
T E S T S FUR WAHRSCHEINLICHKEITEN UND ANTEILSWERTE
265
und S
1
m
1
m 3Y^ J^iVi -y)^ = ^ 238.5575 = 9.9399. 1=1
Somit hat die Testgrofie des F-Tests den Wert 5*v? 5^2
6.8234 9.9399
Der kritische Bereich ist {t\t < Fn-i^rn-i,^ oder t > Fn-i^rn-i,!-^}der F-Tabelle (Tabelle 7) entnimmt man die Quantile i^l4,24,0.05 = T^
= TT^ = 0-43
^24,14,0.95
Und
^"^^
Fi4,24,0.95 = 2.13 .
^-OO
Wegen Fi4,24,o.05 = 0.43 < 0.6865 < 2.13 = ^14,24,0.95 wird die Nullhypothese gleicher Varianzen zum Niveau 10% nicht abgelehnt. Zwar ist damit nicht statistisch gesichert, dass die Varianzen wirklich gleich sind. Es gibt jedoch - auf Basis dieser Stichprobe - keinen Grund, die Nullhypothese gleicher Varianzen zu verwerfen. Also behalten wir sie beim weiteren Vorgehen, dem Zweistichproben-t-Test, bei. Wir testen nun HQ : /dx > fdy gegen Hi : /dx < I^Y- Die Testgrofie T des Zweistichproben-t-Tests hat den Wert nm{n + m — 2)
n+ m
oc — y
V^^'x + ^^Y
15 • 25 • 38 8.328 - 10.8328 — • = = —2.5866 . 40 A/95.5279 + 238.5575 Der kritische Bereich ist {t\t < —tn-fm-2,i-a}- ^y^s der t-Tabelle (Tabelle 6) entnimmt man das Quantil ^38,0.99 = 2.4286. Wegen T — —2.5866 < —2.4286 = ^38,0.99 '^^'^d die Nullhypothese abgelehnt. Es ist also auf Grund der Daten zum Signifikanzniveau a = 0.01 statistisch gesichert, dass die Trainingsmethode B im Mittel zu besseren Ergebnissen fuhrt.
6.4
Tests fiir Wahrscheinlichkeiten und Anteilswerte
Aussagen (iber eine Wahrscheinlichkeit mit Hilfe von Stichproben zu iiberprlifen, gehort zu den wichtigsten Aufgaben der schliefienden Statistik. Untersucht wird die Wahrscheinlichkeit TT, mit der ein bestimmtes Ereignis eintritt.
266
6. HYPOTHESENTESTS
Die Zufallsvariable X zeigt das Eintreten des Ereignisses an, X ~ 5 ( 1 , TT), und die Stichprobe X i , . . . , X^ entspricht den Ergebnissen einer BernouUiVersuchsreihe. Auf die gleiche Weise lassen sich Aussagen iiber einen Anteil in einer endlichen Grundgesamtheit mittels Stichproben uberprufen. In einer endhchen Grundgesamtheit moge ein Teil der Merkmalstrager eine bestimmte Eigenschaft haben. Zieht man mit Zuriicklegen eine Stichprobe X i , . . . ^Xn, so erhalt man eine BernouUi-Versuchsreihe auf das VorUegen dieser Eigenschaft. Jedes Xi ist dann 5(l,7r)-verteilt, und die Wahrscheinhchkeit n ist gleich dem Anteil der Merkmalstrager mit der interessierenden Eigenschaft. In diesem Abschnitt werden zunachst Aussagen iiber eine Wahrscheinlichkeit TT getestet. Es folgen Tests iiber die Gleichheit von zwei Wahrscheinlichkeit en.
6.4.1
Tests fiir eine Wahrscheinlichkeit
Sei X i , . . . , Xn eine Stichprobe aus X ~ 5 ( 1 , TT). Wir wissen, dass nach dem Zentralen Grenzwertsatz fiir TT = ^ IZlLi -^i S^lt appr
V
Zll n
iV(0,l).
Fiir das Testproblem HQ : TT = TTQ
gegen
i ^ i : TT 7^ TTQ
verwenden wir deshalb die Testgrofie ^
rpfv
V \
(TT - TTQ) y/n
1 = i (Ai,...,AnJ ^ - 7 Y^TTo ( 1 - TTo)
und lehnen ifo dann ab, wenn | r | > fc, wobei k aus a = P(\T\ >k\\HQ richtig) « P {\U\ > k) zu bestimmen ist. Als approximativen kritischen Wert erhalt man k =
u._a, ^
2
das ist das (l — §)-Quantil der A''(0,1)-Verteilung. Die beiden anderen approximativen Tests der Testbox lassen sich in ahnlicher Weise begriinden. Eine Faustregel fiir die Verwendung der drei Tests ist n7ro(l -TTo) > 9.
6.4.
267
T E S T S FUR WAHRSCHEINLICHKEITEN UND ANTEILSWERTE
Verteilungsannahme
^1,
...,^n~^(l,7r)
Nullhypothese
HQ
: 7T =
TTQ
HQ
: TT
TTQ TTQ
[
HQ
: TV >
HI
:
TT - TTo
TT
ui_^
-Ui-a
T
Ux-oc
Betrachten wir hierzu ein Zahlenbeispiel. Beispiel 6.7: Sei TTQ = 0.32, n = 120, Yl^^^i ^i = ^S.DannistTr = x = 0.4. Die Nullhypothese HQ : n < TTQ soil gegen Hi : n > TTQ zu uberpriift werden. Der Wert der Testgrofle ergibt sich als 0.4 - 0.32 a 2 0 = 1.88. VO.32 ' 0.68 Das Uberpriifen der Faustregel liefert das Ergebnis n7ro(l — TTQ) = 26.11 > 9. Der kritische Bereich ist dann K = ]ui_a,oo[ = ]1.64, oo[; wenn a = 0.05. Da der Wert der Priifgrofle im kritischen Bereich liegt, kann HQ zugunsten von Hi abgelehnt werden.
6.4.2
Vergleich zweier Wahrscheinlichkeiten
Zwei Wahrscheinlichkeiten (oder Anteilswerte) sollen nun verglichen werden. Formal haben wir zwei Zufallsvariablen X ^ B{l,7rx) und Y ~ ^(l,7ry) zu untersuchen. Das Testproblem lautet HQ
: TTx = TVy
gegen
Hi : TTx ^
TTY
'
Seien X i , . . . , Xn und Y i , . . . , Ym zwei unabhangige Stichproben aus X bzw. aus Y. Aus dem Zentralen Grenzwertsatz folgt TTx - Tty - {TTX - TTy) TTx (1 - TTx)
appr
NiO,l).
TTy (1 - TTy)
n m Allerdings kann dieser Ausdruck nicht als Testgrofie dienen, da im Nenner TTX und TTy vorkommen. Die Normalverteilung trifft jedoch auch dann noch approximativ zu, wenn man im Nenner TTX durch TTX und TTy durch ny ersetzt. Man verwendet T = T{Xi,...
,Xn,Yi,...
TTx ~ T^Y
,y^) —
Ttx (1 - T T x )
TTy (1 - TTy)
n
m
268
6. HYPOTHESENTESTS
als Testgrofie und lehnt HQ ab, wenn | r | > k. Unter HQ : TTX = Try besitzt die PriifgroiSe T eine asymptotische N{0,1)-Verteilung. Aus a = Pi\T\ >k\\Ho ergibt sich approximativ k =
richtig) ^ P{\U\ > k)
u._a. ^
2
Die folgende Testbox enthalt diesen und zwei weitere approximative Tests zum Vergleich der Wahrscheinlichkeiten. Eine Faustregel fiir die Giiltigkeit der drei Tests lautet: nnxil — 7tx) > 9 und myry(1 — Try) > 9.
Verteilungsannahme
X i , . . . , Xn, F i , . . . , Vm unabhangig, X i , . . . ,Xn - B(l,7rx), F i , . . . ,ym - 5(1,Try)
Nullhypothese
HQ
: TTx = TTY
HQ
'- TTx ^ TTy
HQ
: TTx ^ T^Y
Gegenhypothese
-^1 • TTx 7^ T^Y
H\
: TTx > T^Y
Hi
\ TTx < TTY
Priifgrofie
TTx ~ TTY
T =
/TTXCI-TTX)
y
HQ ablehnen, falls
\T\>m..
n
I 7ry(l—Try)
~^
T > Ui-a
m
T
9 sowie 60 • 0.3167 • 0.6833 > 9 erfullt. Der Wert der Testgrofie betrdgt 0.2143 - 0.3167 /
0.2143-0.7857 , 0.3167-0.6833 70 "^ 60
= -1.3207.
Der kritische Bereich ist K = ] — oo,—1.28[; wenn a = 0.10. Da T e K zutrifft, kann HQ abgelehnt werden. Der Interessentenanteil ist in Gruppe 2 hoher als in Gruppe 1.
6.5.
6-5
ANPASSUNGS- UND UNABHANGIGKEITSTESTS
269
Anpassungs- und Unabhangigkeitstests
Viele statistische Verfahren setzen voraus, dass das zu untersuchende Merkmal eine bestimmte Wahrscheinlichkeitsverteilung besitzt. Ob die beobachteten Daten mit einer bestimmten Verteilung der Zufallsvariablen vereinbar sind, lasst sich mit Hilfe eines so genannten Anpassungstests liberpriifen. Ein solcher Test vergleicht die vorliegenden Beobachtungen mit einer hypothetischen Verteilung und entscheidet, ob die Beobachtungsdaten zu dieser Verteilung „passen" oder nicht. Beim x^-Anpassungstest unterteilt man den Wertebereich des Merkmals in endlich viele Klassen. Den Haufigkeiten, mit denen die Daten in diese Klassen fallen, stellt man die sich aus der hypothetischen Verteilung ergebenden erwarteten Haufigkeiten gegeniiber. Weichen diese zu stark von jenen ab, folgert man, dass die Daten nicht mit der unterstellten Verteilung vereinbar sind. Betrachten wir hierzu zwei Beispiele. Beispiel 6.9 (Fairer Wiirfel): Es stellt sich die Frage, ob ein gegebener Wiirfel fair ist, d.h. ob jede Augenzahl gleich wahrscheinlich ist. Wenn die Zufallsvariable X die Augenzahl eines Wurfs bezeichnet, lautet also die Nullhypothese, dass P{X = i) = ^ fiir z = 1 , . . . , 6 ist. Um sie zu iiberpriifen, werden n unabhdngige Wiirfe Xi,...,Xn durchgefiihrt und die relative Hdufigkeit jeder Augenzahl mit | verglichen ('-^ SPSS). Beispiel 6.10 (Zufallszahlengenerator): Unter Zufallszahlen verstehen wir Realisationen von unabhdngigen, identisch verteilten Zufallsvariablen Zi,Z2, ...Zn ~ i?(0,1). Es stellt sich die Frage, ob ein bestimmter Zufallszahlengenerator wirklich Zufallszahlen erzeugt, das heiflt, ob eine konkret von ihm erzeugte Zahlenfolge als Realisation einer unabhdngigen Folge von i?(0,1)Variablen angesehen werden kann. Um diese Hypothese zu iiberpriifen, erzeugen wir zundchst mit dem Zufallszahlengenerator Zahlen (= Beobachtungen) zi, Z2, • • •, -^^looo- Wir zerlegen das Intervall [0,1] in J = 10 gleich grofle Teilintervalle [0,0.1[,[0.1,0.2[,...,[0.9,1.0] und zahlen die Beobachtungen, die in jedes Teilintervall fallen. Wenn die Zi Realisationen unabhdngiger R{0^1)-Variablen sind, ist zu erwarten, dass in jedem Teilintervall ungefdhr 100 Beobachtungen liegen. Der Unterschied zwischen den beobachteten Haufigkeiten und den aufgrund einer Nullhypothese erwarteten Haufigkeiten wird mit Hilfe der so genannten X^-Statistik gemessen.
270
6.5.1
6. HYPOTHESENTESTS
x^-Statistik
Sei X eine Zufallsvariable und Ai,... ,Aj eine Zerlegung des Tragers von X, dann ist die Wahrscheinlichkeit, dass X in Aj liegt, gleich
nj=P{X£Aj),
j =
l,...,J,
(6.1)
insbesondere folgt J2j=i ^j — 1- Wir betrachten eine Stichprobe X i , . . . ,X^ aus X. Sei Nj die absolute Haufigkeit, dass Beobachtungen in die Klasse Aj fallen, Anzahl der i mit Xi G Aj , j = 1 , . . . , J . N, Offenbar ist Nj ~ 5(n,7rj), also ^[A^^]
n TTj
ftir j = 1 , . . . , J .
Um ftir gegebene Werte der Wahrscheinlichkeiten TTJ die Bedingung (6.1) als Nullhypothese zu liberpriifen, vergleicht man nun fiir alle j die beobacht e t e Haufigkeit (englisch: frequency observed) Nj mit der e r w a r t e t e n Haufigkeit (englisch: frequency expected) riTTj. Als Priifgrofie wird die folgende gewichtete Summe der Abweichungsquadrate verwendet,
E
{Nj-nnjy nTVi
T heifit x^-Statistik. Sie misst die Abweichung der beobachteten Haufigkeiten A^^ von den erwarteten Haufigkeiten UTTJ. Durch Umformungen erhalt man
'Nl
+
{n7rjf-2Njnn nTTi
J 3= 1
j^2 -^
J j=l
E
J 3=1
-f UTTj -
2Nj
ThTTi
-^ A^2 •
1 '^^3
Wenn (6.1) zutrifft, lasst sich die Verteilung von T approximativ angeben: Satz von Pearson^ Unter der Voraussetzung (6.1) konvergiert die Verteilungsfunktion von T fiir n —> oo gegen die Verteilungsfunktion einer x^Verteilung mit J — 1 Freiheitsgraden. ^Karl Pearson (1857-1936)
6.5.
ANPASSUNGS- UND UNABHANGIGKEITSTESTS
271
Nach dem Satz von Pearson gilt flir hinreichend grofie n rp appr ^^2
Xj-i.
Man approximiert deshalb die Quantile von T durch die der Xj_i-Verteilung. Als Faustregel verwenden wir: UTTJ > 5 flir alle j .
6.5.2
x^" Anpassungst est s
Sei X ein beliebig skaliertes Merkmal, und sei Xi^,..,Xn eine Stichprobe aus X, X sei stetig oder diskret verteilt. Man betrachtet eine vollstandige Zerlegung A i , . . . , A j des Tragers von X. 1. X -Anpassungstest fiir gegebene Wahrscheinlichkeiten Gegeben seien die Wahrscheinlichkeiten T T I , . . . , TTJ, X^3 ] / == I ^J — 1' ^^^ das Testproblem iJo : P{X € Aj) = TTj flir j = 1,2,..., J
gegen
Hi : nicht HQ .
Der x^-Anpassungstest ist in der folgenden Testbox zusammengefasst:
Verteilungsannahme
Trager von X in J Teilmengen zerlegt
Nullhypothese
HQ:
P{XeAj)
Gegenhypothese
Hi :
nicht HQ
Prufgrofie
^^IS'^J'"
HQ ablehnen, falls
T > x5-l,l-a
= 7rj fur j - 1,2,..., J
|
1
Beispiel 6.9 (Fortsetzung): Bezeichne X das Ergebnis eines Wurfs mit dem zu uberprufenden Wilrfel. Als Zerlegungsmengen fiir den y^-Test wdhlen wir die Mengen A^- = {j}, j = 1 , . . . , 6. Zu testen sind dann die Hypothesen HQ : P{X = j ) = - , j =z 1 , . . . , 6,
gegen Hi : nicht HQ .
Die Priifgrofle lautet
T=y ^ - n =y ^ - 5 0 =
^YN'-50.
272
6. HYPOTHESENTESTS
HQ wird abgelehnt, wenn die Priifgrofie T > xi i - a ^^^- Speziell zum Signifikanzniveau von a = 0.1 wird HQ abgelehnt, wenn T > X5,o.9 — 9-24. Aus einer Stichprobe der Ldnge n = 50 stammen die folgenden Beobachtungen: 3 Nj
1 14
2 7
3 10
4 6
5 8
6 5
EL 23.52 5.88 12.00 4.32 7.68 3.00 niTj Die Summe der letzten Zeile ist Y^j=i :^ = 56.4. Der Wert der Priifgrofie betrdgt also 56.4 — 50 = 6.4. Er ist nicht grofier als das xi^o.g-Q'^o^ntiL Folglich kann HQ nicht abgelehnt werden. Die Hypothese, dass der Wiirfel fair ist, steht nicht im Widerspruch zu den Daten. Bemerkungen 1. Bei der konkreten Anwendung des x^-Anpassungstests mlissen zunachst die Zerlegungsklassen festgelegt werden. Hat das Merkmal nur endlich viele Werte, so liefern seine moglichen Auspragungen eine erste natiirliche Einteilung in Klassen. 2. Der Test gilt nur asymptotisch. Um eine hinreichende Approximation der asymptotischen Testverteilung zu erreichen, diirfen die Klassen nicht zu schwach besetzt sein. Als Faustregel wird liblicherweise m^j > 5 fiir alle j gefordert. Wenn die Faustregel verletzt ist, fasst man die Zerlegungsklassen so lange zusammen, bis die Faustregel fiir die neuen, groi3eren Klassen erfiillt ist. Der Test verliert hierdurch jedoch an „Gute", das heifit, die Wahrscheinlichkeit, eine nicht zutreffende Nullhypothese abzulehnen, wird geringer. 3. Der x^-Anpassungstest ist verteilungsfrei, d.h. die Priifgrofie hat eine asymptotische Verteilung, die nicht von der Verteilung von X abhangt. Betrachten wir nun ein Beispiel fiir die Anpassung an eine stetige Verteilung. Beispiel 6.11 (Verteilung eines Fehlers): Zu untersuchen ist die Abweichung von einem Sollwert, z.B. beim Abfallen eines Getrdnks. Sei X die Abweichung vom Sollwert. Es soil uberpriift werden, ob X normalverteilt mit Erwartungswert 0 und Varianz 25 sein kann. Deshalb lautet die Nullhypothese HQ : X ^ N{0,25) oder gleichbedeutend HQ:\xr.N{^,l). 0
Zundchst werden Intervallunterteilungen vorgenommen. Wir zerlegen den Trdger von X, derTx — M ist, in endlich viele Intervalle Aj = [a^-i, a^f. Speziell seien
6.5.
273
ANPASSUNGS- UND UNABHANGIGKEITSTESTS
Ai =] - oo, -3.5[, A4 = [-1.5, -0.5[, A7 = [1.5, 2.5[,
A2 = [-3.5,-2.5[, ^3 = [-2.5,-1.5[, A5 = 1-0.5, 0.5[, A6 = [0.5, 1.5[, As = [2.5,3.5[, Ag = [3.5, CX)[
gewahlt. Die Wahrscheinlichkeiten nj — Pi^X e Aj) unter der Nullhypothese erhalten wir aus der Tabelle 4 der Standard-Normalverteilung: = = = 7r7 = = ne = -
TTi = TT9
7r2 = 7r8 TTS 7r4 TTS
P ( i X > 3.5) P(2.5 5 fiir alle j,k = 1,2 offenbar erfullt ist. Die Prufgrofle hat den Wert
=
{NuN22-Ni2N2lf Ni,N2.N.iK2 (80 • 60 - 65 • 45)^ 250= 3.695. 145 • 105 • 125 • 125
Fiir a = 0.05 ist der kritische Wert Xi,o.95 — ^'^^- ^^ 9'^^^ ^ < Xi,o.95- ^^^^ wird die Hypothese, dass die Merkmale Bekanntheitsgrad des Kandidaten und Wohnsitz des Wahlberechtigten unabhdngig sind, nicht abgelehnt. Beispiel 6.13 (Lohngruppe und Geschlecht): In einem Industriebetrieb werden 500 Beschdftigte zufdllig ausgewdhlt. Sie verteilen sich wie folgt auf Geschlechter und Lohngruppen:
280
6. HYPOTHESENTESTS
weiblich 7= 1 .. ,. , mannltch 3=2
Geschlecht
Lohngruppe II III k=2 k=3
I k=l
Nok
N.k
^•
190
70
20
280
110
80
30
220
300
150
50
500
Die Behauptung, dass in diesem Betrieb die Lohngruppe unabhdngig vom Geschlecht ist, soil uberpriift werden. Dazu wird ein x^- Unabhdngigkeitstest zum Niveau a — 0.01 durchgefuhrt Als Prufgrofie ist /
2
\j=i
3
-
k=i
^2
Nj.N.k
ZU berechnen. Zundchst stellen voir fest, dass die Faustregel fiir den approximativen Test ^'^ "^ > 5 fiir alle j und k erfullt ist:
1
1 168
k 2 84
3 28
2
132
66
22
n
J
Den Wert der Testgrofie berechnen wir mithilfe der folgenden Arbeitstabelle:
1
1 0.430
k 2 0.117
3 0.029
2
0.183
0.194
0.082
7V2
j
Die Prufgrofie hat den Wert T = 500(1.035-1) = 17.5. Aus J = 2 und K = 3 folgt {J — 1){K — 1) = 2. Zu einem Niveau von a = 1% betrdgt der kritische Wert X2,o.99 — 9.210. DaT = 17.5 im kritischen Bereich liegt, wird die Nullhypothese abgelehnt. Zwischen den Merkmalen Geschlecht und Lohngruppe besteht ein signifikanter Zusammenhang.
6.6.
ERGANZUNGEN
6.6
281
Erganzungen
6.6.1
Vergleich mehrerer Erwartungswerte (einfache Varianzanalyse)
Bei vielen praktischen Fragestellungen mtissen nicht nur zwei, sondern mehrere Mittelwerte miteinander verglichen werden. Wir betrachten hierzu r Zufallsvariable Xi, X 2 , . . . , X^ und testen die Gleichheit ihrer Erwartungswerte. Voraussetzung fiir die Giiltigkeit des folgenden Tests ist, dass diese Zufallsvariablen normalverteilt sind und alle die gleiche Varianz besitzen. Die gemeinsame Varianz a^ ist jedoch ebenso wie die Erwartungswerte / ^ i , . . . , /i^ unbekannt. Unser Testproblem lautet H^ J^i
: fii = fX2 = " ' = l-t'r (d.h. alle Erwartungswerte sind gleich) gegen : nicht HQ (d.h. mindestens zwei Erwartungswerte sind verschieden).
Aus jeder der r Zufallsvariablen liege eine Stichprobe vor, ^n,^i2i. • •»^ini -^21, ^22, •. •, X2n2
Xri,Xr2,
• • •,^rrir
Stichprobe aus Xi der Lange n i , Stichprobe aus X2 der Lange n2 ,
Stichprobc aus Xr der Lange Ur ,
und die r Stichproben seien voneinander unabhangig. Insgesamt sind es also n = ni + 712 + . . . + rir unabhangige Beobachtungen. Es gilt der Streuungszerlegungssatz
SSG = SST + SSE mit den Bezeichnungen
^3
= —IZ^i^'
n^ ^
j = l,...,r,
^
n
282
6. HYPOTHESENTESTS
SST
=
^njiXj-X)' }=i
SSE =
YlJ2(^Ji-^j)' j=l
i=X
^^^ = ED^^'-^)' 3=1
z=l
Dabei ist SST die Quadratsumme der Abweichungen der einzelnen Mittelwerte Xj vom Gesamtmittelwert X, SSE ist die Quadratsumme der Abweichungen der Beobachtungen der einzelnen Stichproben von ihrem jeweiligen Mittelwert, und SSG ist die Quadratsumme der Abweichungen aller Beobachtungen vom Gesamtmittelwert."^ Der Streuungszerlegungssatz erlaubt es, die Streuung der vereinigten (= „gepoolten") Stichprobe in zwei Summanden zu zerlegen, einen Term der Streuung zwischen den Stichproben und einen Term der Streuung innerhalb der Stichproben. Falls HQ richtig ist, gilt SST (72(r-l)
Xr-l
SSE a'^{n — r)
und
Xn—r '>
und diese zwei Zufallsvariablen sind unabhangig. Demnach hat der Quotient aus den beiden eine F-Verteilung mit r — 1 und n — r Freiheitsgraden, T{X
ii5
>
^rur)
SST SSE
n-r r-1
•^r—ljU—r
Wenn HQ zutrifft, steht zu erwarten, dass SST einen relativ kleinen Wert annimmt. Wir verwenden T als TestgroBe und lehnen HQ ab, wenn T einen kritischen Wert k liberschreitet. Zum Signifikanzniveau a wahlt man fiir k das Quantil
Fr-l^n-r.l-a-
Beispiel 6.14 (Einkommen und Studienabschluss): Bei Akademikern mit den Abschlussen Diplom-Kaufmann, Diplom-Volkswirt bzw. Diplom-Mathematiker wurden die Gesamteinkommen in den ersten beiden Jahren der Berufstdtigkeit erhoben (in Tausend €): 86 DipL-Kfm. Dipt. - Volksw. 64 69 Dipl.-Math.
81 82 88
91 70 77
74 83 81 74 67 82 79
^Die Abkiirzungen SST, SSE und SSG kommen aus dem Englischen. Ihnen liegt die Vorstellung zugrunde, dass die r Stichproben die Ergebnisse von r Experimenten darstellen, in denen eine zu untersuchende GroCe verschiedenen Einfliissen („Behandlungen", englisch: treatments) ausgesetzt wird. SST steht dann fiir Sum of Squares for Treatments, SSE fiir Sum. of Squares for Errors, SSG fiir Grand Sum of Squares.
6.6.
ERGANZUNGEN
283
Es bezeichne Xji das Einkommen des i-ten Mitglieds der j-ten Gruppe. Wir nehmen an, dass die Xji Realisationen unabhdngiger N{^j^a'^)-verteilter Zufallsvariablen sind, und testen unter dieser Annahme die Hypothese „Das durchschnittliche Einkommen ist in alien Gruppen gleich". a sei 5%. Filr die Klassenmittel erhalt man xi = -415 = 83, 5
X2 = -438 = 73 6
und
xs = -395 = 79. 5
Das Gesamtmittel ist dann 16
16
16
Damit haben SST und SSE die Werte SST
=
5 • (83 - 78)2 ^ 5 . (73 _ 73)2 ^ 5 . (79 _ 7g)2 ^ 28O,
SSE
=
158 + 272 + 194 = 624,
und der Wert der Testgrofle ist gleich SST SSE
n-r r - 1
280 624
16 - 3
= 2.92.
Aus einer Tabelle der F- Verteilung (Tabelle 7 im Anhang) erhalt man den kritischen Wert F2,13,0.95 = 3.81. Wegen T = 2.92 < 3.81 = F2,i3,o.95 kann die Nullhypothese HQ : fii = 1^2 = Ms nicht abgelehnt werden. Auf der Basis der beobachteten Daten Idsst sich also kein statistisch (zum 5%-Niveau) signifikanter Einkommensunterschied zwischen den drei verschiedenen Studienabschliissen feststellen. Der hier beschriebene Test auf Gleichheit von Erwartungswerten wird auch einfache Varianzanalyse genannt. Diese Bezeichnung bezieht sich auf die Konstruktion der TestgroBe als Quotient der zwei Summanden des Streuungszerlegungssatzes. Flir weitere Verfahren der Varianzanalyse sei auf die Literatur am Kapitelende verwiesen.
6.6.2
Vergleich mehrerer Varianzen
Im Abschnitt 6.3.2 wurden Tests flir den Vergleich zweier Varianzen behandelt. Oft ist es von Interesse, bei mehr als zwei Zufallsvariablen die Hypothese der Varianzhomogenitat, d.h. der Gleichheit aller Varianzen, zu iiberprtifen.
284
6. HYPOTHESENTESTS
Seien Xi,... ,Xr Zufallsvariable mit Xj ~ N{iXj,a'^) flir j = 1 , . . . , r. Wir betrachten das Testproblem HQ : aj = a2 = ... = a'^ gegen
Hi : nicht HQ .
Hi besagt, dass mindestens zwei der Varianzen verschieden sind. Um HQ ZU testen, mogen r unabhangige Stichproben vorliegen, ^11,-^12, • • • 5 Xin^
Stichprobe aus Xi der Lange rii,
^21, ^22? • • • > ^2n2
Stichprobe aus X2 der Lange n2 ,
Xri,Xr2y •. •,^rrir
Stichprobc aus Xr der Lange rir •
Sei n = rii -\-... -{-rir und
3
i=l
•?
i=i
fur j = 1 , . . . , r. Als TestgroBe verwenden wir nach Bartlett^
wobei
Wenn alle geschatzten Varianzen Sj'^ den gleichen Wert annehmen, ist offenbar T = 0. Die Testgrofie T besitzt eine asymptotische x^-Verteilung mit r — 1 Freiheitsgraden,
Uberschreitet T einen kritischen Wert, der der x^-Tabelle (Tabelle 5) zu entnehmen ist, so wird HQ abgelehnt. Beispiel 6.16: Aus drei unabhdngigen Stichproben jeweils der Ldnge 40, die aus drei normalverteilten Zufallsvariablen gezogen wurden, ergab sich Sf
= 14.2,
^Maurice S. Bartlett (1910-2002)
52*2 = 1 2 . 1 ,
Sf
= 16.7.
6.6.
285
ERGANZUNGEN
Fiir die Testgrofie berechnen wir C =
1 3(3 - 1)
V^
L
^ 4 0 - 1
1.0114
+ 1 = 1.0114,
120 -
39 117-In ( —(14.2-1-12.14-16.7)
- 3 9 • (ln(14.2) -h ln(12.1) -f ln(16.7)) =
0.9990.
Als kritischen Wert filr a = 0.05 ergibt sich aus der x^-Tabelle X2,o.95 — 5.991. Die Hypothese gleicher Varianzen kann nicht abgelehnt werden. Sowohl der F-Test zum Vergleich zweier Varianzen als auch der Bartlett-Test diirfen nur dann angewendet werden, wenn die Annahme normalverteilter Zufallsvariablen gerechtfertigt ist. Bestehen hieran Zweifel, sind andere Tests wie der Test von Levene (vgl. etwa Hartung et al. (2002)) vorzuziehen. Der Test von Levene ist auch in SPSS implementiert.
6.6.3
Vergleich mehrerer Wahrscheinlichkeiten
Im Abschnitt 6.4.2 wurde ein Test zum Vergleich zweier Wahrscheinlichkeiten (oder Anteilswerte) nx und ny eingefiihrt. Oft sind aber mehr als zwei Wahrscheinlichkeiten zu vergleichen. Der nachfolgende „Homogenitatstest" dient dem Vergleich von r Wahrscheinlichkeiten. Wir setzen voraus, dass Xi, ^ 2 , . . . , Xr Zufallsvariablen sind und Xi ^ B (1, TT^) fiir i = 1,2,..., r gilt. Zu testen ist das Testproblem TTr gegen
HQ : TTi = 7r2
Hi : nicht HQ .
Aus jeder der r Zufallsvariablen Xj liege eine Stichprobe vom Umfang Uj vor. Die insgesamt n == ni -f . . . n^ Zufallsvariablen seien vollstandig unabhangig. Wir schatzen die TTJ mittels ^3 = —Y^^3i^
j=:l,...,?
i=l
Sind alle Wahrscheinlichkeiten gleich, d.h. gilt TT^ = TT fiir j kann man TT mittels niTTi -f- . . . -}-
* = ^EE^.^ = j=l
i=l
rirltr
l , . . . , r , so
286
6. HYPOTHESENTESTS
aus der vereinigten (= „gepoolten") Stichprobe schatzen. Als TestgroBe verwendet man Z^
idni)
3= 1
Uj
7r(l-7r) ^
'
Bei Giiltigkeit von ifo besitzt T approximativ eine x^-Verteilung mit r — 1 Preiheitsgraden, T ~
Xr-l-
Man lehnt ifo ab, wenn T einen kritischen Wert k iiberschreitet. Dabei ist A: das (1 — a)-Quantil der Xr-i'Verteilung. Beispiel 6.15: Eine Standardoperation (z.B. Blinddarmentfernung) wird an einem Grofiklinikum von drei verschiedenen Operationsteams durchgefuhrt; dabei kann eine Komplikation auftreten. Insgesamt 95 Operationen wurden daraufhin beobachtet. Die Komplikation trat auf bei 9 von 30 Operationen des Teams A, 12 von 25 Operationen des Teams B, 15 von 40 Operationen des Teams C, Man teste (mit a = 0,05^, ob die Wahrscheinlichkeit des Auftretens der Komplikation bei alien drei Operationsteams gleich ist. Welche Annahmen muss man treffen, um den obigen Test anwenden zu konnen? Das Auftreten (bzw. Nichtauftreten) der Komplikation muss bei den 95 betrachteten Operationen stochastisch unabhdngig sein. Als Wert der Testgrofie erhalt man J- =
36/1 _ 36^ 95 V-^ 95/
~ ^'^^ '
Wegen T = 1.88 < X2,o.95 — ^-^^ kann HQ nicht abgelehnt werden.
E r g a n z e n d e L i t e r a t u r zu K a p i t e l 6: Die Grundbegriffe der Testtheorie und ausgewahlte spezielle Tests werden in alien Lehrbiichern der schliefienden Statistik fur Wirtscliafts- und Sozialwissenschaften behandelt. Wir verweisen auf die im Anschluss an Kapitel 1 zitierte Literatur. Einen Uberblick liber sehr viele Testverfahren gibt Sachs (2002). Eine klassische Darstellung der Testtheorie ist Lehmann (1986). Eine Einflihrung in die Varianzanalyse bietet Kapitel XI in Hartung et al. (2002). Ein grundlegendes Werk zur Varianzanalyse ist Scheffe (1959). Empfehlenswert ist auch Fisher und McDonald (1978).
6.6.
ERGANZUNGEN
287
D'Agostino und Stephens (1986) geben einen guten Uberbhck iiber Anpassungstests. x^-Verfahren werden in Greenwood und Nikuhn (1996) behandelt. Ftir die weitere Analyse von Kontingenztabellen sei auf Andrefi et al. (1997) und Agresti (1984) verwiesen.
288
6.7
6. HYPOTHESENTESTS
Anhang: Verwendung von Excel und SPSS
Excel und SPSS geben als Ergebnis eines Tests in der Regel den so genannten p-Wert aus. Der p-Wert stellt eine Wahrscheinlichkeit dar, und zwar das kleinste a, bei dem die Nullhypothese zum Signifikanzniveau a abgelehnt werden kann. Flir die Durchfiihrung eines Tests zum Niveau a bedeutet dies: Die Nullhypothese wird abgelehnt, wenn der berechnete p-Wert nicht groCer als das vorgegebene a ist. Gaufi-Test (Beispiel 6.2, Seite 238): Excel I Die Daten zu diesem Beispiel sind als Datei B e i s p i e l 6 2 . x l s im Internet erhaltlich. Um den Gaufi-Test durchzufiihren, wendet man die ExcelFunktion GTEST(Matrix;x;Sigma) auf die gegebene Datentabelle an: GTEST(A2:A26;55;4) ^ 1 - $ ( ^ ^
•^^)
Excel liefert hier den Wert p = 0.0401, also kann die Nullhypothese zum Niveau a = b% abgelehnt werden. Zweistichproben-t-Test (Beispiel 6.3, Seite 254): Excel I Die Daten des Beispiels 6.3 stehen im Internet unter B e i s p i e l 6 3 . x l s zur Verftigung. Flir den Zweistichproben-t-Test bietet Excel die Funktion TTEST(...). Angewandt auf die Datentabelle erhalt man den p-Wert TTEST(A2:A16;B2:B11;2;2) =0.1369 und kann folglich HQ nicht zum 5%-Niveau ablehnen. SPSS I Der Zweistichproben-t-Test in SPSS verlangt eine bestimmte Strukturierung der Daten; vgl. B e i s p i e l 6 3 . s a v (vgl. Pokropp (2002b)). Dazu muss eine so genannte Gruppenvariable eingefiihrt werden. In diesem Beispiel wurde die Gruppenvariable als gruppe deklariert; sie hat zwei mogliche Auspragungen, im Beispiel 1 fur X und 2 fiir Y. Unter ergebnis sind die urspriinglichen Daten abgelegt. Zur Durchfiihrung des Tests geht man auf ANALYSIEREN/MITTELWERTE V E R G L E I C H E N / T - T E S T BEI UNABHANGIGEN STICHPROBEN. Ist der Test ausgewahlt, erscheint eine Box, in welcher eine
Variable gruppe als Gruppenvariable ausgewahlt werden muss. AnschlieBend klickt man auf Gruppe def , gibt „1" bei Gruppe 1 und „2" bei Gruppe 2 ein und klickt auf Weiter. In der Ausgangsbox muss schliefilich nur noch die Variable ergebnis als Testvariable festgelegt und auf OK geklickt werden, um den Test auszuftihren. SPSS liefert auch den Wert der t-Statistik. Im Beispiel betragt er 1.541. Das Ergebnis ist unter Beispiel63.spo im Internet erhaltlich. V e r b u n d e n e S t i c h p r o b e n (Beispiel 6.4, Seite 258): Excel I Die Daten sind unter B e i s p i e l 6 4 . x l s gespeichert. Dabei findet man
6.7.
ANHANG: VERWENDUNG VON EXCEL UND
SPSS
289
die Ergebnisse der Befragung nach der Werbekampagne (X) in A2:A16 abgelegt, die Ergebnisse vor der Werbekampagne (Y) in B2:B16. Der p-Wert des Tests wird in Excel durch TTEST(B2:B10;C2:C10;2;1) berechnet. SPSS I Der gleiche Datensatz ist unter B e i s p i e l 6 4 . sav im SPSS-Format gespeichert. Uber ANALYSIEREN/MITTELWERTE V E R G L E I C H E N / T - T E S T BEI GEPAARTEN STICHPROBEN. .. wird der Zweistichproben-t-Test bei verbundenen Stichproben ausgewahlt. Daraufhin erscheint eine Box, in der die Variablen X und Y als verbundene Variablen eingetragen und durch OK bestatigt werden, um den Test durchzufiihren. Das Testergebnis ist unter B e i s p i e l 6 4 . spo gespeichert. Chi-Quadrat-Anpassungstest (Beispiel 6.9, Seite 269): Der x^-Anpassungstest ist in SPSS als Option vorhanden. Die Daten des Beispiels 6.9 (Prtifung eines Wiirfels) sind als SPSS-Datei unter B e i s p i e l 6 9 . sav gespeichert. Die Zufallsvariable wird dort als Ergebnis[wurf] bezeichnet. Um den Test durchzufiihren, wahlt man ANALYSIEREN/NICHTPARAMETRISCHE T E S T S / C H I - Q U A D R A T . ... Daraufhin erscheint die CHI-QUADRAT-BOX, in
der ERGEBNISSE[WURF] als Testvariable auszuwahlen und mit OK zu bestatigen ist, um den Test durchzufiihren. Die Ausgabe umfasst zwei Tabellen: Die drei Spalten der ersten Tabelle enthalten die beobachteten und die erwarteten Werte sowie die empirischen Residuen. Die zweite Tabelle liefert das Ergebnis des Tests, in diesem Fall den Wert 6.4 fiir die Testgrofie. Mit der Funktion IDF.CHISQ(0.9,5) = 9.24 wird das 90%-Quantil der asymptotischen xi-Verteilung bestimmt. Wegen 6.4 < 9.24 wird die Nullhypothese nicht abgelehnt. Der Term Asymptotische Signiflkanz in der zweiten Tabelle stellt den entsprechenden p-Wert dar; vgl. die Datei Beispiel69.spo. C h i - Q u a d r a t - U n a b h a n g i g k e i t s t e s t (Beispiel 6.12, Seite 279): Excel I Der x^-Unabhangigkeitstest wird iiber die Funktion CHITEST(Beob_Messwerte;Erwart_Messwerte) durchgefiihrt. Die Daten sind in der Datei B e i s p i e l 6 1 2 . x l s abgespeichert. Der Aufruf ergibt hier CHITEST(B3:C4;B8:C9) = 0.05459. Die Nullhypothese, dass die Merkmale Wohnort und Bekanntheitsgrad der Kandidaten unabhangig sind, kann zum Niveau a = 5% nicht abgelehnt werden. SPSS I In der Datei Beispiel612.sav sind zwei Variablen definiert, wohn fiir Wohnsitz und kand fiir Kandidat. Im Menii wahlt man ANALYSIEREN/ DESKRIPTIVE STATISTIKEN/ KREUZTABELLEN und gibt in der Box K R E U Z TABELLEN bei ZEILEN die Variable wohn und bei SPALTEN die Variable kand ein. Danach ist in STATISTIK der x^-Unabhangigkeitstest anzukreuzen. Nach Anklicken von W E I T E R erscheint erneut die Ausgangsbox KREUZTABELLEN, in der ZELLEN anzuklicken ist. Bei ZELLEN ist unterhalb von BEOBACHTET auch ERWARTET anzukreuzen, damit in der Ausgabe sowohl die beobachteten als auch die erwarteten Werte angezeigt werden. Durch Anklicken von OK
290
6. HYPOTHESENTESTS
in der Ausgangsbox werden die Kontigenztafel sowie die Ergebnisse unterschiedlicher x^-Tests ausgegeben. Das Ergebnis ist unter Beispiel612.spo gespeichert.
Kapitel 7
Lineare Regression In vielen Anwendungen der Statistik stellt sich die Aufgabe, eine Variable durch eine oder mehrere andere Variable zu „erklaren", indem ein - in der Kegel approximativer - funktionaler Zusammenhang zwischen den Variablen nachgewiesen wird. Zu diesem Zweck modelliert man die Werte der „zu erklarenden" Variablen als Funktion der Werte der anderen, so genannten „erklarenden" Variablen und eines Storterms. Der Storterm beschreibt die als unsystematisch oder zufallig angesehenen Abweichungen vom exakten funktionalen Zusammenhang. Die Funktion legt man bis auf gewisse Parameter vorweg fest und schatzt diese Parameter dann aus den Daten. Haufig kann - zumindest in einem eingeschrankten Wertebereich - ein approximativer linearer Zusammenhang der Variablen unterstellt werden. Dies fiihrt auf das besonders einfache Modell einer afhn-linearen Funktion. Die Koeffizienten des linearen Ansatzes sind dabei als Parameter zu schatzen. Im Fall nur einer erklarenden Variablen spricht man von linearer Einfachregression (oder einfacher linearer Regression), im Fall mehrerer erklarender Variablen von linearer Mehrfachregression (oder multipler linearer Regression). In diesem Kapitel behandeln wir ausflihrlich die lineare Einfachregression, insbesondere die Schatz- und Testprobleme, die sich fiir die Parameter ergeben. AuBerdem geben wir einen kurzen Abriss der Mehrfachregression.
7.1
Lineare Einfachregression
Bei der linearen Einfachregression geht man davon aus, dass an n Beobachtungseinheiten die Werte {xi^yi), i = 1 , . . . , n, gemessen wurden. Dabei bezeichnen die yi die Werte einer zu erklarenden Variablen und die Xi die 291
292
7. LiNEARE REGRESSION
Werte einer erklarenden Variablen. Beide Variable werden als metrisch, d.h. mindestens intervallskaliert, vorausgesetzt. Die zu erklarende Variable bezeichnet man auch als abhangige Variable, als erklarte Variable oder als Regressand. Die erklarende Variable wird auch unabhangige Variable oder Regressor genannt.
7.1.1
Das Modell der linearen Einfachregression
Beim Modell der linearen Einfachregression wird unterstellt, dass die yi Werte von Zufalls variablen Yi sind, die der Gleichung yi=Po+
PiXi + Ui,
i = 1,..., n,
(7.1)
und folgenden weiteren Annahmen geniigen: • Die Werte x i , . . . ,0;^ des Regressors sind deterministisch, d.h. fest gegeben. Sie sind nicht alle gleich, d.h. es gilt s'^ = ^ XIILiC^^ — x)^ > 0. • f/i,..., C/n sind Zufallsvariable, die allerdings nicht beobachtet werden konnen. Sie werden als Storterme oder Residuen bezeichnet. Ftir ihre gemeinsame Verteilung gilt die Annahme: E[Ui] = V[Ui] = Covpi, Uj] =
0 a^ 0
ftir alle i, fur alle z, fiir alle i y^ j .
Aus den Annahmen folgt sofort, dass E[Yi\ V[Yi\ Cov[Yi,Yj]
= = =
Po + PiXi fur alle i, a^ ftir alle i , 0 ftir alle i^j.
Das Modell der linearen Einfachregression besitzt drei Parameter: die beiden Regressionskoefflzienten /3o und Pi sowie die Residualvarianz a'^. Zur Schatzung der Parameter stehen die Beobachtungen (xj, y^), z = 1 , . . . , n, zur Verftigung. Beispiel 7.1: Der Zusammenhang zwischen dem verfiigbaren monatlichen Einkommen X von Haushalten und ihren monatlichen Ausgaben Y fiir Nahrungsmittel soil untersucht werden. Wir betrachten dazu einen (fiktiven) Datensatz von n = 10 Haushalten (Angaben jeweils in €): i
1
Vi
1296 3413
x%
2 796 2276
3
4
1753 5374
1344 4410
5 569 1413
6 1257 3862
7 636 1764
8
9
10
1546 4550
1132 3022
1464 3868
7.1.
LiNEARE EiNFACHREGRESSIQN
293
Um den moglichen Zusammenhang abzubilden, unterstellen wir eine lineare Beziehung yi = Po + f3iXi, z = l,...,10. (7.2) Hier gilt fiir jedes i dxi
d.h. der Parameter /?i gibt an, um wie viel Euro sich yi verdndert, wenn Xi um einen Euro erhoht wird. /?i wird als die marginale Ausgabenquote in Bezug auf das Einkommen bezeichnet. Aus okonomischen Griinden ist /3i > 0 zu erwarten. Fur die obigen Daten ist die lineare Beziehung (7.2) jedoch nicht, jedenfalls nicht exakt, erfullt. Fiir Daten von real beobachteten Haushalten gilt dies fast immer, da deren Ausgaben fiir Nahrungsmittel aufier vom Einkommen auch von zahlreichen anderen Bestimmungsgrofien abhdngen. An die Stelle des exakten linearen Ansatzes (7.2) setzt man deshalb den linearen Regressionsansatz (7.1), dessen Storterme Ui die Abweichungen vom exakten linearen Modell bezeichnen. Wir wollen das Beispiel 7.1 weiterfiihren und dabei eine Modifikation des Modells der einfachen linearen Regression, die loglineare Einfachregression darstellen. Beispiel 7.2: Sowohl im Ansatz (7.2) als auch im Regressionsansatz (7.1) ist der Parameter Pi fiir alle Haushalte und damit fiir alle Werte der Einkommen Xi konstant. Der deutsche Statistiker Engel ^ stellte jedoch fest, dass die Ausgaben fiir Nahrungsmittel von Haushalten mit zunehmendem verfiigbaren Einkommen nur unterproportional ansteigen. Diese Feststellung wird hdufig als „Engelsches Gesetz^' bezeichnet. Um das Engelsche Gesetz empirisch zu iiberpriifen, verwenden wir die folgende Variante des linearen Regressionsmodells. Statt der Grofien Xi und yi setzen wir ihre Logarithmen in eine lineare Beziehung, \xiyi=Po^-pi\iiXi, 2 = 1 , . . . , 10. (7.3) Die Parameter /3o und Pi unterscheiden sich natiirlich von den Parametern Po und pi in (7.2) und (7.1). Fiir jedes i gilt - _ dlnyi _ Xj dyi dlnxi yi dxi Pi wird als Elastizitat bezeichnet, genauer, als Einkommenselastizitdt der Nahrungsmittelausgaben; sie gibt an, um wie viel Prozent sich die Nahrungsmittelausgaben dndern, wenn das Einkommen um ein Prozent steigt. Der 1 Ernst Engel (1821-1896)
294
7. LiNEARE REGRESSION
Ansatz unterstellt eine konstante Elastizitdt fiir alle Werte von xi, sieht aber ein Absinken der marginalen Ausgaben fiir Nahrungsmittel mit wachsendem Einkommen vor, wie es dem Engelschen Gesetz entspricht. Da die Daten auch diesem Modell (7.3) nicht exakt folgen, erweitern wir es zum loglinearen Regressions ansatz InYi = ^0 + /3i • \nxi -h [7^,
7.1.2
z = 1,... ,n.
P u n k t s c h a t z u n g der KoefRzienten
Aus den n beobachteten Datenpaaren (xi, y i ) , . . . , (x^, Vn) sollen /3o, Pi und (7^ geschatzt werden. K Q - S c h a t z u n g der RegressionskoefRzienten Nach der Methode der Kleinsten Quadrate (KQ, englisch: LS fiir Least Squares) minimiert man zu diesem Zweck die Funktion
Q{Po.Pi) =
J2{yi-Po-f3iXi)'
i=i
beztiglich /3Q und /3i, d.h. man wahlt /?o = Po und /3i = /3i so, dass die Summe QiPo, Pi) der quadrierten Abstande zwischen den Beobachtungen yi und dem hnearen Ansatz Po+PiXi minimal wird. Um PQ und pi zu bestimmen, werden die partiellen Ableitungen von Q gleich null gesetzt: -^^QiPoJi) 000 d
= - 2 ^ ( y , - / 3 o - / 3 i X , ) = 0,
(7.4)
i=l
QiPoJi) =
-2Y,Xiiyi-0o-PiXi)
Die erste Gleichung (7.4) ist genau dann erfiillt, wenn n
0 = Y.{yi - Po - Pixi) i=l n
=
"^Vi-nPo2=1
d.h. wenn ^0 = y - ^1^
n
piY^Xi, i=l
= O.
(7.5)
7.1.
LiNEARE EiNFACHREGRESSION
295
ist. Die zweite Gleichung (7.5) trifft genau dann zu, wenn n
0
=
^Xiivi
- po - Pi^i) 71
n
n
i=l
i=l
i=l
Setzt man PQ = y — Pix in die letzte Gleichung ein, so folgt n
J^^iVi /3i = ^ 4
nxy —•
Yl^l - ^^^ Der Nenner ist gleich ^17=1^1 — ^^^ = ^ 5 ^ , und dies ist nach Modellvoraussetzung grofier als null. Man priift anhand der zweiten Ableitungen von Q nach, dass bei Po und Pi wirklich ein Minimum vorliegt. Die so erhaltenen Werte PQ und Pi heifien KQ-Schatzwerte. Sie sind gleich den Regressionskoeffizienten der linearen Einfachregression (Regression zweiter Art) in der beschreibenden Statistik. Der KQ-Schatzwert Pi lasst sich offenbar auch durch die Formel n
Pi-- ~
Y,{xi
SXY «2
i=l •~
^X
-x){yi-y)
n
^{Xi-X)'^
beschreiben. Setzt man statt der realisierten Werte yi die Zufallsvariable Yi ein, erhalt man die KQ-Schatzer fiir PQ und Pi
E(x,-x)(y,-y)
Pi
i=i
bzw.
po =
Y-pix.
Der Einfachheit halber werden die KQ-Schatzer mit den gleichen Symbolen Po und Pi wie ihre Werte bezeichnet. Die beiden KQ-Schatzer besitzen einige giinstige Eigenschaften: Erstens sind sie erwartungstreu und konsistent fiir Po bzw. Pi. Zweitens hangen sie in linearer Weise von den Beobachtungen Yi,.,.,Yn ab. Drittens besitzen sie unter alien linearen erwartungstreuen Schatzern die kleinste Varianz. Diese Eigenschaften der KQ-Schatzer werden im Abschnitt 7.5.2 naher erlautert.
296
7. LiNEARE REGRESSION
Beispiel 7.1 (Fortsetzung): Wir schdtzen die Koeffizienten der linearen Regression der Ausgaben fur Nahrungsmittel auf das verfilgbare Einkommen. Aus den obigen Daten ergeben sich die Schdtzwerte /3o = 153.67,
01 = 0 . 3 0 .
Die geschdtzte Regressionsgleichung lautet y= 153.67 + 0.30-x. Den geschdtzten Koeffizienten $\ = 0.30 interpretiert man so: Von einem zusdtzlichen Euro Einkommen werden 30 Cent fur Nahrungsmittel ausgegeben werden. Beispiel 7.2 (Fortsetzung): Die lineare Regression der logarithmierten Ausgaben fur Nahrungsmittel auf das logarithmierte verfilgbare Einkommen ergibt ^ = -0.01,
/§i = 0 . 8 7 .
Die geschdtzte Regressionsgleichung lautet In 2/ = y
- 0 . 0 1 + 0.87-In a;,
= e-^'^'^x'-^'
d.h.
= 0.99.x0•«^
Dabei ist Pi = 0.87 der Schdtzwert fur die Einkommenselastizitdt rungsmittelausgaben.
der Nah-
Schatzung der Residualvarianz Neben den beiden Regressionskoeffizienten PQ und Pi enthalt das Modell der linearen Einfachregression noch einen dritten unbekannten Parameter, namlich die Varianz a^ der Storterme Ui. Man schatzt sie mithilfe der empirischen Residuen t/^, U,=Yi-Yi=Yi-{po + PiXi),
(7.6)
durch
Die Wurzel aus a^ stellt einen Schatzer flir die Standardabweichung a der Yi dar; sie wird als (geschatzter) Standardfehler der Regression bezeichnet. Zur Berechnung von a^ ist es nicht erforderlich, die Werte der Ui zu berechnen. Setzt man (7.6) und die Formel fur Po in a^ ein, erhalt man a
n
^, ^
n
=1
n
n-2
A, 1=1
n
n
'
^ ( y , - yf + Pi ^ ( x , - xf - 2pi ^ ( y , - y){xi - x) i=l
i=l
i=l
;^[4+/5;4-2ft.„] = ; ^ [ 4 - / j ? « ] .
7.1.
297
LiNEARE EiNFACHREGRESSION
da, sxY = Pis'x. Es folgt
(4-/5f4) = ; ^ ( 4 - f ^ ) .
n-2
Man sieht weiterhin, dass die Werte der Schatzer Po^ $1 und a^ nur von den funf GroBen _
1 ^
i n
X = — 2_^ Xi,
ni=i
1 ^
1 '^
^ ^=l
und
1 "" 5xy = - ] ^ (xi - x) {yi - y) i=l
abhangen. Varianzen der KQ-Schatzer Schatzer /3o und $1, Es gilt
Wir bestimmen nun die Varianzen der KQ-
Y,{xi-x){Y,-Y) Pi
1
i=l
^
"" z=l
da Er=i(^* "~ ^y^ ~ ^ Er=i(^^ — x) = O ist. Fiir die Varianz des Schatzers folgt
V[p,
] = {-^)^h^^ ^ - M ^ ^x = ^ — 2 "
n 51
n 5X
also VW]
-
'^'
-
'^^^ " ns\ -
'''
EU^Xj-xy
(7.7)
^net nQan (7.8)
298
7. LiNEARE REGRESSION
Abbildung 7.1: Regressionsgerade bei unterschiedlicher Streuung der erklarenden Variablen Die Genauigkeit beider Schatzer hangt proportional von o^ und umgekehrt proportional von s\ ab. Ist F[f7] = cr^ grofi, so streuen die Punkte stark um die Gerade. Ist V\U\ = cr^ hingegen klein, liegen die Punkte nahe an der Geraden, Der Ordinatenabschnitt /?o wird meist ungenauer geschatzt als die Steigung /?i der Regressionsgeraden. Insbesondere in den Wirtschaftswissenschaften sind die Werte des Regressors in der Regel grofier als eins; dann ist auch der Faktor ^ XliLi ^h ^ ^ ^^^ ^^^^ ^^^ beiden Varianzen unterscheiden, grofier als eins. Abbildung 7.1 zeigt zweierlei Daten (dicke bzw. diinne Punkte). Beide Datenwolken streuen in gleicher Weise in y-Richtung. In x-Richtung streuen die dlinnen Punkte allerdings weniger als die dicken, d.h. ihr s^ ist kleiner und fiihrt deshalb zu einer vergleichsweise grofieren Streuung der Regressionsschatzer $o und $i. Liegen die Abzissen der Punkte nahe x, so ist die Varianz s'x eher klein. Dies hat zur Folge, dass V[Pi] grofi ist. Fur eine verlassliche Schatzung der Steigung der Regressionsgeraden wird eine hinreichend grofie Streuung der erklarenden Variablen benotigt. Schatzung der Varianzen der KQ-Schatzer Setzt man in (7.8) und (7.7) fur den unbekannten Parameter cr^ den Schatzer a^ ein, erhalt man Schatzer fiir die Varianzen von /3o und $i, namlich 2 z2i=i ^i n sX
V0o] = ^'
und
V0i] =
(7.9) n sX
Die Standardabweichungen von PQ und Pi schatzt man durch
'^ffo =" ^\
und
"0^
" \ 1 n Sx
(7.10)
7.2.
299
INTERVALLSCHATZUNG UND T E S T S
BestimmtheitsmaB Als Mafi der Anpassungsgiite einer linearen Einfachregression dient - wie in der beschreibenden Statistik - das Bestimmtheitsmafi i?^
i:n-n[Y R' =
'-^
Y:y?-n{Yy
Sy
E? gibt den Anteil der durch die Regression erklarten Varianz 5? an der Gesamtvarianz Sy der abhangigen Variablen Y an. Es gilt 0 < ii^ < 1 sowie die einfach auszuwertende Formel
K'
SXY SXSY
=
{TXY)
Flir Einzelheiten zum Bestimmtheitsmafi und seiner Interpretation sei auf die Literatur zur beschreibenden Statistik (etwa Kapitel 5 in Mosler und Schmid (2005)) verwiesen. Das Schatzergebnis der Regression schreibt man mit den geschatzten Standardabweichungen der Regressionskoeffizienten und dem Bestimmtheitsmafi in der folgenden Form: R\
Beispiel 7.1 (Fortsetzung): Die geschdtzte lineare Regression der Ausgaben fiir Nahrungsmittel auf die verfiigharen Einkommen lautet mit den Standardabweichungen der Regressionskoeffizienten y
=
153.67 (85.76)
+
0.30-a;, (0.02)
R^ = 0.95, (7 = 91.22.
Beispiel 7.2 (Fortsetzung): Die geschdtzte Regression der logarithmierten Variablen ist Iny
7.2
=
-0.01 (0.43)
+
0.87 • In X, (0.05)
R^ = 0.97, a = 0.07.
Intervallschatzung und Tests
Um Konfidenzintervalle flir /3o, Pi und a^ konstruieren und Hypothesen liber die Parameter testen zu konnen, nimmt man zusatzlich an, dass die Residuen
300
7. LiNEARE R E G R E S S I O N
gemeinsam normalverteilt^ sind. Das Modell der linearen Einfachregression lautet dann ^i = /?o + PiXi + Ui fiir i = 1 , . . . , n , f/i,..., [/n gemeinsam normalverteilt mit Ui ~ Ar(0,a-2) fiir i = l , . . . , n , Cov[Ui,Uj] = 0, falls i 7^ j . Es folgt, dass die Yi gemeinsam normalverteilt sind und
Die Schatzer $0 und $1 sind als Linearkombinationen der normalverteilten Zufallsvariablen Yi ebenfalls normalverteilt (vgl. Abschnitt 3.3.1). Ihre Erwartungswerte und Varianzen kennen wir bereits. Deshalb gilt n 2L,i=l -^i
^^2
1
'^
BEWEIS Wir maximieren die Loglikelihood-Funktion beziiglich /?o, Pi und (7^. Die Dichte von Yi ist
V27rcr
7.5.
311
ERGANZUNGEN
fiir die Loglikelihoodfunktion ergibt sich deshalb n
li/3o,l3iy)
= =
Yl^n{f{yi\\/3o,Pi,a^)) J2\-
I n ( V ^ ) - Ha) - - L ( 2 / , - /3o -
ftx,)'
i=l
- n l n ( V ^ ) - nln(c7) - ^ Q ( / ? o , / ? i ) , wobei
(7.16) i=l
Die Loglikelihood-Punktion 1{PO,PI,(T^) ist an der Stelle /3o = Po und /3i = /3i genau dann maximal, wenn (5(/?o?/?i) £^u dieser Stelle minimal ist, d.h. wenn fiir pQ und /3i die KQ-Schatzer /3o und /3i gewahlt werden. Um den ML-Schatzer fiir a'^ zu bestimmen, berechnen wir
^l0oJua^)
^ -nln{V^)-^Q0oJi)
=
a^2Va^ n 2^
-1 +
' 2a4 jQil3o,l3i) ncr^
Nullsetzen dieser Ableitung und (7.16) liefert den ML-Schatzer fiir a^, namlich
n
i=l
D
7.5.2
Eigenschaften der Schatzer
In diesem Abschnitt betrachten wir einige allgemeine Eigenschaften der Punktschatzer /3o, Pi und a^. 1. Po und pi sind in den Beobachtungen Yi lineare Schatzer, d.h. sie haben n
jeweils die Form Yl WiYi mit geeigneten Koeffizienten Wi. 2. E[Po] = Po und E[Pi] = Pi, d.h. Po und pi sind erwartungtreu.
312
7. LiNEARE REGRESSION
3. Unter alien (in den Beobachtungen Yi^..,^Yn) linearen erwartungstreuen Schatzern fiir /SQ und /?i haben die KQ-Schatzer $o und $i die kleinste Varianz. Kurz: /3o und /3i sind BLUE fiir PQ und /?i. Dies ist das so genannte Gaufi-MarkofF-Theorem; siehe auch Abschnitt 5.5. 4. Es gilt E[a^] = cr^, d.h. a'^ ist erwartungstreu fiir a'^. 5. Der ML-Schatzer a-|^^ ist nicht erwartungstreu, jedoch asymptotisch erwartungstreu. 6. Die Schatzer ^o^ Pi^ ^'^ und a^^^ sind konsistent. BEWEIS
ZU 1.) Mit Wi := T^T—-.
^ - ^ ist
n
n
i=l
i=l
also ein linearer Schatzer. PQ = Y — Pix ist daher ebenfalls linear in den Y^. Zu 2.) Da Er=i(^^ -x)
=0 ist, gilt X;r=i ^^ = 0- Ferner gilt
2
= 1, Dies bedeutet
Pi =
Pi+Yl^i^^^ i=l n i=l
Der Schatzer Pi ist demnach erwartungstreu fiir pi. Fiir den Schatzer /3o zeigt man die Erwartungstreue analog. Zu 3.) Wir beweisen das GauB-Markoff-Theorem fiir Pi. Ein beliebiger linearer Schatzer hat die Form Pi = Y^CiYi, Er ist genau dann erwartungstreu fiir /?!, wenn fiir beliebige Werte der Parameter pi und PQ die Gleichung n
n
313
7.5. ERGANZUNGEN
d.h.
^1 = i^o X ] ^^ + ^1 XI ^^^^ i=i
i=l
erfiillt ist. Aquivalent ist die Gliltigkeit der beiden Bedingungen Y^^:=i Ci = 0 und ^27=1 ^^^* ~ •'•• U ^ unter alien linearen erwartungstreuen Schatzern fiir Pi den mit der kleinsten Varianz zu ermitteln, minimieren wir die Varianz von /3i,
i=l
i=l
unter den beiden Nebenbedingungen. Ein Lagrange-Ansatz liefert die Losung Wi .
^^2
Fiir $0 zeigt man das Theorem analog. Auf den Beweis der Aussagen 4 und 6 wollen wir hier verzichten. Aussage 5 folgt unmittelbar aus Aussage 4. D
7.5.3
Lineare Mehrfachregression in Matrizendarstellung
Unter Verwendung der Matrizenrechnung lasst sich das multiple lineare Regressionsmodell Ubersichtlicher darstellen: Die n Regressionsgleichungen Fi = /3o + PiXii + . . . + Pm^im + Ui,
z - 1,..., n,
kann man in kompakter Form als Y = X/3 + U schreiben. Hierbei ist 1
Yi
Xu
,u=
, X: Yn
1
, /? = _Un .
Xnl
r Pi 1
' Ui '
Xlr
.Pm \
Von der nx {m-\- 1)-Matrix X nehmen wir an, dass sie deterministisch (also fest gegeben) ist und den vollen Rang m + 1 besitzt. Die weiteren Annahmen des Modells lassen sich durch E[V] - 0
314
7. LiNEARE REGRESSION
sowie E[VV'] = aHn zusammenfassen, wobei I^ die (nxn)-Einheitsmatrix bezeichnet. Nimmt man zusatzhch eine gemeinsame Normalverteilung der St5rterme an, so gilt
Der Kleinste-Quadrate Schatzer /? = nimierung der Zielfunktion
,. ,/3m)' fur /? wird durch Mi-
{$Q,$I,.
n i=l
ermittelt, wobei (3 = (/?o,/3i,... ,/3m)' der Vektor der Variablen ist, liber die Q minimiert wird. Nach einigen Umformungen ergibt sich der Schatzer ^ als ^=:(X'X)-iX'Y. Die Kovarianzmatrix von /3 ist Cov[/3] = (72(X'X)-i. Schatzt man cr^ mittels
"^
1 =
7
.
.
—TT y ^ ( ^ i - y^o - ^iXii
n - (m + 1)
- . . . - PmXimf
,
^
SO ist a^ erwartungstreu flir cr^ und C ^ ( / 3 ) = (72(X'X)-i ein erwartungstreuer Schatzer flir die Kovarianzmatrix von /3. Aus der Hauptdiagonalen dieser Matrix entnimmt man die Schatzer flir die Varianzen von $j,j = 1,...,m. Die Wurzeln der Varianzschatzer sind Schatzer der Standardabweichungen. Tests liber die Werte der Regressionsparameter flihrt man ahnlich durch wie in Abschnitt 7.2.2 beschrieben; Konfidenzintervalle flir die einzelnen Parameter werden wie in Abschnitt 7.2.1 konstruiert. Prognose Aus den Daten (x^i,..., Xim^ yi), i = 1 , . . . , n, sei eine multiple lineare Regression geschatzt worden. Der Zeilenvektor ^ n + l ~ \Xn-\-lyl-) • • • •) Xn-\-l,m)
7.5.
ERGANZUNGEN
315
stelle einen zusatzlichen Wert des Vektors der Regressorvariablen dar. Flir den zugehorigen Wert der abhangigen Variablen macht man denselben linearen Ansatz
Dann stellt
eine Punktprognose fiir Yn-{-i dar. Fiir den Prognosefehler Yn-^i — ^n+i gilt E[Yn+l-Yn^l]=0. Im Mittel ist der Prognosefehler null, die Prognose also unverzerrt. Offenbar ist diese Prognose linear in den Beobachtungen V i , . . . , y^. Die Varianz des Prognosefehlers betragt V[Yn^, - Yn^i] = a^l + x , + i ( X ' X ) - i x ; ^ i ) . Man kann zeigen, dass die Prognose Y^+i unter alien linearen, unverzerrten Prognosen fiir Fn+i die kleinste Fehlervarianz besitzt. Die Varianz des Prognosefehlers lasst sich erwartungstreu schatzen, wenn wir (j^ durch den obigen Schatzer a'^ ersetzen. Unter der Annahme gemeinsam normalverteilter Residuen ?7i,..., {/„ gilt fiir die Verteilung des standardisierten Prognosefehlers
V^^(i + x„+,(X'X)-ix;^,) ~ *'^-('"-^^> • Damit lasst sich zum Niveau 1 — a das Prognoseintervall mit den Randpunkten bilden. Mit Wahrscheinlichkeit 1 — a iiberdeckt dieses Intervall die Zufallsvariable 1^71+1 •
Erganzende Literatur zu Kapitel 7: Die einfache lineare Regression wird in einigen Lehrblichern der Statistik fiir Wirtschaftswissenschaftler behandelt, etwa in Fahrmeir et al. (2004), Bamberg und Baur (2002) und Schlittgen (2003). Ausfiihrlichere Darstellungen der einfachen und der multiplen Regression findet man in Lehrbiichern der Okonometrie. Eine elementare Einfiihrung gibt von Auer (2005). Als weiterfiihrende Darstellungen sind unter anderem Hiibler (1989), Verbeek (2004) und Johnston und DiNardo (1997) zu empfehlen.
316
7.6
7. LiNEARE REGRESSION
Anhang: Verwendung von Excel und SPSS
Lineare Einfachregression (Beispiel 7.3, Seite 303): Excel I In der Excel-Arbeitsmappe r e g r e s s i o n . x l s wird eine einfache Regression ( M E N U E : EXTRAS ^
ANALYSE-FUNKTIONEN/REGRESSION)
der
Form yi = PQ -\- PiXi durchgefiihrt. Die Regression ergibt /3i = —5.4756 und 5 ^ = 0.3918. Zu testen ist HQ : Pi = 0 gegen Hi : f3i ^ 0. Die Testgrofie hat den Wert -5.4756 0.3918
-13.9755.
Da es sich um einen zweiseitigen Test handelt, wird der Betrag der Testgrofie, namlich x = 13.9755 = | - 13.9755| in die Funktion TVERT mit Freiheitsgrade=28 und Seiten=2 eingesetzt: Ergebnis ist der p-Wert TVERT(13,9755;28;2) ^ 0. Zum Signifikanzniveau a = 0.001 (und hoher) ist deshalb Hi gesichert. SPSS I Die gleichen Daten sind ftir SPSS in r e g r e s s i o n , sav gespeichert. Die Regression wird iiber das Menii ANALYSIEREN/REGRESSION/LINEAR durchgefiihrt. Die Ergebnisse sind die gleichen wie bei Excel. Lineare Mehrfachregression (Beispiel 7.4, Seite 307): Excel Die zum Beispiel 7.4 gehorenden Daten und Berechnungen sind in der Exceldatei margarine.xls im Internet verfligbar.
Tabellenanhang Dieser Tabellenanhang enthalt Tabellen der 1. Wahrscheinlichkeiten der Binomialverteilung, 2. Wahrscheinlichkeiten der Poisson-Verteilung, 3. Quantile der Standardnormalverteilung, 4. Verteilungsfunktion der Standardnormalverteilung, 5. Quantile der x^-Verteilung, 6. Quantile der ^-Verteilung, 7. Quantile der F-Verteilung. Ausftihrlichere Tabellen und Tabellen weiterer Verteilungen findet man in den folgenden Tabellenwerken: Hald (1952); Fischer und Yates (1957); Pearson und Hartley (1966, 1972); Kokoska und Nevison (1988).
317
318
TABELLENANHANG
Tabelle 1: Wahrscheinlichkeiten der Binomialverteilung Tabelliert sind die Werte P{X = x) ftir X ~ B{n,Tr) mit TT < 0.5 . Fur TT > 0.5 erhalt man die Werte P{X = x) durch die Beziehung P{X = x) = P{Y = n-x), wobei Y ~ B{n, 1 - TT) . TT
11 ^0 X
1 2 0 1 2 3 0 1 2 3 4 0 1 2 3 4 5 0 1 2 3 4 5 6 0 1 2 3 4 5 6 7 0 1 2 3 4 5 6 7
.05
.10
.15
.20
.25
.30
.35
.40
.45
.50
.9500 .0500 .9025 .0950 .0025 .8574 .1354 .0071 .0001 .8145 .1715 .0135 .0005 .0000 .7738 .2036 .0214 .0011 .0000 .0000 .7351 .2321 .0305 .0021 .0001 .0000 .0000 .6983 .2573 .0406 .0036 .0002 .0000 .0000 .0000
.9000 .1000 .8100 .1800 .0100 .7290 .2430 .0270 .0010 .6561 .2916 .0486 .0036 .0001 .5905 .3281 .0729 .0081 .0005 .0000 .5314 .3543 .0984 .0146 .0012 .0001 .0000 .4783 .3720 .1240 .0230 .0026 .0002 .0000 .0000
.8500 .1500 .7225 .2550 .0225 .6141 .3251 .0574 .0034 .5220 .3685 .0975 .0115 .0005 .4437 .3915 .1382 .0244 .0022 .0001 .3771 .3993 .1762 .0415 .0055 .0004 .0000 .3206 .3960 .2097 .0617 .0109 .0012 .0001 .0000
.8000 .2000 .6400 .3200 .0400 .5120 .3840 .0960 .0080 .4096 .4096 .1536 .0256 .0016 .3277 .4096 .2048 .0512 .0064 .0003 .2621 .3932 .2458 .0819 .0154 .0015 .0001 .2097 .3670 .2753 .1147 .0287 .0043 .0004 .0000
.7500 .2500 .5625 .3750 .0625 .4219 .4219 .1406 .0156 .3164 .4219 .2109 .0469 .0039 .2373 .3955 .2637 .0879 .0146 .0010 .1780 .3560 .2966 .1318 .0330 .0044 .0002 .1335 .3115 .3115 .1730 .0577 .0115 .0013 .0001
.7000 .3000 .4900 .4200 .0900 .3430 .4410 .1890 .0270 .2401 .4116 .2646 .0756 .0081 .1681 .3602 .3087 .1323 .0284 .0024 .1176 .3025 .3241 .1852 .0595 .0102 .0007 .0824 .2471 .3177 .2269 .0972 .0250 .0036 .0002
.6500 .3500 .4225 .4550 .1225 .2746 .4436 .2389 .0429 .1785 .3845 .3105 .1115 .0150 .1160 .3124 .3364 .1811 .0488 .0053 .0754 .2437 .3280 .2355 .0951 .0205 .0018 .0490 .1848 .2985 .2679 .1442 .0466 .0084 .0006
.6000 .4000 .3600 .4800 .1600 .2160 .4320 .2880 .0640 .1296 .3456 .3456 .1536 .0256 .0778 .2592 .3456 .2304 .0768 .0102 .0467 .1866 .3110 .2765 .1382 .0369 .0041 .0280 .1306 .2613 .2903 .1935 .0774 .0172 .0016
.5500 .4500 .3025 .4950 .2025 .1664 .4084 .3341 .0911 .0915 .2995 .3675 .2005 .0410 .0503 .2059 .3369 .2757 .1128 .0185 .0277 .1359 .2780 .3032 .1861 .0609 .0083 .0152 .0872 .2140 .2918 .2388 .1172 .0320 .0037
.5000 .5000 .2500 .5000 .2500 .1250 .3750 .3750 .1250 .0625 .2500 .3750 .2500 .0625
.0313 1 .1563 1 .3125 1 .3125 .1563 .0313 .0156 .0938 .2344 .3125 .2344 .0938 .0156 .0078 .0547 .1641 .2734 .2734 .1641 .0547
.0078 1
319
T A B E L L E 1: BiNOMIALVERTEILUNG
TT
1n
X
.05
F T ~o" .6634
1 2 3 4 5 6 7 8 r~9~ 0 1 2 3 4 5 6 7 8 9 0 1 2 3 4 5 6 7 8 9 10 11 0 1 2 3 4 5 6 7 8 9 10 11
v^
.2793 .0515 .0054 .0004 .0000 .0000 .0000 .0000 .6302 .2985 .0629 .0077 .0006 .0000 .0000 .0000 .0000 .0000 .5987 .3151 .0746 .0105 .0010 .0001 .0000 .0000 .0000 .0000 .0000 .5688 .3293 .0867 .0137 .0014 .0001 .0000 .0000 .0000 .0000 .0000 .0000
.10
.15
.4305 .3826 .1488 .0331 .0046 .0004 .0000 .0000 .0000 .3874 .3874 .1722 .0446 .0074 .0008 .0001 .0000 .0000 .0000 .3487 .3874 .1937 .0574 .0112 .0015 .0001 .0000 .0000 .0000 .0000 .3138 .3835 .2131 .0710 .0158 .0025 .0003 .0000 .0000 .0000 .0000 .0000
.2725 .3847 .2376 .0839 .0185 .0026 .0002 .0000 .0000 .2316 .3679 .2597 .1069 .0283 .0050 .0006 .0000 .0000 .0000 .1969 .3474 .2759 .1298 .0401 .0085 .0012 .0001 .0000 .0000 .0000 .1673 .3248 .2866 .1517 .0536 .0132 .0023 .0003 .0000 .0000 .0000 .0000
.20 "~25 .1678 .3355 .2936 .1468 .0459 .0092 .0011 .0001 .0000 .1342 .3020 .3020 .1762 .0661 .0165 .0028 .0003 .0000 .0000 .1074 .2684 .3020 .2013 .0881 .0264 .0055 .0008 .0001 .0000 .0000 .0859 .2362 .2953 .2215 .1107 .0388 .0097 .0017 .0002 .0000 .0000 .0000
.1001 .2670 .3115 .2076 .0865 .0231 .0038 .0004 .0000 .0751 .2253 .3003 .2336 .1168 .0389 .0087 .0012 .0001 .0000 .0563 .1877 .2816 .2503 .1460 .0584 .0162 .0031 .0004 .0000 .0000 .0422 .1549 .2581 .2581 .1721 .0803 .0268 .0064 .0011 .0001 .0000 .0000
.30
.35
.40
.45
.0576 .1977 .2965 .2541 .1361 .0467 .0100 .0012 .0001 .0404 .1556 .2668 .2668 .1715 .0735 .0210 .0039 .0004 .0000 .0282 .1211 .2335 .2668 .2001 .1029 .0368 .0090 .0014 .0001 .0000 .0198 .0932 .1998 .2568 .2201 .1321 .0566 .0173 .0037 .0005 .0000 .0000
.0319 .1373 .2587 .2786 .1875 .0808 .0217 .0033 .0002 .0207 .1004 .2162 .2716 .2194 .1181 .0424 .0098 .0013 .0001 .0135 .0725 .1757 .2522 .2377 .1536 .0689 .0212 .0043 .0005 .0000 .0088 .0518 .1395 .2254 .2428 .1830 .0985 .0379 .0102 .0018 .0002 .0000
.0168 .0896 .2090 .2787 .2322 .1239 .0413 .0079 .0007 .0101 .0605 .1612 .2508 .2508 .1672 .0743 .0212 .0035 .0003 .0060 .0403 .1209 .2150 .2508 .2007 .1115 .0425 .0106 .0016 .0001 .0036 .0266 .0887 .1774 .2365 .2207 .1471 .0701 .0234 .0052 .0007 .0000
.0084 .0548 .1569 .2568 .2627 .1719 .0703 .0164 .0017 .0046 .0339 .1110 .2119 .2600 .2128 .1160 .0407 .0083 .0008 .0025 .0207 .0763 .1665 .2384 .2340 .1596 .0746 .0229 .0042 .0003 .0014 .0125 .0513 .1259 .2060 .2360 .1931 .1128 .0462 .0126 .0021 .0002
.50 .0039 .0313 .1094 .2188 .2734 .2188 .1094 .0313 .0039 .0020 .0176 .0703 .1641 .2461 .2461 .1641 .0703 .0176 .0020 .0010 .0098 .0439 .1172 .2051 .2461 .2051 .1172 .0439 .0098 .0010 ! .0005 ! .0054 ! .0269 .0806 .1611 .2256 .2256 .1611 .0806 .0269 .0054
.0005 1
320
TABELLENANHANG
71
1 n
X
0 1 2 3 4 5 6 7 8 9 10 11 12 Tls" 0 1 2 3 4 5 6 7 8 9 10 11 12 13 lU" 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14
m"
.05
.10
.15
.5404 .3413 .0988 .0173 .0021 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .5133 .3512 .1109 .0214 .0028 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .4877 .3593 .1229 .0259 .0037 .0004 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.2824 .3766 .2301 .0852 .0213 .0038 .0005 .0000 .0000 .0000 .0000 .0000 .0000 .2542 .3672 .2448 .0997 .0277 .0055 .0008 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .2288 .3559 .2570 .1142 .0349 .0078 .0013 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.1422 .3012 .2924 .1720 .0683 .0193 .0040 .0006 .0001 .0000 .0000 .0000 .0000 .1209 .2774 .2937 .1900 .0838 .0266 .0063 .0011 .0001 .0000 .0000 .0000 .0000 .0000 .1028 .2539 .2912 .2056 .0998 .0352 .0093 .0019 .0003 .0000 .0000 .0000 .0000 .0000 .0000
.20 ~T25 .0687 .2062 .2835 .2362 .1329 .0532 .0155 .0033 .0005 .0001 .0000 .0000 .0000 .0550 .1787 .2680 .2457 .1535 .0691 .0230 .0058 .0011 .0001 .0000 .0000 .0000 .0000 .0440 .1539 .2501 .2501 .1720 .0860 .0322 .0092 .0020 .0003 .0000 .0000 .0000 .0000 .0000
.0317 .1267 .2323 .2581 .1936 .1032 .0401 .0115 .0024 .0004 .0000 .0000 .0000 .0238 .1029 .2059 .2517 .2097 .1258 .0559 .0186 .0047 .0009 .0001 .0000 .0000 .0000 .0178 .0832 .1802 .2402 .2202 .1468 .0734 .0280 .0082 .0018 .0003 .0000 .0000 .0000 .0000
.30
.35
.40
.45
.50
.0138 .0712 .1678 .2397 .2311 .1585 .0792 .0291 .0078 .0015 .0002 .0000 .0000 .0097 .0540 .1388 .2181 .2337 .1803 .1030 .0442 .0142 .0034 .0006 .0001 .0000 .0000 .0068 .0407 .1134 .1943 .2290 .1963 .1262 .0618 .0232 .0066 .0014 .0002 .0000 .0000 .0000
.0057 .0368 .1088 .1954 .2367 .2039 .1281 .0591 .0199 .0048 .0008 .0001 .0000 .0037 .0259 .0836 .1651 .2222 .2154 .1546 .0833 .0336 .0101 .0022 .0003 .0000 .0000 .0024 .0181 .0634 .1366 .2022 .2178 .1759 .1082 .0510 .0183 .0049 .0010 .0001 .0000 .0000
.0022 .0174 .0639 .1419 .2128 .2270 .1766 .1009 .0420 .0125 .0025 .0003 .0000 .0013 .0113 .0453 .1107 .1845 .2214 .1968 .1312 .0656 .0243 .0065 .0012 .0001 .0000 .0008 .0073 .0317 .0845 .1549 .2066 .2066 .1574 .0918 .0408 .0136 .0033 .0005 .0001 .0000
.0008 .0075 .0339 .0923 .1700 .2225 .2124 .1489 .0762 .0277 .0068 .0010 .0001 .0004 .0045 .0220 .0660 .1350 .1989 .2169 .1775 .1089 .0495 .0162 .0036 .0005 .0000 .0002 .0027 .0141 .0462 .1040 .1701 .2088 .1952 .1398 .0762 .0312 .0093 .0019 .0002 .0000
.0002 .0029 .0161 .0537 .1208 .1934 .2256 .1934 .1208 .0537 .0161
.0029 1 .0002 .0001 .0016 .0095 .0349 .0873 .1571 .2095 .2095 .1571 .0873 .0349 .0095 .0016 .0001
.0001 1 .0009 .0056 .0222 1 .0611 .1222 .1833 .2095 .1833 .1222 .0611 .0222 .0056 .0009
.0001 1
321
T A B E L L E 1: BiNOMIALVERTEILUNG
TT
1 n X .05 ris""~o" .4633
TW
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19
.3658 .1348 .0307 .0049 .0006 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .3585 .3774 .1887 .0596 .0133 .0022 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.10
.15
.2059 .3432 .2669 .1285 .0428 .0105 .0019 .0003 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .1216 .2702 .2852 .1901 .0898 .0319 .0089 .0020 .0004 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0874 .2312 .2856 .2184 .1156 .0449 .0132 .0030 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0388 .1368 .2293 .2428 .1821 .1028 .0454 .0160 .0046 .0011 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.20 "~25 .0352 .1319 .2309 .2501 .1876 .1032 .0430 .0138 .0035 .0007 .0001 .0000 .0000 .0000 .0000 .0000 .0115 .0576 .1369 .2054 .2182 .1746 .1091 .0545 .0222 .0074 .0020 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0134 .0668 .1559 .2252 .2252 .1651 .0917 .0393 .0131 .0034 .0007 .0001 .0000 .0000 .0000 .0000 .0032 .0211 .0669 .1339 .1897 .2023 .1686 .1124 .0609 .0271 .0099 .0030 .0008 .0002 .0000 .0000 .0000 .0000 .0000 .0000
.30
.35
.40
.45
.50
.0047 .0305 .0916 .1700 .2186 .2061 .1472 .0811 .0348 .0116 .0030 .0006 .0001 .0000 .0000 .0000 .0008 .0068 .0278 .0716 .1304 .1789 .1916 .1643 .1144 .0654 .0308 .0120 .0039 .0010 .0002 .0000 .0000 .0000 .0000 .0000
.0016 .0126 .0476 .1110 .1792 .2123 .1906 .1319 .0710 .0298 .0096 .0024 .0004 .0001 .0000 .0000 .0002 .0020 .0100 .0323 .0738 .1272 .1712 .1844 .1614 .1158 .0686 .0336 .0136 .0045 .0012 .0003 .0000 .0000 .0000 .0000
.0005 .0047 .0219 .0634 .1268 .1859 .2066 .1771 .1181 .0612 .0245 .0074 .0016 .0003 .0000 .0000 .0000 .0005 .0031 .0123 .0350 .0746 .1244 .1659 .1797 .1597 .1171 .0710 .0355 .0146 .0049 .0013 .0003 .0000 .0000 .0000
.0001 .0016 .0090 .0318 .0780 .1404 .1914 .2013 .1647 .1048 .0515 .0191 .0052 .0010 .0001 .0000 .0000 .0001 .0008 .0040 .0139 .0365 .0746 .1221 .1623 .1771 .1593 .1185 .0727 .0366 .0150 .0049 .0013 .0002 .0000 .0000
.0000 .0005 .0032 .0139
.0417 \ .0916 .1527 .1964 .1964 .1527 .0916 .0417 .0139 .0032 .0005 .0000 .0000 .0000 .0002 .0011 .0046 ! .0148 .0370 .0739 .1201 .1602 .1762 .1602 .1201 .0739 .0370 .0148 .0046 .0011 .0002
.0000 1
322
TABELLENANHANG
TT
1n
tw
X
.05
.10
.15
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26
.2146 .3389 .2586 .1270 .0451 .0124 .0027 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0424 .1413 .2277 .2361 .1771 .1023 .0474 .0180 .0058 .0016 .0004 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0076 .0404 .1034 .1703 .2028 .1861 .1368 .0828 .0420 .0181 .0067 .0022 .0006 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.20 "~25 .0012 .0093 .0337 .0785 .1325 .1723 .1795 .1538 .1106 .0676 .0355 .0161 .0064 .0022 .0007 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0002 .0018 .0086 .0269 .0604 .1047 .1455 .1662 .1593 .1298 .0909 .0551 .0291 .0134 .0054 .0019 .0006 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.30
.35
.40
.45
.50
.0000 .0003 .0018 .0072 .0208 .0464 .0829 .1219 .1501 .1573 .1416 .1103 .0749 .0444 .0231 .0106 .0042 .0015 .0005 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0000 .0000 .0003 .0015 .0056 .0157 .0353 .0652 .1009 .1328 .1502 .1471 .1254 .0935 .0611 .0351 .0177 .0079 .0031 .0010 .0003 .0001 .0000 .0000 .0000 .0000 .0000
.0000 .0000 .0000 .0003 .0012 .0041 .0115 .0263 .0505 .0823 .1152 .1396 .1474 .1360 .1101 .0783 .0489 .0269 .0129 .0054 .0020 .0006 .0002 .0000 .0000 .0000 .0000
.0000 .0000 .0000 .0000 .0002 .0008 .0029 .0081 .0191 .0382 .0656 .0976 .1265 .1433 .1424 .1242 .0953 .0642 .0379 .0196 .0088 .0034 .0012 .0003 .0001 .0000 .0000
.0000 .0000 .0000 .0000 .0000 .0001 .0006 .0019 .0055 .0133 .0280 .0509 .0806 .1115 .1354 .1445 .1354 .1115 .0806 .0509 .0280 .0133 .0055 .0019 .0006 .0001
.0000 1
323
TABELLE 2: POISSON-VERTEILUNG
Tabelle 2: Wahrscheinlichkeiten der PoissonVerteilung Tabelliert sind die Werte P{X = x) fiir X ~ Po{iJ.) . /^ X
0 1 2 3 4 5 6 7
1 8
0.1 .9048 .0905 .0045 .0002 .0000 .0000 .0000 .0000 .0000
0.2 .8187 .1637 .0164 .0011 .0001 .0000 .0000 .0000 .0000
0.3 .7408 .2222 .0333 .0033 .0003 .0000 .0000 .0000 .0000
0.4 .6703 .2681 .0536 .0072 .0007 .0001 .0000 .0000 .0000
0.5 .6065 .3033 .0758 .0126 .0016 .0002 .0000 .0000 .0000
0.6 .5488 .3293 .0988 .0198 .0030 .0004 .0000 .0000 .0000
0.7 .4966 .3476 .1217 .0284 .0050 .0007 .0001 .0000 .0000
0.8 .4493 .3595 .1438 .0383 .0077 .0012 .0002 .0000 .0000
0.9 .4066 .3659 .1647 .0494 .0111 .0020 .0003 .0000 .0000
4.5 .0111 .0500 .1125 .1687 .1898 .1708 .1281 .0824 .0463 .0232 .0104 .0043 .0016 .0006 .0002 .0001 .0000 .0000
5.0 .0067 .0337 .0842 .1404 .1755 .1755 .1462 .1044 .0653 .0363 .0181 .0082 .0034 .0013 .0005 .0002 .0000 .0000
1.0 .3679 .3679 .1839 .0613 .0153 .0031 .0005 .0001
.0000 1
(J-
1 •"' 1.5 0 .2231 1 .3347 2 .2510 3 .1255 4 .0471 ^ .0141 6 .0035 7 .0008 ^ .0001 ^ .0000 10 .0000 11 .0000 12 .0000 13 .0000 14 .0000 15 .0000 16 .0000 [l7 .0000
2.0 .1353 .2707 .2707 .1804 .0902 .0361 .0120 .0034 .0009 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
2.5 .0821 .2052 .2565 .2138 .1336 .0668 .0278 .0099 .0031 .0009 .0002 .0000 .0000 .0000 .0000 .0000 .0000 .0000
3.0 .0498 .1494 .2240 .2240 .1680 .1008 .0504 .0216 .0081 .0027 .0008 .0002 .0001 .0000 .0000 .0000 .0000 .0000
3.5 .0302 .1057 .1850 .2158 .1888 .1322 .0771 .0385 .0169 .0066 .0023 .0007 .0002 .0001 .0000 .0000 .0000 .0000
4.0 .0183 .0733 .1465 .1954 .1954 .1563 .1042 .0595 .0298 .0132 .0053 .0019 .0006 .0002 .0001 .0000 .0000 .0000
5.5 .0041 .0225 .0618 .1133 .1558 .1714 .1571 .1234 .0849 .0519 .0285 .0143 .0065 .0028 t .0011 .0004 .0001 .0000 [
324
TABELLENANHANG
6.0 10 ^.0025
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 1'^ 18 19 20 21 22 23 24
125
.0149 .0446 .0892 .1339 .1606 .1606 .1377 .1033 .0688 .0413 .0225 .0113 .0052 .0022 .0009 .0003 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000 .0000
6.5
7.0
7.5
M 8.0
8.5
9.0
9.5
.0015 .0098 .0318 .0688 .1118 .1454 .1575 .1462 .1188 .0858 .0558 .0330 .0179 .0089 .0041 .0018 .0007 .0003 .0001 .0000 .0000 .0000 .0000 .0000 .0000 .0000
.0009 .0064 .0223 .0521 .0912 .1277 .1490 .1490 .1304 .1014 .0710 .0452 .0263 .0142 .0071 .0033 .0014 .0006 .0002 .0001 .0000 .0000 .0000 .0000 .0000 .0000
.0006 .0041 .0156 .0389 .0729 .1094 .1367 .1465 .1373 .1144 .0858 .0585 .0366 .0211 .0113 .0057 .0026 .0012 .0005 .0002 .0001 .0000 .0000 .0000 .0000 .0000
.0003 .0027 .0107 .0286 .0573 .0916 .1221 .1396 .1396 .1241 .0993 .0722 .0481 .0296 .0169 .0090 .0045 .0021 .0009 .0004 .0002 .0001 .0000 .0000 .0000 .0000
.0002 .0017 .0074 .0208 .0443 .0752 .1066 .1294 .1375 .1299 .1104 .0853 .0604 .0395 .0240 .0136 .0072 .0036 .0017 .0008 .0003 .0001 .0001 .0000 .0000 .0000
.0001 .0011 .0050 .0150 .0337 .0607 .0911 .1171 .1318 .1318 .1186 .0970 .0728 .0504 .0324 .0194 .0109 .0058 .0029 .0014 .0006 .0003 .0001 .0000 .0000 .0000
.0001 .0007 .0034 .0107 .0254 .0483 .0764 .1037 .1232 .1300 .1235 .1067 .0844 .0617 .0419 .0265 .0157 .0088 .0046 .0023 .0011 .0005 .0002 .0001 .0000 .0000
10 .0000 .0005 .0023 .0076 .0189 .0378 .0631 .0901 .1126 .1251 .1251 .1137 .0948 .0729 .0521 .0347 .0217 .0128 i .0071 .0037 .0019 .0009 .0004 .0002 i .0001 [
.0000 1
Tabelle 3: Quant ile der Standardnormalverteilung 1 p 0.800 1 Up
0.850 0.900 0.950 0.975 0.990 0.995 0.999 0.9995 1 0.8416 1.0364 1.2816 1.6449 1.9600 2.3263 2.5758 3.0902 3.2905 |
Weitere Quantile erhalt man aus der Beziehung Up = —ui^p
325
TABELLE 4: STANDARDNORMALVERTEILUNG
Tabelle 4: Verteilungsfunktion der Standardnormalverteilung Tabelliert sind die Werte $(u) = P{U < u) fiir U ~ N{0,1) und u > 0. Flir u