---'
Ftç
_
--
t-r,r.r,]l
1l
a:
école notionole supérieure du pétrole et des moteurs
Ph. TASSI et S. LEGAIT
théo...
124 downloads
1740 Views
30MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
---'
Ftç
_
--
t-r,r.r,]l
1l
a:
école notionole supérieure du pétrole et des moteurs
Ph. TASSI et S. LEGAIT
théorie des probabilités en vue des applications
statistiques
,dffifl ,:*-
,,
,tri'[e;Ë o)
6 {) o o= Lo
i
t"
-l
.',:
ffi? .$ffiffi
o. c
o
/ .. tj.i.'
f rll:-9.:l:11
o
.c
(D
,#fr.&TfrIr
E
o .ri'*1H1i*'r
.o
o a
af
*;::;""ii**tq:;:.:'ft.4*[ii,'rffi,F*urisjit{'1rrr:#]r':*
o-
TUTIONS TECHNIP
.\
-l ,
,t**jt-"\{
I
ll'i:
':, :'r- Q''|r a u
i 3
I I
I I I II I
I
I
I
i- 5l-9.21-:3il I
l I
352
1l TAS
ilit
fi
il
,
{,1'
519. AR?
?1-:3il
TAS
.r - I r' .- "l f
ù '') '-' i
't
INSTITUT FRANÇAIS DU PETROLE
École Nationale Supérieure du Pétrole et des Moteurs Centre d'études supérieures d'économie et gestion
Théorie des probabilités en vue des applications statistiques Philippe Tassi Directeur scientifique de Médiamétrie Professeur à I'ENSPM et à I'ENSAE
Sylvia Legait Attaché de t'INSEE
Éotnorus rEcHNtp 27, rue Giroux 75737 Paris Cedex 15
@
lgg0. Editions Technip, Paris et Institut Frmtçais du Pétrole, Rueil-Malmaison
tsBN 2-7108-0582-O rssN 0758-147X Toute reproduction, même paftielle de cet ouvrage, par quclque procédé que ce soil est rigouretnement interdite par les lois en vigueur
AVANT-PROPOS
déjà longue histoire des méthodes scientifiques montre que principale victoire du chercheur, du praticien, de |ingénieur, esi t;upprànt,.s"ge la du doute. Le scientifique éclairé remprace de prus en prùs fréquemmenio"" uttirrations comme "le résultat est ...> par des interrogations : *queile est ra probabirité pour que re résultat soit ..". Le calcul et la théàrie des probabilités jouent, joueront et un rôle fondamental dans ra démarche scientifique, d'une part en raison de ra nature aréa_ toire de la plupart des problèmes réels, d""utr" part grâce à la nécessité de recourir aux méthodes statistiques de traitement de donnée-s sans cesse plus nombreuses et complexes à analyser.
Le déterminisme étant souvent une réduction hâtive de la réalité, il n'est plus, maintenant, d'ingénieur chimiste. physicien, fiabiriste, astronome, sans parrer bien sûr des spéeialistes de ra gestion, d" i'é"onornie et prus généràtement des sciences sociales et humaines, qui n'aient à manipurer res ài r"" modères de ra probabilité et de la statistique. Mentionnons, "onË"pt, à titre 0,""".pie, ra physique des particules : les électrons ne décrivent pas des trajectoires autour du noyau comme le font les planètes autour du soleil. Les particules obéissent en effet aux lois de la mécanique quantique, et la notion de trajectoire doit être abandonnée. De manière générale, la seure chose qu'ir est possiÉre de connaître est la probabilité de pré_ sence d'une particule en un point donné et à un instant donné.
, .L',ouvrage propose une introduction aux principales notions des probabilités dont le praticien sera amené à se servir. ll est rédigé pour des lecteurs déjà familiarisés avec un certain bagage mathématique en anaryse et en l'usage de plus en plus repându des méthodes proba'bilirt""-I argèbre. En effet, qui ira encore en grandissant de par re déveroppement de rogiciers adaptés - montre qu'une mauvaise connaissance des propriétés fondamentares des techniques est à r,origine d'interprétations parfois aberrantes des résultats. ll nous apparaît donc important d'insister sur les bases, afin de faciliter la compréhension des méthodes. La rédaction fait en outre appel à de nombreux exemples d'applications et exercices résolus ou à résoudre.
. Le chapitre 1 présente les concepts probabilistes usuels selon I'axiomatique. maintenant classique, de Kormogorov. il'contient égarement res résurtats sur re conditionnement er [indépendanCe. et le célèbre théJrème dû à Thomas
de nprobabilité des causes>
Bayes, dit
chapitre 2 pronge re carcur des probabirités dans ra théorie. prus générare, de la mesure et présenre res principaux étéments de rintàgr"tion générarisée au sens de Lebesgue, dont ra pubrication, au début du 2o'"siècre, a permis
une
PH. TASSi - S. LEGAIT
AVANT PROPOS
approche unifiée des probabilités. Nous avons adopté cette démarche car elle apparaît pédagogiquement intéressante, de par l'unification du langage qu'elle permet et la portée des propriétés qu'elle engendre. Dans le troisième chapitre sont regroupés les principaux résultats sur les variables aléatoires réelles ou multidimerrsionnelles. La piupart d'entre eux sont des cas particuliers de ceux obtenus au chapitre 2. Le chapitre 4 est important pour le praticien: il fournit les définitions et propriétés de dix-huit lois de probabilité parmi les plus rencontrées dans les applications. ll donne également les principes des papiersfonctionnels adaptés à la détermination d'une loi de probabilité au vu des données, ainsi que des éléments sur la génération d'échantillons aléatoires souvent utilisés en simulation. Le chapitre 5 est consacré à la géométrie des variables aléatoires. Après avoir donné une représentation géométrique de certains des outils de la statistique descriptive, il contient les bases sur lesquelles sont fondés le modèle linéaire et la
régression.
Au chapitre 6 est présenté l'un des outils les plus simples à utiliser lorsque l'on veut connaître la loi d'une somme de variables ou étudier les comportements asymptotiques : il s'agit de la fonction caractéristique. Le chapitre 7 porte sur les convergences de variables aléatoires. De nombreuses applications statistiques sont fondées sur des propriétés (aux limites,, autorisant ainsi des approximations justifiées d'un comportement inconnr:. Ainsi, l'un des indices les plus utilisés en statistique est le nornbre des observations: lorsqu'il est impossible d'obtenir des résultats exacts, la taille, parfois éievée, de n autorise
l'usage de résultats approximés.
Un certain nombre de compléments et d"approfondissements font l'objet du chapitre 8. ll est souvent important, en pratique, de pouvoir mesurer la odistance, existant entre deux lois de probabilités. ou entre des observations et un modèle théorique donné. Ouelques indicateurs de proximité sont présentés dans ce chapitre.
L'observation de données aléatoires fait parfois apparaître un ordre naturel ainsi un phénomène qui va en s'amplifiant donnera naissance à des données rangées en ordre croissant. En outre, depuis quelques années, on voit se développer' des méthodes statistiques utilisant des observations ordonnées, méthôdes dont les propriétés de stabilité sont du plus haut intérêt. Le clrapitre 9 est donc consacré aux résultats probabilistes particuliers à ce type de modèle ordonné. :
Enfin, les chapitres 10 et 11 portent sur les processus, c'est-à-ciire une généralisation des variables aléatoires. Leur domaine d'utilisation le plus fréquent est celui des séries temporelles, dont l'observation varie non seulement en fonction de l'individu observé mais aussi selon l'instant d'observation. Le chapitre 1O fournit des résultats probabilistes sur les proeessus, et le chapitre 1 1 présente des exemples de processus, en particulier les processus autorégressifs et moyenne mobile très répandus en automatique et en prévision. Les auteurs PH.
TASSI S. LEGAIT
TABLE EES MATIERES
AVANT PROPOS TABLE DES MATIERES
3 5
Chapitre 1 : LES eONCEPTS pROBAB|L|STES 1 Espace probabitisable 1 .1 Ëxpérience aléatoire 1.2 Evénement 2 Propriétés des tribus 3 Ouelques tribus particulières
3.1 Exemples "... 3.2 Tribu engendrée 3.3 Tribu borélienne
4
Probabilité sur un espace probabilisable 4.1 Définirion d'une probabiliré 4.2 Propriétés d'une probabilité 5 Fonction de répartition 6 Probabilité conditionnelle, indépendance d,événernents
6.1 Probabilité conditionnelle 6.2 lndépendance . . 6.3 Théorème de Bayes
.
Exercices Chapitre 2 : PROBAB|L|TE, MESURE, tNTEGRAT|ON 1 La théorie de la mesure : histoire et apport aux probabilités 2 Notion de mesure
2.1 Déf initions 2.2 Propriétér . ::::' ' ".:: 2.3 Meiure.iriin, sii
3 Mesurabilité
:.:.
:::::::.'
4lntégration ...
PH TASSI . S. TEGAIT
13
16 16 16 17 18 18 21
22 23 23 24 27 29 33 33 35 35
3.1 Application mesurable 3.2 Mesure-image 3.3 Tribu-produit . 4. 1 lntégration 4.2 lntégration
11
12 12 12
des fonctions mesurables étagées positives des fonctions mesurablei positives
37 39
40 4A
43
44 46 46 48
TABLE DFS MATIERES
4.3 Fonctions intégrables 4.4 Propriétés de l'intégrale 4.5 Généralisation 4.6 Exemples ... 5 Négligeabilité . 5.'l Définitions 5.2 Propriétés
50
6 Mesure définie Par une densité 7 lntégration par rapport à une mesure-image 8 lntégration par rapport à une mesure-produit
59
51
52 53 54 54 55 61
64 64 65 67
8.1 Mesure-produit 8.2 lntégration Exercices Chapitre 3 : LES VARIABLES ALEATOIRES 1 Caractéristiques des variables aléatoires réelles (unidimensionnelles) 1.1 Fonction de répartition . . ' . 1.2 Densité de probabilité . . ' .
71
2
80
1.3 Moments ... 1.4 Fractiles 1.5 Changement de variables
Vecteurs aléatoires 2.1 Fonction de répartition
72 72 73 75 77 78 80
80
2.2 Densité de probabilité . . ' . 2.3 Moments ... 2.4 Changement de variables 2.5 Lois marginales 2.6 lndépendance 2.7 Lois conditionnelles
82 85 86 87 91
103
Exercices Chapitre 4 : LES LOIS DE PROBABILITE USUELLES
107
1
107 107
Les lois
discrètes
..".
1.1 La loi de Dirac 1.2 Loi indicatrice (ou loi de Bernoulli) .. 1.3 Loi de Poisson
.'
108 109 110 110
.4 Loi binomiale 1.5 Loi multinomiale . . . 1,6 Loi hypergéométrique 1.7 Loi binomiale négative
1
2 Les lois continues
113 115
116 116
elassiques
2.1 Loi uniforme 2.2 Loi gamma 2.3 Loi de Weibull
117 119 PH
TASSI S. LEGAII
TABLE D.ES MATIERES
2.4
Loi bêta Loi de Gumbel 2.6 Loi normale unidimensionnelle 2.7 Loi normale multidimensionnelle 2.8 Loi log-normale 2.9 Loi du khi-deux 2.10 Loi de Student 2.11 Loi de Fisher-Snedecor Les papiers fonctionnels 3 1 Principe des pcrpters papiers fonctionnels toncltonnels :.: _,,,,v,r/ç uçù 3.2 txemples de construction de papier fonctionnel 3.3 Cas de variables discrètes
121
2.5
3
4
124
124 131
135 136 138
140 142
143 143 147
Divers
148 148
4.1 Création de lois de probabilité 4.2 Les coefficients de symétrie et d.ailaiissement srrucrure générâre , ra tamiirËïfànentierre 11 4.4 Y:" Génération d'éôhantillons aléatoires
150
152 154
Exercices
158
Chapitre 5 : GEOMETRTE DES VARTABLES ALEATOTRES 1 Espaces de variables aléatoires
1.1 Les espaces 9, elL. . . _. 1.2 Lesespaces7jett'. --._. z '' 1 .3 Les espaces 9É et I
...
'
' "
Un peu de géométrie 2 1 Statistiqu" J"""riptlu"'d",;l,;q;;' : : : : :. : : : : : : : : :. :. : : :. : : : : 2.2 Géométrie dans.L,
L, ....... : :... 3 ltry"'jmarion.daÀ's 2.4 lnterprétation des tois?u tni_oeux Liïe Stuoent
I
Chapitre 6 : UN OUTTL: LA FONCTTON CARACTERTSTTOUE
1 Définition et propriétés 1.1 Définition ... 1
d,une fonction caractéristique
.2 Propriétés
j" i"i'jËii"i;;;, 1 3 Un "^".ft" 2 Fonctions caractéristiques
;;i;'
des lois de probabilité usuelles
2.1 Loi de Dirac .... 2.2 Loi de Bernoulli 2.3 Loi binomiale 2.4 Loi de Poisson 2.5 Loi uniforme continue 2.6 Loi gamma 2.7 Loi normale 2.8 Loi du khi-deux 2.9 Loi de Cauchy PH TASSI
.
165 165 165
rob 169 171 171
174
175 180 185 185
185 187 190 191 191
191 191 191
192 192 192 192 192
S. LFGAIT 1
TABLE DFS MATIERES
192
2.10 Loi de Laplace 2.11 Loinormale multidimensionnelle
193 193
2.l2Loimultinomiale.'.
3 Applications de la fonction
caractéristique
3.1 Loi d'une somme de vecteurs aléatoires 3.2 Caractérisation de l'indépendance de deux vecteurs aléatoires 3.3 Obtention des moments non centrés . . Seconde fonction caractéristique . . . . """": 4.1 Définitionsetpropriétés '. 4.2 Applications aux développements d'Edgeworth et de Gram-Charlier ...
4
Exercices Chapitre 7 : I-ES GoNVERGENcES DE VARIABLES ALEAToIRES
'! Convergence Presque sûre 2 Gonvergeneeenprobabilité .
.""!
en loi . . . 3.1 Définition de la convergence en loi
3.2 Caractérisation de la convergence en
4
199 199
202 206 207 247
212 213
'roi".:::::.::::::.:::::::
î12 218
Relations entre les diverses formes de convergence
4.1 lmplicationsdiverses ..'. 4.2 Théorèmes de combinaison
195 196
209 209
2.1 Cas des variables aléatoires réelles 2.2 Cas des vecteurs aléatoires . . ' . .
3 Convergence
194 194
218 221
.'
5 Les lois des grands nombres
223
6 Comportements asymptotiquement gausslens 7 Application aux lois de probabilité classiques 7.1 Loi de Poisson 7.2 Loi binomiale 7.3 Loi gamma 7.4 Loi du khi-deux 7.5 Précision de l'approximation gaussienne donnée par le théorème
227
central limite Exercices chapitre 8
tr
:
COMPLEMENTS ET APPROFONDISSEMENITS SUR LES LOIS DE PROBABILITE
Les distances ,1 La distance 2 La distance .3 La distance .4 La distance
231 231
232
234 235 236 238 241 241
de Paul LévY en variation de Hellinger de LiPschitz
241
242
243 244 PH TASSI , S. LEGA]T
TABLE DES MATIFBFS
1.5 La distance de prohorov 1.6 Comparaison de distances 1.7 Autres indicateu rs ci'écart 1.8 Retour sur les convergences
244 245 246 249
Application à la fonction de répartition empirique 2.1 Propriétés à distance finie
251
252
2.2 Propriétés asymptotiques 2.3 Vitesse de convérgence : loi du logarithme itéré 2.4 lndicateurs de proiimité avec Fn . . .-. .
3 Ordres sur les variables aléatolres
252
253 254
"
258
Chapitre 9 : OBSERVATTONS OFDONNEES 1 Loi de l'échantillon ordonné
261 26a,
1.1 Définition de la staristique d,ordre 1.2 Loi de la statistique d,ordre
2
Lois particulières de l'échantillon de
X1r1
?1L"' 2.2 eas partiiulier
srdonné
261
262 ...
.
263 263 266
extrêmes X1l/ ..'.':..':'......:.:::.:.:.:::.:::..
des valeurs
2.3 Loijointe d,un couple 2.4 Catcutdesmomenrs
(X1py
267
268
3 Comportement asyrnptotique
4
3.1 Convergence d'un fractile empirique 3.2 Convergences des valeurs exirêmes 3.3 Les lois des extrêmes 3.4 Eléments sur la démonstration des convergences en loi 6e Xlny La loi de l'étendue 4.1
4.2
'Résultar
général L'étendue W
Chapitre't 0 : NOTTONS ELEMENTATRES SUR LES PROCESSUS 1 Définition d'un processus aléatoire 1.1 Définition d'un processus
2
3
1.2 Processus équivalent Processus stationnaires . . 2.1 Stationnarité stricte 2.2 Stationnarité faible 2.3 Remarques diverses sur la stationnarité
Corrélation et corrélogramme 3.1 Le coeff icient d'autocorrélation
3.2 Exemples de corrélogrammes
PH.TASSI
.S
LEGAIT
.....
273 273 275
276 280
284 284 286 289 289 289 290 291 291
292
293 296 296
298
TABLE DES MATIEBES
302
Fonction d'autocorrélation partielle . . .
4
302 302 303 304 304
4.1 Définition générale 4.2 Le théorème de Frisch et Waugh ' .. . . . ' 4.3 Système de dé termination de (h) 4.4 Un exemple
5 Les opérateurs
B et
F
Chapitre 11 : EXEMPLES DE PROCESSUS ' '
Poisson
1
Le processus de 1.1 Les processus à accroissements 1.2 Le processus de
Poisson
'
3O7 3O7
indépendants
3O7
308 310
2 Les processus de vie et de mort 3 Le mouvement brownien 4 Les processus autorégressifs
311 311 311
4.1 Définition .. . 4.2 Etude du modèle AR(P) .
5
Les processus moyenne
312
mobile
5.1 Définition ... 5.2 ProPriétés d'un MA(q) 5.3 Remarque sur le lien'entre AR et MA
319 319
':'''
319 320
'
323 327 355
BIBLIOGRAPHIE . TABLES NUMERIOUES
INDEX
1C
PI'J.
TASSI - S. LEGAIT
Chapitre
1
Les concepts probabilistes Dans de nombreux domaines relevant ou non de I'expérimentation scientifique' le langage courant fait de plus en plus appel au vocabulàir.e probabiliste. engenrant d'ailleurs de nombreux barbarismes ou'impropriétés o,usàge. on parlera ainsi d'événement (plus que probabreu ; un match de sérection en rugoy opposera res upossiblesn contre les uprobabres) ; une situation à venir sera décrite comme <pos_ sible. sinon probable, I etc. De telles expressions, mQme impropres, montrent que rincertain, r,aréatoire, prennent le pas sur le déterminisme.'Raison supplémeniaire pour fonder sur des bases solides la théorie et le calcul des probabilités. développer son enseignement et vulgariser ses résultats
si
le concept des probabirités remonte aux Egyptiens
ité en tant que nombre compris entre o et r #Àuià et aux Grecs, ra probabiFermat et Pascal connaissent implicitement l'axiome "pp"Ëitr" au 17. siècre. o'aâ'oitivite et la notion de probabilité conditionnelle. Dès ta iin oe ce siècre tes tois des grands nombres de Bernoulli. Le 18" siècle voit se""irt"niià"pLrance, développài'le conoitionnement, la formule de Bayes, ra théorie asymptotique,.et |usage des probabirités en physi_ f
que et en astronomie. ce^s applications aux science. ôt àrr sciences sociaau 19" siècte, sous t,imputsion de "i."t". A"fàrann, Laplace,
[:f;":"rr.uivent
Ouétef"t,
De nombreuses approches du concept de probabirité ont été proposées : on peut citer, par exempre, r'interprétation fréqueniiste von Mises) fondée tIàprace, sur la norion d'expériences répétées, ta pronaoitite;;t;;;ri;;(Keynes, Koopman), la théorie logique (carnap), la'formaiisaiion suolective ioe rinetïi, savage), t,approche purement mathématique (Kolmogorov).
Le lecteur intéressé par l'étude comparative de ces diverses fondations des probabilités pourra se reporter à r'ouvrage de T. Fine- p* il;iË#;Ëï;; avons choisi la présentation abstraite deé axiomes oe ror,.nogolJu, apperée (point de vue de ra théorie de ra mesure>, comme nous re verrons "ouu"nt cette approche définit une structure purement mathématique, peu au chapitre 2. interprétable a priori pratique. Elle n'est cependant pas sans liaison .en i;int"rprétation fréquentiste, mais ne la requiert point. On gardera "u"" néanmoins en mémoire cette dernière, pour la facilité de compréhension. PH TASSI - S.
LEGAIT
1
1
LES CONC EPTS PFOBABILISTES
1 1.1
ESPACE PROBABILISABLE
Expérience aléatoire
En guise d'introduction, nous allons considérer I'expérience physique qui consiste à .esuret la différence de potentiel U s'exerçant entre les bornes d'un circuit de résistance R: 1O ohms et dans lequel circule un courant d'intensité
:
2 ampères. Si le montage de l'expérience est parfait, le voltmètre indiquera une d.d.p. U : Rl : 20 volts. Tôutes choses égales par ailleurs, les mêmes conditions d'eipérience conduiront toujours au même résultat de 2O volts. Ce type d'expérience |
sera qualifiée de déterministe, le résultat étant parfaitement déterminé par la connaissance des paramètres qui la régissent (résistance. intensité). par opposition, une expérience sera dite aléatoire si son résultat ne peut être prévu a priori.
On note par Q I'ensemble de tous les résultats possibles pour une expérience donnée ; Q esi le référentiel, ou l'espace fondamental de l'expérience. Un élément a,l de O est dit résultat élémentaire. Exemples
a) Considérons l'expérience consistant à noter le résultat du lancer d'un dé régulier ; le résultat du lancer prend ses valeurs dans Q : {1 , 2,3, 4, 5' 6 }' b) Soit l'expérience consistant à tirer au hasard un individu dans une population de taille N, représentée par un identifiant s, d : 1 à N ; O : {1, "' N} S! l'expérience consisté à sélectionner u+n échantillon de taille n (1 ( n ( N)composé
d'individus tous différents, l'ensemble des résultats possibles Q est l'ensemble des Cff échanti llons potentiels.
1.2
Evénement
ll n'y a aucune raison de ne s'intéresser qu'aux réSultats (ou événements)
élémentaires : on peut concevoir sanS difficulté un oévénement complexe> comprenant plusieurs résultats élémentaires, dont on peut dire, une fois l'expérience effectuée, s'il a été réalisé ou non. Ainsi, dans l'épreuve du lancer d'un dé' si O est l;ensemble t1,2,3,4, 5. 6] des résultats numériques possibles, un événement tel que *le résultat d'un lancer est pair, est un événement aléatoire complexe, comjosé des résultats élémentaires {2, 4,6}. De même. si un individu d'identifiant I lf < t ( N) est donné, on peut considérer l'événement complexe E défini comme tous les échantillons de taille n contenant l'individu L Cet événement E est donc la réunion O"s Ci-] échantillons vérifiant cette propriété. E (complexe), peuvent donc être associés tous les événequi le définissent'; si l'un d'entre eux est réalisé iors de l'expéments élémentaires rience, l'événement E le sera également.
A un événement
12
PH.
TASSI S. LEGAIT
LES
C ONC
EPTS PROBABITISTES
Notons ,41'ensemble de tous les événements aléatoires en |,absence de toute idée a priori sur res événements susceptibres d'intéresser ; i,""perir*nt;Ë;,;; pourra prendre .& : g (A), ensemble des parties Oe O.
Historiquement, des conditions de manipulation des événements ont conduit à doter -4 d'une structure d'algèbre, c'est-à-dire que .4"rt-un" crasse de parties, de Q, contenant Q, et stabre pa'. intersection et comprémentation (et donc par réu_ nion) ; sont vérifiées les conditions suivantes :
oQtr-'.r4 o
A€ ,tC., B€.4+ A)B€.& € .4 + Ae u4 Â désigne le complémentaire
cA
de A dans e). Cependant' dans une structure d'algèbre, la stabilité par réunion ou intersection dénombrabtes n'est pas assurée ; àinsi, si (A"t ; à rfi, une suite crois_ sante d'événements de ,4, c'est-à-dire une suite te'ile que "st An
C An*r,de rimite o: Y An: lim / An,il n'y a aucune raison pour que A soit un événement, ou n e e; de même pour la limite d'une suite décroissante. cette non-stabilité .
m:l et par conséquent
:
P (Am)
:
limP(Bn)
n
æoo
:
>_
m:1
Exemple: Supposons Q fini,
p(Am)
:p(A) :p( m=1
ç:
{cdr, .... ,r,r }, où tous les "individus, de Q sont a : 1à N. telle une population de personnes physiques identifiées par leur numéro nSécurité Socialeu ou une population d'entreprises identifiées par leur numéro SIRENE. A toute partie A de O, on associe la fonction f définie par discernables par un indice identifiant s,
:
A
* f 1R1 :
cardinal de A N
Montrons que f est une probabilité sur o f (Q) : o A€ g
P, g@l).ll
est évident que l'on a
1
(al, Be g(al, AnB
- e:
I (A+B)
:
:
f (A)+f (B).
91A1 elant fini, ces deux conditions suffisent à montrer que f, à valeurs dans t0, 1 l, est bien une probabilité. 20
PH.
TASSI S. LEGAIT
LES CONCEPTS PROBABILISTES
4.2
Propriétés d'une probabilité
Les démonstrations sont, en général, immédiates.
Propriété 5 P(@)
:
0
Propriété 6
A,Be .4: ACB;alors p(B-A) : p(B)-p(A) >
O.
Propriété 7 (probabilités totales)
P(AUB) + P(AnB)
=
p(A)+p(B).
Démonstration
AB On peut écrire
:
AUB:A+(BoÂ), B:(BoA)+(BnÂ). D'après l'axiome (c)
:
P(AUB):P(A)+p(BnÂ) P(B):P(AnB)+p(BnÀ). En éliminanr p (B
n Â;, on obtient le résultar.
Généralisation : formule de poincaré P(A1
uAzU..'uA")
:
r.!r
P(Ak)-,Ii ,(A,ôA,)+...+ (-1)n+1 p(Arn...nAn)
Propriété 8 (sous a-additivité)
t'?o"'
=;
P(An)
Démonstrafron.'soit (Bn) la suite d'événements définie de la façon suivante Br : A' Bz : AzO Â,,, ..., Bn: An O An_t a ... n Â1 PH. TASSI
- S. LEGAIT
:
LES CONC EPTS PFOBABILISTES
U Bn :
Les événements(Bn) sont 2 à 2 disjoints et
Comme, pour tout
ll s'ensuit
n.
:
Bn C
An, on a P (Bn)
P(An) n
Remarques 1) Si (An) est une suite décroissante d'événements de limite A, alors P
(A)=
lim
\
P (An)'
2) Si (An) est une suite croissante d'événements de limite A, alors
P(A)
:
lim/P(An)'
Pour démontrer 1), il suffit de se ramener à la condition (d) en écrivant An - A. Bn \ @ donc P (Bn) \ 0 et par conséquent P (An) \ P (A). De la mêrne façon. on écrit Bn = A - An. Bn
:
Définition 6 Le triplet
(A, ,-4, P) porte le nom d'espace probabilisé.
5 fr,
FONEflON DE REPARTITION
Soit P une probabilité définie sur l'espace probabilisable (lR, contienl en particulier tous les intervalles de type l- -' x[.
fr'l;
on sait que
Définition 7 On appelle fonction de répartition de P l'application F : lR Par :
vx
€
lR,
F
(x)
:
P
(l- -'
-
tO, 1l définie
x[)
Remargue
On trouve fréquemment, en particulier dans les ouvrages anglo-saxons, la définition F (x) : P (l- -, xl). La différence entre les deux définitions dépend de P ({x}), probabilité de l'événement élémentaire {x}. Les propriétés de F résultent pour la plupart des propriétés 5 à 8.
Propriété 9 La fonction F est croissante. PH. TASSI
- S. LEGAIT
LES
En effer,
C ONC
EPTS PROBABILiSTES
soirx( y;l_æ, xlcl_ *, y[;
ta propriété 6 étabtir te résutrat.
Propriété 1O La fonction F est continue à gauche.
Soit (xn) une suite de points de lR telle que lirn
,
^n:x; alors la suite (J__, xn[) vers'- -. x[) et donc p(]_;, xn[) = F (xn) converg" àn vers P(l- oo, x[): F (x).
converge en croissant croissant
Propriété 11
e
lim F (x)= X*+oo. o lim F (x)= O x--oo. Ces résultats proviennent de p (lR) 1
= 1 et p (el :
O.
Remargue De façon analogue on définirait la fonction_de répartition d'une probabilité définie sur lRp. muni trrwuuEverrerlrenrs n d,événements æ ,j7''Pconlenantlespavés(J--, ' de sa tribu
x. x1--
^oti
,
f
6
x,|[
""";;;';
(xr,
.
xo)
:
P
(l-oo, xl [x ... x]--, ;o 1;
PROBABILITE CONDITIONNELLE,
IN DEPE N DANCE D'EVENT rVr ÈrVrS
L'axiomatique de Kolmogorov contient une spécification de la probabilité d'un événement conditionnellemeni a ,n uutià.
6.1
Probabilité conditionnelle
Définition 8 Soit un espace probabilisé p, .4, p) et_B e,r/tetque p(B) ) O. On appelte probabilité de A conditionneilemeni a a, p.ooutiùté tonortionnele de A o, sachant que B va être réalisé (ou est réalisé) le'nombre :
P
(AiB)
:
P(AnB) P (B)
PH TASSI - S
LEGAII
..
L.ES CONC EPTS PBOBABILISTES
Q, *41:
Vérifions que la fonction ainsi définie est bien une probabilité sur O
< 1, VA e .& car AaBCB P(OîJL : P(B) :1 P(Q'B) : P (B) P (B)
. 0n cherche
n
P
(-
l;t'*t
U A,) :2 p (A,)- tr p (A. n A.)+ ... + i:1 ' '' i<j 'r I
(
> . p (A, t...o A,;+...+ (- l)n*iR 1R, n... a ik) '1
(i1'...,
rk'
An)
Ce résultat est connu sous le nom de formule de poincaré.
L'ensemble
o
des résultats possibles de l'expérience est l'ensemble des permutations
{1, .... n}. 0n te munir
de ia piobabitiré
VA€ P(A
'l
d'où
3 (ni, p(A) : ln-k)
a...fiA.): ,k'
t
!
##
' Vk€ {1'2' ',nl
:
llr
e1.Û.n,1
i:l
'
:n
' n -r:n
+..+ (-l)n'l -1- = nl PH,
:
IASSI
S. LEGAIT
(n-2) nl
I
+ ...
+ (- l)k+l çk n
(n
-
k)
nl
i (-l)k*, .t. ------> t-e-r n-oo k:l ' ' k!
!
de
LES CONCEPTS PROBABILISTES
1.2
:
soir Q
{ 1, 2, ...,
1) Délinir une 2)
3)
nl
(n
}
1).
O telle
probabilité P sur
que:Vi€ Q, P ({i}) :;
Trouver une condition nécessaire et suffisante sur n pour que
: (A, B) e g
0n note
(al
-
t@,
a],
I
:
A et B indépendants,
:
Vp'p€ Q A-
=
: {i€Q/pdivise i}, K:
I
(n)
a)
Montrer que si
Card
{q
e Q/q est premier
avec
{p, p diviseurpremier de n} n
p,, ..., pk sont élérnents de
b) MontrerquerP(n)
}' K alors Oo',, ',, Oo* sont indépendants.
: n l'l (l--)' I p€K
P
lndications Card A
llLafonctionV:91A1-t0,11,P(A):estuneprobabilitésurO(cf.4.1)et vérifie:Vi€O P({i}):
I '
n
n
2) S'il
existe A et B indépendants (A et B non égaux à @ ou
n Card A f-l
B:
O) alors on a ;
Card A x Card B.
n (CardAn B< Card A) doncn estnonpremier. Réciproquementsi n estnon k> 2 et p2 2, n : kp. Soit A : {1, 2, ...,k} et B : {k, k + 1, ..., k + p - 1 } ;
Card Adivise
premier, 1
onabienP(AnB) 3)a) Sipdivisen,
: P(A)
P(B)
lk€O, n:kp
Ao:
et
kkl -:-= kp n
PiAi: 'p' p {Ao'
n
...
n
Apk}
:
P
:
(Ao'
oJ
-p
car les p, sont premiers
1
_ Pr " Pr k
: n l-
30
{p,2p,...,kp} d'où;
I
car Pt '..
Pn
divise
n
PlAl . P:' I
PH TASSI - S. LEGAIT
LES CONCEPTS PROBABILISTES
b) Soit B
:
[q
€ Q/q est premier
avec n].
$: d'où: P(B)
=?(n) n n =
puisque les Ào sont indépendants.
PH.
IASSI
S. LEGAIT
n P€K
p€K
PtÀIp'
À
p
:n
p€K
(1--)
1
p
Chapitre 2
Probabilité, mesure, intégration L'axiomatique de Kormogorov (1933) qui a servi de base pour re chapitre précédent repose sur des concepts mathématiqués générau^ qr" uJni les mesures et l,in_ tégrale par rapport à une mesure. Le déveroppement de ra notion de fin du 19" siècle et du début du 20' siècle donne naissance à une mesure de ra théorie dont la probabilité ne peut que profiter, celle-ci en étant un cas purti.rri"r. ce chapitre, qui peut être omis en première lecture, fournit aux lecteurs familiarisés unu ;r;;J;tation mathématique abstraite. les principaux résultats rattachés "u". au concept de mesure, et qui seront repris et utilisés dans la suite de l'ouvrage pour les probabilités.
1
LA THEORIE DE LA MESURE : HISTOIRE ET APPORT AUX PROBABILITES Les fondements de ra probabirité mathématique présentés au chapitre précé_ dent, dus à. Kolmogorov (1933), ne marquent, bien sûr, ni I'achlvement ni les débuts de cette science. Les premiers écrits sur le calcul des probabilités semblent remon-
ter à 1525 (cardano) ; Huyghens, en 16s7, présente un ensembre cohérent de concepts probabilistes,
reprenant nombre de résultats obtenus par Blaise pascal et Pierre de Fermat. Huyghens définit, en particurier, r'espéranc" j,rn" variabre aréa_ toire prenant ses valeurs sur un nombre fini de points. Le 18" siècle est marqué par la contribution de la famille Bernoulli -Jacques, Nicolas, Jean, Daniel - ; Jacques Bernoulli. dans son -Àr, publié en 1718 énonce la loi des grands nombres. En 1733, de Moivre"oni""tandi, obiient la loi normale (ainsi qu'elle sera dénommée bien plus tard par poincaré) en approfondissant les calculs de la loi des grands nombres et en utirisant |approximation asympotique de n ! trouvée auparavant par rui-même et stirling ; it Éùntie egaiement ra première forme du théorème central limite. Autre personnalité importaîte pierre : Simon de Laplace; commencés en 1778, ses travàux servent de référence jusqu'à ra fin du 19" siècle et au début du 20' siècle. Citons Jean Dieudonné : n... le cercle vicieux de la définitionfd'une probabititél en termes de cas équipossibtes, I'apparition de variables aléatoires discrètes mais à nombre infini de valeurs possibles, telles que celles de Poisson, et des variables aléatoires à loi absolument continue telles que des variables aléatoires nor-atii. PH TASSI S LEGA]T
aa
PROBABILITE MESUFF, lNTEGRATION
ont amené graduellement à une idéatisation mathématique qui engloberait toutes ces possibilités,. Le développement de la théorie de la mesure va y contribuer fortement.
En 1881, A. Harnack introduit la notion d'ensemble discret, puis, en 1882, celle *d'égalité en général,, qui anticipe le concept d'égalité presque sûre du paragraphe 5. La nmesure, d'un ensemble apparaît ensuite dans de nombreux travaux ;
ies définitions sont différentes selon les auteurs (Cantor, 1884; Peano, 1887; Jordan, 1892). Mais c'est Emile Borel qui va introduire la notion d'ensemble de mesure nulle (1894), et la théorie des ensembles mesurables (1897). Travaillant sur lR, et, plus précisément sur [0, 1 ], il privilégie la classe des ensembles ouverts, qu'il .mesure, à partir de la longueur des intervalles; il montre que l'on peut définir sur cette classe {qui portera plus tard le nom de classe nboréliennen) une <mesure> p vérifiant les propriéiés, vues au premier chapitre, de s - additivité et de différence:
(ACB:s(B-A) : s(B) -
s(A))
La théorie de la mesure de Borel va alors ouvrir la voie à l'intégrale de Lebesgue, ou intégrale généralisée. qui va permettre à I'intégrale de Riemann et aux jusqu'à la fin [robabilités Oe Oépasser certaiRs contre-exemples gênants. En effet. f un segment sur fonction d'une du 19" siècle. la seule façon de déf inir l'intégraie à partir de Néanmoins, Riemann-Darboux. de les sommes Ia, b]consistait à utiliser tgZO, t'integrale de Riemann s'était vu opposer des particularités où elle était inemployable, comme les cas où f- converge simplement vers f, f n intégrable au sens de Riemann pour tout n, f norlnleman-n-intégrable.
En 1901, H. Lebesgue donne une théorie de l'intégration plus générale que Riemann, à partir ciu concept de mesure introduit par Borel. C'est cette construcLebesgue qui est présentée dans ce chapitre, ainsi que ses tion de l'intégrale -Sous de l'impulsion de J. Radon, les concepts de mesure et d'intégration applications. lRn; ainsi apparaîtra la théorie de la mesure abstraite définie IR et qlitt"tont vite ,ur un ensemble Q quelconque muni d'une tribu (1913)' C'est cette notion de mesure absiraite qui a permis le développement de la théorie mathématique des probabilités. Par exemple, pour définir dans tous les cas I'espérance E (X) d'une variable aléatoire X, il fallait l'intégrale de Lebesgue et ses extensions. L'achèvement de la construction des théories de la mesure et de l'intégration peut être daté de 1g30, avec les théorèmes de décomposition de Lebesgue-Nikodym et l'existence des densités.
Ainsi. la théorie de la mesure et de l'intégration ont jeté les bases d'une formalisation homogène et cohérente des probabilités, en y introduisant la rigueur du raisonnement mathématique ; rappelons en effet que Keynes, en 1921, écrivait ou d'alÀ propo, des probabilités que ./es savants y décèlent un relent d'astrologie n/e calcul que (1919) affirmant plus en direct que est encore von Mises chimie,, et des probabilités n'est pas une discipline mathématique"' La probabilité étant un cas particulier de mesure se voit donc, à partir des années trente, appliquer une grande partie des résultats de mesure et d'intégration' PH, TASSI
- S. LEGAIT
PROBABILIIE, MESURE, INTEGRATION
2
NOTION DE MESURE
2.', Définitions Définition
1
soit (Q' 4 un espace mesurabre..on appere mesure positive sur (Q, .4) toute appticarion 1u définie sur a u"ràlis Oa;;"iRî-: [0, + oo] vérifianr "4 l'axiome de a_additivité : Pour toute suite (An) d'éléments de
.r/, n € lN*, deux à deux disjoints
:
tr(;_A^)n' :; p(A-) n=1 n=1 ' '"n' Remargues
a) Par la suite, on dira mesure pour mesure positive. d'une mesu re p te nombre (positif) p (a);p (Q) peut être u*",:)"u?"?.l:l?il;;;1""* c) Une probabilité est une mesure de masse 1.
Définition 2 Le triplet (o, probabitité).
'i/,
!r) est appelé espace mesuré (ou probabilisé si g est une
Une autre définition de la mesure peut être donnée
Définition 3 soit (Q' '''/y un espace mesurabre. une apprication lr défini e sur dans lR*, non identiqu"r"nreô"i"'à-+ *, est une mesure si ; 1) g est addirive
V(A,
B)
.4à
vareurs
e ,,æ, AnB :e, tt(AUB):1l(A)+s{B)
(ouvA,,...,Andeuxàdeuxdisjoints
u \Q. AJ : .! gfn,tt t:l i_1 ,
2) V (An) suite croissante d,éléme nts de ,4,
lim i g(A^)
n"n
PH. TASSI
-
S.,
: g (tim 1 A
)
LEGAIT 35
I
PROBABILITE, MESURE, INTEGFATION
Montrons que les définitions 1 et 3 sont équivalentes
:
a) La a-additivité entraîne I'additivité de façon triviale' De plus, si An
1
A, alors;
A : A., + (Az-A.,) avec Vn, An
:
s(A)
-
s(A.,)
+
nlru(An-An-') tl :
/(An-An-
d'où
(An-An-r) +'..
An-,r éléments de ,'4, deux à deux disjoints ; d'où
or: et donc
+... +
:
u(An)
: -
g (A)
ll(An-An-,r) + l(Al)
p(An-r) car An-r C An
An-1 +(An-An_r)
:
nl,
n'A
:
= lim
Ét
:An
(Ar)
k*oo
b) Réciproque
:
Soit (An) une suite d'éléments de ,'4, deux à deux disjoints'
n.d'éléments croissante v,ooq suite v, vvt v,,s une Ju,.e U A, B en = ^k est tI
de
,4
dont la limite
est U
t
k= 1
AL' tr
Ona: lim 1p(Bn)
c'est-à-dire' Or
/ est additive donc
,irn
:
et. en passant à la limite
r s r*1,, ont
nn : 1l(U Au) k:1 ^
:
Ak)
/(uAk)
I_P(An)
k=1
:
n!' 36
: g(lim l Bn) : ll(U
:
p (u
Ak)
'(Ar.) PH. TASSI
- S. LEGAIT
PFUUAUTLl'
L \ltSuRL
TNTFGFAIIO\
Définition 4 Une mesure g sur
d'événements(An), n 1r
est dite finie,
(o. 4 €
eIt P:
tN.
sera dite a-finie
tetsquepÀJ 1
si Q est réunion
dénombrabre lrtuln
nB,)
t tap + "[ sdll
2l g:
f
+g-f
s
-f € 6., I
or:
: I
ldtt + -i
(g
-fl
dP
"i(s-ïdtt2O
d'où
J
Exempte: On munit (lR, Soit
alors
gdtt
:
t:
g'l
de la mesure de Lebesgue
n
,I.,
sdtl21ldp
f (ti)
I rti- ril' t € 1,
lR*'
i'
t'-
',
n ' P2n ' :
(lim inf f^) d/ ( lim 1 n'np>nPn
J
4.3
inf I
1^
dp:
lim
inf J fn dg
Fonctionsintégrables
Définition 15 soit f une fonction mesurable définie sur (o. ,,41à valeurs dans définit les fonctions
B, fr.|. on
:
f* = f .i{rro} f_ _ _f .l{r*o}
et: f*
et
f
-
} 0} et {f < 0}
sont
dg < + æ' f-, on r;1on[;" que les deux définitions
sont
sont mesurables puisque les ensembles {f f : f* - f-.
,/-mesurableset
f est dite intégrable (ou g-intégrable) si
:
11*dg
P (E(x))
Généralisation Ces résultats s'étendent au cas de fonctions mesurables à valeurs dans lRn;
désigne une norme sur
lRn
(toutes les normes sont, rappelons-le, équivalentes)'
o Une fonction f mesurable @, .&,l/)-*
(1R",
fr,n1 sera dite intégrable si
\ llfll ds ( +oo : (f,), i: 1 à n;alors: o UnebasedelRnayantétéchoisie.onécrit f I f dtt: (J fidp) (i : 1 à n) o X: (Q, .il, p\ * (1R". fr)1 étant un vecteur aléatoire de coordonnées i:1 àn: /*'\
:
"l
X:l
l\
\1 \x I \
52
(X')'
I
n,/
PH-
TASSI S, LEGAIT
PROBABILITF, ]\IESURF, lNTEGRATION
X est intégrabte donc :
si
J
I
X,l
Oe
x 1o. fdg lgldlt o Si g e"ht) g : liml gn, gn € d* .igdv :
o Sig
lim
1-igndv
: g* -
:
g-
sestv-intésrable
lim
Jgnfdg : ! gfd!
1
:
Jlim 1 gnfdl(Beppo-Levi)
(-in. ov ( + oo {ln. fdg ( o _ < * lrn- rou < irn_ o,
e si < **,
v€ >
o, Va
€
rR
Preuve
E(X-
E(x-
al2
a\2: lA (X-a)2 dP
: I (X-a)21t1*-al
< €) dP + -l(X-a)2
En minorant la première intégrale par 0, on a
E(x-
d'où:
alz
ltl*-ul>eldP
:
2 Î(X-a)21t1*- al> eldP > ! t' ltlx-al)e1 E(x-
a\2
>
e2
dP
P{lx- al>El
corollaires.. lls varient selon le choix de a et de la v.a. considérée. a) Pour a :0, on obtient
:
P(lxl 16
>rr
.3 t' PH TASSI , S. LEGAIT
LES VARIABLES ALEATOIFES
:
b) Pour a E (X), on obtient ra formure *crassique,. déjà vue au chapitre 2, de Bienaymé-Tchebichev :
P(lx-E(x)l > 6) < v(x) E,
cette formule donne une majoration de ra probabirité pour que X prenne des valeurs hors de t'inrervaile lE (X) - €, E (X) + e[. Le principe ÀCrn" de ta démons_ tration donne une idée de la qualité de cette majoration. Par exemple. si X suit une
loi binomiale g fiOOO,+), on montre (cf. chapirre 4) que E (X) : bOO et 2 V(X):250;pourr.: b: p(lX-bOOl > 5) 0, V j=1,...,r,,In
pj
:1
J-l
si:
nl
n)=
Px(n.,.... tm,
n.!...n tm
m
ou:
m
:n,
j:1
oft... on'
!
j:1
)
t
n! n' | ... n.! est le nombre de (n.,. nr. ...,
nr)
-
partages d'un ensemble de n éléments, avec: m
iIr
îi :D
Propriété 1 : La loi marginale de N est une loi gB h, p). En effet, un érément tiré est soit du type (avec probabirité ra p,), soit non i pi) ; te nombre totar d'éréments du iype j aans r,échantiron;;l; jdil;;;'i;; !1 binomiale 4 h, p;). Retrouvon. par re carcur. vvr(rsr soit r,événement t A. défini
""ie*rili
paf :
R,
:
[(n,,, .... nj_.,,nj*.,, ..., n.,n), p (N,
:
I
,ij
;r
il*un
J
n.
jr(1
-
n
Pi)
nr
PH, TASSI
- S. LEGAIT
"*t
(n
-n.J>
n,]
-
n,)!
A; nr l...nj-r ln,*.1 !...n,,nl
Pr' ...p (1
: tr: n -
nfr o-."
n,)
A.
nl
Di
n,,"
ill p.'
- pj)n-nj
n
:
LES LOIS DE PROBABILITE USUELLES
ll s'ensuit
:
P
{Nj: n,): cll eli
1t
-
pj)n
-
nj
Conséquence
E(Nj)
: nFj
(Ni)
: npi(l -pi)
lntuitivement, il n'y a aucune raison pour que les v.a. N, et N, (i + U soient non corrélées, a fortiori indépendantes; calculons Cov (Ni, Nl). Comme auparavant,
(N, N1) suit une loi multinomiale de dimension 3 (une l'oi .trinomials") puisqu'un élément tiré est soit de type j (pj), soit de type I (p,,), soit non (1 - pr - pi) :
(N, Nr)
E
(NjNr)
"U,
(n : pl
p/
n!
:
(ni- )!(nr- 1)!(n - n,- nr) :n(n-1)pipr
(nj, nrl
nj+nt(n d'où
->
:
Cov (N,,
N/: -
La loi multinomiale en statistique
!
4, oi, t''
- pi- pr)n-nj-nr
n Fj p,
:
Soit Y une v.a.r. continue, I son espace de valeurs. (f (y) sa densité, (Yr, ...,Yn) un échantillon de n observations de Y. ll est très fréquent (tranches de i"ù"nr, ti"âncnes d'âge)de partitionner U enclasses.C,, i : 1 à K :
g - :K
i:1
C..r' la classe C. déterminée par C, I
:
[e _,,, e,[
r (v)
112
PH. TASSI
.
S. LEGAIT
LES LOIS DE PROBABILITE USUETLFS
on définit les K v.a. dans
Ni.i:
K, où N, dénombre
1à
C,.
Le vecteur (Nr. .... N*) suit une loi multinomiale
o,: Jj,,_., 1
.6
'b
res points de (y.,, ....yn)
1n
) pt, ..., F*) avec
:
f (v)dv
Loi hypergéométrique
on considère un tirage équiprobable sans remise de n éléments dans une population de taille N (n ( N) ;on s'intéresse à un type donné (l)d'éléments de la population, que I'on supposera être en proportion p (Np est donc entier). soit X le nombre d'éléments du type étudié, présents dans l'échantillon de taille n obtenu. La loi de X est appelée loi hypergéométrique de paramètres N, n, p, et est notéeJf,(N, n, pl. Une définition explicite de la loi J(1N, n, p)est la suivante, à partir du dénombrement "cas favorables./cas possibles, :
Définition 6 X suit une loi hypergéométrique de paramètres N, n et p, si
:
tNP /'n-x uNq Px (x)
pour Max(O. n -
Nq)(x(
-
'x
cft Min(n, Np), avecq
: 1-
F.
Moments E
V
(X):
(X):
nP
N-n
N-1
npq
Démonstration Soiteo,
a:1 ( I
t PH TASSI - S. LEGAIT
à N, la v.a. associée à tout individu a de la population telle que
Eo:1 ro:
si a appartient à l'échantillon
O sinon.
:
LES LOIS DE PROBABILITE USUELLES
Comme
il y a Cft-11 échantillons de taille n contenant l'individu a, et
échantillons possibles de taille n P
On peut écrire
Cfi
:
cil-l
(eo:
n
1)
Cfi
:
x-
: Yoro a:1 où Yo prend la valeur 1 si a est de type (l), Y : O sinon. N
E(X)
N
puisque :
Y- :
= I YoE(eo) a:'l Nn : a:1 aN
Np, nombre d'individus de type (l)dans la population.
d:l
De même:
V(X)
:
N
aTp
G:l
EEoe,.\:P (toeO: 1) : P(€a: 1, eO:
-
P
1l
(€o: 1). P(c, : 1,/to:
1l
n(n-1) N(N-1)
Covrc.E-l: V(sa) En outre
n(n-1)
n'
n(n-N)
N(N-1)
N2 -:
N'z(N-1)
:
leol:+ - É
Ele'?al_ Ez
nN tq:r>. YJt: N'P': a:l
"
a*Ê PH. TASSI
.
S. LEGAIT
LES LOIS DE PROBAEILITE USUELLES
D'où
:
V(X):
n
N
En remarquant
V
(1
^ n{n-N} * nN Y'+ -) N a:1 r'r,N - t) N
que :
y?
a
q:1
::
N
a:1
Yo
Pt
N-l
- :
Np, on obtient
pz*Nprffi # (l
(X):
: lll-r*, p,_ Ll,l-.N) N-1 d'où
:
N
(Nt
a:1
Y2,
al
:
n
*)l
p
:
v(x):
N-n N-1
noo
. 9n constate que, en notant Vn (resp. Vr) ra variance de X seron ra roi hypergéométrique (resp. loi binomiale), oria : V, Ç:
N-n 0, si sa densité
est
LES LOIS DE PROBABILITE USUELLES
Fonction de réPartition
Fr(x)
.
=
1-e-o^o
La forme de la f.r. donne une idée intuitive de I'origine de la loi de Weibull. En
: 1, on retrouve la loi exponentielle Y (, 0l dont la f.r. est 1 - e-dx, soit de grandeur x) : e-d*. Pour décrire des phénomènes dont l'ordreplus faible que beaucoup x} est ) du type extrêmes d'événements {X d'apparition
effet, si a
p (X )
e-dx, on est conduit assez naturellement à étudier leS exponentielles e-0^q.
Remargue La variable Xa suit la loi y (1, 0l; la loi de weibull se déduit donc de la loi **1 /a. exponentielle par le changement de variable '1
Moments
rt1 +1)
r
1x1
:----- o /a Q1
l-(1
v(x) =
2^1 +-) a.a-
l-'(1
+-)
62/a
Démonstration +oo
E
(X)
: J'
+oo
x a0 xa-1 e-e
oo
^a dx
.r.L-"o :J ^t- e-'^1 (;)
E(X)
Oaqaf/aqag1/ad E (X2y
: l'
+æ
du
= .f
e-d ** dx en intégrant par parties'
1
-*" a0xa-1 e-d"od* : 2 t
1
1
1
+oo
oo 1 ,1',*Zl : 2 rt?ld a g2/a
x
e-d*'
-
1
dx
o g2/a
d'où
:
t-(1
V(X)
:
+-l2^1- r' 1t +-) aa 02/a PH, TASSI
. S, LEGAIT
LES LOIS DE PROBABILITE USUELLES
2.4 f
Loi bêta
Soient X et Y deux variables aléatoires indépendantes suivant respectivement f (q). p ) 0, q ) 0. Nous allons chercher ta loi de ta variabte Z:X/y.
(p)et
La loi du couple (X. Y) a pour densité
:
: ;;+ e*(x+v) xp-1 yq-1 1,^. IR; x il,+ r (p) r (q) ".(x,y) la transformation g : lR* x lR+ * lR+ x .lR;- definie-paï
f,r,", (',y) Considérons
/x\
s
lu:X
\rl-\r:*,r) Le jacobien J (S-t)de la transformation (U, Z), d'après le théorème 5 du chapitre 3 :
frr,r1(u, z)
\
g-t est u/22 ; d'où la densité du couple
: --je-u 1r * |t up-l (l lo-t -yr(p) r(q) z z' f (p) f (q)
zq+l
Pour obtenir la loi de Z, il suffit d'intégrer par rapport à u
ce qui conduit à
On pose
:
:
B (p,
d'où
q)
-
rlP) ' r
(q)
r(p+q)
:
':
f-121 L'
PH TASSI - S. LEGAIT
B (P,
q)
:
(1 +
210*e
rR*
'
'
:
LFS LOIS DE PROBABILITE USUELLES
Délinition
11
Z suit une loi bêta ,sur lR* de paramètres p et q, dite loi bêta de seconde espèce. On la note É (p; q).
Rappels
B(P,q)
+ æ xp-l : J (1 + 11n+o O --dx
B(p,q)
:
1
: J" x.P-
1
(1
0
B(q.p)
;
B
11 (-, 22 -)
-
x)a-1 6*
:7f
Définition 12
f : -!1+Z
La variable aléatoire
suit une loi bêta É (p, q)sur [0. 1] dite loi bêta
de première espèce de paramètres p et
T est une v.a. à valeurs dans t0,
1
I
q,
:
,.hrn-r
11
> 0, q )
O.
En faisant le changement de variable
dans f, (z), on trouve facilement la densité de T
fr(t)
p
:
-t)q
11ro..,r(t)
La loi bêta sur [0, 1 ] est extrêmement utilisée, car pouvant être définie sur tout intervalle Ia, b] par le changement de variables Y: a + bT. Remargue Dans le cas
p: 1 et q :1,f r(t) :
Forme de la densité de T
lto, 1l (t) : P (1,1)
:
%rc, tl.
:
Elle varie selon les valeurs des paramètres p et q (voir les graphes page suivante).
Moments E (Tr)
En effet
q) B]gj::f: E rzr\: B (p, q) B (p, q)
B (P + r'
:
:
E(rl
:
tr+p-1 (1 _ t)q-1 J"1
0 122
tt
B (p, q)
dt:
B(P+r'q; B (p, q) PH. TASSI
- S, LEGAIT
LES LOIS DE PROBABILITE USUELLES
p>1
q)1
De même pour E (Zr), à condition que q
l'intégrale.
On en déduit
:
E(T)
E(zl
) r afin d'assurer |existence de
: --o q-
:
p
V(T)
p+q
(q> t)
v
(z)
pq
:
(p+q)'(p+q-1) p(p+q- 1) :--_____-____;_DOUr(q (q
|
-
1)'(q
La variable Z n'a donc de moments d,ordre 1 et 2 que pour q
Théorème
)
2.
1
Soient X et Y deux v.a. indépendantes suivant respectivement p ) 0, q ) O. Alors ta variabte ï: espèce.
i-X + Y
Le résultat est immédiat; il suffit d'écrire
les définitions qui précèdent.
PH. TASSI
>2)
- 2) '
- S. LÊGAIT
f
(p)
et
f
(q).
suit une toi bêta É (p, q)de première
T
sous la forme
X/Y
1+X/Y
et utiliser
142
LES LOIS DE PBOBABILITE USUFLLES
2.5
Loi de Gumbel
Définition 13 X suit une loi de Gumbel si sa densité est
f" (x)
:
Sa fonction de répartition est Fx
exp (x
-
:
ex), x €
lR
:
(x)
:
1
- exp (- ex)
Moments Tr
E(X) : -0,57722
V(X)
2
6
où O,57722 est la constante d'Euler.
Remargue
La loi de Y - - X porte aussi parfois le nom de loi de Weibull, à ne pas confondre avec la loi étudiée au paragraphe2.3. La densité et la fonction de répartition de Y sont :
fy(y)
: exp(-y-e-Y) Yc lR Fy (y) : exP (- eY)
2.6
Loi normale unidimensionnelle
Définition 14 X suit une loi normale de paramètres m et o par
(o) O) si la densité est donnée
:
(x-m)
t*(xt On note
X -)
:;fr"-T
2
(x
€ rR)
N (m. a).
Les paramètres m et a sont aisément interprétables. En effet, calculons E (X)
1 ^*æ E{X):----J o t/2t -
124
oo
xe
-
(x-m)
:
2
-------r-
2o
dx
PH. TASSI
- S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
En posant
u
: x-m
on obtient
o-
E(x):
:
^ -=-f*-, VZlr - æ
"-u"/2du:m
car la fonction à intégrer est impaire. De même
:
(x-m)
^1^+æ :-
l' o \f27r "-
E (Xz)
:
mt+
2^o
*
zo2
xt e
dx
!** -5- æ :/2r "
^ 2o2 ^+æ : m'+ J ----=-t/r o o20'3 t/n
= m- + ----/_ l- (= 2
Comme:
u'/2 6u
,/Zo -
oc
_2
Uz
"-u
/2
6u
)
:t1 , (t t1
ona:
v(x) Les paramètres m et
J**
v1l2 e-udv
(t) |_3
type de X.
*L
a
:
,,F 2
o.2
représentent respectivement I'espérance et l,écart_
Loi normale centrée réduite
.
La
v'a' u
notée N (0,
1),
-
X-m
suit une roi normare d'espérance nuile et de variance
dite loi normale centrée réduite de densité
-
1,
:
2
1 -u2 fr,(u) :p(u) : ,:e " r/2r PH.
TASSi S. LEGAIT
(ue
lR)
125
LES LOIS DE PROBABILITE USUELLES
La f.r. de U est notée O, et définie par
o(u) Les valeurs de la loi N (0,1).
-t (x-m) : t(y - g)ts >-1 S (y - rr) : t(v- ti D-1 (y-p) p1
:,I, 7
132
lv'-u')' PH TASSI - S. LEGAIT
LES LOIS DE PROBABILITE USUELLES
d'où
:
p 0i-u)2
I
2 ti'' e-
u = (2ùe/276-
g (y1' ..., yn)
: f, --! Vzroi
s (v1, ..., yoi
'
i-1
1
T
,1
Ni- u)2
"1
"-
donc Y.,, ..., Yo sont indépendantes et suivent respectivement N (g,, a;). On note
:
Y:
Ona:
(Y.,, .... yO).
:
1r et V(Y) : D où V (Y) désigne la matrice cJe variance-covariance de y, d'où
E(Y)
= E(SY) = SP: m V(X) : V(SY) : SV(Y) tS:
:
E(X)
SD
tS:
X
Propriété 5
Vu €
lRP,
tu
X
->
N (tum,
tulu)
ce résultat vient directement des propriétés du paragraphe 2.3 du chapitre 3. En particulier V (Z
:
u X,) :
It,l
u, u, E
(Xi- mi)(Xj- mj) : tu
V (X) u
Définition 18
La loi
t\ (O, lD) est appelée loi normale (multidimensionnelle) centrée
réduite, de den'sité
et
:
1
(xr, ..., Xn)
:
1 (2rlPtz --e
(t2l2x1
Théorème 3
Soit
X: (X' Xz) un couple gaussien à valeurs dans lRz. X., et X, sont
indépendantes o) ; F (x) : 1 - e-tu.
1-F(x) :
"-tu
: -6t ll existe une relation linéaire entre h (F (x)) : Log (1 - F (x))et x; le nuage de points (e,, Log (1 - Fn (e,))) sera représenté par une droite dans un repère arithmétique ; le nuage ("1 1 Fn (e,)) aura pour image la même droite dans un repère Log(1
-F(x))
arithmétique en abscisse et gradué par la fonction Log en ordonnée. Le papier fonctionnel adapté à la loi exponentielle sera donc log-arithmétique, dit papier semi-logarithmique. PH TASSI - S. TEGAIT
1
LES LOIS DE PROBABILITE USUFLLES
o l
.g
.o
s.ÈE L
(o
o
ô
-c uJ
o b
'o a a q
v,
a
ù)
o a. (ù a_
qræ rr)o O)orJ or)O) O o)-o) srq C o'o C oo6.O =O aa O(t'
E E o o
LIJ c')
PH. TASSI
- S. LEGAIT
= o
FFËHE=F d-dSè'co-
=
E S=ËÈ= ----é=-;-
o- -
LËS LOIS DE PROBABILITE USUELLES
Remarque
Le papier serni-log sert également à identifier un modèle multiplicatif m. s. r. dans une décomposition tendance-saisonnalité-aléa d'une série tetmporellè. ôuÀt ,n" telle échelle, on voit apparaître alors un graphe analogue à
X- :
un modèle additif à saisonnalité stable.
c) Application nurnérique Les températures relevées à 1O heures, sous abri, en mars 1953, à la station
météorologique du Parc Montsouris (Paris, 14e arrondissement) sont fournies ciaprès. L'unité est le degré Celsius, avec deux décimales'
0.60 4.OB
o.25 0.68 2.48
9 6.44 O.17 .16 3.43 1.64 2.22 2]7 4.08 1.23
0.1
1
.74 .23 5.32 2.85 0.35 1
1
0'A2 1 '74 3.80 3.67 5.05
2 34 0.55
1'27
0'26 3.22
o.00 Soit X la v.a. i'eprésentant la température précédemment déf inie. Peut-on faire l'hypothèse, grâce aux données fournies. que X suit une loi exponentielle ? On trace, sur papier semi-logarithmique, le nuage de points (";, 1 Fn (e,)) où les e, sont les ertrémités des classes choisies : tO ; 0,5[, [0,5 ; 1t, i1 ; 1 ,51,11,5 ;21' + oo[' 12;2,51,12,5;31, t3 ; 3,5t, t3,5 ; at, ft;4,51, [4.5 ; 5[, [5 ;
Le nuage s'ajuste sur une droite. On peut done penser que le modèle dont sont issues lès données est une loi exponentielle de paramètre égal à la pente de la droite en valeur absolue. 1-F en échelle logai'ithmique 1
0,9 0,8 0,7 0,6 0,5
0,4 0,3
0,2
1,5 2
2,5 3
(Echelle arithmétique)
3,5
4,5 PH. TASSI
5
.
S, LEGAIT
LES LOIS DE PROBABILITE USUETLFS
3.3
Cas de variables discrètes
Lorsque X est une v.a. discrète, on peut rechercher des relations caractéristiques vérifiées pour une loi bien définie, et étudier dans quelle mesure les données observées satisfont à cette relation. Nous allons citer deui exemples.
a) Loi binomiale On sait que siX suit une loi
fi fi, pl:
P(X:x) : CIP" (1 -P;n-* ll s'ensuit
x:0,
1,...,n
:
P(X:x+1) :h(x) P - 1-P -.il-x P(X=x) *;
(o(x(n-1)
si X suit une loi binomiale 9l fi,p), le graphe de h (x) en fonction dex est la restriction à {0, ... n - 1 } de t'hyperbole :
p(n-x) (1 -p)(x+
b) Loi de Poisson Soit X de loi
I e) P
1)
:
:h(x) :
(X: x)
, x€lN ^ x_1
si X est une v.a. suivant une loi g6y, te graphe de h {x) en fonction de x sera la restriction à lN de l'hyperbole
f1 Û
:
x+ 1 En pratique, si (a.,....,u") sont les K valeurs entières prises par X, et si t à K) est la fréquence relative d'apparition de a dans l'échantillon observé
(Xr, ...,Xn), on porte en ordonnées
:
f.'j
t'*''
_
1
h (aj)
et a. en abscisses. Si les données proviennent d'une loi de poisson, le nuage de t1 points (a,, .7) est à peu près linéaire; comme
r
h (a,)
1 - r*1
h (x)
^^
:
À peut être approximé par l'inverse de la pente de la droite. PH, TASSI
- S. LEGAIT
LES LO S DE PF]OBAB]LITE USUFTLES
4 4.1
DIVERS
Création de lois de probabilité
Toutes les lois de probabilité usuelles n'ont pas été présentées dans les paragraphes qui précèdent ou dans les exercices. ll en existe de nombreuses autres, et
ie tbcteui iniéressé pourra se reporter, si besoin est, à l'ouvrage de référence de l'ingénieur statisticien qu'est [8]. Peut-on dégager une préseniation synthétique des lois de probabilité ? En première approximation, trois modes de génération semblent exister :
a) Schéma d'urne ll s'agit de définir des v.a. en faisant référence à un schéma de tirage du type nbouleS danS une Urne>, selon diverseS modalités : tirage avec ou Sans remise, nombre de tirages fixé ou non, nombre de résultats d'un type donné fixé ou non' Les lois binomùle, binomiale négative, multinomiale, hypergéométrique sont des exemples de ce mode de définition.
b)
Variabtes données par une caractéristique (densité, fonction de répartition)
ll s'agit des définitions les plus fréquemment utilisées, en particulier pour les v.a. continues. Ces variables sont souvent en liaison avec un problème physique concret : ainsi, la loi normale relève historiquement de la théorie des erreurs de mesure en astronomie, la loi exponentieile apparaît dans les temps d'attente, la loi de Weibull en fiabilité, la loi log-normale dans les études économiques sur les revenus, etc. Dans cette classe prendront place les lois définies par leur fonction caractéristique (chaPitre 6).
cJ Variabtes définies comme fonction d'autres variables C'est une façon très fréquente d'engendrer des lois de probabilité. Nous I'avons utilisée, par exemple, pour les lois log-normale, du khi-deux, de Student, de FisherSnedecor.
Cette rapide classification mériterait d'être affinée. Par exemple, nous verrons au chapitre 5 que les lois de Student ou de Fisher ont des fondements géométriqr"r. Èn outre, il semble a priori très simple d'engendrer des lois de probabilité; il
suffit de considérer une fonction f positive, suffisamment régulière (chapitre 2) alors
;
:
f
(x)
I"IR f E) d148
PH TASSI - S. LEGA T
LES LOIS DE PROBABITITE USUELLES
est une densité de probabilité d'une v.a. continue. De même, sous réserve d'existence, toute fonction f développable en série entière à termes positifs :
f(?l.:
x
x€lN
peut être utilisée pour donner naissance à une loi discrète
P(X:^1
:
: -u-" r (0)
De telle lois ont-elles une base concrète 7 Sont-elles rencontrées dans les modélisations probabilistes des phénomènes physiques, socio-économiques ou autres
?
Exemple Considérons le développement en série des fonctions ch et sh
chu:
oo
oo
,2n+1
n:g
(2n + 1)
U2n
n:g
(2n)
On a donc:
ôo
11-
!
1
n:0
ch
oo1
!
U2n
u
(2n) ,2n+
:
:
!
1
n-O shu (2n+1)!
On peut donc définir deux lois de probabilité discrètes associées aux v.a. X et 9, ensemble des entiers pairs, et J. ensemble des entiers impairs, par :
Y, définies respectivement sur
P(X:y) : P(Y:Y) : En outre
:
E(X)
d'où
Àx
ch
.À
(x€0),.ÀctR*
1
(y
yl sh,À ^v
: :
€
xeA
ch .l
^x x!
z= x€J
^ ch,À
^x x!
:
E(X) PH. TASSi - S. LEGAIT
x!
J). ,l € lRi
: ^rhÀ 149
LES LO]S DE PROBABILITE USUELLES
Une telle construction n'a de sens statistique que si la loi engendrée peut être mise en liaison avec une réalité. lci, X (resp. Y) est la restriction de la loi de Poisson I (l) à l'ensemble des entiers pairs (resp. impairs).
4.2 Les coefficients
de symétrie et d'aplatissement
X étant une v.a.r., nous noterons respectivement par mk et
/k
les moments
non centrés et centrés de X.
a)
Les
coefficients de Pearson u^
nPt-
A-Fq P2
3
u^
2
lJz
Lorsqu'une distribution est symétrique, les moments centrés d'ordre impair sont nuls ; É.' est donc nul. Le coefficient P1. dit coefficient de symétrie (on emploie très fréquemment le terme anglais de oskewness,) est un indicateur de symétrie de la loi de X. Le coeff icient B, représente le degré d'aplatissement ("kurtosis,) de la loi de X en un sens précisé ci-après.
b)
Les
eaefficients de Fisher
Les coefficients de Pearson sont moins utilisés que les coefficients de Fisher, Y1
el Yr: Y,,
:
Yr: Bz-3
JB,
L'interprétation de f1 est identique à celle de É., (skewness). La définition du coefficient de kurtosis fait référence à la loi normale. Calculons F"pour N (0,1). On sait que
:
E
(X2$
:
rt**pl 2n
r lJa :
Âa:
4
_.5. I lZ) _^ _J r
et donc
150
:
Fr:
ttt
ttt 3
PH. TASSI
- S. LEGAIT
LES tOIS DE PROBABILITE USUFL-LES
d'aplatissement de Pearson. pour une loi no?male N (0, 1 )
:
Y1:Y2:O
c)
Valeurs de y., et yzgour quelques lois usuelles
o Loi binomiale
q-P
t't
1-6Pq /2:
\,6pq
La distribution est symétrique
intuitif.
npq
(r., : o) si p -
: q : +, 2'
résurtat d,ailleurs
e Loi de Poisson
Y':,r,D On remarque que, si
,À
-
vers O, c'est-à-dire ceux de N (0,
Y": ^
+ co, les coefficients de Fisher
de g
1).
(,1
)tendent
o Loi log-normale En notant ar
:
exp
or,
on obtient:
\/,r 1 Y, : -r*2-
y": eo + 2u3 + 3u2 -6
o Loi gamma y (p, tl
Yt
26 : -7vP
Yz: - -p
o Loi bêta É (p, q)
\/: I2 Yz: PH TASSI -S LEGAIT
2(q-p)v[;l-J p+q+2
3(p+q +11 t2(p+q)'+ pq(p+q-6)l pq(p+q+2) (p+q+3) 151
LES tOIS DE PROBABILITF USUELLES
Loi uniforme
Yz: -1'2
Y't:O Loi de Fischer F (n, m)
Yt:
8(m-4) n(m+n-2)
2n+ m_"2
Yz:
m-6 121|m
-
2l' (m
(m)6)
- 4l + n (n + m -
2) (5m
-
22ll
n(m-6) (m-8) (n+m-21.
(m>8)
Loi de Student T n
y.,:O o Loi du x2 (n) Y'r
4.3
(n)4)
Yz: n*4
IB
:
12 Yz
n
Une structure générale : la famille exponentielle
De nombreuses lois de probabilité, discrètes ou continues, prennent place dans une vaste famille de lois, dite famille exponentielle (à ne pas confondre avec la loi exponentielle vue en 2.2).
Définition 23 Une loi de probabililé P0,.0 e O ensemble des paramètres de P, est dite appartenir à la famille exponentielle s'il existe une mesure p o-linie, des fonctions réelles c (d), b (x), a, (d), T, (x), b (x) et T, (x) mesurables, telles que la densité f (x, 8) de P, par rapport à g vérifie :
I
a; (d) T,
l(x,01 :c(d) b(x)sj:1 ' Logf(x, 0l
:
y(d)+P(x)
(x)
)
r
+ I a,(d)T,(x) j:1 ) )
PH.
TASSI S
LEGAIT
LES LOIS DE PROBABILITE USUELTES
Exemples
r
Loi binomiale
f (x, p)
CX
p"
{1
-
p;n-x
: cX (1 -p)n( . o )*: cI (1 J; n' -p)n e^t"n " 1-p
f (x, p)
d'où
:
:
: h(x) : c(p) : a(p) : T(x)
x
Cf (1
-p)n
f-og
lLr-p
o Loi de Poisson f (x,'À)
c(,1)
:"-'r
o Loi normale
h(x;
: e-i
:1.
^x x!
a(,À)
x!
:Log,À
T(x)
:x
:
(x-m)
:
f (x, m, a)
1
x/2n
T,(x)
:x2
T2(x)
a., (m,
r
o)
Loi exponentielle
:x
: -
e
-!o-t t/2t
^' o-, e ;7 h(x)
1m 2",
TASSI S LEGAIT
:1
mx
^" ;7. 7
"-
c(m,a) -o-1 ar(m,
"l
:
e-m2/2o2
7
:
rg,0,pl:-fro PH,
2o2
"-dx "P-1
I,**
(x)
] 53
LES LOIS DE PROBABILlIE USUELL ES
Tr(x)
:*
Tz(x)
:Logx
a,(0,o1 e Loi uniforme
h(x)
:1,r.(x)
--0
ar(0,o1
c(d,p)
:
0p
r(r)
:P-1
:
'f
:
(x,ol
1
,
i
to,
rt
(*)
Elle ne se met pas sous la forme exponentielle.
o Loi de Cauchy:
Ladensité:
t(x,01
:- 1
1
T;S_6
ne se met pas sous la forme exponentielle.
4.4 Génération d'échantillons
aléatoires
Nous avons vu que, si X est une v.a.r. continue de f.r. F continue strictement croissante, la v.a.r. Y: F (X) suit une loi uniforme %ro,r,.
Propriété 7 Soit xo (resp.
y/
le fractile d'ordre a de X (resp. Y) ; alors
Yo
:
:
F (xo)
Démonstration
P(Y< Yol d'où
:
: a: Xo
:
P(F(x) < YJ : P(Xzl
Le mode est en d.
Vx)d:F(X)
F(x)
4.6 toi
et v{X)
:
=$
agd 1a+1
I
-(è1: 2
21/a
6
dr
:
I
0a _(_) X
donc la médian e est en 21/a
0
du khi-deux décentrée
soit x
:
(xJ,:,
,n, un vecteur aréatoire
gaussien de dimension n, de roi N (0,
un vecteur de lRn, 0n définit la variable aléatoire
Y: llX+0ll'= PH TASSI S LFGAIT
:
n
i:l
(x. + 0il2
rJ. soit d
:
(d;);:16n
LES LOIS DE PROBABILITE USUELLES
Y suit une loi du khi-deux décentrée à n degrés de liberté et de paramètre d'excentricité (ou décentrage)
de
:
n
t Ê,:ll0ll'
^0n la note
:
X'
i:l
I
1n, À1.
1)
Montrer que la loi de Y ne dépend que de la norme de d et non de
2)
Calculer son espérance et sa variance.
3) Si (X;);=16n sont n v.a. indépendantes de lois
respectives N (m,,
d
lui-même.
a,). 0n dit que U:
I
X]suir
une loi du khi-deux décentrée généralisée. Calculer E (U) et V (U).
lndication
1) Soient 0:10.1,-'un et
Z:X+0: z' : x + 0' ..
Soit
2 et llZ'll2
Montrons que llZ ll
lld d'où
d' : (dilt:,.n
ll :
ll = f
Z-> N(d,ln) z' -> N(d" ln)
llZll':
llAZll2
Anrn orthogonale telle que
->
N (0,
:
zl
E(Y)
: J.
r1x]f
llAX+AAll'?
l.) ; AX +
Z' et AX + d' ont même loi, donc llZ ll2
V(Y)
:
vt
i-
i:l
lx?I
+ 2ï. 0
I
â',
i:l
:
:
->
E(X,)
I
+27iXill: : I'
V(Y)
I
0'
:
A0
llAX+0'll" N
(4"
ln)
et llZ'll 2 ont même loiX'?
t:l
I
ll0'll
:
AX
t
lldll :
ont môme loi.
lld'
0r:
162
deuxvecteurs de lRntels que
V(IXÎ)
+ 1. s2
:
(n, lle li'?).
n+
À
I
tV(Xlt+ 40?ulxil+4d,Cov(XÎ,Xi)l '
+4À:2n+4À PH.TASSI
.S
LEGAIT
LES LOIS DE PROBABITITE USUELLES
3)
=.{,
E(u)
v (u) Comme
X,-fi,
tt tx]t
- r' txJt
111,
on déduit E
(Xi-
mi)4
-
3 oai
I
: :nnl3oa+6n'.o7 *r1I
@1,+n?y21 I I
'
i:l
4.7
i
i:l .
suit y=
--)
:
V(U)
:
2m2
:
( d'où
+ E21x,}J: zo2 +
tu(X,)
t-l
: t
soient n v.a. indépendantes (x,) de densité f.. 0n définit les probabilités
:
p,
Montrer
que P
: - i i:l
Zo:,@?,*
i:l
2n1J
:
X.
t, {t) dt
{'
2 Log p suir une loiy2 (2n). '
lndication P,
.1,
F (X,)donc
La densité de
-
P,
: -
varraDle:9lx'l
-? Aro.r,
(cf. exercice 3.1, chapitre 3). 0n effectue le changement de
2Logx.'
2 Log P s'écrit
:
:
s (t,)
I
2
donc
-
2 Log P
-)
X"
el;
les
X
,-
"'
1i0, * -J
(v)
sont indépendantes. les
p
aussi, donc:
n
i:1
.
I
PH TASSI S. LEGAIT
163
Chapitre 5
Géométrie des variables aléatoires Ce chapitre aborde deux aspecis différents des variables aléatoires. Le premier est relatif aux propriétés des v.a. admettant espérance et variance ; le second établit les bases de la géométrie des v.a. ayant une variance finie, et les approximations de v.a. qui engendreront la régression statistique.
1
ESPACES DE VARIABLES ALEATOIRES
Dans ce paragraphe, nous ne considérerons que des espaces probabilisés ; la formulation la plus générale fait référence aux espaces mesurés (voir, par exemple, t
16l)
1
.1
Les espa ces
9 t et
L1
Soit un espace probabilisé (O, u4, P) ;on note 9., (A, .nl,Pl- ou 9., si aucune ambiguïté n'existe sur I'espace probabilisé - l'espace des v.a. réelles, intégrables, définies sur (Q, .&1. On sait par ailleurs (chapitre 2)que la relation oégalité P - presque sûrement, est une relation d'équivalence sur 9.,. Définition
1
On appelle L.' (Q, ué, pl l'espace quotient P -ps.
de 9., par la relation d'égalité
L, (Q, ol , e) est donc l'ensemble des classes d'équivalence de 9., par la relation d'égalité P - presque sûrement. On le notera L, par la suite. En assimilant v.a. et classe de v.a., L1 est l'ensemble des (classes dei; v.a. admettant une espérance. Par exemple, la loi de Cauchy (cf. chapitre 4) n'appartient pas à L,. Théorème
1
Ll est un espace vectoriel sur
llxlll PH TASS] -
S
LEGA T
lR normé par
:
Jlxl
dP:
:
E(lxl) 165
GEOMETRIE DES VARIABLES ALEATOIRES
Notons que J XOp a un sens pour X € Ll ; on fait la confusion de symbole entre X et sa classe d'équivalence, car si X et Y sont dans la même classe, on a :
E(X) ll est facile de montrer que
:
vÀ € rR llixll,
L.,
:
E1Y1
est un espace vectoriel. En outre
:
llxll, .llx+Yll,: -ilx*vl op est bilinéaire symétrique strictement positive, c'est-à---dire eit unlaproduit scalaire.
Conséguence La norme au sens de L, est notée llX
llxllS: JX'?dP
ll, et définie par
:
ou llxlir: Glx't
La notion de convergence dans L, s'en déduit
:
Définition 4
soit (Xn) une suite de v.a.r. de Le ; Xn converge vers (noté
L^ Xn é) X)si
ra v.a.r. X au sens de L,
:
llXn
-
X
ll, ----->
i.e E(Xn-X)2->
O
O
(n*-)
Très utilisé en statistique, ce type de convergence porte aussi re nom de
convergence en moyenne quadratique (m.q.).
Exemple
soit Xn (n ) 1)une suite <Je v.a. de loi binomiale B (n, chaque n, la variable aléatoire ofréquence empirique,
p).on définit,
pour
:
-n
PH TASSI S. LEGAIT
X
167
GEOMÉTRIE DES VAR ABLÊS A,LEATOIRES
x_ ^ 1 t(ï-p)':Ër,*"-np)':
1 ,
.
V(Xn)
:}: p(1 -p)
Fn converge vers p au sens de Lr.
Considérons le cas particulier où la limite est une v.a. constaRte a
:
E(Xn al' : E(Xn-E(Xn)+E(Xn)-a)2
:
+
V (Xn)
(Xn)-
1E
al2
Une C.S. de convergence dans L, de Xn vers a sera
( ri,.n lnl I I lt'.n (n
E(X")
:a
V(Xn)
:o
:
Théorème 3 (Cauchy-Schwartz) Soient X et Y deux v.a.r de L, ; on a
llxY
:
ll,
0
our PH TASSI
fdg
( *. On sait que, par ia concavité de la fonction Log Log(aa
+ Bblè a Log 6+pLogb
sa + Êb2 S
LEGAIT
:
a"bB 169
GEOMETRIE DES VARIABLES ALEATOIRES
Posons
:
lrdp fd
-[sds
f
gP
jrdpY ll sdttlq .----\u
I
lrdp
En intégrant par rapport à p, on obtient
ds
1r" sB
(
d'où le résultat annoncé puisque a
ii)
Prenons
p:
t:
P,
(a +
IXIP,
J lxYl dP
OH. on en déduit
près, la longueur OX:
- Vn--
a:.16 Comme OX
:
-
nq'
oX
: q ) i.
La variance (ou l'écart-type) est également facilement interprétable
XH2
ou: PH TASSI S. LEGAIT
: : (xi i)t : ns,t : XH : .16. S,
(n
_
:
1) 52
113
GEOMETBIE DES VARIABLES ALEATOIFES
Calculons maintenant
où Si et Sidésisnent les écarts-types empiriques de (xr, .. ,xn)et (y.,, ...,yn)
cosd:
>
(xi i) (vi - v)
ffi
:
:
r(X,Y)
Le coefficient de corrélation linéaire empirique n'est autre que le cosinus de l'angle entre les vecteurs associés aux variables X et Y centrées en leurs moyennes respectives.
2.2
Géométrie dans L,
Plaçons-nous dans l'espace des variables aléatoires réelles de carré intégrable L, (Q, .4, gl, muni du produit scalaire de la covariance :
<x,Y>: JxYdP:
E(XY)
On désigne pare lavariablealéatoiretelleque e(>f.f,, Cov(yyl 'r't'
Cov(Xk,Xt)
k I'n >f f.
:
f
V(Xk)
k'*JK
: o't
:o
k
f..f.. rKlK
d'après les propriétés des matrices orthogonales.
Théorème de Fisher Soient n variables aléatoires (X.,,...,Xn) suivant indépendamment la loi normale N (0,1). n
Les variables
16 Xn et t . l:
(xi
- X)t :
(n
-
1)
Si - nS;'
sont
I
indépendantes et suivent respectivement N (0,1 I et X'(n
-
1)
Démonstration Soient (e.,, ...,en) la base de départ, (f1, ..., fn) la nouvelle base orthonormée. n
Le vecteur unité
Ë peut s'écrire
X représentant le poinr t(x.,,
I i:1
ei. |
....Inl,on sait que N(0,1),Vj
s-,^^^,111'", ensutt
:
t
à n.
1
:
.
Yn
: n6 X" suit N (0,1), résultat que nous connaissons
déjà.
o Yn est indépendant de Yr, ...,yn_r et par conséquent, est indépendant de
. r
n-1 j:l
n-1
I . j:l
_ YÎ suit, par déf inirion, une loi du ;2
(n
'
-
1).
L'application orthogonale conservant,les distances
n-l j:l i:1
une loi N (m, a)
;
n
r
n
et donc
l
i:1
|
:
Corollaire Soit (X,, ..., Xn) n v.a. de même loi N (m, a), indépendantes ; alors
t6
(Xn
-
t)
oo,
"t
rn
-rt
5
suivent indépendamment une loi N (0. 1)et une loi X2 (n PH TASSI S LEGAIT
-
1).
:
:
GEOMETRIE DES VARIABLES ALEAIOIRES
Démonstration
ll suffit de se ramener centrées et réduites
au théorème de Fisher en l'appliquant aux variables
:
X.-m
w-l t-
to
b) lnterprétation de la loi de Student
soit X,, ..., Xn, de loi N (m, a). on a
,6
(X 'n -m)
->N(0,1)
o
S2
n-
x2$-1r
-ln-1
o" Donc, la v.a.r.
:
:
- r)
.,6 (x. U
S
:n
t
/-[Vt" -tt . numérateur et dénominaV n-1
suit le rappor:! d'une loi.N (0,1) sur une loi . teur étant indépendants (cf. chapitre D'où
.u6 (x.
:
4).
-
rn)
-)T(n-1)
n
Où la loi de Student intervient-elle géométriquement ? D'après le théorème : (n - 1) Sl suit une loi X' F - 1). On a, en revenant à la figure
de Fisher, HX2 précédente
:
cotg a
d'où
:
:
\Â-lcotga-)
OH
-
HX
suit N (0,1)
: T(n-1)
L'interprétation de y2 etI est simple : si X varie aléatoirement et <normalemento dans I'espa"", s"s coordonnées polaires également : la loi de p2 : OX2 s'appelle la loi du X2, celle de Student. 184
vGJ
cotg d, où a est l'angle (OA,
Ë) suit la loi de
PH. TASSI
- S, LEGAIT
Chapitre 6
Un outil : la fonction caractéristique Le calcul des probabilités repose essentiellement sur l'étude des variables aléatorres. Les chapitres 3 et 4 ont présenté un ensemble..de définitions et de propriétés; d'autres' comme.les convergences, seront vues dans le chapitre suivant. Ce chapitre est consacré à la présentalion d'un outil extrêmement pratique pour étudier le comportement des v.a. (somme, indépendance. limitéi: la fonction caractéristique (f.c.).
1 DÉFINITIoN ET PRoPnIÉrÉs D'UNE FONCTION CARACTÉRISTIOUE 1.1 Définition Définition
1
Soit P une probabilité définie sur (lRo,;fo) ; on appelle transformée de Fourier de P l'application g, : lRn --+ 0 définie par : pp(u)
=J
"it'*
6P
1*1
Remargue Le symbole ç a déjà été utirisé pour ra densité de ra roi N (0.1). Néanmoins, ra confusion avec la fonction caractéristique ne saurait exister. soit P de densité f par rapport à ra mesure de Lebesgue i. p". extension. on appeile transformée de Fourier de f la quantité :
er(u) = -i eiu" t(x) d,i
(x)
ll en est de même si f est une apprication intégrabre à vareurs réeiles. Remarque Sous réserve d'existence, on montre aisément en intégrant par partie er(rl(u) = (-1)k (iu)k
:
1
185
UN OUTIL: LA I-OI\CTON CACACIÉRISIIOUE
Définition 2 Soit X un vecteur aléatoire (A,,il , P)'-+ (Ro,,l/? tique de X, la transformée de Fourier de Px: çx(u)
=
=
çpx(u)
Avec des notations évidentes, on a
o) :
on appelle fonction caractéris-
Jsitux 6px (x) = E lsituxl
:
(i Ë ,, x,) j=1 91 (u1, .'.'uo)= E e En particulier, si X est une v.a.r. définie sur
v u elR,
N(m,cr): Si U
->
qu (u)= e-'2/2
N (0, 1)
X= m+oU:
gx (u) = E (siu
(m
+au)) = sium gu
(uo)= dum u*u2
2/2
2.8 Loi du x 2 (n) six->x2(n)
çr(u)=_4 r^ r'' ftziu)tz
'
2.9 Loi de Cauchy Si X est de derrsité
f (x)=
-l--: n (1 +xz) 9x(u)= s-lul
2.1O Loi de Laplace Soit X de densité f (x) =
.px(u)= '
+
e- l* l, x €
iR
J]-"-x(1 -iu)6* *2 |o-"-(1+iu)dx.{ 20 +@
l*= 1 to [e-"(t+iu) as-x(1 -iu)1 dx= Jo cosux.e-xdx
i
En intégrant par parties
:
çx(u) = [-e-*cos ux]fr-u Ji = 1-u
192
1
L
i I i
t
"f0
sin
uxe-xdx
sinux.e-xdx
PH.
TASSI S. tEGA]T
UN OUTIL : LA FONCTION CAFACTERIST|OUE
=
- u2 {
u [e-x sin ux]f-
1+
cos ux.
e-x
dx
= 1-u2çx(u) d'où
:
=
ex (u)
1
1+u2
2.71 Loi normale multidimensionnetle Soit X à valeurs dans lRp, de loi N (m, X) ; u étant un vecteur de Rp, tuX une v.a.r. de loi N (tum, tu Xu). La f.c. de tu X est :
gtu* (v) =
d'où
.
qx (u)
:
siv fum)
s-(u Eulv2/2
çtux(1)= situm s-ruDu/2
2.',2 Loi multinomiale t6h:
Soit X = t(Nr. ...., Nr) un v.a. de dimension k de loi multinomiale
p1. ...., pp) (chapitre
4); la f.c. de
:
k
tuX: t
uj
Nj
j=1
est: 9t,*
(v)
=
x
---J-]-_ --
pÎ,
plk eiu,=51,,"
où la somme porte sur tous les k-uples (nr, ....,nn)vérifiant
I
n,
:
n.
j=1
Qt,* (v)=
x
(p1
o'fî
eiu'')n'.."
(ppeiu'r'1nt
k
=( t j=1
Env= 1:
pj eivur )n k
9x
(u):( X pi ei'i
;n
t=1 PH.
TASSI S. LEGAIT
1
93
Ù\
3
OIJTIL : LA FONCTION CAFACTÉRISTIOÙE
APPLICATIONS DE LA FONCTION CARACTÉRISTIOUE
Outre son utrlisation dans le cadre de la convergence en loi, qui sera étudiée au chapitre 7, la f .c. aide à établir un certain nombre de résultats parfois laborieux à démontrer par usage direct des définitions. Nous en développerons trois.
3.1 Loi d'une somme de vecteurs Théorème
aléatoires
I
Soient X et Y deux vecteurs aléatoires indépendants à valeurs dans (Rp,;4p), de f.c. respectives ex et gr: Çx n y (u)
= çx
(u)
çv
(u)
Démonstration : gx Par séparaton des
*y
(u)
=
E (situ (x*YD
i"iii:;i:i:il
=
E (eitux situvl
l',1,i,"1
;:iïiiff'
Cette propriété se généralise sans difficulté au cas de n vecteurs aléatoires indépendants. Si (X,), i = 1 à n, sont indépendants. qi étant la f.c. de X', alors :
qlu)
= ftçi (r)
Xxi
i=1
Exemples:
l3F,
a) Les calculs faits en 2.3 et 2.4 montrent qu'une v.a. de loi binomiale ù est la somme de n v.a. indépendantes suivant la loi de Bernoulli.'/(1, p). De
même
:
7Bb, pl + ,/J (, p) = J3 (n + 1, p) b) Si X et Y suivent deux lois de Poisson indépendantes de paramètres respectifs À et p, alors :
Qx * v (u)
:
çx (u) çv (u) =
u( À + u) lsiu -11
qui est la f.c. d'une loi 9(À+p). D'après le théorème d'injectivité, si X et Y el 3(pl, alors X + Y suit la loi suivent indépendan"rment des lois de Poisson g(
,?(À+
^)
p).
c) Soient X et Y deux v.a.r. indépendantes de lois respectives v (p. 0 ) et g (q, y ). La v.a. X +Y suit la loi y (p + q. A ). En
effet:ex*y(u)=
de la f.c. d'une loi
(1
-
Y (P +
I
iu)-p.(1
q, 0
-0iu)-a:
(1
-diu)-n-cqui
est l'expression
l.
PH TASS1
.S
LEGAIT
UN OUTIL : LA FONCTION CARACTÉRIST|OUE
d) Soient X et Y deux v.a.r. suivant indépendamment des lois normales
N
(mr.or)et N (mr,o2). Alors X + Y suit une loi N (mt, mr, -r/"1
En effet
*"|
I.
:
gx
* v (u) -
giuml
en'41'
gium2
grz
o:l' :
giu(m1
+ m2) e42 (t *
4)l'
e) Soient X et Y deux variables aléatoires indépendantes suivant respectivement deux lois du x2ànet m degrés de liberté. Lav.a. X+ysuit une loi 12(n + m).
3.2
Caractérisation de I'indépendance de deux vecteurs aléatoires
Théorème 9 Soient
Xt et X, deux
vecteurs aléatoires à valeurs respectivement dans
(lR?.r'tn\ et (tR9rdq). On note:
x _,x.. ,X, ,
dedimensionp+q. a)V (u.,.
u2)€
lRp
x
lRq,
ex, (u1)= ex
(u1.
0)et O1, (u2)=
b)X' et X, sont indépendants si et seulement = ex, (u1) e1, (u2).
(u.,, u2)
Ox (0, u2).
si V (u1, u2) e lRp x lRq, gx
Démonstration 9x (u1,
a)
çx (ur, et b) Si X1 et
u2)
= E (si(tutxt
0): r (eitutxt;=
+tu2x2))
ex'
(u1)
ex (0. u2) = E (eituzxzl = ex,
(u2)
X, sont indépendants alors
:
gx (u1, u2)= E (situtXt ,itu2x21=
= e1' (ur) e1,
E (eiturxr; E (eituzxz;
(u2)
Réciproquement, on suppose eue gx (u1. PH TASSI - S. LEGAIT
u2):
ex., (ur) ex,
(u2).
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Pour montrer.que X, et X, sont alors indépendants, Px = Pxt @ Pxz fl-héoième dè FuOlnl, chapitre 2). Calculons la transformée de Fourier de P
gp (u1,
ur) =
J
= Px1
il suffit de prouver
que
'
@ Px2
+tu2x2l dP (x1, x2)
"i[tu1x1
= J silturxr
+
tu2x2l
d (px1 @ px2) (x1,
x2)
= J siturxr dpxl k1) J situzxz dpx2 k2)
:9x., (ur) ex,
(u2)
donc ç, = ,po*, ce qui entraîne P = Px d'après la propriété d'injectivité et X1 et X2 sont indépendants.
3.3 Obtention des moments non centrés Théorème
1O
Soit X une v.a.r. appartenant à Ln (Q, ,v/ , Pl, c'est-à dire
:
Vk "//(n; p1, ...., pp)de f.c. çx (u)-(x
pr eiui)n
1=1
en utilisant les propriétés liant les moments aux dérivées de çx en O, on peut retrouver la matrice des variances-covariances de X :
ôpx (u) = n (x pj eiuj)n-l ip, ei,i
à'i
Enu- O.ona'
j
u**(o) = inp, = iE(Nr), ôuj
E (N,) a2ç_x (u)
uzui
:
n (n
:
nR,
_ 1\i2 ple2iui(I p; )
+ n i2 pj
",
?' q* (o)= -
(l
d'où
et 1
98
:
E 621
:
n (n
-
np, (1 + (n
V(X)=nBi
-
t
1) p3
-
p, eiuiln
a2u)
(1
-
"iu;;n
-
2
n p,,
1) pi)
-pi). PH TASSI - S. LEGA]T
UN OUTIL : LA FONCTION CARACTÉRISTIOUE
Enfin
;
a3f
n (n
,lyl = Zuratt=
-
/'
1) iz pj
pr ei,j eiur 1I pj eiuj)n j
= i2EXj Xr) d'où
:
E (X;
et
Xr )= n (n - 1)pt p
Cov (X,.
X, )= _ n p; p
Nous conclurons sur un dernier exemple d'aide que peut apporter la f.c.. pourtant non conforme à sa définition. Considérons une ù.a.'X de loi log-normale LN (m, a),.c'est-àdire X = eY, y de loi normale N (m, o), û cherchons â calculer E X) = E (eY). On peut procéder à un calcul direct lifrapitre 4).- Or .
rpy (u)
Pour retrouver E (X). on
E6z;
:
E(ezv1;avecu=
=
E (eiuv1
=
"fait " u =
-2i,E(x2)=
6ium
-
s2m
"-u2t212 i et E (X) = um+o212.De même
e2o2,soitv(x)=
s2m+t2@o2
:
_l).
ll est clair que ceci n'est que mnémotechnique, puisque u est réel, et ne peut être priségal à-iou-2i.
4
SECONDE FONCTION CARACTÉRISTIOUE
4.1 Définition et propriétés Définition 3 On appelle seconde fonction caractéristique du vecteur aléatoire X l'applica-
tion
de
lRp
dans C définie par
:
ue lRp-wx(u):Logçx(u) on considère par la suite u réel. on sait que I'on a, d'après le théorème 1o ex
(u): r .
," "i, *.ï1
oùmn=E(Xn).
Auvoisinagedeu:0, +k(r)
PH. TASSI
.
S, I FGAIT
:
Log (,
*"f,
*la ,"
)esrdéveloppabte,
199
:
UN OUTIL : LA FONCTION CARACTÉR]STIOUE
et on peut écrire
:
x ry wx(u)= k=r k!
ona:
KkK
Ë**=vp(o)
Définition 4 La quantité Kn s'appelle le cumulant d'ordre
k.
On obtient aisément les expressions liant Kp aux moments
vx (u)= =ium1 On en déduit
+
Tlmn -( "?, Hmn)2 "?,,
- 'æ
(mz-mf1
:
+ +f
(
,'?,
H
:
mn )3+ .
.
(ms-3m1 m2+2m!)+...
mr Kz= mz- m? = pz Ks= ps Kc= Vc-gp|
Kr =
Exemple.- pour une v.a. X de loi N (m, o ), on a
v* et donc
(u)
: ium -
u'
:
?' 2
:
Kr=m=E(X)
Kz=02=Vfi) Kr= 0pourk)3
Au même titre que les moments non centrés, les cumulants caractérisent
une
distribution de probabilité. lls seront donc des outils précieux. Propriétés des cumulants Les cumulants possèdent diverses propriétés intéressantes
:
a) Soit a une constante réelle quelconque : on sait Que gx * u (u)
et donc
:
uiuu qx (r)
:
t#y*"(u)= iua+w"(u) PH.
TASSI S
LEGAIT
UN OUTIL : LA FONCTION CARACTÉFISTIOUE
En désignant par Kn
X,ona:
K1
et çy:
fi
+ a) le cumulant d'ordre k de X + a
et Kr fi)celui de
(X+a)= KrX)+a;KpX+a)= Krfi) pourk>2
b) Soient deux v.a.r. indépendantes X et Y, de fonctions caractéristiques g*
V1*y(u)= W*(u)+Wy(u) et, avec des notations claires
:
y) = Kr 1X)+ Kp (y)
Kp (X +
c)soit X une v.a.r. de densité f(x), K* son cumulant d'ordre k; a est un réel ; le symbole d désigne la dèrivation, dk est l'opérateur " dérivée
quelconque k ième ".
On définit la fonction g(x) par
sk)=
[exP(-t)-#] tk) (k€ lN)
L'opérateur g(- 1)kaak/tl représente
:
;
3+
(- t;;n j !(k l)r
j=o On a donc
:
:
f(k)
(x) = f'\"/ (x) sv\"' - ""
(x) * a2
k!
f(2k) (x)
2l
(k!)2
En notant Far gr (resp çs) la fonction caractéristique de
linéarité
on (u) = ç, Or on a vu
(r)
que: rp4ry(u)=
- fr
(-
arrrl (u)
(u) =
wn TASSI
S, LEGA|T
. a*. 2t 1u1z
,p,''*' (u; -....
1lk (iu}k çr (u). et on peut écrire:
ps (u) = er
PH
f (resp. s) on a, par
:
(iu)lt r f ; ---3ii=o j!kl)j '-'
1
Ar (u) ea
(u)= w,
(u) +
(iu)k,/k
_Â
I
(iu)k
UN OUTIL : LA FONCTJON CARACTÉR]STIOUE
O" (! l)n dans le développement k!
ll s'ensuit que le coefficient
de en (u) est
Kk(s)= Kp0+a.
égal à
Kr+a;
k>'1,
d) Plus généralement, soit une densité (x), Kç(f)son cumulant d'ordre k, une suite de réels. On définit g (x)par:
avec des notationsévidentes,
s où h est l'opérateur exp
t ;
ap
8):
(-
(ar.),
h [f (x)]
dklk I l
1)k
k=l æ
g (x)s'écrit sous la forme s (x) =
) 'l r.f(k\x)' avec Ào = 1' k=o
On a, par un calcul analogue au cas (c) Kk (g)
=
:
Kp (f) + aç. Pour
tout k >
1
4.2 Application aux développements d'Edgeworth et de Gram-Charlier
On souhaite approximer une densité g (x), de cumulants connus, à l'aide d'une densité.connue.f (x).et de ses dérivées, c'est-à-dire rechercher un développement de la forme :
g(x):f(x)+
À
1
f'(x)+
À
2f"
(x)+
...
où les coefficients À't, À 2,... sont connus. Supposons qu'une telle expression de g (x) existe. En notant Kp (f) (resO. Kp le cumulant d'ordre k de f (resp. g). âvêc âp = fo (S) - Kk 0' on peut écrire formellement : (g))
s (x)= exp.
soit: s
(x)
=f
I k=i
un
t-
1)k
dklk lF
(x)
l
(x)- a' f' (x) .
a? +a^
# t_"? -_3r, "*_". )
f"
(x)
fl3)(x)
3!
aI + 6a1 ar+ 4a, at+ ao ) _ * (------4
it+l1xy+...
|
242
PH TASSI
-S
LEGAIT
UN OUT|L : LA FONCTION CARACTÉRIST]OUE
Les coefficients a1' 42, ..'
i
,,
^1
:-
r, de l'expression recherchée de g (x) dépendent
À
de
:
at, À
z=
u?
!^u, 2
,
"r".
La correspondance entre les an et lesÀn est biunivoque.
Si on travaille sur des variables centrées et réduites, alors a., obtient un développement simplifié de g (x):
s(x) =rt")
- #J!
: ar:
O, on
fl3)ft)+ hOo,(x)+..
Application au cas gaussien Le cas historiquement le plus étudié correspond au choix f (x) = ç (x), densité de la loi normale centrée réduite. On cherche alors à écrire une densité g(x) de cumulants connus (associée éventuellement à une variable centrée et réduite) en fonction de la densité ç(x) et de ses dérivées.
Théorème
11
soit g (x)une densité sur et ses dérivées
lR supposée
admettre un développement selon ç
(x)
:
g
(x): ;
Às çk)ft)
k =o
Alors
:
,^k:
(- 1)k kl
J
s
(x) Hp (x) dx
Démonstration D'après la définition des polynômes de Hermite,
*tr) (x)=
et g
(x)
s'écrit
:
x (k=0
PH IASSI
-S
IEGA]T
(-
1)t nn {x) e
1)k À
r Hr
(x)
(x) ç(x)
203
UN OL'IIL : LA FONCTION CARACTÉRISTIOUE
Pour un indice j donné, on a
:
sk)Hi 14= ; (-1)kiuH,(x) Hnk) e(x) k =o
et, en intégrant et d'après la propriété 3 du chapitre 4
t__r(x) À
H;
(x)dx=
(-1)
Àj
j!
j= (,1)'l-Lr"r H;k)dx t.
Remarque: Ce théorème permet, au vu des données (xr, ...,xn) d'un échantillon, d'une variable de densité g (x), d'approximer les coefficients i u.
Ainsi, H1 (x)= x et Ài =
;,.,
-
Jx g (x)dx sera estimé par
i"3
demême.
- --1-'
k2* 1)s(x)dxseraestimépar i=-1 - L,f 2n ^z= 2
;
1 ' etc' 2
Revenons à l'expression générale de g (x) selon rp (x) et ses dérivées. Si les données sont centrées et réduites, a1 = az= O,comme en outre t 3, on obtient :
s 8)= q (x)-
*â,f, +(|)- *(s)fi).
e(a)(x)+
...
Or. d'après la définition des polynômes de Hermite, *(n)
(x): (_
1)n Hn (x)
d'où le développement d'Edgeworth de g
s (x): q (x) t''
. oâï)
k2
(x)
e k)
:
oâ'l' (xa - 6x + 3)+..'l - 1).
s(x)=q(x) tt+ lsjg) F2-1) - r^'Z\
ka-ox+3)+...1 PH. TASSI _ S. LEGAIT
UN OUT]L : LA FONCTION CARACTÉRISTIOUE
comme pour ra loi g. p1 (s) = o et pz (u) = 1, on a p3 (o)= et p+ (9) /ilb) = 82 (S). B.' et B, étani les coefficients de Pearson d'asymétrie et d'aplatissement de g ; ceia donne (cf. chapitre 4), en utilisant la notation /., et / des coefficients de , Fisher
:
Yt s(x)= ç(x) t1 + -6-
(x3
-
3x)
+
T
(xa
-
6 x2 + 3)+ ... l
Par intégraticn, on obtient une approximation de la fonction de répartition G (x):
G(x)=
o(x)-ç(x) t+1xz-1) +rt'V3 -3x) +- Y? 72
1x5-10x3+ 15x)
*...
l
Avant de conclure, notons qu'il est imBortant de remarquer que si l'on peut éerire une densité g ou une fonction de répartition comme somme infinie cie ô, ç, ou ses dérivées, c'est plutôt le problème de l'approximation par une somme finie de termes qui est utile en pratique. Malheureusement, rien n'assure que l'approximation de g donnée par un nombre fini de termes soit positive en tous points, et que la qualité de l'approximation augmente avec le nombre d'éléments retenus. Pour terminer, nous avons supposé a priori que g (x) admettait un développement en termes de tp (x) et de ses dérivées. H. Cramer a montré, en 1926, que si g (x)est telle que g'(x)et g"(x)existenr, si t'intégrate tS"gll, exz/z dx"onu"rge, I et si lim S k) = lim g (x) = 0. ators g (x) peut êrie développé en :
g(x)= t
ar
k=o k
avec
âr
qk)1x1
!
= Is (x) Hk (x) dx
Cette série est absolument et uniformément convergente pour x
PH
TASSI S
LÊGAIT
€ [--,
*1.
UN OJIIL . LA FONCTION CARACTER|STIOUE
EXERCICES 6.1 : X suit une loi N (0, o). Trouver la f.c. de Y = Log I X I Indication
9v
1
(u)
o
l2n
e-^2no2 dx S lxliu lR
2
otfZn
5x'u lR*
@tEP
1
lzi 6.2:
e-r2/2o2 dx
r tl-tt
(X,, ,.., Xn)sont n v.a.r. indépendantes, telles que Xlsuit N (m;,
1),
j=
1 à n.
n
Déterminer la f.c. de Y
=E
Xi.
j=1
'
lndication iumf
9xz
(u)
= (1
-
2 iu)-
t/z
çv
(u)
= (1
-
ziul-
ntz
,
't
-ziu
,,,
s1
:2iu
n
avec À2
luo
=
F
mf
;on sait
(cf. exercice 4.6, chapitre 4)que Y suit une
loiduX
2 non centrée.
PH.
TASSI
S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
Démonstration
Xn-â:+r(n) r(n, D'après le théorème 17, b)
(n) (Xn
_
(Xn-a).
:
a)l9j X
+
___*0 1
d'où Xn
!
(Xn
-
a)
!91
O,
a, d'après le théorème 16.
5
LES LOIS DES "GRANDS NOMBRES"
Ces lois établissent des propriétés de stabilité des sommes ou des moyennes cumulées de v.a. dans une succession d'expériences, stabilité au sens de lâ limite en convergencg el probabilité (on parle alors de loi faible) ou en convergence presque sûre (loi forte). ll existe beaucoup d'énoncés de théorèmes des giands nombres, se distinguant par les hypothèses faites sur les variables.
Théorème 19 (Khintchine)
Soit (Xn)
, n 21,
une suite de v.a.r. indépendantes et de même : E(Xn) , pour tout n
appartenant toutes à L1 ; on note m n
1 :.x,
loi,
:
:xnI m
n l:l En particulier
:
Théorème 20 (D. Bernoulli) Soit (An) , n2 1, une suite d'événements indépendants de même probabilité p ; on considère la v.a. sn comptant le nombre d'événements réalisés parmi (4., , ..., An) :
9ot o n
Remarque Ces deux théorèmes établissent des lois faibles, puisque les limites sont en probabilité. Le théorème 20 justifie l'approche fréquentisie des probabilités, la probabilité d'un événement étant la limite (en probabilité) de la fréquence empirique de son nombre d'observations dans une suite d'expériences inôépendantès. PH.
TASSI S. LEGAIT
ZZJ
LES CONVERGENCES DE VARIABLES ALEATOIRES
Démonstration
puisqueXnl m
o
la f.c. de Xn , pour tout
Xn !9i
*,
rontrons la convergence en loi. Notons par I
n.
9=(u)
:ç>x;
(u)
:c2x,(9) :[.r(9)
]n
xn
Comme les v.a.r. appartiennent à L1 , E(Xn)existe. donc
a'(0) aussi, ç'
(0)
:
im.
Ecrivons
e(t)
:
:1*imt+qt)
:1*im9+o(9) nnn ç_(u) :[1 *im9+O(q) ]n, e(g)
,
wîn
lim9nXn
(u)
:ei tu'
Or on sait gLle ei m u est la f.c. de ôn,. Frobabilité de Dirac en m. D'après le théorème 9, Xn lo! m, d'où le résultat. Dans le cas particulier de la loi faible de Bernoulli, on définit la suite de v.a.r. (Xn), où Xn vaut 1 si l'événement An est réalisé, et 0 sinon. Les v.a. sont indépendantes et vérifient :
Itt*":1]:p tt{*"-oJ :1-p. Sn
nn-
XXi désigne alors la fréquence empirique, ou probabilité empirique.
Théorème 21 (Loi des grands nombres dans L2)
soit (Xn), n)- 1, une suite de v.a.r. deL2,de même loi et non corrélées. on note m: E(X6) ' 02 -- V(Xn) , pour tout n. Alors: I
Xn?m. 224
PH TASSI - S. LEGAIT
LES CONVFRGFNCES DË VAFIABLES ALEATOIRES
Démonstration ll
X^-mll
2
2:
:e( ,(;r-J, \n / -1n2
-m)
)2
no2
02
n
1>txi n
I
(n-æ1
Théorème 22 lLoi forte des grands nombres) (Xn) , n ) 1. est une suite de v.a.r. indépendantes, de même loi o si Xn € Lr , m désignant E(Xn), pour tout n :Xn 4s il r si Xn Ç t-, (e I Xn | : + -) :Xn est p.s. non borné.
:
Ces lois des grands nombres justifient, en terme de probabilité, I'utilisation de la moyenne empirique comme indicateur de tendance centrale en statistique descriptive. Ouand le nombre d'expériences n augmente indéfiniment, la moyenne empirique basée sur le n-échantillon converge vers une constante qui est I'espérance de la loi dont sont issus les n résultats de l'expérience. ll en est de même de la variance empirique. Théorème 23
Soit (Xn) , n )- 1, une suite de v.a.r. de L2, indépendantes et de même loi, avec : E(Xn) : m et V(Xn) : o2 ; on définit la variance empirique par :
c,2 sn Alors
-
13
n i:1
:
(xi
q.2!
-
xn)2
oz.
Démonstration
sn2:11xi-Xn)? n i:1
Xn
! .
=t X-n)2! m2 (théorème 6)
13 x?I E(xz) -
et
n i:1
(loi faible appliquée
à
la suite (Xl)), Oonc 8,2
PH. TASSI
- S, LEGAIT
!
m2
+
o2
:
"z 225
LES CONVERGENCES DE VARIABLES ALEATOIRES
Se trouve ainsi justifié le choix de la variance empirique comme indicateur classique de dispersion en statistique descriptive.
Remarques Dans la démonstration du théorème 23, nous avons appliqué la loi faible
à
rIl
> X? . En effet, puisque Xn e L2 , E(Xfi)existe, et on est dans les conditions du - i:1 théorème 19 pour la suite de v.a.r. (Yn) , n 2'l , avec Yn : Xn2. Ceci entraîne deux I1
|
remarques importantes
:
a) soit mp le moment non centré d'ordre k d'une v.a.r. X
mr:
:
E(Xk)'
(Xr, ..., Xn,...r)désignant une suite d'observations indépendantes de la v.a. X, le moment emprnque est : m1 (n)
:1i-x1 n l:l
Sous réserve d'existence de E( I X I k ) mk
1n;!
:
m*
b) De même, le moment centré empirique 1rr (n) converge en probabilité vers
/r.:
E(X
-
s'écrit en fonction des rnoments 1 3 fX, " (n): ni:1 -X)k
E(X))k. En effet, 1lr
non centrés m; (n),
j: 1àk 1lr (n)
:
k : >q
r-i (-1)k-j mr '(n) m;
(n)
J:O c) Plus généralement, si h est une fonction réelle telle que E( I h(X)l ) existe
13
n i:1
n1x,1
:
eE(h(x))'
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a' X de loi de Poisson CI ()'l ; 226
PH TASSI - S. LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
1 pEr 1 r l3 \l n i:11 * X, + X,
1_t: i e/\1+Xt
tr
x:01 *x
6 COMPORTEMENTS
e-ÀÀ"
x!
int : -9-^ À y:1y!
1-e-À À
ASYMPTOTIOUEMENT GAUSSTENS
La no'tation N(0, >)désigne, dans cette partie, autant la loi normale que tout vecteur aléatoire suivant cette loi.
Théorème 24 (théorème central limite multivarié)
soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fipl, indépendants et de même loi, tels que g : E(Zn) et L matrice de variance-covariance de Zn existent. Alors :
'rn En En particulier
-
r/)lg
N(0, >).
:
Théorème 25 (théorème central limite unidimensionnel) (Xn), n
)
1, est une suite de v.a.r. indépendantes, de même loi, et appartenant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
On définit la v.a.r.
:
v^n-- (èIJ__11l æ Alors
:
vn loj
:
/_n_frn__rl
ru 10, r
o
1.
Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème 24.
a) Théorème 25 On peut écrire
:
Yn
PH TASSI - S. LEGAIT
1 i f{,--qf : rÆ I 3 tl---l) : ' ni:1 o JÂi:1' o 227
LES CONVERGENCES DE VARIABLES ALEATOIFES
X:---I
Soit e la f.c. de
, indépendante de i ; la f.c. de Yn s'en déduit
cyn(u) Comme
obtient
E(H-)-
et
O
:[*(Ji)
E(Ii--I)'? -
:
]"
1, en développant
e à I'ordre 2, on
:
: t -r!+ott) i1+o (r=l ]" cyn(u) :[1e(t)
soit: et
:
,'il *"n (ul:
s-u2
/
2.
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9, Yn
!9
rtftO, f
t.
b) Théorème 24 Posons
Xn^: ty ?n pour u €
dantes et de même loi, avec
E(Xn)
:
et d'où
tu
:
lRp
; alors Xn est une suite de v'a.r. indépen-
:
:
:
tu I u, tu u) /,,) l9j ruto, p)19 tu N(0, :) vu €
tu ,u et V(Xn)
I
''/; fr" -'u
/Ï
et, d'après le théorème 10
(Zn
-
IRP
:
JÂ En - /) lg
N(0, >).
Remarque De la même façon que pour le théorème 23, les théorèmes 24 se généraliser à toute moyenne empirique
ln
I
i:1
f"',tX,l. sous réserve
el25 peuvent d'existence de
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergeRce eR loi de la variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la généralité du résultat), 02 = V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations indépendantes de X :
Ç2:li-xrt-x-n)2, n l:l v(x1) 228
:
E(x1)
-
E, (x1)
-
m4
- ^3: mq -
oa
PH, TASSI
, S. LEGAIT
I ES CONVERGENCES DE VAR]ABLES ALEATOIRES
Considérons la quantité
:
q!gj_4 J n.4=;-4
J-n t! '' rn I *, - rrxztt i:1 '
Jn@l
D'après le rhéorème centrat limite, appliqué n
- {_!-6d Jn@l
l,ir*1
,
n
/Â(:ni:1x?-E(x2)) ' _LolrutO,fl. /Tm En outre
:
*
;;r::
ï Ë :i: ï,îï:"ïT:"',
D'où, par le théorème 17
./
n çXnf "E o,
et:
Jl Pour E(X)
*
(q2
- o2)
loj ru(0, t).
J^æ
0, on obtiendra
:
Cls="'?) / p;-
!9,! ru(0, rr.
Théorème 26
Soit r : lN * lR- telle que
lim
r(n)
n )- 1, une suite o" u.".r.n*îitiunt
: *
oo.
a une constante réelle, et
(Xn),
,
r(n) (Xn -
a)
!g
N(0, o).
Soit g:lR *lR, dérivable. Alors
:
PH TASSI - S. LEGA]T
r(n) (g(X.)
-
s(a))
g
*,0, o I g' (a) l). 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES
Démonstration Considérons le développement de g à l'ordre 1 au voisinage de a S(x)
-
g(a)
:
c'est-à-dire
:
Ve)O, 3o)0
{l
Xn
P{l xn -
c'est-à-dire
R(x),
:0'
R(x)
(
(
o}C
{l
R(Xn)l
aI
q)'SoitZ irioopËnoânte de-V' telle qué x q) Montrer que Z suit une loiX2 (P
ffii:d.
Y
+
7'
-
lndication
"'u'bsuw"
çx (t)
:
Y et Z. cy $) cz (t) en raison de l'indépendance entre
çz $)
7.2
:(] = ?'lli'i è zt (1 2it)Prz (1 _ Zitlp-A/2
x2
(p
-
q)
Loi hYpergêomêtrique (ru, n, p), X converge en loi vers la loi Montrer que sr X suit une loi hypergéométrique Je æ, p Ïlxes' n et + p\ quand N tend vers
g(n,
tndication
Cto
px (x)
7.3
Soit (Xn)n
6N.,
:-q-
,fti
.,
N
_ --
n
t
(Np)* (Nq)no
- x. Cl -r px qn N.
xJ(n _ x) I
ufle suite de v.a' indépendantes, de même loi de densité
: s- t'' e\ 1rc,a-
f(x)
1) Donner la loi de
t,
: .,Iiln *'
1
(x), 0 >
:
0'
quadratique (12) vers a' 2) Montrer que Yn converge en probabilité et en moyenne
-
3) Vers quelle loi converge la v'a. n(Yn
0) ?
lndication
1) Fyn
0)
- 1-
(1
-
F(ï)n
oÙ F est la
VY>0,F(Y) d'où
:
rrn (v)
:
(1
-
frn (Y) : n
2)
P{ I Yn
lorsque
23A
-
[-
gI
X1 . En effet, puisque Xn € L2 , EfiÎ)existe, et on est dans les conditions du théorème 19 pour la suite de v.a.r. (Yn), n 21, avec Yn : Xl.Ceci entraîne deux I
remarques importantes
:
a) soit m1 le moment non centré d'ordre k d'une v.a.r. X
mr
:
:
E(Xk)'
(Xr, ...,Xn, ...)désignant une suite d'observations indépendantes de la v.a. X, le moment empirique est :
m1 (n)
:13.x1 n l:l
Sous réserve d'existence de E( I X I k )
:
mk 1n1! m* b) De même, le moment centré empirique
lrr
:
E(X
-
E(X))k. En effet,
non centrés m; (n),
j:
/r." (n) -
1àk
/.rr (n)
.n I.I
/r
ni:1-(Xt -X)k
(n) converge en probabilité vers
s'écrit en fonction des moments
:
: k! q t-t)t-j m; (n) 'l-j(n) J:O
c) Plus généralement, si h est une fonction réelle telle que E( I
-n I! n i:l
h(x)l ) existe
:
ntx't!E(h(x)).
Exemple
(Xr, ..., Xn, ...) est une suite d'observations indépendantes d'une v.a. X de loi de Poisson 226
!4.
Q 6l
:
PH. TASSI
- S, LEGAIT
LES CONVERGENCES DE VARIABLES ALEATOIRES
lin i:11 -r1X,pe/\1 1 r + x/
1 \ \1+X,
tr r
Lr_r:Ë_:_:
1 o-ÀÀx e-À i,rt x:01 *x x! À y:1y!
1-e-À
i
6 COMPORTEMENTS
À
ASYMPTOTIOUEMENT GAUSSIENS
La notation N(0, >) désigne, dans cette partie, autant la loi normale que tout vecteur aléatoire suivant cette loi.
Théorème 24 (théorème central limite multivarié) Soit (Zn) une suite de vecteurs aléatoires à valeurs dans (lRF, fiPl, indépendants et de même loi, tels que pr : E(zn) et E, matrice de variance-covariance de Zn existent. Alors :
,rn En En particulier
-
ll)
lg
N(0,
:).
:
Théorème 25 (théoràme central limite unidimensionnel)
) 1, est une suite de v.a.r. indépendantes, de même loi, et appartenant à L2 ; on note m : E(Xn) et o2 : V(Xn), pour tout n.
(Xn), n
On définit la v.a.r.
:
(:Xi) .n:__m - nm. : -
yAlors
:
/_n_frn__rl
.
o
Yn lo! ru (0, t )'
Démonstrafion .' Nous démontrerons d'abord le théorème 25, puis le théorème 24.
a) Théorème 25 On peut écrire
:
1 31Ir--lly Yn:,/nl3 èl--t) : ' ' o ni:l o fii:1
PH TASSI
S
LEGAT
221
LES CONVERGENCES DE VARIABTES ATEATOIRES
Soit
ç
t
L
la f.c. de
, indépendante de i ; la f.c. de Yn s'en déduit
o
vyn(u) comme E(XL- rl) obtient
-
E(LI)'? -
o et
et
]"
1, en développant
e à l'ordre 2, on
:
ç(t) soit
=[*(r*)
:
cyn(u)
:
:
: t-Ï+o(t) 2
:[1-u'+o(*l trn (ul:
"f
s-uz
]" /
2.
On reconnaît la f.c. de N(0, 1), et, d'après le théorème 9. Yn !91 r,rtO, I t.
b) Théorème 24 Posons Xn : tu Zn pour u dantes et de même loi, avec
€
lRp
; alors Xn est une suite de v.a.r. indépen-
:
tu g et V(Xn) : tu E u, tu /r) *,0, tu r u) fr-n (7n p)!9j tu N(0, >) vu €
E(Xn)
et: d'où
tu
:
fi fi
et, d'après le théorème 10
:
I
-
IRP
:
,/Â 1Zn - s)lg
N(0,
:).
Remargue De la même façon que pour le théorème 23, les théorèmes 24 et 25 peuvent se généraliser à toute moyenne empirique
1 3 frX,i,
n
i:l
sous réserve d'existence de
E(h(X)) et V(h(X)). Etablissons, à titre d'exemple, la convergence en loi de la variance empirique ; soit X une v.a.r. d'espérance nulle (ce qui ne réduit en rien la généralité du résultat), 02: V(X) : E(X2), (X1, ..., Xn, ...) une suite d'observations indépendantes de X :
Ç2:13.x1 n l:l v(x1) 228
:
E(x1)
-
E2
(x2il
-
-fr-n)2,
m4
- ^7:
^o
-
04
PH, TASSI
- S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIFES
Considérons la quantité
:
JÂ t! 3 *, Gl93-41 - -'ni:l ' / n4 o-4 dn$
E(x2)|
'-6-6rE J-v1xzy
-
D'après le théorème central limite, appliqué a
]- 3 xU ni:1
,
|
n
,/i t: : x? - E(x2)) ni:1 ' /Tm -9r.rlo, En outre
lt.
:
*
i;r:: ï Ë :: ï,î:::"ïi:.,
D'où, par le théorème 17
:
,/î1Xnp
!
o,
et:
{T $"2 - o2t !91 rrrfo, r t.
l^;---7
Pour E(X)
*
0, on obtiendra
:
/-_ni$3-g1 !9 r'rto, rr
/ u_ _;n
Théorème 26
Soit r : lN * lR- telle que
lim
r(n)
n 2 1, une suite d" u.u.r.nGïfirnt
(n) Soit g :lR Alors
PH.TASSI
-S
-
: LEGAIT
: * *,
a une constante réelle, et
(Xn),
,
(Xn -
a)lg
N(0, o).
lR, dérivable.
(n) (s(X.)
-
s(a))
g ,,n, o I g' (a) l). 229
LES CONVERGENCES DE VAFIABLES ALEATOIRES
Démonstration Considérons le développement de g à l'ordre 1 au voisinage de a S(x)
où
-
g(a)
:
:
-
lim x-a
c'est-à-dire
d'où
(x
:
ve)0,
3a
{l
Xn
)0
:
P{l xn -
:I
a) g'(a) R(x)
:
*
(x
nn
c'est-à-dire
-
R(x),
x-al (a = I R(x)l (e,
( o } C {l R(Xn)l ( e }, a I g(1, p) Vi = 1 à n, i:1
on a, d'après le théorème central lirnite
:
n
L Y,-no I '
i:l
/ ^pq
l'? tttto'
r t'
Remargue En pratique, on pourra approximer laloig(n, p) par la loi N(np, bien que cette écriture n'ait pas de sens mathématique. PH,
TASSI S
LEGAIT
/n
p(1 - p)),
IJJ
LES CONVEBGENCES DE VARIABLES ALEAIOIFES
Exemples a) Soit X de loi g (91 Par lecture de table de la loi de Poisson
P(X q). Soit Z soient X et Y, deux v.a.r. suivant respectivement les lois x2 ùili.â. irioepènoante de Y. telle què X Y + z'
:
Montrer que Z suit une loiX2 (P lndication
çx (t)
:
q).
çv $) çz(t) en raison de I'indépendance entre Y eTZ'
c7 $l
7.2
-
: (t' (1 -
?'llX',l
:
2i11orz
- x2
=> z
(P
-
q)
(1 _ Zi11p-a/2
Loi hypergéométrique p), X converge en loi vers la loi Montrer que si X suit une loi hypergéométrique J0 1ft, n, p fixés' r et quand + p) vers tend N fi(n,
-,
lndication
qo Cfti
Px (x)
7.3
Soit (Xn)n
6N.,
:-q
n! _ -- rl (n;i
.,
*
(Np)r_(!',lq)n-'
r,lrl -
Cl -l
px qn
ufle suite de v.a. indépendantes' de même loi de densité
:
l(x) 1) Donner la loi de
t. :
s- tt - a) 1te,
.,Plln
-
x.
:
+* i (x), 0 > 0'
t'
2) Montrer que Yn converge en probabilité et en mgyenne quadratique (12) vers 3) Vers quelle loi converge la v.a. n(Yn
-
0)
O.
?
lndication
1) Fyn (Y)
- 1-
(1
-
F(ï)n où F est la f'r. de Xn'
VY>o,F(Y) d'où
:
rrn (v) frn
2)
P{ I Yn
lorsque n
238
-
-
0I
:
(Y)
(1
:
-
:1-e-(Y-o)
s- (v-a) n) 116, + -1 (Y)
n e- (Y - u)n 1l u,1 -1
(V)
(e 1 : Fyn (0+.) - Fyn (0-.) :'l -g-(o+e -o)n:'l -0-'n--1
æ, d'où
YnI o
.
PH'
TASS] S. LEGAIT
LES CONVERGENCFS DE VARIABLES ALEATOIRES
E(Yn
-
ul,
: iî
(v
-
o)2 n e- (v - a)n f,y
: !* i;
,, ,-,
O,
:1r(r) :? -o n2 n2
3) Soit Zn : lorsque n
æ, d'où Yn L2 6
.
mq n(Yn
-
o). La densité de Zn est g(z)
La loi de Z est indépendante de
:
:e-t110,+q(z).
n.
\
r
PH.
TASSI S, LEGAIT
t20
Chapitre 8
Compléments et approfondissements sur les lois de probabilité Le chapitre précédent a montré I'importance du concept de convergence appliqué à des variables aléatoires, à leurs fonctions de répartition, à leurs densités, à leurs fonctions caractéristiques, ou à leurs lois de probabilité ; la convergence suppose implicitement la notion de distance entre les divers éléments dont on étudie le comportement asymptotique. Nous nous proposons dans ce chapitre d'étudier plus formellement les distances pouvant exister sur l'espace des v.a. ou de leurs caractéristiques associées ; nous introduirons également un ordre sur les lois de probabilité.
LES DISTANCES Dans tout le paragraphe.'l'espace probabilisable de réféi'ence est (0, .c/l oit 0 est un espace topologique muni d'une distance d, complet, séparable (il contient un sous-ensemble dénombrable dense), :/ est la tribu borélienne de {1. I désigne l'ensemble convexe de toutes les probabilités sur ({-1, dl, I est l'ensemble des fonctions de répartition associées.
1.1
La distance de Paul Lévy
On prend
Définition
0:
lR.
1
La distance de Paul Lévy entre deux fonctions de répartition F et G de définie par
I
est
:
dL (F, G) PH. TASSI
:
- S. LFGAIT
inf{e
>
O
/ Vx F(x -
e)
-
e
(
G(x)
(
F(x
*
e)
*
e}.
241
CON/PLEN4ENTS ÊT APPROFONDISSEMENTS
SUR LES LOIS DE PROBABILITE
F(x)
F(x
-
e)
x-É
x
x*e
dL (F, G) est donc la plus petite valeur de 6 telle que G(x) va, pour tout x, appartenir au "tube" ainsi engendré autour de F.
1.2 Distance en variation Définition 2 Soient P et O deux probabilités de rapport à une mesure p o-finie.
I
de densités respectives
La distance en variation entre P et O est définie par du (P,
o)
:
fdp
lP(A)
-
o(A)
où
dv(P,O) P
-1-(P^O)
et g par
:
I
ll est clair que du prend ses valcurs sur [0, 1]. On établit les relations
a)
f
:
({))
 O : Min (P, O), i.e. est la mesure qui admet Min(f, g) pour densité par
rapport à b)
É{.
2dvP,
O)
:-[ldP-dOl
Exemple On prend. sur lR, pour P la loi exponentielle 7(1, de densité f(x) : et pour O la loi uniforme%ro,,,1sur [0. 1], de densité g(x) : 1,0,,,, 242
s-
x. 1,^ (x), +
(x).
PH TASSI - S. LEGAIT
COMPLEMENIS
ET APPROFONDISSEN/ENTS
SUR LES LOIS DE PROBAB{L|TE
2 du 0(l,oUto, 2 du :
rl:
Ji tt - "-x1 du (z(1)!Ùp,
JR+ I t(*) - s(x)l
dx
f,- e-x dx :
2
dx
+
rl :
t_
e
:
e
0,3679.
1
Remarque Considérons sur lR la restriction de la distance en variation à la elasse'€des intervalles ouverts de la forme ]--" x[. Alors la distance en variation n'est autre que sup I ptt- -, x[) o(]--. xt)l : Sup I r(x) G(x)l , rlresp. G) désignant la
XX fonction de répartition de P(resp. O) ; cette distance porte le nom de distance de Kolmogorov dK (F, G). Sur I'exemple proposé, on a F(x)
:
e-x).
:
1to, rl (r) + ^ qfo, 1t,, * 11 -1(*). 9n vérifie aisément que la distance de Kolmogorov entre 7(1)et est égale à !. (1
-
11p+ (x)
et G(x)
e
1.3
La distance de Hellinger
Définition 3 La distance de Hellinger H(P, O) entre deux probabilités P et O de définie par
I
est
:
:
-i (/æ - faoyz Si P et O admettent des densités f et g (par rapport à une mesure p o-finiel, H2 (p, o)
ona:
H2 (P,
o)
:
-[
(fi
-
dp: 2(1 - I lfr
'u[,12
apl.
Définition 4 On appelle affinité entre P et Q la quantité a(P, O)
ll est immédiat que 0 H2 s'écrit
: tl2|, O) :
et: PH. TASSI
2(1
( -
: I
a(P. O)
-1
Cela permet de déterminer la valeur de € pour laquelle e el p([0, 1l) : d, (P, O) :0,2466.
* e: 1
:
1.6 Comparaison de distances ll est possible d'établir des inégalités portant sur les distances précédemment définies. PH,
TASSI S. LÊGAIT
245
COMPLEMENTS
Pour
0:
SUR LES LOIS DE PROBABILITE
ET APPROFONDISSEIVENTS
lR, on établit
:
dL 1, est une suite de v.a.r. indépendantes et identiquement distribuées (i.i.d.), d'espérance m et d'écart-type o. o 1æ, alors
Théorème
Si (Xi),
:
/nfin-rn) lim
p.s
n..-oo
,Æ Log Log n " La loi du logarithme itéré complète le théorème central limite en précisant la vitesse de convergence de :
.,/n (Xn
m)
-
Appliqué à la fonction de répartition empirique, le théorème du logarithme itéré devient
:
/n (Fn(x) - F(x)) -1 n-æ vGFj-il-Hx-D ,Æ Los Los n lim
PH.TASS]
.S
LEGAIT
1
p.s.
253
COMPTEIVENTS ET APPROFOND]SSFMENTS
SUR LES LO S DE PFOBABILITE
2.4 lndicateurs de proximité avec F" L'un des problèmes fondamentaux de la statistique mathématique est la connaissance de la loi P, de f.r. F, d'une v.a.r. X dorrt on possède une suite finie (X., ..., X-) d'observations indépendantes. lntuitivement, ayant fait choix d'un indicateur"de proximité ô, si on postule pour F une loi donnée F., on aura
tendance à accepter ceite hypothèse si l'approxinration de F fournie par Fn est ( proche ,, de Fo, c'est-â-dire si ô(Fn, Fn) est u petit u. Parmi les indicateurs présentés au paragraphe 1, les plus fréquemment utilisés sont ceux de Kolmogorov, Pearson, Cramer-Von Mises. a) Proximité de Kolmogarov
Soit d* (Fn. F) : Sïo I F" (x)
F(xll' pour une
-
f'r.
F définie surlR'
Théorème 3
ll existe une constante C, C ) 0, indépendante de P(dK(Fn,F)
F,
telle que, pour d ) O:
vn)1
>d) ç6"-2nd2
Ce résultat, établi en 1956, est souvent utilisé sous la forme P('/n dK (Fn, F) > d)
d)
E(xk Xr)
: nE(X')+n(n-1)m2 Enfin, en remarquant que
:
n
n:.,
(x,n,
-
E(x(k)))
:
nI.,
(Xu-
m)
on a, en élevant au carré et en prenant l'espérance:
nn k:1 l:1
'
Remargues
a) Les résultats du théorème 5 sont vrais quelle que soit la nature de la v.a. X, discrète ou continue.
b)-Soit X de loi N (0, 1) ; on sait que X et X, i, donc X et Xlpy - X le sont aussi. ll s'ensuit
:
E (X x(k))
soit
sont indépendantes pour tout
:
E
d'où
-*
.
E (nX X(k))
(x (x(k)-
x)):
:
:
E
(X')
o
v (X)
:
n ln \ : E(rf x,,,(*),n/:,Il ,,
1
n
E (X1p1 X111)
:
1
Exemple Soit X de loi uniforme précédemment
%p,
r1
:f
E (X(k))
270
(x) : 1, F (x)
:
xsi
O(x(1.Onavu
:
:
n+1 PH. TASSI
,
S. LEGAIT
OBSERVATIONS ORDONNEES
De même:
v(x(k)) et, en remarquant que
çov
b) Calcul approché
fn,
t (u. v)
(X1p1.
:
Xcr)
(v
:
k(n--k+1)
-
(n+1)2(n+2)
_ u)n-2
(u
s
est une relation d'équivalence. ôn appelle type une classe 'g/e. d'équivalence, c'est-à-dire un élément de l,espace quotient
La résolution de l'équation (s), que nous n'aborderons pas, conduit au théo-
rème suivant, dû à Gnedenko
:
Théorème 1O Soit G une fonction de répartition stable. Alors G appartient nécessairement l'un des types suivants
à
:
| Type ll
:
(- e- Y) : F (V, Êl: exp (- U- É1 t ,r* (V) " Type lll : F. (y, É) : 1 (y) + exp (- (- v)Éy t,*_ ,** TYPe
: F, (y)
exp
(V)
(B paramètre strictement positif.)
Si la mise en évidence des trois lois limites possibles pour X(n) a un intérêt propre, il est important d'essayer d'identifier. si possible, vers quel type de loi va
converger PH TASSI
X1n,
-S
selon sa loi initiale
LEGA]T
F.
?Ê
1
OBSE BVATIONS ORDONNEFS
Définition 5 l'ensemble g ffil des lois de probabilité F pour lesquelles (X',, ..,,Xn) étant un échantillon extrait de la loi F, Xrn) : sup X, va converger en loi vers la loi des extrêmes de type F,. On appelle domaine d'attraction de F,(i
i:1
: 1,2,3)
àn
Nous allons donner maintenant des conditions suffisantes de stabilité permettant de préciser le domaine d'attraction de chacun de ces types.
Définition 6 Soit G une fonction de répartition sur lR; une fonclion de répartition F sera dite appartenir au domaine d'attractiongt (Gl de G s'il existe deux suites (an), an ) 0. et (bn) telles que :
lim Fn(anx+bn):G(x) n*oo pour tout x point de continuité de G.
Remarque Si G est stable, alors G e g G) eT 9t (Gl est non vide. En outre, on peut montrer qu'u"ne fonction de répartition F ne peut appartenir qu'au domaine d'attraction d'une et une seule fonction G, représentant d'un type" Les caractéristiques des domaines d'attraction sont établies dans les théorèmes suivants
:
Théorème 11 Soit F une f.r. de densité f positive admettant une dérivée f'négative sur (u, f étant nulle sur [v, + -1 (v fini ou non) ; si
tim x Îv
f'(x)
-F(x)) f' (x) (1
v),
__1
alorsFeQç.,t. Théorème 12 Soit F une f.r. de densité positive f sur Iu, + æ[; si
rim
:
xf(x) :É>o
x-+oo 1-F(x) alors F 282
€ 9l ffzl, Pl). PH,
TASS . S. IEGAIT
OBSE RVATIONS ORDONN EES
Théorème 13
soit F une f.r. de densité f positive sur un intervalle (u, v). et nulle sur lv,
si
+
-1
:
(x) _,
- x)f ,., xlv 1-F(x) (v
alorsF€gFs(.,p1). L'ensemble des démonstrations peut être trouvé en IS], [7] ou
t
1
Sl.
Exemples
a) SoitX
-) y (1),toiexponenrieltededensité
La fonction de répartition Fn de Xlny Fn
Soit
(x)
:
(1
u.t
f (x)
:
e-xi,^*(x).
,
- e- x;n 1,0* (x)
:
Zn:X(n)
F,(z): quand
n*æ.
'n
L'appartenance de
Fn(z+Lnn)
-Lnn
:(1 -n 1
e-z)n*exp(-e-z)
la loi r (1, 1) au domaine d'attraction de F., peut être
retrouvée à I'aide de la condition du théorème I 1 ; en effet, pour
f'(x)
(1
- F (x))
e-" e-"
f1^)-:b) Soit X de loi togistique, de f.r.
1"-"Y F
F(x)
teile que
quand n
-
(x)
:
(1 +
:-i
:
: 1+
La f.r. de Xlny est Fn
x)O :'
e-x
e-")- n. Soit Zn:
X(n) - Ln n ; 1 Fr_(x) : Il +e:(r*tnn) ]-n : (1 * 'nn "-r)-n-exp(-e-.) æ.
De même que pour l'exemple a) :
f'(x)
quandx-+æ. PH TA,SSI - S.
LEGAIT
-F(x)) :e_*_1__1 (^) ft'\"/ (1
283
.
OBSERVATION S ORDONNEES
c) Soit X suivant une loi de Cauchy de densité
:
1
f (x) =
*
7r (1
"t)
xf(x)
X
1-F(x)
-=
x2)Ar"tg a
pourx)
0
+ -Arctgx) x xi(x) rim 1-F(x) - rim 1+x'= :1 x*+oo x-+co (1 +
(1 + x2)
La loide Cauchy appartient
àg
F2(.,1)1.
d) On établit que la loi y (p, 1) et la loi N (0, 1) appartiennent %ro,r)à g Fs(.,1]l1.
àQ
ç.,7, et la
loi uniforme
Remarque On peut vérifier l'appartenance de chaque loi à son propre domaine d'attraction. Ainsi, pour F' (y):
f'(v)
(1
-
L t" (vl
F, (y))
ey+e-Y
: Or: e"-Y -
1
- e-Y
gY 19* e-Y
quand y -* + -, et donc
f'(y)
(1
(1
-
F' (y))
_ ev_ "-Y) (e-
-
1)
1) {e-v - l1
:
*-1
r'(y) quand Y*+oo
4
LA LOI DE L'ETENDUE
4.1 Résultat général Un cas particulier de fonction des extrêmes très utilisé en statistique descriptive est l'étendue W I Xtnt - Xt'f ou plus généralement les quasi-étendues de la forme X11y- X(k) (t
284
>
k).
PH. TASSI
- S. LEGAIT
OBSERVATIONS ORDONNEES
Soit la v.a. Zn, r : X(l) - Xrul. A partir de la loi du couple (Xtrrr Xril établie au paragraphe 2, on cherche la loi marginale d"zt,t après avoirfait le changement de
variables
:
(u)
(*,-, ) \*,,, /
\.,,n/
-(*,u, \ \x(rt-x$t)
La loi jointe du coupre (rJ,zt,k) s'obtient simprement, en remarguant que valeur absolue du jacobien du chaËfement de variabres est 1 :
Qfu,z):
B(k,i-k) B(r,n-l*1) [1
-
F 1u + z11n-1 [F (u +
f (u) f
z)- f
(u+z)
ra
Fk-1 (u)
1u;11-k-t
En intégrant par rapport à u, on obtient la densité e1,pe) deZr,n:
Q1,pQ):
J,r rn-t(u) t1-F(u+z)ln-l lF(u+z)-r1uy1l-k-t t(r) f (u+z)du
A titre de cas particulier, considérons la longueur des mailles, c,est-à-dire l'écart entre deux coordonnées successive. Zk*1,k 1[: 1 à n _ 1) :
ekri,uLzr
:
J,* rn-t
ffi
[1-F(z+u;]n-k-t.f
(u)
(u) f (u+z)du
En calculant E (Zx*t,u),on obtient après changement de variables
E(zx*r,r,.):
cl Jn t1-F(v)ln k
;
rk1v1 ov
Exemple: Soit X de loi exponentielle ), (1).
eu*t,ut.t
:6
*îil+,
"-(n-k-1)(z+u) "-u "-(z+u) PH. TASSI
- S, LEGAIT
(1
-g-u;k-t
6u 285
OBSE RVATI ONS O RDONNE ES
(n-k)z ' "(k-1)l(n-k-1)! n
en posant donc
t: e-u;
,1 (1 _ t)k 1
cette dernière intégrale n'est autre
,n_k 6,
que
B (n
-
k + 1, k), et
:
Q*+1,k(z)
:
n-k z - k) s-
(n
Zk*1,u-y(1,n-k) E(Zn*1,1)
:
V (Zk.1,k)
:
1
n_k 1
(" _ kf
4.2 L'étendue W a) Loi de W Pour obtenir la loi de l'étendue W dans gr,o (z). La densité en,
pn,1(w)
:X(n)-
t de W est donnée par
1
: (w).^w
: n et k :
1
:
: n(n-t) Jn [F(w+u)-F(u)]n-2 t(r) f (w+u)du.
Sa fonction de répartition Fn,,, (w) est Fn,
Xf,,f il suffit de faire I
:
J'o e n,1Ql dz
: d:
n(n-lf fJ[ fr(z+u)-F(u)]n-2
: d: n(n-1) f (u) du (JT**
f (u) f (z+u)dz) du
tF(v)-F(u)ln-2
f (v)dv)
: d: nlF(u1w)-F(u)ln 1 orluy b) Espérance
de l'étendue
E(W) :E(X1n1) -E(X(1)) 286
PH IASSI - S. LEGA]T
OBSERVATIONS ORDONNEES
Avec les notations précédentes
E(W)
: n-1 E(zr,*t,n) : n-1 Jn cl (1 - F(v))n-k Fk(v) dv k:1 ol r t E (w) : t^ c5 tr - F (v))n-k rklv; dv ;:
que l'on peut écrire
:
E(W) en utilisant
:
: J,* tt -tl-F(v)ln - Fn(v)l ov
:
!
m:o
cT
(1
-
F)n-m pm
-
',
Exemple Soit X de loi uniforme sur tO. 1 I. La densité de W pn,,, (w)
E(W)
= :
: ll
n (n
* - t) "f; -
n (n
-
f
:
[(u + w)-
X(n)
- X111 est
u]n-2
:
du
1) (1 - w) y7n-2 tto,r1 (*)
r -(1 -w)n-wnl
dw:++
Remarque Soit X suivant une loi d'écart-type
a;
considérons la v.a.r. R cléfinie par:
1W(Xtn)_Xt,t) : il dn est. par définitionl égale à , R:
où la constante
/x,. x.. \ E( ,n, _ rrr
\o Par construction, on a E (R) :
o /
O
-n
!
o. Cette propriété est fort utile en statistique, et les constantes dn ont été calculées pour la loi normale.
c) Contenance
de l'étendue
Partons de la densité de la loi de (X,,,,. X,n/
fn,r (u,v) PH. TASSI
- S. LEGAIT
: n(n-
:
1) tF(v)-F(u)ln-2f (u) f (v) 11,.u1 287
OBSERVATIONS ORDONNEES
Procédons au changement de variables
(",,,\ \*,",/ Son jacobien est
/'\ \"/
:
(*u,
:
\
\rrx,",r -F(x(1//
:
1
0
_ i (xrr/
f (x(n/
d'où la densiré de (2, nl
:
f
(X1n/
:
fr,o(.,Trl: n(n-1) rn-2 l(.1 La loi marginale de rr est
1r_,p_111 _.oy1el
:
fr(nl : îL-" n(n- 1l rn-z da avec a : f
ll s'ensuit
7r0r)
:
n (n
-
1) (1 -
r) rn'2
Flz)
1to,r1 (n)
que n, qui représente la probabilité que X soit dans l'étendue 6 - 1 ,2).
observée, suit une loi bêta F
Soit alors pour que 1oo y
P {r } y} : P (f) est ta probabilité au moins de la population soit dans l'étendue observée (Xtrr Xtn/.
€ [0, 1]. ta probabilité ), o/o
P(trln:
fy ,(tr) dr - 1 - n yn-1 + (n- 1) rn P(yl:1-nyn-1 +(n-1Jy" f
On peut aussi résoudre cette équation en n, et déterminer ainsi le nombre d'observations n nécessaire pour avoir une probabilité donnée que 1oo y o/o de la population soit dans l'étendue d'un échantillon observé.
28B
PH,
TASSI
S. LEGAIT
Chapitre 10
Notions élémentaires sur les processus _ Ce chapitre se propose de montrer comment le temps est introduit dans les éléments classiques du calcul er de la théorie des probabiliiés.
1
DEFINITION D'UN PROCESSUS ALEATOIRE
Soit (Q, ,4, P1 un espace probabilisé. On rappelle (cf. chapitre 3) qu.une varia_ ble aléatoire X est une application définie sur (e, ,41, à valeurs dans un espace quelconque (o', -r/') oit ,,4'est la tribu des événements de e", X possédant la propriété de mesurabilité ;
V A'
e .4'
x-1
1p-'l
e ,sl
La loi de probabirité de X est [image de p par X, notée px, définie par
V
1.1
A'€_
,t4'
px(A')
:
:
p(X-1 (A'))
Définition d'un processus
Soit (T, G7 un espace quelconque,
Définition
G étant la tribu des événements
de T.
1
On appelle processus aléatoire l'application X
@,
:
.vll x $, Gl - (a',,&,1
qui au couple (o, t) associe x(to, tl, encore noté X, (c.r). teile que, pour tout t fixé, X, est une v.a. sur (Q, ,,4,p).
er
Par extension, on écrira un processus sous la forme d'une suite de v.a.
indicées par t, notée (xr t € T) ou, plus simplement, (X,), comme représentant une grandeur aléatoire varia'nt dans le temps.
Remarques
,o',
,,4'1, souvent appelé espace des états du processus, est (lR, fr') ou U -Si - g,nl, (lRn, le processusx est réel ou multidimensionnel dira plutôt
multivarié de dimension n ; si PH. TASSI
. S, LEGAIT
A' C Z
;on
univarié ou
le processus est à espace d,états discret.
289
NOTIONS ELEMENTAIRES SUF LES PROCESSUS
2) Pour c.r € 3) Si T :
4)
T
Si
:
Q fixé, X, (ar) est la
trajectoire de X pour l'individu
ar,
lR. on parle de processus continu.
Z, on parle de processus discret, noté (Xt,
leZ).
5) L'espace des indices T est fréquemment assimilé au temps, t étant I'instant v.a. X sur I'individu a.r. Mais T n'a pas forcément une valeur temporelle ; ainsi X (r,r, t) peut être, par exemple, la concentration en uranium d'observation de la
d'une carotte rocheuse dans une exploitation en un point
a-r
et à la profondeur t.
Définition 2 On appelle loi du processus PX. loi image de P par X ; on en déduit que, Vt.,, ...,tk, la loi du vecteur (Xrr, ..., X,n) n'est autre gue la loi marginale correspondante extraite de P^.
1.2
Processus équivalent
Définition 3 Soient deux processus X et X* admettant le même ensemble des temps T et même espace d'états (A', .4'), définis respectivement sur @, .4, P) et (Q*,
,.il*, p*|.
Ces deux processus seront dits équivalents si la relation R suivante
:
P(Xtl € Br,...,X,n € BJ - p"(Xir e 8.,,...,Xin € Bn) (R) est vérifiée pour tout système fini d'instants t1, t2, ..., tn extraits de T et de parties Br. ..., Bn extraites de ..n('. Remarque Un processus stochastique est une représentation mathématique d'un "système, ou d'un phénomène dont l'évolution au cours du "temps', est régie par le "hasard,. En supposant que le probabiliste (ou le statisticien) ait observé un très grand nombre de réalisations indépendantes de ce phénomène, il connaîtra donc la valeur de l'expression (R) pour un nombre fini d'instants t1, t2, ..., tn (mais éventuel lement avec n grand, pour être dans les conditions d'application des lois des grands nombres) et I'observateur n'aura pas d'autres informations. Cela signifie qu'au phénomène étudié est associé une classe d'équivalence de processus plutôt qu'un proeessus. Le probabiliste aura donc la liberté de choisir dans une classe de processus celui qui lui paraît le plus adéquat vis-à-vis de son étude. Cette démarche est analogue à celle vue pour les v.a., où I'on travaille le plus souvent sur des classes de v.a., où deux v.a. X et Y sont équivalentes si Eo (X) : Ep (Y) (cf. chapitre 3). PH,
TASSI S. LEGAIT
NOTIONS ELTMENTAIRES SUR LES PROCESSUS
2
PROCESSUS STATIONNAIRES
Dans l'étude des processus stochastiques, une place particulièrement importante est tenue par les processus dont les lois de probabiiité présentent une invariance pour toute translation dans le temps (on considère ici que l,ensemble des indices qui caractérisent le processus est l'ensemble des temps). Cette propriété d'invariance temporelle est couramment utilisée en économétrie, en théorie des filtres, en analyse statistique des séries temporelles à I'aide de processus autorégressifs- moyennes mobiles (ARMA).
2.1 Stationnarité
stricte
Définition 4
t e r) < tz
Le processus réel (X,, tout n-uple de temps tt
est dit strictement stationnaire si, pour
T, et pour tout temps h appartenant à T avec ti + h C T,
Vi :
1, ..., n,la suite
(X,,, * n, ..., Xtn * 5) a la même loi de probabilité que la suite (Xrt, ..., Xin)
px,t'
*,n
'
-
p*r,
+
h'
,Xtn + h
Remarque Puisqu'une distribution de probabilité est déterminée par sa fonction de répar-
tition, la définition précédente est équivalente à : pour tous x1, x2, ..., xn, tous tl,tz, ...,tn et tout h :
P
nulle, puisque seuls p (1) et p (2) sont différents de zéro. (Les droites horizontales représentent les limites de la région d'acceptation de I'hypothèse (Hj p (h) : 0 : si â(rr) est entre ces deux limites, on accepte Ho.) lci seuls p (1) et p (2) sont significativement différents de zéro, p (1].- O,lZ et p 12):0,38 ; bien sûr p (O) : 1, ce qui n'apporte aucune information. X, est donc corrélé linéairement avec X, _ ,l et avec X, _ ; aucune 2 autre observation du passé du processus n'est liée de façon linéaire à X,. Exernple 2
Dans cet exemple. p (h) décroît lenternent vers zéro. On verra plus loin que c'est une caractéristique des séries non stationnaires. ll s'agit ici du corrélogramme
de:
Xr: at+b+st où eo 298
-)
N (0,1). PI_i.TASSI
S
LEGAIT
NOTIONS ELEMENTAIFES SUR LES PROCESSUS
Exemple 3
NOIIONS ELEMENTAIRES SUR LES PROCESSUS
Le processus représenté est
X,
:
: 0,51+5+4 (3sin 7TT -cos 6 s,
-)
7TT
-)+e,
N (O,2)
Exemple 4
o) æ
F
(o |r)
st cf)
(\
o C\,1
cf)
s) : P(X": O) : s-'1s (s>O) P(T<s) : 1-e-it. une v.a. de densité e-isl (s), soit T -) f ,1, À). r^
Soit alors (Tn), n )- 1 , la suite de variables aléatoires telle que Tn est le temps s'écoulant entre la réalisation des événements n et n + 1. une origine o étant choisie. notant ti la date de l'événement i. on â Tn : t6a1 - tn.
on démontre que les v.a. (Tn), n>- 1, sont une suite de v.a. i.i.d. (indépendantes et identiquement distribuées), telles que Tn suit une loi y (1 , À1. Remargue Soit Sn le temps s'écoulant avant l'observation du kiè." événernent:
Sk
: To*...
+Tk-r
La loi de Sn est donc une loi gamma y (k, ^1. PH. TASSI
- S. LEGAIT
309
EXEMPLÊS DE PROCESSUS
2
LES PROCESSUS DE VIE ET DE MORT
lls sont souvent utilisés pour décrire l'évolution d'un système, système pouvant subir des événements de type "naissance". entrée dans le système, ou "mort,. sortie du système. Ainsi, le nombre de personnes dans une salle d'attente, le nombre de ojobs, en attente dans un système informatique, l'évolution démographique d'une zone géographique peuvent être de bons exemples d'une telle modélisation.
Soit donc un processus (Xfl t On fait les hypothèses suivantes:
o c o
€
lR) à temps continu et espace d'états discret.
H1 : (Xr) est à accroissements indépendants.
H2 : On appelle "événementu soit une naissance. soit une mort. Le système étant à l'état n à I'instant t, la probabilité qu'une naissance (resp. mort) survienne entre t et t + dt est i n dt (resp. pn dt). H3 : La probabilité pour que surviennent deux événements ou plus entre t et t + dt est un o (dt).
Modélisation Posons pn(t)
: P(Xt:
;pourn21,ona: pn(t+dt) : pn(t) (1 -,^ndt) n)
*
Pn-, (t)
*
Pn+r
(1
-gndt)
in-, dt (1 -gn-1
dt)
(t) /n+1 dt (1 - in*1 dt)
En supprimant les termes d'ordre 2 et plus en dt, et en procédant comme pour l'équation fondamentale du processus de Poisson, on trouve :
p'(t) : -(in+gn)pn(t)+Àn_l A l'origine d'où
:
po(t+dt) : po(t)
:
Enfin
p; (t) :
on (O)
En résumé
:
(1
pn_1
(t) * !n+.r on*,(t) (n
)
-iodt)(1 -Podt) + pl (t) g1 dt
: - io po (t) + p, p, (t)
1 si Xo
-
n, Pn (O)
:
0 sinon.
:
p;(t) : -(in*//J pn(t) + in_, pn_1 (t) * /n+r pnr (t) (n ) p; (t) : - io Fo (t) + p, p, (r) on (0) : î[xo: n] 310
1)
1)
PH. TASSI
- S. LEGAIT
EXEIVPLES DE PROCESSUS
Remarque Les cas les plus fréquents sont les suivants
'
:
: " in ,À : naissance au taux i (souvent Ào : 0) r in : ni : naissance au taux i par individu présent . Fn g : mort au taux U Uto : O) . Un : n/_/ : mort au tauxg par individu présent.
3
dans re système
LE MOUVEMENT BROWNIEN
Le processus (X,,
(i)
' t)
t€
lR+)
est dit brownien ou de Wiener_Lévy si
le processus est initialisé en
t: p(Xo:
:
O
O)
: l
(ii) le processus est à accroissements indépendants stationnaires (iii) v0 ( s { 1, r'accroissement X, - X" e-st distribué suivant une roi normale d'espérance nulle et de variànce br _ s1 lt X, - X. -> N (0, a r,4:S :
- X, €
P (Xt
4
A)
:
;#6-J
*'t2o'(t -,)dx Oe-
LES PROCESSUS AUTOREGRESSIFS
Dans cette partie, on ne considérera que des processus réers discrets du
.
deuxième ordre.
4.1 X,
Définition
soit un processus (x, t e z); X, est dit processus autorégressif d'ordre p, noté
-)
AR (p), si
:
X,- : PH, TASSI
- S, LEGAIT
p
gi Xt-i+ tr .ri:1
EXEMPLES DE PROCESSUS
cr est un bruit blanc
:
:O,V(e,) :02,
E(st)
E(e,e,.)
:O
(T+t'l
Remarques
a)
En faisant intervenir l'opérateur B, on peut écrire
(-Qt B-...-9oBo) X,: tV (X,) est indépendante de
q2
(p,p(il
I
t : le processus est faiblement stationnaire.
Deuxième cas ; Les racines de
p, on peut écrire:
X_ I
avecE(er)
:0,
p
T
._4
gi Xr_i * 0.Xt_p_1 +..+0.X,_h + €r
V{rr) : sn, E{er.X,_p} : Opourk:,! àh.C,estdonc
l'équation de la régression de X, sur
nul.
X,-r, ....X,*n et r (h), coefficient
Ceci est une caractéristique des AR (p)
Vh > p
d)
:
r(h)
:
0
Fonction d'autocorrélation
Vh > O:Xr. Xt-h
r(h) (4)
PH TASSI , S. LEGAIT
:
i:'l
Pi
xr i X, r, * et Xt-l-,
p
:
=' p(h)
g
z
i:'l p
I
,_I,
aiyh-ù ei ph-ù
de X,_n, est
EXEMPLES DE PROCESSUS
On peut écrire les équations (4) sous forme matricielle pour h
1
p
1"
p
(1)
........
p (p
:
1àp
:
- 1)
p(11 .
(5) .
p(1t
: p(p-1)
p ipr
......... plll
1
La relation matricielle (5) s'appelle système de Yule-Walker.
Exemple Soit le processus
:
xr
:
0,5 X,_,
- O,25 Xr_, + e,
Ona:
(;r) :
[],, '.'1) (::,)
: p (21 :
P (11
D'où
o,5
-
o,5 p
o,25 P (1)
(1)-
0,25
:
p (11
:
0,4 et p (2)
: - 0,05.
Pour avoir p (3ll, p (4) etc.. on utilise les relations (4)
p(3)
= p(41 :
:
pQl * e"p (1) : - 0,125 A1 ppl + ezp (2) : -O,OS
A1
etc.
3'1 B
PH. TASSI
. S. LEGAIT
EXEMPLES DE PFOCESSUS
c) Fonction d'autocovariance Soit à calculer E (X, . X,_r,) E
(Xt. Xt_h)
:
E
[(rt
-
0., €t-.,
-
...
-
9o e,_o)
da t,-q-6)J - dr tt-h-., e Si h ) q : E(X,.X,_') : 0 c Si h ( q : E(Xr.Xt_h) : F0n+0.,0h*, *...*0o.7o_nlo' (€t-6
Le processus est donc stationnaire (au sens faible) et on en déduit la fonction
d'autocorrélation
:
P(h) : O Vh )
+...+0
-0,+0.0, p(h) :#si 1+01+ .*eZ
q e
h(q.
Le calcul de r (h) ne présente pas de particularité, et est exécuté selon le système décrit au chapitre 10.
ll résulte des calculs précédents qu'un processus moyenne mobile est toujours stationnaire (au sens faible), ce qui n'était pas le cas pour un processus autorégressif quelconque.
Conclusion Le problème de l'identification d'un processus MA (q), c'est-à-dire la détermination du paramètre q, se fera sur I'examen de la nullité ou non desp (h).
5.3
Remarque sur le lien entre AR et MA
La démonstration de l'inversibilité d'un AR et les exemples 1,2 et 3 du para4 laissent apparaître une équivalence entre AR (p) et MA (oo). En pratique. on peut approximer au sens de la moyenne quadratique (donc dans Lr) un processusAR (p) par un MA d'ordre fini. Considérons, par exemple, un processusAR (1)
graphe
défini par
:
Xr:p X, ., * r, E(€r) 324
:
O, V(e,)
: o',
Cov(e., er*n)
:0
(h +
O)
PH TASS1 S. LEGAIT
EXEMPLFS DE PROCESSUS
Par substitutions successives, il est clair que
:
X, : €, + p €t_t +...+ pq tr_o * pe*t X,_.q*,
E,*,
-
,!o
pi
,, jl, :
p"e*"
E (x1_q_1)
supposons que (X1 est faiblement stationnaire, centré, de variance v: E (X'zr) pour tout t (nous ne démontrerons pas la stationnarité d'un tel processus). L
Alors
:
e (Xt
et
9 r,-j)" : p'q*' v - j:o ^ ri
E(X,-Y,,')t -_ O quandq ---->
+ôo, en notanty,,,
: 9 ,t cr-,. La suite '[r j:0
de v.a. (Yr,o) converge donc en moyenne quadratique vers la v.a. Xr.
DH I i
T^qst S
IFCAIT
321
BIBLIOGRAPHIE
I
REFERENCES CITEES DANS LE TEXTE
I 11
Z. BIRNBAUM (1948) : On random variables with comparable peakedness, Ann. Math. Statisr., 19, pp. 76-81.
I 2l t 3l
H. DAVID (1981): Order staristics, Witey.
t 4l
B. GAREL (1982) : La distance de Prokhorov, rapport de recherche no 288, Université de Savoie et Laboratoire IMAG, Grenoble.
t 51
B. GNEDENKO (1943) : Sur la distribution limite du terme'maximum d'une série aléatoire, Ann. Marh,44, pp.423-453.
t 6l
J.M. GROSBRAS (1987) : Méthodes statistiques des sondages, Economica.
L. DEVROYE (1986): Non-uniform random variate generation, Springer-Verlag,
New York.
Paris.
I 7)
L. de HAAN (1976) :Sample extremes: an elementary introduction, Statistica Neerlandica, 30, pp.161-172.
t 8l
N. JOHNSON et S. KOTZ (1969, 1970) : Distriburions in statistics, Houghton-
t 91
A. KAUFMANN (1968) :Méthodes et modèles de la recherche opération-
t10l
A. KOLMOGOROV (1933) : Sulla determinazione empirica di una tegge di distribuzione. Giorn. lnst. ltal. Attuari, 4, pp. 83-91.
t11
I
112l t1 3l [14]
Miffin et Wiley.
nelle, Dunod, Paris.
J.P, LECOUTRE et P. TASSI (1987) : Statistique non paramétrique et robustesse, Economica, Paris. P. LEVY (1925) : Calcul des probabilités, Gauthier-Villars, Paris. E. LUKACS (1960) : Characteristic functions, Griffin, Londres.
H. MANN et D. WHITNEY (1967) : On a rest of whether one of two random variables is stochastically larger than the other, Ann. Math. Statist., 18, pp. 50-60.
PH, TASSI
- S. LFGAIT
,) 2.1
BIB LIOG RAPH IE
t15l
R. von MISES (1935) : La disrribution de la ptus grande de n vateurs, in Selected Papers ll (Ann. Math. Soc.), pp.271-2g4.
t16l l17l
A. MONFORT (1980) : Cours de probabitités, Economica, paris.
tlBl
RAND coRPoRAT|oN (1955) :A miilion random digits mal deviates. The Free Press. Glencoe, lllinois.
191 t20l l21l
G. SAPORTA (1978) : Théorie er méthodes de ta statistique, Technip, paris.
t
F' MOSTELLER (1946) :On some useful inefficient statistics, Ann. Math. Statist., 17, pp. 377 -4O8.
P. TASSI (1985) : Méthodes
statistiques, Economica. paris.
W. WEIBULL (1951) : A statistical distribution function of wide appticabiliry, Journalof Applied Mechanics, 18.
II J.
with tooooo nor-
AUTRES REFERENCES GENERALES
BASS (1967) :Elémenrs de catcut des probabitités théorique et appliquée,
Masson, Paris.
P. BILLINGSLEY (1968) : Convergence of probability measures, Wiley. N. BOULEAU (1986): Probabilités de l'ingénieur, Hermann, paris. P. BREMAUD (1984) : lntroduction aux probabitités, Springer-Vertag.
G. CALOT (1967) : Cours de catcut des probabitités, Dunod, paris. G. CALOT (1971) : Exercices de cale ul des probabilités, Dunod, paris.
D' CARTON (1975) : Processus aléatoires utilisés en recherche opérationnelle, [Vlasson, Paris.
D. CORNUEL et P. DERREUMAUX (1976) :Calcul des probabilités. exercices corrigés et rappels de cours, Sirey, paris. J.L. DOOB (1953) : Stochastic Processes, Witey.
M. corrRELL, c. DUHAMEL, v. GENoN-cATALor (1980) : Exercices de probabilités avec rappels de cours, Dia, Belin, paris.
W. FELLER (1966) : An introduction to probability theory and its applications, Wiley, New York. T. FINE (1973) : Theories of probability. Academic press, New york. P. HALMOS (1950) : Measure theory, Van Nostrand. 324
PH. TASSI
. S.
LEGAIT
BIB LIOG RAPH IE
P.L. HENNEOUIN et A. TORTRAT (196b) :Théorie des probabitirés er quetques applications, Masson, Paris.
A. JACOUARD (1974) : Les probabitités, pUF, Coil. Oue sais-je ?, paris.
B, de JEKHOWSKY (1977) : Eléments de statistique à t'usage des géologues, Technip, Paris.
A. KRIEF et s. LEVY (19721: calcul des probabilités, exercices, Hermann, paris. M. LOEVE (1960) : Probability rheory, Van Nostrand. M. METIVIER (1968) : Notions fondamentales de la théorie des probabilités, Dunod, Paris.
J. NEVEU (1964) : Bases mathématiques du calcul des probabilités, Masson, Paris. PARTHASARATHY (1967) : Probabitity on metric spaces, Academic press.
J. PELLAUMAIL (1986) : Probabilirés, statistiques, f ites d'artente. Dunod, paris. A. RENYI(1966) : Calculdes probabitités, Dunod, paris.
s. Ross (1987) : lnitiation aux Lausanne.
probabilités, presses polytechniques romandes,
Y. ROZANOV (1975) : Processus aléatoires, Editions de Moscou.
A. TORTRAT (1971) :Calcul des probabilités et introduction aux processus aléatoires, Masson, Paris. K. VO KHAC (1984) :Théorie des probabitités, Eilipses, paris.
PH. TASSI
- S, LEGAIT
325
TABLES NUMERIOUES
Les tables I à I sont reproduites avec I'aimable autorisation du CERESTA: lo, rue Bertin Poirée - 75001 Paris. Elles sont extraites de I'Aide-mémoire pratique des techniques statistiques, qui constitue un numéro spécial du volume XXXIV de la Revue de statistigue appliquée, 1986. Les tables I à I I sont extraites du livre Statistique non paramétrique et robustesse, de Jean-Pierre l-ecoutre et Philippe Tassi, Economica, Paris, 1987.
PH.
TASSI S. LEGAIT
TABLES NTJMEFIOTJES
Table no
1
FONCTION DE REPARTITION DE LA LOI NORMALE REDUITE cette table donne, pour u >- 0, la valeur p normale réduite telle que P
Pourr
3,99, on pourra utiliser I'approximation suivante (à l0-r près)
2. Pour les
u)
F(u):t-e'
PH IASSI S. LEGAIT
2 (t--t
urt7-x\' ;*,i-
3
15 los\
n* ,i)
2to
TABLES NUMERIOUES
Table no 2 FRACTILES DE LA LOI NORMALE REDUITE Cette table donne les valeurs absolues des fractiles, nr de la î,P
loi normale réduite tels
que
,
-!' F1u,l: I +e--ldu:P
J__lztt
Pour P < 0,5 (colonne de gauche et ligne supérieure) les fractiles up sont négatifs. Pour P > 0,5 (colonne de droite et ligne inférieure) les fractiles up sont positifs. P
0.000
0.001
0.002
3,0902 2,8782 2,3263 2,2904 2,257 | 0,02 2,053'7 2,0335 2,0141 0,03 1,8808 I,8663 1,8522 0,04 I,7 507 t,'t392 |,72'79 0,00
0,0 r
0,05
0,06 0,07 0,08
0,09 0, l0 0,1 I 0, 0,
0,15
0,005
2,74'18 2,6521 2,57 58 2,2262 2,1973 2,t701 I,9954 1,977 4 1,9600 I,8384 1,8250 l,8ll9
0,006
0,007
0,008
0,009
0,010
z,5t2l 2,4573 2,4089 2,3656 2,3263 0,99 2,1u4 2,1201 2,0969 2,0749 2,0537 0,98 t,943t 1,9268 I ,91 l0 I,8957 l,8808 0,97 I,7991 l,7866 |,'77 44 t,1624 1,7 507 0,96 I,6849 I,67 47 |,6646 t,6546 |,6449 0,95
t,7 t69 l,7060 |,6954 t,6M9 I,6352 r,6258 |,6164 I,6012 l,5982 I,5893 l,5805 l,5718 I,5632 I,5548 0,94 I,5548 1,5464 l,5382 l,530 r t5220 l,5141 I,4758 I,4684 I ,461 I I,4538 t,4466 I,4395 I,405 I I,3984 I,39t7 l,3852 t,3787 |,3722 l,3408 |,3346 l,3285 1,3225 I ,3165 1,3 106
I,5063
l,4985
I,4909
1,4325
1,4255
I ,41 87
I,3658 |,3047
l,3595 I,2988
l,4833
l,4758 0,93
l,4l l8
r,4051 0,92 r,3532 1,3469 l,3408 0,9 r t,2930 1,2873 I ,28 l6 0,90
l6 I,27 59 t,2702 1,2646 I,259t t,2536 I ,248 r |,2426 t,2372 I,2319 I,2265 0,89 |,2265 t,2zlz I,2r60 |,2t07 I,2055 1,2004 I,1952 I,l90l l, I 850 I,1 800 I,1 750 0,88 I ,28
l6
I,0803
I,0758
l,0714 l,0669 I,0625 I,0581 I,0537 I,0494 I,0450 I,0407 r,0364 0,85
t,0364 |,4322 |,0279 1,0237
0,9904 0,1 7 0,9542 0,9502 0,r8 0,91 54 0,9116 0, l9 0,8179 0,8742 0,9945
0,20 0,8416 0,21 0,8064 0,22 0,7722 0,23 0,7388 0,24 0,7063
l,0152 I ,01 l0 l,0069 I,0027 0,9986 0,9945 0,84 0,9141 0,970 I 0,9661 0,962t 0,9581 0,9542 0,83 0,9346 0,9307 0,9269 09na 0,9192 0,91 54 0,82 0,8965 0,8927 0,8890 0,8853 0,88 l6 4,8779 0,81 0,8596 0,8560 0,8524 0,8488 0,8452 0,84 I 6 0,80
0,83 10 0,8274 0,8239 0,8204 0,8 169 0,796 l 0,7926 0,7892 0,7858 0,7824 0,7655 0,762t 0,7588 0,7 554 0,7 521 0,7488 0,7356 0,7323 0,7290 0,7257 0,7225 0,7 t92 0,7 I 60 0,7031 0,6999 0,6967 0,6935 0,6903 0,6871 0,6840 0,8381 0,8030 0,7688
0,8345 0,7995
0,6745 0,6713 0,6682 0,26 0,6433 0,6403 0,6372 0,27 0,61 28 0,6098 0,6068 0,28 0,s828 0,5799 0,57 69 0,29 0,5534 0,5505 0,5476 0,010
I ,0 194
0,9863 4,9822 0,9782 0,9463 0,9424 0,9385 0,9078 0,9040 0,9002 0,8705 0,8669 0,8633
0,2s
JJU
0.004
l2 1,1750 I,t700 I,1650 I , l60l 1,1 552 I,1 503 1,1 455 t,t407 1,1 359 l,l3 I I t,t264 0,87 l3 |,1264 I,t2t7 I ,l 170 I,l 123 |,1077 I,l03 l l,0985 l,0939 r,0893 l,0848 1,0803 0,86
0,14 0,
0.003
0,009
0.008
0,8 l 34 0,8099 0,8064 0,79
0,7790 0,1'756 0,'7722 0,78 0,7 454 0,7421 0,7388 0,7'7 0,7 t28 0,7095 0,7063 0,76
0,6808 0,6176 0,67 45 0,75
0,6620 0,6588 0,6557 0,6526 0,6495 0,6464 0,6433 0,7 4 0,631l 0,6280 0,6250 0,62t9 0,61 89 0,61 58 0,6128 0,'t3 0,6008 0,5978 0,5948 0.59 l 8 0,5888 0,5858 0,5 828 0,72 0,5740 0,5710 0,568 I 0,565 l 0,5622 0,5592 0,5563 0 st14 0,71 0,5446 0,5417 0,5388 0.5359 0.5330 0.5302 0.5273 0.5244 0,70 0,6651 0,6341 0,6038
0,007
0,006
0,005
0,004
0,003
0.002
0,001
0,000
P
PH TASSI S, LEGAIT
TABLES NUMERIOUES
Table no 2 (suite) FRACTILES DE LA LOI NORMALE REDUITE 0,000
P
0,001
0.002
0,30 0,5244 0,52 I 5 0,31 0,4959 0,4930 0,32 0,467',l 0,4649 0,33 0,4399 0,4372 0,34 0,4125 0,409'7 0,35
0.003
0,004
0,005
0,3799 0,3772 0,3'745 0,3531 0,3505 0,3478 0,3266 0,3239 0,32 l3 0,3002 0,2976 0,2950 0,2741 0,2715 0,2689
0,40 0,2533 0,2508 0,41 0,2275 0,22s0 0,42 0,2019 0, l 993 0,43 0, I 764 0, I 738 0,44 0,1510 0,1484
0,2482 0,2456 0,2430 0,2404 0,2224 0,2 198 0,21'73 0,2147 0,1968 0,t942 0,t917 0,1891 0,1713 0, I 687 0,1662 0, l 637 0,1459 0,t434 0, I 408 0, l 383
0,3826
0,45 0,46 0,47 0,48
0,125'1 0,1231 0, l 206 0, I 004 0,0979 0,0954 0,0753 0,0728 0,0702 0,0502 0,0476 0,0451 0,49 0.0251 0,0226 0,020 l
0.010
0.007
0.008
0,009
0.010
0,4621 0,4593 0,4565 0,4538 0,45 l0 0,4482 0,4454 4,442'7 0,4399 0,67 0,4344 0,43 l6 0,4289 0,4261 a,4234 0,4207 0,4t79 0,4t52 0,4125 0,66 0,4070 0,4043 0,40 l6 0,3989 0,396 l 0,3934 0,3907 0,3880 0,3853 0,65
0,36 0,3585 0,3s58 0,37 0,33 t 9 0,3292 0,38 0,3055 0,3029 0,39 0,2793 0,2767
0,3853
0.006
l 0,5072 0,5044 0,50 I 5 0,4987 0,4959 0,69 0,4902 0,48'14 0,4845 0,4817 0,4'789 0,476t 0,4733 0,4705 0,4677 0,68 0,5 187 0,5 I 58 0,5129 0,5 l0
0,009
0,008
0,37 t9 0,3692 0,3665 0,3451 0,3425 0,3398
0,3638 0,361l 0,3585 0,64 0,3372
0,3345
0,3 186 0,3 160 0,3 134 0,3 107 0,308 I 0,2924 0,2898 0,287 | 0;?845 0,2819
0,33 l9 0,63 0,3055 0,62
{2793
0,6 r
0,2663 0,263't 0,261I 0,2585 0,25s9 0,2533 0,60 0,2378 0,2353 0,2327 0,230
l
0,2275 0,59
0,2t21 0,2096 0,20'10 0,2045
0,20 l 9 0,58 0, l 866 0, l 840 0,l8l5 0, r 789 0,1764 0,57 0, l6l I 0, l 586 0, l 560 0, I 535 0,1 5 10 0,56 0, I 358 0,t332 0, I 307 0,1282 0,1257 0,55
0,1 l8 l 0,1 156 0,1 r30 0,1 105 0, I 080 0,1055 0, I 030 0,1004 0,54 0,0929 0,0904 0,0878 0,0853 0,0828 0,0803 0,0778 0,0753 0,53 0,0677 0,0652 0,0627 0,0602 0,0517 0,0552 0,0527 0,0502 0,52 0,0426 0,040 l 0,0376 0,0351 0,0326 0,030 I 0,02'16 0,025 l 0,51 0,0175 0,01 50 0.0125 0.01 00 0,0075 0,0050 0,0025 0,0000 0.50
0,007
0,006
0.005
0.004
0,003
0,002
0,00 r
0.000
P
Grandes valeurs de u
PH, TASSI
P
l0-"
l0-5
l0 -o
uP
3.7 190
4,2649
4,1534
- S, LEGAIT
l0
-'
5. l 993
l0
-E
5,6 120
t
0-'q
5,9978
331
TABLFS NUMEBIOUES
Table no 3 LOI BINOMIALE
-
PROBABILITES CUMULEES
Probabilités cumulées Pr (& n
c
p:
5
l% P:2ol l0
I
0,9990
0,9039 0,9962
2
I
I
0,95
3 4
0,9044
0,8171
0,9957
2
0,9999
J 4
I
0,983 8 0,999 I I
:
p:3%
p:4%
0,8 5 87
0,8153 0,9852
0,7738 0,97'7 4
0,9681
0,9994
0,9988
0,9980
I
I
I
0,9915 0,9997 I
0 I
t-.
< c) : I t_0
0,73'74 0,9655
P:
5ok
P 0
60l
Tttq
(l -
Cl po
p)
p:'7% P:8% p :9% p : 0,6951 0 q575
0,659 I
0,9969 0,9999
0,9456
0,5905 0,9185
0,9955 0,9998
0,9937 0,999'7
0,99t4
I
I
I
I
0,4344
0,3894
0,8l2l
0,77 46
0,3486 0,7361
0,5987
0,5386
0,9 r 39
0,8824
0,9972 0,9999
0,9885 0,9990
0,98 12
0,4840 0,8483 0,911
0,9599
0,9460
0,9980
0,9964
o os4,
0,9912
I
I
0,9999
0,9998
0,9997
0,9994
0,9990
0,9984
I
I
I
0,9999
0,9999 I
0,3953 0,'7738
0,3367
,1
1
6
l5
I
0,860 l
I 2 J
0,9904 0,9996 I
4
0,7386 0,9647
0,63 33
0,542t
0,4633
4,9270
0,8809
0,9970
0,9906
0,9797
0,9998 I
0,9992 0,9999
0,997 6
0,8290 0,9638 0,9945
0,9998
0,9984
0,9429 0,9896 0,9986
I
l'
I
0,9999
0,9997
l
I
5
6
0,8179
0,6676
0,2430
0,9993 0,9999
0,9987
0,9978
0,9999
0,9997
I
I
I
0, I 887 0,5 169
0,1516 0,45 l6
I
0,983 I
0,940
2 3
0,9990
0,1216 0,3917
20
1
0,7879 0,9294
0,1334
0,6769
0,9529 0,9893
0,981 7
0,9007 0,97 l0
4
0,8670 0,9568
0,9981 0,9997
0,9887
I
0,9987 0,9998
0,9976
I
0,9962 0,9994 0,9999
0.9932
0,9999
I
I
0,9999
0,0591
0,0424
0,2343
0, l 837
0,485 5 0,717 5
0,41t4
0,35 85 0,735 8
0,290 l 0,6605
0,9561
0,924s 0,9841
0,9997
0,9926 0,9990
0,8850 0,9710 0,9944
I
0,9999
0,9997 I
0,4120
l
0,5438 0,8802
0,9929 4,9994
0,9790 0,9973
I
5
6 7 8 9
0,7 l 68 0,91 7 l
0 sR2t
0,9972
3
0,9783 0,9971
4
0,9999
0,9996
5
I
I
0,9997
I
6 7
8 9
l0
n
332
0,997 4
0,9991
0,2342 0,5869 0,8390
0,6035 0,853 I 0,960 I 0,9918
0,2059 0,5490 0,8 r 59
4,94r'.5 o sÂ71
0,9996 I
0,40 l0 0,7'731 0,9399 0,9881 0,9982
)
30
I
0,7397 0,9639 0,9967 0,9998
0
0,8 103
0,9298 0,9872
0,2863 0,6597 0,8870 0,9727 0,9950
'1
0
0,9995
0,6648 0,9418 0,9938 0,9996
5
0
t09
0,6240 4,9326
0,5455
0,8794
I
0,2939
0,2r46
0, I 563
0,1 1 34
0,66t2
0 5s1s 0,8122 0,9392 0,9844
0,4555
0,3694
0,0820 0,2958
0.7324 0,8974 0,9685
0,6488 0,8450 0,9447
0,5654 0,7842 0,9126
0,9989 0,9999
0,9967
0,9921
0,983 8
0,9994
I
0,9999
0,9983 0,9997
I
0,9999
0,9960 0,9992. 0,9999
0,9707 0,9918
0,9980 0,9996
I
I
0,9999 I
0,883 I
0,9694 0 qs17
0,647 4
0,8723
0,8245
0,95 r 9 0,9848 n ooss
0,9268 0,9142
0,991 0
0,9998
0,9980 0,9995
I
0,9999
0 ss?)
I
PH.
TASS S
LEGA]'I
TABLES NUMERIOUES
Table no 3 (suite) LOI BINOMIALE
-
PROBABILITES CUMULEES
Probabilirés cumulées Pr n
40
p:
l% P:20Â P:30/o P :
0
0,6690
I
0,9393
2 3
4
40Â
P:
(k < c) : 5o/o
0,4457 0,8095
0,2957
0. l 954
0, I 285
0,661 5
0,992s 0,9993
0,9543
0,399 I 0,67 67
0,99 r 8
0,8822 0,9686
0,52 l 0 0,7855
I
0,9252 0,9790
0,8619 0,9520
0,9951
0,986 I 0,9966 0,9993
0,9988
0,9933
5
0,9999
6
I
0,9988 0,9998
7
I
8 9
0,9990 0,9998 I
0,9999 I
l0
ll
P:
P:70/o
P:80/o
P:9%
l0
0,0842
0,0549
0,0356
0,0230
0,2990
0,2201 0,4625
0, I 594
0,1 140
0,0148 0,0805
0,3694
0,2894
0,6007 0,7868
0,5092
0,9104
0,6937 0,8546
0,969 I
0,94t9
0,9033
0,9909
0,980
l
0,9624
0,9977 0,9995 0,9999
0,9942
0,9873 0,9963
0,8535 0,936 l 0,9758
I
0,9999 I
60/o
0,5665 0,7827
0,9985 0,9997
0,9990 0,9998 I
t2
4 5
I
3
50
6 7
0,3642
0,2 I 8l
0,1299
0,0'769
0,735 8
o 5ss'l
0,2794
0,9216 0,9822 0,9968
0,8 l 06
0,4005 0,6767
0,9372
0,8609
0,9832
0,95
0,9995
0,9963
0,9999
0,9993 0,9999
0,9856 0,9964 0,9992 0,9999 I
I
I
8
9
l0
ll
t2
l3
l0
0,0453 0, r 900
4,0266
0,4162 0,6473 0,8206
0,3 108
0,7604 0,8964 0,9622 0,9882 0,9968
0,971
0,5405
0,t265
0,0155 0,0827
0,9949 0,9985
0,9996 0,9999
t4
0,0090 0,0532 0, r 605 0,3303 0,527',|
0,0052 0,0338 0,1 I l7 0,2503
0,6161 0,7702
0,7290
0,2260 0,4253 0,6290
0,9224
0,8650
0,7919
0,7072
l
0,94t7
0,898 I
0,9992
0,9906 0,9973
0,9998
0,9993
0,9780 0,9927 0,9978
0,9562 0,9834 0,9944
0,8404 0,9232
I
0,9998
0,9994
I
0,9999
0,9983 0,9995
0,9957 0,9987
I
0,9999
0,9996 0,9999
0,9968 0,9990 0,999'7
I
0,9999
0,5327
I
l5
PH.
0,9994 0,9999
0,7937 0,9005 0,958 l 0.9845
1
0,6050 0,9106 0,9862 0,9984 0,9999
2
0,9920 0,9976
I
l3 0 I
0,7 103
0,2228 0,4231 0,6290
0,43t2
t,96't2
0,8779 0,9421
0,9875
0,9755
0,9906
I
TASSI S.
LEGAIT
??2
0t
TABLES NUMERIOUES
Table LOI DE
POISSON
no
4
PROBABILITES CUMULEES
Probabilités cumulées Pr (/< (
< c) - 'i' "-^ ^r kt. Ï^
m-0,1 m-0.2 n-0,1 m-0,4 m-0,5 m-0,6 m_0,7 m-0,8 m-0,9
0
0,9048
I
0,9953
t
3
0,9998 I
4
0,8187 0,9825 0,9988 0,9999 I
0,7408
0,6703
0,9631
0,9384 0,9920 o,9992 0,9999
0,9964 0,9997
I
I
5
0,9769 0,9966 0,9996
0,4966 0,8442 0,9659 0,9942 0,9992
0,4493 0,8088 0,9526 0;9e0e
0,4066 0,7725 0,9372 0,9866
0,9986
0,9977
1
0,9999
0,9998
0,9997
I
I
0,6065 0,9098
0,5488 0,8781
0,9856 0,9982 0,9998 I
6
Probabilités cumulées Pr c
< c) - 'i' "-^ ^* Ê" ft!
m-1,0 m-1,5 m-2,0 m-2,5 m-3,0 m-3,5 m-4,0 m-4,5 m-5,0 0,0302 0, l 359
0,0183
0,01l I
0,0067
0,0916
O,MM
0,3208 0,5366 0,7254
0,2381 0,4335
0,0611 0,1 736
0,6288
0,532
0,9161 0,9665 0,988 1
0,8576
0,7851 0,8893
0,9997
0,9962 0,9989
0,9901 0,9967
0,9489 0,9786 0,9919
0,9134 0,9s97 0,9829
l0
0,9999
0,9997
0,9933
I
0,9999
0,9990 0,9997 0,9999
0,9972
l1
0,9991
09997
0,99't6 0,9992
I
0,9999
0,9997
I
0,9999
0,9993 0,9998
I
0,9999
0 I
0,3679 0,7358
0,2231
0, I 353
0,0821
0,0498
0,5578
0,4060
0,28'tt
0,199i
7
0,9197
0,9810
a,6767 0,8571
4
0,9963
0,9473
0,5438 0,75't6 0,8912
0,4232
3
0,8088 0,9344 0,9814 0,9955 0,9991 0,9998 I
0,9834
0,9579
0,9955
0,9858
0,9989 0,9998
0,9958 0,9989
I
5 6 7 8
9
t2 l3
l4 l5
l6
334
(k
,l
0,9994 0,9999
I
0,6472 0,8 r 53
I
0,9347
4,9733
0,1423
0,1247 0,2650
l
0,4405
0,7029
0,6160 0,7622 0,8666 0,9319 0,9682
0,831
1
0,9863 0,9945
0,9980
I
PH. TASSl
- S. LEGAIT
TABLES NUMERIOUES
Table no 4 (suite) LOI DE POISSON
-
PROBABILITES CUMULEES
Probabilités cumulées Pr
0,0041 I
'l 3
4
0,0025
(k
< ,, :
0,0015 0,0113
0,0009
0,0006
0,0003
0,0073
0,0030
0,0430
0,0296 0,0818 0, r730
0,0047 0,0203 0,0591
0,0266 0,0884
0,0174 0,0620
0,201'7 0,3575
0,15 I 2
0,1 I
0,2851
0,22!7
l8
0,1 32
1
ti"u^
0,0138
0,0424 0,0996
0,l9l2
#
0,0012 0,0062 0,0212 0,0550
0,0001 0,0008 0,0042 0,0149 0,0403
0,1496 0,2562 0,3856
0,1 1 57
0,0885
0,2068
0,1649
a3219
0,5231
0,4557
0,2687 0,3918
0,6530
0,5874
0,521 8
0,'1614 0,8487 0,9091 0,9486
0,7060 0,8030 0,8758 0,9261
0,6453 0,'1520
0,9726
0,9585
0,898 I 0,9400
0,0002 0,0019 0,0093 0,0301
0,0746
0,0001
0,9161
0,3690 0,5265 0,6728 0,7916 0,8774
0,3007 0,4497 0,5987 0,'1291 0,8305
0,2414 0,3782 0,5246 0,6620 0,7764
0,97 47
0,95'74
0,9332
0,9015
0,8622
0,8159
0,966 I
0,9466 0,9730 0,9872
0,9208 0,9573
0,888 I
13
0,9890 0,9955 0,9983
0,9799 0,9912 0,9964
0,9784
l4
o,9994
0,9986
0,9943
0,9897
0,9658 0,9827
l5
0,9998
0,9988
0,99t4
0,9780 0,9889
0,9665 0,9823
I
0,9998 I
0,9954 0,9980 0,9992
0,9918 0,9963
I
0,9976 0,9990 0,9996 0,9999
0,9862
0,9999
0,9995 0,9998
0,9984
0,9970
0,9947
0,991I
0,9997 0,9999
0,9993 0,9997
0,9987 0,9995
0,9976 0,9989
0,9957
I
0,9999
0,9998 0,9999
0,9996
0,9991
0,9998
0,9996 0,9998 0,9999
5
0,5289
6
0,6860
7
0,8095
8
0,9044 0,9462
9
ll t2
t7
0,4457 0,6063
0,7440 0,8472
l8 l9
0,9840 0,9929 0,9970 0,9996
I
0,3134 0,4530 0,5925 0,7166
0,9162
I
1
23
0,9999
I
0,8364
0,9980
1
24
22Â PH. TASSI - S. LEGAIT
TABTES NUMERIOUES
Table LOI DE POISSON
-
no
4 (suite)
PROBABILITES CUMULEES
Probabilités cumulées Pr c
m:10
m:ll
(k
< ,) :'t
io
u-^
4kt m:17
m:18
0,0004
0,0002
0,000 I
0,0014 0,0040
0,0007 0,0021
0,0003
0,0076 0,0 r 80
0,0 100
0,0054
0,0620 0, l 093
0,0374
0,0220 0,0433
0,0126 0,026 l
0,0071
0,0698
l7
0, l 756
0,077 4
0,3s32
0,2600 0,3584 4,4644 0,5704
0,1 1 84 0, I 847
0,0304 0,0549
0,26'76
0,1931
0,3622
0,2745
0,4656
0,3675
0,0491 0,0847 0, l 350 0,2009 0,2808
0,5680 0,6640
0,4667
0,2867
0,5659
0,37 t4 0,4677
0,7 487
0,6593
0,5440
0,8826 0,9235
0,8193 0,875 l
0,7423
0,6550 0,7363
0,3750 0,4686 0,5622 0,6509
0,9169 0,9468
0,868 I 0,9107
0,8055
0,7307
0,861 5
0,7991
0,9048 0,9367 0,9593
0,855 I
0,9554
m:!4
m:15 m:16
m:12
m:13
0,0001 0,0005 0,0023
0,0002
0,0010
0,0001 0,0005
0,0002
0,0001
0,0076
0,0037
0,001 8
0,0009
0,0107 0,0259 0,0540 0,0997 0, I 658
0,0055
0,0028
0,0142 0,0316
0 2
I
0,0005 0,0028
3
0,0104
4
0,0293
0,0002 0,0012 0,0049 0,0151
5
0,0671 0, l 302
0,0375 0,0786
0,0203 0,0458
0,2243 0,3329 0,4580
0,1432 0,2320
0,0895 0, I 550
0,3405
0,2424
0,4599 0 57S1
0,3472 0,4616 0,5760
0,25
0,68 l6 0,7721
0,5730
t4
0,583 l 0,6968 0,79 I 6 0,8645 0,9 r 66
l5
0,95
l3
0,9075
0,8445
16
0,9730 0,9857 0,9928
0,9442 0,9679 0,9824
0,8988 0,9371 0,9626
0,7636 0,8355 0,8905 0,9302
0,9965
0,9908
0,9787
c,9514
20
0,9984
0,9954
0,9751 0,9860
22
I
0,9805 0,9888
0,9633
24
0,9985 0,9993
0,9833 0,9907 0,9950
0,96t7
û,9999
0,9925 0,9962 0,9982
0,9672
23
0,9978 0,9990 0,9996 0,9999
0,9884 0,9939 0,9969
0,952t
0,9993 0,999'7
Q,9997
0,9992
0,9974
26
0,9999
0,9997
0,9987
I
0,9999
0,9994
I
0,9997 0,9999
0,9992 0,9996
0,9869 0,9926 0,9960 0,9979 0,9989
0,9748 0,9848
27
0,9938 0,9967 0,9983
I
0,9998
6 7
I
9
l0
ll tl
13
l7 l8 l9
25
28 29
0,78 I 3
0,8541
I
0,463 t 0,6751
0,6693
0,7559 0,8272
0,9712
a,8tzz
0,917'7
0,99t2 0,9950 0,9973
0,0154
0,09 r 7
0,t426 0,2081
0,8989 0,93
l3
0,97 l8 0,9E27 0,9897 0,9941
0,9999
0,9995 0,9998
0,9986
3l
0,9993
0,9967 0,9982
32
I
0,9999
0,9996
0,9990
I
0,9998
0,9999
0,9995 0,9998
I
0,9999
30
33 34 35 36
336
0,6887
0,t270
0,0010 0,0029
I
PH. TASSI
. S. LEGAIT
TABLES NUMEFIOUES
Table no 5 FRACTILES DE LA LOI DE x'z(u)
I
oto
2
0,012
3
0,024 0,072 0,115
4
0,091 0,201 0,291 0,2 l0 0,412 0,554 0,831
5
0,676 0.8'72 1,24 0,598 0,989 I,65 1,34 0,857
0,381
6 1
8 9
I,l5
l .73
I,48
t0
ll
l,83
t2
2,21
l3 t4 l5
l'l l8 l9
22 23 25
29 30 32
34 36 38
40
2,13 1'11
2,10 3,25
1S4
7,81
s
I,l
I
2,8
I 5,1
2,20 2.83 3,49
t2,6
t4,4
6.35
10,6 r 2,0
14, I
16,0
7,14
13,4
rs
t4,7
16,9
4,8'7
8,34 9,34
17,5 19,0
16,8 18,5 20, I
8,3
20,5
t9,1
zl,9 26,2 27,7 29,
4,t1
I
I
5
2l
2,62
5,01
5Rg
4,66
6,57
3,48
5,23
5,63 6,26
7,04 7,79 8,55
t2,3
3,04
26,3
8,67
9,31 10,I
9,39
10,9
8,91
10, I
ll,7
15,3 16.3 17,3 18,3
30, I
ass
r
0,9
t2,4
19,3
7,63 8,26
6,45 6,98
8,90 9,54
? {1
10,2 10.9
10,4 I 1,0 I 1,6 12,8 14,I
|,2
6,91 7,56 8,23
10,3
l1,5 rl t
22,4
13,3
)2,1
26,1
14,3
)5
34,2
3"1
28,9
1q1 40,8 42,3
43,8
,6
45,3
38, I
4l
,6
49,'7
43,0
16,5
39,4 40,6
44,3
51,2 52,6
15,4
t?
)5
54, I
18, I 18,9
13.8
t5,1
4,6
1
20.3
'l{ )
S
1
35,6
38,9
4l ,9
45,6
26,3
36,'7
40, I
4',1
21 ,3
31 ,9
4l
28,3 29,3
39, I
42,6 43,8
1J,L 44,5 45,7
40,3 42,6 44,9
18,3 19,8
20,l 2t,-l
3 1.3
t'7,9
2t,3
15
1
4'7,2
19,3
22,9 24,4
23,3 24,9 26,5
17
1
49.5
r00
31,4
2'7,6
16,5
t
1?q
32,0 33,4 34,8 36,2
36.4 37,1
14,0 14,8
18,5
{1
37,'7
28.8 30,2 3 r,5
23,3 24,3
12,3 13, I
t'7,'7
65,6
36, I
30,6
)?
46,8 48,3
14,3
60 70 80 90
l
2,462 2,457
2,374
2,977 2,947
4,501
3,450
dl{
2,779
1
2,7't
3,421 3,408 3,396
t
2,763 2,756 2;750
4,3
l8
3,965
l9
3,707 3,690 3,67 4
3,385
3,659 3,646
3,365
3,622
2,7 t9 2,7 t2
3,348 3,333 3,319
3,601 3,582
2,704
1 1n7
3,551
2,6'78
3,26r
2,660 2,648 2,639 2,632
3,232
3,496 3,460
3,2n
3,435
3,195
3,4r5
3,1 83
3,402
2,626
3,174
2,601
3,13 1 3,1 06
3,389 3,339
2,738 2,728
2,586 2,576
3,090
3,566
3,3
l0
3,29t
Pour v > 40, on pourra utiliser I'approximarion suivante
tp(v)-ue*(u)r+u"\/4v où ur est le fractile d'ordre Pde Ia loi normale réduite.
338
PH, TASSI
. S. LEGAIT
TABLES NUMERIOUES
Table no 7 FRACTILES DE LA LOI F (uI, DEGRÉS DE LIBERTÉ
N I
l6l
z
r
3
10, r
4
7,71 6,61
5
4
5
6
7
8
9
l0
t2
t4
200 19,0
2t6
225
230
214
237
239
241
242
244
245
t9,2
19,2
19,3
19,3
t9,4
19,4
t9,4
19,4
s
t9,4
t9,4
55
9,28
9,t2
9,01
8,94
8,89
8,85
8,81
8,74
8,71
6,94
6,59
6,39
6,26
6,
t6
5,l9
5,05
4,95
6,00 4,77
5,87
5,41
6,04 4,82
5,91
5?0
6,09 4,88
8,79 5,96 4,7 4
4,68
4,64
5,t 4
4,7 6
4,53
4,39
4,28
4,21
4,l5
4,
J,96
4,35 4,0'l
4,12 3,84
147
3,87
171
3,68
3,57
3,53
3,69
3,5 8
3,79 3,50
4,06 3,64
4,00
4,7 4
3,M
3,39
3,3 5
3,28
3,24
3,86
161
3,48
117
3,29
3,23 3,07
3,l8
3,
l4
3,07
3,03
3,02
2,98
2,9t
2,86
2,95
2,90
2,85
2,8 5 ) 11
2,80
) 7(
2,79 2,69
2,74 2,64
2,65 2,59
2,67 2,60
2,60 2,s3
2,54
2,48
2,55 2,48 2,42
2,54 2,49
2,49
2,42
2,45
2,3 8
2,46 2,42
2,4t
2,34 2,3t
9
5,t2
4,46 4,26
l0
4,96
4,
ll
4,84
3,98
t2
4,7 5
3,71
3.48
111
3,22
3,
3,36 3,26
3,20
3,09
3,89
3,59 3,49
3,il
3,01 2,91
l0
l4
4,67
3,81
3,41
3,14
3,34
3,l8 3,l l
3,03 2,96
l5
4,60 4,54
3,68
3,29
3,06
2,90
3,00 2,92 2,85 2.79
2,7 t
2,70 2,64
l6
4,49
2,85
2,7 4
2,66
2,59
t7
4,45
3,24 3,20
3,01
=
3,63 3,59
2,96
2,8 I
2,61
2,55
z
l8 l9
4,4t
155
2,90
2,7 4
20
3,s2 3,49
l6 l3
2,77
4,38 4,35
3, 3,
2,93
.(Jl
2,70 2,66 2,63
3,
l0
2,87
2,7 t
2,60
f,
2t
4,32
141
3,0'l
2,84
t