Sous la direction de
Christian Gautier André Warusfel François Lussier • Gonzague de Monicault Serge Nicolas • Monique ...
135 downloads
1594 Views
5MB Size
Report
This content was uploaded by our users and we assume good faith they have the permission to share this book. If you own the copyright to this book and it is wrongfully on our website, we offer a simple DMCA procedure to remove your content from our site. Start by pressing the button below!
Report copyright / DMCA form
Sous la direction de
Christian Gautier André Warusfel François Lussier • Gonzague de Monicault Serge Nicolas • Monique Ramis Bruno Caminade
MATHÉMATIQUES TOUT-EN-UN •
BCPST 2 année e
៑ Un cours complet ៑ De nombreux exercices et
problèmes ៑ Toutes les solutions détaillées
Mathématiques
TOUT-EN-UN • BCPST 2e année Cours et exercices corrigés
Sous la direction de
Christian Gautier
et
André Warusfel
François Lussier
Gonzague de Monicault
Professeur au lycée Sainte Geneviève
Professeur au lycée Montaigne
Serge Nicolas
Monique Ramis
Professeur au lycée Henri IV
Ancien professeur de chaires supérieures
Bruno Caminade Professeur au lycée militaire de Saint-Cyr-l’École
© Dunod, Paris, 2008 ISBN 978-2-10-053976-5
Table des matières
Chapitre 1 1 2 3 4 Chapitre 2 1 2 3 4 5 6 Chapitre 3 1 2 3 4 5
Espaces vectoriels Espaces vectoriels, sous-espaces vectoriels Familles de vecteurs génératrices, libres Base, dimension d’un espace vectoriel Sous-espace vectoriel, somme de sous-espaces vectoriels
1 1 6 9 14
Rang d’une matrice
24 24 30 32 35 37 45
Réduction des endomorphismes et des matrices Changement de base Valeurs et vecteurs propres d’un endomorphisme Réduction des endomorphismes Diagonalisation des matrices carrées Applications de la réduction
51 51 55 58 60 69
Applications linéaires Applications linéaires Rang d’une application linéaire L’ensemble des applications linéaires de E dans F Projections Matrices et applications linéaires
Chapitre 4 Séries numériques 1 Généralités 2 Séries à terme général positif 3 Séries absolument convergentes
82 82 91 101
Table des matières 4
D’autres séries de référence
5
Appendice : complément en vue des probabilités
Chapitre 5 1 2 3 4 5 Chapitre 6 1
102 107
Notation différentielle, formes différentielles
119 119 122 125 138 142
Extensions de la notion d’intégrale
151
Fonctions réelles de plusieurs variables Limites Continuité Dérivées partielles, fonctions de classe C 1 Fonctions de classe C 2
+∞
f (t)dt
L’intégrale impropre
151
a
2
b
f (t)dt
L’ intégrale impropre
161
a
3
Intégrales plusieurs fois impropres
4
Pratique des intégrales impropres
5
Intégrales doubles
166 170 176
Chapitre 7 1 2 3 4
Espaces probabilisés Espaces probabilisables Espaces probabilisés Les probabilités conditionnelles Indépendance
194 194 199 212 222
Chapitre 8 1 2 3 4
Variables aléatoires réelles discrètes Une application liée à une expérience aléatoire : la variable aléatoire Variables aléatoires discrètes Les moments d’une variable aléatoire Les lois usuelles
233 233 237 248 261
Chapitre 9 1 2 3 4
Couples de variables aléatoires réelles discrètes Lois associées à un couple de variables aléatoires discrètes Indépendance de variables aléatoires discrètes Variable aléatoire fonction de deux variables aléatoires Covariance et coefficient de corrélation linéaire
279 279 287 292 299
Chapitre 10 Variables aléatoires réelles à densité 1 Notion de variable aléatoire réelle à densité 2 Variable aléatoire fonction d’une variable aléatoire à densité 3 Espérance et variance d’une variable aléatoire à densité
iv
313 313 321 327
Table des matières 4
Les lois usuelles
5
Indépendance
337 351
Chapitre 11 Couples de variables aléatoires admettant une densité 1 Lois associées à un couple de variables aléatoires à densité 2 Variables aléatoires fonctions d’un couple de variables à densité 3 Covariance - Coefficient de corrélation
361 361 371 382
Chapitre 12 Convergences et approximations 1 Loi faible des grand nombres 2 Convergence en loi 3 Théorème de la limite centrée
393 393 396 399
Solution des exercices Chapitre 1 Chapitre 2 Chapitre 3 Chapitre 4 Chapitre 5 Chapitre 6 Chapitre 7 Chapitre 8 Chapitre 9 Chapitre 10 Chapitre 11 Chapitre 12
407 408 419 425 453 475 484 498 513 534 555 579 608
Index
615
v
Espaces vectoriels
1
1. Espaces vectoriels, sous-espaces vectoriels Nous reprenons et complétons les définitions et propriétés établies dans le livre de première année, le lecteur s’y référera pour les démonstrations que nous ne reprenons pas en détail. Dans tout ce chapitre K représente soit l’ensemble des réels R soit celui des complexes C. 1.1 Espaces vectoriels sur K Définition 1 Soit E un ensemble muni d’une loi de composition interne notée + et d’une loi de composition externe à opérateurs dans K notée ·. On dit que (E, +, ·) est un K-espace vectoriel s’il vérifie les dix propriétés suivantes 1. (E, +) est un groupe commutatif, c’est-à-dire que : Oi A
L’opération + est une loi de composition interne. Pour tout triplet (x, y, z) d’éléments de E, on a (x + y) + z = x + (y + z).
N Il existe un élément 0E dans E, tel que pour tout élément x de E, on a x + 0E = 0E + x = x. S Pour tout élément x de E, il existe un élément y de E tel que x + y = y + x = 0E ; on note cet élément −x. C Pour tout couple (x, y) d’éléments de E on a x + y = y + x. 2. La loi · vérifie les cinq propriétés suivantes : Oe
L’opération · est une loi de composition externe.
Am Pour tout couple (l, m) d’éléments de K et pour tout élément x de E, l · (m · x) = (lm) · x.
Chapitre 1 – Espaces vectoriels
N
Pour tout élément x de E, 1 · x = x.
Dg Pour tout couple (l, m) d’éléments de K et pour tout élément x de E, (l + m) · x = l · x + m · x. Dd
Pour tout l ∈ K et tout couple (x, y) d’éléments de E, l · (x + y) = l · x + l · y.
➤ Remarques • Les éléments de K sont appelés des scalaires et les éléments de E des vecteurs. • Sauf mention contraire, les lettres majuscules E, F . . . désigneront des espaces vectoriels sur K, les lettres minuscules u, v, . . . , ou e1 , e2 , . . . désigneront des vecteurs et les lettres grecques a, b,. . . , l, m, . . . des scalaires. • Le vecteur nul 0E , élément neutre pour l’addition des vecteurs, est unique et nous avons, pour tout scalaire l et tout vecteur x, l’équivalence lx = 0E ⇐⇒ (l = 0) ou (x = 0E ). • L’opposé d’un vecteur x est unique et nous avons pour tout scalaire l les égalités suivantes (−l)x = l(−x) = −(lx). • Tout espace vectoriel contient au moins le vecteur nul et n’est donc pas vide.
Exemples 1. L’ensemble K[X] des polynômes muni des lois habituelles est un K-espace vectoriel. 2. Pour toute valeur des entiers non nuls n et p, l’ensemble Mn,p (K) des matrices muni des lois habituelles est un K-espace vectoriel. 3. Pour toute valeur de l’entier non nul n, l’ensemble Kn ou M1,n (K) des n-uplets de scalaires est un K-espace vectoriel. 4. L’ensemble C lui-même peut être considéré comme un R-espace vectoriel ou un C-espace vectoriel. 5. L’ensemble KN des suites de scalaires muni de l’addition des suites et du produit par un scalaires est un K-espace vectoriel. 6. L’ensemble RI des fonctions réelles f définies sur un intervalle I muni de l’addition des fonctions et du produit par un réel est un R-espace vectoriel. Définition 2 On appelle famille finie de vecteurs tout n-uplet de n vecteurs où n est un entier naturel non nul. ➤ Remarques • Deux familles de vecteurs sont égales si elles sont constituées des mêmes vecteurs dans le même ordre. • On note habituellement une telle famille (e1 , e2 , . . . , en ) ou (ei )i∈I avec I un sous-ensemble fini de N. • On dira que (ei )i∈J est une sous famille de la famille (ei )i∈I si l’on a J ⊂ I.
2
Espaces vectoriels, sous-espaces vectoriels
Définition 3 Un vecteur x de E est dit combinaison linéaire d’une famille (e1 , e2 , . . . , en ) s’il existe n n éléments l1 , l2 , . . . , ln de K tels que x= li ei . i=1
L’ensemble des combinaisons linéaires de (e1 , e2 , . . . , en ) est noté Vect(e1 , e2 , . . . , en ). Exemples 1. Dans l’ensemble K3 des triplets de scalaires, le vecteur (2, 5, 9) est combinaison linéaire de la famille de vecteurs (1, 1, 1), (0, 1, 1), (0, 0, 1) , en effet (2, 5, 9) = 2(1, 1, 1) + 3(0, 1, 1) + 4(0, 0, 1). 2. Dans l’ensemble des polynômes R[X], on a Vect(X 2 , X, 1) qui est égal à R2 [X] puisque nous avons par définition R2 [X] = {aX 2 + bX + c|(a, b, c) ∈ R3 }. 1 0 0 1 et D = . 3. Dans M2 (R), posons D = 0 1 −1 0 l m Pour tous scalaires l et m, nous avons alors lD + mD = . Nous en déduisons −m l l m Vect(D, D) = (l, m) ∈ R2 . −m l
1.2 Sous-espaces vectoriels Définition Définition 4
© Dunod – La photocopie non autorisée est un délit
Soient E un espace vectoriel et F un sous-ensemble de E. On dit que F est un sousespace vectoriel de E si F est non vide et s’il vérifie les deux propriétés suivantes. 1. Pour tout couple (x, y) de vecteurs de F, le vecteur x + y appartient à F. 2. Pour tout scalaire l et tout vecteur x de F, le vecteur lx appartient à F. ➤ Remarque On dira que F est un sous-espace de l’espace vectoriel E s’il est non vide, stable par addition et stable par multiplication par un scalaire.
Exemples 1. Tout espace vectoriel E a toujours au moins deux sous espaces qui sont E lui-même (c’est le plus grand des sous-espaces de E pour l’inclusion) et {0E } (c’est le plus petit des sousespaces de E pour l’inclusion).
2. L’ensemble (x, y, 0)| (x, y) ∈ K2 est un sous espace vectoriel de K3 . Théorème 1 Soit (E, +, ·) un K-espace vectoriel et F un sous-espace vectoriel de E. L’ensemble F est lui-même un espace vectoriel pour les lois + et ·.
3
Chapitre 1 – Espaces vectoriels
Preuve Il suffit d’observer que (F, +, ·) vérifie les dix propriétés OANSCOANDD caractéristiques des espaces vectoriels. L’existence dans F de l’opposé de tout élément x de F et de l’élément nul vient de la stabilité de F par la multiplication par un scalaire : soit x un élément de F, (il en existe au moins un, F = ∅) alors −x = (−1)x et ❑ 0E = 0x existent et sont dans F.
Exercice 1.
Soit K[X] le K-espace vectoriel des polynômes sur K. Soient a un scalaire fixé et Ea l’ensemble des polynômes qui s’annulent en a. Montrer que Ea est un sous-espace vectoriel de K[X]. Solution. Nous avons : • Ea sous-ensemble de K[X] est non vide, il contient le polynôme P = X − a. • Si P et Q sont deux polynômes tels que P(a) = 0 et Q(a) = 0, alors nous avons (P + Q)(a) = P(a) + Q(a) = 0 ; P + Q appartient à Ea qui est donc stable pour l’addition. • Si P est un polynôme tel que P(a) = 0 et l un scalaire, alors (lP)(a) = lP(a) = 0 ; lP appartient à Ea qui est donc stable par multiplication par un scalaire. L’ensemble Ea des polynômes qui s’annulent en a est non vide, stable par addition et par multiplication par un scalaire ; c’est un sous-espace vectoriel de K[X]. Exercice 2.
Soit S l’ensemble des matrices symétriques de tailles 2 × 2 sous ensemble de l’espace vectoriel M2 [K]. qu’une matrice est symétrique si elle est égale à sa transposée, ainsi Nous rappelons r s S= (r, s, t) ∈ K3 . Montrer que S est un sous-espace vectoriel de M2 [K]. s t Solution. Nous avons : • S est non vide, il contient la matrice nulle. • Nous savons que pour toutes matrices A et B de même taille t (A + B) = t A + t B ; si A et B sont deux matrices dans S, leur somme est aussi dans S. • Nous savons que pour toute matrice A et tout réel l on a t (lA) = l(t A) ; si A est une matrice dans S, alors lA est aussi dans S. L’ensemble S des matrices 2 × 2 symétriques est non vide, stable par addition et par multiplication par un scalaire ; c’est un sous-espace vectoriel de M2 [K]. Théorème 2 (Pour démontrer qu’une partie de E est un sous-espace) Soit F une partie d’un espace vectoriel (E, +, ·). L’ensemble F est un sous-espace de E si 1. F est non vide, 2. ∀(x, y) ∈ F 2 ∀(l, m) ∈ K2 lx + my ∈ F.
4
Espaces vectoriels, sous-espaces vectoriels
➤ Remarque On peut résumer cette proposition en disant qu’un sous-ensemble F d’un espace vectoriel E est un sous-espace s’il est non vide et stable par combinaisons linéaires.
Preuve Il suffit de remarquer que si F vérifie les deux conditions ci-dessus, alors il vérifie la définition des sous-espace. En effet, F est non vide, puis en prenant l = m = 1 nous obtenons la stabilité de F par addition, en prenant l quelconque et m = 0 nous obtenons la stabilité de F par multiplication par un scalaire. ❑
Proposition 1 (Intersection de sous-espaces vectoriels) Toute intersection de sous-espaces vectoriels d’un espace vectoriel est un sous-espace vectoriel. Preuve Soit I une intersection de sous-espaces vectoriels d’un espace vectoriel E ; 0 appartient à chacun des sous-espaces donc à I qui est de ce fait non vide ; une combinaison linéaire d’éléments de I appartient à chacun des sous-espaces donc à leur intersection I. ❑ L’ensemble I est non vide, stable par combinaison linéaire c’est un sous-espace de E.
1.3 Exemples de sous-espaces vectoriels
Les exemples qui suivent sont importants. Les ensembles Kn [X] Proposition 2 Soit n un entier naturel, l’ensemble Kn [X] des polynômes de degré inférieur ou égal à n est un sous-espace de l’espace vectoriel K[X]
L’ensemble Kn [X] des polynômes de degré inférieur ou égal à n est non vide et stable par combinaison linéaire.
© Dunod – La photocopie non autorisée est un délit
Certains sous-ensembles de l’ensemble des fonctions définies sur un intervalle I Proposition 3 Soit I un intervalle non vide de R. L’ensemble C 0 (I, R) des fonctions continues de I dans R est un sous-espace de l’espace vectoriel RI des fonctions réelles définies sur I.
Il en est de même pour l’ensembles des fonctions dérivables, de classe C n ou C ∞ sur un intervalle I non vide et non réduit à un point. L’ensemble des solutions d’un système d’équations linéaires homogène Proposition 4 L’ensemble des solutions d’un système linéaire homogène est un sous-espace de Rn .
5
Chapitre 1 – Espaces vectoriels
Preuve
Soit le système S de p équations à n inconnues. ⎧ a x + a1,2 x2 + · · · + a1,n xn ⎪ ⎪ 1,1 1 ⎪ ⎨ a2,1 x1 + a2,2 x2 + · · · + a2,n xn S: ⎪ ⎪ ⎪ ⎩ ap,1 x1 + ap,2 x2 + · · · + ap,n xn
= = . . . =
0 0
E1 E2
0
Ep
Le vecteur nul est solution de S . Si X = (x1 , x2 , . . . , xn ) et X = (x1 , x2 , . . . , xn ) sont deux solutions, nous voyons facilement que X + X est aussi solution ; si de plus l est scalaire quelconque, lX est aussi solution. L’ensemble des solutions est donc non vide, stable par addition et par multiplication par un réel, c’est un sous-espace ❑ vectoriel de Kn .
2. Familles de vecteurs génératrices, libres 2.1 Sous-espace vectoriel engendré par une famille de vecteur Proposition 5 Soit (e1 , e2 , . . . , en ) une famille finie de vecteurs de E. L’ensemble Vect(e1 , e2 , . . . , en ) des combinaisons linéaires de cette famille est un sousespace vectoriel de E, c’est le sous-espace engendré par (e1 , e2 , . . . , en ). Preuve Il suffit de vérifier que Vect(e1 , e2 , . . . , en ) est non vide et stable par combinaison linéaire.
❑
Exemples 1. Le sous-espace vectoriel Vect(1, X, X 2 ) de K[X] engendré par (1, X, X 2 ) est le sous-espace vectoriel K2 [X] = {aX 2 + bX + c|(a, b, c) ∈ K3 } des polynômes de degré inférieur ou égal à 2. 2. Le sous-espace vectoriel de K3 engendré par (−1, 1, 0), (−1, 0, 1) est le sous-espace P = {(−y − z, y, z)|(y, z) ∈ K2 } de l’espace vectoriel K3 . On peut observer que les éléments de P sont des triplets solutions de l’équation x+y+z = 0 et réciproquement si (x, y, z) est solution de cette équation, alors il s’écrit (−y − z, y, z) et est un élément de P. L’ensemble P est donc l’ensemble des solutions de x + y + z = 0. ➤ Remarque Une manière efficace de montrer qu’un ensemble est un espace vectoriel est de montrer qu’il est un sous-espace vectoriel engendré par une famille de vecteurs.
Exercice 3.
Montrer que l’ensemble E =
a+b a
b a−b
(a, b) ∈ R2 est un espace vectoriel sur R.
Solution. Remarquons que un sous-ensemble de l’espace vectoriel M2 (R). E est
1 0 1 1 et M2 = . Nous avons E = aM1 + bM2 | (a, b) ∈ R2 , Posons M1 = 1 1 0 −1 c’est à dire E = Vect (M1 , M2 ) ; l’ensemble E est donc un sous-espace de M2 (R) et donc un espace vectoriel.
6
Familles de vecteurs génératrices, libres
L’ensemble des suites définies par une même récurrence linéaire double Proposition 6 Soit (a, b) ∈ C2 , avec b = 0, soit E l’ensemble des suites de complexes (un )n∈N telle que ∀n ∈ N un+2 = aun+1 + bun . On note l et m les racines de son polynôme caractéristique P = X 2 − aX − b et (xn ) et (yn ) les suites définie par xn = ln et par yn = mn si l = m ou yn = nln si l = m. Alors E est un sous-espace vectoriel de KN et E = Vect(xn , yn )
Le théorème vu en première année affirmait que E ⊂ Vect(xn , yn ) et il est facile de vérifier l’inclusion inverse dans le cas l = m et dans le cas l = m. 2.2 Familles génératrices d’un espace vectoriel, familles libres Définition 5 Soit E un espace vectoriel sur K. Une famille finie (e1 , e2 , . . . , en ) de n vecteurs de E est dite génératrice de E si pour n tout x ∈ E, il existe n scalaires l1 , l2 , . . . , ln tels que x = li ei . i=1
On a alors Vect(e1 , e2 , . . . , en ) = E. ➤ Remarque On dit aussi qu’une famille de vecteurs (e1 , e2 , . . . , en ) engendre le sous-espace vectoriel F F = Vect(e1 , e2 , . . . , en ).
si
© Dunod – La photocopie non autorisée est un délit
Proposition 7 (Propriétés des familles génératrices) Soient E un espace vectoriel et (ei )1in une famille de vecteurs de E. Soit F = Vect(e1 , e2 , . . . , en ) le sous-espace de E engendré par cette famille. Si • on change l’ordre des vecteurs de la famille (ei )1in , • ou on ajoute à un vecteur de la famille (ei )1in une combinaison linéaire des autres, • ou on multiplie un vecteur de la famille (ei )1in par un scalaire non nul, • ou on ajoute à la famille (ei )1in un nombre p d’autres vecteurs de F, • ou on enlève de la famille (ei )1in un de ses vecteurs qui lui-même est une combinaison linéaire des autres vecteurs de la famille, alors le sous-espace engendré par chacune de ces nouvelles familles est encore égal à F. En particulier ceci est vrai pour une famille finie génératrice de E lui même. Preuve Voir le cours de première année.
❑
7
Chapitre 1 – Espaces vectoriels
Définition 6 Une famille (e1 , e2 , . . . , en ) est dite libre si pour tout n-uplet de scalaires (l1 , l2 , . . . , ln ) on a n
li ei = 0 ⇒ (l1 = l2 = · · · = ln = 0). i=1
On dit aussi que les vecteurs e1 , e2 , . . . , en sont linéairement indépendants. Une famille qui n’est pas libre est dite liée. ➤ Remarque Pour toute famille (e1 , e2 , . . . , en ) de vecteurs, il y a toujours la combinaison linéaire nulle triviale
n
0ei = 0. Une
i =1
famille finie de vecteurs est libre si la seule combinaison linéaire nulle est la combinaison linéaire nulle triviale ; elle est liée s’il existe une combinaison linéaire nulle non triviale, c’est-à-dire avec des coefficients non tous nuls.
Exemples 1. Toute famille contenant le vecteur nul 0E est une famille liée, en effet, la combinaison linéaire des vecteurs de cette famille écrite avec un coefficient égal à 1 pour 0E et tous les autres coefficients nuls est une combinaison linéaire nulle non triviale. 2. La famille (3, 1) , (0, 2) est-elle une famille libre de vecteurs de R2 ? Soient a et b sont deux réels tels que a(3, 1) + b(0, 2) = 0. alors (3a, a+ 2b) = (0, 0), et donc a = 0 et b = 0. La famille (3, 1) , (0, 2) est libre. 3. La famille 1 + X + X 2 , 3 + X + 5X 2 , 2 + X + 3X 2 est-elle une famille liée de vecteurs de K2 [X] ? Nous remarquons que 1(1+X +X 2 )+1(3+X +5X 2)−2(2+X +3X 2 ) = 0, il existe donc une combinaison linéaire nulle non triviale ; la famille 1 + X + X 2 , 3 + X + 5X 2 , 2 + X + 3X 2 est une famille liée. 4. La famille de polynômes (1, X, X 2 , . . . , X n ) est une famille libre de K[X]. En effet, si n a0 , a1 , . . . , an sont des scalaires tels que ai X i = 0K[X] alors a0 = a1 = · · · = an = 0. i=0
Proposition 8 (Propriétés des familles liées) Soit E un espace vectoriel. • Une famille finie de vecteurs liée dont on change l’ordre des vecteurs reste une famille liée. • La famille (e1 ) est liée si, et seulement si, le vecteur e1 est nul. • La famille (e1 , e2 ) est liée si, et seulement si, l’un des vecteurs est égal à l’autre multiplié par un scalaire ; on dit dans ce cas que les vecteurs e1 et e2 sont colinéaires. • La famille (e1 , e2 , . . . , en ) est liée si, et seulement si, l’un des ei est égal à une combinaison linéaire des autres. Preuve La preuve est détaillée dans le cours de première année.
8
❑
Base, dimension d’un espace vectoriel
Proposition 9 (Propriétés des familles libres) Soient E un espace vectoriel et (e1 , e2 , . . . , en ) une famille de vecteurs. • Une famille finie de vecteurs libre dont on change l’ordre des vecteurs reste une famille libre. • Si la famille (e1 , e2 , . . . , en ) est libre, toute sous-famille de (e1 , e2 , . . . , en ) est aussi libre. • La famille (e1 , e2 , . . . , en ) est libre si, et seulement si, tout vecteur de Vect(e1 , e2 , . . . , en ) s’écrit de manière unique comme combinaison linéaire de cette famille. Preuve Nous reprenons juste la démonstration du troisième point. Supposons dans un premier temps avoir une famille (e1 , e2 , . . . , en ) libre. Soit v un vecteur de Vect(e1 , e2 , . . . , en ) qui s’écrit de deux façons comme combinaison linéaire de cette famille v=
n
li ei =
i =1
alors
n
n
mi ei
i =1
(li − mi )ei = 0.
i =1
Comme la famille (e1 , e2 , . . . , en ) est libre, nous avons l1 − m1 = l2 − m2 = · · · = ln − mn = 0. Autrement dit l1 = m1 , l2 = m2 , . . . , ln = mn et le vecteur v s’écrit donc de manière unique comme combinaison linéaire de la famille (e1 , e2 , . . . , en ). Réciproquement, donnons-nous une famille (e1 , e2 , . . . , en ) qui vérifie la propriété donnée et prouvons que cette famille est libre. Soient l1 , l2 , . . . , ln des scalaires tels que n
li ei = 0,
c’est-à-dire
i =1
n
li ei =
i =1
n
0ei .
i =1
© Dunod – La photocopie non autorisée est un délit
De l’unicité de l’écriture d’un vecteur, nous déduisons que l1 = 0, l2 = 0, . . . , ln = 0, c’est-à-dire que la famille (e1 , e2 , . . . , en ) est libre. ❑
3. Base, dimension d’un espace vectoriel 3.1 Définition Définition 7 Une famille finie (e1 , e2 , . . . , en ) est une base de E si elle est libre et génératrice, autrement dit si pour tout x ∈ E il existe un et un seul n-uplet (l1 , l2 , . . . , ln ) d’éléments de K tels que n x= li ei . i=1
Les scalaires l1 , . . . , ln sont appelés coordonnées de x dans la base (e1 , . . . , en ), et les vecteurs l1 e1 , . . . , ln en sont ses composantes.
9
Chapitre 1 – Espaces vectoriels
➤ Remarques • Plus généralement une famille sera appelée base d’un sous-espace vectoriel F si elle est libre et génératrice pour l’espace vectoriel F. • On retiendra que si une famille B est une base de l’espace vectoriel E, alors, parce que B est génératrice de E, tout vecteur de E s’écrit comme une combinaison linéaire des vecteurs de B et, parce que B est libre, cette écriture est unique. • Certains des espaces vectoriels que nous rencontrerons ont une base particulièrement simple que l’on appelle base canonique. Elles sont décrites ci-dessous.
Base canonique de Kn . Définissons dans Kn les vecteurs e1 = ( 1 , 0 , 0 , . . . , 0 , 0 ) .. . ei = (0, . . . , 0 , 1, 0, . . . , 0) .. ie place . en = ( 0 , 0 , 0 , . . . , 0 , 1 ). Pour tous scalaires x1 , x2 , . . . , xn nous avons
n
xi ei = (x1 , x2 , . . . , xn ).
i=1
La famille (e1 , e2 , . . . , en ) engendre bien tous les n-uplets de Kn et si une combinaison linéaire des vecteurs de cette famille est nulle, les coefficients xi pour 1 i n doivent être nuls. La famille (e1 , e2 , . . . , en ) est donc libre et génératrice de Kn , c’est une base de Kn . Cette famille est appelée la base canonique de Kn . Dans cette base, les coordonnées d’un n-uplet (x1 , x2 , . . . , xn ) de Kn sont justement les éléments x1 , x2 , . . . , xn du n-uplet. Ce n’est pas le cas pour toute autre base de Kn . Base canonique de Kn [X]. La famille de polynômes (1, X, X 2 , . . . , X n ) est génératrice de Kn [X] par définition de Kn [X]. Elle est aussi libre puisque tout polynôme de degré inférieur ou égal à n s’écrit de manière unique comme combinaison linéaire de cette famille de vecteurs. Cette famille est appelée la base canonique de Kn [X]. Dans cette base, les coordonnées d’un polynôme a0 + a1 X + · · · + an X n sont justement les coefficients a0 , a1 , a2 , . . . , an des termes du polynôme. Ce n’est pas le cas pour toute autre base de Kn [X]. Base canonique de Mn,p (K). La base canonique de Mn,p (K) n’est pas au programme, elle est cependant similaire à celle de Kn . Nous définissons dans Mn,p (K) les matrices Ei,j dont tous les coefficients sont nuls 10
Base, dimension d’un espace vectoriel
sauf celui de la ième ligne et de la jème colonne qui vaut 1.
⎛ ⎜ ⎜ ⎜ Ei,j = ⎜ ⎜ ⎝
jème colonne ↓
⎞ 0 ··· 0 ··· 0 .. .. .. ⎟ . . . ⎟ ⎟ 0 · · · 1 · · · 0 ⎟ ← ième .. .. .. ⎟ ligne . . . ⎠ 0 ··· 0 ··· 0
Pour toute matrice A = (ai,j ) 1in , nous avons A = (ai,j ) 1in = 1jp
Par ailleurs, si l’on a
p n
1jp
p n
ai,j Ei,j .
i=1 j =1
ai,j Ei,j = 0, les coefficients (ai,j ) 1in doivent alors être
i=1 j =1
1jp
tous nuls. La famille (Ei,j ) 1in est donc libre et génératrice dans Mn,p (K) , c’est la base canonique 1jp de Mn,p (K). Dans cette base, les coordonnées d’une matrice A = (ai,j ) 1in sont justement les 1jp coefficients de cette matrice. Ce n’est pas le cas pour toute autre base de Mn,p (K). 3.2 Dimension d’un espace vectoriel Espace vectoriel de dimension finie Définition 8
© Dunod – La photocopie non autorisée est un délit
Un espace vectoriel E est dit de dimension finie s’il possède une famille génératrice finie ou s’il est réduit à {0}. Exemple Les espaces Kn , Kn [X] et Mn,p (K) sont des K-espaces de dimension finie, leur base canonique sont des familles finies qui les engendrent. Lemme Soit E un espace vectoriel tel qu’il existe une famille libre L = (e1 , e2 , . . . , ek ) de vecteurs de E et des vecteurs f1 , f2 , . . . , fn de E tels que la famille G = (e1 , e2 , . . . , ek , f1 , . . . , fn ) soit génératrice de E. Alors il existe une famille B contenant L et contenue dans G qui est une base de E. Preuve Voir le cours de première année.
❑
11
Chapitre 1 – Espaces vectoriels
Théorème 3 Tout espace de dimension finie non réduit à {0} admet une base. Preuve Soit E un espace vectoriel non réduit à {0} de dimension finie. Il admet donc une famille génératrice finie G qui contient au moins un vecteur e1 non nul, sinon E serait réduit à {0}. La famille (e1 ) est libre. ❑ On applique le lemme précédent avec (e1 ) famille libre et G famille finie génératrice de E.
Théorème de la base incomplète, dimension Lemme Soient (e1 , e2 , . . . , en ) et (f1 , f2 , . . . , fn+1 ) deux familles de vecteurs de E telles que chacun des vecteurs de la seconde famille soit combinaison linéaire de la première famille. La famille (f1 , f2 , . . . , fn+1 ) est liée. Preuve La démonstration peut se faire par récurrence sur n, elle a été détaillée dans le cours de première année.
❑
➤ Remarques • Cela veut dire qu’avec n vecteurs, on ne peut pas écrire par combinaison linéaire une famille de n + 1 vecteurs qui soit libre. • Plus généralement si n vecteurs (f1 , f2 , . . . , fn ) s’expriment comme combinaison linéaire de p vecteurs (e1 , e2 , . . . , ep ) où p < n, alors la famille (f1 , f2 , . . . , fn ) est liée. Il suffit en effet de considérer que les vecteurs f1 , f2 , . . . , fn sont des combinaisons linéaires des n − 1 vecteurs (e1 , e2 , . . . , ep , ep+1 , . . . , en−1 ), où l’on a posé ek = 0 pour k ∈ Úp + 1, n − 1Û et d’appliquer le lemme précédent.
Théorème 4 Soit E un espace non réduit à {0} de dimension finie. Toutes les bases de E ont le même nombre de vecteurs. Ce nombre est appelé la dimension de l’espace. Par convention, la dimension de l’espace réduit à {0} est 0. Preuve Soient E = (e1 , e2 , . . . , en ) et F = (f1 , f2 , . . . , fp ) deux bases d’un même espace vectoriel E. Comme E est une famille génératrice, tous les vecteurs de F sont des combinaisons linéaires de la famille E . La famille F étant ❑ libre, on a nécessairement p n. Mais en renversant les rôles, on obtient n p. Donc n = p.
Exemples 1. La base canonique de Kn possédant n vecteurs, Kn est de dimension n. 2. De même la base canonique de Kn [X] possédant n + 1 vecteurs, Kn [X] est de dimension n + 1. 3. La base canonique de Mn,p (K) est composée des n × p vecteurs (Ei,j ) 1in , l’espace des 1jp matrices de tailles n × p est donc de dimension np. ➤ Remarque Un espace pour lequel il n’existe pas de famille génératrice finie est dit de dimension infinie. Pour un tel espace, il n’existe pas de base finie. Nous pouvons citer entre autres l’espace vectoriel des suites de scalaires KN , l’espace
12
Base, dimension d’un espace vectoriel
vectoriel des polynômes K[X], l’espace vectoriel RI des fonctions réelles définies sur un intervalle I, l’espace vectoriel C 0 (I, R) des fonctions continues d’un intervalle I dans R (c’est un sous-espace de RI ).
Théorème 5 (Théorème de la base incomplète) Soit (e1 , e2 , . . . , ek ) une famille libre de E espace de dimension n. Il existe des vecteurs ek+1 , . . . , en de E tels que (e1 , e2 , . . . , ek , ek+1 , . . . , en ) soit une base de E. Preuve
Soit L cette famille libre et G une famille génératrice, la famille G formée de la « juxtaposition »des vecteurs de L et de G est aussi génératrice. On sait alors qu’il existe une base B de E qui contient L et contenue dans G , ❑ et qui complète bien la famille L.
Théorème 6 Soit E 1. a. b. c. 2. a. b. c.
un espace de dimension n. Toute famille libre possède au plus n vecteurs. Toute famille libre de n vecteurs est une base. Toute famille de p vecteurs avec p > n n’est pas libre, elle est liée. Toute famille génératrice possède au moins n vecteurs. Toute famille génératrice de n vecteurs est une base. Toute famille de p vecteurs avec p < n n’est pas génératrice.
Preuve Voir le cours de première année.
❑
➤ Remarque
© Dunod – La photocopie non autorisée est un délit
Lorsque l’on travaille dans un espace vectoriel de dimension finie n connue, pour prouver qu’une famille de n vecteurs est une base, il suffit donc de vérifier qu’elle est soit libre soit génératrice. En générale il est plus rapide de montrer que la famille est libre.
Exercice 4.
On considère les quatre polynômes P0 = (X − 1)(X − 2)(X − 3), P1 = X(X − 2)(X − 3), P2 = X(X − 1)(X − 3) et P3 = X(X − 1)(X − 2). Démontrer que la famille B = (P0 , P1 , P2 , P3 ) est une base de K3 [X]. Solution. Soient l0 , l1 , l2 , l3 quatre scalaires tels que pour tout x dans K on ait l0 P0 (x) + l1 P1 (x) + l2 P2 (x) + l3 P3 (x) = 0. Remarquons que pour x = 0 tous les polynômes de B s’annulent sauf P0 (0) qui vaut −6, en prenant donc x = 0, nous obtenons −6l0 = 0, donc l0 = 0. En prenant successivement x = 1, x = 2 et x = 3, nous obtenons de même 2l1 = 0, −2l2 = 0 et 6l3 = 0, donc l1 = l2 = l3 = 0. La famille B est donc une famille libre de quatre vecteurs dans un espace de dimension 4, elle est donc une base de K3 [X].
13
Chapitre 1 – Espaces vectoriels
Exercice 5.
On se place dans l’espace vectoriel Kn [X]. Soit B = (P0 , P1 , . . . , Pn ) une famille de n+1 polynômes de Kn [X] tels que pour tout i ∈ Ú0, nÛ on ait deg(Pi ) = i. On dit qu’une telle famille de polynômes est échelonnée en degrés. Démontrer que la famille B est libre, en déduire que c’est une base de Kn [X]. Solution. Soient l0 , l1 , . . . , ln n + 1 scalaires tels que pour tout x dans K on ait l0 P0 (x) + l1 P1 (x) + · · · + ln Pn (x) = 0. Supposons que les li ne soient pas tous nuls et notons i0 le plus grand indice i ∈ Ú0, nÛ tel que li = 0 et notons axi0 , avec a = 0, le terme de plus haut degré de Pi0 (x). Si nous regroupons et ordonnons tous les termes de la somme de polynômes l0 P0 (x) + l1 P1 (x) + · · · + ln Pn (x), nous pouvons observer que son terme de plus haut degré est li0 axi0 avec li0 a = 0 ce qui contredit le fait que cette somme est le polynôme nul. Nous avons donc li = 0 pour tout i ∈ Ú0, nÛ et la famille B est une famille libre de n + 1 vecteurs. Comme B est une famille libre de n + 1 vecteurs dans Kn [X], espace de dimension n + 1, elle est une base de Kn [X].
4. Sous-espace vectoriel, somme de sous-espaces vectoriels 4.1 Dimension des sous-espaces d’un espace de dimension finie Théorème 7 Tout sous-espace vectoriel F d’un espace E de dimension finie est de dimension finie et dim F dim E ; il y a égalité des dimensions si, et seulement si, F = E. Preuve Soit F un sous-espace vectoriel d’un espace E de dimension n. Si F est réduit à {0}, on a dim F dim E. On suppose maintenant F non réduit à {0}. Toutes les familles libres de vecteurs de F étant également des familles libres de vecteurs de E, elles comptent au plus n éléments. Il existe au moins une famille libre B de vecteurs de F de cardinal p maximal. Soit
B = (e1 , e2 , . . . , ep )
avec p n.
Montrons que B est une famille génératrice de F. Soit f un vecteur quelconque de F ; la famille (e1 , e2 , . . . , ep , f) est liée, sinon la famille B de vecteur libres ne serait pas de cardinal maximal. Soient l1 , l2 , . . . , lp , lp+1 des scalaires non tous nuls tels que l1 e1 + l2 e2 + · · · + lp ep + lp+1 f = 0. Le scalaire lp+1 ne peut pas être nul, sinon nous aurions une contradiction avec la liberté de la famille B. Nous pouvons donc écrire 1 f =− (l1 e1 + l2 e2 + · · · + lp ep )
lp+1
et conclure que f est combinaison linéaire de la famille B. La famille B est donc génératrice de F, elle est libre, c’est une base de F. La dimension de F est p et p n. De plus si dim(F) = dim(E), c’est-à-dire p = n, alors la famille B est une famille libre de E de n vecteurs. La famille B est donc une base de E d’où F = E. ❑ Réciproquement si F = E alors il est clair que dim(F) = dim(E).
14
Sous-espace vectoriel, somme de sous-espaces vectoriels
Corollaire 1 Soient F, G deux sous-espaces vectoriels de E. Si F ⊂ G alors dim F dim G ; il y a égalité des dimensions si, et seulement si, F = G. Preuve Il suffit de remarquer que, si F et G sont deux sous-espaces vectoriels de E avec F ⊂ G, alors F est lui-même un ❑ sous-espace de G ; puis appliquer le théorème précédent à F et G.
Définition 9 Soit E un espace de dimension n. On appelle droite vectorielle de E un sous-espace vectoriel de E de dimension 1 et plan vectoriel un sous-espace vectoriel de E de dimension 2. Exemples 1. En utilisant les vecteurs de la base canonique de R3 , on voit clairement que {(x, 0, 0)|x ∈ R} est une droite vectorielle incluse dans (x, y, 0)|(x, y) ∈ R2 qui est un plan vectoriel inclus dans l’espace vectoriel R3 qui est de dimension 3. Nous retrouvons ici un vocabulaire classique qui parle de « droite réelle » , pour des représentation géométrique de l’ensemble des réels, de deux dimensions pour la géométrie plane et de trois dimensions pour la « géométrie dans l’espace ». 2. Le lecteur pourra vérifier à l’aide de la base canonique que l’espace vectoriel des matrices carrées Mn (K) de dimension n2 avec n 1, a comme sous-espace celui des matrices n(n + 1) · et qui a lui-même comme soustriangulaires supérieures qui est de dimension 2 espace celui des matrices diagonales qui est de dimension n. Il y a égalité entre ces trois espaces si, et seulement si n = 1.
4.2 Somme de sous-espaces vectoriels Proposition 10 © Dunod – La photocopie non autorisée est un délit
Soient E un K-espace vectoriel et F1 , F2 deux sous-espaces vectoriels de E. L’ensemble H = {x1 + x2 | x1 ∈ F1 , x2 ∈ F2 } est un sous-espace vectoriel de E appelé somme de F1 et F2 et noté F1 + F2 . Preuve Tout d’abord H est non vide. En effet, comme 0 ∈ Fi pour i ∈ Ú1, 2Û, l’élément 0 + 0 appartient à H. Ensuite, soient x, y deux éléments de H et l, m deux scalaires. D’après la définition de H, il existe des éléments x1 , x2 , y1 , y2 tels que xi ∈ Fi , yi ∈ Fi pour i ∈ {1; 2}, et x = x1 + x 2
et
y = y1 + y 2 .
Alors
lx + my
=
l (x1 + x2 ) + m (y1 + y2 )
=
(lx1 + lx2 ) + (my1 + my2 )
=
(lx1 + my1 ) + (lx2 + my2 ).
15
Chapitre 1 – Espaces vectoriels
Les sous-espaces vectoriels F1 et F2 de E sont stables par combinaisons linéaires donc lx1 + my1 ∈ F1 et lx2 + my2 ∈ F2 . On en déduit que lx + my ∈ H et que H est bien un sous-espace vectoriel de E. ❑
➤ Remarques • On peut remarquer que F1 + F2 est l’ensemble de toutes les combinaisons linéaires de toutes les familles finies de vecteurs pris dans F1 ∪ F2 . • Attention, l’union de deux sous-espaces vectoriels n’est pas en général un sous-espace vectoriel.
Exemple
On considère les deux sous-espace F1 = (x, y, z, t) ∈ K4 | 3x − y + z = 0 et t = 0 et
F2 = (x, y, z, t) ∈ K4 | y − z − 2t = 0 et x = 0 de l’espace vectoriel K4 . Déterminer une base et la dimension de chacun des sous-espace F1 , F2 , F1 ∩ F2 , et F1 + F2 . Nous pouvons remarquer rapidement que l’on a F1 = Vect (1, 3, 0, 0), (0, 1, 1, 0) F2 = Vect (0, 1, 1, 0), (0, 0, −2, 1) . Les vecteurs e1 = (1, 3, 0, 0), e2 = (0, 1, 1, 0) et e3 = (0, 0, −2, 1) sont linéairement indépendants. Nous en déduisons que (e1 , e2 ) est une base de F1 qui donc est de dimension 2 et de même (e2 , e3 ) est une base de F2 qui est aussi de dimension 2. Considérons alors un élément x de F1 ∩F2 qui s’écrit donc l1 e1 +l2 e2 d’une part et l2 e2 +l3 e3 d’autre part avec l1 , l2 , l2 et l3 des scalaires. Nous avons donc l’égalité l1 e1 + l2 e2 + 0e3 = 0e1 + l2 e2 + l3 e3 . Nous en déduisons l1 = l3 = 0 et l2 = l2 . Donc x est dans Vect(e2 ). Inversement nous avons Vect(e2 ) ⊂ F1 ∩ F2 , donc F1 ∩ F2 = Vect(e2 ) et (e1 ) est une base de F1 ∩ F2 qui est de dimension 1. Considérons maintenant un élément x = x1 + x2 de F1 + F2 avec x1 = l1 e1 + l2 e2 ∈ F1 et x2 = l2 e2 + l3 e3 ∈ F2 ; alors x est un dans Vect(e1 , e2 , e3 ). Inversement toute élément x = l1 e1 + l2 e2 + l3 e3 de Vect(e1 , e2 , e3 ) est un élément de F1 + F2 puisqu’il peut s’écrire x = (l1 e1 +l2 e2 )+l3 e3 ou tout aussi bien x = l1 e1 +(l2 e2 +l3 e3 ), donc F1 +F2 = Vect(e1 , e2 , e3 ) et (e1 , e2 , e3 ) est une base de F1 + F2 qui est de dimension 3. ➤ Remarques • Dans l’exemple ci-dessus, on a e1 ∈ F1 ∪ F2 et e3 ∈ F1 ∪ F2 mais e1 + e3 ∈ / F1 ∪ F2 ce qui montre que F1 ∪ F2 n’est pas un sous-espace vectoriel. • De façon générale, lorsque l’on a deux sous-espaces vectoriels F1 et F2 d’un espace de dimension finie, on peut toujours rechercher une base de F1 ∩ F2 puis la compléter pour obtenir d’une part une base de F1 et d’autre part une base de F2 et finalement en prenant l’union des vecteurs de ces deux bases obtenir une base de F1 + F2 . • Dans l’exemple ci-dessus la décomposition d’un élément x de F1 + F2 en x1 + x2 avec x1 ∈ F1 et x2 ∈ F2 n’est pas unique puisque e2 appartient aussi bien à F1 qu’à F2 , ce qui suggère d’introduire la définition suivante.
Définition 10 Soient F1 et F2 deux sous-espaces vectoriels d’un espace vectoriel E. La somme F1 + F2 est dite directe si F1 ∩ F2 = {0}. Elle est alors notée F1 ⊕ F2 .
16
Sous-espace vectoriel, somme de sous-espaces vectoriels
Proposition 11 Soient F1 et F2 deux sous-espaces vectoriels d’un espace vectoriel E. La somme F1 + F2 est directe si, et seulement si, pour tout élément x de F1 + F2 , il existe un et un seul couple (x1 , x2 ) ∈ F1 × F2 tel que x = x1 + x2 . Preuve Supposons que la somme soit directe. Soit x ∈ F1 ⊕ F2 , supposons avoir deux écritures de x x = x1 + x 2
=
y1 + y 2
où x1 , y1 sont des vecteurs de F1 et x2 , y2 deux vecteurs de F2 . On a alors x1 − y1 = x2 − y2 . Comme F1 est un sous-espace, on sait que x1 − y1 ∈ F1 , de même x2 − y2 ∈ F2 . Donc x1 − y1 ∈ F1 ∩ F2 . Or F1 ∩ F2 = {0}, donc x1 − y1 = 0. On en déduit que x1 = y1 et par suite x2 = y2 . L’écriture est bien unique. Réciproquement, supposons que F1 et F2 vérifient la propriété donnée. Soit x ∈ F1 ∩ F2 . On peut écrire les deux égalités x + 0 x = ∈F 1
=
∈F 2
0 + x . ∈F 1
∈F 2
D’après l’unicité de la décomposition on doit avoir x = 0. Ainsi F1 ∩ F2 = {0} et la somme est bien directe.
❑
Définition 11 Soient F1 et F2 deux sous-espaces vectoriels d’un espace vectoriel E. F1 et F2 sont dits supplémentaires si E = F1 ⊕ F2 . ➤ Remarque
© Dunod – La photocopie non autorisée est un délit
On dit aussi que F2 est un sous-espace supplémentaire du sous-espace F1 par exemple.
Exemples 1. Montrons que les ensembles P et I des fonction paires et impaires définies sur R sont des espaces supplémentaires de l’ensemble RR des fonctions réelles définies sur R. Il est clair que chacun des ensembles P et I est non vide et stable par combinaison linéaire ; ce sont donc bien des sous-espaces vectoriels de RR . Soit f ∈ RR , nous allons prouver qu’il existe un unique couple (f1 , f2 ) ∈ P × I tel que f = f1 + f2 . Supposons avoir f1 une fonction paire et f2 une fonction impaire telles que f = f1 + f2 . On a alors pour tout réel x f (x) = f1 (x) + f2 (x) et f (−x) = f1 (−x) + f2 (−x) = f1 (x) − f2 (x). Par demi-somme et demi-différence, on trouve f1 (x) = f2 (x) =
f (x) + f (−x) 2 f (x) − f (−x) · 2
17
Chapitre 1 – Espaces vectoriels
Autrement dit, si f1 et f2 existent, elles sont définies de façon unique par ces égalités. Montrons que ce couple de fonctions convient. Tout d’abord f (−x) + f − (−x) f1 (−x) = 2 f (−x) + f (x) = 2 = f1 (x) et =
f2 (−x)
= =
f (−x) − f − (−x) 2 f (−x) − f (x) 2 −f2 (x),
donc f1 est paire et f2 est impaire. Ensuite (f1 + f2 )(x)
= = =
f1 (x) + f2 (x) f (x) + f (−x) f (x) − f (−x) + 2 2 f (x).
Ainsi f = f1 + f2 . On peut alors conclure avec la proposition précédente que RR = P ⊕ I. Par ailleurs, il est clair que la seule fonction qui est à la fois paire et impaire est la fonction nulle, c’est-à-dire que P ∩ I = {0} 2. Considérons dans R3 le sous-espace F défini par l’équation 2x − 4y + 3z = 0 et le sousespace G = Vect(1, 0, −1). Montrons que F et G sont supplémentaires dans R3 . Soit u = (x, y, z) un vecteur de R3 . Prouvons qu’il existe un seul couple (v, w) ∈ F × G tel que u = v + w. Supposons que (v, w) soit un tel couple. Comme w ∈ G, il existe un réel l tel que w = l(1, 0, −1). On a alors v = u − l(1, 0, −1) = (x − l, y, z + l). Comme v ∈ F, on a nécessairement 2(x − l) − 4y + 3(z + l) = 0, soit l = −2x + 4y − 3z. Autrement dit, si le couple (v, w), existe il vaut nécessairement v = (x, y, z) − (−2x + 4y − 3z)(1, 0, −1) = (3x − 4y + 3z, y, 2x − 4y + 4z) w = (−2x + 4y − 3z)(1, 0, −1) = (−2x + 4y − 3z, 0, 2x − 4y + 3z) Réciproquement le couple (v, w) ainsi défini vérifie v ∈ F, w ∈ G et v + w = (x, y, z) = u. Les sous-espaces F et G sont des sous-espaces supplémentaires de R3 . 3. Considérons maintenant, toujours dans R3 , le sous-espace F défini par l’équation x − y + z = 0 et G le sous-espace défini par x + y − z = 0. Vérifions d’abord que R3 = F + G. Soit u un vecteur de R3 avec u = (x, y, z). On a
18
Sous-espace vectoriel, somme de sous-espaces vectoriels
clairement (1, 1, 0) ∈ F. Recherchons un réel l tel que u − l(1, 1, 0) ∈ G. On a u − l(1, 1, 0) ∈ G
⇔ ⇔ ⇔
On en déduit qu’en posant l =
(x − l, y − l, z) ∈ G (x − l) + (y − l) − z = 0 x+y−z · l= 2
x+y−z , on a 2
u = l(1, 1, 0) + u − l(1, 1, 0) ∈F
∈G
et donc R3 = F + G. Néanmoins, F et G ne sont pas supplémentaires. Cherchons par exemple un vecteur non nul de F ∩ G. Soit u un vecteur de R3 avec u = (x, y, z), on a x−y+z = 0 x−y+z = 0 x = 0 u ∈ F ∩ G ⇐⇒ ⇐⇒ ⇐⇒ x+y−z = 0 2y − 2z = 0 y = z On en déduit qu’on a par exemple (0, 1, 1) ∈ F ∩ G. En particulier F ∩ G = {0} et F et G ne sont donc pas supplémentaires. Proposition 12 Soit E un espace vectoriel de dimension finie, F1 et F2 deux sous-espaces de E. On a alors les équivalences
© Dunod – La photocopie non autorisée est un délit
F1 et F2 sont supplémentaires ⇔ La « juxtaposition »d’une base de F1 et d’une base de F2 est une base de E ⇔ dim(F1 + F2 ) = dim(F1 ) + dim(F2 ) = dim(E).
Preuve
Posons n1 = dim(F1 ) et n2 = dim(F2 ) ; soit (e1 , . . . , en1 ) une base de F1 et (e1 , . . . , en2 ) une base de F2 . Supposons F1 et F2 supplémentaires. Alors tout élément x de E peut s’écrire x = x1 + x2 avec x1 ∈ Vect(e1 , . . . , en1 ) et x2 ∈ Vect(e1 , . . . , en2 ), donc x ∈ Vect(e1 , . . . , en1 , e1 , . . . , en2 ). Par ailleurs, considérons dans E la combinaison linéaire nulle
l1 e1 + · · · + ln1 en1 + l1 e1 + · · · + ln2 en2 = 0E .
∈F 1
∈F 2
Notons 0F1 et 0F2 les vecteurs nuls de F1 et F2 respectivement (même si nous savons que 0F1 = 0F2 = 0E ). A cause de l’unicité de l’écriture de 0E comme 0F1 + 0F2 , somme d’un élément de F1 et d’un élément de F2 nous avons
l1 e1 + · · · + ln1 en1 = 0F1 et donc
et
l1 e1 + · · · + ln2 en2 = 0F2
l1 = l2 = · · · = ln1 = l1 = l2 = · · · = ln2 = 0
19
Chapitre 1 – Espaces vectoriels
La famille (e1 , . . . , en1 , e1 , . . . , en2 ) est libre et génératrice de E, la réunion d’une base de F1 et de F2 est donc une base de E. Supposons maintenant que la juxtaposition des vecteurs de (e1 , . . . , en1 ), base de F1 , et de (e1 , . . . , en2 ), base de F2 , est une base de E. Nous avons alors dim(F1 ) + dim(F2 ) = dim(E). De plus F1 + F2 est un sous-espace de E qui contient la famille libre (e1 , . . . , en1 , e1 , . . . , en2 ) de n1 + n2 vecteurs. Nous avons donc n1 + n2 dim(F1 + F2 ) dim(E) n1 + n2 et donc
dim(F1 + F2 ) = dim(F1 ) + dim(F2 ) = dim(E).
Supposons maintenaient que l’on ait dim(F1 + F2 ) = dim(F1 ) + dim(F2 ) = dim(E). Le sous espace F1 + F2 de E a la même dimension que E, on a donc E = F1 + F2 . La famille (e1 , . . . , en1 , e1 , . . . , en2 ) est donc une famille génératrice de E qui a n1 + n2 = dim(E) vecteurs, elle est donc aussi libre. Soit x un élément de F1 ∩ F2 , alors il existe des scalaires l1 , . . . , ln1 , l1 , . . . , ln2 tels que x = l1 e1 + · · · + ln1 en1 = l1 e1 + · · · + ln2 en2 , nous avons donc
l1 e1 + · · · + ln1 en1 − l1 e1 − · · · − ln2 en2 = 0 et donc
l1 = l2 = · · · = ln1 = l1 = l2 = · · · = ln2 = 0.
L’intersection F1 ∩ F2 est réduite à {0} et les sous-espaces F1 et F2 sont supplémentaires. Ceci achève la démonstration puisque nous avons successivement démontré que la ligne 1 du théorème implique la ligne 2, que la ligne 2 implique la ligne 3, et que la ligne 3 implique la première ligne ; les trois ❑ lignes sont donc équivalentes.
Proposition 13 Soit E un espace vectoriel de dimension finie n. Pour tout sous-espace F1 de E, il existe un sous-espace F2 supplémentaire de F1 ; si de plus F1 est différent de {0} et de E, l’espace F2 n’est pas unique. Preuve L’espace E n’a qu’un espace supplémentaire, c’est {0} ; de même l’espace {0} n’a qu’un espace supplémentaire, c’est E. Soit F1 un sous-espace de E de dimension finie n différent de {0} et de E, soit (e1 , . . . , en1 ) une base de F1 ; nous avons alors n1 ∈ Ú1; n − 1Û. La famille (e1 , . . . , en1 ) est une partie libre de F1 , c’est une partie libre de E que nous pouvons compléter par les vecteurs (e1 , . . . , en2 ) pour en faire une base de E avec n2 = n − n1 ∈ Ú1; n − 1Û. Posons F2 = Vect((e1 , . . . , en2 )). Les espaces F1 et F2 sont supplémentaires. L’espace F2 n’est pas unique, nous pouvons obtenir un espace F2 différent en substituant e1 + e1 à e1 par ❑ exemple.
20
1. Déterminer une base des sous-espaces vectoriels de C2 définis par a. A = Vect (1, i − 2) , (2 + i, −5) , b. B = Vect (i, 2) , (3, 4i) , (i, 7) .
1.
3 2. Déterminer une base des sous-espaces vectoriels de R définis par a. A = Vect (1, 3, −3) , (4, 2, −3) , (−1, 7, 6) b. B = Vect (4, −5, 3) , (2, 3, −2) , (4, −16, 10) , (8, 1, −1) c. C = Vect (1, 1, −2) , (2, 1, −3) , (0, 1, −1) d. D = Vect (1, 4, −3) , (−2, −8, 6)
1. Soit E le sous-ensemble de K4 défini par
E = (x, y, z, t) ∈ K4 |2x + y − z + 2t = 0, x + y + z = 0 .
2.
Est-ce que E est sous-espace vectoriel de K4 ? Si oui, en donner une base et sa dimension. 2. Inversement, déterminer des équations caractérisant les éléments du sous-espace F de K4 défini par F = Vect (−1, 2, 1, −1), (3, 1, 0, −1) . Dans l’espace vectoriel M4,1 (R), on définit les 5 vecteurs suivants ⎞ ⎞ ⎞ ⎛ ⎛ ⎛ ⎞ ⎛ ⎞ −1 1 1 2 3 ⎜ 1 ⎟ ⎜ 3 ⎟ ⎜ 1 ⎟ ⎜ 1 ⎟ ⎜ 3 ⎟ , v2 = ⎝ , v3 = ⎝ , v4 = ⎝ ⎠ , v 5 = ⎝ ⎠ . v1 = ⎝ 1 ⎠ −1 ⎠ −1 ⎠ 2 1 −3 −1 1 1 1 3.
⎛
On définit F = Vect(v1 , v2 , v3 ) et G = Vect(v4 , v5 ) 1. Déterminer une base et la dimension du sous-espace F ∩ G. 2. Compléter cette première base pour obtenir des bases des sous-espaces vectoriels F, G et finalement F + G. 3. Vérifier que l’on a bien dim(F + G) = dim(F) + dim(G) − dim(F ∩ G). 4. Généralisation. On considère maintenant un K-espace vectoriel E et deux sous-espaces vectoriels F et G de E de dimension finie p et q respectivement . a. Expliquer pourquoi F ∩ G est de dimension finie ; on pose r = dim(F ∩ G) et, si r = 0, on en définit une base BI = (l1 , l2 , . . . , lr ). b. Expliquer pourquoi on a r p et r q ; Compléter éventuellement la base BI pour obtenir d’une part une base BF de F et d’autre part une base BG de G. c. Expliquer pourquoi F + G est de dimension finie. En considérant les vecteurs de BF et BG , déterminer la dimension de F + G. Conclure que l’on a dim(F + G) = dim(F) + dim(G) − dim(F ∩ G). 4. On se place dans l’espace vectoriel des fonctions définis sur R. Pour toute fonction f et pour tout réel k, on note fk la fonction fk : x → f (x + k). Pour toute fonction f , on note Ef le sous-espace vectoriel Ef = Vect f0 , f1 , f2 , f3 .
21
Chapitre 1 – Espaces vectoriels
Déterminer la dimension et une base simple de Ef dans chacun des cas suivants. 1. La fonction f est la fonction exponentielle. 2. La fonction f est la fonction sinus. 3. La fonction f est définie par f : x → x2 . 4. La fonction f est définie par f : x → xex . 2
5. La fonction f est définie par f : x → ex . 5.
1. Soient (un ), (vn ), (wn ) trois suites réelles définies pour n ∈ N par
un = 2n , vn = (−3)n , wn = n2n . Montrer que (un ) , (vn ) , (wn ) est une famille libre du R-espace vectoriel RN des suites réelles. 2. On définit le sous-ensemble E de RN par
E = (tn ) ∈ RN ∀n ∈ N, tn+3 = tn+2 + 8tn+1 − 12tn .
a. Montrer que E est un sous-espace vectoriel de RN . b. En remarquant que toute suite (tn ) élément de E peut être définie par la donnée des trois premiers termes de cette suite et la relation R : ∀n ∈ N, tn+3 = tn+2 + tn+1 − 12tn , montrer que les suites (an ), (bn ) et (cn ) de E définies par les égalités ci-dessous forment une famille génératrice de E. (a0 , a1 , a2 ) = (1, 0, 0) (b0 , b1 , b2 ) = (0, 1, 0) (c0 , c1 , c2 ) = (0, 0, 1) c. Vérifier que les suites (un ), (vn ) et (wn ) sont des éléments de E puis donner l’expression générale des éléments de E. 6.
Somme directe de sous-espaces
1. Soit E = K3 [X], F = {P ∈ E|P(1) = P(2) = 0}, et G = {P ∈ E|P(3) = P(4) = 0}. Montrer que F et G sont des sous-espaces de E = K3 [X] et démontrer que l’on a E = F ⊕ G. Autrement dit : Tout polynôme de degré inférieur ou égal à 3 s’écrit de façon unique comme somme de deux polynômes de degré inférieur ou égal à 3, l’un nul en 1 et 2 et l’autre nul en 3 et 4. 2. Soit E = Mn (K), S l’ensemble des matrices symétriques de Mn (K) et A l’ensemble des matrices antisymétriques de Mn (K) c’est-à-dire les matrices qui sont égales à l’opposé de leur transposée. Montrer que S et A sont des sous-espaces de E = Mn (K) et démontrer que l’on a F = S ⊕ A. 3. Soit E = C 1 (R, R), F l’ensemble des fonctions de C 1 (R, R) telles que f (0) = f (0) = 0 et G l’ensemble des fonctions affines définies sur R. Montrer que F et G sont des sous-espaces de E et démontrer que l’on a E = F ⊕ G.
22
EXERCICES 4. Soit E le sous-espace vectoriel de RN des suites réelles convergentes, F l’ensemble des suites convergeant vers 0 et G l’ensemble des suites constantes. Montrer que F et G sont des sous-espaces de E et démontrer que l’on a E = F ⊕ G. 7.
Polynômes de Lagrange
Soit n un entier naturel non nul et soit (xi )i∈Ú0,nÛ une suite de n + 1 scalaires distincts. 1. Montrer qu’il existe pour chaque i0 de Ú0, nÛ un polynôme Pi0 de degré n qui vaut 1 en xi0 et qui a pour racine les n réels {xi |0 i n, i = i0 }. 2. Montrer que la famille de polynômes (Pi )i∈Ú0,nÛ est une famille génératrice de Kn [X]. 3. Soit (yi )i∈Ú0,nÛ une suite de n + 1 scalaires. Montrer qu’il existe un et un seul polynôme Q de degré inférieur ou égal à n tel que pour tout i ∈ Ú0, nÛ on ait Q(xi ) = yi . 8. 1. L’union de deux sous-espaces vectoriels n’est pas un sous-espace vectoriel en général. Soit F et G deux sous-espaces vectoriels d’un espace vectoriel E, démontrer l’équivalence F ∪ G est un sous-espace de E ⇐⇒ (F ⊂ G ou G ⊂ F). 2. Soit F G et H trois sous-espaces vectoriels d’un espace vectoriel E, démontrer l’implication G ⊂ F =⇒ F ∩ (G + H) = G + (F ∩ H). 9. On note M3 (R) l’ensemble des matrices carrées réelles d’ordre trois et on considère les matrices suivantes de M3 (R) 1 0 0 1 1 1 0 1 0 1 0 0 I= A= 0 0 1 1 0 0 1. Calculer A2 et A3 , puis vérifier : A3 = A2 + 2A. 2. Montrer que la famille A, A2 est libre dans M3 (R). 3. Montrer que, pour tout entier n supérieur ou égal à 1, il existe un couple unique (an , bn ) de nombres réels tel que : An = an A + bn A2 , et exprimer an+1 et bn+1 en fonction de an et bn . 4. a. Montrer, pour tout entier n supérieur ou égal à 1 an+2 = an+1 + 2an b. En déduire an et bn en fonction de n, pour tout entier n supérieur ou égal à 1. c. Donner l’expression de An en fonction de A, A2 et n, pour tout entier n supérieur ou égal à 1. 10. Soit n un entier naturel. Montrer que la famille de vecteurs (X − 1)k (X + 1)n−k 0kn est une base de Kn [X].
23
Applications linéaires
2
Dans tout ce chapitre, sauf indications contraires, les espaces vectoriels sont des espaces vectoriels sur K qui est soit l’ensemble des réels R soit celui des complexes C.
1. Applications linéaires 1.1 Application linéaire de E dans F Définition 1 Soient E et F deux espaces vectoriels sur K. Une application u de E vers F est linéaire si 1. Pour tout couple (x, y) d’éléments de E, u(x + y) = u(x) + u(y). 2. Pour tout scalaire l de K et tout x vecteur de E, u(lx) = lu(x). L’ensemble des applications linéaires de E vers F est noté L(E, F). Une application linéaire de E vers E lui-même est appelée un endomorphisme et l’ensemble des endomorphismes est noté plus simplement L(E). ➤ Remarque On peut dire qu’une application linéaire est une application entre deux espaces vectoriels qui respecte leur structure d’espace vectoriel.
Exemples 1. L’application de E vers F qui à tout vecteur x de E associe 0F est une application linéaire appelée l’application nulle, elle est notée 0 si il n’y a pas d’ambiguïté. 2. L’application de E vers E qui à tout vecteur x de E associe lui même est un endomorphisme appelé l’endomorphisme identité, il est noté IdE . 3. L’application de Kn [X] dans lui même qui à un polynôme P lui associe sa fonction dérivée P est une application linéaire puisque la dérivée de P + Q est P + Q et celle de lP est lP . La dérivation est donc un endomorphisme de Kn [X]. 4. Définissons l’application K3 → K2 u: (x1 , x2 , x3 ) → (x1 − x2 + 4x3 , 3x1 − x3 )
Applications linéaires
Montrons que u est une application linéaire. Soient x, y deux éléments K3 avec x = (x1 , x2 , x3 ) et y = (y1 , y2 , y3 ), on a u(x + y) = u (x1 , x2 , x3 ) + (y1 , y2 , y3 ) = u (x1 + y1 , x2 + y2 , x3 + y3 ) = x1 + y1 − (x2 + y2 ) + 4 (x3 + y3 ) , 3 (x1 + y1 ) − (x3 + y3 ) = (x1 − x2 + 4x3 + y1 − y2 + 4y3 , 3x1 − x3 + 3y1 − y3 ) = (x1 − x2 + 4x3 , 3x1 − x3 ) + (y1 − y2 + 4y3 , 3y1 − y3 ) = u(x) + u(y). Soit de plus un scalaire l, on a alors u(lx) = = = = =
u l (x1 , x2 , x3 ) u (lx1 , lx2 , lx3 ) (lx1 − lx2 + 4lx3 , 3lx1 − lx3 ) l(x1 − x2 + 4x3 , 3x1 − x3 ) lu(x).
Proposition 1 (Pour démontrer qu’une application est linéaire) Soit u une application de E vers F, u est linéaire si pour tout couple (l, m) d’éléments de K et tout couple (x, y) d’éléments de E u(lx + my) = lu(x) + mu(y).
Preuve
© Dunod – La photocopie non autorisée est un délit
Soit u ∈ L(E, F). Soient (x, y) un couple d’éléments de E et l, m deux éléments de K, on a en appliquant successivement les propriétés des applications linéaires u(lx + my) = u(lx) + u(my) = lu(x) + mu(y). Réciproquement, soit u une application de E vers F vérifiant la propriété annoncée, montrons que u est linéaire. Soit (x, y) un couple d’éléments de E et l un scalaire, on a u(x + y) = u(1x + 1y) = 1u(x) + 1u(y) = u(x) + u(y), u(lx) = u(lx + 0 · 0E ) = lu(x) + 0u(0E ) = lu(x).
❑
Exemple Vérifions à l’aide de ce critère que l’application Kn [X] → Kn [X] u: P → P + P
25
Chapitre 2 – Applications linéaires
est linéaire. Soient P, Q deux polynômes de Kn [X] et l, m deux éléments de K. Alors u(lP + mQ) = (lP + mQ) + (lP + mQ) = l(P + P ) + m(Q + Q ) = lu(P) + mu(Q). Donc u est linéaire. Proposition 2 Soit u ∈ L(E, F). Pour tout n-uplet (x1 , x2 , . . . , xn ) d’éléments de E et n-uplet (l1 , l2 , . . . , ln ) d’éléments de K, on a n n u l k xk = lk u(xk ). k=1
k=1
Preuve La démonstration se fait sans difficulté par récurrence sur n.
❑
1.2 Espace image, applications linéaires surjectives Définition 2 Soit u ∈ L(E, F). On appelle image de u et l’on note m(u) l’ensemble {y ∈ F | ∃x ∈ E f (x) = y} ; c’est l’ensemble des éléments de F qui ont un antécédent par u dans E.
Proposition 3 Soit u ∈ L(E, F), l’ensemble m(u) est un sous-espace vectoriel de F. L’image par u de l’élément nul de E est l’élément nul de F ; l’image de l’opposé d’un élément x de E est l’opposé de l’image de x. Preuve Voir le cours de première année.
❑
Proposition 4 Soient E un espace vectoriel de dimension finie p, (e1 , e2 , . . . , ep ) une base de E, u une application linéaire de E dans F et f1 = u(e1 ), f2 = u(e2 ), . . . , fp = u(ep ), les images des vecteurs de la base de E. La famille (f1 , f2 , . . . , fp ) est une famille génératrice de m(u). L’application u est surjective si, et seulement si, la famille (f1 , f2 , . . . , fp ) est une famille génératrice de F. Preuve Voir le cours de première année.
26
❑
Applications linéaires
➤ Remarque La proposition suivante montre que pour définir une application linéaire, il suffit de connaître la famille (f1 , f2 , . . . , fp ) des images d’une base de E.
Proposition 5 Soient E un espace vectoriel de dimension finie p, (e1 , e2 , . . . , ep ) une base de E et (f1 , f2 , . . . , fp ) une famille de vecteurs de F. Il existe une unique application linéaire u de E vers F telle que u(e1 ) = f1 , . . . , u(ep ) = fp . Preuve Montrons d’abord l’existence d’une telle application. Définissons l’application u de E vers F qui à tout vecteur x de coordonnées (l1 , l2 , . . . , lp ) dans la base (e1 , e2 , . . . , ep ) associe le vecteur u(x) =
p
li f i .
i =1
Pour tout i ∈ Ú1, pÛ, les coordonnées de ei étant (0, . . . , 0, 1, 0, . . . , 0), on a u(ei ) = fi . On vérifie aisément que cette application est linéaire. u est donc une application qui satisfait les propriétés souhaitées. p Supposons que deux applications u1 et u2 conviennent. Soit x un élément de E avec x = li ei , on a i =1
u1 (x) = u1
p
li ei
=
i =1
et de la même façon u2 (x) = u2
p i =1
p
li u1 (ei ) =
i =1
li ei
=
p i =1
p
li f i
i =1
li u2 (ei ) =
p
li f i .
i =1
Ainsi, pour tout x ∈ E, u1 (x) = u2 (x), c’est-à-dire u1 = u2 .
❑
➤ Remarque
© Dunod – La photocopie non autorisée est un délit
En conséquence, pour démontrer l’égalité de deux application linéaires, u1 et u2 , définies sur un espace E de dimension finie, il suffit de démontrer que pour tout vecteur x appartenant à une base de E, on a u1 (x) = u2 (x).
1.3 Noyau, applications linéaires injectives Définition 3 Soit u ∈ L(E, F). On appelle noyau de u et l’on note Ker(u) l’ensemble Ker(u) = {x ∈ E | u(x) = 0F }. ➤ Remarque Le noyau d’une application linéaire est donc l’ensemble des antécédents du vecteur nul, cet ensemble contient au moins 0E .
Proposition 6 Soit u ∈ L(E, F). L’ensemble Ker(u) est un sous-espace vectoriel de E.
27
Chapitre 2 – Applications linéaires
Preuve Le noyau Ker(u) est un sous-ensemble de E. On sait que u(0E ) = 0F , donc 0E ∈ Ker(u) et Ker(u) n’est pas vide. Soient x, y deux vecteurs de Ker(u) et l, m deux scalaires. On a u(lx + my) = lu(x) + mu(y) = l0F + m0F = 0F . Autrement dit lx + my ∈ Ker(u). Ker(u) est non vide, stable par combinaison linéaire, c’est un sous-espace ❑ vectoriel de E.
Exemples 1. Reprenons l’exemple de l’application u définie page 24 en début de chapitre. K3 → K2 u: (x1 , x2 , x3 ) → (x1 − x2 + 4x3 , 3x1 − x3 ) Déterminons une base de Ker(u). Soit v un vecteur de K3 avec v = (x, y, z), on a x − y + 4z = 0 v ∈ Ker(u) ⇐⇒ u(x, y, z) = 0 ⇐⇒ 3x − z = 0 y = 13x ⇐⇒ z = 3x d’où Ker(u) = Vect(1, 13, 3). 2. Nous avons aussi remarqué que la dérivation est un endomorphisme de Kn [X] ; le noyau de cet endomorphisme, c’est-à-dire l’ensemble des polynômes de dérivée nulle, est le sousespace vectoriel K0 [X] des polynômes constants. Proposition 7 Soit u ∈ L(E, F), u est injective si, et seulement si, Ker(u) = {0E }. Preuve Supposons que u soit injective. On sait déjà que 0E ∈ Ker(u). Soit x un élément de Ker(u). On a donc u(x) = 0F , soit encore u(x) = u(0E ). Or u est injective, donc x = 0E . On en déduit que Ker(u) = {0E }. Réciproquement, soit u ∈ L(E, F) une application telle que Ker(u) = {0E }, montrons que u est injective. Soit x, y deux vecteurs de E tels que u(x) = u(y). On a alors successivement u(x) − u(y) = 0, u(x − y) = 0, x − y ∈ Ker(u) et donc nécessairement x − y = 0, d’où x = y ; l’application u est injective. ❑
➤ Remarque De ce même calcul, nous pouvons obtenir aussi des informations sur les antécédents d’un vecteur x0 de m(u) par une application linéaire u quelconque de L(E, F) : tout vecteur x de E tel que u(x) = u(x0 ) est égal à la somme d’un vecteur de Ker(u) et de x0 . En effet nous avons pour tout vecteur x de E u(x) = u(x0 )
⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
u(x) − u(x0 ) = 0 u(x − x0 ) = 0 x − x0 ∈ Ker(u) ∃z ∈ Ker(u) x = x0 + z .
Si de plus Ker(u) est de dimension k non nulle, c’est-à-dire si u n’est pas injective, on peut en déduire que les antécédents de u(x0 ) peuvent tous s’écrire comme la somme de x0 et d’une combinaison linéaire des k vecteurs d’une base de Ker(u), autrement dit ils peuvent s’écrire en fonctions de k paramètres réels.
28
Applications linéaires
Proposition 8 Soient E un espace vectoriel de dimension finie p, (e1 , e2 , . . . , ep ) une base de E, u une application linéaire définie sur E et f1 = u(e1 ), f2 = u(e2 ), . . . , fp = u(ep ), les images des vecteurs de la base de E. L’application u est injective si, et seulement si, la famille (f1 , f2 , . . . , fp ) est une famille libre de F. Preuve Supposons que u soit injective. Soit
p
li fi = 0F une combinaison linéaire nulle des vecteurs de la famille
i =1
(f1 , f2 , . . . , fp ). Nous avons alors
u
p
li ei
=
i =1
p
li u(ei ) =
i =1
p
li fi = 0F .
i =1
Comme u est injective, le seul antécédent de 0F par u est 0E . Nous avons donc
p
li ei = 0E . La famille
i =1
(e1 , e2 , . . . , ep ) est libre, les scalaires (l1 , l2 , . . . , lp ) sont donc tous nuls, la famille (f1 , f2 , . . . , fp ) est libre. Réciproquement, soit u une application linéaire définie sur E telle que la famille (f1 , f2 , . . . , fp ) est une famille libre de F. Soit x un élément de E appartenant au noyau de u et soit (l1 , l2 , . . . , lp ) les coordonnées de x sur la base (e1 , e2 , . . . , ep ). Nous avons 0F = u(x) = u
p i =1
li ei
=
p
li f i .
i =1
La famille (f1 , f2 , . . . , fp ) étant libre, les scalaires (l1 , l2 , . . . , lp ) sont tous nuls, x = 0E , le noyau de u est réduit à {0E }, u est injective. ❑
1.4 Isomorphismes de E dans F Définition 4
© Dunod – La photocopie non autorisée est un délit
Une application linéaire de E vers F bijective est appelée un isomorphisme de E dans F. ➤ Remarque Soit u un isomorphisme de E vers F. L’application réciproque u−1 de F vers E est aussi un isomorphisme. En effet u−1 est une bijection de F vers E et pour tous scalaires l et m et tous vecteurs y1 et y2 de F nous avons, en posant x1 = u−1 (y1 ) et x2 = u−1 (y2 ) ly1 + my2 = lu(x1 ) + mu(x2 ) = u(lx1 + mx2 ) et
u−1 (ly1 + my2 ) = u−1 u(lx1 + mx2 ) = lx1 + mx2 = lu−1 (y1 ) + mu−1 (y2 ),
ce qui démontre que u−1 est une application linéaire.
Définition 5 Soit E et F deux espaces vectoriels. S’il existe un isomorphisme u de E vers F, on dit que E et F sont isomorphes et u−1 est l’isomorphisme réciproque de u.
29
Chapitre 2 – Applications linéaires
Théorème 1 Soient E et F deux espaces vectoriels de dimension finie. Les espaces E et F sont isomorphes si, et seulement s’ils sont de même dimension. En particuliers, tous les espaces vectoriels sur K de dimensions n sont isomorphes à Kn . Preuve Soient E et F deux espaces de dimension finie. Supposons qu’il existe un isomorphisme u de E vers F. Soit B une base de E, on sait que l’image par u de B est une famille génératrice de F (voir proposition 4) et une famille libre de F (voir proposition 8). On a donc une base de F qui compte autant d’éléments qu’une base de E, on en déduit que dim(E) = dim(F). Réciproquement supposons que dim(E) = dim(F). Soient (e1 , e2 , . . . , en ) une base de E et (f1 , f2 , . . . , fn ) une base de F, on sait qu’il existe une unique application linéaire u de E vers F telle que pour i ∈ Ú1, nÛ, u(ei ) = fi (voir proposition 5) . Comme l’image par u de la base (e1 , e2 , . . . , en ) est la base (f1 , f2 , . . . , fn ), u est un isomorphisme. E et F sont bien isomorphes. Nous savons de plus que Kn est de dimension n, ce qui achève la démonstration.
❑
Corollaire 1 Soient E et F deux espaces vectoriels de dimension finie et u une application linéaire de E vers F. L’application u est un isomorphisme si, et seulement si, l’image d’une base de E par u est une base de F. Preuve Considérons une base B de E. Nous savons que u est surjective si, et seulement si, l’image de B par u est génératrice de F (proposition 4) et qu’elle injective si, et seulement si, l’image de B par u est libre dans F ❑ (proposition 8). L’application u sera donc bijective si, et seulement si, l’image de B est une base de F.
2. Rang d’une application linéaire 2.1 Théorème du rang Définition 6 Soit une famille de vecteurs (f1 , f2 , . . . , fp ), on appelle rang de cette famille, et l’on note rg(f1 , f2 , . . . , fp ), la dimension de Vect(f1 , f2 , . . . , fp ) . Définition 7 Soit u ∈ L(E, F). Si m(u) est de dimension finie, on appelle rang de u et on note rg(u) la dimension de m(u). ➤ Remarque En particulier si E est de dimension finie, alors le rang de u est défini. En effet, si B = (e1 , e2 , . . . , ep ) est une base de E, alors la famille de vecteurs u(e1 ), u(e2 ), . . . , u(ep ) engendre m(u) qui est donc de dimension finie ; le rang de u est aussi le rang de cette famille de vecteurs, il ne dépend pas de la base de E choisie pour le déterminer.
30
Rang d’une application linéaire
Théorème 2 (Théorème du rang) Soit u ∈ L(E, F) où E est de dimension finie. On a dim(E) = dim Ker(u) + dim m(u) .
Preuve Soit (e1 , e2 , . . . , ek ) une basede Ker(u) que l’on complète en une base (e1 , e2 , . . . , ek , ek+1 , . . . , ep ) de E. D’après ce qui précède, on sait que u(e1 ), u(e2 ), . . ., u(ek ), u(ek+1 ), . . ., u(ep ) est génératrice de m(u). Mais comme u(e1 ) = u(e2 ) = · · · = u(ek ) = 0, la famille u(ek+1 ), . . . , u(ep ) est aussi génératrice de m(u). Montrons que cette famille est libre. Soient ak+1 , . . . , ap des scalaires tels que ak+1 u(ek+1 ) + ak+2 u(ek+2 ) + · · · + ap u(ep ) = 0
Par linéarité on a u
p
ai ei
= 0, soit
i =k+1
p
ai ei ∈ Ker(u). Il existe donc des réels a1 , . . . , ak tels que
i =k+1 p i =k+1
On a alors
k
ai ei −
i =1
p
ai ei =
k
ai ei .
i =1
ai ei = 0. Comme la famille (e1 , e2 , . . . , ep ) est une base, les réels a1 , a2 , . . . , ap sont
i =k+1
nuls. En résumé, la famille (e1 , e2 , . . . , ep ) est une base de E, la famille (e1 , e2 , . . . , ek ) est une base de Ker(u) et u(ek+1 ), . . . , u(ep ) est une base de m(u). On a donc
dim(E) = dim Ker(u) + dim m(u) .
❑
2.2 Application à la caractérisation des isomorphismes
© Dunod – La photocopie non autorisée est un délit
Théorème 3 Soit u ∈ L(E, F) où E et F sont de dimension finie. • u est injective si, et seulement si, rg(u) = dim(E). • u est surjective si, et seulement si, rg(u) = dim(F). Preuve Grâce au théorème du rang, nous pouvons écrire les équivalences
rg(u) = dim(E)
De même
rg(u) = dim(F)
⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
⇐⇒ ⇐⇒ ⇐⇒
dim m(u) = dim(E) dim(E) − dim Ker(u) = dim(E) dim Ker(u) = 0 Ker(u) = {0} u est injective.
dim m(u) = dim(F) m(u) = F u est surjective.
❑
31
Chapitre 2 – Applications linéaires
Théorème 4 Soient E un espace de dimension finie et u un endomorphisme de E. On a les équivalences u est injective ⇐⇒ u est surjective ⇐⇒ u est bijective.
Preuve D’après le théorème précédent
u est injective ⇐⇒ rg(u) = dim(E) ⇐⇒ u est surjective.
❑
➤ Remarque Nous verrons (voir exercice 3.) que cette propriété est fausse en dimension infinie.
Théorème 5 Soient E un espace de dimension finie et u et v deux endomorphismes de E. On a u ◦ v = IdE ⇐⇒ u est un isomorphisme de E et v est son isomorphisme réciproque.
Preuve
Si l’on a u ◦ v = IdE , l’endomorphisme u est surjectif, donc bijectif. En composant à gauche par u−1 , nous obtenons v = u−1 . La réciproque ne fait que traduire les définitions d’isomorphisme et d’isomorphisme réci❑ proque.
➤ Remarques • Rappelons que la définition de u est une bijection de E dans F est qu’il existe une application de F dans E telle que u ◦ v = IdE et v ◦ u = IdF ; l’intérêt du théorème ci-dessus de réduire à une seule égalité cette définition, dans le cas des endomorphismes d’un espace de dimension finie. • Nous verrons (voir exercice 3.) que cette propriété est fausse en dimension infinie.
3. L’ensemble des applications linéaires de E dans F 3.1 L’ensemble L(E, F) : aspect vectoriel Proposition 9 L’ensemble L(E, F) a une structure d’espace vectoriel pour les lois internes et externes induites par celles de F. En particulier l’ensemble L(E) des endomorphismes de E est un espace vectoriel. Preuve Soient u, v deux éléments de L(E, F), a un scalaire et x un vecteur de E. Nous définissons de manière naturelle les applications u + v et au de E dans F par (u + v)(x) = u(x) + v(x) (au)(x) = au(x).
32
L’ensemble des applications linéaires de E dans F
Montrons que u + v est linéaire. Soient l, m deux éléments de K et x et y deux vecteurs de E ; on a (u + v)(lx + my)
=
u(lx + my) + v(lx + my)
=
lu(x) + mu(y) + lv(x) + mv(y)
=
l(u + v)(x) + m(u + v)(y).
Montrons maintenant que au est linéaire. Soient l, m deux scalaires et x, y deux vecteurs de E ; on a (au)(lx + my)
=
a u lx + my a lu (x) + mu (y)
=
l(au)(x) + m(au)(y).
=
Nous avons donc bien donc une loi de composition interne et une loi de composition externe définies sur L(E, F). Pour achever la démonstration, nous laissons au lecteur le soin de vérifier les huit propriétés ANSCANDD des espaces vectoriels ; par exemple l’élément neutre pour l’addition est l’application linéaire nulle et l’opposé d’une ❑ application linéaire u est l’application −u = (−1)u.
➤ Remarque Les vérifications que nous proposons au lecteur sont exactement comparables à celles que nous avons faites en détail dans le livre de première année pour les polynômes et pour les matrices.
3.2 Les ensembles L(E, F) : au-delà de l’aspect vectoriel Composition des applications linéaires, cas général Proposition 10 Soient E, F et G trois espaces vectoriels, soient u ∈ L(E, F) et v ∈ L(F, G) alors v ◦ u ∈ L(E, G).
On retiendra que la composition de deux applications linéaires est une application linéaire. Preuve © Dunod – La photocopie non autorisée est un délit
Soient (x, y) un couple d’éléments de E et l, m deux scalaires. On a (v ◦ u)(lx + my)
=
v u lx + my v lu (x) + mu (y) lv u (x) + mv u y
=
l(v ◦ u)(x) + m(v ◦ u)(y).
= =
❑
Proposition 11 Pour tout couple (u, v) d’applications de L(E, F), tout couple (s, t) d’applications de L(F, G) et tout couple de scalaires (l, m) on a s ◦ (lu + mv) = ls ◦ u + ms ◦ v (ls + mt) ◦ u = ls ◦ u + mt ◦ u.
33
Chapitre 2 – Applications linéaires
Preuve Montrons par exemple la première propriété. Soit x ∈ E, on a
s ◦ (lu + mv) (x)
=
s (lu + mv)(x) s lu(x) + mv(x) s lu(x) + s mv(x)
=
l(s ◦ u)(x) + m(s ◦ v)(x)
= =
❑
d’où s ◦ (lu + mv) = ls ◦ u + ms ◦ v.
➤ Remarque Pour simplifier les écritures et s’il n’y a pas d’ambiguïté, nous noterons parfois s ◦ u plus simplement par su ; nous écrirons par exemple s(lu + mv) = lsu + msv.
L’ensemble L(E) des endomorphismes Dans l’ensemble L(E) des endomorphismes de E, nous pouvons composer les éléments entre eux sans restriction. Définition 8 Soit u un endomorphisme non nul de L(E). On définit un dans L(E) pour tout entier naturel n par la récurrence 0 u = IdE , ∀n ∈ N, un+1 = u ◦ un .
Exemple Soit a ∈ R, on définit l’application u par R[X] P
→ R[X]
→ P(X + a)
Pour tous polynômes P et Q et tous réels l et m, (lP + mQ)(X + a) = lP(X + a) + mQ(X + a) ; l’application u est linéaire, c’est un endomorphisme de R[X]. Pour tout polynôme P de R[X], on a u2 (P) = u P (X + a) = P (X + a) + a = P(X + 2a). Par récurrence, on prouve que pour tout n ∈ N, un (P) = P(X + na). ➤ Remarques • Il est facile de montrer par récurrence sur p les égalités naturelles suivantes un ◦ up = un+p et (un )p = unp où n et p sont des entiers naturels. • Si u est un endomorphismes de E et P = l’endomorphisme
n i =0
34
n i =0
ai ui .
ai X i un polynôme de K[X], alors l’écriture P(u) représentera
Projections
• Nous pouvons utiliser les identités remarquables pour exprimer par exemple (u + v)n si u et v sont deux endomorphismes qui commutent et seulement dans ce cas. Par exemple nous avons (u + v)2 = (u + v) ◦ (u + v)
= (u + v) ◦ u + (u + v) ◦ v = u2 + v ◦ u + u ◦ v + v 2 = u2 + 2u ◦ v + v 2 Cette égalité est fausse si u et v ne commutent pas.
L’ensemble GL(E) des automorphismes muni de la composition Définition 9 Une application linéaire de E vers E bijective est appelée un automorphisme de E. L’ensemble des automorphismes est noté GL(E). ➤ Remarque Un automorphisme de E est donc un endomorphisme de E bijectif.
Proposition 12 La composition est une loi de composition interne sur l’ensemble GL(E) des automorphismes de E. Preuve Il suffit de remarquer que la composition de deux bijections est bijective et que la composition de deux application linéaires est une application linéaire. Nous pouvons alors conclure que la composition de deux automor❑ phismes de E est un automorphisme de E.
© Dunod – La photocopie non autorisée est un délit
4. Projections 4.1 Définition de la projection sur F1 parallèlement à F2 Définition 10 Soit E un espace vectoriel tel que E = F1 ⊕ F2 . On appelle projection sur F1 parallèlement à F2 l’application p de E dans E qui à tout vecteur x de E s’écrivant sous la forme x = x1 + x2 où x1 ∈ F1 et x2 ∈ F2 associe le vecteur p(x) = x1
Pour tout vecteur x de E, nous savons qu’il existe un seul couple (x1 , x2 ) ∈ F1 × F2 tel que x = x1 + x2 , l’application p est donc bien définie. Notons q la projection sur F2 parallèlement à F1 . On dit que p et q sont les deux projections associées à la somme directe F1 ⊕ F2 . Nous avons alors ∀x ∈ E
x = p(x) + q(x) avec p(x) ∈ F1 et q(x) ∈ F2 . 35
Chapitre 2 – Applications linéaires
Exemples 1. Traçons la figure dans le cas où F1 et F2 sont deux droites vectorielles du plan et x un vecteur fixé. F2
x2 = q(x)
x
F1 O
x1 = p(x)
2. On a déjà vu, page 18, que RR = P ⊕ I. La projection sur P parallèlement à I est l’application qui à une fonction f associe la fonction g définie pour tout réel x par g(x) =
f (x) + f (−x) · 2
4.2 Propriétés de la projection sur F1 parallèlement à F2 Proposition 13 Toute projection p est linéaire et vérifie p ◦ p = p. Preuve Soit E = F1 ⊕ F2 , p la projection sur F1 parallèlement à F2 et q la projection sur F2 parallèlement à F1 . Montrons que p est linéaire. Soient x, y deux éléments de E et l, m deux scalaires. Nous avons d’une part lx + my = p(lx + my) + q(lx + my), ∈F 1
∈F 2
et d’autre part, parce que F1 et F2 sont stables par combinaisons linéaires, lx + my = l p(x) + q(x) + m p(y) + q(y) lp(x) + mp(y) + lq(x) + mq(y) . =
∈F 1
∈F 2
Enfin, parce que l’écriture de tout élément de E comme somme d’un élément de F1 et d’un élément de F2 est unique, nous avons p(lx + my) = lp(x) + mp(y). L’application p est donc linéaire. De plus nous avons pour tout vecteur x de E p(x) = p(x) + 0 , ∈F 1
donc
36
∈F 2
p ◦ p(x) = p p(x) = p(x).
❑
Matrices et applications linéaires
➤ Remarque Nous verrons en exercice que cette propriété caractérise les projections.
Proposition 14 Soit E un espace vectoriel tel que E = F1 ⊕ F2 . Soit p la projection sur F1 parallèlement à F2 . On a m(p) = F1 et Ker(p) = F2 . Preuve Par définition de p, m(p) ⊂ F1 . Inversement si x ∈ F1 alors x =
x + 0 , p(x) = x et donc x ∈ m(p). On ∈F 1
∈F 2
a donc m(p) = F1 . Soit x un élément de F2 ; on a donc x = 0 + x , p(x) = 0 et x ∈ Ker(p). Inversement si x ∈ Ker(p) alors ∈F 1
∈F 2
l’écriture x = 0 + x est la décomposition de x en somme d’un élément de F1 et d’un élément de F2 , et donc ❑ x ∈ F2 . On a donc Ker(p) = F2 .
Proposition 15 Soit p la projection sur F1 parallèlement à F2 . On a alors ∀x ∈ E
x ∈ F1 ⇐⇒ p(x) = x.
Preuve Soit x un vecteur de E. Si x ∈ F1 alors x = x + 0 et p(x) = x . ∈F 1
∈F 2
❑
Si p(x) = x alors x ∈ m(p) = F1 .
© Dunod – La photocopie non autorisée est un délit
5. Matrices et applications linéaires Dans toute cette section, E et F sont deux espaces vectoriels de dimensions p et n munis respectivement des bases BE = (e1 , e2 , . . . , ep ) et BF = (f1 , f2 , . . . , fn ), fixées une fois pour toutes. 5.1 Matrice associée à une application linéaire Matrice colonne des coordonnées d’un vecteur Proposition 16 Soit E un espace vectoriel de dimension finie et BE une base de E. L’application qui associe à chaque vecteur de E la matrice colonne de ses coordonnées sur BE est un isomorphisme d’espace vectoriel.
Nous définissons l’application MBE de E dans Mp,1 (K) qui associe à tout vecteur x de E l’unique matrice colonne X = MBE (x) de ses coordonnées sur BE . 37
Chapitre 2 – Applications linéaires
⎞ x1 p ⎜ x2 ⎟ ⎟ Pour tout x = xj ej nous avons X = MBE (x) = ⎜ ⎝ ... ⎠ . j =1 xp L’application MBE est bijective de E dans Mp,1 (K) puisque tout élément p xj e j X = (xj )1jp de Mp,1 (K) a dans E un unique antécédent x défini par x = ⎛
j =1
tel que X = MBE (x). L’application MBE est linéaire. En effet, pour tout couple (l, m) de scalaires et p p xj ej et y = yj ej de l’espace vectoriel E nous avons pour tous vecteurs x = j =1
p (lxj + myj )ej et donc lx + my =
j =1
j =1
MBE (lx + my) = lMBE (x) + mMBE (y).
L’application MBE est donc un isomorphisme de E vers Mp,1 (K). Nous définissons de façon similaire l’isomorphisme MBF de F vers Mn,1 (K) qui est entièrement défini dès que la base BF est fixée. Dans la suite de ce chapitre, nous noterons habituellement x, y, z les vecteurs et X, Y , Z les matrices colonnes de leurs coordonnées. Définition 11 Soient E un espace vectoriel de dimension n, BE une base de E et (v1 , v2 , . . . , vk ) une famille de k vecteurs de E. On appelle matrice de la famille (v1 , v2 , . . . , vk ) relativement à la base B la matrice de Mn,k (K) notée MB (v1 , v2 , . . . , vk ) dont les vecteurs colonnes sont les matrices colonnes des coordonnées de v1 , v2 , . . . , vk sur la base B. Exemple Plaçons nous dans K3 [X] et posons v1 = (X − 2)2 , v2 = (X − 1)3 et v3 = 7X − 5. La matrice des vecteurs v1 , v2 et v3 dans la base canonique Bc est ⎞ ⎛ 4 −1 −5 3 7 ⎟ ⎜ −4 . MBc (v1 , v2 , v3 ) = ⎝ 1 −3 0 ⎠ 0 1 0
Définition de la matrice d’une application linéaire Définition 12 Soient E et F deux espaces vectoriels de dimensions finies sur K, BE = (e1 , e2 , . . . , ep ) une base de E et BF = (f1 , f2 , . . . , fn ) une base de F. Soit u ∈ L(E, F). Pour j ∈ Ú1, pÛ, il existe
38
Matrices et applications linéaires
n scalaires uniques a1,j , a2,j , . . . , an,j tels que u(ej ) =
n
ai,j fi .
i=1
La matrice A = (ai,j ) 1in est appelée matrice de u relativement aux bases BE , BF et est 1jp notée MBE ,BF (u). C’est la matrice dont le jeme vecteur colonne est le vecteur colonne des coordonnées de u(ej ) dans la base BF . ➤ Remarque Les bases BE et BF étant fixées, la matrice A d’une application linéaire u ∈ L(E, F) est unique.
Définition 13 Soient E un espace vectoriel de dimension finie, u ∈ L(E) et B une base de E. On appelle matrice de u relativement à la base B et l’on note MB (u) la matrice MB,B (u). Exemple L’application identité IdE est une application linéaire. Si E est de dimension n, la matrice de IdE est In la matrice unité de Mn (K) quelque soit la base de E utilisée. En effet si (e1 , . . . , en ) est une base de E, nous avons pour tout j ∈ Ú1, nÛ IdE (ej ) = ej . ➤ Remarque Réciproquement, étant donnée une matrice A = (ai,j ) de Mn,p (K), on peut considérer l’application u : Kp → Kn qui à tout p-uplet (x1 , x2 , . . . , xp ) associe le n-uplet (y1 , y2 , . . . , yn ) tel que pour i ∈ Ú1, nÛ, on a yi =
p
ai,j xj .
j=1
© Dunod – La photocopie non autorisée est un délit
On vérifie facilement que cette application est linéaire. Par construction, cette application a pour matrice A dans les bases canoniques de Kp et Kn . L’application u est appelée l’application linéaire canoniquement associée à A.
Calcul effectif des coordonnées de l’image d’un vecteur Tous nos efforts sont couronnés par la proposition suivante où nous utilisons les notations définies dans ce chapitre. Proposition 17 Soient E et F deux espaces vectoriels de dimensions finies sur K, BE = (e1 , e2 , . . . , ep ) une base de E et BF = (f1 , f2 , . . . , fn ) une base de F. Soit u ∈ L(E, F). Pour tout vecteur x de E et tout vecteur y de F nous avons y = u(x) ⇐⇒ Y = AX où A, X et Y sont les matrices MBE ,BF (u), MBE (x) et MBF (y) associées à u, x et y respectivement.
39
Chapitre 2 – Applications linéaires
➤ Remarque La matrice A est de taille n × p : n lignes, n comme la dimension de l’espace d’arrivée F, p colonnes, p comme la dimension de l’espace de départ E et comme le nombre de ligne de X.
Preuve La matrice A est telle que pour tout j ∈ Ú1, pÛ nous avons u(ej ) =
n
ai,j fi .
⎛
i =1
p
Nous avons pour tout vecteur x =
xj ej de E et y =
j=1
⎛ ⎜ ⎜ Y = MBF (y) = ⎜ ⎝
y1 y2 . . . yn
n i =1
⎜ ⎜ yi fi de F, les égalités X = MBE (x) = ⎜ ⎝
⎞
x1 x2 . . . xp
⎞ ⎟ ⎟ ⎟ et ⎠
⎟ ⎟ ⎟ . Avec ces notations, nous avons les équivalences ⎠
y = u(x)
⇐⇒
n
⎛ ⎞ p ⎝ yi f i = u xj ej ⎠
i =1
⇐⇒ ⇐⇒ ⇐⇒ ⇐⇒
n i =1 n
j=1
yi f i =
p
xj u(ej )
j=1 p
yi f i =
xj
n
ai,j fi
⎛ i=1 ⎞ p n n ⎝ yi f i = ai,j xj ⎠ fi i =1
j=1
i =1
i =1
∀i ∈ Ú1, nÛ
j=1
yi =
p
ai,j xj
j=1
⇐⇒
Y = AX .
❑
Exemples 1. Reprenons l’exemple de l’application u définie page 24 en début de chapitre. K3 → K2 u: (x1 , x2 , x3 ) → (x1 − x2 + 4x3 , 3x1 − x3 ) L’espace de départ est de dimension 3 et celui d’arrivée est de dimension 2, la matrice de u relativement aux bases canoniques B3 de K3 et B2 de K2 est donc de taille 3 × 2, ses vecteurs colonnes sont les images par u de (1, 0, 0), (0, 1, 0) et (0, 0, 1). Nous avons donc 1 −1 4 MB3 ,B2 (u) = . 3 0 −1 Nous pouvons noter (y1 , y2 ) l’image d’un élément (x1 , x2 , x3 ) de K3 par u. Nous avons alors ⎞ ⎛ x y1 1 −1 4 ⎝ 1 ⎠ x2 = . 3 0 −1 y2 x3
40
Matrices et applications linéaires
2. Nous avons déjà remarqué que la dérivation des polynômes était une application linéaire. Considérons par exemple l’application u de K3 [X] (de dimension 4) dans K2 [X] (de dimension 3) qui à un polynôme P = a + bX + cX 2 + dX 3 lui associe sa dérivée P . Relativement à la base canonique B3 = (1, X, X 2 , X 3 ) de K3 [X] et à la base canonique B2 = (1, X, X 2 ) de K2 [X], la matrice A de u est ⎞ ⎛ 0 1 0 0 A = ⎝ 0 0 2 0 ⎠. 0 0 0 3 Par exemple la matrice colonne des coordonnées du polynôme P(X) = 13+11X+7X 2 +5X 3 ⎞ ⎛ ⎞ ⎞ ⎛ 13 ⎞ ⎛ ⎛ 13 11 0 1 0 0 11 ⎟ ⎜ ⎜ 11 ⎟ = ⎝ 14 ⎠ . Les coordonnées de P (X) sont alors ⎝ 0 0 2 0 ⎠ ⎝ est ⎝ 7 ⎠ 7 ⎠ 15 0 0 0 3 5 5 2 dans la base canonique de K2 [X] ce qui nous donne P (X) = 11 + 14X + 15X .
5.2 Espaces vectoriels de matrices et d’applications linéaires Base et dimension de L(E, F) Soient E et F deux espaces vectoriels de dimension finie sur K, BE = (e1 , e2 , . . . , ep ) une base de E et BF = (f1 , f2 , . . . , fn ) une base de F. Pour tout i ∈ Ú1, nÛ et tout j ∈ Ú1, pÛ nous définissons l’application linéaire ui,j ∈ L(E, F) en donnant les images des vecteurs de la base BE ∀k ∈ Ú1, pÛ ui,j (ek ) = 0 et ui,j (ej ) = fi .
si k = j
Proposition 18
© Dunod – La photocopie non autorisée est un délit
Soient E et F deux espaces vectoriels de dimension n et p. La famille (ui,j ) 1in des np 1jp applications linéaires de Edans F définie ci-dessus est une base de L(E, F). Nous avons dim L(E, F) = dim(F) × dim(E). Preuve Soit u un élément quelconque de L(E, F) et soit (ai,j ) 1in la matrice de u relativement aux bases BE et BF . Considérons
p n
1 j p
ai,j ui,j . Nous avons
i =1 j=1
∀k ∈ Ú1, pÛ
⎛ ⎞ p n ⎝ ai,j ui,j ⎠ (ek )
=
i =1 j=1
p n
ai,j ui,j (ek )
i =1 j=1
=
n
ai,k ui,k (ek )
i =1
=
n
ai,k fi
i =1
=
u(ek ).
41
Chapitre 2 – Applications linéaires
Nous avons donc u =
p n
ai,j ui,j puisque ces deux applications linéaires coïncident sur la base
i =1 j=1
BE = (e1 , e2 , . . . , ep ) de E. La famille (ui,j ) 1in est donc génératrice de L(E, F). 1 j p
Soit d’autre part une famille (li,j ) 1in de scalaires telle que 1 j p
Ú1, pÛ nous avons
p n
li,j ui,j = 0. Pour tout entier k dans
i =1 j=1
⎞ ⎛ p n n ⎝ li,j ui,j ⎠ (ek ) = li,k fi . 0= i =1 j=1
i =1
La famille (fi )1in étant libre, nous avons l1,k = l2,k = · · · = ln,k = 0. Ces égalités étant démontrées pour tout k dans Ú1, pÛ, tous les scalaires (li,j ) 1in sont nécessairement nuls. La famille (ui,j ) 1in elle-même 1 j p
1 j p
est libre.
❑
Isomorphisme entre L(E, F) et Mn,p (K) Proposition 19 Soient E et F deux espaces vectoriels de dimension finie sur K, BE = (e1 , e2 , . . . , ep ) une base de E et BF = (f1 , f2 , . . . , fn ) une base de F. L’application qui à toute application linéaire u de L(E, F) associe la matrice MBE ,BF (u) de Mn,p (K) est un isomorphisme d’espace vectoriel. ➤ Remarques • On retiendra que la matrice d’une combinaison linéaire d’applications linéaires est la combinaison linéaire des matrices des applications. • Le fait que Mn,p (K) et L(E, F) sont de même dimension nous permet de dire qu’il existe des isomorphismes entre ces deux espaces, cependant une application de l’un dans l’autre n’est pas nécessairement un isomorphisme, il nous faut donc montrer que l’application MBE ,BF est bien linéaire et bijective.
Preuve Soient u et v deux éléments de L(E, F), soient (ai,j ) 1in = MBE ,BF (u) et (bi,j ) 1in = MBE ,BF (v) leurs 1 j p
1 j p
matrices respectives relativement aux bases BE et BF et soient l et m deux scalaires. Nous avons
∀j ∈ Ú1, pÛ
(lu + mv)(ej )
=
lu(e
j ) + mv(ej )
=
l
=
n (lai,j + mbi,j )fi .
n
ai,j fi
+m
i =1
n
bi,j fi
i =1
i =1
De ce fait la matrice de l’application linéaire lu + mv est donc la matrice (lai,j + mbi,j ) 1in et donc 1 j p
MBE ,BF (lu + mv) = lMBE ,BF (u) + mMBE ,BF (v). L’application MBE ,BF est linéaire.
Comme dans la démonstration de la proposition précédente, pour tout i ∈ Ú1, nÛ et tout j ∈ Ú1, pÛ, nous définissons l’application linéaire ui,j ∈ L(E, F) en donnant les images des vecteurs de la base BE
∀k ∈ Ú1, pÛ et
42
ui,j (ek ) = 0 ui,j (ej ) = fi .
si k = j
Matrices et applications linéaires
Nous savons que (ui,j ) 1in est une base de L(E, F). La matrice de ui,j est la matrice Ei,j de la base canonique 1 j p
de Mn,p (K). L’application MBE ,BF envoie donc les vecteurs d’une base de L(E, F) sur les vecteurs de la base canonique de Mn,p (K), c’est un isomorphisme. ❑
5.3 Produit de matrices et composée d’applications linéaires Proposition 20 Soient E, F et G trois espaces vectoriels de dimensions finies munis respectivement des bases BE , BF et BG . Pour toutes applications linéaires u de E dans F et v de F dans G, nous avons MBE ,BG (v ◦ u) = MBF ,BG (v) × MBE ,BF (u) ➤ Remarque On retiendra que la multiplication des matrices correspond à la composition des applications linéaires.
Preuve Posons p = dim(E), n = dim(F) et q = dim(G). Soit u ∈ L(E, F) et v ∈ L(F, G) deux applications linéaires. Posons A = MBE ,BF (u) ∈ Mn,p (K) et B = MBF ,BG (v) ∈ Mq,n (K). Pour tous vecteurs x, y et z de E, F et G respectivement, nous noterons X, Y et Z les matrices colonnes de leurs coordonnées dans les bases BE , BF et BG respectivement. Les matrices colonnes X, Y et Z ont donc respectivement p, n et q lignes. Avec ces notations, pour tout vecteur x de E, posons y = u(x) et z = v(y) = u ◦ v(x) et nous avons alors Y = AX et Z = BY = B(AX) = (BA)X. Puisqu’à l’application linéaire v ◦ u ne correspond qu’une seule matrice ❑ relativement aux bases BE et BG , il s’agit de la matrice BA ce qui démontre la proposition.
5.4 Matrices carrées et endomorphismes
© Dunod – La photocopie non autorisée est un délit
Matrice d’un automorphisme de E et de sa réciproque Proposition 21 Soit E un espace vectoriel de dimension finie n. La matrice d’un automorphisme u de E est une matrice carrée inversible de Mn (K) dont l’inverse est la matrice de l’automorphisme réciproque u−1 de E.
Preuve Soient E un espace vectoriel de dimension finie n et u un automorphisme de E, c’est-à-dire une bijection linéaire de E dans E, nous savons que la bijection réciproque u−1 de u est aussi un automorphisme. Soient BE = (e1 , e2 , . . . , en ) une base de E. Posons A = MBE (u) et B = MBE (u−1 ). Nous avons u−1 ◦ u = IdE et u ◦ u−1 = IdF d’où nous déduisons que BA = In et AB = In . La matrice A est donc inversible et A−1 = B.
❑
43
Chapitre 2 – Applications linéaires
Exercice 1.
Considérons sur R3 [X] rapporté à sa base canonique l’application u qui à tout polynôme P(X) associe le polynôme P(X + 2). Vérifier que u est un endomorphisme de R3 [X] et déterminer la matrice M de u. La matrice M est elle-inversible ? Calculer son inverse s’il existe. Solution. Si P(X) est un polynôme de degré inférieur ou égal à 3, le polynôme P(X + 2) sera aussi de degré inférieur ou égal à 3. Si l et m sont deux scalaires, P et Q deux polynômes dans R3 [X] alors on a l’égalité de polynômes (lP+mQ)(X+2) = lP(X+2)+mQ(X+2) c’est-à-dire u(lP+mQ) = lu(P)+mu(Q). L’application u est une application linéaire de R3 [X] dans R3 [X] donc un endomorphisme. Soit (1, X, X 2 , X 3 ) la base canonique de R3 [X]. Les colonnes de la matrice de u sont les coordonnées des images des vecteurs de cette base, par exemple u(X 3 ) = (X + 2)3 = 8 + 12X + 6X 2 + X 3 , donc la quatrième colonne de la matrice ⎞ ⎛ 8 ⎜ 12 ⎟ . M est ⎝ 6 ⎠ 1 La matrice M associée à u est donc ⎞ ⎛ 1 2 4 8 ⎜ 0 1 4 12 ⎟ . M =⎝ 0 0 1 6 ⎠ 0 0 0 1 La matrice M est inversible, puisqu’elle est déjà triangulaire supérieure avec une diagonale de pivots tous non nuls. Nous pouvons par ailleurs remarquer que l’application v définie par v P(X) = P(X − 2) pour tout polynôme P dans R3 [X] est l’application réciproque de u, nous avons en effet u ◦ v = v ◦ u = Id. Nous en déduisons à nouveau que u est un automorphisme, que M est inversible et que son inverse est la matrice de v, donc ⎞ ⎛ 1 −2 4 −8 ⎜ 0 1 −4 12 ⎟ . M −1 = ⎝ 0 0 1 −6 ⎠ 0 0 0 1
Isomorphisme entre L(E) et Mn (K) Nous donnons ici une synthèse de certains résultats établis ci-dessus. Proposition 22 Soient E un espace vectoriel de dimension finie n sur K et B = (e1 , e2 , . . . , en ) une base de E. L’application M qui à toute endomorphisme u de L(E) associe la matrice de u
44
Rang d’une matrice
relativement à B est un isomorphisme d’espace vectoriel et nous avons ∀u ∈ L(E) ∀v ∈ L(E) ∀l ∈ K ∀k ∈ N M(u + v) = M(u) + M(v) M(lu) = lM(u) M(u ◦ v) = M(u)M(v) k M(uk ) = M(u) De plus, si x et y sont des vecteurs de E et X et Y les matrices colonnes de leurs coordonnées dans la base B, nous avons ∀u ∈ L(E) ∀x ∈ E ∀y ∈ E
y = u(x) ⇐⇒ Y = M(u)X
Enfin la restriction de M à l’ensemble GL(E) des automorphismes de E est une bijection de GL(E) dans l’ensemble des matrices inversibles de Mn (K) et l’on a −1 ∀u ∈ GL(E) M(u−1 ) = M(u)
➤ Remarque Cette proposition n’est que la traduction dans le cas des endomorphismes de l’ensemble des propositions précédentes.
© Dunod – La photocopie non autorisée est un délit
6. Rang d’une matrice Soit n et p deux entiers naturels non nuls ; nous considérons ici les espaces vectoriels Mp,1 (K) et Mn,1 (K) munis de leur base canonique. Un élément X de Mp,1 (K) est une matrice colonne égale à la matrice colonne de ses coordonnées sur la base canonique de Mp,1 (K). Par exemple, si p = 3, nous avons pour tout élément X de Mp,1 (K) ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ x1 1 0 0 X = ⎝ x2 ⎠ = x1 ⎝ 0 ⎠ + x2 ⎝ 1 ⎠ + x3 ⎝ 0 ⎠ 0 0 1 x3 Il en est de même pour les élément Y de Mp,1 (K). Soit u une application linéaire de Mp,1 (K) dans Mn,1 (K) et soit A sa matrice relativement aux bases canoniques, nous avons ∀X ∈ Mp,1 (K) ∀Y ∈ Mn,1 (K)
Y = u(X) ⇐⇒ Y = AX
Inversement, si A est une matrice de Mn,p (K), l’application uA définie par uA : X −→ AX est une application linéaire de Mp,1 (K) dans Mn,1 (K). 45
Chapitre 2 – Applications linéaires
Définition 14 Soit A une matrice de Mn,p (K). On appelle rang de la matrice A, et l’on note rg(A), la dimension du sous-espace vectoriel engendré dans Mn,1 (K) par les p vecteurs colonnes de A. Proposition 23 Soient A une matrice de Mn,p (K) de rang r et uA l’application de Mp,1 (K) dans Mn,1 (K) qu’elle définit. On a alors r = rg(A) = rg(uA ) et r inf(n, p). Preuve Nous savons que le sous-espace vectoriel m(uA ) est engendré par la famille des images des vecteurs d’une base de Mp,1 (K), par exemple ceux de la base canonique. Nous remarquons alors que l’image par uA du jème vecteur de cette base est le jème vecteur colonne de la matrice A.
⎛ ⎜ ⎜ ⎜ ⎝
a1,j a2,j . . . an,j
⎞
⎛
⎟ ⎜ ⎟ ⎜ ⎟=⎜ ⎠ ⎝
a1,1 a2,1 . . . an,1
··· ··· ···
a1,j a2,j . . . an,j
··· ··· ···
a1,p a2,p . . . an,p
⎞
⎛
⎜ ⎜ ⎟⎜ ⎟⎜ ⎟⎜ ⎠⎜ ⎜ ⎝
0 . . . 1 . . . 0
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ← jième ligne ⎟ ⎟ ⎠
Il est alors clair que nous avons rg(uA ) = dim m(uA ) = rg(A) = r . Comme m(uA ) est un sous-espace de Mn,1 (K) nous avons r n et comme il est engendré par p vecteurs, ❑ nous avons aussi r p.
Proposition 24 Soient E un espace de dimension n muni d’une base B, f1 , f2 , . . . , fp des vecteurs de E et M la matrice de ces vecteurs dans la base B. On a rg(f1 , . . . , fp ) = rg(M). Preuve Soit MB : E → Mn,1 (K) l’application qui à un vecteur x associe le n-uplet de ses coordonnées dans la application est un isomorphisme. Elle induit en particulier un isomorphisme de base B. On a déjà vu que cette Vect(f1 , f2 , . . . , fp ) sur Vect MB (f1 ), MB (f2 ), . . . , MB (fp ) . On en déduit que
rg(f1 , f2 , . . . , fp ) = rg MB (f1 ), MB (f2 ), . . . , MB (fp ) . Mais par définition du rang d’une matrice rg(M) = rg MB (f1 ), MB (f2 ), . . . , MB (fp ) . On a donc bien
rg(f1 , f2 , . . . , fp ) = rg(M).
Théorème 6 Soient E un espace vectoriel muni d’une base BE , F un espace vectoriel muni d’une base BF et u ∈ L(E, F). On a rg(u) = rg MBE ,BF (u) . Autrement dit, le rang d’une application linéaire est égal au rang de sa matrice quelque soit le choix des bases de E et de F utilisées.
46
❑
Rang d’une matrice
Preuve Notons BE = (e1 , e2 , . . . , ep ). On sait que m(u) = Vect u(e1 ), . . . , u(ep ) d’où rg(u) = rg u(e1 ), . . . , u(ep ) . Mais d’après la proposition précédente rg u(e1 ), . . . , u(ep ) = rg MBF u(e1 ), . . . , u(ep ) et par définition de la matrice d’une application linéaire MBE ,BF (u) = MBF u(e1 ), . . . , u(ep ) . On en déduit que rg u(e1 ), . . . , u(ep ) = rg MBE ,BF (u) .
❑
Corollaire 2 Une matrice A de Mn (K) est inversible si et seulement si rg(A) = n. Preuve Soit uA l’endomorphisme de Mn,1 (K) canoniquement associé à A. On sait alors que A est inversible
⇐⇒
uA est bijective
⇐⇒
rg(uA ) = n
⇐⇒
rg(A) = n.
❑
Enfin nous admettons le théorème suivante dont la démonstration est hors programme. Théorème 7
© Dunod – La photocopie non autorisée est un délit
Soit une matrice A de Mn,p (K). La matrice A et sa transposée t A ont le même rang.
47
1.
1. Dans M3 (K), déterminer le rang de la matrice M=
1 b+c bc
1 1 c+a a+b ca ab
,
(a, b, c) ∈ K3 .
2. Dans Mn (K) avec n 2, déterminer, lorsqu’il existe, l’inverse de la matrice ⎞ ⎛ a b ··· ··· b .. ⎟ .. ⎜ . . ⎟ ⎜ b a ⎟ ⎜ . . . . ⎜ .. .. .. ⎟ (a, b) ∈ K2 . M = ⎜ .. ⎟, ⎟ ⎜ . ⎠ ⎝ . . a b b ··· ··· b a On pourra écrire M comme la combinaison linéaire de la matrice unité I et de la matrice J de Mn (K) dont tous les coefficients sont égaux à 1 et calculer M 2 . 3. Dans Mn (K), on note I la matrice unité et on considère une matrice nilpotente A, c’està-dire qu’il existe un entier k > 1 tel que Ak = 0. a. Rappeler la formule pour la somme des k premiers termes de la suite (r n )n∈N . b. En donnant son inverse, montrer que I −A est inversible ; de la même manière, montrer que I + A est inversible. 1 3 2. Soit A = et soit w l’application de M2 (K) dans M2 (K) défini par 0 1 w : M → MA − AM 1. 2. 3. 4.
Montrer que w est une application linéaire. Déterminer la matrice de w dans la base canonique de M2 (K). L’endomorphisme w est-il injectif ? surjectif ? Déterminer m(w) et Ker(w). Que peut-on dire de w2 et de w3 ?
3.
1. Soit f l’application définie par RN (un )n∈N
→
→
RN (un+1 )n∈N
Ce qui peut encore s’écrire f (u0 , u1 , u2 , u3 , . . .) = (u1 , u2 , u3 , u4 , . . .). a. Montrer que f est linéaire. b. Déterminer Ker(f ). L’application f est-elle injective ? Peut on en déduire si f est surjective ou non ? c. Soit k un entier naturel non nul, donner une base de Ker(f k ). L’espace RN est-il de dimension finie ? d. Montrer que f est surjective. Conclure de cette étude qu’en dimension infinie, il existe des endomorphismes surjectifs non injectifs.
48
EXERCICES
2. Soit g l’application définie par ⎧ RN → ⎨ ⎩ (un )n∈N
→
RN
(vn )n∈N avec ∀n ∈ N∗
v0 vn
= 0 = un−1
Ce qui peut encore s’écrire g(u0 , u1 , u2 , u3 , . . .) = (0, u0 , u1 , u2 , . . .). a. Montrer que g est linéaire, injective et non surjective. b. Que peut-on dire de f ◦ g ? Peut-on dire que f est la fonction réciproque de g ? Conclure de cette étude qu’en dimension infinie, il existe des endomorphismes injectifs non surjectifs. 4. Soit f ∈ L(E) où E est de dimension n 1. On suppose que f est nilpotent, c’est-à-dire qu’il existe un entier k > 1 tel que f k = 0. 1. Montrer que f n’est pas bijective. Peut-on conclure qu’elle est ni injective ni surjective ? p p−1 2. Soit p le plus petit (x0 ) = 0. entier tel que fp−1= 0 et x0 ∈ E tel que f a. Montrer que x0 , f (x0 ), . . . , f (x0 ) est une famille libre de E. b. En déduire que p n. 5. Soit E = Kn [X] l’espace vectoriel des polynôme de degré inférieur ou égal à n (n 4.), a un élément de K et soit f l’application de E dans E définie par f : P → (X − a) P − P (a) − 2 P − P(a) . 1. Montrer que f est un endomorphisme de E. 2. Déterminer le noyau et l’image de f . Le choix d’une base bien adaptée à f rendra l’exercice très simple. 6. Soit E = un espace vectoriel et f un endomorphisme de E tel que f ◦ f = f . Montrer que f est une projection sur mf parallèlement à Ker f . 7.
Oral ESCP
Soit E un espace vectoriel sur R de dimension n 2 et soit u un endomorphisme de E . 1. Dans cette question uniquement on suppose qu’il existe un projecteur p de E tel que p ◦ u − u ◦ p = u. a. Montrer que u ◦ p = 0. b. En déduire que u ◦ u = 0. 2. Dans cette question uniquement on suppose que u ◦ u = 0. a. Montrer que m(u) ⊂ Ker(u). b. Soit H un sous-espace vectoriel de E tel que : m(u) ⊂ H ⊂ Ker(u) et soit S un supplémentaire de H. Soit q la projection sur H parallèlement à S. Calculer q ◦ u − u ◦ q.
49
Chapitre 2 – Applications linéaires
3. Donner une condition nécessaire et suffisante pour qu’il existe un projecteur p de E tel que p ◦ u − u ◦ p = u. Cette condition étant supposée remplie, y-a-t’il toujours unicité du projecteur p ? 4. Soit l’espace vectoriel E = R2et u l’endomorphisme de E dont la matrice dans la base −2 4 canonique est égale à U = . Déterminer un projecteur p de E tel que −1 2 p ◦ u − u ◦ p = u. 8. Soit E un espace vectoriel de dimension n (n 1.) et f un endomorphisme de E. Montrer que l’on a les équivalence suivante mf = Ker f ⇐⇒ f ◦ f = 0 et n = 2 dim(mf ) 9. 1. Soit E, F et G trois espaces vectoriels sur K et f ∈ L(E, F) et g ∈ L(F, G) deux endomorphismes. Montrer que l’on a les équivalences suivantes : a. Ker(g ◦ f ) = Ker(f ) ⇐⇒ Ker g ∩ mf = {0}, b. m(g ◦ f ) = m(g) ⇐⇒ Ker g + mf = F. 2. Soit maintenant E un espace de dimension finie n et f un endomorphisme de E. Ker(f ◦ f ) = Ker f ⇐⇒ m(f ◦ f ) = mf ⇐⇒ Ker f ⊕ mf = E
50
Réduction des endomorphismes et des matrices
3
Dans tout ce chapitre E est un espace vectoriel sur K de dimension finie non nulle n.
1. Changement de base Dans le chapitre précédent, nous avons vu comment, en dimension finie, vecteurs et applications linéaires sont associés à des matrices pourvu que des bases soient choisies et fixées. Nous changeons maintenant de point de vue : dans toute cette section, x est un vecteur fixé une fois pour toutes dans l’espace vectoriel E de dimension finie, u est un endomorphisme de E fixé une fois pour toutes, et nous étudions les effets d’un changement de base. 1.1 Matrices de passage de l’ancienne base une nouvelle base Définition 1 Soient B1 = (e1 , . . . , en ) et B2 = (´1 , . . . , ´n ) deux bases de E. On appelle matrice de passage de B1 à B2 et l’on note PB1 ,B2 la matrice MB1 (´1 , ´2 . . . , ´n ). ➤ Remarques • Le jème vecteur colonne de PB1 ,B2 est donc le vecteur des coordonnées de ´j dans la base B1 . En ce sens on peut dire que la matrice de passage de B1 à B2 est la matrice des coordonnées des vecteurs d’une nouvelle base (B2 ) écrits dans l’ancienne (B1 ) qui est la référence de départ. • Si on note PB1 ,B2 = (pi,j ) 1in , on a alors pour tout j ∈ Ú1, nÛ l’égalité ´j =
n
1 j n
pi,j ei .
i =1
Exemple Soient B1 = (1, X, X 2 , X 3 ) la base canonique de K3 [X] et B2 = (1, (X −1), (X −1)2 , (X −1)3 ) une autre base de cet espace. On sait que 1 X −1 (X − 1)2 (X − 1)3
= = = =
1 −1 + X 1 − 2X + X 2 −1 + 3X − 3X 2 + X 3 .
Chapitre 3 – Réduction des endomorphismes et des matrices
On en déduit que
⎛
PB1 ,B2
1 ⎜ 0 =⎝ 0 0
−1 1 0 0
1 −2 1 0
⎞ −1 3 ⎟ . −3 ⎠ 1
Proposition 1 Soient B1 et B2 deux bases de E, la matrice PB1 ,B2 est inversible et son inverse est PB2 ,B1 . Preuve Notons comme précédemment B1 = (e1 , . . . , en ) et B2 = (´1 , . . . , ´n ) les deux bases de E, notons PB1 ,B2 = (pi,j ) 1in et PB2 ,B1 = (qk,i ) 1kn . 1 j n
1 i n
Par définition des matrices de passage, nous avons pour tout i, j, k dans Ú1, nÛ
´j =
n
pi,j ei
et
ei =
i =1
´j
D’où nous avons
=
n
qk,i ´k .
k=1 n i =1
= = =
pi,j
n
qk,i ´k
k=1
n n (pi,j qk,i )´k i =1 k=1 n n (qk,i pi,j )´k k=1 i =1 n n qk,i pi,j ´k k=1
i =1
Dans la base (´1 , . . . , ´n ), l’écriture unique de ´j est ´j = 0´1 + · · · + 1´j + · · · + 0´n . n qk,i pi,j sont nulles sauf si j = k où elles sont égales à 1. Nous Donc pour tout k et j dans Ú1, nÛ, les sommes i =1
pouvons reconnaître dans ces sommes les coefficients du produit de matrices (PB2 ,B1 )(PB1 ,B2 ) qui est donc égal à la matrice unité In . ❑ Par un calcul similaire, nous obtenons (PB1 ,B2 )(PB2 ,B1 ) = In , ce qui démontre la proposition.
1.2 Les nouvelles et anciennes coordonnées d’un même vecteur Proposition 2 Soit E un espace vectoriel muni d’une base B1 et x un vecteur de E. Soit B2 une nouvelle base de ⎛ E. On ⎛ ⎞ ⎞ note x1 x1 x2 ⎟ ⎜ x2 ⎟ ⎜ ⎜ ⎜ ⎟ X = ⎝ .. ⎠ et X = ⎝ .. ⎟ ⎠ les coordonnées de x dans les bases B1 et B2 respective. .
xn xn ment. Soit P la matrice de passage de B1 à B2 . On a la relation X = PX .
52
Changement de base
➤ Remarque Attention, on retiendra que la matrice de passage P d’une ancienne base vers une nouvelle base a pour vecteurs colonnes les coordonnées des nouveaux vecteurs sur l’ancienne base, c’est logique nous construisons le nouveau sur l’existant. Ceci bien retenu, la matrice P permet de retrouver les anciennes coordonnées en fonction des nouvelles ; pour trouver les nouvelles coordonnées, nous multiplions à gauche par P −1 l’égalité ci-dessus pour obtenir X = P −1 X.
Preuve Il suffit d’écrire la décomposition du vecteur x sur les deux bases. Avec les mêmes notations que précédemment, nous avons n d’une part x = xi ei i =1
d’autre part
x
= =
n j=1 n j=1
=
n i =1
xj ´j xj
n
pi,j ei
⎛ i=1 ⎞ n ⎝ pi,j xj ⎠ ei j=1
L’unicité des coordonnées de x sur la base B1 = (e1 , . . . , en ) nous permet de conclure que pour tout i ∈ Ú1, nÛ n nous avons xi = pi,j xj , c’est-à-dire que X = PX . ❑ j=1
1.3 La nouvelle et l’ancienne matrice d’un endomorphisme
© Dunod – La photocopie non autorisée est un délit
Proposition 3 Soit E un espace vectoriel muni d’une base B1 et u ∈ L(E) un endomorphisme de E. Soit B2 une nouvelle base de E. On note M = MB1 (u) l’ancienne matrice de u relativement à la base B1 et M = MB2 (u) la nouvelle matrice de u relativement à la base B2 . Soit P la matrice de passage de B1 à B2 . On a la relation M = PM P −1 .
➤ Remarque Attention, on retiendra que la matrice de passage P d’une ancienne base vers une nouvelle base a pour vecteurs colonnes les coordonnées des nouveaux vecteurs sur l’ancienne base, c’est logique nous construisons le nouveau sur l’existant. Ceci bien retenu, la relation ci-dessus permet de retrouver l’ancienne matrice de u en fonction de la nouvelle ; pour trouver la nouvelle matrice de u, nous multiplions à gauche par P −1 et à droite par P l’égalité ci-dessus pour obtenir M = P −1 MP.
Preuve Pour tout vecteur x ∈ E, notons y = u(x) son image par l’endomorphisme u ; notons aussi X et Y les matrices colonnes des anciennes coordonnées de x et y et encore X et Y les matrices colonnes de leur nouvelles
53
Chapitre 3 – Réduction des endomorphismes et des matrices
coordonnées. Écrivons de deux façons différentes la matrice Y. d’une part
Y = MX
d’autre part
Y = PY
= P(M X ) = (PM )X = (PM )(P −1 X) = (PM P −1 )X L’unicité de la matrice de u relativement à la base B1 nous donne M = PM P −1 .
❑
1.4 Matrices semblables Définition 2 Deux matrices M et M de Mn (K) sont dites semblables s’il existe une matrice P inversible de Mn (K) telle que M = PM P −1 . ➤ Remarque La définition n’est apparemment pas symétrique en M et M . Cependant, si l’on a M = PM P −1 , alors en multipliant par P −1 à gauche et P à droite, on trouve que PMP −1 = M . En posant Q = P −1 , on a donc M = Q−1 MQ, ce qui prouve que l’ordre est en fait indifférent dans la définition.
Proposition 4 Deux matrices de Mn (K) sont semblables si, et seulement si, elles sont les matrices d’un même endomorphisme. Preuve
D’après la proposition 3, on sait que si M et M sont les matrices d’un même endomorphisme, alors M et M sont des matrices semblables. Réciproquement soient M et M deux matrices de Mn (K) et P une matrice inversible de Mn (K) telles que M = PM P −1 . On note u l’application linéaire canoniquement associée à M qui est un endomorphisme de Kn et B1 la base canonique de Kn . Définissons les n vecteurs (´1 , . . . , ´n ) dont les coordonnées sur la base canonique B1 de Kn sont respectivement les n vecteurs colonnes de la matrice P. La matrice P étant inversible, ses vecteurs colonnes forment une base B2 de Kn et P est la matrice de passage de la base B1 à la base B2 . Nous avons MB1 (u) = M, et d’après la proposition 3, on a MB2 (u) = P −1 MB1 (u)P = P −1 MP = M . Les matrices M et M sont donc les matrices d’un même endomorphisme u.
Signalons enfin la propriété suivante : Proposition 5 Soient A, B deux matrices de Mn (K) et P une matrice inversible de Mn (K) telles que B = P −1 AP, alors ∀k ∈ N, Bk = P −1 Ak P.
54
❑
Valeurs et vecteurs propres d’un endomorphisme
➤ Remarque Il s’agit d’une forme de produit télescopique.
Preuve Prouvons-la par récurrence sur k. Au rang 0, on a bien B0 = In et P −1 A0 P = P −1 In P = P −1 P = In . Supposons que l’on ait Bk = P −1 Ak P, alors Bk+1 = BBk = P −1 APP −1 Ak P = P −1 AAk P = P −1 Ak+1 P, ce qui prouve la propriété au rang k + 1. On en déduit que ∀k ∈ N, Bk = P −1 Ak P.
❑
2. Valeurs et vecteurs propres d’un endomorphisme Maintenant que nous savons comment calculer la matrice d’un endomorphisme u en cas de changement de base, il devient intéressant de rechercher les bases dans lesquelles la matrice de u serait aussi simple que possible. 2.1 Définitions Définition 3 Soit u ∈ L(E) un endomorphisme de E. Un scalaire l ∈ K est une valeur propre de u s’il existe un vecteur x ∈ E non nul tel que u(x) = lx. Un tel vecteur x est alors appelé un vecteur propre de u associé à la valeur propre l. ➤ Remarques • Dans cette définition, la condition x = 0 est essentielle. Si nous n’imposions pas au vecteur propre x d’être non nul, tout réel l conviendrait et nous n’aurions rien défini. • Un vecteur propre x associé à une valeur propre l est un vecteur pour lequel l’endomorphisme u a un comportement extrêmement simple. • L’ensemble des valeurs propres d’un endomorphisme u est appelé le spectre de u et est noté Sp(u).
Proposition 6 © Dunod – La photocopie non autorisée est un délit
Soit u ∈ L(E) un endomorphisme et l une valeur propre de u. L’ensemble El défini par El = {x ∈ E | u(x) = lx} est un sous-espace vectoriel de E. El s’appelle le sous-espace propre de u associé à la valeur propre l ; on a El = Ker(u − l IdE ). ➤ Remarques • En toute rigueur il faudrait noter cet ensemble El (u) puisqu’il dépend aussi de u, mais, s’il n’y a pas d’ambiguïté, on écrira seulement El . • Le scalaire l est valeur propre de u si et seulement si l’ensemble {x ∈ E | u(x) = lx } n’est pas réduit à {0}. Dans ce cas El est l’ensemble des vecteurs propres de u associés à la valeur propre l auquel on ajoute le vecteur nul. • L’espace E étant de dimension finie, le sous-espace El est de dimension finie. Comme il contient au moins un vecteur non nul, sa dimension est au moins égale à 1.
55
Chapitre 3 – Réduction des endomorphismes et des matrices
Preuve Soit l une valeur propre de u. Nous avons pour x ∈ E
x ∈ El
⇐⇒ ⇐⇒ ⇐⇒
u(x) − lx = 0 (u − l IdE )(x) = 0 x ∈ Ker(u − l IdE ).
Nous avons donc El = Ker(u − l IdE ) qui est un espace vectoriel.
❑
➤ Remarque On en déduit que
l est valeur propre de u
⇐⇒
Ker(u − l IdE ) = {0}
⇐⇒
u − l IdE n’est pas injective
⇐⇒
u − l IdE n’est pas bijective.
Proposition 7 Soit u ∈ L(E) un endomorphisme de E. L’endomorphisme u est injectif (et donc bijectif) si, et seulement si, u n’admet pas 0 comme valeur propre. Preuve Il suffit de reprendre la remarque ci-dessus avec 0 substitué à l.
❑
2.2 Vecteurs propres associés à des valeurs propres distinctes Proposition 8 Soient u ∈ L(E) un endomorphisme de E et l1 , l2 , . . . , lk des valeurs propres de u distinctes deux à deux et x1 , x2 , . . . , xk des vecteurs propres associés respectivement associés à l1 , l2 , . . . , lk . La famille (x1 , x2 , . . . , xk ) est une famille libre. Preuve Prouvons-le par récurrence sur k. C’est vrai pour k = 1 puisqu’un vecteur propre n’est pas nul. Supposons la propriété vérifiée au rang k et montrons qu’elle est vraie au rang k + 1. Soit (x1 , x2 , . . . , xk+1 ) des vecteurs propres de u associés à des valeurs propres distinctes l1 , l2 , . . . , lk+1 et considérons une combinaison linéaire nulle de ces vecteurs avec les scalaires a1 , a2 , . . . , ak+1 k+1
ai xi = 0.
L1
i =1
En composant cette égalité par u, on obtient
k+1
ai u(xi ) = 0 soit
i =1 k+1 i =1
56
ai li xi = 0.
L2
Valeurs et vecteurs propres d’un endomorphisme
En effectuant lk+1 L1 − L2 , on trouve
k
ai (lk+1 − li )xi = 0.
i =1
D’après l’hypothèse de récurrence, la famille (x1 , . . . , xk ) est libre. Nous en déduisons que ai (lk+1 − li ) = 0 pour i ∈ Ú1, kÛ. Comme les valeurs propres sont distinctes lk+1 − li = 0 et donc ai = 0 pour i ∈ Ú1, kÛ. Il reste donc finalement ak+1 xk+1 = 0. Puisque xk+1 est un vecteur propre, il est non nul, nous avons donc également ❑ ak+1 = 0. Cela prouve que la famille (x1 , . . . , xk+1 ) est libre. La propriété est donc prouvée par récurrence.
Corollaire 1 Tout endomorphisme d’un espace de dimension n a au plus n valeurs propres.
Proposition 9 Soit u un endomorphisme d’un espace vectoriel E admettant pour valeurs propres l1 , . . . , lk . Soient B1 , . . . , Bk des bases de El1 , . . . , Elk . La famille de vecteurs obtenue en juxtaposant les vecteurs des bases B1 , . . . , Bk est une famille libre de vecteurs de E. Preuve Pour tout i ∈ Ú1, kÛ, notons Bi = (ei1 , ei2 , . . . , eipi ) une base du sous espace propre Eli . Soit F la famille de vecteur obtenue en juxtaposant les vecteurs de ces bases. Considérons une combinaison linéaire nulle des vecteurs de F avec les scalaires (ai,j ) 1ik
1 j p i
pk k
ai,j eij = 0.
i =1 j=1
Pour i ∈ Ú1, kÛ, posons xi =
pi
ai,j eij ; pour chaque valeur propre li , nous regroupons ainsi tous les termes
j=1
© Dunod – La photocopie non autorisée est un délit
associés à cette même valeur propre ; xi est donc un vecteur de Eli . k Nous avons alors xi = 0 avec xi ∈ Eli . Si l’un des vecteurs xi était non nul, on aurait alors une combinaison i =1
linéaire nulle non triviale de vecteurs propres de u associés à des valeurs propres distinctes. C’est impossible puisque ces vecteurs forment une famille libre d’après la proposition précédente. Pour tout i ∈ Ú1, kÛ, on a donc xi = 0 ; comme la famille Bi est une base de Eli , il vient pour tout i ∈ Ú1, kÛ et ❑ tout j ∈ Ú1, pk Û, l’égalité ai,j = 0. Cela prouve que F est une famille libre.
Corollaire 2 Soit u un endomorphisme d’un espace vectoriel E admettant pour valeurs propres l1 , . . . , lk et soit El1 , . . . , Elk les espaces propres associés. On a k dim(Eli ) dim(E). i=1
57
Chapitre 3 – Réduction des endomorphismes et des matrices
Preuve Il suffit de remarquer, avec les notations de la démonstration précédente, que Card(F ) =
k
dim(Eli )
❑
i =1
Théorème 1 Tout endomorphisme d’un espace vectoriel sur l’ensemble des nombres complexes C admet au moins une valeur propre. Preuve Nous admettons ce théorème dont la démonstration est hors programme.
❑
➤ Remarque Un endomorphisme d’un espace vectoriel sur R peut ne pas avoir de valeur propre.
Exemples 1. Considérons deux sous-espaces vectoriels F1 et F2 non réduits à {0} d’un espace vectoriel E de dimension finie tels que E = F1 ⊕ F2 . Nous savons que x ∈ F1 ⇐⇒ p(x) = x, donc 1 est une valeur propre de p et F1 est le sous espace propre associé à la valeur propre 1. Nous avons aussi Ker(p) = F2 non réduit à {0}, 0 est donc une valeur propre de p et F2 est le sous espace propre qui lui est associé. 2. Soit D, l’endomorphisme de Rn [X], qui à tout polynôme P de Rn [X] associe son polynôme dérivé P . Le noyau de D est l’ensemble R0 [X] des polynômes constants, 0 est donc une valeur propre de D et R0 [X] est le sous-espace propre qui lui est associé. Considérons maintenant dans Rn [X] un polynôme P non constant dont le degré est donc supérieur ou égal à 1 et un réel non nul l. on a alors deg(lP) = deg(P) > deg(P ). L’égalité P = D(P) = lP est donc impossible, l’endomorphisme D a donc 0 comme seule valeur propre.
3. Réduction des endomorphismes 3.1 Endomorphismes diagonalisables Définition 4 Un endomorphisme u ∈ L(E) est dit diagonalisable s’il existe une base de E formée de vecteurs propres de u, c’est-à-dire s’il existe une base (e1 , e2 , . . . , en ) de E telle que pour tout i ∈ Ú1, nÛ, ei soit un vecteur propre de u. Exemple Soient E un espace vectoriel de dimension finie non nulle, k un réel fixé et u l’endomorphisme de E défini par u : x → kx. L’endomorphisme u est appelé homothétie de rapport k, tout
58
Réduction des endomorphismes
vecteur non nul est un vecteur propre associé à la valeur propre k, toute base de E est constituée de vecteurs propres et u est diagonalisable. ➤ Remarque Attention, il existe des endomorphisme qui ne sont pas diagonalisables. Par exemple l’endomorphisme D de Kn [X] qui à un polynôme P associe son polynôme dérivé P (dernier exemple ci-dessus) a comme unique valeur propre le réel 0 ; les seuls vecteurs propres de D sont les polynômes constants dont la dérivée est nulle, il n’est pas possible de trouver parmi eux les éléments d’une base de Kn [X] si n est supérieur à 0 et l’endomorphisme D de Kn [X] n’est pas diagonalisable pour n > 0.
Proposition 10 Un endomorphisme u ∈ L(E) est diagonalisable si et seulement s’il existe une base B de E dans laquelle la matrice de u est diagonale. Preuve Supposons que u soit diagonalisable. Il existe une base B = (e1 , . . . , en ) de E formée de vecteurs propres de E. Notons l1 , l2 , . . . , ln les scalaires associés aux vecteurs de la base tels que u(ei ) = li ei pour i ∈ Ú1, nÛ. On a alors ⎞ ⎛ l1 0 ... 0 ⎜ . ⎟ .. ⎜ . ⎟ . . ⎟ l2 ⎜ 0 MB (u) = ⎜ ⎟. ⎟ ⎜ .. .. .. ⎝ . . . 0 ⎠ 0
...
0
ln
Réciproquement, si B = (e1 , . . . , en ) est une base de E telle que la matrice de u dans cette base s’écrive
⎛
l1
⎜ ⎜ ⎜ 0 ⎜ ⎜ .. ⎝ . 0
0
l2 ..
. ...
... .. . .. . 0
⎞ 0 . ⎟ . ⎟ . ⎟ ⎟, ⎟ 0 ⎠
ln
alors pour i ∈ Ú1, nÛ, comme ei appartient à une base ei = 0 et par définition de la matrice d’une application ❑ linéaire u(ei ) = li ei . Autrement dit les vecteurs de la base B sont des vecteurs propres de u.
© Dunod – La photocopie non autorisée est un délit
3.2 Diagonalisation : une condition nécessaire et suffisante Théorème 2 Soit u ∈ L(E) un endomorphisme d’un espace E de dimension n dont les valeurs propres sont l1 , l2 , . . . , lk . On a alors l’équivalence k
dim(Eli ) = n ⇐⇒ u est diagonalisable .
i=1
Preuve =⇒ Supposons que l’on ait
k
dim(Eli ) = dim(E) = n.
i =1
Notons, pour tout i ∈ Ú1, kÛ, Bi une base de Eli ; nous savons que la famille B obtenue en juxtaposant les
59
Chapitre 3 – Réduction des endomorphismes et des matrices
familles B1 , B2 , . . . , Bk est une famille libre de vecteurs de E. Cette famille compte
k
dim(Eli ) vecteurs.
i =1
C’est une famille libre de n vecteurs dans un espace de dimension n, c’est donc une base de E constituée de vecteurs propres de u, u est diagonalisable.
⇐= Réciproquement, supposons que u soit un endomorphisme diagonalisable de E. Soient B une base de vecteurs propres de u et l1 , l2 , . . . , lk les valeurs propres de u. Pour i ∈ Ú1, kÛ, si la famille B contient pi vecteurs de Eli , alors ces pi vecteurs forment une famille libre de Eli ; On en déduit que dim(Eli ) pi . Par suite k
dim(Eli )
i =1
Comme on a également
k
k
pi = Card(B) = dim(E).
i =1
dim(Eli ) dim(E), on en déduit finalement que
i =1 k
dim(Eli ) = dim(E).
i =1
❑
3.3 Diagonalisation : une condition suffisante Théorème 3 Soit u ∈ L(E) un endomorphisme d’un espace E de dimension n. On a alors l’implication l’endomorphisme u possède n valeurs propres distinctes =⇒ u est diagonalisable.
Preuve Soient x1 , x2 , . . . , xn des vecteurs propres de u associés aux n valeurs propres distinctes de u. On sait que la famille (x1 , x2 , . . . , xn ) est une famille libre de E. Cette famille étant une famille libre de n vecteurs dans un ❑ espace de dimension n, c’est une base de E, qui est bien formée de vecteurs propres de u.
➤ Remarque La réciproque de ce théorème n’est pas vraie. Par exemple 1 est la seule valeur propre de IdE , or IdE est diagonalisable. Nous pouvons donc dire qu’avoir n valeurs propres distinctes est une condition suffisante (mais pas nécessaire) pour que u soit diagonalisable.
4. Diagonalisation des matrices carrées 4.1 Valeurs propres et vecteurs propres d’une matrice Définition 5 Soit A ∈ Mn (K). Un scalaire l ∈ K est dit valeur propre de A s’il existe un vecteur colonne X ∈ Mn,1 (K) non nul telle que AX = lX. Un tel vecteur colonne est alors appelé vecteur propre de A associé à la valeur propre l.
60
Diagonalisation des matrices carrées
Exemple
⎞ 3 1 1 Soit A = ⎝ 1 3 1 ⎠. 1 1 3 On a ⎞ ⎞ ⎛ ⎞⎛ ⎛ ⎞⎛ ⎞ ⎛ ⎞ ⎛ 2 1 3 1 1 5 1 3 1 1 ⎝ 1 3 1 ⎠ ⎝ 1 ⎠ = ⎝ 5 ⎠ et ⎝ 1 3 1 ⎠ ⎝ −1 ⎠ = ⎝ −2 ⎠ . 0 0 1 1 3 5 1 1 1 3 ⎛ ⎞ 1 Le vecteur ⎝ 1 ⎠ est un vecteur propre de A associé à la valeur propre 5 et le vecteur 1 ⎞ ⎛ 1 ⎝ −1 ⎠ est un vecteur propre de A associé à la valeur propre 2. 0 ⎛
Proposition 11 Soit A ∈ Mn (K) une matrice carrée et l ∈ K une valeur propre de A. L’ensemble El défini par El = {X ∈ Mn,1 (K) | AX = lX} est un sous-espace vectoriel de Mn,1 (K). El s’appelle le sous-espace propre de A associé à la valeur propre l. ➤ Remarques • En toute rigueur il faudrait noter cet ensemble El (A), puisqu’il dépend aussi de A ; s’il n’y a pas d’ambiguïté, on écrit seulement El . • On remarquera que l’équation AX = lX équivaut (A − lIn )X = 0.
© Dunod – La photocopie non autorisée est un délit
Preuve Soit l une valeur propre de A. L’application u de Mn,1 (K) dans lui-même définie par u : X → (A − lIn )X est un endomorphisme quelque soit le réel l. L’ensemble El est le noyau de l’application linéaire u, c’est donc un sous-espace vectoriel de Mn,1 (K). De plus ❑ El = {0} puis qu’il contient au moins un vecteur colonne non nul. Il est donc au moins de dimension 1.
Exemple
⎛
3 Reprenons la matrice A = ⎝ 1 1 ⎞ ⎛ x avec X = ⎝ y ⎠, on a z
1 3 1
⎞ 1 1 ⎠. Déterminons une base de E2 . Soit X ∈ M3,1 (K) 3
⎞ ⎞⎛ x 3 1 1 X ∈ E2 ⇐⇒ (A − 2I)X = 0 ⇐⇒ ⎝ 1 3 1 ⎠ ⎝ y ⎠ = 0 z 1 1 3 ⎧ ⎨ x+y+z = 0 x + y + z = 0 ⇐⇒ x = −y − z. ⇐⇒ ⎩ x+y+z = 0 ⎛
61
Chapitre 3 – Réduction des endomorphismes et des matrices
On en déduit que E2
⎫ ⎧⎛ ⎞ ⎬ ⎨ −y − z ⎠ | y, z ∈ K ⎝ y = ⎭ ⎩ z ⎫ ⎧ ⎛ ⎞ ⎞ ⎛ −1 −1 ⎬ ⎨ = y ⎝ 1 ⎠ + z ⎝ 0 ⎠ | y, z ∈ K ⎭ ⎩ 1 0 ⎞⎞ ⎞ ⎛ ⎛⎛ −1 −1 = Vect ⎝⎝ 1 ⎠ , ⎝ 0 ⎠⎠ . 1 0
Les deux vecteurs étant non colinéaires, ils forment une base de E2 . Proposition 12 Soit E un espace de dimension n muni d’une base B et u un endomorphisme de E de matrice A ∈ Mn (K) relativement à la base B. 1. Un scalaire l est valeur propre de A si et seulement s’il est valeur propre de u. 2. Un vecteur x ∈ E est vecteur propre de u associé à la valeur propre l si et seulement si le vecteur X des coordonnées de x dans la base B est un vecteur propre de A associé à la valeur propre l. Preuve Soit x ∈ E un vecteur propre de u associé à la valeur propre l. On note X les coordonnées de x dans la base B. Comme u(x) = lx, on a AX = lX et comme x = 0, X = 0. Donc X est un vecteur propre de A associé à la valeur propre l. Réciproquement soit X est un vecteur propre de la matrice A associé à la valeur propre l. Soit x ∈ E le vecteur de coordonnées X dans la base B. Comme X = 0, on a x = 0, et comme AX = lX, on a u(x) = lx. Le vecteur ❑ x est donc un vecteur propre de u associé à la valeur propre l.
➤ Remarque La proposition précédente est notamment très souvent utilisée dans le cas où u est l’endomorphisme de Kn canoniquement associé à A.
Théorème 4 Soit A ∈ Mn (K), un scalaire l est une valeur propre de A si, et seulement si, A − lIn n’est pas inversible. Preuve Soit u l’endomorphisme de Kn canoniquement associé à A, on a alors
l est valeur propre de A
62
⇐⇒
l est valeur propre de u
⇐⇒
(u − l Id) n’est pas bijectif
⇐⇒
(A − lIn ) n’est pas inversible.
❑
Diagonalisation des matrices carrées
➤ Remarque En particulier 0 est valeur propre de A si et seulement si A n’est pas inversible.
Corollaire 3 Les valeurs propres d’une matrice triangulaire sont ses coefficients diagonaux. Preuve Soit A ∈ Mn (K) une matrice triangulaire supérieure, avec
⎛ ⎜ ⎜ ⎜ A=⎜ ⎜ ⎝
On a alors
⎛ ⎜ ⎜ ⎜ A − lIn = ⎜ ⎜ ⎝
a1,1
a1,2
0 . . . 0
a2,2 .. . ...
... .. . .. . 0
a1,1 − l
a1,2
0 . . . 0
a2,2 − l .. . ...
a1,n . . . an−1,n an,n
... .. . .. . 0
⎞ ⎟ ⎟ ⎟ ⎟. ⎟ ⎠
a1,n . . . an−1,n an,n − l
⎞ ⎟ ⎟ ⎟ ⎟. ⎟ ⎠
Cette matrice est non inversible si, et seulement si, l’un de ses coefficients diagonaux est nul, c’est-à-dire si, et seulement s’il existe un entier i ∈ Ú1, nÛ tel que l = ai,i . Les valeurs propres de A sont donc les scalaires a1,1 , a2,2 , . . . , an,n . ❑ La démonstration est analogue pour une matrice triangulaire inférieure.
4.2 Matrice diagonalisable Définition 6
© Dunod – La photocopie non autorisée est un délit
Une matrice A ∈ Mn (K) est dite diagonalisable s’il existe une matrice inversible P ∈ Mn (K) telle que P −1 AP soit une matrice diagonale. ➤ Remarque Autrement dit, une matrice A ∈ Mn (K) est diagonalisable si elle est semblable à une matrice diagonale.
Proposition 13 Soit u ∈ L(E), B1 une base de E et A = MB1 (u). 1. Soit B2 une base de vecteurs propres de u associés aux valeurs propres l1 , . . . , ln . En notant P la matrice de passage de B1 à B2 , on a P −1 AP = Diag(l1 , . . . , ln ). 2. Soit P une matrice inversible de Mn (K) telle que P −1 AP = Diag(l1 , . . . , ln ). On note B2 la base de E telle que P soit la matrice de passage de B1 à B2 . Cette base B2 est une base de vecteurs propres de u associés aux valeurs propres l1 , . . . , ln . En particulier u est diagonalisable si, et seulement si, A est diagonalisable.
63
Chapitre 3 – Réduction des endomorphismes et des matrices
Preuve 1. Soit B2 une telle base. On sait que MB2 (u) = Diag(l1 , . . . , ln ). Mais on sait aussi que si l’on note P la matrice de passage de B1 à B2 , on a MB2 (u) = P −1 AP. D’où le résultat. 2. Soit P une telle matrice et B2 la base de E telle que P soit la matrice de passage de B1 à B2 . On sait alors que MB2 (u) = P −1 AP. On a donc MB2 (u) = Diag(l1 , . . . , ln ), autrement dit B2 est une base de E formée de vecteurs propres de u associés aux valeurs propres l1 , . . . , ln . ❑
4.3 Les matrices symétriques Nous rappelons ces définitions de première année. Définition 7 Soit A = (ai,j ) ∈ Mn,p (K). On appelle transposée de A et on note t A, la matrice B = (bi,j ) ∈ Mp,n (K) définie par bi,j = aj,i pour i ∈ Ú1, pÛ et j ∈ Ú1, nÛ. Exemple t
2 −1
1 0
−5 6
⎛
2 =⎝ 1 −5
⎞ −1 0 ⎠. 6
➤ Remarque Soient A une matrice de Mn,p (K), il est clair que l’on a t ( t A) = A.
Définition 8 On dit qu’une matrice est symétrique si elle est égale à sa transposée. ➤ Remarque Nous pouvons remarquer qu’une matrice symétrique A = (ai,j ) est nécessairement carrée et que par rapport à la diagonale, les coefficients qui se correspondent sont égaux, c’est-à-dire pour tout i et j, ai,j = aj,i .
Conformément au programme, nous admettons le théorème suivant. Théorème 5 Toute matrice symétrique réelle de Mn (R) est diagonalisable.
Nous verrons dans les exercices des exemples d’utilisation de ce théorème qui nous garantit qu’une matrice symétrique réelle est diagonalisable. L’hypothèse matrice réelle est indispensable voici un contre-exemple. Exemple
1 − 2i 2 . Déterminer les valeurs propres de la matrice symétrique A de 2 1 + 2i M2 (C) et une base des sous-espaces propres de A ; la matrice A est-elle diagonalisable ?
Soit A =
Nous avons A − lI2 = 64
1 − 2i − l 2 2 1 + 2i − l
.
Diagonalisation des matrices carrées
Nous voulons déterminer les valeurs de l pour les quelles A − lI2 n’est pas inversible ; pour cela nous cherchons à l’inverser par la méthode du pivot sans pour autant calculer effectivement la matrice inverse. Échangeons les lignes L1 et L2 afin d’utiliser 2 comme pivot. 2 1 + 2i − l L1 ↔ L2 1 − 2i − l 2 2 1 + 2i − l 0 P(l) L2 ← (1 − 2i − l)L1 − 2L2 avec P(l) = (1 − l − 2i)(1 − l + 2i) − 4 = (1 − l)2 2 1 + 2i − l 0 (1 − l)2 La matrice A − lI2 n’est pas inversible si et seulement si l = 1, elle n’a donc qu’une seule valeur propre : 1. Déterminons maintenant une base du sous-espace propre associé à 1. 1 − 2i 2 x x =1 2 1 + 2i y y −2ix + 2y = 0 ⇐⇒ 2x + 2iy = 0 x 1 ⇐⇒ = . y i La matrice A n’a qu’une seule valeur propre à laquelle est associé un espace propre de dimension 1 ; la somme des dimensions des espaces propres est inférieur à 2 ; la matrice A n’est pas diagonalisable.
© Dunod – La photocopie non autorisée est un délit
4.4 La pratique de la diagonalisation des matrices Nous avons par la proposition 13 ci-dessus établi le lien entre la réduction des endomorphismes et celle des matrices carrées ; nous pouvons donc utiliser les théorèmes sur la diagonalisation des endomorphismes pour la diagonalisation des matrices en remarquant que toute matrice A de Mn (K) peut être considérée comme la matrice de l’endomorphisme de Mn,1 (K) qui lui est canoniquement associée. En particulier les théorèmes 2 et 3 (pages 59, 60) nous permettrons de conclure quant à la possibilité de diagonaliser une matrice. Le théorème 5 lorsqu’il s’applique est très efficace. En général, la diagonalisation d’une matrice A de Mn (K) débute par la recherche de ses valeurs propres : on utilise la méthode du pivot de Gauss pour rechercher les valeurs du scalaire l pour lesquelles la matrice A − lIn n’est pas inversible (voir proposition 4 ci-dessus). Pour chaque valeur propre découverte, on recherche une base du sous-espace propre qui lui est associé. 65
Chapitre 3 – Réduction des endomorphismes et des matrices
La juxtaposition des différentes bases ainsi trouvées forment une famille libre de vecteurs (voir le corollaire 2 page 57). Si cette famille contient n vecteurs elle est alors aussi génératrice de Mn,1 (K), elle constitue une base de vecteurs propres de la matrice A qui est alors diagonalisable. La matrice de passage P de la base canonique de Mn,1 (K) à la nouvelle base a pour vecteurs colonnes les vecteurs propres de A. La matrice diagonale P −1 AP a pour termes diagonaux les valeurs propres associées aux différents vecteurs propres dans l’ordre correspondant à celui des vecteurs colonnes de P. ⎞ 5 2 4 Soit A = ⎝ −6 −1 −6 ⎠ . Déterminer les valeurs propres de la matrice A et si possible −3 −2 −2 diagonaliser A, on précisera la matrice de passage et son inverse. Exercice 1. ⎛
Solution. Nous commençons, comme dans la recherche de l’inverse d’une matrice, par trianguler A − lI3 où l est un réel quelconque ; dans ce calcul, nous ne cherchons pas à calculer un inverse mais seulement à déterminer pour quelle valeur de l la matrice A − lI3 n’est pas inversible. Nous avons ⎞ ⎛ 5−l 2 2 −1 − l −6 ⎠ . A − lI3 = ⎝ −6 −3 −2 −2 − l Échangeons en première étape les lignes L1 et L3 afin d’utiliser −3 comme coefficient non nul (plutôt que 5−l qui peut être nul) pour annuler les autres coefficients de la première colonne. ⎞ ⎛ L1 ↔ L3 −3 −2 −2 − l ⎝ −6 −1 − l −6 ⎠ 5−l 2 2 ⎞ ⎛ −3 −2 −2 − l ⎠ L2 ← 2L1 − L2 ⎝ 0 l−3 2 − 2l L3 ← 3L3 + (5 − l)L1 0 2l − 4 l2 − 3l + 2 Attention, si possible, il est recommandé d’éliminer l du coefficient diagonal de la deuxième colonne de façon à pouvoir poursuivre le calcul avec un coefficient diagonal non nul. ⎞ ⎛ −3 −2 −2 − l ⎝ 0 2 l2 + l − 2 ⎠ L2 ← L3 − 2L2 0 2l − 4 l2 − 3l + 2 ⎞ ⎛ −3 −2 −2 − l ⎝ 0 2 l2 + l − 2 ⎠ L3 ← L3 − (l − 2)L2 , 0 0 f (l) avec
66
f (l) = (l2 − 3l + 2) − (l − 2)(l2 + l − 2) = −l3 + 2l2 + l − 2 = (l − 2)(1 − l)(1 + l)
Diagonalisation des matrices carrées
Nous avons factoriser f (l) en notant que 1 et −1 sont des racines évidentes du polynôme f (l). La matrice A − lI3 n’est pas inversible si, et seulement si, f (l) est nul, la matrice A a donc 3 valeurs propres qui sont 2, 1 et −1 ; nous sommes en dimension 3, nous en déduisons que A est diagonalisable (voir théorème 3). ⎛
−3 Posons M(l) = ⎝ 0 0
−2 2 0
⎞ −2 − l ⎠. l2 + l − 2 (l − 2)(1 − l)(1 + l)
⎞ x Soient l un scalaire et un vecteur X ∈ M3,1 (K) avec X = ⎝ y ⎠. On a alors z ⎛
X ∈ El ⇐⇒ (A − lI3 )X = 0 et d’après l’étude des systèmes linéaires, puisque M(l) est déduit de A−lI3 à l’aide d’opérations élémentaires sur les lignes, on sait que ce système équivaut à M(l)X = 0. On en déduit en particulier que ⎞ ⎞⎛ ⎛ x −3 −2 −4 2 4 ⎠⎝ y ⎠ = 0 X ∈ E2 ⇐⇒ M(2)X = 0 ⇐⇒ ⎝ 0 z 0 0 0 ⎧ ⎨ x = 0 −3x − 2y − 4z = 0 y = −2z ⇐⇒ ⇐⇒ 2y + 4z = 0 ⎩ z = z Soit E2 = Vect(0, −2, 1). De même une équation de E1 est
© Dunod – La photocopie non autorisée est un délit
⎧ ⎨ x = −z −3x − 2y − 3z = 0 y = 0 ⇐⇒ 2y = 0 ⎩ z = z
d’où E1 = Vect(−1, 0, 1). Enfin une équation de E−1 est
⎧ ⎨ x = −3x − 2y − z = 0 y = ⇐⇒ 2y − 2z = 0 ⎩ z =
−z z z
d’où E−1 = Vect(−1, 1, 1). La famille B = (0, −2, 1), (−1, 0, 1), (−1, 1, 1) est une famille de trois vecteurs propres associés aux trois valeurs propres distinctes 2, 1 et −1. C’est donc une famille libre de K3 , espace de dimension 3. On en déduit que B est une base de K3 . Soit P la matrice de passage
67
Chapitre 3 – Réduction des endomorphismes et des matrices
de la base canonique à la base B, c’est-à-dire ⎞ ⎛ 0 −1 −1 0 1 ⎠. P = ⎝ −2 1 1 1 Nous avons P −1 AP = Diag(2, 1, −1). ⎛
Le calcul de l’inverse de P nous donne P −1
Exercice ⎛ 2.
4 −3 Soit B = ⎝ 4 −3 −1 1
1 = ⎝ −3 2
⎞ 0 1 −1 −2 ⎠ . 1 2
⎞ −1 −2 ⎠ . Déterminer si la matrice B peut être diagonalisée dans R. 2
Solution. Commençons par chercher les valeurs propres de B en triangulant la matrice B − lI3 (où l ∈ R) ⎞ ⎛ 4−l −3 −1 ⎝ 4 −3 − l −2 ⎠ −1 1 2−l ⎞ ⎛ L1 ↔ L3 −1 1 2−l ⎝ 4 −3 − l −2 ⎠ 4−l −3 −1 ⎞ ⎛ −1 1 2−l ⎠ L2 ← L2 + 4L1 ⎝ 0 1−l 6 − 4l 0 1 − l (4 − l)(2 − l) − 1 L3 ← L3 + (4 − l)L1 ⎞ ⎛ −1 1 2−l ⎠ ⎝ 0 1−l 6 − 4l 2 L3 ← L 3 − L 2 0 0 l − 2l + 1 Les valeurs propres de B sont les solutions des équations 1 − l = 0 et l2 − 2l + 1 = 0. La seule valeur propre est donc 1. Déterminons une base de E1 . Une équation de E1 est −x + y + z = 0 x = y ⇐⇒ 2z = 0 z = 0 On en déduit que E1 = Vect(1, 1, 0). En particulier dim(E1 ) = 1. La somme des dimensions des sous-espaces propres, qui vaut 1, est différente de la dimension de R3 , B n’est pas diagonalisable.
68
Applications de la réduction
Exercice 3.
La matrice B =
1 1
−1 1
est-elle diagonalisable dans R ? dans C ?
Solution. Commençons par chercher les valeurs propres de B en triangulant la matrice B − lI2 1−l −1 1 1−l 1 1−l L1 ↔ L2 1−l −1 1 1−l L2 ← (1 − l)L1 − L2 0 (1 − l)2 + 1 1 − l −1 La matrice est non inversible si et seulement si (1 − l)2 + 1 = 0, soit 1 1−l encore (1 − l − i)(1 − l + i) = 0. Et donc B n’a pas de valeur propre réelle, elle n’est pas diagonalisable dans R. Comme B possède 2 valeurs propres distinctes complexes et que nous sommes en dimension 2, la matrice B est bien diagonalisable sur C.
5. Applications de la réduction
© Dunod – La photocopie non autorisée est un délit
5.1 Calcul de la puissance nème d’une matrice Soit A une matrice de Mn (K) telle que naturel k ⎛ l1 ⎜ ⎜ 0 Ak = P ⎜ . ⎝ .. 0
de Mn (K). Supposons avoir trouvé une matrice inversible P P −1 AP = Diag(l1 , . . . , ln ). Nous avons alors pour tout entier
Exercice 4.
Soit A =
3 −2
−4 1
... 0 . .. . .. l2 .. .. . . 0 . . . 0 ln
0
⎞k
⎛
⎟ ⎜ ⎟ −1 ⎜ ⎟ P =P⎜ ⎠ ⎝
lk1 0 .. . 0
... 0 . .. . .. lk2 .. .. . . 0 . . . 0 lkn
0
⎞ ⎟ ⎟ −1 ⎟P . ⎠
. Déterminer la valeur de An pour n ∈ N.
Solution. Recherchons les valeurs propres de A en triangulant la matrice A − lI2 . 3−l −4 −2 1−l −2 1−l L1 ↔ L2 3−l −4 −2 1−l L2 ← 2L2 + (3 − l)L1 0 l2 − 4l − 5
69
Chapitre 3 – Réduction des endomorphismes et des matrices
3−l −4 La matrice n’est pas inversible si et seulement si l2 − 4l − 5 = 0. Les −2 1−l valeurs propres de A sont les solutions de cette équation du deuxième degré dont le discriminant vaut D = 42 + 4 × 5 = 9. √ √ D’où les valeurs propres sont l1 = 2 + 9 = 5 et l2 = 2 − 9 = −1. Une équation de E5 est x −2x − 4y = 0 = 0 ⇐⇒ ⇐⇒ x = −2y (A − 5I2 ) y −2x − 4y = 0 d’où E5 = Vect(−2, 1). De même une équation de E−1 est x 4x − 4y = = 0 ⇐⇒ (A + I2 ) y −2x + 2y = d’où E−1 = Vect(1, 1).
0 ⇐⇒ x = y 0
5 0 −2 1 −1 . Nous savons alors qu’en posant P = , on a P AP = 0 −1 1 1 1 −1 1 . Le calcul nous donne P −1 = 1 2 3 Nous en déduisons finalement que n 1 −1 1 0 −2 1 5 n A = 1 2 0 (−1)n 1 1 3 n n 1 −2 1 −5 5 = 1 1 (−1)n 2(−1)n 3 1 2 · 5n + (−1)n −2 · 5n + 2(−1)n . = −5n + (−1)n 5n + 2(−1)n 3
5.2 Suites récurrentes linéaires croisées Supposons avoir deux suites (un ) et (vn ) données par leur premier terme u0 , v0 et les relations un+1 = aun + bvn ∀n ∈ N, vn+1 = cun + dvn où a, b, c, d sont des scalaires fixés. a b un et Xn = pour n ∈ N, nous constatons que les En posant A = vn c d deux relations équivalent à la relation matricielle Xn+1 = AXn pour n ∈ N. Nous en déduisons par une récurrence que Xn = An X0 . Il suffit donc de connaître An pour exprimer un et vn en fonction de n, u0 et v0 . On peut d’ailleurs étendre ce raisonnement à un nombre quelconque de suites. 70
Applications de la réduction
Exercice 5.
Soient (un ) et (vn ) deux suites définies par u0 = 0, v0 = 1 et les relations un+1 = −5un + 3vn ∀n ∈ N, vn+1 = −6un + 4vn Déterminer la valeur de un et vn en fonction de n. Solution. Posons A =
−5 −6
3 4
et pour n ∈ N, Xn =
un vn
.
Les relations de récurrence vérifiées par les suites (un ) et (vn ) se traduisent par la relation matricielle Xn+1 = AXn pour n ∈ N. Par une récurrence nous pouvons montrer que pour n ∈ N, on a Xn = An X0 . Déterminons la valeur de An . Commençons par déterminer les valeurs propres de A en triangulant la matrice A − lI2 . −5 − l 3 −6 4−l −6 4−l L1 ↔ L2 −5 − l 3 −6 4−l L2 ← 6L2 − (5 + l)L1 0 l2 + l − 2 La matrice A − lI2 n’est pas inversible si et seulement si l2 + l − 2 = 0. Ce trinôme a pour racines évidentes 1 et −2, ce sont les valeurs propres de A.
© Dunod – La photocopie non autorisée est un délit
Une équation de E1 est
−6x + 3y = −6x + 3y =
0 ⇐⇒ y = 2x 0
d’où E1 = Vect(1, 2). De même une équation de E−2 est −3x + 3y −6x + 6y d’où E−2 = Vect(1, 1).
Nous en déduisons qu’en posant P =
1 2
P −1 AP =
= 0 ⇐⇒ x = y = 0
1 1
, on a 1 0
0 −2
.
71
Chapitre 3 – Réduction des endomorphismes et des matrices
Le calcul nous donne P
−1
An
=
= = = =
−1 1 . Par suite 2 −1 n 1 0 P P −1 0 −2 −1 1 1 1 1 0 2 −1 2 1 0 (−2)n 1 1 −1 1 2 1 2(−2)n −(−2)n −1 + 2(−2)n 1 − (−2)n . −2 + 2(−2)n 2 − (−2)n
Nous en déduisons que pour n ∈ N, on a Xn
= An X0 0 −1 + 2(−2)n 1 − (−2)n = 1 −2 + 2(−2)n 2 − (−2)n n 1 − (−2) . = 2 − (−2)n
Autrement dit pour n ∈ N, on a un = 1 − (−2)n
et
vn = 2 − (−2)n .
5.3 Suite récurrente linéaire Supposons que (un ) soit une suite récurrente linéaire d’ordre 3, telle que pour tout n ∈ N on ait un+3 = aun+2 + bun+1 + cun ⎞ ⎞ ⎛ ⎛ 0 1 0 un Posons A = ⎝ 0 0 1 ⎠ et pour n ∈ N, Xn = ⎝ un+1 ⎠. c b a un+2 Nous vérifions que l’on a pour tout n ∈ N, Xn+1 = AXn . Nous en déduisons par une récurrence que Xn = An X0 . En s’intéressant à la première ligne de cette équation matricielle, nous trouvons une expression de un en fonction de n, u0 , u1 et u2 . Là encore, on étend facilement ce raisonnement à une suite récurrente linéaire d’ordre quelconque. Exercice 6.
Soient (un ) une suite définie par u0 = 0, u1 = 1, u2 = 2 et la relation ∀n ∈ N, un+3 = un+2 + 4un+1 − 4un Déterminer la valeur de un en fonction de n.
72
Applications de la réduction
⎞ ⎛ ⎞ 0 1 0 un Solution. Posons A = ⎝ 0 0 1 ⎠ et pour n ∈ N, Xn = ⎝ un+1 ⎠. −4 4 1 un+2 La relation de récurrence vérifiée par la suite (un ) se traduit par la relation matricielle Xn+1 = AXn pour n ∈ N. Par une récurrence nous pouvons montrer que pour n ∈ N, on a Xn = An X0 . Déterminons la valeur de An . Commençons par déterminer les valeurs propres de A en triangulant la matrice A − lI3 . ⎞ ⎞ ⎛ ⎛ L1 ↔ L 3 −4 4 1−l −l 1 0 ⎝ 0 −l 1 ⎠ 1 ⎠ → ⎝ 0 −l −l 1 0 −4 4 1−l ⎛ ⎞ −4 4 1−l ⎠ −l 1 →⎝ 0 L3 ← 4L3 − lL1 0 4 − 4l l2 − l ⎛ ⎞ −4 4 1−l 4 l2 − l − 4 ⎠ L2 ← L3 − 4L2 →⎝ 0 0 4 − 4l l2 − l ⎞ ⎛ −4 4 1−l → ⎝ 0 4 l2 − l − 4 ⎠ L3 ← L3 + (l − 1)L2 , 0 0 f (l) ⎛
avec
f (l) = = =
l2 − l + (l − 1)(l2 − l − 4) l3 − l2 − 4l + 4 (l − 1)(l − 2)(l + 2)
© Dunod – La photocopie non autorisée est un délit
Nous avons factoriser f (l) au vue des racines évidentes 1, 2, −2. La matrice A − lI3 n’est pas inversible si sont donc 1, 2 et −2. Une équation de E1 est ⎧ ⎨ −x + y −y + z ⎩ −4x + 4y
et seulement si f (l) = 0, les valeurs propres de A
= = =
0 0 ⇐⇒ x = y = z 0
d’où E1 = Vect(1, 1, 1).
Une équation de E2 est ⎧ ⎨
−2x + y = 0 y = −2y + z = 0 ⇐⇒ z = ⎩ −4x + 4y − z = 0
2x 2y
d’où E2 = Vect(1, 2, 4).
73
Chapitre 3 – Réduction des endomorphismes et des matrices
Une équation de E−2 est ⎧ ⎨
2x + y = 0 y = 2y + z = 0 ⇐⇒ z = ⎩ −4x + 4y + 3z = 0
−2x −2y
d’où E−2 = Vect(1, −2, 4). ⎞ 1 1 1 Nous en déduisons qu’en posant P = ⎝ 1 2 −2 ⎠, on a 1 4 4 ⎞ ⎛ 1 0 0 0 ⎠. P −1 AP = ⎝ 0 2 0 0 −2 ⎞ ⎛ 16 0 −4 1 ⎝ −6 3 3 ⎠. Le calcul nous donne P −1 = 12 2 −3 1 ⎛
Par suite An
=
=
=
=
⎞n 1 0 0 0 ⎠ P −1 P⎝ 0 2 0 0 −2 ⎞⎛ ⎞ ⎛ ⎞ ⎛ 1 0 0 1 1 1 16 0 −4 1 ⎝ ⎝ 1 2 −2 ⎠ ⎝ 0 2n −6 3 3 ⎠ 0 ⎠ 12 n 1 4 4 2 −3 1 0 0 (−2) ⎞⎛ ⎞ ⎛ 16 0 −4 1 1 ⎝ 1 1 1 2 −2 ⎠ ⎝ −6 · 2n 3 · 2n 3 · 2n ⎠ 12 1 4 4 2 · (−2)n −3 · (−2)n (−2)n ⎞ ⎛ n n n n n n 16 − 6(2) + 2(−2) 3(2) − 3(−2) −4 + 3(2) + (−2) 1 ⎝ 16 − 12(2)n − 4(−2)n 6(2)n + 6(−2)n −4 + 6(2)n − 2(−2)n ⎠ . 12 n n n n 16 − 24(2) + 8(−2) 12(2) − 12(−2) −4 + 12(2)n + 4(−2)n ⎛
Nous en déduisons que pour n ∈ N, on a Xn
= An X0 ⎛ 1 ⎝ = 12 ⎛ 1 ⎝ = 12
16 − 6(2)n + 2(−2)n 16 − 12(2)n − 4(−2)n 16 − 24(2)n + 8(−2)n
3(2)n − 3(−2)n 6(2)n + 6(−2)n 12(2)n − 12(−2)n ⎞
−8 + 9(2)n − (−2)n −8 + 18(2)n + 2(−2)n ⎠ . −8 + 36(2)n − 4(−2)n
Donc nous avons pour n ∈ N, on a un =
74
⎞⎛ ⎞ 0 −4 + 3(2)n + (−2)n −4 + 6(2)n − 2(−2)n ⎠ ⎝ 1 ⎠ 2 −4 + 12(2)n + 4(−2)n
−8 + 9(2)n − (−2)n · 12
2 4 1. 1. Soit A = . Déterminer les valeurs propres de la matrice A ; est-elle 1 −1 diagonalisable ? Déterminer une base de vecteurs propres de A. 1 1 2. La matrice B = est-elle diagonalisable dans R ? dans C ? 0 1 1 1 3. La matrice C = est-elle diagonalisable dans R ? dans C ? −4 1 4. Soit a ∈ R et
A=
a 1 1 a
.
a. Calculer les valeurs propres de A et déterminer une base de vecteurs propres de A. b. Soit n ∈ N, donner la valeur de An . 2. Pour chacune des matrices suivantes, déterminer leurs valeurs propres des sous-espaces propres. 1 0 1 −1 2 −2 1 −2 0 1 0 −6 7 −5 −2 1 1. 2. 3. 1 1 3 −6 6 −4 −2 −2 3.
4.
Déterminer les éléments propres de la matrice ⎛ 1 1 ... ... ... 1 ⎜ 1 0 ... ... ... 0 ⎜ . . .. ⎜ . . . ⎜ . . ⎜ . . .. ⎜ . . A=⎜ . . (0) . ⎜ . . .. ⎜ . . . ⎜ . . ⎝ 1 0 ... ... ... 0 1 1 ... ... ... 1
1 1 .. . .. . .. . 1 1
et une base 2 2 5
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ∈ Mn (R) ⎟ ⎟ ⎟ ⎟ ⎠
Soit n ∈ N∗ et a ∈ R, déterminer les éléments propres de la matrice ⎞ ⎛ a 1 ... 1 . . .. ⎜ . .. ⎟ ⎟ ⎜ 1 .. A=⎜ . ⎟ ∈ Mn (R) ⎠ ⎝ . ... ... 1 . 1 ... 1 a
5.
Couple de suites récurrentes linéaires 7 2 Soit A = . −4 1 1. Déterminer les valeurs propres de A et une base de vecteurs propres de A. 2. En déduire une expression de An .
75
Chapitre 3 – Réduction des endomorphismes et des matrices
3. Soient (un ), (vn ) deux suites définies par u0 = 1, v0 = 1 et 7un + 2vn un+1 = vn+1 = −4un + vn un . On pose pour n ∈ N, Xn = vn Exprimer Xn+1 en fonction de Xn . 4. En déduire une expression de Xn en fonction de A et de X0 . 5. Exprimer le terme général de un et vn en fonction de n. 6.
Soit
A=
7 −2 2
3 −9 −1 2 −1 −4
.
1. Soit Q(X) = X 3 − 2X 2 − 5X + 6. a. Résoudre dans K l’équation Q(x) = 0. b. Calculer la matrice A3 − 2A2 − 5A + 6I avec I la matrice unité deM3 (K). c. Déduire de ces calculs des réels dont font partie les éventuelles valeurs propres de A. On dit dans cette situation que Q est un polynôme annulateur de A. 2. Déterminer si les réels mis en évidence à la question précédente sont effectivement des valeurs propres de A en recherchant des vecteurs propres associés à ces valeurs. (On prendra, si c’est le cas, des vecteurs propres tels que leurs troisièmes coordonnées soient égales à 1). 3. La matrice A est-elle diagonalisable ? Si oui, donner une matrice P et son inverse P −1 telles que P −1 AP soit diagonale. 7. Soit E un espace vectoriel sur R, rapporté à une base B = (e1 , e2 , e3 ). Pour tout réel a, on considère l’endomorphisme fa de E défini par fa (e2 ) = 0
et
fa (e1 ) = fa (e3 ) = a e1 + e2 − a e3 .
1. a. Déterminer une base de mfa . b. Montrer qu’une base de Kerfa est (e2 , e1 − e3 ). 2. Écrire la matrice A de fa dans B et calculer A2 . En déduire sans calcul fa ◦ fa 3. On pose e1 = fa (e1 ), e2 = e1 − e3 , e3 = e3 . a. Montrer que (e1 , e2 , e3 ) est une base de E. b. Donner la matrice A de fa dans cette base. c. En déduire que 0 est la seule valeur propre de A. A est-elle inversible ? A est-elle diagonalisable ? 4. Pour tout réel x non nul, on pose B(x) = A − xI, I désignant la matrice identité de M3 (R). a. Montrer sans calcul que B(x) est inversible. b. Calculer (A − xI)(A + xI) puis écrire (B(x))−1 en fonction de x, I et A. c. Pour tout n de N, déterminer (B(x))n en fonction de x, n, I et A.
76
EXERCICES
8.
Soient a, b, c trois réels tous non nuls, et M la matrice carrée d’ordre 3 suivante ⎛
1
⎜ ⎜ ⎜ b M =⎜ ⎜ a ⎝ c a
a b 1 c b
a c b c
⎞ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
1
1. a. Montrer M 2 = 3M b. En déduire que l’ensemble des valeurs propres de M est inclus dans {0, 3}. 2. a. Déterminer les valeurs propres de M et, pour chaque valeur propre, une base du sousespaces propre associé. b. La matrice M est-elle diagonalisable ? On note ⎛ ⎞ 1 1 1 ⎜ a b c ⎟ ⎜ ⎟ a a a 3 0 0 ⎜ 1 2 1 ⎟ ⎟ b −b 0 0 0 0 P= D= Q=⎜ ⎜ a −b c ⎟ ⎜ ⎟ c 0 −c 0 0 0 ⎝ 1 1 2 ⎠ − a b c 3. a. Calculer PQ. Montrer que P est inversible. Quel est son inverse ? b. Vérifier : M = PDP −1 4. Déterminer l’ensemble des matrices Y de M3 (R) telles que DY − YD = 3Y 5. Montrer que l’ensemble des matrices X de M3 (R) telles que MX − XM = 3X est un espace vectoriel de dimension 2 sur R. 9.
On considère une matrice carrée d’ordre 3 J=
0 0 0
2 1 −1 2 1 0
et l’endomorphisme f de R3 de matrice J dans la base canonique de R3 . On considère, pour tout nombre réel a, la matrice carrée réelle d’ordre 3 a 2 1 0 a−1 2 . Ma = 0 1 a 1. a. Déterminer les valeurs propres et les sous-espaces propres de f . b. Montrer que J est diagonalisable. Déterminer une matrice réelle diagonale D d’ordre trois et une matrice réelle inversible P d’ordre trois telles que J = PDP −1 c. En déduire que, pour tout nombre réel a, il existe une matrice réelle diagonale Da d’ordre trois, que l’on calculera, telle que Ma = PDa P −1 . d. Quel est l’ensemble des nombres réels a tels que Ma soit inversible ?
77
Chapitre 3 – Réduction des endomorphismes et des matrices
2. On se propose, dans cette question, de déterminer l’ensemble des nombres réels a tels qu’il existe une matrice carrée réelle d’ordre trois vérifiant X 2 = Ma . a. Soient a un nombre réel et X une matrice carrée réelle d’ordre trois tels que X 2 = Ma i. Montrer que X commute avec Ma , puis que X commute avec J. ii. On note h l’endomorphisme de R3 de matrice X dans la base canonique de R3 . Déduire de la question précédente que tout vecteur propre de f est vecteur propre de h. iii. Établir qu’il existe une matrice réelle diagonale D d’ordre trois telle que X = PDP −1 et montrer : D2 = Da . iv. En déduire : a 2. b. Réciproquement, montrer que, pour tout nombre réel a supérieur ou égal à 2, il existe une matrice carrée réelle X d’ordre trois telle que X 2 = Ma . c. Conclure. 10. Polynôme annulateur Soit E un espace vectoriel sur K de dimension finie. 1. Soient u1 , u2 deux endomorphismes de E. Montrer que dim(Ker(u1 ◦ u2 )) dim(Ker(u1 )) + dim(Ker(u2 )). 2. Généraliser le résultat précédent en prouvant que quels que soient les endomorphismes u1 , u2 , . . . , un de E, on a dim(Ker(u1 ◦ u2 ◦ · · · ◦ un ))
n
dim(Ker(uk )).
k=1
3. On suppose dans cette question que K = C et on considère u ∈ L(E) tel que u3 − IdE = 0. Montrer que u est diagonalisable. 4. Plus généralement, soit u ∈ L(E) tel qu’il existe un polynôme à racines simples q q P= ai X i vérifiant ai ui = 0. (On dit dans cette situation que P est un polynôme i=0
i=0
annulateur de u, cette définition est hors programme.) Montrer que u est diagonalisable. 5. Réciproquement, soit u un endomorphisme de E diagonalisable. Montrer que u admet un polynôme annulateur à racines simples. 11. Codiagonalisation Soient u, v deux endomorphismes diagonalisables d’un R-espace vectoriel E. 1. On suppose que uv = vu. a. Montrer que les sous-espaces propres de u sont stables par v. b. En déduire qu’il existe une base B de E dans laquelle la matrice de u et la matrice de v sont diagonales. 2. On suppose maintenant qu’il existe une base B de E dans laquelle la matrice de u et la matrice de v sont diagonales. Montrer que uv = vu.
78
EXERCICES
12. Soit u un endomorphisme d’un espace vectoriel réel E de dimension n. On suppose que u admet n valeurs propres. Montrer que pour tout v ∈ L(E), uv = vu si et seulement si les vecteurs propres de u sont des vecteurs propres de v. 13. Dans ce problème, n désigne un entier naturel non nul et E désigne l’espace vectoriel des polynômes à coefficients réels, de degré inférieur ou égal à 2n. 2n Si a0 , a1 , . . . , a2n sont 2n + 1 réels et Q est le polynôme : Q(x) = ak X k , on définit le polynôme s(Q) par : s(Q)(X) =
2n
k=0
a2n−k X k .
k=0
Autrement dit, s(Q) est le polynôme obtenu à partir de Q en « inversant l’ordre des coefficients ». Par exemple, si n est égal à 2 et si Q(x) = 4X 4 + 7X 3 + 2X 2 + 1, on obtient s(Q)(X) = X 4 + 2X 2 + 7X + 4. 1. Linéarité de s Montrer que l’application s : Q → s(Q) est une application linéaire de E dans lui-même. 2. Diagonalisation dans un cas particulier 0 0 1 0 1 0 . a. On considère la matrice carrée d’ordre 3 : M = 1 0 0 Justifier sans calcul que la matrice M est diagonalisable. Déterminer les valeurs propres de M et, pour chacune d’entre elles, donner une base du sous-espace propre associé. b. Vérifier que, dans le cas particulier n = 1, M est la matrice de l’application linéaire s dans la base (1, X, X 2 ). Donner alors une base de vecteurs propres pour s. 3. Étude du cas général On définit la famille de polynômes (A0 , ...., A2n ) par ⎧ ⎨ Ak (X) = X 2n−k + X k si 0 k n − 1 An (X) = X n ⎩ A (x) = X k − X 2n−k si n + 1 k 2n k a. b. c. d. e.
Déterminer l’endomorphisme s ◦ s. En déduire que les valeurs propres de s appartiennent à {1, −1}. Déterminer s(Ak ) pour tout entier k vérifiant 0 k 2n. Montrer que la famille (A0 , ...., A2n ) est libre. En déduire que l’endomorphisme s est diagonalisable, préciser ses valeurs propres et la dimension de chacun de ses sous-espaces propres.
14. Soit E l’espace vectoriel des fonctions continues sur R, à valeurs réelles. Soit a > 0 un réel donné. A tout f ∈ E on associe la fonction Ta (f ) définie pour tout x réel par Ta (f )(x) =
1 2a
x+a
f (t)dt x−a
1. Montrer que pour tout f ∈ E, Ta (f ) est bien définie et est de classe C 1 sur R.
79
Chapitre 3 – Réduction des endomorphismes et des matrices
2. Montrer que Ta (f ) est constante si et seulement si f est périodique de période T = 2a. 3. Montrer que l’application Ta est un endomorphisme de E. Déterminer son noyau. Ta est-il surjectif ? 4. Soit n 2 un entier naturel et Rn [X] l’espace vectoriel des fonctions polynômes de degré inférieur ou égal à n. Montrer que la restriction de Ta à Rn [X] est un endomorphisme de Rn [X]. On notera encore Ta cette restriction. 5. a. Montrer que la matrice associée à Ta dans la base canonique de Rn [X] est triangulaire supérieure. En déduire les valeurs propres de Ta . Cet endomorphisme est-il diagonalisable ? b. Soit f ∈ Rn [X]. Montrer que si le degré de f est égal à 2, f n’est pas vecteur propre de Ta . c. Montrer que si f est vecteur propre de Ta , sa dérivée f l’est également. En déduire les sous-espaces propres de Ta . 15.
Soit f l’endomorphisme de Rn dont la matrice dans la base canonique est ⎛
1
⎜ A=⎝ 1 4
−12
2
⎞
1
⎟ 1 ⎠.
8
3
1. Déterminer les valeurs propres de f . 2. Montrer que Ker(f − 3 Id)2 et Ker(f + Id) sont supplémentaires. 3. Déterminer une base B de R3 dans laquelle la matrice de f est −1 0 0 0 3 1 . B= 0 0 3 4. Déterminer Bn pour n ∈ N. 5. En déduire la valeur de An . 16. Commutant d’un endomorphisme diagonalisable Soit u un endomorphisme diagonalisable de E, espace vectoriel sur R. On pose
! C(u) = v ∈ L(E) uv = vu Soit v un endomorphisme de E. 1. Montrer que C(u) est un sous-espace vectoriel de L(E). 2. Montrer que si uv = vu, alors v laisse stable les sous-espaces propres de u. 3. Réciproquement, montrer que si v laisse stable les sous-espaces propres de u, alors u et v commutent. 4. En déduire la dimension de C(u) en fonction des dimensions des sous-espaces propres de u.
80
EXERCICES
17. On note M3 (R) l’espace vectoriel réel des matrices carrées d’ordre 3 à coefficients réels. On considère la matrice A définie par 0 −1 −1 1 0 −1 A= 1 1 0 Déterminer la matrice B = A2 + 2I. La matrice B est-elle diagonalisable ? Montrer que B2 = B + 2I. Déterminer les valeurs propres de B. En déduire les sous-espaces propres associés. Vérifier que si l est une valeur propre de A, alors l2 + 2 est une valeur propre de B. En déduire que A n’est pas diagonalisable dans M3 (R). 5. Montrer que B est inversible et exprimer B−1 en fonction des matrices B et I. 6. On s’intéresse maintenant aux puissances de B. a. On pose, pour tout n 2, X n = (X 2 − X − 2)Qn (X) + Rn (X) où Qn et Rn sont deux polynômes tels que deg(Rn ) < 2. On note Rn (X) = an X + bn . Déterminer le couple (an , bn ). b. En déduire l’expression de Bn en fonction de I, B et n, pour n 0. c. Montrer que l’expression de Bn en fonction de I, de B et de n, qui a été obtenue pour n 0, est encore valable pour les entiers négatifs. 1. 2. 3. 4.
18. 1. Soit n 2 un entier naturel et A une matrice carrée d’ordre n sur C telle que, pour tout i ∈ Ú1, . . . , nÛ |ai,i | > |ai,j | j=i
Montrer que la matrice A est inversible (on pourra raisonner par l’absurde et considérer une colonne X non nulle telle que AX = 0). 2. Soit A une matrice carrée d’ordre n quelconque. Soit l une valeur propre de A. Montrer que n " l∈ D(ai,i , |ai,j |) i=1
j=i
où pour a ∈ C, R > 0, D(a, R) = {z ∈ C / |z − a| R}. 3. Soit n 2 et A la matrice ⎞ ⎛ 0 1 0 ... 0 . .. ⎜ . .. ⎟ 1 ⎟ ⎜ 1 0 ⎟ ⎜ .. .. .. A=⎜ . . . 0 ⎟ ⎟ ⎜ 0 ⎟ ⎜ . . ⎠ ⎝ . .. 1 0 1 . 0 ... 0 1 0 a. Montrer que si l est une valeur propre réelle de A, alors |l| 2. On pose alors l = 2 cos(u), u ∈ [0, p]. b. Déterminer les valeurs propres et les vecteurs propres de A.
81
Séries numériques
4
Tout au long de ce chapitre, N désigne l’ensemble des entiers naturels. Le corps des nombres réels est noté R et celui des nombres complexes est noté C. Par ailleurs, K désignera soit R, soit C. Enfin, on dira d’une suite à valeurs dans K qu’elle est une suite numérique.
1. Généralités 1.1 Définitions Définition 1 Soit (an ) une suite à valeurs dans K. La série (numérique) de terme général an , notée # an , est la suite (Sn ), où n ∀n ∈ N Sn = ak . k=0
la ne somme partielle (ou Dans ce contexte, pour tout entier naturel n, on dit que Sn est # la somme partielle d’indice n, ou encore d’ordre n) de la série an . ➤ Remarques • Ainsi, une série n’est autre qu’une suite dont le terme général est la somme des premiers termes d’une autre suite. • Toute suite numérique peut être interprétée comme une série. En effet, si (an ) est une suite numérique, en notant pour tout entier naturel n an − an−1 , si n > 0 ; bn = si n = 0, a0 , on a n n ∀n ∈ N an = a0 + ak − ak−1 = bk . k=1
k=0
En d’autres termes, la suite (an ) est la série de terme général bn .
• On peut définir des séries à valeurs dans un ensemble E, dès lors que celui-ci est muni d’une « addition ». On an . peut en particulier, lorsque (an ) est une suite à valeurs dans un K-espace vectoriel, introduire la série • Il⎛arrive qu’une suite (an ) ne soit définie qu’à partir d’un rang n0 . La série de terme général an est alors ⎞ n ⎝ ak ⎠ . k=n0
nn0
Généralités
Définition 2
# an est convergente (ou qu’elle Soit (an ) une suite numérique. On dit que la série converge) lorsque la suite (Sn ) des sommes partielles est convergente ; on dira qu’elle est divergente (ou qu’elle diverge) sinon. # Lorsque la série de terme général an est convergente, on appelle somme de la série an +∞ la limite des sommes partielles. On note ak la somme, c’est-à-dire k=0 +∞ k=0
ak = lim
n→+∞
n
ak .
k=0
Étudier la nature d’une série c’est déterminer si elle converge ou non. Exemples
1 est convergente. En effet, pour tout entier naturel n 2n+1 n 1 1 = 1 − n+1 · Sn = k+1 2 2 k=0 1 étant convergente, de limite nulle, la suite (Sn ) est converLa suite géométrique 2n+1 gente, et +∞ 1 = 1. k+1 2 k=0 # 2. La série 1 est divergente. En effet, pour tout entier naturel n, Sn = n + 1.
1. La série
➤ Remarques
• Il est important de remarquer que la notation an désigne une suite (celle des sommes partielles) et que la + ∞ ak désigne une limite, la somme de la série. notation © Dunod – La photocopie non autorisée est un délit
k=0
• Puisque
+∞
ak désigne une limite, il est impératif de justifier la convergence de la série pour pouvoir utiliser et
k=0
manipuler cette notation.
Proposition 1 Soit (an ) et (bn ) deux suites numériques qui différent d’un nombre fini de termes, i.e. telles que an = bn sauf#pour un #nombre fini de valeurs. Alors les séries an et bn sont de même nature, c’est-à-dire que l’une est convergente si, et seulement si, l’autre l’est. En revanche, dans le cas où l’une est convergente, leur somme sont a priori différentes. Preuve Immédiate.
❑
83
Chapitre 4 – Séries numériques
Définition 3 # Soit an une série convergente. Pour tout entier naturel n, le reste d’ordre n est +∞
Rn =
ak .
k=n+1
➤ Remarque Il est clair que le reste d’ordre n d’une série convergente est bien défini.
Proposition 2 # Soit an une série convergente de somme S. On note, pour tout entier naturel n, Sn et Rn respectivement la somme partielle et le reste d’ordre n. Alors • pour tout entier naturel n, S = Sn + Rn ; • de plus lim Rn = 0. n→+∞
Preuve
❑
Immédiate.
1.2 Premières propriétés Le résultat suivant, bien que très simple, donne une très importante condition nécessaire de convergence. Théorème 1 Soit (an ) une suite numérique. Si la série Attention ! la réciproque est fausse.
#
an est convergente, alors lim an = 0. n→+∞
Preuve Puisque la suite des sommes partielles (Sn ) est convergente, de limite S, lim Sn − Sn−1 = S − S = 0 =
n→ + ∞
➤ Remarque Lorsque la suite (an ) ne tend pas vers zéro, on dit que la série
lim an .
n→ + ∞
❑
an est grossièrement divergente.
Il est bon de connaître l’exemple suivant, bien qu’il soit hors programme. Il montre en particulier que la réciproque du théorème précédent est fausse. Exemple Série harmonique 1 La série est divergente. n
84
Généralités
Première démonstration On raisonne par l’absurde. Notons pour tout entier naturel n non nul, Sn =
n 1 k=1
n ∈ N∗ , on a S2n − Sn =
k
· Pour tout
2n 2n 1 1 1 = · k 2n 2 k=n+1 k=n+1
Si la série harmonique converge, de somme S, on aurait, par passage à la limite dans les inégalités, 1 lim S2n − Sn = S − S = 0 , n→+∞ 2 ce qui est absurde. Seconde démonstration On sait que pour tout réel x > −1, ln (1 + x) x. Ainsi, pour tout entier naturel non nul 1 1 · ln (n + 1) − ln n = ln 1 + n n Il s’ensuit que pour tout entier naturel non nul n, ln (n + 1) =
n k=1
Ainsi, lim
n→+∞
n 1 k=1
k
= +∞ et la série
n 1 · ln (k + 1) − ln k k k=1
#1 est divergente. n
Proposition 3 # ak soit convergente est L’ensemble E des suites (an ) à valeurs dans K telles que la série un K-espace vectoriel pour les lois usuelles. De plus, pour toutes les suites (an ) et (bn ) éléments de E et pour tout scalaire l © Dunod – La photocopie non autorisée est un délit
+∞
(an + bn ) =
n=0 +∞
i.e. l’application (an ) →
+∞
(lan ) =
n=0
+∞
an +
n=0 +∞
l
+∞
bn ,
(1)
n=0
an ;
(2)
n=0
ak , définie sur E, est linéaire.
k=0
Preuve
Montrons que E est sous-espace vectoriel de KN . Il est clair que la série de terme général nul est convergente et donc la suite nulle est un élément de E. Soit (an ) et (bn ) deux éléments de E et l ∈ K. Alors pour tout entier naturel n n n n (i) ak + l bk . (ak + lbk ) = k=0
k=0
k=0
85
Chapitre 4 – Séries numériques
Par linéarité dela convergence, le terme de droite dans l’égalité précédente ayant une limite, la suite
n (ak + lbk ) est convergente ; ainsi l’ensemble E est stable par combinaisons linéaires. Les relations (1) et k=0
❑
(2) sont obtenues par passage à la limite dans (i).
➤ Remarque Attention ! L’égalité
+∞
+∞
(an + bn ) =
n=0
an +
n=0
+∞
bn
n=0
n’est licite que lorsqu’on sait qu’au moins deux des trois séries sont convergentes. On ne peut pas « séparer » des +∞ +∞ +∞ sommes de séries sans précaution : l’écriture 0 = 1− 1 est évidemment une ineptie. (1 − 1) = n=0
n=0
n=0
Proposition 4 Soit (an ) une suite positive. # • Si la série an est convergente, alors +∞
ak 0.
k=0
• Si de plus la suite (ak ) n’est pas identiquement nulle, alors +∞
ak > 0.
k=0
Preuve
❑
Immédiate.
Exercice 1. Série harmonique alternée
• Montrer que pour tout entier naturel non nul n ln 2 =
n (−1)k−1
k
k=1
• En déduire que
1
+ (−1)n 0
+∞ (−1)k+1 k=1
k
tn dt. 1+t
= ln 2.
Solution. • Pour tout entier naturel non nul n et pour tout t ∈ [0, 1], la formule exprimant la somme des n − 1 premiers termes d’une suite géométrique donne n
(remarquer que −t = 1).
86
k=1
(−t)k−1 =
1 − (−t)n 1+t
Généralités
En intégrant, on obtient n (−1)k−1 k=1
k
=
n k=1
1
1
(−1)k−1 tk−1 dt = 0
0
1 − (−t)n dt = ln 2 − (−1)n 1+t
1 0
tn dt. 1+t
La relation demandée en découle. 1
• Il suffit de démontrer que lim
n→+∞
0
tn 1 dt = 0. Or, pour tout t ∈ [0, 1], 0 1 1+t 1+t
et donc par monotonie de l’intégrale 1
0 0
tn dt 1+t
1
tn dt = 0
1 · n+1
On conclut alors facilement.
L’exercice suivant généralise partiellement le résultat de l’exercice précédent. Exercice 2. Séries alternées
Soit (an ) une suite réelle, décroissante et de limite nulle. On note, pour tout entier naturel n, n Sn = (−1)k ak . k=0
1. Montrer que les suites (S2n ) et (S2n+1 ) sont adjacentes. # 2. Montrer que la série (−1)k ak est convergente. On note S la somme de cette série. 3. Montrer que pour tout entier naturel n k (−1) ak − S an+1 . k=0
© Dunod – La photocopie non autorisée est un délit
Solution. 1. Soit n un entier naturel. Alors S2n+2 − S2n = a2n+2 − a2n+1 S2n+3 − S2n+1 = a2n+2 − a2n+3
0; 0.
Il s’ensuit que la suite (S2n ) est décroissante et que la suite (S2n+1 ) est croissante. Puisque la suite (an ) tend vers zéro, lim S2n − S2n+1 = lim a2n+1 = 0.
n→+∞
n→+∞
Le résultat en résulte. 2. Puisque les sous-suites (S2n ) et (S2n+1 )# sont convergentes et qu’elles ont même limite, la suite (Sn ) est convergente, i.e. la série (−1)k ak est convergente. 3. De ce qui précède et du théorème des suites adjacentes on obtient que pour tous les entiers naturels p et q S2p+1 S S2q .
87
Chapitre 4 – Séries numériques
En particulier, pour tout entier naturel n −a2n+1 S − S2n 0 (en posant p = q = n ) et
0 S − S2n+1 a2n+2
(en posant p = n et q = n + 1). Le résultat s’en déduit.
1.3 Des séries de référence Séries géométriques Définition 4 Une série géométrique est une série
#
an , où (an ) est une suite géométrique.
Théorème 2 (Séries géométriques) Soit q un#nombre complexe. La série qn est convergente si, et seulement si, |q| < 1. Lorsque |q| < 1, +∞ 1 · qk = 1 − q k=0
Preuve On sait que la suite géométrique (qn ) converge vers zéro si, et seulement si, |q| < 1. n q est que Ainsi, d’après le théorème 1 page 84, une condition nécessaire de convergence de la série n |q | < 1. Si |qn | < 1, du fait que pour tout entier naturel n, n
qk =
k=0
il vient que lim
n→ + ∞
n k=0
1 − qn+1 1−q
qk =
,
1 1−q
,
❑
ce qui établit le résultat recherché.
Séries télescopiques Définition 5 Une série télescopique est une série de la forme complexe.
88
#
(an+1 − an ), où (an ) est une suite
Généralités
Théorème 3 (Séries télescopiques) Soit (an ) une suite complexe. # (an+1 − an ) est convergente si, et seulement si, la suite (an ) est La série télescopique convergente. Preuve Il suffit de remarquer que pour tout entier naturel n, n
(ak+1 − ak ) = an+1 − a0 .
❑
k=0
1.4 Un exemple : développement décimal d’un réel positif Le lecteur manipule — plus ou moins consciemment — les séries depuis longtemps. La représentation d’un réel par une écriture décimale signifie que ce réel est la somme d’une série d’un certain type. Précisons cela. Soit x un réel positif. On rappelle que pour tout entier naturel n, xn = 10−n 10n x est l’approximation décimale de x à 10−n près par défaut. On a vu en première année que lim xn = x. Il s’ensuit que n→+∞ +∞ +∞ 10k x 10k−1 x ak x = x + − , = x + k k − 1 10 10 10k k=1 k=1 où, pour tout entier naturel non nul k, ak = 10k x − 1010k−1 x. Par définition de la partie entière, on a pour tout entier naturel non nul k 10k−1 x 10k−1 x < 10k−1 x + 1,
soit
© Dunod – La photocopie non autorisée est un délit
et donc,
1010k−1 x 10k x < 1010k−1 x + 10, 1010k−1 x 10k x 1010k−1 x + 9.
Il s’ensuit que ak est un élément de Ú0, 9Û. Supposons que la suite (ak )k1 soit constante, égale à 9, à partir d’un certain rang. On introduit alors un indice k tel que ai = 9 pour tout i supérieur ou égal à k. D’après l’expression de la somme d’une série géométrique k−1 +∞ k−1 ai 1 ai 1 x = x + +9 = x + + k−1 · i i i 10 10 10 10 i=1 i=1 i=k
Mais alors
% $ % $ ak = 10k x − 10 10k−1 x = 0,
contredisant la définition de l’indice k. 89
Chapitre 4 – Séries numériques
En résumé Proposition 5 Pour tout réel positif x, il existe une unique suite (an ) vérifiant (1) a0 est un entier naturel ; (2) pour tout entier n 1, an ∈ Ú0, 9Û ; +∞ ak (3) x = ; 10k k=0 (4) la suite (an ) n’est pas constante égale à 9 à partir d’un certain rang.
Preuve Seule l’unicité est à démontrer. Soit donc un réel positif x et une suite (bn ) vérifiant les quatre propriétés. Alors pour tout entier naturel n, +∞
n bk+n bk 10n−k + · 10n x = 10k k=0 k=1 Puisque la suite (bk+n )k1 n’est pas constante égale à 9, d’après la proposition 4 page 86, on a +∞ +∞ bk+n 9 < = 1, k k 10 10 k=1 k=1
et donc
10n x =
n
bk 10n−k .
k=0
Il s’ensuit que, pour tout entier naturel non nul n an = 10n x − 1010n−1 x =
n
bk 10n−k −
k=0
et on vérifie de même que a0 = b0 , ce qui garantit l’unicité.
n−1
bk 10n−k = bn ,
k=0
❑
Avec les notations de la proposition précédente, toute suite (an ) vérifiant les propriétés de (1) à (3) est un développement décimal de x et l’unique suite (an ) vérifiant les propriétés de (1) à (4) est le développement décimal propre de x. On note x = a0 , a1 a2 . . . . Certains réels ont deux développements décimaux. À titre +∞ 9 , c’est-à-dire 1, 000 . . . = 0, 999 . . . . Un développement d’exemple, 1 = 10k k=1 décimal constant égal à 9 à partir d’un certain rang est dit être un développement impropre.
90
Séries à terme général positif
2. Séries à terme général positif 2.1 Le théorème de comparaison On dispose pour les séries à terme général positif d’un certain nombre de résultats à la fois extrêmement importants et faciles d’utilisation. Il est clair qu’en passant à l’opposé, on peut utiliser, par linéarité, les résultats qui suivent pour étudier les séries à terme général négatif. Remarquons que si la suite réelle (an ) est positive à partir d’un certain rang, alors la suite (Sn ) des sommes partielles est croissante à partir d’un certain rang ; on peut donc appliquer le théorème des suites monotones à la suite (Sn ), qui peut ici s’énoncer de la manière suivante. Proposition 6 Soit (an ) une suite réelle, positive à partir d’un certain rang. La série n ak est majorée. et seulement si, la suite
an est convergente si,
k=0
Exemple Soit (an ) une suite vérifiant les propriétés (1) , (2) et (4) de la proposition 5 page 90. Alors la suite (an ) est effectivement akle développement décimal d’un réel positif. Pour le voir il suffit de montrer que la série est convergente. Or pour tout entier naturel non nul n, 10k Sn =
n n ak 9 1 a + = a0 + 1 − n a0 + 1, 0 k k 10 10 10 k=0 k=1
© Dunod – La photocopie non autorisée est un délit
et donc d’après la proposition précédente, la série
ak est convergente. 10k
Sans doute, le principal résultat de ce chapitre est le théorème suivant (et ses corollaires). Théorème 4 (Théorème de comparaison) Soit (an ) et (bn ) deux suites réelles, positives à partir d’un certain rang. On suppose qu’il existe un entier n0 tel que pour tout entier n supérieur à n0 an bn . Alors
&
si la série si la série
bn est convergente,
alors la série
an est divergente,
alors la série
an est convergente ; bn est divergente.
91
Chapitre 4 – Séries numériques
Preuve Il suffit de démontrer la première assertion, la seconde n’étant autre que la contraposée de la première. bn est convergente. Puisque les premiers termes n’interviennent pas dans la Supposons donc que la série nature d’une série, on peut supposer sans perte de généralité que an bn , pour tout entier n. n n Notons alors, pour tout entier naturel n, Sn = ak et Sn = bk . Il est immédiat que Sn Sn . La suite (Sn ) k=0
k=0
étant convergente, elle est majorée et donc la suite (Sn ) est majorée ; d’après la proposition précédente, la série an est convergente. ❑
➤ Remarque Le lecteur est prié d’énoncer un résultat analogue pour les suites négatives.
Il est alors clair qu’il est plus qu’utile de connaître la nature de quelques séries, pour pouvoir utiliser ce dernier théorème. Les séries de références — dont la nature et leur somme éventuelle sont à connaître par cœur — sont les séries géométriques (cf. page 88) ; les séries « dérivées » des séries géométriques (cf. infra page 106) ; les séries télescopiques (cf. page 88) ; les séries exponentielles (cf. infra page 103). Corollaire 1 Soit (an ) et (bn ) deux suites réelles, positives à partir d’un certain rang. On suppose que an = o (bn ). Alors & si la série bn est convergente, alors la série a est convergente ; n alors la série bn est divergente. si la série an est divergente,
Preuve Rappelons que pour tout ´ strictement positif, il existe un rang n0 tel que pour tout entier n supérieur à n0 on ait an ´bn . En choisissant ´ = 1, on conclut immédiatement en appliquant le théorème de comparaison. ❑
Règle des équivalents Soit (an ) et (bn ) deux suites réelles, telles que an soit positifs à partir d’un certain rang, et que
Alors les séries
#
an et
#
a n ∼ bn . bn sont de même nature.
Preuve
Il s’agit de montrer que la série an converge si, et seulement si, la série bn converge. Remarquons d’abord que les hypothèses an ∼ bn et la suite (an ) est positive à partir d’un certain rang impliquent que la suite (bn ) est également positive à partir d’un certain rang.
an converge Par définition, |an − bn | = o (an ) et donc d’après le corollaire précédent, la série |bn − an | est convergente.
La série
92
Séries à terme général positif
Par ailleurs, pour tout entier naturel n 0 bn = (bn − an ) + an |bn − an | + an . Par linéarité, la série est convergente.
|bn − an | + an est convergente et d’après le théorème de comparaison, la série bn
bn converge En échangeant le rôle des suites (an ) et (bn ) dans la démonstration ci-dessus, on obtient que la série an est ❑ convergente.
La série
L’exemple suivant, bien que hors-programme, est à connaître. Exemple 1 La série est convergente. n2 # # 1 1 1 − = En effet la série télescopique est évidemment convergente. n n+1 n (n + 1) # 1 1 1 ∼ 2 et que les deux séries sont à terme général positif, la série est Puisque n(n + 1) n n2 +∞ 1 p2 · convergente. Nous verrons en exercice (exercice 13. page 117) que = 2 k 6 k=1
Nous l’avons déjà signalé, le théorème de comparaison est extrêmement pratique ; voici d’autres exemples d’utilisation de celui-ci. Exemples
© Dunod – La photocopie non autorisée est un délit
1.
2.
3.
4.
1 est convergente. La série sin 2n 1 1 1 En effet lim n = 0 et donc sin ∼ n · Puisque les séries sont à terme général n n→+∞ 2 2 2 1 # 1 est convergente, la série sin n converge positif et que la série géométrique n 2 2 d’après la règle des équivalents. # 1 est divergente. La série ln 1 + n 1 1 1 En effet lim = 0 et donc ln 1 + ∼ · Puisque les séries sont à terme général n→+∞ n n n # 1 positif et que la série harmonique est divergente, la série ln 1 + diverge d’après la n règle des équivalents. # n2 Pour tout q ∈ [0, 1[, la série q est convergente. 2 En effet, pour tout entier naturel n, n n2 , et donc qn qn . Puisque la série géométrique # n q est convergente, le théorème de comparaison permet de conclure. √an # Si (an ) est une suite positive telle que la série an soit convergente, alors la série n est convergente. #
93
Chapitre 4 – Séries numériques
a 2 + b2 , on a pour tout entier naturel non nul En effet, en utilisant l’inégalité ab 2 √ an 1 1 an + 2 · n 2 n On conclut en utilisant le théorème de comparaison et en remarquant que par linéarité la 1 an + 2 est convergente. série n # 1 5. Pour tout réel a strictement supérieur à 0, la série est convergente. n1+a En effet, le développement limité à l’ordre 1 de la fonction x → (1 + x)−a donne −a 1 a 1 1 1 1 = 1+a + o a+1 − = a 1− 1+ na (n + 1)a n n n n et donc
1 na+1
1 ∼ a
1 1 − na (n + 1)a
·
Onconclut avec la règle des équivalents en remarquant que la série télescopique # 1 1 est convergente. Nous redémontrerons ce résultat en exercice plus − na (n + 1)a bas (cf. page 96).
2.2 Plan d’étude d’une série à terme général positif
# Pour déterminer la nature d’une série à terme général positif an , on peut • expliciter les sommes partielles Sn et calculer la limite ; cette méthode n’est que très rarement utilisée en pratique ; • majorer (indépendamment de n) les sommes partielles ; • utiliser le théorème de comparaison et ses avatars. On pourra également utiliser les deux résultats suivants, qu’il faut savoir redémontrer au cas par cas, puisqu’ils ne sont pas au programme officiel. Proposition 7 (Sommation par paquets) Soit w : N → N une application et (an ) une suite positive. ⎛ strictement croissante ⎞ w(n) ⎝ ak ⎠ sont de même nature (avec la convention Alors les séries an et k=w(n−1)+1
w(−1) = −1). Preuve Notons, pour tout entier naturel n, Sn =
n
ak . La suite Sw(n) est extraite de la suite (Sn ) ; cette dernière ayant
k=0
une limite dans R, les deux suites limite dans R. Or, pour tout entier naturel n, Sw(n) est la n-ième ⎛ ont la même ⎞ somme partielle de la série
⎝
w(n)
k=w(n−1)−1
94
ak ⎠, ce qui permet de conclure.
❑
Séries à terme général positif
➤ Remarque On ne peut pas étendre ce résultat aux suites de signe quelconque. En effet en notant an = (−1)n , la série
2n+1 est évidemment divergente alors que la série ak est convergente.
an
k=2n
Exemples
# # (a2n + a2n+1 ) sont de même nature. an et 1. Soit (an ) une suite positive. Alors les séries Dans le cas de convergence, puisque pour tout entier naturel n, a2n (a2n + a2n+1 ) et # # a2n+1 (a2n + a2n+1 ), les deux séries a2n et a2n+1 sont convergentes, et +∞
ak =
k=0
+∞
a2k +
k=0
+∞
a2k+1 .
k=0
Cette dernière formule parait évidente ; cependant on peut avoir une série convergente +∞ +∞ +∞ # ak = a2k + a2k+1 comme le montre an sans avoir la possibilité d’écrire k=0
k=0
k=0
l’exemple de la série harmonique alternée. # 1 2. On a vu en exemple page 94 que la série est convergente pour tout réel a > 1. On na +∞ 1 · Avec ce qui précède, on peut écrire note traditionnellement z (a) = ka k=1 z (a) =
+∞ k=1
soit
1 1 1 1 + , a = a z (a) + a a (2k + 1) (2k + 1)a 2 k 2 k=0 k=0 +∞
+∞
© Dunod – La photocopie non autorisée est un délit
k=0
1 = (2k + 1)a
+∞
1 1 − a z (a) . 2
La proposition suivante permet d’obtenir un encadrement, souvent pertinent, des sommes partielles ou des restes d’un certain type de séries que l’on rencontre fréquemment. Proposition 8 (Comparaison avec une intégrale) Soit a un réel positif et f : [a, +∞[ → R une fonction continue par morceaux, décroissante. Alors pour tout entier n tel que n a + 1 n+1
n
f (t) dt f (n) n
f (t) dt. n−1
95
Chapitre 4 – Séries numériques
Preuve Pour tout t n, on a f (t) f (n). Par monotonie de l’intégrale,
n+1
n+1
f (t) dt
f (n) dt = f(n).
n
n
De même, pour tout t n, on a f (t) f (n) et
n n− 1
f (t) dt
n
f (n) dt = f(n).
❑
n−1
➤ Remarques • Le résultat précédent s’interprète facilement en termes d’aires.
y
f (n) n−1
n
n+1
x
Figure 4.1 Comparaison série/intégrale • Le lecteur énoncera un résultat similaire pour les fonctions croissantes. • Sous les mêmes hypothèses, en sommant les encadrements précédents, la relation de Chasles donne pour tous les entiers p et q vérifiant a + 1 p q
q+1
f (t) dt
p
q
f (k)
k=p
q
f(t) dt . p−1
• On fera le lien entre séries convergentes et intégrales convergentes (Voir le chapitre 6). • L’intérêt de ce dernier résultat vient de ce qu’il est en général difficile d’expliciter simplement les sommes partielles, alors qu’on sait plus souvent — mais pas toujours — calculer des primitives.
Exercice 3. Séries de Riemann
Soit a un réel. 1 Montrer, en comparant avec des intégrales, que la série est convergente si, et seulement na si, a > 1. 1 Solution. Pour tout a > 0, la fonction t → a est continue, décroissante sur [1, +∞[. Donc, t pour tout entier naturel n, n 2 n+1 2
96
1 dt a t ka k=2 n
n 1
dt · ta
Séries à terme général positif
Ainsi, pour a ∈ ]1, +∞[ et n entier supérieur ou égal à 2 n 1 1 1 1 1 − a−1 , a k a − 1 n a − 1 k=2 1 et d’après la proposition 6, la série à terme général positif converge. na Lorsque a = 1, on a pour tout entier n supérieur ou égal à 2 ln (n + 1) − ln 2
n 1 k=2
k
,
et en faisant tendre n vers +∞, par passage à la limite dans les inégalités, on retrouve la divergence de la série harmonique. 1 1 = o a et donc, d’après un des corollaires du théorème de Lorsque a < 1, on a n n 1 comparaison, la série est divergente. na Exercice 4. +∞ 1 1. Donner, pour a > 1, un équivalent simple de Rn = · ka k=n+1 2. Donner, pour a < 1, un équivalent simple de Sn = Solution. 1. Pour tout entier k supérieur ou égal à 2, on a k+1 k
© Dunod – La photocopie non autorisée est un délit
soit
1 a−1
1 ka−1
1 − (k + 1)a−1
dt 1 a ta k
n 1 · a k k=1
k k−1
dt , ta
1 1 a k a−1
1 1 − a−1 (k − 1)a−1 k
.
En sommant, les trois séries étant convergentes, on obtient pour tout entier naturel n supérieur ou égal à 1 +∞ 1 1 1 1 1 , a − 1 (n + 1)a−1 k=n+1 ka a − 1 na−1
soit encore
n a−1 (a − 1) na−1 Rn 1. n+1 Le théorème des gendarmes donne alors lim (a − 1) na−1 Rn = 1, c’est-à-dire n→+∞
Rn ∼
1 1 · a − 1 na−1
97
Chapitre 4 – Séries numériques
2. De même, pour tout entier n supérieur ou égal à 1, lorsque a ∈ [0, 1[, 1 1−a 1 (n + 1)1−a − 21−a Sn 1 + n −1 1+ 1−a 1−a 1 et lorsque a < 0, du fait que la fonction x → a est croissante, x 1 1−a 1 n (n + 1)1−a − 21−a · 1+ − 1 Sn 1 + 1−a 1−a On en déduit que pour tout a < 1 1 n1−a · Sn ∼ 1−a Exercice 5.
1. Soit (an ) et (bn ) deux suites positives telles que la série +∞ +∞ ak ∼ bk . Montrer que k=n+1
#
an soit convergente et an ∼ bn .
k=n+1
2. On a vu en première année (cf. chapitre XI, paragraphe 2.4.) que la constante d’Euler est n 1 − ln n = g. définie par lim n→+∞ k k=1 +∞ 1 1 − ln 1 + · Vérifier que g = k k k=1 3. Montrer que
n 1 k=1
k
− ln n − g ∼
1 · 2n
Solution. 1. Soit ´ un réel strictement positif. Par définition de l’équivalence, il existe un rang n0 tel que pour tout entier n n0 , on ait (1 − ´) an bn (1 + ´) an . En sommant, d’après le proposition 4, il vient que pour tout entier n n0 (1 − ´)
+∞ k=n+1
ak
+∞ k=n+1
bk (1 + ´)
+∞
ak ,
k=n+1
ce qui achève la démonstration. 2. Puisque pour tout entier naturel n 1 on a l’égalité ln(n + 1) = 1 =0 puisque lim ln 1 + n→+∞ n g = lim
n→+∞
98
ln(k + 1) − ln k , et
k=1
+∞ 1 1 1 − ln (n + 1) + ln 1 + = − ln 1 + . k n k k k=1
n 1 k=1
n
Séries à terme général positif
3. Ainsi, pour tout entier supérieur ou égal à 1,
+∞ 1 1 − ln(n + 1) − g = − − ln 1 + . k k k k=1 k=n+1 1 1 1 Puisque − ln 1 + ∼ 2 , d’après la question 1. et l’exercice précédent k k 2k +∞ +∞ 1 1 1 1 1 + ln 1 − ∼− − ∼− · 2 k k 2 k=n+1 k 2n k=n+1 n 1
Ainsi, en utilisant à nouveau un développement limité de la fonction x → ln(1 + x) n 1 1 1 1 1 1 − ln n − g = − + o + ln 1 + = +o . k 2n n n 2n n k=1 Exercice 6. Formule de Stirling
On utilisera les résultats des trois exercices précédents.
p 2
On note, pour tout entier naturel n, In l’intégrale de Wallis sinn t dt. On rappelle que 0 2n ' p n p et que In ∼ · (On pourra se reporter au chapitre 15, exercice 10 du tome I2n = 2n 2 2 2n I.) Pour tout entier naturel non nul n, on pose un =
n!en 1
nn+ 2
·
# (ln un − ln un−1 ). 1. Montrer que la suite (un ) est convergente. On étudiera la série √ 2. Montrer, en utilisant les intégrales de Wallis, que lim un = 2p. n→+∞
3. Montrer que
© Dunod – La photocopie non autorisée est un délit
n! =
√
2pn
n+ 12 −n
e
1 1 +o . 1+ 12n n
(Formule de Stirling)
Solution.
n− 12 1 1. On a, pour tout entier naturel n 2, = e 1− et donc, en utilisant le un−1 n développement limité en 0 de x → ln (1 + x) à l’ordre 3, 1 1 un ln 1 − ln un − ln un−1 = ln =1+ n− un−1 2 n 1 1 1 1 1 − − 2 − 3 +o 3 =1+ n− 2 n 2n 3n n 1 1 +o 2 · =− 12n2 n un
99
Chapitre 4 – Séries numériques
1 Puisque ln un − ln un−1 ∼ − , les deux suites sont négatives et puisque la série de 12n2 # 1 est convergente, la règle des équivalents nous permet de conclure à la Riemann n2 # (ln un − ln un−1 ). convergence de la série En notant respectivement, pour n# 2, Sn , Rn et S la somme partielle d’ordre n, le reste (ln un − ln un−1 ), on a Sn + Rn = S, ce qui se traduit d’ordre n et la somme de la série par (i) ln un = K − Rn , où K = S − 1. Il est alors immédiat que lim un = eK . n→+∞
n+ 12 −n
2. D’après la question précédente, n! ∼ Ln e , avec L = eK (remarquer que L = 0). Il s’ensuit que (2n)! p 1 p I2n = ∼ √ · n!22n 2 L 2n En utilisant les deux équivalents de I2n , on obtient √ √ p 1 p = √ , lim nI2n = n→+∞ 2 L 2 √ c’est-à-dire L = 2p. √ 2pe−Rn . Puisque 3. La relation (i) se traduit en passant à l’exponentielle par un = 1 ln un − ln un−1 ∼ − , les deux exercices précédents donnent 12n2 −Rn ∼
+∞ 1 1 1 · ∼ 2 12 k=n+1 k 12n
Ainsi, à l’aide du développement limité en 0 à l’ordre 1 de la fonction exponentielle √ √ n!en 1 1 1 1 +o = 2p 1 + +o · 2p exp 1 = n+ 12n n 12n n n 2 ➤ Remarques • Il existe une méthode pour obtenir un développement limité en
1 n
à tout ordre de un .
√ 1 • L’équivalent n! ∼ 2pnn+ 2 e−n est en général attribué au mathématicien écossais James Stirling (1692-1770), mais √ elle est essentiellement dû à Abraham de Moivre (1667-1754), Stirling n’étant redevable « que » du « 2p ». Moivre — huguenot réfugié en Angleterre — l’utilise en 1733 pour démontrer le résultat connu aujourd’hui sous le nom de théorème de Moivre-Laplace (cf. chapitre 12).
100
Séries absolument convergentes
3. Séries absolument convergentes Définition 6 dans K. La série Soit (an ) une suite à valeurs # seulement si, la série |an | est convergente.
#
an est absolument convergente si, et
Théorème 5 Toute série absolument convergente est convergente. La réciproque est fausse. Preuve Soit (an ) une suite numérique telle que la série
an soit absolument convergente.
Cas réel Rappelons, pour tout réel x, les notations x+ =
|x | + x = 2
|x | , 0,
si x 0 ; sinon ;
et x − =
|x | − x = 2
|x | , 0,
si x 0 ; sinon.
On rappel également que pour tout x réel 0 x + |x |
;
0 x − |x |
D’après le théorème de il s’ensuit que les séries comparaison, + la série an − a− a est convergente. = n n
;
x = x+ − x− .
a+n et
a− n sont convergentes et, par linéarité,
Cas complexe On rappelle les inégalités
| (z)| |z| , | (z)| |z| ,
© Dunod – La photocopie non autorisée est un délit
(an ) et valables pour tout nombre complexe z. D’après le théorème de comparaison, les séries sont ainsi absolument convergentes et, d’après le cas réel, convergentes. Par linéarité, la série (an ) (an ) + i (an ) = an est convergente.
❑
Exemple La série harmonique alternée convergente.
(−1)n+1 n
est convergente, mais elle n’est pas absolument
➤ Remarques • En cherchant à démontrer la convergence d’une série en montrant qu’elle est absolument convergente, on ramène l’étude de la convergence d’une série à l’étude de la convergence d’une série à terme général positif. On y gagne souvent, du fait du nombre important de résultats dont nous disposons sur les séries à terme général positif. • On dit qu’une série convergente an qui n’est pas absolument convergente est, bien que la formule ne soit guère heureuse, semi-convergente.
101
Chapitre 4 – Séries numériques
Proposition 9 On note 1 (K) l’ensemble des suites à valeurs dans K telles que la série convergente. L’ensemble 1 (K) est un K-espace vectoriel pour les lois usuelles.
#
an soit absolument
Preuve
Il suffit de montrer que 1 (K) est un sous-espace vectoriel de KN . Il est clair que la série 0 est absolument 1 convergente. Il est quasi immédiat que si la suite (an ) est un élément de (K), alors pour tout scalaire l, la série lan est absolument convergente et donc (lan ) ∈ 1 (K). Enfin, si les séries an et bn sont absolument convergentes, puisque ∀n ∈ N |an + bn | |an | + |bn | , |an + bn | est convergente. Ainsi, 1 (K) est stable par par linéarité et par le théorème de comparaison, la série ❑ combinaisons linéaires.
Proposition 10 (Inégalité triangulaire pour les séries) # Soit (an ) une suite à valeurs dans K telle que la série an soit absolument convergente. Alors +∞ +∞ ak |ak | . k=0
Preuve Puisque la série
k=0
|an | est convergente et à terme général positif, la suite
n
|ak |
est croissante et, pour
k=0
tout entier naturel n,
n
|ak |
k=0
+∞
|ak | .
k=0
Ainsi, l’inégalité triangulaire donne
n n +∞ ak |ak | |ak | . k=0 k=0 k=0 n +∞ On obtient l’inégalité annoncée en passant à la limite dans l’inégalité ak |ak |. k=0
k=0
4. D’autres séries de référence 4.1 Séries exponentielles Définition 7 xn Une série exponentielle (réelle) est une série de terme général , où x est un nombre n! réel quelconque.
102
❑
D’autres séries de référence
Théorème 6 Pour tout réel x,
+∞ k x k=0
k!
= ex .
Preuve
Soit x un réel. Pour tout entier naturel n, du fait que la fonction exponentielle est de classe C ∞ , la formule de Taylor-Lagrange à l’ordre n permet d’établir l’existence d’un réel un ∈ ]0, 1[ tel que ex =
n xk x n+1 un x + e . k! (n + 1)! k=0
En particulier, si t est un réel positif — de par la positivité de la fonction exponentielle —, on a Ainsi,
(1) n tk et . k! k=0
n |x |k e|x| , k! k=0
xn |x |n = 0. est absolument convergente. En particulier, lim n → + ∞ n! n! D’autre part, puisque un x |x | et puisque la fonction exponentielle est croissante, pour tout x réel et pour tout entier naturel n n+1 x |x |n+1 |x| un x e (n + 1)! (n + 1)! e . et donc la série
On conclut alors facilement, en faisant tendre n vers +∞, dans la relation (1).
❑
➤ Remarque On retrouve en particulier un résultat vu en exercice (cf. cours de première année, chapitre XI, paragraphe 2.3, exercice XI.2), à savoir que pour tout réel x xn = 0. lim n→+∞ n!
Exercice 7.
© Dunod – La photocopie non autorisée est un délit
Calculer, pour tout réel x, les sommes
+∞ +∞ x2k x2k+1 et · (2k)! k=0 (2k + 1)! k=0
Solution. On remarque que ex e−x
=
=
+∞ k x k=0 +∞
k!
;
(−1)k
k=0
xk · k!
En sommant (et retranchant) ces deux équations, on obtient ex + e−x
=
+∞ k=0
ex − e−x
=
+∞ k=0
1 + (−1)k
xk ; k!
1 − (−1)k
xk · k!
103
Chapitre 4 – Séries numériques
En constatant que 2, si k est pair ; 1 + (−1)k = 0, si k est impair ;
resp. 1 − (−1)k =
0, si k est pair ; 2, si k est impair ;
on obtient les formules suivantes, valables pour tout réel x +∞ +∞ x2k x2k+1 ex + e−x ex − e−x = et = · (2k)! 2 (2k + 1)! 2 k=0 k=0
Exercice 8.
Montrer, pour tout réel x que +∞ x2k (−1)k ; (a) cos x = (2k)! k=0 (b) sin x =
+∞ k=0
(−1)k
x2k+1 · (2k + 1)!
Solution. (a) Soit x un réel et n un entier naturel. La fonction cosinus étant de classe C ∞ , la formule de Taylor-Lagrange à l’ordre 2n + 1 assure l’existence d’un réel un ∈ ]0, 1[ tel que cos x =
n x2k x2n+2 + (−1)n+1 cos (un x) . (−1)k (2k)! (2n + 2)! k=0
Ainsi, pour tout entier naturel n, n 2n+2 2k x |x| · (−1)k cos x − (2k)! (2n + 2)! k=0 On conclut alors facilement en utilisant la remarque qui suit le théorème 6 page 103. (b) Cette formule se démontre de la même manière.
4.2 Séries dérivées des séries géométriques Définition 8 Une série « dérivée » d’une série géométrique est une série de terme général n (n − 1) · · · (n − p + 1) zn−p où z est un nombre complexe quelconque et p est un entier naturel. (On convient que n (n − 1) · · · (n − p + 1) 0n−p = 0 lorsque n < p. )
Ainsi, une série « dérivée » d’une série géométrique est une série le polynôme défini sur C par un : z → zn . 104
#
u(p) n (z), où un est
D’autres séries de référence
➤ Remarque Une série géométrique est une série « dérivée » d’une série géométrique.
# On pourrait définir de même une série « dérivée p-ième » d’une série# vn , où (vn ) vn(p) (z), pour est une suite de polynômes définie sur C, comme étant une série # un nombre complexe z. Avec ces notations, supposons que le série vn (z) soit convergente pour tout nombre complexe tel que |z| < R, où R est un réel stric+∞ vk (z). Le lecteur pourrait être tenté d’écrire tement positif. Notons alors f (z) =
f (z) =
+∞
k=0
vk (z). Une telle formule ne peut pas être justifiée en toute généralité
k=0
— et donc est interdite —, cela pour plusieurs raisons. Le programme ne nous permet pas de dériver d’autres types de fonctions que les polynômes complexes et certaines fonctions de la variable réelle. Même si la fonction f est définie, il n’est pas sûr qu’elle soit dérivable en tant que fonction de la variable réelle ou en tant que polynôme. # Il arrive que la fonction f soit dérivable sans que la série vn (z) soit convergente. En résumé, « dériver une somme de série en dérivant terme à terme » est interdit. Proposition 11 # La série n (n − 1) · · · (n − p + 1) zn−p , avec (z, p) ∈ C × N, converge si, et seulement si, |z| < 1. Preuve
© Dunod – La photocopie non autorisée est un délit
Lorsque p = 0 il s’agit d’une série géométrique et donc il est nécessaire et suffisant que |z| < 1 pour que la série converge. Lorsque p est un entier naturel non nul, et lorsque |z| 1, on a, du fait que n(n − 1) · · · (n − p + 1) ∼ np ,
lim n(n − 1) · · · (n − p + 1)zn−p =
n→ + ∞
lim np |z|n−p = +∞,
n→ + ∞
et la série diverge grossièrement. Supposons maintenant |z| < 1. Choisissons un réel r tel que |z| < r < 1. Alors
|n (n − 1) · · · (n − p + 1) zn |
rn Puisque 0
0.
On en déduit le résultat annoncé. • Puisque f est paire en x, on en déduit que B est également un minimum local strict. Exercice 6.
Dans cette exercice, P est le plan muni d’un repère orthonormé direct (O,ı, j). 1. Soit ABC un « vrai » triangle du plan P. On note a, b, c respectivement les côtés BC, CA, a+b+c le demi-périmètre. Montrer que l’aire du triangle est AB et p = 2 / aire(ABC) = p (p − a) (p − b) (p − c). (formule de Héron) 2. Déterminer, parmi les triangles de périmètre 1, ceux dont l’aire est maximale. 3. Montrer que pour tout triangle d’aire A et de périmètre , on a √ 3 2 . A 36 Solution. 1. On sait que aire(ABC) =
1 0 = bc sin A, 0 AB × AC × sin A 2 2
0 ∈ [0, p] est déterminé par son cosinus, à savoir où A 0 BC 2 = AB2 + AC 2 − 2AB × AC × cos A. (Voir par exemple le chapitre 8, paragraphe 7 du cours de première année.) Il s’ensuit que 2 2 2 0 = b + c − a et donc cos A 2bc
b2 c 2 0 = 1 4b2 c 2 − b2 + c 2 − a2 2 aire(ABC)2 = 1 − cos2 A 4 16 2bc − b2 − c 2 + a2 2bc + b2 + c 2 − a2 = 16 2 a − (b − c)2 (b + c)2 − a2 = 16 (a + b − c)(a + c − b)(b + c − a)(a + b + c) = · 16
136
Dérivées partielles, fonctions de classe C 1
On obtient alors immédiatement la formule annoncée. B
y
c A
A
1 +
a V b +
C
O
1
x
Figure 5.5 Inégalité isopérimétrique
2. On sait que trois réels positifs a, b et c sont les côtés d’un triangle si et seulement si |a − b| c a + b (cf. exercice 8.3 du paragraphe 2 du chapitre 8 du cours de première année). Le triangle sera « vrai » si et seulement si les inégalités sont strictes (penser aux cas d’égalité dans l’inégalité triangulaire). Ainsi, deux réels a et b sont les côtés d’un « vrai » triangle de périmètre 1 si et seulement si |a − b| < 1 − a − b < a + b, i.e. ⎧ 1 ⎨ 2 0 on a alors
e−lt dt =
0
1 √ dt· t
1 · l
√ √ 1 √ dt = 2( x − 1) et lim x = +∞, l’intégrale impropre x→+∞ t 1 étudiée n’est donc pas convergente. x
Pour tout x ∈ [0, +∞[, ➤ Remarque
Dans tous ces exemples, l’étude de l’intégrale impropre est aisée, car on a pu exprimer F à l’aide des « fonctions usuelles », il n’en est pas toujours ainsi ; dans la suite nous allons rencontrer des critères simples permettant d’étudier la nature d’une intégrale impropre sans avoir besoin d’expliciter F à l’aide des fonctions usuelles.
1.2 Premières propriétés Proposition 1 (Relation de Chasles) Soient a ∈ R et f une fonction continue de [a, +∞[ dans R , pour tout c de la demi+∞
droite [a, +∞[ l’intégrale impropre
+∞
f (t)dt converge si et seulement si a
converge, on a alors : +∞
c
f (t)dt =
© Dunod – La photocopie non autorisée est un délit
Pour tout x ∈ [a, +∞[,
f (t)dt =
a
c
a
c
x
f (t)dt +
x
l’infini si et seulement si
f (t)dt
a
x
+∞
f (t)dt +
a
Preuve
f (t)dt c
x
f (t)dt, donc
f(t)dt a une limite finie lorsque x tend vers
c
a
f (t)dt a une limite finie lorsque x tend vers l’infini, on a alors c
+∞ a
c
f (t)dt =
+∞
f (t)dt + a
f(t)dt
❑
c
Nous aurons très souvent recours à cette propriété, car un « bon choix » de c peut +∞
rendre l’étude de
+∞
f (t)dt.
f (t)dt plus simple que celle de c
a
153
Chapitre 6 – Extensions de la notion d’intégrale
Proposition 2 L’ensemble des fonctions continues de [a, +∞[ dans R dont l’intégrale sur [a, +∞[ converge est un sous espace vectoriel de l’espace des fonctions continues de [a, +∞[ dans +∞
R et l’application f →
f (t)dt est une forme linéaire sur ce sous espace. a
Preuve L’ensemble des fonctions continues de [a, +∞[ dans R dont l’intégrale sur [a, +∞[ converge n’est pas vide, il contient la fonction : t ∈ [a, +∞[→ 0. Soient f, g deux fonctions continues de [a, +∞[ dans R dont l’intégrale sur [a, +∞[ converge. Quels que soient les réels l et m , d’après les propriétés de linéarité des limites, on a
x
a
x
ainsi
+∞
a
g(t)dt, a
+∞
lf (t) + mg(t) dt = l
lim
x → +∞
x
f(t)dt + m
a
on en déduit que
x
lf (t) + mg(t) dt = l
g(t)dt,
a
a
a
+∞
lf(t) + mg(t) dt = l
+∞
f(t)dt + m +∞
f(t)dt + m a
g(t)dt .
❑
a
Proposition 3 +∞
Soient a ∈ R et f une fonction continue de [a, +∞[ dans R, telle que
f (t)dt a
converge. Si f admet en plus l’infini, une limite finie l, une condition nécessaire pour +∞
f (t)dt converge est que l = 0.
que a
Preuve Si l = 0, quitte à changer f en −f , on peut supposer l > 0. Il existe alors un réel c tel que x x x l l l l ∀t c, f (t) , et ∀x c, f (t)dt dt, on a dt = (x − c), et lim x − c = +∞, x → +∞ 2 2 c c 2 c 2 ❑ l’intégrale n’est donc pas convergente.
➤ Remarques • Attention
+∞
Si lim f (t) = 0, on ne peut rien dire au sujet de la convergence de t → +∞
simples : +∞ x 1 1. dt, pour tout x ∈ [1, +∞[, t 1 1 +∞ x 1 dt, pour tout x ∈ [1, + ∞ [, 2. t2 1 1 converge.
1
dt = ln x, donc l’intégrale impropre étudiée diverge. t 1 1 1 dt = 1 − , et lim = 0, donc l’intégrale impropre étudiée x → +∞ x t2 x
• Il existe des fonctions continues f de [a, +∞[ dans R telles que : 1. f n’a pas de limite à l’ infini ; +∞ 2. f (t)dt converge. a
comme le montre l’exemple ci-dessous :
154
f(t)dt. Voici deux exemples bien a
+∞
L’intégrale impropre
f (t)dt a
Exemple 3 On considère la fonction f : [ , +∞[ → R définie de la façon suivante : 4 ⎧ 1 1 ⎪ n 2 ⎪ f (t) = 4 t − (n − n ) si t ∈ [n − n , n], n ∈ N∗ ⎪ ⎪ n ⎪ 4 4 ⎨ 1 1 n 2 ⎪ f (t) = 4 n (n + n ) − t si t ∈ [n, n + n ], n ∈ N∗ ⎪ ⎪ ⎪ 4 4 ⎪ ⎩ f (t) = 0 sinon On trouvera ci-après une partie de la représentation graphique de la fonction f . y n2
Tn
O n−
1 4n
n
n+
1 4n
x
© Dunod – La photocopie non autorisée est un délit
Figure 6.1 Graphe de f
On note que la fonction f n’a pas de limite à l’infini, et même, qu’aux points de coordonnées entières, elle est « grande » (f (n) = n2 ). n n+ 41n k+ 1k 4 f (t)dt = f (t)dt On a 3 4
Or,
k=1
k+ 1k 4 k−
1 4k
k−
1 4k
f (t)dt est égale à l’aire de Tk soit n+ 41n
f (t)dt =
on en déduit que 3 4
n k2 k=1 2
Étudions la nature de la série
n n1
4
4k
k2 , 4k
. n2 = 0, il existe donc n0 ∈ N tel que n→+∞ 2n
. On sait que lim n
2
n 1 n. 4n 2 n2 1 est convergente et par comparaison la série converge. Or, la série géométrique n 2 4n
pour tout n n0 ,
n1
n1
155
Chapitre 6 – Extensions de la notion d’intégrale
1 3 Pour tout réel x ∈ [ , +∞[, il existe un entier n tel que x n + n ainsi 4 4 +∞ 2 x n+ 41n n f (t)dt f (t)dt n 3 3 4 4 4 n=1 +∞
l’intégrale
f (t)dt est donc convergente. (Voir ci-dessous le théorème 1.) 3 4
En résumé, la condition lim f (t) = 0 est une condition ni nécessaire, ni suffi+∞
sante pour que
t→+∞
f (t)dt converge. a
1.3 Cas d’une fonction à valeurs positives Théorème 1 +∞
Soient a ∈ R et f une fonction continue positive de [a, +∞[ dans R, si et seulement si l’application F : x ∈ [a, +∞[ →
f (t)dt converge a
x
f (t)dt est majorée. On a alors a
+∞
f (t)dt =
sup
F(x)
ax 1, et, dans ce cas ta a−1 1 x dt – Si a = 1, pour tout x ∈ [1, +∞[, = ln x, l’intégrale est donc divergente. t 1
157
Chapitre 6 – Extensions de la notion d’intégrale
Exercice 1.
+∞
Étudier la nature de 1
ln t t
2 dt.
ln t 2 (ln t)2 L’application t ∈ [1, +∞[ → est continue, positive et lim √ = 0, il t→+∞ t t √ existe donc un réel A tel que ∀t ∈ [A, +∞[, (ln t)2 t, donc pour tout t A on 2 +∞ +∞ ln t 1 1 ln t 2 3/2 , le calcul montre que dt = 2 , dt est donc a t t t t3/2 1 1 convergente. ➤ Remarque Attention ! En dépit de sa simplicité, l’étude systématique des intégrales impropres des fonctions de Riemann ne figure pas au programme de la classe. On devra donc, chaque fois que l’on utilise une comparaison avec une fonction de Riemann, ne pas omettre de refaire les calculs permettant (comme à la quatrième remarque ci-dessus) de déterminer la nature de l’intégrale impropre de Riemann que l’on est conduit à utiliser.
Corollaire 1 Si f et g sont deux applications continues de [a, +∞[ dans [0, +∞[ telles que f (t) ∼ g(t), +∞
f (t)dt et
alors
+∞
+∞
g(t)dt sont de même nature.
a
a
Preuve Les fonctions f et g étant équivalentes au voisinage de l’infini, on sait qu’il existe c ∈ [a, +∞[ tel que pour tout 1 3 t c, 0 g(t) f (t) g(t). 2 2 +∞ +∞ Si g(t)dt converge, d’après la relation de Chasles, g(t)dt converge et pour tout a c +∞ +∞ 3 f (t)dt converge et f(t)dt converge. t c, f (t) g(t), donc 2 c a +∞ +∞ 1 Si g(t)dt diverge, d’après la relation de Chasles, g(t)dt diverge et pour tout t c, f (t) g(t), 2 a c +∞ +∞ f (t)dt diverge de même que f (t)dt. donc ❑ c
a
Corollaire 2 Soient f et g deux applications continues de [a, +∞[ dans [0, +∞[ telles que +∞
f (x) = o (g(x)), si +∞
+∞
g(t)dt converge, alors a
f (t)dt converge. a
Preuve Puisque f(x) = o (g(x)), il existe un réel A tel que ∀t ∈ [A, +∞[, 0 f(t) g(t), il suffit alors d’appliquer le +∞
résultat de la remarque ci-dessus.
158
❑
+∞
L’intégrale impropre
f (t)dt a
➤ Remarque Attention ! Il est important d’avoir ces deux corollaires présents à l’esprit lorsque l’on veut étudier une intégrale impropre, cependant ils ne figurent pas au programme de la classe, il faudra donc les démontrer dans chaque cas particulier où l’on sera amené à les utiliser.
1.4 Thème d’étude : comparaison série-intégrale Soit f une fonction continue, positive, monotone décroissante sur [0, +∞[ , on se +∞ propose de comparer la nature de la série f (n) et celle de l’intégrale f (t)dt. On peut en effet remarquer que
n
0
n 0 n+1
f (k) =
k=0
g(t)dt, la fonction g étant la fonc0
tion en escalier définie de la façon suivante : pour tout k ∈ Ú0, nÛ et pour tout t ∈ [k, k + 1[ g(t) = f (k), et g(n + 1) = f (n + 1). Exercice 2. Lemme
Soient a un réel, F : [a, +∞[ → R une fonction continue monotone croissante, et (xn ) une suite de réels de [a, +∞[ strictement croissante telle que lim xn = +∞, alors F a une limite n→+∞ finie l lorsque x tend vers l’infini si et seulement si la suite (F(xn )) converge. Solution. Nous savons déjà que, si lim F(x) = l, alors lim F(xn ) = l. x→+∞
n→+∞
Prouvons que la réciproque est vraie. D’après les hypothèses, pour tout x ∈ [a, +∞[ , il existe un indice n tel que xn x < xn+1 , donc F(xn ) F(x) F(xn+1 ) ; lorsque x tend vers l’infini, il en va de même de xn et de xn+1 , donc lim F(x) = lim F(xn ). x→+∞
n→+∞
© Dunod – La photocopie non autorisée est un délit
Exercice 3. Théorème de comparaison
Soit f : [0, +∞[ → R une fonction continue, positive, monotone décroissante. Prouver que n+1 1. La série f (n) − f (t)dt est convergente ; n
n0
2. La série
+∞
f (n) et l’intégrale
f (t)dt sont de même nature. 0
n0
Solution. La fonction f est monotone décroissante, minorée par 0, elle admet donc à l’infini, une limite finie l 0. Pour tout n ∈ N et pour tout t ∈ [n, n + 1[, on a : f (n + 1) f (t) f (n), et donc n+1
n+1
f (n + 1)dt n
n+1
f (t)dt
n n+1
f (n)dt n
f (t)dt f (n).
soit f (n + 1) n
159
Chapitre 6 – Extensions de la notion d’intégrale
n+1
Pour tout n ∈ N, posons un = f (n) −
f (t)dt. D’après les inégalités précédentes, on a n
0 un f (n) − f (n + 1).
On sait que lim f (t) = l, la série télescopique t→+∞
même que la série Posons
n
(f (n) − f (n + 1)) est donc convergente de
n0
un .
n0 n
f (k) = Sn et
f (t)dt = In , 0
k=0 n
on a
uk = Sn − In+1 et 0
k=0
soit :
n
uk
k=0
n
(f (k) − f (k + 1)),
k=0
In In+1 Sn In+1 + f (0) − f (n + 1) In+1 + f (0).
Ce sont ces inégalités qu’il faut savoir démontrer en vue d’exercices d’application. +∞ Posons un = C. n=0
On a Sn − In+1 = C + o (1), Sn+1 − In+1 = C + f (n + 1) + o (1) = C + l + o (1), +∞ +∞ +∞ on en déduit que Sn a une limite finie lorsque n tend vers l’infini si et seulement si In a une limite finie lorsque n tend vers l’infini. x
On peut appliquer le résultat de l’exercice précédent à la fonction x ∈ [0, +∞[ → ainsi la série
f (n) converge si et seulement si l’intégrale
f (t)dt, 0
+∞
f (t)dt converge. 0
n0
Il est important de noter que, si la série et l’intégrale divergent, Sn et In tendent tous les deux vers +∞ lorsque n tend vers l’infini mais que leur différence admet une limite finie lorsque n tend vers l’infini. ➤ Remarque On peut utiliser les résultats précédents si f : [a, +∞[ → R est une fonction continue, positive, monotone décroissante, il suffit pour cela de définir la fonction g par g : u ∈ [0, +∞[ → g(u) = f(u + a), la fonction g vérifie alors les hypothèses du théorème.
a
1.5 L’intégrale impropre
f (t)dt −∞
Définition 2 Soient a ∈ R et f une application continue de ]−∞, a] dans R. a
• On
dit
que
l’intégrale a
F : x ∈ ]−∞, a] → x
160
f (t)dt
impropre
converge
si
l’application
−∞
f (t)dt, admet une limite finie l lorsque x tend vers
b
L’ intégrale impropre
f (t)dt a
moins l’infini, on note alors
a
f (t)dt = l
−∞
On dit aussi que l’intégrale existe, ou encore, qu’elle a un sens. a
• On
dit
que
l’intégrale
f (t)dt
impropre
F : x ∈ ]−∞, a] →
si
l’application
f (t)dt n’admet pas de limite finie lorsque x tend x
a
vers moins l’infini. On dit aussi que l’intégrale
f (t)dt n’existe pas, ou encore, −∞
qu’elle n’a pas de sens.
+∞
a
L’étude de l’intégrale
diverge
−∞
a
−∞
f (t)dt se ramène à celle de
changement de variable u = −t.
−a
f (−u)du en utilisant le
b
2. L’ intégrale impropre
f(t)dt a
2.1 Définitions Soient (a, b) ∈ R2 (avec a < b) et f une fonction continue de [a, b[ dans R. On sait
© Dunod – La photocopie non autorisée est un délit
x
f (t)dt est la primitive de f sur [a, b[ qui s’annule que l’application F : x ∈ [a, b[ → a en a. Si la fonction f admet une limite finie en b, en accord avec les théorèmes généraux, l’intégrale de f sur [a, b[ sera égale à l’intégrale de son prolongement par continuité sur [a, b]. Si la fonction f admet une limite infinie, ou n’admet pas de limite en b, la primitive F peut ou non admettre une limite lorsque x tend vers b. On donne alors les définitions suivantes Définition 3 Soient [a, b[ un intervalle de R et f une application continue de [a, b[ dans R telle que f admet une limite infinie, ou n’admet pas de limite en b. b
• On
dit
que
l’intégrale
f (t)dt
converge
si
l’application
a
x
F : x ∈ [a, b[ → b
impropre
f (t)dt, admet une limite finie l lorsque x tend vers b, a
f (t)dt = l.
on note alors : a
b
f (t)dt existe, ou encore, qu’elle a un sens.
On dit aussi que l’intégrale impropre a
161
Chapitre 6 – Extensions de la notion d’intégrale
• On
b
dit
que
l’intégrale
impropre
F : x ∈ [a, b[ →
f (t)dt
diverge
si
l’application
a
x
f (t)dt n’admet pas de limite finie lorsque x tend vers b. a
b
f (t)dt n’existe pas, ou encore, qu’elle n’a pas
On dit aussi que l’intégrale impropre a
de sens. ➤ Remarques
• Attention ! Comme dans ce qui précède, une même notation :
b
f(t)dt peut être utilisée comme symbole x f(t)dt a-t-elle une limite finie lorsque abstrait, (énoncé raccourci de la question : la fonction : x ∈ [a, b[ → a
a
x tend vers b), et aussi pour désigner cette limite, lorsqu’elle existe. Il est clair que l’on peut additionner ou multiplier des réels, c’est à dire lorsqu’elles existent, les valeurs des intégrales généralisées, mais pas des symboles !
• Insistons sur le fait que, si la fonction f possède une limite finie au point b, elle admet un prolongement par b x b continuité f sur [a, b] et l’on sait que f (t)dt = f (t)dt, la fonction : x ∈ [a, b] → f(t)dt est continue a a a x x b f (t)dt = f (t)dt, donc l’intégrale impropre f(t)dt converge et sa valeur et pour tout x ∈ [a, b[, on a a a a b f (t)dt. est égale à a
Dans ce cas, on dit parfois que l’intégrale étudiée est « faussement impropre ».
• Certains auteurs parlent d’intégrales généralisées au lieu d’intégrales impropres, la nature de l’intégrale est son caractère convergent ou divergent. • À la section précédente, l’intégrale est généralisée parce que l’intervalle considéré n’est pas borné, ici, l’intégrale est généralisée parce que la fonction considérée sur [a, b[ n’admet pas de limite finie au point b. Avant de se lancer dans quelque étude que c e soit, il est bon de vérifier que l’intégrale que l’on va étudier est vraiment impropre.
Exemples 1
1. Étudions :
√
0
1 dt. 1 − t2 x
Pour tout x ∈ [0, 1[ , 0 1
L’intégrale impropre 0
1 dt = Arcsin x. 1 − t2 1 √ dt converge, et de plus, 1 − t2 √
1 0
√
1 dt = p/2. 1 − t2
p/2
2. Étudions x
tan t dt. 0
tan t dt = − ln(cos x) et lim ln(cos x) = −∞ x→p/2
0 p/2
L’intégrale impropre
tan t dt est donc divergente. 0
162
b
L’ intégrale impropre
f (t)dt a
➤ Remarque Dans ces exemples, l’étude de l’intégrale impropre est aisée, car on a pu exprimer F à l’aide des « fonctions usuelles », il n’en est pas toujours ainsi ; dans la suite nous allons rencontrer des critères simples permettant d’étudier la nature d’une intégrale impropre sans avoir besoin d’expliciter F à l’aide des fonctions usuelles.
2.2 Premières propriétés Proposition 5 (La relation de Chasles) Soient [a, b[ un intervalle de R et f une fonction continue de [a, b[ dans R, pour tous c et x x
de l’intervalle [a, b[, on a
c
f (t)dt = a
x
f (t)dt + a
b
b
f (t)dt, l’intégrale impropre c
f (t)dt a
f (t)dt converge et dans ce cas
converge si et seulement si c b
c
f (t)dt = a
b
f (t)dt + a
f (t)dt. c
Proposition 6 L’ensemble des fonctions continues de [a, b[ dans R dont l’intégrale sur [a, b[ converge est un sous espace vectoriel de l’espace des fonctions continues de [a, b[ dans R et l’application b
f →
f (t)dt est une forme linéaire sur ce sous espace. a
Preuve Les démonstrations de ces deux propositions sont tout à fait analogues aux démonstrations des propositions ❑ correspondantes du 1.1.2 en remplaçant +∞ par b. Nous laissons le soin au lecteur de les réécrire.
2.3 Cas d’une fonction f à valeurs positives sur [a, b[ © Dunod – La photocopie non autorisée est un délit
Théorème 3 Soient [a, b[ un intervalle de R et f une fonction continue positive de [a, b[ dans R, b
x
f (t)dt converge si et seulement si l’application F : x ∈ [a, b[ → a
f (t)dt est majorée, a
on a alors
b
f (t)dt = sup F(x). ax 0 →
tx−1 e−t dt.
0
Preuve
Pour tout x ∈ R la fonction f : t ∈ ]0, ∞[ → t x−1 e−t est continue et positive. 1 Étudions la nature de l’intégrale f (t)dt. 0
Pour tout t ∈ ]0, 1] , e−1 e−t 1, et seulement si 1 − x < 1 soit x > 0. +∞ Étudions maintenant f (t)dt.
1 e
t x−1 f(t) t x−1 , on sait que
1
t x−1 dt converge si et
0
1
Pour tout x ∈ R, lim e−t/2 t x−1 = 0, il existe donc c ∈ [1, +∞[ tel que : t → +∞
+∞
On sait que c
1
+∞
t
On en déduit que © Dunod – La photocopie non autorisée est un délit
∀t ∈ [c, +∞[ , 0 e−t/2 t x−1 1 et 0 f(t) e−t/2 . +∞ e−t/2 dt converge, donc f (t)dt converge. x −1 −t
e
dt converge si et seulement si[ :] x > 0.
❑
0
Proposition 14 (Premières propriétés) (i) Pour tout x > 0, G(x + 1) = xG(x). (ii) Quel que soit l’entier naturel n, G(n + 1) = n!. √ (iii) G(1/2) = p. Preuve (i) Pour tout réel strictement positif x et quels que soient les réels positifs y et z , une intégration par parties conduit à z
z
t x e−t dt = e−y y x − e−z zx + x
y
t x−1 e−t dt
y
Or, lim e−y y x = 0 et lim e−z zx = 0. y →0
z → +∞
Le résultat annoncé en découle.
175
Chapitre 6 – Extensions de la notion d’intégrale
+∞
(ii) On a G(1) =
e−t dt = 1. Le résultat annoncé en découle clairement, à l’aide d’une démonstration
0
par récurrence utilisant le (i). +∞ 2 e−t dt (iii) G(1/2) = −∞
Pour tout x > 0, en effectuant le changement de variable u = t 2 , on obtient, pour tout y y2 2 e−t dt = 1/2 u−1/2 e−u du. y > 0, 0 0 +∞ +∞ √ 2 2 Ainsi G(1/2) = 2 e−t dt = e−t dt, d’où G(1/2) = p. ❑ −∞
0
La fonction Bêta La fonction Bêta Soient p, q ∈ R réels, et g : t ∈ ]0, 1[ → tp−1 (1 − t)q−1 , la fonction g est intégrable sur ]0, 1[ si et seulement si p > 0, q > 0. 1
La fonction (p, q) ∈ ]0, +∞[ × ]0, +∞[ →
tp−1 (1 − t)q−1 dt est appelée fonction Beta et
0
notée B.
1
B : (p, q) ∈ ]0, +∞[ × ]0, +∞[ →
tp−1 (1 − t)q−1 dt. 0
Preuve
Pour tous p, q réels, la fonction g : t ∈ ]0, 1[ → t p−1 (1 − t)q−1 est continue et positive. c t p−1 (1 − t)q−1 dt. Soit c ∈ ]0, 1[, étudions 0
L’application t → (1 − t)q−1 est continue sur [0,c], donc bornée sur cet intervalle, posons M = sup (1 − t)q−1 , m = inf (1 − t)q−1 , on a : m > 0 et mt p−1 t p−1 (1 − t)q−1 Mt p−1 , on sait que 0t c c 0t c c p−1 t dt converge si et seulement si 1 − p < 1 soit p > 0, d’après le théorème 4, t p−1 (1 − t)q−1 dt 0
converge si et seulement si p > 0.
0
1
Un raisonnement analogue montre que
t p−1 (1 − t)q−1 dt converge si et seulement si q > 0.
c
➤ Remarques • La lettre B est la lettre grecque b majuscule. • La fonction B est une fonction de deux variables. • On prouve aisément, grâce au changement de variable u = 1 − t, que B(p, q) = B(q, p).
5. Intégrales doubles 5.1 Intégrale double sur un pavé Définition 10 Un pavé de R2 est un produit de deux segments de R.
Nous admettons le théorème suivant. 176
❑
Intégrales doubles
Théorème 7 Soient P = [a, b] × [c, d] et f une fonction continue de P dans R, on a b d d b f (x, y)dy dx = f (x, y)dx dy. a
c
c
a
À partir de ce résultat, on donne la définition suivante Définition 11 Soient P = [a, b] × [c, d] et f une fonction continue de P dans R. La valeur commune b d d b des deux intégrales f (x, y)dy dx et f (x, y)dx dy est appelée intégrale a
c
c
double de f sur le pavé P, et notée f ou P
f ou
a
f (x, y)dxdy ou P
[a,b]×[c,d]
f (x, y)dxdy. [a,b]×[c,d]
➤ Remarques • Dans ce qui précède, nous admettons que les applications d b G : x ∈ [a, b] → f (x, y)dy et H : y ∈ [c, d] → f (x, y)dx sont des fonctions continues, ce qui permet de a bc d G(x)dx et H(y)dy . définir à la fois a
c
• Il est clair que, si f (x, y) = g(x)h(y),
b
f = P
a
d
g(x)dx ×
h(y)dy. c
Exemple Calcul de [0,1]×[0,1]
1 dxdy. 1 + x2 y
On a : © Dunod – La photocopie non autorisée est un délit
1 0
1 1 dy = 2 ln(1 + x2 ), si x = 0 2 1+x y x = 1 si x = 0.
Sur cet exemple, et puisque lim ln(1 + x2 ) = 1, on constate que l’application G est continue. x→0
1
1 ln(1 + x2 ) dx en utilisant une intégration par parties et l’on obtient : On calcule alors 2 x 0 2 11 1 1 1 2 1 2 2 ln(1 + x ln(1 + x ) dx = − ) + dx 2 x x 1 + x2 0 0 0 = − ln 2 + [2 Arctan x]10 p = − ln 2 + . 2
177
Chapitre 6 – Extensions de la notion d’intégrale
1
On aurait pu calculer d’abord 0
1 dx, et l’on aurait alors obtenu : 1 + x2 y
1 1 √ dx = √ Arctan y, si y = 0 1 + x2 y y
1 0
= 1 si y = 0. 1 √ On vérifie ici que, puisque lim √ Arctan y = 1, l’application H est continue. Ici encore, y→0 y 1 1 √ on calcule √ Arctan y dy en utilisant une intégration par parties, et l’on obtient : y 0 1 0
8 √ 1 √ √ 71 √ Arctan y dy = 2 y Arctan y 0 − y p = − ln 2. 2
1 0
1 dy 1+y
Les intégrales doubles (et plus généralement les intégrales multiples) sont d’une grande utilité dans de nombreux domaines de la physique. Nous donnons ci dessous deux exemples d’interprétation. Interprétation géométrique Dans le cas où f (x, y) = a, avec a > 0, on a
P
f = a(b − a)(c − d), et a(b − a)(c − d)
est le volume du parallélépipède de base P et de hauteur a. Nous admettrons que l’ ensemble des points (x, y, z) de R3 tels que : (x, y) ∈ P et 0 z f (x, y)constitue un domaine de l’espace dont le volume (exprimé en unité de volume) est égal à
P
f.
Interprétation statique Si f (x, y) = a avec a > 0, on peut aussi considérer que
P
f = a(b − a)(c − d)est la
masse de la plaque de superficie P de densité de surface égale à a Nous admettrons que
P
f est égale à la masse d’une plaque solide de surface P et
dont la densité au point de coordonnées (x, y) est f (x, y). Les propriétés de l’intégrale simple et la définition de l’intégrale double permettent de démontrer sans peine les propriétés faisant l’objet de la proposition suivante. Proposition 15 • Quels que soient les réels l et m, et quelles que soient les fonctions f et g continues sur le pavé P on a (lf + mg) = l P
178
f +m P
g. P
Intégrales doubles
• Si f est positive sur le pavé P, alors • Si f g sur le pavé P alors
P
P
f
f 0. g. P
Preuve
❑
Nous laissons le soin au lecteur de rédiger la preuve de ces propriétés.
5.2 Intégrale double sur un domaine élémentaire de R2 Définition 12 • On dit qu’une partie D de R2 est un domaine Dx , s’il existe des fonctions w1 et w2 continues sur [a, b] telles que w1 w2 et 2 D = (x, y) ∈ R tels que a x b et w1 (x) y w2 (x) • On dit qu’une partie D de R2 est un domaine Dy , s’il existe des fonctions c1 et c2 continues sur [c, d] telles que c1 c2 et 2 D = (x, y) ∈ R ; c y d et c1 (y) x c2 (y) • On dit qu’une partie D de R2 est un domaine élémentaire s’il est un domaine Dx ou Dy .
Un domaine D peut être à la fois un domaine Dx et Dy (voir illustration graphique page suivante). y
© Dunod – La photocopie non autorisée est un délit
w2 (x) c1 (y)
D c2 (y) w1 (x)
O
x
Figure 6.2 Exemple de domaine élémentaire à la fois Dx et Dy .
179
Chapitre 6 – Extensions de la notion d’intégrale
Exemples 1. Un pavé de R2 est un domaine Dx et Dy .
2. D = (x, y) ∈ R2 ; x 0, y 0 x + y 1 est un domaine Dx et Dy .
3. D = (x, y) ∈ R2 ; x2 y 2x est un domaine Dx et Dy .
4. D = (x, y) ∈ R2 ; x2 y2 , −2 y 2 est un domaine Dy , mais il n’est pas Dx .
Nous admettrons le théorème suivant, qui utilise les notations de la définition cidessus. Théorème 8 Soient D un domaine de R2 à la fois Dx et Dy et f une fonction continue de D dans R. • La fonction G : x ∈ [a, b] → • La fonction H : y ∈ [c, d] →
w2 (x)
f (x, y)dy est continue ; w1 (x) c2 (y)
f (x, y)dx est continue. c1 (y)
b
d
G(x)dx =
• De plus a
H(y)dy. c
À partir de ce résultat, on donne la définition suivante, avec les notations de la définition ci-dessus Définition 13 Soient D un domaine de R2 à la fois Dx et Dy et f une fonction continue de D dans R. b w2 (x) La valeur commune des deux intégrales f (x, y)dy dx et a w1 (x) d
c2 (y)
f (x, y)dx dy est appelée intégrale double de f surD et notée c
c1 (y)
f = D
f (x, y)dxdy. D
Si D est ou seulement Dx ou seulement Dy , et toujours avec les notations de la définition ci-dessus, nous admettrons le résultat suivant. Proposition 16 Soient D un domaine élémentaire de R2 et f une fonction continue sur D. Alors • Si D est un domaine Dx , la fonction G : x ∈ [a, b] →
w2 (x)
f (x, y)dy est continue, w1 (x)
• Si D est un domaine Dy , la fonction H : y ∈ [c, d] →
c2 (y)
f (x, y)dx est continue. c1 (y)
180
Intégrales doubles
À partir de ce résultat, on donne la définition suivante. Définition 14 Soient D un domaine élémentaire de R2 et f une fonction continue sur D. Alors • Si D est un domaine Dx , on définit « l’ intégrale de f sur D » par b w2 (x) f = f (x, y)dy dx D
w1 (x)
a
• Si D est un domaine Dy , on définit « l’ intégrale de f sur D » par d c2 (y) f = f (x, y)dx dy. D
c1 (y)
c
• Dans ces deux cas, on note aussi f = D
f (x, y)dxdy D
Les propriétés de l’intégrale simple et la définition de l’intégrale double permettent de démontrer sans peine les propriétés faisant l’objet de la proposition suivante. Proposition 17 Soit D un domaine élémentaire de R2 . • Pour tous l, m, réels et f, g fonctions continues sur D on a (lf + mg) = l D
© Dunod – La photocopie non autorisée est un délit
• Si f est positive sur D, alors
f +m D
D
• Si f g sur le domaine D, alors
g. D
f 0.
D
f
g. D
Preuve Nous laissons le soin au lecteur de rédiger la preuve de ces propriétés
❑
➤ Remarque
b w2 (x) Si le domaine élémentaire est à la fois Dx et Dy , on choisira de calculer f(x, y)dy dx ou a w1 (x) d c2 (y) f (x, y)dx dy, en tenant compte de la fonction et du domaine, comme le montrent les exemples c
c1 (y)
suivants.
Exemples 1. Calculer D
(x + y)dxdy, avec D = {(x, y) ∈ R2 ; x + y 0, |x| 1, |y| 1}
181
Chapitre 6 – Extensions de la notion d’intégrale
On vérifie que D est un domaine élémentaire à la fois Dx et Dy , x et y ont des rôles symétriques, à la fois dans la définition de f et dans celle de D, on peut donc choisir l’une ou l’autre des deux intégrales. On a 1 1 1 1 (x + 1)2 dx, (x + y)dxdy = (x + y)dy dx = 2 D −1 −x −1 (x + y)dxdy =
on en déduit D
2. Soit D = {(x, y) ∈ R2 ;
√
4 . 3 √ x}, calculer
3x − 18 y
f (x, y)dxdy. D
On a : 6
√ x
f (x, y)dxdy = D
0
9
f (x, y)dy dx +
0
6
⎛
ou 3
f (x, y)dxdy = D
y2 3
⎝
√ x √
f (x, y)dy dx
3x−18
⎞ +6
f (x, y)dx⎠dy.
y2
0
Il est donc plus simple de considérer D comme un domaine Dy . √ y cos(x5 )dxdy. Le domaine est Dx et 3. Soit D = {(x, y) ∈ R2 ; y x 2}, calculer D
Dy , on a
4
5
y cos(x )dxdy = ou
D
√
0 2 0
y cos(x )dx dy y
x2
y cos(x5 )dxdy = D
2
5
y cos(x5 )dy dx
0
Le premier calcul nécessiterait la connaissance d’une primitive de cos(x5 ), alors que le second se fait aisément, on obtient 72 1 2 4 1 8 1 sin(x5 ) 0 = sin 32· y cos(x5 )dxdy = x cos(x5 )dx = 2 0 10 10 D
5.3 Intégrale double sur une réunion de domaines élémentaires Définition 15 Soit D une partie de R2 , réunion de domaines élémentaires Dk , 1 k n, tels que pour tout couple (i, j) ∈ Ú0, nÛ2 ,
dxdy = 0. Di ∩Dj
Pour toute fonction f continue sur D, on pose n f (x, y)dxdy = D
182
k=1
f (x, y)dxdy. Dk
Intégrales doubles
La figure ci-dessous illustre cette définition.
D1 D3
D2
D4
Figure 6.3
f =
f +
D1 ∪D2 ∪D3 ∪D4
D1
f +
D2
f +
D3
f D4
T1 T2 Figure 6.4 D = T1 ∪ T2
Exemple Calculer D
|x + y|dxdy , avec D = {(x, y) ∈ R2 ; −1 x 1, −1 y 1.}
On a D = T1 ∪ T2 , où T1 = {(x, y) ∈ R2 ; x + y 0, |x| 1, |y| 1} et T2 = {(x, y) ∈ R2 ; x + y < 0, |x| 1, |y| 1} (voir figure) Et alors D
|x + y|dxdy =
(x + y)dxdy −
(x + y)dxdy.
T1
T2
© Dunod – La photocopie non autorisée est un délit
On sait (voir l’exemple ci-dessus) que
(x + y)dxdy = T1
et
1
−x
(x + y)dxdy = −1
T2
−1
4 (x + y)dy dx = − . 3
on a donc D
4 , 3
|x + y|dxdy =
8 · 3
5.4 Calcul d’aires et de volumes Ainsi que nous l’avons déjà noté, les applications des intégrales doubles sont nombreuses. Donnons deux définitions concernant les applications de la notion à la géométrie. 183
Chapitre 6 – Extensions de la notion d’intégrale
Définition 16 Soit D un domaine élémentaire de R2 ,
D
dxdy est appelée aire de D et notée A(D).
➤ Remarque Si f est une fonction continue et positive sur [a, b], et si D = {(x, y) ; a x b, 0 y f (x)}, on vérifie que A(D ) =
b
dxdy = D
f(x)dx . a
Et l’on constate que, si f est constante égale à c(c > 0), on retrouve la notion usuelle d’aire d’un rectangle dont les dimensions sont c et b − a.
Définition 17 Soient D un domaine élémentaire de R2 , et f une fonction continue positive sur D.
Si V = (x, y, z) ∈ R3 ; (x, y) ∈ D, 0 z f (x, y) , l’intégrale f (x, y)dxdy est, par D
définition, le volume de V et noté V(V )
Dans le cas où D est un pavé, on retrouve la définition donnée plus haut. 5.5 Intégrales doubles impropres Dans ce qui précède, les intégrales doubles que nous avons rencontrées mettaient en jeu des domaines plans bornés. Dans la présente section, nous nous intéressons à l’intégrale double d’une fonction, continue, positive sur un produit d’intervalles, non néssairement bornés. Nous admettrons tout d’abord le théorème suivant. Théorème 9 (Théorème de Fubini) Soient I et J deux intervalles de R non réduits à un point, et f une fonction continue, positive sur I × J . On suppose que 1. pour tout x ∈ I,
f (x, y)dy converge ; J
2. pour tout y ∈ J,
f (x, y)dx converge ; I
3. les fonctions G : x ∈ I →
f (x, y)dy et H : y ∈ J → J
G(x)dx converge si et seulement si
Alors I
H(y)dy converge, dans ce cas on a J
G(x)dx = I
184
f (x, y)dx sont continues. I
H(y)dy. J
Intégrales doubles
➤ Remarque Nous avons déjà rencontré des cas particuliers de ce théorème.
À partir de ce résultat, on donne la définition suivante. Définition 18 Soient I et J deux intervalles de R non réduits à un point, et f une fonction continue, positive sur I × J . On suppose que • pour tout x ∈ I,
f (x, y)dy converge ; J
• pour tout y ∈ J,
f (x, y)dx converge ; I
• les fonctions G : x ∈ I →
f (x, y)dy et H : y ∈ J → J
f (x, y)dx dy et
La valeur commune des intégrales J
intégrale double de f sur I × J et notée
I
f (x, y)dx sont continues. I
I
f ou
f (x, y)dy dx est appelée J
f (x, y)dxdy.
I×J
I×J
La proposition ci-dessous est une généralisation des théorèmes analogues rencontrés dans le cas d’un pavé ou d’un domaine élémentaire. Proposition 18 Soient I et J deux intervalles de R non réduits à un point, g une fonction continue positive sur I et h une fonction continue positive sur J. Si
g(x)dx et I
g(x)dx ×
g(x)h(y) dxdy = © Dunod – La photocopie non autorisée est un délit
I×J
I
Ici, nous nous proposons de définir
h(y)dy convergent, on a J
h(y)dy. J
f (x, y)dxdy, f étant une fonction continue et A
positive sur une pertie A ⊂ R2 , dans quelques cas particuliers de partie A. Cette notion a été définie dans le cas où : 1. A est un domaine élémentaire 2. A est un produit d’intervalles. Nous étudions maintenant quelques exemples où A peut être considérée comme un domaine élémentaire non borné, et nous mènerons des calculs analogues à ceux menés dans ces cas, sous réserve, bien sûr , que les intégrales impropres écrites soient convergentes. De tels exemples sont importants en vue du calcul des probabilités. 185
Chapitre 6 – Extensions de la notion d’intégrale
Exemples f (x, y) dxdy, avec A = {(x, y) ∈ R2 ; x + y 1}.
1. A
Ici, A est un demi-plan limité par la droite d’équation x + y = 1. Définissons +∞
G : x ∈ R → f (x, y) dy. 1−x ⎧ +∞ ⎪ ⎪ f (x, u − x) dx ⎨ G(x) = 1 +∞ On a : ⎪ ⎪ G(x)dx = f (x, u − x) du dx = ⎩ R
R
1
g(x, u) dxdu R×[1,+∞[
avec g(x, u) = f (x, u − x). On est donc ramené au cas d’un produit d’intervalles. xye−x dxdy, avec A = {(x, y) ∈ R2 ; 0 y x}.
2. A
Dans ce cas, la partie A est un secteur angulaire limité par la droite d’équation y = x et par l’axe des abscisses, on peut considérer A comme un domaine élémentaire non borné. x
Définissons G : x ∈ [0, +∞[ → on a G(x) =
+∞
1 3 −x x e et 2
xye−x dy,
0
G(x) dx = 0 +∞
Définissons H : y ∈ [0, +∞[ →
1 G(4) = 3. 2
xy e−x dx,
y
on a H(y) = y(1 + y)e
−y
+∞
H(y) dy = G(3) + G(2) = 3.
et 0
A
3.
+∞
xy e−x dxdy =
On aura
+∞
G(x) dx = 0
H(y) dy = 3. 0
1 dxdy, avec A = {(x, y) ∈ R2 ; x 0, y x2 }. (1 + x + y)2 A Dans ce cas la partie A est limitée par l’axe des ordonnées et la parabole d’équation y = x2 , elle peut encore être considérée comme un domaine élémentaire non borné. y
A √ y x2 O
x
Figure 6.5 Représentation de la partie A
186
Intégrales doubles +∞ 1 Définissons G : x ∈ [0, +∞[ → dy. (1 + x + y)2 x2 1 ⎧ 2 +∞ 1 1 ⎪ ⎪ ⎪ G(x) = − = , ⎪ ⎪ 1 + x + y 1 + x + x2 2 ⎪ x √ ⎪ ⎪ +∞ ⎨ +∞ dv 3 2 G(x)dx = √ 1 1 + v2 , (poser x + 1/2 = 2 v), On a : 3 √ 0 ⎪ ⎪ ⎪ 3 ⎪ ⎪ +∞ ⎪ 2p 2 p p ⎪ ⎪ ⎩ G(x)dx = √ ( − ) = √ · 6 3 2 3 3 0 √ y
Définissons H : y ∈ [0, +∞[ → ⎧ 2 ⎪ ⎪ ⎨ H(y) = − On a :
⎪ ⎪ ⎩
On vérifie que
0
1 1+x+y
1 dx. (1 + x + y)2
1√y
1 1 − √ . 1 + y 1 + y + y 0 +∞ +∞ 2u2 du, (poser y = u2 ). H(y) dy = 2 (1 + u )(1 + u + u2 ) 0 0 =
2u 2u2 2u + 1 1 = − + · (1 + u2 )(1 + u + u2 ) 1 + u2 1 + u + u2 1 + u + u2
On a donc : +∞
2 H(y) dy = ln
0
1 + u2 1 + u + u2
+∞
= 0
1+∞
+∞
+ 0
0
du 1 + u + u2
du 1 + u + u2
2p = √ . 3 3 On aura
© Dunod – La photocopie non autorisée est un délit
A
1 dxdy = (1 + x + y)2
+∞
+∞
G(x)dx = 0
0
2p H(y) dy = √ · 3 3
➤ Remarque Dans chacun des cas évoqués ci-dessus, on peut définir l’application ~ f : R2 → R prolongée de l’application f de la façon suivante ∀x ∈ A & f (x) = f (x), ∀x ∈ R2 A, & f(x) = 0. On pose alors
&f (x, y) dxdy =
R2
f(x, y) dxdy . A
5.6 Changement de variables en coordonnées polaires Dans cette section, on notera w l’application (r, u) ∈ [0, +∞[ × R → (r cos u, r sin u). 187
Chapitre 6 – Extensions de la notion d’intégrale
Les théorèmes généraux sur le changement de variable permettent de conclure que Proposition 19 Soient un réel a et D un domaine élémentaire de [0, +∞[ × [a, a + 2p]. Si w(D) est un domaine élémentaire de R2 , pour toute fonction f continue sur w(D), on a f (r cos u, r sin u)rdrdu.
f (x, y)dxdy = D
w(D)
On admettra que cette proposition est encore vraie si D et w(D) sont des produits d’intervalles quelconques sous réserve que les intégrales puissent être définies. Par exemple, D = [0, +∞[ × [0, 2p], et alors w(D) = R2 , ou encore D = [0, +∞[ × [0, p/2], et w(D) = [0, +∞[×[0, +∞[. Exemples
1. Calculer le volume de V = (x, y, z) ∈ R3 ; 0 z 4 − (x2 + y2 ) . On note que : (4 − (x2 + y2 ))dxdy, 4 − (x2 + y2 ) = 0 si et seulement si x2 + y2 = 4, on a donc V(V ) = D
avec D = (x, y) ∈ R2 ; x2 + y2 4 . En utilisant les coordonnées polaires, on a : V=
(4 − r 2 )rdrdu [0,2]×[0,2p] 2
(4 − r 2 )rdr
= 2p 0
= 8p. 2. L’intégrale de Gauss +∞
Nous avons démontré plus haut que l’intégrale 2
2
2
e−(x +y ) dxdy = 2
2
0
e−(x +y ) = e−x e−y on peut affirmer que 2
e−t dt converge. Comme
+∞
2
[0,+∞[×[0,+∞[
e−t dt
2
2
0
D’autre part, en utilisant les coordonnées polaires, on aura : w [0, +∞[ × [0, p/2] = [0, +∞[×[0, +∞[ e−(x +y ) dxdy = 2
et
re−r drdu.
2
2
[0,+∞[×[0,+∞[
[0,+∞[×[0,p/2]
Or
p/2
re−r drdu = 2
+∞
du ×
[0,+∞[×[0,p/2]
0
0
On en déduit que +∞
e 0
188
−t2
√ dt =
p · 2
re−r dr = 2
p 1 × · 2 2
∞
1.
1. Montrer que l’intégrale 1
1 1 − Arcsin t t
dt converge et la calculer.
1
2. Soit n ∈ N∗ , montrer que l’intégrale
(ln t)n dt converge et la calculer. 0 1
3. Déterminer l’ensemble I des réels x tels que 1
calculer
t−x ln t dt converge. Pour tout x dans I
0
t−x ln t dt.
0
∞
4. Déterminer l’ensemble I des réels x tels que 0
∞
calculer
e−xt sin t dt converge. Pour tout x dans I
e
−xt
sin t dt.
0
2. Déterminer, dans chacun des cas suivants, l’ensemble des réels x tels que l’intégrale proposée converge. +∞
1. 0 +∞
3. 0 1
5. 0
3.
Arctan xt dt. 1 + t2
+∞
2.
e−xt
0
−xt2
+∞
e dt. 1 + t2
4.
1−t x t dt. ln t
6.
0 1 0
sin t dt. t
1 − cos tx −t e dt. t2
ln t ln(1 − t) −x t dt. t
Intégrale de Gauss
8 √ 8 1. Montrer que pour tout n ∈ N∗ , et pour tout t ∈ 0, n on a n 2 t2 1 1− n · e−t n t2 1+ n 2. Montrer que
√ n
1−
0
0
√ n
t2 n
n dt =
√
p/2
(sin u)2n+1 du;
n 0
√ 1 dt = n 2 n t 1+ n
p/4
(cos u)2n−2 du. 0
'
p/2
(sint) dt ∼ n
3. On rappelle (voir le cours de première année) que 0
Montrer que
∞ 0
e−t dt = 2
+∞
p · 2n
√
p · 2
189
Chapitre 6 – Extensions de la notion d’intégrale
+∞
4.
1. En utilisant une intégration par parties, montrer que l’intégrale +∞
converge et que 0 ∞
2. Montrer que 0
5.
sin t dt = t
sin t dt = t
+∞ 0
+∞ 0
0
1 − cos t dt· t2
sin t dt t
sin2 t dt· t2
Intégrales de Bertrand +∞
Soit (a, b) ∈ R2 , on se propose d’étudier la nature de l’intégrale e
(ln t)b dt· ta
b
1. On suppose a > 1 et l’on pose a = 1 + 2h. On a alors +∞
nature de e
(ln t)b dt· ta
2. On suppose a < 1 et l’on pose a = 1 − 2h. On a alors +∞
la nature de e
(ln t)b dt· ta
(ln t)b 1 (ln t) = , en déduire la a t th t1+h
1 (ln t)b = th (ln t)b 1−h , en déduire a t t
3. Étudier maintenant le cas où a = 1. 6.
1. Soit c un réel strictement positif, montrer que quels que soient les réels ´ et x tels x −t c´ −t cx −t e − e−ct e e dt = dt − dt. que 0 < ´ < x, on a t t t ´ ´ x cx −t e 2. Montrer que lim dt = 0. x→+∞ x t c´ −t e dt = ln c. 3. Montrer que lim ´→+∞ ´ t +∞ −t
e
4. En déduire que 0
− e−ct dt converge et que t
+∞ −t
e
0
− e−ct dt = ln c. t
+∞ −at
e
5. Soient a et b deux réels tels que 0 < a < b, montrer que +∞ −at
e
que 0
0
− e−bt b dt = ln · t a
− e−bt dt converge et t
Arctan pt − Arctan t dt converge et calculer sa t 0 valeur. (On utilisera des méthodes analogues à celles qui sont utilisées dans l’exercice précédent). +∞
7.
190
Montrer que l’intégrale
EXERCICES 1
8.
1. Soit (a, b) ∈ R2 , montrer que l’intégrale
(− ln t)a (1 − t)b dt converge si et 0 2
seulement si a + b > −1. On notera D = {(a, b) ∈ R ; a + b > −1}. 2. Montrer que pour tout n ∈ N∗ et pour tout (a, n) ∈ D, on a : n n 1 a n k k (− ln t) (1 − t) dt = G(a + 1) (−1) · (k + 1)a+1 0 k=0 3. On suppose a = 1 et b = −1.
1
en déduire que 0
tn+1 1 = , tk + 1−t 1−t k=0 n
Montrer que pour tout t ∈ [0, 1[ , ∞
1 − ln t dt = · 1−t n2 n=1
9.
Soit a un réel strictement positif. √ 1. Montrer que la série e−a n est convergente. n∈N
2. On pose Sn (a) =
n
√ k
e−a
, S(a) =
k=0
+∞
√ k
e−a
n
et In (a) =
√ t
e−a
dt.
0
k=0 Sn (a).
Montrer que Sn (a) − 1 In (a) 2 En déduire que S(a) − 1 2 S(a). a 3. Déterminer un équivalent de S(a) au voisinage de zéro. p/2
10.
1. Soit a un réel non nul, calculer 0 (n+1)p
2. Montrer que pour tout n ∈ N, 3. Montrer que la série
np
n∈N
p
1+
0
∞
4. En déduire que l’intégrale 0
11.
1 dt 1 + et sin2 t
dt enp
dt · 1 + a2 sin2 t
sin2 t
p 0
dt 1+
enp
sin2 t
·
converge.
dt converge. 1 + et sin2 t
1. Soit D = (x, y) ∈ R2 ; y + x 0, y − 2x 0, 0 y 4 , x
calculer
e y dxdy. D
2. Soit D = (x, y) ∈ R2 ; y − x 0, x2 + y 0 , √ y − x dxdy. calculer
D
191
Chapitre 6 – Extensions de la notion d’intégrale
3. Soit D = (x, y) ∈ R2 ; x 0, y 0, y + x 1 , ln(1 + x + y) dxdy.
calculer D
12.
1. Soit D = (x, y) ∈ R2 ; x2 + y2 − 2y 0 ,
calculer
(x + y) dxdy. D
2. Soit D = (x, y) ∈ R2 ; y x, x2 + y2 − 2x 0 , / x2 + y2 dxdy. calculer D
3. Soit D l’intérieur du triangle de sommets (0, 0), (3, 0), (3, 3), / x2 + y2 dxdy. calculer D
4. Soit D = (x, y) ∈ R2 ; x 0, x2 + y2 4 , cos(x2 + y2 ) dxdy.
calculer D
13. 1. Soit D = (x, y) ∈ R2 ; x2 + y2 1, x2 + y2 − 2y 0 , calculer l’aire de D.
√ 2. Soit D = (x, y) ∈ R2 ; x 0, y 0, x2 + y2 xy , calculer l’aire de D. 3. Soient a un réel strictement positif et soit V = (x, y, z) ∈ R3 ; x2 + y2 + z2 a2 , x2 + y2 − ax 0 , calculer le volume de V .
14.
e−(x+y) (x + y)2 dxdy converge et calculer sa
Montrer que l’intégrale [0,∞[×[0,∞[
valeur.
15.
1. Montrer que l’intégrale [0,∞[×[0,∞[
valeur, soit I cette valeur. 1 ln t dt. 2. Comparer I et 2 0 t −1
192
dxdy converge et calculer sa (1 + xy2 )(1 + x)
EXERCICES
16.
On se propose de montrer que pour tous réels p, q strictement positifs B(p, q) =
G(p)G(q) · G(p + q)
e−(x +y ) x2p−1 y2q−1 dxdy converge, et que 2
1. Montrer que
2
]0,+∞[×]0,+∞[
e−(x +y ) x2p−1 y2q−1 dxdy = G(p)G(q). 2
2
]0,+∞[×]0,+∞[
2. En utilisant les coordonnées polaires montrer que p 2 (cos u)2p−1 (sin u)2q−1 du.
G(p)G(q) = 2G(p + q) 0
3. Grâce à un changement de variable bien choisi, montrer que B(p, q) =
G(p)G(q) · G(p + q)
193
Espaces probabilisés
7
En première année, nous avons présenté la notion d’espace probabilisé dans le cas particulier d’un univers fini. Nous allons généraliser les définitions à un univers quelconque, en nous concentrant sur le cas où l’univers n’est pas fini. La théorie est plus compliquée : une partie de l’univers n’est pas nécessairement un événement ; l’additivité de la probabilité s’étend aux réunions dénombrables d’événements incompatibles ; les systèmes complets d’événements peuvent être dénombrables et pas seulement finis.
1. Espaces probabilisables 1.1 Expérience aléatoire On rappelle qu’on appelle expérience aléatoire une expérience dont le résultat ne peut pas être prévu de manière certaine. En général, l’ensemble des résultats possibles d’une expérience aléatoire est connu ou peut au moins être inclus dans un ensemble connu. Définition 1 L’ensemble des résultats possibles d’une expérience aléatoire est appelé univers (ou univers des possibles, ou ensemble fondamental), noté en général V. Un élément de cet ensemble V est appelé un possible ou une éventualité. Il est dit réalisé s’il est effectivement constaté lors d’un déroulement particulier de l’expérience. Exemples 1. Soit l’expérience consistant à lancer une pièce de monnaie et à s’arrêter dés que l’on obtient pile pour la première fois. Si l’on obtient pile au n-ième lancer, le résultat obtenu pourra être représenté par la suite (F, . . . , F, P). Mais il se peut que l’on obtienne jamais pile, n termes
résultat qu’on peut représenter par une infinité de F. En notant v0 ce résultat, on obtient V = {(F, . . . , F, P , n ∈ N∗ } ∪ {v0 }. n termes
Espaces probabilisables
Cet ensemble est infini et dénombrable. On rappelle qu’un ensemble est dénombrable s’il peut être mis en bijection avec N. 2. Observons la durée de vie d’une ampoule électrique. Le résultat est un réel positif ou nul. Il est assez délicat de majorer simplement cette durée de vie ; en effet, si nous imposions dans notre expérience une durée de vie maximale donnée M, l’ampoule que nous étudions pourrait être fort exceptionnelle et continuer à fonctionner après cette durée M. C’est pourquoi nous prendrons ici V = R∗+ =]0, +∞[, même s’il est clairement absurde d’envisager des ampoules encore en activité dans un million d’années ! Cette fois-ci, l’univers V est un ensemble infini non dénombrable.
Notation Les éléments de V sont en général notés v. Si V est un ensemble fini contenant n éléments, alors on pose V = {v1 , . . . , vn } ; si V est dénombrable, on pose V = {vi , i ∈ N} (nous serons parfois amenés par commodité à choisir N∗ plutôt que N). 1.2 Les événements Un événement est une propriété attachée à l’expérience qui peut être vérifiée ou non. On identifie un tel événement avec l’ensemble des résultats pour lesquels elle est vérifiée. Un événement est donc une partie de l’univers V, c’est-à-dire un élément de P (V). Exemple Reprenons l’expérience consistant à lancer une pièce de monnaie jusqu’à l’obtention du premier pile. L’événement « l’expérience se termine avant le quatrième lancer » est {(P), (F, P), (F, F, P), (F, F, F, P)}.
© Dunod – La photocopie non autorisée est un délit
L’événement « l’expérience ne se termine pas » est le singleton {v0 }.
On ne sait pas a priori si toute partie de V est un événement. Ceci sera précisé plus loin. Mais certaines parties de V peuvent être considérées raisonnablement comme des événements. Définition 2 • V est un événement de V, appelé événement certain. • ∅ est un événement de V, appelé événement impossible. • Un événement contenant un seul élément, si c’est possible, est appelé événement élémentaire de V. Définition 3 Soit A un événement. On dit que A est réalisé si le résultat de l’expérience appartient à A.
195
Chapitre 7 – Espaces probabilisés
Définition 4 Pour tous événements A et B d’un univers V, on dit que l’événement A implique l’événement B si A ⊂ B, c’est-à-dire si, lorsque A est réalisé, B est réalisé aussi. Définition 5 Soit V un univers. Deux événements A et B de V tels que A ∩ B = ∅ sont dits incompatibles. ➤ Remarque Si A est un événement, alors A et son contraire A sont incompatibles.
Opérations sur les événements Si A et B sont deux événements liés à la même expérience, il est naturel de considérer que la non réalisation de A, la réalisation simultanée de A et B, la réalisation de l’un au moins des événements A et B sont des événements. Définition 6 Soit V un univers. Pour tout événement A de V, le complémentaire de A dans V, noté A, est un événement, appelé l’événement contraire de A. La réunion A ∪ B de deux événements A et B de V est un événement, appelé « A ou B ». L’intersection A ∩ B de deux événements A et B de V est un événement, appelé « A et B ». ➤ Remarque On rappelle les lois de Morgan, utiles dans les démonstrations qui suivent : toutes parties A et B de V vérifient les relations A ∪ B = A ∩ B et A ∩ B = A ∪ B.
Du fait que la réunion et l’intersection de deux événements et le complémentaire d’un événement est un événement, on tire les proposition suivantes. Proposition 1 L’intersection et la réunion d’un nombre fini d’événements sont des événements. Preuve Soit A1 , . . . , An des événements. On montre par récurrence sur n ∈ N que A1 ∪ . . . ∪ An est un événement. C’est vrai pour n = 1 et si c’est vrai au rang n, on considère des événements A1 , . . . , An+1 . Alors A1 ∪ . . . ∪ An est un événement, par hypothèse de récurrence, et A1 ∪ . . . ∪ An+1 = A1 ∪ . . . ∪ An ∪ An+1 est un événement car réunion de deux événements. Comme le complémentaire d’un événement est événement, A1 , . . . , An sont des événements donc A1 ∪. . .∪ An est un événement d’après le premier point et donc A1 ∩ . . . ∩ An = A1 ∪ . . . ∪ An est un événement car complémentaire d’un événement.
196
❑
Espaces probabilisables
➤ Remarque Dans le cas où V n’est pas fini, il apparaît nécessaire de considérer des réunions dénombrables d’événements.
Exemple Reprenons l’expérience consistant à lancer une pièce de monnaie jusqu’à l’obtention du premier pile. L’événement An : « l’expérience se termine après le n-ième lancer » s’écrit An =
+∞ "
{(F, . . . , F , P)}.
k=n+1
k−1 termes
C’est une réunion dénombrables d’événements élémentaires.
Il semble donc nécessaire, en plus des propriétés précédentes de supposer que l’ensemble des événements est stable par réunion9dénombrable, c’est-à-dire que, si (An )n∈N est une suite d’événements, alors An est un événement. n∈N
1.3 L’ensemble des événements On note T l’ensemble des événements. C’est un sous-ensemble de P (V). Dans le cas où V est fini ou dénombrable, nous considérerons que toute partie de V est un événement et prendrons T = P (V), ensemble de toutes les parties de V. Mais si V n’est pas dénombrable, il n’est pas possible de prendre T = P (V), car cela interdit de définir une probabilité raisonnable ; T sera alors une partie stricte de P (V) qui vérifie toutes les propriétés mises en évidence précédemment. Cela nous conduit à la définition suivante. Définition 7
© Dunod – La photocopie non autorisée est un délit
On appelle espace probabilisable un couple (V, T ) constitué d’un ensemble V et d’un sous-ensemble T de P(V) vérifiant les propriétés suivantes : • V appartient à T ; • T est stable par passage au complémentaire, c’est-à-dire que, pour tout élément A de T , A appartient à T ; • T est stable par 9 réunion dénombrable, c’est-à-dire que, si (An )n∈N est une suite d’éléments de T , alors An appartient à T . n∈N
L’ensemble V est appelé l’univers ; tout élément de T est appelé un événement de V.
Le théorème suivant nous montre que l’on retrouve ainsi toutes les propriétés que l’on souhaitait voir vérifiées par l’ensemble des événements. 197
Chapitre 7 – Espaces probabilisés
Proposition 2 Soit (V, T ) un espace probabilisable. Alors • ∅ appartient à T ; • T est stable par intersection dénombrable, c’est-à-dire que, si (An )n∈N est une suite : d’éléments de T , alors An appartient à T ; n∈N
• T est stable par réunion et intersection finie, c’est-à-dire que, étant donné un nombre fini A1 , . . . , An d’éléments de T , A1 ∪ . . . ∪ An et A1 ∩ . . . ∩ An appartiennent à T ; • pour tous éléments A et B de T , A \ B et ADB appartiennent à T . Preuve • ∅ appartient à T car V appartient à T et T est stable par passage au complémentaire. • Soit (An )n∈N d’éléments de T . Pour tout entier n, An appartient à T , donc +' ∞ n=0
An =
+( ∞
An , on en déduit que
n=0
+( ∞
+' ∞
An appartient à T . Comme
n=0
An appartient à T , par passage au complémentaire.
n=0
• Si A1 , . . . , An sont des éléments de T , en posant Ai = ∅ si i = 0 ou i > n, on obtient, par stabilité par +' ∞ Ai ∈ T , c’est-à-dire A1 ∪ . . . ∪ An ∈ T .
réunion dénombrable
i =0
De même, en posant A0 = V et Ai = V pour i > n, on obtient, par stabilité par intersection dénombrable, +( ∞ Ai ∈ T , c’est-à-dire A1 ∩ . . . ∩ An ∈ T . i =0
• Si A et B appartiennent à T , il en est de même de A \ B = A ∩ B et ADB = (A ∩ B) ∪ (B ∩ A), d’après les propriétés précédentes.
❑
➤ Remarques • Soit V un ensemble et T une partie de P (V). On dit que T est une tribu de V si • V appartient à T ; • T est stable par passage au complémentaire, c’est-à-dire que, pour tout élément A de T , A appartient à T ; • T est stable par réunion dénombrable, On pourrait donc dire qu’un espace probabilisable est un couple (V, T ), où T est une tribu sur V. Cependant, la notion de tribu n’est pas au programme.
• Dans le cas où l’univers V est fini ou dénombrable, l’ensemble des événements est P (V) et l’espace probabilisé est V, P (V) . On peut noter également que si V est un ensemble fini, alors P (V) est également fini. Toute intersection (resp. réunion) au plus dénombrable d’éléments de T se réduit à une intersection (resp. une réunion finie). La stabilité par réunion ou intersection dénombrable est une notion inutile dans un espace probabilisable fini. • Dans le cas où V n’est pas dénombrable, construire un espace probabilisable (V, T ) qui permette de décrire la situation est très difficile. Dans la pratique l’existence d’un tel espace probabilisable sera une donnée de l’énoncé.
198
Espaces probabilisés
1.4 Systèmes complet d’événements Définition 8 Soit (V, T ) un espace probabilisable. On appelle système complet d’événements de cet espace probabilisable toute famille finie ou dénombrable (Ai )i∈I d’événements, où I = N ou I = [[1, n]] (n ∈ N∗ ), telle que • pour tout couple (i, j) d’éléments distincts de I, Ai ∩ Aj = ∅ ; " Ai = V. • i∈I
➤ Remarques • Si (Ai )i∈I est un système complet d’événements de V, alors (Ai )i∈I est une partition de V si, et seulement si, tous les Ai sont différents de ∅. Certains auteurs ajoutent cette condition à la définition des systèmes complets. • Si le système complet d’événements est dénombrable, on prend souvent I = N∗ plutôt que N.
Proposition 3 Soit (V, T ) un espace probabilisable. • Pour tout événement A de V, la famille (A, A) est un système complet d’événements. • Si l’univers est fini V = {v1 , . . . , vn }, alors la famille {v1 }, {v2 }, . . . , {vn } , formée des événements élémentaires, est un système complet d’événements. • Plus généralement, pour tout univers au plus dénombrable V = {vi , i ∈ N}, la famille {vi } i∈N , formée des événements élémentaires est un système complet d’événements.
© Dunod – La photocopie non autorisée est un délit
2. Espaces probabilisés Dans le cas d’un univers fini, on a défini une probabilité comme une application de P (V) dans [0, 1] additive, c’est-à-dire vérifiant P(A ∪ B) = P(A) + P(B), pour tout couple d’événements incompatibles (A, B). Pour traiter le cas où V est infini, on impose une condition d’additivité plus forte. 2.1 Probabilité Définitions Définition 9 On appelle probabilité sur l’espace probabilisable (V, T ) toute application P de T dans R+ vérifiant • P(V) = 1,
199
Chapitre 7 – Espaces probabilisés
• pour toute suite (Ai )i∈N d’événements deux à deux incompatibles, la série de terme général P(Ai ) converge et +∞ " P Ai = P(Ai ). i∈N
i=0
Pour tout A élément de T , P(A) est appelée la probabilité de l’événement A. ➤ Remarques • Le nombre
+ ∞
P(Ai ) est la somme d’une série à termes positifs.
i =0
• La seconde propriété est appelée la s-additivité. • Il résulte de la définition que les événements sont les parties de V auxquelles on peut associer une probabilité.
Définition 10 Un espace probabilisé est un triplet (V, T , P), où (V, T ) est un espace probabilisable et P une probabilité sur (V, T ).
Propriétés Théorème 1 Soit (V, T , P) un espace probabilisé. On a alors : 1. P(∅) = 0 ; 2. pour toute famille finie (A1 , A2 , . . . , An ) d’événements deux à deux incompatibles, n ) (A P(Ak ). P 1 ∪ . . . ∪ An = k=1
En particulier, pour tout couple (A, B) d’événements incompatibles P(A ∪ B) = P(A) + P(B) ; 3. pour tout événement A, et
P(A) = 1 − P(A) 0 P(A) 1;
4. pour tout couple (A, B) d’événements vérifiant A ⊂ B, on a P(B \ A) = P(B) − P(A) et donc
P(A) P(B) ;
on dit que l’application P est croissante ; 5. pour tout couple (A, B) d’événements, P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
200
Espaces probabilisés
Preuve 1. Considérons la famille d’événements incompatibles (Ai )i∈N où Ai = ∅ pour tout entier naturel i. Alors, par définition d’une probabilité, la série de terme général constant P(∅) converge, d’où P(∅) = 0. 2. Soit (A1 , . . . , An ) une famille finie d’événements deux à deux incompatibles. La suite (Ak )k∈N , où Ak = ∅ pour tout entier k n + 1 et pour k = 0, est une famille d’événements deux à deux incompatibles. Alors, par définition de la probabilité, P
+∞
Ak
=
k=0
Comme P(∅) = 0 et
+' ∞
+∞
P(Ak ) = P(A0 ) +
k=0
n
+∞
P(Ak ) +
k=0
P(Ak ).
i =n+1
Ak = A1 ∪ . . . ∪ An , on obtient
k=0
P(A1 ∪ . . . ∪ An ) =
n
P(Ak ).
k=1
Ainsi la seconde propriété de la définition d’une probabilité est vraie pour une réunion finie. En particulier, pour deux événements incompatibles, on trouve P(A ∪ B) = P(A) + P(B). 3. On a par définition, puisque A et A sont incompatibles,
P(A) + P(A) = P A ∪ A = P(V) = 1 et donc P(A) = 1 − P(A). Comme P(A) 0, on en déduit P(A) 1 et donc P(A) ∈ [0, 1]. 4. Si A ⊂ B, B est la réunion des événements incompatibles A et B \ A et donc P(B) = P(A) + P(B \ A) P(A). On en déduit P(B \ A) = P(B) − P(A). 5. L’événement A ∪ B est la réunion des deux événements incompatibles A et B \ A ; d’autre part, B est la réunion des événements incompatibles A ∩ B et B \ A. On a donc P(A ∪ B) = P(A) + P(B \ A) et P(B) = P(A ∩ B) + P(B \ A).
© Dunod – La photocopie non autorisée est un délit
On en déduit que P(A ∪ B) = P(A) + P(B) − P(A ∩ B).
❑
➤ Remarque Ainsi toute probabilité est une application à valeurs dans [0, 1].
Corollaire 1 Pour tout couple d’événements (A, B) de l’espace probabilisé (V, T , P), on a P(A ∪ B) P(A) + P(B).
Preuve Cela découle directement du point 5 du théorème précédent.
❑
201
Chapitre 7 – Espaces probabilisés
Définition 11 Soit (V, T , P) un espace probabilisé. Tout événement A tel que P(A) = 0, différent de ∅, est dit négligeable ou quasi-impossible. Tout événement de probabilité 1, différent de V, est dit presque certain ou quasicertain. Toute propriété vérifiée sur un ensemble de probabilité 1 est dite presque sûrement vraie ou presque sûre. ➤ Remarque Nous verrons que dans le cas d’un univers infini, un événement A peut être quasi-impossible, c’est-à-dire de probabilité nulle, sans que A = ∅ (cf l’étude du jeu de pile ou face, paragraphe 2.4.2 page 210). L’événement contraire est alors quasi-certain, c’est-à-dire de probabilité 1, sans être égal à V.
Propriétés des systèmes complets d’événements Proposition 4 Pour tout système complet fini d’événements (A1 , . . . , An ) de l’espace probabilisé (V, T , P), on a n P(Ai ) = 1. i=1
Pour tout système complet dénombrable d’événements (Ai )i∈N de V, la série de terme général P(Ai ) converge et +∞ P(Ai ) = 1. i=0
Preuve • Soit (A1 , . . . , An ) un système complet d’événements de V. Par additivité finie, comme la famille (A1 , . . . , An ) est une famille d’événements deux à deux incompatibles, n n ' P( Ai ) = P(Ai ). i =1
De l’égalité
i =1 n ' i =0
Ai = V découle
n
P(Ai ) = 1.
i =1
• Soit (Ai )i∈N un système complet d’événements de V. Les événements Ai sont deux à deux incompatibles, donc par s-additivité de la probabilité P, la série de terme général P(Ai ) converge et +∞ P( Ai ) = P(Ai ). i ∈N
i =0
Or, par définition d’un système complet d’événements,
'
i ∈N
Ai = V, d’où le résultat.
Proposition 5 Pour tout système complet fini d’événements (A1 , . . . , An ) de l’espace probabilisé (V, T , P) et tout événement B, on a P(B) =
n i=1
202
P(B ∩ Ai ).
❑
Espaces probabilisés
Pour tout système complet d’événements dénombrable (Ai )i∈N de (V, T , P) et tout événement B, la série de terme général P(B ∩ Ai ) converge et sa somme vaut P(B). Preuve • Soit (A1 , . . . , An ) un système complet d’événements. Comme les événements A1 , . . . , An sont deux à deux incompatibles, les événements B ∩ A1 , . . . , B ∩ An sont aussi deux à deux incompatibles. n n ' Par additivité finie, on obtient, P (B ∩ Ai ) = P(B ∩ Ai ). Comme
n '
(B ∩ Ai ) = B ∩ (
i =1
n '
i =1
i =1
Ai ) = B ∩ V = B, on obtient
i =1
P(B) =
n
P(B ∩ Ai ).
i =1
• Soit (Ai )i∈N un système complet d’événements. Le raisonnement est identique. Les événements B ∩ Ai sont deux à deux incompatibles, donc par s-additivité, la série de terme général P(B ∩ Ai ) converge et +∞ P (B ∩ Ai ) = P(B ∩ Ai ). Comme
' i ∈N
i ∈N
i =0
❑
(B ∩ Ai ) = B, on a le résultat voulu.
La propriété de la limite monotone qui fait l’objet de l’exercice suivant est une conséquence très forte de la s-additivité. Exercice 1. Propriété de la limite monotone
Soit (V, T , P) un espace probabilisé. 1. Montrer que, pour toute suite (An )n∈N croissante d’éléments de T , c’est-à-dire vérifiant An ⊂ An+1 pour tout entier n de N, on a P
+∞ "
An = lim P(An ). n→+∞
© Dunod – La photocopie non autorisée est un délit
n=0
2. Montrer que, pour toute suite (An )n∈N décroissante d’éléments de T , c’est-à-dire vérifiant An+1 ⊂ An pour tout entier n de N, on a P
+∞ ;
An = lim P(An ). n→+∞
n=0
3. En déduire que, pour toute suite (An )n∈N d’événements d’un espace probabilisé (V, T , P), on a n +∞
" " P An = lim P Ak , P
n=0 +∞ ; n=0
n→+∞
An = lim P n→+∞
k=0 n ;
Ak .
k=0
203
Chapitre 7 – Espaces probabilisés
Solution. 1. Étant donnée une (An )n∈N croissante d’événements, on considère la suite (Bn ) définie par B0 = A0 et, pour tout n ∈ N∗ , Bn = An \ An−1 . +∞ +∞ 9 9 Bn ⊂ An . Mais d’autre part si On note que, pour tout n ∈ N, on a Bn ⊂ An donc v∈
+∞ 9
n=0
n=0
An et si m est le plus petit entier k tel que v ∈ Ak , on a v ∈ Am \ Am−1 ⊂ Bm
n=0
donc v ∈
+∞ 9
Bn . On a donc
n=0 n 9
on a An =
+∞ 9
An =
n=0
+∞ 9
Bn . On montre de même que, pour tout n ∈ N,
n=0
Bk . En effet, on a par définition
k=0
n "
Bk ⊂
k=0
n "
Ak ⊂ An
k=0
et réciproquement si v ∈ An et si m est le plus petit entier k tel que v ∈ Ak , on a m n n 9 et v ∈ Bm donc v ∈ Bk . k=0
Les événements Bn étant par définition incompatibles on a n +∞ +∞ +∞ " " P An = P Bn = P(Bn ) = lim P(Bk ), n=0
n=0
n→+∞
n=0
k=0
par définition de la somme d’une série. Mais on a, toujours par incompatibilité des événements Bn , n n
" P(Bk ) = P Bk = P(An ). k=0
k=0
Finalement, on obtient P
+∞ "
An = lim P(An ). n→+∞
n=0
2. Si (An )n∈N est une suite décroissante d’événements, la suite (An )n∈N est une suite croissante d’événements. En appliquant les résultats de la première question, on trouve donc +∞ " P An = lim P(An ). n→+∞
n=0
On observe que
+∞ 9
An =
n=0
P
+∞ ;
+∞ :
An . On en déduit que
n=0
+∞ " An = 1 − P An = 1 − lim P(An ) = lim 1 − P(An ) = lim P(An ).
n=0
n→+∞
n=0
3. La suite (Bn )n∈N définie par Bn = P
+∞ " n=0
204
An = P
n 9
n→+∞
Ak est croissante et
k=0 +∞ "
+∞ "
n→+∞
Bn =
n=0
Bn = lim P(Bn ) = lim P
n=0
n→+∞
n→+∞
+∞ "
An . On a donc
n=0 n " k=0
Ak .
Espaces probabilisés
De même, la suite (Cn )n∈N définie par Cn =
n
Ak est décroissante et
k=0
+∞
Cn =
n=0
+∞
An .
n=0
On a donc P
+∞ n=0
n +∞ An = P Cn = lim P(Cn ) = lim P Ak . n=0
n→+∞
n→+∞
k=0
2.2 Probabilité sur un ensemble fini Dans le cas où V est fini, l’ensemble des événements est fini. Une suite d’événements incompatibles ne comporte qu’un nombre fini d’événements différents de ∅. La sadditivité est équivalente à l’additivité finie. Celle-ci peut se démontrer à partir de l’additivité pour deux événements par récurrence sur n. On en déduit le théorème suivant. Théorème 2 Soit (V, P(V)) un espace probabilisé fini. Toute application P de P(V) dans R+ vérifiant • P(V) = 1 ; • pour tous événements A et B incompatibles, P(A ∪ B) = P(A) + P(B) est une probabilité.
© Dunod – La photocopie non autorisée est un délit
Ainsi une probabilité sur un espace probabilisé fini telle que nous l’avons définie en première année apparaît comme un cas particulier de la définition donnée pour un espace probabilisé quelconque. Comme nous l’avons vu en première année, une probabilité P sur un ensemble probabilisé fini (V, P (V)) est entièrement déterminé par la connaissance des probabilités des événements élémentaires. Nous avons en effet démontré le théorème suivant. Théorème 3 Soit n ∈ N∗ et V = {v1 , v2 , . . . , vn } un ensemble fini. On considère n nombres réels p1 , p2 , . . . , pn . Alors il existe une probabilité P sur (V, P(V)) telle que P({vi }) = pi pour tout i ∈ [[1, n]] si, et seulement si, n ∀i ∈ [[1, n]] pi 0 et pi = 1. i=1
Quand elle existe, la probabilité P est unique et, pour tout événement A, on a P(A) = pi . i∈[[1,n]] vi ∈A
205
Chapitre 7 – Espaces probabilisés
Équiprobabilité Théorème 4 Sur tout espace probabilisable (V, P(V)) où V est un ensemble fini non vide de cardinal n, il existe une unique probabilité P prenant la même valeur sur tous les événements élémentaires. 1 Pour tout élément v de V, P({v}) = et, pour tout événement A, n P(A) =
Card(A) Card(A) = · n Card(V)
Définition 12 Pour tout univers V de cardinal fini, la probabilité définie sur (V, P(V)) par P(A) =
Card(A) Card(V)
pour tout événement A est appelée la probabilité uniforme sur V.
Cas d’un univers dénombrable Dans un espace probabilisé V, P (V) dont l’univers est dénombrable, une probabilité est, comme dans un espace probabilisé fini, déterminée par la connaissance des probabilités des événements élémentaires. Nous admettrons le théorème suivant qui généralise le théorème 3. Théorème 5 Soit V = {vn , n ∈ N} un ensemble dénombrable. On considère une suite de réels (pn ). Alors il existe une probabilité P sur (V, P(V)) telle que P({vn }) = pn pour tout n ∈ N si, et seulement si, +∞ pn = 1. ∀n ∈ N pn 0 et n=0
Quand elle existe, la probabilité P est unique et, pour tout événement A, on a P(A) = pn . n∈N vn ∈A
➤ Remarque Pour tout événement A infini,
partielles sont majorées par
+∞ n=0
206
pn est la somme d’une série à termes positifs convergente car ses sommes
n∈N vn ∈A
pn = 1.
Espaces probabilisés
Exemple Prenons V = N. On définit une probabilité sur N, P(N) en posant pour tout n ∈ N, n+1 1 . 2 n+1 1 En effet, on a d’une part, pour tout n ∈ N, > 0 ; d’autre part, la série de terme 2 n+1 1 1 général est une série géométrique de raison donc convergente et 2 2
P {n} =
+∞ n+1 1 n=0
2
1 = 2 n=0 +∞
n 1 1 1 = 2 21−
1 2
= 1.
Calculons la probabilité de l’événement A : « l’entier est pair ». On a A = {2n, n ∈ N} donc +∞ +∞ 2n+1 +∞ n 1 1 1 1 1 P(A) = P {2n} = = = 2 2 4 21− n=0 n=0 n=0
1 4
=
2 · 3
2.3 Formule du crible La formule du crible permet le calcul de la probabilité d’union de n événements. Démontrée dans le cas des espaces probabilisés finis en première année, elle reste vraie dans un espace probabilisé quelconque, avec la même démonstration.
© Dunod – La photocopie non autorisée est un délit
Théorème 6 (Formule du crible ou de Poincaré) Pour toute famille finie (A1 , A2 , . . . , An ) d’événements de l’espace probabilisé (V, T , P), où n est un entier naturel non nul, ⎞ ⎛ n n ⎝(−1)k−1 P Ai = P(Ai1 ∩ Ai2 ∩ · · · ∩ Aik )⎠ . i=1
k=1
1i1 0, en un point où FY est dérivable, FY (y) = FX (y) + FX (−y) = f (y) + f (−y). On peut prendre comme densité la fonction g définie par g(y) =
f (y) + f (−y) 0
si y 0 si y < 0.
325
Chapitre 10 – Variables aléatoires réelles à densité
2. Soit X une variable aléatoire réelle de densité f . Montrons que Y = X 2 est une variable aléatoire réelle admettant une densité. Soit y un réel. On a ∅ si y < 0 2 [Y y] = [X y] = √ √ [− y X y] si y 0. On en déduit que [Y y] est un événement pour tout y, donc que Y est une variable aléatoire réelle, et 0 si y < 0 Fy (y) = P([Y y]) = √ √ FX ( y) − FX (− y) si y 0. Comme FX est continue sur R, il en est de même de FY . Le seul problème est la continuité en 0 et lim+ FY (y) = FX (0) − FX (0) = 0 = FY (0) = lim FY (y). − y→0
y→0
La fonction FX étant dérivable sauf en un nombre fini de points, il en est de même de FY . Donc Y est une variable aléatoire à densité. Pour y < 0, FY (y) = 0 et pour y > 0, en un point où FY est dérivable, 1 1 1 √ √ √ √ FY (y) = √ FX ( y) + √ FX (− y) = √ f ( y) + f (− y) . 2 y 2 y 2 y On peut prendre comme densité la fonction g définie par ⎧ 1 √ √ ⎨ √ f ( y) + f (− y) si y > 0 2 y g(y) = ⎩ 0 si y 0.
De ce qui précède, on peut déduire la proposition suivante. Proposition 4 Si X est une variable aléatoire à densité et n un entier naturel non nul, X n est une variable aléatoire à densité.
Preuve Dans le cas où n est impair, on le montre comme pour n = 3 (cf. page 324). Dans le cas n = 2, cela a été démontré dans l’exemple page 325. On en déduit que c’est vrai pour tout entier p n = 2p , p ∈ N, par récurrence sur p. En effet, c’est évident pour p = 0, car 20 = 1 et si X 2 est une variable à 2p 2 2p+1 densité, il en est de même de X = X . Un entier n quelconque peut s’écrire n = 2p m, où p ∈ N et m est un entier impair. On en déduit, d’après ce qui précède, que
Xn = X2
est une variable à densité.
326
p
m
= X2
p
m
❑
Espérance et variance d’une variable aléatoire à densité
➤ Remarque Il ne faut pas croire pour autant que, pour une variable aléatoire à densité X et une fonction continue w quelconques, w(X) est une variable à densité.
Exemple Soit X une variable aléatoire réelle à densité sur un espace probabilisé (V, T , P). Considérons alors Y = X + |X|. Pour tout v ∈ V, on a Y (v) = 0 si X(v) 0 et Y (v) = 2X(v) > 0 sinon. On en déduit que, si y < 0, [Y y] = ∅, [Y = 0] = [X 0] et, si y > 0, # y$ # y$ [Y y] = [Y 0] ∪ [0 < Y y] = [X 0] ∪ 0 < X = X . 2 2 Cela montre que [Y y] est un événement pour aléatoire réelle. On a, de plus, ⎧ ⎪ ⎨0 FY (y) = FX (0) ⎪ ⎩F y X 2
tout y ∈ R, donc que Y est une variable si y < 0 si y = 0 si y > 0.
Comme lim FY (y) = 0, si FX (0) = 0, c’est-à-dire si X n’est pas à valeur dans R+ , FY n’est − x→0
pas continue en 0, donc Y n’est pas une variable à densité. Si X n’est pas une variable à valeurs dans R− , Y n’est pas davantage une variable discrète. En effet, le seul point de discontinuité de FY est 0. Si Y était une variable discrète, ce serait la variable constante 0 ; on aurait FY (0) = 1 = FX (0) et X serait à valeur dans R− . Il existe donc des variables aléatoires réelles qui ne sont ni discrètes, ni à densité. On a montré précédemment que |X| est une variable à densité. Ainsi la somme de deux variables à densité n’est pas toujours une variable à densité.
© Dunod – La photocopie non autorisée est un délit
3. Espérance et variance d’une variable aléatoire à densité Les concepts d’espérance et de variance, déjà rencontrés au niveau des variables aléatoires réelles discrètes, possèdent leurs analogues pour les variables à densité. 3.1 Espérance mathématique Définition 3
+∞
t f (t) dt est absolument
Soit X une variable aléatoire réelle de densité f . Si l’intégrale −∞
convergente, on dit alors que X admet une espérance mathématique (ou espérance) égale au nombre réel +∞ t f (t) dt. E(X) = −∞
327
Chapitre 10 – Variables aléatoires réelles à densité
➤ Remarques • La fonction t → tf (t) étant positive sur R+ et négative sur R− , l’absolue convergence équivaut en fait à la convergence ici. $ +∞ • Même si f présente des discontinuités, le seul problème de convergence pour |t |f(t) dt est en ±∞, car −∞ $ +∞ |a|f(t) dt converge (et si f possède une discontinuité en a, on a, au voisinage de a, |t |f(t) ∼ |a|f(t) et −∞
vaut |a|).
• On en déduit que si X est variable à densité bornée, c’est-à-dire à valeurs dans un segment [a, b], elle possède une espérance. En effet une densité de X est nulle en dehors de [a, b]. • L’espérance n’existe pas toujours. Soit c > 0 et f la fonction définie sur R par f (x) =
c 1 + x2
·
La fonction f est continue et positive sur R. Pour a < b, lim
a→−∞
Arctan(a) = −
p 2
et
lim Arctan(b) =
b→ + ∞
p 2
$
b
a$
f(x) dx = c(Arctan(b) − Arctan(a)). De +∞
, on déduit que
1
−∞
f(x) dx = cp. Cette intégrale vaut 1
· Pour cette valeur de c, f est une densité d’une variable X. $ +∞ c Comme en ±∞, |x |f (x) ∼ , l’intégrale |x |f (x) dx diverge. Une variable aléatoire réelle X de densité f |x | −∞ n’admet pas d’espérance. si c =
p
Exemples 1. Soit f la fonction définie sur R par f (x) = 6x(1 − x) si x ∈ [0, 1] et f (x) = 0 sinon. Montrons que f est une densité d’une variable aléatoire réelle qui admet une espérance. La fonction f est positive, car x(1−x) 0 pour x ∈ [0, 1], et continue, sauf éventuellement en 0 et 1. D’autre part, on a 1 1 +∞ !1 f (x) dx = 6x(1 − x) dx = (6x − 6x2 ) dx = 3x2 − 2x3 0 = 3 − 2 = 1. −∞
0
0
Ainsi f est une densité d’une variable aléatoire réelle. Comme f est nulle en dehors de [0, 1], +∞ 1 1 1 3 4 2 3 3 xf (x) dx = xf (x) dx = (6x − 6x ) dx = 2x − x = · 2 2 −∞ 0 0 Toute variable aléatoire réelle X de densité f possède une espérance et E(X) =
1 · 2
3 2. Soit f la fonction définie sur R par f (t) = 0 si t < 1 et f (t) = 4 pour t 1. Montrons t que f est une densité d’une variable aléatoire X qui possède une espérance. La fonction est positive ou nulle et continue sauf en 1. On en déduit, pour tout x > 1, x x 1 1 f (t) dt = − 3 = − 3 + 1. t 1 x 1
328
Espérance et variance d’une variable aléatoire à densité
+∞
+∞
f (t) dt = 1 et donc
En faisant tendre x vers +∞, on obtient
f (t) = 1. Donc f −∞
1
est une densité d’une variable aléatoire X. On obtient de même, pour x > 1, x x x 3 3 3 3 tf (t) dt = dt = − 2 = − 2 + · 3 t 2t 2x 2 −∞ 1 1 +∞ 3 3 En faisant tendre x vers +∞, on obtient f (t) dt = , c’est-à-dire E(X) = · 2 2 −∞
Propriétés de l’espérance Théorème 7 Soient X une variable aléatoire réelle admettant une densité f et une espérance E(X), et a un réel. Alors Y = aX + b admet une espérance vérifiant E(Y ) = aE(X) + b.
Preuve Si a = 0, la variable Y est la variable constante égale à b, dont l’espérance est b. L’égalité est vérifiée. 1 y − b d’où, par Supposons a > 0. D’après la proposition 3, la variable Y admet comme densité g(y) = f a a le changement de variable t = a u + b, les égalités
$
+∞
−∞
|t | g(t) dt =
1
$
a
+∞
|t | f
−∞
t − b a
$
+∞
dt = −∞
|au + b| f(u) du.
$ +∞ Comme |au + b|f (u) |a| |u|f (u) + f (u), la convergence de |t | g(t) dt résulte de celle des intégrales −∞ $ +∞ $ +∞ |u| f (u) du et f (u) du. Ainsi Y admet une espérance et le même changement de variable donne © Dunod – La photocopie non autorisée est un délit
−∞
−∞
$ E(Y) =
+∞
t g(t) dt = −∞ $ +∞
=a
1 a
$
+∞
tf −∞ +∞
$
uf (u) du + b −∞
t − y a
$
+∞
dt =
(au + b) f(u) du −∞
f (u) du −∞
= aE(X) + b. 1 y − b et les limites de l’intégrale généralisée f a a ❑ sont changées en leurs opposées, ce qui donne le même résultat.
Le cas a < 0 est très peu différent : simplement g(y) = −
Définition 4 Toute variable aléatoire réelle discrète admettant une espérance nulle est dite centrée.
329
Chapitre 10 – Variables aléatoires réelles à densité
Proposition 5 Pour toute variable aléatoire réelle discrète X admettant une espérance E(X), la variable aléatoire X − E(X) est une variable aléatoire réelle discrète centrée appelée la variable aléatoire centrée associée à X. Preuve D’après le théorème 7, la variable X − E(X) admet une espérance, puisque E(X) est une constante et
E X − E(X) = E(X) − E(X) = 0.
❑
Comme sur l’ensemble des variables discrètes, l’espérance est linéaire. Mais, ainsi qu’on l’a déjà remarqué, on n’est pas sûr a priori que la somme de deux variables quelconques à densité est une variable à densité. Nous admettons le théorème suivant : Théorème 8 Soit X et Y deux variables aléatoires réelles à densité sur le même espace probabilisé (V, T , P), admettant chacune une espérance. Si la variable aléatoire réelle X + Y est une variable à densité, elle admet une espérance et E(X + Y ) = E(X) + E(Y ). ➤ Remarque L’espérance n’a pas été définie pour une variable aléatoire réelle quelconque. Cela oblige à supposer que X + Y est une variable à densité.
Théorème 9 Soit X une variable aléatoire réelle à densité, à valeurs dans R+ , possédant une espérance. On a alors E(X) 0.
Preuve
La variable X possède une densité f nulle sur R∗ − . On a donc
$
+∞
E(X) =
tf (t) dt 0,
0
puisqu’il s’agit de l’intégrale d’une fonction positive.
❑
Nous admettrons la propriété plus générale suivante démontrée pour des variables discrètes : Proposition 6 Soient X et Y deux variables aléatoires réelles à densité admettant des espérances mathématiques et telles que P([X Y ]) = 1 (on dit que X Y presque sûrement). On a alors E(X) E(Y ).
330
Espérance et variance d’une variable aléatoire à densité
3.2 Théorème de transfert Le théorème suivant est l’équivalent, pour les variables à densité, du théorème affirmant que, pour une variable aléatoire discrète telle que X(V) = {xn , n ∈ N}, l’espérance de g(X) est donnée, sous réserve d’absolue convergence, par +∞ g(xn )P([X = xn ]). n= 0
Théorème 10 Soient X une variable aléatoire réelle de densité f , à valeurs dans un intervalle I de R, et w une fonction de I dans R, continue sauf en un nombre fini de points. Si Y = w(X) = w ◦ X est une variable aléatoire réelle à densité, elle admet une espérance si, et seulement si, l’intégrale w(t) f (t) dt I
est absolument convergente. Cette espérance est alors donnée par E w(X) = w(t) f (t) dt. I
➤ Remarque
$
$
w(t) f(t) dt désigne
Si I est un intervalle d’extrémités a et b, finies ou infinies,
b
w(t) f(t) dt. a
I
Exemples 1. Soit X une variable aléatoire réelle de densité f et Y = eX . Le théorème de transfert affirme que si Y admet une espérance, elle est donnée par +∞ E(Y ) = et f (t) dt.
© Dunod – La photocopie non autorisée est un délit
−∞
Par ailleurs nous avons démontré (page 324) qu’une densité de Y est donnée par f (ln(y)) si y > 0. g(y) = 0 si y 0 et g(y) = y Ainsi l’espérance de Y est donnée sous réserve d’absolue convergence de l’intégrale par +∞ +∞ E(Y ) = yg(y) dy = f (ln(y)) dy. −∞
0
Mais le changement de variable t = ln(y), i.e. y = et , dans la seconde intégrale redonne la première car on remplace dy par et dt. 2. Si X est une variable à densité, |X| est encore une variable à densité. Le théorème de transfert affirme que si |X| admet une espérance, elle est donnée par +∞ E(|X|) = |t|f (t) dt. −∞
331
Chapitre 10 – Variables aléatoires réelles à densité
On peut transformer cette intégrale, en utilisant la relation de Chasles et le changement de variable u = −t pour t 0. On obtient 0 +∞ 0 +∞ E(|X|) = |t|f (t) dt + |t|f (t) dt = − tf (t) dt + tf (t) dt
−∞ +∞
=
0
−∞ +∞
tf (t) dt =
uf (−u) du + 0
+∞
0
0
t f (−t) + f (t) dt.
0
Ce résultat ne nous étonne pas nous avons démontré dans un exemple page 325 que |X| possède une densité g, nulle sur R− et vérifiant pour y > 0, g(y) = f (−y) + f (y). On retrouve la définition de l’espérance d’une variable à densité.
3.3 Moments d’une variable à densité Définition 5 Soit X une variable aléatoire réelle de densité f et n entier naturel.
+∞
xn f (x) dx
On dit que la variable X admet un moment d’ordre n si l’intégrale −∞
converge absolument, et en cas de convergence, on appelle moment d’ordre n de X le réel +∞
mn (X) =
xn f (x) dx. −∞
➤ Remarque Le moment d’ordre 0 est égal à 1, celui d’ordre 1 est l’espérance mathématique.
Proposition 7 Soit X une variable aléatoire réelle à densité et n entier naturel. La variable X admet un moment d’ordre n si, et seulement si, la variable aléatoire discrète X n admet une espérance. On a alors mn (X) = E(X n ). Preuve n n Cela résulte du théorème de transfert appliqué à la fonction de $ R dans R w : x −→ x . La variable X = w(X) +∞
est une variable à densité. Elle possède un espérance égale à cette intégrale.
−∞
x n f(x) dx en cas de convergence absolue de
❑
Exemple 1 On considère une variable aléatoire réelle X dont une densité est définie par f (t) = e−|t| (cf. 2 exemple 1 page 314). Montrons que X possède des moments de tout ordre et calculons-les. +∞ 1 n −|t| t e Il s’agit de montrer la convergence et de calculer dt. La fonction que l’on intègre −∞ 2
332
Espérance et variance d’une variable aléatoire à densité
étant paire ou impaire, selon la parité de n, il suffit de considérer +∞ +∞ tn e−|t| dt = tn e−t dt, 0
0
que l’on note In . !+∞ On raisonne par récurrence. Pour n = 0, on obtient I0 = −e−t 0 = 1. Si In−1 (n 1) converge, on a, pour x > 0, en intégrant par parties, x x x ! n −t n −t x n−1 −t n −x t e dt = −t e 0 + nt e dt = −x e + n tn−1 e−t dt. 0
0
0
n −x
Quand x tend vers +∞, x e tend vers 0 et la deuxième intégrale à une limite finie car In−1 converge. On en déduit que In converge et In = nIn−1 . Comme I0 = 1, une récurrence simple montre que, pour tout n ∈ N, In = n!. On en déduit que X a un moment d’ordre n pour tout n. Pour n impair, la fonction t −→ tn e−|t| dt est impaire donc mn (X) = 0. Pour n pair, elle est paire, donc 1 mn (X) = 2In = In = n!. 2 Proposition 8 Si une variable aléatoire réelle à densité X admet un moment d’ordre n alors, pour tout entier naturel k n, elle admet un moment d’ordre k. Preuve
$
+∞
Notons f est une densité de X. Par hypothèse, l’intégrale −∞
|x |n f(x) dx converge.
Pour tout réel x, si |x | 1, alors |x |k 1, et si |x | > 1, alors |x |k |x |n . Ainsi dans tous les cas |x |k 1 + |x |n , d’où |x |k f (x) f (x) + |x |n f(x). $ +∞ $ +∞ $ +∞ Les intégrales f (x) dx et |x |n f (x) dx convergent. Il en est de même de f(x) + |x |n f(x) dx et −∞ −∞ $ +∞ −∞ |x |k f (x) dx, d’après le théorème de comparaison des intégrales des fonctions positives. La variable donc de © Dunod – La photocopie non autorisée est un délit
−∞
❑
X admet un moment d’ordre k.
3.4 Variance et écart-type Définition 6 2 Si la variable aléatoire X admet un espérance et si la variable X − E(X) admet une espérance, on appelle variance de X le réel V (X) définie par V (X) = E X − E(X)2 . ➤ Remarques • Notons que 2X étant une variable à densité, il en est de même de X − E(X) d’après la proposition 3 et donc de X − E(X) , d’après la proposition 4.
333
Chapitre 10 – Variables aléatoires réelles à densité
• La variance est la moyenne du carré de la distance entre les valeurs de X et la moyenne de X. La variance mesure donc la dispersion de X par rapport à E(X). • Comme la variable X − E(X) est centrée, la variance est aussi appelée moment centré d’ordre 2.
Proposition 9 (Formule de Koenig-Huyghens) Soit X une variable aléatoire réelle à densité. La variable X admet une variance si, et seulement si, X admet un moment d’ordre 2 et en cas d’existence, on a 2 V (X) = E(X 2 ) − E(X) .
Preuve • Si X possède un moment d’ordre 2, elle possède un moment d’ordre 1, c’est-à-dire une espérance, d’après le théorème 8. On développe 2 (X − E(X))2 = X 2 − 2E(X) X + E(X) . La variable X 2 admet une espérance ; il en est de même de −2E(X) X + ((E(X))2 qui est une fonction affine de X (car E(X) est une constante). On en déduit par linéarité que (X − E(X))2 possède une espérance. Ainsi V(X) existe et V(X) = E(X 2 ) + E − 2E(X)X + (E(X))2
= E(X 2 ) − 2(E(X))2 + (E(X))2 = E(X 2 ) − (E(X))2 . • Réciproquement si V(X) existe, X et (X − E(X))2 ont des espérances. Il en est de même de X 2 , car X 2 = (X − E(X))2 + 2E(X) X − ((E(X))2 . La variable X possède donc un moment d’ordre 2. ❑
Reprenons les exemples de la page 328. Exemples 1. Soit X une variable aléatoire dont une densité f est définie par f (x) = 6x(1 − x) si x ∈ [0, 1] et f (x) = 0 sinon. 1 · Comme f est nulle en dehors de [0, 1], 2 +∞ 1 1 3 3 4 6 5 x − x = · x2 f (x) dx = x2 f (x) dx = (6x3 − 6x4 ) dx = 2 5 10 −∞ 0 0
Nous avons montré que E(X) =
La variable aléatoire réelle X possède un moment d’ordre 2 donc une variance et 2 1 1 3 V (X) = E(X 2 ) − E(X) = − = · 10 4 20 3 2. Soit X une variable aléatoire dont une densité f est définie par f (t) = 0 si t < 1 et f (t) = 4 t pour t 1.
334
Espérance et variance d’une variable aléatoire à densité
3 · On a, pour tout x > 1, 2 x x x 3 3 3 t2 f (t) dt = dt = − = − + 3. 2 t 1 x −∞ 1 t +∞ En faisant tendre x vers +∞, on obtient t2 f (t) dt = 3, c’est-à-dire E(X 2 ) = 3.
Nous avons montré que E(X) =
−∞
La variable aléatoire X possède un moment d’ordre 2 donc une variance et 2 3 9 V (X) = E(X 2 ) − E(X) = 3 − = · 4 4 Exercice 1.
Soit X une variable aléatoire réelle admettant une densité f et une variance V (X). Calculer +∞ # +∞ $ (x − y)2 f (x) f (y) dx dy. −∞
−∞
+∞
Solution. Pour y fixé, considérons l’intégrale −∞
(x − y)2 f (x) f (y) dx. Pour tout réel x,
(x − y)2 f (x) f (y) = x2 f (x)f (y) − 2xf (x)yf (y) + f (x)y2 f (y).
+∞
xk f (x) dx converge pour k = 0, 1 et 2. On a donc une combinaison
L’intégrale −∞
linéaire de fonctions dont les intégrales sur ] − ∞, +∞[ convergent. On en déduit que +∞ (x − y)2 f (x) f (y) dx converge et −∞
+∞ −∞
(x − y)2 f (x) f (y) dx = f (y)
+∞ −∞
x2 f (x) dx − 2yf (y)
xf (x) dx −∞
+∞
+ y2 f (y) © Dunod – La photocopie non autorisée est un délit
+∞
f (x) dx −∞
= f (y)E X 2 − 2yf (y)E(X) + y2 f (y). De nouveau, cette fonction de y est une combinaison de fonctions dont les intégrales sur ] − ∞, +∞[ convergent. On obtient +∞ # +∞ $ 2 +∞ 2 (x − y) f (x) f (y) dx dy = E X f (y) dy −∞
−∞
− 2E(X)
−∞
+∞
+∞
y2 f (y) dy
yf (y) dy + −∞
−∞ 2
= E X 2 − 2 E(X)
+ E X2
= 2V (X).
335
Chapitre 10 – Variables aléatoires réelles à densité
Théorème 11 Si X est une variable aléatoire réelle à densité admettant une variance V (X), alors pour tout couple (a, b) de réels la variable aléatoire a X + b admet une variance donnée par l’égalité V (a X + b) = a2 V (X).
Preuve Si a = 0, le résultat est clair car a X + b est alors une variable certaine (mais il faut noter qu’elle n’est plus à densité mais discrète). Si a = 0, on sait que aX + b possède une espérance donnée par E(aX + b) = aE(X) + b. On a alors
2 2 2 aX + b − E(aX + b) = (aX − aE(X) = a2 X − E(X) . 2 2 Par hypothèse X − E(X) possède une espérance. Il en est de même de a2 X − E(X) . Donc aX + b possède une variance et
2 2 V(aX + b) = E aX + b − E(aX + b) = E a2 X − E(X)
2 = a2 V(X). = a2 E X − E(X)
❑
Nous admettrons le théorème suivant. Théorème 12 Toute variance de variable aléatoire réelle à densité est strictement positive. ➤ Remarque Il est clair que la variance est positive, car c’est l’espérance de la variable positive (X − E(X)).
Définition 7 Si X est variable aléatoire réelle à densité admettant un moment d’ordre deux, √ l’écarttype de la variable aléatoire réelle X est le réel strictement positif s(X) = V (X).
Définition 8 Soit X une variable aléatoire réelle à densité, possédant un moment d’ordre 2. Si X vérifie E(X) = 0 et s(X) = 1, elle est dite centrée réduite.
Proposition 10 Si X est une variable aléatoire réelle à densité, admettant un moment d’ordre 2, la variable X − E(X) est une variable aléatoire réelle à densité, centrée aléatoire réelle discrète X ∗ = s(X) réduite, appelée la variable aléatoire réelle centrée réduite associée à X.
336
Les lois usuelles
Preuve
D’après le théorème 7, X ∗ possède une espérance et E(X ∗ ) = D’après le théorème 11,
X∗
E(X) − E(X)
s(X)
= 0.
admet une variance et V(X ∗ ) =
1 (s(X))2
V(X) = 1.
Par suite X ∗ est une variable aléatoire centrée réduite.
❑
4. Les lois usuelles 4.1 Loi uniforme La loi uniforme sur un segment est la plus simple de toutes les lois de variables aléatoires réelles à densité. Elle exprime le fait qu’un élément est choisi au hasard sur le segment. Définition 9 Soit a et b deux réels tels que a < b. On dit qu’une variable réelle X suit la loi uniforme 1 sur [a, b] et nulle ailleurs. sur [a, b] si elle admet pour densité la fonction f égale à b−a On note X → U [a, b] . ➤ Remarques
© Dunod – La photocopie non autorisée est un délit
• L’existence d’une telle loi est justifiée. En effet, la fonction f est positive et continue sauf en a et b et $ b $ +∞ 1 f (x) dx = dx = 1. b − a a −∞ 1 • La fonction f peut s’écrire f = 1[a,b] , où 1[a,b] est la fonction indicatrice de [a, b] définie par 1[a,b] (x) = 1 b−a si x ∈ [a, b] et 1[a,b] (x) = 0 sinon.
Proposition 11 Si f est la densité dans la définition 9 ci-dessus d’une variable aléatoire réelle donnée suivant la loi U [a, b] , son graphe est formé d’un segment et de deux demi-droites.
0.5
−1
1
2
3
4
−0.5 Figure 10.2 Densité de la loi U [1, 3]
337
Chapitre 10 – Variables aléatoires réelles à densité
Théorème 13 La fonction de répartition F d’une variable aléatoire réelle suivant la loi uniforme sur [a, b] vaut 0 sur ] − ∞, a ], 1 sur [ b, +∞[ et vérifie, pour tout réel x ∈ [a, b], l’égalité F(x) =
x−a · b−a
Preuve Comme X est à valeurs dans [a, b], on a F(x) = 0 si x a, F(x) = 1 si x b et pour x ∈ [a, b],
$
$
x
F(x) =
x
f (t) dt = −∞
a
1
2
1 b−a
dt =
x−a b−a
·
❑
1.0 0.5
−1
3
4
−0.5 Figure 10.3 Fonction de répartition de la loi U [1, 3] ➤ Remarque Plus généralement, on a, pour tout couple de réels (x, y) tel que a x y b, $ y $ y 1 y−x P([x X y]) = f (t) dt = . dt = b−a x x b−a La probabilité que X appartienne à l’intervalle [x, y] est proportionnelle à la longueur de l’intervalle.
Exercice 2.
Soit X une variable aléatoire qui suit la loi uniforme sur [−1, 2]. Déterminer la fonction de répartition et une densité Y = X 2 . Solution. On sait déjà que Y est une variable à densité. Comme X est à valeurs dans [−1, 2], Y est à valeurs dans [0, 4]. On en déduit que, pour tout réel y, FY (y) = 0 si y < 0 et FY (y) = 1 si y > 4. Pour y ∈ [0, 4], on peut écrire √ √ √ FY (y) = P([Y y]) = P([|X| y]) = P([− y X y]). 1 sur [−1, 2]. On en déduit, pour y ∈ [0, 1], 3√ 2 y FY (y) = , 3
Une densité de X est nulle hors de [−1, 2] et vaut
338
Les lois usuelles
√ √ car [− y, y] ⊂ [−1, 2]. Pour y ∈ ]1, 4], on obtient √ y+1 √ · FY (y) = P([−1 X y]) = 3 La fonction FY est continue sur R et dérivable sur R \ {0, 1, 4}. On obtient, en dérivant, une densité g de Y définie par ⎧ 0 si x 0 ou x > 4 ⎪ ⎪ ⎪ ⎪ ⎨ 1 si x ∈ ]0, 1] √ g(y) = 3 y ⎪ ⎪ 1 ⎪ ⎪ si x ∈ ]1, 4]. ⎩ √ 6 y Exercice 3.
Soit X une variable aléatoire à densité admettant une fonction de répartition F strictement croissante. Déterminer la loi de F(X). Solution. Comme la fonction de répartition F est continue et strictement croissante, elle réalise une bijection de R sur ] lim F(x), lim F(x)[ = ]0, 1[. x→−∞
x→+∞
Ainsi, pour tout réel x, [F(X) x] est l’événement impossible si x 0, l’événement certain si x 1 et [F(X) x] = [X F −1 (x)] si x ∈ ]0, 1[ . On en déduit que Y = F(X) est une variable aléatoire dont la fonction de répartition vaut 0 sur R+ , 1 sur [1, +∞[ et vérifie, pour x ∈ ]0, 1[, FY (x) = P [X F −1 (x)] = F F −1 (x) = x. On reconnaît dans cette fonction de répartition, la fonction de répartition d’une variable suivant une loi uniforme sur [0, 1]. Donc F(X) suit la loi uniforme sur [0, 1].
© Dunod – La photocopie non autorisée est un délit
Théorème 14 Toute variable aléatoire réelle X suivant une loi uniforme sur [a, b] admet des moments de tous ordres, donnés par les égalités bn+1 − an+1 · mn (X) = (n + 1) (b − a)
Preuve En effet
$
b
mn (X) = a
xn
1 b−a
dx =
bn+1 − an+1 (n + 1) (b − a)
❑
·
Théorème 15 Toute variable aléatoire réelle X suivant une loi uniforme de paramètre [a, b] admet une (b − a)2 a+b et une variance égale à · espérance mathématique égale à 2 12
339
Chapitre 10 – Variables aléatoires réelles à densité
Preuve La formule précédente donne E(X) = m1 (X) =
b2 − a2 2(b − a)
=
b+a 2
et m2 (X) =
b3 − a3 3(b − a)
=
b2 + ba + a2 3
,
d’où l’on déduit
2 b2 + ba + a2 b2 + 2ab + a2 V(X) = m2 (X) − E(X) = − 3 4 b2 − 2ab + a2 (b − a)2 = = · 12 12
❑
4.2 Loi exponentielle Définition 10 Soit l un réel strictement positif. On dit qu’une variable aléatoire réelle X suit la loi exponentielle de paramètre l si elle admet pour densité la fonction f nulle sur R∗− et définie, pour tout réel x 0, par l’égalité f (x) = l e−lx . On note
X → E(l).
➤ Remarques • $ L’existence d’une loi est justifiée. En effet, la fonction f est positive et continue sauf en 0 et $ +telle +∞ +∞ ∞ f (t) dt = l e−lt dt = − e−lt = 1. −∞
0
0
• La fonction f est définie pour tout réel x par f = l e−lx 1R+ (x), où 1R+ est la fonction indicatrice de R+ définie par 1R+ (x) = 1 si x ∈ R+ et 1R+ (x) = 0 sinon.
Proposition 12 La densité f donnée dans la définition 10 d’une variable aléatoire réelle suivant la loi E(l) est strictement décroissante sur R+ ; son graphe admet l’axe des abscisses comme asymptote. La fonction de répartition d’une variable aléatoire suivant la loi E(l) est strictement croissante sur R+ ; son graphe admet la droite d’équation y = 1 comme asymptote.
Preuve
En effet, la dérivée de f , qui est la fonction x −→ −l2 e−lx est strictement négative sur R+ . La dérivée de F qui est f est strictement positive sur R+ . On a enfin lim f(x) = 0 et lim F(x) = 1. x → +∞
340
x → +∞
❑
Les lois usuelles
1.0 0.5
−1
1 −0.5
2
3
4
Figure 10.4 Densité de la loi E(1)
1.0 0.5
−1
1
2
3
4
−0.5 Figure 10.5 Fonction de répartition de la loi E(1)
Théorème 16 La fonction de répartition d’une variable aléatoire réelle suivant la loi exponentielle de paramètre l est nulle sur R− et vérifie pour x 0, © Dunod – La photocopie non autorisée est un délit
F(x) = 1 − e−lx .
Preuve La densité est nulle sur R− donc F(x) = 0 sur R− et pour x 0,
$ F(x) = 0
x
le−lt dt = −e−lt
x 0
= 1 − e−lx .
❑
Corollaire 1 Si X suit la loi exponentielle de paramètre l, on a pour tout x 0, P([X > x]) = e−lx .
341
Chapitre 10 – Variables aléatoires réelles à densité
Théorème 17 Toute variable aléatoire réelle X suivant une loi exponentielle de paramètre l admet des moments de tous ordres, donnés pour tout n ∈ N, par mn (X) =
n! · ln
Pour n ∈ N, l’existence de mn (X) équivaut à la convergence de
tn le−lt dt. Il
0
suffit de vérifier la relation de comparaison tn e−lt
+∞
lt = o e− 2 ,
t→+∞
car alors la convergence de l’intégrale résultera de celle de
+∞
e− 2 dt, d’après le lt
0
théorème de comparaison des intégrales des fonctions positives. lt tn e−lt = lim tn e− 2 = 0, par croissances comparées d’une puissance Comme lim lt t→+∞ e− 2 t→+∞ et d’une exponentielle, le résultat est établi. Pour le calcul, on détermine une relation entre mn (X) et mn−1 (X), pour n 1. Pour x > 0, on obtient, en intégrant par parties, x x !x n x n−1 −lt tn le−lt dt = −tn e−lt 0 + ntn−1 e−lt dt = −xn e−lx + t le dt. l 0 0 0 Comme lim xn e−lx = 0, on en déduit en faisant tendre x vers +∞, x→+∞
mn (X) =
n mn−1 (X). l
En utilisant n fois cette relation, on obtient mn (X) =
n n−1 1 n! n! · · · · m0 (X) = n m0 (X) = n , l l l l l
car m0 (X) = 1. Théorème 18 Toute variable aléatoire réelle X suivant une loi exponentielle de paramètre l admet une 1 1 espérance égale à et une variance égale à 2 · l l
342
Les lois usuelles
Preuve D’après la formule précédente, E(X) = m1 (X) =
1
l
et
2 2 1 1 V(X) = m2 (X) − E(X) = 2 − 2 = 2 ·
l
l
❑
l
Définition 11 On dit qu’une variable aléatoire réelle X d’un espace probabilisé (V, T , P) est sans mémoire si elle est positive ou nulle et si, pour tout couple (x, y) de réels positifs ou nuls, on dispose de l’égalité P([X > x + y]) = P([X > x]) P([X > y]).
➤ Remarque Cette définition équivaut, si P([X > x]) > 0, à l’égalité P[X >x] ([X > x + y]) = P([X > y]). La probabilité que X prenne une valeur supérieure à x + y sachant qu’elle est supérieure à x, donc qu’elle s’accroisse au moins de y est égale à la probabilité qu’elle prenne une valeur supérieure à y. Si on pense à X comme à une durée, on peut dire que X ne tient pas compte du passé.
Proposition 13 Toute variable aléatoire réelle suivant une loi exponentielle est sans mémoire. Preuve
En effet, elle est positive ou nulle, et pour x 0, P([X > x]) = e−lx . Elle vérifie les conditions de la définition ❑ puisque e−l(x+y) = e−lx e−ly .
© Dunod – La photocopie non autorisée est un délit
Nous allons démontrer réciproquement qu’une variable sans mémoire est une variable certaine nulle ou bien suit une loi exponentielle. Lemme Soit p une fonction de R+ dans [0, 1], dont la restriction à R∗+ n’est pas la fonction nulle, et vérifiant l’égalité p(x + y) = p(x) p(y) pour tout couple (x, y) de réels positifs ou nuls. Il existe alors un réel a ∈ ]0, 1] tel que, pour tout x 0, on ait p(x) = ax .
Preuve
n De l’hypothèse, on déduit, pour tout n ∈ N∗ et tout réel x 0 l’égalité n p(nx) = p(x) . On le montre par récurrence sur n. C’est en effet évident pour n = 1 et si p(nx) = p(x) , on obtient
n
p (n + 1)x = p(nx + x) = p(nx)p(x) = p(x) p(x) = p(x)
n+1
.
343
Chapitre 10 – Variables aléatoires réelles à densité
Soit a = p(1) ∈ [0, 1]. On a p(n) = p(1)n = an pour tout n ∈ N∗ . Si m et n sont deux entiers naturels non n nuls et r = , il vient m p(r)m = p(mr) = p(n) = an = (ar )m d’où p(r) = ar , puisque p(r) et ar sont deux réels positifs. On dispose donc de l’égalité p(r) = ar pour tout nombre rationnel strictement positif r. Comme p est à valeurs dans [0, 1], l’inégalité p(x + y) = p(x)p(y) p(x) est vérifiée pour tous réels positifs x et y donc p décroît. Pour tout réel x > 0, on peut trouver deux suites de rationnels strictement positifs, l’une croissante (rn ) et l’autre décroissante (sn ), convergeant toutes deux vers x. Pour tout entier n, on déduit de rn x sn , par décroissance de p, p(sn ) p(x) p(rn ), c’est-à-dire asn p(x) asn . Le suites (rn ) et (sn ) convergent vers x, donc par composition des limites, (arn ) et (asn ) convergent vers ax et par passage à la limite dans l’égalité précédente, on obtient ax p(x) ax et donc p(x) = ax . Si a est nul, la fonction p est nulle sur R∗ + , ce qui est contraire à l’hypothèse. Ainsi on a a ∈ ]0, 1]. Puisque p n’est pas nulle sur R∗ + , il existe un réel t > 0 tel que p(t) > 0. De l’égalité p(t) p(0) = p(t + 0) = p(t), on tire p(0) = 1 = a0 . Finalement, on obtient, pour tout x 0,
❑
p(x) = ax .
Théorème 19 Soit X une variable aléatoire positive ou nulle qui n’est pas la variable certaine nulle. Alors X est sans mémoire, si et seulement si, elle est une variable aléatoire à densité qui suit une loi exponentielle. Preuve Nous avons plus haut qu’une variable à densité qui suit une loi exponentielle est sans mémoire. Supposons réciproquement que, pour tout couple (x, y) de réels positifs ou nuls, soit vérifiée la condition P([X > x + Y]) = P([X > x])P([X > y]). Posons, pour tout x 0, p(x) = P([X > x]) ∈ [0, 1]. La fonction p est à valeurs dans [0, 1] et vérifie pour tout couple (x, y) de réels positifs ou nuls, p(x + y) = p(x)p(y). ∗ Si p est nulle sur R∗ + , on a F(x) = 1 sur R+ , et même sur R+ par continuité à droite de F, et F(x) = P([X x]) = 0 sur R∗ − : X est la variable certaine nulle.
Écartons ce cas ; on est donc dans les hypothèses du lemme et p vérifie la relation p(x) = ax pour tout x 0, où a = p(1) ∈ ]0, 1]. Si a était égale à 1, il en résulterait F(x) = 1 − p(x) = 0 pour tout x 0, ce qui contredirait l’égalité lim F = 1. +∞
Donc a ∈ ]0, 1[ et l’on peut poser a = e−l avec l = − ln(a) > 0. Comme X est à valeurs dans R+ , on obtient F(x) = 0 pour x < 0 et F(x) = 1 − p(x) = 1 − ax = 1 − e−lx , pour x > 0, ce qui définit effectivement une loi ❑ exponentielle de paramètre l.
➤ Remarques • Si l’on met à part la loi certaine nulle, la loi exponentielle est donc caractérisée par l’absence de mémoire. • La loi exponentielle intervient dans des problèmes de fiabilité (durée de vie de matériel, durée de survie). Un exemple concret est le suivant. Soit T la durée de vie d’un appareil dont on peut supposer qu’il fonctionne à peu près sans usure et qui ne tombe donc en panne que pour des raisons externes. Lorsqu’il a fonctionné jusqu’à l’instant t 0, tout se passe comme s’il était neuf. On a donc, pour u 0, P[T >t] (T > t + u) = P(T > u) : la variable T est sans mémoire.
344
Les lois usuelles
4.3 Loi normale de Laplace-Gauss Le dernier exemple de loi à densité est le plus complexe, mais le plus important sur le plan théorique à cause du théorème de la limite centrée qui sera exposé dans le chapitre sur les convergences en calcul des probabilités. C’est Laplace qui commença à étudier cette loi, mais c’est Gauss qui en fit une étude rigoureuse et complète. Loi normale centrée réduite Nous admettrons le résultat suivant : Théorème 20
+∞
−∞
√ t2 dt = 2p. exp − 2
Définition 12 On dit qu’une variable aléatoire réelle X suit la loi normale centrée réduite si elle admet pour densité la fonction f définie pour tout réel x par l’égalité 1 x2 . f (x) = √ exp − 2 2p On note
X → N (0, 1).
© Dunod – La photocopie non autorisée est un délit
➤ Remarque L’existence d’une telle loi est justifiée. En effet, la fonction f est positive et continue sur R et $ +∞ $ +∞
1 t2 f (t) dt = √ exp − dt = 1, d’après le résultat admis. 2 2 p −∞ −∞
Propriétés de la fonction f La fonction f est paire, donc le graphe de f est symétrique par rapport à l’axe des ordonnées ; celui des abscisses est une asymptote du graphe de f . Le maximum de 1 x2 f vaut f (0) = √ ≈ 0, 3989. Les dérivées successives de exp − étant 2 2p x2 x2 −x exp − et (x2 − 1) exp − , on voit que ce graphe admet deux points 2 2 1 ≈ 0, 2420 (ce nombre d’inflexion aux points d’abscisse 1 et −1 et d’ordonnée √ 2pe est aussi la valeur absolue des pentes des tangentes d’inflexion, qui coupent donc l’axe des abscisses aux points d’abscisse 2 et −2). 345
Chapitre 10 – Variables aléatoires réelles à densité
0.5
−3
−2
−1
1
2
3
Figure 10.6 Densité de la loi normale centrée réduite
On note F la fonction de répartition d’une variable aléatoire réelle suivant une loi normale centrée réduite. Proposition 14 La fonction de répartition F de la variable normale centrée réduite vérifie les propriétés suivantes : x 1 t2 • pour tout réel x, F(x) = √ dt ; exp − 2 2p −∞ 1 • pour tout réel x, F(−x) = 1 − F(x) ; F(0) = ; 2 • pour tout x 0, P(|X| x) = 2F(x) − 1 et P(|X| x) = 2 1 − F(x) .
Preuve La première propriété résulte de la définition d’une variable à densité, les autres de la parité de la densité. On a, pour tout réel x, 2 $ −x 1 t F(−x) = √ exp − dt . 2 2p −∞ En faisant le changement de variable t = −u, on obtient 1
F(−x) = √
2p
$
x
exp +∞ +∞
$
−
u2
(−du)
2 2
1 u = √ exp − 2 2p x = P([X x]) = 1 − F(x). En particulier F(0) = 1 − F(0), donc F(0) = Pour x 0,
1 2
du
·
P(|X | x) = P([−x X x]) = F(x) − F(−x) = 2F(x) − 1,
d’après la relation précédente. Enfin, P |X | x = 1 − P |X | x = 1 − 2F(x) + 1 = 2 1 − F(x) .
346
❑
Les lois usuelles
La fonction F est strictement croissante sur R. Son graphe admet les droites d’équation
1 y = 0 et y = 1 comme asymptotes. Il est symétrique par rapport au point 0, . 2 1 1 Cela résulte de l’égalité (F(x) + F(−x)) = . 2 2 1.0
0.5
−3
−2
−1
1
2
3
Figure 10.7 Fonction de répartition de la loi normale centrée réduite
Théorème 21 Toute variable aléatoire réelle X suivant une loi normale centrée réduite admet des moments de tout ordre, donnés pour tout entier naturel n par m2n (X) = 0 et m2n+1 (X) =
(2n)! · 2n n!
© Dunod – La photocopie non autorisée est un délit
Preuve
$ +∞
t2 • Pour l’existence du moment d’ordre n, il suffit de démontrer la convergence de t n exp − dt, 0
2
2 puisque la densité est paire. On a, pour t 1, t n exp − t2 t n exp − 2t et t n exp − 2t exp − 3t
t n exp − 2t tn
= lim
= 0 par croissance comparée d’une pour t assez grand. En effet, lim t → +∞ n → + ∞ exp − 3t exp 6t puissance et d’une exponentielle, donc cette fonction est inférieure ou égale à 1 pour t assez grand. $ +∞ $ +∞
t t2 exp − dt, on déduit la convergence de t n exp − dt, par le De la convergence de 3 2 0 0 théorème de comparaison des intégrales des fonctions positives.
• La densité f de la loi normale centrée réduite étant paire, la fonction t −→ t 2n+1 f(t) est impaire, pour tout entier naturel n, donc son intégrale sur R est nulle. On a donc m2n+1 (X) = 0. Pour m2n , on raisonne par récurrence. Pour n 1 La fonction t −→ t 2n f(t) étant paire, on a 2 m2n (X) = √ 2p
$
+∞ 0
t 2n exp
−
t2 2
dt .
347
Chapitre 10 – Variables aléatoires réelles à densité
On note que la fonction t −→ exp
t2
−
2
donc en intégrant par parties,
$
x
t 2n exp
t2
−
2
0
Comme lim x 2n−1 exp
x → +∞
$
$
+∞
(−t 2n−1 )
d
−
−
t2 . Pour x > 0, on obtient 2
t2
dt dt 2 $ x
x t2 t2 = −t 2n−1 exp − + (2n − 1)t 2n−2 exp − dt 2 2 0 0 $
x x2 t2 = −x 2n−1 exp − + (2n − 1) t 2n−2 exp − dt . 2 2 0
−
x
dt =
a pour dérivée t −→ −t exp
x2 2
exp
0
= 0, on obtient, en faisant tendre x vers +∞,
t 2n exp
0
−
t2 2
$ dt = (2n − 1)
+∞
exp
−
0
t2 2
dt
et donc m2n (X) = (2n − 1)m2n−2 (X) = (2n − 1)m2(n−1) (X). En réitérant cette relation de récurrence, on obtient m2n (X) = (2n − 1)(2n − 3) · · · 3 · 1m0 (X). Comme m0 (X) = 1, on obtient, en rajoutant des termes pairs au numérateur et au dénominateur m2n (X) =
(2n)(2n − 1)(2n − 2) · · · 3 · 2 · 1 (2n)(2(n − 1))(2 · 2)(2)
=
(2n)! 2n n!
·
❑
Théorème 22 Toute variable aléatoire réelle X suivant une loi normale centrée réduite admet une espérance nulle et une variance égale à 1. Preuve D’après le théorème précédent, X admet une espérance et une variance et E(X) = m1 (X) = 0 2 2! V(X) = m2 (X) − E(X) = m2 (X) = = 1. 2
❑
➤ Remarque Il est assez rassurant de constater que E(X) = 0 et V(X) = 1 : la variable X est centrée et réduite.
Loi normale générale Rappelons (cf. théorème 3 page 322) que si Y est une variable aléatoire réelle admettant une densité g et X = sY + m, avec s > 0, alors X est une variable aléatoire 1 x − m admettant pour densité la fonction f définie par f (x) = g . s s Supposons que Y suit une loi normale centrée réduite. Alors X admet pour densité la (x − m)2 1 f définie par f (x) = √ . exp − 2s2 s 2p 348
Les lois usuelles
Définition 13 Soit m un réel et s un réel strictement positif. On dit qu’une variable aléatoire réelle X suit la loi normale de paramètre (m, s2 ) si elle admet pour densité la fonction f définie pour tout réel x par l’égalité f (x) =
1 (x − m)2 √ . exp − 2s2 s 2p
On note
X → N (m, s2 ).
➤ Remarque Certains auteurs utilisent (m, s) comme paramètre.
Proposition 15 La variable aléatoire réelle X suit la loi normale de paramètre (m, s2 ) si, et seulement si, X −m suit la loi normale centrée réduite. la variable Y = s Preuve Si Y suit la loi normale centrée réduite, la variable X = sY + m suit la loi normale de paramètre (m, s2 ). C’est ainsi que nous avons introduit cette loi. X −m Réciproquement, si X suit la loi normale de paramètre (m, s2 ), la variable Y = admet pour densité,
s
d’après le théorème 3, la fonction g définie par
1 x2 exp − , g(y) = sf (sy + m) = √ 2 2p
❑
donc Y suit la loi normale centrée réduite.
➤ Remarque On peut donc écrire © Dunod – La photocopie non autorisée est un délit
X → N (m, s2 ) ⇐⇒
1
s
(X − m) → N (0, 1),
Y → N (0, 1) ⇐⇒ m + sY → N (m, s2 ).
Théorème 23 Toute variable aléatoire réelle suivant la loi normale de paramètre (m, s2 ) admet une espérance mathématique égale à m et une variance égale à s2 . Preuve Cela résulte du fait que si X suit la loi normale de paramètre (m, s2 ), on peut écrire X = sY + m, où Y suit la loi normale centrée réduite. Comme Y possède une espérance et une variance, il en est de même de X et E(X) = sE(Y) + m = m et V(X) = s2 V(Y) = s2 .
❑
349
Chapitre 10 – Variables aléatoires réelles à densité
Corollaire 2 Si la variable X suit la loi normale de paramètre (m, s2 ), la variable centrée réduite associée à X suit la loi normale centrée réduite. Preuve On a X ∗ =
X−m
s
❑
et cette variable suit la loi normale centrée réduite d’après la proposition 15.
Théorème 24 La fonction de répartition d’une variable aléatoire réelle suivant une loi normale de paramètre (m, s2 ) vérifie, pour tout réel x, l’égalité x (t − m)2 1 dt. F(x) = P([X x]) = √ exp − 2s2 s 2p −∞
Preuve
❑
Cela traduit la relation entre densité et fonction de répartition.
1.0
√3 2p
1
0.5 Cf
1 2
1
Figure 10.8 Densité de la loi normale de paramètre 12 , 19
1 2
1
Figure 10.9 Fonction de répartition de la loi normale de paramètre 12 , 19
Théorème 25 Toute variable aléatoire réelle suivant une loi normale de paramètre (m, s2 ) admet des moments de tous ordres.
350
Indépendance
Preuve Si X suit la loi normale de paramètre (m, s2 ), on peut écrire X = sY + m, où Y suit la loi normale centrée réduite. Pour tout entier n, on a X n = (sY + m)n =
n n k=0
k
sk Y k mn−k .
Comme Y possède de moments de tous ordre, les variables Y k admettent une espérance et X n qui est une combinaison linéaire de variables à densité possédant un espérance possède une espérance. Donc X possède ❑ un moment d’ordre n pour tout entier naturel n.
5. Indépendance La notion de variables indépendantes qui a été donnée dans le cadre des variables discrètes peut se généraliser à des variables à densité. On obtient des propriétés très semblables. 5.1 Définitions Définition 14 Deux variables aléatoires à densité, définies sur le même espace probabilisé (V, T , P) sont indépendantes si, pour tout couple (I, J) d’intervalles de R, on a P([X ∈ I] ∩ [Y ∈ J]) = P([X ∈ I])P([Y ∈ J]).
© Dunod – La photocopie non autorisée est un délit
Définition 15 Des variables aléatoires réelles à densité X1 , X2 , . . . , Xn sur le même espace probabilisé (V, T , P) sont dites mutuellement indépendantes (ou simplement indépendantes) si, pour tous intervalles I1 , I2 , . . . , In , n n [Xk ∈ Ik ] = P([Xk ∈ Ik ]). P k=1
k=1
Nous admettrons qu’il suffit que la propriété soit vérifiée pour les intervalles de la forme ] − ∞, x]. C’est ce qu’énonce la propriété suivante. Proposition 16 Deux variables aléatoires à densité, définies sur le même espace probabilisé (V, T , P) sont indépendantes si, pour tout couple de réels (x, y), on a P([X x] ∩ [Y y]) = P([X x])P([Y y]) = FX (x)FY (y).
351
Chapitre 10 – Variables aléatoires réelles à densité
Des variables aléatoires réelles à densité X1 , X2 , . . . , Xn sur le même espace probabilisé (V, T , P) sont indépendantes si, et seulement si, pour tous réels x1 , x2 , . . . , xn , n n n P [Xk xk ] = P([Xk xk ]) = FXk (xk ), k=1
k=1
k=1
où FXk est la fonction de répartition de Xk .
Exercice 4.
Soit (X1 , X2 , . . . , Xn ) une famille finie de variables aléatoires réelles à densité sur le même espace probabilisé (V, T , P), mutuellement indépendantes, suivant la loi uniforme sur [0, 1], et S = max (Xk ), I = min (Xk ). Montrer que S et I sont des variables à densité dont on k∈Ú1,nÛ
k∈Ú1,nÛ
déterminera l’espérance et la variance. Solution. • On a, pour tout x ∈ R et v ∈ V, S(v) x si, et seulement si, Xk (v) x, pour tout k ∈ Ú1, nÛ. On a donc [S x] = [X1 x] ∩ [X2 x] ∩ · · · ∩ [Xn x]. Ainsi [S x] est une intersection d’événements donc un événement et S est une variable aléatoire. Par indépendance des variables X1 , . . . , Xn , on obtient FS (x) = P([S x]) =
n k=1
P([Xk x]) =
n
n FXk (x) = FX1 (x) ,
k=1
car les variables Xk suivent toutes la loi uniforme sur [0, 1]. Comme FX1 est continue sur R et de classe C 1 sur R \ {0, 1}, il en est de même de FS : la variable S est à densité. On obtient ⎧ ⎪ si x < 0 ⎨0 n FS (x) = x si x ∈ [0, 1] ⎪ ⎩1 si x > 1. Une densité fS est donnée par fS (x) = nxn−1 si x ∈ [0, 1] et fS (x) = 0 sinon. La fonction fS est nulle en dehors de [0, 1] et continue sur ce segment, donc S possède des moments de tout ordre. On trouve n+1 1 +∞ 1 x n , E(S) = xfS (x) dx = nxn dx = n = n+1 0 n+1 −∞ 0 n+2 1 +∞ 1 x n 2 2 n+1 · E(S ) = x fS (x) dx = nx dx = n = n + 2 n + 2 −∞ 0 0 On en déduit V (S) =
352
n 2 n n − · = n+2 n+1 (n + 1)2 (n + 2)
Indépendance
• Les calculs sont très semblables pour I. On passe par l’événement contraire [I > x] = [X1 > x] ∩ [X2 > x] ∩ · · · ∩ [Xn > x]. On obtient, par indépendance des variables n n 1 − FXk (x) P([Xk > x]) = 1 − FI (x) = 1 − P([I > x]) = 1 − k=1
k=1
= 1 − (1 − F1 (x))n . Cela montre que S est une variable à densité. On obtient ⎧ ⎪ si x < 0 ⎨0 FI (x) = 1 − (1 − x)n si x ∈ [0, 1] ⎪ ⎩1 si x > 1. Une densité fI est donnée par fI (x) = n(1 − x)n−1 si x ∈ [0, 1] et fS (x) = 0 sinon. La variable I possède des moments de tout ordre et on trouve, grâce au changement de variable t = 1 − x, 1 1 n−1 n(1 − x) x dx = n tn−1 (1 − t) dt E(I) = 0
0
1 tn+1 tn 1 − , =n = n n+1 0 n+1 1 2 n−1 2 E(I ) = n(1 − x) x dx = n
0
1
tn−1 (1 − t)2 dt 0
1 n n−1 2tn+1 tn+2 t − + t − 2tn + tn+1 dt = n n n+1 n+2 0 0 2 · = (n + 1)(n + 2)
1
© Dunod – La photocopie non autorisée est un délit
=n
On en déduit 2 − V (S) = (n + 1)(n + 2)
1 n+1
2 =
n · (n + 1)2 (n + 2)
Les propriétés des variables indépendantes vues dans le cas des variables discrètes se généralisent au cas des variables à densité. Proposition 17 Si (X1 , . . . , Xn ) est une famille de variables aléatoires à densité mutuellement indépendantes de l’espace probabilisé (V, T , P), alors toute sous-famille est formée de variables mutuellement indépendantes.
353
Chapitre 10 – Variables aléatoires réelles à densité
Preuve Comme la propriété d’indépendance ne dépend pas de l’ordre des variables aléatoires, il suffit de démontrer que, pour k ∈ [ 1, n]], les variables X1 ,. . . ,Xk sont mutuellement indépendantes. Il suffit même de le démontrer pour X1 , . . . , Xn−1 et de raisonner par récurrence descendante. Soit I1 , . . . , In−1 des intervalles de R. On pose In = R. Comme X1 , . . . , Xn−1 , Xn sont indépendantes, on a
P
n
[Xk ∈ Ik ]
=
k=1
n
Comme In = R , l’événement [Xn ∈ In ] est égal à V et
n
[Xk ∈ Ik ] =
k=1
P
n−1
P([Xk ∈ Ik ]).
k=1
[Xk ∈ Ik ]
=
k=1
n −1
n −1
[Xk ∈ Ik ]. On a donc
k=1
P([Xk ∈ Ik ]),
k=1
ce qui montre l’indépendance mutuelle de X1 , . . . , Xn−1 .
Nous admettrons les théorèmes suivants. Théorème 26 Pour tout n-uplet (X1 , X2 , . . . , Xn ) de variables aléatoires à densité mutuellement indépendantes de l’espace probabilisé (V, T , P) et tout n-uplet de fonction (g1 , g2 , . . . , gn ) tel que gk (Xk ) soit une variable aléatoire à densité pour tout k, (g1 (X1 ), g2 (X2 ), . . . gn (Xn )) est un n-uplet de variables aléatoires à densité mutuellement indépendantes.
Théorème 27 Soit (X1 , X2 , . . . , Xn ) un n-uplet de variables aléatoires à densité mutuellement indépendantes de l’espace probabilisé (V, T , P). Alors quel que soit l’entier p de Ú2, n−1Û et les fonctions w de Rp dans R et c de Rn−p dans R telles que w(X1 , . . . , Xp ) et c(Xp+1 , . . . , Xn ) soient des variables à densité, ces variables aléatoires sont indépendantes. Plus généralement si n1 , . . . , nk sont des entiers naturels non nuls tels que n1 + · · · + nk = n et si, pour tout i ∈ Ú1, kÛ, wi est une fonction de Rni dans R, telle w1 (X1 , . . . , Xn1 ), w2 (Xn1 +1 , . . . , Xn1 +n2 ), . . . , wk (Xn1 +···+nk−1 +1 , . . . , Xn ) soient des variables à densité, elles sont mutuellement indépendantes.
Définition 16 Une suite (Xn ) de variables aléatoires réelles à densité définies sur le même espace probabilisé (V, T , P) est dite formée de variables aléatoires indépendantes si toute sous-famille finie est formée de variables aléatoires réelles indépendantes.
354
❑
Indépendance
Tableau récapitulatif des lois continues classiques Ensemble
Nom
des valeurs
loi uniforme X → U (Úa, bÛ) loi de exponentielle X → E(l) loi normale centrée réduite X → N (0, 1) loi normale X → N (m, s )
⎧ ⎨ 1 f (x) = b − a ⎩0
R+
R
R
f (x) =
le−lx 0
Espérance Variance
si x ∈ [a, b] si x ∈ / [a, b] si x 0 si x < 0
x2 1 f (x) = √ e− 2 2p
f (x) =
(x−m)2 1 − √ e 2s2 s 2p
a+b 2
(b − a)2 12
1 l
1 l2
0
1
m
s2
© Dunod – La photocopie non autorisée est un délit
2
Úa, bÛ
Densité
355
1. 1. a. b. 2. a. b.
Soit X une variable aléatoire suivant la loi exponentielle E(l). √ Déterminer la loi de la variable aléatoire Y = X. Calculer l’espérance mathématique et la variance de Y . Déterminer une densité de X 2 . Déterminer une densité de X 3 .
2.
1. On considère la fonction f définie par f (x) =
1 2 1 √ e− 2 (ln x−1) si x > 0 et 0 x 2p
sinon. a. Montrer que f est une densité de probabilité. Soit X une variable aléatoire de densité f . Exprimer la fonction de répartition de X à l’aide de la fonction de répartition F d’une loi normale centrée réduite. b. Calculer E(X) et V (X). 2. On considère une variable aléatoire Y qui suit une loi normale de paramètre (m, s2 ). On pose Z = eY . a. Déterminer une densité de Z (on dit que Z suit la loi Log-normale de paramètre (m, s2 )). b. Calculer E(Z) et V (Z). 3.
Loi Bêta
1. a. Soit a et b deux réels.
1
ta−1 (1−t)b−1 dt est-elle conver-
Pour quelles valeurs de a et b l’intégrale B(a, b) = 0
gente ? b. On suppose a > 0 et b > 0. Montrer que bB(a + 1, b) = aB(a, b + 1) et que B(a, b + 1) + B(a + 1, b) = B(a, b). a En déduire que B(a + 1, b) = B(a, b). a+b ⎧ ⎨0 si x ∈]0, / 1[ 1 2. Soit f la fonction définie par f (x) = xa−1 (1 − x)b−1 si x ∈ ]0, 1[ . ⎩ B(a, b) a. Montrer que f est la densité de probabilité. Soit X une variable aléatoire de densité f . b. Calculer E(X) et V (X) après avoir démontré leur existence. 1. Soient a et a des nombres réels strictement positifs et f la fonction définie sur R ⎧ ⎨0 si x < a f (x) = aa ⎩a a+1 si x a. x a. Vérifier que f est bien une densité de probabilité. Soit X une variable aléatoire réelle de densité f . On dit une loi de Pareto de paramètre (a, a). b. Déterminer la fonction de répartition F de X.
4. par
356
EXERCICES
c. Déterminer les valeurs de a pour lesquelles X admet une espérance et la calculer dans ce cas. d. Déterminer les valeurs de a pour lesquelles X admet une variance et la calculer dans ce cas. 2. a. Soient une variable aléatoire Y qui suit une loi exponentielle de paramètre l > 0, b un réel strictement positif et g un réel strictement supérieur à 1. Déterminer la loi de la variable Z = bgY . b. Étudier la réciproque de la propriété ainsi démontrée. c. Soient Z une variable aléatoire qui suit une loi de Pareto de paramètre (a, a) et c un réel strictement positif. Déterminer la loi de Z c . 5. La variable X suit une loi normale centrée réduite. On note F sa fonction de répartition et on pose, pour tout x ∈ R, Q(x) = 1 − F(x). La fonction Q s’appelle la queue de la répartition associée à X. 1. En utilisant deux intégrations par parties montrer que, pour tout x > 0, 1 x2 (i) Q(x) √ e− 2 ; x 2p 1 1 x2 x2 (ii) Q(x) √ e− 2 − √ e− 2 . 3 x 2p x 2p 2. En déduire un équivalent de Q(x) lorsque x tend vers +∞. QX (a + ´) · Déterminer lim p(a, ´) pour 3. Soit (a, ´) ∈ ]0, +∞[2 . On note p(a, ´) = a→+∞ QX (a) ´ > 0 fixé. 4. En déduire que, pour ´ > 0, P([a < X < a + ´])
∼
a→+∞
P([a < X]).
6. Soient X et Y deux variables aléatoires de densité respective fX et fY , indépendantes. On pose Z = sup (X, Y ) et T = inf (X, Y ). 1. Exprimer les fonctions de répartition de Z et T en fonction des fonctions de répartition FX et FY de X et Y . 2. Déterminer une densité fZ de Z et une densité fT de T en fonction de fX , fY , FX et FY . 3. On suppose que X et Y suivent la loi uniforme sur [0, 1]. Préciser fZ et fT . Déterminer l’espérance et la variance de Z et de T . 4. On suppose que X et Y suivent des lois exponentielles de paramètre l et m respectivement. Quelle est la loi (classique) suivie par T ? En déduire l’espérance et la variance de T . Préciser fZ . En déduire l’espérance et la variance de Z. 7. Des voyageurs arrivent de façon aléatoire dans la salle des pas perdus de la gare de Lyon. On suppose que la variable aléatoire Nt égale au nombre de ces voyageurs arrivant entre les instants 0 et t (t > 0) suit une loi de Poisson de paramètre at (a > 0). 1. On note X1 l’instant d’arrivée du premier voyageur. Déterminer P([X1 > t]) pour tout réel t. En déduire la loi de X1 , puis E(X1 ) et V (X1 ).
357
Chapitre 10 – Variables aléatoires réelles à densité
2. On note Xn l’instant d’arrivée du n-ième voyageur (n 1). n−1 (at)k . En déduire une densité de Xn . a. Montrer que, pour t > 0, FXn (t) = 1 − e−at k! k=0 b. Calculer E(Xn ) et V (Xn ). 8. Une machine tombe en panne à un instant aléatoire T , variable aléatoire positive de fonction de répartition F, possédant une densité f , nulle sur R− , continue et strictement positive sur ]0, +∞[. Si à l’instant t > 0 la panne ne s’est pas produite, le risque de panne P([t < T t + u]/[T > t]) . On dit immédiate se mesure par le taux de panne h(t) = lim+ u→0 u qu’il y a usure lorsque h croît et rodage lorsqu’elle décroît. 1. Déterminer h en fonction de F et f . t 2. On pose L(t) = h(u) du. Montrer que pour tout t > 0, 0
P([T > t]) = e−L(t) .
Calculer E(L(T)). 3. Montrer que le taux de panne de T est constant si et seulement si T suit une loi exponentielle. 4. Pour deux composants montés en parallèle, on prend comme instant de panne sup(T1 , T2 ), où T1 et T2 sont deux variables aléatoires indépendantes de loi exponentielle de paramètres l1 et l2 . Montrer qu’il y a d’abord usure, puis rodage si l1 = l2 et usure seulement pour l1 = l2 . 5. On suppose qu’il y a usure sur ]0, +∞[. Montrer que, pour tout (s, t) ∈ (R∗+ )2 , P([T > s + t]) P([T > s])P([T > t]). 9. Soit X une variable aléatoire à densité, positive. On note f une densité de X, F sa fonction de répartition. On suppose que f est nulle sur ] − ∞, 0], strictement positive et continue sur ]0, +∞]. 1 1. Montrer que l’équation F(x) = admet une solution unique sur ]0, +∞[. Cet unique 2 réel, que l’on notera m, sera appelé médiane de X. 2. Dans cette question, on suppose que X suit une loi exponentielle de paramètre l. Montrer que X satisfait aux hypothèses du début de l’exercice et déterminer la médiane de X. 3. On suppose dans cette question que la densité de X est donnée sur ]0, +∞[ par f (t) = t e−t et sur ] − ∞, 0] par f (t) = 0. a. Vérifier que f satisfait aux hypothèses du début de l’exercice. b. Déterminer la fonction de répartition F de X. c. Montrer, sans chercher à la calculer, que la médiane m de X vérifie 1 m 2 (on donne 6 < e2 < 9)). On se propose, dans la suite de cette question, de calculer une valeur approchée de m. On introduit pour cela la fonction g définie sur [1, 2] par g(x) = ln(2x + 2), fonction qui va permettre de construire une suite convergeant vers m. d. Montrer que g(m) = m.
358
EXERCICES
e. Montrer que si x appartient à [1, 2] alors g(x) appartient à [1, 2] et 1 |g(x) − m| |x − m|. 2 f. On considère la suite (un ) définie
n par u0 = 1 et pour n > 0 par un = g(un−1 ). 1 . Montrer que |un − m| 2 g. Déterminer un entier n tel que un soit une valeur approchée de m à 10−2 près. 4. On revient maintenant au cas général et on suppose que la variable X admet une espérance E(X) et une variance V (X). On note toujours m la médiane de X. a. Montrer qu’on a les inégalités m +∞ 2 V (X) (t − E(X)) f (t) dt et V (X) (t − E(X))2 f (t) dt. m
0
b. En distinguant les cas m E(X) et m > E(X), montrer que " |m − E(X)| 2V (X). 10. Pour tout nombre réel x, on note x la partie entière de x, c’est-à-dire l’unique nombre entier n vérifiant : n x < n + 1. Soit X une variable aléatoire réelle, positive, de fonction de répartition F et de densité f . On note Y = [X] la partie entière de X et Z = X − Y . 1. a. Montrer que Y est une variable aléatoire discrète dont on déterminera la loi. b. Montrer que E(X) existe ⇐⇒ E(Y ) existe. 2. On suppose que X suit la loi exponentielle de paramètre l (l > 0). a. Préciser la loi de Y . Donner l’espérance et la variance de Y . b. Montrer que 1 − e−lx ∀x ∈ [0, 1[, P([Z x]) = · 1 − e−l En déduire une densité f de Z. c. Déterminer l’espérance E(Z) de Z. Ce résultat était-il prévisible ? 11.
Soit n un entier naturel non nul et fn la fonction définie par ⎧ 1 x ⎨ xn−1 e− 2 si x > 0 n fn (x) = (n − 1)!2 ⎩0 si x 0.
+∞
1. On pose In =
xn−1 e− 2 dx. x
0
a. Montrer la convergence de In pour tout n ∈ N∗ . Montrer que, pour n 2, In = 2(n − 1)In−1 . En déduire In . b. Montrer que fn est une densité d’une variable aléatoire. 2. On considère une variable aléatoire réelle Xn de densité fn . Déterminer l’espérance et la variance de Xn .
359
Chapitre 10 – Variables aléatoires réelles à densité
3. a. Montrer que, pour tout l > 0 et tout entier n non nul, on a l n−1 k l tn−1 el = + dt. el−t k! (n − 1)! 0 k=0 b. Soient Y une variable aléatoire suivant la loi de Poisson de paramètre l. Montrer que P([Xn > 2l]) = P([Y < n]). 12. Soit n ∈ N∗ et (Xk )k∈[[1,n]] une famille de n variables aléatoires à densité, mutuellement indépendantes, de même loi. On note F leur fonction de répartition et f leur densité. Soit Y1 , . . . , Yn les variables obtenues en réordonnant X1 , . . . , Xn par ordre croissant (Y1 est le minimum des Xk et Yn le maximum des Xk ). Pour tout réel x, on note Nx le nombre de variables Xk vérifiant Xk x. 1. Donner la loi de Nx . 2. Comparer, pour k ∈ [[1, n]] et tout réel x, les événements [Nx k] et [Yk x]. 3. Déterminer la fonction de répartition Fk de Yk (1 k n). Montrer que Yk possède une densité fk définie par
n−1 (F(x))k−1 (1 − F(x))n−k f (x). fk (x) = n k−1 4. On suppose que les variables Xk suivent une loi uniforme sur [0, 1]. Déterminer, pour 1 k n, l’espérance et la variance de Yk (on pourra utiliser les résultats de l’exercice 3.). 13. Dans cet exercice, on utilisera la table de la loi normale centrée réduite. Une machine fabrique des pièces cylindriques dont le diamètre exprimé en millimètres est une variable aléatoire D suivant la loi normale N (m, s) où m est réglable et s = 0, 4. 1. On suppose m = 8. Calculer P([D < 7, 5]), P([D > 9]), P([7, 5 < D < 8, 5]). 2. Toute pièce est vérifiée à l’aide de deux calibres, l’un de 7, 5 mm, l’autre de 8, 5 mm ; elle est acceptée si elle passe dans le grand et non dans le petit. Déterminer la probabilité pour qu’une pièce soit refusée si a. m = 7, 5 ; b. m = 8 ; c. m = 8, 5. 3. Dans le cas où m = 8, déterminer la probabilité pour qu’une pièce soit acceptée sachant qu’elle passe dans le grand calibre. 4. Lorsque la pièce est trop petite elle est rejetée ; la perte est alors de 10 euros. Si elle est trop grande on peut la rectifier ; le coût de l’opération est égal à 3 euros et on admet que la pièce est acceptée après rectification. Soit Z la variable aléatoire égale à la perte subie : Z prend les valeurs 10, 3 ou 0 suivant que la pièce est trop petite, trop grande ou bonne. Calculer l’espérance mathématique de Z en fonction de m. Déterminer m pour que E(Z) soit minimale (réglage optimum de la machine).
360
Couples de variables aléatoires admettant une densité
11
1. Lois associées à un couple de variables aléatoires à densité 1.1 Notion de couple à densité Définition 1 Soit (V, T ) un espace probabilisable. On appelle couple de variables aléatoires toute application V −→ R2 Z: v −→ X(v), Y (v) , où X et Y sont des variables aléatoires sur (V, T ). On note Z = (X, Y ) ce couple de variables.
Définition 2 Si (X, Y ) est un couple de variables aléatoires, la fonction F : R2 −→ R définie par F(x, y) = P ([X x] ∩ [Y y]) est appelée fonction de répartition du couple (X, Y ) ou fonction de répartition conjointe de X et Y .
Définition 3 Soit (X, Y ) un couple de variables aléatoires réelles définies sur un espace probabilisé (V, T , P), de fonction de répartition F. On dit que (X, Y ) possède une densité s’il existe une fonction f : R2 −→ R vérifiant : 1. f positive ou nulle ; f (t, u) dt du converge et f (t, u) dt du = 1 ; 2. l’intégrale double R2
R2
Chapitre 11 – Couples de variables aléatoires admettant une densité
telle que, pour tout réel (x, y) ∈ R2 , F(x, y) =
f (t, u) dt du.
]−∞,x]×]−∞,y]
La fonction f est appelée une densité du couple (X, Y ) ou densité conjointe de X et Y . ➤ Remarque Nous nous placerons dans le cadre tracé dans le chapitre intégration, paragraphe 2.3. La fonction f sera donc supposée continue sur un ensemble élémentaire éventuellement non borné et nulle en dehors de et ensemble élémentaire. On peut remarquer que dans ces conditions, pour tout réel y, sauf éventuellement un nombre fini, la fonction x −→ f (x, y) est continue sauf en un nombre fini de points. Il en est de même pour la fonction y −→ f (x, y) pour tout réel x. L’ensemble des points où f n’est pas continue est d’aire nulle (on dit qu’un tel ensemble est négligeable et que f est continue presque partout). Comme dans le cas d’une variable aléatoire réelle à densité, il n’y a pas unicité de la fonction f . Deux densités d’un couple (X, Y) de variables aléatoires coïncident sauf sur un ensemble d’aire nulle.
Nous admettrons que les propriétés de f énoncées dans la définition caractérisent une densité. Théorème 1 (admis)
Soit f une fonction de R2 dans R positive ou nulle, telle que
f (t, u) dt du = 1. Alors R2
il existe un espace probabilisé (V, T , P) et un couple de variables aléatoire (X, Y ), défini sur cet espace probabilisé, dont f est une densité. Exemples
1 si (x, y) ∈ [0, 1]2 1. Soit f la fonction est définie par f (x, y) = La fonction f est posi0 sinon. 2 tive, nulle en dehors de [0, 1] et continue sur ce produit de segment. On en déduit la convergence de
f (t, u) dt du et R2
f (t, u) dt du = R2
[0,1]2
1
dt du =
1
du = 1.
dt 0
0
Donc f est la densité d’un couple (X, Y ) de variables aléatoires. On dit que (X, Y ) suit la loi uniforme sur [0, 1]2 . c si x2 + y2 1 Déterminons c pour que f 2. Soit f la fonction est définie par f (x, y) = 0 sinon. soit la densité d’un couple. Soit D = {(x, y) ∈ R2 , x2 + y2 1}, le disque de centre (0, 0) et de rayon 1. La fonction f est positive, nulle en dehors de D etcontinue sur D. Comme D est un domaine élémentaire, on en déduit la convergence de f (t, u) dt du et f (t, u) dt du = R2
362
R2
c dt du = cp, D
Lois associées à un couple de variables aléatoires à densité
car
dt du est égal à l’aire de D. Donc f est la densité d’un couple (X, Y ) de variables D
1 aléatoires si, et seulement si, c = · On dit alors que (X, Y ) suit la loi uniforme sur le p disque D. 3. Plus généralement si D est un domaine élémentaire borné d’aire A(D) non nulle, la fonc1 si (x, y) ∈ D est la densité d’un couple. On dit qu’un tion f définie par f (x, y) = A(D) 0 sinon tel couple suit la loi uniforme sur D. 4. Soit f la fonction définie sur R2 par f (x, y) = c exp(−x2 − 2xy − 3y2 ). Déterminons c pour que f soit la densité d’un couple de variables aléatoires. La fonction est continue et positive sur R2 . Pour tout y ∈ R, la fonction fy : x −→ f (x, y) est intégrable sur R. En effet, on a fy (x) = c exp(−(x + y)2 − 2y2 ) = c exp(−2y2 ) exp(−(x + y)2 ) et x −→ exp(−(x + y)2 ) est intégrable sur R. On obtient +∞ +∞ 2 f (x, y) dx = c exp(−2y ) exp(−(x + y)2 ) dx −∞
−∞ +∞
= c exp(−2y2 )
√ exp(−t2 ) dt = c exp(−2y2 ) p,
© Dunod – La photocopie non autorisée est un délit
−∞
√ grâce au changement de variable t = x+y. La fonction y −→ c p exp(−2y2 ) est intégrable sur R et √ +∞ +∞ √ √ √ exp(−u2 ) p p √ du = c p √ = c √ , c p exp(−2y2 ) dy = c p 2 2 2 −∞ −∞ √ par le changement de variable t 2 = u. On en déduit que
+∞ +∞ p f (x, y) dx dy = f (x, y) dx dy = c √ 2 R2 −∞ −∞ √ 2 · et f est une densité si, et seulement, si c = p
Nous admettrons le théorème suivant qui permet de calculer une densité à partir de la fonction de répartition. Proposition 1 Soit (X, Y ) un couple de variables aléatoires, de fonction de répartition conjointe F et possédant une densité f . Si f est continue au voisinage de (x, y) (c’est-à-dire sur un boule ouverte de centre (x, y)), on a f (x, y) =
∂2F ∂2F (x, y) = (x, y). ∂x∂y ∂y∂x
363
Chapitre 11 – Couples de variables aléatoires admettant une densité
➤ Remarque Contrairement au cas des variables aléatoires à densité, on ne peut pas énoncer de condition simple sur la fonction de répartition conjointe pour qu’un couple de variable aléatoires soit à densité. Il nous faudra admettre, dans les exercices, qu’on se trouve dans un «bon cas »et que la densité est donnée, où c’est possible, en dérivant deux fois la fonction de répartition conjointe.
Examinons la fonction de répartition d’un couple suivant la loi uniforme sur le carré [0, 1]2 , dont la densité a été introduite page 362. Exemple Les variables aléatoires X et Y sont à valeurs dans [0, 1] donc F(x, y) = P([X x]∩[Y y]) = 0 si x < 0 ou y < 0. Si (x, y] ∈ [0, 1]2 , on a x y f (u, v) du dv = du dv = du dv = xy. F(x, y) = [0,1]×[0,1]
[0,x]×[0,y]
0
0
Si x ∈ [0, 1] et y > 1, [Y y] = V, F(x, y) = P([X x]) = x ; le cas x > 1 et y ∈ [0, 1] est identique. Enfin si x > 1 et y > 1, alors F(x, y) = 1. On vérifie que F est de classe C 2 sur R2 privé des côtés du carré [0, 1]2 et que sur cet ensemble, ∂2F · f = ∂x∂y
1.2 Probabilité de [(X, Y) ∈ D], où D est un domaine de R2 Le résultats suivants sont analogues aux théorèmes démontrés pour les variables à densité sur R dans le paragraphe 1.3 du chapitre 10. Nous les admettrons. Théorème 2 Soit (X, Y ) un couple de variables aléatoires de fonction de répartition conjointe F, possédant une densité f . Pour tous intervalles I et J de R, on a f (x, y) dx dy. P([X ∈ I] ∩ [Y ∈ J]) = P([(X, Y ) ∈ I × J]) = I×J
On obtient en particulier, si I = [a, b] et J = [c, d], où a, b, c, d sont des réels tels que a < b et c < d,
b
d
P([a X b] ∩ [c Y d] =
f (x, y) dy a
dx.
c
Plus généralement si D est un domaine élémentaire, éventuellement non borné, on obtient P([(X, Y ) ∈ D]) = f (x, y) dx dy. D
364
Lois associées à un couple de variables aléatoires à densité
Exemple Soit (X, Y ) un couple de variables aléatoires suivant la loi uniforme sur le carré [0, 1]2 . ! Calculer P 12 X + Y 32 et P([X 2 + Y 2 1]). Pour tout domaine élémentaire D inclus dans [0, 1]2 , on a dx dy = A(D), P([(X, Y ) ∈ D]) = D
aire de D car la densité du couple (X, Y ) sur D est égale à 1. Si D n’est pas inclus dans [0, 1], on écrit P([(X, Y ) ∈ D]) = P([(X, Y ) ∈ D ∩ [0, 1]2 ]) = A(D ∩ [0, 1]2 ). % ! 1 3 3 2 1 est On obtient P 2 X + Y 2 = A(D1 ), où D1 = (x, y) ∈ [0, 1] , x + y 2 2 le complémentaire dans [0, 1]2 de deux triangles rectangles dont les cotés de l’angle droit ont 1 pour longueur · On en déduit 2 3 1 A(D1 ) = 1 − 2 · = · 8 4 1
1
© Dunod – La photocopie non autorisée est un délit
!
On obtient de même, P X 2 + Y 2 1 = A([0, 1]2 \ D2 ), où D2 est le disque de centre (0, 0) et de rayon 1. De l’aire du carré, il faut donc soustraire l’aire d’un quart de disque. On en déduit ! p P X2 + Y 2 1 = 1 − · 4 1
1
365
Chapitre 11 – Couples de variables aléatoires admettant une densité
1.3 Densités marginales et conditionnelles Densités marginales Théorème 3 Si (X, Y ) est un couple de variables aléatoires possédant une densité f , les variables X et Y sont des variables aléatoires à densité, dont une densité est définie respectivement par +∞ +∞ ∀x ∈ R, fX (x) = f (x, y) dy et ∀y ∈ R, fY (y) = f (x, y) dx. −∞
Preuve
−∞
On a, pour tout réel x,
$$ FX (x) = P([X x] ∩ [Y ∈ R]) =
f(t, y) dt dy, Dx
où Dx = {(t, y) ∈ R2 , t x }. On en déduit
$ FX (x) =
x
$
+∞
f(t, y) dy −∞
dt .
−∞
$ Nous admettrons que les hypothèses faites sur f implique que la fonction fX : t −→
+∞
f(t, y) dy est continue −∞
sauf en un nombre fini de points. Par ailleurs, fX est positive, comme intégrale d’une fonction positive. Par définition d’une variable à densité, la fonction fX est une densité de X. On démontre de la même façon que Y est une variable à densité.
❑
Définition 4 Si (X, Y ) est un couple de variables aléatoires possédant une densité, les densités des variables X et Y sont appelées les densités marginales du couple. ➤ Remarques • Il résulte des propriétés des variables à densité que pour tout couple (x, y) de réels, on a P([X = x]) = P([Y = y]) = 0. Il en résulte que si I est un intervalle quelconque de R, on a P([X = x] ∩ [Y ∈ I]) = P([X ∈ I] ∩ [Y = y]) = 0.
• En général, la connaissance des densités de X et Y est insuffisante pour déterminer la densité du couple (X, Y).
Déterminons les densités marginales des couples des exemples 1, 2 et 4 de la page 362. Exemples
1 si (x, y) ∈ [0, 1]2 . 1. Soit f définie par f (x, y) = 0 sinon. Si x ∈ / [0, 1], on a f (x, y) = 0 pour tout réel y et donc fX (x) = 0. Si x ∈ [0, 1], on obtient &1 f (x, y) = 1 si y ∈ [0, 1] et f (x, y) = 0 sinon. On en déduit que fX (x) = 0 dy = 1. On reconnaît la densité de la loi uniforme sur [0, 1]. Ainsi X → U ([0, 1]). On démontre qu’il en est de même de Y .
366
Lois associées à un couple de variables aléatoires à densité
⎧ ⎨1 si x2 + y2 1 2. Soit f la fonction est définie par f (x, y) = p ⎩0 sinon. 2 2 Si |x| > 1, on a x + y > 1 et donc f (x, y) = 0 pour tout réel y. On en déduit fX (x) = 0. √ √ 1 si x2 + y2 1, i.e. − 1 − x2 y 1 − x2 et f (x, y) = 0 Si |x| 1, on a f (x, y) = p sinon. On en déduit que
√
1 2" dy = 1 − x2 . p p √ 2 exp(−x2 − 2xy − 3y2 ). 3. Soit f la fonction définie sur R2 par f (x, y) = p Pour tout réel x, on a √ +∞ 2 fX (x) = exp(−x2 − 2xy − 3y2 ) dy p −∞ √ +∞
2 2 1 2 2 dy exp −3 y + x − x = p −∞ 3 3 √
∞ 2 2 2 1 = exp − x exp(−u2 ) √ du, p 3 3 −∞
√ 1 avec le changement de variable u = 3 y + x . On en déduit 3 ' √
2
2 2 2 2 1 √ 2 2 1 x fX (x) = exp − x √ p = exp − x = exp − 3 . p 3 3p 3 3p 3 2 fX (x) =
1−x2
√ − 1−x2
© Dunod – La photocopie non autorisée est un délit
2
3 La variable X suit la loi normale de paramètre 0, . 4 On procède de même pour Y . On trouve, pour tout réel y, √ +∞ √ +∞ 2 2 2 2 fY (x) = exp(−x − 2xy − 3y ) dx = exp −(x + y)2 ) − 2y2 dx p −∞ p −∞ √ ∞ 2 exp(−2y2 ) = exp(−u2 ) du, p −∞ avec le changement de variable u = x + y. On en déduit ' √ 2
√ 2 2 1 y 2 2 exp(−2y ) p = exp(−2y ) = " p exp − 1 . fY (x) = p p 2 2
1 La variable Y suit la loi normale de paramètre 0, . 4
367
Chapitre 11 – Couples de variables aléatoires admettant une densité
Densités conditionnelles Pour définir les lois conditionnelles à [X = x] ou [Y = y], il n’est pas question de diviser par P([X = x]) ou P([Y = y]), car ces probabilités sont nulles pour des variables à densité. Théorème 4 Soit (X, Y ) un couple de variables aléatoires définies sur un espace probabilisé (V, T , P), possédant une densité f , fX et fY les densités marginales. Pour tout réel x tel que fX (x) > 0, la fonction fY /[X=x] définie par fY /[X=x] (y) =
f (x, y) fY (x)
est la densité d’une variable aléatoire, appelée densité de Y conditionnelle à [X = x]. On dit aussi que c’est la densité de la loi de Y conditionnelle à [X = x]. De même, pour tout réel y tel que fY (y) > 0, la fonction fX/[Y =y] définie par fX/[Y =y] (x) =
f (x, y) fY (y)
est la densité d’une variable aléatoire, appelée densité de Y conditionnelle à [Y = y]. On dit aussi que c’est la densité de la loi de X conditionnelle à [Y = y].
Preuve Il résulte de propriétés imposées à f que la fonction y −→ f (x, y) est continue sauf en un nombre fini de points. Il en est donc de même pour fY /[X =x] . Il est clair que fY /[X =x] est positive. Enfin, on a d’après le théorème 4,
$
+∞
−∞
fY /[X =x] (y) dy =
1 fX (x)
$
+∞
f(x, y) dy = −∞
fX (x) fX (x)
= 1.
Ainsi, fY /[X =x] est une densité de probabilité. La démonstration est la même pour fX /[Y =y] .
❑
Reprenons les couples des exemples 1, 2 et 4 de la page 362. Exemples
1 1. Soit f définie par f (x, y) = 0
si (x, y) ∈ [0, 1]2 . sinon.
On a fX (x) = 1 si x ∈ [0, 1] et fX (x) = 0 sinon. On obtient, pour x ∈ [0, 1], fY /[X=x]
f (x, y) = = fX (x)
1 0
si x ∈ [0, 1] sinon.
La loi de Y conditionnelle à [X = x] est pour tout x ∈ [0, 1], la loi uniforme sur [0, 1]. On obtient le même résultat pour la loi de X conditionnelle à [Y = y].
368
Lois associées à un couple de variables aléatoires à densité
⎧ ⎨1 si x2 + y2 1 2. Soit f la fonction est définie par f (x, y) = p ⎩0 sinon. 2√ 1 − x2 si |x| 1. Soit x ∈ [−1, 1]. On a pour On a fX (x) = 0 si |x| > 1 et fX (x) = p tout réel y, √ √1 si |y| 1 − x2 f (x, y 2 2 1−x = fY /[X=x] (y) = fX (x) 0 sinon. √ √ La loi de Y conditionnelle à [X = x] est la loi uniforme sur [− 1 − x2 , 1 − x2 ]. On obtient le même résultat pour la loi de X conditionnelle à [Y = y]. √ 2 2 3. Soit f la fonction définie sur R par f (x, y) = exp(−x2 − 2xy − 3y2 ). p '
2 2 exp − x2 . On en déduit que, pour tout (x, y) ∈ R2 , Pour tout réel x, fX (x) = 3p 3 '
2
' 3 3 1 2 1 f (x, y) = exp − x − 2xy − 3y2 = exp −3 y + x . fY /[X=x] (y) = fX (x) p 3 p 3
x 1 . La loi de Y conditionnelle à [X = x] est la loi normale de paramètre − , 3 6 ' 2 exp(−2y2 ), d’où l’on déduit, pour tout On a de même, pour tout réel y, fY (x) = p (x, y) ∈ R2 , 1 f (x, y) 1 = √ exp(−x2 − 2xy − y2 ) = √ exp(−(x + y)2 ). fY (y) p p
1 . La loi de X conditionnelle à [Y = y] est la loi normale de paramètre −y, 2
© Dunod – La photocopie non autorisée est un délit
fX/[Y =y] (x) =
1.4 Densité d’un couple de variables indépendantes Nous avons défini l’indépendance d’un couple de variables à densité dans le chapitre 10. Nous admettrons le théorème suivant : Théorème 5 Soit X et Y deux variables aléatoires à densité définies sur le même espace probabilisé, de fonction de répartition conjointe F. Il y a équivalence entre : (i) les variables X et Y sont indépendantes ; (ii) pour tout (x, y) ∈ R2 , F(x, y) = FX (x)FY (y) ; (iii) la fonction (x, y) −→ fX (x)fY (y) est une densité du couple (X, Y ).
369
Chapitre 11 – Couples de variables aléatoires admettant une densité
➤ Remarques • L’équivalence entre (i) et (ii) a déjà été énoncée dans le cas de n variables indépendantes (cf page 351). Si (ii) est réalisé, la fonction (x, y) −→ fX (x)fY (y) est continue sauf sur un ensemble d’aire nulle, positive et $ +∞ $$ $ +∞ fX (x)fY (y) dx dy = fX (x) dx fY (y) dy = 1 · 1 = 1. R2
−∞
−∞
De plus, on a pour tout (x, y) ∈ R2 ,
$
$
x
F(x, y) = −∞
fX (t) dt
$$
y
−∞
fY (u) du =
]−∞,x]×]−∞,y]
f(X (t)fY (u) dt du.
Donc la fonction (x, y) −→ fX (x)fY (y) est une densité du couple (X, Y).
• L’équivalence entre (i) et (iii) affirme deux choses : 1. Si X et Y sont deux variable aléatoires réelles à densité, indépendantes, le couple (X, Y) est à densité, une densité possible étant la fonction (x, y) −→ fX (x)fY (y). 2. Si (X, Y) est un couple à densité, de densité conjointe f , de densités marginales fX et fy , les variables X et Y sont indépendantes si (x, y) −→ fX (x)fY (y) est aussi une densité de f, c’est-à-dire si f(x, y) = fX (x)fY (y) pour tout réel (x, y) sauf peut-être sur un ensemble d’aire nulle. Pour démontrer que les variables X et Y ne sont pas indépendantes, il faut démontrer donc que l’on a f (x, y) = fX (x)fY (y) pour tout (x, y) dans un ensemble d’aire non nulle.
Examinons l’indépendance des couples des exemples 1, 2 et 4 de la page 362. Exemples 1. Si (X, Y ) suit une loi uniforme sur [0, 1]2 , X et Y suivent des lois uniformes sur [0, 1]. On a, pour (x, y) ∈ [0, 1]2 , f (x, y) = fx (x) = fy (y) = 1 et donc f (x, y) = fx (x)fy (y). Cela reste vrai si (x, y) ∈ / [0, 1]2 , car alors f (x, y) = 0 et soit fX (x) = 0, soit fY (y) = 0. Les variables X et Y ont donc indépendantes. 2. Si (X, Y ) suit une loi uniforme sur le disque D de centre (0, 0) et de rayon 1, on a, pour 1 tout (x, y) ∈ R2 tel que x2 + y2 1, f (x, y) = · Si x2 + y2 1 alors |x| 1 et p 2√ 2" 1 − x2 et fY (y) = 1 − y2 et fX (x)fY (y) = f (x, y) sauf sur un |y| 1 donc fX (x) = p p p2 , ce qui donne une réunion de ensemble d’aire nulle. Il faut en effet (1 − x2 )(1 − y2 ) = 16 deux courbes incluses dans D. Les variables X et Y ne sont pas indépendantes. √ 2 3. Si la densité du couple (X, Y ) est définie par f (x, y) = exp(−x2 + 2xy − 3y2 ) pour p
' ' 2 2 2 2 2 exp − x , fY (x) = exp(−2y2 ) et tout (x, y) ∈ R , alors on obtient fX (x) = 3p 3 p donc
2 2 fX (x)fY (y) = √ exp − x2 − 2y2 . 3 p 3 ' 1 2 2 2 Ainsi fX (x)fY (y) = f (x, y) si et seulement si exp − 3 x + 2xy − y = 3 c’est-à-dire sur un ensemble d’aire nulle (il s’agit d’une courbe de R2 d’équation 1 1 2 − x2 + 2xy − y2 = ln ). Les variables X et Y ne sont pas indépendantes. 3 2 3
370
Variables aléatoires fonctions d’un couple de variables à densité
2. Variables aléatoires fonctions d’un couple de variables à densité Il s’agit d’étudier les variables aléatoires de la forme g(X, Y ), où (X, Y ) est un couple de variables aléatoires et g une fonction de deux variables. Nous commençons par le cas où g(X, Y ) = X + Y et les variables X et Y sont indépendantes. 2.1 Somme de variables indépendantes Définition 5 Soit f et g deux densités de probabilité sur R. On appelle produit de convolution des fonctions f et g la fonction h définie par ∞
∀z ∈ R, h(z) =
−∞
f (x)g(z − x) dx.
Nous admettrons le théorème suivant. Théorème 6 Si X et Y sont deux variables aléatoires indépendantes de densité fX et fY , la somme Z = X + Y est une variable à densité dont une densité est donnée par le produit de convolution de fX et fY . On a donc, pour tout z ∈ R, ∞ fZ (z) = fX (x)fY (z − x) dx. −∞
Corollaire 1
© Dunod – La photocopie non autorisée est un délit
Si X et Y sont deux variables aléatoires indépendantes à densité, positives ou nulles, alors une densité de Z = X + Y est donnée sur R+ par z fX (x)fY (z − x) dx fZ (z) = 0
et est nulle sur R∗− . Preuve
La variable Z est positive, donc on peut prendre fZ (x) = 0 si z < 0. Pour z 0, on considère le produit de convolution de fX et fY . Comme fX (x)fY (z − x) = 0 si x < 0 ou z − x < 0, c’est-à-dire x < 0 ou x > z l’intégrale donnant fZ (x) se réduit à $ z
fz (x) =
fX (x)fY (z − x) dx .
❑
0
➤ Remarque Si X1 , X2 , . . . , Xn sont des variables à densité mutuellement indépendantes, alors X1 + · · · + Xn est une variable à densité. Pour le montrer, il suffit de raisonner par récurrence sur n et d’appliquer le théorème 6. En effet c’est clair pour n = 1. Si on suppose que la propriété est vraie au rang n et si X1 , . . . , Xn , Xn+1 sont des variables à densité mutuellement indépendantes, la variable aléatoire X1 + · · · + Xn possède une densité par hypothèse de récurrence ; elle est indépendante de Xn+1 d’après le lemme des coalitions, donc X1 + · · · + Xn + Xn+1 est une variable à densité d’après le théorème 6.
371
Chapitre 11 – Couples de variables aléatoires admettant une densité
Exemples 1. Soit X et Y deux variables indépendantes, suivant la loi uniforme [0, 1]. Déterminer une densité de Z = X + Y . Comme X et Y sont à valeurs dans [0, 1], la variable Z est à valeurs dans [0, 2] et fZ (z) = 0 z
si z ∈ / [0, 2]. Si z ∈ [0, 2], on obtient fz (x) =
fX (x)fY (z − x) dx, d’après le corollaire 0
précédent.
z fY (z − x) dx = dx = z. 0 0 1 1 fY (z − x) dx = dx = 2 − z, car fY (z − x) = 0 si Si 1 < z 2, on a fZ (x) = z
Si z 1, on a fz (x) =
0
z−1
z − x > 1, i.e. x < z − 1. 2. Soit X et Y deux variables indépendantes, suivant des lois exponentielles de paramètres respectifs l et m. Déterminer une densité de Z = X + Y . Comme X et Y sont à valeurs dans R+ , la variable Z est à valeurs dans R+ et fZ (z) = 0 si z < 0. Si z 0, on obtient, d’après le corollaire précédent, z z fz (x) = fX (x)fY (z − x) dx = lm e−lx e−m(z−x) dx 0 0 z −mz (−l+m)x = lme e dx. 0
Si l = m, on obtient 2 −lz
z
fZ (z) = l e
dx = l2 ze−lz .
0
Si l = m, il vient fZ (z) = lme−mz
e(−l+m)z − 1 lm −lz = (e − e−mz ). m−l m−l
Stabilité de la loi normale Théorème 7 Soit X et Y deux variables aléatoires définies sur le même espace probabilisé, indé2 pendantes, suivant des lois normales de paramètres respectifs (m, s2 ) et (m , s ). Alors 2 Z = X + Y suit la loi normale de paramètre (m + m , s2 + s ). Preuve
La densité fZ de Z est définie pour tout z ∈ R par
$ fZ (z) =
+∞
−∞
fX (x)fY (z − x) dx =
1 2pss
$
+∞
exp −∞
−
372
s2 + s 2 −ms 2 − (z − m )s2 , b = 2 2 2s s 2s2 s 2
2s2 1
$
−
(z − x − m )2
+∞
2s 2
dx .
exp(−ax 2 − 2bx − c) dx, où 2pss −∞ m2 s 2 + (z − m )2 s2 et c = . On met le trinôme sous forme 2s2 s 2
En développant et en regroupant les termes, on obtient fZ (z) = a =
(x − m)2
Variables aléatoires fonctions d’un couple de variables à densité b b 2 ac − b2 canonique : ax 2 + 2bx + c = a x 2 + 2 x + c = a x + + · En faisant le changement de variable a a a √ b t= a x+ dans l’intégrale, on obtient a 2 $ +∞ 2 2 1 b − ac 1 b − ac fZ (z) = e−t dt = √ , √ exp √ exp 2pss a a 2 pss a a −∞ $ +∞ √ 2 e−t dt = p (intégrale de Gauss). car −∞
On simplifie b2 − ac
(ms 2 + (z − m )s2 )2 − (s2 + s 2 )(m2 s 2 + (z − m )2 s2 )
=
4s4 s 4 s2 s 2 (2m(z − m ) − m2 − (z − m )2 ) (z − m − m )2 =− 4s4 s 4 4s2 s 2
= et donc
b2 − ac a
=
−(z − m − m )2 . 2(s2 + s 2 )
On obtient enfin 1 exp fZ (z) = # 2p(s2 + s 2 )
−(z − m − m )2 2(s2 + s 2 )
.
On reconnaît la densité de la loi N (m + m , s2 s 2 ).
❑
Corollaire 2 Soit X1 , X2 , . . . , Xn des variables aléatoires indépendantes telles que, pour tout k ∈ [[1, n]] n Xk suive la loi normale de paramètres (mk , s2k ). Alors la variable Xk suit la loi normale k=1 n n mk , s2k . de paramètre k=1
k+1
Preuve
© Dunod – La photocopie non autorisée est un délit
On le montre par récurrence sur n ∈ N∗ . Le cas n = 1 est évident et le cas n = 2 résulte du théorème. Supposons la propriété démontrée au rang n et considérons n + 1 variables aléatoires indépendantes X1 , X2 , . . . , Xn+1 telles que, pour tout k ∈ [ 1, n + 1]], Xk suive la loi normale de paramètres (mk , s2k ). Alors les n variables X1 , X2 , . . . , Xn sont encore indépendantes et par hypothèse de récurrence, la variable aléatoire Xk suit la loi normale de paramètre
n k=1
mk ,
n
s2k
k=1
. D’après le lemme des coalitions, les variables
n k=1
mk + mn+1 ,
n k=1
s2k + s2n+1
Xk et
k=1
k+1
Xn+1 sont indépendantes. On en déduit, en appliquant le théorème que leur somme de paramètre
n
=
n+1 k=1
mk ,
n+1
s2k .
n+1
Xk suit la loi normale
k=1
❑
k=1
En utilisant le théorème 6 ou le lemme 1, on peut déterminer la densité de g(X, Y ), où les variables X et Y sont indépendantes, dans des cas simples, par exemple g(X, Y ) = X − Y ou g(X, Y ) = XY . 373
Chapitre 11 – Couples de variables aléatoires admettant une densité
Exercice 1.
Soit X et Y deux variables aléatoires indépendantes, suivant toutes deux la loi exponentielle de paramètre l. On pose Z = |X − Y |. 1. Déterminer une densité de −Y . 2. Déterminer une densité de X − Y . 3. Vérifier que Z suit une loi exponentielle. Solution. 1. On a, pour tout réel y, F−Y (y) = P([−Y y]) = P([Y −y]) = 1 − P([Y < −y]) = 1 − FY (−y). Si y 0, alors −y 0, donc FY (−y) = 0 et F−Y (y) = 1. Si y < 0, alors −y > 0 donc F−Y (y) = P([Y −y]) = ely . La fonction F−Y est continue sur R et de classe C 1 sur R∗ donc −Y possède une densité obtenue en dérivant FY . On obtient lelx si y < 0 f−Y (y) = 0 si y 0. 2. Les variables X et Y sont indépendantes. Il en est de même de X et −Y . On obtient donc une densité de U = X − Y = X + (−Y ) en utilisant le théorème 6. On obtient, pour tout u ∈ R, +∞
fU (u) =
−∞
+∞
fX (x)f−Y (u − x) dx =
le−lx f−Y (u − x) dx,
0
car fX est nulle sur R− . La fonction f−Y est nulle sur R+ . Ainsi f−Y (u − x) = 0 équivaut à u − x < 0, i.e. x > u. Si u < 0, cette condition est réalisée pour tout x 0 et on trouve +∞ +∞ +∞ −l −2lx l fU (u) = e le−lx lel(u−x) dx = elu l2 e−2lx dx = elu = elu . 2 2 0 0 0 Si u 0, on obtient fU (u) = e
+∞
lu
2 −2lx
le
dx = e
u
lu
−l −2lx e 2
+∞ = u
l −lu e . 2
3. La variable aléatoire Z est à valeurs dans R+ donc FZ (z) = 0 si z ∈ R∗− . Si z 0, on a z Fz (z) = P([Z z]) = P([−z U z]) = fU (u) du
−z
!z l −lu 1 lu !0 1 e e −z + −e−lu 0 du = 2 2 −z 0 2 1 1 − e−lz − e−lz + 1 = 1 − e−lz . = 2 La variable Z suit donc la loi exponentielle de paramètre l. =
374
0
l lu e du + 2
z
Variables aléatoires fonctions d’un couple de variables à densité
Exercice 2.
Soit (Xn ) une suite de variables indépendantes, suivant toutes la loi uniforme sur [0, 1]. On souhaite déterminer, pour tout n ∈ N∗ , la loi de Yn = X1 X2 , . . . , Xn . On pose Zn = ln Yn . 1. Déterminer une densité de Z1 = ln X1 . 2. Soit fn une densité de Zn . a. Démontrer que fn est nulle sur R∗+ et que, pour n 2 et z 0, on a 0 fn (z) = fn−1 (x)ez−x dx. z
b. En déduire fn (z) pour z 0 (on remarquera que z −→ −e−z fn (z) est une primitive z −→ e−z fn−1 (z). 3. Déterminer une densité de Yn . Solution. 1. On a P([X1 > 0]) = 1 − P([X1 = 0]) = 1, puisque X1 est une variable à densité. Ainsi Z1 est définie presque sûrement. La variable X1 étant à valeurs dans [0, 1], la variable Z1 est négative. On obtient donc FZ1 (z) = 1 − P([Z1 > z]) = 1 si z > 0 et pour z 0, FZ1 (z) = P([ln X1 z]) = P([X1 ez ]) = ez
© Dunod – La photocopie non autorisée est un délit
car ez ∈ [0, 1]. La fonction FZ1 est continue sur R (il suffit de le vérifier en 0) et de classe C 1 sur R∗ donc Z1 possède une densité f qui s’obtient en dérivant FZ1 . On obtient ez si z 0 f (z) = 0 si z > 0. 2. a. On note que Zn = ln X1 + ln X2 + · · · + ln Xn . Pour tout k, la variable ln Xk suit la même loi que ln X1 . On en déduit que ln Xk est à valeurs dans R− . La variable aléatoire Zn est négative, car c’est une somme de variables aléatoires négatives. Les variables Xk étant indépendantes, il en est de même des ln Xk . On en déduit que Zn est une variable à densité (cf la remarque qui suit le corollaire 1). D’après ce qui précède, une densité fn de Zn est nulle sur R∗+ . Pour n 2, on a Zn = Zn−1 + ln Xn . Les variables aléatoires Zn−1 et ln Xn sont indépendantes, d’après le lemme des coalitions, donc fn est obtenu par un produit de +∞
convolution de fn−1 et f . On obtient, pour z 0, fn (z) =
−∞
fn−1 (x)f (z − x) dx.
Comme fn−1 (x) = 0 si x > 0 et f (z − x) = 0 si z − x > 0, i.e. x < z, on obtient 0 0 fn (z) = fn−1 (x)f (z − x) dx = fn−1 (x)ez−x dx. z
z
b. On peut écrire, pour tout z 0, 0 fn (z)e−z = e−z fn−1 (x)ez−x dx = z
z
0
fn−1 (x)e−x dx = −
z
fn−1 (x)e−x dx.
0
375
Chapitre 11 – Couples de variables aléatoires admettant une densité
En notant gn la fonction z −→ fn (z)e−z , on voit que gn est l’opposé de la primitive qui s’annule en 0 de gn−1 . Comme Z1 = ln X1 , on a f1 (z) = ez et donc g1 (z) = 1 pour tout z2 et par une récurrence immédiate z 0. On en déduit que g2 (z) = −z, g3 (z) = 2 n−1 n−1 (−1) z pour n ∈ N∗ et z 0. En effet, si c’est vrai au rang n − 1, on a gn (z) = (n − 1)! pour z 0, z z (−1)n−2 xn−2 (−1)n−1 zn−1 = · gn (z) = − gn−1 (x) dx = − (n − 2)! (n − 1)! 0 0 On en déduit que, pour tout z 0, fn (z) = ez gn (z) =
(−z)n−1 ez (−1)n−1 zn−1 ez = · (n − 1)! (n − 1)!
3. La variable Yn = exp(Zn ) est encore une variable à densité (cf exemple 1 page 324, chapitre Variables à densité). Notons hn une densité de Yn . La variable Zn est à valeurs dans R− donc Yn est à valeurs dans ]0, 1]. On a donc FYn (y) = 0 si y 0 et FYn (y) = 1 si x > 1. Enfin si y ∈ ]0, 1], on obtient ln y FYn (y) = P([Yn y]) = P([Zn ln y]) = fn (z) dz. −∞
On obtient hn en dérivant la fonction de répartition. On a donc hn (y) = 0 si y 0 ou y > 1 et pour y ∈ ]0, 1], hn (y) =
(− ln y)n−1 1 1 (− ln y)n−1 y fn (ln y) = · = · y y (n − 1)! (n − 1)!
2.2 Cas général Soit (X, Y ) un couple de variables aléatoires possédant une densité f . Si Z = g(X, Y ) et si on n’est pas dans le cas de la somme de deux variables aléatoires indépendantes, on peut chercher la fonction de répartition de Z en essayant de trouver pour tout z ∈ R, un ensemble élémentaire Dz tel que [Z z] = [g(X, Y ) z] = [(X, Y ) ∈ Dz ]. Ceci permettra de calculer FZ (z) = P([Z z]) pour tout z ∈ R à l’aide de f . Si FZ est de classe C 1 sauf en un nombre fini de points, on en déduira une densité de Z. Exemples 1. Reprenons pour commencer le couple (X, Y ) dont une densité est définie par √ 2 exp(−x2 − 2xy − 3y2 ) f (x, y) = p et déterminons la loi de Z = X + Y . On ne peut pas utiliser le produit de convolution, car on a démontré que les variables X et Y ne sont pas indépendantes.
376
Variables aléatoires fonctions d’un couple de variables à densité
Pour tout z ∈ R, on pose Dz = {(x, y) ∈ R2 , x + y z} = {(x, y) ∈ R2 , x z − y}. On a alors P([Z z]) = P([(X, Y ) ∈ Dz ]) = f (x, y) dx dy Dz +∞ z−y √ 2 2 2 exp(−x − 2xy − 3y ) dx dy = −∞ −∞ p √ +∞ z−y
2 = exp(−(x + y)2 − 2y2 ) dx dy. p −∞ −∞ En faisant le changement de variable t = x + y, on obtient z−y z 2 2 exp(−(x + y)2 − 2y2 ) dx = e−2y e−t dt puis
−∞
−∞
' z √ +∞ z 2 2 2 2 1 e−2y dy e−t dt = e−t dt, p −∞ p −∞ −∞ ' +∞ +∞ 2 2 p 1 · On en déduit que Z suit la loi normale e−2y dy = √ e−u du = car 2 2 −∞ −∞
1 . de paramètre 0, 2 2. Soit a > 0, X et Y deux variables indépendantes, suivant une loi uniforme sur [0, a]. On U pose U = inf(X, Y ) et V = sup(X, Y ). Déterminer la loi de T = · V U On a P([V = 0]) = 0 donc il y a un sens à parler de · Le couple (X, Y ) suit la loi V 1 uniforme sur [0, a]2 . Sa densité f vaut donc 2 sur [0, a]2 et 0 ailleurs. a La variable aléatoire T est à valeur dans [0, 1] (car 0 U V ), donc FT (t) = 0 si t < 0 et FT (t) = 1 si t > 1. Soit t ∈ [0, 1]. On a
Y t = P([Y tX]), P([T t] ∩ [Y X]) = P X Y car t ⊂ [Y X]. On en déduit que X A(Dt ) P([T t] ∩ [Y X]) = P([(X, Y ) ∈ Dt ]) = , a2 où Dt = {(x, y) ∈ [0, a]2 , y tx} est l’intérieur d’un triangle.
© Dunod – La photocopie non autorisée est un délit
P([Z z]) =
Dt a
377
Chapitre 11 – Couples de variables aléatoires admettant une densité
1 a · (at) et 2 t P([T t] ∩ [Y X]) = · 2 A(Dt ) On trouve de même P([T t] ∩ [Y X]) = , où Dt = {(x, y) ∈ [0, a]2 , x ty} a2 est de même aire que Dt . On trouve A(Dt ) =
a Dt
Comme P([X = Y ]) = 0, on obtient FT (t) = P([T t]) = P([T t] ∩ [Y X]) + P([T t] ∩ [X Y ]) = t et T suit la loi uniforme sur [0, 1]. 3. Soit (X, Y ) un couple de variables aléatoires suivant la loi uniforme ⎧ sur le disque de centre ⎨1 si x2 + y2 1 (0, 0) et de rayon 1. Une densité du couple est définie par f (x, y) = p ⎩0 sinon. √ Déterminer la loi de Z = X 2 + Y 2 . La variable Z est à valeur dans [0, 1], donc FZ (z) = 0 si z < 0 et FZ (z) = 1 si z > 1. Soit z ∈ [0, 1]. On a 1 2 2 2 FZ (z) = P([Z z]) = P([X + Y z ]) = dx dy, p Dz où Dz = {(x, y) ∈ R2 , x2 + y2 z2 } est le disque de centre (0, 0) et de rayon z. On obtient pz2 A(Dz ) = = z2 . FZ (z) = p p La fonction FZ est continue et de classe C 1 sur R \ {0, 1}. Elle possède une densité définie par 2z si z ∈ [0, 1] fZ (z) = 0 sinon. On peut noter que Z 2 suit la loi uniforme sur [0, 1]. En effet Z 2 est à valeurs dans [0, 1], et pour t ∈ [0, 1], √ P([Z 2 t]) = P([Z t]) = t.
On peut utiliser la même méthode pour déterminer la loi d’un couple de variables aléatoires, toutes deux fonctions de X et Y . 378
Variables aléatoires fonctions d’un couple de variables à densité
Exercice 3.
Soit X et Y deux variables indépendantes, toutes deux de loi normale centrée réduite. On √ Y pose R = X 2 + Y 2 et Q = Arctan · X 1. Déterminer la fonction de répartition de R. 2. Déterminer la fonction de répartition de Q. 3. Les variables R et Q sont-elles indépendantes ? On utilisera les coordonnées polaires.
© Dunod – La photocopie non autorisée est un délit
Solution. Puisque les variables X et Y sont indépendantes, une densité du couple (X, Y ) est 1 − x2 +y2 e 2 (produit d’une densité de X par une densité de Y ). donnée par f (x, y) = 2p 1. La variable R est à valeurs dans R+ donc si r < 0 on a FR (r) = 0. Si r 0, on obtient FR (r) = f (x, y) dx dy, où Dr = {(x, y) ∈ R2 , x2 + y2 r 2 }. On Dr p 3p (on fait passe en coordonnées polaires. On les note (r, a) avec r 0 et a ∈ − , 2 2 2 1 −r e 2 et Dr est défini ce choix en liaison avec la fonction Arctan). On obtient f (x, y) = 2p par r r et a quelconque. On en déduit 3 p2 r r2 r2 1 1 FR (r) = e− 2 r dr da = da e− 2 r dr 2p 2p − p2 0 [− p , 3p ]×[0,r] 2 2 2 r r r2 1 2p −e− 2 = = 1 − e− 2 . 2p 0 2. L’événement [X = 0] est de$probabilité nulle donc Q est définie presque sûrement. La p p# p variable Q est à valeurs dans − , . On a donc FQ (u) = 0 si u − et FQ (u) = 1 2 2 2 p si u . 2$ p p# Soit u ∈ − , . On obtient 2 2 y FQ (u) = f (x, y) dx dy, où Du = {(x, y) ∈ R2 , Arctan u}. x Du y De nouveau, on passe en coordonnées polaires. On trouve Arctan = Arctan tan a. Si x # p p# # p $ a ∈ − , , on a Arctan tan a = a et il faut a u, c’est-à-dire a ∈ − , u . 2 2 2 p 3p Si a ∈ , , on a Arctan tan a = a − p et il faut a − p u, c’est-à-dire # p 2 $2 a∈ , p + u . Finalement, Du est défini en coordonnées polaires par 2 $ # p $ #p , p + u et r quelconque. a ∈ Iu = − , u ∪ 2 2
379
Chapitre 11 – Couples de variables aléatoires admettant une densité
+∞ r2 1 FQ (u) = e r dr da = da e− 2 r dr 2p Iu 0 Iu ×R+ +∞ 2 r p p 1 1 ·2 u+ −e− 2 u+ . = = 2p 2 p 2 0 # p p$ . La variable Q suit la loi uniforme sur − , 2 2 3. Soit F la fonction de répartition du couple (R, Q). p Si r < 0 ou u − , on a F(r, u) = P([R r] ∩ [Q u]) = 0. 2 p Si r 0 et u , on a F(r, u) = P([R r] ∩ [Q u]) = P([R r]) = FR (r). 2 # p p$ , on a Enfin si r 0 et u ∈ − , 2 2 y f (x, y) dx dy, où Cr,u = {(x, y) ∈ R2 , x2 + y2 r 2 et Arctan u}. F(r, u) = x Cr,u On en déduit
1 2p
2
− r2
En utilisant les résultats et les notations précédents, on voit que C(r,u) est défini en coordonnées polaires par r ∈ [0, r] et a ∈ Iu . On obtient r r2 r2 1 1 e− 2 r dr da = da e− 2 r dr F(r, u) = 2p 2p Iu 0 [0,r]×Iu r 2 r r2 p p 1 1 ·2 u+ −e− 2 u+ 1 − e− 2 = FR (r)FQ (u). = = 2p 2 p 2 0 Dans tous les cas, on a F(r, u) = FR (r)FQ (u), donc les variables aléatoires R et Q sont indépendantes.
On peut aussi à partir de la fonction de répartition conjointe, déterminer la densité conjointe du couple obtenu. Exercice 4.
Un couple de variables aléatoires (X, Y ) admet une densité conjointe f telle que xe−x−y si x 0 et y 0 f (x, y) = 0 sinon. On pose U = min(X, Y ) et V = max(X, Y ) 1. Montrer que (U, V ) est à valeurs dans A = {(u, v) ∈ (R+ )2 , u v}. 2. Déterminer la fonction de répartition conjointe F de U et V . En déduire que (U, V ) admet une densité g telle que (u + v)eu+v si (u, v) ∈ A g(u, v) = 0 si (u, v) ∈ / A. On admettra que g s’obtient en dérivant F par rapport à u et à v. 3. En déduire des densités de U et V .
380
Variables aléatoires fonctions d’un couple de variables à densité
Solution. La fonction f est bien une densité : elle est positive et continue sauf sur R+ × {0} ∪ {0} × R+ , ensemble d’aire nulle et on vérifie facilement que +∞ +∞ f (x, y) dx dy = 1. En effet cette intégrale est égale à xe−x dx e−y dy et R2
0
+∞
xe−x dx =
0 +∞
0
e−y dy = 1,
0
car les fonctions x −→ xe−x et y −→ e−y ont pour primitive x −→ −(x+1)e−x et y −→ −e−y , fonctions qui toutes deux ont pour limite 0 en +∞ et −1 en 0. 1. Les variables X et Y sont à valeurs dans R+ . En effet, si x < 0, on a, pour tout réel y, f (x, y) = 0 et donc +∞ FX (x) = f (x, y) dy = 0, −∞
donc X possède une densité nulle sur R∗− . Il en est de même pour Y . On en déduit que U et V sont positives. D’autre part, il est clair que U V , donc (U, V ) est à valeurs dans A. 2. Si u < 0 ou v < 0, on a F(u, v) = P([U u] ∩ [V v]) = 0. Soit (u, v) ∈ (R+ )2 . Si v < u, on a, puisque U V , [U u] ∩ [V v] = [V v] = [X v] ∩ [Y v] et
v
F(u, v) =
xe−x dx
0
v
e−y dy = −(x + 1)e−x
0
!v 0
−e−y
!v 0
= (1 − (v + 1)e−v )(1 − e−v ).
Si enfin (u, v) ∈ A, on écrit [U u] ∩ [V v] = [V v] \ [U > u] ∩ [V v] et on remarque que [V v] ∩ [U > u] = [u < X v] ∩ [u < Y v].
© Dunod – La photocopie non autorisée est un délit
On en déduit
F(u, v) = P([V v]) − P([u < X v] ∩ [u < Y v]).
Le premier terme a été calculé précédemment. Le second vaut v v !v !v −x xe dx e−y dy = −(x + 1)e−v u −e−y u = ((u + 1)e−u − (v + 1)e−v )(e−u − e−v ). u
u
On a finalement F(u, v) = (1 − (v + 1)e−v )(1 − e−v ) − ((u + 1)e−u − (v + 1)e−v )(e−u − e−v ) = 1 − (v + 2)e−v − (u + 1)e−2u + (u + v + 2)e−u−v . On remarque que la fonction F est de classe C 2 sur R2 privé de B = {(u, v) ∈ (R+ )2 , u = 0 ou v = 0 ou u = v}, réunion de trois demi-droites donc d’aire nulle.
381
Chapitre 11 – Couples de variables aléatoires admettant une densité
On obtient en dérivant par rapport à v, puis par rapport à u, g(u, v) = 0 si u < 0 ou v < 0 et de même g(u, v) = 0 si u > 0, v > 0 et u > v car alors F(u, v) ne dépend que de v, donc on trouve 0 quand on dérive par rapport à v. Enfin, si u > 0, v > 0 et u < v, on obtient ∂F (u, v) = (v + 1)e−v − (u + v + 1)e−u−v ∂v puis ∂2F (u, v) = (u + v)e−u−v . ∂u∂v Sur B ensemble d’aire nulle on peut fixer g arbitrairement, ce qui conduit à l’expression de g donnée dans l’énoncé. +∞ 3. On sait qu’on alors, pour tout u ∈ R, fU (u) = g(u, v) dv. On obtient fU (u) = 0 si g(u, v) =
u < 0 et si u 0, fU (u) =
−∞
+∞
(u + v)e−u−v dv = e−u −(u + v + 1)e−v
!+∞
u
u
= e−2u (2u + 1),
car lim (u + v + 1)e−v = 0. v→+∞ On a de même fV (v) = 0 si v < 0 et si v 0, v !v (u + v)e−u−v du = e−v −(u + v + 1)e−u 0 = e−v (−(2v + 1)e−v + (v + 1)) fV (v) = 0
= −(2v + 1)e−2v + (v + 1)e−v .
3. Covariance - Coefficient de corrélation 3.1 Espérance d’une variable aléatoire fonction d’un couple de variables aléatoires à densité Nous admettrons le théorème suivant (qui est pour les variables à densité l’équivalent du théorème 9 du chapitre 9). Théorème 8 Soit (X, Y ) un couple de variables aléatoires possédant une densité f et g une application définie sur un ensemble D contenant (X, Y )(V). La variable aléatoire g(X, Y ) admet une espérance si et seulement si l’intégrale
g(x, y)f (x, y) dx dy converge. Cette espérance R2
est alors donnée par
E(g(X, Y )) =
g(x, y)f (x, y) dx dy. R2
382
Covariance - Coefficient de corrélation
➤ Remarque Nous avions déjà remarqué que si X est une variable à densité et w une application continue, on n’est pas sûr que w(X) est une variable à densité. C’est vrai ici a fortiori. Même si g est continue, on ne peut pas assurer que g(X, Y) est une variable à densité. Nous supposerons quand on demandera d’appliquer ce théorème que nous sommes dans un « bon cas ».
Exemple Soit X et Y deux variables aléatoires indépendantes, suivant une loi exponentielle de paramètre l. Nous avons vu page 374 que Z = |X − Y | suit aussi une loi exponentielle de paramètre l. 1 On a donc E(Z) = · Retrouvons ce résultat en utilisant le théorème 8. La densité du couple l est le produit des densités de X et Y . On obtient donc, sous réserve de convergence E(Z) = |x − y|fX (x)fY (y) dx dy = |x − y|l2 e−lx e−ly dx dy
R2 +∞
=
R2+
−ly e
0
+∞
2 −lx
|x − y|l e
dx
dy.
0
Pour tout y 0 et A > y, on a, en intégrant par parties, y A A |x − y|l2 e−lx dx = (y − x)l2 e−lx dx + (x − y)l2 e−lx dx 0
0
= [(x − y)le−lx ]0 −
y
= ly +
lim e−lA =
A→+∞ −ly
© Dunod – La photocopie non autorisée est un délit
ly − 1 + 2e
le−lx dx + [(y − x)le−lx ]Ay +
0
!y e−lx 0 −ly
+ (y − A)le
−lA
−
−lA
!A e−lx y −lA
A
le−lx dx
y
− 1 + (y − A)le −e + e−ly . +∞ lim Ae−lA = 0, |x − y|l2 e−lx dx converge et vaut
= ly + e Comme
y y
A→+∞
0
. Sous réserve de convergence +∞ E(Z) = (lye−ly − e−ly + 2e−2ly ) dy. 0
+∞
On sait que
le−ly dy =
0
+∞
2le−2ly dy = 1, car on reconnaît l’intégrale de
0
la densité d’une variable suivant une loi exponentielle de paramètre l ou 2l. D’autre +∞ 1 lye−ly dy = , car c’est l’espérance d’une variable suivant une loi exponentielle de l 0 +∞
paramètre l. On en déduit que
(lye−ly − e−ly + 2e−2ly ) dy converge et
0
E(Z) =
1 1 1 1 − + = · l l l l
383
Chapitre 11 – Couples de variables aléatoires admettant une densité
3.2 Covariance Nous admettrons le résultat suivant. Théorème 9 Soit (X, Y ) un couple de variables aléatoires possédant une densité f . Si les variables X et Y possèdent un moment d’ordre 2, alors la variable XY possède une espérance donnée par E(XY ) = xyf (x, y) dx dy. R2
➤ Remarque La formule donnant l’espérance de XY résulte du théorème 8 appliqué à la fonction g : (x, y) −→ xy.
Définition 6 aléatoires à densité admettant une espérance. Si la variable Soit X et Ydeux variables X − E(X) Y − E(Y ) admet une espérance, on appelle covariance du couple (X, Y ) le réel noté Cov(X, Y ) défini par Cov(X, Y ) = E X − E(X) Y − E(Y ) .
Théorème 10 (Formule de Koenig-Huyghens) Soit (X, Y ) un couple de variables aléatoires possédant une densité f . Si les variables X et Y possèdent un moment d’ordre 2, alors le couple (X, Y ) admet une covariance donnée par la formule Cov(X, Y ) = E(XY ) − E(X)E(Y ).
Preuve
Les variables X et Y possèdent un moment d’ordre 2, donc elles possèdent une espérance. D’après le théorème 9, XY possède une espérance. Par linéarité de l’espérance, X − E(X) Y − E(Y) = XY − XE(Y) − YE(X) + E(X)E(Y) admet une espérance. Donc le couple (X, Y) possède une covariance et
Cov(X, Y) = E X − E(X) Y − E(Y)
=
E(XY) − E(Y)E(X) − E(X)E(Y) + E(X)E(Y)
=
E(XY) − E(Y)E(X).
❑
Reprenons les exemples 2 et 4 de la page 362. Exemples 1. Si (X, Y ) suit la loi uniforme sur le disque de centre (0, ⎧0) et de rayon 1, on a vu que X et ⎨2√ 1 − x2 si |x| 1 Comme Y suivent la même loi, de densité définie par fX (x) = p ⎩0 si |x| > 1. la fonction fX est continue sur [−1, 1] et nulle en dehors, X (et Y ) possède des moments
384
Covariance - Coefficient de corrélation
de tout ordre et en particulier un moment d’ordre 2. On en déduit que (X, Y ) possède une covariance. La fonction fX est paire, donc E(X) = E(Y ) = 0 et 1 xydx dy xyf (x, y) dx dy = Cov(X, Y ) = E(XY ) = R2 D p √ 2 1
1−y
= −1
−
√
xy dx
dy = 0,
1−y2
© Dunod – La photocopie non autorisée est un délit
car"pour tout"y ∈ [−1, 1], la fonction x −→ xy est impaire donc son intégrale sur [− 1 − y2 , 1 − y2 ] est nulle. 2. Soit (X, Y ) un couple de variables aléatoires dont une densité est définie par √ 2 f (x, y) = exp(−x2 + 2xy − 3y2 ). p
3 et que Y suit la loi normale Nous avons vu que X suit la loi normale de paramètre 0, 4
1 de paramètre 0, . Ces deux variables ont un moment d’ordre 2, donc (X, Y ) possède 4 une covariance. On a E(X) = E(Y ) = 0 et √ 2 Cov(X, Y ) = E(XY ) = xyf (x, y) dx dy = xy exp(−x2 + 2xy − 3y2 ) dx dy p R2 R2 √ +∞ +∞
2 xy exp(−x2 + 2xy − 3y2 ) dx dy = p −∞ −∞ √ +∞ +∞
2 2 2 = xy exp(−(x − y) − 2y ) dx dy p −∞ −∞ √ +∞
+∞ 2 2 ye−2y = x exp(−(x − y)2 ) dx dy. p −∞ −∞ Avec le changement de variable t = x − y, on obtient +∞ +∞ 2 x exp(−(x − y) ) dx = (t + y) exp(−t2 ) dt −∞
−∞ +∞
+∞
2
=
exp(−t2 ) dx.
t exp(−t ) dx + y −∞
−∞
2 La première intégrale est nulle, √ car la fonction t −→ t exp(−t ) est impaire. La seconde est l’intégrale de Gauss et vaut p. On en déduit √ +∞ √ 2 2 ye−2y y p dy Cov(X, Y ) = p −∞ ' +∞ +∞ 2 2 2 1 = y2 e−2y dy = √ u2 e−u du, p −∞ 2 p −∞
385
Chapitre 11 – Couples de variables aléatoires admettant une densité
√ grâce au changement de variable u = y 2. En intégrant par parties, on obtient +∞ +∞ 2 1 −u2 1 1 √ 1 1 − ue + √ e−u du = 0 + √ p= · Cov(X, Y ) = √ 2 p 2 4 p 4 p 4 −∞ −∞
Les propriétés de la covariance sont les mêmes que dans le cas discret. Nous pouvons donc reprendre le contenu des théorèmes 11 et 12 du chapitre 9. Théorème 11 Si X, X , Y et Y sont des variables aléatoires à densité admettant des moments d’ordre 2 et l un réel, on a : • Cov(X, X) = V (X) ; • Cov(X, Y ) = Cov(Y, X) ; • Cov(X + X , Y ) = Cov(X, Y ) + Cov(X , Y ) Cov(lX, Y ) = lCov(X, Y ) ; • Cov(X, Y + Y ) = Cov(X, Y ) + Cov(X, Y ) Cov(X, lY ) = lCov(X, Y ). Autrement dit, les applications X −→ Cov(X, Y ) et Y −→ Cov(X, Y ) sont linéaires. On a, de plus, |Cov(X, Y )| s(X)s(Y ).
Théorème 12 • Pour tout couple (X, Y ) de variables aléatoires réelles à densité admettant un moment d’ordre deux, la variable aléatoire réelle X + Y admet une variance égale à V (X + Y ) = V (X) + V (Y ) + 2 Cov(X, Y ). • Plus généralement, pour toute famille finie (X1 , . . . , Xn ) de n variables aléatoires réelles à densité admettant un moment d’ordre 2, la variable aléatoire réelle X1 + X2 + · · · + Xn admet une variance V (X + · · · + Xn ) =
n k=1
V (Xk ) + 2
Cov(Xi , Xj ).
1i<jn
Preuve Les démonstrations sont les mêmes que dans le cas discret. En effet, celles-ci reposent uniquement sur la linéarité de l’espérance et pour la dernière affirmation du théorème 11 sur le fait que l’application l −→ V(lX + Y) est une fonction trinôme qui garde toujours un signe positif et donc a un discriminant négatif. ❑ ➤ Remarque Nous ne sommes pas assurés pourtant que la somme X + X de deux variables aléatoires à densité est une variable à densité. Les calculs effectués dans les théorèmes précédents ont encore un sens à condition de se placer dans le cadre général des variables aléatoires réelles, tracé dans la première partie du chapitre 8.
386
Covariance - Coefficient de corrélation
3.3 Coefficient de corrélation linéaire Définition 7 Soit (X, Y ) un couple de variables aléatoires à densité. Si le couple (X, Y ) possède une covariance, on appelle coefficient de corrélation linéaire de (X, Y ) le réel rX,Y défini par rX,Y =
Cov(X, Y ) · sX sY
➤ Remarque Cette définition est justifiée car l’écart-type d’une variable à densité est strictement positif.
Reprenons les exemples de la page 384. Exemples 1. Dans le premier cas on a rX,Y = 0 car Cov(X, Y ) = 0. 1 2. Dans le second cas, on a trouvé Cov(X, Y ) = · Les variables X et Y suivent des lois 4 √
3 1 3 et 0, respectivement. On a donc sX = et normales de paramètre 0, 4 4 2 1 1 sY = · On en déduit rX,Y = √ · 2 3 Théorème 13 Pour tout couple (X, Y ) de variables aléatoires réelles discrètes admettant un coefficient de corrélation linéaire, on dispose des inégalités
© Dunod – La photocopie non autorisée est un délit
−1 r (X, Y ) 1.
Preuve
❑
Cela résulte directement de la dernière affirmation du théorème 11.
3.4 Cas des variables indépendantes Théorème 14 Soit X et Y deux variables aléatoires à densité sur le même espace probabilisé (V, T , P), admettant un moment d’ordre deux. Si X et Y sont indépendantes, on a • E(XY ) = E(X)E(Y ) ; • Cov(X, Y ) = 0 ; • V (X + Y ) = V (X) + V (Y ).
387
Chapitre 11 – Couples de variables aléatoires admettant une densité
Preuve Soit fX et fY une densité de X et Y respectivement. Comme X et Y sont indépendantes, la fonction (x, y) −→ fX (x)fY (y) est une densité du couple (X, Y). Il résulte alors du théorème 9 que XY possède une espérance donnée par
$$ E(XY) = R2
$ xyfX (x)fY (y) dx dy =
$
∞ −∞
xfX (x) dx
∞ −∞
yfY (y) dy = E(X)E(Y).
Les deux autres égalités découlent de la première. On a en effet Cov(X, Y) = E(XY) − E(X)E(Y) = 0, puis V(X + Y) = V(X) + V(Y) + 2Cov(X, Y) = V(X) + V(Y).
❑
Définition 8 Si deux variables aléatoires à densité sur le même espace probabilisé vérifient Cov(X, Y ) = 0, on dit qu’elles sont non corrélées. Proposition 2 Deux variables aléatoires réelles à densité, indépendantes, sont non corrélées. Preuve Cela résulte de la définition et de la proposition 14.
❑
➤ Remarque La réciproque est fausse. Nous avons vu que si le couple (X, Y) suit la loi uniforme sur le disque de centre (0, 0) et de rayon 1, les variables X et Y sont non corrélées, mais ne sont pas indépendantes.
388
1.
Soit X, Y , Z trois variables aléatoires indépendantes, de même loi uniforme sur 1 [−1, 1]. Calculer une densité de X + Y , (X + Y ) et X + Y + Z. 2 2.
Soit a ∈ ]0, 1[ et (X, Y ) un couple de variables aléatoires de densité f définie par f (x, y) =
((1 + ax)(1 + ay) − a) exp(−x − y − axy) 0
si x 0 et y 0 sinon.
1. Vérifier que f est une densité de probabilité. 2. Déterminer les lois marginales du couple (X, Y ). 3. Les variables X et Y sont-elles indépendantes ? 3.
Soit (X, Y ) un couple de variables aléatoires de densité f définie par ⎧ 1 ⎨ k si x 1 et yx 2 x f (x, y) = x y ⎩0 sinon.
1. Déterminer k. 2. Déterminer les densités marginales et conditionnelles du couple (X, Y ). 4. 1. Les variables aléatoires A et B sont indépendantes et suivent une loi uniforme sur [0, 1]. Quelle est la probabilité que l’équation x2 + 2Ax + B = 0 ait a. deux solutions réelles ; b. deux solutions complexes non réelles ; c. une seule solution ? 2. Mêmes questions si A et B suivent une loi exponentielle de paramètre 1. On exprimera le résultat à l’aide de la fonction de répartition F de la loi normale centrée réduite. 5. Deux personnes A et B se donnent rendez-vous entre 15 et 16 heures. Chacun d’eux a promis de ne pas attendre l’autre plus de 10 minutes. On suppose qu’ils arrivent indépendamment à des instants uniformément distribués sur entre 15 heures et 16 heures. 1. Quelle est la probabilité qu’ils se rencontrent ? 2. À présent, A fixe son heure d’arrivée x. Quelle est la probabilité qu’il rencontre B ? 3. Arrivant à l’heure x, A ne trouve personne. Quelle est la probabilité qu’il rencontre B ? 6. Trois personnes, notées A, B, C entrent simultanément à la poste pour téléphoner. Il n’y a que deux cabines téléphoniques que A et B occupent immédiatement. C attend et remplace le premier sorti. On suppose que les durées de communication de A, B, C sont des variables aléatoires mutuellement indépendantes, suivant la même loi uniforme sur [0, 1], notées respectivement X, Y et Z.
389
Chapitre 11 – Couples de variables aléatoires admettant une densité
1. On pose : U = sup(X, Y ) et V = inf(X, Y ). Définir des densités des variables aléatoires U et V . Calculer l’espérance et la variance de U et V , la covariance et le coefficient de corrélation de (U, V ). 2. On pose W = |X − Y |. Définir une densité de W . 3. Les variables W et Z sont-elles indépendantes ? Définir par sa densité le couple (W, Z). 4. Montrer que la probabilité de l’événement « C termine sa communication en dernier » est P([W < Z]). Calculer cette probabilité. 5. Soit T le temps total passé par C dans le bureau de poste. Définir par sa densité la loi du couple (V, Z). En déduire une densité de T. 6. Calculer l’espérance et la variance de T. 7.
On casse une baguette de bois de longueur en deux endroits choisis au hasard.
On note X et Y les variables aléatoires abscisses des points où l’on brise la baguette. On suppose que X et Y suivent la loi uniforme sur [0, 1]. Calculer la probabilité qu’avec les trois morceaux, on puisse former un triangle. Indication. On montrera que cela équivaut à inf(X, Y )
2
et
sup(X, Y ) − inf(X, Y )
0, on dit qu’une variable aléatoire suit une loi de Cauchy de paramètre a si elle admet comme densité la fonction fa définie sur R par fa (x) =
p(a2
a · + x2 )
On note C(a) une telle loi. 1. a. Justifier que fa est une densité de probabilité. Soit X une variable aléatoire de loi C(a). Déterminer sa fonction de répartition. Possèdet-elle une espérance ?
390
EXERCICES
2 b. Soit (X, Y ) un ⎧ couple aléatoire possédant comme densité la fonction g définie sur R 1 ⎨ Y si x2 + y2 1 suit une loi C(1). . Montrer que Z = par g(x, y) = p ⎩0 sinon X
c. Soit X et Y deux variables aléatoires indépendantes, suivant chacune une loi normale Y centrée réduite. Montrer que Z = suit une loi C(1). X 2. a. Soit a > 0, l > 0 et X une variable qui suit la loi C(a). Déterminer la loi de la variable lX. b. Soit (x, t, b) ∈ R3 et c = [x2 + (b + 1)2 ][x2 + (b − 1)2 ]. Vérifier que 2t (x2 + b2 − 1) x2 − b2 + 1 c 2(t − x) = x · + + − · [(t − x)2 + 1][t2 + b2 ] t 2 + b2 [(t − x)2 + 1) (t − x)2 + 1 t 2 + b2 c. Soit X et Y deux variables aléatoires indépendantes, X suivant une loi C(a) et Y une loi C(b). Montrer que S = X + Y suit une loi C(a + b). On commencera par supposer que a = 1 et on utilisera ce qui précède. 11.
+∞
Pour a > 0, on pose G(a) =
e−x xa−1 dx. On appelle loi gamma de paramètre
0
(a, l) (a > 0, l > 0), notée G(a, l), la loi sur R de densité ga,l , où ga,l (x) =
la −lx a−1 e x si x > 0 et ga,l (x) = 0 si x 0. G(a)
1. a. Vérifier que G(a) est défini pour tout a > 0 et que G(a + 1) = aG(a). Montrer que ga,l est une densité de probabilité. b. Soit X une variable aléatoire de loi G(a, l). Calculer E(X) et V (X). 2. a. Soient X et Y deux variables aléatoires indépendantes de lois respectives G(a, l) et G(b, l) (a > 0, b > 0). Montrer que X + Y suit la loi G(a + b, l). En déduire que 1 G(a)G(b) · ta−1 (1 − t)b−1 dt = G(a + b) 0 b. Montrer qu’une loi exponentielle est une loi gamma. Si X1 , . . . , Xn sont des variables aléatoires indépendantes suivant une loi exponentielle de paramètre l, donner la loi de S = X1 + · · · + Xn . 2 3. a. Soit
variable qui suit la loi normale centrée réduite. Montrer que Y suit la loi Y une 1 1 1 , . En déduire la valeur de G . G 2 2 2 b. Si Y1 , . . . , Yn sont n variables indépendantes suivant la loi normale centrée réduite, déterminer la loi de Z = Y12 + · · · + Yn2 (on dit que Z suit la loi du x2 à n degrés de liberté). Calculer l’espérance et la variance de Z.
391
Chapitre 11 – Couples de variables aléatoires admettant une densité
12. Soit (X, Y ) un couple de variables aléatoires réelles de densité conjointe définie, pour tout couple (x, y) de réels par
1 2 2 f (x, y) = k exp − (x − 2rxy + y ) , 2(1 − r2 ) où r est un élément de ] − 1, 1[. On dira que (X, Y ) est un couple normal standard. 1. Déterminer k en fonction de r. On pourra pour cela remarquer l’identité x2 − 2rxy + y2 = (x − ry)2 + (1 − r2 )y2 . 2. a. Déterminer et reconnaître les lois marginales de X et de Y . b. Calculer la covariance de X et Y . Montrer que X et Y sont indépendantes si, et seulement si, elles sont non corrélées. 3. Déterminer les lois conditionnelles du couple (X, Y ). 13.
1. Soit f la fonction définie par ⎧ ⎨1 f (x) = x2 ⎩0
si x 1 si x < 1.
Montrer que f est une densité de probabilité. 2. Soit X et Y deux variables aléatoires indépendantes de densité f . On pose U = XY et X V = . On note F la fonction de répartition conjointe de U et V . Y a. Montrer que le couple (U, V ) est à valeurs dans A = {(u, v) ∈ [1, +∞[×R∗+ , uv 1, u v} . f (x)f (y) dx dy, b. Soit (u, v) ∈ A. Montrer que F(u, v) = D
D = {(x, y) ∈ R2 , 1 x
√
uv,
u x y , y 1}. v x
En déduire F(u, v). On distinguera les cas v 1 et v > 1. ∂2F (u, v) en tout point où F est de c. On admet qu’une fonction g telle que g(u, v) = ∂u∂v 2 classe C est une densité de (U, V ). Montrer que, ⎧ ⎨ 1 si (u, v) ∈ A g(u, v) = 2u2 v ⎩0 si (u, v) ∈ / A. d. En déduire les lois marginales du couple (U, V ). Les variables U et V sont-elles indépendantes ?
392
Convergences et approximations
12
Dans ce chapitre, nous considérons des variables aléatoires Xn définies sur un même espace probabilisé (V, T , P), dépendant d’un entier naturel n et étudions le comportement de Xn lorsque n tend vers l’infini. Quand nous parlerons de variable aléatoire réelle, il s’agira soit de variable discrète, soit de variable à densité.
1. Loi faible des grand nombres 1.1 L’inégalité de Bienaymé-Tchebychev Lemme (Inégalité de Markov) Toute variable aléatoire réelle positive X admettant une espérance, vérifie l’inégalité E(X) · ∀a > 0, P [X a] a
Preuve • Si la variable X est discrète et X(V) = {xi , i ∈ I}, où I est une partie de N, on pose J = {i ∈ J, xi a}. [X = xi ] et On a alors [X a] = i ∈J
P [X = xi ] . P [X a] = i ∈J
Comme X est positive, on a, pour tout i ∈ I, xi 0. On en déduit E(X) =
i ∈I
j ∈J
xi P [X = xi ] xi P [X = xi ] i ∈J
aP [X = xi ] aP [X a] .
Chapitre 12 – Convergences et approximations
• Si X est une variable aléatoire à densité, de f, la fonction f est nulle sur R− car X est à valeurs $ +densité ∞ positives. D’autre part, on a P [X a] = f (t) dt. On en déduit, puisque f est positive, a
$
+∞
E(X) =
$
+∞
tf (t) dt
0
$
+∞
tf (t) dt
a
af (t) dt aP [X a] .
a
❑
Théorème 1 (Inégalité de Bienaymé-Tchebychev) Toute variable aléatoire réelle X admettant un moment d’ordre deux vérifie l’inégalité ! V (X) · ∀´ > 0, P |X − E(X)| ´ ´2
Preuve
La variable X − E(X) pour tout ´ > 0
2
est positive et possède une espérance égale à V(X). D’après l’inégalité de Markov, on a P
2 V(X) X − E(X) ´2 2 ·
Comme les événements |X − E(X)| ´ et (X − E(X)) ´ 2
2
´
sont égaux, on en déduit
V(X) P |X − E(X)| ´ 2 ·
´
❑
1.2 Loi faible des grands nombres Théorème 2 (Loi faible des grands nombres) Soit (Xn )n∈N∗ une suite de variables aléatoires réelles discrètes définies sur l’espace probabilisé (V, T , P). On suppose que ces variables admettent toutes la même espérance m et la même variance s2 , et sont deux à deux non corrélées. On pose Yn =
X1 + X2 + · · · + Xn · n
Alors, pour tout ´ > 0, on a lim P
n→+∞
|Yn − m| ´
!
= 0.
Preuve Étant somme de variables deux à deux non-corrélées admettant une espérance et une variance, Sn = Y1 + Y2 + · · · + Yn admet une espérance et une variance telles que E(Sn ) =
n
E(Xk ) = nm et V(Sn ) =
k=1
On en déduit E(Yn ) =
394
1 n
n
V(Xk ) = ns2 .
k=1
E(Sn ) = m et V(Yn ) =
1 n2
V(Sn ) =
1 n
s2 .
Loi faible des grand nombres
Par l’inégalité de Bienaymé-Tchebychev, on obtient
∀´ > 0,
P
s2 |Yn − m| ´ · n´2
On en déduit que, pour tout ´ > 0, lim P
n→ + ∞
|Yn − m| ´ = 0.
❑
➤ Remarques • Les hypothèses du théorème précédent sont remplies en particulier lorsque les variables aléatoires Xn sont mutuellement indépendantes, de même loi et admettent un espérance et une variance. C’est dans ce cadre qu’on l’utilise en général. • L’appellation « loi faible des grands nombres » suggère qu’il y a des résultats plus forts. Pour une suite (Xn ) de variables aléatoires mutuellement indépendantes, de même loi et admettent un espérance et une variance, on peut démontrer que la suite (Xn ) converge presque sûrement vers m, c’est-à-dire que l’ensemble A des éléments v ∈ V pour lesquels la suite de réels (Xn (v)) converge vers m est de probabilité 1.
• La propriété : pour tout ´ > 0, lim P |Yn − m| ´ = 0 signifie qu’en un certain sens la suite (Yn ) n→ + ∞
converge vers m. On dit que (Yn ) converge en probabilité vers m ; cette notion n’est pas au programme.
Théorème 3 (Théorème de Bernoulli) Soit (Xn )n∈N une suite de variables de Bernoulli indépendantes, de même paramètre p, sur l’espace probabilisé (V, T , P). On pose Yn =
X1 + X2 + · · · + Xn · n
Alors, pour tout ´ > 0, on a lim P
n→+∞
!
|Yn − p| ´
= 0.
Preuve © Dunod – La photocopie non autorisée est un délit
Il s’agit d’un cas particulier du théorème précédent, où m = p et s2 = p(1 − p). On obtient, pour tout ´ > 0,
∀´ > 0,
P
s2 |Yn − p| ´ · n´2
❑
Exemple Soit A un événement d’un espace probabilisé (V, T , P). On considère une suite d’épreuves indépendantes. Pour n ∈ N∗ , on note Xn la variable de Bernoulli qui vaut 1 si l’événement A est réalisé lors de la n-ième épreuve ; elle est de paramètre p = P(A). Alors Yn est égal à la fréquence de réalisation de l’événement A. Cette fréquence a pour limite p = P(A) quand n tend vers +∞. La loi faible des grands nombres s’accorde avec l’intuition qui, dans le cas d’un espace probabilisé fini, voit la probabilité d’un événement comme une fréquence.
395
Chapitre 12 – Convergences et approximations
2. Convergence en loi 2.1 Définition Considérons une suite (Xn )n∈N de variables aléatoires réelles, et X une variable aléatoire réelle. Une façon d’aborder le problème de la convergence de la suite (Xn )n∈N vers la variable aléatoire X est de considérer qu’une variable aléatoire réelle est définie par la donnée de sa fonction de répartition FXn et d’envisager la convergence pour tout réel x de la suite FXn (x) vers FX (x). Définition 1 Soit (Xn )n∈N une suite de variables aléatoires réelles. On note FXn la fonction de répartition de Xn . On dit que la suite (Xn )n∈N converge en loi vers la variable aléatoire réelle X de fonction de répartition FX si la suite FXn (x) converge vers FX (x) en tout x où FX est continue. ➤ Remarque En réalité, la notion de convergence en loi n’est pas relative aux variables aléatoires elles-mêmes, mais concerne les lois des variables aléatoires. Elle n’indique aucune proximité entre la fonction Xn et la fonction X.
Proposition 1 Soit (Xn ) une suite de variables aléatoires réelles convergeant en loi vers la variable aléatoire réelle X. Soit a et b deux points de continuité de FX , a < b. On a alors lim P [a < Xn b] = P [a < X b] . n→+∞
Preuve
Pour tout entier n, P [a < Xn b] = FXn (b) − FXn (a). On en déduit, puisque FX est continue en a et b, lim P [a < Xn b] = lim FXn (b) − lim FXn (a) = FX (b) − FX (a) n→ + ∞ n→ + ∞ n→ + ∞ = P [a < X b] .
❑
2.2 Convergence en loi des variables à valeurs entières Théorème 4 Soit (Xn )n∈N une suite de variables aléatoires réelles discrètes et X une variable aléatoire réelle discrète telles que, pour tout entier n, Xn (V) ⊂ N et X(V) ⊂ N. Dans ces conditions, en loi (Xn )n∈N converge vers X si, et seulement si, pour tout entier naturel k, lim P [Xn = k] ) = P [X = k] . n→+∞
Preuve Supposons que (Xn )n∈N converge en loi vers X. Alors, pour tout entier naturel k, les réels a = k − b=k+
1
1 2
et
sont des points de continuité de FX , puisque les points de discontinuité de la fonction FX sont les 2 éléments de X(V). On a donc, d’après la proposition 1, lim P [a < Xn b] = P [a < X b] , ce qui n → + ∞ est le résultat annoncé puisque P [a < Xn b] = P [Xn = k] et P [a < X b] = P [X = k] .
396
Convergence en loi
Réciproquement, supposons que pour tout entier naturel k, lim P [Xn = k] = P [X = k] . n→ + ∞
Soit x un réel quelconque. Si x < 0, on a, pour tout n ∈ N, FXn (x) = 0 et donc x 0, on obtient, pour tout n ∈ N, FXn (x) =
lim FXn (x) = 0 = FX (x). Si
n→ + ∞
x P [Xn = k] , k=0
où x représente la partie entière de x. On a, par hypothèse , pour tout k ∈ N,
lim P [Xn = k] = P [X = k] . Comme x est fixé, il en est de
n→ + ∞
même de x et la limite d’une somme de suites étant la somme des limites, on obtient,
lim FXn (x) =
n→ + ∞
x P [X = k] = FX (x). k=0
❑
Cela prouve que (Xn )n∈N converge en loi vers X.
Approximation d’une loi hypergéométrique par une loi binomiale Proposition 2 Soit (XN )N∈N une suite de variables aléatoires réelles discrètes telles que XN suit la loi hypergéométrique de paramètre (N, n, p), où n et p sont fixés et N appartient à l’ensemble I des entiers tels que Np soit entier. Alors, pour tout entier k de Ú0, nÛ, on a
n k lim P [X = k] = p (1 − p)n−k . N N→+∞ k N∈I La suite (XN )N∈I converge en loi vers une variable aléatoire X qui suit la loi binomiale de paramètre (n, p). Preuve Rappelons que
Np
© Dunod – La photocopie non autorisée est un délit
P [XN = k] =
k
Nq n −k N n
·
Alors
P [XN = k] = =
(Np)! (Nq)! n! (N − n)! k! (Np − k)! (n − k)! (Np − n + k)! (Np) · · · (Np − k + 1)(Nq) · · · (Nq − n + k + 1) n! k!(n − k)!
N(N − 1) · · · (N − n + 1)
·
Or les produits (Np)(Np − 1) · · · (Np − k + 1)(Nq)(Nq − 1) · · · (Nq − n + k + 1) et N(N − 1) · · · (N − n + 1) possèdent n facteurs, n étant indépendant de N. Ce sont des fonctions polynomiales de N, équivalentes quand N tend vers +∞ à leur terme de plus haut degré, c’est à dire pk qn−k Nn et Nn respectivement. On obtient donc lim
N → +∞
et
(Np)(Np − 1) · · · (Np − k + 1)(Nq) · · · (Nq − n + k + 1) N(N − 1) · · · (N − n + 1)
n k p (1 − p)n−k . lim P [XN = k] = N → +∞ k
= pk qn−k .
❑
397
Chapitre 12 – Convergences et approximations
➤ Remarques • Dans une urne contenant N boules blanches ou rouges, la proportion de boules blanches étant p, on tire simultanément n boules. Si N devient très grand, on obtient à peu près le même résultat que si les tirages sont effectués avec remise. • Dans la pratique, dès que N 10 n, on considère qu’on peut approcher la loi hypergéométrique de paramètre (N, n, p) par la loi binomiale de paramètre (n, p). • En faisant cette approximation, on remplace une loi dépendant de deux réels N, n et p par une loi qui ne dépend que de deux réels n et p.
Exemple Soit X une variable aléatoire suivant la loi hypergéométrique de paramètre (100; 4; 0, 05). Intéressons nous à P [X 1] . • Calcul exact :
5 95 0 4 P [X 1] = 1 − P(X = 0) = 1 −
100 4 4×3×2×1 95 × 94 × 93 × 92 × ≈ 0, 188. =1− 4×3×2×1 100 × 99 × 98 × 97 • Calcul approché : Approchons la loi H(100; 4; 0, 05) par la loi B(4; 0, 05). On a alors
4 P [X 1] = 1 − P [X = 0] ≈ 1 − × (0, 05)0 (0, 95)4 ≈ 0, 185. 0
Approximation d’une loi binomiale par une loi de Poisson Proposition 3 Soit l un réel strictement positif et (Xn )n∈N une suite de variables aléatoires réelles discrètes l . Alors, pour tout entier k de N, telles que Xn suit la loi binomiale de paramètre n, n on a lk lim P [Xn = k] = e−l . n→+∞ k! La suite (Xn )n∈N converge en loi vers une variable aléatoire X qui suit la loi de Poisson de paramètre l. Preuve Pour tout entier k (fixé) et pour tout entier n k,
n l k l n−k 1− P [Xn = k] = n n k =
398
lk k!
·
n(n − 1) · · · (n − k + 1) nk
e(n−k) ln
1− ln
.
Théorème de la limite centrée
Nous avons, quand n tend vers +∞, n(n − 1) · · · (n − k + 1) ∼ nk donc l l l ∼ − et donc D’autre part, puisque tend vers 0, on a ln 1 − n n n
lim (n − k) ln
n→ + ∞
On obtient
1−
l n
lim
n(n − 1) · · · (n − k + 1)
n→ + ∞
nk
= 1.
l = lim (n − k) − = − l. n→ + ∞ n
lk − l lim P [Xn = k] = e . k!
❑
n→ + ∞
➤ Remarques • Dans une urne contenant des boules blanches ou rouges, la proportion de boules blanches étant p, on tire n boules avec remise. Si p est proche de 0 et n assez grand, la variable aléatoire égale au nombre de boules blanches tirées suivra approximativement une loi de Poisson. On dit que la loi de Poisson est la loi des « événements rares ». • Dans la pratique, dès que n 30 et p 0, 1, on considère qu’on peut approcher la loi binomiale de paramètre (n, p) par la loi de Poisson de paramètre l = np. Notons cependant que les tables de la loi de Poisson usuelles n’existent que pour l 15. Cela introduit la contrainte supplémentaire np 15. • En faisant cette approximation, on remplace une loi dépendant de deux réels n et p par une loi qui ne dépend que d’un réel l.
Exemple On considère une variable aléatoire X suivant la loi binomiale B(100; 0, 05), et l’on s’intéresse à la probabilité pour que X prenne la valeur 2. • Calcul exact
100 P([X = 2]) = (0, 05)2 (0, 95)98 = 4950 × 0, 0025 × (0, 95)98 ≈ 0, 0812. 2
© Dunod – La photocopie non autorisée est un délit
• Calcul approché : Nous sommes dans les conditions de l’approximation de la loi binomiale par la loi de Poisson. On approche donc la loi B(100; 0, 05) par la loi P(100 × 0, 05) = P(5). On obtient 52 ≈ 0, 0843. P([X = 2]) ≈ e−5 × 2!
3. Théorème de la limite centrée 3.1 Théorème de la limite centrée Nous admettrons le théorème suivant. Théorème 5 Soit (Xn )n∈N∗ une suite de variables aléatoires réelles définies sur un même espace probabilisé (V, T , P), mutuellement indépendantes, de même loi, admettant une variance non nulle. On note " m = E(X1 ) s = V (X1 ) et pour tout n ∈ N∗ ,
1 (Yn − m) Xk , Yn∗ = · s √ n k=1 n n
Yn =
399
Chapitre 12 – Convergences et approximations
Alors la suite (Yn∗ )n∈N∗ converge en loi vers une variable aléatoire de loi N (0, 1), c’est-àdire que, pour tout (a, b) ∈ R2 tel que a < b, on a ⎛⎡ ⎤⎞ X1 + · · · + Xn b −m t2 1 ⎜⎢ ⎥⎟ n √ e− 2 dt. b = lim P([a < Yn∗ b]) = lim P ⎝⎣a < ⎦⎠ s n→+∞ n→+∞ 2p a √ n ➤ Remarques • La variable Yn∗ est la variable centrée réduite associée à Yn . On a en effet, puisque les variables Xk sont indé1 1 s2 pendantes, E(Yn ) = nm = m et V(Yn ) = 2 ns2 = . n n n n Xk , on a Sn = nYn donc Sn∗ = Yn∗ . Dans l’énoncé du théorème, on peut remplacer Yn∗ par Si on pose Sn = k=1
X1 + · · · + Xn − nm √ s n √ • Comme Sn = s nYn∗ +nm, la variable aléatoire Sn suit approximativement la loi N (nm, ns2 ), c’est-à-dire la loi normale qui a même espérance et même variance que Sn . On ne peut évidemment pas dire que (Sn ) converge en loi vers une variable aléatoire de loi N (nm, ns2 ), puisque celle-ci dépend de n. Sn∗ =
• Ce théorème est encore appelé « théorème central limite ». • Ce théorème est remarquable en ce que, avec peu d’hypothèses, on obtient un résultat très fort. Il met en évidence le rôle central joué par la loi de Laplace-Gauss en probabilités et en statistiques.
Exercice 1.
Une montre fait une erreur d’au plus une demi-minute par jour. Déterminer la probabilité que l’erreur commise au bout d’une année soit inférieure ou égale à un quart d’heure. Solution. On choisit comme unité de temps la minute. En l’absence d’autre indication, on 1 1 peut supposer que l’erreur commise un jour donnée suit une loi uniforme sur − , . On 2 2 note Xk la variable aléatoire égale à l’erreur commise le k-ième jour de l’année. On suppose 1 1 et, si l’année n’est pas que les variables Xk sont indépendantes. On a donc Xk → U − , 2 2 365 bissextile, l’erreur commise au bout d’un an est S = Xk . k=1 √ 365 1 S 12 ∗ et donc E(S) = 0, V (S) = , puis S = √ On obtient E(X1 ) = 0 et V (X1 ) = . La 12 12 365 ∗ variable S suit approximativement une loi normale centrée réduite. On en déduit √ √ 15 12 15 12 ∗ P(|S| 15) = P |S | √ ≈ 2F √ − 1 ≈ 2F(2, 72) − 1 ≈ 0, 993. 365 365
400
Théorème de la limite centrée
3.2 Approximation d’une loi binomiale par une loi normale Théorème 6 (Théorème de Moivre-Laplace) Soit p ∈ ]0, 1[, q = 1 − p et (Sn )n∈N∗ une suite de variables aléatoires telle que Sn suit la Sn − np loi binomiale B(n, p). Alors la suite de variables aléatoires de terme général Sn∗ = √ npq converge en loi vers une variable aléatoire de loi N (0, 1). Preuve Toute variable binomiale de paramètre (n, p) peut être considérée comme la somme de n variables de Bernoulli n mutuellement indépendantes de même paramètre p. On a donc Sn = Xk où Xk désigne une variable k=0
aléatoire de Bernoulli de paramètre p, et où les Xk sont mutuellement indépendantes. Comme les variables de Bernoulli admettent une variance pq, on est dans le cadre de l’application du théorème de la limite centrée, et Sn − np l’on en déduit que la variable centrée réduite Sn∗ = √ converge en loi vers une variable aléatoire suivant np q ❑ la loi normale centrée réduite.
➤ Remarques • Pour n assez grand, la loi de Sn peut être approchée par la loi normale de paramètre (np, np q). La convergence 1 est d’autant plus rapide que p est proche de . Dans la pratique, dès que n 30, np 5 et nq 5, on 2 considère qu’on peut approcher B(n, p) par N (np, npq). • On aura noté que l’on approche ici une loi discrète par une loi continue. On doit alors souvent utiliser la correction de continuité, et ainsi approcher P [Sn = k] par P [k− 0, 5 < N < k + 0, 5] , où Sn suit une loi binomiale et N la loi normale appropriée ; si on prenait P [N = k] , on trouverait 0, ce qui ne donnerait pas du tout une approximation correcte.
© Dunod – La photocopie non autorisée est un délit
Exemple Soit X une variable binomiale de paramètre (900 ;0,5). On cherche à calculer P [405 X 495] . Le calcul avec les formules exactes nécessiterait l’utilisation d’un ordinateur, et ne donnerait de toutes façons qu’un résultat approché. Mais nous sommes dans les conditions d’approximation de la loi binomiale par la loi normale. On approche la loi B(900; 0, 5) par la loi N (450, 225), et l’on considère que la variable X − 450 suit approximativement la loi normale centrée réduite. On obtient alors 15
X − 450 P [405 X 495] = P −3 3 ≈ 2F(3) − 1 ≈ 0, 9973. 15
3.3 Approximation d’une loi de Poisson par une loi normale Proposition 4 Soit a un réel strictement positif et (Sn ) une suite de variables aléatoires réelles discrètes telle que Sn suit la loi de Poisson de paramètre na. Alors la suite de variables aléatoires de Sn − na converge en loi vers une variable aléatoire de loi N (0, 1). terme général Sn∗ = √ na
401
Chapitre 12 – Convergences et approximations
Preuve Toute variable de Poisson de paramètre (na) peut être considérée comme la somme de n variables de Poisson n mutuellement indépendantes de même paramètre a. On a donc Sn = Xk où Xk désigne une variable k=1
aléatoire de Poisson de paramètre a, et où les Xk sont mutuellement indépendantes. Comme les variables de Poisson admettent une espérance a et une variance a, on est dans le cadre de l’application du théorème de la Sn − na limite centrée, et l’on en déduit que la variable centrée réduite Sn∗ = √ converge en loi vers une variable na aléatoire suivant la loi normale centrée réduite. ❑
➤ Remarques • Pour n assez grand, la loi de Sn peut être approchée par la loi normale N (na, na). Comme a est quelconque, cela signifie qu’une loi de Poisson de paramètre l peut être approchée par une loi N (l, l), dès que l est assez grand. Dans la pratique, dès que l 18, on approche la loi P (l) par la loi normale N (l, l). • On aura remarqué que l’on approche ici une loi discrète par une loi continue. Ici aussi, on doit souvent utiliser une correction de continuité.
Exemple Dans la table de la loi de Poisson de paramètre l = 16, on lit P [X 21] ≈ 0, 9107. En approchant X par une variable normale de paramètre (16,16), on est conduit à considérer X − 16 que la variable suit une loi normale centrée réduite. 4
X − 16 1, 25 ≈ F(1, 25) ≈ 0, 8944. On obtient alors P [X 21] = P 4 L’approximation obtenue n’est pas catastrophique, bien que la valeur de l soit faible.
402
1.
En utilisant l’inégalité de Bienaymé-Tchebychev, montrer que, pour tout x > 0,
x 2 √ 1 − t2 e dt 2p 1 − 2 · 2x −∞
2. Soit (Xn )n1 une suite de variables aléatoires réelles, indépendantes de même loi, de fonction de répartition F, définies sur un même espace probabilisé. Pour tous x ∈ R et n ∈ N∗ , on note Zn,x le nombre de variables Xi , pour i ∈ [[1, n]], qui prennent une valeur 1 inférieure ou égale à x. On pose Tn,x = Zn,x . n 1. Déterminer la loi de Zn,x , son espérance et sa variance. Déterminer un majorant de V (Zn,x ), indépendant x. 2. Montrer que, pour tout ´ > 0, on a lim P [|Tn,x − F(x)| ´] = 0. n→+∞
3. Soit (Xn )n1 une suite de v.a.r. définies sur un même espace probabilisé, indépendantes, suivant une loi uniforme sur [0, 1]. Pour n 1, on définit Mn = max(X1 , X2 , . . . , Xn ) et Yn = n(1 − Mn ). 1. Déterminer la fonction de répartition de Mn , puis celle de Yn . 2. Montrer que la suite (Yn ) converge en loi vers une variable remarquable. 4. On réalise une suite de lancers indépendants d’une pièce de monnaie équilibrée. On associe à cette expérience une suite (Xn )n1 de variables aléatoires indépendantes, définies sur un espace probabilisé et suivant toutes la loi de Bernoulli de paramètre 12 · Pour tout entier n supérieur ou égal à 1, on pose Sn = X1 + · · · + Xn . 1. a. Déterminer la loi de probabilité de la variable Sn . b. Quelles sont l’espérance et la variance de Sn ? 2. a. Montrer que pour tout réel ´ strictement positif, on peut trouver une constante K´ telle que, pour tout entier n supérieur ou égal à 1, on ait l’inégalité
Sn 1 K´ · P − ´ n 2 n b. Déduire de la majoration obtenue que, pour tout réel r vérifiant 0 < r < 12 , on a
Sn 1 1 lim P − r = 0. n→+∞ n 2 n
Sn 1 1 admet 3. Montrer, à l’aide du théorème de la limite centrée, que P − √ n 2 n une limite non nulle quand n tend vers +∞.
403
Chapitre 12 – Convergences et approximations
5. Un étudiant fait en moyenne une faute d’orthographe tous les 500 mots. Quelle est la probabilité qu’il ne fasse pas plus de 5 fautes dans un devoir contenant 200 mots ? On utilisera l’approximation d’une loi binomiale par un loi de Poisson. 6. 5 000 personnes sont rassemblées dans une salle de concert. La probabilité qu’une personne quelconque achète un T-Shirt à l’effigie du chanteur est 0, 4. De combien de TShirts doit-on disposer pour que la probabilité que l’on vienne à en manquer soit inférieure à 0, 1 ? 7. Un dé régulier est lancé 9 000 fois. Déterminer la probabilité d’obtenir le résultat 6 entre 1 400 et 1 600 fois (on comparera les résultats obtenus par approximation de loi et par l’inégalité de Bienaymé-Tchebychev) 8.
Un commando de soldats doit traverser une rivière, malheureusement infestée de 1 crocodiles. La probabilité qu’un soldat soit dévoré au cours de la traversée est de · Combien 10 faut-il envoyer de soldats pour que la probabilité d’avoir au moins 300 personnes sur l’autre rive soit supérieure à 95 % ? 9. Une entreprise compte 300 employés. Chacun d’eux téléphone en moyenne 6 minutes par heures. Quel est le nombre de lignes que l’entreprise doit installer pour que la probabilité que toutes les lignes soient utilisées au même instant soit au plus égale à 0, 025 ? 10. On considère une suite (Xn )n∈N∗ de variables de Poisson indépendantes de paramètre 1. On pose Sn = X1 + X2 + · · · + Xn . 1. Quelle est la loi de Sn ? 2. Déterminer P [Sn n]). 3. En utilisant le théorème central limite, montrer que lim e−n
n→+∞
n nk k=0
k!
=
1 · 2
11. Dans un élevage de poules pondeuses, aux heures de ponte maximale, le nombre X d’œufs pondus dans un enclos en 15 minutes suit une loi de Poisson de paramètre 10. 1. Quelles sont les valeurs de X ayant la probabilité maximale ? 2. Quelle est la probabilité pour que, au cours de 15 minutes, il y ait entre 7 et 12 œufs pondus (au sens large) ? 3. Certains œufs sont déclassés (cassés ou de poids insuffisant). La probabilité pour qu’un œuf pondu soit déclassé est 0, 03. Sur un lot de N œufs pondus, quelle est la loi de probabilité suivie par le nombre YN d’œufs déclassés ?
404
EXERCICES
4. On suppose à présent N = 4 000. a. Par quelle loi peut-on approcher la loi de YN ? Soient f la densité continue et F la fonction de répartition associées à cette approximation. Donner, pour tout x réel, les expressions de f (x) et F(x). b. On définit, pour h réel strictement positif fixé, une fonction w de la variable réelle x en posant w(x) = F(x + h) − F(x − h). Étudier les variations de la fonction w. Où faut-il placer le milieu du segment [a, b] pour que, l’amplitude (b − a) étant fixée, P([a YN b]) soit maximale ? c. Trouver un intervalle [a, b] centré en 120, de longueur minimale, tel que l’on ait P([a YN b]) 0, 95.
405
Solution des exercices
Chapitre 1 1. a. Comme (i + 2, −5) = (i + 2)(1, i − 2), on a A = Vect((1, i − 2)). Par ailleurs comme (1, i − 2) = 0, la famille ((1, i − 2)) est une base de A. b. Nous savons que C2 est un C-espace vectoriel de dimension 2 ; la famille (i, 2), (3, 4i), (i, 7) est une famille nécessairement liée. Déterminons le rang de cette famille. Soient a, b, c trois réels, on a ai + 3b + ci = 0 a(i, 2) + b(3, 4i) + c(i, 7) = 0 ⇔ 2a + 4bi + 7c = 0 ⎧ −5c ⎪ ⎨a = ai + 3b + ci = 0 2 ⇔ ⇔ −10b + 5ci = 0 L2 ← iL2 − 2L1 ⎪ ⎩b = ci · 2 −i 5 (3, 4i). On en déduit que B = Vect((i, 2), (3, 4i)). Par exemple (i, 7) = (i, 2) + 2 2 Ces deux vecteurs sont non-colinéaires la famille ((1, 2), (3, 4)) est une base de B. B est un sous-espace de dimension 2 de C, lui-même espace de dimension 2, ils sont donc égaux. 2. Nous savons que R3 est un R-espace de dimension 3 ; au maximum, nous pouvons avoir 3 vecteurs dans une famille de vecteurs libres et dans ce cas là il forment nécessairement une famille génératrice de R3 . a. Soient a, b, c trois réels tels que a(1, 3, −3) + b(4, 2, −3) + c(−1, 7, 6) = 0. On résout le système équivalent a + 4b − c = 0 a + 4b − c = 0 3a + 2b + 7c = 0 ⇔ −10b + 10c = 0 L2 ← L2 − 3L1 −3a − 3b + 6c = 0 9b + 3c = 0 L3 ← L3 + 3L1 a + 4b − c = 0 a + 4b − c = 0 −b + c = 0 ⇔ −b + c = 0 ⇔a=b=c=0 3b + c = 0 4c = 0 L3 ← L3 + 3L2 1.
La famille ((1, 3, −3), (4, 2, −3), (−1, 7, 6)) est donc libre ; elle est aussi génératrice de A par définition de Vect. C’est une base de A et A = R3 . b. Soient a, b, c, d quatre réels tels que a(4, −5, 3) + b(2, 3, −2) + c(4, −16, 10) + d(8, 1, −1) = 0. On résout le système équivalent 4a + 2b + 4c + 8d = 0 4a + 2b + 4c + 8d = 0 −5a + 3b − 16c + d = 0 ⇔ 22b − 44c + 44d = 0 L2 ← 4L2 + 5L1 3a − 2b + 10c − d = 0 −14b + 28c − 28d = 0 L 3 ← 4L3 − 3L1 4a + 2b + 4c + 8d = 0 4a = −2b − 4c − 8d a = −4c − 2d ⇔ ⇔ ⇔ b − 2c + 2d = 0 b = 2c − 2d b = 2c − 2d Il existe donc une solution telle que c = 1 et d = 0. Ceci implique que (4, −16, 10) est combinaison linéaire de ((4, −5, 3), (2, 3, −2)). De même il existe une solution telle que c = 0 et d = 1, et donc (8, −1, 1) est aussi combinaison linéaire de ((4, −5, 3), (2, 3, −2)).
Solutions
On a donc par exemple (0, −1, 1) = 2(1, 1, 2) − (2, 1, −3). On en déduit que C = Vect((1, 1, 3), (2, 1, −3)). Les deux vecteurs n’étant pas colinéaires il forment une famille libre. La famille ((1, 1, 3), (2, 1, −3)) étant à la fois libre et génératrice de C, c’est une base de C. d. On remarque que (−2, −8, 6) = −2(1, 4, −3). Donc D = Vect((1, 4, −3)). Le vecteur (1, 4, −3) n’étant pas nul, la famille ((1, 4, −3)) est une base de D. 1. Soit (x, y, z, t) un élément quelconque de K4 . Nous avons les équivalences suivantes. 2x + y − z + 2t = 0 (x, y, z, t) ∈ E ⇐⇒ x+y+z = 0 x = 2z − 2t L2 ← L1 − L2 ⇐⇒ y = 2t − 3z L1 ← 2L2 − L1 ⇐⇒ (x, y, z, t) = z(2, −3, 1, 0) + t(−2, 2, 0, 1) ⇐⇒ (x, y, z, t) ∈ Vect (2, −3, 1, 0), (−2, 2, 0, 1) Le sous-ensemble E est égal à Vect (2, −3, 1, 0), (−2, 2, 0, 1) dont nous savons qu’il s’agit d’un sous-espace vectoriel de K4 . Les vecteurs (2, −3, 1, 0) et (−2, 2, 0, 1) engendrent E, ils ne sont pas colinéaires, ils forment une famille libre qui est donc une base de E ; E est de dimension 2. Remarquons que le cours (voir page 5) nous permet d’affirmer avant tout calcul que E est un sous-espace vectoriel de K4 . 2. Soit (x, y, z, t) un élément quelconque de K4 . Nous avons les équivalences suivantes. (x, y, z, t) ∈ Vect (−1, 2, 1, −1), (3, 1, 0, −1)
© Dunod – La photocopie non autorisée est un délit
2.
(x, y, z, t) = a(−1, 2, 1, −1) + b(3, 1, 0, −1) ⎧ x = −a + 3b ⎪ ⎨ y = 2a + b ⇐⇒ ∃(a, b) ∈ K2 z = a ⎪ ⎩ t = −a − b ⎧ 0 = x + 4z + 3t L1 ← L1 + 4L3 + 3L4 ⎪ ⎨ 0 = y−z+t L2 ← L2 − L3 + L 4 2 ⇐⇒ ∃(a, b) ∈ K L3 ⎪ ⎩ a = z b = −z − t L4 ← L4 + L 3 0 = x + 4z + 3t ⇐⇒ 0 = y−z+t ⇐⇒ ∃(a, b) ∈ K2
409
SOLUTIONS
On en déduit que B = Vect((4, −5, 3), (2, 3, −2)). Ces deux vecteurs n’étant pas colinéaires, ils forment également une famille libre. La famille ((4, −5, 3), (2, 3, −2)) est donc une base de B. c. Soient a, b, c trois réels tels que a(1, 1, −2) + b(2, 1, −3) + c(0, 1, −1) = 0. On résout le système équivalent a + 2b = 0 a + 2b = 0 a = −2c a+b+c = 0 ⇔ −b + c = 0 ⇔ b = c −2a − 3b − c = 0 b−c = 0
Chapitre
1 – Espaces vectoriels
Nous avons donc 0 1 Vect (−1, 2, 1, −1), (3, 1, 0, −1) = (x, y, z, t) ∈ K4 |x + 4z + 3t = 0, y − z + t = 0 . Les deux équations trouvées ne sont pas uniques, répondre à la question posée revient à donner un système de deux équations linéaires indépendantes équivalent au système de deux équations que nous proposons. ⎞ x ⎜ y ⎟ ,un élément quelconque de l’espace vectoriel M4,1 (R). 1. Soit V = ⎝ 3. z ⎠ t Nous avons les équivalences suivantes. ⎛
V ∈ F ⇐⇒ ∃(a, b, c) ∈ R3 ⇐⇒ ∃(a, b, c) ∈ R3
⇐⇒ ∃(a, b, c) ∈ R3
⇐⇒
⇐⇒
⇐⇒
V ∈ G ⇐⇒ ∃(a, b) ∈ R2 ⇐⇒ ∃(a, b) ∈ R2
⇐⇒ ∃(a, b) ∈ R2
⇐⇒
410
V = av1 + bv2 + cv3 ⎧ −a + b + c = x ⎪ ⎨ a + 3b + c = y a−b−c = z ⎪ ⎩ −3a − b + c = t ⎧ −a + b + c = x ⎪ ⎨ 4b + 2c = x + y L2 ← L 1 + L 2 0 = x + z L ⎪ 3 ← L1 + L 3 ⎩ 4b + 2c = 3x − t L4 ← 3L1 − L4 0 = x+z 0 = 2x − y − t L4 ← L4 − L2 ⎞ ⎞ ⎛ ⎛ ⎛ ⎞ 0 1 x ⎜ 1 ⎟ ⎜ 0 ⎟ ⎜ y ⎟ + y⎝ V = ⎝ ⎠ = x⎝ 0 ⎠ −1 ⎠ z −1 2 t ⎞⎞ ⎞ ⎛ ⎛⎛ 0 1 ⎜⎜ 0 ⎟ ⎜ 1 ⎟⎟ , V ∈ Vect ⎝⎝ −1 ⎠ ⎝ 0 ⎠⎠ −1 2
V = av4 + bv5 ⎧ 2a + 3b = x ⎪ ⎨ a + 3b = y ⎪ ⎩ 2a + b = z a+b = t ⎧ 2a + 3b = x ⎪ ⎨ a = x−y 0 = −5x + 4y + 3z ⎪ ⎩ 0 = −x − z + 4t 0 = −5x + 4y + 3z 0 = −x − z + 4t
L2 ← L1 − L2 L3 ← 3L3 + 4L2 − 5L1 L4 ← 4L4 − L1 − L3
Solutions
⇐⇒
⇐⇒
⎞
⎞ 0 ⎟ z ⎜ −3 ⎟ ⎠+ ⎝ 4 ⎠ 4 1 ⎞⎞ 0 −3 ⎟⎟ 4 ⎠⎠ 1 ⎛
SOLUTIONS
⎞ ⎛ x 4 ⎜ y ⎟ x⎜ 5 V =⎝ ⎠= ⎝ z 0 4 t 1 ⎛⎛ ⎞ ⎛ 4 ⎜⎜ 5 ⎟ ⎜ V ∈ Vect ⎝⎝ ⎠ , ⎝ 0 1 ⎛
Et finalement nous avons
© Dunod – La photocopie non autorisée est un délit
⎧ 0 ⎪ ⎨ 0 V ∈ F ∩ G ⇐⇒ ⎪ ⎩ 0 0 ⎧ 0 ⎪ ⎨ 0 ⇐⇒ ⎪ ⎩ 0 0 ⎧ x ⎪ ⎨ y ⇐⇒ z ⎪ ⎩ t
= = = = = = = =
x+z 2x − y − t −5x + 4y + 3z −x − z + 4t x+z 8x − 4y L2 ← 4L2 + L4 + L1 0 L3 ← L3 + 4L2 + L4 − 2L1 4t L4 ← L4 + L 1 = x = 2x = −x = 0 ⎞⎞ ⎛⎛ 1 ⎜⎜ 2 ⎟⎟ ⇐⇒ V ∈ Vect ⎝⎝ −1 ⎠⎠ 0 ⎞⎞ ⎛⎛ 1 ⎜⎜ 2 ⎟⎟ en est une base. Nous pouvons conclure que dim(F ∩ G) = 1 et que ⎝⎝ −1 ⎠⎠ 0 ⎞ ⎞ ⎞ ⎛ ⎛ ⎛ 1 0 0 ⎜ 2 ⎟ ⎜ 1 ⎟ ⎜ −3 ⎟ 2. Posons uI = ⎝ ,u = et uG = ⎝ . −1 ⎠ F ⎝ 0 ⎠ 4 ⎠ 0 −1 1 Le premier calcul nous permet de conclure que F est de dimension 2 ; la famille libre (uI , uF ) en est une base. De même le deuxième calcul nous permet de conclure que G est de dimension 2 ; la famille libre (uI , uG ) en est une base. Il est immédiat de vérifier que les vecteurs (uI , uF , uG ) de F + G forment une famille libre ; de plus ils engendrent les vecteurs de F et ceux de G, elle engendre donc F + G. F + G est donc de dimension 3. 3. Nous avons effectivement dim(F + G) = dim(F) + dim(G) − dim(F ∩ G). 4. a. Le sous-espace F ∩ G est de dimension r finie parce qu’il est inclus par exemple dans F qui est lui-même de dimension finie. Si r = 0, il existe donc une base de F ∩ G que nous notons BI = (l1 , l2 , . . . , lr ). avec r ∈ N ∗ .
411
Chapitre
1 – Espaces vectoriels
b. Puisque F ∩ G ⊂ F et F ∩ G ⊂ G, nous avons pour les dimensions de ces sous-espaces r p et r q. Nous pouvons compléter éventuellement la base BI avec p − r vecteurs pour obtenir la base BF = (l1 , . . . , lr , m1 , . . . , mp−r ) de F et aussi avec q − r vecteurs pour obtenir la base BF = (l1 , . . . , lr , n1 , . . . , nq−r ) de G c. Remarquons que la famille F = (l1 , . . . , lr , m1 , . . . , mp−r , n1 , . . . , nq−r ) de p + q − r vecteurs de F + G engendre tous les vecteurs de F et tout ceux de G, elle est donc génératrice de F + G qui de ce fait est de dimension finie. Montrons que la famille F est aussi libre. Considérons une combinaison linéaire nulle de ses p + q − r vecteurs a1 l1 + · · · + ar lr + b1 m1 + · · · + bp−r mp−r + g1 n1 + · · · + gq−r nq−r = 0. Soit V = a1 l1 + · · · + ar lr + b1 m1 + · · · + bp−r mp−r = −g1 n1 − · · · − gq−r nq−r . Le vecteur V est dans F ∩ G, il se décompose donc sur la base BI , par exemple V = d1 l1 + · · · + dr lr . A cause de l’unicité de la décomposition de V sur la base BG on a g1 = g2 = · · · = gq−r = 0 et donc V = 0 ; comme BF est une famille libre, on a a1 = a2 = + · · · = ar = b1 = b2 = · · · + bp−r = 0. La famille F est libre, c’est une base de F ∩ G qui est de dimension p + q − r. Nous avons donc pour tout sous-espaces F et G de dimension finie dim(F + G) = dim(F) + dim(G) − dim(F ∩ G).
1. Nous avons fk (x) = ex+k = ek ex et donc Ef = Vect x : → ex , x : → eex , x : → e2 ex , x : → e3 ex , = Vect x : → ex .
4.
Dans ce cas, Ef est de dimension 1. 2. Nous avons fk (x) = sin(x + k) = cos(k) sin(x) + sin(k) cos(x) et donc Ef = Vect f0 , f1 , f2 , f3 ⊂ Vect sin, cos . Nous pouvons remarquer que les fonctions f1 : x → cos(1) sin(x) + sin(1) cos(x) et f0 : x → sin(x) ne sont pas colinéaires ; Ef est donc un sous-espace de dimension au moins 2 inclus dans un sous-espace de dimension 2 ; nous avons donc l’égalité Ef = Vect sin, cos et Ef est de dimension 2. 3. Nous avons fk (x) = (x + k)2 = k2 + 2kx + x2 et donc Ef = Vect f0 , f1 , f2 , f3 ⊂ Vect x : → 1, x : → x, x : → x2 . Comme précédemment, on montre facilement que (f0 , f1 , f2 ) est une famille libre de trois vecteurs, l’inclusion est donc une égalité et Ef est de dimension 3. 4. Nous avons fk : x → (x + k)ex+k = kek ex + ek xex et donc Ef = Vect f0 , f1 , f2 , f3 ⊂ Vect x : → ex , x : → xex . Les fonctions f0 et f1 ne sont pas colinéaires, la famille (f0 , f1 ) est une famille libre de deux vecteurs, l’inclusion est donc une égalité et Ef est de dimension 2.
412
Solutions 2
2
2
5.
1. Écrivons une combinaison linéaire nulle des trois suites proposées. Soient a, b, c trois réels tels que pour tout n ∈ N, on ait aun + bvn + cwn = 0 Alors en écrivant cette égalité pour n = 0, 1 et 2, nous voyons que a, b, c sont solutions d’un système linéaire homogène que nous résolvons a+b = 0 a+b = 0 2a − 3b + 2c = 0 ⇔ 4a − 21b = 0 L2 ← 4L2 − L3 4a + 9b + 8c = 0 4a + 9b + 8c = 0
© Dunod – La photocopie non autorisée est un délit
⇔
25a 4a − 21b 4a + 9b + 8c
= 0 = 0 = 0
L1 ← 21L1 + L2
⇔a=b=c=0
La famille ((un ), (vn ), (wn )) est donc bien une famille libre. 2. a. L’ensemble E n’est pas vide, il contient par exemple la suite constante nulle. Soit (tn ) et (sn ) deux suites éléments de E et deux réels a et b. Il est alors immédiat de vérifier que la suite (atn + bsn ) vérifie la relation de récurrence R qui caractérise les suites éléments de E. Le sous-ensemble E étant non vide et stable par combinaison linéaire est un sous-espace vectoriel de RN . b. Soit (tn ) un suite élément de E et considérons la suite (tn ) définie par ∀n ∈ N, tn = t0 an + t1 bn + t2 cn . La suite (tn ) est élément de E comme combinaison linéaire des éléments (an ), (bn ) et (cn ) de E et l’on a ti = ti pour i = 0, 1 et 2 ; les suites (tn ) et (tn ) sont donc égales, la famille (an ), (bn ), (cn ) est donc une famille génératrice de E. c. Il est immédiat de vérifier que les suites (un ), (vn ) et (wn ) vérifient la relation R. La (un ) , (vn ) , (wn ) est une famille libre de trois vecteurs de E et la famille famille (an ) , (bn ) , (cn ) est une famille de trois vecteurs génératrice de E ; L’espace vecto riel E est donc de dimension 3, (un ) , (vn ) , (wn ) est une base de E et toute suite (tn ) vérifiant la relation de récurrence R est de la forme tn = a2n + b(−3)n + gn2n avec (a, b, g) ∈ R3 . Le lecteur relira avec profit dans le livre de première année ce qui concerne les suites récurrentes linéaires et remarquera que −3 est une racine simple du polynôme caractéristique des suites étudiées ici et que 2 en est une racine double.
413
SOLUTIONS
5. Nous avons fk : x → e(x+k) = ek e2kx ex . Montrons que la famille (f0 , f1 , f2 , f3 ) est une famille libre. Remarquons que si k < l alors fk (x) e2kx = lim 2lx = lim e(k−l)x = 0. fk = o(fl ), en effet nous avons lim +∞ n→+∞ fl (x) n→+∞ e n→+∞ Considérons une combinaison linéaire nulle l0 f0 + l1 f1 + l2 f2 + l3 f3 = 0. Si les li ne sont pas tous nuls, notons i0 le plus grand indice i dans Ú1, 4Û tel que li = 0; nous avons alors l0 f0 + l1 f1 + l2 f2 + l3 f3 ∼ li0 fi0 . +∞ La seule fonction équivalente à la fonction nulle est la fonction nulle, nous avons donc li0 fi0 = 0 et li0 = 0 ce qui contredit le choix de li0 . Les li sont donc tous nuls, la famille (f0 , f1 , f2 , f3 ) est une famille libre et Ef est de dimension 4.
Chapitre
6.
1 – Espaces vectoriels
1. Les ensembles F et G contiennent tous les deux le polynôme nul, ils ne sont pas vides. Il est immédiat de voir que chacun de ces ensembles est stable par combinaison linéaire. Les ensembles F et G sont donc des sous-espaces vectoriels de E = K3 [X]. • Soit un polynôme P ∈ F ∪ G, P est de degré inférieur ou égal à 3 et il admet 4 racines 1, 2, 3 et 4 ; P est donc le polynôme nul. Nous avons donc F ∩ G = {0}. • Soit un polynôme P ∈ F. Puisque P a pour racine 1 et 2, P se factorise par (X−1)(X−2), il existe donc des réels a et b tels que P = (aX + b)(X − 1)(X − 2) ; et nous avons donc P = aR1 + bR2 en posant R1 = X(X − 1)(X − 2) et R2 = (X − 1)(X − 2). De même nous montrons que pour tout polynôme Q ∈ G il existe donc des réels c et d tels que Q = (cX + d)(X − 3)(X − 4) ; et nous avons donc Q = cR3 + dR4 en posant R3 = X(X − 3)(X − 4) et R4 = (X − 3)(X − 4). • Montrons que la famille (R1 , R2 , R3 , R4 ) est une famille libre de K3 [X]. Soit quatre réels a, b, g, d tels que pour tout x réel aR1 (x) + bR2 (x) + gR3 (x) + dR4 (x) = 0. En prenant successivement x = 0, 1, 3, 5 nous obtenons le système suivant ⎧ 2b +12d = 0 ⎪ ⎨ 6g + 6d = 0 = 0 ⎪ ⎩ 6a + 2b 60a + 12b +10g + 2d = 0 ⎧ 2b +12d = 0 ⎪ ⎨ 6g + 6d = 0 ⇐⇒ 6a + 2b = 0 ⎪ ⎩ −40g = 0 L4 − 10L3 + 4L1 − (50/6)L2 ⇐⇒ a = b = g = d = 0
La famille de polynômes (R1 , R2 , R3 , R4 ) est donc une famille libre de qui est de dimension 4, c’est donc une base de E = K3 [X]. La sous-famille (R1 , R2 ) est aussi libre et elle engendre F, c’est donc une base de F et de même (R3 , R4 ) est une base de G. Nous avons donc bien E = F ⊕ G. On peut facilement généraliser cet exercice. 2. Cet exercice est à rapprocher de l’exemple du cours sur les fonctions impaires et paires. Si A et B sont des matrices et l un réel, nous savons que la transposée de A + B est la somme t A + t B et que la transposée de lA est lt A. Si A est une matrice de Mn (K), nous avons les équivalences et A ∈ A ⇐⇒ t A = −A A ∈ S ⇐⇒ t A = A • L’ensemble S est non vide, il contient la matrice nulle. Soit A et B deux matrices symétriques éléments de S, l et m deux réels. Nous avons alors t
(lA + mB) = t (lA) + t (mB) = l(t A) + m(t B) = lA + mB. L’ensemble S est non vide et stable par combinaison linéaire, c’est donc un sous-espace vectoriel de Mn (K). • De même, l’ensemble A est non vide, il contient la matrice nulle. Soit A et B deux matrices antisymétriques éléments de A, l et m deux réels. Nous avons t
414
(lA + mB) = t (lA) + t (mB) = l(t A) + m(t B) = l(−A) + m(−B) = −(lA + mB).
Solutions
S=
1 M + tM 2
et
A=
1 M − tM . 2
Nous avons clairement S ∈ S, A ∈ A et M = S + A. Nous pouvons donc conclure que Mn (K) = S ⊕ A. 3. • L’ensemble F est non vide, il contient la fonction nulle. Soit f et g deux fonctions éléments de C 1 (R, R), l et m deux réels. Nous avons alors (lf + mg)(0) = lf (0) + mg(0) = 0
et
(lf + mg) (0) = lf (0) + mg (0) = 0.
© Dunod – La photocopie non autorisée est un délit
L’ensemble F est non vide et stable par combinaison linéaire, c’est donc un sous-espace vectoriel de C 1 (R, R). • L’ensemble G est en fait égal à l’espace vectoriel R1 [X], c’est donc un sous espace de C 1 (R, R). • La seule fonction de F ∩ G est clairement la fonction nulle. Nous avons donc F ∩ G = {0}. • Soit f une fonction de C 1 (R, R). Définissons les fonctions g et h par g : x → f (x) − xf (0) + f (0) et h : x → xf (0) + f (0) . Nous avons clairement g ∈ F, h ∈ G et f = g + h. Nous pouvons donc conclure que E = F ⊕ G. 4. • Les ensembles F et G ne sont pas vides, ils contiennent tous les deux la suite constante nulle. Nous savons que si u et v sont deux suites réelles convergentes, alors toute combinaison linéaire de u et v est une suite convergente et que la limite de la combinaison linéaire est la combinaison linéaire des limites ; ceci confirme que E est bien un espace vectoriel et que F en est un sous-espace. De même, il est clair que l’ensemble des suites constantes est stable par combinaison linéaire, c’est un sous-espace de E. • La seule suite constante convergeant vers 0 est la suite constante nulle. Nous avons donc F ∩ G = {0}. • Soit u une suite convergeant vers le réel . Soit w la suite constante égale à et v la suite définie par v = u − w. Nous avons clairement v ∈ F, w ∈ G et u = v + w. Nous pouvons donc conclure que E = F ⊕ G. 7.
1. Soit i0 ∈ Ú0, nÛ un entier fixé. Le polynôme Pi0 admet n racines distinctes et est de degré inférieur ou égal à n ; il est nécessairement de la forme Pi0 (X) = ki0
n
(X − xi )
i=0 i=i0
415
SOLUTIONS
L’ensemble A est non vide et stable par combinaison linéaire, c’est donc un sous-espace vectoriel de Mn (K). • Soit A = (ai,j ) 1in une matrice de S ∩ A. Nous avons alors, pour tout (i, j) ∈ Ú1, nÛ2 , 1jn ai,j = aj,i = −aj,i ce qui impose ai,j = 0. Nous avons donc S ∩ A = {0}. • Soit M une matrice de Mn (K). Posons
Chapitre
1 – Espaces vectoriels
où ki0 est un scalaire déterminé par la condition Pi0 (xi0 ) = 1. Posons donc ⎛ ⎞−1 ⎛ ⎞ n n ⎜ ⎟ ⎜ ⎟ Pi0 = ⎝ (xi0 − xi )⎠ ⎝ (X − xi ).⎠ . Le polynôme Pi0 satisfait les conditions i=0 i=i0
i=0 i=i0
demandées, il est le seul à avoir ces propriétés. ∀i ∈ Ú0, nÛ, i = i0 =⇒ Pi0 (xi ) = 0
et
Pi0 (xi0 ) = 1
2. Soit Q un polynôme de Kn [X] Considérons alors le polynôme Q1 =
Q(xi )Pi .
i=0
Pour chaque i0 ∈ Ú0, nÛ, nous avons Q1 (xi0 ) =
n
n
Q(xi0 )Pi (xi0 ) = Q(xi0 ).
i=0
Le polynôme Q − Q1 de degré inférieur ou égal à n a n + 1 racines distinctes qui sont x0 , x1 , . . . , xn , c’est donc le polynôme nul et Q = Q1 . Le polynôme Q est donc engendré par la famille (Pi )i∈Ú0,nÛ . Cette famille de n + 1 vecteurs est génératrice de l’espace Kn [X] qui est de dimension n + 1 ; c’est donc une famille libre et une base de Kn [X]. 3. Soit maintenant (yi )i∈Ú0,nÛ une suite de n + 1 scalaires. Montrons tout d’abord l’unicité du polynôme Q ; Supposons qu’il existe deux polynômes Q et Q1 tels que pour tout i ∈ Ú0, nÛ on ait Q(xi ) = Q1 (xi ) = yi . Comme précédemment, le polynôme Q − Q1 de degré inférieur ou égal à n a n + 1 racines, c’est le polynôme nul, Q = Q1 , le polynôme Q, s’il existe, est unique. n Il est facile de voir que le polynôme Q = yi Pi est de degré inférieur ou égal à n tel que i=0
pour tout i ∈ Ú0, nÛ on ait Q(xi ) = yi . En terme plus géométrique, nous avons montré que par exemple 3 points d’abscisses différentes définissent une unique parabole (représentant un unique polynôme du deuxième degré) sauf s’ils sont alignés, dans ce dernier cas ils définissent une unique droite (représentant un unique polynôme du degré 1 ou 0). 1. ⇒ Sens direct Soit F et G deux sous-espaces vectoriels d’un K-espace vectoriel E tels que F ∪ G soit une sous-espace vectoriel de E. Supposons qu’il existe dans F ∪ G un couple de vecteurs (u, v) avec u ∈ F \ G et v ∈ G \ F. Puisque l’addition est une loi de composition interne pour un sous-espace vectoriel, nous avons u + v ∈ F ∪ G ; si u + v ∈ F, alors v = (u + v) + (−u) ∈ F ce qui contredit v ∈ G \ F ; si u + v ∈ G, alors u = (u + v) + (−v) ∈ G ce qui contredit u ∈ F \ G. Dans les deux cas, nous avons une contradiction, ce qui prouve qu’il n’existe pas dans F ∪ G un couple de vecteurs (u, v) avec u ∈ F \ G et v ∈ G \ F. Nous avons donc ou bien F ⊂ G ou G ⊂ F. ⇐ Réciproque Soit F et G deux sous-espaces vectoriels d’un K-espace vectoriel E tels que F ⊂ G ou F ⊂ G Dans cette situation, soit F ∩ G = G soit F ∩ G = F, dans les deux cas F ∩ G est un sous-espace vectoriel de E. Ceci démontre donc que F ∪ G est un sous-espace de E ⇐⇒ (F ⊂ G ou G ⊂ F). 2. Soit F G et H trois sous-espaces vectoriels d’un espace vectoriel E, tel que G ⊂ F. 8.
416
Solutions
La famille (A, A2 ) est bien libre. 3. L’unicité découle de la liberté de (A, A2 ). Prouvons l’existence par récurrence sur n. Pour n = 1, A = 1 × A + 0 × A2 , d’où la relation voulue en posant a1 = 1 et b1 = 0. Si An = an A + bn A2 , alors An+1 = A×An = an A2 +bn A3 = an A2 +bn (A2 +2A) = 2bn A+(an +bn )A2 = an+1 A+bn+1 A2 où l’on a posé an+1 = 2bn et bn+1 = an + bn . On a donc pour tout n 1, An = an A + bn A2 où (an ), (bn ) sont les suites définies par la récurrence suivante an+1 = 2bn a1 = 1, b1 = 0 et bn+1 = an + bn 4. a. Pour n 1,
© Dunod – La photocopie non autorisée est un délit
an+2 = 2bn+1 = 2(an + bn ) = 2an + 2bn = an+1 + 2an . b. La suite (an ) est récurrente linéaire d’ordre 2. On résout l’équation caractéristique x2 − x − 2 = 0 dont −1 est racine évidente, et 2 l’autre racine. On sait alors qu’il existe deux réels a, b tels que an = a(−1)n + b2n pour n 1. En égalant les deux premiers termes, on résout un système pour déterminer a et b 1 2 −a + 2b = 1 −a + 2b = 1 ⇔ ⇔ a = − et b = · a + 4b = 0 6b = 1 3 6 D’où an = − 23 (−1)n + 16 2n . Il s’ensuit que bn =
1 1 1 1 1 an+1 = − (−1)n+1 + 2n+1 = (−1)n + 2n · 2 3 12 3 6
c. De tout ce qui précède, on obtient 1 2 1 n 1 n n n n (−1) + 2 A2 . A = − (−1) + 2 A + 3 6 3 6
417
SOLUTIONS
• Soit v ∈ F ∩ (G + H), alors il existe g ∈ G et h ∈ H tels que v = g + h ; remarquons que h = v − g ∈ F puisque v et g sont dans F et donc h ∈ F ∩ H et v = g + h ∈ G + (F ∩ H) • Inversement, soit v ∈ G + (F ∩ H), alors il existe g ∈ G et h ∈ (F ∩ H) tels que v = g + h. D’une part v ∈ G + H puisque g ∈ G et h ∈ H ; d’autre part v ∈ F puisque g et h sont dans F. Nous avons donc v ∈ F ∩ (G + H). Ceci démontre l’égalité F ∩ (G + H) = G + (F ∩ H). 3 1 1 5 3 3 2 3 1 1 1 , et A = 3 1 1 . La relation annon1. Nous avons A = 9. 1 1 1 3 1 1 cée en découle. 2. Soient a, b deux réels, a + 3b a + b a + b a + 3b = 0 2 a+b b b a + b = 0 ⇔ a = b = 0. aA + bA = 0 ⇔ =0⇔ a+b b b b=0
Chapitre
1 – Espaces vectoriels
10. Nous allons démontrer que la famille de n + 1 vecteurs (X − 1)k (X + 1)n−k 0kn est une base de Kn [X] par récurrence sur n. Initialisation. La famille (1) est une famille libre de un vecteur dans l’espace vectoriel K0 [X] des polynômes constants qui est de dimension 1, c’est donc une base de cet espace. Hérédité. Supposons que la famille de n vecteurs (X − 1)k (X + 1)n−k−1 0kn−1 soit une base de Kn−1 [X] pour une entier n non nul. Considérons dans l’espace vectoriel Kn [X] une combinaison linéaire nulle Q des vecteurs de la famille de n + 1 vecteurs (X − 1)k (X + 1)n−k 0kn : Q=
n
ak (X − 1)k (X + 1)n−k = 0.
k=0
En 1, l’égalité ci-dessus nous donne Q(1) = a0 = 0. Par ailleurs, le polynôme Q nul a une dérivée qui est aussi le polynôme nul. Q
=
n
ak k(X − 1)k−1 (X + 1)n−k +
k=0
=
n−1
n k=0
ak+1 (k + 1)(X − 1)k (X + 1)n−k−1 +
k=0
=
ak (n − k)(X − 1)k (X + 1)n−k−1
n−1
n−1
ak (n − k)(X − 1)k (X + 1)n−k−1
k=0
(n − k)ak + (k + 1)ak+1 (X − 1)k (X + 1)n−k−1 = 0.
k=0
Comme la famille (X − 1)k (X + 1)n−k−1 0kn−1 est libre, tous les coefficients de la dernière ligne ci-dessus sont nuls. Les coefficients ak sont donc solutions du système étagé suivant. ⎧ a0 =0 ⎪ ⎪ ⎪ na0 +a =0 ⎪ 1 ⎪ ⎪ ⎪ (n − 1)a +2a =0 1 2 ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ .. .. .. ⎪ ⎪ . . ⎨ . ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ ⎩
(n − k)ak
=0
+(k + 1)ak+1 ..
.
..
.. .
.
an−1
+nan
=0
Nous avons donc a0 = a1 = · · · = ak = · · · = an = 0. La famille de n + 1 vecteurs (X − 1)k (X + 1)n−k 0kn est une famille libre dans l’espace Kn [X] de dimension n + 1, il s’agit donc d’une base. Conclusion. Nous avons donc, par le principe de récurrence, démontré que ∀n ∈ N la famille (X − 1)k (X + 1)n−k 0kn est une base de Kn [X].
418
Solutions
1.
1. Nous savons que le rang d’une matrice est la dimension de l’espace engendré par ses vecteurs colonnes ou par ses vecteurs lignes puisque rg(t M) = rg(M). Nous allons donc étudier l’espace engendré par les vecteurs colonnes de M après avoir soustrait la première des deux dernières. Nous avons 1 0 0 rg(M) = rg b + c (a − b) (a − c) . bc c(a − b) b(a − c) 1er cas : c = a = b. Dans ce cas il n’y a qu’un vecteur non nul, le rang de M est 1. 2e cas : c = a = b. Dans ce cas il y a un vecteur nul et deux vecteurs non nuls non colinéaires, le rang de M est 2. Il en sera de même si b = a = c. Si c = b = a, nous pouvons faire un calcul similaire en soustrayant la dernière colonne de M des deux premières et le rang de M est encore 2.
© Dunod – La photocopie non autorisée est un délit
3e cas : a, b, c distincts. Nous avons alors, en divisant les deux dernières colonnes par (a − b) et (a − c) respectivement puis en soustrayant la deuxième colonne de la dernière 1 0 0 1 0 0 0 rg(M) = rg b + c 1 1 = rg b + c 1 . bc c b bc c b−c Le rang de M est alors 3. ⎞ ⎛ 1 ··· 1 ⎟ ⎜ 2. Posons J = ⎝ ... . . . ... ⎠ ∈ Mn (K). Nous avons J 2 = nJ et M = (a − b)I + bJ, et 1 ··· 1 enfin, parce que I et J commutent, M 2 = (a − b)2 I + 2(a − b)bJ + b2 J 2 = (a − b)2 I + 2a + (n − 2)b (bJ). Nous obtenons M 2 = (a − b)2 I + 2a + (n − 2)b M − (a − b)I en remplaçant bJ par M − (a − b)I, puis M 2 − 2a + (n − 2)b M = (a − b)2 I − (a − b) 2a + (n − 2)b I M M − (2a − 2b + nb)I = −(a − b) a + (n − 1)b I. 1er cas : a = b ou a = (1 − n)b. La matrice M est non inversible ; en effet si M était inversible, le produit à gauche de la dernière égalité par M −1 donnerait une contradiction ou a = b = 0 ce qui contredit l’inversibilité de M. 2e cas : a = b et a = (1 − n)b. la matrice M est inversible et l’on a M −1 =
1 M − (2a − 2b + nb)I (b − a) a + (n − 1)b
419
SOLUTIONS
Chapitre 2
Chapitre
2 – Applications linéaires
1 − rk avec 1−r 2 k−1 k r = 1. Ceci nous donne l’identité (1 − r)(1 + r + r + · · · + r ) = 1 − r , vraie pour tout réel r. b. Par analogie avec la question précédente nous faisons les calculs suivant
3. a. Pour la suite géométrique (r n )n∈N , nous avons 1 + r + r 2 + · · · + r k−1 =
(I − A)(I + A + A2 + · · · + Ak−1 ) (I + A)(I − A + A2 + · · · + (−1)k−1 Ak−1 )
= I − Ak
=
= I − (−1)k Ak
= I.
I,
Ceci démontre l’inversibilité de I − A et de I + A et donne leur inverse respectif. 2.
1. Soient M, N deux matrices de M2 (K) et l, m deux scalaires. On a
f (lM + mN) = (lM + mN)A − A(lM + mN) = l(MA − AM) + m(NA − AN) = lf (M) + mf (N) f est une application linéaire, donc un endomorphisme de RN . 2. Nous considérons la base canonique B = (E1,1 , E2,1 , E1,2 , E2,2 ). Nous avons par exemple 1 0 1 3 1 3 1 0 0 2 w(E1,1 ) = − = = 2E1,2 . 0 0 0 1 0 1 0 0 0 0 −2 0 = −2E1,1 + 2E2,2 , De même w(E2,1 ) = 0 2 0 0 w(E1,2 ) = = 0, 0 0 0 −2 w(E2,2 ) = = −2E1,2 . 0 0 ⎞ ⎛ 0 −2 0 0 0 0 0 ⎟ ⎜ 0 Nous en déduisons MB (w) = ⎝ 2 0 0 −2 ⎠ 0 2 0 0 3. L’application w est un endomorphisme de M2 (K) qui est un espace de dimension 4. Nous observons que m(w) = Vect(E1,2 , −E1,1 + E2,2 ) est de dimension 2. Le noyau de w est donc de dimension 2 (théorème du rang). Nous en déduisons Ker(w) = Vect(E1,2 , E1,1 + E2,2 ). L’endomorphisme w est ni injectif ni surjectif. 4. L’image de w2 est engendré par w(E1,2 ), w(−E1,1 + E2,2 ) . Nous avons m(w2 ) = Vect(E1,2 ) qui est donc de dimension 1. Nous en déduisons w3 = 0. Les mêmes conclusions pouvaient être obtenues en remarquant que ⎞ ⎞ ⎛ ⎛ 0 0 0 0 0 0 0 0 0 0 0 ⎟ ⎜ 0 ⎜ 0 0 0 0 ⎟ , M3B (w) = ⎝ . M2B (w) = ⎝ 0 −8 0 0 ⎠ 0 0 0 0 ⎠ 0 0 0 0 0 0 0 0
420
Solutions 1. a. Soient (un ), (vn ) deux suites à valeurs dans R et l, m deux scalaires. On a f (l(un )n∈N + m(vn )n∈N ) = f (lun + mvn )n∈N = (lun+1 + mvn+1 )n∈N = l(un+1 )n∈N + m(vn+1 )n∈N = lf ((un )n∈N ) + mf ((vn )n∈N ) f est une application linéaire, donc un endomorphisme de RN . b. Une suite (un ) est dans le noyau de f si et seulement si pour tout n ∈ N, un+1 = 0. Ker(f ) = (un ) ∈ RN / ∀n ∈ N∗ , un = 0 Le noyau de f est donc l’ensemble des suites dont tous les termes sont nuls sauf le premier terme u0 ; Ker(f ) = {0} et f n’est pas injective. En dimension finie, f injectif équivaut à f surjectif ; nous ne pouvons pas conclure que f n’est pas surjective car nous ne savons rien de la dimension de RN . c. Il est immédiat de montrer par récurrence sur k que pour toute suite (un ) à valeurs dans R, f k ((un )n∈N ) = (un+k )n∈N . On en déduit que Ker(f k ) = (un ) ∈ KN / ∀n ∈ N, n k ⇒ un = 0 Le noyau de f k est l’ensemble des suites dont tous les termes sont nuls sauf les k + 1 premiers termes u0 , u1 , . . . , uk . Pour tout i ∈ N, définissons la suite (uin )n∈N par uin = 1 si n = i et 0 sinon ; la suite (uin )n∈N a donc tous ses termes nuls sauf celui d’indice i qui vaut 1. Pour toute suite (un ) ∈ Ker(f k ) on a alors (un ) =
k
ui (uin )n∈N
i=0
© Dunod – La photocopie non autorisée est un délit
et donc Ker(f k ) = Vect(u0 , u1 , . . . , uk ). Montrons que la famille (u0 , u1 , . . . , uk ) est aussi une famille libre. Supposons avoir k des scalaires a0 , a1 , . . . , ak tels que ai ui = 0. Alors en considérant les k + 1 premiers i=0
termes de la suite définie par cette somme, il vient a0 = a1 = · · · = ak = 0. La famille (u0 , u1 , . . . , uk ) est donc une famille libre et génératrice de Ker(f k ), c’est-àdire une base de Ker(f k ) qui est donc de dimension k + 1. Nous avons, au cours de cette démonstration, montré qu’il existe des familles libres de k + 1 vecteurs pour tout entier naturel k. L’espace RN est donc de dimension infinie. d. Soit (un ) une suite à valeurs dans K. On définit la suite (vn ) par v0 = 0 et vn = un−1 pour n 1. On a alors f ((vn )n∈N ) = (vn+1 )n∈N = (un )n∈N . f est donc surjective. Il existe donc des endomorphismes d’un espace E surjectifs et non injectifs si la dimension de E est infinie. 2. a. On montre comme pour f que l’application g est linéaire. Une suite (un ) est dans le noyau de g si et seulement si pour tout n ∈ N, un = 0. Le noyau Ker(g) est donc réduit à {0} et g est injective. Il est facile de remarquer que l’espace image de g est l’ensemble des suites (vn )n∈N dont le premier terme v0 est nul. L’endomorphisme g n’est donc pas surjectif.
421
SOLUTIONS
3.
Chapitre
2 – Applications linéaires
b. On a pour toute suite u = (un )n∈N l’égalité f ◦ g(u) = u ; nous avons donc f ◦ g = IdRN . Nous savons que ni f ni g ne sont bijectives, on ne peut pas parler de fonction réciproque. Il existe donc des endomorphismes d’un espace E injectifs et non surjectifs si la dimension de E est infinie, . 1. Si f était bijective alors f k serait bijective comme composée de bijections. Or
4.
f k = 0, donc f n’est pas bijective. Dans le cas où E est de dimension finie, les propriétés f injective, f surjective et f bijective sont équivalentes pour un endomorphisme de E ; f est donc ni injective ni surjective. 2. a. Soient l0 , . . . , lp−1 des scalaires tels que
p−1
lk f k (x0 ) = 0.
k=0
Nous avons ∀k p, f k (x0 ) = 0 et f p−1 (x0 ) = 0. D’où nous avons successivement p−1 p−1 lk f k (x0 ) = lk f p+k−1 (x0 ) = l0 f p−1 (x0 ) =⇒ l0 = 0 0 = f p−1 k=0
0 = f p−2
p−1
k=0
lk f k (x0 )
k=0
0 = f p−3
p−1
=
k=0
lk f p+k−2 (x0 ) = l1 f p−1 (x0 ) =⇒ l1 = 0
k=0
lk f k (x0 )
p−1
=
p−1
lk f p+k−3 (x0 ) = l2 f p−1 (x0 ) =⇒ l2 = 0
k=0
et ainsi de suite jusqu’à p−1 2p−2 k lk f (x0 ) = lk f k+1 (x0 ) = lp−1 f p−1 (x0 ) =⇒ lp−1 = 0. 0=f k=0
k=p−1
Les scalaires l0 , . . . , lp−1 sont nuls et la famille (x0 , f (x0 ), . . . , f p−1 (x0 )) est libre. b. On vient de trouver une famille libre de E qui compte p vecteurs. On sait alors que p dim(E) = n. 5.
1. Soient P, Q deux polynômes dans E et l, m deux scalaires. On a f (lP + mQ) = (X − a) (lP + mQ) − (lP + mQ)(a) − 2 lP + mQ − (lP + mQ)(a) = l (X − a) P − P (a) − 2 P − P(a) + m (X − a) Q − Q (a) − 2 Q − Q(a) = lf (P) + mf (Q)
f est donc un endomorphisme de Kn [X]. 2. Le rôle important que le scalaire a joue dans cet endomorphisme suggère l’utilisation de la base (X − a)i 0in (voir l’exercice page 14).
422
Solutions
de plus f (X − a)
0
SOLUTIONS
Nous avons alors pour tout i ∈ Ú1, nÛ = (X − a) i(X − a)i−1 − 0 − 2 (X − a)i − 0 f (X − a)i = (i − 2)(X − a)i , = f (1) = 0.
De ces calculs, il est facile de déduire que l’on a Ker(f ) = Vect (X − a)0 , (X − a)2 et m(f ) = Vect (X − a)1 , (X − a)3 , (X − a)4 , . . . , (X − a)n . 6. Montrer que f est une projection sur mf parallèlement à Ker f consiste à montrer que E = mf ⊕ Ker f puis que, pour tout x de E, la décomposition unique de x en une somme d’un élément u de mf et d’un élément v de Ker f est telle que f (x) = u. nous devrions alors avoir l’égalité x = u + v = f (x) + v et donc v = x − f (x). Ces considérations conduisent à la solution de l’exercice. Soit f un endomorphisme de E tel que f ◦ f = f . Nous avons pour tout x de E l’égalité x = f (x) + x − f (x) . Il est clair que f (x) ∈ mf ; par ailleurs f x − f (x) = f (x) − f f (x) = f (x) − f (x) = 0 et donc x − f (x) ∈ Ker f . Ce qui prouve E = mf + Ker f . Soit maintenant x ∈ mf ∩ Ker f . Il existe t ∈ E tel que x = f (t) et nous avons x = f (t) = f ◦ f (t) = f f (t) = f (x) = 0 ce qui prouve que mf ∩ Ker f = {0}. Nous avons donc E = mf ⊕ Ker f et la décomposition de tout vecteur x selon cette somme directe est x = f (x) + x − f (x) . Ceci démontre que f est la projection sur mf parallèlement à Ker f . 7.
1. a. Nous savons que si p est un projecteur, alors p ◦ p = p. u = p ◦ u − u ◦ p =⇒ p ◦ u = p2 ◦ u − p ◦ u ◦ p = p ◦ u − p ◦ u ◦ p, d’où :
p◦u◦p=0
© Dunod – La photocopie non autorisée est un délit
De même, u ◦ p = p ◦ u ◦ p − u ◦ p2 = −u ◦ p, d’où :
u◦p=0
b. D’où u = p ◦ u et donc u2 = p ◦ (u ◦ p) ◦ u = 0. 2. a. Soit x ∈ mu, il existe z ∈ E tel que x = u(z) et u(x) = u2 (z) = 0, donc x ∈ Ker u, ce qui prouve l’inclusion demandée. b. Nous avons u ◦ q = 0 (car H ⊂ Ker u) et pour tout x ∈ E, q u(x) = u(x) (car u(x) appartient à mu, donc à H). Ainsi q◦u−u◦q=u 3. Ce qui précède montre que la condition nécessaire et suffisante cherchée est u2 = 0. Il y a en général plusieurs façons de choisir H (si mu = Ker u), de plus, pour un sousespace H il existe en général plusieurs supplémentaires ce qui conduit à plusieurs choix du projecteur p.
423
Chapitre
2 – Applications linéaires
−2 4 −2 4 −2 4 4. Nous avons bien u = u parce que : = . −1 2 −1 2 −1 2 Ici H = mu = Ker u = Vect(2, 1). N’importe quel projecteur p d’image H convient. 1 Prenons comme sous-espace supplémentaire S = Ker(p) = Vect . Nous avons 0 alors E= H ⊕ S.Décomposons le deuxième vecteur de la base selon cette somme directe 0 2 1 = −2 . 1 1 0 Nous avons maintenant les vecteurs images de labase canonique par un projecteur p sur 0 2 H parallèlement à S, sa matrice est P = . 0 1 Un calcul matriciel nous donne immédiatement PU − UP = U. 2
8. ⇒ Sens direct. Soit f tel que mf = Ker f . Pour tout x de E, nous avons f (x) ∈ mf ⊂ Ker f et f f (x) = 0 ; l’endomorphisme f ◦ f est donc l’endomorphisme nul. Le théorème du rang nous donne n = dim(E) = dim(mf ) + dim(Ker f = 2 dim(mf ). ⇐ Réciproque. Soit f tel que f ◦ f = 0 et n = 2 dim(mf ) . Le théorème du rang nous impose dim(mf ) = dim(Ker f ). Nous avons Ker f ⊂ mf parce que f ◦ f = 0 ; et comme dim(Ker f ) = dim(mf ) nous avons Ker f = mf 9.
1. a. ⇒ Sens direct. Soit f ∈ L(E, F) et g ∈ L(F, G) deux endomorphismes tels que Ker(g ◦ f ) = Ker(f ). Soit x ∈ Ker g ∩ mf , il existe alors t ∈ E tel que x = f (t). Nous avons 0 = g(x) = g f (t) = g ◦ f (t), donc t ∈ Ker g ◦ f = Ker f et x = f (t) = 0. Ceci démontre que Ker g ∩ mf = {0}. ⇐ Réciproque. Soit f ∈ L(E, F) et g ∈ L(F, G) deux endomorphismes tels que Ker g ∩ mf = {0}. Remarquons tout d’abord que l’on a toujours Ker f ⊂ Ker(g ◦ f , en effet, si l’on a f (x) = 0 alors on a g f (x) = 0. Soit x ∈ Ker(g ◦ f ), alors f (x) ∈ mf et f (x) ∈ Ker g donc f (x) = 0 et x ∈ Ker f . Ceci démontre Ker(g ◦ f ) = Ker(f ). b. ⇒ Sens direct. Soit f ∈ L(E, F) et g ∈ L(F, G) deux endomorphismes tels que m(g ◦ f ) = m(g). Soit x ∈ F, alors il existe t ∈ E tel que g ◦ f (t) = g(x). Nous avons x = x − f (t) + f (t) avec f (t) ∈ mf et g x − f (t) = g(x) − g ◦ f (t) = 0, c’est-à-dire x − f (t) ∈ Ker g. Ceci démontre que Ker g + mf = F. ⇐ Réciproque. Soit f ∈ L(E, F) et g ∈ L(F, G) deux endomorphismes tels que Ker g + mf = F. Remarquons tout d’abord que l’on a toujours m(g ◦ f ) ⊂ mg. Soit x ∈ mg, alors il existe t ∈ F tel que x = g(t) ; il existe alors u ∈ Ker g et v ∈ mf tels que t = u + v et donc tel que x = g(t) = g(u + v) = g(u) + g(v) = g(v) ; et enfin il existe w ∈ E tel que w = f (v). Nous avons g ◦ f (w) = g f (w) = g(v) = x et x ∈ mg ◦ f . Ceci démontre que m(g ◦ f ) = m(g).
424
Solutions
Ker f ◦ f = Ker f
⇐⇒ dim(Ker f ◦ f ) = dim(Ker f ) ⇐⇒ dim(mf ◦ f ) = dim(mf ) ⇐⇒ mf ◦ f = mf .
Les résultats de la partie 1 de l’exercice en prenant E = F = G et f = g nous permettent d’affirmer que Ker f 2 = Ker f Ker f 2 = Ker f ⇐⇒ mf 2 = mf ⇐⇒ mf 2 = mf Ker f ∩ mf = {0} ⇐⇒ Ker f + mf = E ⇐⇒
Ker f ⊕ mf = E
Chapitre 3 1.
1. l est valeur propre si et seulement si A − lI2 n’est pas inversible. Nous commençons donc par trianguler par la méthode du pivot de Gauss A − lI2 . 1 −1 − l L1 ↔ L 2 2−l 4 2−l 4 1 −1 − l 1 −1 − l 0 (2 − l)(−1 − l) − 4 L2 ← (2 − l)L1 − L2
© Dunod – La photocopie non autorisée est un délit
Les valeurs propres sont les solutions de (2 − l)(−1 − l) − 4 = 0. Soit l2 − l − 6 = 0. Les valeurs propres sont −2, 3. Nous sommes en dimension deux et A possède deux valeurs propres distinctes, A est diagonalisable. Une équation de E−2 est 4x + 4y = 0 x+y = 0 Soit x = −y. D’où
E−2 = Vect (−1, 1) .
De même une équation de E3 est −x + 4y = 0 ⇔ x = 4y x − 4y = 0 D’où E3 = Vect (4, 1) . Une base de vecteurs propres est ((−1, 1), (4, 1)).
425
SOLUTIONS
2. Soit f un endomorphisme de E de dimension finie n. Nous avons toujours mf ◦ f ⊂ mf et Ker f ⊂ Ker f ◦ f . Le théorème du rang nous donne pour les endomorphismes f et f ◦ f de E les égalités n = dim(mf ◦ f ) + dim(Ker f ◦ f ) = dim(mf ) + dim(Ker f ). Cela nous permet d’établir la première équivalence que nous devons démontrer.
Chapitre
3 – Réduction
En posant P =
−1 1
4 1
, on a P
−1
AP =
−2 0
0 3
2. Le réel l est valeur propre si, et seulement si, B − lI2 = inversible, c’est-à-dire si l = 1. Une équation de E1 est
D’où
1−l 0
1 1−l
n’est pas
y = 0 0 = 0 E1 = Vect (1, 0)
Le sous espace propre E1 est de dimension un, il n’y a pas d’autre sous-espace propre et nous sommes en dimension deux. B n’est donc pas diagonalisable. 1−l 1 n’est pas 3. Le réel l est valeur propre si, et seulement si, C − lI2 = −4 1 − l −4 1−l inversible, c’est-à-dire, après triangulation, si n’est pas inversible. 0 4 + (1 − l)2 Dans R, cette dernière matrice est inversible quelque soit l, la matrice C n’est pas diagonalisable. Dans C, la matrice C n’est pas inversible pour l = 1 + 2i et pour l = 1 − 2i, elle a donc deux valeurs propres, nous sommes en dimension 2, C est diagonalisable. Une équation de E1+2i est −4x − 2iy = 0 ⇐⇒ y = 2ix 0 = 0 D’où E1+2i = Vect (1, 2i) De même, nous obtenons E1−2i = Vect (1, −2i) 4. La matrice A est une matrice réelle symétrique, nous savons donc qu’elle est diagonalisable quelque soit a. a. l est valeur propre de A si et seulement si A − lI2 n’est pas inversible. Nous triangulons par la méthode du pivot de Gauss A − lI2 . 1 a−l L1 ↔ L2 a−l 1 a−l 1 1 a−l 1 −1 − l L2 ← (a − l)L1 − L2 0 (a − l)2 − 1 A − l n’est pas inversible si et seulement si l vérifie l’équation (a − l)2 − 1 = 0. Soit (a − l − 1)(a − l + 1) = 0. Les valeurs propres sont a + 1 et a − 1. Ces valeurs étant distinctes, A est diagonalisable. Une équation de Ea−1 est x+y = 0 x+y = 0 Soit x = −y, d’où Ea−1 = Vect(−1, 1).
426
Solutions
−x + y = x−y =
0 0
Soit x = y, d’où Ea+1 = Vect(1, 1).
−1 1 Une base de vecteurs propres est donc ((−1, 1), (1, 1)). En posant P = , 1 1 on a a−1 0 −1 P AP = 0 a+1 0 (a − 1)n . Il reste à b. On a donc An = PBn P −1 . Or on sait que Bn = 0 (a + 1)n calculer P −1 . Pour cela on résout le système associé ⎧ −a + b ⎪ ⎨ x = −x + y = a 2 ⇔ x+y = b ⎪ a + b ⎩ y = 2 D’où
⎛ ⎜ P −1 = ⎝
−
1 2 1 2
On trouve finalement −1 1 (a − 1)n An = 0 1 1
© Dunod – La photocopie non autorisée est un délit
= = 2.
1 2 1 2
−(a − 1)n (a − 1)n
1 ⎞ 2 ⎟ ⎠ 1 2 ⎛
1 0 ⎜ 2 (a + 1)n ⎝ 1 2 −1 1 (a + 1)n 1 1 (a + 1)n
(a + 1)n + (a − 1)n (a + 1)n − (a − 1)n
1 ⎞ 2 ⎟ ⎠ 1 2
−
(a + 1)n − (a − 1)n (a + 1)n + (a − 1)n
1. Soit A la matrice à étudier, on triangule A − lI. 1−l 0 1 1 1 3−l L1 ↔ L3 0 1−l 0 0 1−l 0 → 1 1 3−l 1−l 0 1 ⎛ ⎞ 1 1 3−l ⎠ 0 →⎝ 0 1−l L3 ← L3 + (l − 1)L1 0 l − 1 −l2 + 4l − 2 ⎛ ⎞ 1 1 3−l ⎠ 0 → A(l) = ⎝ 0 1 − l 2 L3 ← L 3 + L 2 0 0 −l + 4l − 2
427
SOLUTIONS
De même une équation de Ea+1 est
Chapitre
3 – Réduction
l est valeur propre si et seulement si (1 − l)(l2 − 4l + 2) = 0. 1 est valeur propre ainsi que les racines de l2 − 4l + 2 soit √ √ D = 4 − 2 = 2, l1 = 2 − 2, l2 = 2 + 2 √ √ La matrice A possède les trois valeurs propres 1, 2− 2, 2+ 2, nous sommes en dimension 3, elle est diagonalisable. Une équation de E1 est A(1)X = 0 soit x + y + 2z = 0 x = −y ⇔ −z = 0 z=0 D’où E1 = Vect(−1, 1, 0). √ Une équation de E2−√2 est A(2 − 2)X = 0 soit √ √ x + y + (1 x = −(1 + 2)z √+ 2)z = 0 ⇔ y=0 ( 2 − 1)y = 0 √ D’où E2−√2 = Vect(−1 − 2, 0, 1). √ Une équation de E2+√2 est A(2 + 2)X = 0 soit √ √ x + y + (1 − √2)z = 0 x = ( 2 − 1)z ⇔ y=0 (−1 − 2)y = 0 √ D’où E2+√2 = Vect( 2 − 1, 0, 1). 2. Soit A la matrice à étudier, on triangule A − lI. −1 − l 2 −2 −6 6 −4 − l L1 ↔ L3 −6 7−l −5 −6 7−l −5 → −6 6 −4 − l −1 − l 2 −2
6 −4 − l 1−l l−1 6 − 6l −12 + (l + 1)(4 + l) ⎛ −6 6 −4 − l l−1 → A(l) = ⎝ 0 1 − l 0 0 l2 − l − 2 −6 0 0
L2 ← L 2 − L 1 L3 ← 6L3 − (l + 1)L1 ⎞ ⎠
L3 ← L3 − 6L2
Les valeurs propres sont donc les solutions de l’équation (1 − l)(l2 − l − 2) = 0 soit 1, −1, 2. La matrice A possède trois valeurs propres, nous sommes en dimension 3, elle est diagonalisable. Une équation de E−1 est A(−1)X = 0 soit ⎧ ⎨ x = 1z −6x + 6y − 3z = 0 2 ⇔ 2y − 2z = 0 ⎩ y = z D’où E−1 = Vect(1, 2, 2).
428
Solutions
D’où E1 = Vect(1, 1, 0). Enfin, une équation de E2 est A(2)X = 0, soit −6x + 6y − 6z = 0 x ⇔ −y + z = 0 y
SOLUTIONS
De même, une équation de E1 est A(1)X = 0, soit −6x + 6y − 5z = 0 x = y ⇔ −2z = 0 z = 0
= 0 = z
D’où E2 = Vect(0, 1, 1). 3. Soit A la matrice à étudier, on triangule A − lI. 1−l −2 2 −2 −2 5−l L1 ↔ L3 −2 1−l 2 −2 1−l 2 → −2 −2 5−l 1−l −2 2 ⎛ ⎞ −2 −2 5−l ⎠ L2 ← L 2 − L 1 3−l l−3 →⎝ 0 2 L3 ← 2L3 + (1 − l)L1 0 −6 + 2l l − 6l + 9 ⎛ ⎞ −2 −2 5−l ⎠ l−3 → A(l) = ⎝ 0 3 − l L3 ← L3 + 2L2 0 0 l2 − 4l + 3
© Dunod – La photocopie non autorisée est un délit
Les valeurs propres sont donc les solutions de l’équation (3 − l)(l2 − 4l + 3). Un première valeur propre est 3. Les autres sont les racines du trinôme l2 − 4l + 3 dont 1 est une racine évidente et 3 est l’autre racine. La matrice possède donc deux valeurs propres 1 et 3, nous ne pouvons pas encore savoir si A est diagonalisable. Une équation de E1 est A(1)X = 0, soit −2x − 2y + 4z = 0 x=z ⇔ 2y − 2z = 0 y=z D’où E1 = Vect(1, 1, 1). De même une équation de E3 est A(3)X = 0, soit −2x − 2y + 2z = 0 ⇔ z = x + y D’où E3 = Vect((1, 0, 1), (0, 1, 1)). La somme des dimensions des sous-espaces propres est 3, la matrice A est donc diagonalisable.
3. La matrice A est clairement de rang 2, donc on peut déjà conclure que 0 est valeur propre et que dim(E0 ) = n − 2. De plus ⎧ x1 + x 2 + · · · + x n = 0 ⎪ ⎪ ⎪ ⎪ x1 + x n = 0 ⎪ ⎪ ⎨ x1 + x n = 0 x1 = −xn ⇔ .. x ⎪ 2 = −x3 + · · · − xn−1 . ⎪ ⎪ ⎪ ⎪ x1 + x n = 0 ⎪ ⎩ x1 + x 2 + · · · + x n = 0
429
Chapitre
3 – Réduction ⎛⎛
d’où
⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜ E0 = Vect ⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ ⎝⎝
−1 0 .. . .. . .. . 0 1
⎞ ⎛ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟,⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ ⎠
0 −1 1 0 .. . .. . 0
⎞
⎛
⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟,...,⎜ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎝ ⎠
0 −1 0 .. . 0 1 0
⎞
⎞
⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ . ⎟⎟ ⎟⎟ ⎟⎟ ⎠⎟ ⎠
Pour les autres valeurs propres déterminons les réels l non nuls tels que le système (A − lI)X = 0 admette une solution non nulle. Résolvons ce système ⎧ x1 + x2 + · · · + xn = lx1 ⎪ ⎪ ⎪ ⎪ x1 + xn = lx2 ⎪ ⎪ ⎨ x1 + xn = lx3 .. ⎪ . ⎪ ⎪ ⎪ ⎪ x + x = lxn−1 1 n ⎪ ⎩ x1 + x2 + · · · + xn = lxn Comme l = 0 ce système équivaut à ⎧ ⎧ 2 1 ⎪ ⎪ x2 = x3 = x4 = · · · = xn−1 = x1 ⎪ ⎪ x (x = x = x = · · · = x = + x ) 3 4 n−1 1 n ⎨ 2 ⎨ l l n xn = x1 ⇔ 1 ⎪ ⎪ xk ⎪ ⎪ ⎩ x1 = xn = l ⎩ x = 1 (2x + (n − 2) 2 x ) 1 1 1 k=1 l l ⎧ 2 ⎪ ⎨ x2 = x3 = x4 = · · · = xn−1 = x1 l ⇔ ⎪ x n = x1 ⎩ l2 − 2l − 2(n − 2) x1 = 0 Ce système admet une solution non nulle si, et seulement si, l2 − 2l − 2(n − 2) = 0. Nous avons D = 1 + 2(n − 2) = 2n − 3. √ La matrice A possède donc deux √ autres valeurs propres 1 ± 2n − 3. D’après la résolution du système on a, pour l = 1 ± 2n − 3. ⎞⎞ ⎛⎛ l ⎜⎜ 1 ⎟⎟ ⎜⎜ . ⎟⎟ ⎟⎟ ⎜ El = Vect ⎜ ⎜⎜ .. ⎟⎟ . ⎝⎝ 1 ⎠⎠ l 4.
On remarque que ⎛
1 ⎜ .. A − (a − 1)I = ⎝ . 1
430
... ...
⎞ 1 .. ⎟ . ⎠ 1
Solutions
X ∈ Ea−1 (A) ⇔ x1 + x2 + · · · + xn = 0 ⇔ x1 = −x2 + · · · − xn , d’où
⎛⎛ ⎜⎜ ⎜⎜ ⎜⎜ ⎜⎜ E1 (A) = Vect ⎜⎜ ⎜⎜ ⎜⎜ ⎝⎝
−1 1 0 .. . .. . 0
⎞ ⎛ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟,⎜ ⎟ ⎜ ⎟ ⎜ ⎠ ⎝
−1 0 1 .. . .. . 0
⎞
⎛
⎟ ⎜ ⎟ ⎜ ⎟ ⎜ ⎟ ⎟,...,⎜ ⎜ ⎟ ⎜ ⎟ ⎝ ⎠
−1 0 .. . 0 1 0
⎞ ⎛ −1 0 ⎟ ⎜ ⎟ ⎜ . ⎜ ⎟ ⎜ .. ⎟,⎜ ⎟ ⎜ .. ⎟ ⎜ . ⎠ ⎝ 0 1
⎞⎞ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎟⎟ ⎠⎠
Comme dim(Ea−1 ) = n − 1, il ne reste plus qu’éventuellement une seule autre valeur propre. Mais un peu d’intuition nous fait constater que ⎞ ⎛ ⎞ ⎛ ⎞ ⎛ 1 a + (n − 1) 1 ⎟ ⎜ ⎜ .. ⎟ ⎜ . ⎟ . .. A×⎝ . ⎠=⎝ ⎠ = (a + n − 1) ⎝ .. ⎠ , 1 a + (n − 1) 1 ⎛⎛ ⎞⎞ 1 ⎜⎜ .. ⎟⎟ donc a + n − 1 est la seconde valeur propre de A et Ea+n−1 (A) = Vect ⎝⎝ . ⎠⎠. 1
© Dunod – La photocopie non autorisée est un délit
5.
1. Le réel l est valeur propre de A si et seulement si (7 − l)(1 − l) + 8 = 0 soit l2 − 8l + 15 = 0. On résout D = 16 − 15 = 1, l1 = 4 − 1 = 3, l2 = 4 + 1 = 5 A a pour valeurs propres 3 et 5. Une équation de E3 est
4x + 2y = −4x − 2y =
0 ⇔ y = −2x 0
D’où E3 = Vect((1, −2)). De même une équation de E5 est 2x + 2y = 0 ⇔ y = −x −4x − 4y = 0 D’où E5 = Vect((1, −1)). Une base de vecteurs propres est donc ((1, −2), (1, −1))
431
SOLUTIONS
d’où rg(A − (a − 1)I) = 1. D’après la formule du rang,⎛dim(E⎞ a−1 (A)) = n − 1 (en particulier x1 ⎜ ⎟ a − 1 est une valeur propre de A). De plus, pour X = ⎝ ... ⎠, xn
Chapitre
3 – Réduction
2. En posant P =
1 −2
1 −1
, on a
3 0 P AP = 0 5 n 0 3 n P −1 A =P 0 5n −1
D’où
Il reste à inverser P en résolvant le système associé x+y = a x = −a − b ⇔ −2x − y = b y = 2a + b −1 −1 −1 . D’où P = 2 1 On en déduit que n −1 −1 0 1 1 3 n A = 2 1 0 5n −2 −1 n n −1 −1 5 3 = 2 1 −2 × 3n −5n n n n n −3 + 5 −3 + 2 × 5 = 2 × 3n − 2 × 5n 2 × 2n − 5n 3. On voit que, pour tout entier naturel n, on a Xn+1 = AXn . 4. Par récurrence sur n, on prouve que pour tout n ∈ N, Xn = An X0 . 5. On en déduit que pour n ∈ N, on a un −3n + 2 × 5n 1 −2 × 3n + 3 × 5n −3n + 5n = = 1 vn 2 × 3n − 2 × 5n 2 × 3n − 5n 4 × 3n − 3 × 5n 1. a. Nous avons P(X) = X 3 − 2X 2 − 5X + 6. Nous observons que 1 est une racine évidente de ce polynôme puis à l’aide du discriminant D = 25 nous obtenons successivement
6.
P(X) = (X − 1)(X 2 − X − 6) = (X − 1)(X − 3)(X + 2). Les solutions de P(x) = 0 sont −2, 1 et 3. b. Nous pouvons noter P(A) = A3 − 2A2 − 5A + 6I3 . Avec 1 0 0 7 3 0 1 0 , −2 −1 A= I3 = 0 0 1 2 −1 2
A =
432
25 −8 8
27 −21 −7 8 11 −4
,
3
A =
79 −26 26
−9 2 −4
69 −87 −25 26 17 −34
, ,
Solutions
P(A) =
79 − 50 − 35 + 6 −26 + 16 + 10 26 − 16 − 10
69 − 54 − 15 −25 + 14 + 5 + 6 17 − 22 + 5
−87 + 42 + 45 26 − 16 − 10 −34 + 8 + 20 + 6
= 0.
c. Si V est un vecteur propre de A associé à une valeur propre l, nous avons successivement I3 V = 1V , AV = lV , A2 V = l2 V et A3 V = l3 V . Le calcul de P(A)V nous donne alors P(A)V = A3 V − 2A2 V − 5AV + 6I3 V = l3 V − 2l2 V − 5lV + 6V = P(l)V .
© Dunod – La photocopie non autorisée est un délit
Comme le vecteur V est non nul, nous en déduisons que les valeurs propres de A sont solutions de P(x) = 0, elles sont donc dans {−2, 1, 3}. 2. Pour chaque l ∈ {−2, 1, 3}, déterminons s’il existe des vecteurs X solutions de AX = lX. 1er cas l = −2 7x + 3y − 9z = −2x 3x + y − 3z = 0 x = z −2x − y + 2z = −2y ⇐⇒ −2x + y + 2z = 0 ⇐⇒ y = 0 2x − y − 4z = −2z 2x − y − 2z = 0 l = −2 est une valeur propre et un vecteur propre associé est X−2 = (1, 0, 1). 2e cas l = 1 7x + 3y − 9z = x 2x + y − 3z = 0 2x + y − 3z = 0 −2x − y + 2z = y ⇐⇒ −x − y + z = 0 ⇐⇒ x − 2z = 0 2x − y − 4z = z 2x − y − 5z = 0 4x − 8z = 0 y = −z Ce qui nous donne x = 2z l = 1 est une valeur propre et un vecteur propre associé est X1 = (2, −1, 1). 3e cas l = 3 7x + 3y − 9z = 3x 4x + 3y − 9z = 0 −2x − y + 2z = 3y ⇐⇒ −x − 2y + z = 0 2x − y − 4z = 3z 2x − y − 7z = 0 −x − 2y + z = 0 −5y − 5z = 0 ⇐⇒ −5y − 5z = 0 y = −z Ce qui nous donne x = 3z l = 1 est une valeur propre et un vecteur propre associé est X3 = (3, −1, 1). 3. Nous sommes en dimension 3, la matrice A a trois valeurs propres distinctes, elle est donc diagonalisable. On a donc 1 2 3 0 −1 −1 P= 1 1 1
433
SOLUTIONS
nous obtenons
Chapitre
3 – Réduction
Pour inverser P on résout le système associé x + 2y + 3z = a x + 2y + 3z = a −y − z = b ⇔ −y − z = b x+y+z = c −y − 2z = −a + c x + 2y + 3z = a −y − z = b ⇔ −z = −a − b + c x = a − 2(−a − 2b + c) − 3(a + b − c) x = b+c y = −a − 2b + c y = −a − 2b + c ⇔ ⇔ z = a+b−c z = a+b−c 0 1 1 −2 0 0 −1 −1 −1 −2 1 0 1 0 . D’où P = et P AP = 1 1 1 0 0 3 1. a. On sait qu’une famille génératrice de mfa est (fa (e1 ), fa (e2 ), fa (e3 )). Comme fa (e1 ) = fa (e3 ) et fa (e2 ) = 0, la famille (fa (e1 )) est aussi génératrice. Or fa (e2 ) est non nul puisque sa composante sur e2 vaut 1. La famille (fa (e1 )) est donc une base de mfa .
7.
b. D’après le théorème du rang, on sait que dim(Kerfa ) = 3 − dim(mfa ) = 2. De plus f (e2 ) = 0 et f (e1 − e3 ) = f (e1 ) − f (e3 ) = 0 c’est-à-dire que e2 , e1 − e3 ∈ Kerfa . Enfin (e2 , e1 − e3 ) forme une famille libre puisque ces vecteurs ne sont clairement pas proportionnels. En conclusion (e2 , e1 − e3 ) forme une base de Kerfa 2. D’après la définition de fa , a 0 a 1 0 1 A= −a 0 −a D’où
2
A =
0 0 0
0 0 0
0 0 0
Donc fa ◦ fa = 0 3. a. Montrons que c’est une famille libre de E. Soit b, c, d tels que ae1 + be2 + ce3 = 0. En repassant dans la base initiale, on a b(ae1 + e2 − ae3 ) + c(e1 − e3 ) + de3 = 0 (ab + c)e1 + be2 + (−ab − c + d)e3 = 0 La coordonnée sur e2 doit être nulle donc b = 0. En annulant celle sur e1 , on trouve c = 0. Enfin d’après la coordonnée sur e3 il vient c = 0. La famille (e1 , e2 , e3 ) est une famille libre de trois vecteurs d’un espace de dimension trois, c’est donc une base de E. b. On a fa (e1 ) = fa ◦ fa (e1 ) = 0, f (e2 ) = f (e1 − e3 ) = 0 et f (e3 ) = f (e3 ) = e1 . D’où 0 0 1 0 0 0 A = 0 0 0
434
Solutions A − lI =
−l 0 0
0 −l 0
1 0 −l
Donc A − lI n’est pas inversible si et seulement si l = 0. C’est-à-dire que 0 est la seule valeur propre de A . Comme A et A sont semblables, 0 est la seule valeur propre de A. 0 valeur propre de A équivaut à la non-inversibilité de A − 0I = A, donc A n’est pas inversible. Si A était diagonalisable elle serait semblable à une matrice diagonale avec les valeurs propres sur la diagonale, en l’occurrence la matrice nulle. Or seule la matrice nulle est semblable à la matrice nulle et A = 0. Donc A n’est pas diagonalisable. 4. a. 0 étant la seule valeur propre de A, pour tout x = 0, la matrice A − xI = B(x) est inversible. b. On a (A − xI)(A + xI) = A2 − x2 I − xIA + xAI = −x2 I, soit encore
−1 (A − xI)(A + xI) = I, x2
donc B(x)−1 =
−1 (A + xI) x2
c. D’après la formule du binôme, on a B(x)n
=
n n k=0
k
(−1)n−k xn−k Ak =0 pour k2
= (−1)n (xn I − xn−1 A) ⎛
3
a b
a c b 3 c
3
⎞
⎟ ⎜ ⎟ ⎜ ⎟ ⎜ b 1. a. On a M = ⎜ 3 ⎟ = 3M. 3 8. ⎟ ⎜ a ⎠ ⎝ c c 3 3 3 a b b. Soit l une valeur propre de M et X un vecteur propre associé. On a d’une part M 2 X = MlX = l2 X et d’autre part M 2 X = 3MX = 3lX. On en déduit que l2 X = 3lX, comme X = 0, il vient l2 = 3l, soit encore (l − 3)l = 0. C’est-à-dire l ∈ {0, 3}. 2. a. Les seules valeurs propres possibles sont 0 et 3. Une équation de E0 est ⎧ a a ⎪ x+ y+ z = 0 ⎪ ⎪ b c ⎪ ⎪ ⎨ a a b b x+y+ z = 0 ⇔x=− y− z ⎪ a b c c ⎪ ⎪ ⎪ ⎪ ⎩ cx+ cy+z = 0 a b 2
© Dunod – La photocopie non autorisée est un délit
3
435
SOLUTIONS
c. On a
Chapitre
3 – Réduction
Ainsi E0 = {0}, donc 0 est bien valeur propre et E0 = Vect((−a, b, 0), (−a, 0, c)). De même une équation de E3 est ⎧ ⎧ a a a a ⎪ ⎪ ⎪ −2x + y + z = 0 ⎪ −2x + y + z = 0 ⎪ ⎪ b c b c ⎪ ⎪ ⎪ ⎪ ⎨ ⎨ b b b b x − 2y + z = 0 ⇔ −3y + 3 z = 0 L2 ← 2L2 + L1 ⎪ ⎪ a a c c ⎪ ⎪ ⎪ ⎪ ⎪ ⎪ c c ⎪ ⎪ ⎩ ⎩ c x + c y − 2z = 0 3 y − 3z = 0 L3 ← 2L3 + L1 a a b b ⎧ ⎧ a a a ⎪ ⎪ x = 2x = y + z z ⎪ ⎪ ⎨ ⎨ b c c ⇔ ⇔ ⎪ y = bz ⎪ y = bz ⎪ ⎪ ⎩ ⎩ c c On en conclut que E3 = {0}, c’est-à-dire que 3 est bien valeur propre et que E3 = Vect((a, b, c)). b. On a donc trouvé trois vecteurs propres de M (−a, b, 0), (−a, 0, c), (a, b, c) qui forment une famille libre de R3 . Cette famille est donc une base de R3 formée de vecteurs propres de M. M est diagonalisable. 1 1 3. a. On trouve PQ = 3I, soit encore P × Q = I, donc P est inversible et P −1 = Q. 3 3 b. On voit que P est formé de trois vecteurs propres de M associés dans l’ordre aux valeurs propres 3, 0, 0. On sait dans ce cas que 3 0 0 −1 0 0 0 P MP = 0 0 0 Soit encore M = PDP −1 . a b c d e f 4. Soit Y = ∈ M3 (R), g h i DY − YD = 3Y ⇔
3a 0 0
3b 3c 0 0 0 0
−
3a 3d 3g
0 0 0 0 0 0
=3
a d g
b c e f h i
3c = 3c a=d=e=f =g=h=i=0 0 = 3f ⇔ ⇔ b, c ∈ R 0 = 3i 0 b c 0 0 0 Les matrices Y telles que DY − YD = 3Y sont celles de la forme où 0 0 0 b, c ∈ R. 5. X vérifie l’équation MX − XM = 3X si, et seulement si, PDP −1 X − XPDP −1 = 3X, ce qui équivaut en multipliant par P −1 à gauche et P à droite à l’équation DP −1 XP − P −1 XPD = 3P −1 XP. X est donc solution si, et seulement si, P −1 XP est
436
0 = 3a −3d = 3d −3g = 3g
3b = 3b 0 = 3e 0 = 3h
Solutions
= Vect(PAP −1 , PBP −1 ) E est donc engendré par les deux vecteurs PAP −1 , PBP −1 . Par ailleurs ces deux vecteurs forment une famille libre. En effet si a, b sont tels que aPAP −1 + bPBP −1 = 0 alors P(aA + bB)P −1 = 0, d’où aA + bB = P −1 0P = 0. C’est-à-dire 0 b c 0 0 0 =0 0 0 0 et donc a = b = 0. Les deux matrices PAP −1 , PBP −1 forment donc une base de E et dimE = 2.
© Dunod – La photocopie non autorisée est un délit
9.
1. a. On triangule la matrice J − lI où l ∈ R −l 2 1 −l 2 1 0 −1 − l 2 0 1 −l L 2 ↔ L3 → 0 1 −l 0 −1 − l 2 ⎛ ⎞ −l 2 1 ⎠ −l → J(l) = ⎝ 0 1 L3 ← L3 + (1 + l)L2 0 0 −l2 − l + 2 Les valeurs propres de f sont 0 et les solutions de l’équation −l2 − l + 2 = 0 c’est-àdire 1 (racine évidente) et −2. Soit (x, y, z) ∈ R3 , on a 3 x 2x + 2y + z = 0 z x = =0⇔ ⇔ (x, y, z) ∈ E−2 ⇔ J(−2) y 2 y + 2z = 0 y = −2z z et donc E−2 = Vect(3, −4, 2). De même x 2y + z = y = = 0 ⇐⇒ (x, y, z) ∈ E0 ⇔ J(0) y z 2z =
0 y = 0 0 ⇐⇒ z = 0 0
et donc E0 = Vect(1, 0, 0).
437
SOLUTIONS
solution de l’équation de la question précédente. Si on note E l’ensemble des solutions, on a 0 a b −1 0 0 0 X ∈ E ⇔ ∃a, b ∈ R tels que P XP = 0 0 0 0 a b 0 0 0 P −1 ⇔ ∃a, b ∈ R tels que X = P 0 0 0 0 1 0 0 0 1 0 0 0 0 0 0 , on a donc En notant A = et B = 0 0 0 0 0 0 E = P(aA + bB)P −1 , a, b ∈ R = aPAP −1 + bPBP −1 , a, b ∈ R
Chapitre
3 – Réduction
Et enfin
(x, y, z) ∈ E1 ⇔ J(1)
x y z
= 0 ⇐⇒
−x + 2y + z y−z
= =
0 ⇐⇒ 0
x y
= 3z = z
et donc E1 = Vect(3, 1, 1). b. J possédant 3 valeurs propres distinctes, elle est diagonalisable. On sait qu’en posant 3 1 3 −4 0 1 , matrice de passage de la base canonique vers une base de P = 2 0 1 −2 0 0 0 0 0 , matrice diagonale des valeurs propres, vecteurs propres de J, et D = 0 0 1 on a D = P −1 JP, soit encore J = PDP −1 . c. En remarquant que Ma = aI + J, on a P −1 Ma P = P −1 (aI + J)P = aP −1 IP + P −1 JP = aI + D a−2 0 0 0 a 0 = 0 0 a+1 a−2 0 0 0 a 0 , on a donc bien Ma = PDa P −1 . En posant Da = 0 0 a+1 d. D’après la question précédente les valeurs propres de Ma sont a − 2, a, a + 1. Ma est donc inversible si et seulement si a ∈ / {2, 0, −1}. 2. a.
i. On a XMa = XX 2 = X 3 = X 2 X = Ma X. Donc X commute avec Ma . De plus XJ = X(Ma − aI) = XMa − aX = Ma X − aX = (Ma − aI)X = JX, donc X commute avec J. ii. Soit v un vecteur propre de f associé à la valeur propre l. D’après la question précédente, f et h commutent. On a f (h(v)) = hf (v) = h(lv) = lh(v). Autrement dit f (h(v)) = lh(v). On en déduit que h(v) ∈ El (sous-espace propre de f associé à la valeur propre l). D’après la première question, les sous-espaces propres de f sont de dimension 1. Comme v ∈ El et que v = 0 (c’est un vecteur propre), on en déduit que El = Vect(v). Il existe donc un réel a tel que h(v) = av. De plus v = 0, le vecteur v est donc aussi un vecteur propre de h. iii. La base de vecteurs propres de f déterminée à la question 1.a est donc aussi une base de vecteurs propres de h. On en déduit qu’en reprenant la matrice de passage P de la question 1.b, la matrice D = P −1 XP est diagonale. Soit encore X = PDP −1 , où D est bien une matrice diagonale. On a ensuite D2 = P −1 XPP −1 XP = P −1 X 2 P = P −1 Ma P = Da
438
Solutions
0 a2 0
0 0 a3
. D’après la question précédente, on a ⎧ 2 ⎪ ⎨ a1 = a − 2 a22 = a ⎪ ⎩ 2 a3 = a + 1
En particulier a − 2 0, soit a 2. ⎛√ ⎞ a − 2 √0 0 a √ 0 ⎠ P −1 (on peut le faire puisque a 2). On a b. Posons X = P ⎝ 0 a+1 0 0 alors ⎛ ⎛√ ⎛√ ⎞2 ⎞ ⎞2 a − 2 √0 0 a − 2 √0 0 a √ 0 ⎠ P −1 ⎠ = P ⎝ 0 a √ 0 ⎠ P −1 X 2 = ⎝P ⎝ 0 a+1 a+1 0 0 0 0 a−2 0 0 0 a 0 =P P −1 = Ma 0 0 a+1 On a donc trouvé une matrice X telle que X 2 = Ma . c. L’équation X 2 = Ma admet une solution en X si et seulement si a 2. 1. Soit u2 la restriction de u2 à Ker(u1 ◦ u2 ). D’après la formule du rang appliquée à 10. u2 nous avons rg(u2 ) + dim(Ker(u2 )) = dim(Ker(u1 ◦ u2 )). Or m(u2 ) ⊂ Ker(u1 ) et Ker(u2 ) ⊂ Ker(u1 ◦ u2 ), donc
© Dunod – La photocopie non autorisée est un délit
dim(Ker(u1 )) + dim(Ker(u2 )) dim(Ker(u1 ◦ u2 )). 2. C’est une récurrence immédiate. 3. On a u3 − IdE = 0, soit encore (u − IdE ) ◦ (u − j IdE ) ◦ (u − j2 IdE ) = 0. On a donc dim(Ker(u3 − IdE )) = dim(E) et d’après la question précédente dim(u − IdE ) + dim(u − j IdE ) + dim(u − j2 IdE ) dim(E) ce qui peut encore s’écrire dim(E1 (u)) + dim(Ej (u)) + dim(Ej2 (u)) dim(E). Certains de ces sous-espaces peuvent être réduits à {0} mais pas tous puisque la somme de leur dimension est supérieure à 3. La juxtaposition des vecteurs de bases de ces sous-espaces (éventuellement en ne tenant pas compte de ceux qui sont réduits à {0}) est une famille F qui est libre dans E puisque ce sont des bases de sous-espace propres associés à des valeurs propres distinctes. On a donc dim(E1 (u)) + dim(Ej (u)) + dim(Ej2 (u)) dim(E), et en on déduit que dim(E1 (u)) + dim(Ej (u)) + dim(Ej2 (u)) = dim(E), et donc que u est diagonalisable puis que F est une base de E constituées de vecteur propres de u.
439
SOLUTIONS
iv. Posons D =
a1 0 0
Chapitre
3 – Réduction
4. Soit P un tel polynôme annulateur qui peut donc s’écrire sous la forme P =
n (X − lk ) k=1
où les réels lk sont distincts deux à deux. Par hypothèse dim(Ker(P(u))) = dim(E). Mais d’après la question 2, n
dim(Ker(u − lk IdE )) dim(Ker(P(u))) = dim(E).
k=1
En posant Elk (u) = Ker(u − lk IdE ), nous avons
n
dim(Elk (u)) dim(E).
k=1
Certains des sous-espaces Elk (u) peuvent être réduits à {0} mais pas tous puisque la somme de leur dimension est supérieure à dim(E). La juxtaposition des vecteurs de bases de ces sous-espaces (éventuellement en ne tenant pas compte de ceux qui sont réduits à {0}) est une famille qui est libre dans E puisque ce sont des bases de sous-espace propres associés à des valeurs propres distinctes. n Nous avons donc dim(Elk (u)) dim(E). k=1
Il s’ensuit que
n
dim(Elk (u)) = dim(E), la famille F est donc une base de E constituées
k=1
de vecteurs propres de u qui est donc diagonalisable. 5. Soit l1 , l2 , . . . , ln les valeurs propres de u. Posons P =
n
(X − lk ).
k=1
Nous allons montrer que P(u) = 0 en montrant que P(u) est nul sur chacun des sousespaces propres. Soit i ∈ Ú1, nÛ, la restriction de u − li IdE au sous-espace vectoriel Eli (u) est nul, par définition. A fortiori la restriction de P(u) à Eli (u) est également nul. L’endomorphisme P(u) s’annule pour tous les vecteurs propres de u, en particulier sur une base de vecteurs propres (il en existe puisque u est diagonalisable). P(u) s’annule donc sur E et P est un polynôme annulateur de u.
1. a. Soit l une valeur propre de u et x ∈ El (u). On a v(u(x)) = v(lx) = lv(x). Comme uv = vu, il vient u(v(x)) = lv(x) ce qui signifie que v(x) ∈ El (u). L’endomorphisme v laisse stable El . b. Comme v est diagonalisable, il existe un polynôme annulateur de v à racines simples (voir l’exercice précédent). Ce polynôme est aussi annulateur de l’endomorphisme induit par v sur chacun des sous-espaces propres de u. Soit l une valeur propre de u. L’endomorphisme v|El (u) est diagonalisable puisqu’il admet un polynôme annulateur à racines simples. Il existe donc une base Bl de El (u) dans laquelle la matrice de v|El (u) est diagonale. En notant B la base de E obtenue en juxtaposant les bases Bl ; en effet, c’est bien une base de E car d’une part c’est une famille libre de E et d’autre part la somme des dimensions des espaces El (u) est égale à la dimension de E, le nombre de vecteurs de B est donc égal à la dimension de E. Les matrices de u et de v dans cette base, sont diagonales.
11.
440
Solutions
⎛
a1
⎜ ⎜ 0 MB (u) = A = ⎜ . ⎝ . . 0
⎛ ⎞ 0 .. ⎟ ⎜ . ⎟ ⎜ ⎟ , MB (v) = B = ⎜ ⎝ ⎠ 0 an
··· .. . .. . 0
0 .. . ..
. ···
b1 0 .. . 0
··· 0 . .. . .. .. . 0 0 bn
0 .. . ..
. ···
⎞ ⎟ ⎟ ⎟ ⎠
alors ⎛ ⎜ ⎜ AB = ⎜ ⎝
a1 b 1 0 .. . 0
··· .. . .. . 0
0 .. . ..
. ···
0 .. . 0 a n bn
⎛
⎞
⎜ ⎟ ⎜ ⎟ ⎟ et BA = ⎜ ⎝ ⎠
b1 a 1 0 .. . 0
0 .. . ..
. ···
··· .. . .. . 0
0 .. . 0 b n an
⎞ ⎟ ⎟ ⎟ = AB. ⎠
Il en résulte que uv = vu. • Supposons que uv = vu. Soit x un vecteur propre de u associé à la valeur propre 12. l, alors u(v(x)) = (uv)(x) = (vu)(x) = v(lx) = lv(x). Donc v(x) ∈ El (u). Mais, u possédant n valeurs propres, dim(El (u)) = 1, et x étant non nul, El (u) = Vect(x). Il existe donc un réel a tel que v(x) = ax. Le vecteur x est donc également un vecteur propre de v (associé à la valeur propre a). • Supposons que les vecteurs propres de u soient des vecteurs propres de v. L’endomorphisme u étant diagonalisable, il existe une base B de E formée de vecteurs propres de u. Comme les vecteurs propres de u sont des vecteurs propres de v, cette base est aussi formée de vecteurs propres de v et v est diagonalisable. 1. Il est clair que si deg(Q) 2n, alors deg(s(Q)) 2n. 13. Soient l ∈ R et Q1 , Q2 ∈ E, avec
© Dunod – La photocopie non autorisée est un délit
Q1 (x) =
2n
ak x k
et
2n
Q2 (x) =
k=0
on a alors (lQ1 + Q2 ) =
bk x k ,
k=0
2n (lak + bk )xk et donc k=0
s(lQ1 + Q2 )(x) =
2n
(la2n−k + b2n−k )xk
k=0
=l
2n k=0
a2n−k xk +
2n
b2n−k xk
k=0
= lQ1 (x) + Q2 (x), s est bien un endomorphisme de E.
441
SOLUTIONS
2. Posons
Chapitre
3 – Réduction
2. a. M étant symétrique, elle est diagonalisable. Pour rechercher les valeurs propres de M, on triangule M − lI3 (où l ∈ R) −l 0 1 1 0 −l L 1 ↔ L3 0 1−l 0 0 1−l 0 → 1 0 −l −l 0 1 ⎛ ⎞ 1 0 −l ⎠ 0 → M(l) = ⎝ 0 1 − l L3 ← L3 + lL1 0 1 − l2 Les valeurs propres de M sont les racines de (1 − l)(1 − l2 ) = (1 − l)(1 − l)(1 + l). Donc les valeurs propres de M sont dans {−1, 1}. x y , on a Recherchons une base des sous-espaces propres de M. Soit X = z X ∈ E1 ⇔ M(1)X = 0 ⇔ x − z = 0 ⇔ x = z 1 0 0 , 1 . d’où E1 = Vect 1 0 1 0 0 , 1 Les deux vecteurs étant non colinéaires, forme une base de E1 . 1 0 De même x+z = 0 x = −z X ∈ E−1 ⇔ M(−1)X = 0 ⇔ ⇔ 2y = 0 y = 0 d’où E−1 = Vect
1 0 −1
. Ce vecteur étant non nul,
1 0 −1
est une base
de E−1 . b. On a s(1) = X 2 , s(X) = X et s(X 2 ) = 1. Il s’ensuit que M est bien la matrice de s dans la base (1, X, X 2 ). Compte tenu de la question précédente, une base de vecteurs propres pour s est (1 + X 2 , X, 1 − X 2 ). 3. a. Soit Q =
2n
ak X k , on a
k=0
(s ◦ s)(Q) = s(s(Q)) = s
2n k=0
a2n−k X
k
=
2n k=0
k
a2n−(2n−k) X =
2n
ak X k = Q.
k=0
Donc s ◦ s = IdE . b. D’après la question précédente, le polynôme X 2 − 1 est annulateur de s. Or x2 − 1 = 0 ⇔ x ∈ {−1, 1}. Il en résulte que les valeurs propres de s sont nécessairement dans {−1, 1}.
442
Solutions
SOLUTIONS
c. Pour k ∈ Ú0, n − 1Û, on a s(Ak ) = s(X 2n−k + X k ) = X 2n−(2n−k) + X 2n−k = X k + X 2n−k = Ak . De plus s(An ) = s(X n ) = X 2n−n = X n = An . Enfin, pour k ∈ Ún + 1, 2nÛ, s(Ak ) = s(X k − X 2n−k ) = X 2n−k − X 2n−(2n−k) = X 2n−k − X k = −Ak . d. Soient a0 , a1 , . . . , a2n des réels tels que 2n
ak Ak =
k=0
n−1
2n
ak Ak = 0, on a alors
k=0
ak (X 2n−k + X k ) + an X n +
k=0
=
n−1
=
k=0
=
n−1
ak (X k − X 2n−k )
k=n+1
ak X k +
k=0 n−1
2n
n−1
ak X 2n−k + an X n +
k=1
ak X k +
2n
ak X k −
k=n+1
a2n−k X k + an X n +
k =n+1
2n k=n+1
(ak − a2n−k )X k + an X n +
k=0
2n
2n
2n
ak X 2n−k
k=n+1
ak X k −
n−1
a2n−k X k
k =0
(ak + a2n−k )X k = 0
k=n+1
© Dunod – La photocopie non autorisée est un délit
La famille (1, X, . . . , X 2n ) étant libre, on en déduit que an = 0, que pour k ∈ Ú0, n−1Û, ak − a2n−k = 0 et que pour k ∈ Ún + 1, 2nÛ, ak + a2n−k = 0. Soit k ∈ Ú0, n − 1Û, on a donc ak − a2n−k = 0 et comme 2n − k ∈ Ún + 1, 2nÛ, a2n−k + a2n−(2n−k) = 0, soit encore ak + a2n−k = 0. On résout le système ak − a2n−k = 0 ak − a2n−k = 0 ⇔ ⇔ ak = a2n−k = 0 ak + a2n+k = 0 2a2n+k = 0 Finalement, ∀k ∈ Ú0, 2nÛ, ak = 0. La famille (A0 , A1 , . . . , A2n ) est bien libre. e. La famille (A0 , . . . , A2n ) est une famille libre de 2n + 1 vecteurs de E, or dim(E) = 2n + 1. C’est donc une base de E. On en déduit d’après (c) que la famille (A0 , A1 , . . . , A2n ) est une base de E formée de vecteurs propres de s. s est diagonalisable. D’après (c), les valeurs propres de s sont −1 et 1. Une base de E1 est (A0 , . . . , An ) et une base de E−1 est (An+1 , . . . , A2n ). 1. Soit F une primitive de f (qui existe puisque f est continue), on a alors pour tout 14. réel x 1 (F(x + a) − F(x − a)) . Ta (f )(x) = 2a Il en résulte que Ta (f ) est C 1 comme somme et composée de fonctions C 1 . 2. D’après la question précédente, Ta (f ) (x) =
1 (f (x + a) − f (x − a)) . 2a
443
Chapitre
3 – Réduction
• Si f admet 2a comme période, il en résulte immédiatement que T (f ) (x) = 0 pour tout réel x. Par voie de conséquence T(f ) est constante. • Si T (f ) est constante alors, sa dérivée est nulle. Donc pour tout réel x, f (x+a) = f (x−a), ce qui équivaut à ∀x ∈ R, f (x) = f (x + 2a), autrement dit f est périodique de période 2a. 3. Remarquons déjà que pour tout f ∈ E, T (f ) est C 1 sur R et a fortiori continue sur R, ce qui signifie que T est à valeurs dans E. Soient f, g ∈ E et l ∈ R, nous avons pour tout réel x : 1 x+a 1 x+a Ta (lf + g)(x) = (lf + g)(t)dt = lf (t) + g(t)dt 2a x−a 2a x−a 1 x+a 1 x+a f (t)dt + g(t)dt =l× 2a x−a 2a x−a = lTa (f )(x) + Ta (g)(x) = (lTa (f ) + Ta (g))(x) Il en résulte que Ta (lf + g) = lTa (f ) + Ta (g) et donc Ta est un endomorphisme de E. Soit f ∈ E, on sait déjà que si f ∈ Ker(Ta ) alors f est périodique de période 2a. Réciproquement, soit f une fonction périodique de E de période 2a, alors Ta (f ) est constante et a f (t)dt = 0. Ta (f ) = 0 ⇔ −a
Autrement dit le noyau de Ta est constitué des applications périodiques f de E de période a
f (t)dt = 0.
2a et telles que −a
D’après la question 1, pour tout f ∈ E, Ta (f ) est C 1 sur R. Or il existe des fonctions continues qui ne sont pas C 1 , donc Ta n’est pas surjectif. n ak xk , on a alors 4. Soit f ∈ Rn [X] telle que pour tout réel x, f (x) = k=0
1 ∀x ∈ R, Ta (f )(x) = 2a
n x+a x−a
1 ak t dt = ak 2a k=0 k=0 n
x+a
k
x+a n 1 tk+1 t dt = 2a k=0 k + 1 x−a k
x−a
n 1 (x + a)k+1 − (x − a)k+1 = ak 2a k=0 k+1
Les termes de la somme pour k n − 1 sont clairement de degré inférieur ou égal à n. De plus le coefficient de degré n + 1 de (x + a)n+1 est xn+1 et celui de (x − a)n+1 est aussi xn+1 , donc (x + a)n+1 − (x − a)n+1 est aussi de degré inférieur à n. Par voie de conséquence Ta (f ) est une fonction polynômial de degré inférieur où égal à n.
444
Solutions
1 (x + a)k+1 − (x − a)k+1 t dt = 2a k+1 x−a k+1 k+1 1 = xi ak+1−i − xi (−a)k+1−i . 2a(k + 1) i=0 i
1 Ta (X )(x) = 2a k
SOLUTIONS
5. a. Pour k ∈ Ú0, nÛ,
x+a
k
On remarque comme dans la question précédente que le terme de degré k + 1 est nul, d’où k k + 1 i k+1−i 1 Ta (X k )(x) = xa + (−1)k−i xi ak+1−i . 2a(k + 1) i=0 i Donc Ta (f ) est de degré inférieur ou égal à k et le terme de degré k est 1 k+1 2xk a = xk . 2a(k + 1) k
© Dunod – La photocopie non autorisée est un délit
La matrice de Ta (f ) est triangulaire supérieure avec des 1 sur la diagonale. On en déduit que Sp(Ta ) = {1}. Si Ta était diagonalisable, comme 1 est son unique valeur propre, on aurait Ta = IdRn [X] , or on vérifie aisément que Ta (X 2 ) = X 2 . Ta n’est donc pas diagonalisable. b. Soit f un polynôme tel que f (x) = a2 x2 + a1 x + a0 alors a2 a 2 + a 1 x + a0 T(f )(x) = a2 T (X 2 )(x) + a1 T (X)(x) + a0 T (1)(x) = a2 x2 + 3 2 a2 a + a0 . = a2 x 2 + a 1 x + 3 2 a2 a + a0 = a0 ⇔ a2 = 0. Il n’existe donc pas de On a donc T(f ) = f ⇔ 3 polynôme de degré 2 qui soit vecteur propre de f . Le même calcul prouve d’ailleurs que R1 [X] ⊂ E1 (Ta ). c. Soit f ∈ Rn [X] tel que T (f ) = f . Par définition, 1 x+a 1 (f (x + a) − f (x − a)) . ∀x ∈ R, T (f )(x) = f (t)dt = 2a x−a 2a 1 Or on sait que T (f ) (x) = (f (x + a) − f (x − a)). On en déduit que 2a ∀x ∈ R, T (f )(x) = (T (f )) (x) = f (x). Soit T(f ) = f . En conclusion, si f est un vecteur propre de degré supérieur ou égal à 1 alors f est également un vecteur propre. Comme il n’y a pas de vecteur propre de Ta de degré 2, il ne peut y avoir de vecteur propre de Ta de degré supérieur à 2. En effet si f était un tel vecteur propre, alors f (deg(f )−2) serait lui-même vecteur propre et de degré 2 ce qui est absurde. On en déduit que E1 (Ta ) ⊂ R1 [X]. D’après la question précédente, il en résulte que E1 (Ta ) = R1 [X].
445
Chapitre
15.
3 – Réduction 1. Triangulons A − lI3 1 − l −12 2 1 1−l 1 L1 ↔ L2 1 1−l 1 1 − l −12 2 → 4 8 3−l 4 8 3−l ⎛ ⎞ 1 1−l 1 → ⎝ 0 −l2 + 2l − 13 1 + l ⎠ L2 ← L2 − (1 − l)L1 L3 ← L3 − 4L1 0 4 + 4l −1 − l ⎛ ⎞ 1 1−l 1 → A(l) = ⎝ 0 −l2 + 2l − 13 1 + l ⎠ L3 ← L3 + L 2 0 −l2 + 6l − 9 0
Cette matrice est non inversible si, et seulement si, l = −1 ou −l2 + 6l − 9 = 0. Le discriminant réduit D vaut 9 − 9 = 0, il y a une racine double 3. Les valeurs propres de f sont −1 et 3. 2. Déterminons une base de ces sous-espaces. Soit (x, y, z) ∈ R3 , x x + 2y + z = 0 x = −z y −16y = 0 (x, y, z) ∈ Ker(f +Id) ⇔ A(−1) =0⇔ ⇔ y = 0 z −16y = 0 d’où E−1 = Vect((−1, 0, 1)). Pour déterminer Ker(f − 3 Id)2 , on calcule la matrice de (f − 3 Id)2 dans la base canonique
−2 1 4
−12 2 −2 1 8 0
2
=
0 64 −16 0 0 0 0 −64 16
,
il en résulte que (x, y, z) ∈ Ker(f − 3 Id)2 ⇔ 64y − 16z = 0 ⇔ z = 4y. D’où Ker(f − 3 Id)2 = Vect((1, 0, 0), (0, 1, 4)). Montrons que la famille ((−1, 0, 1), (1, 0, 0), (0, 1, 4)) est une famille libre. Soient a, b, c trois réels, nous avons −a + b = 0 c = 0 ⇔ a = b = c = 0, a(−1, 0, 1) + b(1, 0, 0) + c(0, 1, 4) = 0 ⇔ a + 4c = 0 cette famille est donc libre. Comme elle compte trois vecteurs et que dim(R3 ) = 3, c’est une base de R3 et Ker(f + Id) et Ker(f − 3 Id)2 sont supplémentaires. 3. Le premier vecteur e1 de B doit vérifier f (e1 ) = −e1 , soit e1 ∈ E−1 . D’après ce qui précède, on peut choisir e1 = (−1, 0, 1). De même le second vecteur doit appartenir à E3 . D’après la triangulation effectuée à la première question, x x − 2y + z = 0 x = −2y =0⇔ ⇔ (x, y, z) ∈ E3 ⇔ A(3) y −16y + 4z = 0 z = 4y z On peut choisir comme deuxième vecteur de la base B le triplet e2 = (−2, 1, 4).
446
Solutions
0 0 0 0 , le dernier vecteur est nécessairement dans 0 0 réels a et b tels que le vecteur e3 = a(1, 0, 0) + b(0, 1, 4)
f (e3 ) = 3e3 +e2 ⇔ a(1, 1, 4) + b(−4, 5, 20) = 3(a, b, 4b) + (−2, 1, 4) ⎧ 1 ⎪ ⎨ a+b = a − 4b = 3a − 2 2 a + 5b = 3b + 1 ⇔ ⇔ ⎪ ⎩ a + 2b = 1 4a + 20b = 12b + 4 4a + 8b = 4
⇔
⎧ ⎪ ⎨a + b = ⎪ ⎩
b
=
1 2 1 2
= 0 1 b = 2 1 le vecteur e3 = 0, , 2 . 2 Pour conserver des vecteurs à coordonnées entières on peut multiplier les deux derniers vecteur par 2. On pose alors B = ((−1, 0, 1), (−4, 2, 8), (0, 1, 4)), dont on montre facilement que c’est une base, et dans cette base, par construction, la matrice de f est −1 0 0 0 3 1 . 0 0 3 ⇔
a
© Dunod – La photocopie non autorisée est un délit
4. On remarque que B = M + N où −1 0 0 3 M= 0 0
0 1 3
et N =
0 0 0
0 0 0
0 1 0
On vérifie que MN = NM et que N 2 = 0. D’après la formule on obtient ⎛ n (−1)n n n k n−k n n−1 B = N M = M + nM N = ⎝ 0 k 0 k=0
. du binôme de Newton, 0 3n 0
⎞ 0 n3n−1 ⎠ . 3n
5. On sait qu’en posant P la matrice de passage de la base canonique vers la base B , c’est-àdire −1 −4 0 0 2 1 , P= 1 8 4 on a la relation B = P −1 AP et par suite An = PBn P −1 .
447
SOLUTIONS
1 0 Comme (B − 3I)2 = 0 2 Ker(f − 3 Id) . Cherchons deux vérifie f (e3 ) = 3e3 +e2 ,
Chapitre
3 – Réduction
4 −1 , d’où Après calculs, on trouve P −1 2 ⎞ ⎛ (−1)n 0 0 0 −16 4 −1 −4 0 1 4 −1 0 2 1 ⎝ 0 An = 3n n3n−1 ⎠ −1 4 2 −4 2 1 8 4 0 0 3n ⎞ ⎛ n+1 −4 · 3n −4n · 3n−1 0 −16 4 1 ⎝ (−1) 4 −1 = 0 2 · 3n 3n + 2n · 3n−1 ⎠ −1 4 n n 2 −4 2 (−1) 8·3 4 · 3n + 8n · 3n−1 ⎞ ⎛ n−1 16(−1)n + (−48 + 16n)3n−1 4(−1)n+1 + (12 − 8n)3n−1 1 ⎝ (12 − 8n)3 ⎠ = 4n · 3n−1 (12 − 8n)3n−1 4n · 3n−1 4 n−1 n+1 n−1 n n−1 16n · 3 16(−1) + (48 − 32n)3 4(−1) + 16n · 3 ⎞ ⎛ n−1 n n−1 n+1 (3 − 2n)3 4(−1) + (−12 + 4n)3 (−1) + (3 − 2n)3n−1 ⎠. =⎝ n · 3n−1 (3 − 2n)3n−1 n · 3n−1 n−1 n+1 n−1 n n−1 4n · 3 4(−1) + (12 − 8n)3 (−1) + 4n · 3 1 = 4
0 −16 −1 4 2 −4
1. Vérifions les trois points : 16. • C(u) est une partie de L(E). • C(u) est non vide, puisqu’il contient par exemple 0 (ou encore IdE , u, . . . ). • Soient v, w deux éléments de C(u) et l un réel, d’après les propriétés usuelles des opérations sur les applications linéaires, nous avons u(lv + w) = luv + uw = lvu + wu = (lv + w)u, autrement dit lv + w ∈ C(u). C(u) est bien un sous-espace vectoriel de L(E). 2. Supposons que uv = vu. Soit l une valeur propre et x ∈ El (u), alors (vu)(x) = v(lx) = lv(x) mais aussi (vu)(x) = (uv)(x) = u(v(x)). D’où la relation u(v(x)) = lv(x). Par définition, nous avons donc v(x) ∈ El (u). L’endomorphisme v laisse stable les sous-espaces propres de u. 3. Supposons que v laisse stable les sous-espaces propres de u. Soient l1 , l2 , . . . , ln les valeurs propres de u. Comme u est diagonalisable E = Soit x un vecteur de E. Il existe (x1 , . . . , xn ) ∈ El1 × · · · × Eln tel que x =
n
n k=1
xk .
k=1
On a alors
n n n n =u xk v(xk ) = u(v(xk )) = lk v(xk ), u(v(x)) = u v k=1
448
k=1
k=1
k=1
Elk .
Solutions
k=1
k=1
k=1
k=1
Le vecteur x étant arbitraire, il en résulte que uv = vu. 4. Soit B une base de E formée de la juxtaposition de bases des sous-espaces propres El1 , . . . , Eln de u. D’après les questions précédentes, un endomorphisme v commute avec u si, et seulement s’il laisse stable les sous-espaces propres de u. Les endomorphismes de C(u) sont donc ceux dont la matrice dans la base B s’écrit sous la forme ⎛ ⎞ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎜ ⎝
A1
(0)
...
(0)
(0)
A2
..
.
.. .
.. .
..
..
.
(0)
(0)
...
(0)
An
.
⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎟ ⎠
où Ak est une matrice arbitraire de taille dim(Elk ) × dim(Elk ). Il en résulte que dim(C(u)) =
n
dim(Elk )2 .
k=1
© Dunod – La photocopie non autorisée est un délit
0 −1 1 −1 0 −1 1 −1 0
1. Un petit calcul donne B = . B étant symétrique réelle, elle 17. est diagonalisable. 2. Il suffit d’effectuer le calcul. 3. Les valeurs propres de B sont racines de X 2 −X −2. Les réels −1 et 2 sont racines évidentes de ce trinôme. x y , nous avons De plus, pour X = z x−y+z = 0 −x + y − z = 0 ⇔ x = y − z, X ∈ E−1 (B) ⇔ (B + I)X = 0 ⇔ x−y+z = 0 d’où E−1 (B) = Vect
1 1 0
,
−1 0 1
(en particulier −1 est bien une valeur propre).
449
SOLUTIONS
puisque v(xk ) ∈ Elk . Mais on a également n n n n =v v(u(x)) = v u xk u(xk ) = v lk xk = lk v(xk ).
Chapitre
3 – Réduction
De même ⎧ ⎪ ⎨ −2x − y + z = 0 −x − 2y − z = 0 X ∈ E2 (B) ⇔ (B − 2I)X = 0 ⇔ ⎪ ⎩ x − y − 2z = 0 ⎧ ⎪ ⎨ −2x − y + z = 0 0 − 3y − 3z = 0 ⇔ ⎪ ⎩ −3y − 3z = 0
L2 ← 2L2 − L1 ⇔ L3 ← 2L3 + L1
x
= z
y
= −z
1 −1 (et 2 est bien une valeur propre de B). d’où E2 (B) = Vect 1 4. Soit l une valeurs propre de A et X un vecteur propre associé, on a alors BX = (A2 + 2I)X = A2 X + 2X = l2 X + 2X = (l2 + 2)X, et donc l2 + 2 est valeur propre de B. Comme l2 + 2 2 pour tout réel l et que Sp(B) = {−1, 2}, la seule valeur propre réelle possible de A est 0. Si A était diagonalisable sur R, elle serait semblable à la matrice nulle. Elle serait donc nulle, ce qui est absurde. A n’est pas diagonalisable sur R. 1 5. De la relation de la question 2, on déduit que B × (B − I) = I. La matrice B est donc 2 1 inversible et B−1 = (B − I). 2 6. a. En évaluant l’égalité en −1 et 2, on trouve que an et bn sont solutions d’un système linéaire que l’on résout
−an + bn 2an + bn
⇔
−an + bn 3bn
= =
= =
(−1)n ⇔ 2n
(−1)n 2n + 2(−1)n
−an + bn 3bn
= (−1)n = 2n + 2(−1)n
L2 ← L2 + 2L1
⇔
⎧ ⎪ ⎪ ⎨ an
=
⎪ ⎪ ⎩ bn
=
b. En évaluant l’égalité précédente en B, il vient pour n 2, Bn =
1 n 1 (2 − (−1)n )B + (2n + 2(−1)n )I, 3 3
formule également valable pour n = 0 et n = 1.
450
L2 ← L2 + 2L1 1 n (2 − (−1)n ) 3 1 n (2 + 2(−1)n ) 3
Solutions
1 −n 1 Bn × (2 − (−1)−n )B + (2−n + 2(−1)−n )I 3 3 1 n 1 −n 1 1 n n = (2 − (−1) )B + (2 + 2(−1)n )I × (2 − (−1)−n )B + (2−n + 2(−1)−n )I 3 3 3 3 1 −n n 2 n −n (1 + 1 − (−2) − (−2) )B + (1 − 2 − (−2) + 2(−2) + 1 − 2 + 2(−2)n − (−2)−n )B = 9 + (1 + 4 + 2(−2)n + 2(−2)−n )I 1 = (2 − (−2)−n − (−2)n )(B + 2I) + (−2 + (−2)n + (−2)−n )B 9 +(5 + 2(−2)n + 2(−2)−n )I = I.
La formule est donc encore valable pour les entiers négatifs. ⎞ x1 ⎟ ⎜ 1. Soit X = ⎝ ... ⎠ un tel vecteur. Notons k l’entier tel que xk = max |xi |. 1in xn ⎛
18.
L’égalité AX = 0 signifie que pour tout i ∈ Ú1, nÛ, n
ai,j xj = 0.
j=1
Cette égalité est en particulier vrai pour i = k, il en découle que ak,k xk = ak,j xj . 1jn j=k
© Dunod – La photocopie non autorisée est un délit
On en déduit que |ak,k xk | =
ak,j xj
1jn j=k
ak,j xj
1jn j=k
ak,j xk |xk |
1jn j=k
ak,j .
1jn j=k
Or xk = 0 (puisque X = 0), il en résulte que |ak,k | ak,j , 1jn j=k
ce qui est en contradiction avec les hypothèses de l’énoncé. Il n’existe donc pas de vecteur colonne non nul X tel que AX = 0 et la matrice A est inversible. n ! D(ai,i , |ai,j |), notons B = (bi,j ) la matrice A − lIn . Montrons 2. Soit l ∈ C tel que l ∈ / i=1
j=i
que cette matrice est inversible grâce à la première question.
451
SOLUTIONS
c. Soit n ∈ N∗ , on vérifie que Bn a pour inverse le candidat proposé en effectuant le calcul
Chapitre
3 – Réduction
Soit i ∈ Ú1, nÛ, comme l ∈ / D(ai,i ,
|ai,j |), nous avons
j=i
|bi,i | = |ai,i − l| >
|ai,j | =
j=i
|bi,j |.
j=i
D’après la question 1, il en résulte que B est inversible. Le scalaire l n’est donc pas valeur propre. Il s’ensuit que n ! Sp(A) ⊂ D(ai,i , |ai,j |). i=1
j=i
3. a. D’après la question précédente toute valeur propre l de A est dans le disque D(0, 1) ∪ D(0, 2) = D(0, 2). Cela signifie que tout valeur propre l vérifie |l| 2. ⎛ ⎞ x1 ⎜ ⎟ b. On recherche un vecteur non nul X = ⎝ ... ⎠ tel que (A − 2 cos(u)I)X = 0, xn c’est-à-dire tel que ⎧ −2 cos(u)x1 + x2 = 0 ⎪ ⎪ ⎪ ⎪ x1 − 2 cos(u)x2 + x3 = 0 ⎪ ⎪ ⎨ x2 − 2 cos(u)x3 + x4 = 0 .. ⎪ . ⎪ ⎪ ⎪ ⎪ x − 2 cos(u)x + x = 0 n−2 n−1 n ⎪ ⎩ xn−1 − 2 cos(u)xn = 0 Posons x0 = 0 et xn+1 = 0. La suite (x0 , . . . , xn+1 ) vérifie ∀k ∈ Ú0, n − 1Û, xk − 2 cos(u)xk+1 + xk+2 = 0, c’est-à-dire que c’est une suite récurrente linéaire d’ordre 2. Son équation caractéristique admet pour racines eiu et e−iu . Supposons dans un premier temps que ces deux racines soient distinctes, c’est-à-dire que u ∈ ]0, p[. Il existe donc deux scalaires a et b tels que pour k ∈ Ú0, n + 1Û, xk = aekiu + be−kiu . En exprimant ces égalités pour k = 0 et k = n + 1, il vient a+b = 0 ae(n+1)iu + be−(n+1)iu = 0 Ce système est inversible si e(n+1)iu = e−(n+1)iu , auquel cas a = b = 0 et donc xk = 0. Autrement dit pour un tel u, l n’est pas valeur propre. Supposons que e(n+1)iu = e−(n+1)iu , ce qui équivaut à 2(n + 1)u ∈ 2pZ. Compte tenu de la condition u ∈ ]0, p[, il y a donc n valeurs possibles pour u à savoir up =
452
pp où p ∈ Ú1, nÛ. n+1
Solutions
Chapitre 4 1 1 = −n − + o (1). Ainsi, an ∼ Ce−n , avec a. Pour n 2, ln an = n ln 1 − 1. n 2 1 1 C = √ · Les séries étant à terme général positif et la série géométrique de raison ∈ [0, 1[ e e $ étant convergente, la série an est convergente d’après la règle des équivalents. 2 2 1 a −x 2 −na a −n a = (n ) e . Puisque lim x a e = 0, an = o 2 . Les séries étant à b. On a n e x→+∞ n $ 1 $ terme général positif et la série de Riemann étant convergente, la série an est 2 n convergente en vertu du théorème de comparaison. c. D’après la formule du binôme, pour tout entier naturel n n " √ #n " √ #n n n−k k 2+ 3 + 2− 3 2 3 2 1 + (−1)k = k k=0
© Dunod – La photocopie non autorisée est un délit
2
2 n n−2 2 3. = 2 2 n
=0
√ n √ n Il s’ensuit que 2 + 3 p + 2 − 3 p = 0 (mod 2p) et donc que "" √ #n # an = − sin 2 − 3 p .
453
SOLUTIONS
Pour u = up , le système équivaut à a = −b, et alors il existe une solution non nulle au 1 système (A − 2 cos(u)I)X = 0, à savoir par exemple xk = (ekiup − e−kiup ) = sin(kup ). 2i " pp # est une valeur propre et un vecteur Il en résulte que pour p ∈ Ú1, nÛ, 2 cos n+1 propre associé est " pp # ⎞ ⎛ sin n+1 ⎟ ⎜ ⎜ ⎟ .. ⎜ ⎟. . ⎝ " npp # ⎠ sin n+1 Nous avons déjà n valeurs propres, donc il ne peut y en avoir d’autres et les sous-espaces propres sont de dimension 1. On en conclut que " pp # ⎞ ⎛ sin ⎜ n + 1 ⎟ ⎟ ⎜ ⎟ ⎜ sin 2pp ⎜ n+1 ⎟ E2 cos( pp ) (A) = Vect ⎜ ⎟. n+1 ⎟ ⎜ .. ⎟ ⎜ . ⎝ # ⎠ " npp sin n+1
Chapitre
4 – Séries numériques
Or 0 < 2 −
√
3 < 1, donc lim
n→+∞
" √ #n 2 − 3 = 0 et " √ #n an ∼ − 2 − 3 p.
√ n $ Les deux suites$sont négatives ; du fait que la série géométrique 2 − 3 est convergente, la série an est convergente. d. La suite (un ) est bien définie. Par ailleurs, pour tout entier naturel n non nul 1 + an − 1 1 1 = − · (1 + a0 ) · · · (1 + an−1 ) (1 + an ) (1 + a0 ) · · · (1 + an−1 ) (1 + a0 ) · · · (1 + an ) $ La série un est une série télescopique ; elle est convergente si, et seulement si, la suite 1 définie par vn = est convergente. Or cette suite est évidemment (1 + a0 ) · · · (1 + an ) à valeurs positives et décroissante $ ; le théorème des suites monotones permet alors de conclure à la convergence de série un . ln n = 0, e. Puisque lim n→+∞ n ln n ln n ∼ · ln 1 + n n un =
Par ailleurs, pour tout n 3 1 ln n · n n $ ln n est divergente d’après le théoPuisque la série harmonique est divergente, la série n rème $ de comparaison (les suites sont positives !). Ainsi, d’après la règle des équivalents, la série an est divergente. f. On peut facilement démontrer par récurrence l’inégalité 1! + · · · + n! 2 n!, mais cela masque la nature du résultat. Il est plus satisfaisant de remarquer que pour tout entier naturel non nul n et pour tout k ∈ Ú1, n − 1Û k! 1 1 = , n! n (n − 1) · · · (k + 1) n et donc
Ainsi
1! + · · · + n! 1 1 (n − 1) + 1 = 2 − 2. n! n n n! 1! + · · · + n! n! 2 · (n + p)! (n + p)! (n + p)!
Le suites étant positives, le théorème de comparaison permet facilement de démontrer $ 1! + · · · + n! $ n! et sont de même nature. Enfin, puisque que les séries (n + p)! (n + p)! $ 1! + · · · + n! n! 1 ∼ p , la série converge si, et seulement si, p 2. (n + p)! (n + p)! n
454
Solutions
k=w(n−1)+1
w(n − 1) < k w(n) et ak = 0. Ainsi 8 × 9n =8 cn w(n − 1) + 1
9 10
n ·
$ D’après le théorème de comparaison, puisque la série géométrique $ $ an est convergente. gente, la série cn converge et donc la série
9 10
n est conver-
a. On remarque que
2.
2 n4 + n2 + 1 = n4 + 2n2 + 1 − n2 = n2 + 1 − n2 = n2 + n + 1 n2 − n + 1 . 1 1 · On constate que un−1 = 2 et que pour tout entier n2 + n + 1 n −n+1 naturel non nul n 1 an = (un−1 − un ) . 2
Posons un =
Ainsi, pour tout entier naturel n non nul n
ak =
k=1
1 (u0 − un ) . 2
On en déduit facilement la convergence et
© Dunod – La photocopie non autorisée est un délit
+∞ k=0
k4
k 1 = · 2 +k +1 2
2 a−b 2 = 1 + ab . On constate facile(n + 1) ment que a = n + 2 et b = n conviennent. pour tout entier naturel n % pPuisque, % & n,pArctan p% et Arctan (n + 2) sont des éléments de 0, , Arctan (n + 2) − Arctan n ∈ − , . Il 2 2 2 s’ensuit que 2 tan Arctan (n + 2) − Arctan n = (n + 1)2
b. L’idée est de rechercher deux réels a et b tels que
et que
Arctan (n + 2) − Arctan n = Arctan
2 (n + 1)2
·
455
SOLUTIONS
n+1 g. On note w : N → N l’application définie par $ w (n) = 10 $− 1. Celle-ci est évidemment strictement croissante et donc la série an et la série cn sont de même nature, w(n) où cn = ak . Or pour tout entier n 1, il y a 8 × 9n indices k tels que
Chapitre
4 – Séries numériques
Ainsi, pour tout entier naturel n n n 2 = Arctan (k + 2) − Arctan k Arctan 2 (k + 1) k=0 k=0 =
n+2
Arctan k −
k=2
n
Arctan k
k=0
= Arctan (n + 2) + Arctan (n + 1) − Arctan 0 − Arctan 1 $ p p ak est Puisque lim Arctan x = , que Arctan 0 = 0 et que Arctan 1 = , la série x→+∞ 2 4 convergente et +∞ 3 2 = p· Arctan 2 4 (k + 1) k=0 & p% u , pour tout entier n on a cos ∈ ]0, 1[, et donc la suite (an ) est c. Puisque u ∈ 0, 2 2n bien définie. Par ailleurs, on vérifie par récurrence à partir de la relation sin (2a) = 2 sin a cos a que pour tout entier naturel n n u u n+1 (2u) sin = 2 sin · cos 2n k=0 2k Puisque
& p% u , ∈ 0, 2n 2
sin (2u) u = cos 2n+1 sin 2n k=0 n
u 2k
sin (2u) u · = ln ln cos 2k 2n+1 sin 2un k=0 u u u ∼ · Il s’ensuit que D’autre part, lim n = 0 et donc sin n n→+∞ 2 2 2n $ u lim 2n+1 sin = 2u. La convergence de la série an est alors immén n→+∞ 2 diate et +∞ sin (2u) u · = ln ln cos 2k 2u k=0
et
n
d. On sait que pour tout entier naturel n, n(n + 1) , 2 2 n(n + 1) 3 3 1 + ··· + n = · 2 1 + ··· + n =
456
Solutions
1 + ··· + n 2 = =2 13 + · · · + n 3 n (n + 1)
1 1 − n n+1
SOLUTIONS
Ainsi, pour tout entier naturel non nul n
·
On est ramené à une série télescopique convergente et on obtient +∞ 1 + ··· + n = 2. 13 + · · · + n 3 n=1
e. On a, pour tout entier naturel n an =
+∞ k=n+1
$
qk =
qn+1 · 1−q
Il s’ensuit immédiatement que la série an est convergente et que +∞ +∞ q k q = · (1 − q)2 n=0 k=n+1 f. Il est clair que la suite (un ) est à valeurs strictement positives, strictement croissante. Si la suite (an ) a une limite finie L, on aurait alors L = L + L 2 , i.e. L = 0, ce qui est impossible du fait de sa monotonie. Donc (un ) tend vers +∞. On remarque qu’alors, pour tout entier naturel n 1 1 1 1 1 un un 1− = − = × = · un un+1 un 1 + un un 1 + un un+1 Ainsi la série
© Dunod – La photocopie non autorisée est un délit
gente. Enfin
$ un 1 est une série télescopique et puisque lim = 0, elle est convern→+∞ un un+1 +∞ uk 1 = · u u0 k=0 k+1
g. Rappelons que p ∈ N∗ est fixé. Pour tout entier naturel non nul n, on a 1 1 1 1 − · = n (n + p) p n n+p Il s’ensuit que n k=1
n 1 1 1 1 − = k (k + p) p k=1 k k + p ⎛ ⎞ n+p n 1⎠ 1 ⎝ 1 − = p k=1 k k=p+1 k p p 1 1 1 − · = p k=1 k k=1 n + k
457
Chapitre
4 – Séries numériques
Les p termes de la seconde somme tendent $ tous vers 0 lorsque l’on fait tendre n vers +∞. On en déduit la convergence de la série an et +∞ k=1
1 11 · = k (k + p) p k=1 k p
h. On obtient facilement, par identification, que pour tout entier n 2 1 1 1 1 = − + · 2(n − 1) n 2(n + 1) n n2 − 1 Il s’ensuit que pour tout entier n 2 n k=2
n−1 n n+1 1 11 1 11 = − + 2 k=1 k k=2 k 2 k=3 k k k2 − 1 1 1 1 1 1 1 1 1+ − + + + = 2 2 2 n 2 n n+1 1 1 1 1 − · = + 4 2 n+1 n
La convergence de la série s’ensuit et +∞ k=2
1 1 = · 4 k k2 − 1
i. Notons, pour tout entier naturel non nul, Sn =
n
ak . On remarque que, pour tout entier
k=1
1 1 2 = − · Il s’ensuit que tout entier naturel non nul n 3k 3k k n 3n n 3n 1 1 1 1 1 1 1 S3n = + + − = − = · 3k − 2 3k − 1 3k k k k=1 k k=n+1 k k=1 k=1
k 1, a3k = −
D’autre part, toujours pour tout entier naturel n non nul, 3n 2n 2n 1 1 1 1 = = · k n+i n i=1 1 + ni i=1 k=n+1
Cette dernière somme est une somme de Riemann associée à la fonction continue 1 2 2n − 1 1 et la subdivision 0, , , . . . , , 2 · Il f : [0, 2] → R définie par f (t) = 1+t n n n s’ensuit que 2 2n 1 1 dt lim S3n = lim = ln 3. i = n→+∞ n→+∞ n 1 +t 1 + 0 n i=1
458
Solutions
+∞
ak = ln 3.
k=1
3.
1. Notons l et m les racines de P. Cas l = m. Il existe alors deux complexes A et B tels que pour tout naturel n, $ entier $ un = A ln + B mn . Puisque |l| < 1 et |m| < ln et mn sont $1, les séries géométriques convergentes et donc par linéarité la série un est convergente.
Cas l = m. De même il existe deux complexes A et B tels que$ pour tout entier naturel n, un = A ln + B nln . Puisque |l| < 1, la série géométrique ln et la série$ dérivée $ n d’une série géométrique nl sont convergentes. Il s’ensuit encore que la série un est convergente. $ un . En 2. Notons, pour tout entier naturel, Sn la somme partielle d’indice n de la série sommant la relation un+2 − a un+1 − b un = 0, on obtient, pour tout entier naturel n (Sn+2 − u0 − u1 ) − a (Sn+1 − u0 ) − bSn = 0. En passant à la limite dans cette relation et en notant S la somme de la série obtient (1 − a − b) S = (1 − a) u0 + u1 .
$
an , on
Puisque 1 − a − b = 0 (sinon 1 serait racine de P) +∞
© Dunod – La photocopie non autorisée est un délit
k=0
4.
uk =
(1 − a) u0 + u1 · 1−a−b
1. On suppose b > 0 fixé. La fonction t →
1 est évidemment continue, t lnb t
décroissante sur ]1, +∞[. Par ailleurs, sur cet intervalle 1 1−b dt t, si b = 1 ; 1−b ln = b ln (ln t) , si b = 1. t ln t
+∞
dt est convergente si, et seulement si, b > 1. D’après une b t ln t 2 1 converge si, et seulement si, b > 1. remarque faite page 96, la série n lnb n 1 1 . D’après le théorème de compa2. Cas a > 1. Alors, pour tout b, a b = o n ln2 n n ln n 1 converge. raison et la question précédente, la série a n lnb n Il s’ensuit que
459
SOLUTIONS
2 et donc lim an = 0. Ainsi De plus, pour tout entier n 1, 0 < an n→+∞ n lim S3n+1 = lim S3n + a3n+1 = ln 3 et lim S3n+2 = lim S3n+1 + a3n+2 = ln 3. La n→+∞ n→+∞ $ n→+∞ n→+∞ convergence de la série an est alors assurée et
Chapitre
4 – Séries numériques
1 1 =o a b . D’après le théorème de compaCas a < 1. Alors pour tout b, n ln n n ln n 1 diverge. raison et la question précédente, la série na lnb n Cas a = 1. Ce cas a été traité. En résumé 1 a > 1, ou converge ⇐⇒ a = 1 et b > 1. na lnb n 5.
1. La suite (an ) étant réelle, décroissante, elle admet une limite L dans [−∞, +∞[. $ an Cas L non nul. Alors lim a2n = L et donc lim 2n a2n = ±∞. Les deux séries n→+∞ n→+∞ $ n et 2 a2n sont divergentes. Cas L nul. La suite (an ) étant décroissante, cela implique en particulier que (an ) est posin n tive. Notons S = lim ak et S = lim 2k a2k , qui sont des éléments de [0, +∞]. n→+∞
n→+∞
k=1
k=1
Pour tout entier naturel k on a 2 a2k+1 k
2k+1 −1
a i 2 k a 2k .
i=2k
Ainsi, en sommant, pour tout entier naturel n, n+1 2 −1 n 1 k 2 a 2k ai 2 k a 2k . 2 k=1 i=1 k=0 n+1
En faisant tendre n vers +∞, on obtient donc que S = +∞ si, et seulement si, S = +∞, ce qui donne le résultat annoncé. 1 est décroissante. D’après ce qui précède, la série 2. Puisque a est positif, la suite na 2n 1 n 1 est de même nature que la série géométrique = . Elle est na 2an 2a−1 donc convergente si, et seulement si, 2a−1 > 1, i.e. a > 1. 1 1 est décroissante. La série est de même 3. Puisque b est positif, la suite b n ln n n lnb n 1 1 1 = b . D’après la question précédente, la série nature que la série b n nb ln (2 ) ln 2 1 si, et seulement si, b > 1. n lnb n √ 1. Notons L = lim n an . 6. n→+∞
Cas L > 1. Puisque L ∈ ]1, +∞], on peut choisir un réel l tel que 1 < l < L. Par définition de la limite, il existe un rang n0 tel que pour tout n n0 , on ait an $ln . En faisant tendre n vers +∞, on en déduit que lim an = +∞ et donc que la série an est n→+∞ (grossièrement) divergente.
460
Solutions
2. Notons L = lim
n→+∞
an+1 · an
Cas L > 1. Par définition de la limite, il existe un rang n0 tel que pour tout n n0 , on an+1 ait 1. On en déduit que la suite (an ) est croissante à partir du rang n0 et, pour tout an n n0 , an an0 . Puisque$ an0 > 0, la limite — qui existe ! — de la suite (an ) ne peut pas être nulle et donc la série an est (grossièrement) divergente. Cas L < 1. Soit l un réel, L < l < 1. Il existe un rang n0 tel que pour tout entier an+1 n n0 on ait l. On en déduit facilement par récurrence que pour tout n n0 an an ln−n0 an0 = C ln · D’après le théorème de comparaison, les suites étant positives et la série géométrique $ étant convergente, la série an est convergente. 3. Si an =
1 , alors na lim
n→+∞
$
ln
an+1 √ = lim n an = 1. n→+∞ an
On ne peut donc rien affirmer quant à la convergence d’une série lorsque L = 1 dans les règles de Cauchy et de d’Alembert.
© Dunod – La photocopie non autorisée est un délit
7.
1. Pour tout entier naturel non nul n, on a n n n ak Sk − ak Sk−1 a0 1− = = = · S S S S k k k n k=1 k=1 k=1
2. La suite (an ) étant à valeurs strictement positives, la limite S dans R de (Sn ) est strictement positive (ne pas oublier que (Sn ) est croissante). Par ailleurs, la relation de la question précédente peut s’écrire ak = ln a0 − ln Sn . ln 1 − Sk k=1
n
ak est En faisant tendre n vers +∞ dans cette relation, il vient que la série ln 1 − Sk convergente si, et seulement si, la limite de S n est un réel strictement positif, i.e. la série $ $ an sont de même nature. an et ln 1 − an converge. Ainsi les séries Sn $ an an an Si an converge. Alors ∼ , et d’après la règle des équivalents la série est Sn S Sn convergente. $
461
SOLUTIONS
Cas L < 1. Soit l un réel, L < l < 1. D’après la définition de la limite, il existe un rang n0 tel que pour entier n n0 , an ln . D’après le théorème de comparaison, la série $tout $ géométrique ln étant convergente, la série an est convergente.
Chapitre
4 – Séries numériques
an an converge. Alors lim = 0. Il s’ensuit que n→+∞ Sn Sn an an ∼ ln 1 − Sn Sn an converge et donc la et toujours d’après la règle des équivalents, la série ln 1 − Sn $ série an converge. an est divergente. Il reste alors deux cas. 3. D’après ce qui précède, Sn an an — car lim Sn = +∞ — et d’après ce qui précède, =o Cas a < 1. Alors a n→+∞ S S n n an est divergente. Sna Si
1 Cas a > 1. Pour tout entier naturel non nul n, puisque l’application t → a est décroist sante sur R∗+ Sn Sn dt 1 an dt = a · a a t S S Sn−1 Sn−1 n n Il s’ensuit, d’après le relation de Chasles, que pour tout entier naturel non nul n Sn n ak dt 1 1 1 1 = − · a a−1 a a−1 S t a − 1 S (a − 1) S0a−1 S S0 n 0 k=1 k Les sommes partielles de la série à terme général positif est convergente. 8.
$ an $ an étant bornées, la série a Sn Sna
1. La relation est immédiate lorsque n = 0. Sinon, en remarquant que, pour tout k 1, ak = Sk − Sk−1 , on obtient n
ak bk = b0 S0 +
k=0
n
bk (Sk − Sk−1 ) =
k=1
=
n−1
n
bk Sk −
n−1
k=0
bk+1 Sk
k=0
Sk (bk − bk+1 ) + bn Sn .
k=0
2. Notons M un majorant de la suite |Sn | . Alors, pour tout entier naturel k, |Sk (bk − bk+1 ) | M (bk − bk+1 ) $ (car la$suite (bk ) est décroissante). La série télescopique (bk − bk+1 ) étant convergente, la série Sk (bk − bk+1 ) est absolument convergente. Puisque lim Sn bn = 0 (produit d’une n→+∞
462
Solutions
lim
n
n→+∞
ak bk =
k=0
+∞
Sk (bk − bk+1 ) ,
k=0
$ ce qui assure la convergence de la série ak bk . einu est convergente, et d’après ce qui précède, il suffit 3. Il suffit de montrer que la série n de montrer que la suite (Sn ), où ∀n ∈ N∗
Sn =
n
eiku ,
k=1
est bornée. Or, puisque eiu = 1, pour tout entier naturel n |Sn | = eiu
n n+1 sin 1 1 − einu 2u = ei 2 u · iu 1−e sin u2 sin u2
Le résultat s’ensuit. 9. Notons w : N → N l’application définie par w(n) = 10n − 1. Clairement, l’application w est strictement croissante et pour tout entier naturel non nul k,
© Dunod – La photocopie non autorisée est un délit
ck = n ⇐⇒ w (n − 1) < k w (n) . i) D’après la proposition 7 relative à la sommation par paquets des séries à terme général $1 $ positif page 94, les séries et an sont de même nature, où pour tout entier naturel cn n 10 −1 $ 1 9 × 10n−1 non nul n, an = = · Puisque lim an = +∞, la série an , et donc n→+∞ n n k=10n−1 $1 la série , est divergente. cn $ $ 1 et an sont de même nature, où pour tout entier naturel ii) De même, les séries ncn n 10 −1 1 non nul n, an = · Or nk n−1 k=10
n 10 −1
k=10n−1
10 −1 1 1 1 9 × , = n nk n10 10 n n−1 n
k=10
et donc d’après le théorème de comparaison, la série harmonique étant divergente, la $ $ 1 série an et donc la série est divergente. ncn
463
SOLUTIONS
suite bornée et d’une suite tendant vers 0), on a
Chapitre
4 – Séries numériques
n n $ 1 1 1 iii) Pour tout entier n 2, . La série géométrique étant convergente, cn 2 2n n $ 1 est convergente. le théorème de comparaison permet d’établir que cn $ $ 1 cn et la série an , où iv) La série cn an =
n 10 −1
k=10n−1
1 9 = n n 10
10 n
n ·
n $ 10 n 9 10 · La série géométrique étant Or pour tout n 11, 0 an 10 11 11 $ convergente, d’après le théorème de comparaison, la série an et donc la série $ 1 cn , est convergente. cn ➤ Remarque
cn n 1 1 1 et , il eût suffit de montrer la divergence de la série et la converncn cn cn cn ncn 1 cn pour conclure. gence de la série cn Puisque
1
1
1. Pour tout réel positif t et pour tout entier naturel n, la formule exprimant la 10. somme des n premiers termes d’une suite géométrique nous donne n 1 − (−ta )n+1 (−ta )k = · 1 + ta k=0
(Remarquer que −ta = 1.) Les fonctions considérées étant continues, on peut intégrer sur [0, x], et donc par linéarité de l’intégrale 0
x
n n a k k (−t ) dt = (−1) k=0
k=0
x
t
ak
dt =
0
n (−1)k xak+1 k=0
ak + 1
·
L’égalité demandée en résulte. 2. D’après la formule précédente, pour tout entier naturel n n (−1)k xak+1 k=0
ak + 1
− 0
x
dt = − 1 + ta
x 0
(−ta )n+1 dt = 1 + ta
0
x a(n+1)
t dt. 1 + ta
1 1 et donc 1 + ta x x n (−1)k xak+1 dt xa(n+1)+1 − · ta(n+1) dt = a ak + 1 a(n + 1) + 1 0 1+t 0 k=0
Par ailleurs, pour tout t 0,
464
Solutions xa(n+1)+1 = 0, que n→+∞ a(n + 1) + 1 lim
n (−1)k xak+1
n→+∞
k=0
ak + 1
x
= 0
SOLUTIONS
Il s’ensuit, puisque lim
dt · 1 + ta
En particulier, pour tout x ∈ [0, 1], ln (1 + x)
=
+∞ (−1)k−1 k=1
Arctan x
3. a. On a immédiatement ln p = − ln suit en remarquant que 0
k
xk ;
+∞ (−1)k 2k+1 x . = 2k + 1 k=0
p−1 1 = − ln 1 − . La première formule s’enp p
p−1 1. Par ailleurs, pour tout entier naturel n p
k k n+1 +∞ +∞ 1 p−1 1 p−1 p−1 p = · k p n+1 p n+1 p k=n+1 k=n+1
© Dunod – La photocopie non autorisée est un délit
L’inégalité demandée est alors immédiate. b. Au vu de la question précédente, on peut proposer la fonction suivante. function s = ln(p,epsilon) q=(p-1)/p ; a=q ; s=0 ; r=q ; n=1 ; while p*r>epsilon s=s+r ; n=n+1 ; a=a*q ; r=a/n ; end endfunction
4. Il est alors immédiat que 1 +∞ (−1)k dx p = = [Arctan x]10 = · 2 2k + 1 1 + x 4 0 k=0 Cette dernière somme, souvent attribuée à Leibniz, semble être initialement due au mathématicien écossais James Gregory (1638-1675). p p 3p 2 tan u , valable lorsque u = , , (mod p), on obtient 5. De la formule tan (2u) = 2 1 − tan u 4 2 4 √ p √ que tan = 2 − 1. Puisque 0 < 15 < 2 − 1 et que la fonction Arctan est strictement 8
465
Chapitre
4 – Séries numériques p 1 p 1 < . Il s’ensuit que 0 < 2 Arctan < et que 5 8 5 4 5 1 = , tan 2 Arctan 5 12
croissante sur R, on a 0 < Arctan
puis que 0 < 4 Arctan
1 p < et que 5 2 5 2 12 1 120 tan 4 Arctan = · 5 2 = 5 119 1 − 12
& p% 1 1 1 1 et Arctan sont des éléments de 0, , u = 4 Arctan −Arctan 5& 239 2 4 239 p p% . On en déduit que est un élément de − , 2 2 Puisque 4 Arctan
tan u =
120 119
1+
−
1 239 120 1 119 239
=1
et que 1 p 1 − Arctan = Arctan 1 = · 4 239 4 Cette formule est due au mathématicien anglais John Machin (1680-1751), qui fut un des professeurs d’un certain Brook Taylor. . . 6. Ainsi, pour tout x ∈ [0, 1] 4 Arctan
Arctan x = et donc p=
+∞ k=0
+∞ (−1)k 2k+1 x 2k + 1 k=0
(−1)k
uk , 2k + 1
2k+1 2k+1 1 1 où uk = 16 −4 · On constate que la suite (uk ) est décroissante ; en 5 239 effet, pour tout entier naturel k 2k+1 2k+1 1 1 1 1 1− 1− 5 25 239 2392 2k+1 239 1 25 ⇐⇒ 1− ; 5 96 2392
uk uk+1 ⇐⇒ 4
2k+1 239 229 1 cette dernière assertion étant vraie pour tout entier naturel k car 5 5 # " 25 uk 1. La suite (uk ) étant décroissante, a fortiori la suite est décroissante et la et 96 2k + 1
466
Solutions $
uk est une série alternée. D’après l’exercice 2, pour tout entier naturel n 2k + 1 2n+3 1 2n+3 2k+1 n 2k+1 16 15 − 4 239 (−1)k 1 1 p− 16 · −4 2k + 1 5 239 2n + 3 k=0 (−1)k
De tout cela on peut déduire une méthode de calcul approché de p. C’est cette méthode qui est utilisée par la fonction Scilab suivante. function n= machin(epsilon) n=0 ; u=1/5 ; v=1/239 ; a=u^ 2 ; b=v^ 2 ; s=0 ; r=(16*u-4*v)/(2*n+1) ; while r>=epsilon if modulo(n,2)==0 s=s+r ; else s=s-r ; end n=n+1 ; u=a*u ; v=b*v ; r=(16*u-4*v)/(2*n+1) ; end endfunction
Dans cette analyse, nous n’avons tenu compte que de l’erreur théorique, et pas des erreurs d’arrondis qui s’ajoutent nécessairement à l’erreur théorique.
11.
1. Pour tout entier n 2 et pour tout k ∈ Ú1, n − 2Û k! 1 1 = · n! n (n − 1) · · · (k + 1) n (n − 1)
© Dunod – La photocopie non autorisée est un délit
On en déduit que pour tout entier n 2 1
1 2n − 3 1 1! + · · · + n! (n − 2) + +1=1+ · n! n (n − 1) n n (n − 1)
On conclut alors facilement à l’aide du théorème des gendarmes. 2. Pour tout entier naturel n et pour tout entier k n + 2, on a 1 1 1 1 n! = = − · (n + 1) · · · (k − 1) k (k − 1) k k! k−1 k Il s’ensuit que 0 n!
+∞ +∞ 1 1 1 1 − = , k! k − 1 k n + 1 k=n+2 k=n+2
467
SOLUTIONS
série
Chapitre
4 – Séries numériques
et d’après le théorème des gendarmes, lim n! n→+∞
lim n!
n→+∞
+∞ k=n
+∞ 1 = 0. Ainsi, k! k=n+2
+∞ 1 1 1 = lim 1 + + n! = 1, k! n→+∞ n+1 k! k=n+2
ce qui est ce qu’il fallait démontrer. 1. Soit k un entier naturel. La formule de Taylor-Lagrange appliquée à la fonction 12. fk donne l’existence d’un réel uk ∈ ]0, 1[ tel que fk (x + h) − fk (x) − hfk (x) =
h2 f (x + uk h) . 2 k
Il est alors immédiat que h2 ak . 2 $ Puisque la série an est convergente, le théorème de comparaison donne que la série $ fk (x +$h) − fk (x)$ − hfk (x) est absolument convergente et donc convergente. Puisque les série fn (x) $ et fn (x + h) sont supposées convergentes et puisque h est non nul, par linéarité, la série fn (x) est convergente. Les propriétés de linéarité et l’inégalité triangulaire pour les séries donnent alors |fk (x + h) − fk (x) − hfk (x)|
f (x + h) − f (x) − h
+∞
fk (x) =
k=0
+∞
f (x + h) − f (x) − hfk (x)
k=0
+∞
|f (x + h) − f (x) − hfk (x) |
k=0 +∞ 2
h 2
ak .
k=0
La conclusion quant à la dérivabilité de f est alors immédiate. 2. Soit m un réel, 0 < m < r et posons M un majorant de |cn | rn . Notons de plus, pour tout entier naturel p, gp : [−m, m] → R l’application définie par gp (x) =
+∞
k (k − 1) · · · (k − p + 1) ck xk−p .
k=p
Puisque, pour tout p ∈ N, pour tout entier k p et pour tout x ∈ [−m, m] k (k − 1) · · · (k − p + 1) ck xk k (k − 1) · · · (k − p + 1) |ck | mk k m k = k (k − 1) · · · (k − p + 1) |ck | r r k m M k (k − 1) · · · (k − p + 1) , r $ la série k (k − 1) · · · (k − p + 1) ck xk converge absolument en vertu du théorème relatif aux séries dérivées des séries géométriques et du théorème de comparaison ; la fonction gp est bien définie.
468
Solutions
k=0
]−r, r[. La caractère C ∞ de f est alors simple à établir. +∞ 3. Montrons d’abord que l’application g : x → e−bk x est bien définie sur [1, +∞[. Puisque la série
$
k=0
e−bk est convergente, lim e−bk = 0 et donc bk > 0 à partir d’un certain rang. n→+∞
−bk x Il s’ensuit que pour tout x 1, 0 < e$ e−bk à partir d’un certain rang. Ainsi, d’après −bk x le théorème de comparaison, la série e est convergente. Soit m un réel strictement supérieur à 1. Notons, pour tout entier naturel p,
gp : x →
+∞
(−bk )p e−bk x .
k=0
Puisque lim bn = +∞, pour tout x m, (−bk )p e−bk x = o e−bk et donc gp est définie n→+∞
sur [m, +∞[. Les fonctions fp,k : x → (−bk )p e−bk x sont de classe C 2 et pour tout n > m ap,k = max fp,k = bk e−bk m . p+2
x∈[m,n]
© Dunod – La photocopie non autorisée est un délit
$ Le théorème de comparaison garantit la convergence de la série ap,k et donc que gp est dérivable sur [m, n]. On conclut de la même manière que plus haut. 13.
Les coefficient ck (f ) sont bien définies, car f est continue par morceaux.
1. Pour tout entier naturel n et pour tout réel x ∈ [−p, p] 2
|Pn (f ) (x)| =
n
ck (f ) e
ikx
k=−n
=
n
c
(f ) eix
=−n
ck (f ) eikx
k=−n
=
n
n
c (f )e−ix
=−n
ck (f ) c (f )e
i(k−)x
.
−nk,n
469
SOLUTIONS
On remarque alors, en notant fp,k (x) = (k + p) · · · (k + 1) ck+p xk , que pour tout entier naturel k (k + p) · · · (k − 1) ck+p mk−2 , si k 2 ; ap,k = max fp,k = 0, sinon. x∈[−m,m] $ D’après l’étude faite ci-dessus, la série ap,k converge, et donc d’après la question a), gp = gp+1 . On en déduit alors à l’aide d’un facile raisonnement par récurrence que g = g0 est de classe C +∞ . |x| + r et que 0 < m < r, on peut Soit x ∈ ]−r, r[. Puisque x ∈ [−m, m], où m = 2 +∞ ck xk est définie en x, et donc sur appliquer ce qui précède ; l’application f : x →
Chapitre
4 – Séries numériques
Puisque 1 2p
p
ei(k−)x dx = −p
⎧ ⎨ 1,
ei(k−)x i (k − )
⎩
si k = ;
p = 0,
sinon,
−p
on a, par linéarité de l’intégrale 1 2p
p
−p
2
|Pn (f ) (x)| dx =
1 2p
ck (f ) c (f )
−nk,n
p
ei(k−)x dx = −p
n
2
|ck (f ) | .
k=−n
2. Soit un entier naturel non nul n. Alors p p n 1 1 f (x)Pn (f ) (x) dx = cn (f )e−ikx f (x) dx 2p −p 2p −p k=−n p n 1 cn (f ) e−ikx f (x) dx = 2p −p k=−n n
=
2
|ck (f ) | .
k=−n
De même 1 2p
p
1 f (x)Pn (f ) (x) dx = 2p −p
p −p
f (x)Pn (f ) (x) dx =
n
2
|ck (f ) | .
k=−n
Ainsi, p p p 1 1 1 2 2 2 |f (x) − Pn (f ) (x) | dx = |f (x)| dx + |Pn (f ) (x) | dx 2p −p 2p −p 2p −p p p 1 1 f (x)Pn (f ) (x) dx − f (x)Pn (f ) (x) dx − 2p −p 2p −p p n 1 2 2 = |f (x)| dx − |ck (f ) | . 2p −p k=−n 3. Il s’ensuit pour tout entier naturel n que n
|ck (f ) |2
k=−n
En particulier
n
1 2p
p
−p
2
|f (t) | dt.
1 |ck (f ) | 2p k=0
p
2
−p
(Inégalité de Bessel)
2
|f (t) | dt.
$ 2 Les sommes partielles de la série à terme général positif |cn (f ) | sont majorées ; il s’ensuit $ $ 2 2 que la série |cn (f ) | converge. On raisonne de même pour la série |c−n (f ) | .
470
Solutions 2
n→+∞
n→+∞
−p
−p
5. Pour entier naturel n et pour tout réel t, t = 0 (mod 2p), on a " # 2n sin n + 12 t i(2n+1)t 1 − e Dn (t) = e−int eikt = e−int = · 1 − eit sin 2t k=0 Par ailleurs, pour tout t = 0 (mod 2p), Dn (t) = 2n + 1. 6. D’après le calcul précédent, pour tout entier n p p p 2 t 1 1 2 t dt = t dt. t Dn (t)dt = n+ g(t) sin n+ t sin 2 2 −p −p sin 2 −p t2 (avec g(0) = 0) est évidemment continue sur [−p, p]. Il sin 2t s’ensuit, d’après la question 4, que p p p t t2 Dn (t) dt = lim t2 cos (nt) dt + lim g(t) cos sin (nt) = 0. lim n→+∞ −p n→+∞ −p n→+∞ −p 2
L’application g : t →
7. Il est clair que
p
t2 dt = −p
2 3 p· 3
© Dunod – La photocopie non autorisée est un délit
Pour tout entier naturel non nul k, une intégration par parties donne p 2 p ikt t2 eikt dt = − te dt ; ik −p −p puis une autre donne
p −p
t2 eikt dt = −
2 k2
p
eikt dt + −p
2 ' ikt (p e −p . k2
p
eikt dt = 0,
Puisque
−p
p
t2 eikt dt = 4p −p
(−1)k · k2
Ainsi, pour tout entier naturel non nul n
p 2
−p
t Dn (t) dt = 2p
n (−1)k p2 +4 3 k2 k=1
.
471
SOLUTIONS
4. Le terme général d’une série convergente tendant toujours vers 0, |cn (f ) | — et donc cn (f ) — converge vers 0. De même pour la suite c−n (f ) . Enfin, puisque p p cn (f ) − c−n (f ) , on en f (t) cos (nt) dt = p cn (f ) + c−n (f ) et f (t) sin (nt) dt = p i −p −p déduit que p p lim f (t) cos (nt) dt = lim f (t) sin (nt) dt = 0.
Chapitre
4 – Séries numériques
Ce calcul et la question 6 nous donnent alors +∞ (−1)k+1
k2
k=1
p2 · 12
=
$ 1 est convergente et en remarquant que n2 +∞ +∞ +∞ (−1)k+1 1 1 = − 2 2 k (2k + 1) (2k)2 k=1 k=0 k=1
En utilisant le fait que la série
+∞ +∞ 1 1 = −2 2 2 k (2k) k=1 k=1
1 1 2 k=1 k2 +∞
= on obtient finalement
+∞ 1 p2 · = k2 6 k=1
➤ Remarques • On obtient facilement
+∞
1
k=0
(2k + 1)2
=
p2 8
·
• On démontre plus généralement qu’il existe une suite bp de nombres rationnels, telle que pour tout entier naturel non nul p +∞ 1 22p−1 = b2p p2p , 2p k (2p)! k=1 la suite (bp ) étant définie par récurrence par b0 = 0 et la relation p p + 1 (−1)k bk = 0. k k=0
• En revanche on ne connaît pas d’expression « simple » de
+∞ k=1
14.
1. On a
b
b
f (t) dt − (b − a) f (c) = a
f (t) − f (c) dt
a
c
=
b
f (t) dt + a
f (t) dt c
c
=
(a − t) f (t) dt +
a
=
a
472
1 k2p+1
(Relation de Chasles) b
(b − t) f (t) dt (Intégrations par parties)
c c
(a − t)2 f (t) dt + 2
c
b
(b − t)2 f (t) dt. 2 (Intégrations par parties)
Solutions
b
c
f (t) dt − (b − a) f (c) a
a
(a − t)2 |f (t)| dt + 2
b
c
=
(b − a)2 f (c) et 8
(b − t)2 |f (t)| dt 2
b (b − a)2 (b − a)2 |f (t)| dt + |f (t)| dt 8 8 a c b (b − a)2 (b − a)2 b |f (t)| dt = f (t) dt , = 8 8 a a (f est de signe constant)
c
ce qui est ce qu’il fallait démontrer. 2. On peut, quitte à passer à l’opposée, supposer que f est convexe. Alors f (n) −
n+ 12
f (t) dt
n− 12
1 8
1 1 f n+ −f n− · 2 2
$ La série télescopique f n + 12 − f n − 12 ) n+ 1 $ f (n) − n− 12 f (t) dt est absolument convergente. 2
Dans la formule (i), Rn est le reste d’ordre n de la série puisque f est croissante +∞
© Dunod – La photocopie non autorisée est un délit
|Rn |
f (n) −
k=n+1 +∞
étant
convergente,
$
) n+ 12
f (n) −
n− 12
la
série
f (t) dt et donc,
n+ 12
f (t) dt n− 12
1 1 1 −f k− f k+ 8 k=n+1 2 2 1 1 ; = − f n+ 8 2 ce qui est l’inégalité demandée. 1 3. En appliquant ce qui précède à la fonction t → , qui est de classe C +∞ , convexe et dont t la dérivée tend vers 0, on obtient, pour tout entier n 1
(ii)
n 1 k=1
k
= ln (2n + 1) + S − Rn ,
473
SOLUTIONS
Cette dernière égalité provient de ce que b (b − a)2 (b − t)2 f (t) = − f (c). Ainsi 2 8 c
c (a − t)2 f (t) 2 a
Chapitre
4 – Séries numériques
avec |Rn |
1 · Puisque lim Rn = 0, on peut déduire de la relation (ii) n→+∞ 2 (2n + 1)2 g = lim ln (2n + 1) + S − Rn − ln n = ln 2 + S. n→+∞
Ainsi S = g − ln 2, et donc n 1 k=1
1 = ln n + k 2
+ g − Rn ,
ce qui est ce qu’il fallait démontrer. n 1 1 − ln n + − g ´ dès lors que 4. Pour tout ´ > 0, on aura k 2 k=1 1 1 1 √ − 1 . ´ ⇐⇒ n 2 2 (2n + 1)2 2´ * + n 1 1 1 1 √ −1 , − ln n + est une Au d’autres termes, lorsque n = 2 k 2 2´ k=1 approximation de g à ´ près. (On rappelle que pour tout réel x, que sa partie entière supérieure, notée x, est le plus petit entier relatif n vérifiant x n.) On en déduit facilement la fonction Scilab suivante. function g = euler(epsilon) n=ceil((1/sqrt(2*epsilon)-1)/2) ; s=0 ; for k=1 :n s=s+1/k ; end ; g=s-log(n+0.5) ; endfunction
On peut donc avoir la session suivante. -->euler(1E-14) ans = 0.5772 1566 4900 6561
Par ailleurs g = 0, 5772 1566 4901 5328 . . . . Ainsi, la douzième décimale de euler(1E-14) est fausse. Cela provient des erreurs numériques (arrondis) dont nous n’avons pas tenu compte : nous n’avons tenu compte que de l’erreur de méthode.
474
Solutions
1.
SOLUTIONS
Chapitre 5 a. Pour tout (x, y) ∈ R2 { (0, 0) }, en notant (x, y) = (r cos u, r sin u), on a r2 sin 2u 2 2 2 · x + xy + y = r 1 + 2 2 Il s’ensuit que f est bien définie sur R2 { (0, 0) }, de classe C 1 en tant que quotient de polynômes et sin2 2u (x, y)2 2 4 · 0 f (x, y) = r 2 1 + sin22u On en déduit que
lim
(x,y)→(0,0)
f (x, y) = 0. On note encore f le prolongement par continuité
de f sur R2 . Pour tout (x, y) ∈ R2 { (0, 0) }, on a
x2 y3 + 2xy4 ∂f (x, y) = 2 et puisque ∂x x2 + xy + y2
∂f (0, 0) = 0. Alors pour tout (x, y) ∈ R2 { (0, 0) }, en x → f (x, 0) = 0, on a également ∂x posant (x, y) = (r cos u, r sin u), on vérifie facilement que cos2 u sin3 u + 2 cos u sin4 u ∂f ∂f (x, y) − (0, 0) = r 12(x, y). 2 ∂x ∂x 1 + sin 2u 2
∂f est continue en (0, 0). Puisque pour tout (x, y) ∈ R2 , f (x, y) = f (y, x), ∂x ∂f ∂f ∂f (x, y) = (y, x). Ainsi est également continue on a, toujours pour tout (x, y) ∈ R2 , ∂y ∂x ∂y sur R2 et le prolongement par continuité de f est de classe C 1 . 2 b. Il est clair que f est définie sur R2 { (0, 0) }. Pour tout (x, y) ∈ R { (0, 0) }, en posant 3 3 (r cos u, r sin u), on a f (x, y) = r cos u − sin u . De l’inégalité © Dunod – La photocopie non autorisée est un délit
Il s’ensuit que
|f (x, y)| 2 (x, y) on déduit que
lim
(x,y)→(0,0)
f (x, y) = 0. On note encore f le prolongement par continuité sur
R2 . On a pour tout (x, y) ∈ R2 { (0, 0) }, ∂f x4 + 3x2 y2 + 2xy4 (x, y) = , 2 ∂x x2 + y2 3 ∂f ∂f (0, 0) = 1. En particulier, pour tout t ∈ R∗ , (t, t) = ; si ∂x ∂x 2 ∂f 3 1 (t, t) = = 1, ce qui est absurde. Le prolongement f était de classe C , on aurait lim+ t→0 ∂x 2 par continuité de f n’est donc pas de classe C 1 . et puisque f (x, 0) = x,
475
Chapitre
5 – Fonctions de plusieurs variables
c. Si f admet un prolongement par continuité, on aurait lim+ f (t, 0) = lim+ f (t, t). Or, pour t→0
t→0
1 tout réel non nul t, f (t, 0) = 0 et f (t, t) = · Il s’ensuit que f ne pas être prolongée par 2 continuité. 1. Il est clair que l’application (x, y) → f (x) − f (y) est de classe C 1 ainsi que l’application polynomiale (x, y) → x − y. Il s’ensuit que f est bien de classe C 1 sur l’ouvert R2 D, en tant que quotient de fonctions de classe C 1 . 2. Pour tout (x, y) ∈ R2 D, il existe d’après le théorème de Taylor-Lagrange un réel u ∈ ]0, 1[ tel que f x + u(y − x) ∂g f (y) − f (x) − (y − x)f (x) (x, y) = · = ∂x (x − y)2 2 2.
Par ailleurs, pour tout réel x et pour tout réel h non nul, on a g(x + h, x) − g(x, x) f (x + h) − f (x) − hf (x) = , h h2 et donc d’après la formule de Taylor-Young,
f (x) ∂g (x, x) = · En résumé, pour tout ∂x 2
(x, y) ∈ R2 , il existe un réel u ∈ ]0, 1[ tel que f x + u(y − x) ∂g (x, y) = · ∂x 2
Soit un réel x et ´ un réel strictement positif. La continuité de f en x donne l’existence d’un réel strictement positif h tel que pour tout réel t vérifiant |t| h on ait |f (x + t) − f (x)| ´. On fixe un tel h. En remarquant que pour tout couple (h, k) ∈ R2 h on a |k − h| 2 (h, k) , on obtient que tout (h, k) vérifiant (h, k) , on a 3 ∂g ∂g 1 (x + h, x + k) − (x, x) = f x + h + u(k − h) − f (x) ´· ∂x ∂x 2 ∂g ∂g est continue en (x, x), et ceci pour tout x ∈ R ; ainsi ∂x ∂x est continue sur D et donc sur R2 . On conclut en remarquant que f (x, y) = f (y, x) pour ∂g ∂g (x, y) = (y, x). tout couple (x, y) ∈ R2 et donc que ∂y ∂x
Il s’ensuit que l’application
3. Soit f une fonction homogène de degré a et x un élément de Rn . Posons w l’application définie sur R∗+ par t → f (tx). D’après la proposition 5, on a pour tout réel strictement positif t n ∂f (tx) . w (t) = xk ∂xk k=1 Mais, w(t) = ta f (x), et donc tout réel strictement positif t w (t) = ata−1 f (x).
476
Solutions
w (1) =
n
xk
k=1
∂f (x) = af (x). ∂xk
Montrons la réciproque, à savoir que si f est une fonction de classe C 1 définie sur Rn et qui n ∂f (x) = af (x), alors f est a-homogène. vérifie, pour tout x ∈ Rn , xk ∂x k k=1 Soit donc x ∈ Rn et posons w : t → f (tx), définie sur R∗+ . On a tw (t) =
n
txk
k=1
∂f (tx) = aw(t). ∂xk
On conclut en remarquant que les solutions sur R∗+ de l’équation différentielle ty − ay = 0 sont les t → Ata , avec A une constante réelle et en remarquant également que w(1) = f (x). 4.
1. Il est clair que f est une fonction de classe C 2 . Pour tout x ∈ Rn {0} et pour tout k ∈ Ú1, nÛ, on a ∂f xk w x (x) = ∂xk x et ∂2f x2k x2 − x2k (x) = w x + w x . ∂x2k x2 x3
© Dunod – La photocopie non autorisée est un délit
En sommant ces égalités, on obtient n − 1 Df (x) = w x + w x . x 2. Une fonction f : x → w x , où w ∈ C 2 R∗+ , R vérifie sur R3 {0} la relation Df = lf si et seulement si w est une solution sur R∗+ de l’équation différentielle 2 (E) y + y − ly = 0. t Soit g ∈ C 2 R∗+ , R une application quelconque et posons h : t → tg(t). On a, pour tout t ∈ R∗+ , h (t) = tg (t) + 2g(t). Ainsi, si g est une solution de (E), alors h est une solution de z − lz = 0. On vérifie également que si h est une solution sur R∗+ de l’équation z − lz = 0, alors g : t → h(t) t est une solution de (E). D’après les résultats relatifs aux équations différentielles linéaire d’ordre 2 à coefficients constants, on a Cas l > 0 Il existe deux constantes réelles a et b telle que pour tout x ∈ R3 {0} √
f (x) =
ae
l x
+ be− x
√ l x
;
Cas l = 0 Il existe deux constantes réelles a et b telle que pour tout x ∈ R3 {0} f (x) = a +
b ; x
477
SOLUTIONS
Ainsi
Chapitre
5 – Fonctions de plusieurs variables
Cas l < 0 Il existe deux constantes réelles a et b telle que pour tout x ∈ R3 {0} f (x) =
5.
a cos
√ √ −l x + b sin −l x · x
1. La fonction f est polynomiale, donc elle est de classe C 1 . Cherchons d’abord les points critiques. Les points critiques (x, y) sont caractérisés par ⎧ ∂f ⎪ 2 ⎪ ⎪ ⎨ ∂x (x, y) = 3x + y = 0 (E) ⎪ ∂f ⎪ ⎪ ⎩ (x, y) = 3y2 + x = 0. ∂y En soustrayant les deux équations de (E), on obtient (x − y) 3(x + y) − 1 = 0. Si 3(x + y) − 1 = 0, alors en additionnant les deux équations de (E), on obtient 1 3(x2 + y2 ) + = 0, ce qui est absurde. Ainsi f admet exactement deux points critiques 3 1 1 (0, 0) et − , − . 3 3 Le point (0, 0) Puisque 0 n’est ni un maximum, ni un minimum de x → f (x, 0), le point (0, 0) n’est pas un extremum. Le point − 13 , − 13 Posons g(h, k) = f
1 1 − + h, − + k , c’est-à-dire 3 3 g(h, k) = −h2 (1 − h) − k2 (1 − k) + hk + a.
h2 + k2 et donc (a = f − 13 , − 13 ) On sait que pour tous réels h et k, on a hk 2 1 1 2 2 −h −k −k . g(h, k) − g(0, 0) −h 2 2 On en déduit que si (h, k)
1 , 4
g(h, k) − g(0, 0) −
h 2 + k2 < 0, 4
et ainsi le point − 13 , − 13 est un maximum local de f . La fonction f n’a pas de maximum global.
478
Solutions
x w (x)
−∞
a 0
−
+∞ +
w
w(a)
Il s’ensuit que w admet un minimum global en a. Dans le cas w (a) < 0, w admet un maximum global en a. On a des résultats similaires en ce qui concerne c. Par ailleurs, f est évidemment de classe C 1 et il est facile de constater que (a, b) est l’unique point critique de f . Plusieurs cas se présentent alors. Cas w (a) > 0 et c (b) > 0 Puisque pour tout réel t on a w(t) w(a) et c(t) c(b), on a pour tout couple de réels (x, y) f (x, y) = w(x) + c(y) w(a) + c(b), et donc (a, b) est un minimum global strict de f . Cas w (a) < 0 et c (b) < 0 De même (a, b) est un maximum global strict de f . Cas w (a)c (b) < 0 Le point (a, b) est évidemment un col. 3. La fonction f est polynomiale, et donc de classe C 1 . Les points critiques (x, y) sont caractérisés ⎧ ∂f ⎪ ⎪ ⎪ ⎨ ∂x (x, y) = 2x + 2ay + 2b = 0 ⎪ ∂f ⎪ ⎪ ⎩ (x, y) = 2ax + 2y + 2g = 0. ∂y
© Dunod – La photocopie non autorisée est un délit
soit encore (S)
x + ay = (1 − a2 )y =
−b ab − g.
Ici encore, plusieurs cas se présentent. Cas a ∈ / {−1, 1}
ag − b ab − g est l’unique point , Le système (S) est de Cramer ; le point (x0 , y0 ) = 1 − a2 1 − a2 critique. Introduisons la fonction g : (h, k) → f (x0 + h, y0 + k) définie sur R2 . Il s’agit d’un polynôme dont (0, 0) est un point critique ; il s’ensuit que les termes de degré un sont nuls et donc, pour tout couple de réels (h, k) g(h, k) = h2 + 2ahk + k2 + g(0, 0) = (h + ak)2 + 1 − a2 k2 + g(0, 0).
Ainsi lorsque a ∈ ]−1, 1[, le point (x0 , y0 ) est un minimum global strict et que si |a| > 1, le point (x0 , y0 ) est un col.
479
SOLUTIONS
2. L’hypothèse w (a) = 0 et w (a) = 0 donne que w admet un extremum strict en a. Dans le cas w (a) > 0, le tableau de variations de w est comme suit.
Chapitre
5 – Fonctions de plusieurs variables
Cas a ∈ {−1, 1} et ab − g = 0 Alors pour tout couple de réels (x, y) (x + ay + b)2 = x2 + y2 + b2 + 2axy + 2bx + 2aby = f (x, y) + b2 . Il s’ensuit que tous les points critiques, c’est-à-dire tous les points de la droite d’équation X + aY + b = 0, sont des minima globaux. Cas a ∈ {−1, 1} et ab − g = 0 La fonction f n’admet pas de points critiques et donc n’admet pas d’extremum. 6.
−−−−−−→ cos b − cos a 1. On a pour tout couple (a, b) de réels, A(a)A(b) et donc sin b − sin a b−a −−−−−−→ 2 A(a)A(b) = 2 − 2 cos (b − a) = 4 sin2 · 2 Ainsi, pour tout couple u, u vérifiant 0 u u 2p, u u −u u + 2 sin + 2 sin , f (u, u ) = 2 sin 2 2 2
u − u u u et sont des éléments de [0, p]. cela du fait que les trois réels , 2 2 2 2. Considérons l’ouvert V = u, u ∈ R2 | 0 < u < u < 2p . Les points critiques de la restriction de f à V sont les points (u, u ) vérifiant ⎧ ∂f u −u u ⎪ ⎪ (u, u − cos =0 ) = cos ⎪ ⎨ ∂u 2 2 ⎪ ⎪ ⎪ ⎩ ∂f (u, u ) = cos u + cos u − u = 0 ∂u 2 2 u u u u Ainsi, on a nécessairement cos = − cos , et donc = p + ± (mod 2p) et 2 2 2 2 u u puisque et sont des éléments de [0, p], 2 2 u u =p− · 2 2 u −u u = cos = cos (p − u). Ainsi, soit Par ailleurs, u doit vérifier la relation cos 2 2 u 2p 4p u = p − u (mod 2p) — c’est-à-dire u = (mod ) —, soit = u − p (mod 2p) 2 3 3 2 2p 4p — c’est-à-dire u = 2p (mod 4p) —. Ce dernier cas est exclu, donc , est 3 3 √ 2p 4p l’unique point critique de f sur l’ouvert V et f , = 3 3. Par ailleurs, si u = 0, 3 3 ou u = 2p ou bien encore si u = u , alors f u, u 4. Il s’ensuit que le maximum de
480
Solutions
7.
1. Il est clair que la restriction de f à R2 {(0, 0)} est de classe C 2 . Par ailleurs ∂f ∂f est définie en (0, 0) et (0, 0) = 0. pour tout réel x f (x, 0) = 0 ; on en déduit que ∂x ∂x ∂f De même (0, 0) = 0. Pour démontrer que f est de classe C 1 , il suffit maintenant de ∂x démontrer la continuité des applications dérivées partielles en (0, 0). Pour tout couple de réels (x, y), avec (x, y) = (0, 0), on a ∂f 4x2 y3 + x4 y − y5 (x, y) = 2 · ∂x x2 + y2 En notant (x, y) = (r cos u, r sin u), on obtient ∂f (x, y) = r 4 cos2 u sin3 u + cos4 u sin u − sin5 u 6r ∂x et donc pour tout couple de réels (x, y), on a
© Dunod – La photocopie non autorisée est un délit
∂f ∂f ∂f (x, y) − (0, 0) = (x, y) 6 ||(x, y)|| , ∂x ∂x ∂x ∂f en (0, 0). Puisque ce qui nous permet de conclure quant à la continuité de ∂x ∂f ∂f f (x, y) = −f (y, x), on a pour tout couple de réels (x, y), (x, y) = − (y, x). Il s’ensuit ∂y ∂x ∂f est également une fonction continue. que ∂y ∂2f ∂f (0, y) = −y et donc (0, 0) = −1. De même pour tout réel x, 2. Pour tout réel y, ∂x ∂y∂x 2 ∂f ∂ f (x, 0) = x et donc (0, 0) = 1. ∂y ∂x∂y ∂2f ∂2f (0, 0) = (0, 0), d’après le théorème de Schwarz, f n’est pas de classe 3. Puisque ∂x∂y ∂y∂x C2. 8. Soit f une fonction de classe C 2 quelconque, définie sur V. On définit sur V la fonction g par g(u, v) = f (u, uv). Par composition, g est de classe C 2 . La règle des chaînes, ainsi
481
SOLUTIONS
f , dont on a admit l’existence, est atteint en un point de V ; ce point est donc un point 2p 4p , . Ainsi, les triangles de critique. On en déduit que le maximum est atteint en 3 3 périmètre maximum inscrits dans un cercle sont les triangles équilatéraux.
Chapitre
5 – Fonctions de plusieurs variables
que le théorème de Schwarz s’appliquent donc et pour tout couple (u, v) élément de V, ∂f ∂f ∂g (u, v) = (u, uv) + v (u, uv) , ∂u ∂x ∂y ∂2g ∂2f ∂2f ∂2f (u, uv) + v2 2 (u, uv) · (u, v) = 2 (u, uv) + 2v 2 ∂u ∂x ∂x∂y ∂y Si f vérifie l’équation étudiée, on a pour tout (u, v) ∈ V u2
2 2 2 ∂2f 2 ∂ f 2∂ f 2∂ g (u, (u, (u, (u, v) = 0. uv) + (uv) uv) + 2u uv) = u v ∂x2 ∂x∂y ∂y2 ∂u2
Il s’ensuit qu’il existe nécessairement deux fonctions w et c définies sur R telles que pour tout (u, v) ∈ R2 , g(u, v) = w(v) + uc(v). La fonction g étant de classe C 2 , les fonctions w et c sont donc nécessairement de classe C 2 . Ainsi, pour tout (x, y) ∈ V f (x, y) = w
"y# x
+ xc
"y# x
.
On vérifie alors sans difficulté que toute fonction f : (x, y) → w
"y#
+ xc
"y#
, définie sur x x V, où w et c sont des fonctions de classe C quelconques, est une solution de l’équation. 2
9. Il est clair que m(X) = 0. Pour tout couple de réels (a, b), du fait que l’application m : Rn → R est manifestement linéaire, on a f (a, b) =
n " #2 yk − m(Y ) − a xk − m(X) − b + am(X) − m(Y ) k=1
2 = a2 s2 (X) − 2ag(X, Y ) + s2 (Y ) + b + am(X) − m(Y ) 2 = s2 Y − aX + b + am(X) − m(Y ) . Il s’ensuit que f (a, b) s2 Y − aX pour tout couple (a, b). Une brève étude de la fonction a → a2 s2 (X) − 2ag(X, Y ) + s2 (Y ) montre que le minimum de celle-ci est atteint uniqueg(X, Y ) · En effet, l’hypothèse que les abscisses ne sont pas toutes égales garantit que ment en 2 s (X) 2 s (X) = 0. Il s’ensuit que pour tout couple (a, b) ∈ R2 {(a0 , b0 )}, f (a, b) > f (a0 , b0 ), où a0 =
g(X, Y ) ; b0 = m(Y ) − a0 m(X). s2 (X)
➤ Remarque La droite de régression de Y en X d’un « nuage de points » est la droite D qui minimise la somme des carrés des distances des points Mi au points Mi , où Mi est le point de même abscisse que Mi sur la droite D.
482
Solutions
SOLUTIONS
Figure 12.1 Droite de régression
Enfin, voici une implémentation Scilab possible. function m = moyenne(x) m=0 ;n=length(x) : for k=1:n m=m+x(k) ; end m=m/n ; endfunction function coef = regression(x,y) mx=moyenne(x) ; my=moyenne(y) ; vx=moyenne((x-mx).^ 2) ; cov=moyenne((x-mx).*(y-my)) ; a=cov/vx ; coef=[a,my-a*mx] ; endfunction ➤ Remarque
© Dunod – La photocopie non autorisée est un délit
La fonction mean de Scilab calcule la moyenne des éléments d’un tableau. Il existes beaucoup d’autres fonctions statistiques telles que moment, cmoment (moments centrés à tout ordre), covar, etc. Rappelons simplement que ces fonctions ne sont pas autorisées au concours.
10.
1. Soit (x, y) ∈ R2 . Par définition x x y ∂P (u, v) dv du = P(u, y) − P(u, 0) du 0 0 ∂y 0
et de part le théorème de Fubini et de part le fait que la forme est fermée y x x y ∂P ∂P (u, v) dv du = (u, v) du dv 0 0 ∂y 0 0 ∂y y x ∂Q (u, v) du dv = 0 ∂x 0 y = Q(x, v) − Q(0, v) dv. 0
483
Chapitre
6 – Extension de la notion d’intégrale
2. Il est immédiat que pour tout (x, y) ∈ R2 ∂F (x, y) = Q(x, y). ∂y D’après la question précédente, pour tout (x, y) ∈ R2 , on peut exprimer F(x, y) sous la forme x y F(x, y) = P(u, y) du + Q(0, v) dv, 0
et donc
0
∂F (x, y) = P(x, y). ∂x
En d’autres termes dF = v.
Chapitre 6 1. Pour tout T ∈ [1, +∞[, T T T 1 1 1 √ dt Arcsin dt = t Arcsin + 2 t t 1 t −1 1 1 " # , p 1 = T Arcsin − + ln T + T 2 − 1 . T 2 T " # , 1 1 p 1 − Arcsin dt = ln T − T Arcsin + − ln T + T 2 − 1 . Donc t t 1 T -2 " # , 1 Or lim ln T + T 2 − 1 − ln T = lim ln 1 + 1 − 2 = ln 2. t→+∞ t→+∞ T +∞ T 1 1 p 1 1 − Arcsin dt = lim − Arcsin dt = − 1 − ln 2 Ainsi T→+∞ t t t t 2 1 1 ≈ −0, 122. 1 2. Posons In = (ln t)n dt. Grâce à une intégration par parties, on montre que pour tout 1.
0
n ∈ N∗ , In = −nIn−1 , on en déduit In = (−1)n n!. On peut aussi utiliser le changement de variable : u = − ln t, on a alors +∞ In = (−1)n un e−u du = (−1)n G(n + 1) = (−1)n n!. 0
ln t 3. La fonction f : t ∈ ]0, 1] → x est continue et négative. t * Si x = 1. Pour tout ´ ∈]0, 1[, 1 1 ' 1−x (1 1 −x t f (t) dt = ln t ´ − t dt. 1−x ´ ´ 1 1 1−x 1−x −´ (1 − ´ ) . ln ´ − = 1−x 1−x
484
Solutions
lim −´1−x ln ´ −
1 1 1−x (1 − ´ ) = − . ´→0 1−x 1−x 1 1−x 1−x - Si x > 1, −´ (1 − ´ ) n’a pas de limite lorsque ´ tend vers zéro. ln ´ − 1−x 1 1 ln t 1 2 dt = − (ln ´) , donc l’intégrale * Si x = 1, pour tout ´ > 0, on a f (t)dt t 2 ´ 0 diverge. 4. Pour tout T ∈ [0, +∞[, désignant la partie imaginaire d’un complexe, on a :
T
e−xt sin t dt =
T
e(−x+i)t dt
0
0 (i−x)T
−1 i−x 1 − e−xT (x sin T + cos T ) = · 1 + x2
=
e
1 − e−xT (x sin T + cos T ) a une limite lorsque T tend 1 +x2 +∞ 1 e−xt sin t dt = · vers l’infini si et seulement si x > 0, on a alors 1 + x2 0 La fonction F : T ∈ [0, +∞[→
2.
1. Pour tout x ∈ R, la fonction t ∈ ]0, +∞[ →
Arctan xt est continue et pour tout 1 + t2
Arctan xt p/2 , l’intégrale est donc convergente pour tout x ∈ R. 2 1+t 1 + t2 sin t est continue et lim f (t) = 1, 2. Pour tout x ∈ R, la fonction f : t ∈ ]0, +∞[ → e−xt t→0 t 1 sin t dt est donc convergente. e−xt l’intégrale t 0 +∞ sin t sin t e−xt , l’intégrale dt est donc absolument • Pour tout x > 0, e−xt e−xt t t 1 convergente. +∞ sin t dt est convergente. On en déduit que pour tout x > 0, l’intégrale e−xt t 0 +∞ sin t dt est convergente. • Si x = 0, on sait que t 0 T sin t dt. • Si x < 0, définissons la fonction F : T ∈ ]0, +∞[ → e−xt t 0 (n+1)p sin t dt. Considérons F((n + 1)p) − F(np) = e−xt t np
© Dunod – La photocopie non autorisée est un délit
t ∈ ]0, +∞[, on a
485
SOLUTIONS
- Si x < 1, on a
Chapitre
6 – Extension de la notion d’intégrale
On a
(n+1)p
e−xt
np
Or
p
0
e−xu
0
donc
(n+1)p
np
sin t dt = (−1)n e−xnp t
p
0
sin u 1 du u + np (n + 1)p
e−xt
sin t e−xnp dt t (n + 1)p
e−xu p
sin u du. u + np
e−xu sin u du,
0
p
e−xu sin u du,
0
e−xnp = +∞. x étant négatif, on a lim n→+∞ (n + 1)p +∞ sin t Si l’intégrale dt était convergente, on aurait e−xt t 1 +∞ sin t lim F(np) = dt = lim F (n + 1)p , e−xt n→+∞ n→+∞ t 1 donc lim F(np) − F((n + 1)p) = 0 ; l’intégrale est donc divergente. n→+∞
En résumé,
+∞
sin t dt est absolument convergente ; t 1 +∞ sin t dt est semi convergente ; e−xt Si x = 0, t 1 +∞ sin t dt est divergente. e−xt Si x < 0, t 1
Si x > 0,
e−xt
e−xt 3. Pour tout x ∈ R, la fonction f : t ∈ [0, +∞[→ est continue. 1 + t2 1 • Si x 0, pour tout t ∈ [0, +∞[, 0 f (t) , l’intégrale est donc convergente. 1 + t2 • Si x < 0, lim f (t) = +∞, l’intégrale diverge. 2
t→+∞
1 − cos tx −t 4. Pour tout x ∈ R, la fonction f : t ∈ ]0, +∞[ → e est continue, positive, et t2 1 2 1 − cos tx x = , l’intégrale f (t) dt est donc convergente. lim t→0 t2 2 0 +∞ f (t) dt est donc convergente , on en déduit Pour tout t 1, f (t) 2e−t , l’intégrale 1 +∞ 1 − cos tx −t e dt converge. que t2 0 1−t x t est continue, négative et 5. Pour tout x ∈ R la fonction f : t ∈ ]0, 1[ → 1 ln t 1−t = −1, donc lim f (t) = −1, et l’intégrale f (t) dt converge. lim t→1 ln t t→1 1 2
486
Solutions
f (t) dt converge et
1
f (t) dt converge. 0
0
1−t 1 = 0, il existe t0 tel que ∀t ∈ ]0, t0 [ , |f (t)| |x| · ln t t 12 1 Si |x| < 1, soit x > −1, l’intégrale f (t) dt converge donc l’intégrale f (t) dt 0 0 converge. 12 1 1 . Soit ´ > 0, on a dt = ln(ln 2) − ln(| ln ´|), or Si x = −1, f (t) ∼ o t ln t t ln t ´ lim ln(| ln ´|) = +∞, l’intégrale est donc divergente. ´→0 1 1 , donc l’intégrale diverge. Si x < −1, |x| t| ln t| t | ln t| En résumé, l’intégrale converge si et seulement si x > −1. ln t ln(1 − t) −x t est continue positive, 6. Pour tout x ∈ R, la fonction f : t ∈ ]0, 1[ → t ln t ln(1 − t) . Elle est continue et positive. Considérons la fonction g : t ∈ ]0, 1[ → t • Au voisinage de 1, on a g(t) ∼ − ln t ln(1 − t) ∼ (1 − t) ln(1 − t), donc lim f (t) = 0, 1 1 t→1 1 f (t) dt converge. l’intégrale • Si x < 0, lim
t→0
1/2
• Au voisinage de 0, on a g(t) ∼ − ln t et f (t) ∼ −t 0
1
−x
ln t, l’intégrale
1/2
f (t) dtconverge 0
si et seulement si x < 1. (On peut se référer à l’exercice 1, question 3.) L’ensemble des réels x tels que l’intégrale converge est donc la demi-droite ]−∞, 1[ .
© Dunod – La photocopie non autorisée est un délit
3.
1. On sait que pour tout u √ ∈ ]0, +∞[ , ln u u−1 ( la fonction ln est une fonction concave), donc pour tout t ∈ [0, n[, on a t2 t2 t2 − , (u = 1 − ) ln 1 − n n n t2
Ainsi en ln(1− n ) e−t , soit 2
et
t2 t2 t2 ln 1 + , (u = 1 + ). n n n
n t2 2 1− e−t , n
t2 ) 1 2 2 n et , soit e−t de même, e n · t2 1+ n √ 2. • Considérons le changement de variable t = n cos u. On a n p/2 √n √ t2 1− dt = n (sin u)2n+1 du. n 0 0 n ln(1+
487
SOLUTIONS
t→0
1 2
• Si x 0, lim f (t) = 0, l’intégrale
Chapitre
6 – Extension de la notion d’intégrale
√ • Considérons maintenant le changement de variable t = n tan u. −n √ 1 t2 = cos2n u et dt = n 2 du, On a 1 + n cos u √n p/4 2 −n √ t donc 1+ dt = n (cos u)2n−2 du. n 0 0 • On en déduit que p/2 √n √ 2 2n+1 n (sin u) du e−t dt 0
0
et que
√ n
e
√ dt n
−t2
0
2n−2
(cos u)
√ du n
0
0
lim
n→+∞
√ n
lim
n→+∞ +∞
e 0
−t2
(sin u)2n+1 du =
1√ p 2
(cos u)2n−2 du =
1√ p. 2
p/2
0
et
Par conséquent,
(cos u)2n−2 du.
(cos t)n dt,
0
p/2
p/2
(sin t)n dt =
On a donc
0
p/2
3. Pour tout n ∈ N,
4.
p/4
√ n
p/2 0
√
dt = lim
n→+∞
0
n
e−t dt = 2
1√ p· 2
x sin t dt par une intégration par 1. Soit (´, x) ∈ R2 ; 0 < ´ < x, calculons t ´ 1 1 parties en choisissant « u = , v = sin t ». On a alors u = − 2 , v = C − cos t, C étant t t une constante réelle que l’on choisira « au mieux ». On obtient x x x sin t C − cos t C − cos t dt = + dt· t t t2 ´ ´ ´ C − cos x C − cos ´ = 0, et la limite de lorsque ´ tend vers zéro x→+∞ x ´ 2 1 − cos ´ t /2 = lim = 0· existe si et seulement si C = 1, on a alors lim ´→0 ´→0 ´ t 1 − cos t La fonction f : t ∈ ]0, +∞[ → est continue et positive, elle possède une limite t 1 +∞ 1 − cos t dt 2 en zéro, donc dt converge, de plus f (t) , converge, donc 2 2 t t t2 0 1 +∞ 1 − cos t dt converge. t2 1
Pour tout C,
488
lim
Solutions +∞ x sin t sin t 1 − cos t dt = lim dt = 2. Ainsi dt ; en utilisant le change(´,x)→(0,+∞) t t t2 0 ´ 0 ment de variable t = 2u, on obtient +∞ 2 +∞ sin t sin t dt = dt· t t2 0 0
Dans tous les cas étudiés, la fonction f : t ∈ [e, +∞[→
(ln t)b est continue et positive. ta
(ln t)b = 0 et 1 + h > 1 On sait alors (voir intégrales t→+∞ th +∞ 1 dt converge. Il en résulte alors, des fonctions dites de Riemann) que l’intégrale 1+h t e +∞ (ln t)b dt converge. par comparaison, que ta e
1. Pour a > 1. Pour tout réel b, lim
2. Pour a < 1. Pour tout réel b, lim th (ln t)b = +∞, il existe donc A > 0 tel que pour tout t→∞ +∞ ∞ 1 (ln t)b 1 (ln t)b dt diverge, donc dt t > A, a (1−h) et 1−h < 1, l’intégrale t t t(1−h) ta e e diverge. 3. Supposons a = 1 T 1 (ln T)b+1 − 1 • Si b = −1, pour tout T ∈ [e, +∞[, (ln t)b dt = . t b+1 e Si b + 1 > 0, lim (ln T )b+1 = +∞, l int´egrale diverge; T→+∞
© Dunod – La photocopie non autorisée est un délit
Si b + 1 < 0, lim (ln T )b+1 = 0, l int´egrale converge. T→+∞ T 1 dt = ln(ln T )) et lim ln(ln T ) = +∞, • Si b = −1, pour tout T ∈ [e, +∞[, T→+∞ t ln t e l’intégrale est divergente. x cx −ct 1. En utilisant le changement de variable u = ct, on a e dt = e−u du, donc 6. ´ c´ x −t x −t cx −t c´ −t cx −t e − e−ct e e e e = dt − dt = dt − dt. t t t t t ´ ´ c´ ´ x cx −t e 2. Étudions la fonction : x ∈ [1, +∞[→ dt. t x +∞ −t e e−t e−t , l’intégrale dt est donc convergente, Pour tout t ∈ [1, +∞[, 0 t t 1 +∞ −t e dt. posons I = t 1 cx −t T −t e e dt, on a dt = F(cx) − F(x) et Soit F : T ∈ [1, +∞[→ t t 1 x cx −t e lim F(cx) = lim F(x) = I, donc lim dt = 0. x→+∞ x→+∞ x→+∞ x t
489
SOLUTIONS
5.
+∞
Chapitre
6 – Extension de la notion d’intégrale
3. Étudions maintenant la fonction : ´ ∈ ]0, 1] →
c´ −t
e
dt· c´ −t c´ e e 1 1 Au voisinage de 0, on a ∼ , nous allons comparer dt avec dt, pour t t ´ c´ −tt c´ ´ t c´ −t e e −1 1 cela, nous écrivons dt = dt + dt. t t t ´ ´ ´ 1 −t 1 −t e−t − 1 e −1 e −1 = −1, l’intégrale dt converge, posons J = dt, On a lim t→0 t t t 0 ´ −t c´ −t0 e −1 e1 dt = lim dt = J, on a lim ´→0 0 ´→0 t 0 c´ −tt e −1 donc lim dt = 0. ´→0 ´ +∞ −t c´ t 1 e − e−ct dt = ln c, ainsi dt = ln c. D’autre part t t ´ 0 4. Avec le changement de variable u = at, on obtient
t
´
−t
+∞ −at
e
0
− e−bt dt = t
0
+∞ −u
e
− e− a u du, u b
d’où le résultat. Arctan t Arctan t est continue et lim = 1, l’intégrale t→0 t t 1 Arctan t Arctan pt dt est donc convergente, de même que l’intégrale dt. t t 0 0 x px Arctan pt − Arctan t Arctan u Pour tout x ∈ ]0, +∞[ , dt = du. t u 0 x p Au voisinage de l’infini, on a Arctan u ∼ , 2 px px Arctan u − p Arctan u p px du 2 alors du = du + · u u 2 x u x x p Arctan u − p 1 2 ∼ − 1 et Pour tout u ∈ ]0, +∞[ , Arctan u − = − Arctan , donc +∞ 2 u u u2 px +∞ Arctan u − p2 Arctan u − p2 du converge, on a donc lim du = 0· x→+∞ x u u 1 +∞ px 1 Arctan pt − Arctan t p du = ln p, donc dt = ln p· D’autre part u t 2 x 0 La fonction : t ∈ ]0, 1] →
7. 1
8.
1. La fonction f : t ∈ ]0, 1[ → (− ln t)a (1 − t)b , f est continue et positive. • Au voisinage de 1, on a ln t ∼ t −1, donc f (t) ∼ (1 − t)a+b , on en déduit que converge si et seulement si a + b > −1
490
1
f (t) dt 1 2
Solutions
0
2. Utilisons le changement de variable u = − ln t. Pour tout (a, b) ∈ D, on a +∞ 1 f (t) dt = ua e−u (1 − e−u )b du. 0
0
On en déduit que, pour tout n ∈ N 1 (− ln t)a (1 − t)n dt = 0
+∞
ua e−u (1 − e−u )n du
0
Soit, en utilisant le binôme de Newton, +∞ 1 n n (− ln t)a (1 − t)n dt = (−1)k ua e−(k+1)u du. k 0 0 k=0 Avec le changement de variable v = (k + 1)u, on obtient 1 n a n (− ln t) (1 − t) dt = G(a + 1) (−1)k 0
k=0
3. Pour tout réel t ∈ [0, 1[,
n
1 0
− ln t dt = 1−t
1
(− ln t) 0
=−
n 1 k=0
© Dunod – La photocopie non autorisée est un délit
k
(1 + k)a+1
·
1 − tn+1 , on a donc : 1−t
tk =
k=0
n
0
n
1
tk dt +
k=0
tk ln t dt + 0
0 1
tn+1 (− ln t) dt· 1−t
tn+1 (− ln t) dt. 1−t
En utilisant une intégration par parties, on obtient 1 1 tk ln t dt = − . (k + 1)2 0 −t ln t est continue et lim g(t) = 0, lim g(t) = 1, g t→0 t→1 1−t 1 tn+1 (− ln t) dt M tn dt, donc 1−t 0
D’autre part la fonction g : t ∈ ]0, 1[ → est donc majorée sur ]0, 1],. Soit M = sup]0,1[ g(t), on a 0
1
0
1
0 0
et lim
n→+∞
0
1
tn+1 1 (− ln t) dt M 1−t n+1
tn+1 (− ln t) dt = 0. 1−t
491
SOLUTIONS
1 • Au voisinage de 0, f (t) ∼ (− ln t)a , pour tout a ∈ R, (− ln t)a = o( √ ), l’intégrale t 12 f (t) dt converge.
Chapitre
6 – Extension de la notion d’intégrale
1
Ainsi 0
1 − ln t dt = . 1−t n2 n=1 +∞
√ √ $ 1 1. Au voisinage de l’infini e−a n = o 2 , la série n∈N e−a n est donc convern gente. 2. Pour tout k ∈ N et pour tout t ∈ [k, k + 1], on a 9.
√ k+1
√
e−a √
e−a
e−a
k+1
√
e−a
t
√ t
k+1
e−a
k
; √ k
dt e−a
;
k n−1
e
√ −a k+1
n
√ t
e−a
dt
0
k=0
n−1
√ k
e−a
.
k=0
On a donc Sn (a) − 1 In Sn−1 (a) Sn (a).√ En utilisant le changement de variable u = a t,on obtient 2 In (a) = 2 a
√ a n
Par passage à la limite, on en déduit S(a) − 1 3. On sait que
+∞
ue−u du.
0
2 a2
+∞
ue−u du S(a).
0
ue−u du = G(2) = 1, donc
0
a2 (S(a) − 1) 2 a2 S(a) et lim a2 S(a) = 2, ainsi S(a) ∼
a→0
0
2 . a2
1. Considérons le changement de variable u = tan t, on sait que sin t = tan t cos t, u2 donc sin2 t = , 1 + u2 +∞ p2 dt du = · ainsi 2 sin2 t 1 + (1 + a2 )u2 1 + a 0 0 √ Posons v = 1 + a2 u, +∞ alors +∞ du dv 1 1 p =√ = √ . alors 2 )u2 2 2 1 + (1 + a 1 + v 2 1+a 0 1 + a2 0 p (n+1)p dt du = (changement de variable 2. Pour tout n ∈ N, 2 t u+np 1 + e sin t sin2 u np 0 1+e t = u + np.) 10.
492
Solutions p dt du . On en déduit 2 t np 1 + e sin t sin2 u np 0 1+e 3. On sait que pour tout u ∈ R, sin u = sin(p − u), on a donc
(n+1)p
p
0
du =2 np 1 + e sin2 u
p 2
du p =√ . 2 1+ sin u 1 + enp enp
0
p −n p Au voisinage de l’infini, √ ∼ pe 2 . 1 + enp p −n La série e 2 est une série géométrique n∈N
p 0
SOLUTIONS
convergente,
donc
la
série
n∈N
du converge. 1 + enp sin2 u
4. Il résulte de ce qui précède, que la série
(n+1)p
np
n∈N
dt converge. 1 + et sin2 t
T
dt , t sin2 t 1 + e 0 (k+1)p dt ,soit L cette limite. on a lim F(np) = n→+∞ 1 + et sin2 t k∈N kp Pour tout T ∈ [0, +∞[, il existe un entier n ∈ N tel que
Soit F : T ∈ [0, +∞[→
F(np) F(T) F((n + 1)p) L,
+∞
on en déduit que l’intégrale 0
© Dunod – La photocopie non autorisée est un délit
11.
1.
dt converge. 1 + et sin2 t
x y
4
e dxdy = D
y/2
x y
e dx
4
=
dy
−y
0
y(e1/2 − e−1 ) dy = 8(e1/2 − e−1 ).
0
2. La droite d’équation y = x rencontre la parabole d’équation y = −x2 aux points (0, 0) et (−1, −1). On a donc 0 −x2 √ √ y − x dxdy = y − x dy dx −1
D
=
2 3
x 0
−1
3/2
(−x − x2 )
dx
493
Chapitre
6 – Extension de la notion d’intégrale
soit, avec u = −x
√
D
2 3
y − x dxdy =
1
(u − u2 )3/2 du. 0
Posons alors 2u − 1 = cos v, avec u = 0 pour v = p et u = 1 pour v = 0. sin2 v , ce qui conduit à (attention aux bornes) On a alors u − u2 = 4
1
(u − u2 )3/2 du =
0
1 16
p
sin4 (v)dv. 0
1 iv 1 (e − e−iv )4 = (cos(4v) − 4 cos(2v) + 3), d’où, après calcul, Or sin4 (v) = 16 8 p 3 sin4 (v)dv = p et 8 0 √ p y − x dxdy = . 64 D 1 1−x )) 3. On a D ln(1 + x + y) dxdy = ln(1 + x + y)dy dx. 0 0 1−x ln(1 + x + y)dy Calculons F(x) = 0 2 ln v dv En posant v = 1 + x + y, on obtient F(x) = 1+x
C’est à dire F(x) = [v(ln v − 1)]21+x = 2(ln 2 − 1) − (1 + x)(ln(1 + x) − 1), Avec un changement de variable et une intégration par parties, on obtient sans peine
1
(1 + x)(ln(1 + x) − 1) dx =
12 t(ln t − 1) dt = 2(ln 2 − 1) −
0
ln(1 + x + y) dxdy =
ainsi D
12. 1.
1 · 4
Dans cet exercice, les calculs d’intégrales doubles utilisent les coordonnées polaires. p 2 sin u 2 (x + y) dxdy = (cos u + sin u) r dr du D
0
0 p
8 sin3 u(cos u + sin u) du 3 0 8 p 4 = sin u du 3 0 = p. =
494
1 4
Solutions 2. D
p 2
2
r dr p 4
= =
2 cos u 0
8 3
8 3
du
SOLUTIONS
, x2 + y2 dxdy =
p 2
cos3 u du
p 4 p 2 p 4
(1 − sin2 u) cos u du
5√ 8 2 ( − 2) 3 3 12 √ 1 = (16 − 10 2). 9 3. On remarque que D = (x, y) ∈ R2 ; 0 x 3, 0 y 3, y x , donc =
,
x2
+
y2
p 4
3 cos u
dxdy =
D
2
r dr 0
p 4
1 du cos3 u
=9
du
0
0 1 √
du (sin u = u) (1 − u2 )2 0 √1 2 1 1 1 1 + du =9 + + (1 + u)2 1 + u (1 − u)2 1 − u 0 √ # 9 "√ = 2 + ln(1 + 2) ≈ 10, 33. 2 =9
2
4. On a
© Dunod – La photocopie non autorisée est un délit
D
p 2
cos(x2 + y2 ) dxdy =
2
r cos(r 2 ) dr =
du 0
0
p sin 4 ≈ −0, 59. 4
1. Soient C1 le cercle d’équation x2 + y2 = 1,√ et C2 le cercle d’équation √ 3 3 1 1 , ) et (− , ). x2 + y2 − 2y = 0, ces deux cercles se coupent aux points ( 2 2 2 2 D est symétrique par rapport à l’axe des ordonnées, on a donc
13.
A(D) =
p 2
dxdy = 2 D
2 sin u
r dr p 6
du
1
c’est-à-dire, tout calcul fait p
A(D) = [u − sin 2u] p2 = 6
√ 3 p + · 3 2
495
Chapitre
6 – Extension de la notion d’intégrale
2. En utilisant les coordonnées polaires, l’inégalité x2 + y2 a donc p √ dxdy = D
xy s’écrit r
sin u cos u
2
A(D) =
√
rdr 0
du =
√
sin u cos u, on
p 2
sin 2udu = 0
0
1 . 4
. / )) , 3. Soit D = (x, y); x2 + y2 − ax 0 . On a V = D a2 − (x2 + y2 )dxdy. En utilisant les coordonnées polaires V=
p 2
− p2
a cos u
, r a2 − r 2 dr
0
2 du = a3 3
0
p 2
2a3 (1 − sin u)du = 3 3
p 2 − 2 3
.
14. La fonction f : (x, y) ∈ [0, +∞[×[0, +∞[→ e−(x+y) (x + y)2 est continue et positive. Pour tous x 0, Y > 0,
Y
e−(x+y) (x + y)2 dy =
0
x+Y
% &x+Y e−u u2 du = − e−u (u2 + 2u + 2 . x
x
+∞
e−(x+y) (x + y)2 dy = e−x (x2 + 2x + 2). On a donc pour tout x 0, 0 +∞ e−x (x2 + 2x + 2) dx converge, de plus L’intégrale 0
+∞
e−x (x2 + 2x + 2) dx = G(3) + 2G(2) + 2G(1) = 6.
0
15.
1. La fonction f : (x, y) ∈ ]0, +∞[ × ]0, +∞[ →
1 est continue et (1 + x)(1 + xy2 )
positive.
+∞
1 1 p . dy = √ 2 1 + xy x2 0 +∞ dx √ . Considérons alors x(1 + x) 0 +∞ +∞ dx du √ =2 On pose x = u2 et l’on a = p. x(1 + x) 1 + u2 0 0 )) 1 p2 dxdy = . Ainsi ]0,+∞[×]0,+∞[ 2 (1 + x)(1 + xy ) 2 Pour tout x > 0,
On peut aussi remarquer que, pour tout y = 1, 1 1 y2 1 = − . (1 + x)(1 + xy2 ) 1 − y2 1 + x 1 + xy2
496
Solutions
+∞
0
1
Si y = 1, 0
SOLUTIONS
On a ainsi :
+∞
y2 1 − ) dx 1 + x 1 + xy2 0 +∞ 1+x 1 ln = 1 − y2 1 + xy2 0 ln y = −2 1 − y2
1 1 dx = 2 (1 + x)(1 + xy ) 1 − y2
(
1 ln y dx = 1, or lim −2 = 1, on a donc y→1 (1 + x)2 1 − y2 +∞ dxdy ln y = −2 dy· 2 1 − y2 ]0,+∞[×]0,+∞[ (1 + x)(1 + xy ) 0
+∞ 1 ln y ln y ln y dy + dy, considérons dy, et 2 2 2 1−y 0 0 1−y 1 0 1−y 1 faisons le changement de variable t = , on obtient y 1 +∞ 1 ln y ln t −1 ln t dy = dt = dt, 1 t2 2 1 − y 1 − t2 1 − 0 1 0 t2 +∞
2. On a
on en déduit
ln y dy = 1 − y2
1
dxdy = −4 2 ]0,+∞[×]0,+∞[ (1 + x)(1 + xy ) 1 ln t p2 dt = − · 2 8 0 1−t
1 0
ln t dt· 1 − t2
16. 1. On a e−(x +y ) x2p−1 y2q−1 = e−x x2p−1 e−y y2q−1 et donc +∞ 2 2 2 e−(x +y ) x2p−1 y2q−1 dxdy = e−x x2p−1 dx 2
© Dunod – La photocopie non autorisée est un délit
]0,+∞[×]0,+∞[
2
2
2
0
+∞
e−y y2q−1 dy 2
0
Avec le changement de variable t = x2 , on obtient +∞ 2 1 +∞ −t p−1 e−x x2p−1 dx = e t dt· 2 0 0 +∞ e−t tp−1 dt converge et l’on sait que Comme p > 0, l’intégrale 0 +∞ e−t tp−1 dt = G(p). 0 +∞ 2 e−y y2q−1 dy = G(q). De même 0
497
Chapitre
7 – Espaces probabilisés
e−(x +y ) x2p−1 y2q−1 dxdy est donc convergente et de plus 2
L’intégrale
2
]0,+∞[×]0,+∞[
e−(x +y ) x2p−1 y2q−1 dxdy = 2
2
]0,+∞[×]0,+∞[
1 G(p)G(q). 4
2. Par passage en coordonnées polaires on a : 2 2 e−(x +y ) x2p−1 y2q−1 dxdy ]0,+∞[×]0,+∞[ 2 e−r (r cos u)2p−1 (r sin u)2q−1 rdrdu = p ]0, 2 [×]0,+∞[ +∞ p2 2 2p−1 2q−1 (cos u) (sin u) du e−r r 2p+2q−1 dr = 0
1 = G(p + q) 2
0
p 2
(cos u)2p−1 (sin u)2q−1 du.
0
3. Avec le changement de variable u = cos2 u, on obtient p2 1 (cos u)2p−1 (sin u)2q−1 du = B(p, q), 2 0 d’où le résultat.
Chapitre 7 1. On calcule la probabilité p1 de gagner si le joueur ne change pas son changer et la probabilité p2 de gagner s’il change son choix. On note G l’événement « il gagne » et C l’événement « il a choisi initialement la bonne porte ». En appliquant la formule des probabilités ¯ on obtient avec la première stratégie totales avec le système complet d’événements (C, C), ¯ C) ¯ =1· p1 = P(G) = P(G/C)P(C) + P(G/C)P(
2 1 1 +0· = 3 3 3
et avec la seconde stratégie ¯ C) ¯ = 0 · 1 + 1 · 2 = 2· p2 = P(G) = P(G/C)P(C) + P(G/C)P( 3 3 3 Il vaut mieux que le joueur change son choix. 2.
1. On suppose que l’urne contient initialement a boules blanches et b boules noires et que i 2. Notons B l’événement « on obtient une boule blanche au premier tirage » et Bi l’événement « on obtient une boule blanche au i-ième tirage ». En appliquant la ¯ on obtient formule des probabilités totales avec le système complet d’événements (B, B), ¯ B). ¯ pi (a, b) = P(Bi ) = P(Bi /B)P(B) + P(Bi /B)P(
498
Solutions
pi (a, b) =
a b pi−1 (a + c, b) + pi−1 (a, b + c). a+b a+b
2. Montrons que pi (a, b) est indépendant de i, c’est-à-dire que, pour tout i 1, on a, pour a · tout (a, b) ∈ (N∗ )2 , pi (a, b) = p1 (a, b) = a+b C’est vrai pour i = 1 et si on suppose que c’est vrai au rang i − 1 (i 2), on obtient pour tout (a, b) ∈ (N∗ )2 , pi (a, b) = = =
3.
a b pi−1 (a + c, b) + pi−1 (a, b + c) a+b a+b a+c b a a + a+ba+b+c a+ba+b+c a(a + c + b) a = · (a + b)(a + b + c) a+b
1. Pour n 1, soit An l’événement « il ne subsiste aucune erreur au bout de n relectures » et, pour 1 i 4, Ain l’événement « la i-ième erreur a été corrigée pendant les n premières relectures ». On a An = A1n ∩ A2n ∩ A3n ∩ A4n . Comme Ain est l’événement « lai-ième n erreur n’a pas été corrigée n pendant les n premières relectures », " # 2 2 et donc P(Ain ) = 1 − . Les corrections des différentes erreurs on a P Ain = 3 3 n 4 2 étant indépendantes les une des autres, on obtient P(An ) = 1 − . On veut 3 n 2 2 1 1 − (0, 9) 4 . En prenant le logarithme, on obtient car ln < 0, P(An ) 0, 9 soit 3 3 " #
© Dunod – La photocopie non autorisée est un délit
1
n
ln 1 − (0, 9) 4
. On trouve n 9, 0015 et donc n 10. ln 23 2. On note toujours An l’événement « il ne subsiste aucune erreur au bout de n relectures » 1 et Bi l’événement « il y a i erreurs » (0 i 4). On a, pour tout i, P(Bi ) = · Comme 5 (Bi )0i4 est un système complet d’événements, on obtient en appliquant la formule des probabilités totales P(An ) =
4 i=0
1 P(An /Bi )P(Bi ) = P(An /Bi ). 5 i=0 4
Le calcul de P(An /B4 ) a été effectué dans la première question. On a donc P(An /B4 ) =
n 4 2 1− 3
499
SOLUTIONS
a ¯ = b et d’autre part, P(Bi /B) = pi−1 (a + c, b), , P(B) On a clairement P(B) = a+b a+b car après le tirage d’une boule blanche, l’urne contient a + c boules blanches et b boules noires et il reste i − 1 tirages à effectuer pour atteindre le i-ième. On obtient de même, ¯ = pi−1 (a, b + c). D’où l’égalité P(Bi /B)
Chapitre
7 – Espaces probabilisés
n i 2 1− . On obtient 3 n 5 2 n i 1− 1− 4 4 2 1 1 1 3 n 1− P(An /Bi ) = = · P(An ) = 5 i=0 5 i=0 3 5 2 3 On a évidemment P(A10 ) 0, 9, d’après la première question. On trouve P(A7 ) ≈ 0, 89 et P(A8 ) ≈ 0, 92. Il faut donc n 8.
et la même méthode conduit à P(An /Bi ) =
4.
1. Pour tout n ∈ N, notons An l’événement « le parapluie est disponible après n trajets ». On a donc pn = P(An ) et qn = P(An ). Pour tout n ∈ N, on applique la formule des probabilités totales avec le système complet d’événements (An , An ). On obtient pn+1 = P(An+1 ) = P(An+1 /An )P(An ) + P(An+1 /An )P(An ). On a P(An+1 /An ) = p. En effet, si le parapluie était dans le lieu où se trouvait le banquier et qu’il est encore après le n + 1-ième déplacement, c’est que le banquier l’a emporté et donc qu’il pleut. On a P(An+1 /An ) = 1, car si le banquier n’a pas avec lui son parapluie, il ne l’emporte pas avec lui et ainsi il le retrouve à l’issue du n + 1-ième déplacement. Finalement, on obtient pn+1 = p pn + qn . On a de même qn+1 = P(An+1 ) = P(An+1 /An )P(An ) + P(An+1 /An )P(An ). On trouve P(An+1 /An ) = 1 − P(An+1 /An ) = 1 − p = q et P(An+1 /An ) = 1 − P(An+1 /An ) = 0 et donc qn+1 = qpn . pn p 1 pn+1 =S , où S = . On obtient donc q 0 qn+1 qn
2. On cherche les valeurs propres de S. Soit l ∈ R. On a p−l 1 q −l q rg(S − lI2 ) = rg = rg = rg q −l p−l 1 0
−l . q + l(p − l)
Ainsi l valeur propre de S si et seulement si rg(S − lI2 ) < 2, i.e. q + l(p − l) = −l2 + pl + q = 0 : 1 est solution de l’équation ; l’autre est −q (c’est le produit des racines). La matrice S possède deux valeurs propres distinctes, 1 0 donc elle est diagonalisable. Il existe P matrice inversible telle que S = P p − 1. 0 −q 1 0 p − 1. On en déduit que Sn = P 0 (−q)n 3. De la relation de récurrence, on déduit pour tout entier naturel n, p 1 0 pn −1 p0 = Sn 0 = P P . 0 (−q)n qn q0 q0
500
Solutions
Comme pn + qn = 1 pour tout entier n, on a par passage à la limite p∞ + q∞ = 1. On en 1 1 q , puis p∞ = et q∞ = · déduit c = 1+q 1+q 1+q
© Dunod – La photocopie non autorisée est un délit
5.
1. On note, pour n ∈ N, An (resp. Bn , resp. Cn ) l’événement « l’enfant se trouve en A (resp. en B, resp. en C) après le n-ième saut ». On applique la formule de probabilités totales avec le système complet d’événements (An , Bn , Cn ). On a an+1
= P(An+1 ) = P(An+1 /An )P(An ) + P(An+1 /Bn )P(Bn ) + P(An+1 /Cn )P(Cn ) 1 1 a n + b n + cn , = 3 3
bn+1
= P(Bn+1 ) = P(Bn+1 /An )P(An ) + P(Bn+1 /Bn )P(Bn ) + P(Bn+1 /Cn )P(Cn ) 1 1 an + bn , = 3 3
cn+1
= P(Cn+1 ) = P(Cn+1 /An )P(An ) + P(Cn+1 /Bn )P(Bn ) + P(Cn+1 /Cn )P(Cn ) 1 1 an + bn . = 3 3
On obtient Xn+1 = AXn , où
⎞ 1 1 ⎟ ⎜3 3 ⎟ ⎜ ⎟ ⎜1 1 A=⎜ 0⎟ . ⎟ ⎜3 3 ⎠ ⎝ 1 1 0 3 3 Une récurrence immédiate montre que, pour tout n ∈ N, Xn = An X0 . ⎛1
501
SOLUTIONS
Comme P, p0 et q0 ne dépendent pas de n, pn et qn sont des fonctions affines de (−q)n . Comme ((−q)n ) converge vers 0, on en déduit que les suites (pn ) et (qn ) convergent. On note p∞ et q∞ leur limite. En faisant tendre n vers +∞, on obtient 1 0 p∞ −1 p0 =P P . 0 0 q∞ q0 1 0 a 0 a On a P = , où est la première colonne de P. Cette colonne contient 0 0 b 0 b p−1 1 −q 1 un vecteur propre pour la valeur propre 1. On a S−I2 = = et q −1 q −1 x 0 (S − I2 ) = y 0 c −1 p0 = . si, et seulement si, y = qx. On peut prendre a = 1 et b = q. On pose P d q0 On obtient p∞ 1 0 c c = = q 0 d qc q∞
Chapitre
7 – Espaces probabilisés
1 2. Montrons que 0, − , 1 sont valeurs propres de A et cherchons les valeurs propres corres3 pondantes. x 0 On a A y = 0 si et seulement si x + y = 0 et z = 0. Ainsi 0 est valeur propre de A z 0 et KerA = Vect(1, −1, 0). x 0 2x + y + 3z = 0 1 x + 2y + =0 , De même, on a (A+ I3 ) y = 0 si et seulement si 3 z 0 x + y + z =0 1 ce qui équivaut à x = −2y et z = y. Ainsi − est valeur propre de A et 3 1 Ker(A + I3 ) = Vect(−2, 1, 1). 3 x 0 −2x + y + 3z = 0 x − 2y = 0 et donc à Enfin (A − I3 ) y = 0 équivaut à z 0 x + y − 3z = 0 x = 2y et z = y. Cela montre que 1 est valeur propre de A et Ker(A − I3 ) = Vect(2, 1, 1). Ainsi, A qui possède trois valeurs propres distinctes est diagonalisable. Une matrice de pas 1 −2 2 3 1 1 . sage de la base canonique de R à une base de vecteurs propres est P = −1 0 1 1 x x On cherche P −1 . On résout pour cela le système P y = y d’inconnue (x, y, z). z z On obtient x − 2y + 2z = x −x + y + z = y y + z = z On en déduit x +y +z = 4z, donc z = et enfin −y + z = x. On obtient
1 1 (x +y +z ), puis y = z −z = (−x −y +3z ), 4 4
⎛
P −1 ⎛
0
0 ⎜0 − 1 On a A = P ⎝ 3 0 0 ⎛
0
⎞
502
−1 1 − 4 1 4
⎞ 1 3⎟ ⎟ 4⎟ . 1⎠ 4
0⎟ ⎠ P −1 et donc 1
0 0 n 1 ⎜ Xn = A X0 = P ⎝0 − 3 0 0 n
0 ⎜ 1 ⎜− =⎜ 4 ⎝ 1 4
⎛ 0 ⎞ 0 ⎜ ⎜ a0 ⎜ ⎟ 0⎠ P −1 b0 = ⎜ ⎜0 ⎜ c0 ⎝ 1 0
n 1 −2 − 3 n 1 − 3 n 1 − 3
⎞ 2⎟ ⎛−b + c ⎞ 0 0 ⎟ ⎟ ⎜− 1 + c ⎟ ⎜ 0⎟ , 1⎟ ⎟⎝ 4 ⎠ 1 ⎟ ⎠ 4 1
Solutions
6.
1. a. On effectue une suite de lancers du dé. Les résultats sont indépendants. Pour 1 i ∈ N∗ , notons Si l’événement « on tire un six au i-ième tirage ». On a P(Si ) = et 6 5 ∗ P(Si ) = · Il est clair que, pour k ∈ N , 6 Ak = S1 ∩ . . . ∩ Sk−1 ∩ Sk et par indépendance des événements,
k−1 1 5 P(Ak ) = P(S1 ) × . . . × P(Sk−1 )P(Sk ) = · 6 6
On obtient +∞
∞
1 P(Ak ) = 6 k=1 k=1
k−1 ∞ j 5 1 5 1 1 = = 6 6 j=0 6 61−
5 6
= 1,
car on reconnaît la somme d’une série géométrique. b. Notons Bk l’événement « on a obtenu le premier six au plus tard au k-ième lancer ». Il est plus simple de considérer l’événement contraire Bk « on n’a pas obtenu de six 3 3 5 5 pendant les k premiers lancers ». On obtient P(B3 ) = et P(B3 ) = 1 − . 6 6 k k 5 5 c. On a de même P(Bk ) = et P(Bk ) = 1 − . 6 6 P(Bk ∩ B2k ) . L’événement Bk ∩ B2k est réalisé si on n’a pas P(B2k ) obtenu de six pendant les k premiers lancers et si on en obtient (au moins) un pendant les k suivants, i.e. Bk ∩ B2k = Bk ∩ Ck , où Ck est l’événement « on a obtenu au moins k 5 un six entre le (k + 1)-ième et le 2k-ième lancer du dé ». On obtient P(Ck ) = 6 k 5 et P(Ck ) = 1 − = P(Bk ). Les événements Bk et Ck sont indépendants car les 6 résultats des tirages (k + 1) à 2k sont indépendants des résultats des k premiers tirages. On obtient P(Bk ∩ B2k ) = P(Bk )P(Ck ) et k k k 5 5 5 1− 6 6 P(Bk )P(Ck ) 6 = P(Bk /B2k ) = = 2k k · P(B2k ) 5 5 1− 1+ 6 6
© Dunod – La photocopie non autorisée est un délit
d. On cherche P(Bk /B2k ) =
503
SOLUTIONS
car a0 + b0 + c0 = 1. Finalement on obtient n 1 1 1 − 2c0 − + an = 2 3 2 n 1 1 1 bn = cn = − + c0 − + · 4 3 4
Chapitre
7 – Espaces probabilisés
2. a. Si les k − 1 premiers lancers n’ont pas donné de six, l’urne contient une boule blanche et k − 1 boules rouges avant qu’on ne lance le dé pour la k-ième fois. k−1 1 1 5 · b. On en déduit P(B ∩ Ak ) = P(B/Ak )P(Ak ) = k 6 6 n xk c. Soit n ∈ N∗ et considérons la fonction fn définie sur [0, 1[ par fn (x) = · La k k=1 fonction fn est dérivable sur [0, 1[ et fn (x) =
n k=1
xk−1 =
1 − xn · 1−x
Comme fn (0) = 0, on en déduit, pour tout x ∈ [0, 1[, x x 1 − tn dt. fn (t) dt = fn (x) = 0 0 1−t x n x n x 1 t t On en déduit que fn (x) = dt − dt = − ln(1 − x) − dt. On 0 1−t 0 1−t 0 1−t n n t t . On en déduit a, pour tout t ∈ [0, x], 1 − t 1 − x > 0 et donc 1−t 1−x x n x n t t dt dt. 0 1 − t 1 − x 0 0 x n x n t t xn+1 dt = , on a lim dt = 0 et a fortiori Comme n→+∞ 0 1 − x (n + 1)(1 − x) x 0 n1 − x t lim dt = 0. On en déduit que lim fn (x) = − ln(1 − x). Ainsi la série de n→+∞ 0 1 − x n→+∞ xk terme général converge, puisque la somme partielle fn (x) a une limite finie en +∞ k et +∞ k x = − ln(1 − x). k k=1 d. Notons A la réunion des événements Ak . Comme ces événements sont incompatibles, +∞ P(Ak ) = 1 d’après la question 1. On en déduit que P(B) = P(B ∩ A) on a P(A) = k=1
car P(B ∩ A) P(A) 0 et donc k−1 k +∞ +∞ 1 5 1 11 5 = P(B) = P(B ∩ Ak ) = . k 6 6 5 k=1 k 6 k=1 k=1 +∞
On trouve, en appliquant le résultat de la question précédente, 5 1 1 ln 6 1 = − ln = · P(B) = − ln 1 − 5 6 5 6 5
504
Solutions
n=1
n=1
En reconnaissant la somme d’une série géométrique, on obtient +∞ ! 2 1 1 En = P 13 · 9 = 5 · 1 − 18 n=1
© Dunod – La photocopie non autorisée est un délit
3. Notons Fk l’événement «une somme de 7 apparaît au k-ième double lancer et sur les k − 1 premiers lancers ni la somme de 5 ni celle de 7 n’apparaît» et Ck l’événement «la somme de 7 apparaît au k-ième double lancer». On a alors Fn = A1 ∩ · · · ∩ An−1 ∩ Cn et, par indépendance des lancers, n−1 1 13 P(Fn ) = P(A1 ) · · · P(An−1 )P(Cn ) = . 18 6 Par incompatibilité des événements Fn , +∞ +∞ ! 3 1 1 P Fn = P(Fn ) = 13 · 6 = 5 · 1 − 18 n n=1 4. Les événements «le jeu s’arrête sur une somme de 5», «le jeu s’arrête sur une somme de 7» et «le jeu ne s’arrête pas» forment un système complet d’événements. Donc la somme des probabilités de ces trois événements est égale à 1. Ainsi la probabilité que le jeu ne s’arrête pas est nulle. 8.
1. On note En l’événement « An joue » et Gn l’événement « An gagne le tournoi ». 1 On a P(Gn /En ) = , car si An entre dans la partie, il doit gagner trois parties de suite pour 8 être déclaré vainqueur. On en déduit
1 qn . 8 2. Les quatre premiers joueurs sont sûrs de jouer car le tournoi comporte au moins trois parties. pn = P(Gn ) = P(Gn /En )P(En ) =
505
SOLUTIONS
7. Si on lance deux dés, un résultat est un couple (i, j) ∈ [[1, 6]]2 . Il y a donc 36 résultats possibles, équiprobables. Il y a quatre couples qui donnent une somme de 5 (les couples (i, 5 − i), avec 1 i 4) et six couples qui donnent une somme de 7 (les couples (i, 7 − i), 4 1 avec 1 i 6). La probabilité que la somme soit 5 est donc = , celle que la somme 36 9 1 6 4 13 6 = , la probabilité qu’elle ne soit ni 5 ni 7 est 1 − − = · soit 7 est 36 6 36 36 18 1. Notons Ak l’événement «au k-ième double lancer, ni la somme de 5 ni celle de 7 n’apparaît» et Bk l’événement «la somme de 5 apparaît au k-ième double lancer ». On a alors En = A1 ∩ · · · ∩ An−1 ∩ Bn . Comme les lancers sont supposés indépendants n−1 1 13 P(En ) = P(A1 ) · · · P(An−1 )P(Bn ) = · 18 9 +∞ ! 2. Il s’agit de calculer P En . Par incompatibilité des événements En , n=1 +∞ +∞ 0 $ En = P(En ). P
Chapitre
7 – Espaces probabilisés
Soit n 5. Quand An entre dans la partie c’est contre An−2 ou An−1 . En effet, un joueur Ak , k n − 3 pour jouer contre An devrait avoir gagné la partie par laquelle il est entré dans le jeu, puis avoir vaincu An−2 et An−1 ; il aurait donc gagné le tournoi. Notons En1 « An entre dans la partie en jouant contre An−1 » et En2 « An entre dans la partie en jouant contre An−2 ». Pour que l’événement En1 soit réalisé, il faut que An−1 entre dans la partie et qu’il gagne sa première partie. Alors sa deuxième partie sera jouée avec An . On a donc P(En1 ) = P(En1 /En−1 )P(En−1 ) =
1 qn−1 . 2
De même, l’événement En2 est réalisé si An−2 entre dans la partie et s’il gagne ses deux premières parties (la deuxième contre An−1 ). On a donc P(En2 ) = P(En2 /En−2 )P(En−2 ) =
1 qn−2 . 4
On obtient enfin qn = P(En ) = P(En1 ) + P(En2 ) =
1 1 qn−1 + qn−2 . 2 4
3. La suite (qn )n3 est une suite vérifiant une relation de récurrence linéaire sur deux termes. 1 1 L’équation caractéristique est x2 = x + , i.e. 4x2 − 2x − 1 = 0 donc les solutions sont 2 4 √ √ 1+ 5 1− 5 et x2 = . Le calcul de qn est rendu pénible par le fait que les premiers x1 = 4 4 termes de cette suite récurrente sont q3 et q4 . Pour pallier à cette difficulté, considérons la suite (qn )n∈N vérifiant, pour tout n ∈ N, qn =
1 1 qn−1 + qn−2 2 4
et telle que qn = qn pour n 3. Ceci détermine les premiers termes de manière unique. On doit avoir q2 = 4q4 − 2q3 = 4q4 − 2q3 = 2, q1 = 4q3 − 2q2 = 4q3 − 2q2 = 0 et q0 = 4q2 − 2q1 = 8. Il existe (a, b) ∈ R2 tel que, pour tout n ∈ N, qn = axn1 + bxn2 . On obtient ⎧ ⎨ 8 = q0 = a + b √ a + b (a − b) 5 ⎩ 0 = q1 = ax1 + bx2 = + · 4 4 D’où le système
⎧ ⎨ a+b=8
8 ⎩ a − b = −√ , 5 qui donne √ √ 4 4( 5 − 1) 4 4(1 + 5) √ √ a=4− √ = et b = 4 + √ = · 5 5 5 5
506
Solutions
SOLUTIONS
On obtient, pour tout n 3, √ n √ n √ √ 4( 5 − 1) 1 + 5 4(1 + 5) 1 − 5 √ √ + qn = qn = 4 4 5 5 √ n−1 √ n−1 1+ 5 4 1− 5 . = √ − 4 4 5 D’autre part q1 = q2 = 1. On en déduit que, pour n 3, √ n−1 √ n−1 1+ 5 1 1 1− 5 pn = qn = √ − 8 4 4 2 5 1 et p1 = p2 = · 8 9.
Pour tout k ∈ N∗ , on note Pk l’événement « le k-ième lancer donne pile ».
1. a. On a x1 = P(P1 ) = p, y1 = P(P1 ) = q, u1 = P(P1 ∩P2 ) = p2 , x2 = P(P1 ∩P2 ) = pq, y2 = P(P2 ) = q (car si le deuxième lancer est face, on est sûr de ne pas avoir deux piles). Ensuite u2 = P(P1 ∩ P2 ∩ P3 ) = qp2 , x3 = P(P2 ∩ P3 ) = qp (si le troisième lancer est un pile, il faut que le précédent soit face pour ne pas avoir deux piles consécutifs et le résultat du premier lancer peut être quelconque) et y3 = P(P1 ∩ P2 ∩ P3 ) = (1 − p2 )q (si le troisième lancer est un face, il suffit de ne pas avoir deux piles aux deux premiers lancers pour que B3 soit réalisé). b. On a, pour tout n 1, Un = An ∩ Pn+1 . On en déduit
© Dunod – La photocopie non autorisée est un délit
un = P(An ∩ Pn+1 ) = P(An )P(Pn+1 ) = xn p, car le résultat du n-ième lancer est indépendant des résultats des n premiers lancers. c. Soit n 1. Si l’événement An est réalisé et si le (n + 1)-ième lancer est pile, alors obtient deux piles consécutifs et An+1 ne peut être réalisé. Par contre Bn+1 est réalisé si le (n + 1)-ième lancer donne face. On a donc P(An+1 /An ) = 0 et P(Bn+1 /An ) = q. Si Bn est réalisé, An+1 est réalisé si le (n + 1)-ième lancer donne pile et Bn+1 réalisé si le (n + 1)-ième lancer donne face. On a donc P(An+1 /Bn ) = p et P(Bn+1 /Bn ) = q. d. On remarque que si An+1 ou Bn+1 est réalisé, on n’a pas deux piles consécutifs dans les n-premiers lancers donc An ou Bn est réalisé. On a donc An+1 = (An+1 ∩ An ) ∪ ((An+1 ∩ Bn ) et Bn+1 = (Bn+1 ∩ An ) ∪ (Bn+1 ∩ Bn ). On en déduit xn+1
= P(An+1 ) = P(An+1 ∩ An ) + P((An+1 ∩ Bn ) = P(An+1 /An )P(An ) + P((An+1 /Bn )P(Bn ) = 0xn + pyn = pyn .
On obtient de même yn+1
= P(Bn+1 ) = P(Bn+1 ∩ An ) + P((Bn+1 ∩ Bn ) = P(Bn+1 /An )P(An ) + P((Bn+1 /Bn )P(Bn ) = qxn + qyn .
507
Chapitre
7 – Espaces probabilisés
2. a. Pour n 2, on a
1 1 1 1 xn + yn = yn−1 + yn . 2 2 4 2 b. Il s’agit d’une relation récurrence sur deux termes. On a d’après la première question 1 1 1 y1 = y2 = · Posons y0 = 1. On a alors yn+1 = yn−1 + yn pour tout n 1. 2 4 2 1 1 2 L’équation caractéristique de cette récurrence est x − x − = 0, dont les solutions 2 4 √ √ 1+ 5 1− 5 2 et x2 = . Il existe (a, b) ∈ R tel que, pour tout n ∈ N, sont x1 = 4 4 √ 1 a + b (a − b) 5 n n + , yn = ax1 +bx2 . On obtient y0 = a+b = 1 et y1 = = ax1 +bx2 = 2 4 4 ce qui donne le système a + b =√1 (a − b) 5 = 1, yn+1 =
ce qui donne
√ √ 5+1 5−1 a= √ et b = √ · 2 5 2 5 On a donc, pour tout n 1, √ √ n √ √ n 5+1 1+ 5 5−1 1− 5 √ yn = + √ 4 4 2 5 2 5 √ n+1 √ n+1 1+ 5 2 1− 5 . = √ − 4 4 5
On en déduit, pour tout n 2, 1 1 xn = yn−1 = √ 2 5
√ n √ n 1+ 5 1− 5 . − 4 4
1 Cette formule reste valable pour n = 1, car x1 = · On en déduit que, pour tout 2 n 1, √ n √ n 1+ 5 1 1 1− 5 . un = xn = √ − 2 4 4 2 5 c. La suite (un ) est somme de deux suites géométriques de raison x1 et x2 appartenant à ]−1, 1[. Donc la série de terme général un converge car c’est la somme de deux séries géométriques convergentes. On remarque que la formule précédente reste valable pour n = 0 car u0 = 0. On en déduit que +∞
1 n n 1 un = √ (x1 −x2 ) = √ 2 5 2 5 n=1 n=0
508
+∞
1 1 − 1 − x1 1 − x2
1 x 1 − x2 = √ · 2 5 1 + x 1 x 2 − x1 − x2
Solutions √
5 1 1 1 et 1 + x1 x2 − (x1 + x2 ) = 1 − − = , on obtient 2 4 2 4 √ ∞ 5 1 · 4 = 1. un = √ · 2 5 2 n=1 !
Considérons l’événement U =
Un , i.e. « on obtient deux piles consécutifs ». Les
n∈N∗
événements Un sont incompatibles donc +∞
un =
n=1
+∞
P(Un ) = P(U) = 1.
n=1
Il est quasiment certain qu’on obtient deux piles consécutifs. n 1 1. On a, pour tout k ∈ [[1, n]], P(Ak ) = · Pour 0 k , on note Bk l’événe10. 2 2 ! ment « on a obtenu 2k piles au cours des n lancers ». On obtient An+1 = Bk . 0kE( 2n ) L’événement Bk est réalisé si parmi les n tirages, 2k donnent un pile et les autres un face. Il faut choisir les tirages qui donnent un pile parmi les n tirages. Les résultats des différents 1 tirages étant indépendantes et la probabilité qu’un tirage donne pile ou face étant , on 2 n n 1 et donc, par incompatibilité des événements Bk , obtient P(Bk ) = 2 2k E( 2n )
P(An+1 ) =
k=0
De
n
© Dunod – La photocopie non autorisée est un délit
k=0
n k
= (1 + 1)n = 2n et
n
n (−1)k = (1 − 1)n = 0, on déduit en additionnant k
k=0
n
2 =
E( 2n ) 1 n . P(Bk ) = n 2 k=0 2k
n n k=0
k
E( 2n ) k
(1 + (−1) ) = 2
k=0
n 2k
1 1 2n = · 2n 2 2 2. a. L’événement A1 ∩ . . . ∩ An ∩ An+1 est réalisé si les n lancers donnent pile et si le nombre de piles est pair. On en déduit que P(A1 ∩ . . . ∩ An ∩ An+1 ) = 0 si n est impair. Si n est pair, 1 P(A1 ∩ . . . ∩ An ∩ An+1 ) = P(A1 ∩ . . . ∩ An ) = n · 2 n+1 1 P(Ak ) = n+1 , ce qui n’est jamais égal à P(A1 ∩ . . . ∩ An ∩ An+1 ) : b. Par ailleurs, on 2 k=1 les événements A1 , . . . , An , An+1 ne sont pas indépendants. puis P(An+1 ) =
509
SOLUTIONS
Comme x1 − x2 =
Chapitre
7 – Espaces probabilisés
3. Les événements A1 , . . . , An sont indépendants par construction. Cela traduit le fait que les résultats des différents lancers sont indépendants. Montrons que, si i ∈ [[1, n]], les événements A1 , . . . Ai−1 , Ai+1 , . . . , An , An+1 sont indépendants. Il faut démontrer que si I ⊂ [[1, n + 1]] \ {i}, on a ⎛ ⎞ 1 P(Aj ). P ⎝ Aj ⎠ = j∈I
j∈I
Si n + 1 ∈ / I, cela résulte de l’indépendance des événements A1 , . . . , An . Pour traiter tous les autres cas, il suffit de démontrer que pour tout k ∈ [[1, n − 1]] et tout choix de k indices 1 i1 < . . . < ik n, on a P(Ai1 ∩ . . . ∩ Aik ∩ An+1 ) = P(Ai1 ) · · · P(Aik )P(An+1 ), c’est-à-dire k+1 1 . P(Ai1 ∩ . . . ∩ Aik ∩ An+1 ) = 2 L’événement Ai1 ∩ . . . ∩ Aik ∩ An+1 est réalisé si Ai1 ∩ . . . ∩ Aik est réalisé et si le nombre total de piles est pair. Il faut pour cela que le nombre de piles obtenus dans les n − k autres tirages soit pair si k est pair et impair si k est impair. On note B l’événement « le nombre de piles dans les n − k autres tirages a la parité de k ». Comme B ne dépend que des résultats des tirages Aj avec j ∈ [[1, n]] \ {i1 , . . . , ik }, les événements Ai1 ∩ . . . ∩ Aik et B sont indépendants et on obtient k 1 P(Ai1 ∩ . . . ∩ Aik ∩ An+1 ) = P(Ai1 ∩ . . . ∩ Aik )P(B) = P(B). 2 1 se Le raisonnement conduit dans la première question pour montrer que P(An+1 ) = 2 généralise. On montre de la même façon que la probabilité d’obtenir un nombre pair de 1 piles sur un ensemble fixé de n − k 1 lancers est · La probabilité sur les mêmes lancers 2 1 1 et d’obtenir un nombre impair de piles est donc aussi · On en déduit que P(B) = 2 2 k+1 1 P(Ai1 ∩ . . . ∩ Aik ∩ An+1 ) = , ce qu’il fallait démontrer. 2 1. On procède par récurrence sur n ∈ N∗ . Pour n = 1, la propriété est évidente : 11. P(A1 ) P(A1 ). On la montre aussi pour n = 2, ce qui est utile pour la suite. On a P(A1 ∪ A2 ) = P(A1 ) + P(A2 ) − P(A1 ∩ A2 ) P(A1 ) + P(A2 ), car une probabilité est positive. Si la propriété est vraie au rang n, on obtient P(A1 ∪ · · · ∪ An ∪ An+1 ) =
P((A1 ∪ · · · ∪ An ) ∪ An+1 ) P(A1 ∪ · · · ∪ An ) + P(An+1 ) n n+1 P(Ai ) + P(An+1 ) P(Ai ), i=1
en utilisant la propriété au rang 2, puis l’hypothèse de récurrence.
510
i=1
Solutions " +∞ 0
# # "0 n An = lim P Ak . D’après la question n→+∞
n=0
1, on a, pour tout n ∈ N, P
n "!
k=0
n # Ak P(Ak ).
k=0
k=0
La série de terme général P(Ak ) converge donc le membre de droite de l’inégalité a une limite fini quand n tend vers +∞. Par passage à la limite, on obtient +∞ " +∞ ! # P An P(Ak ). n=0
k=0
1. Considérons l’événement contraire B : « seul un nombre fini d’événements An 12. se réalisent », ce qui peut encore s’énoncer « pour n assez grand, An ne se réalise pas ». On a donc, pour tout v ∈ V, 1 !1 An ⇐⇒ v ∈ An . v ∈ B ⇐⇒ ∃k ∈ N, ∀n k, v ∈ An ⇐⇒ ∃k ∈ N, v ∈ On a donc B =
!1
nk
k∈N nk
An , d’où l’on déduit, en appliquant les règles de Morgan,
k∈N nk
B=
1!
An =
k∈N nk
1
Ck .
k∈N
2. On a clairement B ⊂ Ck et donc P(B) P(Ck ) pour tout k ∈ N. La série de terme général An converge, donc en appliquant l’inégalité de Boole (deuxième question de l’exercice +∞ P(Ap ) et donc 11.), on obtient P(Ck ) p=k
0 P(B)
+∞
P(Ap ).
© Dunod – La photocopie non autorisée est un délit
p=k
La série de terme général P(An ) converge donc le reste de la série converge vers 0. On a +∞ P(Ap ) = 0 (il s’agit du reste d’indice k − 1 de la série). En faisant tendre k donc lim k→+∞
p=k
vers +∞ dans la double inégalité précédente, on obtient P(B) = 0. +∞ N 1 1 3. a. Soit k ∈ N et N ∈ N, N k. On a Ck = Ap et donc Ck ⊂ Ap . On en déduit p=k
⎛
P(Ck ) P ⎝
N 1
⎞
p=k
Ap ⎠ ,
p=k
puis comme l’indépendance des événements An implique celle des événements An , P(Ck )
N
P(Ap ).
p=k
511
SOLUTIONS
2. On a montré dans l’exercice 1 que P
Chapitre
7 – Espaces probabilisés
b. S’il existe p0 k tel que P(Ap ) = 0, alors
N
P(Ap ) = 0 si N p0 et
p=k
lim
N→+∞
N
P(Ap ) = 0.
p=k
On suppose dorénavant p ) = 0 si p k et on prend le logarithme de l’expres⎛ que P(A⎞ sion considérée : ln ⎝
N
P(Ap )⎠ =
p=k
N
ln P(Ap ) . On considère la série de terme
p=k
général P(Ap). Elle est à termes négatifs car P(Ap ) ∈ ]0, 1]. ∗ Si la suite P(Ap ) pk ne converge pas vers 1, la suite ln P(Ap ) pk ne tend pas vers 0 et la série trivialement. diverge ∗ Si la suite P(Ap ) pk converge vers 1, on a − ln P(Ap )
∼
p→+∞
−(P(Ap ) − 1)
∼
p→+∞
P(Ap ).
La série de terme général P(Ap ) diverge, donc d’après le théorème de comparaison des ) et séries à termes positifs, il en est de même de la série de terme général − ln P(A p donc de la série de terme général ln P(Ap ) . Dans tous les cas, la série de terme général ln P(Ap diverge. Comme c’est une série est à termes négatifs, ses sommes partielles tendent vers −∞. On a donc N lim ln P(Ap ) = −∞. Comme la limite de exp en −∞ est 0, on obtient par N→+∞
p=k
le théorème de composition des limites, lim
N→+∞
N
P(Ap ) = 0.
p=k
c. On a, pour tout N k, 0 P(Ck )
N
P(Ap ).
p=k
En faisant tendre N vers +∞, on obtient P(Ck ) = 0. +∞ ! P Ck . La série de terme général P Ck converge (c’est la série nulle). On a B = k=0
On obtient de l’inégalité de Boole +∞ P Ck 0, P B k=0
d’où l’on déduit P B = 0, c’est-à-dire P(B) = 1. 4. On considère, pour tout n ∈ N∗ , l’événement An : « le n-ième lancer donne pile » et l’événements B : « pile apparaît une infinité de fois ». La suite (An ) est constituée d’événements indépendants. Pour tout n ∈ N∗ , P(An ) = p > 0, donc la série de terme général P(An ) diverge. D’après la question 2, on a P(B) = 1, ce qui est le résultat demandé.
512
Solutions
Chapitre 8 1.
1. Suivons le nombre de boules restant dans l’urne après chaque tirage. On obtient n − 1, n − 1, n − 2, n − 2, · · · , 1, 1, 0.
Il y a donc eu exactement N = 2(n − 1) + 1 = 2n − 1 tirages pour vider l’urne. 2. a. Comme il n’y a pas remise lors des tirages impairs, il vient, pour 1 j n − 1 [X2j = 1] = [X1 = 0] ∩ [X3 = 0] ∩ · · · ∩ [X2j−1 = 0] ∩ [X2j = 1]. Par la formule des probabilités composées on obtient P([X2j = 1]) = P([X1 = 0])P([X3 = 0]/[X1 = 0]) . . . P([X2j−1 = 0]/[X1 = 0] ∩ · · · ∩ [X2j−3 = 0])P([X2j = 1]/[X1 = 0] ∩ · · · ∩ [X2j−1 = 0]) Il reste n − k boules dans l’urne après le (2k − 1)-ième tirage donc P([X2j = 1]) =
n−j 1 1 n−1 n−2 · ··· = · n n−1 n−j+1n−j n
© Dunod – La photocopie non autorisée est un délit
On a , de même, pour 0 j n − 1, [X2j+1 = 1] = [X1 = 0] ∩ [X3 = 0] ∩ · · · ∩ [X2j−1 = 0] ∩ [X2j+1 = 1] puis P([X2j+1 = 1]) = P([X1 = 0])P([X3 = 0]/[X1 = 0]) . . . P([X2j−1 = 0]/[X1 = 0] ∩ · · · ∩ [X2j−3 = 0])P([X2j+1 = 1]/[X1 = 0] ∩ · · · ∩ [X2j−1 = 0]) 1 = P([X2j = 1]) = , n car le contenu de l’urne avant le (2j)-ième tirage et avant le (2j + 1)-ième tirage est le même. 1 Ainsi, pour tout k ∈ Ú1, 2n − 1Û, Xk suit la loi de Bernoulli de paramètre , donc n E(Xk ) =
1 · n
513
SOLUTIONS
Soit m 1. Pour n ∈ N∗ , on considère l’événement An = Anm ∩ Anm+1 ∩ . . . ∩ A(n+1)m−1 . Comme les résultats des différents lancers sont indépendants, la suite (An ) est constituée d’événements indépendants. D’autre part, on a P(An ) = pm pour tout n ∈ N∗ , donc la série de terme général diverge trivialement. Considérons l’événement B : « une infinité d’événements An se réalisent ». En appliquant le résultat de la question 2, on obtient P(B ) = 0. Or si B est réalisé, une infinité de séquences de m piles consécutifs apparaît car si An est réalisé, il apparaît des piles entre le mn-ième et le (mn + m − 1)-ième lancer (ce qui fait une séquence de m lancers) et les séquences de m-piles ainsi obtenues sont disjointes. Ainsi, il apparaît une infinité de séquences de m piles consécutifs de façon quasi-certaine.
Chapitre
8 – Variables aléatoires discrètes
b. Comme X =
n
Xk , on obtient, par linéarité de l’espérance,
k=1
E(X) =
2n−1
E(Xk ) =
k=1
2n − 1 · n
3. a. On a Y (V) ⊂ [[1, 2n − 1]]. L’événement [Y = 2n − 1] correspond à « la boule noire est sortie pour la première fois au dernier tirage ». Le tirage précédent étant pair, il y a eu remise, et c’est la même boule qui est sortie au (2n − 2)-ième tirage. Ainsi la boule noire ne peut être sortie au dernier tirage pour la première fois et P([Y = 2n − 1]) = 0. Pour 1 k 2n − 2, on a [Y = k] = [X1 = 0] ∩ [X2 = 0] ∩ · · · ∩ [Xk−1 = 0] ∩ [Xk = 1]. Par la formule des probabilités composées, il vient en distinguant les cas k impair et k pair, pour 1 j n − 1, n−j 1 n−1 n−2 n−2 · · ··· · n n−1 n−1 n−j+1 n−j+1 n−j (n − 1)(n − 2)2 · · · (n − j) = = n(n − 1)2 · · · (n − j + 1)2 n(n − 1) n−j n−j 1 n−1 n−2 n−2 · · ··· · P([Y = 2j]) = n n−1 n−1 n−j+1 n−j+1n−j n−j (n − 1)(n − 2)2 · · · (n − j)2 = · = 2 2 n(n − 1) · · · (n − j + 1) (n − j) n(n − 1)
P([Y = 2j − 1]) =
On en déduit E(Y ) =
2n−2
kP([X = k]) =
j=1
k=1
=
n−1 j=1
(4j − 1)
n−j n(n − 1)
4n + 1 1 4 j2 + j− 1 n(n − 1) j=1 n(n − 1) j=1 n − 1 j=1 n−1
=−
n−1 (2j − 1)P([Y = 2j − 1]) + (2j)P([Y = 2j])
n−1
n−1
4(n − 1)n(2n − 1) (4n + 1)n(n − 1) n − 1 + − 6n(n − 1) 2n(n − 1) n−1 4n + 1 4n − 2 4n + 1 + −1= · =− 3 2 6
=−
b. Seuls les tirages d’ordre impair font disparaître la boule noire dès son apparition. Donc n−1 0 [X = 1] = [Y = 2j −1]. Ces derniers événements étant deux à deux incompatibles, j=1
514
Solutions
P([X = 1]) =
n−1
1 1 (n − j) = · n(n − 1) j=1 2 n−1
P([Y = 2j − 1]) =
j=1
4. L’événement [X = n] correspond à « la boule noire est sortie à tous les tirages pairs et n’a pas été choisie lors des tirages impairs, sauf lors du dernier ». On a donc [X = n] = [X1 = 0] ∩ [X2 = 1] ∩ · · · ∩ [X2n−2 = 1] ∩ [X2n−1 = 1] En utilisant de nouveau la formule des probabilités composées, on obtient P([X = n]) =
2.
n−1 1 n−2 1 1 · · · ···1 · 1 = · n n−1 n−1 n−2 n!
1. a. Si n N, alors Tn (V) = [[1, n]] et si n N, Tn (V) = [[1, N]], ce que l’on peut écrire Tn (V) = [[1, min(n, N)]]. b. • Il y a N n listes de tirages possibles, toutes équiprobables, et N listes pour lesquelles [Tn = 1] est réalisé (obtenir toujours le même numéro), ce qui donne P([Tn = 1]) =
1 · N n−1
• Si n > N, l’événement [Tn = n] est impossible, et si n N les listes réalisant [Tn = n] sont les listes de n éléments distincts pris parmi les N éléments présents, soit
© Dunod – La photocopie non autorisée est un délit
P([Tn = n]) =
N(N − 1) · · · (N − n + 1) N! = · Nn (N − n)! N n
c. Les listes réalisant [Tn = 2] sont constituées ainsi : • on choisit les deux éléments a et b obtenus parmi les N ; il y a N2 choix ; • il existe 2n n-listes ne contenant que des a et b dont il faut exclure celles qui ne contienne que a ou b qui réalisent [Tn = 1] et pas [Tn = 2]. On obtient N n (2 − 2) · P([Tn = 2]) = 2 Nn 2. Si on réalise [Tn+1 = k], alors au rang précédent Tn n’a pu prendre que les valeurs k − 1 ou k. Dans le premier cas, on obtient au n-ième tirage un nouveau numéro, parmi les N − (k − 1) numéros non encore obtenus, et dans le second cas, on obtient au n-ième tirage, un des k numéros déjà obtenus. On a donc P([Tn+1 = k]) = P([Tn+1 = k] ∩ [Tn = k]) + P([Tn+1 = k] ∩ [Tn = k − 1]) = P[Tn =k] ([Tn+1 = k])P([Tn = k]) + P[Tn =k−1] ([Tn+1 = k])P([Tn = k − 1]) N − (k − 1) k P([Tn = k − 1]). = P([Tn = k]) + N N Notons que la relation reste vérifiée pour k = 1, car P([Tn = 0]) = 0. N N $ $ 3. a. On a Gn = P([Tn = k])X k , donc Gn = kP([Tn = k])X k−1 . k=1
k=1
515
SOLUTIONS
il vient
Chapitre
8 – Variables aléatoires discrètes
En utilisant la question précédente, on obtient Gn+1 =
N
P([Tn+1 = k])X k
k=1 N N k N − (k − 1) P([Tn = k])X k + P([Tn = k − 1])X k = N N k=1 k=1 N N−1 X 1 k−1 = kP([Tn = k])X + (N − j)P([Tn = j])X j+1 N k=1 N j=0 N N X 1 j+1 = Gn + P([Tn = j])X − jP([Tn = j])X j+1 . N N j=1 j=1
ce qui s’écrit finalement Gn+1 =
X X2 Gn + XGn − G. N N n
b. On remarque que E(Tn ) = Gn (1). En dérivant la relation précédente, il vient = Gn+1
1 1 (1 − 2X)Gn + (X − X 2 )Gn + Gn + XGn N N
ce qui donne en 1, en sachant que Gn (1) = 1, E(Tn+1 ) = −
1 E(Tn ) + 1 + E(Tn ) N
c’est-à-dire
1 E(Tn ) + 1. E(Tn+1 ) = 1 − N Le traitement d’une telle suite arithmético-géométrique est standard : son point fixe est N, d’où l’on déduit 1 (E(Tn ) − N) . E(Tn+1 ) − N = 1 − N La suite (E(Tn ) − N) est géométrique donc pour tout n ∈ N, n−1 1 (E(T1 ) − N). E(Tn ) − N = 1 − N La variable T1 est la variable certaine égale à 1 donc n−1 n 1 1 . (1 − N) = N 1 − 1 − E(Tn ) = N + 1 − N N
516
Solutions N E(TN ) 1 1 = 1 − eN ln(1− N ) . De ln(1 − u) ∼ −u, on =1− 1− u→0 N N
tire lim
N→∞
3.
E(TN ) = 1 − e−1 . N
1. On a, pour tout k ∈ N∗ , P[(X = k]) = P([X > k − 1]) − P([X > k]). On en déduit, par un changement d’indice, n n n kP([X = k]) = kP([X = k]) = k P([X > k − 1]) − P([X > k]) k=0
k=1
=
n
k=1
kP([X > k − 1]) −
k=1
=
n−1
n
(k + 1)P([X > k]) −
n
k=0
= 2. a. La série
n−1
kP([X > k])
k=1
kP([X > k])
k=1
P([X > k]) − nP([X > n]).
k=0
kP([X = k]) converge et, pour tout n ∈ N, +∞ P([X > n]) = P([X = k]). k=n+1
On en déduit que 0 nP([X > n]) Comme
+∞
+∞ k=n+1
kP([X = k]).
k=n+1
kP([X = k]) est le reste d’une série convergente, on a
k=n+1
© Dunod – La photocopie non autorisée est un délit
+∞
nP([X = k])
lim
n→+∞
+∞
kP([X = k]) = 0
k=n+1
et, par encadrement, lim nP([X > n]) = 0.
n→+∞
On en déduit lim
n→+∞
n−1
P([X > k]) = lim
n→+∞
k=0
=
+∞
n−1
kP([X = k]) + P([X > n])
k=0
kP([X = k]) = E(X).
k=0
Autrement dit la série de terme général P([X > n]) converge et sa somme est E(X).
517
SOLUTIONS
c. On peut écrire
Chapitre
8 – Variables aléatoires discrètes
b. D’après la question 1, on a, pour tout n ∈ N∗ , n
kP([X = k])
k=0
n−1
P([X > k])
k=0
+∞
P([X > k]).
k=0
La série de terme général positif kP([X = k]) a ses sommes partielles majorées donc elle converge. Ainsi X admet une espérance et d’après la question précédente, E(X) =
+∞
P(X > k).
k=0
3. On sait que si X suit une loi géométrique de paramètre p, on a, pour tout entier k, P([X > k]) = qk , où q = 1 − p. Comme q ∈ ]0, 1[, la série de terme général converge et +∞ 1 1 = · D’après la question 2 b, la variable X possède une espérance égale qk = 1−q p k=0 1 à · p 4.
On a Y (V) ⊂ N. On obtient [Y = 0] = [X impair] ∪ [X = 0] =
!
[X = 2k + 1] ∪ [X = 0]
k∈N
et pour k ∈ N∗ , [Y = k] = [X = 2k]. Comme X est une variable aléatoire, [X = k] est un événement pour tout k ∈ N. On en déduit que [Y = k] est un événement pour tout k ∈ N, car c’est une réunion au plus dénombrable d’événements. Cela montre que Y est une variable aléatoire discrète. • Supposons que X suive une loi géométrique de paramètre p. Comme X(V) = N∗ , on obtient P([Y = 0]) =
+∞
P([X = 2k + 1]) =
k=0
+∞ k=0
q2k p = p
+∞ (q2 )k = k=0
p 1 · = 1 − q2 1+q
Pour tout k ∈ N∗ , on a P([Y = k]) = P([X = 2k]) = q2k−1 p. Sous réserve de convergence, on a E(Y ) =
+∞
kP([Y = k]) =
k=1
+∞
kq2k−1 p = pq
k=1
+∞
k(q2 )k−1 .
k=1
On reconnaît une série géométrique dérivée, de raison q2 ∈ ]0, 1[, donc convergente. Ainsi Y possède une espérance et E(Y ) =
518
q pq = · 2 2 (1 − q ) p(1 + q)2
Solutions
P([Y = 0]) = P([X = 0]) + ⎧ ⎪ ⎪ l ⎪ ⎪ ⎨ e De
=
⎪ ⎪ −l ⎪ ⎪ ⎩ e
=
k=1
P([X = 2k + 1]) = e−l + e−l
k=0
+∞ k l k=1 +∞
+∞
k!
, on tire e − e l
(−1)k lk k!
P([Y = 0]) = e−l + e−l
−l
SOLUTIONS
• Supposons que X suit une loi de Poisson de paramètre l. On obtient +∞ l2k+1 · (2k + 1) k=0
∞ l2k+1 . On en déduit =2 (2k + 1)! k=0
el − e−l 1 = e−l + (1 − e−2l ). 2 2
Pour tout k ∈ N∗ , on a P([Y = k]) = P([X = 2k]) = e−l
l2k · (2k)!
Sous réserve de convergence, on a E(Y ) =
+∞
kP([Y = k]) =
k=1
+∞ k=1
l2k l2k e−l l l2k−1 = = · e−l (2k)! 2(2k − 1)! 2 k=1 (2k − 1)! k=1 +∞
ke−l
+∞
D’après ce qui précède, +∞ +∞ l2k−1 l2k+1 el − e−l = = · (2k − 1)! (2k + 1)! 2 k=1 k=0
On en déduit que E(Y ) existe et
© Dunod – La photocopie non autorisée est un délit
E(Y ) =
e−l l el − e−l l(1 − e−2l ) = · 2 2 4
1. Comme X suit une loi de Poisson de paramètre 10 000, X admet une espérance et E(X) = 10 000. 2. Comme les dix entrées sont équiprobables, la probabilité qu’un visiteur rentre par l’entrée 1 E1 est · 10 3. D’après la formule des probabilités totales avec le système complet d’événements ([X = n])n∈N , +∞ P([X1 = k]/[X = n])P([X = n]) P([X1 = k]) = 5.
n=0
Pour k n + 1, P([X1 = k]/[X = n]) = 0 et pour k n, n−k 9 n 1 . P([X1 = k]/[X = n]) = k 10k 10
519
Chapitre
8 – Variables aléatoires discrètes
On en déduit P([X1 = k]) = =
n−k −10 000 +∞ e 10 000n n 1 9 k 10 n! k 10 n=k +∞ n−k 1 e−10 000 103k 9.103 k! (n − k)! n=k
+∞ n e−10 000 103k 1 9.103 = k! n! n=0
e−10 000 103k 9 000 e−1 000 103k e · = k! k! Donc X1 suit une loi de Poisson de paramètre 103 . Ainsi X1 admet une espérance et une variance E(X1 ) = V (X1 ) = 103 . 9X1 et E(Y1 ) = 900. 4. Soit Y1 le nombre de visiteurs entrant par E1 en payant. On a Y1 = 10 =
6.
1. a. On note que si x ∈ ]0, 1[, ln x < 0 donc f (x) > 0. De plus f (0) = f (1) = 0 donc f (x) 0 pour tout x ∈ [0, 1]. Pour tout x ∈ E, P([X = x]) ∈ [0, 1] donc f (P([X = x])) 0. On en déduit que H(X) 0.
b. Si X est constante, il existe a ∈ E tel que P([X = a]) = 1 et, pour x ∈ E \ {a}, P([X = x]) = 0. On a donc H(X) = 0, puisque f (0) = f (1) = 0. 1 et donc c. Si X suit une loi uniforme, on a, pour tout x ∈ E, P([X = x]) = N 1 ln N 1 = · On en déduit f (P([X = x])) = − ln N N N ln N = ln N. H(X) = N N 2. a. Posons, pour x 0, g(x) = f (x) + x − 1. On a, pour x > 0, g (x) = − ln x. La fonction g croît strictement sur ]0, 1] et décroît strictement sur [1, +∞[. Son maximum sur ]0, +∞[ est atteint en 1 seulement et vaut g(1) = 0. On a donc g(x) 0 pour x > 0. Cela reste vrai en 0 car g(0) = −1. On a donc pour tout x 0, g(x) 0, donc f (x) 1 − x avec égalité si et seulement si x = 1. b. On a, pour tout x ∈ E, f (NP([X = x])) 1 − NP([X = x]). En additionnant ces inégalités, on obtient (1 − NP([X = x])) . f (NP([X = x])) Comme
x∈E
x∈E
P([X = x]) = 1, d’après les propriétés de la loi d’une variable aléatoire
x∈E
discrète, on a x∈E
520
(1 − NP([X = x])) = N − N
x∈E
P([X = x]) = N − N = 0,
Solutions
SOLUTIONS
d’où l’on déduit
f (NP([X = x])) 0.
x∈E
c. On remarque que si P([X = x]) = 0, on f (NP([X = x])) = −NP([X = x]) ln (NP([X = x])) = −NP([X = x]) ln N − NP([X = x]) ln (P([X = x])) = f (N)P([X = x]) + Nf (P([X = x])) . On remarque que cette égalité reste vérifiée si P([X = x]) = 0. On en déduit que f (NP([X = x])) = f (N) P([X = x]) + N f (P([X = x])) x∈E
x∈E
x∈E
= f (N) + NH(X). De l’inégalité de la question précédente, on déduit H(X) −
f (N) , c’est-à-dire N
H(X) ln N. 3. a. On a vu que pour tout X, H(X) 0. La valeur minimale est 0. On sait que si X est constante, on a H(X) = 0. Si X n’est pas constante, il existe a ∈ E tel que P([X = a]) ∈ ]0, 1[. On a alors f (P([X = a])) > 0 et comme f (P([X = x])) 0 si x = a, on a a fortiori H(X) > 0. On conclut : l’entropie H(X) est minimale (c’est-à-dire nulle) si et seulement X est une variable constante. b. On vu que H(X) ln N et que H(X) = ln N si X est uniforme. Supposons réciproquement que H(X) = ln N. D’après les questions 2.(b) et (c), cela équivaut à f (NP([X = x])) = 0, c’est-à-dire à x∈E
© Dunod – La photocopie non autorisée est un délit
x∈E
ou encore à
f (NP([X = x])) =
(1 − NP([X = x]))
x∈E
(f (NP([X = x])) − 1 + NP([X = x])) = 0.
x∈E
On a, pour tout x ∈ E, f (NP([X = x])) − 1 = NP([X = x]) 0. Cette somme de termes négatifs est donc nulle si chaque terme est nul. D’après 2.(a) cela équivaut (cas 1 d’égalité) à NP([X = x] = 1 et donc à P([X = x]) = , pour tout x ∈ E : X suit une N loi uniforme. On conclut : l’entropie est maximale (c’est-à-dire égale à ln N) si et seulement si X suit une loi uniforme. 7.
1. Au cours du premier échange, on prend un jeton numéroté 0 dans la boîte A et un jeton numéroté 1 dans la boîte. À l’issue de cette opération, il y un jeton 0 et un jeton 1 dans chaque boîte, donc X1 est la variable certaine égale à 1.
521
Chapitre
8 – Variables aléatoires discrètes
2. Pour tout n ∈ N∗ , on a Xn+1 (V) = {0, 1, 2}. On applique la formule des probabilités totales avec le système complet d’événements ([Xn = 0], [Xn = 1], [Xn = 2]). On remarque que si Xn = 0 ou Xn = 2, alors Xn+1 = 1, car on échange un jeton 0 et un jeton 1. On en déduit que, si k = 0 ou 2, alors P([Xn+1 = k] ∩ [Xn = 0]) = P([Xn = k] ∩ [Xn = 2]) = 0. On a donc P([Xn+1 = 0])
= P([Xn+1 = 0] ∩ [Xn = 1]) = P([Xn+1 = 0]/[Xn = 1])P([Xn = 1]) 1 P([Xn = 1]). = 4
En effet si Xn = 1, pour obtenir Xn+1 = 0, il faut échanger le jeton numéroté 1 de la boîte 1 1 1 A avec le jeton numéroté 0 de la boîte B. La probabilité est · = · On obtient de 2 2 4 même P([Xn+1 = 2])
= P([Xn+1 = 0] ∩ [Xn = 1]) = P([Xn+1 = 2]/[Xn = 1])P([Xn = 1]) 1 P([Xn = 1]). = 4
Enfin, on a P([Xn+1 = 1]) = P([Xn+1 = 1]/[Xn = 0])P([Xn = 0]) + P([Xn+1 = 1]/[Xn = 1])P([Xn = 1]) + P([Xn+1 = 1]/[Xn = 2])P([Xn = 2]) 1 = P([Xn = 0])] + P([Xn = 1]) + P([Xn = 2]). 2 En effet, comme on l’a déjà noté P([Xn+1 = 1]/[Xn = 0]) = P([Xn+1 = 1]/[Xn = 2]) = 1. Si Xn = 1, pour avoir Xn+1 = 1, il faut soit échanger les deux jetons numérotés 1, ce qui 1 est réalisé avec une probabilité , soit échanger les deux jetons numérotés 1, ce qui est 4 1 1 1 réalisé aussi avec une probabilité · On obtient donc P([Xn+1 = 1]/[Xn = 1] = 2 = · 4 4 2 3. La dernière relation obtenue peut s’écrire 1 P([Xn+1 = 1]) = P([Xn = 0])] + P([Xn = 2]) + P([Xn = 1]) 2 1 = 1 − P([Xn = 1]) + P([Xn = 1]) 2 1 = 1 − P([Xn = 1]). 2 La suite (P([Xn = 1]) est arithmético-géométrique. Le point fixe de l’application 2 1 x −→ 1 − x est · On obtient, pour tout n ∈ N∗ , 2 3 1 2 2 P([Xn = 1]) − . P([Xn+1 = 1]) − = − 3 2 3
522
Solutions
On en déduit que, pour tout n 2, 1 P([Xn = 0]) = P([Xn = 2]) = P([Xn−1 = 1]) = 4 De plus, on a P([X1 = 0]) = P([X1
1 1 + 6 12
−
1 2
n−2 =
1 1 − 6 6
n−1 1 − . 2
= 2]) = 0.
4. La variable aléatoire X1 est la variable certaine égale à 1, donc E(X1 ) = 1. Si n 2, on trouve n−1 n−1 1 1 2 1 1 1 − − + − = 1. E(Xn ) = P([Xn = 1]) + 2P([Xn = 2]) = + 3 3 2 3 3 2 8.
1. L’événement Bj,m est réalisé si les m premiers donnent un autre jeton que le n−1 j-ième. La probabilité qu’un tirage donne un autre jeton que le j-ième est · Les n m n−1 . résultats des différents tirages étant indépendants, on en déduit que P(Bj,m ) = n Plus généralement, (Bj1 ,m ∩ Bj2 ,m ∩ · · · ∩ Bjk ,m est réalisé si les m premiers tirages ne donnent aucun des jetons numérotés j1 , . . . , jk . La probabilité qu’un tirage ne donne aucun des n−k · Les résultats des différents tirages étant indépendants, jetons numérotés j1 , . . . , jk est n on en déduit que m n−k P(Bj1 ,m ∩ Bj2 ,m ∩ · · · ∩ Bjk ,m ) = . n
© Dunod – La photocopie non autorisée est un délit
2. a. L’événement [X > m] est réalisé si on n’a pas obtenu les n jetons pendant les m premiers tirages, c’est-à-dire si l’un des n jetons n’a pas été obtenu, c’est-à-dire si l’un des événements B1,m , B2,m , · · · , Bn,m est réalisé. On a donc P([X > m]) = B1,m ∪ B2,m ∪ · · · ∪ Bn,m . b. On applique la formule du crible. On obtient P([X > m]) =
n k=1
La somme
n−k n
m
(−1)k−1
P(Bj1 ,m ∩ Bj2 ,m ∩ · · · ∩ Bjk ,m ).
1æ1 m])) converge vers 0, car c’est la somme de n suites tendant vers 0. Notons B l’événement « on n’obtient jamais les n jetons ». On a pour tout m ∈ N, B ⊂ [X > m] et donc 0 P(B) P([X > m]). Par passage à la limite, on obtient P(B) = 0 et donc P(B) = 1. Il est donc quasi-certain qu’on obtient les n jetons au bout d’un nombre fini de tirages. La variable X est donc définie presque sûrement. c. D’après l’exercice 3., pour montrer que X admet une espérance, il suffit de montrer que la série de terme général P([X > m]) converge. L’expression de P([X > m]) trouvée à la question précédente montrer que c’est une somme de n séries géométriques convergentes, donc c’est une série convergente dont la somme est, toujours d’après l’exercice 3., égale à E((X). On a, pour 1 k n, n m +∞ n−k 1 k−1 n k−1 n k−1 k · (−1) = (−1) = n(−1) n−k n k k k m=0 1− n Par linéarité de la somme d’un série convergente, on en déduit n n k−1 k E(X) = n · (−1) k k=1 d. Considérons la fonction f définie sur R par f (x) =
n
n k−1 k
(−1)
k=1
xk · k
On note que E(X) = nf (1). La fonction f est dérivable et n n n k−1 n x (−x)k−1 . f (x) = (−1)k−1 = k k k=1 k=1 Pour x = 0, on a donc n 1 − (1 − x)n 1 n (1 − x)n − 1 = · (−x)k = − f (x) = − x k=1 k x x
Comme f (0) = 0, on en déduit f (1) = f (1) − f (0) = 0
1
1 − (1 − x)n dx. x
Avec le changement de variable t = 1 − x, on obtient 1 1 1 − tn 1 1 f (1) = dt = (1 + t + · · · + tn−1 ) dt = 1 + + · · · + 1 − t 2 n 0 0
524
Solutions
Il est connu que, quand n tend vers +∞, 1 +
1 1 + · · · + ∼ ln n. On en déduit que 2 n
E(X) ∼ n ln n.
9.
1. Supposons que X suit la loi binomiale de paramètre (n, p) et étudionslesens de n k n−k pq variation de la suite P([X = k]) 0kn . On a pour k ∈ [[0, n]], P([X = k]) = k et donc pour k ∈ [[1, n]], n k n−k pq P([X = k]) (n − k + 1)p = n k k−1 n−k+1 = · uk = P([X = k − 1]) kq q k−1 p On a u1 =
np p , un = et uk décroît avec k. q nq
1 , on a uk < 1 pour tout k. La suite • Si u1 < 1, c’est-à-dire np < q ou encore p < n + 1 P([X = k]) 0kn décroît strictement. Il y a un seul mode 0. n , on a uk > 1 pour tout k. La suite • Si un > 1, c’est-à-dire p > nq, ou encore p > n+1 croît strictement. Il y a un seul mode n. 1 n On suppose désormais p , c’est à dire u1 1 et un 1. Soit k0 le plus n+1 n+1 grand entier tel que uk 1. On a uk 1 ⇐⇒ (n − k + 1)p kq ⇐⇒ k (n + 1)p. On a k0 = E (n + 1)p ∈ [[1, n]], où E désigne la partie entière. • Si (n + 1)p ∈ / N, on a uk > 1 si k k0 et uk < 1 si k > k0 . La valeur maximale de P([X = k]) est obtenue uniquement pour k = k0 . Il y a un seul mode k0 . • Si (n + 1)p ∈ N, on a k0 = (n + 1)p, uk > 1 si k < k0 et uk < 1 si k > k0 . On a P([X = k0 ]) = P([X = k0 − 1]). La valeur maximale de P([X = k]) est obtenue pour k = k0 et k = k0 − 1. Il y a deux modes k0 = (n + 1)p et k0 − 1 = (n + 1)p − 1. 2. Supposons que X suit la loi de Poisson de paramètre l et étudions le sens de variation de e−l lk et donc pour k ∈ N∗ , la suite P([X = k]) k∈N . On a pour k ∈ N, P([X = k]) = k!
© Dunod – La photocopie non autorisée est un délit
uk =
l P([X = k]) = · P([X = k − 1]) k
l On observe que uk décroît avec k et que 1 équivaut à k l ou encore à k E(l). k Posons k0 = E(l). • Si k0 = 0, on a, pour tout k 1, uk < 1 donc la suite la suite P([X = k]) k∈N décroît strictement. Il y a un seule mode 0.
525
SOLUTIONS
1 1 . E(X) = n 1 + + · · · + 2 n
et donc
Chapitre
8 – Variables aléatoires discrètes
• Si k0 1 et si l n’est pas entier, on a uk > 1 si k k0 et uk < 1 si k > k0 . La suite P([X = k]) k∈N croît strictement jusqu’à l’entier k0 puis décroît strictement. Il y un seule mode k0 . • Si l ∈ N∗ , on a k0 = l. On obtient uk > 1 si k < k0 , uk0 = 1 et uk < 1 si k > k0 . Il y a deux modes k0 et k0 − 1, c’est-à-dire l et l − 1.
10.
1. a. Si uk =
1 k+1 , alors 1 − uk = et pour tout n ∈ N, k+2 k+2 n k+1 1 · 2 · · · (n + 1) 1 = = · qn = k + 2 2 · 3 · · · (n + 2) n + 1 k=0
2 On en déduit que lim qn = 0. Le produit (1 − uk ) est divergent. n→+∞ 1 (k + 1)(k + 3) Si uk = , alors 1 − uk = et pour tout n ∈ N, (k + 2)2 (k + 2)2 n
qn =
n (k + 1)(k + 3) k=0
(k +
2)2
=
k=0
(k + 1)
n
n+1 n+3 k k
(k + 3)
k=0
n (k + 2)2
=
k=0
k=1 k=3 n+2 2
=
(n + 3) · 2(n + 2)
k
k=2
2 1 · Le produit (1 − uk ) est convergent. 2 b. On a, pour tout k ∈ N, 1 − uk > 0, donc pour tout n ∈ N, qn > 0 et On en déduit que lim qn = n→+∞
ln qn =
n
ln(1 − uk ).
k=0
• On note que ln qn est la somme partielle d’indice n de la série de terme général ln(1 − un ). Ainsi la suite (ln qn ) converge si et seulement si la série de terme général ln(1 − un ) converge. 2 • Si le produit (1−uk ) converge, la suite (qn ) converge vers > 0, donc la suite (ln qn ) converge vers ln et la série de terme général ln(1 − un ) converge. Réciproquement, si la série de terme général ln(1 − un ) converge, la suite (ln qn ) converge vers une limite 2 donc par composition des limites, (qn ) converge vers e > 0 donc le produit (1 − uk ) converge. • Si la série de terme général un converge, la suite (un ) converge vers 0, donc − ln(1 − un ) ∼ un . Comme (un ) est à terme positif, la série de terme général − ln(1 − un ) converge et il en est de même de la série de terme général ln(1 − un ). Réciproquement si la série de terme général ln(1 − un ) converge, la suite ln(1 − un ) converge vers 0 et par composition des limites (1 − un ) converge vers e0 = 1 et (un ) converge vers 0. On a de nouveau un ∼ − ln(1 − un ) et comme la série de terme général − ln(1 − un ) converge, il en est de même de la série de terme général 2 un . On a démontré qu’il y a équivalence entre la convergence du produit (1 − uk ), la convergence de la série de terme général ln(1 − un ) et la convergence de la série de terme général un .
526
Solutions
xn = P([X = n]/[X n]) =
P([X n]) − P([X n + 1]) P([X = n]) = P([X n]) P([X n])
et donc P([X n + 1]) = (1 − xn )P([X n]). De plus P([X 0]) = 1, donc on obtient par une récurrence évidente, pour n 1, P([X n]) =
n−1
(1 − xk ),
k=0
puis pn = P([X = n]) = xn P([X n]) = xn
n−1
(1 − xk ).
k=0
Par ailleurs, on a p0 = P([X = 0]) = x0 . b. Si la variable X est à valeurs dans N∗ et a un taux de panne constant, on a x0 = 0 et il existe p ∈ R tel que, pour tout n 1, xn = p. On en déduit, pour tout n ∈ N∗ , P([X = n]) = p(1 − p)n−1 . Comme P([X n]) > 0 pour tout n ∈ N, on a p ∈ ]0, 1[ et X suit la loi géométrique de paramètre p. Réciproquement si, X suit la loi géométrique de paramètre p, X est à valeurs dans N∗ , et pour n 1, P([X = n]) = p(1 − p)n−1 , P([X n]) = (1 − p)n−1 > 0 (le temps d’attente du premier succès est supérieur ou égal à n si les n − 1 premiers résultats sont des échecs). On a donc pour n 1,
© Dunod – La photocopie non autorisée est un délit
xn = P([X = n]/[X n]) =
P([X = n]) = 1 − p. P([X n])
Le taux de panne est constant. c. Si la suite (xk ) est un taux de panne, on a, pour tout k ∈ N, xk ∈ [0, 1] (c’est une probabilité) et xk = 1, sinon P([X k + 1]) = 0, ce qui est contraire à l’hypothèse, donc 0 xk < 1. Pour tout n ∈ N∗ , P([X n]) =
n−1
(1 − xk ).
k=0
Comme lim P([X n]) = lim
n→+∞
n→+∞
+∞
P([X = k]) = 0,
k=n
n−1 (1 − xk ) = 0. Par car c’est la limite du reste d’une série convergente, on a lim n→+∞ k=0 2 définition d’un produit convergent, le produit (1 − xk ) diverge. De par l’équivalence démontrée à la question précédente, la série de terme général xk diverge.
527
SOLUTIONS
2. a. On a, pour tout n ∈ N,
Chapitre
8 – Variables aléatoires discrètes
Réciproquement, soit (xk ) une suite à valeurs dans [0, 1[ telle que la série de terme n−1 (1 − xk ). On a, général xk diverge. On pose p0 = x0 et, pour tout n 1, pn = xn k=0
pour tout n ∈ N, pn ∈ [0, 1]. On remarque de plus que si on pose, pour tout n 0, n qn = (1 − xk ), on a, pour n 1, pn = xn qn−1 et k=0
pn = xn
n−1
(1 − xk ) = (1 − (1 − xn ))qn−1 = qn−1 − (1 − xn )qn−1 = qn−1 − qn .
k=0
On en déduit que, pour n 1, n n pk = p0 + (qk−1 − qk ) = p0 + q0 − qn . k=0
k=1
La série de terme général xk diverge, donc de 2 l’équivalence démontrée à la question précédente on définit la divergence du produit (1 − xk ). La suite (qn ) est décroissante et minorée par 0 donc elle converge vers une limite positive ou nulle. Par définition de la convergence d’un produit, cette limite ne peut pas être strictement positive : (qn ) converge vers 0. On en déduit lim pk = p0 + q0 = x0 + 1 − x0 = 1. Par définition, n→+∞
la série de terme général pn converge et
+∞
pk = 1.
k=0
On en déduit qu’il existe une variable aléatoire X à valeur dans N telle que, pour tout n ∈ N, P([X = xn ) = pn . Étudions le taux de panne de X. On a, pour tout n ∈ N∗ , P([X n − 1] =
n−1
pk = p0 + q0 − qn−1 = 1 − qn−1
k=0
donc P([X n]) = qn−1 . On en déduit, pour n 1, P([X = n]/[X n]) =
pn P([X = n]) = = xn . P([X n]) qn−1
De plus P([X = 0]/[X 0]) = P([X = 0]) = p0 = x0 . La suite (xk ) est le taux de panne de la variable X. 11. Pour tout entier n ∈ N∗ , on note An l’événement « la n-ième épreuve est un succès » et Bn l’événement « au cours des n premières épreuves, on a obtenu au moins r succès consécutifs ». On a donc Pn = P(Bn ). 1. a. On ne peut obtenir r succès consécutifs en moins de r épreuves. On a donc P0 = P1 = . . . = Pr−1 = 0. L’événement Pr est réalisé si les r premières épreuves sont des succès, ce qui donne Pr = pr . b. Il est clair que Bn ⊂ Bn+1 , ce qui implique Pn Pn+1 et Pn+1 − Pn = P(Bn+1 \ Bn ). Il faut donc montrer que P(Bn+1 \ Bn ) = (1 − Pn−r )pr (1 − p). L’événement Bn+1 \ Bn est réalisé si les n premières épreuves n’ont pas donné r succès consécutifs et si les n + 1 premières donnent r succès consécutifs qui sont obtenus au r dernières épreuves, i.e. aux épreuves n − r + 2, . . . , n, n + 1. L’épreuve précédente, la (n − r + 1)-ième est un
528
Solutions
Bn+1 \ Bn = Bn−r ∩ An−r+1 ∩ An−r+2 ∩ . . . ∩ An+1 . Les épreuves étant indépendantes, on obtient P(Bn+1 \ Bn ) = P(Bn−r )P(An−r+1 )P(An−r+2 ) . . . P(An+1 ) = (1 − Pn−r )(1 − p)pr . c. On a déjà vu que la suite (Pn )n∈N est croissante. Comme elle est majorée par 1 (car Pn est une probabilité), elle converge. Notons sa limite. La suite (Pn−r ) tend aussi vers et par passage à la limite dans l’égalité démontrée à la question précédente, on obtient = + (1 − )pr (1 − p) et donc = 1, puisque p ∈ ]0, 1[. 2. a. Soit C l’événement « on n’obtient jamais r succès consécutifs ». On a, pour tout n ∈ N∗ , C ⊂ Bn et donc 0 P(C) 1 − Pn . En faisant tendre n vers +∞, on obtient P(C) = 0. On est quasi-certain d’obtenir r succès consécutifs. L’application T est donc définie presque sûrement. b. On utilise le résultat de l’exercice 3.. On a, pour tout k ∈ N, [T > k] = Bk . On en déduit que P([T > k]) = 1 − Pk . Montrons que la série de terme général P([T > k]) Pn+1 − Pn converge. Il résulte de la question 1 que, pour tout n r, 1 − Pn−r = et (1 − p)pr donc, pour tout k ∈ N, P([T > k]) = 1 − Pk =
Pk+r+1 − Pk+r · (1 − p)pr
Pour n ∈ N, on obtient n
P([T > k]) =
k=0
n Pk+r+1 − Pk+r k=0
(1 − p)pr
=
Pn+r+1 − Pr · (1 − p)pr
Comme la suite (Pn ) converge vers 0, on obtient
© Dunod – La photocopie non autorisée est un délit
lim
n→+∞
n k=0
P([T > k]) =
1 − Pr 1 − pr = · r (1 − p)p (1 − p)pr
La série de terme général P([T > k]) converge, donc d’après l’exercice 3., la variable T possède une espérance et +∞ 1 − pr P([T > k]) = · E(T ) = (1 − p)pr n=0 1. On a, pour n ∈ N et t ∈ [−1, 1], |pn tn | pn . Comme la série de terme général 12. pn est convergente, de somme 1, la série de terme général pn tn est absolument convergente pour t ∈ [−1, 1] donc l’ensemble de définition de GX contient [−1, 1]. De plus +∞ pn = 1. Si X est une variable finie, pn est nul pour n assez grand ; la somme GX (1) = n=0
de la série se réduit à une somme finie et GX est définie sur R.
529
SOLUTIONS
échec, car sinon Bn est réalisé, et les n − r épreuves précédentes ne doivent pas donner r succès consécutifs. On a donc
Chapitre
8 – Variables aléatoires discrètes
2. a. On a, pour tout t ∈ [0, 1[, GX (t) − GX (1) tn − 1 = = pn pn (1 + t + · · · + tn−1 ). t−1 t − 1 n=1 n=1 +∞
+∞
Soit t et t deux réels tel que 0 t t < 1. On a, pour tout n ∈ N∗ , 1 + t + · · · + tn−1 1 + t + · · · + t
n−1
GX (t ) − GX (1) GX (t) − GX (1) GX (t) − GX (1) : la fonction t −→ est croist−1 t − 1 t−1 sante sur [0, 1[. b. Soit t ∈ [0, 1[. On a, pour tout n ∈ N∗ , et donc
pn (1 + t + · · · + tn−1 ) npn . Comme X possède une espérance, la série de terme général npn converge. Par croissance de la somme d’une série, on obtient, pour tout t ∈ [0, 1[, +∞
pn (1 + t + · · · + tn−1 )
n=1
+∞
npn c’est-à-dire
n=1
GX (t) − GX (1) E(X). t−1
GX (t) − GX (1) est croissante sur [0, 1[ et est majorée par E(X). Elle t−1 possède donc une limite finie en 1 à gauche. Autrement dit, la fonction GX possède une dérivée à gauche en 1 et par passage à la limite dans l’inégalité précédente, on obtient GX (t) − GX (1) (GX ) (1) = lim E(X). t→1 t−1 c. D’après la question a, on a, pour n ∈ N∗ et t ∈ [0, 1[, La fonction t −→
n
pk (1 + t + · · · + tk−1 )
k=1
GX (t) − GX (1) · t−1
Comme GX est dérivable en 1 à gauche, on obtient en faisant tendre t vers 1 par valeurs inférieures, n kpk (GX ) (1).
k=1
La série à termes positifs kpk a ses sommes partielles majorées, donc elle converge et X possède une espérance. En faisant tendre n vers +∞ dans l’inégalité précédente, on obtient E(X) (GX ) (1). Il résulte qu’il y équivalence entre X admet une espérance et GX dérivable à gauche en 1. Des inégalités démontrées, il résulte que, dans le cas où l’espérance existe, E(X) = (GX ) (1).
530
Solutions
La fonction GX est dérivable sur R et pour tout réel t, (GX ) (t) = np(pt + 1 − p)n−1 . On obtient E(X) = (GX ) (1) = np. Si X suit la loi géométrique de paramètre p, on a pour tout réel t et tout n ∈ N∗ , pn tn = p(1 − p)n−1 t = pt(1 − p)n−1 . La série de terme général pn tn converge absolument pour |t(1 − p)| < 1, soit |t| < On obtient, pour |t|
0 équivaut à > et ou encore ln > t2 . Considérons la 2 1 − 2t 1 − 2t 1 fonction g définie pour 0 t < par 2 Si 0 t
m, on a en utilisant la linéarité de la covariance, Cov(U, V ) =
n m+n
Cov(Xi , Xj ).
i=1 j=m+1
Si i = j, les variables Xi et Xj sont indépendantes donc Cov(Xi , Xj ) = 0. Par ailleurs, on a Cov(Xi , Xi ) = V (Xi ) = s2 . Il y autant de termes non nuls dans la double somme que d’indice i appartenant à [[1, n]] et [[m + 1, m + n]], c’est-à-dire tels que m + 1 i n. Il y en a n − m. On obtient donc Cov(U, V ) = (n − m)s2 . Comme les variables X1 , . . . , Xn d’une part et Xm+1 , . . . , Xm+n sont indépendantes, n m+n V (Xi ) = ns2 et V (V ) = V (Xi ) = ns2 . On en déduit on a V (U) = i=m+1 √i=1 s(U) = s(V ) = n s et finalement rU,V =
534
n−m · n
Solutions
f (p+1) (x) = p!(−(p + 1))(−1)(1 − x)−(p+2) =
(p + 1)! · (1 − x)p+2
La dérivée p-ième de x −→ xn est nulle si n < p et est pour n p la fonction x −→ n(n − 1) . . . (n − p + 1)xn−p . En utilisant le résultat que l’énoncé demande d’admettre, on obtient donc, pour tout x ∈ ]−1, 1[, f (p) (x) =
+∞
n(n − 1) . . . (n − p + 1)xn−p =
n=p
= p!
n=p
+∞ n=p
+∞
n! xn−p (n − p)!
+∞ n n−p p+k k x x, = p! p p k=0
en posant n − p = k. En comparant avec l’expression de f (p) trouvée précédemment, on obtient, pour tout x ∈ ]−1, 1[, +∞ p+k k 1 x = · (1 − x)p+1 p k=0 1. Par propriété de la loi d’un couple, on a +∞ +∞ P [X = m] ∩ [Y = n] = 1. n=0
m=0
© Dunod – La photocopie non autorisée est un délit
Soit n ∈ N. On a m+n+1 +∞ +∞ m+n l P [X = m] ∩ [Y = n] = c 2l + 1 n m=0 m=0 n+1 m +∞ m+n l l =c . 2l + 1 2l + 1 n m=0 l qui appartient à ]0, 1[ En appliquant le résultat du préliminaire avec p = n et x = 2l + 1 1 2l + 1 car l > 0, on obtient, puisqu’alors = , 1−x l+1 +∞ P [X = m] ∩ [Y = n] = c m=0
l 2l + 1
n+1
2l + 1 l+1
n+1
=c
l l+1
n+1 .
535
SOLUTIONS
3. Préliminaire On constante que f est de classe C ∞ sur ]−1, 1[ comme quotient de fonctions C ∞ . Une p! récurrence immédiate sur p ∈ N montre que, pour tout x ∈ ]−1, 1[, f (p) (x) = · En (1 − x)p+1 effet c’est vrai pour p = 0 et si c’est vrai au rang p alors, pour tout x ∈ ]−1, 1[,
Chapitre
9 – Couples de variables aléatoires discrètes
On a ensuite +∞ n+1 +∞ +∞ 1 l l · P [X = m] ∩ [Y = n] =c =c = cl, l l + 1 l + 1 1 − l+1 n=0 m=0 n=0 l ∈ ]0, 1[, donc convercar on reconnaît la somme d’une série géométrique de raison l+1 gente. On a donc 1 c= · l 2. Pour tout n ∈ N, on a P([Y = n]) =
+∞ P [X = m] ∩ [Y = n] . m=0
Ce calcul a déjà été effectué dans la question précédente. On trouve P([Y = n]) = c
l l+1
n+1 =
1 l+1
l l+1
n .
l 1 = , on trouve une loi géométrique à valeurs dans N de paramètre Comme 1− l+1 l+1 1 · On en déduit l+1 E(Y ) = l + 1 − 1 = l et V (Y ) =
l (l + 1)2 = l(l + 1). l+1
L’expression de la loi conjointe est parfaitement symétrique en (m, n). Pour chercher la loi de X, on somme sur n. On obtient la même expression : la variable X suit la même loi géométrique. Elle a donc même espérance et même variance. 3. On sait que XY possèdeune espérance car X et Y ont un moment d’ordre 2. m+n m+n Pour tout m > 0, on m = (n + 1) et donc, sous réserve de convergence, n n+1 m m−1 +∞ +∞ l m+n l l m+n m = (n + 1) 2l + 1 2l + 1 m=1 n + 1 2l + 1 n m=0 k +∞ l l k+n+1 = (n + 1) . 2l + 1 k=0 2l + 1 n+1 On reconnaît une des sommes calculées dans le préliminaire avec p = n + 1 et toujours l x= . Ainsi la série converge et 2l + 1 m n+2 +∞ 2l + 1 m+n l l m = (n + 1) . 2l + 1 2l + 1 l + 1 n m=0
536
Solutions
E(XY ) =
+∞ +∞
SOLUTIONS
On sait que mnP([X = m] ∩ [Y = n])
n=0 m=0 +∞ +∞
m+n+1 m+n l mnc = 2l + 1 n n=0 m=0 m +∞ +∞ n+1 l m+n l = nc m 2l + 1 2l + 1 n n=0 m=0 +∞ n+2 n+2 2l + 1 l =c n(n + 1) 2l + 1 l+1 n=0 n+2 +∞ l =c (n2 + n) . l+1 n=0 En écrivant cela
1 l 2 (n + n) E(XY ) = l + 1 n=0 l+1 +∞
l l+1
n ,
on reconnaît l (E(X) + E(X 2 )) l+1 l (E(X) + V (X) + (E(X))2 ) = l+1 l (l + l(l + 1) + l2 ) = 2l2 . = l+1
E(XY ) =
© Dunod – La photocopie non autorisée est un délit
On en déduit Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 2l2 − l2 = l2 . 4. La variable Z est à valeurs dans N et pour tout k ∈ N, k+1 k k l c 2l + 1 i i=0 i=0 k+1 k k+1 l k 1 l = =c 2k 2l + 1 l 2l + 1 i i=0 k 2l 1 = . 2l + 1 2l + 1
P([Z = k]) =
k
P([X = i] ∩ [Y = k − i]) =
La variable aléatoire Z suit la loi géométrique à valeurs dans N de paramètre
1 · 2l + 1
537
Chapitre
9 – Couples de variables aléatoires discrètes
Soit k ∈ N. On a, pour tout i ∈ N, P([X = i]/[Z = k]) =
P([X = i] ∩ [Y = k − i]) P([X = i] ∩ [Z = k]) = . P([Z = k]) P([Z = k])
Si i > k, k − i < 0, donc P([X = i]/[Z = k]) = 0. Si 0 i k, on obtient k+1 1 k l k k 1 l i 2l + 1 P([X = i]/[Z = k]) = . k = 2 i 1 2l 2l + 1 2l + 1 La loi de X conditionnelle à [Z = k] est la loi binomiale de paramètre
4.
k,
1 . 2
La variable Z est à valeurs dans N. Pour k ∈ N∗ , on a
P([Z = k]) = P([X − Y = k]) =
+∞
P([X − Y = k] ∩ [Y = i])
i=0
=
=
=
+∞ i=0 +∞ i=0 +∞
P([X = i + k] ∩ [Y = i]) P([X = i + k])P([Y = i]) a(1 − a)k+i P([Y = i])
i=0
= a(1 − a)k
+∞
(1 − a)i P([Y = i]).
i=0
Comme la série de terme général converge absolument, on peut dire d’après le théorème de transfert que +∞ (1 − a)i P([Y = i]) a = E((1 − a)Y ) = i=0
et donc, pour tout k ∈ N∗ ,
538
P([Z = k]) = aa(1 − a)k .
Solutions
P[Z = 0]) = P([X Y ] =
+∞
SOLUTIONS
On a de plus P([X Y ] ∩ [Y = i])
i=0 +∞
=
i=0 +∞
=
P([X i] ∩ [Y = i]) P([X i])P([Y = i]).
i=0
On a pour tout i ∈ N, i
P([X i]) =
P([X = j]) =
j=0
i
a(1 − a)j = 1 − (1 − a)i+1 .
j=0
On en déduit +∞ 1 − (1 − a)i+1 P([Y = i]) P[Z = 0]) =
=
i=0 +∞
P([Y = i]) − (1 − a)
i=0
+∞
(1 − a)i P([Y = i])
i=0
= 1 − a(1 − a). 5.
1. Les variables S et E sont à valeurs dans N. La loi de S sachant [N = n] est la loi binomiale de paramètre (n, p). On a, pour tout k ∈ N,
© Dunod – La photocopie non autorisée est un délit
P([S = k]) =
=
+∞
P([S = k] ∩ [N = n]) =
n=0 +∞
n k n−k e−l ln = e−l pq n! k
n=k
=
e
−l
+∞ k
(pl) k!
n=k
+∞ n=0 +∞ n=k
P([S = k]/[N = n])P([N = n]) 1 pk qn−k ln k!(n − k)!
n−k
(ql) · (n − k)!
Avec le changement d’indice j = n − k, on obtient P([S = k]) =
+∞ e−l (pl)k (ql)j e−l (pl)k ql e−pl (pl)k = e = · k! j! k! k! j=0
La variable S suit la loi de Poisson de paramètre pl. La loi de E sachant que N = n est la loi binomiale de paramètre (n, q). Le même calcul permet de montrer que E suit la loi de Poisson de paramètre ql.
539
Chapitre
9 – Couples de variables aléatoires discrètes
Montrons que les variables S et E sont indépendantes. On note que S + E = N. On obtient donc, pour (k, ) ∈ N2 , P([S = k] ∩ [E = ]) = P([S = k] ∩ [N − S = ]) = P([S = k] ∩ [N = k + ]). La loi de S sachant [N = k + ] est la loi binomiale de paramètre (k + , p). On en déduit que P([S = k] ∩ [E = ]) = P([S = k]/[N = k + ])P([N = k + ]) pk q e−l k + k e−l lk+ = . = pq (k + )! k!! k Comme e−l = e−pl · e−ql , on obtient P([S = k] ∩ [E = ]) =
pk e−pl q e−ql = P([S = k])P([E = ]). k!!
Les variables S et E sont indépendantes. 2. a. En utilisant de nouveau l’égalité N = S + E, on obtient, pour (m, n) ∈ N2 par indépendance des variables S et E, P([S = m])P([E = n]) = P([S = m] ∩ [E = n]) = P([S = m] ∩ [N − S = n]) = P([S = m])P([N = m + n]). Comme P([N = m + n]) = 0, on peut écrire P([S = m])P([E = n]) = P([S = m]/[N = m + n])P([N = m + n]) m+n m n p q P([N = m + n]) = n pm qn = (m + n)!P([N = m + n]) m!n! soit encore (m + n)!P([N = m + n]) =
P([S = m])m! P([E = n])n! · pm qn
P([S = m])m! P([E = n])n! et vn = , on obtient l’expression voulue. pm qn b. On en déduit que pour (m, n) ∈ N × N∗ , En posant um =
um vn = (m + n)!P([N = m + n]) = ((m + 1) + (n − 1))P([(m + 1) + (n − 1)]) = um+1 vn−1 . Comme P([N = m + n]) = 0, um et vn−1 ne sont pas nuls. On a donc pour (m, n) ∈ N × N∗ , um+1 vn = · um vn−1
540
Solutions
P([N = m + n]) = et donc, pour tout n ∈ N, P([N = n]) =
u0 v0 lm+n (m + n)!
u 0 v0 l n · n!
On calcule u0 v0 . On a +∞
P([N = n]) = u0 v0
n=0
+∞ n l n=0
n!
= u0 v0 el = 1.
On a donc u0 v0 = e−l et, pour tout n ∈ N, P([N = n]) =
e−l ln · n!
La variable N suit une loi de Poisson. 6.
1. a. Soit k ∈ [[0, N]]. Pour tout i ∈ N , on a P([X = xi ]/[T = k]) =
P([X = xi ] P([X = xi ] ∩ [T = k]) P([T = k]) P([T = k])
et donc
© Dunod – La photocopie non autorisée est un délit
|xi |P([X = xi ]/[T = k]) |xi |
P([X = xi ] · P([T = k])
La série de terme général |xi |P([X = xi ] converge puisque X admet une espérance, P([X = xi ] converge et aussi la série de terme général donc la série de terme général |xi | P([T = k]) |xi |P([X = xi ]/[T = k]) d’après le théorème de comparaison des séries à termes positifs. D’où l’existence de E(X/[T = k]). On a, d’après la formule des probabilités totales, pour tout i ∈ N, xi P([X = xi ]) =
N
xi P([X = xi ]/[T = k])P([T = k]).
k=0
Pour tout k ∈ [[0, N]], la série de terme général xi P([X = xi ]/[T = k]) converge d’après ce qui précède et sa somme est E(X/[T = k]) donc la série de terme général xi P([X = xi ]/[T = k])P([T = k]) converge et a pour somme E(X/[T = k])P([T = k]). La série de terme général xi P([X = xi ]) converge et a
541
SOLUTIONS
vn um+1 > 0. On a alors, pour tout m ∈ N, = l, vn−1 um donc la suite (um ) est une suite géométrique de raison l. Cette raison ne dépend que de la suite (um ), elle est donc indépendant de n. vn On a donc, pour tout n ∈ N∗ , = l. La suite (vn ) est donc elle aussi géométrique vn−1 de raison l. On obtient, pour tout (m, n) ∈ N2 , um = u0 lm et vn = v0 ln . On en déduit (m + n)!P([N = m + n]) = u0 v0 lm+n , c’est-à-dire Fixons n ∈ N∗ et posons l =
Chapitre
9 – Couples de variables aléatoires discrètes
pour somme E(X). Par linéarité de l’application qui à une série associe sa somme, on obtient N E(X) = E(X/[T = k])P([T = k]). k=0
b. Supposons réciproquement que, pour tout k ∈ [[0, N]], E(X/[T = k]) existe. Pour tout k ∈ [[0, N]], la série de terme général xi P([X = xi ]/[T = k]) converge absolument, donc la série de terme général xi P([X = xi ]/[T = k])P([T = k]) aussi et a pour somme E(X/[T = k])P([T = k]). Alors la série de terme général xi P([X = xi ]) converge absolument comme somme de N + 1 séries absolument convergentes, donc E(X) existe et est donnée par (∗) par linéarité de l’application qui à une série associe sa somme. 2. Pour tout z ∈ S(V) et k ∈ N∗ , on a zP(S = z/[T = k]) = zP([X1 + · · · + Xk ]/[T = k]) = zP([X1 + · · · + Xk = z]), car les variables X1 +· · ·+Xk et T sont indépendantes. Sous réserve d’absolue convergence, on a E(S/[T = k]) = zP([X1 + · · · + Xk = z]) = zP([X1 + · · · + Xk = z]), z∈S(V)
z∈(X1 +···+Xk )(V)
/ (X1 + · · · + Xk )(V). car (X1 + · · · + Xk )(V) ⊂ S(V) et P([X1 + · · · + Xk = z]) = 0 si z ∈ On reconnaît dans la somme de la série l’expression de l’espérance de X1 + · + Xk . Chacune des variables Xn a une espérance donc X1 + · · · + Xk a une espérance et k E(X1 + · · · + Xk ) = E(Xi ) = kE(X1 ), car toutes les variables Xi ont même loi. On en i=1
déduit que E(S/[T = k]) existe et E(S/[T = k]) = kE(X1 ). Cette formule reste vérifiée pour k = 0 car la loi de S conditionnelle à [T = 0] est celle d’une variable nulle. De la question 1.(b), on déduit que S possède une espérance et que E(S) =
N
E(S/[T = k])P([T = k]) =
k=0
= E(X1 )
N
kE(X1 )P([T = k])
k=0 N
kP([T = k]) = E(X1 )E(T ).
k=0
3. Considérons une suite (Xi ) de variables indépendantes de même loi que U1 . Soit n ∈ N. On peut écrire Un+1 comme une somme de Un variables indépendantes de même loi que U1 , chaque variable étant égale au nombre de descendants directs d’un membre de la n-ième génération. On peut donc écrire Un+1 = X1 + X2 + · · · + XUn .
542
Solutions
E(Un+1 ) = E(X1 )E(Un ) = E(U1 )E(Un ). On en déduit, pour tout n ∈ N, E(Un ) = (E(U1 ))n E(U0 ) = (E(U1 ))n , car U0 est la variable certaine égale à 1. 4. La variable S est à valeurs dans N. En appliquant la formule des probabilités totales, on obtient, pour tout n ∈ N, P([S = n]) =
=
=
+∞ k=0 +∞ k=0 +∞
P([S = n]/[T = k])P([T = k]) P([X1 + · + Xk = n]/[T = k])P([T = k]) P([X1 + · + Xk = n])P([T = k]),
k=0
car les variables X1 + · + Xk et T sont indépendantes. La variable X1 + · · · + Xk est une somme de k variables indépendantes suivant une loi de Bernoulli de paramètrep. Elle suit une loi binomiale de paramètre (k, p). On a donc 0 si k < n P([X1 + · · · + Xk = n]) = k n k−n On en déduit sinon. n p q P([S = n]) =
+∞ k
© Dunod – La photocopie non autorisée est un délit
k=n
n
pn qk−n
e−l lk k!
=
+∞ e−l (pl)n (ql)k−n n! (k − n)! k=n
=
e−l (pl)n ql e−pl (pl)n e = · n! n!
La variable S suit la loi de Poisson de paramètre pl. On a donc E(S) = pl = E(X1 )E(T ). Bien que les hypothèses de la deuxième question ne soient pas vérifiées (T n’est pas finie), le résultat reste vrai. 7.
1. La variable U est à valeurs dans N et V à valeurs dans Z. Soit (i, j) ∈ N × Z. Si j 0, on a [U = i] ∩ [V = j] = [inf(X, Y ) = i] ∩ [X − Y = j] = [Y = i] ∩ [X − i = j] = [X = i + j] ∩ [Y = i],
543
SOLUTIONS
On peut supposer que la variable Un est indépendante des variables Xi . Chaque variable Xi possède une espérance car est finie, à valeurs dans [[0, N]]. Les variables Un sont finies aussi pour tout n ∈ N. En effet chaque individu ayant au plus N descendants, la plus grande valeur prise par Un est N n . Les hypothèses de la question précédente sont vérifiées et on a
Chapitre
9 – Couples de variables aléatoires discrètes
car si X Y , inf(X, Y ) = Y . On en déduit, par indépendance des variables X et Y , P([U = i] ∩ [V = j]) = P([X = i + j] ∩ [Y = i]) = P([X = i + j])P([Y = i]) = pqi+j pqi = p2 q2i+j . Si j < 0, on obtient de même [U = i] ∩ [V = j] = [X = i] ∩ [X − Y = j] = [X = i] ∩ [Y = i − j]. On en déduit P([U = i] ∩ [V = j]) = P([X = i] ∩ [Y = i − j]) = P([X = i])P([Y = i − j]) = pqi pqi−j = p2 q2i−j . On a donc, pour tout (i, j) ∈ N × Z, P([U = i] ∩ [V = j]) = p2 q2i+|j| . On obtient les lois marginales en sommant sur l’une des variables. Pour tout i ∈ N, P([U = i]) =
P([U = i]∩[V = j]) = 2
+∞
P([U = i]∩[V = j])−P([U = i]∩[V = 0]),
j=0
j∈Z
car la fonction j −→ P([U = i] ∩ [V = j]) est paire ; on enlève P([U = i] ∩ [V = 0]) qui est compté deux fois. On obtient P([U = i]) = 2
+∞
p2 q2i+|j| − p2 q2i = 2p2 q2i
j=0
+∞
qj − p2 q2i =
j=0
2p2 q2i − p2 q2i = p(2 − p)q2i . 1−q
Pour tout j ∈ Z, P([V = j]) =
+∞
P([U = i] ∩ [V = j]) = p2 q|j|
i=0
+∞ i=0
(q2 )i =
pq|j| p2 q|j| pq|j| = · = 1 − q2 1+q 2−p
On vérifie que, pour tout (i, j) ∈ N × Z, P([U = i])P([V = j]) = p(2 − p)q2i
pq|j| = p2 q2i+|j| = P([U = i] ∩ [V = j]). 2−p
Le variables U et V sont donc indépendantes. 2. a. On a, pour tout n ∈ N, [U = n] ∩ [V = 1] = [inf(X, Y ) = n] ∩ [X − Y = 1] = [Y = n] ∩ [X − Y = 1] = [Y = n] ∩ [X = n + 1]. On en déduit P([U = n] ∩ [V = 1]) = P([Y = n] ∩ [X = n + 1]).
544
Solutions
SOLUTIONS
On a de même [U = n] ∩ [V = 0] = [inf(X, Y ) = n] ∩ [X − Y = 0] = [X = n] ∩ [Y = n] et donc
P([U = n] ∩ [V = 0]) = P([X = n] ∩ [Y = n]).
On a pour tout n ∈ N, P([X = n]) = 0 et P([Y = n]) = 0. On en déduit P([X = n] ∩ [Y = n]) = P([X = n])P([Y = n]) = 0. On peut donc diviser les deux égalités. On obtient P([U = n] ∩ [V = 1] P [X = n + 1] ∩ [Y = n] = P [X = n] ∩ [Y = n] P [U = n] ∩ [V = 0] et en tenant compte de l’indépendance des variables X et Y d’une part, U et V de l’autre P([X = n + 1])P([Y = n]) P([U = n])P([V = 1]) = = r, P([X = n])P([Y = n]) P([U = n])P([V = 0]) c’est-à-dire P([X = n + 1]) = rP([X = n]). b. La suite P([X = n]) est géométrique de raison r et donc P([X = n]) = P([X = 0])r n pour tout n ∈ N. On a P([X = 0]) > 0 et r > 0, car P([X = n]) > 0 pour tout n ∈ N. La série de terme général P([X = n]) converge donc 0 < r < 1 et +∞
P([X = n]) = P([X = 0])
n=0
+∞
rn =
n=0
P([X = 0]) = 1. 1−r
On a donc P([X = 0]) = 1 − r et, pour tout n ∈ N, © Dunod – La photocopie non autorisée est un délit
P([X = n]) = (1 − r)r n . La variable X et donc Y également suit la loi géométrique de paramètre 1 − r. L’indépendance des variables U et V caractérise donc la loi géométrique. 8.
1. On a, pour tout n ∈ N, P([Y = n]) =
+∞
P([Y = n]/[X = k])P([X = k]).
k=0
Pour tout k ∈ N, la loi de Y conditionnelle à [X = k] est la loi uniforme sur [[0, k]]. On a donc ⎧ ⎨ 1 si 0 n k P([Y = n]/[X = k]) = k + 1 ⎩0 si n > k.
545
Chapitre
9 – Couples de variables aléatoires discrètes
On en déduit P([Y = n]) =
+∞ k=n
On obtient de même P([Y = n + 1]) =
1 P([X = k]). k+1
+∞
1 P([X = k]). k+1 k=n+1
En soustrayant, tous les termes se simplifient sauf un, et il vient 1 P([Y = n]) − P([Y = n + 1]) = P([X = n]), n+1 ce qui est la relation voulue. On opère de la même façon pour X − Y . La variable X − Y est à valeur dans N car X Y . Pour tout n ∈ N, +∞ P([X − Y = n]/[X = k])P([X = k]) P([X − Y = n]) = =
= On a donc, pour tout n ∈ N,
k=0 +∞ k=0 +∞ k=n
P([Y = k − n]/[X = k])P([X = k]) 1 P([X = k]). k+1
P([X − Y = n]) = P([Y = n]). Les variables X − Y et Y ont même loi et donc même espérance. Par linéarité de l’espérance, on obtient E(Y ) = E(X − Y ) = E(X) − E(Y ) et donc E(X) · E(Y ) = 2 2. a. Supposons qu’il existe p ∈ ]0, 1] tel que, pour tout n ∈ N, P([Y = n]) = qn p. On a d’après la première question, pour tout n ∈ N, P([X = n]) = (n + 1)(P([Y = n]) − P([Y = n + 1])) = (n + 1)(pqn − pqn+1 ) = (n + 1)pqn (1 − q) = (n + 1)p2 qn . Pour tout (m, n) ∈ N , on a P([X − Y = m] ∩ [Y = n]) = P([X = m + n] ∩ [Y = n]) = P([Y = n]/[X = m + n])P([X = m + n]) 1 (m + n + 1)p2 qm+n = m+n+1 = p2 qm+n Mais comme la loi de X − Y est la même que celle de Y , on a par ailleurs 2
P([X − Y = m])P([Y = n)] = pqm pqn = p2 qm+n = P([X − Y = m] ∩ [Y = n]). Les variables X − Y et Y sont indépendantes.
546
Solutions
SOLUTIONS
b. Supposons réciproquement que les variables X − Y et Y sont indépendantes. D’après la première question, on a 1 P([X = n]) n+1 = P([Y = 0]/[X = n])P([X = n]) = P([X = n] ∩ [Y = 0]).
P([Y = n]) − P([Y = n + 1]) =
En faisant intervenir la variable X − Y qui a même loi que Y et est indépendante de Y , on obtient P([Y = n]) − P([Y = n + 1]) = P([X − Y = n] ∩ [Y = 0]) = P([X − Y = n])P([Y = 0]) = P([Y = n])P([Y = 0]). Posons p = P([Y = 0]) ∈ [0, 1] et q = 1 − p. On a, pour tout n ∈ N, P([Y = n + 1]) = (1 − p)P([Y = n]) = qP([Y = n]) et donc
P([Y = n]) = qn p.
On note que p > 0 sinon, pour tout n ∈ N, P([Y = n]) = 0, ce qui est impossible car ∞ P([Y = n]) = 1. L’équivalence est démontrée. n=0
9.
1. Les variables aléatoires Y et Z sont à valeurs dans N∗ et, pour tout (i, j) ∈ N∗ 2 ,
© Dunod – La photocopie non autorisée est un délit
[Y = i] ∩ [Z = j] = [X1 = . . . = Xi , Xi+1 = Xi , Xi+1 = . . . = Xi+j , Xi+j+1 = Xi+j ] = [X1 = . . . = Xi = 1, Xi+1 = . . . = Xi+j = 0, Xi+j+1 = 1] ∪ [X1 = . . . = Xi = 0, Xi+1 = . . . = Xi+j = 1, Xi+j+1 = 0]. Les variables Xn étant indépendantes, on en déduit P([Y = i] ∩ [Z = j]) = P([X1 = . . . = Xi = 1, Xi+1 = . . . = Xi+j = 0, Xi+j+1 = 1]) + P([X1 = . . . = Xi = 0, Xi+1 = . . . = Xi+j = 1, Xi+j+1 = 0]) = pi qj p + qi pj q = pi+1 qj + qi+1 pj . On obtient les lois marginales en sommant par rapport à une variable. On a, pour tout i ∈ N∗ , P([Y = i]) =
+∞ j=1 i+1
=p
P([Y = i] ∩ [Z = j]) = pi+1
+∞ j=1
qj + qi+1
+∞
pj
j=1
q p + qi+1 = pi q + qi p 1−q 1−p
547
Chapitre
9 – Couples de variables aléatoires discrètes
et pour tout j ∈ N∗ , P([Z = j]) =
+∞
P([Y = i] ∩ [Z = j]) = qj
i=1
+∞
pi+1 + pj
i=1
+∞
qi+1
j=1
p2 q2 = qj + pj = p2 qj−1 + q2 pj−1 . 1−p 1−q Si Y et Z ont même loi, on a P([Y = 1]) = P([Z = 1]) soit 2pq = p2 + q2 , ce qui donne 1 (p − q)2 = 0 et donc p = q = · 2 1 Il est clair que réciproquement si p = q = , on a, pour tout i ∈ N∗ , 2 i 1 P([Y = i]) = P([Z = i]) = . 2 Les variables aléatoires Y et Z ont même loi. 2. On a, pour tout i ∈ N∗ , iP([Y = i]) = ipi q + iqi p = p(ipi−1 q) + q(iqi−1 p). La série de terme général ipi−1 q converge et sa somme est l’espérance d’une loi géométrique 1 à valeurs dans N∗ , de paramètre q, c’est-à-dire · De même la série de terme général ipi−1 q q 1 converge et a pour somme · p On en déduit que Y possède une espérance et E(Y ) = p
+∞
ipi−1 q) + q
i=1
+∞
iqi−1 p =
i=1
p q + · q p
p2 + q2 − 2pq (p − q)2 = 0, on déduit que E(Y ) 2. pq pq En écrivant de même jP([Z = j]) = p(jqj−1 p) + q(jpj−1 q),
De E(Y ) − 2 =
on trouve de même que Z a une espérance et que E(Z) = p
+∞ j=1
jqj−1 p + q
+∞ j=1
jpj−1 q =
p q + = 2. p q
On procède de même pour l’espérance de Y 2 et de Z 2 . On fait apparaître E(U 2 ) et E(V 2 ), où U suit la loi géométrique de paramètre q et V suit une loi géométrique de paramètre 2 p 1 p+1 q+1 p. On a E(U 2 ) = V (U) + E(U) = 2 + 2 = 2 et de même E(V 2 ) = 2 · q q q p
548
Solutions
2
E(Y ) = p
+∞
2 i−1
ip
q+q
i=1
+∞
i2 qi−1 p = pE(U 2 ) + qE(V 2 ) = p
i=1
p+1 q+1 +q 2 q2 p
et donc 2 p+1 q + 1 p2 q2 p q p3 + q3 V (Y ) = E(Y 2 ) − E(Y ) = p 2 + q 2 − 2 − 2 − 2 = 2 + 2 − 2 = 2 2 − 2. q p q p q p pq En écrivant p3 + q3 = (p + q)(p2 + q2 − pq) = p2 + q2 − pq = (p + q)2 − 3pq = 1 − 3pq, on obtient 1 − 3pq V (Y ) = − 2. (pq)2 Un calcul semblable pour Z donne E(Z 2 ) = p
p2 + q2 + 1 2 − 2pq q+1 p+1 q+1 p+1 + = = +q 2 = 2 p q p q pq pq
et V (Z) = E(Z 2 ) − 4 = On en déduit que V (Z) − 2 =
2 − 6. pq
2 − 8. Le maximum de pq = p(1 − p) quand p décrit [0, 1] pq
1 est , comme le montre une simple étude de fonction. On en déduit V (Z)−2 8−8 0 4 et V (Z) 2. Par ailleurs 1 2 1 1 1 3 5 V (Y ) − V (Z) = −2− +6= +4= −4 −1 . − − (pq)2 pq pq (pq)2 pq pq pq
© Dunod – La photocopie non autorisée est un délit
Comme
1 4, on en déduit V (Y ) − V (Z) 0. On a donc pq V (Y ) V (Z) 2.
3. Les variables Y et Z ont des moments d’ordre 2 donc YZ possède une espérance et E(YZ) =
+∞ +∞ +∞ +∞ +∞ +∞ ij pi+1 qj + qi+1 pj = p jqj ipi + q jpj iqi . j=1 i=1
On a
j=1 +∞ j=1
i=1
j=1
i=1
q q j−1 q 1 jq p = · = 2 p j=1 p p p +∞
jqj =
et toutes les autres sommes se calculent de la même manière. On obtient E(YZ) = p ·
p q 1 q p · +q· 2 · 2 = · p2 q2 q p pq
549
SOLUTIONS
On obtient
Chapitre
9 – Couples de variables aléatoires discrètes
On en déduit 2(p2 + q2 ) 1 − pq pq 2 2 2 (p − q)2 (p + q) − 2(p + q ) =− · = pq pq
Cov(Y, Z) = E(YZ) − E(Y )E(Z) =
1 4. Si les variables Y et Z sont indépendantes, on a Cov(Y, Z) = 0 donc p = q = · 2 1 Supposons réciproquement que p = q = · On a alors, pour tout (i, j) ∈ (N∗ )2 , 2 P([X = i] ∩ [Y = j]) = 2
i+j+1 i+j 1 1 = . 2 2
On a déjà démontré que dans ce cas P([X = i]) = donc
i j 1 1 et P([Y = j]) = . On a 2 2
P([X = i] ∩ [Y = j]) = P([X = i])P([Y = j]).
Les variables Y et Z sont indépendantes. 1. La variable aléatoire Tn représente l’effet du n-ième saut sur l’abscisse de la puce. 1 1 On a Tn (V) = {−1, 0, 1}, P([Tn = −1]) = P([Tn = 1]) = et P([Tn = 0] = · En 4 2 effet, [Tn = 0] signifie que le saut est effectué vers le nord ou le sud, [Tn = −1] qu’il est effectué vers l’ouest et [Tn = 1] qu’il est effectué vers l’est. On a donc E(Tn ) = 0. Par linéarité de l’espérance, on en déduit que E(Xn ) − E(Xn−1 ) = 0 pour tout n 1. La suite (E(Xn )) est constante et comme M0 = O, X0 = 0 donc E(X0 ) = 0. On a donc, pour tout n ∈ N, E(Xn ) = 0. 2 Pour calculer E(Xn2 ), on écrit Xn2 = Xn−1 + Tn2 + 2Xn−1 Tn . On obtient par linéarité de l’espérance 2 E(Xn2 ) = E(Xn−1 ) + E(Tn2 ) + 2E(Xn−1 Tn ).
10.
La variable Xn−1 ne dépend que du résultat des n − 1 premiers sauts : en fait, on a Xn−1 = T1 + · · · + Tn−1 . On suppose que les résultats des différents sauts sont indépendants, c’est-à-dire que les variables (Tk ) sont indépendantes. On en déduit que Xn−1 = T1 + · · · + Tn−1 et Tn sont indépendantes. On a donc E(Xn−1 Tn ) = E(Xn−1 )E(Tn ) = 0. 1 D’autre part, on a Tn2 (V) = {0, 1}, P([Tn2 = 1]) = P([Tn = −1]] + P([Tn = −1]) = et 2 1 1 2 2 P([Tn = 0]) = P([Tn = 0]) = · On en déduit E(Tn ) = et 2 2 1 2 E(Xn2 ) = E(Xn−1 )+ · 2
550
Solutions
2. On démontre comme dans la question précédente que E(Yn ) = 0 et E(Yn2 ) = De OMn2 = Xn2 + Yn2 , on déduit
n · 2
n n E(OMn2 ) = E(Xn2 ) + E(Yn2 ) = + = n. 2 2 2 2 On a V (OMn ) = E(OMn ) − E(OMn ) . La variance est positive (c’est l’espérance d’une variable positive) donc 2 E(OMn ) E(OMn2 ) n Comme la variable OMn est positive, son espérance est positive et √ E(OMn ) n. 3. Les variables Xn et Yn ne sont pas indépendantes pour n 1. En effet, on a n 1 P([Xn = n]) = P([Yn = n]) = , 4 car pour avoir Xn = n et Yn = n, il faut faire n sauts dans la même direction. Il est impossible d’avoir simultanément Xn = n et Yn = n. On a donc
© Dunod – La photocopie non autorisée est un délit
P([Xn = n] ∩ [Yn = n]) = 0 = P([Xn = n])P([Yn = n]). 4. Pour que la puce se retrouve à l’origine après n sauts, il faut qu’elle fait le même nombre de sauts k vers l’ouest et vers l’est et le même nombre de sauts vers le nord et le sud. Cela nécessite que le nombre total de sauts soit pair. On a donc an = 0 si n est impair. Supposons que n est pair, n = 2m. Avec les notations précédentes, on doit avoir 2k + 2 = 2m, soit = m − k. La probabilité d’avoir effectué k saut vers le l’ouest, k saut vers l’est, m − k saut vers le nord et m − k saut vers le sud est 2m 2m 2m − k 2m − 2k 1 bk = , 4 k k m−k les coefficients binomiaux correspondant aux différentes façons de répartir les sauts vers l’ouest, puis les sauts vers l’est, enfin les sauts vers le nord parmi les 2m sauts (les sauts vers 1 le sud étant les m − k sauts restant), chaque saut ayant ensuite une probabilité d’être 4 réalisé. On simplifie 2m 2m − k 2m − 2k (2m)! (2m − k)! (2m − 2k)! = k k m−k k!(2m − k)! k!(2m − 2k)! (m − k)!(m − k)! ((m)!2 (2m)! (2m) = = (k!)2 ((m − k)!)2 (m!)2 (k!)2 ((m − k)!)2 2 2m m = m k
551
SOLUTIONS
1 La suite E(Xn2 ) est arithmétique de raison et pour tout n ∈ N, 2 n n E(Xn2 ) = E(X02 ) + = · 2 2
Chapitre
9 – Couples de variables aléatoires discrètes
ce qui donne
bk =
2 2m 1 2m m . 4 m k
Comme k peut prendre une valeur quelconque entre 0 et m, on obtient a2m =
2m
bk =
k=0
2m m 2 m 2m 1 . 4 k m k=0
On utilise la formule de Vandermonde pour simplifier le somme m 2 m k=0
k
=
m m m 2m = . k m − k m k=0
Finalement, on obtient a2m
2 2m m = · 42m
1. La variable X − Y est à valeurs dans Z. Pour tout k ∈ Z, on a, puisque [Y = i])i∈Z est un système complet d’événements,
11.
P([X − Y = k] =
P([X − Y = k] ∩ [Y = i]) =
i∈Z
=
P([X = i + k] ∩ [Y = i])
i∈Z
P([X = i + k])P([Y = i]),
i∈Z
car le variables X et Y sont indépendantes. On en déduit que P([X = i − k])P([Y = i]). P([X − Y = −k] = i∈Z
Avec le changement d’indice j = i − k, on obtient P([X = j])P([Y = j + k]). P([X − Y = −k] = i∈Z
Les variables X et Y ont même loi donc P([X = j]) = P([Y = j]) et P([Y = j + k]) = P([X = j + k]). Finalement, on obtient P([X − Y = −k] =
i∈Z
La variable X − Y est symétrique.
552
P([Y = j])P([X = j + k]) = P([X − Y = k]).
Solutions
i∈Z
=
i∈Z
P([X = k − i])P([Y = i]),
i∈Z
car le variables X et Y sont indépendantes. On en déduit P([X = −k − i])P([Y = i]). P([X + Y = −k] = i∈Z
Comme les variables sont symétriques, on a P([X = −k − i]) = P([X = k + i]) et P([Y = i]) = P([Y = −i]) d’où l’on déduit P([X = k + i])P([Y = −i]). P([X + Y = −k] = i∈Z
On fait enfin le changement d’indice j = −i qui donne P([X = k − j])P([Y = j]) = P([X + Y = k]). P([X + Y = −k] = J∈Z
© Dunod – La photocopie non autorisée est un délit
La variable X + Y est symétrique. 3. On démontre la propriété par récurrence sur n. Elle est évidente pour n = 1 et a été démontrée pour deux variables aléatoires dans la question précédente. On suppose qu’elle est vraie au rang n et on la démontre pour n + 1 variables symétriques, X1 , . . . , Xn , Xn+1 indépendantes. Les variables X1 , . . . , Xn sont indépendantes et symétriques donc X1 + · · · + Xn est symétrique par hypothèse de récurrence. D’autre part, d’après le lemme des coalitions, les variables X1 + · · · + Xn et Xn+1 sont indépendantes. Comme elles sont symétriques, leur somme X1 + · · · + Xn + Xn+1 est symétrique et la récurrence est terminée. 1. On pose q = 1 − p. On a N(V) = N∗ et X(V) = N. La variable N suit la loi 12. géométrique de paramètre p et pour tout n ∈ N∗ , la loi de X conditionnelle à [N = n] est la loi binomiale de paramètre (n, p). Pour tout couple (n, k) ∈ N∗ × N, par définition de la probabilité conditionnelle, P([N = n] ∩ [X = k]) = P[N=n] ([X = k])P([N = n]). Si k > n, P([N = n] ∩ [X = k]) = 0 et si k n, n k n−k n−1 P([N = n] ∩ [X = k]) = p q pq k n k+1 2n−k−1 = p q . k
553
SOLUTIONS
2. La variable X + Y est à valeurs dans Z. Pour tout k ∈ Z, on a, puisque [Y = i])i∈Z est un système complet d’événements, P([X + Y = k] = P([X + Y = k] ∩ [Y = i]) = P([X = k − i] ∩ [Y = i])
Chapitre
9 – Couples de variables aléatoires discrètes
2. La loi de X s’obtient en écrivant P([X = k]) =
+∞ $
P([N = n] ∩ [X = k]). Pour tout entier
n=1
k non nul, k+1 +∞ +∞ n k+1 n 2 n p 2n−k−1 p (1 − p) q = P([X = k]) = q k k n=k n=k k+1 q2k p = , q (1 − q2 )k+1 d’après l’égalité donnée dans l’énoncé. On note que 1 − q2 = p(1 + q). On obtient P([X = k]) =
qk−1 · (1 + q)k+1
Si k = 0, la somme commence à 1 et pas à k. On obtient
P([X = 0]) =
+∞
2n−1
pq
n=1
+∞ = pq (q2 )n−1 = n=1
pq q · = 1 − q2 1+q
3. On considère une variable aléatoire Y qui suit une loi de Bernoulli de paramètre p et une variable aléatoire Z qui suit une loi géométrique de paramètre p . On suppose Y et Z indépendantes et l’on pose W = YZ. On a alors W (V) = N. Si k = 0, alors P([W = 0]) = P([Y = 0]) = 1 − p , car YZ = 0 équivaut à Y = 0. Si k 1, alors [YZ = k] = [Y = 1] ∩ [Z = k] et par indépendance des variables aléatoires Y et Z, P([W = k]) = P([Y = 1] ∩ [Z = 1]) = P([Y = 1])P([Z = k]) = p (1 − p )k−1 . 2
1 , X et W ont même loi. 1+q Ainsi X a la même loi qu’un produit de deux variables indépendantes, l’une étant une variable aléatoire de Bernoulli et l’autre une variable aléatoire géométrique de même para1 mètre · 1+q 4. Comme Y et Z sont indépendantes, E(X) = E(Y )E(Z) = 1. Comme Y 2 et Z 2 sont indépendantes, E(X 2 ) = E(Y 2 )E(Z 2 ). On a On voit qu’en posant en posant p =
2 1 − p 1 2 − p E(Y 2 ) = p et E(Z 2 ) = V (Z) + E(Z) = 2 + 2 = 2 . p p p On en déduit E(X 2 ) =
554
2 − p 2 − p et V (X) = − 1 = 2q. p p
Solutions
1.
1. a. La variable Y est à valeurs dans R+ donc sa fonction de répartition est nulle sur R∗− . Pour x 0, on a √ 2 FY (x) = P([ X x]) = P([X x2 ]) = 1 − e−lx . La fonction FY est continue sur R (on vérifie que sa limite à droite en 0 est 0) et dérivable sauf en 0. Ainsi possède une densité définie par 0 si x < 0 fY (x) = 2 si x 0. 2lxe−lx b. Comme Y est une variable +∞ aléatoire positive, son espérance est donnée, sous réserve xfY (x) dx. La fonction x −→ xfY (x) est continue et positive de convergence, par 0
© Dunod – La photocopie non autorisée est un délit
1 sur R+ et négligeable en +∞ devant 2 (grâce à l’exponentielle). Donc E(Y ) existe. x Pour la calculer, on se ramène à la densité de la loi normale centrée réduite en posant 1 t lx2 = t2 , soit x = √ . On obtient 2 2l +∞ +∞ 2 1 2 1 E(X) = 2lx2 e−lx dx = √ t2 e− 2 t dt 2l 0 0 √ +∞ +∞ 1 2 1 2 p 1 1 √ t2 e− 2 t dt. t2 e− 2 t dt = √ = √ 2 2l −∞ 2 l −∞ 2p On reconnaît dans l’intégrale le moment √ d’ordre 2 d’une variable normale centrée p réduite qui vaut 1. On a donc E(Y ) = √ · 2 l 1 D’autre part, on a E(Y 2 ) = E(X) = · On en déduit l 2 p 4−p 1 = · V (Y ) = E(Y 2 ) − E(Y ) = − l 4l 4l 2. Les variables X 2 et X 3 sont à valeurs dans R+ . Leurs fonctions de répartition sont nulles sur R∗− . √ √ a. Pour tout x 0, P([X 2 x]) = P([X x]) = 1 − e−l x . La fonction de répartition de X 2 est continue sur R (on vérifie que la limite à droite en 0 est 0) et de classe C 1 sur R∗ . Donc X 2 possède une densité g qui s’obtient en dérivant cette fonction de répartition. On obtient ⎧ l −l√x ⎨ √ e si x > 0 g(x) = 2 x ⎩ 0 si x 0.
555
SOLUTIONS
Chapitre 10
Chapitre
10 – Variables aléatoires à densité 1
b. Pour tout x 0, P([X 3 x]) = P([X x 3 ]) = 1 − e−lx 3 . La fonction de répartition de X 3 est continue sur R (on vérifie que la limite à droite en 0 est 0) et de classe C 1 sur R∗ . Donc X 3 possède donc une densité h qui s’obtient en dérivant cette fonction de répartition. On obtient 1
⎧ ⎨ l − 23 −lx1/3 x e h(x) = 3 ⎩0
si x > 0 si x 0.
1. a. La fonction f est continue sur R sauf en 0 et positive. Il faut montrer que
2.
+∞
+∞
f (x) dx = −∞
0
2 1 1 √ e− 2 (ln x−1) dx x 2p
converge et vaut 1. On fait le changement de variable défini par ln x = y + 1 ou x = ey+1 . On obtient, pour 0 < a < b, a
b
2 1 1 √ e− 2 (ln x−1) dx = x 2p
ln b−1 ln a−1
ey+1
1 √
e− 2 y ey+1 dy = 1 2
2p
ln b−1 ln a−1
1 2 1 √ e− 2 y dy. 2p
Quand a tend vers 0 et b vers +∞, ln a − 1 et ln b − 1 tendent respectivement vers +∞ 1 2 1 √ e− 2 y dy = 1. En effet, on −∞ et +∞ et la dernière intégrale tend vers 2p −∞ reconnaît l’intégrale sur R de la densité de la normale centrée réduite. On a donc
+∞ 0
2 1 1 √ e− 2 (ln x−1) dx = 1. x 2p
La fonction f est bien une densité de probabilité. Si x > 0, on a d’après ce qui précède
x
F(x) = 0
2 1 1 √ e− 2 (ln t−1) dt = t 2p
− ln x−1
−∞
1 2 1 √ e− 2 y dy = f(ln x − 1). 2p
b. Le même changement de variable montre que
+∞
E(X) = 0
2 1 1 x √ e− 2 (ln x−1) dx = x 2p +∞ 1 2 e− 2 y ey+1 dy
+∞ 0
2 1 1 √ e− 2 (ln x−1) dx 2p
1 =√ 2p −∞ +∞ 2 3 1 3 1 e− 2 (y−1) e 2 dy = e 2 , =√ 2p −∞ car on reconnaît la densité d’une variable aléatoire qui suit N (1, 1).
556
Solutions
SOLUTIONS
On obtient, de même, +∞ +∞ 2 1 1 − 1 (ln x−1)2 1 2 2 2 √ xe− 2 (ln x−1) dx x √ e dx = E(X ) = x 2p 2p 0 0 +∞ +∞ 1 y+1 − 1 y2 y+1 1 − 1 y2 +2y+2 √ e e 2 e dy = √ e 2 dy = 2p 2p −∞ −∞ +∞ 2 1 1 √ e− 2 (y−2) e4 dy = e4 , = 2p −∞ car on reconnaît la densité d’une variable aléatoire qui suit N (2, 1). On en déduit que 2 V (X) = E(X 2 ) − E(X) = e4 − e3 . 2. a. Il a été démontré dans le cours que si Y est une variable à densité, il en est de même de eY . La variable aléatoire Z est à valeurs dans R∗+ et sa fonction de répartition est définie pour x > 0 par FZ (x) = P([Z x]) = P([eY x]) = P([Y ln x]) = FY (ln x). La fonction FZ est continue sur R (le seul problème de continuité est en 0, où sa limite est nulle) et de classe C 1 sauf en 0. La variable Z possède donc une densité g nulle sur R− et donnée pour x > 0 par g(x) =
2 1 1 1 FY (ln x) = √ e− 2 (ln x−m) , 2 x 2ps x
car FY est une densité de la loi N (m, s2 ). b. D’après le théorème de transfert, on a, si l’intégrale converge absolument,
+∞
E(Z) = E(eY ) = −∞
(t−m)2 1 e− 2s2 dt. et √ 2ps
© Dunod – La photocopie non autorisée est un délit
On transforme l’exposant de e en écrivant t−
1 (t − m)2 =− 2 2 2s 2s 1 =− 2 2s 1 =− 2 2s
2 t − 2(m + s2 )t + m2 " # 2 t − (m + s2 ) − (s4 + 2ms2 ) 2 s2 + m. t − (m + s2 ) + 2
On en déduit la convergence de l’intégrale et l’égalité E(Z) = √ =e
1 2ps
s2 2
+m
+∞
e−
(t−(m+s2 )2 ) 2s2
e
s2 2
+m
dt
−∞
.
557
Chapitre
10 – Variables aléatoires à densité
De même, on a, sous réserve de convergence +∞ (t−m)2 1 2 2Y e− 2s2 dt. e2t √ E(Z ) = E(e ) = 2ps −∞ On écrit de même, 2t −
(t − m)2 1 =− 2 2 2s 2s 1 =− 2 2s 1 =− 2 2s
2 t − 2(m + 2s2 ) + m2 " # 2 t − (m + 2s2 ) − (4s4 + 4ms2 )
2 t − (m + 2s2 ) + 2s2 + 2m.
On en déduit la convergence de l’intégrale et l’égalité +∞ (t−(m+2s2 )2 ) 2 2 1 e− 2s2 e2s +2m dt = e2s +2m . E(Z 2 ) = √ 2ps −∞ On obtient enfin 2 2 2 2 2 V (Z) = E(Z 2 ) − E(Z) = e2s +2m − es +2m = (es − 1)es +2m . 1. a. La fonction w : t −→ ta−1 (1 − t)b−1 est continue au moins sur ]0, 1[ et 12 12 1 a−1 a−1 et t dt = dt converge si et seulement positive. En 0, on a w(t) ∼ t 1−a 0 0 t si 1 − a < 1, c’est-à-dire a > 0. D’après le théorème de comparaison des intégrales 12 w(t) dt converge si et seulement si a > 0. On a de même des fonctions positives, 0 1 1 1 b−1 b−1 et comme (1 − t) dt = dt converge si et en 1, w(t) ∼ (1 − t) 1 1 (1 − t)1−b 2 2 1 w(t) dt. seulement si 1 − b < 1, c’est-à-dire b > 0, il en est de même de
3.
1 2
Finalement B(a, b) converge si et seulement si a et b sont strictement positifs. b. Comme a > 0 et b > 0, a fortiori a + 1 > 0 et b + 1 > 0 donc toutes les intégrales convergent. )1 On a bB(a + 1, b) = 0 ta b(1 − t)b−1 dt. On intègre par parties, en intégrant t −→ b(1 − t)b−1 et en dérivant t −→ ta . Les différentes fonctions puissances sont de classe C 1 sur ]0, 1[. On a donc, pour 0 < a < b < 1, b b ' (b ta b(1 − t)b−1 dt = ta (−(1 − t)b ) a + ata−1 (1 − t)b dt. a
a
Comme lim ta = 0 et lim(1 − t)b = 0, on obtient, en faisant tendre a vers 0 et b vers 1, t→0
t→1
bB(a + 1, b) = aB(a, b + 1).
558
Solutions
1
1
ta (1 − t)b−1 dt +
B(a, b + 1) + B(a + 1, b) = 0
SOLUTIONS
Par ailleurs, on a, par linéarité de l’intégrale, ta−1 (1 − t)b dt 0 1
=
a t (1 − t)b−1 + ta−1 (1 − t)b dt
0
1
ta−1 (1 − t)b−1 (t + 1 − t) dt
= 0
= B(a, b). On en déduit bB(a + 1, b) = aB(a, b + 1) = a(B(a, b) − B(a + 1, b)) et donc B(a + 1, b) =
a B(a, b). a+b
2. a. La fonction f est positive ou nulle et continue sauf éventuellement en 0 et 1. D’après 1 la première question, f (x) dx converge et 0
0
1
1 f (x) dx = B(a, b)
1
xa−1 (1 − x)b−1 dx =
0
B(a, b) = 1. B(a, b)
+∞
Comme f est nulle hors de [0, 1],
f (x) dx converge et −∞
+∞
f (x) dx = © Dunod – La photocopie non autorisée est un délit
−∞
1
f (x) dx = 1. 0
La fonction f est donc une densité de probabilité. b. Pour tout n ∈ N, le moment d’ordre n de X est donné si l’intégrale converge par 1 1 1 1 xa−1 (1 − x)b−1 dx = xa+n−1 (1 − x)b−1 dx. On sait que xn B(a, b) B(a, b) 0 0 1 a+n−1 b−1 x (1 − x) dx = B(a + n, b) converge d’après la première question car 0
a + n a > 0. Donc X possède un moment d’ordre n donné par E(X n ) =
B(a + n, b) · B(a, b)
On a en particulier E(X) =
B(a + 1, b) a = B(a, b) a+b
559
Chapitre
10 – Variables aléatoires à densité
d’après 1 b. On obtient de même, en appliquant deux fois le résultat de 1 (b), E(X 2 ) =
a + 1 B(a + 1, b) a(a + 1) B(a + 2, b) = = · B(a, b) a + 1 + b B(a, b) (a + b + 1)(a + b)
On en déduit 2 a2 a(a + 1) V (X) = E(X 2 ) − E(X) = − (a + b + 1)(a + b) (a + b)2 a (a + 1)(a + b) − a(a + b + 1) = (a + b + 1)(a + b)2 ab = · (a + b + 1)(a + b)2 1. a. La fonction f est positive ou nulle sur R, continue sauf en a. On a, pour tout x > a, x x aa f (t)dt = a a+1 dt = [−aa t−a ]xa = −aa x−a + 1. t a a x +∞ −a On a lim x = 0, car a > 0, donc lim f (t)dt = 1. Ainsi, f (t)dt x→+∞ x→+∞ a a 0 f (t)dt = 0. Finalement converge et vaut 1. Comme f est nulle sur ] − ∞, a[,
4.
−∞
+∞
f (t) dt = 1 −∞
et f est une densité de probabilité. b. Comme f est nulle sur ] − ∞, a[, on a F(x) = 0 si x a. Si x > a, le calcul de la question précédente montre que x " a #a F(x) = f (t)dt = −aa x−a + 1 = 1 − . x a +∞ 1 aa tf (t) = a a dt converge. On sait que dt c. L’espérance existe si a t t −∞ a a converge si, et seulement si, a > 1. Ainsi X possède une espérance si, et seulement si, a > 1. Pour a > 1 et x > a, on obtient x x a aa aa a a a aa . a a dt = − = − + a−1 a−1 t a−1t a−1x a−1 a a
+∞
+∞
Comme xa−1 tend vers +∞ quand x tend vers = ∞ car a > 1, on obtient en faisant tendre x vers +∞, aa · E(X) = a−1
560
Solutions
On obtient, en faisant tendre x vers +∞, E(X 2 ) = On a alors,
aa2 · a−2
2 aa2 V (X) = E(X 2 ) − E(X) = − a−2
aa a−1
2 =
aa2 · (a − 1)2 (a − 2)
2. a. Notons FY et FZ les fonctions de répartition de Y et Z. La variable Y est à valeurs dans ]0, +∞[. Comme g > 1, l’application x −→ bgx réalise une bijection croissante de ]0, +∞[ sur ]b, +∞[. On a donc FZ (x) = 0 si x b. Pour x > b, on obtient ' ( x x = P Y ln g ln FZ (x) = P([Z x]) = P bgY x = P gY b b x x ln b ln b = FY , =P Y ln g ln g car ln g > 0. Comme FZ (x) = 1 − exp −l
ln bx ln g ln bx ln g
> 0, on a, par définition de la loi exponentielle,
= 1 − exp
−l x ln ln g b
−l lnlg x ln g b = 1− = 1− . b x
l > 0. D’après la question FZ est la fonction de répartition d’une ln g l , b . On conclut que Z variable aléatoire qui suit la loi de Pareto de paramètre ln g l suit la loi de Pareto de paramètre ,b . ln g b. Supposons réciproquement que Z suit la loi de Pareto de paramètre (a, a). Considérons ln Z − ln a · g > 1 et la variable aléatoire Y définie par Z = agY , c’est-à-dire Y = ln g Cette définition a un sens car Z est à valeurs dans ]a, +∞[⊂]0, +∞[. De plus, l’appliln x − ln a cation x −→ réalise une bijection de ]a, +∞[ sur ]0, +∞[, donc Y est à ln g valeurs dans ]0, +∞[. On a donc FY (x) = 0 si x 0 et si x > 0, Z ln Z − ln a x = P ln ln gx . FY (x) = P([Y x]) = P ln g a
© Dunod – La photocopie non autorisée est un délit
On note que
561
SOLUTIONS
d. De même, X possède un moment d’ordre 2 et donc une variance si, et seulement si, +∞ aa a a−1 dt converge, ce qui nécessite a − 1 > 1 et donc a > 2. Si cette condition t a est réalisé, on a, pour x > a, x x aa aa aa a a aa2 · a a−1 dt = − =− + a−2 a−2 t a−2t a−2x a−2 a a
Chapitre
10 – Variables aléatoires à densité
On obtient, d’après la question 1 (b), a 1 FY (x) = 1 − = 1 − g−ax = 1 − ea ln gx . gx On note que l = a ln g > 0. La variable Y suit donc la loi exponentielle de paramètre l. Ainsi une variable Z suit une loi de Pareto de paramètre (a, a) si, et seulement si, il existe g > 1 tel que Z = agY , où Y suit une loi exponentielle de paramètre a ln g. c. D’après la question précédente, on peut écrire Z = agY , où g > 1 et Y suit la loi exponentielle de paramètre l = a ln g. On a alors Z c = ac gcY = ac (gc )Y . De la question a, on déduit que Z c suit la loi de Pareto de paramètre " a c# l c ,a . = , a ln gc c 1. On fixe x > 0. On a
5.
+∞
Q(x) = P([X > x]) x
t2 1 √ e− 2 dt. 2p
1 −1 t2 t2 On écrit, pour t > 0, √ e− 2 = √ (−te− 2 ) et on intègre par parties, en posant 2p t 2p t2 t2 −1 1 u(t) = √ , u (t) = √ , v(t) = e− 2 , v (t) = −te− 2 . t 2p t2 2p
Les fonctions u et v sont de classe C 1 sur R∗+ et donc, pour a > x, a a a t2 1 √ e− 2 dt = u(t)v (t) dt = [u(t)v(t)]ax − u (t)v(t) dt 2p x x x a a2 x2 t2 1 −1 1 √ e− 2 dt. = √ e− 2 + √ e− 2 − 2 a 2p x 2p 2p x t +∞ t2 1 1 t2 √ e− 2 dt converge car en +∞, √ e− 2 est négligeable devant L’ intégrale 2 2 t 2p t 2p x 1 −1 − a2 2 √ e et , par croissances comparées, lim = 0, donc en faisant tendre a vers a→+∞ a 2p t2 +∞, on obtient +∞ x2 t2 1 1 √ e− 2 dt. Q(x) = √ e− 2 − 2 x 2p t 2p x Cette dernière intégrale est positive, car c’est l’intégrale d’une fonction positive, donc x2 1 Q(x) √ e− 2 . x 2p
562
Solutions
+∞
t2
x
t2 et on pose u(t) =
t2 1 √ e− 2 dt. On écrit, pour t > 0, 2p
SOLUTIONS
On intègre de nouveau par parties
t2 t2 1 −1 √ e− 2 = √ (−te− 2 ) 3 2p t 2p
t2 t2 −1 3 √ , u (t) = √ , v(t) = e− 2 , v (t) = −te− 2 . t3 2p t4 2p
Les fonctions u et v sont de classe C 1 sur R∗+ et donc, pour a > x, a a a t2 1 a [u(t)v(t)] √ e− 2 dt = u(t)v (t) dt = u (t)v(t) dt x− 2 2p t x x x a x2 t2 3 −1 − a2 1 − √ e− 2 dt. = √ e 2 + √ e 2 − 4 2p a3 2p x3 2p x t +∞ t2 3 3 t2 √ e− 2 dtconverge car en +∞, √ e− 2 est négligeable devant L’ intégrale 4 4 t 2p t 2p x 1 −1 − a2 et , par croissances comparées, lim 3 √ e 2 = 0, donc en faisant tendre a vers a→+∞ a t4 2p +∞, on obtient +∞ +∞ t2 x2 t2 1 3 1 √ e− 2 dt = √ e− 2 − √ e− 2 dt 2 3 4 t 2p x 2p t 2p x x et donc x2 x2 1 1 Q(x) = √ e− 2 − √ e− 2 + 3 x 2p x 2p
+∞ x
t4
t2 3 √ e− 2 dt, 2p
et comme la dernière intégrale est positive, on en déduit
© Dunod – La photocopie non autorisée est un délit
x2 x2 1 1 Q(x) √ e− 2 − √ e− 2 . x 2p x3 2p
2. De l’encadrement, valable pour x > 0, x2 x2 x2 1 1 1 √ e− 2 − √ e− 2 Q(x) √ e− 2 , 3 x 2p x 2p x 2p
on déduit 1 On a lim
x→+∞
1−
1 x2
Q(x) √1 e x 2p
2 − x2
1−
1 · x2
= 1, donc par encadrement lim
x→+∞
Q(x) 2
x √1 e− 2 x 2p
= 1.
563
Chapitre
10 – Variables aléatoires à densité
Autrement dit,
x2 1 √ e− 2 . x→+∞ x 2p 3. Soit ´ > 0. Quand a tend vers +∞, a + ´ tend aussi vers +∞. On a, d’après la question précédente
Q(x)
∼
2
QX (a + ´) p(a, ´) = ) ∼ a→+∞ QX (a) De lim
a→+∞
(a+´) 1√ e− 2 (a+´) 2p
√1 e a 2p
2 − a2
∼
a→+∞
−´2 −´a a e 2 . a+´
−´2 −´a a = 1 et lim e 2 = 0, on déduit a→+∞ a+´
lim p(a, ´) = 0.
a→+∞
4. On a, pour (a, ´) ∈ ]0, +∞[2 , P([a < X < a + ´]) P([a < X]) − P([a + ´ X]) Q(a) − Q(a + ´) = = = 1−p(a, ´). P([a < X]) P([a < X] Q(a) De la question précédente, on déduit lim
a→+∞
P([a < X < a + ´]) = lim (1 − p(a, ´)) = 1, a→+∞ P([a < X])
c’est-à-dire P([a < X < a + ´])
∼
a→+∞
P([a < X]).
1. On a, pour tout réel x,
6.
FZ (x) = P([Z x]) = P([X x] ∩ [Y x]) = P([X x])P([Y x]) = FX (x)FY (x). Pour T , on passe par l’événement contraire FT (x) = 1 − P([T > x]) = 1 − P([X > x] ∩ [Y > x]) = 1 − P([X > x])P([Y > x]) = 1 − (1 − FX (x))(1 − FY (x)). 2. Les fonctions FX et FY sont continues sur R et de classe C 1 sauf en un nombre fini de points. Il en est de même de FZ et FT . Donc Z et T admettent une densité qui s’obtient en dérivant FX et FY sauf en un nombre fini de points où le choix est arbitraire. On obtient, pour tout réel x, fZ (x) = fX (x)FY (x) + FX (x)fY (x) fT (x) = fX (x)(1 − FY (x)) + (1 − FX (x)fY (x). 3. Si x ∈ [0, 1], fX (x) = fY (x) = 0 donc fZ (x) = fT (x) = 0. Si x ∈ [0, 1], FX (x) = FY (x) = x et fX (x) = fY (x) = 1 donc fZ (x) = 2x et fT (x) = 2 − 2x.
564
Solutions
4. Les densités et fonctions de répartition de X et Y sont nulles sur R∗− . Il en est de même pour Z et T. Pour x 0, fX (x) = le−lx , fY (x) = me−mx , FX (x) = 1 − e−lx et FY (x) = 1 − e−mx . On en déduit FT (x) = 1 − e−lx e−mx = 1 − e−(l+m)x . La variable T suit une loi exponentielle de paramètre l + m. On en déduit que 1 1 E(T ) = et V (T ) = . l+m (l + m)2 Pour Z, on obtient fZ (x) = le−lx (1 − e−mx ) + (1 − e−lx )me−mx = le−lx + me−mx − (l + m)e−(l+m)x . +∞ La variable Z possède un moment d’ordre 1 car xfZ (x) dx converge. En effet, on a −∞
xfZ (x) = xfX (x) + xfY (x) − xfT (x). On a une somme d’intégrales absolument convergentes car X,Y et Z possèdent une espérance. On obtient E(Z) = E(X) + E(Y ) − E(T ) =
1 1 1 + − · l m l+m
On trouve de même que Z possède un moment d’ordre 2 et que © Dunod – La photocopie non autorisée est un délit
E(Z 2 ) = E(X 2 ) + E(Y 2 ) − E(T 2 ). 2 2 On a E(X 2 ) = V (X) + E(X) = 2 et le même résultat pour les deux autres variables. l On obtient 2 2 2 E(Z 2 ) = 2 + 2 − , l m (l + m)2 puis 2 2 1 2 2 2 1 1 + − − . V (T) = E(T 2 ) − E(T) = 2 + 2 − l m (l + m)2 l m l+m 7.
1. Pour t > 0, l’événement [X1 > t] est réalisé s’il n’est arrivé aucun voyageur entre les instants 0 et t. On a donc [X1 > t] = [Nt = 0]. Pour t 0, [X1 > t] = V, car on ne compte que les voyageurs qui arrivent à partir de l’instant 0. Cela montre que, pour tout réel t, [X > t1 ] est un événement donc son complémentaire [X t1 ] aussi. Par définition,
565
SOLUTIONS
Les fonctions fZ et fT sont nulles en dehors de [0, 1] et continues sur [0, 1] donc les variables Z et T possèdent des moments de tout ordre. En particulier 1 1 1 2 2x3 1 E(Z) = 2x2 dx = , E(T ) = (2x − 2x2 ) dx = x2 − = , 3 3 3 0 0 0 3 1 1 4 1 x 1 2x 1 − 2x3 dx = , E(T 2 ) = (2x2 − 2x3 ) dx = = · E(Z 2 ) = 2 3 2 6 0 0 0 On en déduit 2 2 1 1 et V (T ) = E(T 2 ) − E(T ) = · V (Z) = E(Z 2 ) − E(Z) = 18 18
Chapitre
10 – Variables aléatoires à densité
cela signifie que X1 est une variable aléatoire. On a d’après ce qui précède, P([X > t1 ]) =
P([Nt = 0]) = e−at 1
On en déduit FX1 (t) =
1 − e−at 0
si t > 0 si t 0.
si t > 0 si t 0.
On reconnaît la fonction de répartition d’une variable suivant la loi exponentielle de paramètre a. Ainsi X1 suit la loi exponentielle de paramètre a. On en déduit E(X1 ) =
1 1 et V (X1 ) = 2 . a a
2. a. On raisonne comme pour X1 . Pour t 0, [Xn > t] = V. Pour tout t > 0, l’événement [Xn > t] est réalisé si entre les instants 0 et t il n’est pas arrivé n voyageurs. On a donc [Xn > t] = [Xt n − 1]). On en déduit que Xn est une variable aléatoire et que, si t > 0, n−1 (at)k · e−at P([Xn > t]) = P([Nt n − 1]) = k! k=0 On a donc, pour t > 0, FXn (t) = 1 − P([Xn > t]) = 1 − e
−at
n−1 (at)k k=0
k!
·
Par ailleurs, pour t 0, FXN (t) = 0. La fonction FXn est clairement continue sur R∗ . On a lim FXn (t) = 1 − 1 = 0 = lim− FXn (t) = FXn (0).
t→0+
t→0
Ainsi FXn est continue en 0 donc sur R. D’autre part FXn est de classe C 1 sur R∗ . On en déduit que Xn est une variable à densité dont une densité fXn s’obtient en dérivant FXn (là où c’est possible). On a donc fXn (t) = 0 si t 0 et pour t > 0, fXn (t) = FX n (t) = ae−at
n−1 (at)k k=0
n−1 ka(at)k−1 k=1
n−1 (at)k−1 k! (k − 1)! k=0 k=1 n−1 n−2 (at)k (at)k −at − = ae k! k! k=0 k=0
= ae−at
= ae−at
566
n−1 (at)k
k!
− e−at
(at)n−1 · (n − 1)!
− ae−at
k!
Solutions
+∞
On a, pour tout entier n ∈ N∗ , +∞ fn (t) = 0
donc on a
+∞
tn−1 e−at dt =
0
an (n − 1)!
+∞
tn−1 e−at dt = 1,
0
(n − 1)! · Comme c’est vrai pour tout entier naturel non nul, an +∞ (n + r − 1)! tn+r−1 e−at dt = an+r 0
et
an (n + r − 1)! (n + r − 1)! = · (n − 1)! an+r (n − 1)!ar n (n + 1)n , d’où l’on déduit On en déduit E(Xn ) = et E(X 2 ) = a a2 E(Xnr ) =
2 (n + 1)n n2 n − = 2· V (Xn ) = E(Xn2 ) − E(Xn ) = a2 a2 a 8.
1. Notons que F est continue sur R+ , dérivable sur R∗+ (f est continue sur R∗+ ) et, pour tout élément t de R∗+ , F (t) = f (t) > 0. Donc F est strictement croissante sur R+ . Comme lim F(t) = 1, on a pour tout t 0, F(t) < 1 et par conséquent P([T > t]) > 0.
© Dunod – La photocopie non autorisée est un délit
t→∞
Cela justifie l’existence de P([t < T t + u]/[T > t]) pour t et u strictement positifs. On a alors P([t < T t + u]) F(t + u) − F(t) P([t < T t + u]/[T > t]) = = u uP([T > t]) u(1 − F(t)) F(t + u) − F(t) = f (t). On en u→0 u
La fonction F est dérivable en t et F (t) = f (t) donc lim déduit que, pour tout t > 0, h(t) =
f (t) · 1 − F(t)
2. La fonction h est définie et continue sur ]0, +∞[. Soit t > 0 et ´ ∈ ]0, t[. Comme F = f , on a t t f (u) du = [− ln(1 − F(u))]t´ . h(u) du = 1 − F(t) ´ ´
567
SOLUTIONS
b. Pour r ∈ N, la variable Xn possède un moment d’ordre r si tr fXn (t) dt, c’est-à-dire −∞ +∞ (at)n−1 (at)n−1 dt converge. La fonction t −→ tr e−at est continue sur atr e−at si (n − 1)! (n − 1)! 0 1 R+ , positive et, par croissances comparées, négligeable devant 2 au voisinage de +∞. t Donc l’intégrale converge et Xn possède un moment d’ordre r pour tout entier naturel r. On a +∞ +∞ n−1 an r r −at (at) E(Xn ) = dt = at e tn+r−1 e−at dt. (n − 1)! (n − 1)! 0 0
Chapitre
10 – Variables aléatoires à densité
La fonction F est continue en 0 donc lim+ F(´) = F(0) = 0. Donc ´0
t
h(u) du converge et 0
t
h(u) du = − ln(1 − F(t)) = − ln P([T > t]).
L(t) = 0
On en déduit que
P([T > t]) = e−L(t) .
Sous réserve d’absolue convergence, on a, d’après la formule de transfert +∞ +∞ E(L(T )) = L(t)f (t) dt = − ln(1 − F(t))f (t) dt. 0
0
La fonction t −→ − ln(1 − F(t))f (t) est positive donc l’absolue convergence équivaut à la convergence. Soit a et b deux réels tels que 0 < a < b. La fonction F est de classe C 1 sur ]0, +∞[. On obtient, en faisant le changement de variable x = F(t), b b F(b) (− ln(1 − F(t)))f (t) dt = − ln(1 − F(t)) F (t)dt = − ln(1 − x) dx, a
a
F(a)
puis en intégrant par parties, b − ln(1 − F(t))f (t) dt = [(1 − x) ln(1 − x)]F(b) + F(a) a
F(b)
dx F(a)
= (1 − F(b)) ln(1 − F(b)) − (1 − F(a)) ln(1 − F(a)) + F(b) − F(a). On fait tendre a vers 0 et b vers 1. On sait que lim F(a) = F(0) = 0 et a→0 lim F(b) = 1. On en déduit que lim (1 − F(a)) ln(1 − F(a)) = ln 1 = 0 et a→0 b→+∞ b lim (1 − F(b)) ln(1 − F(b)) = lim x ln x = 0. Finalement − ln(1 − F(t))f (t) dt tend x→0 b→+∞ a +∞ − ln(1 − F(t))f (t) dt converge et vaut 1. vers 1 quand a tend vers 0 et b vers 1 donc 0
On conclut
E(L(T)) = 1. 3. • Supposons que T soit une variable aléatoire qui suit une loi exponentielle de paramètre m. On a alors, pour tout t > 0, f (t) = me−mt et F(t) = 1 − e−mt et donc h(t) =
me−mt f (t) = −mt = m. 1 − F(t) e
Le taux de panne de T est donc constant sur R∗+ . • Supposons réciproquement que le taux de panne h soit constant sur R∗+ . Il existe donc un réel m 0 tel que, pour tout t > 0, h(t) = m. On a alors, pour tout t > 0, t t L(t) = h(u) du = m du = mt 0
568
0
Solutions
F(t) = 1 − e−mt . Comme lim F(t) = 1, lim e−mt = 0 et donc m est strictement positif. Donc T suit une t→+∞ t→+∞ loi exponentielle de paramètre m. La variable aléatoire T a un taux de panne constant si et seulement si elle suit une loi exponentielle. 4. Soit F1 et F2 les fonctions de répartition de T1 et T2 . Les variables T1 , T2 et T sont positives et, pour tout t 0, F(t) = P([T t]) = P([sup(T1 , T2 ) t]) = P([T1 t] ∩ [T2 t]) = P([T1 t])P([T2 t]) = (1 − e−l1 t )(1 − e−l2 t ) = 1 − e−l1 t − e−l2 t + e−(l1 +l2 )t . On en déduit que, pour t > 0, f (t) = F (t) = l1 e−l1 t + l2 e−l2 t − (l1 + l2 )e−(l1 +l2 )t et donc l1 e−l1 t + l2 e−l2 t − (l1 + l2 )e−(l1 +l2 )t f (t) = 1 − F(t) e−l1 t + e−l2 t − e−(l1 +l2 )t l2 t l1 t l1 e + l2 e − (l1 + l2 ) , = el2 t + el1 t − 1
h(t) =
ce qui se simplifie en h(t) = (l1 + l2 ) −
l1 el1 t + l2 el2 t · el2 t + el1 t − 1
La fonction h est dérivable sur R∗+ et −(l21 el1 t + l22 el2 t )(el2 t + el1 t − 1) + (l1 el1 t + l2 el2 t )2 (el2 t + el1 t − 1)2 l2 el1 t + l22 el2 t + e(l1 +l2 )t (2l1 l2 − l21 − l22 ) = 1 (el2 t + el1 t − 1)2 e(l1 +l2 )t l21 e−l2 t + l22 e−l1 t − (l1 − l2 )2 = · (el2 t + el1 t − 1)2
© Dunod – La photocopie non autorisée est un délit
h (t) =
Le signe de h (t) est celui de g(t) = l21 e−l2 t + l22 e−l1 t − (l1 − l2 )2 . Si l1 = l2 , on a, pour tout t > 0, g(t) > 0 et h (t) > 0 : la fonction h est croissante. Il y a usure. Si l1 = l2 , la fonction g est strictement décroissante ; de plus, lim g = 2l1 l2 > 0 et 0
lim g = −(l1 − l2 )2 < 0. La fonction s’annule une seule fois sur ]0, +∞[ en t0 , g(t) > 0 si +∞ t ∈ ]0, t0 ] et g(t) < 0 si t > t0 . On en déduit que h croît sur ]0, t0 ] et décroît sur [t0 , +∞[. Il y donc d’abord usure puis rodage.
569
SOLUTIONS
et P([T > t]) = e−L(t) = e−mt . On a donc
Chapitre
10 – Variables aléatoires à densité
5. On suppose qu’il y a usure, c’est-à-dire que h croît sur ]0, +∞[. On a pour (s, t) ∈ (R∗+ )2 ,
s+t
L(s + t) − L(s) =
s
h(u) du −
s+t
h(u) du =
0
0
h(u) du, s
ce qui s’écrit avec le changement de variable v = u − s,
t
L(s + t) − L(s) =
h(v + s) dv. 0
Comme h croît, on a h(v + s) h(v) pour tout v ∈ [0, t] donc
t
h(v) dv L(t)
L(s + t) − L(s) 0
et
L(s + t) L(s) + L(t).
On en déduit P([T > s + t]) = e−L(s+t)] e−L(s)−L(t) e−L(s) eL(t) P([T > s])P([T > t]). 1. Comme f est continue sur ]0, +∞[, F est dérivable sur ]0, +∞[, de dérivée f > 0. Comme de plus elle est continue sur [0, +∞[, elle est strictement croissante sur [0, +∞[. Comme f est nulle sur ] − ∞, 0[, on a F(0) = 0 et, par propriété des fonctions de répartition, lim F(x) = 1. On en déduit que F réalise une bijection de [0, +∞[ sur x→+∞ 1 [0, 1[. En particulier, il existe un unique réel m tel que F(m) = . 2 2. Une densité de la loi exponentielle est définie par f (x) = 0 si x < 0 et f (x) = le−lx si x 0. Elle vérifie les hypothèses. La fonction de répartition est définie par F(x) = 1−e−lx ln 2 1 · pour x 0. La médiane m vérifie e−lm = donc −lm = − ln 2 et m = 2 ln m 3. a. La fonction f est bien nulle sur ] − ∞, 0], strictement positive et continue sur ]0, +∞[. x te−t dt. On intègre par b. La fonction F est nulle sur R− et pour x 0, F(x) = 9.
parties, en intégrant l’exponentielle. On obtient F(x) =
'
(x −te−t 0
x
+ 0
0
(x ' e−t dt = −te−t − e−t 0 = 1 − (x + 1)e−x .
3 2 et F(2) = 1 − 2 . e e 2 1 1 3 1 2 De e < 3, on déduit et F(1) < . De même, e2 > 6 donc 2 < et F(2) > . e 3 2 e 2 2 On a donc F(1) < F(m) < F(2). Comme F est strictement croissante sur [0, +∞[, on en déduit 1 < m < 2.
c. On a F(1) = 1 −
570
Solutions
|g(x) − m| |g(x) − g(m)|
1 |x − m|. 2
f. Comme u0 appartient à [1, 2] et que cet intervalle est stable par g, tous les termes de la 1 suite sont dans cet intervalle et donc, pour tout n ∈ N, |g(un ) − m| |un − m|, i. e. 2 n 1 1 . |un+1 − m| |un − m|. On montre alors par récurrence sur n que |un − m| 2 2 m| = |1 − m| 1, car m ∈ [1, 2]. Pour n = 0, |u 0 − n 1 , alors Si |un − m| 2 1 1 |un+1 − m| |un − m| 2 2 et la propriété est vraie au rang n + 1. g. un est une valeur approchée de m à 10
−2
n n+1 1 1 , 2 2
n 1 près si 10−2 soit 2n 100. On peut 2
© Dunod – La photocopie non autorisée est un délit
prendre n = 7. 4. a. Comme la densité est nulle sur R∗− , on a V (X) =
+∞ (t − E(X))2 f (t) dt 0
m
+∞ (t − E(X)) f (t) dt + (t − E(X))2 f (t) dt. 2
=
m
0
Comme ces deux intégrales sont positives, puisque la fonction qu’on intègre est positive, ainsi que m, on a m (t − E(X)) f (t) dt
V (X)
2
0
et
+∞ V (X) (t − E(X))2 f (t) dt. m
571
SOLUTIONS
1 1 d. La médiane m vérifie F(m) = 1 − (m + 1)e−m = , c’est-à-dire (m + 1)e−m = ou 2 2 encore (2m + 2) = em . En prenant le logarithme, on obtient ln(2m + 2) = m, soit g(m) = m. e. La fonction g est strictement croissante sur [1, 2] donc si x ∈ [1, 2], alors g(1) g(x) g(2). Comme g(1) = ln 4 > 1 et g(2) = ln 6 ln e2 2, on a a fortiori g(x) ∈ [1, 2]. 1 2 = . Pour x ∈ [1, 2], on a La fonction g est dérivable sur [1, 2] et g (x) = 2x + 2 x+1 1 donc 0 g (x) . On en déduit , d’après l’inégalité des accroissements finis que, 2 pour tout x ∈ [1, 2],
Chapitre
10 – Variables aléatoires à densité
b. Supposons m E(X). On a alors, pour tout t ∈ [0, m], E(X) − t E(X) − m 0 et donc
E(X) − t
2
(E(X) − m)2 .
En utilisant la première inégalité de la question précédente et la positivité de l’intégrale, on obtient m 2 2 m E(X) − m) f (t) dt E(X) − m) f (t) dt. V (X) 0
m
f (t) dt = F(m) =
Comme 0
0
1 , on obtient en multipliant par 2, 2
, 2 2V (X) E(X) − m puis 2V (X) |E(X) − m|, en prenant la racine carrée. Si m > E(X), on utilise l’autre inégalité. Pour tout t m, on a t − E(X) m − E(X) > 0 et donc
2 2 t − E(X) m − E(X) .
On en déduit +∞ 2 2 (m − E(X)) f (t) dt m − E(X) V (X) m
+∞
f (t) dt.
m
+∞
1 f (t) dt = 1 − F(m) = , on conclut comme dans le premier cas, 2 m 2 √ 2V (X) m − E(X) , puis 2V (X) |E(X) − m|. Comme
10.
1. a. La variable X étant à valeurs positives, sa partie entière Y est à valeurs dans N. Pour tout k ∈ N, [Y = k] = [k X < k + 1] est un événement, donc Y est une variable aléatoire discrète. On a, pour tout k ∈ N, puisque X est une variable à densité P([Y = k]) = P([k X < k + 1]) = P([k < X k + 1]) = F(k + 1) − F(k).
b. La variable aléatoire Y possède une espérance si et seulement si la série de terme général positif k(F(k + 1) − F(k) converge, c’est-à-dire si et seulement si ses sommes partielles n Sn = k(F(k + 1) − F(k)) sont majorées.
k=1
+∞
tf (t) dt
La variable X possède une espérance si et seulement si l’intégrale 0
converge.Comme la fonction qu’on intègre est positive, cela équivaut à : la fonction x g : x −→ tf (t) dt est majorée sur R+ . 0
572
Solutions
n
tf (t) dt. On a, pour tout k ∈ N∗ et t ∈ [k, k + 1],
0
kf (t) tf (t) (k + 1)f (t). On en déduit
k+1
f (t) dt
k
k+1
k
k
soit
k+1
tf (t) dt (k + 1)
f (t) dt, k
k+1
k(F(k + 1) − F(k)
tf (t) dt (k + 1)(F(k + 1) − F(k). k
En additionnant ces inégalités, pour k variant de 0 à n, on obtient
n+1
Sn g(n + 1)
f (t) dt 0
n (k + 1) F(k + 1) − F(k) . k=0
On a n n (k + 1) F(k + 1) − F(k) = Sn + (F(k + 1) − F(k) = Sn + F(n + 1) − F(0) k=0
k=0
= Sn + F(n + 1) Sn + 1. On obtient finalement
Sn g(n + 1) Sn + 1.
• Si E(X) existe, la fonction g est majorée par M et on a, pour tout n ∈ N∗ ,
© Dunod – La photocopie non autorisée est un délit
Sn g(n + 1) M. Donc E(Y ) existe. • Réciproquement si E(Y ) existe, la suite (Sn ) est majorée par M. On a, pour tout n ∈ N∗ , g(n + 1) Sn + 1 M + 1. Soit x ∈ R+ . Il existe n ∈ N∗ tel que x n + 1 (on peut prendre n = x). On a alors, puisque la fonction qu’on intègre est positive, g(x) g(n + 1) M. La fonction g est majorée donc X possède une espérance. 2. a. D’après ce qui précède, on a X(V) ⊂ N et, pour tout k ∈ N, P([Y = k]) = F(k + 1) − F(k) = 1 − e−l(k+1) − 1 + e−lk k 1 − e−l . = e−lk 1 − e−l = e−l La variable Y suit une loi géométrique à valeurs dans N de paramètre p = 1 − e−l . On a donc e−l q q e−l E(Y ) = = et V (Y ) = = · p 1 − e−l p2 (1 − e−l )2 b. On a Z(V) = [0, 1[.
573
SOLUTIONS
Nous allons comparer Sn à
Chapitre
10 – Variables aléatoires à densité
Pour tout x ∈ [0, 1[, P([Z x]) = =
+∞ k=0 +∞
P([Z x] ∩ [Y = k]) =
P([k X k + x])
k=0 +∞ F(k + x) − F(k) = 1 − e−l(k+x) − 1 + e−lk
k=0
=
+∞
k=0
+∞
+∞ −l k 1 − e−lx e−lk = 1 − e−lx e .
k=0
k=0
On reconnaît la somme d’une série géométrique convergente car e−l ∈ ]0, 1[. On obtient 1 − e−lx P([Z x]) = · 1 − e−l La fonction de répartition de Z est donc définie par ⎧ 0 si x < 0 ⎪ ⎪ ⎨ 1 − e−lx FZ (x) = si x ∈ [0, 1[ −l ⎪ ⎪ ⎩ 1−e 1 si x 1. Elle est continue sur R. Il suffit de le vérifier en 0 et 1. On trouve lim F(x) = 0 = F(0) x→0
et lim F(x) = 0 = F(1). Elle est de classe C 1 sauf en 0 et 1. Elle possède donc une x→1 densité obtenue en dérivant FZ où elle est dérivable. On obtient ⎧ −lx ⎨ le si x ∈ [0, 1] f (x) = 1 − e−l ⎩ 0 si x ∈ / [0, 1]. c. La fonction x −→ xf (x) est continue sur [0, 1] et nulle hors de cet intervalle. Son intégrale sur R est donc absolument convergente. Donc Z possède une espérance et 1 1 +∞ lxe−lx 1 xf (x) dx = dx = lxe−lx dx. E(Z) = −l 1 − e−l 0 −∞ 0 1−e On calcule cette intégrale en intégrant par parties en intégrant l’exponentielle. On obtient −lx 1 1 1 (1 ' e lxe−lx = −xe−lx 0 + e−lx dx = −e−l + − l 0 0 0 = −e−l +
1 − e−l · l
On en déduit E(Z) =
574
1 e−l − · l 1 − e−l
Solutions
11.
n−1 − 2 e est continue sur R+ et positive. Au 1. a. Pour n 1, la fonction x − → x 1 n−1 − x2 donc In converge. e =o voisinage de +∞, on a x x2 On intègre par parties, en intégrant l’exponentielle. Pour n 2 et a 0, a a ' x x (a x xn−1 e− 2 dx = −2xn−1 e− 2 0 + 2(n − 1)xn−2 e− 2 dx 0 0 a a x n−1 − 2 = −2a e + 2(n − 1) xn−2 e− 2 dx. x
0
Quand a tend vers +∞, 2an−1 e
− 2a
tend vers 0 et on obtient
In = 2(n − 1)In−1 . En réitérant cette relation , on obtient In = (2(n − 1))(2(n − 2)) . . . (2)I1 = 2n−1 (n − 1)!I1 . ' x (+∞ Comme I1 = −2 e− 2 0 = 2, on obtient In = 2n (n − 1)!.
© Dunod – La photocopie non autorisée est un délit
b. La fonction fn est positive, continue sur R, sauf en 0 et d’après (a), son intégrale converge et +∞ +∞ 1 fn (x) dx = fn (x) dx = In = 1. (n − 1)!2n −∞ 0 La fonction fn est bien une densité. 2. La variable Xn possède une espérance sous réserve d’absolue convergence de +∞ +∞ +∞ x 1 xfn (x) dx = xfn (x) dx = xn e− 2 dx. n (n − 1)!2 −∞ 0 0 On reconnaît dans cette intégrale In+1 . Donc elle converge (absolument car la fonction est positive). Ainsi possède une espérance et E(Xn ) =
1 In+1 In+1 = = 2n. n (n − 1)!2 In
On montre de même que Xn possède un moment d’ordre 2 et E(Xn2 ) =
In+2 = 2(n + 1) · 2n = 4n(n + 1). In
Ainsi Xn possède une variance et V (Xn ) = 4n(n + 1) − 4n2 = 4n. 3. a. Il s’agit simplement de la formule de Taylor à l’ordre n appliquée à la fonction exp entre 0 et l.
575
SOLUTIONS
On remarque que E(Z) = E(X) − E(Y ), ce qui résulte de Z = X − Y par linéarité de l’espérance. Cette propriété reste vraie bien qu’on ait un mélange de variables discrètes et de variables à densité.
Chapitre
10 – Variables aléatoires à densité
b. Une densité de Xn est fn . On en déduit, pour l > 0, 2l P([Xn > 2l]) = 1 − P([Xn 2l]) = 1 − 0
l
=1− 0
x 1 xn−1 e− 2 dx (n − 1)!2n
1 tn−1 e−t dt (n − 1)!
avec le changement de variable x = 2t. En multipliant par e−l l’égalité démontrée dans la question a, on obtient 1=
n−1
e
−l l
k=0
et donc P([Xn > 2l]) =
k
k!
+
n−1 k=0
0
e−l
l
e−t
tn−1 dt (n − 1)!
lk = P([Yl < n]), k!
puisque Yl suit une loi de Poisson de paramètre l. 1. Considérons, pour 1 k n, la variable Zk indicatrice de l’événement [Xk x] 12. (on rappelle que c’est la variable qui vaut 1 si [Xk x] est réalisé et 0 sinon). Elle suit une loi de Bernoulli de paramètre P([Xk x]) = F(x). On a clairement Nx = Z1 + Z2 + · · · + Zn . Pour tout k ∈ [[1, n]], la variable Zk est une fonction de la variable Xk uniquement. Les variables X1 , . . . , Xn étant indépendantes, il en est de même des variables Z1 , . . . , Zn . Ainsi la variable Nx est une somme de n variables de Bernoulli de même paramètre F(x). On sait qu’alors Nx suit la loi binomiale de paramètre (n, F(x)). 2. Pour k ∈ [[1, n]] et v ∈ V, Yr (v) est le k-ième réel si on classe X1 (v), . . . , Xn (v) par ordre croissant (avec éventuellement des termes égaux). On a Yk (v) x si les k plus petites valeurs de cette listes sont inférieures ou égales à x, ce qui équivaut à : il y a au moins k valeurs de cette liste inférieures ou égales à x (car alors a fortiori les k plus petites valeurs sont inférieures ou égales à x). On en déduit que [Yk x] = [Nx k]. 3. On déduit des deux questions précédentes que, pour tout x ∈ R, n n n (F(x))i (1 − F(x))n−i . P([Nx = i]) = Fk (x) = P([Yk x]) = P([Nx k]) = i i=k i=k La fonction F est continue sur R et de classe C 1 sauf en un nombre fini de points. Il en est de même de Fk . On en déduit que Yk possède une densité fk qui s’obtient en dérivant Fk (la où c’est possible). On obtient, pour tout réel x, n " i−1 n−i n−i−1 # i n if (x) F(x) . 1 − F(x) − (n − i)f (x) F(x) 1 − F(x) fk (x) = i i=k
576
Solutions
n n−1 n n i−1 n−i i (F(x)) (1 − F(x)) − f (x) (n − i) (F(x))i (1 − F(x))n−i−1 . fk (x) = f (x) i i i=k i=k Pour 1 i n, on a i
n n−1 n n−1 =n et pour 0 i n − 1, (n − i) =n . i i−1 i i
On en déduit fk (x) = nf (x)
n n−1 n−1 n−1 (F(x))i−1 (1−F(x))n−i −nf (x) (F(x))i (1−F(x))n−i−1 . i − 1 i i=k i=k
On faisant le changement d’indice j = i + 1 dans la deuxième somme, on obtient n n−1 F(x))i−1 (1 − F(x))n−i fk (x) = nf (x) i − 1 i=k n n−1 (F(x))j−1 (1 − F(x))n−j − nf (x) j − 1 j=k+1 n−1 = nf (x) F(x))k−1 (1 − F(x))n−k , k−1
© Dunod – La photocopie non autorisée est un délit
car tous les termes se retrouvent dans les deux sommes sauf le premier. 4. On suppose que les variables Xk suivent la loi uniforme sur [0, 1]. On a f (x) = 0 et donc fk (x) = 0 si x ∈ / [0, 1]. Si x ∈ [0, 1], f (x) = 1 et F(x) = x donc n − 1 k−1 x (1 − x)n−k . fk (x) = n k−1 On se reporte à l’exercice 3.. On montre que Yk suit la loi B(k, n − k + 1). En effet, fk étant une densité de probabilité, on a 1=
1
fk (x) dx = n 0
1 n−1 n−1 xk−1 (1 − x)n−k dx = n B(k, n − k + 1). k−1 0 k−1
n−1 1 et, pour tout x ∈ R, On a donc n = B(k + 1, n − k + 1) k−1 ⎧ ⎨
1 xk−1 (1 − x)n−k fk (x) = B(k + 1, n − k + 1) ⎩0
si x ∈ [0, 1] sinon.
577
SOLUTIONS
En un point x où F est dérivable et F (x) = f (x), cela résulte des règles de la dérivation ; ailleurs, ce qui représente un nombre fini de points, on peut choisir fk (x) arbitrairement et donc garder la même expression. On a donc, pour tout réel x,
Chapitre
10 – Variables aléatoires à densité
On reconnaît une densité de la loi B(k, n − k + 1) (elle ne diffère de la définition donnée dans l’exercice 3. qu’en 0 et 1). On en déduit, en appliquant les résultats de l’exercice 3., E(Yk ) =
13.
k k(n − k + 1) et V (Yk ) = · n+1 (n + 1)2 (n + 2)
On note F la fonction de répartition de la loi normale centrée réduite.
D−8 suit la loi normale centrée réduite. On obtient donc 0, 4 0, 5 D−8 = 1 − F(2, 5) ≈ 0, 0062 P([D > 9]) = P 0, 4 0, 4 D−8 0, 5 0, 5 < < P([7, 5 < D < 8, 5]) = P − 0, 4 0, 4 0, 4 = F(1, 25) − F(−1, 25) = 2F(1, 25) − 1 ≈ 0, 7888.
1. La variable
2. On cherche p = 1 − P([7, 5 < D < 8, 5]). On trouve a. D − 7, 5 < 2, 5 p=1−P 0< 0, 4 = 1 − F(2, 5) + F(0) ≈ 0, 5062 ; b.
c.
D−8 < 1, 25 p = 1 − P −1, 25 < 0, 4 = 1 − (2F(1, 25) − 1) = 2 − 2F(1, 25) ≈ 0, 2112 ;
D − 8, 5 , P x Y x + 6
On obtient si x
588
1 1 = ; 6 6 1 = P ([x Y 1]) = 1 − x. 6
Solutions
On obtient 1 si x , P(S) = P([x < Y 1]) = 1 − x ; 6 1 1 1 5 si x > , P(S) = P([x < Y 1]) + P( Y < x − ) = 1 − x + x − = · 6 6 6 6 On en déduit, 1 1 si x , P(R/S) = ; 6 6(1 − x) 5 1 1 si < x , P(R/S) = ; 6 6 5 6(1 − x) 5 · si x > , P(R/S) = 6 5 6.
1. Les variables U et V sont à valeurs dans [0, 1]. On a donc FU (x) = FV (x) = 0 si x < 0 et FU (x) = FV (x) = 1 si x > 1. Soit x ∈ [0, 1]. On a alors, par indépendance des variables X et Y , FU (x) = P([U x]) = P([X x] ∩ [Y x]) = P([X x])P([Y x]) = x2 , FV (x) = P([V x]) = 1 − P([V > x]) = 1 − P([X > x] ∩ [Y > x])
© Dunod – La photocopie non autorisée est un délit
= 1 − P([X > x])P([Y > x]) = 1 − (1 − x)2 = 2x − x2 . Les fonctions FU et FV sont continues sur R (il suffit de vérifier la continuité en 0 et 1) et de classe C 1 sur R \ {0, 1}. Donc U et V sont des variables à densité dont des densités s’obtiennent en dérivant FU et FV . On obtient 2x si x ∈ [0, 1] 2 − 2x si x ∈ [0, 1] fU (x) = et fV (x) = 0 sinon 0 sinon Comme les variables U et V sont bornées elles possèdent une espérance et une variance. On obtient 1 1 2 E(U) = xfU (x) dx = 2x2 dx = 3 0 0 1 1 1 E(V ) = xfV (x) dx = (2x − 2x2 ) dx = , 3 0 0 1 1 1 E(U 2 ) = x2fU (x) dx = 2x3 dx = 2 0 0 1 1 1 E(V 2 ) = x2 fV (x) dx = (2x2 − 2x3 ) dx = , 6 0 0
589
SOLUTIONS
Par ailleurs, l’événement S est réalisé si B arrive après A, i.e. si x Y 1 ou s’il est déjà 1 1 reparti, i.e Y < x − (ce qui n’est possible que si x > ). On a donc 6 6 1 S = [x < Y 1] ∩ Y < x − . 6
Chapitre
11 – Couples de variables à densité
et donc V (U) = E(U 2 ) − (E(U))2 =
1 1 1 4 1 1 − = V (V ) = E(V 2 ) − (E(V ))2 = − = · 2 9 18 6 9 18
On remarque que UV = XY . On en déduit que E(UV ) = E(XY ) = E(X)E(Y ) =
1 , 4
1 car X et Y sont indépendantes et l’espérance de la loi uniforme sur [0, 1] est · On en 2 déduit 1 2 1 Cov(U, V ) = E(UV ) − E(U)E(V ) = − = 4 9 36 puis 1 Cov(U, V ) 1 r(U, V ) = = 36 1 = 2· s(U)s(V ) 18 2. La variable W = |X − Y | est à valeurs dans [0, 1]. On a donc FW (w) = 0 si w < 0, FW (w) = 1 si t > 1. Le couple (X, Y ) suit la loi uniforme sur [0, 1]2 et pour w ∈ [0, 1], FW (w) = P([|X − Y | w]) = P([(X, Y ) ∈ Dw ) = A(Dw ), où A est l’aire et Dw = {(x, y) ∈ [0, 1]2 , |x − y| w}. Le complémentaire de Dw dans [0, 1]2 est la réunion de deux triangles de côtés 1 − w, donc FW (w) = 1 − 2
(1 − w)2 = 1 − (1 − w)2 = 2w − w 2 . 2
La loi de W est donc la même que celle de V . On a donc fW (w) =
2 − 2w 0
si t ∈ [0, 1] sinon.
3. Les variables aléatoires X, Y, Z sont mutuellement donc par le lemme des coalitions, les variables aléatoires W et Z sont indépendantes. Une densité f du couple (W, Z) s’obtient en faisant le produit d’une densité de W par une densité de Z. On obtient, pour tout (w, z) ∈ R2 , 2 − 2w si (w, z) ∈ [0, 1]2 f (w, z) = 0 sinon. 4. Le temps total de présence de C dans la poste est la somme son temps d’attente V (il peut téléphoner dès que A ou B a terminé) et de son temps de communication Z. C’est donc V + Z. Entre A et B le temps de communication le plus long est U. Ainsi l’événement « C termine sa communication en dernier » est [U < V + Z] = [U − V < Z].
590
Solutions
D
D
où D = {(w, z) ∈ [0, 1]2 , w < z}. On obtient
1
z
P([W < Z]) = 0
(2 − 2w) dw
1
dz =
0
(2z − z2 ) dz =
0
2 · 3
5. Le temps total passé dans le bureau de poste par C est d’après ce qui précède, T = V + Z. Les variables X, Y, Z sont mutuellement indépendantes donc V = inf(X, Y ) et Z sont indépendantes, d’après le lemme des coalitions. Une densité g de (V, Z) s’obtient en faisant le produit d’une densité de V et d’une densité de Z. Comme V et W ont même densité, on obtient g = f La variable T est à valeurs dans [0, 2] et pour t ∈ [0, 2], P([T t]) = P([V + Z t]) = f (v, z) dv dz = (2 − 2v) dv dz, Dt
Dt
où Dt = {(v, z) ∈ [0, 1]2 , v + z t}. Si t ∈ [0, 1], (v, z) ∈ Dt si z ∈ [0, t] et v t − z et t
t−z
(2 − 2v) dv
P([T t]) = 0
0
t
(2(t − z) − (t − z)2 ) dz
dz = 0
© Dunod – La photocopie non autorisée est un délit
t 1 1 = −(t − z)2 + (t − z)3 = − t3 + t2 . 3 3 0 Si t ∈ [1, 2], il est plus simple de calculer P([T > t]), car (v, z) ∈ / Dt , i.e. v + z > t, si z ∈ [t − 1, 1] et v > t − z et
1
1
(2 − 2v) dv
P([T > t]) = t−1 1
1
dz =
t−z
t−1
' (1 2v − v2 t−z dz
1 1 (1 − 2(t − z) + (t − z)2 ) dz = z + (t − z)2 − (t − z)3 3 t−1 t−1 1 1 2 3 = 1 + (t − 1) − (t − 1) − (t − 1) − 1 + 3 3 8 1 3 2 = − t + 2t − 4t + · 3 3
=
On en déduit P([T t]) = 1 − P([T > t]) =
1 3 5 t − 2t2 + 4t − · 3 3
591
SOLUTIONS
On remarque que U − V = |X − Y | = W , car pour tout (x, y) ∈ R2 , |x − y| = max(x, y) − min(x, y), comme on le voit en distinguant x y et x > y. Ainsi [U < V + Z] = [W < Z] et la probabilité que C termine sa communication en dernier est P([W < Z]). Connaissant une densité f de (W, Z), on en déduit que P([W < Z]) = f (w, z) dw dz = (2 − 2w) dw dz,
Chapitre
11 – Couples de variables à densité
On obtient une densité de T en dérivant ⎧ 2 ⎨−t + 2t fT (t) = t2 − 4t + 4 = (t − 2)2 ⎩ 0
si t ∈ [0, 1] si t ∈ ]1, 2] sinon.
6. La variable est bornée donc possède une espérance et une variance. On obtient
2
3
tfT (t) dt =
E(T) = 0
1
2
(t3 − 4t2 + 4t) dt
2
(−t + 2t ) dt + 0
1
1 2 1 2 1 4 5 = − t4 + t3 + t4 − t3 + 2t2 = 4 3 0 4 3 6 1
2
E(T 2 ) =
t2 fT (t) dt = 0
1
2
(t4 − 4t3 + 4t2 ) dt
(−t4 + 2t3 ) dt + 0
1 1 1 1 4 = − t5 + t4 + t5 − t4 + t3 5 2 0 5 3 et donc V (T) = E(T 2 ) − (E(T ))2 =
1 2
= 1
5 6
5 5 25 − = · 6 36 36
7. On rappelle qu’étant donnés trois réels positifs x, y, z, il existe un triangle dont les longueurs des côtés sont x, y et z si, et seulement si, chaque longueur est strictement inférieure à la somme des deux autres, i.e. x < y + z, y < z + x et z < x + y. Ici les trois longueurs sont inf(X, Y ), sup(X, Y ) − inf(X, Y ) et − sup(X, Y ). On a donc les conditions inf(X, Y ) < sup(X, Y ) − inf(X, Y ) + − sup(X, Y ), c’est-à-dire inf(X, Y ) < , 2 sup(X, Y ) − inf(X, Y ) < inf(X, Y ) + − sup(X, Y ), c’est-à-dire sup(X, Y ) − inf(X, Y ) < 2 et − sup(X, Y ) < inf(X, Y ) + sup(X, Y ) − inf(X, Y ), c’est-à-dire sup(X, Y ) > 2 Le couple [X, Y ] suit une loi uniforme sur [0, ]2 . Il a pour densité la fonction f définie par 1 f (x, y) =
2 0
si (x, y) ∈ [0, ]2 sinon.
La probabilité p cherchée est p=P
592
1 = 2 A(D), inf(X, Y ) < , sup(X, Y ) > , sup(X, Y ) − inf(X, Y ) < 2 2 2
Solutions 3 . En où D = (x, y) ∈ [0, ] , min(x, y) < , max(x, y) > , max(x, y) − min(x, y) < 2 2 2 distinguant les cas x < y et x y, on montre que D = D ∪ D , où 3 2 , D = (x, y) ∈ [0, ] , x < , y > , y − x < 2 2 2 3 2 D = (x, y) ∈ [0, ] , y < , x > , x − y < . 2 2 2
Comme D
et D sont des triangles rectangles isocèles de côté 2 1 2 A(D) = 2 · · et = 2 2 4 1 p= · 4
, on a 2
→ → 8. Soit (O, − ı− j ) le repère. On peut repérer le point M par une mesure de l’angle − − → → − ( ı , OM). Soit Q la variable aléatoire égale à cette mesure. Le point M étant choisi au hasard sur le cercle, on supposera que Q suit la loi uniforme sur [0, 2p]. La densité f de Q est définie par ⎧ ⎨ 1 si u ∈ [0, 2p] f (u) = 2p ⎩0 sinon. 1. On a X = cos Q et Y = sin Q. Les variables X, Y et XY sont bornées donc admettent une espérance donnée par la formule de transfert. On obtient 2p 1 1 E(X) = cos(u) du = sin(u) cos(u)f (u) du = = 0, 2p 2p −∞ 0 0 2p +∞ 2p 1 1 E(Y ) = sin(u) du = − cos(u) sin(u)f (u) du = = 0, 2p 2p −∞ 0 0 2p +∞ 2p 1 1 E(XY ) = sin(2u) du = − cos(2u) sin(u) cos(u)f (u) du = = 0. 4p 8p −∞ 0 0
© Dunod – La photocopie non autorisée est un délit
On en déduit que On a P
+∞
2p
Cov(X, Y ) = E(XY ) − E(X)E(Y ) = 0.
1 1 = P 0 cos(Q) 0X 2 2 % & p 3p 5p p Q ∪ Q =P 3 2 2 3 =
p 2
− p3 + 2p
5p 3
− 3p 1 2 = 2p 6
593
SOLUTIONS
2
Chapitre
11 – Couples de variables à densité
et de même, % 1 p& 5p 1 = P 0 sin(Q) =P 0Q ∪ Qp P 0Y 2 2 6 6 =
p 6
2p
+
p − 5p 1 6 = · 2p 6
Mais 1 1 1 1 ∩ 0Y = P 0 cos Q ∩ 0 sin Q = 0, P 0X 2 2 2 2 1 1 et 0 sin x , car alors car, pour tout réel x, on ne peut pas avoir 0 cos x 2 2 1 2 2 cos x + sin x · Comme 2 1 1 1 1 P 0X ∩ 0Y = P 0 X P 0Y , 2 2 2 2 les variables X et Y ne sont pas indépendantes. 2. La variable L est à valeurs dans [0, 2]. On a L 2 = (X − 1)2 + Y 2 = X 2 + Y 2 + 1 − 2X = 2 − 2X = 2(1 − cos Q) = 4 sin2
Q 2
u Q et donc L = 2 sin , car si u ∈ [0, 2p], sin 0. 2 2 Déterminons sa fonction de répartition FL . On a donc FL (x) = 0 si x < 0, FL (x) = 1 si x > 2 et pour tout x ∈ [0, 2], x Q FL (x) = P([0 L x]) = P sin 2 2 x x Q Q Arcsin ∪ p − Arcsin p =P 0 2 2 2 2 & % "% x x ∪ 2p − 2 Arcsin Q 2p = P 0 Q 2 Arcsin 2 2 x 2 x 1 4 Arcsin = Arcsin · = 2p 2 p 2 2 x 2 = Arcsin 0 = 0 et La fonction FL est continue en 0 et 2, car lim Arcsin x→0 p 2 p 2 x 2 lim Arcsin = Arcsin 1 = 1. Elle est dérivable sauf en 0 et 2 et à dérivée continue x→0 p 2 p donc elle possède une densité g définie par g(x) = 0 si x 0 ou x 2 et pour x ∈ ]0, 2[, g(x) = FL (x) =
594
1 2 1 · ·4 p 2 1−
= x2 4
2 √ · p 4 − x2
Solutions
mais il est plus simple d’utiliser la formule de transfert 2p 2p 1 1 u 4 Q u 1 = −4 cos (4 + 4) = · E(L) = E 2 sin 2 sin du = = 2 2p 0 2 2p 2 0 2p p On obtient de même, E(L 2 ) = E(2(1−cos Q)) =
1 2p
2p
2(1−cos u) du = 0
1 1 [2(u − sin u)]2p ·4p = 2. 0 = 2p 2p
On en déduit V (L) = E(L 2 ) − (E(L))2 = 2 −
16 · p2
9. Les variables X et Y sont indépendantes donc une densité de (X, Y ) s’obtient en faisant le produit d’une densité de X et d’une densité de Y . On a donc 2 −lx −ly si (x, y) ∈ (R+ )2 le e f (x, y) = 0 sinon. 1. La variable U est à valeurs dans R+ . On a donc FU (u) = 0 si u 0 et pour u > 0, f (x, y) dx dy, FU (u) = P([X + Y u]) =
© Dunod – La photocopie non autorisée est un délit
Du
où Du = {(x, y) ∈ (R+ )2 , x + y = u, donc u u−x u ' (u−x 2 −lx −ly le e dy dx = le−lx −e−ly 0 dx FU (u) = 0 0 0 u ' (u −lu = l −e + e−lx dx = −lxe−lu − e−lx 0 0
= −lue−lu − e−lu + 1 = 1 − (lu + 1)e−lu . Comme X + Y est une variable à densité P([X + Y = 0]) = 0, la variable V est définie presque sûrement. Les variables X et Y sont positives donc V est à valeurs dans [0, 1]. On a donc FV (v) = 0 si v 0, FV (v) = 1 si v 1 et pour v ∈ ]0, 1[, v X v = P([X vX + vY ]) = P X Y . FV (v) = P X +Y 1−v Comme une densité de (X, Y ) est le fonction (x, y) −→ f (x)f (y), on obtient FV (v) = l2 e−lx e−ly dx dy, D
595
SOLUTIONS
On peut calculer E(L) en utilisant cette densité 2 2 &2 2x 1 % , 4 √ −2 4 − x2 = , xg(x) dx = dx = E(L) = 2 p p 0 0 0 p 4−x
Chapitre
11 – Couples de variables à densité
3 v y et donc où D = (x, y) ∈ (R+ ) , x 1−v v +∞ 1−v y 2 −lx −ly FV (v) = le e dx dy =
2
0
0 +∞
=
v −le−ly e−l 1−v y − 1 dy =
0
+∞ 0
+∞
' ( v y −le−ly e−lx 01−v dy
# " ly −l e− 1−v − e−ly dy
0
&+∞ % ly = (1 − v)e− 1−v − e−ly = −(1 − v) + 1 = v. 0
X suit la loi uniforme sur [0, 1]. X +Y 2. On calcule FU,V (u, v) = P([U u] ∩ [V v]) pour tout (u, v) ∈ R2 . Si u < 0 ou v < 0, on a FU,V (u, v) = 0. Si u 0 et v ∈ ]0, 1[, on a 1−v 1−v XY = X Y u − X ∩[X uv]. [U u]∩[V v] = [X+Y u]∩ v v On en déduit que
On en déduit
uv
u−x
2 −lx −ly
le
FU,V (u, v) =
e
dy
(1−v)x v
0
uv
dx = 0
' (u−x le−lx −e−ly (1−v)x dx v
# " lx = l e− v − e−lu dx 0 ' (uv x = −ve−l v − lxe−lu 0 = −ve−lu − luve−lu + v = v 1 − (1 + lu)e−lu . uv
Enfin si u 0 et v 1, on a FU,V (u, v) = P([U u] ∩ [V v]) = P([U u]). On vérifie que, pour tout (u, v) ∈ R2 , FU,V (u, v) = FU (u)FV (v). Les variables U et V sont indépendantes. 10.
1. a. La fonction fa est continue et positive sur R. On a, pour tout réel x, fa (x) =
1 1 · pa 1 + x 2 a
1 Arctan xa . On en déduit p +∞ 1 "p p# + = 1. fa (x) dx = lim Fa − lim Fa = +∞ −∞ p 2 2 −∞
donc une primitive de fa est Fa définie par Fa (x) =
Donc fa est une densité de probabilité.
596
Solutions
F(x) = fa (x) − lim Fa = −∞
"x# p# "x# 1 1 1 " Arctan + = Arctan + · p a 2 p a 2
+∞ 1 On a xfa (x) ∼ . On en déduit que xfa (x) dx ne converge pas. La variable x→+∞ pax −∞ X ne possède pas d’espérance. b. Le couple (X, Y ) suit donc une loi uniforme sur le disque de centre (0, 0) et de rayon 1. Comme Y est une variable à densité, on a P([Y = 0]) = 0, donc Z est définie presque sûrement. On a, pour tout réel z, FZ (z) = P([Z z) =
g(x, y) dx dy = D
1 A(D) p
y z}. On a x ∗ 2 2 D = D ∪ D , où D = {(x, y) ∈ R × R, x + y 1, x > 0, y xz} et D = {(x, y) ∈ R∗ × R, x2 + y2 1, x < 0, y xz}. Les deux ensembles D et D ont même aire, car ils sont symétriques par rapport à (0, 0). où A(D) est l’aire de D = {(x, y) ∈ R∗ × R, x2 + y2 1,
1
D
z u
© Dunod – La photocopie non autorisée est un délit
−1
1 D
−1 On pose u = Arctan(z). Si z 0, D est la réunion d’un quart de disque et d’un secteur angulaire d’angle u. p u On a donc A(D ) = + et 4 2 FZ (z) =
1 ·2 p
p u + 4 2
=
1 u 1 1 + = + Arctan(z). 2 p 2 p
597
SOLUTIONS
La fonction de répartition de X est définie pour tout réel x par
Chapitre
11 – Couples de variables à densité
Si z 0, D est obtenu en enlevant d’un quart de disque un secteur angulaire d’angle p u p |u| |u|. On a donc A(D ) = − = + et on trouve encore 4 2 4 2 FZ (z) =
1 1 + Arctan(z). 2 p
1 1 Ainsi, pour tout z ∈ R, FZ (z) = + Arctan(z). On reconnaît la fonction de 2 p répartition d’une loi C(1). Donc Z suit une loi C(1). c. Le couple possède une densité f définie sur R2 par 1 2 1 2 1 1 1 − 1 (x2 +y2 ) e 2 f (x, y) = √ e− 2 x √ e− 2 y = . 2p 2p 2p
On a, pour tout réel z,
FZ (z) = P([Z z) =
f (x, y) dx dy, D
y où D = {(x, y) ∈ R∗ × R, z}. Comme f et paire et D symétrique par rapport à x l’origine, on peut écrire FZ (z) = 2
f (x, y) dx dy, D
y z} On passe en coordonnées polaires (r, a). x & p p% Le domaine D devient D = {(r, u) ∈ R∗+ × − , , tan a z}. En posant 2 2 y z devient tan a tan u et donc comme Arctan z = u, la condition & p p% & p & x a∈ − , , a ∈ − , u . On obtient 2 2 2 1 − 1 r2 FZ (v) = 2 e 2 r dr da 2p D +∞ 1 2 1 u da e− 2 r r dr = p p −2 0 p # % − 1 r 2 &+∞ 1 " u+ −e 2 = p 2 0 où D = {(x, y) ∈ R∗+ × R,
=1
1 1 1 1 = u + = Arctan(z) + · p 2 p 2 La variable Z suit la loi C(1). 2. a. Soit X = lX. On a, pour tout réel x, FX (x) = P([X x]) = P([lX x]) = P
"%
X
"x# 1 "x# 1 x = FX = Arctan + l l p al 2
d’après la première question. On en déduit que X suit la loi C(la).
598
Solutions
= (2tx + x2 − b2 + 1)(t2 − 2tx + x2 + 1) + (t2 + b2 )(−2tx + 3x2 + b2 − 1). Il s’agit de montrer que cette fonction polynomiale de t de degré inférieur ou égal à 3 est constante, égale c. Le coefficient de t3 est 2x − 2x = 0, celui de t2 , x2 − b2 + 1 − 4x2 + 3x2 + b2 − 1 = 0, celui de t, 2x(x2 + 1) − 2x(x2 − b2 + 1) − 2xb2 = 0, donc N = (x2 − b2 + 1)(x2 + 1) + b2 (3x2 + b2 − 1) = (x2 + 1)2 + b2 (−x2 − 1 + 3x2 + b2 − 1) = (x2 + 1)2 + b4 + 2b2 (x2 − 1)
© Dunod – La photocopie non autorisée est un délit
= (x2 + 1 + b2 )2 − 2b2 (x2 + 1) + 2b2 (x2 − 1) = (x2 + 1 + b2 )2 − 4b2 = (x2 + 1 + b2 + 2b)(x2 + 1 + b2 − 2b) = x2 + (b + 1)2 x2 + (b − 1)2 = c. c. On suppose pour commencer que X suit une loi C(1) et Y une loi C(b). La variable X + Y possède une densité f qui s’obtient en faisant le produit de convolution de f1 et fb . On obtient, pour tout réel x, +∞ +∞ 1 b f (x) = · dt f1 (x − t)fb (t) dt = 2 ) p(b2 + t 2 ) p(1 + (x − t) −∞ −∞ +∞ c b dt. = 2 p c −∞ [(1 + (x − t)2 )][b2 + t2 ] c · D’après la question On fixe x et on considère w : t −→ [(1 + (x − t)2 )][b2 + t2 ] précédente, on a pour tout t ∈ R, 2t (x2 + b2 − 1) x2 − b2 + 1 2(t − x) w(t) = x · 2 + + − · t + b2 [(t − x)2 + 1) (t − x)2 + 1 t 2 + b2 On en déduit une primitive F de w. Pour tout réel t, "t# t 2 + b2 x2 − b2 + 1 2 2 + (x Arctan · F(t) = x ln + b − 1) Arctan(t − x) + (t − x)2 + 1 b b On obtient p x 2 − b2 + 1 p + 2 b 2 2 2 (b + 1) x2 + (b − 1)2 x (b + 1) + (b − 1)(b − 1) =p =p 2b 2b
lim F(t) = x ln 1 + (x2 + b2 − 1)
t→+∞
et
lim F(t) = − lim F(t).
t→−∞
t→+∞
On en déduit f (x) =
b+1 b b (b + 1)[x2 + (b − 1)2 ] · (lim p = 2 F − lim F) = 2 2 −∞ p c +∞ pc b p x + (b + 1)2
On constate que f = f1+b donc X + Y suit la loi C(1 + b).
599
SOLUTIONS
b. Après avoir réduit au même dénominateur le membre de droite de l’égalité, le numérateur obtenu est N = (2tx + x2 − b2 + 1)((t − x)2 + 1) + (t2 + b2 )(x2 + b2 − 1 − 2(t − x)x)
Chapitre
11 – Couples de variables à densité
Passons au cas général et supposons que X suit une loi C(a) etY une loi C(b). D’après 1 b 1 . De b, on déduit la question a, X suit une loi C(1) et Y suit une loi C a a a 1 1 b+a que X + Y suit une loi C . En utilisant de nouveau a, on obtient que a a a 1 1 X +Y =a X + Y suit une loi C(a + b), ce qui est le résultat demandé. a a 11.
1. a. La fonction w : x −→ e−x xa−1 est continue et positive sur ]0, +∞[. On a 1 1 1 w(x) ∼ 1−a · Comme 1 − a < 1, car a > 0 dx converge et il en est de 1−a x→0 x x 0 1 w(x) dx. même de 0 +∞ 1 donc w(x) dx converge. D’autre part, au voisinage de +∞, w(x) = o x2 1 Finalement l’intégrale G(a) est convergente pour tout a. Pour a > 0, G(a) et G(a + 1) sont toutes deux définies. On intègre par parties, en dérivant la fonction puissance. Pour 0 < a < b, on a
b a
On a lim e
(b ' e−x xa dx = −e−x xa a + a
−x a
x = 0, car a > 0 et lim e
b
e−x xa−1 dx.
a
−x a
x = 0, par croissance comparée d’une
x→+∞
x→0
fonction puissance et d’une exponentielle. En faisant tendre a vers 0 et b vers +∞, on obtient G(a + 1) = aG(a). La fonction ga,l (x) est continue sauf peut-être en 0 et positive. Reste à montrer que +∞ ga,l (x) dx converge et vaut 1. Pour 0 < a < b, on obtient avec le changement 0
de variable t = lx,
b
ga,l (x) dx = a
la G(a)
1 = G(a)
b
e−lx xa−1 dx =
a
lb
−t a−1
e t
0
600
lb la
e−t
" t #a−1 1 dt l l
dt.
0
+∞
lb
e−t ßa−1 dt tend vers
la
e−t ta−1 dt =
G(a) = 1. G(a)
+∞
ga,l (x) dx converge et vaut 1.
Autrement dit,
la
1 Quand a tend vers 0 et b vers +∞, G(a) 1 G(a)
la G(a)
Solutions
car G(a + 1) = aG(a). De même sous réserve de convergence, +∞ la E(X ) = e−lx xa+1 dx. G(a) 0 +∞ G(a + 2) e−lx xa+1 dx converge et vaut . Ainsi X posPar le même raisonnement, la+2 0 sède un moment d’ordre 2 et 2
E(X 2 ) =
a(a + 1) la G(a + 2) G(a + 2) = = 2 , G(a) la+2 l G(a) l2
car en appliquant deux fois le résultat de la première question, on obtient G(a + 2) = (a + 1)G(a + 1) = (a + 1)aG(a). On en déduit que X possède une variance
© Dunod – La photocopie non autorisée est un délit
2 a(a + 1) a2 a V (X) = E(X 2 ) − E(X) = − 2 = 2· 2 l l l 2. a. Les variables X et Y étant indépendantes, X + Y possède une densité f donnée par le produit de convolution de ga,l et gb,l . Les variables X et Y étant positives, f est nulle sur R− et d’après le corollaire 1 page 371, on a, pour x > 0, x x la+b f (x) = ga,l (t)gb,l (x − t) = e−lt ta−1 e−l(x−t) (x − t)b−1 dt G(a)G(b) 0 0 la+b −lx x a−1 e t (x − t)b−1 dt. = G(a)G(b) 0 t · On obtient, pour x > 0, x 1 −lx e (xu)a−1 (x(1 − t))b−1 x du
On fait le changement de variable u = f (x) =
la+b G(a)G(b)
0
la+b −lx a+b−1 e x = G(a)G(b)
1
ta−1 (1 − t)b−1 dt. 0
601
SOLUTIONS
b. Sous réserve de convergence, on a +∞ +∞ la E(X) = xga,l (x) dx = e−lx xa dx. G(a) 0 0 +∞ e−lx xa−1 dx converge Il résulte de la question précédente que, pour tout a > 0, 0 +∞ G(a + 1) G(a) e−lx xa dx converge et vaut . Ainsi E(X) et vaut a . On en déduit que l la+1 0 existe et a G(a + 1) la G(a + 1) = , = E(X) = a+1 G(a) l lG(a) l
Chapitre
11 – Couples de variables à densité
G(a + b) 1 a−1 On remarque qu’en posant c = t (1 − t)b−1 dt, on a, pour tout x ∈ R, G(a)G(b) 0 f (x) = cga,l (x) (pour x 0, c’est vrai car f (x) = ga+b,l (x) = 0). Les fonctions f et ga+b,l sont des densités de probabilités. On en déduit que +∞ +∞ 1= f (x) dx = c ga,l (x) dx = c. −∞
−∞
Ainsi c = 1, f = ga+b,l et X + Y suit la loi G(a + b, l). De plus on tire, de c = 1, l’égalité 1 G(a)G(b) · ta−1 (1 − t)b−1 dt = G(a + b) 0 +∞ (+∞ ' b. On a G(1) = e−x dx = −e−x 0 = 1. On a donc pour tout x > 0, 0
g1,l (x) = le−lx . On reconnaît la densité d’une loi exponentielle de paramètre l. On a donc E(l) = G(l, 1). On déduit de la question a, par une récurrence évidente sur n ∈ N∗ , que si X1 , . . . , Xn sont des variables aléatoires telles que Xk suive la loi G(ak , l), alors n indépendantes n Xk suit une loi G ak , l . k=1
k=1
Pour n = 1, il n’y a rien à démontrer. Supposons que la propriété est vraie au rang n et considérons n + 1 variables indépendantes X1 , . . . , Xn+1 telles que Xk suive la loi G(ak , l). Les variables X1 , . . . , Xn sont des variables par naléatoires indépendantes donc n n Xk suit une loi G ak , l . Les variables Xk et hypothèse de récurrence k=1
k=1
k=1
Xn+1 sont indépendantes d’après le lemme n des coalitions, donc d’après la question a, n+1 n n+1 Xk = Xk +Xn+1 suit une loi G ak + an+1 , l , c’est-à-dire G ak , l . k=1
k=1
k=1
k=1
Si X1 , . . . , Xn sont des variables aléatoires indépendantes suivant une loi exponentielle de paramètre l, c’est-à-dire une loi G(l, 1), la variable S = X1 + · · · + Xn suit, d’après ce qui précède, une loi G(l, n) . 3. a. La variable Y suit la loi N (0, 1). Nous savons que Z = Y 2 est une variable à densité. Cherchons sa fonction de répartition. La variable Z est positive donc FZ (z) = 0 si z 0 et, pour z > 0, √ √ √ √ FZ (z) = P([Z z]) = P([− z Y z]) = FY ( z) − FY (− z). y2 1 La fonction FY est dérivable sur R de dérivée fY : y −→ √ e− 2 . On obtient une 2p densité fZ de Z en dérivant FZ . Pour z 0, fZ (z) = 0 et pour z > 0,
√ z 1 z z 2 1 √ 1 1 1 1 fZ (z) = √ fY ( z) + fY (− z) = √ √ e− 2 = √ z− 2 e− 2 = √ z 2 −1 e− 2 . 2 z 2 z 2p p p
602
Solutions
2 2 b. Les variables Y1 , . . . , Yn étant indépendantes, il en est de même de Y1 , . . . , Yn . D’après 1 1 , . D’après ce qui a été la question précédente, chaque variable Yk2 suit une loi G 2 2 n 1 2 2 démontré dans la question 2.a, la variable Z = Y1 + · · · + Yn suit une loi G , . 2 2 D’après les résultats de la question 1, on a
12.
n n E(Z) = 2 = n et V (Z) = 2 = 2n. 1 1 2 4 f (x, y) dx dy = 1. On vérifie 1. Comme f est une densité de probabilité, on a R2
© Dunod – La photocopie non autorisée est un délit
aisément l’égalité proposée par l’énoncé. En l’utilisant, on trouve, pour tout couple de réels (x, y), 1 2 1 (x − ry)2 2 2 (x − y exp − − 2rxy + y ) = exp − 2(1 − r2 ) 2(1 − r2 ) 2 1 2 (x − ry)2 exp − y . = exp − 2(1 − r2 ) 2 On en déduit, pour tout réel y +∞ +∞ 1 (x − ry)2 dx. f (x, y) dx = k exp − y2 exp − 2 2(1 − r2 ) −∞ −∞ La densité d’une variable suivant la loi N (ry, 1 − r2 ) est (x − ry)2 1 . exp − x −→ , 2(1 − r2 ) 2p(1 − r2 +∞ , (x − ry)2 On a donc dx = exp − 2p(1 − r2 et 2(1 − r2 ) −∞ +∞ , 1 f (x, y) dx = k 2p(1 − r2 ) exp − y2 . 2 −∞
603
SOLUTIONS
1 1 z Comme, pour tout z > 0, g( 1 , 1 ) (z) = √ 1 z 2 −1 e− 2 et que fZ et g( 1 , 1 ) sont 2 2 2 2 2G 2 √ 2 toutes les deux nulles sur R− , on voit qu’en posant c = √ G 12 , on a, pour tout p réel z, fZ (z) = cg( 1 , 1 ) (z). 2 2 Le même raisonnement que dans la question 2.a permet de conclure, puisque fZ et g( 1 , 1 ) sont des densités de probabilité, que c = 1 et donc fZ = g( 1 , 1 ) . La variable Z 2 2 -2 2 1 p 1 1 , . Par ailleurs, de c = 1 on tire G 2 = · suit donc la loi G 2 2 2
Chapitre
11 – Couples de variables à densité
On en déduit
+∞ , 1 2 2 f (x, y) dx dy = k 2p(1 − r ) exp − y dy 2 −∞ R2 , , √ 2 = k 2p(1 − r ) 2p = 2kp 1 − r2 = 1
et k=
1 , · 2p 1 − r2
2. a. On obtient les densités marginales en intégrant f par rapport à une des variables. Cela a déjà été fait dans la question précédente pour Y . On trouve, pour tout réel y, +∞ , 1 1 2 1 2 2 √ fY (y) = exp − y . f (x, y) dx = k 2p(1 − r ) exp − y = 2 2 2p −∞ La loi de Y est la loi normale N (0, 1). L’expression de la densité du couple (X, Y ) étant symétrique par rapport à x et y, le calcul donnerait le même résultat pour X qui suit la loi N (0, 1). b. On a Cov(X, Y ) = E(XY ) − E(X)E(Y ) = E(XY ). Cette espérance existe car X et Y ont des moments d’ordre 2 et E(XY ) = xyf (x, y) dx dy. R2
On calcule pour commencer +∞ +∞ 1 (x − ry)2 dx xyf (x, y) dx = ky exp − y2 x exp − 2 2(1 − r2 ) −∞ −∞ +∞ 1 1 1 2 (x − ry)2 , dx. = √ y exp − y x exp − 2 2(1 − r2 ) 2p 2p(1 − r2 ) −∞ On reconnaît dans l’intégrale l’espérance d’une variable suivant la loi N (ry, 1 − r2 ), c’est-à-dire ry. On a donc +∞ 1 1 xyf (x, y) dx = √ ry2 exp − y2 . 2 2p −∞ On en déduit
+∞
E(XY ) = −∞
1 1 2 2 √ ry exp − y dy = rE(Y 2 ) = r. 2 2p
Si les variables X et Y sont indépendantes, elles ne sont pas corrélées. Réciproquement, si X et Y ne sont pas corrélées, leur coefficient de corrélation r est nul. On alors 1 et pour tout (x, y) ∈ R2 , k= 2p 1 2 1 2 1 1 1 2 1 2 f (x, y) = exp − (x + y ) = √ e− 2 x √ e− 2 y = fX (x)fY (y). 2p 2 2p 2p Donc les variables X et Y sont indépendantes.
604
Solutions
√ y2 1 f (x, y) 1 2 2 2 , = (x fX/[Y =y] (x) = exp − − 2rxy + y ) 2pe fY (y) 2(1 − r2 ) 2p 1 − r2 1 1 2 2 2 (x − 2rxy + r y ) =, exp − 2(1 − r2 ) 2p(1 − r2 ) 1 1 2 (x − ry) . =, exp − 2(1 − r2 ) 2p(1 − r2 ) La loi de X conditionnelle à [Y = y] est la loi normale N (ry, 1 − r2 ). Le résultat est le même pour la loi de Y conditionnelle à [X = x].
13.
a
1. La fonction f est positive et continue sauf en 1 et pour tout a 1, +∞ 1 1 1 1 + 1. On en déduit dx = − dx = lim − + 1 = 1 et donc 2 2 a→+∞ x a x a 1
1 +∞
f (x) dx = 1. Ainsi f est une densité de probabilité. −∞
2. a. Les variables X et Y sont à valeurs dans [1, +∞[ donc U est à valeurs dans [1, +∞[ U U = Y 2 donc UV et sont à et V à valeurs dans R∗+ . On a de plus UV = X 2 et V V valeurs dans [1, +∞[. Cela montre que (U, V ) est à valeurs dans A. b. Soit (u, v) ∈ A. Comme les variables X et Y sont indépendantes, une densité du couple (X, Y ) est (x, y) −→ f (x)f (y). On en déduit que
© Dunod – La photocopie non autorisée est un délit
X F(u, v) = P([U u] ∩ [V v]) = P [XY u] ∩ v = f (x)f (y) dx dy, Y D x v}. y Soit x et y deux réels strictement positifs. Alors (x, y) ∈ D si x 1, y 1 et √ x u x u y . Pour que cela soit possible, il faut , c’est-à-dire x uv. v x v x √ Comme uv 1, on obtient 1 x uv et donc où D = {(x, y) ∈ {1, +∞[2 , xy u,
D = {(x, y) ∈ R2 , 1 x Si v 1, on a, pour x 1, y
√ u x uv, y , y 1}. v x
x 1 1 et v v
D = {(x, y) ∈ R2 , 1 x
√
uv,
u x y }. v x
605
SOLUTIONS
3. Pour tout y ∈ R, on a fY (y) = 0, donc la densité conditionnelle fX/[Y =y] est définie et, pour tout x ∈ R,
Chapitre
11 – Couples de variables à densité
On en déduit
u √uv 1 1 1 x − F(u, v) = dy dx = dx x x2 y2 x2 y x 1 1 v v √uv √uv v v 1 1 − + 3 dx = − ln x − 2 = xu x u 2x 1 1 1 1 v 1 √ v 1 − 1 = − ln uv − + · = − ln uv − u 2 uv 2u 2u 2
√ uv
u x
Si v > 1, on obtient D = D ∪ D , où D = {(x, y) ∈ R2 , 1 x v, 1 y D = {(x, y) ∈ R2 , v x
√
uv,
u } x
u x y } v x
et donc v
√uv xu 1 1 F(u, v) = dy dx + dy dx 2 2 x x2 y2 1 v 1 x y v u u v √uv 1 1 1 x 1 x = − − dx + dx 2 y 1 x2 y x 1 x v v v √uv 1 v 1 1 = − + 2 dx + − + 3 dx xu x xu x 1 v v √uv 1 v 1 1 + − ln x − 2 = − ln x − u x 1 u 2x v √ uv 1 1 1 1 1 − + = − ln v − + 1 − ln u v u v 2u 2v 1 1 1 = − ln uv + 1 − − · 2u 2v 2u u x
Si (u, v] ∈ / A, on a u < 1, v < 1, uv < 1 ou u < v. On a alors dans les trois premiers cas F(u, v) = P([U u] ∩ [V v]) = 0. Si u < v, on obtient F(u, v) = P([U u]). c. La fonction F est de classe C 2 sur R2 \ B, où B = {(u, v) ∈ [1, +∞[2 , u = v ou uv = 1 ou v = 1 ou u = 1}.
606
Solutions
1 ∂2F (u, v) = 2 ; ∂u∂v 2u v
g(u, v) = si (u, v) ∈ A et v > 1,
1 1 ∂F (u, v) = − + et donc ∂v 2uv 2v2 g(u, v) =
1 ∂2F (u, v) = 2 · ∂u∂v 2u v
Comme on peut choisir arbitrairement g sur B, on obtient le résultat voulu. d. Pour obtenir les lois marginales, on intègre g par rapport à une des variables. La variable U est à valeurs dans [1, +∞[, donc fU (u) = 0 si u < 1 et pour u 1, fU (u) =
+∞
u
g(u, v) dv = −∞
1 u
1 1 dv = 2 2u2 v 2u
ln u 1 = 2 · ln u − ln u u
La variable V est à valeurs dans ]0, +∞[, donc fV (v) = 0 si v 0 et pour v > 0, +∞ g(u, v) du. On a (u, v) ∈ A si u 1, uv 1 et u v. fV (v) = −∞
Si v 1, cela équivaut à u v et donc
+∞
fV (v) = v
© Dunod – La photocopie non autorisée est un délit
Si 0 < v 1, cela équivaut à u fV (v) =
+∞ 1 1 1 du = − = 2· 2 2u v 2uv v 2v 1 et donc v
+∞ 1 v
On obtient fV (v) =
+∞ 1 1 1 du = − = · 2u2 v 2uv 1 2 v
⎧ ⎪ 0 ⎪ ⎪ ⎨1
si v 0
2 ⎪ ⎪ 1 ⎪ ⎩ 2v2
si v 1.
si 0 < v < 1
1 ln u Si u > 1 et < v < 1, fU (u)fV (v) = 2 = g(u, v) : les variables U et V ne sont pas u 2u indépendantes.
607
SOLUTIONS
L’ensemble B est d’aire nulle (c’est la réunion de deux demi-droites et d’une partie d’une hyperbole). Si (u, v) ∈ / B, on obtient ∂2F (u, v) = 0 ; si (u, v) ∈ / A, g(u, v) = ∂u∂v ∂F 1 1 si (u, v) ∈ A et v < 1, (u, v) = − + et donc ∂v 2uv 2
Chapitre
12 – Convergence de variables aléatoires
Chapitre 12 1.
Si X est une variable aléatoire suivant la loi normale centrée réduite et F sa fonction x √ t2 1 de répartition, on a F(x) = √ e− 2 dt. En divisant par 2p, l’inégalité à démontrer 2p −∞ 1 s’écrit donc F(x) 1 − 2 . Comme la variable X est centré et réduite, l’inégalité de 2x Bienaymé-Tchebychev s’écrit, pour x > 0, 1 P [|X| x] 2 . x On a, puisqu’une densité de X est paire, P [|X| x] = P [X x] + P [X −x]) = 2P [X x] = 2(1 − F(x)). Ainsi 2(1 − F(x))
2.
1 1 et donc F(x) 1 − 2 , ce qui est le résultat voulu. 2 x 2x
. Pour tout k ∈ Ú0, nÛ, l’évé1. La variable aléatoire Zn,x est à valeurs 1 dans Ú0, nÛ1 nement Zn,x est la réunion des événements [Xi x] [Xi > x], pour toutes les i∈I
i∈Ú1,nÛ ∈I /
parties I de Ú1, nÛ de cardinal k. Par indépendance des variables un tel événement a pour k n−k probabilité F(x) . n 1 − F(x) Comme il y a k choix pour la partie I de Ú1, nÛ, on obtient P([Zn,x = k]) =
n−k k n F(x) 1 − F(x) . k
Ainsi Zn,x suit la loi binomiale de paramètre (n, F(x)) et E(Zn,x ) = nF(x), V (Zn,x ) = nF(x) 1 − F(x) . n 1 et donc V (Zn,x ) · 4 4 1 1 2. On en déduit que E(Tn,x ) = F(x) et V (Tn,x ) = 2 V (Zn,x ) · n 4n On applique l’inégalité de Bienaymé-Tchebychev. Pour tout ´ > 0, 0 P [|Tn,x − F(x)| ´] = P [|Tn,x − E(Tn,x | ´] 1 V (Tn,x ) · ´2 4n´2 Par encadrement, on en déduit lim P [|Tn,x − F(x)| ´] = 0. On a, pour tout p ∈ [0, 1], p(1 − p)
n→+∞
608
Solutions 1. La variable Mn est à valeurs dans [0, 1] donc P [Mn x] = 0 si x < 0 et 1 si x > 1. Pour x ∈ [0, 1], n n 1 P([Mn x]) = P [XK x] = P [Xk x] = xn . k=1
Comme P([Yn x]) = P([n(1 − Mn ) x]) = P
k=1
"%
Mn 1 −
"% x x = 1 − P Mn 1 − , n n
on en déduit ⎧ ⎪ ⎨1 − 1" = 0 x #n FYn (x) = P([Yn x]) = 1 − 1 − ⎪ n ⎩ 1−0=1
si x < 0 si x ∈ [0, n] si x > 1.
2. Pour x < 0, la suite FYn (x) est nulle donc lim (FMn (x) = 0. "n→+∞x #n x Pour x 0, on a pour n > x, FYn (x) = 1 − 1 − = 1 − en ln(1− n ) . Quand n tend vers n " x x# x +∞, tend vers 0 donc ln 1 − ∼ − et n ln 1 − xn ∼ −x. On en déduit que n n n " x #n lim FYn (x) = lim 1 − 1 − = 1 − e−x . n→+∞ n→+∞ n La suite (Yn ) converge en loi vers une variable Z dont la fonction de répartition F est définie par F(x) = 0 si x < 0 et F(x) = 1 − e−x pour x 0, c’est-à-dire vers une variable qui suit la loi exponentielle de paramètre 1. 1 1. a. La variable Sn , somme de n variables Bernoulli de paramètre 2 , indépen de 1 . dantes, suit la loi binomiale de paramètre n, 2 n n b. On a donc E(Sn ) = et V (Sn ) = · 2 4 2. a. On déduit de la question précédente que Sn 1 Sn V (Sn ) 1 E = et V = = · n 2 n n2 4n
© Dunod – La photocopie non autorisée est un délit
4.
Sn , on Soit ´ > 0. En appliquant l’inégalité de Bienaymé-Tchebychev à la variable n obtient Sn V Sn 1 1 n P − ´ · n 2 ´2 4n´2 C’est l’inégalité demandé avec K´ =
1 · 4´2
609
SOLUTIONS
3.
Chapitre
12 – Convergence de variables aléatoires 1 dans l’inégalité précédente, on obtient nr Sn 1 1 1 n2r − r 1−2r · 0P n 2 n 4n 4n
b. En prenant, pour n 1, ´ =
1 1 Comme r < , on a 1 − 2r > 0. On en déduit lim = 0 et par encadrement 1−2r n→+∞ 2 4n Sn 1 1 lim P − r = 0. n→+∞ n 2 n 3. Comme Sn est une somme de variables aléatoires de même loi, la variable centrée réduite Sn −1 Sn , c’est-à-dire Zn = n 1 2 converge en loi vers une variable Z qui la loi associée à √ n 2 n normale centrée réduite. On a pour n 1, ' ( ' ( Sn 1 1 − √ = P |Zn | 2 = 1 − P |Zn | < 2 . P n 2 n On a donc Sn 1 1 − √ = 1 − P(|Z| < 2) = 0. lim P n→+∞ n 2 n 1 · Le 5. On peut considérer que la probabilité qu’un mot soit mal orthographié est 500 nombre X de fautes dans un devoir contenant 200 mots suit une loi binomiale de paramètre 1 1 200, . Comme 200 > 30 et < 0, 1, on peut approcher la loi de X par un loi de 500 500 200 = 0, 4. On a donc Poisson de paramètre l = 500 5 (0, 4)k P([X 5]) ≈ e−0,4 ≈ 0, 99994. k! k=0 6. Soit X le nombre de T-Shirts achetés. On a X → B(5 000, 0,4). Comme 5 000 30, 5 000 × 0,4 5 et 5 000 × 0,6 5 on peut approcher la loi de X ∗ par la loi normale centrée réduite. Soit n le nombre de T-Shirts dont on dispose, on cherche donc n tel que P(X > n) < 0,1, soit X − 2 000 n − 2 000 n − 2 000 √ √ √ P > < 0,1 ⇔ P X ∗ > < 0,1 20 3 20 3 20 3 n − 2 000 √ < 0,1 ⇔1−F 20 3 n − 2 000 √ > 0,9 ⇔F 20 3 n − 2 000 √ Soit d’après la loi normale, 20 3 √ 20 3 × 0,8159 + 2 000 ≈ 2 029.
610
≈
0,8159, c’est-à-dire n valant au moins
Solutions
= P(−2, 83 X ∗ 2, 83) ≈ 2F(2, 83) − 1 = 2 × 0, 9977 − 1 ≈ 0, 9954. 2. Avec correction de continuité,
P(1 400 X 1 600) = P [1 399, 5 X 1 600, 5] ⎛⎡ ⎤⎞ 1 399, 5 − 1 500 1 600, 5 − 1 500 ⎦⎠ = P ⎝⎣ 4 X∗ 4 5 5 9 000 × 36 9 000 × 36 = P [−2, 84 X ∗ 2, 84] ≈ 2F(2, 84) − 1 = 2 × 0, 9977 − 1 ≈ 0, 9954.
C’est-à-dire la même valeur. Par l’inégalité de Bienaymé-Tchebychev, on remarque que P [1 400 X 1 600] = P [|X − 1 500| 100] = 1 − P([|X − E(X)| 101]). Or l’inégalité donne √ V (X) 1 250 P([|X − E(X)| 101]) = ≈ 3, 47 2 101 (101)2
© Dunod – La photocopie non autorisée est un délit
soit
P([1 400 X 1 600]) 1 − 3, 47 · 10−2 ≈ 0, 9965
9 8. La probabilité qu’un soldat ne soit pas dévoré est · Si on envoie n soldats, le nombre 10 de soldats qui arrivent sur l’autre rive suit la loi binomiale de paramètre (n; 0, 9). Pour n 30, 0, 1 n 5 et 0, 9 n 5 soit n 50, on peut approcher la loi de X par la loi normale de X − 0, 9 n √ paramètre (0, 9 n; 0, 09 n) et donc la loi de par la loi normale centrée réduite. 0, 3 n On veut que P([X 300]) 0, 95. On a X − 0, 9 n 300 − 0, 9 n 300 − 0, 9 n √ √ P([X 300]) = P ≈1−F , 0, 3 0, 3 n 0, 3 n où F est la fonction de répartition de la loi normale centrée réduite. 300 − 0, 9 n √ 0, 05. Grâce à une table, on trouve F(1, 645) ≈ 0, 95 et donc Il faut F 0, 3 n 300 − 0, 9n √ −1, 645. F(−1, 645) = 1−F(1, 645) ≈ 0, 05. Comme F est croissante, il faut 0, 3 n
611
SOLUTIONS
7. Soit X le nombre de 6 obtenus sur les 9 000 lancers, on sait que X → B(9 000, 1/6). En approchant la loi de X ∗ par la loi normale centrée réduite, on obtient 1. Sans correction de continuité, ⎛⎡ ⎤⎞ 1 400 − 1 500 1 600 − 1 500 ⎦⎠ P([1 400 X 1 600]) = P ⎝⎣ 4 X∗ 4 5 5 9 000 × 36 9 000 × 36
Chapitre
Ainsi
12 – Convergence de variables aléatoires
√ n est solution de l’inéquation 0, 9x2 − 0, 4935x − 300 0.
Les solutions √ de l’équation du second degré sont approximativement −17, 99 et 18, 53. Il faut prendre n 18, 53, soit n 344. 9. On note n le nombre de lignes installées et X le nombre d’employés qui téléphonent à l’instant un instant donné t. On cherche n tel que P([X n]) 0, 025. 6 1 La probabilité pour qu’un employé téléphone à l’instant t est = · Les appels des 60 10 1 employés étant supposés indépendants, X suit la loi binomiale B 300, . L’espérance de 10 √ 1 1 9 = 30, et l’écart-type 300 · · = 3 3. X vaut 300 · 10 10 10 X − 30 ∗ ∗ Posons X = √ · On peut approcher X par loi normale N (0, 1). On note F la fonction 3 3 de répartition de la loi normale. On a n − 30 n − 30 ∗ √ P([X n]) = P X √ ≈1−F . 3 3 3 3 n − 30 n − 30 √ √ 0, 025, c’est-à-dire F 0, 975. On Il faut choisir n tel que 1 − F 3 3 3 3 n − 30 constate que F(1, 96) = 0, 975. Il faut donc √ 1, 96 soit n 41. Il faut installer au 3 3 moins 41 lignes. 1. Une somme de variables indépendantes, suivant une loi de Poisson, suit une loi 10. de Poisson dont le paramètre est la somme des paramètre des différentes variables aléatoires. Ainsi Sn suit une loi de Poisson de paramètre n. 2. On a donc P([Sn n]) =
n
P([Sn = k]) =
k=0
n
e
−n n
k=0
k
k!
=e
−n
n nk k=0
k!
·
Sn − n √ n converge en loi vers la loi normale centrée réduite. En appelant F la fonction de répartition de celle-ci, on obtient 1 Sn − n √ 0 = F(0) = , lim P([Sn n]) = lim P n→+∞ n→+∞ n 2
3. On sait que E(Sn ) = n et V (Sn ) = n. D’après le théorème central limite, la variable
c’est-à-dire lim e−n
n→+∞
612
n nk k=0
k!
=
1 . 2
Solutions
On a donc P([X = 11]) = P([X = 10]), P([X = k + 1]) > P([X = k) si k < 10 et P([X = k + 1]) < P([X = k) si k > 10. Ainsi la suite P([X = k]) croît si k 10 décroît si k 11. Les valeurs de k ayant la probabilité maximale sont 10 et 11. 2. La probabilité qu’il y ait entre 7 et 12 œufs pondus en 15 minutes est P([7 X 15]) =
12 −10 k e 10 k=7
k!
≈ 0, 66.
3. On fait l’hypothèse que les états des différents œufs (déclassés ou non) sont indépendants. Alors YN suit la loi binomiale de paramètre (N; 0, 03). 4. a. Ici, YN suit la loi B(4 000; 0, 03). On a E(YN ) = 4 000 · 0, 03 = 120 et V (Y ) = 4 000 · 0,03 · 0,97 = 116,4. On peut approcher YN par une variable Z suivant une loi normale de même espérance et de même variance, c’est-à-dire une loi N (120, 116,4). On a, pour tout réel x, (x−120)2 1 e− 232,8 f (x) = √ 232,8p
x
et F(x) = −∞
√
(t−120)2 1 e− 232,8 dt. 232,8p
b. La fonction F est dérivable de dérivée f , donc w est dérivable et, pour tout réel x,
© Dunod – La photocopie non autorisée est un délit
w (x) = f (x + h) − f (x − h) = √
1 232,8p
e−
(x+h−120)2 232,8
− e−
(x−h−120)2 232,8
.
Comme la fonction exponentielle est strictement croissante w (x) a le signe de g(x) = −(x + h − 120)2 + (x − h − 120)2 = −(2x − 240)(2h) = −4h(x − 120). Ainsi w (x) = 0 si x = 120 , w (x) > 0 si x < 120 et w (x) < 0 si x > 120. La fonction w croît sur ] − ∞, 120] et décroît sur [120, +∞[. La fonction w possède un maximum obtenu en 120. a+b Notons 2h l’amplitude fixée de l’intervalle [a, b], i.e. 2h = b − a et x = · On a 2 alors x = a − h et b = x + h. Comme on approche YN par Z de fonction de répartition F, on remplace P([a YN b]) par P([a Z b]) = F(b) − F(a) = F(x + h) − F(x − h) = w(x). Cette probabilité est maximale pour x = 120, c’est-à-dire pour a = 120 − h et b = 120 + h. c. On prend donc x = 120. On cherche h minimal tel que a = 120 − h et b = 120 + h, tel que P([a YN b] > 0, 95. On a remplacé P([a YN b] par Z − 120 suit la loi w(x) = w(120) = P([120 − h Z 120 + h]). La variable √ 116,4
613
SOLUTIONS
e−10 10k+1 e−10 10k et P([X = k + 1]) = 1. On a, pour tout k ∈ N, P([X = k]) = 11. k! (k + 1)! et donc P([X = k + 1]) 10 = · P([X = k) k
Chapitre
12 – Convergence de variables aléatoires
normale centrée réduite de fonction de répartition F. On a donc Z − 120 h h √ √ P([120 − h Z 120 + h]) = P − √ 116,4 116,4 84 h h − F −√ =F √ 116,4 116,4 h − 1. = 2F √ 116,4 h − 1 0, 95, c’est-à-dire On cherche donc h tel que 2F √ 116,4 h F √ 0, 975. Comme F(1, 96) = 0, 975 et que F croît, il faut 116,4 h √ 1, 96. La valeur minimale de h est 116,4 , h = 1, 96 116,4 ≈ 11,4.
614
Index
absolue convergence, 101 adhérence, 120 adhérent, 120 application linéaire, 24 partielle, 124 approximation d’une loi binomiale par une loi de Poisson, 398 binomiale par une loi normale, 401 de Poisson par une loi normale, 401 hypergéométrique par une loi binomiale, 397 automorphisme, 35 base, 9 canonique, 10 Bêta (fonction), 176 boule fermée, 125 ouverte, 125 champ de vecteurs, 145 Chasles (relation de), 153, 163 classe C 1 , 127 composition, 129, 130 opérations algébriques, 127, 129 C 2 , 138 composition, 139 opérations algébriques, 139
coefficient de corrélation linéaire, 303, 387 combinaison linéaire, 3 comparaison série-intégrale, 159 continuité, 122 application partielle, 124 opérations, 123 polynôme, 123 convergence absolue, 170 en loi, 396 série, 83 couple à densité, 361 covariance, 300, 384 critères de comparaison, 157, 164 développement décimal d’un réel, 90 densité de probabilité, 314 du couple, 362 dérivée partielle, 126 seconde, 138 différentielle, 143 forme, 143 classe, 143 composante, 144 exacte, 144 fermée, 144 primitive, 144 travail, 145 notation, 142
Index
dimension, 12 domaine élémentaire, 179 droite de régression, 149 vectorielle, 15 écart-type, 336 endomorphisme, 24 équiprobabilité, 206 espérance, 248 espace probabilisé, 200 probabilisable, 197 espace vectoriel, 1 de dimension finie, 11 événement(s), 195, 197 certain, 195 élémentaire, 195 impossible, 195 incompatibles, 196 extrema, 134 point critique, 134 famille de vecteurs, 2 génératrice, 7 liée, 8 libre, 8 sommable, 111 fonction classe C 1 , 127 classe C 2 , 138 de répartition, 234 d’une variable à densité, 315 du couple (X, Y ), 361 formule de Bayes, 220 de Kœnig-Huygens, 257, 334 des probabilités composées, 213 des probabilités totales, 217 du crible ou de Poincaré, 207 Gamma (fonction), 175 Gauss (intégrale de), 174 gradient, 127 616
homothétie, 58 image, 26 indépendance, 351 d’une famille d’événements, 224 de variables aléatoires, 287 entre deux événements, 222 linéaire, 8 inégalité de Bienaymé-Tchebychev, 393 de Markov, 393 intégrale(s) d’Euler, 174 de Gauss, 174, 188 double, 176 doubles impropres, 184 généralisées, 152 impropre, 151, 160, 161 isomorphisme, 29 limite composition, 121 définition, 120 opérations algébriques, 122 loi(s) binomiale, 262 conditionnelle, 284 conjointe, 280 de Bernoulli, 261 de Morgan, 196 de probabilité, 199 exponentielle, 340 faible des grands nombres, 394 géométrique, 265 hypergéométrique, 263 marginale, 282 marginales, 282 normale centrée réduite, 345 normale générale, 348 Poisson, 271 uniforme, 261, 337
Index
matrice d’une application linéaire, 39 d’une famille de vecteurs, 38 de passage, 51 diagonalisable, 63 semblable, 54 symétrique, 4, 64 transposée, 64 maximum, 134 minimum, 134 moments d’une variable à densité, 332 aléatoire discrète, 255 monôme (plusieurs variables), 123 notation différentielle, 142 noyau, 27 ouvert, 125 pavé de R2 , 176 plan vectoriel, 15 point critique col, point selle, 134 extrema, 134 polynôme(s), 123 annulateur, 78 de Lagrange, 23 monôme, 128 plusieurs variables, 123 possible, 194 probabilité, 199 conditionnelle, 212 uniforme, 206 produit de convolution, 371 rang d’une application linéaire, 30 d’une famille de vecteurs, 30 d’une matrice, 46 règle des chaînes, 131 reste, 84 Riemann (intégrales de), 157, 164
sans mémoire, 343 scalaire, 2 série, 82 absolument convergente, 101, 109 alternée, 87 comparaison avec une intégrale, 95 convergente, 83 « dérivée » d’une série géométrique, 104 divergente, 83 exponentielle, 102 géométrique, 88 harmonique, 84 harmonique alternée, 86 reste, 84 Riemann, 96 somme, 83 somme partielle, 82 télescopique, 88 sommable, 111 sommation par paquets, 94 somme, 83 de deux sous-espaces vectoriels, 15 de variables indépendantes, 371 directe, 16 partielle, 82 sous-espace propre, 55 supplémentaire, 17 spectre, 55 stabilité de la loi normale, 372 des lois binomiales et de Poisson pour la somme, 295 Stirling, 99 système complet d’événements, 199 théorème approximation, 128 composition des fonctions C 1 , 129, 130 composition des fonctions C 2 , 139 de Bernoulli, 395 de comparaison, 159 617
Index
de comparaison (séries), 91 de Fubini, 184 de la base incomplète, 13 de la limite centrée, 399 de transfert, 253, 331 des chaînes, 131 du rang, 31 Fubini (séries), 109 Poincaré, 147, 150 règle des équivalents, 92 Schwarz, 139 tribu, 197 univers, 194
618
valeur propre, 55 variable à densité, 351 variable aléatoire, 233, 343 centrée, 252, 329 constante, certaine, 239 discrète, 237 indicatrice d’un événement, 239 réelle à densité, 313 variance, 257, 333 vecteur colinéaire, 8 composantes d’un, 9 coordonnées d’un, 9 propre, 55
J’INTÈGRE Sous la direction de Christian Gautier et André Warusfel François Lussier • Gonzague de Monicault • Serge Nicolas • Monique Ramis • Bruno Caminade
MATHÉMATIQUES TOUT-EN-UN • BCPST 2e ANNÉE Cours et exercices corrigés Cet ouvrage couvre en un seul volume la totalité du programme de mathématiques de la 2e année des classes préparatoires BCPST. Conçu comme un ouvrage de référence, ce livre propose au lecteur une vision globale du cours dans le strict respect des programmes. À la fin de chaque chapitre, de nombreux énoncés d’exercices complètent le cours et permettent au futur candidat de s’entraîner efficacement dans l’optique du concours.
CHRISTIAN GAUTIER ancien élève de l’École normale supérieure de Saint-Cloud, est professeur au lycée La Bruyère à Versailles. ANDRÉ WARUSFEL ancien élève de l’École normale supérieure de la rue d’Ulm, a été professeur de Mathématiques Spéciales au lycée Louis-le-Grand à Paris et Inspecteur général de mathématiques.
Tous les exercices sont corrigés de façon détaillée à la fin de l’ouvrage. MATHÉMATIQUES
PHYSIQUE
CHIMIE
SCIENCES DE LA VIE
SCIENCES DE LA TERRE
ISBN 978-2-10-053976-5
www.dunod.com