Chapitre VII
probabilités :
variables aléatoires à densité
convergences et approximations

retour accueil
retour index cours

Introduction


La figure ci-dessus représente :

* en bleu, l'histogramme de la loi binomiale de paramètres 100 et 0,5 c'est à dire les valeurs deP(X = k), avec k entier compris entre 0 et 100, et X qui suit la loi binomiale B(100 ; 0,5) ;
* en rouge, la courbe représentative de la fonction f de R dans R définie par :

L'axe horizontal est gradué de 10 en 10 ;
L'axe vertical est gradué de 0,01 en 0,01 ;
A la précision du dessin, la courbe en rouge semble donner des approximations excellentes des valeurs de la loi binomiale B(100 ; 0,5). C'est effectivement le cas...
La somme des longueurs des bâtons bleus est égale à 1 (pourquoi ?). Le pas de la subdivision étant de 1, la "somme de Riemann" correspondante devrait donner une bonne approximation de l'intégrale de f sur ] , +¥ [. C'est effectivement le cas, cette intégrale est elle-même égale à 1...
Soit à calculer la probabilité d'obtenir un nombre de "pile" compris entre 40 et 60 quand on lance une pièce de monnaie équilibrée. Le résultat exact est :

et avec une bonne approximation :

On considère maintenant des variables aléatoires prenant leurs valeurs dans R "tout entier". On peut considérer par exemple une variable aléatoire Y dont la "loi" (on dit plutôt densité) est précisément la fonction f définie ci-dessus. Par cela on entend que pour tout a, b tels que -¥ £ a £ b £ +¥ :

En particulier :

 

I. Variables aléatoires à densité : généralités

1°) Densité. Variables aléatoires à densité.

Définitions. Soit f une fonction de R dans R. On dit que f est une densité de probabilité ssi :
* f ³ 0 sur R ;
* f est continue sur R sauf en un nombre fini de points ;

Soit f une densité. On dit que la v.a X : W ® R admet f pour densité ssi, pour tout a, b réels tels que -¥ £ a £ b £ +¥ , on a

Propriétés. Soit X de densité f.
* Pour tout a appartenant à R : P(X = a) = 0.
* Pour tout a, b tels que £ a £ b £ +¥ :
P(a £ X £ b) = P(a < X £ b) = P( a £ X < b) = P(a < X < b).

2°) Fonction de répartition d'une v.a à densité.

Définition. On rappelle que, pour toute v.a X, la fonction de répartition FX de X est définie, pour tout x réel, par :
FX(x) = P(X £ x).

Pour les v.a à densité, la fonction de répartition (f.r) revêt une importance particulière.

Soit X une v.a de densité f , de f.r FX : Fx(x) = P(X £ x) pour tout x dans R.

Propriétés.

Théorème (admis) :
* F est continue sur R.
* Partout où f est continue (c'est à dire sur R privé d'un nombre fini de points), F est dérivable, et F' = f.
* F est donc de classe C1 sur R privé d'un nombre fini de points.
* F est croissante sur R.

Réciproquement :
Soit F une fonction de R dans R telle que :
* F est continue sur R.
* F est de classe C1 sur R privé d'un nombre fini de points. En tout point où F' n'est pas continue, F' admet des limites finies ou égales à +¥ à gauche et à droite.
* F est croissante sur R.

Alors F est la fonction de répartition d'une v.a à densité X.

3°) Espérance, variance.
Soit X de densité f.

* Par définition, X admet pour espérance :

ssi l'intégrale à droite est convergente.

* Si j est une fonction strictement monotone et de classe C1 sur R, alors :

sous réserve que l'intégrale à droite converge.

* Par définition X admet pour moment d'ordre 2 :

sous réserve que l'intégrale à droite converge.

* Soit X admettant une espérance E(X). Par définition, la variance V(X) est :
V(X) = E( [X - E(X)]2 )
sous réserve que l'intégrale à droite converge.

* Théorème : On suppose que la v.a X admet un moment d'ordre 2. Alors X admet une espérance et une variance, et on a :
V(X) = E(X2) - E(X)2

* Si X et Y sont des v.a à densité admettant des espérances, alors X + Y admet une espérance, et :
E(X + Y) = E(X) + E(Y)
E(aX + b) = aE(X) + b.

* Si X admet une variance :
V(aX + b) = a2V(X)

Le plus simple pour mémoriser est de mettre en parallèle le cas discret et le cas continu, voir aide-mémoire dans une nouvelle fenêtre.
 

II. Variables aléatoires à densité usuelles

1°) Loi exponentielle

La loi exponentielle modélise la durée de fonctionnement "normal" (ou la durée qui sépare deux pannes) de certains appareils. Elle modélise aussi l'intervalle de temps qui sépare l'arrivée de deux clients à un guichet.

Définition. Soit a > 0. On dit que X suit la loi exponentielle de paramètre a ssi X admet pour densité f telle que :

Tout est à retenir, et à savoir faire... :

* f est bien une densité...
* E(X) = 1/a ; V(X) = 1/a2
* La fonction de répartition FX de X est :

Propriété caractéristique de la loi exponentielle.

Proposition. Soit X une v.a qui suit la loi exponentielle de paramètre a , a > 0.
Alors pour tout t, t' ³ 0 : P( X > t + t' / X > t ) = P( X > t' ).
Réciproquement, soit X une variable aléatoire à densité à valeurs dans [0, +¥ [ (c'est à dire de densité nulle en dehors de l'intervalle [0, +¥ [ ). On suppose que l'on a :
Pour tout t, t' ³ 0 : P(X > t) > 0, et P( X > t + t' / X > t ) = P( X > t' ).
Alors X suit une loi exponentielle.

On dit que la loi exponentielle est une loi sans mémoire, et que ceci est caractéristique de la loi exponentielle (pour les v.a à densité.)

Dem : Pour la partie directe, il s'agit d'une simple vérification. Pour la réciproque, on considère la fonction G définie sur [0, + ¥ [ par G(t) = P(X > t). G est positive, dérivable sur [0, +¥ [ privé d'un nombre fini de points, car G(t) = 1 - F(t), avec F f.r de X. D'autre part, G vérifie :
Pour tout t, q ³ 0 : G(t + q ) = G(t) G(q ).
* Avec t = 0, il vient : G(0 + q ) = G(0) G(q ), donc G(0) = 1 (car G est positive).
* On admet que la fonction G est dérivable partout sur [0, +¥ [. En dérivant par rapport à t :
G '(t +q ) = G '(t) G(q )
ou encore :

Avec t = 0, il vient :

Soit, en considérant les primitives de ces deux fonctions égales :
ln( G(q ) ) = G'(0) q + k
Par conséquent :
G(q ) = exp( G'(0)q + k) ) = C exp( G'(0)q )
G(0) = 1, donc C = 1, donc G(q ) = exp( G'(0)q )
F(q ) = 1 - exp( G'(0)q )
La fonction de répartition de X est bien celle d'une v.a suivant une loi exponentielle, de paramètre a = - G'(0).

Loi exponentielle et loi géométrique.
Soit X une v.a qui suit la loi exponentielle de paramètre a , a > 0. On considère la v.a T définie sur N* par :
{T = n } = {n - 1 £ X £ n}. On a :

Donc P({T = n}) = (e-a )n- 1 (1 - e-a ) : T suit la loi géométrique de paramètre 1 - e-a .

Loi exponentielle et loi de Poisson.
Des clients se présentent à un guichet. On suppose que le nombre Nt de clients qui se présentent au guichet durant un intervalle de temps t suit une loi de Poisson de paramètre l t.
Soit Y l'intervalle de temps qui sépare l'arrivée de deux clients consécutifs au guichet. Y est à valeurs dans R+, et on a (Y > t) = (Nt = 0). Donc, pour tout t ³ 0 :

Par conséquent, P(Y £ t) = 1 - exp(-l t) pour t ³ 0, et P(Y £ t) = 0 pour t < 0 :  Y suit la loi exponentielle de paramètre l .
 

2°) Loi uniforme sur [a, b].

La loi uniforme est susceptible de modéliser des expériences aléatoires telles que : "on choisit un nombre au hasard entre 0 et 1" (loi uniforme sur [0, 1], "on fait tourner une roue de loterie" (loi uniforme sur [0, 2p ] ou sur [0, 360]), e.t.c.

Définition. Soit a, b appartenant à R tels que a < b. On dit que X suit la loi uniforme sur [a,b] ssi X admet pour densité f telle que :

A savoir faire :
* f est bien une densité : l'aire du rectangle de longueur b - a et de hauteur 1/(b - a) est égale à 1.
* X admet pour f.r F telle que :

* A retenir, et à savoir faire : l'espérance de X est :

* Des calculs instructifs conduisent à :

 

3°) Loi normale

Modélise d'innombrables séries statistiques : taille des individus d'une population, poids des nouveau-nés dans une maternité, Q.I...

Définition. Soit m appartenant à R et s > 0. On dit que X suit la loi normale de paramètres m et s ssi X admet pour densité f telle que, pour tout x appartenant à R :

Propriétés.
* Il s'agit bien d'une densité (admis).
* X a pour fonction de répartition :

* E(X) = m ; V(X) = s2 (à retenir.)
 

Loi normale centrée réduite.
Proposition. Soit X une v.a qui suit la loi normale de paramètres m et s . Alors la v.a centrée réduite X*, définie par :

suit la loi normale de paramètres 0 et 1 : la loi normale centrée réduite.

Dem. Il s'agit de déterminer y , fonction de répartition de X*. Par définition, on a :
.
On obtient donc :

On effectue le changement de variable y = (t - m)/s dans cette intégrale.
On a dy =dt/s , et si t varie de à m + s x, alors y varie de à x ; donc :

c'est à dire la fonction de répartition de la loi normale de paramètre 0 et 1.
 

Propriétés de la loi normale centrée réduite.
Soit X* suivant la loi normale centrée réduite.
-- X* a pour densité la fonction j telle que :

-- X* a pour f.r la fonction y telle que :

-- j est bien une densité (admis) ; en d'autres termes :

(intégrale de Gauss.)

-- E(X*) = 0, V(X*) = 1. Démonstration. Pour l'espérance, la fonction qui à t associe t exp(- t2/2) est continue sur R,et au voisinage de +¥ , t exp(- t2/2) est positive et négligeable devant 1/t2. Par comparaison avec une intégrale de Riemann convergente, on déduit :

car la fonction qui à t associe t exp(- t2/2) est impaire.
Pour E(X*2), la fonction qui à t associe t2 exp(- t2/2) est continue, paire, positive ou nulle, et négligeable devant 1/t2 au voisinage de +¥ . X* admet bien un moment d'ordre 2, et on a :
.
On effectue alors une intégration par partie avec :
u = t                          u' = 1
v' = t exp(- t2/2)       v = - exp(- t2/2)
u et v sont de classe C1 sur [0, x] . La partie toute intégrée tend vers 0 quand x tend vers +¥ , et :

D'où la conclusion.

* Ci dessous, sur le même graphique : en bleu la densité de X*, en rouge la f.r de X*. Les axes sont gradués de 1 en 1. On observe, et le calcul confirme, que le point de coordonnées (0, 1/2) est centre de symétrie de Cy . En d'autres termes :
" x Î R, y (- x) = 1 -y (x)


 

Utilisation de la loi normale centrée réduite
Proposition.
a) Soit X qui suit la loi normale de paramètres m et s . Alors, pour tout x dans R :

Avec y f.r de la loi normale centrée réduite.
b) " x ÎR, y (- x) = 1 -y (x)

Cette proposition permet de ramener les calculs de probabilités portant sur des variables "gaussiennes" à des calculs portant sur y (les valeurs en sont tabulées.)
 

III. convergences et approximations

1°) Inégalité de Bienaymé -Tchebicheff. Loi faible des grands nombres. Convergence en probabilité.
 

Inégalité de Bienaymé -Tchebicheff

Théorème. Soit X une variable aléatoire discrète ou à densité, d'espérance E(X) = m, de variance V(X) = s2. Alors :

La probabilité qu'une v.a s' écarte de plus de e de sa valeur moyenne est d'autant plus faible que sa variance est petite et que e est grand.

Exemple. Soit X qui suit la loi binomiale de paramètre 10 et 1/2. E(X) = 5 et V(X) = 2,5. L'inégalité de B.T fournit, avec e = 4 :
P(½ X - 5½ ³ 4) £ (2,5)/42 » 0,157.
Et le résultat serait le même pour n'importe quelle v.a d'espérance 5 et de variance 2,5. Ici on connaît la loi de X, on peut calculer la probabilité effective P(½ X - 5½ ³ 4) :
½ X - 5½³ 4 Û X - 5 ³ 4 ou X - 5 £- 4 Û X ³ 9 ou X £ 1 Û X Î {0, 1, 9, 10}. On obtient :
P(½ X - 5½ ³ 4) = 22.(0,5)10 » 0,021
La majoration fournie par l'inégalité de B.T est donc très médiocre, mais elle est universelle, et d'une importance théorique considérable...

Dem de l'inégalité de B.T :
Cas discret : X(W ) = {x1, x2, ... }


Cas continu : X de densité f.


 

Loi faible des grands nombres

Théorème. Soit (Xn) une suite de v.a indépendantes et de même loi, d'espérance m et de variance s2 positive.

Alors, pour tout e > 0 :

Et par conséquent :

Exemple. On lance une pièce de monnaie indéfiniment, la probabilité d'obtenir "pile" étant p.
Avec Xi = 1 si on obtient pile au i-ème jet, 0 sinon, la somme de Xi de i = 1 à i = n est le nombre de "pile" obtenu au cours des n premiers jets, et Zn la fréquence d'apparition de "pile" au cours des n premiers jets. On a m = p et s2 = p(1 - p). La loi faible des grands nombres fournit dans ce cas-là :

(la dernière inégalité car p(1 - p) £ 1/4 sur [0, 1], comme on s'en persuade en étudiant la fonction.)
C'est à dire que la probabilité que la fréquence observée d'apparition du "pile" s'écarte de la fréquence théorique d'apparition du "pile" (sa probabilité) de plus de e tend vers 0 quand le nombre de jets tend vers +¥ , même si e est très petit : la fréquence observée a toutes les chances de converger vers la fréquence théorique, ce que confirme l'expérience.

Démonstration de la loi faible des grands nombres : on applique B.T à Zn, dont l'espérance est égale à m, et la variance à s2/n.

Convergence en probabilité

On dit que la suite de v.a (Xn) converge en probabilité vers la v.a X ssi :

De la loi faible des grands nombres, on déduit alors :
Soit (Xn) une suite de v.a indépendantes et de même loi, d'espérance m et de variance s2 positive.
Alors la suite (Zn) des moyennes empiriques définies par

converge en probabilité vers la v.a certaine m.
 
 

2°) convergence en loi. Approximations. Théorème de la limite centrée.

Convergence en loi.
Définition : On dit que la suite (Xn) de v.a converge en loi vers la v.a X ssi :

en tout point x où la fonction de répartition de X est continue.

Proposition : Soit Xn et X des v.a prenant leurs valeurs dans N. Alors la suite (Xn) converge en loi vers X ssi :

Exemple : On a vu au chapitre III que, avec Xn qui suit la loi B(n, l /n), la suite (Xn) converge en loi vers X qui suit la loi de Poisson de paramètre l .

Approximations
Quand la suite (Xn) converge en loi vers X, pour n assez grand, P(Xn = k) est une approximation de P(X = k). Les approximations suivantes ont une grande importance pratique :

* Si n /N < 1/10, la loi H(N, n, p) peut être approchée par la loi B(n, p) (n/N est le taux de sondage.)
* Si n est petit et N grand, la loi B(n, p) peut être approchée par la loi P(np).
* Si n est proche de 1/2 et si N est grand, la loi B(n, p) peut être approchée par la loi N(np, Ö (np(1-p)) )
* si l est grand, la loi de Poisson P(l ) peut être approchée par la loi normale N(l ,Öl ).

On remarquera que dans les trois derniers exemples, on approche une loi par une autre loi ayant même espérance, et même variance s'il y a besoin d'ajuster deux paramètres.

Les expressions "petit", "grand", "proche de 1/2", ... n'ont aucune signification rigoureuse. Il existe des critères plus précis. L'énoncé devrait vous donner la loi approximante, à charge pour vous de préciser ses paramètres.

Théorème de la limite centrée

Théorème (admis). Soit (Xn) une suite de v.a indépendantes et de même loi, d'espérance m et de variance s2 positive. Alors la variable centrée réduite Sn* associée à Sn = X1 + X2 + ... + Xn converge en loi vers une v.a X qui suit la loi normale centrée réduite.

On a E(Sn) = nm, V(Sn) = ns2. Donc par définition de "variable centrée réduite" :
.
Le théorème de la limite centrée signifie donc que, pour tout a, b dans R tels que a < b :

Il est remarquable que la loi de Xn n'intervienne pas. Ce théorème "explique" en grande partie l'ubiquité de la loi normale.
 

retour début
retour index cours