Chapitre III
variables aléatoires discrètes

retour à l'accueil
retour à l'index cours

I. Espaces probabilisés finis

Définitions
 Soit W un ensemble fini. Une  probabilité sur W est une application P :  P(W ) ® [0, 1]
      A   ®   P(A)
telle que :
* P() = 0 ;
* si A et B sont incompatibles (A Ç B = ), alors P(A È B) = P(A) + P(B).

(W , P(W ), P) est un espace probabilisé fini.

Propriétés
P(W ) = 1 ;

Si les A1, A2, ... , An sont deux à deux incompatibles, alors P() =  ;
P(A È B) = P(A) + P(B) - P(A Ç B).

Probabilité conditionnelle
Soit (W , P(W ), P) un espace probabilisé et B Ì W tel que P(B) ¹0. La probabilité conditionnelle suivant B est l'application PB : P(W ) ® [0, 1]
        A ® PB(A) = P(A/B) = 
Remarque : PB est une probabilité. En d'autres termes, (W , P(W ), PB) est un espace probabilisé, différent de l'espace probabilisé de départ. Contrairement à ce que pourrait laisser penser la notation P(A/B), A/B n'est pas un événement...

Utilisation : c'est la formule des probabilités composées :
P(A Ç B) = P(A/B) P(B) , et sa généralisation :
P(A1 Ç A2 Ç ... Ç An) = P(A1) P(A2/A1) P(A3/A1ÇA2) ... P(An/A1ÇA2Ç... Ç An-1)

Indépendance
Par définition, deux événements sont dits indépendants ssi P(A Ç B) = P(A) P(B),
ce qui est équivalent à P(A/B) = P(A) si P(B) ¹0.
Les événements A1, A2 , ... , An sont dits mutuellement indépendants ssi :
" I Ì {1, 2, ..., n} P() = .
Exemples fondamentaux :
* les résultats successifs du jet d'une pièce de monnaie, d'un dé...
* les résultats successifs de tirages AVEC REMISE d'une boule dans une urne.

Formule des probabilités totales
(A1, A2 , ... , An) est un système complet d'événements ssi :
* " i, P(Ai) ¹ 0
* i ¹ j Þ Ai Ç Aj = Æ (les Ai sont deux à deux disjoints)
= W
Les Ai "recouvrent" complètement W , sans empiètement. On dit aussi que les Ai forment une partition de W .
Exemple, d'utilisation fréquente :
Si X(W ) = {x1, x2, ... , xn}, alors ( (X = x1), (X = x2), ... , (X = xn) ) est un s.c.e.

Formule des probabilités totales : Soit I un ensemble fini d'indices, (Ai)iÎ I un s.c.e. Alors pour tout événement B :

C'est la formule royale du cours de probabilité des E.C.E, d'usage varié, constant et souvent spectaculaire. Comme corollaire, on a la :
Formule de Bayes : Soit (Ai)iÎ I un s.c.e, B un événement de probabilité non nulle, un des éléments du s.c.e. Alors :
P( / B) = 
La formule de Bayes est aussi appelée formule de probabilité de causes, car elle donne la réponse à la question : entre plusieurs causes possibles, quelle est la probabilité qu'un événement ait été causé par une cause particulière ? Elle permet dans une certaine mesure de "remonter le temps". Remarquer que le numérateur est un des termes figurant au dénominateur.

Exercices
1. 1°) Une urne contient 6 boules blanches et 4 boules noires. On tire au hasard et simultanément 5 boules de l'urne. Déterminer la probabilité que l'échantillon soit représentatif de l'urne, c'est-à-dire qu ' il soit composé de 3 boules blanches et 2 boules noires.
2°) Même question si les boules sont tirées une à une et sans remise.
3°) Même question si les boules sont tirées une à une et avec remise.

2. 1°) Un sac contient 5 jetons blancs et 4 jetons noirs. On tire un à un et sans remise 3 jetons du sac. Probabilité d'obtenir BNB dans cet ordre ? (deux méthodes)
2°) Même question si les tirages ont lieu avec remise.

3. Statistiquement, on sait que 5 hommes sur 100 et 25 femmes sur 10 000 sont daltoniens. 1°) On choisit une personne au hasard. Quelle est la probabilité que cette personne soit daltonienne ? 2°) la personne choisie est daltonienne. Quelle est la probabilité qu'il s'agisse d'un homme ?

4. Un test T d'une maladie M a été testé en laboratoire et on sait que :
P(T/M) = 0,95 ; = 0,95.
La fréquence d'apparition de M est 0,005. Calculer P(M/T). Qu'en pensez-vous ?

5. 1°) Un individu est choisi au hasard dans une population comprenant 60 personnes honnêtes et 40 tricheurs. On lui fait tirer une carte d'un jeu de 52 cartes. Si c'est un tricheur, il retourne toujours un as. Quelle est la probabilité que l'individu choisi retourne un as ?
2°) Un individu a retourné un as. Quelle est la probabilité qu'il s'agisse d'un tricheur ?
3°) Un individu a retourné deux fois de suite un as. Quelle est la probabilité qu'il s'agisse d'un tricheur ?

6. 3 enfants jouent à la courte paille. Calculer la probabilité de tirer la courte paille pour le 1er, le 2e, le 3e enfant. Conclusion ?

7. Un détecteur de mensonges est fiable dans 90% des cas, tant pour détecter les menteurs que ceux qui disent la vérité. Pour réduire les vols, une entreprise licencie tous les employés détectés par l'appareil comme étant des voleurs.
V est l'ensemble des voleurs, L est l'ensemble des licenciés. La proportion des voleurs dans l'entreprise est de 1% (avant la campagne de détection des voleurs).
Quelle est la proportion des licenciés ?
Quelle est la proportion des voleurs parmi les non-licenciés ?
Quelle est la proportion des non voleurs parmi les licenciés ?
Moralité ?

8. Trois machines fabriquent des boulons : la machine A assure 20% de la production et un boulon sur 100 est défectueux. La machine B assure 30% de la production et 2 boulons sur 100 sont défectueux. La machine C assure 50% de la production et 5 boulons sur 100 sont défectueux.
Quelle est la production de boulons défectueux dans la production totale ? Quelle est la production de boulons venant de C parmi les boulons défectueux ?

9. Deux candidats A et B se présentent à une élection. Des sondages ont révélé que l'électorat attendu de A se compose de 60% de femmes, celui de B de 45%. A est élu avec 55% des suffrages. On interroge au hasard un électeur au sortir de l'isoloir, c'est une femme. Quelle est la probabilité qu'elle ait voté pour A ?

10. Un distributeur de cafés A fonctionne correctement un jour sur deux (en moyenne.) Un autre distributeur de cafés B fonctionne deux jours sur trois.
Le jour n°1, une personne choisit au hasard un des distributeurs A, B. Il décide d'utiliser le même distributeur le lendemain si celui-ci lui a donné un café correct, et de changer de distributeur sinon. Il procède de même les jours suivants.
On considère les événements suivants : (n appartenant à N*)
An : Le jour n° n, la personne utilise le distributeur A.
Bn : Le jour n° n, la personne utilise le distributeur B.
Cn : Le jour n° n, la personne boit un café correct.
Soit pn = P(An), qn = P(Cn). Trouver une relation entre pn+1 et pn. Quelle est la nature de la suite (pn) ? En déduire pn en fonction de n. Exprimer qn en fonction de pn. En déduire la probabilité de boire un café correct le jour n° n...

11. On tire au hasard un jeton parmi n, numérotés de 1 à n. Si n est le numéro obenu, on lance n fois une pièce de monnaie équilibré. Soit X le nombre de "pile" obtenu. Calculer P(X = 0).
 

II.Variables aléatoires sur un ensemble fini

1°) Définitions Soit (W , P(W ), P) un espace probabilisé fini. Une variable aléatoire sur W est une application X : R. Pour x réel donné, l'événement X-1(x) = {w ; X(w) =x} est noté, de façon plus parlante, (X = x). Une v.a est une observation numérique sur les résultats d'une expérience aléatoire, elle n'a en elle-même rien d'aléatoire, et ce n'est pas une variable, mais une application...
Déterminer la loi de probabilité de la v.a X, c'est déterminer l'ensemble X(W ) des valeurs xi que prend la v.a X, et, pour chaque xiÎ X(W ), déterminer la probabilité P(X = xi).

2°)Espérance (ou moyenne)

Définition : E(X) = 
Un cas particulier d'utilisation fréquente : si X(W ) Ì [[0, n]],

Propriétés : E(X + Y) = E(X) + E(Y) ; E(a X) = a E(X) ; E(aX + b) = aE(X) + b (linéarité de l'espérance).

E( j (X) ) =(théorème de tranfert) ; en particulier :
E( X r ) =  avec r Î N* (moment d'ordre r de X) .

3°)Variance
Définition : V(X) =  =  E( [X - E(X)]2 ) (moyenne des carrés des écarts à la moyenne).
Propriétés :
(théorème de Koenig-Huyghens)  V(X) =  -  E(X) 2 = E(X2) - E(X)2 (moyenne des carrés, diminuée du carré de la moyenne).
V(aX + b) = a2V(X)
V(X + Y) = V(X) + V(Y) si X et Y sont indépendantes ; dans le cas général :
V(X + Y) = V(X) + V(Y) + 2cov(X,Y), avec :
cov(X,Y) = E([X - E(X)][Y - E(Y)]) (def) = E(XY) - E(X)E(Y) (thm), avec :
E(XY) = , avec : pij = P(X = xi , Y = yj) ;
généralisation de cette formule :
)  ; remarque : cettte dernière somme comporte  termes.
Exercice : Démontrer que : V(X - Y) = V(X) + V(Y) - 2cov(X,Y).

Remarque : L'application qui à un couple de variables (X,Y) associe cov(X,Y) est une forme bilinéaire symétrique positive. Cela signifie que :
* (symétrique) cov(X, Y) = cov( Y, X) (evident) ;
* (bilinéaire) l'application est linéaire par rapport à chacune des variables X, Y :
cov(X + X ' ,Y) = cov(X,Y) + Cov(X ',Y) ; cov(aX, Y) = a cov(X,Y) ;
cov(X ,Y + Y ') = cov(X, Y) + Cov(X ,Y ') ; cov(X, aY) = a cov(X,Y) ;
on peut le vérifier facilement en utilisant cov(X,Y) = E(XY) - E(X)E(Y) et la linéarité de l'espérance.
* (positive) cov( X, X) ³ 0 : en effet, cov(X, X) = V(X)...
Ces propriétés, faciles à mémoriser et à utiliser, sont à connaitre pour traiter certains problèmes, par exemple ceux de HEC math 2...
 

III. Lois de probabilité finies usuelles

· Loi certaine : X(W ) = {c} ; P(X = c) = 1 ; E(X) = c ; V(X) = 0.
Cette dernière propriété est caractéristique des v.a certaines : V(X) = 0 Þ X(W ) = {c}.

· Loi de Bernoulli : X suit la loi B(1, p), avec p Î ]0, 1[  ssi :
X(W ) = {0, 1} ; P(X = 1) = p ; P(X = 0) = 1 - p ;
E(X ) = p ; V(X) = p(l - p) .
Exemple - La.fonction indicatrice 1A de l'événement A Ì W :
1A
est une variable de Bernoulli de paramètre P(A) : 1A suit la loi B(1, p) avec p = P(A).

· Loi binomiale : X suit la loi B(n, p) (avec n ÎN*, p Î ]0, 1[) ssi :
X(W ) = [[0, n]] ; " k Î [[0, n]] P(X = k) = pk(1 - p)n-k.
E(X) = np et V(X) = np(l - p).
X est le nombre de succès lors de n épreuves identiques et indépendantes, la probabilité du succès à chaque épreuve étant p.

Soit X suivant la loi B(n, p). Alors X est la somme de n variables de Bernoulli de même loi B(1, p), et indépendantes.

Exercice. En utilisant cette propriété, montrer que, si X suit la loi B(n, p), on a :
E(X) = np et V(X) = np(l - p).

Stabilité de la loi binomiale : Soit X suivant la loi B(n, p), Y suivant la loi; B(n', p), X et Y indépendantes.
Alors X + Y suit la loi B(n + n', p).
 

· Loi hypergéométrique, X suit la loi  H (N, n, p) avec n ÎN*, p Î ]0, 1[, Np Î N*,   ssi :
X(W ) Ì [[0, n]] ; " k Î [[0, n]] , P(X = k) =.
E(X) = np

X est le nombre d'individus présentant le caractère étudié dans un échantillon de n individus pris parmi N , le caractère étudié ayant la fréquence p dans la population des N individus.

Exercice. Une urne contient N boules dont Np sont blanches et Nq sont noires (q = 1 - p). On extrait une à une et sans remise n boules de l'urne. Soit X le nombre de boules blanches obtenues.
a) Déterminer la loi de X.
b) Pour i Î [[1, n]] soit Xi la v.a égale à 1 si la i-ième boule tirée est blanche, 0 sinon. Déterminer la loi de probabilité de Xi,
E(Xi), V(Xi) et cov(Xi, Xj), i ¹ j.
c) En remarquant que X = , en déduire que si X suit la loi  H(N, n, p), alors :
E(X) = np et V(X) = np(l -p) .
· Loi uniforme  : avec X(W ) = {x1, x2, ... , xn}, " i Î [[1, n]] , P(X = xi) = .

En particulier, si X(W ) = [[1, n]], E(X) = , V(X) = .

IV. Espaces probabilisés quelconques

Certaines expériences aléatoires amènent à considérer des ensembles W non fini. On rappelle que W est l'ensemble des résultats " élémentaires " (non décomposables en événements plus simples) de l'expérience aléatoire. Considérons par exemple, après MM. GUEGAND, LEBOEUF, ROQUE (cours de probabilités et statistiques, ed. Ellipses), un fou qui joue à la roulette russe.
Soit A l'événement : " l'individu meurt ". Si l'individu meurt ,c'est qu'il meurt à un certain essai numéro n (et à un seul !). Et il est difficile de décréter que n doit être plus petit qu ' un nombre fixé à l'avance. on a donc dans W un nombre infini d'événements An : " l'individu meut au n-ième essai ", et A est la réunion infinie des événements deux à deux incompatibles An : A = . Le problème, c'est que de difficiles conidérations de théorie de la mesure nous enseignent qu'il faut renoncer à définir la probabilité de A pour toute partie de  W (un événement est par définition une partie de W ) . Tout ceci conduit aux...

Définitions
* Soit W un ensemble quelconque. Une tribu sur W est un ensemble T de parties de W (c'est-à dire un sous-ensemble de P(W ) ) tel que :
- W ÎT;
- si A Î T, alors ÎT ;
- si " n, An ÎT, alors ÎT .
* Soit T une tribu sur W . (W , T) est un espace probabilisable.
* Soit (W , T) un espace probabilisable. Un probabilité sur W est une application P:  T ® [0, 1]
  A® P(A)
telle que :
· P(W ) = 1 ;
· Si les An sont deux à deux incompatibles , alors : (s-additivité).
*(W , T, P) est un espace probabilisable.
Vérifions que la série de terme général P(An) est convergente, c'est-à-dire que Sn définit une suite convergente. La suite (Sn) est croissante (car les P(Ak) sont ³ 0), et majorée, car Sn = P£ P(W ) = 1. D'où la conclusion.

Propriétés
P(Æ ) = 0 ;

Si les Ai sont deux à deux incompatibles, alors P;
P(A È B) = P(A) + P(B) - P(A Ç B) ;
Si A Ì B, alors P(A) £ P(B) ;
Si A1 Ì A2Ì ... Ì An Ì ..., alors P;
Si A1 É A2É ... É An É ..., alors P.
Illustration de ces deux dernières propriétés :
On lance une pièce de monnaie équilibrée indéfiniment. Soit An l'événement : Les n premiers lancers donnent "face". Pour tout n dans N*, P(An) = 1/2n , et A1 É A2 É ... É An É .... L'intersection des An est l'événement A: on obtient indéfiniment "face". P(A) = limn®¥P(An) = 0.
On lance une pièce de monnaie indéfiniment , la probabilité que la pièce tombe sur la tranche est 10-10 . Soit l'événement : au cours des n premiers lancers, la pièce tombe au moins une fois sur la tranche. Pour tout n dans N*, P(An) = 1 - (1 - 10-10)n. La réunion des événements An est l'événement A: un jour ou l'autre, la pièce tombe sur la tranche.
P(A) = limn®¥P(An) = 1.
On voit donc qu'il y a des événements de probabilités nulle, différents de l'ensemble vide. De tels événements sont dits quasi-impossibles. De même, il existe des événements de probabilité 1, qui ne sont pas l'événement certain. De tels événements sont dits quasi-certains.

Probabilité conditionnelle
Même définition que dans le cas où W est fini : PB(A) = P(A/B) = avec P(B) ¹ 0, et même utilisation : formule des probabilités composées : P(A Ç B) = P(A/B) P(B), et sa généralisation :
P(A1 Ç A2 Ç ...Ç An) = P(A1) P(A2/A1) P(A3/A1ÇA2)...P(An/A1ÇA2Ç... Ç An-1)

Indépendance
Par définition, deux événements sont dits indépendants ssi P(A Ç B) = P(A) P(B),
ce qui est équivalent à P(A/B) = P(A) si P(B)¹ 0.
Les événements (An)nÎN sont dits mutuellement indépendants ssi " I fini inclus dans N,
P() = .

Exemples.fondamentaux
* les résultats successifs du jet d'une pièce de monnaie, d'un dé...
* les résultats successifs de tirages AVEC REMISE d'une boule dans une urne.

Formule des probabilités totales
(Ai)iÎ I est un système complet d'événements ssi : (I ensemble fini ou dénombrable)
* " i, P(Ai) ¹ 0
* i ¹ j Þ Ai Ç Aj = Æ (les Ai sont deux à deux disjoints)
= W
Formule des probabilités totales : Soit I un ensemble fini ou dénombrable d'indices, (Ai)iÎ I un s.c.e.
Alors pour tout événement B :
=

V. Variables aléatoires discrètes infinies

1°) Définitions Soit (W , T, P) un espace probabilisé. Une variable aléatoire sur W est une application X : W ®R telle que, pour tout x dans R, l'ensemble {w ; X(w) £  x}( noté, de façon plus parlante, (X £ x) )  appartient à T.
La variable aléatoire X est dite infinie discrète ssi X(W) est dénombrable .Pour x ÎR, l'événement X-1(x) = {w ; X(w) =  x}, est noté, de façon plus parlante, (X = x). Déterminer la loi de probabilité de la v.a X, c'est déterminer l'ensemble des valeurs xi que prend la v.a X, et, pour chaque xiÎ X(W ), déterminer la probabilité P(X = xi).

2°) Espérance (ou moyenne)

Définition : E(X) = ,
sous réserve de convergence absolue de la série de terme général xi P(X = xi).

Propriétés
Si X et Y admettent des espérances, alors
E(X + Y) = E(X) + E(Y) , E(aX) = aE(X) E(aX + b) = aE(X) + b (linéarité de l'espérance).
Si la série de terme général j (xi)P(X = xi) est absolument convergente, alors :
E( j (X) ) =(théorème de tranfert) ;
en particulier, si la série de terme général xir P(X = xi), r Î N*, est absolument convergente :
E( X r ) =  avec r Î N* (moment d'ordre r de X) .

3°)Variance

Définition:V(X) =  sous réserve de convergence (absolue),
= E( [X - E(X)]2 ) (moyenne des carrés des écarts à la moyenne).

Propriétés :
* X admet un variance ssi la série de terme général xi2 P(X = xi) est convergente, et on a alors :
V(X) =  - E(X) 2 (théorème de Koenig-Huyghens) = E(X2) - E(X)2 (moyenne des carrés, diminuée du carré de la moyenne).
Démontrons que si la série de terme général xi2 P(X = xi) est convergente, alors X admet une espérance. Pour cela démontrons que la série de terme général xi P(X = xi) est absolument convergente :
Remarquons d'abord que si ½ xi½£ 1, alors ½ xi½£ 1, et si½ xi½³1, alors ½ xi½£ xi2. Donc
½ xi P(X = xi)½ = ½ xi½P(X = xi) £ max {xi2, 1}P(X = xi) £ (xi2 + 1)P(X = xi) = xi2 P(X = xi) + P(X= xi), terme général d'un série convergente. Donc...

* V(aX + b) = a2V(X)
* V(X + Y) = V(X) + V(Y) si X et Y sont indépendantes ; dans le cas général :
* V(X + Y) = V(X) + V(Y) + 2cov(X,Y), avec :
cov(X,Y) = E([X - E(X)][Y - E(Y)]) (def) = = E(XY) - E(X)E(Y) (thm), avec :
E(XY) = , avec : pij = P(X = xi , Y = yj)
généralisation de cette formule :
; remarque : cettte dernière somme comporte  termes.

Exemples de variables aléatoires n'admettent pas d'espérance, de variance
Exercice. Soit X un v.a dont la loi de probabilité est donnée par: X(W ) = N*, " n Î N* P(X = n) = a/n2 .
Déterminer a en fonction de la valeur de a (égale à , mais c'est une autre histoire...). Montrer que X n'admet pas d'espérance.Soit Y une v.a dont la loi de probabilité est donnée par: X(W ) = N*, " n ÎN* P(X = n) = b/n3.
Déterminer b en fonction de la valeur de b. (Remarque : ce nombre est noté d'ordinaire z(3). On en connait bien sûr des valeurs approchées, et on sait qu'il est irrationnel (Apéry 1979). On n'en sait pas grand ' chose de plus... Mais c'est encore une autre histoire !)
Montrer que X a une espérance, et la calculer en fonction de a et b , mais pas de variance.
 

VI. Variables aléatoires infinies discrètes usuelles

1°) Loi géométrique
Modèle : On répète une épreuve indéfiniment. A chaque épreuve, la probabilité du succès est p appartenant à ]0, 1 [. Les résultats des épreuves successives sont indépendants.
Soit X le temps d'attente du premier succès (i.e. le numéro du tirage qui amène le premier succès).
On a X(W ) = N* et pour tout n ÎN* : (X = n) = E1 Ç E2Ç ... Ç En-1 Ç Sn. Par indépendance, on a : P(X = n) = (1-p)n-1 p.

Définition Soit p Î ]0,1[. On dit que X suit la loi  G(p) (en précisant quelquefois : sur N*) ssi :
X(W ) = N* et " n Î N* P(X = n) = (1 - p)n-1p
Vérifions qu'il s'agit d'une loi de probabilité: " n Î N* P(X = n) ³ 0, et
.

Espérance, variance
Avec X qui suit la loi géométrique de paramètre p, on a :
E(X) = , V(X) =.
Dem :

sous réserve de convergence absolue de la série.
0r 1 - pÎ ]0, 1[, donc la série géométrique dérivée de terme général n(1 - p)n-1, n ÎN*, est convergente, de somme :
.
Pour le calcul de V(X), on utilise V(X) = E(X) - E(X)2, et on remarque que X2 = X(X -1) + X, donc :
V(X) = E(X(X-1) + X) - E(X)2 = E(X(X - 1)) + E(X) - E(X)2 (linéarité de l'espérance.) Or :
 
  (série géométrique dérivée seconde)
 

Variantes de la loi géométrique
* Nombre d'échecs avant le premier succès. On répète une épreuve indéfiniment et on désigne par Y le nombre d'échecs qui précèdent le premier succès. On a Y(W ) = N, et :
" n ÎN (Y = n) = E1 Ç E2Ç ... Ç En Ç Sn+1. Par indépendance, on a :
" n ÎN P(Y = n) = (1 - p)n p.
Et on vérifie qu'il s'agit d'une loi de probabilité (appelée quelquefois loi géométrique sur N)...
Pour le calcul de l'espérance et de la variance, on peut procéder directement, ou on peut remarquer que X = Y + 1 suit la loi géométrique de paramètre p : en effet, s' il y a n échecs avant le premier succès, c'est que le premier succès survient a l'épreuve n° n+l...
Par conséquent , Y = X - 1, et :
E(Y) = E(X -1) = E(X) - 1 =  ;
V(Y) = V(X - 1) = V(X) = .
* Temps d'attente du deuxième succès. Soit Z le nombre d'épreuves nécessaires pour obtenir le deuxième succès.
Z(W ) = [[2, +¥ [[ et pour tout n dans [[2, +¥ [[, (Z = n) est l'intersection des deux événements indépendants :
An-1 : "un seul succès aucours des n - 1 premières épreuves" , P(An-1) = .
Sn : "succès à la n-ième épreuve" , P(Sn) = p.
Donc P(Z = n) = p = (n-1)p2(1-p)n-2.
Z est bien une variable aléatoire (c'est-à-dire que la somme des probabilités vaut 1), et l'espérance de Z est 2/p...

* Loi géométrique tronquée. On effectue n épreuves successives, n fixé, et on note X le numéro de l ' épreuve qui apporte le premier succès. Si le premier succès n'arrive pas à temps, on convient que X = 0.
X(W ) = [[0, n]]. Si 1 £ k £ n, P(X = k) = (1 -p)k-1p ; P(X = 0) = (1 - p)n.
E(X) = = pf '(p), avec f(p) = (d'après l' identité géométrique.)
Même principe pour le calcul de V(X), qui passe par le calcul de E(X(X-1)), puis de f ''(p), et qui n'a rien de réjouissant...

2°) Loi de Poisson
Définition Soit l > 0. On dit que X suit la loi de Poisson de paramètre l  ssi :
X(W ) = N, et " n Î N P(X = n) = e-l.
Vérifions qu'il s'agit d'une loi de probabilité: " n Î N, P(X = n) ³ 0 et :

Exemples Pas de modèle d'urne pour la loi de Poisson, qui est une loi limite : quand n est grand et p petit , une v.a binomiale de paramètres n, p suit approximativement la loi de Poisson de paramètre np. Les calculs sont grandement simplifiés et le champ d'application est très étendu. Ainsi par exemple suivent des lois de Poisson :
- le nombre de clients se présentant par heure à un guichet, le nombre d'appels que reçoit un central téléphonique durant une période de temps T, le nombre de véhicules se présentant à un péage d'autoroute par période de 10 minutes, le nombre de sinistres déclarés par jour à une agence d'assurances...
- le nombre d'erreurs typographiques dans un document ,
- le nombre d'étoiles dans un volume donné ,
- le nombre de poissons attrapés en une heure par un pêcheur,
- le nombre de catastrophes aériennes survenues une année,
- ...

Espérance, variance
Soit X suivant la loi P(l ). Alors E(X) = l , V(X) = l .

Dem E(X) =

V(X) = E(X2) - E(X)2 = E(X(X - 1) + X) - E(X)2 = E(X(X - 1) + E(X) - E(X)2. Or :

E(X(X - 1)) = 
.
Donc V(X) = l2 + l - l2 = l .

Stabilité de la loi de Poisson
Soit X suivant la loi P(l ), Y suivant la loi  P(m), X et Y indépendantes. Alors X + Y suit la loi P (l +m ).

Dem Soit Z = X + Y ; Z(W ) = N et " nÎ N (Z = n) = .
Par additivité on a :
 
P(Z = n) =
 
  =
 
  =
  formule du binôme, et la conclusion en résulte.

Aspect numérique
Exercice. Soit X suivant la loi P(k). Montrer que " n ÎN P(X = n + 1) = P(X = n).
En déduire un algorithme qui calcule les valeurs de P(X = 0), P(X = 1), .... , P(X = N). k et N sont donnés par l'utilisateur. Ecrire cet algorithme en pascal. Compter le nombre de multiplications, de divisions effectuées par cet algorithme.
Soit F la fonction de répartition de X: F(n) = P(X £ n) = . Ecrire un algorithme en pascal qui affiche les valeurs successives de P(X = n) et F(n) pour n ÎN, jusqu'à ce que F(n) = 1, à la précision de la machine.

Notion de convergence en loi (voir chapitre VII)
On a vu que si X suit la loi binomiale de paramètres n et p avec "n grand" et p "petit", alors X suit "approximativement" la loi de Poisson de paramètre np. Précisons ceci.
Théorème. Soit Xn une v.a suivant la loi  B(n, l /n), avec l > 0. Alors pour tout k ÎN :

On dit que la suite de v.a (Xn) converge en loi vers une v.a X qui suit la loi de Poisson de paramètre l . Pour démontrer ceci, commençons par établir le lemme suivant : Pour tout x ÎR En effet :

la conclusion en résulte car la fonction exponentielle est continue sur R. Maintenant soit k fixé, et soit n ³ k.


car chaque facteur au numérateur est équivalent à n quand n tend vers + ¥ (k est fixé), et il y a k tels facteurs. D'autre part, d'après le lemme :

car k est fixé ! On obtient donc :
.
Et la conclusion en résulte...

retour début