En pratique, l'ensemble des valeurs que peut prendre est
ou une
partie de
.
Déterminer la loi d'une variable aléatoire discrète c'est
Point de vue fréquentiste. Rappelons que le seul sens pratique que l'on puisse donner à la notion de probabilité est celui d'une limite de fréquences expérimentales. C'est aussi le sens qu'il faut donner à la notion de loi discrète.
Répétons fois indépendamment l'expérience
aléatoire
à l'issue
de laquelle
est mesurée. On obtient ainsi un
-uplet
de
variables aléatoires indépendantes
de même loi
que
(cela s'appelle un
échantillon).
On peut sur ce
-uplet
calculer les
fréquences expérimentales
des évènements "
".
D'après la
loi des grands nombres
cette
fréquence
doit converger vers
. Pour tout
les
fréquences expérimentales
définissent une
loi de probabilité discrète
sur l'ensemble des
.
On représente graphiquement une
loi discrète
par un
diagramme en bâtons
: il consiste à tracer au dessus de l'abscisse un segment
vertical de longueur proportionnelle à
.
Les lois discrètes les plus courantes sont les suivantes.
Loi uniforme.
La
loi uniforme
sur un ensemble fini est la loi des "tirages au hasard"
dans cet ensemble, ou équiprobabilité. Elle donne la même
probabilité
à tous les éléments de l'ensemble, s'il est
de cardinal
.
Loi de Bernoulli.
Les plus simples des
variables aléatoires
discrètes sont les indicatrices
d'évènements. Si est un évènement de
probabilité
, la variable aléatoire
1
prend la valeur 1 si
est réalisé, et 0 sinon.
Sa loi est la
loi de Bernoulli
de paramètre
.
Les deux autres exemples de base sont la loi binomiale et la loi géométrique.
Loi binomiale.
On répète la même expérience fois indépendamment et on compte
le nombre de fois où l'évènement
se produit. On considèrera la
répétition des
expériences comme une nouvelle expérience globale.
Comme seul l'évènement
nous importe, on pourra ne retenir de
l'expérience globale qu'un
-uplet de booléens du type :
A retenir :
Le nombre d'occurrences d'un même évènement au cours de
expériences
indépendantes
suit une
loi binomiale.
Simulation
:
En sortie de l'algorithme suivant, suit la
loi binomiale
.
C'est la situation typique où on rencontre la
loi binomiale,
mais ce n'est pas la méthode de
simulation
la plus efficace.
Répéter fois
Si ( Random
) alors
finSi
finRépéter
Remarque : C'est une bonne habitude à prendre que de vérifier
que la somme des
probabilités
calculées vaut 1. Ici :
,
par la formule du binôme de Newton (d'où le nom de loi binomiale).
Loi géométrique.
Le problème ici est d'observer une suite de répétitions
indépendantes
d'une même expérience. On s'intéresse au moment où l'évènement
se produit pour la première fois. On suppose que la
probabilité
de
est strictement positive.
Notons le rang de l'expérience au cours de laquelle
se produit pour
la première fois. C'est une
variable aléatoire,
qui
dépend de l'expérience
aléatoire
:
L'ensemble des valeurs possibles pour est
.
Pour tout
on a :
A retenir : Le nombre d'expériences indépendantes nécessaires à la première observation d'un évènement suit une loi géométrique.
Simulation
:
En sortie de l'algorithme suivant, suit la
loi géométrique
. C'est la situation typique où on
rencontre la
loi géométrique,
mais ce n'est pas la méthode de
simulation
la plus efficace.
Répéter
Jusqu'à (
Random
)
Remarque :
.
La conséquence de cette remarque est la suivante : au cours d'une suite
d'expériences
indépendantes,
tout évènement finira par se produire si
sa
probabilité
est strictement positive. Une
suite aléatoire
de 0 et de 1 doit
nécessairement contenir zéros à la suite. Si un singe tape au
hasard sur une machine à écrire, il finira forcément par taper Les
Misérables sans fautes, de la première majuscule au dernier point.
Pour comprendre ce paradoxe, calculons la
probabilité
qu'un évènement
de
probabilité
se produise au plus tard à la
-ème expérience.
Même si toutes les particules de l'univers étaient des singes tapant à raison de 10 caractères par seconde, il faudrait beaucoup plus de temps qu'il ne s'en est écoulé depuis le début de l'univers pour avoir une chance non négligeable d'en voir un taper Les Misérables.
La
loi binomiale
et la
loi géométrique
apparaissent fréquemment
dans l'analyse des algorithmes de
simulation.
Voici l'exemple du calcul
d'une
probabilité conditionnelle.
La programmation
directe de la définition intuitive (proportion de fois où est
réalisé parmi celles où
l'est aussi) conduirait à l'algorithme
suivant.
Répéter fois
expérience
Si réalisé alors
Si réalisé alors
finSi
finSi
finRépéter
Rien n'empêche d'être nul à l'issue de
expériences (même
si c'est peu probable). On préfère fixer
et écrire :
Répéter fois
Répéter
expérience
Jusqu'à réalisé
Si réalisé alors
finSi
finRépéter
Exécuter cet algorithme revient à calculer la
fréquence expérimentale
de à l'issue de
répétitions
indépendantes
d'une
expérience globale. Cette expérience globale consiste à répéter
indépendamment une même expérience jusqu'à la première réalisation
de
. Notons
la
probabilité
relative à la "petite" expérience,
et
la
probabilité
relative à l'expérience globale. La
"durée" de cette expérience globale est un nombre entier
aléatoire.
Il suit la
loi géométrique
de paramètre
.
On démontre que la variable
suit la
loi binomiale
de
paramètres
et
.
Exemple :
Répéter fois
Répéter
Random
(* lancer d'un dé *)
Jusqu'à ( pair)
(*
est l'évènement "
pair" *)
Si alors
(*
est l'évènement "
" *)
finSi
finRépéter
En sortie de cet algorithme,
contient un nombre d'autant plus proche de
que
est grand.
Le nombre de répétitions de l'expérience au cours de chaque passage
dans la boucle principale suit la
loi géométrique
.
D'autres lois discrètes classiques sont souvent utilisées. Il s'agit des lois de Poisson, des lois hypergéométriques et des lois binomiales négatives.
Loi de Poisson. De nombreuses variables aléatoires discrètes correspondent à des comptages d'objets possédant un caractère relativement rare dans un grand ensemble : atomes d'un isotope, molécules d'un élément chimique, bactéries, virus, individus porteurs d'un gène particuler,... On utilise souvent une loi de Poisson comme modèle pour ces comptages.
Une
variable aléatoire
suit la
loi de Poisson
de paramètre si
elle prend ses valeurs dans
, et si pour tout
,
Loi hypergéométrique.
La
loi hypergéométrique
est la loi des "tirages sans remise". D'une
population
de taille , on extrait
au hasard
un échantillon
(sous-ensemble) de taille
. Parmi les
individus,
sont "marqués". Le nombre
d'individus marqués sur les
individus
choisis suit la
loi hypergéométrique
de paramètres
,
et
,
La
variable aléatoire
prend ses valeurs dans l'ensemble
,
et pour tout
:
On rencontre fréquemment cette loi dans les jeux de hasard.
Loi binomiale négative.
Cette loi est souvent utilisée dans les comptages en biologie. Le modèle
de base qui la définit peut encore s'écrire en termes d'indicatrices
d'évènements indépendants,
comme pour les
lois binomiales
et
géométriques.
Au cours d'une suite d'expériences
aléatoires
indépendantes,
observons un évènement de
probabilité
. Notons
le nombre d'observations de
avant la
-ième
observation de
. Alors
suit la
loi binomiale négative
de paramètres
et
, notée
. L'ensemble des valeurs prises est
et
pour tout
,
Répéter fois
Tantque
(Random
)
finTantque
finRépéter