En pratique, l'ensemble des valeurs que peut prendre est ou une partie de .
Déterminer la loi d'une variable aléatoire discrète c'est
Point de vue fréquentiste. Rappelons que le seul sens pratique que l'on puisse donner à la notion de probabilité est celui d'une limite de fréquences expérimentales. C'est aussi le sens qu'il faut donner à la notion de loi discrète.
Répétons fois indépendamment l'expérience aléatoire à l'issue de laquelle est mesurée. On obtient ainsi un -uplet de variables aléatoires indépendantes de même loi que (cela s'appelle un échantillon). On peut sur ce -uplet calculer les fréquences expérimentales des évènements "".
D'après la loi des grands nombres cette fréquence doit converger vers . Pour tout les fréquences expérimentales définissent une loi de probabilité discrète sur l'ensemble des .
On représente graphiquement une loi discrète par un diagramme en bâtons : il consiste à tracer au dessus de l'abscisse un segment vertical de longueur proportionnelle à .
Les lois discrètes les plus courantes sont les suivantes.
Loi uniforme. La loi uniforme sur un ensemble fini est la loi des "tirages au hasard" dans cet ensemble, ou équiprobabilité. Elle donne la même probabilité à tous les éléments de l'ensemble, s'il est de cardinal .
Loi de Bernoulli. Les plus simples des variables aléatoires discrètes sont les indicatrices d'évènements. Si est un évènement de probabilité , la variable aléatoire 1 prend la valeur 1 si est réalisé, et 0 sinon. Sa loi est la loi de Bernoulli de paramètre .
Les deux autres exemples de base sont la loi binomiale et la loi géométrique.
Loi binomiale. On répète la même expérience fois indépendamment et on compte le nombre de fois où l'évènement se produit. On considèrera la répétition des expériences comme une nouvelle expérience globale. Comme seul l'évènement nous importe, on pourra ne retenir de l'expérience globale qu'un -uplet de booléens du type :
A retenir : Le nombre d'occurrences d'un même évènement au cours de expériences indépendantes suit une loi binomiale.
Simulation : En sortie de l'algorithme suivant, suit la loi binomiale . C'est la situation typique où on rencontre la loi binomiale, mais ce n'est pas la méthode de simulation la plus efficace.
Répéter fois
Si ( Random
) alors
finSi
finRépéter
Remarque : C'est une bonne habitude à prendre que de vérifier que la somme des probabilités calculées vaut 1. Ici : , par la formule du binôme de Newton (d'où le nom de loi binomiale).
Loi géométrique. Le problème ici est d'observer une suite de répétitions indépendantes d'une même expérience. On s'intéresse au moment où l'évènement se produit pour la première fois. On suppose que la probabilité de est strictement positive.
Notons le rang de l'expérience au cours de laquelle se produit pour
la première fois. C'est une
variable aléatoire,
qui
dépend de l'expérience
aléatoire
:
L'ensemble des valeurs possibles pour est . Pour tout on a :
A retenir : Le nombre d'expériences indépendantes nécessaires à la première observation d'un évènement suit une loi géométrique.
Simulation : En sortie de l'algorithme suivant, suit la loi géométrique . C'est la situation typique où on rencontre la loi géométrique, mais ce n'est pas la méthode de simulation la plus efficace.
Répéter
Jusqu'à (
Random
)
Remarque : .
La conséquence de cette remarque est la suivante : au cours d'une suite d'expériences indépendantes, tout évènement finira par se produire si sa probabilité est strictement positive. Une suite aléatoire de 0 et de 1 doit nécessairement contenir zéros à la suite. Si un singe tape au hasard sur une machine à écrire, il finira forcément par taper Les Misérables sans fautes, de la première majuscule au dernier point.
Pour comprendre ce paradoxe, calculons la probabilité qu'un évènement de probabilité se produise au plus tard à la -ème expérience.
Même si toutes les particules de l'univers étaient des singes tapant à raison de 10 caractères par seconde, il faudrait beaucoup plus de temps qu'il ne s'en est écoulé depuis le début de l'univers pour avoir une chance non négligeable d'en voir un taper Les Misérables.
La loi binomiale et la loi géométrique apparaissent fréquemment dans l'analyse des algorithmes de simulation. Voici l'exemple du calcul d'une probabilité conditionnelle. La programmation directe de la définition intuitive (proportion de fois où est réalisé parmi celles où l'est aussi) conduirait à l'algorithme suivant.
Répéter fois
expérience
Si réalisé alors
Si réalisé alors
finSi
finSi
finRépéter
Rien n'empêche d'être nul à l'issue de expériences (même si c'est peu probable). On préfère fixer et écrire :
Répéter fois
Répéter
expérience
Jusqu'à réalisé
Si réalisé alors
finSi
finRépéter
Exécuter cet algorithme revient à calculer la fréquence expérimentale de à l'issue de répétitions indépendantes d'une expérience globale. Cette expérience globale consiste à répéter indépendamment une même expérience jusqu'à la première réalisation de . Notons la probabilité relative à la "petite" expérience, et la probabilité relative à l'expérience globale. La "durée" de cette expérience globale est un nombre entier aléatoire. Il suit la loi géométrique de paramètre . On démontre que la variable suit la loi binomiale de paramètres et .
Exemple :
Répéter fois
Répéter
Random
(* lancer d'un dé *)
Jusqu'à ( pair)
(* est l'évènement " pair" *)
Si alors
(* est l'évènement "" *)
finSi
finRépéter
En sortie de cet algorithme, contient un nombre d'autant plus proche de que est grand. Le nombre de répétitions de l'expérience au cours de chaque passage dans la boucle principale suit la loi géométrique .
D'autres lois discrètes classiques sont souvent utilisées. Il s'agit des lois de Poisson, des lois hypergéométriques et des lois binomiales négatives.
Loi de Poisson. De nombreuses variables aléatoires discrètes correspondent à des comptages d'objets possédant un caractère relativement rare dans un grand ensemble : atomes d'un isotope, molécules d'un élément chimique, bactéries, virus, individus porteurs d'un gène particuler,... On utilise souvent une loi de Poisson comme modèle pour ces comptages.
Une variable aléatoire suit la loi de Poisson de paramètre si elle prend ses valeurs dans , et si pour tout ,
Loi hypergéométrique. La loi hypergéométrique est la loi des "tirages sans remise". D'une population de taille , on extrait au hasard un échantillon (sous-ensemble) de taille . Parmi les individus, sont "marqués". Le nombre d'individus marqués sur les individus choisis suit la loi hypergéométrique de paramètres , et , La variable aléatoire prend ses valeurs dans l'ensemble , et pour tout :
On rencontre fréquemment cette loi dans les jeux de hasard.
Loi binomiale négative. Cette loi est souvent utilisée dans les comptages en biologie. Le modèle de base qui la définit peut encore s'écrire en termes d'indicatrices d'évènements indépendants, comme pour les lois binomiales et géométriques. Au cours d'une suite d'expériences aléatoires indépendantes, observons un évènement de probabilité . Notons le nombre d'observations de avant la -ième observation de . Alors suit la loi binomiale négative de paramètres et , notée . L'ensemble des valeurs prises est et pour tout ,
Répéter fois
Tantque
(Random
)
finTantque
finRépéter