Section : Expériences Aléatoires
Précédent : Axiomes des Probabilités
Suivant : Simulation, modèles et réalité

Probabilités conditionnelles

La connaissance d'une information sur une expérience peut modifier l'idée qu'on se fait de la probabilité d'un évènement. La probabilité qu'il pleuve aujourd'hui est supérieure si le ciel est nuageux.

Définition 1.2 : Soient $ A$ et $ B$ deux évènements tels que $ P[B]\neq 0$. La probabilité conditionnelle de $ A$ sachant $ B$ est :

$\displaystyle P[A\,\vert\,B]=\frac{P[A\cap B]}{P[B]}
\;.
$

Interprétation  : Le fait de savoir que $ B$ est réalisé réduit l'ensemble des résultats possibles de $ \Omega$ à $ B$. A partir de là, seules les éventualités de $ A\cap B$ ont une importance. La probabilité de $ A$ sachant $ B$ doit donc être proportionnelle à $ P[A\cap B]$. Le coefficient de proportionnalité $ 1/P[B]$ assure que l'application qui à $ A$ associe $ P[A\vert B]$ est bien une probabilité, pour laquelle $ B$ est l'évènement certain.


Point de vue fréquentiste : Si on admet la loi des grands nombres, la probabilité doit être vue comme une limite de fréquences expérimentales. Avec les notations du paragraphe précédent, $ n_{A\cap B}/n$ (resp. $ n_B/n$) est la fréquence expérimentale de $ A\cap B$ (resp. $ B$), et on a :

$\displaystyle P[A\,\vert\,B]=\frac{P[A\cap B]}{P[B]} \approx
\frac{n_{A\cap B}/n}{n_B/n}
=\frac{n_{A\cap B}}{n_B}
\;.
$

Il faut donc voir la probabilité conditionnelle $ P[A\,\vert\,B]$ comme la limite quand le nombre d'expériences tend vers l'infini de la proportion de fois où $ A$ est réalisé parmi les expériences où $ B$ l'est aussi.

Une loi de probabilité conditionnelle est une loi de probabilité. En particulier, si $ A_1$ et $ A_2$ sont disjoints (incompatibles) alors :

$\displaystyle P[A_1\cup A_2\; \vert\; B]
=P[A_1\,\vert\, B]+P[A_2\,\vert\, B]
\;.
$

aussi :

$\displaystyle P[\overline A\,\vert\, B]=1-P[A\,\vert\, B]
\;.
$

La définition des probabilités conditionnelles s'utilise souvent sous la forme :

$\displaystyle \begin{array}{rl}
P[A\cap B]= & P[A\,\vert\,B] \,P[B]
\\  [1ex]
= & P[B\,\vert\,A] \,P[A]
\;.
\end{array}$

Si $ (B_i)_{i\in I}$ est une famille dénombrable d'évènements disjoints deux à deux, dont la réunion est l'évènement certain $ \Omega$ (partition de $ \Omega$), alors :

$\displaystyle P[A]
=\sum_{i\in I}P[A\cap B_i]
=\sum_{i\in I}P[A\,\vert\,B] \,P[B_i]\;.
$

C'est la formule des probabilités totales. Mais aussi, pour tout $ j\in I$ :

$\displaystyle P[B_j\,\vert\,A]
=\frac{P[B_j\cap A]}{P[A]}
=\frac{P[A\,\vert\,B_j] \,P[B_j]}{\sum\limits_{i\in I }P[A\,\vert\,B_i] \,P[B_i]}\;.
$

C'est la formule de Bayes.


L'idée intuitive d'indépendance de deux évènements est la suivante : $ A$ et $ B$ sont indépendants si le fait de savoir que $ B$ se produit ou non ne modifie pas les chances de $ A$. Ou encore : sur un grand nombre d'expériences, la proportion des fois où $ A$ s'est produit quand $ B$ était réalisé est approximativement la même que quand il ne l'était pas.


Exemple :
$ A$ : "La bourse de New-York est en hausse".
$ B$ : "Il pleut à Paris".

Dire que $ A$ et $ B$ sont indépendants, c'est dire que la bourse de New-York est en hausse aussi souvent quand il pleut à Paris que quand il ne pleut pas.


En terme de fréquences, on écrira :

$\displaystyle \frac{n_{A\cap B}}{n_B}
\approx \frac{n_{A\cap B}}{n_{\overline B}}
\approx \frac{n_A}{n}
\;.
$

Soit pour les probabilités  :

$\displaystyle P[A\vert B] = P[A\,\vert\,\overline B] = P[A]
\;,
$

ou encore,

$\displaystyle \frac{P[A\cap B]}{P[B]}=P[A]
\;.
$

Définition 1.3 : Deux évènements $ A$ et $ B$ sont indépendants si :

$\displaystyle P[A\cap B]=P[A] \,P[B]
\;.
$

Deux expériences aléatoires sont indépendantes si tout évènement observable à l'issue de l'une est indépendant de tout évènement observable à l'issue de l'autre.

Attention. Il ne faut pas confondre indépendants et incompatibles. Pour deux évènements incompatibles on a $ P[A\cup B]=P[A]+P[B]$. Deux évènements incompatibles de probabilités non nulles ne sont jamais indépendants. Si l'un des deux se produit, l'autre ne peut pas se produire.


La définition d'indépendance se généralise de la façon suivante.

Définition 1.4 : Les évènements $ A_1, \ldots , A_n$ sont indépendants si pour tout sous-ensemble d'indices $ \{i_1,\ldots ,i_k\}\subset\{1, \ldots , n\}$, la probabilité de l'intersection est le produit des probabilités.

$\displaystyle P[\bigcap_{j=1}^kA_{i_j}]
=\prod^k_{j=1}P[A_{i_j}]
\;.
$

Des expériences aléatoires $ {\cal E}_1, \ldots ,{\cal E}_n$ sont indépendantes si pour tout $ n$-uplet d'évènements $ A_1, \ldots , A_n$, où $ A_i$ est observable à l'issue de $ {\cal E}_i$, les $ n$ évènements $ A_1, \ldots , A_n$ sont indépendants.
Une suite $ ({\cal E}_n)_{n\in\mathbb{N}}$ est une suite d'expériences indépendantes si pour tout $ n$ les expériences $ {\cal E}_1, \ldots ,{\cal E}_n$ sont indépendantes.

Dans les définitions que nous avons données jusqu'ici se trouve un cercle vicieux : Une probabilité est une limite de fréquences sur des expériences indépendantes . Deux évènements sont indépendants si la probabilité de leur intersection est le produit des probabilités.

Les deux notions de probabilité et d'indépendance sont donc indissociables, et en un sens impossibles à définir en pratique. Tout ce que l'on peut faire, c'est montrer la cohérence de leurs définitions. Une probabilité étant donnée pour les évènements observables à l'issue d'une expérience aléatoire, cette probabilité est bien limite de fréquences expérimentales quand la même expérience est répétée indépendamment. C'est la loi des grands nombres, que nous démontrerons plus loin. La question d'existence de "vraies" suites d'expériences indépendantes est beaucoup plus difficile. Nous l'aborderons, sans la résoudre, dans le chapitre suivant.



Section : Expériences Aléatoires
Précédent : Axiomes des Probabilités
Suivant : Simulation, modèles et réalité