Section : Variables aléatoires
Précédent : Espérance
Suivant : Théorèmes limites


Variance

Définition 3.13   On appelle variance de $ X$, et on note $ Var[X]$, l'espérance de la variable aléatoire $ (X-\mathbb{E} [X])^2$, si elle existe.

On démontre que l'existence de la variance entraîne celle de l'espérance. Par contre une variable aléatoire $ X$ peut très bien avoir une espérance mais pas de variance. C'est le cas par exemple si $ X$ a pour densité :

$\displaystyle f_X(x)
=\frac{2}{x^3}$1$\displaystyle _{[1,+\infty[}(x)
\;.
$

Le calcul des variances est souvent simplifié par le résultat suivant.

Proposition 3.14   La variance de $ X$ existe si et seulement si $ \mathbb{E}[X^2]$ existe et on a :

$\displaystyle Var[X] = \mathbb{E}[X^2] - (\mathbb{E}[X])^2\;.
$

Démonstration : Pour passer de la définition à la formule ci-dessus, il suffit de développer le carré et d'utiliser la linéarité de l'intégrale.
$\displaystyle Var[X]$ $\displaystyle =$ $\displaystyle \mathbb{E}[(X-\mathbb{E}[X])^2]$  
  $\displaystyle =$ $\displaystyle \mathbb{E}[X^2-2X\mathbb{E}[X]+(\mathbb{E}[X])^2]$  
  $\displaystyle =$ $\displaystyle \mathbb{E}[X^2]-2\mathbb{E}[X]\mathbb{E}[X]+(\mathbb{E}[X])^2$  
  $\displaystyle =$ $\displaystyle \mathbb{E}[X^2]-(\mathbb{E}[X])^2\;.$  

$ \square$

La variance mesure de combien les valeurs prises par $ X$ s'écartent de la valeur moyenne $ \mathbb{E}[X]$. Elle n'est pas homogène : si $ X$ est une longueur exprimée en mètres, $ Var[X]$ est en mètres-carrés. On corrige ceci en introduisant l'écart-type qui est la racine carrée de la variance. Les propriétés principales de la variance sont les suivantes.

Proposition 3.15  
$ \bullet$
Pour tout $ a\in \mathbb{R}$ : $ Var[aX]=a^2\,Var[X]$.
$ \bullet$
Pour tout $ b\in \mathbb{R}$ : $ Var[X+b]=Var[X]$.
$ \bullet$
Si $ X$ et $ Y$ sont indépendantes, alors :

$\displaystyle Var[X+Y]=Var[X]+Var[Y]
\;.
$

Démonstration : Les deux premières propriétés sont des conséquences directes de la définition. Pour la troisième, si $ X$ et $ Y$ sont indépendantes, alors $ (X\!-\!\mathbb{E}[X])$ et $ (Y\!-\!\mathbb{E}[Y])$ le sont aussi. On a donc :
$\displaystyle \mathbb{E}[(X+Y-\mathbb{E}[X+Y])^2]$ $\displaystyle =$ $\displaystyle \mathbb{E}[(X-\mathbb{E}[X]+Y-\mathbb{E}[Y])^2]$  
  $\displaystyle =$ $\displaystyle Var[X]+Var[Y]+2\mathbb{E}[(X-\mathbb{E}[X])(Y-\mathbb{E}[Y])]$  
  $\displaystyle =$ $\displaystyle Var[X]+Var[Y]+2\mathbb{E}[X-\mathbb{E}[X]\,]\,\mathbb{E}[Y-\mathbb{E}[Y]\,]$  
  $\displaystyle =$ $\displaystyle Var[X]+Var[Y]\;.$  

$ \square$

L'inégalité de Bienaymé-Tchebichev ci-dessous traduit l'idée intuitive que les valeurs prises par $ X$ s'écartent d'autant moins de $ \mathbb{E}[X]$ que $ Var[X]$ est plus faible. Le cas extrême est celui d'une variable aléatoire de variance nulle, qui ne peut prendre qu'une seule valeur.

Théorème 3.16   Soit $ X$ une variable aléatoire admettant une variance. Alors, pour tout $ \varepsilon >0$ :

$\displaystyle P[\,\vert X-\mathbb{E}[X]\vert>\varepsilon\,]
\leq \frac{Var[X]}{\varepsilon^2}
\;.
$

Démonstration : Nous démontrons ce résultat pour les variables continues, le raisonnement pour les variables discrètes est analogue. Posons $ \mathbb{E} [X]=m$ . On a :

\begin{displaymath}
\begin{array}{l}
Var[X]= \displaystyle\int_{\mathbb{R}}(x-m)...
... \varepsilon^2P[\,\vert X-m\vert>\varepsilon\,] \;.
\end{array}\end{displaymath}

$ \square$

Le tableau ci-dessous donne les variances des lois usuelles, discrètes et continues.

 
 
Loi
Variance
 
 
Uniforme $ {\cal U}(\{1,\ldots,n\})$
$ \frac{n^2-1}{12}$
Bernoulli $ {\cal B}(1,p)$
$ p(1-p)$
Binomiale $ {\cal B}(n,p)$
$ np(1-p)$
Géométrique $ {\cal G}(p)$
$ \frac{1-p}{p^2}$
Poisson $ {\cal P}(\lambda)$
$ \lambda$
Hypergéométrique $ {\cal HG}(N,m,n)$
$ \frac{N-n}{N-1}n \frac{m}{N}\left(1-\frac{m}{N}\right)$
Binomiale négative $ {\cal BN}(n,p)$
$ n\frac{1-p}{p^2}$
 
 
Uniforme $ {\cal U}(a,b)$
$ \frac{(a-b)^2}{12}$
Exponentielle $ {\cal E}(\lambda )$
$ \frac{1}{\lambda^2}$
Normale $ {\cal N}(\mu,\sigma^2)$
$ \sigma^2$
Weibull $ {\cal W}(a,\lambda)$
$ \lambda^{-\frac{2}{a}}(\Gamma(\frac{2}{a}+1)-
(\Gamma(\frac{1}{a}+1))^2)$
Gamma $ {\cal G}(a,\lambda)$
$ \frac{a}{\lambda^2}$
Chi-deux $ {\cal X}^2(n)$
$ 2n$
Béta $ {\cal B}(a,b)$
$ \frac{ab}{(a+b)^2(a+b+1)}$
Log-normale $ {\cal LN}(\mu,\sigma^2)$
$ e^{2\mu+\sigma^2}(e^{\sigma^2}-1)$
Student $ {\cal T}(n)$
$ \frac{n}{n-2}$ si $ n>2$
Fisher $ {\cal F}(n,m)$
$ \frac{2m^2}{n}\frac{n+m-2}{(m-2)^2(m-4)}$ si $ m>4$



Section : Variables aléatoires
Précédent : Espérance
Suivant : Théorèmes limites