Section : Recherche d'estimateurs
Précédent : Recherche d'estimateurs
Suivant : Estimation par ajustement

Méthode des moments

Considérons encore une loi de probabilité $ P_\theta$ dépendant du paramètre inconnu $ \theta$, et un échantillon $ (X_1,\ldots,X_n)$ de cette loi.

Soit $ f$ une fonction de $ \mathbb{R}$ dans $ \mathbb{R}$. Si $ X$ est une variable aléatoire de loi $ P_\theta$, la loi de $ f(X)$ dépend aussi en général de $ \theta$, et il en est de même de son espérance. Mais $ \mathbb{E}[f(X)]$ peut être estimée par la moyenne empirique de $ (f(X_1),\ldots,f(X_n))$. Si $ \theta$ s'exprime en fonction de $ \mathbb{E}[f(X)]$, on en déduira alors un estimateur de $ \theta$. Nous avons déjà utilisé cette technique plusieurs fois dans les deux paragraphes précédents. Dans la plupart des cas, $ f(X)$ est une puissance de $ X$, ou de $ X-\mathbb{E}[X]$. Les quantités $ \mathbb{E}[X^k]$ et $ \mathbb{E}[(X-\mathbb{E}[X])^k]$ s'appellent les moments de $ X$, d'où le nom de la méthode. Nous donnons trois exemples d'application, aux lois gamma, béta, et binomiale négative.

Lois gamma.

Si $ X$ suit la loi gamma de paramètres $ a$ et $ \lambda$, son espérance et sa variance valent :

$\displaystyle \mathbb{E}[X] = \frac{a}{\lambda}$   et$\displaystyle \quad
Var[X] = \frac{a}{\lambda^2}\;.
$

On peut donc exprimer $ a$ et $ \lambda$ en fonction de $ \mathbb{E}[X]$ et $ Var[X]$.

$\displaystyle a=\frac{\mathbb{E}[X]^2}{Var[X]}$   et$\displaystyle \quad
\lambda=\frac{\mathbb{E}[X]}{Var[X]}\;.
$

Si on dispose d'un échantillon $ (X_1,\ldots,X_n)$ de la loi gamma de paramètres $ a$ et $ \lambda$, la moyenne empirique $ \overline{X}$ et la variance empirique $ S^2$ sont des estimateurs convergents de $ \mathbb{E}[X]$ et $ Var[X]$ respectivement. On en déduit deux estimateurs convergents de $ a$ et $ \lambda$ :

$\displaystyle A=\frac{\overline{X}^2}{S^2}$   et$\displaystyle \quad
\Lambda=\frac{\overline{X}}{S^2}\;.
$

Lois béta.

La même technique permet d'estimer les paramètres d'une loi béta. Si $ X$ suit la loi béta de paramètres $ a$ et $ b$, son espérance et sa variance valent :

$\displaystyle \mathbb{E}[X] = \frac{a}{a+b}$   et$\displaystyle \quad
Var[X] = \frac{a b}{(a+b)^2(a+b+1)}\;.
$

On peut exprimer $ a$ et $ b$ en fonction de $ \mathbb{E}[X]=E$ et $ Var[X]=V$.

$\displaystyle a=\frac{E(E-E^2-V)}{V}$   et$\displaystyle \quad
b=\frac{E-2E^2+E^3-V+EV}{V}\;.
$

Si on dispose d'un échantillon de la loi béta de paramètres $ a$ et $ b$, la moyenne empirique $ \overline{X}$ et la variance empirique $ S^2$ sont des estimateurs convergents de $ \mathbb{E}[X]$ et $ Var[X]$ respectivement. On en déduit deux estimateurs convergents de $ a$ et $ b$ en remplaçant $ E$ et $ V$ par leurs estimateurs $ \overline{X}$ et $ S^2$ dans les expressions ci-desssus.

Lois binomiales négatives.

Appliquons à nouveau la technique à une loi binomiale négative. Si $ X$ suit la loi binomiale négative de paramètres $ n$ et $ p$, son espérance et sa variance valent :

$\displaystyle \mathbb{E}[X] = \frac{n(1-p)}{p}$   et$\displaystyle \quad
Var[X] = \frac{n(1-p)}{p^2}\;.
$

On peut exprimer $ n$ et $ p$ en fonction de $ \mathbb{E}[X]$ et $ Var[X]$.

$\displaystyle n=\frac{(\mathbb{E}[X])^2}{Var[X]-\mathbb{E}[X]}$   et$\displaystyle \quad
p=\frac{\mathbb{E}[X]}{Var[X]}\;.
$

On en déduit deux estimateurs convergents de $ n$ et $ p$ en remplaçant $ \mathbb{E}[X]$ et $ Var[X]$ par leurs estimateurs $ \overline{X}$ et $ S^2$ dans ces expressions.

L'inconvénient principal de la méthode des moments est que les estimateurs qu'elle fournit sont en général assez peu précis, et qu'il est difficile d'étudier leur loi autrement que par simulation.



Section : Recherche d'estimateurs
Précédent : Recherche d'estimateurs
Suivant : Estimation par ajustement