Considérons encore une
loi de probabilité
dépendant du
paramètre inconnu
, et un
échantillon
de cette loi.
Soit une fonction de
dans
. Si
est une variable aléatoire
de loi
, la loi de
dépend aussi en général de
,
et il en est de même de son
espérance.
Mais
peut être estimée par la
moyenne empirique
de
.
Si
s'exprime en fonction de
, on en déduira alors
un
estimateur
de
. Nous avons déjà utilisé cette
technique plusieurs fois dans les deux paragraphes précédents.
Dans la plupart des cas,
est une
puissance
de
, ou de
.
Les quantités
et
s'appellent les
moments de
, d'où le nom de la méthode. Nous donnons trois
exemples d'application, aux lois
gamma,
béta, et
binomiale négative.
Si suit la
loi gamma
de paramètres
et
, son
espérance
et sa
variance
valent :
La même technique permet d'estimer les paramètres d'une
loi béta.
Si suit la
loi béta
de paramètres
et
, son
espérance
et sa
variance
valent :
Si on dispose d'un
échantillon
de la
loi béta
de
paramètres et
, la
moyenne empirique
et
la
variance empirique
sont des
estimateurs convergents
de
et
respectivement. On en déduit deux
estimateurs convergents
de
et
en remplaçant
et
par
leurs
estimateurs
et
dans les expressions ci-desssus.
Appliquons à nouveau la technique à une
loi binomiale négative.
Si suit la
loi binomiale négative
de paramètres
et
,
son
espérance
et sa
variance
valent :
On peut exprimer et
en fonction de
et
.
On en déduit deux
estimateurs convergents
de et
en remplaçant
et
par
leurs
estimateurs
et
dans ces expressions.
L'inconvénient principal de la méthode des moments est que les estimateurs qu'elle fournit sont en général assez peu précis, et qu'il est difficile d'étudier leur loi autrement que par simulation.