Considérons encore une loi de probabilité dépendant du paramètre inconnu , et un échantillon de cette loi.
Soit une fonction de dans . Si est une variable aléatoire de loi , la loi de dépend aussi en général de , et il en est de même de son espérance. Mais peut être estimée par la moyenne empirique de . Si s'exprime en fonction de , on en déduira alors un estimateur de . Nous avons déjà utilisé cette technique plusieurs fois dans les deux paragraphes précédents. Dans la plupart des cas, est une puissance de , ou de . Les quantités et s'appellent les moments de , d'où le nom de la méthode. Nous donnons trois exemples d'application, aux lois gamma, béta, et binomiale négative.
Si suit la loi gamma de paramètres et , son espérance et sa variance valent :
La même technique permet d'estimer les paramètres d'une loi béta. Si suit la loi béta de paramètres et , son espérance et sa variance valent :
Si on dispose d'un échantillon de la loi béta de paramètres et , la moyenne empirique et la variance empirique sont des estimateurs convergents de et respectivement. On en déduit deux estimateurs convergents de et en remplaçant et par leurs estimateurs et dans les expressions ci-desssus.
Appliquons à nouveau la technique à une loi binomiale négative. Si suit la loi binomiale négative de paramètres et , son espérance et sa variance valent :
On peut exprimer et en fonction de et .
On en déduit deux estimateurs convergents de et en remplaçant et par leurs estimateurs et dans ces expressions.
L'inconvénient principal de la méthode des moments est que les estimateurs qu'elle fournit sont en général assez peu précis, et qu'il est difficile d'étudier leur loi autrement que par simulation.