Pour un échantillon de taille de la loi de Bernoulli de paramètre inconnu , la variable aléatoire égale à la somme des composantes divisée par (la fréquence empirique), est un estimateur de . C'est une variable aléatoire qui prend ses valeurs dans [0,1]. Si est grand, elle prend avec une forte probabilité des valeurs proches de , d'après la loi des grands nombres. Quel que soit le modèle et le paramètre à estimer, prendre des valeurs proches de ce paramètre au moins pour de grands échantillons, est la qualité principale que l'on attend d'un estimateur. En toute rigueur, on doit considérer une suite d'estimateurs , où pour tout , est une variable aléatoire fonction de l'échantillon . Par abus de langage, on appelle encore ``estimateur'' cette suite.
L'exemple de base d'estimateur convergent est la moyenne empirique. Nous noterons la moyenne empirique de l'échantillon :
Si le paramètre s'exprime comme une fonction continue de , alors l'image de par cette fonction est un estimateur convergent de , par la proposition suivante.
Considérons par exemple comme modèle la loi uniforme sur , où le paramètre est inconnu. La moyenne empirique est un estimateur convergent de l'espérance de la loi, qui vaut . Donc est un estimateur convergent de .
Mais d'autres espérances sont calculables. Par exemple, si suit la loi uniforme sur , alors vaut . Toujours d'après la loi des grands nombres, est un estimateur convergent de . Donc l'estimateur suivant est encore un estimateur convergent de :
La notion de convergence ne donne aucune assurance pratique que les
valeurs prises par un
estimateur
seront effectivement dans un rayon
fixé autour de la vraie valeur du paramètre, pour une taille
d'échantillon
donnée. On quantifie la qualité des estimateurs
par la notion
d'erreur quadratique.
Même pour un estimateur convergent, il peut se faire que les valeurs prises soient décalées en moyenne par rapport à la vraie valeur du paramètre. On dit alors que l'estimateur est biaisé .
Quand un estimateur est sans biais, l'erreur quadratique est égale à la variance. Le critère suivant, conséquence immédiate des propositions 1.5 et 1.7 est souvent utilisé pour démontrer qu'un estimateur est convergent.
Quand le biais peut être explicitement calculé, on aura évidemment intérêt à le corriger pour améliorer l'estimateur. Reprenons l'exemple de la loi uniforme sur . Un estimateur naturel de est la plus grande valeur de l'échantillon.
Dans le tableau ci-dessous nous rassemblons les 4 exemples d'estimateurs du paramètre pour la loi uniforme , qui ont été introduits jusqu'ici. Le meilleur des quatre est .