L'erreur quadratique
mesure la concentration d'un
estimateur
autour
de la valeur du paramètre. Les
intervalles de dispersion
sont un
autre moyen de mesurer la plus ou moins grande concentration d'une
loi de probabilité.
Ils s'expriment à l'aide de la
fonction quantile.
Si est une
variable aléatoire,
la
fonction quantile
de la loi de
est la fonction de [0,1] dans
qui à
[0,1] associe :
En statistique, les réels compris entre 0 et
1 sont de tradition. La même tradition leur affecte prioritairement les
valeurs 0.05 et 0.01, plus rarement 0.02, 0.005 ou 0.001. Il
faut donc lire
comme ''une faible proportion'', et
comme ''une forte proportion''. Un
intervalle de dispersion
de niveau
pour
est tel que
appartient à cet intervalle avec
probabilité
. Il contient donc une forte proportion
des valeurs que prendra
, même s'il est en général beaucoup plus petit
que le support de la loi.
Selon les valeurs de , on dit qu'un intervalle de dispersion
de niveau
est :
On démontre que si la loi de est symétrique, alors l'intervalle
de dispersion symétrique est optimal.
La notion de convergence se traduit en termes d'intervalles de dispersion de la façon suivante.
Réciproquement, si
est inclus dans
à partir d'un certain
,
alors la
probabilité
que
soit compris entre
et
est supérieure à
. Ceci étant
vrai pour tout
, cette
probabilité
tend vers 1.
A titre d'exemple, nous reprenons
l'estimateur
pour la loi
uniforme
, à savoir le maximum des valeurs de
l'échantillon.
Sa
fonction quantile
est la fonction qui à
[0,1]
associe :
Quand la loi de la
variable aléatoire
est discrète, la notion
d'intervalle de dispersion
recèle une certaine ambiguïté. Considérons
par exemple la
loi binomiale
. Voici les valeurs de sa
fonction de répartition.
Deux intervalles sont d'amplitude minimale, [3,8] et [4,9]. On choisira celui dont la probabilité est la plus proche du niveau prescrit,à savoir [4,9].