Supposons qu'un laboratoire souhaite mettre sur le
marché un nouveau type de médicament. Avant de le proposer à
l'ensemble de la
population, une série d'essais cliniques sont effectués.
Ils visent à observer l'effet du médicament sur un groupe de
malades, en le comparant éventuellement à l'effet d'autres traitements.
Pour simplifier, supposons que le nouveau médicament
ait guéri 87 malades dans un premier groupe de 100, alors que
le traitement traditionnel a guéri 74 malades sur les 100 d'un groupe
témoin. L'amélioration est-elle suffisante pour lancer le
médicament ? On ne pourra prendre une décision qu'en supposant que
les 200 individus observés sont
représentatifs de l'ensemble des personnes
que l'on aura à traiter, et que les résultats auraient été
peu différents sur un autre groupe.
La
modélisation
consiste à supposer que les réactions
des individus aux traitements sont des réalisations de
variables aléatoires.
C'est le postulat de base en
statistique
:
Une série de données statistiques se présente sous la forme d'un -uplet de valeurs, observées sur une certaine population d'individus. La modélisation intervient quand on souhaite utiliser ces valeurs pour émettre des conclusions destinées à des individus pour lesquels les observations n'ont pas encore été faites. La théorie des probabilités fournit des outils, comme la loi des grands nombres ou le théorème central limite, permettant d'extraire des données ce qui est reproductible et qui pourra donc fonder une prédiction ou une décision.
Une fois admis le postulat de base, les hypothèses de modélisation sont des affirmations portant sur la loi de probabilité du -uplet de variables aléatoires modélisant les observations. Selon les situations, quelques-unes de ces hypothèses paraîtront naturelles et ne seront pas soumises à validation. Par exemple, quand on observe un caractère statistique sur une population, si l'ordre dans lequel on prend les individus n'a pas d'importance, on choisira de considérer que les données sont des réalisations de variables aléatoires indépendantes et de même loi.
Dans le cas du nouveau médicament à tester, on considèrera probablement que les individus sont indépendants et que leur réponse (guérison ou non) est une variable binaire (1 ou 0). On est donc ramené à un échantillon d'une loi de Bernoulli. L'hypothèse que le laboratoire cherche à valider est que le paramètre de la loi de Bernoulli (probabilité de guérison) pour le nouveau médicament est supérieur à celui de l'ancien traitement.
Toute démarche scientifique consiste à proposer des théories, qui sont ensuite confirmées ou réfutées. Une théorie émet des prédictions sur le résultat d'expériences ou de mesures futures. Qu'une seule de ces prédictions s'avère fausse, et c'est toute la théorie qui est réfutée. En revanche, une prédiction qui s'avère exacte ne fait que conforter la théorie, qui ne pourra jamais être définitivement prouvée. En statistique les théories sont des modèles probabilistes, qui en général ne peuvent pas être réfutés : aucun résultat observé n'est jamais totalement incompatible avec le modèle. Dans le cas du médicament, il n'est pas impossible que par le fait du hasard, aucun des individus traités ne guérisse. C'est seulement très peu vraisemblable. Comme il serait suspect, mais pas exclu, que tous les individus guérissent sans exception. L'objet des tests statistiques est de distinguer ce qui est plausible de ce qui est trop peu vraisemblable.
Les prédictions émises par une théorie en sont des conséquences particulières. Considérons par exemple la situation où on souhaite tester un générateur pseudo-aléatoire au vu des valeurs qu'il retourne. En pratique, un générateur pseudo-aléatoire (fonction Random) calcule les termes successifs d'une suite itérative déterministe. Ces valeurs doivent se comporter comme des ``réels au hasard entre 0 et 1''. Cette phrase cache en fait le modèle probabiliste suivant : les valeurs retournées par Random sont des réalisations de variables aléatoires indépendantes et de même loi uniforme. Ce modèle probabiliste a une infinité de conséquences testables. Par exemple si le modèle est correct, sur 100 appels, le nombre de ceux compris entre 0.4 et 0.9 suit la loi binomiale . Il n'est pas totalement exclu de n'en observer aucun, mais c'est très improbable (probabilité ). Si sur 100 appels de la fonction Random , aucun n'était compris entre 0.4 et 0.9, on aurait donc de bonnes raisons de mettre en doute le modèle. Mais si le nombre d'appels de Random entre 0.4 et 0.9 est de 46, tout ce qu'on pourra dire c'est que ce résultat est plausible. Cela peut renforcer notre confiance dans le modèle, mais cela ne présage pas du résultat d'autres tests : aucun test statistique ne pourra jamais démontrer que le modèle testé est le bon, ni qu'il est le seul possible.
On peut envisager d'autres moyens de tester un générateur
pseudo-aléatoire. Par exemple :
Sur 100 couples d'appels consécutifs, le nombre de couples pour lesquels le premier élément est inférieur au second suit encore la loi .
Le nombre d'appels successifs entre deux passages dans l'intervalle [0.4,0.9] suit la loi géométrique : n'importe quelle valeur positive est possible mais une valeur supérieure à 100 est très peu vraisemblable.
L'opposé du logarithme du produit de 100 valeurs suit la loi gamma . Toute valeur strictement positive est possible mais une valeur inférieure à 10 est très peu vraisemblable.
On pourrait donner beaucoup d'autres exemples : la validation statistique des générateurs pseudo-aléatoires a fait l'objet de très nombreux travaux.
En résumé, la situation est la suivante. Les données observées sont modélisées par des variables aléatoires . Toute fonction des s'appelle une statistique . En particulier, la décision que l'on prendra au vu des données est une statistique binaire (rejet ou non). Les hypothèses portent sur la loi conjointe des . On cherche à tester une hypothèse particulière, qui porte traditionnellement le nom d'hypothèse nulle, et que l'on notera . Dans l'exemple du test sur l'efficacité d'un médicament, l'hypothèse nulle pourrait être que le médicament n'a pas d'effet. Pour un -uplet d'appels de Random , l'hypothèse nulle sera que la présence d'un appel entre 0.4 et 0.9 suit la loi de Bernoulli de paramètre 0.5. Un test est une décision prise au vu des données, pour laquelle on contrôle la probabilité de rejeter à tort.
En statistique, les réels compris entre 0 et 1 sont de tradition. La même tradition leur affecte prioritairement les valeurs 0.05 et 0.01, plus rarement 0.02, 0.005 ou 0.001. Il faut donc lire comme ``une faible probabilité''.
L'hypothèse entraîne la connaissance de la loi d'une certaine variable aléatoire, appelée statistique de test . Par exemple, si le médicament n'a pas d'effet, l'hypothèse nulle entraîne que le nombre de guérisons observées sur individus suit la loi binomiale , où est la probabilité (supposée connue) de guérison sans traitement. Pour appels d'un générateur pseudo-aléatoire, le nombre d'appels entre 0.4 et 0.9 suit la loi . Reste ensuite à distinguer parmi les valeurs de la statistique de test, celles qui sont plausibles de celles qui sont trop peu vraisemblables. Ceci fait l'objet du paragraphe suivant.