Le test de Kolmogorov-Smirnov est un test d'ajustement à une loi continue, qui prend en compte l'ensemble des quantiles, contrairement au test local du paragraphe précédent. Le modèle est encore un échantillon d'une loi inconnue . L'hypothèse nulle est :
L'idée est la suivante : si l'hypothèse est correcte, alors la fonction de répartition empirique de l'échantillon doit être proche de . La fonction de répartition empirique est la fonction de dans [0,1], qui vaut :
où les sont les statistiques d'ordre de l'échantillon (valeurs de l'échantillon rangées par ordre croissant). En d'autres termes, est la proportion d'éléments de l'échantillon qui sont inférieurs ou égaux à .
On mesure l'adéquation de la fonction de répartition empirique à la fonction par la distance de Kolmogorov-Smirnov, qui est la distance de la norme uniforme entre fonctions de répartitions. Pour la calculer, il suffit d'évaluer la différence entre et aux points .
Sous l'hypothèse , la loi de la statistique ne dépend pas de , car les images de par sont des variables aléatoires de loi . Mais la fonction de répartition de n'a pas d'expression explicite simple et doit être calculée numériquement. Pour des échantillons de taille suffisante, on utilise le résultat asymptotique suivant :
La série converge très rapidement. En pratique, pour t>0.56, la somme des trois premiers termes donne déjà une approximation avec une erreur inférieure à 10-4.
Si l'hypothèse est fausse, tend vers avec . Le test est donc nécessairement unilatéral à droite (rejet des valeurs trop grandes). Supposons que la distance ait pris la valeur 0.047 pour un échantillon de taille 1000. La statistique vaut 1.486. La p-valeur correspondante est :
Le test de Kolmogorov-Smirnov s'étend à la comparaison de deux fonctions de répartition empiriques, et permet alors de tester l'hypothèse que deux échantillons sont issus de la même loi. Bien d'autres tests d'ajustement peuvent être utilisés, comme ceux de Stephens, Anderson-Darling et Cramer-von Mises.