Quelle est la différence entre le test de normalité de Shapiro-Wilk et le test de normalité de Kolmogorov-Smirnov? Quand les résultats de ces deux méthodes seront-ils différents?
la source
Quelle est la différence entre le test de normalité de Shapiro-Wilk et le test de normalité de Kolmogorov-Smirnov? Quand les résultats de ces deux méthodes seront-ils différents?
Vous ne pouvez même pas vraiment comparer les deux puisque le Kolmogorov-Smirnov est pour une distribution complètement spécifiée (donc si vous testez la normalité, vous devez spécifier la moyenne et la variance; ils ne peuvent pas être estimés à partir des données *), tandis que le Shapiro-Wilk est pour la normalité, avec une moyenne et une variance non spécifiées.
* vous ne pouvez pas non plus standardiser en utilisant des paramètres estimés et tester la normale standard; c'est en fait la même chose.
Une façon de comparer serait de compléter le Shapiro-Wilk avec un test pour la moyenne et la variance spécifiées dans une normale (en combinant les tests d'une certaine manière), ou en faisant ajuster les tables KS pour l'estimation des paramètres (mais alors ce n'est plus la distribution -libre).
Il existe un tel test (équivalent au test de Kolmogorov-Smirnov avec des paramètres estimés) - le test de Lilliefors; la version de test de normalité pourrait être valablement comparée au Shapiro-Wilk (et aura généralement une puissance inférieure). Le test d'Anderson-Darling (qui doit également être ajusté pour que l'estimation des paramètres soit valide) est plus compétitif.
Quant à ce qu'ils testent - le test KS (et le Lilliefors) examine la plus grande différence entre le CDF empirique et la distribution spécifiée, tandis que le Shapiro Wilk compare efficacement deux estimations de la variance; la Shapiro-Francia étroitement apparentée peut être considérée comme une fonction monotone de la corrélation au carré dans un tracé QQ; si je me souviens bien, le Shapiro-Wilk prend également en compte les covariances entre les statistiques de commande.
Modifié pour ajouter: Alors que le Shapiro-Wilk bat presque toujours le test de Lilliefors sur les alternatives d'intérêt, un exemple où ce n'est pas le dans les échantillons de moyenne à grande taille ( -ish). Là, le Lilliefors a une puissance plus élevée.
[Il ne faut pas oublier qu'il existe beaucoup plus de tests de normalité que ceux-ci.]
hist(replicate(1000,ks.test(scale(rnorm(x)),pnorm)$p.value))
- si les valeurs de p étaient telles qu'elles devraient être, cela aurait l'air uniforme!En bref, le test de Shapiro-Wilk est un test spécifique de normalité, tandis que la méthode utilisée par le test de Kolmogorov-Smirnov est plus générale, mais moins puissante (ce qui signifie qu'elle rejette correctement l'hypothèse nulle de normalité moins souvent). Les deux statistiques prennent la normalité comme nulle et établissent une statistique de test basée sur l'échantillon, mais la façon dont elles le font est différente l'une de l'autre de manière à les rendre plus ou moins sensibles aux caractéristiques des distributions normales.
La façon exacte dont W (la statistique de test pour Shapiro-Wilk) est calculée est un peu compliquée, mais conceptuellement, cela implique de disposer les valeurs de l'échantillon par taille et de mesurer l'ajustement par rapport aux moyennes, variances et covariances attendues. Ces multiples comparaisons par rapport à la normalité, si je comprends bien, confèrent au test plus de puissance que le test de Kolmogorov-Smirnov, qui est une manière dont elles peuvent différer.
En revanche, le test de Kolmogorov-Smirnov pour la normalité est dérivé d'une approche générale pour évaluer la qualité de l'ajustement en comparant la distribution cumulative attendue à la distribution cumulative empirique, vis:
En tant que tel, il est sensible au centre de la distribution et non aux queues. Cependant, le KS est le test est convergent, dans le sens où comme n tend vers l'infini, le test converge vers la vraie réponse en probabilité (je crois que le théorème de Glivenko-Cantelli s'applique ici, mais quelqu'un peut me corriger). Ce sont deux autres façons dont ces deux tests peuvent différer dans leur évaluation de la normalité.
la source