Dans (la plupart) de la littérature en chimie analytique, le test standard pour détecter les valeurs aberrantes dans les données univariées (par exemple une séquence de mesures de certains paramètres) est le test Q de Dixon. Invariablement, toutes les procédures répertoriées dans les manuels vous permettent de calculer une certaine quantité à partir des données à comparer avec une valeur tabulaire. À la main, ce n'est pas vraiment une préoccupation; cependant, je prévois d'écrire un programme informatique pour Dixon Q, et la mise en cache des valeurs me semble inélégante. Ce qui m'amène à ma première question:
- Comment les valeurs tabulaires de Dixon Q sont-elles générées?
Maintenant, j'ai déjà examiné cet article , mais j'ai l'impression que c'est un peu de la triche, dans la mesure où l'auteur construit simplement une spline qui passe par les valeurs tabulaires générées par Dixon. J'ai l'impression qu'une fonction spéciale (par exemple une fonction d'erreur ou une version bêta / gamma incomplète) sera nécessaire quelque part, mais au moins j'ai des algorithmes pour cela.
Maintenant, pour ma deuxième question: l'ISO semble recommander lentement le test de Grubbs sur Dixon Q de nos jours, mais à en juger par les manuels scolaires, il n'a pas encore fait son chemin. En revanche, cela a été relativement facile à mettre en œuvre car il ne s'agit que de calculer l'inverse du CDF de Student t. Maintenant pour ma deuxième question:
- Pourquoi voudrais-je utiliser Grubbs au lieu de Dixon?
Sur le front évident dans mon cas, l'algorithme est "plus net", mais je soupçonne qu'il y a des raisons plus profondes. Quelqu'un peut-il m'éclairer?
la source