J'ai écrit un programme qui génère des données aléatoires. Si le programme fonctionne correctement, ces données doivent suivre une distribution de probabilité connue et spécifique. Je voudrais exécuter le programme, faire des calculs sur le résultat et trouver une valeur p.
Avant que quelqu'un d'autre ne le dise: je comprends que les tests d'hypothèse ne peuvent pas détecter quand le programme fonctionne correctement. Il ne peut détecter que lorsqu'il fonctionne incorrectement d'une manière spécifique. (Et même dans ce cas, le test "devrait" échouer X% du temps, selon le niveau de signification que vous choisissez ...)
Donc, j'essaie de comprendre quels outils pourraient être appropriés. En particulier:
Je peux générer autant de données aléatoires que je le souhaite. Tout ce que j'ai à faire est de laisser le programme fonctionner assez longtemps. Je ne suis donc pas limité à une taille d'échantillon spécifique.
Je m'intéresse aux techniques qui produisent une valeur de p. Donc, regarder un graphique et dire "oui, ça a l'air un peu linéaire" n'est pas une option intéressante. A moins qu'il n'y ait un moyen de mettre un nombre dur sur la "wonkyness" d'un graphique. ;-)
Ce que je sais jusqu'à présent:
J'ai vu trois types principaux de tests mentionnés qui semblent pouvoir s'appliquer: le test du chi carré [Pearson], le test de Kolmogorov-Smirnov et le test d'Anderson-Darling.
Il semble qu'un test du chi carré soit approprié pour les distributions discrètes , tandis que les deux autres sont plus appropriés pour les distributions continues . (?)
Diverses sources suggèrent que le test AD est "meilleur" que le test KS, mais ne parviennent pas à entrer dans les détails.
En fin de compte, tous ces tests détectent vraisemblablement "différentes manières" de s'écarter de la distribution nulle spécifiée. Mais je ne sais pas encore vraiment quelles sont les différences ... En résumé, je cherche une sorte de description générale de l'endroit où chaque type de test est le plus applicable, et quels types de problèmes il détecte le mieux.
la source
Réponses:
Voici une description générale du fonctionnement des 3 méthodes mentionnées.
La méthode du Chi-Squared fonctionne en comparant le nombre d'observations dans un bac au nombre prévu d'être dans le bac en fonction de la distribution. Pour les distributions discrètes, les casiers sont généralement les possibilités ou combinaisons discrètes de celles-ci. Pour les distributions continues, vous pouvez choisir des points de coupure pour créer les bacs. De nombreuses fonctions qui implémentent cela créeront automatiquement les bacs, mais vous devriez pouvoir créer vos propres bacs si vous souhaitez comparer dans des domaines spécifiques. L'inconvénient de cette méthode est que les différences entre la distribution théorique et les données empiriques qui mettent toujours les valeurs dans la même case ne seront pas détectées, un exemple serait l'arrondi, si théoriquement les nombres entre 2 et 3 devraient être répartis sur toute la plage (nous nous attendons à voir des valeurs comme 2,34296),
La statistique du test KS est la distance maximale entre les 2 fonctions de distribution cumulative comparées (souvent théorique et empirique). Si les 2 distributions de probabilité n'ont qu'un seul point d'intersection, alors 1 moins la distance maximale est la zone de chevauchement entre les 2 distributions de probabilité (cela aide certaines personnes à visualiser ce qui est mesuré). Pensez à tracer sur le même tracé la fonction de distribution théorique et l'EDF puis mesurez la distance entre les 2 "courbes", la plus grande différence est la statistique de test et elle est comparée à la distribution des valeurs pour cela lorsque le nul est vrai. Cette capture les différences est la forme de la distribution ou 1 distribution décalée ou étirée par rapport à l'autre.1n
Le test d'Anderson-Darling utilise également la différence entre les courbes CDF comme le test KS, mais plutôt que d'utiliser la différence maximale, il utilise une fonction de la surface totale entre les 2 courbes (il ajuste en fait les différences, les pondère pour que les queues aient plus d'influence, puis s'intègre sur le domaine des distributions). Cela donne plus de poids aux valeurs aberrantes que KS et donne également plus de poids s'il y a plusieurs petites différences (par rapport à 1 grande différence sur laquelle KS mettrait l'accent). Cela peut finir par surcharger le test pour trouver des différences que vous considérez comme sans importance (arrondi léger, etc.). Comme le test KS, cela suppose que vous n'avez pas estimé les paramètres à partir des données.
Voici un graphique pour montrer les idées générales des 2 derniers:
sur la base de ce code R:
Le graphique du haut montre un EDF d'un échantillon d'une normale standard par rapport au CDF de la normale standard avec une ligne montrant la statistique KS. Le graphique du milieu montre ensuite la différence dans les 2 courbes (vous pouvez voir où la statistique KS se produit). Le fond est alors la différence au carré et pondérée, le test AD est basé sur la zone sous cette courbe (en supposant que tout soit correct).
D'autres tests examinent la corrélation dans un qqplot, regardent la pente dans le qqplot, comparent la moyenne, la var et d'autres statistiques en fonction des moments.
la source
+1 pour avoir écrit une question claire et détaillée. J'espère que ma réponse n'est pas trop frustrante. Je crois que le test d'hypothèse n'est pas une approche appropriée dans votre cas. Un test de signification d'hypothèse nulle est une chose raisonnable à faire lorsque la réponse peut être oui ou non, mais vous ne savez pas laquelle . (Malheureusement, il ne vous dit pas lequel, mais c'est un problème différent.) Dans votre cas, je suppose que vous voulez savoir si votre algorithme est bon. Cependant, il est connu (avec certitude) qu'aucun programme informatique ne peut générer de données vraiment aléatoires à partir d'une distribution de probabilité. Cela est vrai en premier lieu, car tous les ordinateurs sont des machines à états finis et ne peuvent donc produire que des nombres pseudo-aléatoires.. De plus (en mettant de côté le manque de véritable aléatoire), il n'est pas possible que les valeurs générées suivent parfaitement une distribution continue. Il existe plusieurs façons de comprendre cela, mais la plus simple est peut-être qu'il y aura des «lacunes» dans la droite numérique, ce qui n'est pas le cas pour toute variable aléatoire continue. De plus, ces espaces ne sont pas tous parfaitement également larges ou parfaitement également espacés. Parmi les informaticiens qui travaillent sur la génération de nombres pseudo-aléatoires, le nom du jeu est d'améliorer les algorithmes de sorte que les écarts soient plus petits, plus réguliers, avec des périodes plus longues (et aussi qui peuvent générer plus de valeurs plus rapidement). En tout cas, ces faits établissent que le test d'hypothèse n'est pas la bonne approche pour déterminer si votre algorithme suit correctement "une distribution de probabilité spécifique et connue", parce que ce n'est pas le cas. (Pardon.)
Au lieu de cela, un cadre plus approprié consiste à déterminer à quel point vos données sont proches de la distribution théorique. Pour cela, je recommande, en particulier des parcelles reconsidèrent qq parcelles et p-parcelles1 - β précision dans l'estimation des paramètresr = 1 . Cela peut valoir la peine de le faire pour les deux types de tracés car ils ont des forces et des faiblesses différentes (en particulier, les tracés qq vous donnent une meilleure résolution dans les queues de la distribution, tandis que les tracés pp offrent une meilleure résolution au centre).
Sur une autre note, en ce qui concerne l'évaluation de la qualité de votre algorithme, vous voudrez peut-être le chronométrer par rapport à d'autres pRNG standard.
J'espère que cela t'aides.
la source
SnowsPenultimateNormalityTest
duTeachingDemos
package pour R. Je suis d'accord avec l'idée de @ gung de regarder une mesure de proximité plutôt que de se concentrer sur une valeur p. Un problème avec l'utilisation de la corrélation dans le tracé qq pour cela est que si vos données ont la forme correcte, mais une moyenne, une variance, etc. différentes, vous pouvez toujours obtenir une corrélation vraiment élevée. Une alternative consiste à utiliser la statistique KS ou la statistique AD comme mesure de la différence par rapport à la théorie.Je n'ai pas complètement lu toutes les réponses mais je vois qu'elles sont assez complètes et précises. Au risque de répéter quelque chose enfoui dans les réponses longues, je veux juste dire que v = le test du chi carré peut être utilisé pour des données continues. Ce n'est peut-être pas le meilleur test et, comme de nombreux tests, il repose sur une théorie asymptotique et peut donc ne pas être précis dans de petits échantillons avec des cellules clairsemées (cela dépend également de la façon dont vous effectuez le binning). Anderson-Darling est plus puissant pour tester la normalité que le test KS mais KS peut être meilleur pour d'autres distributions continues. Lillefors dispose d'un test conçu pour les distributions exponentielles.
la source