J'essaie de trouver une solution pour comparer deux tests de "qualité d'ajustement du chi carré". Plus précisément, je veux comparer les résultats de deux expériences indépendantes. Dans ces expériences, les auteurs ont utilisé le khi carré de l'ajustement pour comparer les suppositions aléatoires (fréquences attendues) avec les fréquences observées. Les deux expériences ont eu le même nombre de participants et les procédures expérimentales sont identiques, seuls les stimuli ont changé. Les résultats des deux expériences ont indiqué un chi carré significatif (exp. 1: X² (18) = 45; p <.0005 et exp. 2: X² (18) = 79; p <.0001).
Maintenant, ce que je veux faire, c'est tester s'il y a une différence entre ces deux résultats. Je pense qu'une solution pourrait être l'utilisation d'intervalles de confiance mais je ne sais pas comment calculer ces intervalles de confiance uniquement avec ces résultats. Ou peut-être un test pour comparer la taille de l'effet (w de Cohen)?
Quelqu'un a une solution?
Merci beaucoup!
FD
la source
Réponses:
Les informations très limitées dont vous disposez sont certainement une contrainte sévère! Cependant, les choses ne sont pas entièrement désespérées.
Nous pouvons estimer le paramètre de non-centralité à partir des deux statistiques de test en prenant leur moyenne et en soustrayant les degrés de liberté (une méthode d'estimation des moments), en donnant une estimation de 44, ou par maximum de vraisemblance:
Bon accord entre nos deux estimations, pas vraiment surprenant étant donné deux points de données et les 18 degrés de liberté. Maintenant, pour calculer une valeur de p:
Notre valeur de p est donc de 0,12, ce qui n'est pas suffisant pour rejeter l'hypothèse nulle selon laquelle les deux stimuli sont identiques.
ce qui donne:
En regardant les vrais points d'hypothèse nulle (valeur de l'axe des x = 0), nous voyons que le test est conservateur, en ce sens qu'il ne semble pas rejeter aussi souvent que le niveau l'indiquerait, mais pas de manière écrasante. Comme nous nous y attendions, il n'a pas beaucoup de puissance, mais c'est mieux que rien. Je me demande s'il existe de meilleurs tests, étant donné la quantité très limitée d'informations dont vous disposez.
la source
Vous pouvez obtenir le V de Cramer, qui peut être interprété comme une corrélation, le convertir en un Z de Fisher, puis l'intervalle de confiance est simple (SE = 1 / sqrt (n-3): Z ± se * 1,96). Après avoir obtenu les extrémités du CI, vous pouvez les reconvertir en r.
Avez-vous envisagé de mettre tous vos comptes dans un tableau de contingence avec une dimension d'expérimentation supplémentaire?
la source