J'utilise un modèle linéaire généralisé dans SPSS pour examiner les différences dans le nombre moyen de chenilles (non normales, en utilisant la distribution de Tweedie) sur 16 espèces différentes de plantes.
Je veux effectuer plusieurs comparaisons mais je ne sais pas si je dois utiliser un test de correction Sidak ou Bonferroni. Quelle est la différence entre les deux tests? Est-ce que l'un est meilleur que l'autre?
Réponses:
Si vous exécutez tests statistiques indépendants en utilisant α comme niveau de signification et que le zéro est obtenu dans tous les cas, que vous trouviez ou non «signification» est simplement un tirage à partir d'une variable aléatoire. Plus précisément, il est tiré d'une distribution binomiale avec p = α et n = k . Par exemple, si vous prévoyez d'exécuter 3 tests en utilisant α = 0,05 , et (à votre insu) il n'y a en fait aucune différence dans chaque cas, alors il y a 5% de chances de trouver un résultat significatif dans chaque test. De cette façon, le taux d'erreur de type I est maintenu à αk α p = α n = k α = 0,05 α pour les tests individuellement, mais sur l'ensemble des 3 tests, le taux d'erreur à long terme de type I sera plus élevé. Si vous pensez qu'il est important de regrouper / penser à ces 3 tests ensemble, alors vous voudrez peut-être maintenir le taux d'erreur de type I à pour l'ensemble dans son ensemble , plutôt que juste individuellement. Comment devez-vous procéder? Il existe deux approches qui se concentrent sur le passage de l' α d' origine (c.-à-d. Α o ) à une nouvelle valeur (c.-à-d. Α n e w ):α α αo αn e w
Bonferroni: ajustez le utilisé pour évaluer la «signification» de telle sorte queα
Dunn-Sidak: ajustez utilisantα
(Notez que Dunn-Sidak suppose que tous les tests de l'ensemble sont indépendants les uns des autres et pourraient générer une inflation d'erreur de type I au niveau de la famille si cette hypothèse ne se vérifie pas.)
Il est important de noter que lors des tests, il y a deux types d'erreurs que vous souhaitez éviter, le type I (c'est-à-dire en disant qu'il y a une différence quand il n'y en a pas) et le type II (c'est-à-dire en disant qu'il n'y en a pas). une différence quand il y en a réellement). En règle générale, lorsque les gens discutent de ce sujet, ils ne discutent que des erreurs de type I. De plus, les gens oublient souvent de mentionner que le taux d'erreur calculé ne tiendra que si toutes les valeurs nulles sont vraies. Il est trivialement évident que vous ne pouvez pas faire une erreur de type I si l'hypothèse nulle est fausse, mais il est important de garder ce fait explicitement à l'esprit lorsque vous discutez de cette question.
J'en parle parce qu'il y a des implications de ces faits qui semblent souvent être négligées. Premièrement, si , l'approche Dunn-Sidak offrira une puissance plus élevée (bien que la différence puisse être assez petite avec un petit k ) et devrait donc toujours être préférée (le cas échéant). Deuxièmement, une approche «progressive» devrait être utilisée. Autrement dit, testez d'abord le plus grand effet; si vous êtes convaincu que la valeur nulle n'obtient pas dans ce cas, le nombre maximal possible d'erreurs de type I est k - 1 , le prochain test doit donc être ajusté en conséquence, et ainsi de suite. (Cela met souvent les gens mal à l'aise et ressemble à la pêche, mais ce n'est pask > 1 k k - 1 la pêche, car les tests sont indépendants, et vous aviez l'intention de les mener avant d'avoir vu les données. C'est juste un moyen d'ajuster manière optimale.) α
Ce qui précède est valable quelle que soit la valeur que vous accordez au type I par rapport aux erreurs de type II. Cependant, a priori, il n'y a aucune raison de croire que les erreurs de type I sont pires que celles de type II (malgré le fait que tout le monde semble le supposer). Il s'agit plutôt d'une décision qui doit être prise par le chercheur et doit être spécifique à cette situation. Personnellement, si j'exécute des contrastes orthogonaux a priori suggérés théoriquement , je ne règle généralement pas .α
(Et pour le répéter, car c'est important, tout ce qui précède suppose que les tests sont indépendants. Si les contrastes ne sont pas indépendants, comme lorsque plusieurs traitements sont comparés chacun au même contrôle, une approche différente de ajustement α , comme le test de Dunnett, devrait être utilisé.)α
la source
Si vous avez besoin d'une procédure encore plus puissante, vous pouvez utiliser la procédure Bonferroni-Holm.
la source
La correction Sidak suppose que les tests individuels sont statistiquement indépendants. La correction de Bonferroni ne suppose pas cela.
la source
Sidak et Bonferroni sont si similaires que vous obtiendrez probablement le même résultat quelle que soit la procédure que vous utilisez. Bonferroni n'est que légèrement plus conservateur que Sidak. Par exemple, pour 2 comparaisons et un alpha familial de 0,05, Sidak effectuerait chaque test à 0,0253 et Bonferroni effectuerait chaque test à 0,0250.
De nombreux commentateurs de ce site ont déclaré que Sidak n'est valable que lorsque les statistiques de test de vos comparaisons sont indépendantes. Ce n'est pas vrai. Sidak permet une légère inflation du taux d'erreur familial lorsque les statistiques de test dépendent NÉGATIVEMENT, mais si vous effectuez des tests bilatéraux, la dépendance négative n'est généralement pas un problème. En cas de dépendance non négative, Sidak fournit en fait une borne supérieure du taux d'erreur par famille. Cela dit, il existe d'autres procédures qui fournissent une telle limite et ont tendance à conserver plus de pouvoir statistique que Sidak. Sidak n'est donc probablement pas le meilleur choix.
Une chose que la procédure Bonferroni fournit (ce que Sidak ne fait pas) est un contrôle strict du nombre attendu d'erreurs de type I - le soi-disant «taux d'erreur par famille», qui est plus conservateur que le taux d'erreur par famille. Pour plus d'informations, voir: Frane, AV (2015) "Les taux d'erreur par type de famille I sont-ils pertinents en sciences sociales et comportementales?" Journal of Modern Applied Statistical Methods 14 (1), 12-23.
la source