Lors de l'exécution d'une ANOVA, on nous dit que certaines hypothèses du test doivent être présentes pour qu'il soit applicable aux données. Je n'ai jamais compris la raison pour laquelle les hypothèses suivantes étaient nécessaires au fonctionnement du test:
La variance de votre variable dépendante (résidus) doit être égale dans chaque cellule du plan
Votre variable dépendante (résidus) doit être distribuée approximativement normalement pour chaque cellule de la conception
Je comprends qu'il y ait un peu de zone grise pour savoir si ces hypothèses doivent être respectées, mais pour les besoins de l'argument, si ces hypothèses n'étaient absolument pas satisfaites dans un ensemble de données donné, quel serait le problème avec l'utilisation d'une ANOVA ?
la source
Réponses:
Les hypothèses sont importantes dans la mesure où elles affectent les propriétés des tests d'hypothèse (et des intervalles) que vous pourriez utiliser dont les propriétés de distribution sous la valeur nulle sont calculées en fonction de ces hypothèses.
En particulier, pour les tests d'hypothèses, nous pouvons nous préoccuper de savoir dans quelle mesure le véritable niveau de signification peut être éloigné de ce que nous voulons qu'il soit, et si le pouvoir contre les alternatives d'intérêt est bon.
En ce qui concerne les hypothèses que vous posez sur:
1. Égalité de variance
Cela peut certainement avoir un impact sur le niveau de signification, du moins lorsque la taille des échantillons est inégale.
(Modifier :) Une statistique ANOVA F est le rapport de deux estimations de la variance (le partitionnement et la comparaison des variances est la raison pour laquelle on l'appelle analyse de la variance). Le dénominateur est une estimation de la variance d'erreur censée être commune à toutes les cellules (calculée à partir des résidus), tandis que le numérateur, basé sur la variation des moyennes du groupe, aura deux composantes, l'une à partir de la variation des moyennes de population et l'autre en raison de la variance d'erreur. Si la valeur nulle est vraie, les deux variances qui sont estimées seront les mêmes (deux estimations de la variance d'erreur commune); cette valeur commune mais inconnue s'annule (parce que nous avons pris un ratio), laissant une statistique F qui ne dépend que des distributions des erreurs (qui selon les hypothèses que nous pouvons montrer a une distribution F. (Des commentaires similaires s'appliquent au t- test que j'ai utilisé pour l'illustration.)
[Il y a un peu plus de détails sur certaines de ces informations dans ma réponse ici ]
Cependant, ici, les deux variances de population diffèrent entre les deux échantillons de tailles différentes. Considérons le dénominateur (de la statistique F dans l'ANOVA et de la statistique t dans un test t) - il est composé de deux estimations de variance différentes, pas une, donc il n'aura pas la "bonne" distribution (un chi - carré pour le F et sa racine carrée dans le cas de at - la forme et l'échelle sont des problèmes).
Par conséquent, la statistique F ou la statistique t n'aura plus la distribution F ou t, mais la manière dont elle est affectée est différente selon que le grand ou le plus petit échantillon a été tiré de la population avec la plus grande variance. Cela affecte à son tour la distribution des valeurs de p.
Sous la valeur nulle (c'est-à-dire lorsque les moyennes de population sont égales), la distribution des valeurs de p devrait être uniformément distribuée. Cependant, si les variances et les tailles d'échantillon sont inégales mais que les moyennes sont égales (nous ne voulons donc pas rejeter la valeur nulle), les valeurs de p ne sont pas uniformément distribuées. J'ai fait une petite simulation pour vous montrer ce qui se passe. Dans ce cas, j'ai utilisé seulement 2 groupes, donc l'ANOVA est équivalente à un test t à deux échantillons avec l'hypothèse de variance égale. J'ai donc simulé des échantillons de deux distributions normales, l'une avec un écart-type dix fois plus grand que l'autre, mais des moyennes égales.
Pour le graphique de gauche, l' écart-type ( population ) le plus élevé était pour n = 5 et l'écart-type plus petit était pour n = 30. Pour le graphique de droite, l'écart-type le plus élevé est allé avec n = 30 et le plus petit avec n = 5. J'ai simulé chacun 10000 fois et trouvé la valeur p à chaque fois. Dans chaque cas, vous voulez que l'histogramme soit complètement plat (rectangulaire), car cela signifie que tous les tests effectués à un niveau de signification avec obtiennent réellement ce taux d'erreur de type I. En particulier, il est très important que les parties les plus à gauche de l'histogramme restent proches de la ligne grise:α
Comme nous le voyons, le graphique de gauche (plus grande variance dans le plus petit échantillon) les valeurs de p ont tendance à être très petites - nous rejetterions l'hypothèse nulle très souvent (près de la moitié du temps dans cet exemple) même si la valeur nulle est vraie . Autrement dit, nos niveaux de signification sont beaucoup plus élevés que nous l'avions demandé. Dans le graphique de droite, nous voyons que les valeurs de p sont pour la plupart grandes (et donc notre niveau de signification est beaucoup plus petit que ce que nous avions demandé) - en fait, pas une fois sur dix mille simulations, nous n'avons rejeté au niveau de 5% (le plus petit La valeur de p était ici de 0,055). [Cela peut ne pas sembler une si mauvaise chose, jusqu'à ce que nous nous souvenions que nous aurons également une très faible puissance pour aller avec notre niveau de signification très faible.]
C'est tout à fait une conséquence. C'est pourquoi c'est une bonne idée d'utiliser un test t de type Welch-Satterthwaite ou une ANOVA lorsque nous n'avons pas de bonnes raisons de supposer que les variances seront proches de l'égalité - en comparaison, il est à peine affecté dans ces situations (I a également simulé ce cas; les deux distributions des valeurs de p simulées - que je n'ai pas montrées ici - se sont révélées assez proches de plates).
2. Distribution conditionnelle de la réponse (DV)
Ceci est un peu moins directement critique - pour les écarts modérés par rapport à la normalité, le niveau de signification n'est donc pas beaucoup affecté dans les échantillons plus grands (bien que la puissance puisse l'être!).
Voici un exemple, où les valeurs sont distribuées de façon exponentielle (avec des distributions et des tailles d'échantillons identiques), où nous pouvons voir que ce problème de niveau de signification est substantiel à petit mais diminue avec un grand n .n n
Nous voyons qu'à n = 5 il y a beaucoup trop peu de petites valeurs de p (le niveau de signification pour un test à 5% serait environ la moitié de ce qu'il devrait être), mais à n = 50 le problème est réduit - pour un 5% test dans ce cas, le véritable niveau de signification est d'environ 4,5%.
Nous pourrions donc être tentés de dire "eh bien, ça va, si n est assez grand pour que le niveau de signification soit assez proche", mais nous pouvons aussi lancer une manière beaucoup de puissance. En particulier, il est connu que l'efficacité relative asymptotique du test t par rapport aux alternatives largement utilisées peut aller à 0. Cela signifie que de meilleurs choix de test peuvent obtenir la même puissance avec une fraction disparate de la taille de l'échantillon requise pour l'obtenir avec le test t. Vous n'avez besoin de rien d'extraordinaire pour avoir besoin de plus de deux fois plus de données pour avoir la même puissance avec le t que vous auriez besoin avec un test alternatif - des queues modérément plus lourdes que la normale dans la distribution de la population et des échantillons modérément gros peuvent suffire à le faire.
(D'autres choix de distribution peuvent rendre le niveau de signification supérieur à ce qu'il devrait être, ou sensiblement inférieur à ce que nous avons vu ici.)
la source
En résumé, l'ANOVA ajoute , ajuste et calcule les résidus . Les résidus vous indiquent dans quelle mesure votre modèle correspond aux données. Pour cet exemple, j'ai utilisé l'
PlantGrowth
ensemble de données dansR
:Ce premier graphique vous montre la moyenne des trois niveaux de traitement:
Les lignes rouges sont les résidus . Maintenant, en quadrillant et en ajoutant la longueur de ces lignes individuelles, vous obtiendrez une valeur qui vous indique dans quelle mesure la moyenne (notre modèle) décrit les données. Un petit nombre, vous indique que la moyenne décrit bien vos points de données, un plus grand nombre vous indique que la moyenne décrit vos données moins bien. Ce nombre est appelé Total Sums of Squares :
Maintenant, vous faites la même chose pour les résidus dans votre traitement ( Somme des carrés résiduels , également connu sous le nom de bruit dans les niveaux de traitement):
Et la formule:
Enfin, nous devons déterminer le signal dans les données, connu sous le nom de sommes de modèle des carrés , qui sera utilisé plus tard pour calculer si les moyens de traitement sont différents de la moyenne:
Et la formule:
Désormais, l'inconvénient des sommes des carrés est qu'elles s'agrandissent à mesure que la taille de l'échantillon augmente. Pour exprimer ces sommes de carrés par rapport au nombre d'observations dans l'ensemble de données, vous les divisez par leurs degrés de liberté en les transformant en variances. Donc, après avoir quadrillé et ajouté vos points de données, vous les calculez maintenant en utilisant leurs degrés de liberté:
Cela donne le carré moyen du modèle et le carré moyen résiduel (les deux sont des variances), ou le rapport signal / bruit, qui est connu comme la valeur F:
La valeur F décrit le rapport signal / bruit, ou si les moyens de traitement sont différents de la moyenne. La valeur F est maintenant utilisée pour calculer les valeurs p et ceux-ci décideront si au moins un des moyens de traitement sera significativement différent de la moyenne générale ou non.
J'espère maintenant que vous pouvez voir que les hypothèses sont basées sur des calculs avec des résidus et pourquoi elles sont importantes. Puisque nous ajoutons , mettons au carré et faisons la moyenne des résidus, nous devons nous assurer qu'avant de le faire, les données de ces groupes de traitement se comportent de manière similaire , sinon la valeur F peut être biaisée dans une certaine mesure et les inférences tirées de cette valeur F peuvent ne pas être valide.
Edit: J'ai ajouté deux paragraphes pour répondre plus précisément aux questions 2 et 1 du PO .
Hypothèse de normalité : La moyenne (ou valeur attendue) est souvent utilisée en statistique pour décrire le centre d'une distribution, mais elle n'est pas très robuste et facilement influencée par les valeurs aberrantes. La moyenne est le modèle le plus simple que nous puissions adapter aux données. Étant donné que dans l'ANOVA, nous utilisons la moyenne pour calculer les résidus et les sommes des carrés (voir les formules ci-dessus), les données devraient être distribuées de façon approximativement normale (hypothèse de normalité). Si ce n'est pas le cas, la moyenne peut ne pas être le modèle approprié pour les données car elle ne nous donnerait pas un emplacement correct du centre de la distribution de l'échantillon. Au lieu de cela, une fois, vous pourriez utiliser la médiane par exemple (voir les procédures de tests non paramétriques).
Hypothèse d'homogénéité de la variance : Plus tard, lorsque nous calculons les carrés moyens (modèle et résiduel), nous regroupons les sommes individuelles des carrés à partir des niveaux de traitement et les faisons la moyenne (voir les formules ci-dessus). En regroupant et en faisant la moyenne, nous perdons les informations sur les variances des niveaux de traitement individuels et leur contribution aux carrés moyens. Par conséquent, nous devrions avoir à peu près la même variance entre tous les niveaux de traitement afin que la contribution aux carrés moyens soit similaire. Si les écarts entre ces niveaux de traitement étaient différents, alors les carrés moyens et la valeur F résultants seraient biaisés et influenceraient le calcul des valeurs p, ce qui rendrait douteuses les inférences tirées de ces valeurs p (voir aussi le commentaire de @whuber et @Glen_b's answer).
Voilà comment je le vois par moi-même. Elle peut ne pas être exacte à 100% (je ne suis pas statisticien) mais elle m'aide à comprendre pourquoi il est important de satisfaire aux hypothèses de l'ANOVA.
la source
ANOVA c'est juste une méthode, il calcule le test F à partir de vos échantillons et le compare à la distribution F. Vous avez besoin de quelques hypothèses pour décider ce que vous voulez comparer et pour calculer les valeurs de p.
Si vous ne remplissez pas ces hypothèses, vous pouvez calculer d'autres choses, mais ce ne sera pas une ANOVA.
La distribution la plus utile est la distribution normale (à cause du CLT), c'est pourquoi elle est la plus utilisée. Si vos données ne sont pas normalement distribuées, vous devez au moins savoir quelle est leur distribution afin de calculer quelque chose.
L'homoscédasticité est une hypothèse courante également dans l'analyse de régression, elle facilite simplement les choses. Nous avons besoin de quelques hypothèses pour commencer.
Si vous n'avez pas d'homoscédasticité, vous pouvez essayer de transformer vos données pour y parvenir.
Le test ANOVA F est connu pour être presque optimal dans le sens de minimiser les erreurs fausses négatives pour un taux fixe d'erreurs fausses positives
la source