Le contexte:
Ma question concerne une conception typique de ma région - un chercheur prend un groupe de sujets (disons 10) et leur applique ensuite trois conditions différentes pour mesurer le changement dans une variable de réponse, par exemple la hauteur de saut vertical effectuée après avoir bu une boisson au glucose, colorée eau ordinaire et jus de fruits (par exemple). Chaque sujet a chaque traitement, mais dans un ordre aléatoire avec suffisamment de temps pour que les effets disparaissent.
Une analyse:
Kuehl (2000) (Kuehl, RO (2009) Design of Experiments: Statistical statistics of research design and analysis, Duxbury Press, CA, p497 2nd Ed.) Déclare:
Lorsque chacun des traitements est administré dans un ordre aléatoire à chaque sujet ... alors les sujets sont des blocs aléatoires dans un modèle de bloc complet randomisé »
puis montre l'analyse correspondante.
Dans ce cas, le sujet est un effet aléatoire, mais un facteur de nuisance ou de blocage, et bien que notre modèle statistique teste la signification du facteur de blocage, nous ne sommes pas vraiment intéressés par sa signification. Cependant, de nombreux chercheurs (et critiques!) Pensent qu'une telle conception devrait être analysée comme une conception à mesures répétées avec un test de Mauchly pour la condition de Huynh-Feldt (avec le traitement comme mesure répétée). Cependant, cela semble plus approprié lorsqu'un facteur temps est analysé - par exemple lorsque des observations sont prises à 0 minute, 10 minutes, 30 minutes et 60 minutes, par exemple. Dans ce cas, la covariance entre des paires de points dans le temps pourrait raisonnablement changer, en particulier lorsque des intervalles de temps inégaux sont utilisés. [En fait, j'utilise SAS pour modéliser différentes structures de covariance dans ce cas (par exemple
J'ai compris que lorsque le sujet est un facteur de blocage et que les différents traitements sont administrés dans un ordre aléatoire différent pour différents sujets, cela signifie que la corrélation entre les observations est différente pour chaque sujet, de sorte que la symétrie composée peut être supposée.
Question:
- Comment analyser les ANOVA à mesures répétées avec 3 conditions ou plus présentées dans un ordre aléatoire?
- Est-il raisonnable de supposer une symétrie composée?
la source
Réponses:
Les mesures répétées sont une sorte de terme surchargé. Pour certaines personnes, il se réfère à une méthode d'analyse statistique particulière; pour d'autres, il se réfère à la structure de la conception.
Il s'agit d'une variante d'une conception de croisement à trois périodes et trois traitements.
C'est une variante car généralement dans une conception croisée, vous randomisez les sujets en séquences. Dans ce cas, la séquence est déterminée au hasard pour chaque sujet. Puisqu'il y a six séquences possibles, il se peut que certaines séquences ne soient pas observées, en particulier avec 10 sujets. Peut-être que cela équivaut formellement à randomiser des sujets dans des séquences, mais je n'ai pas encore examiné cela.
Les considérations pour les conceptions croisées sont les suivantes:
Effets de transfert : également connus sous le nom d'effets résiduels, où un traitement antérieur peut affecter la réponse au traitement actuel. Le but des périodes de délavage est de ne pas en tenir compte. Vous pouvez également avoir (en théorie) des effets résiduels de second ordre, où le traitement administré pendant la première période affecte potentiellement la réponse au traitement administré pendant la troisième période.
Effets sur la période : La réponse au (x) traitement (s) peut changer au fur et à mesure que l'étude se poursuit pour un sujet donné.
Autocorrélation: la corrélation en série des erreurs est généralement un problème avec des données plus étroitement mesurées. Dans les conceptions simples et équilibrées, avoir un effet aléatoire pour le sujet impliquera une corrélation égale des erreurs de chaque sujet.
Effets sur le sujet : Les sujets peuvent différer dans la réponse moyenne les uns des autres indépendamment des traitements. Vous pourriez concevoir une situation où l'erreur de mesure était corrélée en série séparément d'un effet de sujet aléatoire.
Effet de séquence : dans les cas où vous randomisez des sujets en séquences, les sujets sont considérés comme imbriqués dans la séquence.
Une analyse minimale pour cela serait la conception de blocs complets randomisés suggérée. Autrement dit, un effet fixe pour le traitement et un effet aléatoire pour le sujet. Avec une taille d'échantillon maigre qui pourrait être tout ce que vous pouvez vraiment faire.
Je plaiderais pour un peu plus de structure dans l'analyse, si possible. En supposant qu'il n'y ait aucun effet de transfert pour des raisons scientifiques, il semble que ce soit une bonne idée d'avoir des effets fixes pour le traitement, la période et l' interaction période de traitement période, et un effet aléatoire pour les sujets. Pour les petits ensembles de données, si ce modèle ne peut pas être ajusté, je supprimerais d' abord l'interaction traitement période.× ×
La période doit être incluse car elle représente une restriction de la randomisation. Vous ne pouvez pas "randomiser" les périodes --- elles se produisent toujours dans le même ordre. L' interaction traitement période peut indiquer une sorte d'effet de transfert.×
Avec des tonnes de données, on pourrait élaborer des termes qui permettraient d'estimer divers effets de report spécifiques. Mes notes à ce sujet ont disparu, même si je sais que je l'ai vu traité dans certains textes.
La stratégie de modélisation supplémentaire de la structure de corrélation du côté R me semble raisonnable. Cela permet de prétendre que l'on manipule la structure de dépendance possible induite par des mesures répétées sur le même sujet, ce que je revendiquerais probablement aussi sur l'effet aléatoire pour le sujet si l'analyse revenait à ce niveau ... C'est aussi bien si divers les stratégies d'analyse fournissent des résultats largement ou très similaires.
Pour la mise en œuvre, j'utiliserais
PROC MIXED
dansSAS
et probablementnlme
oulme4
dansR
.Je vais me pencher sur la question de la symétrie composée, car cela ressemble plus à un reliquat du temps où MANOVA était la seule analyse "correcte" pour les mesures répétées.
la source