Dois-je exclure les effets aléatoires d'un modèle s'ils ne sont pas statistiquement significatifs?

9

Dois-je inclure des effets aléatoires dans un modèle même s'ils ne sont pas statistiquement significatifs? J'ai un plan expérimental de mesures répétées, dans lequel chaque individu expérimente trois traitements différents dans un ordre aléatoire. Je voudrais contrôler les effets de l'individu et de l'ordre, mais aucun ne semble statistiquement significatif dans mes modèles. Est-ce que cela permet de les exclure ou dois-je quand même les inclure?

Cynthia Tedore
la source
Comment les avez-vous jugés "non statistiquement significatifs"? Avez-vous démarré votre modèle par exemple? Ou semblent-ils avoir une échelle de grandeur inférieure aux erreurs résiduelles? Tout simplement bon vieux AIC? AICc peut-être? Quoi exactement? Veuillez fournir des informations supplémentaires à votre procédure de sélection des variables.
usεr11852
J'ai utilisé les valeurs de p fournies automatiquement par le logiciel SuperMix. Je ne sais pas comment ils sont calculés dans ce programme, mais je
peux y réfléchir
voir quelques commentaires sur ce sujet à glmm.wikidot.com/faq
Ben Bolker

Réponses:

17

Ma recommandation est d'inclure les effets aléatoires dans le modèle même s'ils ne sont pas statistiquement significatifs, au motif que l'analyse statistique représente alors plus fidèlement le plan d'étude réel.

Cela vous permet d'écrire quelque chose comme ça dans votre section Méthodes statistiques:

Des effets aléatoires ont été inclus pour l'individu et afin de contrôler une éventuelle dépendance due à des mesures répétées ou des effets d'ordre.

Cela préviendra probablement les commentaires des examinateurs sur les hypothèses de dépendance ou la pseudo-réplication. Il est simplement plus facile de faire cela que d '«expliquer» pourquoi il est acceptable de supprimer ces termes, même s'ils semblent essentiellement inutiles.

De plus, avoir ces termes dans le modèle ne vous coûte probablement rien. Je serais surpris et méfiant si les résultats changeaient considérablement lorsque vous les supprimiez.

Voici quelques considérations:

Pragmatique:

Parfois, la distribution des données ne permet pas d'ajuster le modèle aux données. Cela peut se produire lorsque, en raison du coût, du temps ou des efforts, très peu d'essais sont collectés exprès, lorsque les données sont trop clairsemées d'une manière ou d'une autre ou que la distribution des données s'avère dégénérée ou trop plate.

Dans ce cas, il se peut que vous n'ayez pas d'autre moyen que de simplifier le modèle, peut-être de façon spectaculaire. Habituellement, j'essaie de supprimer d'abord les effets qui sont à la granularité la plus fine, car il y en a généralement plus à estimer.

Dans le pire des cas, vous souhaiterez peut-être procéder comme si les données avaient été collectées indépendamment. Cela peut être mieux que rien, mais des tests de signification devront être effectués avec un gros grain de sel. L'interprétation des résultats doit être un peu couverte.

Pratique:

Dans certaines situations, il peut être raisonnable de regrouper les conditions afin d'obtenir des informations afin de continuer. Ici, je pense plus à la conception expérimentale dans la recherche et le développement en cours, plutôt qu'à la publication.

Lorenzen et Anderson (1993) donnent des règles de «mise en commun parfois» pour le cas où il serait utile d'obtenir des tests plus précis des autres facteurs du modèle.

  • Un terme du modèle sera déclaré négligeable et un candidat à être supprimé du modèle et de la colonne EMS s'il est insignifiant au α=0,25 niveau.
  • Un terme ne doit pas être supprimé du modèle si une interaction d'ordre supérieur impliquant ce terme est significative au 0,25 niveau.

Encore une fois, cependant, ce type de règle est plus à des fins pratiques et non à des fins de publication, à mon avis.

Théorique:

Maintenant, il se peut que vous obteniez des résultats essentiellement "identiques" lorsque vous supprimez ces effets aléatoires. C'est bien, mais vous devez savoir que vous ajustez maintenant deux modèles différents, et les termes peuvent avoir besoin d'être interprétés différemment même s'ils peuvent être "les mêmes".

Ce que je retiens de cela, c'est que les résultats sont robustes sous diverses hypothèses. C'est toujours une bonne chose.

La suppression de termes peut également être considérée comme faisant partie de la "sélection de modèle", de la "construction de modèle" ou de la "simplification du modèle". Il existe une variété de méthodologies pour la sélection des modèles. Alors que "laisser tomber les termes avec insignifiantep-values ​​" est une de ces méthodes, elle ne semble pas avoir beaucoup de soutien théorique en général. Je ne sais pas comment les différentes méthodologies se comportent avec des modèles mixtes.

De plus, selon la façon dont vous souhaitez interpréter les résultats de votre modèle, vous ne souhaiterez peut-être pas le «simplifier». Littell et al (2006) a une petite discussion (p. 211) sur l' inférence étroite versus large et l'inférence à l' échelle de la population versus spécifique à un sujet dans un contexte simple. Dans votre cas, vous êtes probablement intéressé par une large inférence, tirant des conclusions qui concernent l'ensemble de la population plutôt que les seuls individus de votre étude.

Quoi qu'il en soit, dans votre cas, votre étude a été menée de manière à introduire un potentiel de dépendance basé sur l'ordre et les individus. Si vous pouvez modéliser avec précision la structure de votre étude, vous devriez le faire.

Références:

Littell, Milliken, Stroup, Wolfinger et Schabenberger (2006) SAS pour les modèles mixtes. SAS.

Lorenzen et Anderson (1993) Design of Experiments: A No-Name Approach. Marcel Dekker, Inc.

jvbraun
la source