Appariement du score de propension après imputation multiple

34

Je me réfère à cet article: Hayes JR, Groner JI. "Utiliser plusieurs scores d'imputation et de propension pour tester l'effet de l'utilisation des sièges de voiture et de la ceinture de sécurité sur la gravité des blessures à partir des données du registre des traumatismes." J Pediatr Surg. 2008 mai; 43 (5): 924-7.

Dans cette étude, une imputation multiple a été réalisée pour obtenir 15 jeux de données complets. Les scores de propension ont ensuite été calculés pour chaque jeu de données. Ensuite, pour chaque unité d’observation, un enregistrement a été choisi de manière aléatoire dans l’un des 15 jeux de données complets (y compris le score de propension associé), créant ainsi un jeu de données final unique pour lequel a ensuite été analysé par appariement du score de propension.

Mes questions sont les suivantes: s’agit-il d’un moyen valable d’apparier le score de propension après une imputation multiple? Existe-t-il d'autres moyens de le faire?

Pour le contexte: Dans mon nouveau projet, mon objectif est de comparer les effets de 2 méthodes de traitement en utilisant la correspondance de score de propension. Il manque des données et j’ai l’intention d’utiliser le MICEpackage de R pour imputer les valeurs manquantes, puis twangpour faire le rapprochement du score de propension, puis lme4pour analyser les données appariées.

Update1:

J'ai trouvé cet article qui adopte une approche différente: Mitra, Robin et Reiter, Jerome P. (2011) Concordance du score de propension avec les covariables manquantes via l'imputation multiple séquentielle itérée [document de travail].

Dans cet article, les auteurs calculent les scores de propension de tous les jeux de données imputés, puis les regroupent en effectuant une moyenne, ce qui est dans l’esprit de l’imputation multiple en utilisant la règle de Rubin pour une estimation ponctuelle - mais est-ce vraiment applicable pour un score de propension?

Ce serait vraiment bien si quelqu'un sur CV pouvait fournir une réponse avec des commentaires sur ces 2 approches différentes, et / ou toutes les autres ....

Joe King
la source

Réponses:

20

La première chose à dire est que, pour moi, la méthode 1 (échantillonnage) semble être sans grande valeur - elle ignore les avantages de l'imputation multiple et se réduit à une imputation unique pour chaque observation, comme l'a mentionné Stas. Je ne vois aucun avantage à l'utiliser.

Hill (2004), Hill (J.), «Réduire l’impact du traitement dans l’estimation des effets du traitement dans les études observationnelles souffrant de données manquantes», document de travail de l’ISERP, 2004, est téléchargeable à partir du document suivant : Hill, J. ici .

Le document examine deux approches pour l’imputation multiple (ainsi que d’autres méthodes pour traiter les données manquantes) et les scores de propension:

  • moyenne des scores de propension après imputation multiple, suivie de l'inférence de causalité (méthode 2 dans votre message ci-dessus)

  • inférence causale à l'aide de chaque ensemble de scores de propension à partir des imputations multiples, suivie d'une moyenne des estimations causales.

De plus, l'article examine si le résultat devrait être inclus comme facteur prédictif dans le modèle d'imputation.

Hill affirme que, si l'imputation multiple est préférée aux autres méthodes de traitement des données manquantes, en général, il n'y a pas a prioriraison de préférer l’une de ces techniques à l’autre. Cependant, il peut y avoir des raisons de préférer faire la moyenne des scores de propension, en particulier lors de l'utilisation de certains algorithmes d'appariement. Hill a réalisé une étude de simulation dans le même article et a constaté que la moyenne des scores de propension avant l'inférence causale, lorsque l'inclusion du résultat dans le modèle d'imputation produisait les meilleurs résultats en termes d'erreur quadratique moyenne et la moyenne des scores en premier, mais sans le résultat dans le modèle d'imputation, ont produit les meilleurs résultats en termes de biais moyen (différence absolue entre l'effet estimé et l'effet réel du traitement). En règle générale, il est conseillé d’inclure le résultat dans le modèle d’imputation (par exemple, voir ici ).

Donc, il semblerait que votre méthode 2 est la voie à suivre.

Robert Long
la source
1
Je comprends la méthode n ° 2, mais je ne sais pas comment la mettre en œuvre dans R. Quelqu'un a-t-il des références à me signaler?
Sam
2
Le code R pour les deux méthodes est fourni dans la vignette du cobaltpackage intitulé "Utilisation de cobalt avec données compliquées". Vous pouvez y accéder ici: CRAN.R-project.org/package=cobalt
Noah
13

Il pourrait y avoir un choc de deux paradigmes. L'imputation multiple est une solution bayésienne fortement basée sur un modèle: le concept d'imputation correcte indique essentiellement que vous devez échantillonner à partir de la distribution postérieure bien définie des données, sinon vous êtes foutus. La correspondance du score de propension, en revanche, est une procédure semi-paramétrique: une fois que vous avez calculé votre score de propension (peu importe comment, vous auriez pu utiliser une estimation de la densité du noyau, pas nécessairement un modèle logit), vous pouvez faire le reste. en prenant simplement les différences entre les observations traitées et non traitées avec le même score de propension, ce qui est un peu non paramétrique à présent, car il ne reste plus de modèle contrôlant les autres covariables. Je ne 'Abadie et Imbens (2008) ont expliqué qu'il était impossible de corriger correctement les erreurs types dans certaines situations d'appariement). Je donnerais plus de confiance aux approches plus douces comme la pondération par la propension inverse. Ma référence préférée à ce sujet est "Une économie plutôt inoffensive" , sous-titrée "Un compagnon empiriste", et destinée aux économistes, mais je pense que ce livre devrait être une lecture indispensable pour les autres spécialistes des sciences sociales, la plupart des biostatisticiens et des statisticiens non bio. qu'ils savent comment les autres disciplines abordent l'analyse des données.

Quoi qu'il en soit, l'utilisation d'une seule des 15 lignes de données complètes simulées par observation équivaut à une seule imputation. Par conséquent, vous perdez en efficacité par rapport aux 15 jeux de données complets et vous ne pouvez pas estimer correctement les erreurs standard. Cela me semble être une procédure déficiente, sous tous les angles.

Bien entendu, nous dissimulons volontiers sous le tapis l’hypothèse voulant que le modèle à imputation multiple et le modèle de propension soient corrects en ce sens qu’ils ont toutes les bonnes variables dans toutes les formes fonctionnelles appropriées. Il y a peu de moyens de vérifier cela (bien que je serais heureux d'entendre autrement les mesures de diagnostic pour ces deux méthodes).

StasK
la source
(+1) En particulier, car je ne me sens pas à l'aise avec les discontinuités introduites par la mise en œuvre littérale de l'appariement (recherchez le contrôle avec la valeur la plus proche possible du score de propension et ignorez le reste) . La notation de propension m'a toujours semblé une procédure assez rude de toute façon.
cardinal
@ cardinal, voir mise à jour.
StasK
J'ai en fait vu plus de critiques d'IPTW que d'appariement par d'autres méthodes (il faudra que je les lise). Voir Régressions pondérées par les scores de propension ( Freedman & Berk, 2008 ) et un exemple appliqué, voir Bjerk, 2009 . Je ne sais pas trop pourquoi vous recommandez Harmless Econometrics en réponse ici, mais c'est une bonne recommandation pour ceux qui sont néanmoins intéressés par les études observationnelles.
Andy W
@Andy, l'article de Freedman & Berk semble traiter d'une situation beaucoup plus simple où vous pouvez tout modéliser dans une régression logistique. D'après ce que je comprends, les méthodes telles que PSM sont appliquées dans des situations plus compliquées, lorsque vous avez beaucoup plus de covariables et que vous ne faites pas suffisamment confiance au modèle pour supposer qu'il est correctement spécifié. Ils ont remarqué que la situation était favorable pour la pondération, mais je pense que c'était favorable pour le modèle par rapport à d'autres méthodes possibles.
StasK
2
Parce que vos données ne sont pas iid, et le grand théorème du maximum de vraisemblance relatif à l'égalité du hessien inverse et du produit extérieur du gradient ne tient plus, et ni l'un ni l'autre n'est une estimation cohérente des variances. Il faut utiliser l'estimateur de la variance en sandwich, ou estimateur de linéarisation dans les statistiques d'enquête, ou encore l'estimateur robuste de White en économétrie.
StasK
10

Je ne peux pas vraiment parler des aspects théoriques de la question, mais je vais donner mon expérience en utilisant des modèles PS / IPTW et l'imputation multiple.

  1. Je n'ai jamais entendu parler de quelqu'un utilisant des ensembles de données imputés multiples et l'échantillonnage aléatoire pour créer un seul jeu de données. Cela ne signifie pas nécessairement que c'est faux, mais c'est une approche étrange à utiliser. Le jeu de données n’est pas assez volumineux pour que vous deviez faire preuve de créativité pour exécuter 3 à 5 modèles au lieu d’un seul pour gagner du temps et vous permettre de faire des calculs.
  2. La règle de Rubin et la méthode de mise en commun est un outil assez général. Compte tenu du pool, le résultat imputé multiplié peut être calculé en utilisant uniquement la variance et les estimations. Je ne vois donc aucune raison pour laquelle il ne pourrait pas être utilisé pour votre projet: création des données imputées, analyse effectuée sur chaque ensemble, puis mise en pool. C’est ce que j’ai fait, c’est ce que j’ai vu faire, et à moins que vous n’ayez une justification spécifique pour ne pas le faire, je ne vois pas vraiment pourquoi il faudrait opter pour quelque chose de plus exotique - surtout si vous ne comprenez pas ce qui se passe. passe avec la méthode.
Fomite
la source
+1 C’est une question à laquelle il est difficile de donner une bonne réponse car il semble que ce soit un document très spécialisé. Mais en plus de prétendre perdre la prime sur une question similaire précédente, le PO a ajouté une question demandant des solutions qui a été migrée en méta. J'ai fait des commentaires similaires aux vôtres dans ma réponse. Je suis particulièrement incertain en ce qui concerne l'échantillon de l'ensemble de données imputé multiple.
Michael R. Chernick le
Merci ! Avez-vous des références pour où la méthode 2 a été utilisée?
Joe King
@ JoeKing Malheureusement, pas sur ma tête.
Fomite