Quelqu'un connaît-il une implémentation (autre que la macro SAS) de la méthode d'estimation doublement robuste trouvée dans:
Funk, MJ, Westreich, D. et al (2011). Estimation doublement robuste des effets causaux. American Journal of Epidemiology, 173 (7): 761-767. [DOI] ?
regression
ADB
la source
la source
Réponses:
Une estimation doublement robuste n'est en fait pas particulièrement difficile à mettre en œuvre dans la langue de votre choix. Tout ce que vous faites en fait, c'est contrôler les variables de deux manières, plutôt que d'une seule - l'idée étant que tant que l'un des deux modèles utilisés pour le contrôle est correct, vous avez réussi à contrôler la confusion.
À mon avis, la façon la plus simple de procéder consiste à utiliser des pondérations à probabilité inverse de traitement (IPTW) pour pondérer l'ensemble de données, puis à inclure également des variables dans un modèle de régression normal. C'est ainsi que les auteurs abordent le problème dans l'article lié ci-dessus. Il existe également d'autres options, généralement construites à partir des scores de propension utilisés pour l'appariement ou comme covariable dans le modèle.
Il existe de nombreuses introductions à IPTW dans la langue statistique que vous préférez. Je fournirais des extraits de code, mais tous les miens sont en SAS et se liraient probablement beaucoup comme les auteurs.
En bref, ce que vous faites est de modéliser la probabilité d' exposition en fonction de vos covariables en utilisant quelque chose comme la régression logistique et d'estimer la probabilité d'exposition prédite en fonction de ce modèle. Cela vous donne un score de propension. La probabilité inverse du poids de traitement est, comme son nom l'indique, 1 / score de propension. Cela produit parfois des valeurs extrêmes, de sorte que certaines personnes stabilisent le poids en substituant la probabilité marginale d'exposition (obtenue par un modèle de régression logistique du résultat et sans covariables) à 1 dans l'équation ci-dessus.
Au lieu de traiter chaque sujet de votre analyse comme 1 sujet, vous les traitez maintenant comme n copies d'un sujet, où n est leur poids. Si vous exécutez votre modèle de régression en utilisant ces pondérations et en incluant les covariables, il en résulte une estimation doublement robuste.
Une mise en garde cependant: si une estimation robuste doublement (ou triplement, etc.) vous donne plus de chances de spécifier le bon modèle de covariable, elle ne garantit pas que vous le ferez. Et plus important encore, ne peut pas vous sauver de la confusion non mesurée.
la source
Il semble qu'il y ait eu une implémentation dans Stata avant même la publication de l'article que vous avez cité: http://www.stata-journal.com/article.html?article=st0149 .
la source
Le package tmle R a implémenté l'estimateur basé sur les pertes minimales ciblées, qui est à la fois robuste et efficace dans des conditions. Il a l'avantage supplémentaire d'être un estimateur de substitution, par opposition à l'IPTW augmenté (qui est celui dont je suppose que vous parlez).
la source
tmle
package, peut-être un lien vers plus d'informations, et où l'obtenir.J'ai l'estimateur décrit dans Funk et al. 2011 (poids de probabilité inverse augmentés), implémenté dans la
zEpid
bibliothèque Python 3 de laAIPTW
classe. Les détails et la syntaxe sont ICI . La bibliothèque comprend également TMLE, au cas où vous souhaiteriez utiliser les deux approchesla source
Il existe un package R qui implémente cet estimateur DR de l'ATE (ainsi que d'autres choses), le
npcausal
package: https://github.com/ehkennedy/npcausalLa fonction qui correspond à un estimateur DR est
ate()
la source