Statistiques et inférence causale?

51

Dans son article de 1984 intitulé "Statistics and Causal Inference" , Paul Holland a posé l'une des questions les plus fondamentales de la statistique:

Que peut dire un modèle statistique sur la causalité?

Cela a conduit à sa devise:

AUCUNE CAUSATION SANS MANIPULATION

qui a souligné l'importance des restrictions autour des expériences qui tiennent compte de la causalité. Andrew Gelman fait une remarque similaire :

"Pour savoir ce qui se passe lorsque vous changez quelque chose, il est nécessaire de le changer." ... Il y a des choses que vous apprenez en perturbant un système que vous ne découvrirez jamais grâce à une quantité d'observation passive.

Ses idées sont résumées dans cet article .

Quelles considérations faut-il prendre en compte lors d'une inférence causale à partir d'un modèle statistique?

Shane
la source
2
excellente question: voir aussi la question connexe sur la corrélation et la causation stats.stackexchange.com/questions/534/…
Jeromy Anglim
5
À beaucoup à dire. Mais vous pouvez lire le livre de Pearl "Causality" (2002, mais plus récente, 2e édition) ou le livre de Hernan et Robins "Causal Inference" (2015, brouillon électronique gratuit en ligne si vous effectuez une recherche).

Réponses:

28

C’est une question générale, mais étant donné que les citations Box, Hunter et Hunter sont vraies, je pense que la question est la suivante:

  1. La qualité du design expérimental:

    • randomisation, tailles des échantillons, contrôle des facteurs de confusion, ...
  2. La qualité de la mise en œuvre du design:

    • respect du protocole, erreur de mesure, traitement des données, ...
  3. La qualité du modèle pour refléter avec précision le design:

    • les structures de blocage sont représentées avec précision, les degrés de liberté appropriés sont associés aux effets, les estimateurs sont non biaisés, ...

Au risque d’énoncer une évidence, je vais essayer de cerner les points clés de chacun:

  1. est un vaste sous-domaine de la statistique, mais dans sa forme la plus élémentaire, je pense que cela revient au fait que lorsque nous faisons une inférence causale, nous commençons idéalement avec des unités identiques surveillées dans des environnements identiques autres que celles affectées à un traitement. Toute différence systématique entre les groupes après l’assignation est alors logiquement imputable au traitement (on peut en déduire la cause). Mais le monde n’est pas si agréable et les unités diffèrent avant le traitement et les environnements pendant les expériences ne sont pas parfaitement contrôlés. Nous «contrôlons donc ce que nous pouvons et randomisons ce que nous ne pouvons pas», ce qui contribue à éviter tout biais systématique en raison des facteurs de confusion que nous avons contrôlés ou randomisés. Un problème est que les expériences ont tendance à être difficiles (voire impossibles) et coûteuses, et une grande variété de conceptions ont été développées pour extraire efficacement autant d'informations que possible dans un environnement aussi minutieusement contrôlé que possible, compte tenu des coûts. Certaines d'entre elles sont assez rigoureuses (par exemple, en médecine, l'essai à double insu, randomisé, contrôlé par placebo), d'autres moins (par exemple, diverses formes de «quasi-expériences»).

  2. C'est également un gros problème auquel les statisticiens ne pensent généralement pas… bien que nous devrions le faire. Dans les travaux statistiques appliqués, je me souviens de cas où les «effets» trouvés dans les données étaient des résultats erronés d'incohérence dans la collecte ou le traitement des données. Je me demande également combien de fois les informations sur les véritables effets d’intérêt causal sont perdues à cause de ces problèmes (je pense que les étudiants en sciences appliquées ont généralement peu de formation sur les moyens de corrompre les données - mais je m'éloigne du sujet ici ...)

  3. est un autre grand sujet technique et une autre étape nécessaire dans l'inférence causale objective. On s'en occupe dans une certaine mesure, car les concepteurs élaborent ensemble des conceptions et des modèles (l'objectif étant d'inférer à partir d'un modèle, ce sont les attributs des estimateurs qui déterminent la conception). Mais cela ne nous mène que jusque-là, car dans le «monde réel», nous finissons par analyser des données expérimentales à partir de conceptions autres que des manuels. Nous devons ensuite réfléchir sérieusement à des choses telles que les contrôles appropriés et comment entrer dans le modèle et quels degrés associés de la liberté devrait être et si les hypothèses sont remplies sinon comment ajuster les violations et quelle est la robustesse des estimateurs face aux violations restantes et ...

Quoi qu'il en soit, nous espérons que certaines des solutions ci-dessus aident à réfléchir aux considérations à prendre en compte pour établir une inférence causale à partir d'un modèle. Ai-je oublié quelque chose de grand?

Kingsford Jones
la source
3
Un énorme plus un pour le point 2. Hormis la formation à la protection des sujets humains, je n'ai jamais reçu la moindre formation sur la collecte et le stockage de données. Obtenir la collecte de données correcte est beaucoup plus important que l’analyse.
Matt Parker
J'aimerais répondre aussi, mais je crains qu'il ne reste rien à ajouter à ce que Kingsford a dit.
Joris Meys
7

Outre l'excellente réponse ci-dessus, il existe une méthode statistique qui peut vous rapprocher de la démonstration de la causalité. C’est la causalité de Granger qui démontre qu’une variable indépendante apparaissant avant une variable dépendante a un effet causal ou non. Je présente cette méthode dans une présentation facile à suivre sur le lien suivant:

http://www.slideshare.net/gaetanlion/granger-causality-presentation

J'applique également cette méthode pour tester des théories macroéconomiques concurrentes: http://www.slideshare.net/gaetanlion/economic-theory-testing-presentation

Sachez que cette méthode n'est pas parfaite. Cela ne fait que confirmer que certains événements se produisent avant d'autres et que ces événements semblent avoir une relation directionnelle cohérente. Cela semble entraîner une véritable causalité, mais ce n'est pas toujours le cas. L'appel du matin au coq ne fait pas lever le soleil.

Sympa
la source
4

Que peut dire un modèle statistique sur la causalité? Quelles considérations faut-il prendre en compte lors d'une inférence causale à partir d'un modèle statistique?

La première chose à préciser est que vous ne pouvez pas faire d'inférence causale à partir d'un modèle purement statistique. Aucun modèle statistique ne peut dire quoi que ce soit sur la causalité sans hypothèses de causalité. Autrement dit, pour faire une inférence causale, vous avez besoin d'un modèle causal .

Même dans les cas considérés comme la norme absolue, tels que les essais contrôlés randomisés (ECR), vous devez faire des hypothèses de causalité pour pouvoir continuer. Laissez-moi clarifier ceci. Par exemple, supposons que soit la procédure de randomisation, le traitement d’intérêt et le résultat d’intérêt. En supposant un RCT parfait, voici ce que vous supposez:ZXY

entrez la description de l'image ici

Dans ce cas, donc les choses fonctionnent bien. Cependant, supposons que vous avez la conformité imparfaite résultant dans une relation satané entre et . Alors, maintenant, votre RCT ressemble à ceci:P(Y|do(X))=P(Y|X)XY

entrez la description de l'image ici

Vous pouvez toujours faire une analyse d'intention de traitement. Mais si vous voulez estimer l'effet réel de choses ne sont plus simples. Il s’agit d’un paramètre de variable instrumentale, et vous pourrez peut-être lier ou même identifier l’effet si vous faites des hypothèses paramétriques .X

Cela peut être encore plus compliqué. Vous pouvez avoir des problèmes d’erreur de mesure, les sujets peuvent abandonner l’étude ou ne pas suivre les instructions, entre autres. Vous devrez faire des suppositions sur la manière dont ces choses sont liées afin de procéder avec inférence. Avec des données "purement" d'observation, cela peut être plus problématique, car les chercheurs n'auront généralement pas une bonne idée du processus de génération de données.

Par conséquent, pour tirer des déductions causales à partir de modèles, vous devez juger non seulement ses hypothèses statistiques, mais surtout ses hypothèses causales. Voici quelques menaces courantes à l’analyse causale:

  • Données incomplètes / imprécises
  • La quantité causale d’intérêt cible n’est pas bien définie (Quel est l’effet causal que vous souhaitez identifier? Quelle est la population cible?)
  • Confondre (confondeurs non observés)
  • Biais de sélection (auto-sélection, échantillons tronqués)
  • Erreur de mesure (qui peut induire une confusion, pas seulement du bruit)
  • Mauvaise spécification (par exemple, mauvaise forme fonctionnelle)
  • Problèmes de validité externe (inférence erronée pour la population cible)

Parfois, la prétention d'absence de ces problèmes (ou l'affirmation d'avoir résolu ces problèmes) peut être étayée par la conception même de l'étude. C'est pourquoi les données expérimentales sont généralement plus crédibles. Parfois, cependant, les gens supposeront ces problèmes soit de manière théorique, soit par commodité. Si la théorie est souple (comme dans les sciences sociales), il sera plus difficile de prendre les conclusions pour argent comptant.

Chaque fois que vous pensez qu'il existe une hypothèse qui ne peut pas être sauvegardée, vous devez évaluer le degré de sensibilité des conclusions à une violation plausible de ces hypothèses. Il s'agit généralement d'une analyse de sensibilité.

Carlos Cinelli
la source
Serait-il équivalent à remplacer la flèche bidirectionnelle en pointillés par deux flèches solides unidirectionnelles provenant d'un nœud supplémentaire?
Taylor
@ Taylor Oui, un nœud supplémentaire latent (non observé).
Carlos Cinelli