Quelles approches théoriques de la causalité devrais-je connaître en tant que statisticien / économètre appliqué?
Je connais le (un tout petit peu)
- Modèle causal de Neyman – Rubin (et Roy , Haavelmo etc.)
- Le travail de Pearl sur la causalité
- Causalité de Granger (bien que moins axée sur le traitement)
Quels concepts me manquent ou dois-je être au courant?
Connexes: Quelles théories sont les fondements de la causalité dans l'apprentissage automatique?
J'ai lu ces questions intéressantes et les réponses ( 1 , 2 , 3 ) mais je pense que c'est une question différente. Et j'ai été très surpris de voir que la «causalité», par exemple, n'est pas mentionnée dans Elements of Statistical Learning .
machine-learning
causality
theory
treatment-effect
Arne Jonas Warnke
la source
la source
Réponses:
À proprement parler, la «causalité de Granger» n'est pas du tout une causalité. Il s'agit de la capacité prédictive / de la priorité temporelle, vous voulez vérifier si une série temporelle est utile pour prédire une autre série temporelle --- elle convient aux revendications comme "généralement A se produit avant que B se produise" ou "sachant que A m'aide à prédire que B se produira, mais pas l'inverse "(même après avoir considéré toutes les informations passées surB ). Le choix de ce nom a été très malheureux, et il est à l'origine de plusieurs idées fausses.
Bien qu'il soit presque non controversé qu'une cause doive précéder son effet dans le temps, pour tirer des conclusions causales avec une priorité dans le temps, vous devez toujours affirmer l'absence de confusion, entre autres sources d'associations fallacieuses.
En ce qui concerne les résultats potentiels (Neyman-Rubin) par rapport aux graphiques causals / modélisation d'équation structurelle (Pearl), je dirais que c'est un faux dilemme et que vous devriez apprendre les deux.
Tout d'abord, il est important de noter qu'il ne s'agit pas de vues opposées sur la causalité . Comme Pearl le dit, il existe une hiérarchie concernant les tâches d'inférence (causales):
Pour la première tâche, il vous suffit de connaître la distribution conjointe des variables observées. Pour la deuxième tâche, vous devez connaître la distribution conjointe et la structure causale. Pour la dernière tâche, des contrefactuels, vous aurez en outre besoin d'informations sur les formes fonctionnelles de votre modèle d'équation structurelle.
Donc, quand on parle de contrefactuels, il y a une équivalence formelle entre les deux perspectives . La différence est que les résultats potentiels prennent les déclarations contrefactuelles comme des primitives et dans les DAG, les contrefactuels semblent dériver des équations structurelles. Cependant, vous pourriez vous demander, s'ils sont "équivalents", pourquoi se donner la peine d'apprendre les deux? Parce qu'il y a des différences en termes de "facilité" à exprimer et à dériver des choses.
Par exemple, essayez d'exprimer le concept de M-Bias en utilisant uniquement les résultats potentiels --- je n'en ai jamais vu de bons. En fait, mon expérience jusqu'à présent est que les chercheurs qui n'ont jamais étudié les graphiques n'en sont même pas conscients. En outre, la formulation des hypothèses de fond de votre modèle dans un langage graphique facilitera le calcul de ses implications testables empiriques et répondra aux questions d'identification. D'un autre côté, il est parfois plus facile de penser directement aux contrefactuels eux-mêmes et de combiner cela avec des hypothèses paramétriques pour répondre à des questions très spécifiques.
Il y a beaucoup plus à dire, mais le fait est que vous devez apprendre à "parler les deux langues". Pour des références, vous pouvez vérifier comment commencer ici.
la source