Définition mathématique de la causalité

9

Soit et des variables aléatoires. est la moyenne conditionnelle de donné . Nous disons que n'est pas causalement lié à si ne dépend pas de , ce qui implique qu'il est égal à . Maintenant, allons de l'avant avec cette définition de la causalité pendant une seconde. Par la loi des attentes itérées, . Cela signifie que si ne dépend pas de , s'il est égal à , alors .YXE(Y|X)YXYXE(Y|X)XE(Y)E(XE(Y|X))=E(E(XY|X))=E(XY)E(Y|X)XE(Y)E(X)E(Y)=E(XY)

En d'autres termes:

Si et ne sont pas liés de façon causale, alors et sont pas corrélés! - Cela n'a aucun sens et je sais que cela doit être faux. Ai-je mal défini la causalité? Qu'est ce que j'ai mal fait?XYXY

En économétrie, nous supposons généralement que . Donc est équivalent à . La logique s'applique également dans ce scénario spécifique.E(Y|X)=b0+b1XE(Y|X)=E(Y)b1=0

Christian
la source
2
Vous avez dit que . Je crois que c'est faux. E (Y | X) est une constante. Par conséquent, est égal à . Un autre point, provient du modèle de régression linéaire simple. E(XE(Y|X))=E(E(XY|X))=E(XY)E(XE(Y|X))E(Y|X)E(X)E(Y|X)=b0+b1X
Budhapest
Soit E (Y | X) = b, où b est une constante. Prenez ensuite les attentes des deux côtés. On trouve que E (E (Y | X)) = E (b) = b. Selon la loi des attentes itérées, E (E (Y | X)) = E (Y). Par conséquent, si E (Y | X) est constant, il doit être égal à E (Y).
Christian
Si E (Y / X) = b, cela signifie que Y ne dépend pas de X, et E (Y) = b, vous vous embrouillez.
SAAN
Je ne comprends pas pourquoi "cela n'a aucun sens". Vous commencez avec une définition de la causalité qui est, je pense, équivalente à la définition de l'indépendance dans les statistiques. Et les variables indépendantes ont une covariance nulle, où est l'histoire?
Janvier
Janvier, non, ce n'est pas la même chose! X et Y sont indépendants si la distribution conjointe entre dans le produit des marginaux, et ce n'est certainement pas la même chose. Je ne vois pas quel est votre point? Azeem, à part répéter ce que j'ai dit précédemment, avez-vous quelque chose à apporter? Au lieu de dire que je me trompe, pouvez-vous expliquer POURQUOI je me trompe?
Christian

Réponses:

18

Vous avez mal défini la causalité, oui. Vous avez probablement entendu le dicton «la corrélation n'est pas un lien de causalité». Vous avez essentiellement défini la causalité comme une corrélation. Mais le problème est pire que cela. La causalité n'est pas du tout un concept statistique ou probabiliste, du moins comme ces sujets sont normalement enseignés. Il n'y a pas de définition statistique ou probabiliste de la causalité: rien impliquant des attentes conditionnelles ou des distributions conditionnelles ou similaires. Il est cependant difficile de saisir ce fait dans les cours de statistique ou d'économétrie.

Malheureusement, nous avons tendance à faire un meilleur travail en disant ce que la causalité n'est pas que ce qu'est la causalité. La causalité vient toujours et partout de la théorie, du raisonnement a priori, des hypothèses. Vous avez mentionné l'économétrie. Si vous avez appris les variables instrumentales avec compétence, alors vous savez que les effets causaux ne peuvent être mesurés que si vous avez une «restriction d'exclusion». Et vous savez que les restrictions d'exclusion viennent toujours de la théorie.

Vous avez dit que vous vouliez des mathématiques, cependant. Le gars que vous voulez lire est Judea Pearl . Ce n'est pas des mathématiques faciles, et les mathématiques s'égarent parfois dans la philosophie, mais c'est parce que la causalité est un sujet difficile. Voici une page avec plus de liens sur le sujet. Voici un livre en ligne gratuit que je viens de découvrir. Enfin, voici une question précédente où j'ai donné une réponse que vous pourriez trouver utile.

Facture
la source
Merci sincèrement. J'aurai une lecture de son travail et vous répondrai quand j'en aurai le temps.
Christian
4
Excellente réponse. Le livre Morgan & Winship est un peu plus facile que Pearl, avec un accent sur les problèmes des sciences sociales.
Dimitriy V. Masterov
8

Nous disons que n'est pas causalement lié à si ne dépend pas de , ce qui implique qu'il est égal à .YXE(Y|X)XE(Y)

C'est faux. Les relations causales concernent les dépendances fonctionnelles / structurelles, pas les dépendances statistiques / associatives. Vous devriez jeter un œil ici.

Ai-je mal défini la causalité? Qu'est ce que j'ai mal fait?

Oui, vous l'avez mal défini, vous pouvez vérifier les livres / références d'inférence causale ici . Plus formellement, dans un modèle d'équation structurelle, l'effet causal de sur la distribution de , que nous pouvons désigner par --- c'est-à-dire, comment changer affecte la distribution de - - est mathématiquement définie comme la distribution de probabilité induite par le modèle d'équation structurelle modifié où l'équation pour est substituée à .XYP(Y|do(X=x))XYXX=x

Par exemple, supposons que votre modèle causal soit défini par les équations structurelles suivantes:

U=ϵuX=f(U,ϵx)Y=g(X,U,ϵy)

Lorsque les perturbations sont mutuellement indépendantes et ont une certaine distribution de probabilité. Cela correspond au DAG:

entrez la description de l'image ici

Alors est la distribution de probabilité de induite par les équations structurelles modifiées:P(Y|do(X=x))Y

U=ϵuX=xY=g(X,U,ϵy)

Ce qui correspond au DAG mutilé:

entrez la description de l'image ici

L'effet causal moyen serait simplement l'attente de utilisant le cdf causal .YP(Y|do(X=x))

E[Y|do(X=x)]=YdP(Y|do(X=x))

Il s'agit de la définition mathématique, si vous pouvez identifier l'effet avec des données d'observation dépend de si vous pouvez ré-exprimer en termes de distribution d'observation sans l' opérateur .P(Y|do(X=x))do()

Carlos Cinelli
la source
3

Un contre-exemple

Le problème ne semble pas être cette indépendance moyenne (la condition où ) implique que et sont pas corrélés. Si et ne sont pas corrélés, il n'est généralement pas vrai qu'ils sont indépendants de la moyenne. Cela ne semble donc pas problématique pour l'instant.E[Y|X]=E[Y]YXXY

Cependant, supposons que vous ayez une relation (que nous pouvons appeler causale) définie comme , où est distribué avec une distribution normale standard et est distribué avec une distribution de Rademacher de sorte que ou , chacun avec la probabilité ( voir cet article Wikipedia ). Notez alors que . Sous votre définition, cette relation ne serait pas Causa encore si dépend clairement .Y=WXXWW=111/2E[Y|X]=E[Y]YX

Un exemple d'une façon formelle de penser la causalité

Pour vous donner peut-être une façon plus claire et plus mathématique de considérer la causalité, prenez l'exemple suivant. (J'emprunte cet exemple au livre "Mostly Harmless Econometrics.") Supposons que vous vouliez analyser l'effet de l'hospitalisation sur la santé. Définissez comme une mesure de la santé de l'individu etYiiDi{0,1}pour indiquer si cette personne a été hospitalisée ou non. Dans notre première tentative, supposons que nous examinions la différence moyenne de santé des deux types d'individus:

E[Yi|Di=1]E[Yi|Di=0].
À première vue, vous remarquerez peut-être, contre intuitivement, que les personnes qui ont été hospitalisées ont en fait une moins bonne santé que celles qui ne l'ont pas été. Cependant, aller à l'hôpital ne rend certainement pas les gens plus malades. Il existe plutôt un biais de sélection. Les personnes qui vont à l'hôpital sont celles qui sont en moins bonne santé. Donc, cette première mesure ne fonctionne pas. Pourquoi? Parce que nous ne nous intéressons pas seulement aux différences observées , mais plutôt aux différences potentielles (nous voulons savoir ce qui se passerait dans le monde contrefactuel).

Définissez le résultat potentiel d'un individu comme suit: est la santé de l'individu s'il n'était pas allé à l'hôpital, qu'il y soit allé ou non (nous voulons penser aux contrefactuels) et de la même manière, est la santé de l'individu est qu'il est allé. Maintenant, écrivez le résultat réel observé en termes de potentiels, Ainsi, . Maintenant, nous pouvons définir l'effet causal comme

Potential Outcome={Y1,iif Di=1Y0,iif Di=0.
Y0,iiY1,i
Yi={Y1,iif Di=1Y0,iif Di=0.
Yi=Y0,i+(Y1,iY0,i)DiY1,iY0,i . Cela fonctionne parce que c'est en termes de potentiels. Supposons maintenant que nous examinions à nouveau les différences observées de santé moyenne: Notez que le terme peut être interprété comme l'effet moyen du traitement sur le traité et comme biais dans la sélection. Maintenant, si le traitement est assigné au hasard, alors nous avons
E[Yi|Di=1]E[Yi|Di=0]=E[Y1,i|Di=1]E[Y0,i|Di=1]+E[Y0,i|Di=1]E[Y0,i|Di=0].
E[Y1,i|Di=1]E[Y0,i|Di=1]E[Y0,i|Di=1]E[Y0,i|Di=0]Di
E[Yi|Di=1]E[Yi|Di=0]=E[Y1,i|Di]E[Y0,i|Di=0]=E[Y1,i|Di]E[Y0,i|Di=1]=E[Y1,iY0,i|Di=1]=E[Y1,iY0,i],
où nous voyons que est l'effet causal moyen qui nous intéresse C'est une façon fondamentale de penser la causalité.E[Y1,iY0,i]
jmbejara
la source
1

J'ai parcouru votre preuve, et je pense qu'elle est correcte (au moins, j'ai vérifié toutes les étapes pour une définition discrète de ). Si , alors . En outre, cela fonctionne dans l'autre sens.E()E(Y|X)=E(Y)E(XY)=E(X)E(Y)

Cependant, je ne vois pas où est votre problème?

  1. Si et sont indépendants, alors ils ont une covariance nulle. MaisXY
  2. Si et ont une covariance nulle, alors ils ne sont pas nécessairement indépendants.XY

Exemple: considérez le tableau suivant:

     Y
 X | -1      0      1
 --+---------------------
-1 | 0.25    0     0.25
 1 |   0    0.5      0

Les valeurs sont des probabilités, c'est-à-dire etc. Les probabilités marginales pour Y sont 0,25, 0,5, 0,25 et 0,5 et 0,5 pour X.P(X=1Y=0)=0.5

Il est facile de voir que et que et donc , par conséquent, selon votre définition, les variables n'ont pas de lien de causalité.E(Y)=E(X)=E(XY)=0E(Y|X=1)=E(Y|X=1)=0E(Y|X)=E(X)

La covariance est nulle car .E(XY)=E(X)E(Y)

Cependant, les deux variables ne sont pas indépendantes, car .P(X=1Y=0)=0.50.50.5=P(X=1)P(Y=0)

janvier
la source