Hmm ... Je ne pense pas que ces deux côtés soient équivalents
Jon
6
Comme indiqué dans les réponses, la question est probablement dénuée de sens en raison de l'intégration de variables aléatoires d'un côté qui sont les variables de conditionnement de l'autre.
Xi'an
Réponses:
25
E[A∣B]=?E[B∣A]E[A]E[B](1)
Le résultat conjecturé(1)est trivialement vrai pourindépendantsvariables aléatoiresAetB avec des moyens non nuls.
Si , alors le côté droit de ( 1 ) implique une division par 0 et donc ( 1 ) n'a pas de sens. Notez que si A et BE[B]=0(1)0(1)AB soient indépendants ou non n'est pas pertinent.
En général , ne s'applique pas aux variables aléatoires dépendantes mais des exemples spécifiques de A et B dépendants satisfaisant ( 1 ) peuvent être trouvés. Notez que nous devons continuer d'insister sur le fait que E [ B ] ≠ 0 , sinon le côté droit de ( 1 ) n'a pas de sens. Gardez à l'esprit que E [ A ∣ B ] est une variable aléatoire qui se trouve être une fonction de la variable aléatoire B , disons g ((1)AB(1)E[B]≠0(1)E[A∣B]B tandis que E [ B ∣ A ] est unevariable aléatoirequi estfonctionde la variable aléatoire A , disons h ( A ) . Donc, ( 1 ) revient à demander sig(B)E[B∣A]Ah(A)(1)
peut être une vraie affirmation, et évidemment la réponse est queg(B)ne peut pas être un multiple deh(A)
g(B)=?h(A)E[A]E[B](2)
g(B)h(A) en général.
À ma connaissance, il n'y a que deux cas particuliers où peut tenir.(1)
Comme noté ci - dessus, pour indépendants des variables aléatoires et B , g ( B ) et h ( A ) sont dégénérées variables aléatoires (appelées constantes par des gens statistiquement illettrés) que l' égalité E [ A ] et E [ B ] ,
respectivement, et donc si E [ B ] ≠ 0 , nous avons l'égalité en ( 1 )ABg(B)h(A)E[A]E[B]E[B]≠0(1) .
À l'autre extrémité du spectre de l'indépendance, supposons que
où g ( ⋅ ) est une fonction inversible et donc A = g ( B ) et B = g - 1 ( A ) sont des variables aléatoires entièrement dépendantes. Dans ce cas,
E [ A ∣ B ] = g ( B )A=g(B)g(⋅)A=g(B)B=g−1(A)
et ainsi ( 1 ) devient
g ( B ) ? = B E [ A ]
E[A∣B]=g(B),E[B∣A]=g−1(A)=g−1(g(B))=B
(1)
qui tient exactement lorsqueg(x)=αxoùαpeut être n'importe quel nombre réel non nul. Ainsi,(1)est valable chaque fois queAest un multiple scalaire deB, et bien sûrE[B]doit être non nul (cf.la réponse de Michael Hardy). Le développement ci-dessus montre queg(x)doit être unefonctionlinéaireet que
(1)fonctionneg(x
g(B)=?BE[A]E[B]
g(x)=αxα(1)ABE[B]g(x)(1) ne peut pas tenir pour affine avec β ≠ 0 . Cependant, notez qu'Alecos Papadopolous dans
sa réponse et ses commentairesaffirmeensuiteque si B
est unevariable aléatoirenormaleavec une moyenne non nulle, alors pourles
valeursspécifiquesde α et β ≠ 0 qu'il fournit,
A = α B + β
et B satisfont ( 1 ) . À mon avis, son exemple est incorrect.g(x)=αx+ββ≠0Bαβ≠0A=αB+βB(1)
Dans un commentaire sur cette réponse, Huber a suggéré de considérer l'égalité conjecturée symétrique
qui bien sûr est toujours valable pour les variables aléatoires indépendantes quelles que soient les valeurs de
E [ A ] et E [ B ] et pour les multiples scalaires A = α B également. Bien sûr, plus trivialement, ( 3 ) tout
E[A∣B]E[B]=?E[B∣A]E[A](3)
E[A]E[B]A=αB(3)
vaut pour les variables aléatoires de moyenne nulle et B (indépendantes ou dépendantes, multiples scalaires ou non; peu importe!): E [ A ] = E [ B ] = 0 est suffisant pour l'égalité dans ( 3 ) . Ainsi, ( 3 ) pourrait ne pas être aussi intéressant que ( 1 ) comme sujet de discussion.ABE[A]=E[B]=0(3)(3)(1)
+1. Pour être généreuse, la question pourrait être interprétée comme demandant si , où la question de la division par zéro disparaît. E(A|B)E(B)=E(B|A)E(A)
whuber
1
@whuber Merci. Ma modification répond à la question plus générale de savoir s'il est possible d'avoir . E[A∣B]E[B]=E[B∣A]E[A]
Dilip Sarwate
11
The result is untrue in general, let us see that in a simple example. Let X∣P=p have a binomial distribution with parameters n,p and P have the beta distrubution with parameters (α,β), that is, a bayesian model with conjugate prior. Now just calculate the two sides of your formula, the left hand side is EX∣P=nP, while the right hand side is
The conditional expected value of a random variable A given the event that B=b is a number that depends on what number b is. So call it h(b). Then the conditional expected value E(A∣B) is h(B), a random variable whose value is completely determined by the value of the random variable B. Thus E(A∣B) is a function of B and E(B∣A) is a function of A.
The quotient E(A)/E(B) is just a number.
So one side of your proposed equality is determined by A and the other by B, so they cannot generally be equal.
(Perhaps I should add that they can be equal in the trivial case when the values of A and B determine each other, as when for example, A=αB,α≠0 and E[B]≠0, when
You mean they are not necessarily equal? I mean they CAN be equal?
BCLC
1
@BCLC : They are equal only in trivial cases. And two functions equal to each other at some points and not at others are not equal.
Michael Hardy
2
"But only in that trivial case can they be equal" (emphasis added) is not quite correct. Consider independent A and B with E[B]≠0. Then, E[A∣B]=E[A] while E[B∣A]=E[B] and so
E[B∣A]E[A]E[B]=E[B]E[A]E[B]=E[A]=E[A∣B].
Dilip Sarwate
@DilipSarwate I was about to say that haha!
BCLC
I edited your answer to add a few details for the case you pointed out. Please roll back if you don't like the changes.
Dilip Sarwate
-1
The expression certainly does not hold in general. For the fun of it, I show below that if A and B follow jointly a bivariate normal distribution, and have non-zero means, the result will hold if the two variables are linear functions of each other and have the same coefficient of variation (the ratio of standard deviation over mean) in absolute terms.
For jointly normals we have
E(A∣B)=μA+ρσAσB(B−μB)
and we want to impose
μA+ρσAσB(B−μB)=[μB+ρσBσA(A−μA)]μAμB
⟹μA+ρσAσB(B−μB)=μA+ρσBσAμAμB(A−μA)
Simplify μA and then ρ, and re-arrange to get
B=μB+σ2Bσ2AμAμB(A−μA)
So this is the linear relationship that must hold between the two variables (so they are certainly dependent, with correlation coefficient equal to unity in absolute terms) in order to get the desired equality. What it implies?
First, it must also be satisfied that
E(B)≡μB=μB+σ2Bσ2AμAμB(E(A)−μA)⟹μB=μB
so no other restirction is imposed on the mean of B ( or of A) except of them being non-zero. Also a relation for the variance must be satisfied,
Var(B)≡σ2B=(σ2Bσ2AμAμB)2Var(A)
⟹(σ2A)2σ2B=(σ2B)2σ2A(μAμB)2
⟹(σAμA)2=(σBμB)2⟹(cvA)2=(cvB)2
⟹|cvA|=|cvB|
which was to be shown.
Note that equality of the coefficient of variation in absolute terms, allows the variables to have different variances, and also, one to have positive mean and the other negative.
Isn't this a convoluted way to A=αB where α is some scalar?
Matthew Gunn
1
@MatthewGunn Your comment is right on target. Normality has nothing to do with the matter. For random variables A and B such that A=αB, E[A∣B]=αB=A and similarly, E[B∣A]=B. Consequently, assuming that E[B]≠0,
No normality, no |cvA|=|cvB| etc, and actually just a rehash of a comment in Michael Hardy's answer.
Dilip Sarwate
If you write \text{Var} instaed of \operatorname{Var} then you'll see aVarX and aVar(X) instead of aVarX and aVar(X). That's why the latter is standard usage.
Michael Hardy
@MatthewGun It seems to me that providing answers that contain specific examples is considered valuable content in this site. So yes, when a random variable is an affine function of another, and they are jointly normal with non-zero means, then one needs to have equal coefficients of variation, while, also there are no restrictions on the means of these rv's. On the other hand, when a random variable is just a linear function of another, the relation holds always. So no my answer is not a convoluted way to say A=aB. (cc:@DilipSarwate)
Alecos Papadopoulos
2
If B is a non-normal random variable with E[B]=μB≠0 and A=cB+d (and so B=A−dc), then
E[A∣B]=cB+d=A,E[B∣A]=A−dc=B.
Now, if we want to have E[A∣B]=cB+d to equal E[B∣A]⋅μAμB=B⋅μAμB, it must be that
cB+d=B⋅μAμB⟹d=0,c=μAμB
and so A=cB=μAμBB. So, for nonnormalB, the OP's conjectured result holds if A=cB but not if A=cB+d,d≠0.Of course, as you have proved, the result holds for normal random variables if A=cB+d,d≠0 .
Réponses:
Si , alors le côté droit de ( 1 ) implique une division par 0 et donc ( 1 ) n'a pas de sens. Notez que si A et BE[B]=0 (1) 0 (1) A B soient indépendants ou non n'est pas pertinent.
En général , ne s'applique pas aux variables aléatoires dépendantes mais des exemples spécifiques de A et B dépendants satisfaisant ( 1 ) peuvent être trouvés. Notez que nous devons continuer d'insister sur le fait que E [ B ] ≠ 0 , sinon le côté droit de ( 1 ) n'a pas de sens. Gardez à l'esprit que E [ A ∣ B ] est une variable aléatoire qui se trouve être une fonction de la variable aléatoire B , disons g ((1) A B (1) E[B]≠0 (1) E[A∣B] B tandis que E [ B ∣ A ] est unevariable aléatoirequi estfonctionde la variable aléatoire A , disons h ( A ) . Donc, ( 1 ) revient à demander sig(B) E[B∣A] A h(A) (1)
peut être une vraie affirmation, et évidemment la réponse est queg(B)ne peut pas être un multiple deh(A)
À ma connaissance, il n'y a que deux cas particuliers où peut tenir.(1)
Comme noté ci - dessus, pour indépendants des variables aléatoires et B , g ( B ) et h ( A ) sont dégénérées variables aléatoires (appelées constantes par des gens statistiquement illettrés) que l' égalité E [ A ] et E [ B ] , respectivement, et donc si E [ B ] ≠ 0 , nous avons l'égalité en ( 1 )A B g(B) h(A) E[A] E[B] E[B]≠0 (1) .
À l'autre extrémité du spectre de l'indépendance, supposons que où g ( ⋅ ) est une fonction inversible et donc A = g ( B ) et B = g - 1 ( A ) sont des variables aléatoires entièrement dépendantes. Dans ce cas, E [ A ∣ B ] = g ( B )A=g(B) g(⋅) A=g(B) B=g−1(A)
et ainsi ( 1 ) devient
g ( B ) ? = B E [ A ]
Dans un commentaire sur cette réponse, Huber a suggéré de considérer l'égalité conjecturée symétrique qui bien sûr est toujours valable pour les variables aléatoires indépendantes quelles que soient les valeurs de E [ A ] et E [ B ] et pour les multiples scalaires A = α B également. Bien sûr, plus trivialement, ( 3 ) tout
la source
The result is untrue in general, let us see that in a simple example. LetX∣P=p have a binomial distribution with parameters n,p and P have the beta distrubution with parameters (α,β) , that is, a bayesian model with conjugate prior. Now just calculate the two sides of your formula, the left hand side is EX∣P=nP , while the right hand side is
la source
The conditional expected value of a random variableA given the event that B=b is a number that depends on what number b is. So call it h(b). Then the conditional expected value E(A∣B) is h(B), a random variable whose value is completely determined by the value of the random variable B . Thus E(A∣B) is a function of B and E(B∣A) is a function of A .
The quotientE(A)/E(B) is just a number.
So one side of your proposed equality is determined byA and the other by B , so they cannot generally be equal.
(Perhaps I should add that they can be equal in the trivial case when the values ofA and B determine each other, as when for example, A=αB,α≠0 and E[B]≠0 , when
la source
The expression certainly does not hold in general. For the fun of it, I show below that ifA and B follow jointly a bivariate normal distribution, and have non-zero means, the result will hold if the two variables are linear functions of each other and have the same coefficient of variation (the ratio of standard deviation over mean) in absolute terms.
For jointly normals we have
and we want to impose
SimplifyμA and then ρ , and re-arrange to get
So this is the linear relationship that must hold between the two variables (so they are certainly dependent, with correlation coefficient equal to unity in absolute terms) in order to get the desired equality. What it implies?
First, it must also be satisfied that
so no other restirction is imposed on the mean ofB ( or of A ) except of them being non-zero. Also a relation for the variance must be satisfied,
which was to be shown.
Note that equality of the coefficient of variation in absolute terms, allows the variables to have different variances, and also, one to have positive mean and the other negative.
la source