Je suis confus en appliquant l'attente au dénominateur.
E ( 1 / X ) =?
peut-il être 1 / E ( X )
expected-value
Shan
la source
la source
Réponses:
Non, en général, ce n'est pas possible; L'inégalité de Jensen nous dit que si XX est une variable aléatoire et φφ est une fonction convexe, alors φ ( E [ X ] ) ≤ E [ φ ( X ) ]φ(E[X])≤E[φ(X)] . Si XX est strictement positif, alors 1 / X1/X est convexe, donc E [ 1 / X ] ≥ 1 / E [ X ]E[1/X]≥1/E[X] , et pour une fonction strictement convexe, l'égalité ne se produit que si XX a une variance nulle ... donc dans les cas où nous avons tendance à nous intéresser, les deux sont généralement inégaux.
En supposant que nous avons affaire à une variable positive, s'il est clair pour vous que XX et 1 / X1/X seront inversement liés ( Cov ( X , 1 / X ) ≤ 0Cov(X,1/X)≤0 ), cela impliquerait E ( X ⋅ 1 / X ) - E ( X ) E ( 1 / X ) ≤ 0E(X⋅1/X)−E(X)E(1/X)≤0 ce qui implique E ( X ) E ( 1 / X ) ≥1E(X)E(1/X)≥1 , donc E ( 1 / X ) ≥ 1 / E ( X )E(1/X)≥1/E(X) .
Utilisez la loi du statisticien inconscient
E [ g ( X ) ] = ∫ ∞ - ∞ g ( x ) f X ( x ) d x
(dans le cas continu)
donc quand g ( X ) = 1Xg( X) = 1X ,E[1X ]=∫ ∞ - ∞ f(x)x dxE[1X]=∫∞−∞f(x)xdx
Dans certains cas, l'attente peut être évaluée par inspection (par exemple avec des variables gamma aléatoires), ou en dérivant la distribution de l'inverse, ou par d'autres moyens.
la source
Comme Glen_b le dit, c'est probablement faux, car l'inverse est une fonction non linéaire. Si vous voulez une approximation de E ( 1 / X )E(1/X) peut - être que vous pouvez utiliser une expansion de Taylor autour E ( X )E(X) :
E ( 1X )≈E(1E ( X ) -1E ( X ) 2 (X-E(X))+1E ( X ) 3 (X-E(X))2)== 1E ( X ) +1E(X)3Var(X)E(1X)≈E(1E(X)−1E(X)2(X−E(X))+1E(X)3(X−E(X))2)==1E(X)+1E(X)3Var(X)
so you just need mean and variance of X, and if the distribution of XX is symmetric this approximation can be very accurate.
EDIT: the maybe above is quite critical, see the comment from BioXX below.
la source
Others have already explained that the answer to the question is NO, except trivial cases. Below we give an approach to finding E1XE1X when X>0X>0 with probability one, and the moment generating function MX(t)=EetXMX(t)=EetX do exist. An application of this method (and a generalization) is given in Expected value of 1/x1/x when xx follows a Beta distribution, we will here also give a simpler example.
First, note that ∫∞0e−txdt=1x∫∞0e−txdt=1x (simple calculus exercise). Then, write
E(1X)=∫∞0x−1f(x)dx=∫∞0(∫∞0e−txdt)f(x)dx=∫∞0(∫∞0e−txf(x)dx)dt=∫∞0MX(−t)dt
la source
An alternative approach to calculating E(1/X)E(1/X) knowing X is a positive random variable is through its moment generating function E[e−λX]E[e−λX] .
Since by elementary calculas
∫∞0e−λxdλ=1x
la source
To first give an intuition, what about using the discrete case in finite sample to illustrate that E(1/X)≠1/E(X)E(1/X)≠1/E(X) (putting aside cases such as E(X)=0E(X)=0 )?
In finite sample, using the term average for expectation is not that abusive, thus if one has on the one hand
E(X)=1N∑Ni=1XiE(X)=1N∑Ni=1Xi
and one has on the other hand
E(1/X)=1N∑Ni=11/Xi
it becomes obvious that, with N>1,
E(1/X)=1N∑Ni=11/Xi≠N∑Ni=1Xi=1/E(X)
Which leads to say that, basically, E(1/X)≠1/E(X) since the inverse of the (discrete) sum is not the (discrete) sum of inverses.
Analogously in the asymptotic 0-centered continuous case, one has
E(1/X)=∫∞−∞f(x)xdx≠1/∫∞−∞xf(x)dx=1/E(X).
la source