Résumons un flux de variables aléatoires, ; soit le nombre de termes dont nous avons besoin pour que le total dépasse un, c'est-à-dire que est le plus petit nombre tel queXiiid∼U(0,1)
X1+X2+⋯+XY>1.
Pourquoi la moyenne de égale à la constante Euler ?Y
E(Y)=e=10!+11!+12!+13!+…
probability
self-study
expected-value
uniform
Silverfish
la source
la source
Réponses:
Première observation: YY a un CDF plus agréable que le PMF
La fonction de masse de probabilité p Y ( n )pY(n) est la probabilité que nn soit "juste assez" pour que le total dépasse l'unité, c'est-à-dire que X 1 + X 2 + … X nX1+X2+…Xn dépasse un tandis que X 1 + ⋯ + X n - 1 leX1+⋯+Xn−1 fait ne pas.
La distribution cumulée F Y ( n ) = Pr ( Y ≤ n )FY(n)=Pr(Y≤n) nécessite simplement que nn soit "suffisant", c'est-à-dire ∑ n i = 1 Xi>1∑ni=1Xi>1 sans restriction sur la quantité par. Cela ressemble à un événement beaucoup plus simple pour gérer la probabilité de.
Deuxième observation: YY prend des valeurs entières non négatives pour que E ( Y )E(Y) puisse être écrit en termes de CDF
Clairement, YY ne peut prendre des valeurs que dans { 0 , 1 , 2 , … }{0,1,2,…} , donc nous pouvons écrire sa moyenne en termes de CDF complémentaire , ˉ F YF¯Y .
E ( Y ) = ∞ ∑ n = 0 ˉ F Y ( n ) = ∞ ∑ n = 0 ( 1 - F Y ( n ) )
En fait Pr ( Y = 0 )Pr(Y=0) et Pr ( Y = 1 )Pr(Y=1) sont tous les deux nuls, donc les deux premiers termes sont E ( Y ) = 1 + 1 + …E(Y)=1+1+… .
Comme pour les termes ultérieurs, si F Y ( n )FY(n) est la probabilité que ∑ n i = 1 X i > 1∑ni=1Xi>1 , de quel événement ˉ F Y ( n )F¯Y(n) la probabilité est-elle?
Troisième observation: le (hyper) volume d'un n-n simplex est 1n !1n!
Le nn -simplex que j'ai en tête occupe le volume sous une unité standard ( n - 1 )(n−1) -simplex dans l' orthant tout positif de R nRn : c'est la coque convexe de ( n + 1 )(n+1) sommets, en particulier l'origine plus les sommets de l'unité ( n - 1 )(n−1) -simplement en ( 1 , 0 , 0 , … )(1,0,0,…) , ( 0 , 1 , 0 , …)(0,1,0,…) etc.
Par exemple, le 2-simplex ci-dessus avec x 1 + x 2 ≤ 1x1+x2≤1 a la zone 1212 et le 3-simplex avecx1+x2+x3≤1x1+x2+x3≤1 a le volume1616 .
Pour une preuve qui procède en évaluant directement une intégrale pour la probabilité de l'événement décrit par ˉ F Y ( n )F¯Y(n) , et des liens vers deux autres arguments, voir ce thread Math SE . Le fil conducteur peut également être intéressant: y a-t-il une relation entre ee et la somme des volumes nn -simplexes?
la source
Fix n ≥ 1 . Soit U i = X 1 + X 2 + ⋯ + X in≥1 mod1 soit les parties fractionnaires des sommes partielles pour i = 1 , 2 , … , n . L'uniformité indépendante de X 1 et X i + 1 garantit que U i + 1 est tout aussi susceptible de dépasser U i que d'être inférieur à lui. Cela implique quetous les n ! les ordres de la séquence ( U i ) sont également probables.
Etant donné la séquence U 1 , U 2 , … , U n , on peut récupérer la séquence X 1 , X 2 , … , X n . Pour voir comment, notez queU1,U2,…,Un X1,X2,…,Xn
U 1 = X 1 car les deux sont compris entre 0 et 1 .U1=X1 0 1
Si U i + 1 ≥ U i , alors X i + 1 = U i + 1 - U i .Ui+1≥Ui Xi+1=Ui+1−Ui
Sinon, U i + X i + 1 > 1 , d'où X i + 1 = U i + 1 - U i + 1 .Ui+Xi+1>1 Xi+1=Ui+1−Ui+1
There is exactly one sequence in which the UiUi are already in increasing order, in which case 1>Un=X1+X2+⋯+Xn1>Un=X1+X2+⋯+Xn . Being one of n!n! equally likely sequences, this has a chance 1/n!1/n! of occurring. In all the other sequences at least one step from UiUi to Ui+1Ui+1 is out of order. This implies the sum of the XiXi had to equal or exceed 11 . Thus we see that
Pr(Y>n)=Pr(X1+X2+⋯+Xn≤1)=Pr(X1+X2+⋯+Xn<1)=1n!.
This yields the probabilities for the entire distribution of YY , since for integral n≥1n≥1
Pr(Y=n)=Pr(Y>n−1)−Pr(Y>n)=1(n−1)!−1n!=n−1n!.
Moreover,
E(Y)=∞∑n=0Pr(Y>n)=∞∑n=01n!=e,
QED.
la source
In Sheldon Ross' A First Course in Probability there is an easy to follow proof:
Modifying a bit the notation in the OP, Uiiid∼U(0,1)Ui∼iidU(0,1) and YY the minimum number of terms for U1+U2+⋯+UY>1U1+U2+⋯+UY>1 , or expressed differently:
Y=min{n:n∑i=1Ui>1}
If instead we looked for:
Y(u)=min{n:n∑i=1Ui>u}
We can apply the following general properties for continuous variables:
E[X]=E[E[X|Y]]=∫∞−∞E[X|Y=y]fY(y)dyE[X]=E[E[X|Y]]=∫∞−∞E[X|Y=y]fY(y)dy
to express f(u)f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of X∼U(0,1)X∼U(0,1) , fY(y)=1. This would be it:
f(u)=∫10E[Y(u)|U1=x]dx
If the U1=x we are conditioning on is greater than u, i.e. x>u, E[Y(u)|U1=x]=1. If, on the other hand, x<u, E[Y(u)|U1=x]=1+f(u−x), because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):
f(u)=1+∫x0f(u−x)dx
If we differentiate both sides of this equation, we can see that:
f′(u)=f(u)⟹f′(u)f(u)=1
with one last integration we get:
log[f(u)]=u+c⟹f(u)=keu
We know that the expectation that drawing a sample from the uniform distribution and surpassing 0 is 1, or f(0)=1. Hence, k=1, and f(u)=eu. Therefore f(1)=e.
la source