Pourquoi le nombre de variables uniformes continues sur (0,1) nécessaires pour que leur somme dépasse un a-t-il une moyenne

14

Résumons un flux de variables aléatoires, ; soit le nombre de termes dont nous avons besoin pour que le total dépasse un, c'est-à-dire que est le plus petit nombre tel queXiiidU(0,1)XiiidU(0,1)YYYY

X1+X2++XY>1.

X1+X2++XY>1.

Pourquoi la moyenne de égale à la constante Euler ?YYee

E(Y)=e=10!+11!+12!+13!+

E(Y)=e=10!+11!+12!+13!+
Silverfish
la source
Je poste ceci dans l'esprit d'une question d'auto-étude, bien que je pense avoir vu cette question pour la première fois il y a plus de dix ans. Je ne me souviens pas de la façon dont j'ai répondu à l'époque, bien que je sois sûr que cela ne m'est pas venu à l'esprit lorsque j'ai vu cette propriété mentionnée dans le thread Approximate utilisant Monte Carlo Simulationee . Comme je soupçonne que c'est une question d'exercice assez courante, j'ai choisi de présenter un croquis plutôt qu'une solution complète, bien que je suppose que le principal "avertissement de spoiler" appartient à la question elle-même!
Silverfish
Je reste très intéressé par les approches alternatives; Je sais que cela a été inclus comme question dans la théorie de la probabilité de Gnedenko (à l'origine en russe mais largement traduit) mais je ne sais pas quelle solution était attendue là-bas, ou posée ailleurs.
Silverfish
1
J'ai écrit une solution de simulation dans MATLAB en utilisant votre méthode simplex. Je ne connaissais pas le lien vers les simplexes, c'est tellement inattendu.
Aksakal presque sûrement binaire

Réponses:

14

Première observation: YY a un CDF plus agréable que le PMF

La fonction de masse de probabilité p Y ( n )pY(n) est la probabilité que nn soit "juste assez" pour que le total dépasse l'unité, c'est-à-dire que X 1 + X 2 + X nX1+X2+Xn dépasse un tandis que X 1 + + X n - 1 leX1++Xn1 fait ne pas.

La distribution cumulée F Y ( n ) = Pr ( Y n )FY(n)=Pr(Yn) nécessite simplement que nn soit "suffisant", c'est-à-dire n i = 1 Xi>1ni=1Xi>1sans restriction sur la quantité par. Cela ressemble à un événement beaucoup plus simple pour gérer la probabilité de.

Deuxième observation: YY prend des valeurs entières non négatives pour que E ( Y )E(Y) puisse être écrit en termes de CDF

Clairement, YY ne peut prendre des valeurs que dans { 0 , 1 , 2 , }{0,1,2,} , donc nous pouvons écrire sa moyenne en termes de CDF complémentaire , ˉ F YF¯Y .

E ( Y ) = n = 0 ˉ F Y ( n ) = n = 0 ( 1 - F Y ( n ) )

E(Y)=n=0F¯Y(n)=n=0(1FY(n))

En fait Pr ( Y = 0 )Pr(Y=0) et Pr ( Y = 1 )Pr(Y=1) sont tous les deux nuls, donc les deux premiers termes sont E ( Y ) = 1 + 1 + E(Y)=1+1+ .

Comme pour les termes ultérieurs, si F Y ( n )FY(n) est la probabilité que n i = 1 X i > 1ni=1Xi>1 , de quel événement ˉ F Y ( n )F¯Y(n) la probabilité est-elle?

Troisième observation: le (hyper) volume d'un n-n simplex est 1n !1n!

Le nn -simplex que j'ai en tête occupe le volume sous une unité standard ( n - 1 )(n1) -simplex dans l' orthant tout positif de R nRn : c'est la coque convexe de ( n + 1 )(n+1) sommets, en particulier l'origine plus les sommets de l'unité ( n - 1 )(n1) -simplement en ( 1 , 0 , 0 , )(1,0,0,) , ( 0 , 1 , 0 , )(0,1,0,) etc.

volumes of 2-simplex and 3-simplex

Par exemple, le 2-simplex ci-dessus avec x 1 + x 21x1+x21 a la zone 1212 et le 3-simplex avecx1+x2+x31x1+x2+x31a le volume1616 .

Pour une preuve qui procède en évaluant directement une intégrale pour la probabilité de l'événement décrit par ˉ F Y ( n )F¯Y(n) , et des liens vers deux autres arguments, voir ce thread Math SE . Le fil conducteur peut également être intéressant: y a-t-il une relation entre ee et la somme des volumes nn -simplexes?

Silverfish
la source
1
Il s'agit d'une approche géométrique intéressante et facile à résoudre de cette façon. Magnifique. Voici l'équation pour un volume d'un simplex. Je ne pense pas qu'il puisse y avoir une solution plus élégante, franchement
Aksakal presque sûrement binaire
1
+1 Vous pouvez également obtenir la distribution complète de Y à partir de l'une des approches de mon message sur stats.stackexchange.com/questions/41467/… . Y
whuber
Si je suis tombé sur cette solution, il n'y a aucun moyen qu'ils pourraient me forcer à le faire autrement dans une école :)
Aksakal presque sûrement binaire
11

Fix n 1 . Soit U i = X 1 + X 2 + + X in1mod1 soit les parties fractionnaires des sommes partielles pour i = 1 , 2 , , n . L'uniformité indépendante de X 1 et X i + 1 garantit que U i + 1 est tout aussi susceptible de dépasser U i que d'être inférieur à lui. Cela implique quetous les n ! les ordres de la séquence ( U i ) sont également probables.

Ui=X1+X2++Ximod1
i=1,2,,nX1Xi+1Ui+1Uin!(Ui)

Etant donné la séquence U 1 , U 2 , , U n , on peut récupérer la séquence X 1 , X 2 , , X n . Pour voir comment, notez queU1,U2,,UnX1,X2,,Xn

  • U 1 = X 1 car les deux sont compris entre 0 et 1 .U1=X101

  • Si U i + 1U i , alors X i + 1 = U i + 1 - U i .Ui+1UiXi+1=Ui+1Ui

  • Sinon, U i + X i + 1 > 1 , d'où X i + 1 = U i + 1 - U i + 1 .Ui+Xi+1>1Xi+1=Ui+1Ui+1

There is exactly one sequence in which the UiUi are already in increasing order, in which case 1>Un=X1+X2++Xn1>Un=X1+X2++Xn. Being one of n!n! equally likely sequences, this has a chance 1/n!1/n! of occurring. In all the other sequences at least one step from UiUi to Ui+1Ui+1 is out of order. This implies the sum of the XiXi had to equal or exceed 11. Thus we see that

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

Pr(Y>n)=Pr(X1+X2++Xn1)=Pr(X1+X2++Xn<1)=1n!.

This yields the probabilities for the entire distribution of YY, since for integral n1n1

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Pr(Y=n)=Pr(Y>n1)Pr(Y>n)=1(n1)!1n!=n1n!.

Moreover,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

E(Y)=n=0Pr(Y>n)=n=01n!=e,

QED.

whuber
la source
I have read it a couple of times, and I almost get it... I posted a couple of questions in the Mathematics SE as a result of the ee constant computer simulation. I don't know if you saw them. One of them came back before your kind explanation on Tenfold about the ceiling function of the 1/U(0,1)1/U(0,1) and the Taylor series. The second one was exactly about this topic, never got a response, until now...
Antoni Parellada
here and here.
Antoni Parellada
And could you add the proof with the uniform spacings as well?
Xi'an
@Xi'an Could you indicate more specifically what you mean by "uniform spacings" in this context?
whuber
I am referring to your Poisson process simulation via the uniform spacing, in the thread Approximate e using Monte Carlo Simulation for which I cannot get a full derivation.
Xi'an
6

In Sheldon Ross' A First Course in Probability there is an easy to follow proof:

Modifying a bit the notation in the OP, UiiidU(0,1)UiiidU(0,1) and YY the minimum number of terms for U1+U2++UY>1U1+U2++UY>1, or expressed differently:

Y=min{n:ni=1Ui>1}

Y=min{n:i=1nUi>1}

If instead we looked for:

Y(u)=min{n:ni=1Ui>u}

Y(u)=min{n:i=1nUi>u}
for u[0,1]u[0,1], we define the f(u)=E[Y(u)]f(u)=E[Y(u)], expressing the expectation for the number of realizations of uniform draws that will exceed uu when added.

We can apply the following general properties for continuous variables:

E[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dyE[X]=E[E[X|Y]]=E[X|Y=y]fY(y)dy

to express f(u)f(u) conditionally on the outcome of the first uniform, and getting a manageable equation thanks to the pdf of XU(0,1)XU(0,1), fY(y)=1. This would be it:

f(u)=10E[Y(u)|U1=x]dx

If the U1=x we are conditioning on is greater than u, i.e. x>u, E[Y(u)|U1=x]=1. If, on the other hand, x<u, E[Y(u)|U1=x]=1+f(ux), because we already have drawn 1 uniform random, and we still have the difference between x and u to cover. Going back to equation (1):

f(u)=1+x0f(ux)dx

, and with substituting w=ux we would have f(u)=1+x0f(w)dw.

If we differentiate both sides of this equation, we can see that:

f(u)=f(u)f(u)f(u)=1

with one last integration we get:

log[f(u)]=u+cf(u)=keu

We know that the expectation that drawing a sample from the uniform distribution and surpassing 0 is 1, or f(0)=1. Hence, k=1, and f(u)=eu. Therefore f(1)=e.

Antoni Parellada
la source
I do like the manner in which this generalises the result.
Silverfish