Supposons qu'une bonne pièce soit lancée à plusieurs reprises jusqu'à ce qu'une tête soit obtenue pour la première fois.
- Quel est le nombre prévu de lancers qui seront nécessaires?
- Quel est le nombre attendu de queues qui seront obtenues avant l'obtention de la première tête?
probability
self-study
expected-value
bernoulli-distribution
geometric-distribution
nicole900
la source
la source
Réponses:
On peut y répondre en utilisant la distribution géométrique comme suit:
Le nombre d'échecs k - 1 avant le premier succès (têtes) avec une probabilité de succès p ("têtes") est donné par:
avec k étant le nombre total de lancers y compris les premiers « têtes » qui met fin à l'expérience.
Et la valeur attendue de X pour un p donné est .1/p=2
La dérivation de la valeur attendue peut être trouvée ici . Les dernières étapes laissées implicites devraient être les suivantes:
à brancher sur l'expression:ddr11−r=1(1−r)2
. Avecr=1-p, cela simplifieE(X)=p1−p∑x=1∞x rx=p1−p r (ddr11−r)=p1−p r 1(1−r)2 r=1−p
, justifiant son utilisation ci-dessus.]E(X)=1p
Alternativement, nous pourrions utiliser la distribution binomiale négative interprétée comme le nombre d'échecs avant le premier succès. La fonction de masse de probabilité est donnée comme p (nombre d'échecs, n , avant d'atteindre r succès | étant donné une certaine probabilité, p , de succès dans chaque essai de Bernoulli):
L'espérance de nombre d'essais, n + r est donnée par la formule générale:
Etant donné nos paramètres connus: r = 1 et p = 0,5 ,
Par conséquent, nous pouvons nous attendre à faire deux lancers avant d'obtenir la première tête avec le nombre attendu de queues étant .E(n+r)−r=1
Nous pouvons exécuter une simulation Monte Carlo pour le prouver:
la source
And the expected value of
p 1 / p et comment est-il censé le prouver?for a given
is
Modélisez le jeu en tirant un ticket d'une boîte. Il existe deux types de billets. Sur l'un est écrit "Arrêtez, vous avez jeté des têtes"; de l'autre, il est écrit «Continue, tu as jeté la queue». Le nombre attendu de lancers supplémentaires dans le premier cas est de tandis que le nombre attendu de lancers supplémentaires dans le second cas est x , disons - nous ne le savons pas encore et devons le comprendre.0 x
Écrivez ces attentes sur leurs tickets respectifs: ce sont les valeurs des tickets.
Les trois choses que nous savons sont:
La chance de tirer un ticket "Stop" (avec la valeur ) est p0 p .
La chance de tirer un ticket "Continuer" (avec la valeur ) est de 1 - px 1−p .
L'attente de ce tirage unique est, par définition, la somme des valeurs pondérées par les probabilités sur tous les types de tickets:
Solving forx answers the first question. Since the number of tails is always one less than the number of draws, the expected number of tails also must be one less than the expected number of draws. Therefore x−1 answers the second question.
A second intuitively clear solution can be obtained by contemplating a very long sequence ofn tosses. How many games were played? Answer: the number of heads (plus one more incomplete game if the sequence ends with a series of tails). How many heads are expected? Answer: pn . Call this number h . The Weak Law of Large Numbers asserts that the actual number of heads is highly likely to be very close to pn provided n is sufficiently large. Therefore the average game length x , given by some number between n/h and n/(h+1) , will be arbitrarily close to n/(pn) , whence it must equal x itself.
This leads to an extremely efficient way to simulate the distribution of game lengths. Here is
R
code. It records "heads" as true values in a boolean array and computes the tosses between successive true values.When I ran this code after setting the seed to17 (x by only a tiny amount.
set.seed(17)
), the output differed fromla source
Let X be the number of coin flips required until a head is obtained. So, we need to calculate E(X) (i.e. expected value of X).
We can condition E(X) on whatever our first flip is. Let E(X|H) denote the number of remaining coin flips given I got a head on the first flip. Similarly, let E(X|T) denote the number of remaining coin flips given I got a tail on the first flip.
By first step conditioning, we have
Now, asE(X|H) denoted the remaining flips after receiving head on the first, it will be equal to 0 as I don't need to flip after getting 1 head.
And,E(X|T)=E(X) , as we did not make any progress towards getting 1 head.
So,E(X)=12∗(1+0)+12∗(1+E(X))
=>E(X)=2
la source