Supposons que nous avons des échantillons de deux variables aléatoires de Bernoulli indépendantes, et .
Comment prouver que
?
Supposons que .
distributions
sampling
bernoulli-distribution
Un vieil homme dans la mer.
la source
la source
Réponses:
Mettez ,b=√a=θ1(1−θ1)√n1√ ,
A=(ˉX1-θ1)/a,
B=(ˉX2-θ2)/b. Nous avons
A→dN(0,1),B→dN(0,1). En termes de fonctions caractéristiques, cela signifie
ϕA(t)≡Eeb=θ2(1−θ2)√n2√ A=(X¯1−θ1)/a B=(X¯2−θ2)/b A→dN(0,1), B→dN(0,1)
Nous voulons prouver que
D:= a
Puisque et B sont indépendants, ϕ D ( t ) = ϕ A (A B
Notez que des calculs similaires peuvent être effectués pour des distributions arbitraires (pas nécessairement de Bernoulli) avec des seconds moments finis, en utilisant l'expansion de la fonction caractéristique en termes des deux premiers moments.
la source
Prouver votre déclaration équivaut à prouver le (Levy-Lindenberg) Central Limit Theorem qui énonce
Si{Zi}ni=1 is a sequence of i.i.d random variable with finite mean E(Zi)=μ and finite variance V(Zi)=σ2 then
HereZ¯=∑iZi/n that is the sample variance.
Then it is easy to see that if we put
and
(There's a last passage, and you have to adjust this a bit for the general case wheren1≠n2 but I have to go now, will finish tomorrow or you can edit the question with the final passage as an exercise )
la source