Avec Unif(0,1)≡Beta(α0=1,β0=1) et la probabilité
Binom(n,θ) montrant x succès dans n essais, la distribution postérieure est Beta(αn=1+x,βn=1+n−x).
(Cela se voit facilement en multipliant les noyaux du précédent et la probabilité d'obtenir le noyau du postérieur.)
Alors la moyenne postérieure
est μn=αnαn+β=x+1n+2.
Dans un contexte bayésien, il peut être préférable d' utiliser uniquement la terminologie moyenne postérieure . (La médiane de la distribution postérieure et le maximum de son PDF ont également été utilisés pour résumer les informations postérieures.)
Beta(1,1) Beta(12,12)μn=x+.5n+1.
p^=x+2n+4,p^=xn).
(3) Tous ces estimateurs ont pour effet de `` rétrécir l'estimateur vers 1/2 '' et ils ont donc été appelés `` estimateurs de rétrécissement '' (un terme beaucoup plus largement utilisé, en particulier dans l'inférence de James-Stein). Voir Réponse (+1) par @Taylor.
C'est ce qu'on appelle le lissage de Laplace , ou règle de succession de Laplace , comme Pierre-Simon Laplace l'a utilisé pour estimer la probabilité que le soleil se lève à nouveau demain: "Nous constatons donc qu'un événement s'est produit plusieurs fois, la probabilité qu'il se reproduise la prochaine fois est égal à ce nombre augmenté de l'unité, divisé par le même nombre augmenté de deux unités. "
Essai philosophique sur les probabilités par le marquis de Laplace
la source
la source