Estimateur d'une distribution binomiale

12

Comment définir un estimateur pour les données provenant d'une distribution binomiale? Pour bernoulli je peux penser à un estimateur estimant un paramètre p, mais pour le binôme je ne vois pas quels paramètres estimer quand on a n caractérisant la distribution?

Mise à jour:

Par estimateur, j'entends une fonction des données observées. Un estimateur est utilisé pour estimer les paramètres de la distribution générant les données.

Rohit Banga
la source
Quelle est votre compréhension d'un "estimateur"? Je me pose la question, car les estimateurs n'ont pas de «paramètres». Cela m'inquiète que vous ne communiquiez pas clairement votre question. Peut-être pourriez-vous donner un exemple concret d'une situation réelle que vous envisagez.
whuber
@whuber a ajouté plus d'informations. faites-moi savoir si vous voulez que j'ajoute plus de détails ou si ma compréhension est défectueuse.
Rohit Banga
La modification est correcte, mais un exemple concret serait toujours utile. Dans de nombreuses applications de la distribution binomiale, n'est pas un paramètre: il est donné et est le seul paramètre à estimer. Par exemple, le nombre de succès dans essais de Bernoulli indépendants répartis de manière identique a une distribution binomiale ( , ) et un estimateur du seul paramètre est . p k n n p p k / nnpknnppk/n
whuber
2
J'aimerais voir un exemple, même artificiel, d'estimation à la fois de et de (dans un cadre fréquentiste). Pensez-y: vous observez un seul compte, k , disons . Nous nous attendons à ce que égal à . Alors, estimons-nous , ? Ou peut-être , ? Ou presque autre chose? :-) Ou suggérez-vous que vous pourriez avoir une série d'observations indépendantes toutes à partir d'une distribution binomiale commune avec à la fois etp k = 5 k n p n = 10 p = 0,5 n = 5000 p = 0,001 k 1 , k 2 , , k m ( n , p ) p nnpk=5knpn=10p=0.5n=5000p=0.001k1,k2,,km(n,p)pninconnue?
whuber
1
Je suggère ce dernier - tant p que n sont inconnus. Je veux un estimateur pour n et p en fonction de N points de données observés.
Rohit Banga

Réponses:

12

Je suppose que ce que vous recherchez est la fonction de génération de probabilité. Une dérivation de la fonction de génération de probabilité de la distribution binomiale peut être trouvée sous

http://economictheoryblog.com/2012/10/21/binomial-distribution/

Cependant, jeter un œil à Wikipedia est de nos jours toujours une bonne idée, même si je dois dire que la spécification du binôme pourrait être améliorée.

https://en.wikipedia.org/wiki/Binomial_distribution#Specification

ProofGauss
la source
1

Chaque distribution a des paramètres inconnus. Par exemple, dans la distribution de Bernoulli, la probabilité de succès d'un paramètre inconnu (p) est inconnue. De même dans la distribution binomiale a deux paramètres inconnus n et p. Cela dépend de votre objectif, quel paramètre inconnu vous souhaitez estimer. vous pouvez fixer un paramètre et estimer un autre. Pour plus d'informations, voir ceci

love-stats
la source
Et si je veux estimer les deux paramètres?
Rohit Banga
1
Pour une estimation du maximum de vraisemblance, vous devez prendre une dérivée de la fonction de vraisemblance par rapport au (x) paramètre (s) intéressé (s) et assimiler cette équation à zéro, puis résoudre l'équation. Je veux dire que la procédure est la même que vous avez fait lors de l'estimation de «p». Vous devez faire de même avec «n». consultez celui-ci www.montana.edu/rotella/502/binom_like.pdf
love-stats
@love Votre référence estime seulement , en prenant N comme fixe. pN
whuber
-1 @ love-stats Pour un exemple d'une situation où prendre la dérivée de la fonction de vraisemblance, la mettre à , etc. ne fonctionne pas , voir cette tentative et la bonne solution0
Dilip Sarwate
1

Supposons que vous ayez des données .k1,,kmiid binomial(n,p)

Vous pouvez facilement Derive méthode de-moment estimateurs par le réglage et et en résolvant et .k¯=n^p^n psk2=n^p^(1p^)n^p^

Ou vous pouvez calculer les MLE (peut-être juste numériquement), par exemple en utilisant optimdans R.

Karl
la source
Il s'avère que les MLE sont vraiment horribles pour ils sont biaisés et extrêmement variables, même avec de grands échantillons. Je n'ai pas étudié les estimateurs MM, en partie parce qu'ils ne sont souvent même pas définis (chaque fois que , ce qui se produit). s 2 / ˉ k > 1p<1/2s2/k¯>1
whuber
@whuber - il n'a pas demandé un bon estimateur. ;)
Karl
1
Pourquoi ne pas simplement proposer = 17 et quoi qu'il arrive alors? :-) Mais vous avez un point: la question ne précise même pas ce qui doit être estimé. Si nous avons seulement besoin d'un estimateur pour , alors il y en a un bon évident disponible. p =une/deuxnpn^p^=1/2np
whuber
@whuber - En effet. Et je ne serais pas surpris de trouver pour le MLE. n^maxki
Karl
C'est vrai: surtout quand est proche de , le maximum des comptes est le MLE. Cela fonctionne assez bien dans de tels cas, comme vous pouvez l'imaginer. Pour un plus petit , même avec beaucoup de données, il est difficile de le distinguer d'une distribution de Poisson, pour laquelle est effectivement infini, conduisant à une énorme incertitude dans l'estimation de . 1 p n np1pnn
whuber
0

Je pense que nous pourrions utiliser la méthode d'estimation des moments pour estimer les paramètres de la distribution binomiale par la moyenne et la variance.


Utilisation de la méthode d'estimation des moments pour estimer les paramètres et . [{\ hat {p}} _ n = \ frac {\ overline {X} -S ^ 2} {\ overline {X}}] [\ hat {m} _n = \ frac {\ overline {X} ^ 2} {\ overline {X} -S ^ 2}] Preuve Les estimateurs des paramètres et par la Méthode des Moments sont les solutions du système d'équations Par conséquent, nos équations pour la méthode des moments sont: [\ overline {X} = mp] [S ^ 2 = mp (1-p).]pmmp

mp=X¯,mp(1p)=S2.

Des représentations arithmétiques simples: [S ^ 2 = mp \ left (1 - p \ right) = \ bar {X} \ left (1 - p \ right)] [S ^ 2 = \ bar {X} - \ bar {X } p] [\ bar {X} p = \ bar {X} -S ^ 2, \ mbox {donc} \ hat {p} = \ frac {\ bar {X} -S ^ 2} {\ bar {X }}.] Ensuite, [\ bar {X} = mp, \ mbox {c'est-à-dire} m \ left (\ frac {\ bar {X} -S ^ 2} {\ bar {X}} \ right)] [\ bar {X} = m \ left (\ frac {\ bar {X} -S ^ 2} {\ bar {X}} \ right), \ mbox {ou} \ hat {m} = \ frac {\ barre {X} ^ 2} {\ bar {X} -S ^ 2}. ]

salma
la source
1
Ce serait bien si vous pouviez développer cela, par exemple, en écrivant la formule de l'estimateur MoM. Sinon, la réponse n'est pas autonome; d'autres (qui ne connaissent pas déjà la réponse) devront rechercher en ligne la «méthode des moments», etc. jusqu'à ce qu'ils trouvent la vraie réponse.
jbowman
existe-t-il un moyen de rendre les calculs ici correctement?
David Refaeli