J'ai un peu de mal à comprendre le concept et la dérivation de la probabilité de données tronquées.
Par exemple, si je veux trouver la fonction de vraisemblance basée sur un échantillon d'une distribution, mais en prenant un échantillon de la distribution, j'observe les valeurs tronquées (où il y a un seuil de , c'est-à-dire tout est enregistré comme ):
où le nombre de valeurs est . Ensuite, la probabilité est supposée être donnée par:
J'apprécierais beaucoup une explication / preuve de la raison pour laquelle il en est ainsi, surtout pourquoi le deuxième facteur est tel qu'il est. Intuitivement et mathématiquement si possible. Merci d'avance.
dataset
likelihood
Delvesy
la source
la source
Réponses:
Ce que vous décrivez nécessite un traitement spécial, ce n'est pas ce que nous entendons habituellement par "variables aléatoires tronquées" - et ce que nous entendons généralement est que la variable aléatoire ne se situe pas en dehors du support tronqué, ce qui signifie qu'il n'y a pas de concentration de masse de probabilité à le point de troncature. Pour contraster les cas:
A) Signification "habituelle" d'un rv tronqué[a,b] −∞<a<b<∞ f F
Pour toute distribution que nous tronquons son support, nous devons "corriger" sa densité afin qu'elle s'intègre à l'unité lorsqu'elle est intégrée sur le support tronqué. Si la variable est prise en charge dans , , alors (pdf , cdf )
Puisque le LHS est l'intégrale sur le support tronqué, nous voyons que la densité du rv tronqué, appelons-le , doit êtreX~
B) Probabilité de concentration massiqueM M
Ici, c'est ce que vous décrivez dans la question, les choses sont différentes. Le point concentre toute la masse de probabilité qui correspond à l'appui de la variable supérieure à . Cela crée un point de discontinuité dans la densité et lui donne deux branches
Informellement, le second est "comme un RV discret" où chaque point de la fonction de masse de probabilité représente les probabilités réelles. Supposons maintenant que nous ayons telles variables aléatoires iid, et nous voulons former leur fonction conjointe densité / vraisemblance. Avant de regarder l'échantillon réel, quelle branche choisir? Nous ne pouvons pas prendre cette décision, nous devons donc en quelque sorte inclure les deux. Pour ce faire, nous devons utiliser des fonctions d'indicateur: notons la fonction d'indicateur qui prend la valeur lorsque et sinon. La densité d'un tel VR peut s'écriren I{x∗≥M}≡I≥M(x∗) 1 x∗≥M 0
Maintenant, ce qui précède vu comme une fonction de vraisemblance, l'échantillon réel constitué de réalisations de ces variables aléatoires entre en jeu. Et dans cet échantillon, certaines réalisations observées seront inférieures au seuil , certaines égales. Notons le nombre de réalisations dans l'échantillon égal à , et tout le reste, . Il est immédiat que pour les réalisations, la partie correspondante de la densité qui restera vraisemblablement sera la partie , tandis que pour les réalisations, l'autre partie. alorsn M m M v m+v=n m P(X∗i≥M) v
la source
La théorie de la vraisemblance est un cadre assez général. La plupart des manuels donnent des résultats pour les cas séparés de r.vs continus et pour ceux de r.vs. discrets Cependant, des cas mixtes se produisent dans la pratique, comme c'est le cas ici.
Pour un RV discret , la probabilité d'une observation est définie comme la probabilité d'obtenir la valeur observée , disons . Pour un rv continu, la probabilité est généralement définie comme la densité en , disons . Cependant, dans la pratique, on sait seulement que - en raison d'une précision de mesure limitée, et doit être utilisé comme vraisemblance. En prenant , avecA a a pA(a) L x fX(x) xL<X<xU Pr{xL<X<xU} xL:=x−dx/2 xU:=x+dx/2 dx petit, on obtient jusqu'à un multiplicatif qui n'a pas d'importance. La définition habituelle peut donc être considérée comme supposant implicitement une précision infinie sur l'observation.fX(x) dx
Pour un couple de r.vs et avec un type mixte mixte discret / continu, la probabilité sera la distribution conjointe, qui est généralement exprimée en utilisant des distributions conditionnelles, par exemple Ainsi, pour un intervalle de petite longueur , est fois la densité de conditionnelle à , disonsA X
Revenons maintenant à votre exemple et considérons une seule observation. Alors est un RV de Bernoulli avec une probabilité de succès . Selon ou non, que ce soit vous observez que ou vous observez les deux et la valeur de . Dans les deux cas, vous utilisez la formule ci-dessus, mais est pris soit comme soit comme un intervalle de petite longueur contenant . En effet, cela donneA=1{X>M} Pr{X>M} X>M A=1 A=0 x X (xL,xU) (M,∞) dx x
la source