Supposons que X = ~ , où .
Comment calcule-t-on l'espérance conditionnelle de , où et sont les statistiques de commande les plus petites et les plus importantes respectivement?
Ma première pensée serait que, puisque les statistiques de commande limitent la plage, il est simplement , mais je ne sais pas si c'est correct!
mathematical-statistics
expected-value
uniform
conditional-expectation
order-statistics
N. Quizitive
la source
la source
Réponses:
Considérons le cas d'un échantillon iidX1,X2,…,Xn d'un uniforme(0,1) Distribution. Mise à l'échelle de ces variables parθ et les traduire par θ leur confère un uniforme(θ,2θ) Distribution. Tout ce qui concerne ce problème évolue de la même manière: les statistiques de commande et les attentes conditionnelles. Ainsi, la réponse obtenue dans ce cas particulier sera généralement valable.
Laisser1<k<n. En émulant le raisonnement sur https://stats.stackexchange.com/a/225990/919 (ou ailleurs), constatez que la distribution conjointe de(X(1),X(k),X(n)) a une fonction de densité
Fixation(x,z) et voir cela en fonction de y, c'est reconnaissable comme une bêta(k−1,n−k) distribution qui a été mise à l'échelle et traduite dans l'intervalle [x,z]. Ainsi, le facteur d'échelle doit être z−x et la traduction prend 0 à x.
Depuis l' attente d'une bêta(k−1,n−k) la distribution est(k−1)/(n−1), nous constatons que l'attente conditionnelle de X(k) must be the scaled, translated expectation; namely,
The casesk=1 and k=n are trivial: their conditional expectations are, respectively, X(1) and X(k).
Let's find the expectation of the sum of all order statistics:
The algebra comes down to obtaining the sum∑k=2n−1(k−1)=(n−1)(n−2)/2.
Thus
Enfin, parce que leXi sont distribués à l'identique, ils ont tous la même attente, d'où
avec la solution unique
Il convient de noter que ce résultat n'est pas la seule conséquence de la symétrie de la distribution uniforme: il est particulier à la famille uniforme des distributions. Pour une certaine intuition, considérez les données tirées d'une version bêta(a,a) distribution avec a<1. Les probabilités de cette distribution sont concentrées près de 0 et 1 (sa densité a une forme en U ou "baignoire"). QuandX(n)<1/2, we can be sure most of the data are piled up close to X(1) and therefore will tend to have expectations less than the midpoint (X(1)+X(n))/2; and when X(1)>1/2, the opposite happens and most of the data are likely piled up close to X(n).
la source
The following is not a proof but a verification of the desired result once you know that(X(1),X(n)) is a complete statistic for θ :
Joint pdf ofX1,X2,…,Xn is
SoT=(X(1),X(n)) is a sufficient statistic for θ . It can be shown that T is also a complete statistic by proceeding along these lines.
Then by Lehmann-Scheffe theorem,E[X1∣T] is the UMVUE of E(X1)=3θ2 .
Now,1θ(Xi−θ)∼i.i.dU(0,1) , so that 1θ(X(n)−θ)∼Beta(n,1) and 1θ(X(1)−θ)∼Beta(1,n) .
Therefore,E(X(n))=nθn+1+θ=(2n+1)θn+1 and E(X(1))=θn+1+θ=(n+2)θn+1 .
Hence,
This proves that12(X(1)+X(n)) is the UMVUE of 3θ2 by Lehmann-Scheffe.
Since UMVUE is unique whenever it exists, it verifies the claim thatE[X1∣T]=12(X(1)+X(n)) .
la source