Pour faire ce graphique, j'ai généré des échantillons aléatoires de taille différente à partir d'une distribution normale avec moyenne = 0 et sd = 1. Les intervalles de confiance ont ensuite été calculés en utilisant des seuils alpha allant de .001 à .999 (ligne rouge) avec la fonction t.test (), la probabilité de profil a été calculée en utilisant le code ci-dessous que j'ai trouvé dans les notes de cours mises en ligne (je peux ' t trouver le lien pour le moment Edit: Found it ), cela est indiqué par les lignes bleues. Les lignes vertes indiquent la densité normalisée à l'aide de la fonction R densité () et les données sont affichées par les boîtes à moustaches au bas de chaque graphique. Sur la droite se trouve un tracé de chenille des intervalles de confiance à 95% (rouge) et 1 / 20ème des intervalles de vraisemblance max (bleu).
R Code utilisé pour la vraisemblance du profil:
#mn=mean(dat)
muVals <- seq(low,high, length = 1000)
likVals <- sapply(muVals,
function(mu){
(sum((dat - mu)^2) /
sum((dat - mn)^2)) ^ (-n/2)
}
)
Ma question spécifique est de savoir s'il existe une relation connue entre ces deux types d'intervalles et pourquoi l'intervalle de confiance semble être plus conservateur pour tous les cas, sauf lorsque n = 3. Des commentaires / réponses sur la validité de mes calculs (et une meilleure façon de le faire) et la relation générale entre ces deux types d'intervalles sont également souhaités.
Code R:
samp.size=c(3,4,5,10,20,1000)
cnt2<-1
ints=matrix(nrow=length(samp.size),ncol=4)
layout(matrix(c(1,2,7,3,4,7,5,6,7),nrow=3,ncol=3, byrow=T))
par(mar=c(5.1,4.1,4.1,4.1))
for(j in samp.size){
#set.seed(200)
dat<-rnorm(j,0,1)
vals<-seq(.001,.999, by=.001)
cis<-matrix(nrow=length(vals),ncol=3)
cnt<-1
for(ci in vals){
x<-t.test(dat,conf.level=ci)$conf.int[1:2]
cis[cnt,]<-cbind(ci,x[1],x[2])
cnt<-cnt+1
}
mn=mean(dat)
n=length(dat)
high<-max(c(dat,cis[970,3]), na.rm=T)
low<-min(c(dat,cis[970,2]), na.rm=T)
#high<-max(abs(c(dat,cis[970,2],cis[970,3])), na.rm=T)
#low<--high
muVals <- seq(low,high, length = 1000)
likVals <- sapply(muVals,
function(mu){
(sum((dat - mu)^2) /
sum((dat - mn)^2)) ^ (-n/2)
}
)
plot(muVals, likVals, type = "l", lwd=3, col="Blue", xlim=c(low,high),
ylim=c(-.1,1), ylab="Likelihood/Alpha", xlab="Values",
main=c(paste("n=",n),
"True Mean=0 True sd=1",
paste("Sample Mean=", round(mn,2), "Sample sd=", round(sd(dat),2)))
)
axis(side=4,at=seq(0,1,length=6),
labels=round(seq(0,max(density(dat)$y),length=6),2))
mtext(4, text="Density", line=2.2,cex=.8)
lines(density(dat)$x,density(dat)$y/max(density(dat)$y), lwd=2, col="Green")
lines(range(muVals[likVals>1/20]), c(1/20,1/20), col="Blue", lwd=4)
lines(cis[,2],1-cis[,1], lwd=3, col="Red")
lines(cis[,3],1-cis[,1], lwd=3, col="Red")
lines(cis[which(round(cis[,1],3)==.95),2:3],rep(.05,2),
lty=3, lwd=4, col="Red")
abline(v=mn, lty=2, lwd=2)
#abline(h=.05, lty=3, lwd=4, col="Red")
abline(h=0, lty=1, lwd=3)
abline(v=0, lty=3, lwd=1)
boxplot(dat,at=-.1,add=T, horizontal=T, boxwex=.1, col="Green")
stripchart(dat,at=-.1,add=T, pch=16, cex=1.1)
legend("topleft", legend=c("Likelihood"," Confidence Interval", "Sample Density"),
col=c("Blue","Red", "Green"), lwd=3,bty="n")
ints[cnt2,]<-cbind(range(muVals[likVals>1/20])[1],range(muVals[likVals>1/20])[2],
cis[which(round(cis[,1],3)==.95),2],cis[which(round(cis[,1],3)==.95),3])
cnt2<-cnt2+1
}
par(mar=c(5.1,4.1,4.1,2.1))
plot(0,0, type="n", ylim=c(1,nrow(ints)+.5), xlim=c(min(ints),max(ints)),
yaxt="n", ylab="Sample Size", xlab="Values")
for(i in 1:nrow(ints)){
segments(ints[i,1],i+.2,ints[i,2],i+.2, lwd=3, col="Blue")
segments(ints[i,3],i+.3,ints[i,4],i+.3, lwd=3, col="Red")
}
axis(side=2, at=seq(1.25,nrow(ints)+.25,by=1), samp.size)
mn
c'est une faute de frappemu
, et nonmean(dat)
. Comme je vous l'ai dit dans les commentaires de votre autre question , cela devrait être clair à partir de la page 23 des définitions.Réponses:
Je ne donnerai pas une réponse complète (j'ai du mal à comprendre ce que vous faites exactement), mais j'essaierai de clarifier comment la probabilité de profil est construite. Je pourrai terminer ma réponse plus tard.
La probabilité totale pour un échantillon normal de taille est L ( μ , σ 2 ) = ( σ 2 ) - n / 2 exp ( - Σ i ( x i - μ ) 2 / 2 σ 2 ) .n
Lien avec la probabilité Je vais essayer de mettre en évidence le lien avec la probabilité avec le graphique suivant.
Définissez d'abord la probabilité:
Faites ensuite un tracé de contour:
Les valeurs de la vraisemblance du profil sont les valeurs prises par la vraisemblance le long de la parabole rouge.
Vous pouvez utiliser la vraisemblance de profil comme une vraisemblance classique univariée (cf. la réponse de @ Prokofiev). Par exemple, le MLEμ^
Vous pouvez également utiliser la probabilité de profil pour créer des tests de score, par exemple.
la source
mn
c'était une faute de frappe, maintenant je pense que le code R est tout faux. Je vérifierai demain - il est tard si je vis.Ce sont des résultats classiques et je vais donc simplement fournir quelques références à ce sujet:
http://www.jstor.org/stable/2347496
http://www.stata-journal.com/sjpdf.html?articlenum=st0132
http://www.unc.edu/courses/2010fall/ecol/563/001/docs/lectures/lecture11.htm
http://en.wikipedia.org/wiki/Likelihood-ratio_test
http://en.wikipedia.org/wiki/Likelihood_function#Profile_likelihood
Le code R suivant montre que, même pour de petits échantillons, les intervalles obtenus avec les deux approches sont similaires (je réutilise l'exemple d'Elvis):
Notez que vous devez utiliser la probabilité de profil normalisée.
Si nous utilisons un échantillon plus grand, les intervalles de confiance sont encore plus proches:
UN POINT IMPORTANT:
Notez que pour des échantillons spécifiques, différents types d'intervalles de confiance peuvent différer en termes de longueur ou d'emplacement, ce qui compte vraiment, c'est leur couverture. À long terme, ils devraient tous offrir la même couverture, indépendamment de leur différence pour des échantillons spécifiques.
la source
Le quadratique est important car il définit une distribution normale à l'échelle logarithmique. Plus elle est quadratique, meilleure est l'approximation et les IC résultants. Votre choix de 1 / 20e de coupure pour les intervalles de vraisemblance équivaut à plus d'un IC à 95% dans la limite asymptotique, c'est pourquoi les intervalles bleus sont généralement plus longs que les rouges.
Maintenant, il y a un autre problème avec la probabilité de profil qui nécessite une certaine attention. Si vous avez de nombreuses variables sur lesquelles vous profilez, alors si le nombre de points de données par dimension est faible, la probabilité de profil peut être très biaisée et optimiste. Les probabilités de profil marginales, conditionnelles et modifiées sont ensuite utilisées pour réduire ce biais.
Donc, la réponse à votre question est OUI ... le lien est la normalité asymptotique de la plupart des estimateurs du maximum de vraisemblance, comme en témoigne la distribution chi carré du rapport de vraisemblance.
la source