Sélection d'entités sur un modèle linéaire généralisé hiérarchique bayésien

8

Je cherche à estimer un GLM hiérarchique mais avec une sélection de caractéristiques pour déterminer quelles covariables sont pertinentes au niveau de la population à inclure.

Supposons que j'ai G groupes avec N observations et Kcovariables possibles C'est-à-dire que j'ai une matrice de conception de covariables , résultats . Les coefficients de ces covariables sont .x(NG)×Ky(NG)×1βK×1

Supposons que ~YBernoulli(p(x,β))

Ce qui suit est un GLM bayésien hiérarchique standard avec un modèle d'échantillonnage logit et des coefficients de groupe normalement distribués.

L(y|x,β1,...βG)g=1Gt=1N(Pr{j=1|pt,βg})yg,t(1Pr{j=1|pt,βg})1yg,t

β1,...βG|μ,ΣiidNd(μ,Σ)

μ|ΣN(μ0,a1Σ)
ΣIW(v0,V01)

Je veux modifier ce modèle (ou trouver un article qui le fait ou un travail qui en discute) de telle sorte qu'il y ait une sélection de fonctionnalités précise (comme dans LASSO) sur la dimensionnalité de β .

(1) Le moyen le plus simple et le plus direct serait de régulariser cela au niveau de la population afin que nous restreignions essentiellement la dimensionnalité de et que tous les aient la même dimension.μβ

(2) Le modèle plus nuancé aurait un rétrécissement au niveau du groupe, où la dimension de dépend de l'unité hiérarchique.β

Je suis intéressé par la résolution de 1 et 2, mais le plus important est 1.

Wolfsatthedoor
la source

Réponses:

1

La façon dont j'aborderais (1) impliquerait un modèle de pointe et de dalle quelque chose comme:

βg,k=zkmg,k

zkBern(p)

mg,kN(μ,Σ)

μ,ΣNIWv0(μ0,V01)

Cette:

  • Conserve la flexibilité sur les de NIW avant .βμ,Σ
  • Modélise la sélection de variables pour tous les groupes à la fois.
  • Facilement extensible en ajoutant un sous-index pour le groupe à et en ayant une bêta commune avant pour chaque emplacement .zg,kk

Bien sûr, je pense que c'est le genre de problème où il existe un certain nombre d'approches valables.

conjectures
la source
2

La sélection des fonctionnalités n'est pas un grand objectif à avoir dans une analyse. À moins que tous les prédicteurs ne soient pas corrélés les uns avec les autres et que la taille de votre échantillon soit immense, les données ne pourront pas vous donner de réponse fiable. La spécification du modèle est plus importante que la sélection du modèle. Les détails sont dans mes notes de cours RMS . Mais le retrait, sans sélection de caractéristiques (par exemple, crête ou estimation de maximum de vraisemblance pénalisée ) peut être une bonne idée. Les modèles hiérarchiques bayésiens sont encore meilleurs car ils permettent une inférence statistique dans le modèle rétréci alors que nous perdons la plupart des outils inférentiels dans le monde fréquentiste après rétrécissement.L2

Frank Harrell
la source