Déterminer une discrétisation optimale des données d'une distribution continue

11

Supposons que vous ayez un ensemble de données d'une distribution continue avec une densité supportée sur qui n'est pas connue, mais est assez grand donc une densité de noyau (par exemple) l'estimation, , est assez précise. Pour une application particulière, je dois transformer les données observées en un nombre fini de catégories pour produire un nouvel ensemble de données avec une fonction de masse implicite .Y1,...,Ynp(y)[0,1]np^(y)Z1,...,Zng(z)

Un exemple simple serait lorsque et lorsque . Dans ce cas, la fonction de masse induite seraitZi=0Yi1/2Zi=1Yi>1/2

g^(0)=01/2p^(y)dy,   g^(1)=1/21p^(y)dy

Les deux "paramètres de réglage" sont ici le nombre de groupes, , et le vecteur de longueur de seuils . Notons la fonction de masse induite par .m(m1)λg^m,λ(y)

Je voudrais une procédure qui réponde, par exemple, "Quel est le meilleur choix de pour que l'augmentation du nombre de groupes à (et le choix de l'optimal là-bas) produise une amélioration négligeable?" . J'ai l'impression que peut-être une statistique de test peut être créée (peut-être avec la différence de divergence KL ou quelque chose de similaire) dont la distribution peut être dérivée. Des idées ou de la littérature pertinente?m,λm+1λ

Edit: J'ai des mesures temporelles régulièrement espacées d'une variable continue et j'utilise une chaîne de Markov inhomogène pour modéliser la dépendance temporelle. Franchement, les chaînes de Markov d'état discrètes sont beaucoup plus faciles à manipuler et c'est ma motivation. Les données observées sont des pourcentages. J'utilise actuellement une discrétisation ad hoc qui me semble très bonne mais je pense que c'est un problème intéressant où une solution formelle (et générale) est possible.

Edit 2: En fait, minimiser la divergence KL équivaudrait à ne pas discrétiser du tout les données, donc cette idée est totalement absente. J'ai édité le corps en conséquence.

Macro
la source
1
Dans la plupart des cas, les besoins de l'application de suivi détermineront la qualité de toute solution. Pour nous donner quelques conseils, vous pourriez peut-être en dire plus à ce sujet.
whuber
Tout d'abord, définissez ce que vous entendez par négligeable . D'un côté, cela semble lié à un problème de distorsion du taux . Le texte Cover & Thomas fournit une belle introduction lisible à ces sujets.
Cardinal
Je pense à la discrétisation à niveaux comme un modèle à paramètres (pour les seuils). Dans ce cadre, quand je dis négligeable, je veux dire "ne vaut pas la peine d'ajouter le paramètre supplémentaire" dans un sens statistique. kk1
Macro
Je ne sais pas si la discrétisation est en fait une bonne décision. Vous ne pourrez pas généraliser au-delà des frontières que les valeurs discrètes créent sur l'espace d'origine de vos observations.
bayerj

Réponses:

3

Je vais partager la solution que j'ai trouvée à ce problème il y a quelque temps - ce n'est pas un test statistique formel mais peut fournir une heuristique utile.


Considérons le cas général où vous avez des observations continues ; sans perte de généralité, supposons que l'espace d'échantillonnage de chaque observation soit l'intervalle . Un schéma de catégorisation dépendra d'un certain nombre de catégories, , et des seuils d'emplacements qui divisent les catégories, .Y1,Y2,...,Yn[0,1]m0<λ1<λ2<<λm1<1

Indique la version catégorisée de par , où . En considérant la discrétisation des données comme un partitionnement des données originales en classes, la variance de peut être considérée comme une combinaison de variation à l'intérieur et entre les groupes, pour une valeur fixe de :YiZi(m,λ)λ={λ1,λ2,,λm1}Yim,λ

var(Yi)=var(E(Yi|Zi(m,λ)))+E(var(Yi|Zi(m,λ))).

Une catégorisation donnée réussit à produire des groupes homogènes s'il y a relativement peu de variance intra-groupe, quantifiée par . , nous recherchons un groupement parcimonieux qui confère la majeure partie de la variation de au terme . en particulier, nous voulons choisir sorte qu'en ajoutant des niveaux supplémentaires, nous n'ajoutons pas de manière significative à l'homogénéité au sein du groupe. Dans cet esprit, nous définissons le optimal pour qu'une valeur fixe de soitE(var(Yi|Zi(m,λ))Yivar(E(Yi|Zi(m,λ))mλm

λm=argminλE(var(Yi|Zi(m,λ)))

Un diagnostic approximatif pour déterminer quel choix de est adéquat consiste à examiner la baisse de en fonction de - cette trajectoire est monotone non croissante et après avoir fortement diminué, vous pouvez voir que vous gagnez relativement moins de précision en incluant plus de catégories. Cette heuristique est similaire dans son esprit à la façon dont un « tracé d'éboulis » est parfois utilisé pour voir combien de composants principaux expliquent «assez» de la variation.mE(var(Yi|Zi(m,λm)))m

Macro
la source