Supposons que vous ayez un ensemble de données d'une distribution continue avec une densité supportée sur qui n'est pas connue, mais est assez grand donc une densité de noyau (par exemple) l'estimation, , est assez précise. Pour une application particulière, je dois transformer les données observées en un nombre fini de catégories pour produire un nouvel ensemble de données avec une fonction de masse implicite .
Un exemple simple serait lorsque et lorsque . Dans ce cas, la fonction de masse induite serait
Les deux "paramètres de réglage" sont ici le nombre de groupes, , et le vecteur de longueur de seuils . Notons la fonction de masse induite par .
Je voudrais une procédure qui réponde, par exemple, "Quel est le meilleur choix de pour que l'augmentation du nombre de groupes à (et le choix de l'optimal là-bas) produise une amélioration négligeable?" . J'ai l'impression que peut-être une statistique de test peut être créée (peut-être avec la différence de divergence KL ou quelque chose de similaire) dont la distribution peut être dérivée. Des idées ou de la littérature pertinente?
Edit: J'ai des mesures temporelles régulièrement espacées d'une variable continue et j'utilise une chaîne de Markov inhomogène pour modéliser la dépendance temporelle. Franchement, les chaînes de Markov d'état discrètes sont beaucoup plus faciles à manipuler et c'est ma motivation. Les données observées sont des pourcentages. J'utilise actuellement une discrétisation ad hoc qui me semble très bonne mais je pense que c'est un problème intéressant où une solution formelle (et générale) est possible.
Edit 2: En fait, minimiser la divergence KL équivaudrait à ne pas discrétiser du tout les données, donc cette idée est totalement absente. J'ai édité le corps en conséquence.
Réponses:
Je vais partager la solution que j'ai trouvée à ce problème il y a quelque temps - ce n'est pas un test statistique formel mais peut fournir une heuristique utile.
Considérons le cas général où vous avez des observations continues ; sans perte de généralité, supposons que l'espace d'échantillonnage de chaque observation soit l'intervalle . Un schéma de catégorisation dépendra d'un certain nombre de catégories, , et des seuils d'emplacements qui divisent les catégories, .Y1,Y2,...,Yn [0,1] m 0<λ1<λ2<⋯<λm−1<1
Indique la version catégorisée de par , où . En considérant la discrétisation des données comme un partitionnement des données originales en classes, la variance de peut être considérée comme une combinaison de variation à l'intérieur et entre les groupes, pour une valeur fixe de :Yi Zi(m,λ) λ={λ1,λ2,⋯,λm−1} Yi m,λ
Une catégorisation donnée réussit à produire des groupes homogènes s'il y a relativement peu de variance intra-groupe, quantifiée par . , nous recherchons un groupement parcimonieux qui confère la majeure partie de la variation de au terme . en particulier, nous voulons choisir sorte qu'en ajoutant des niveaux supplémentaires, nous n'ajoutons pas de manière significative à l'homogénéité au sein du groupe. Dans cet esprit, nous définissons le optimal pour qu'une valeur fixe de soitE(var(Yi|Zi(m,λ)) Yi var(E(Yi|Zi(m,λ)) m λ m
Un diagnostic approximatif pour déterminer quel choix de est adéquat consiste à examiner la baisse de en fonction de - cette trajectoire est monotone non croissante et après avoir fortement diminué, vous pouvez voir que vous gagnez relativement moins de précision en incluant plus de catégories. Cette heuristique est similaire dans son esprit à la façon dont un « tracé d'éboulis » est parfois utilisé pour voir combien de composants principaux expliquent «assez» de la variation.m E(var(Yi|Zi(m,λ⋆m))) m
la source