Utilisation de l'estimation de la densité du noyau dans Naive Bayes Classifier?

9

Cette question fait suite à ma précédente question ici et est également liée, dans l' intention, à cette question .

Sur cette page wiki, les valeurs de densité de probabilité d'une distribution normale supposée pour l'ensemble d'apprentissage sont utilisées pour calculer des valeurs de probabilité bayésiennes postérieures plutôt que réelles. Cependant, si un ensemble d'apprentissage n'est pas normalement distribué, serait-il tout aussi valable d'utiliser une valeur de densité tirée de l' estimation de la densité du noyau de l'ensemble d'apprentissage pour calculer un postérieur bayésien?

Dans son application prévue, cette estimation de la densité du noyau serait tirée d'un ensemble de données empiriques théoriquement idéal généré par les techniques de MC.

babelproofreader
la source

Réponses:

5

J'ai lu à la fois la première question liée précédente, en particulier la réponse de whuber et les commentaires à ce sujet.

La réponse est oui, vous pouvez le faire, c'est-à-dire en utilisant la densité d'un kde d'une variable numérique comme probabilité conditionnelle ( dans le théorème de bayes. P(X=x|C=c)P(C=c|X=x)=P(C=c)P(X=x|C=c)/P(X=x)

En supposant que d (hauteur) est égal dans toutes les classes, d (hauteur) est normalisé lorsque le théorème est appliqué, c'est-à-dire lorsque est divisé par .P(X=x|C=c)P(X=x)

Cet article pourrait vous intéresser: estimer les distributions continues dans les classificateurs bayésiens

steffen
la source