Calcul analytique de l'erreur du classificateur Bayes

9

Si deux classes et ont une distribution normale avec des paramètres connus ( , comme moyennes et , sont leurs covariances) comment pouvons-nous calculer théoriquement l'erreur du classifieur Bayes pour elles?w1w2M1M2Σ1Σ2

Supposons également que les variables se trouvent dans un espace à N dimensions.

Remarque: Une copie de cette question est également disponible sur https://math.stackexchange.com/q/11891/4051 et est toujours sans réponse. Si l'une de ces questions obtient une réponse, l'autre sera supprimée.

Isaac
la source
1
Cette question est-elle la même que celle de stats.stackexchange.com/q/4942/919 ?
whuber
@whuber Votre réponse suggère que c'est effectivement le cas.
chl
@whuber: Oui. je ne connais pas cette question adaptée à laquelle. J'attends une réponse pour que l'un supprime l'autre. Est-ce contraire aux règles?
Isaac
Il pourrait être plus facile, et sûrement plus propre, de modifier la question d'origine. Cependant, parfois une question est relancée en tant que nouvelle lorsque la version antérieure recueille trop de commentaires qui ne sont plus pertinents par les modifications, c'est donc un appel au jugement. Dans tous les cas, il est utile de placer des références croisées entre des questions étroitement liées pour aider les gens à les connecter facilement.
whuber

Réponses:

25

Il n'y a pas de formulaire fermé, mais vous pouvez le faire numériquement.

À titre d'exemple concret, considérons deux Gaussiens avec les paramètres suivants

μ1=(11),μ2=(11)

Σ1=(21/21/22), Σ2=(1001)

La limite optimale du classificateur de Bayes correspondra au point où deux densités sont égales

Étant donné que votre classificateur choisira la classe la plus probable à chaque point, vous devez intégrer la densité qui n'est pas la plus élevée pour chaque point. Pour le problème ci-dessus, cela correspond aux volumes des régions suivantes

Vous pouvez intégrer deux pièces séparément en utilisant un package d'intégration numérique. Pour le problème ci-dessus, j'utilise le 0.253579code Mathematica suivant

dens1[x_, y_] = PDF[MultinormalDistribution[{-1, -1}, {{2, 1/2}, {1/2, 2}}], {x, y}];
dens2[x_, y_] = PDF[MultinormalDistribution[{1, 1}, {{1, 0}, {0, 1}}], {x, y}];
piece1 = NIntegrate[dens2[x, y] Boole[dens1[x, y] > dens2[x, y]], {x, -Infinity, Infinity}, {y, -Infinity, Infinity}];
piece2 = NIntegrate[dens1[x, y] Boole[dens2[x, y] > dens1[x, y]], {x, -Infinity, Infinity}, {y, -Infinity, Infinity}];
piece1 + piece2
Yaroslav Bulatov
la source
4
Bonne réponse. Pourriez-vous s'il vous plaît fournir des commandes pour reproduire vos belles figures?
Andrej
3
(+1) Ces graphismes sont magnifiques.
COOLSerdash
1

Il semble que vous puissiez vous y prendre de deux manières, selon les hypothèses de modèle que vous êtes heureux de faire.

Approche générative

En supposant un modèle génératif pour les données, vous devez également connaître les probabilités antérieures de chaque classe pour une déclaration analytique de l'erreur de classification. Recherchez l'analyse discriminante pour obtenir la limite de décision optimale sous forme fermée, puis calculez les zones du mauvais côté pour chaque classe pour obtenir les taux d'erreur.

Je suppose que c'est l'approche prévue par votre invocation du classificateur Bayes, qui est défini que lorsque tout ce qui concerne le processus de génération de données est spécifiée. Étant donné que cela est rarement possible, il vaut toujours aussi la peine

Approche de la discrimination

Si vous ne voulez pas ou ne pouvez pas spécifier les probabilités de classe antérieures, vous pouvez profiter du fait que la fonction discriminante peut dans de nombreuses circonstances (en gros, les distributions conditionnelles exponentielles de classe familiale) être modélisée directement par un modèle de régression logistique. Le calcul du taux d'erreur est alors celui du modèle de régression logistique pertinent.

Pour une comparaison des approches et une discussion des taux d'erreur, Jordan 1995 et Jordan 2001 et les références peuvent être d'intérêt.

conjugateprior
la source
0

Dans la classification avec des classes équilibrées, le taux d'erreur de Bayes (BER) est exactement égal à , où est la distance de variation totale entre les distributions conditionnelles + ve et -ve des caractéristiques. Voir le théorème 1 de cet article .(1TV)/2TV

Pour terminer, il n'est pas difficile de trouver de bonnes références calculant la TV entre des distributions gaussiennes multivariées.

dohmatob
la source