Il semble que lorsque je jette un coup d'œil ici aux algorithmes d'apprentissage à la mode, des choses comme les réseaux de neurones, les arbres boostés, les machines à vecteurs de support, les forêts aléatoires et les amis sont promus pour les problèmes d'apprentissage supervisé. Les processus de Dirichlet et leurs semblables semblent être mentionnés principalement dans les problèmes d'apprentissage non supervisés, tels que le regroupement de documents ou d'images. Je les vois s'habituer à des problèmes de régression, ou en tant que priors à usage général quand on veut faire des statistiques bayésiennes de manière non paramétrique ou semi-paramétrique (par exemple comme un a priori flexible sur la distribution des effets aléatoires dans certains modèles) mais mon expérience limitée suggère que cela ne vient pas autant de la foule de l'apprentissage automatique que des statisticiens plus traditionnels. J'ai fait une petite recherche sur ce sujet et je '
Ainsi, les processus de Dirichlet et leurs cousins sont-ils les plus efficaces en tant que priors pour les modèles de clustering flexibles? Ne sont-ils pas compétitifs avec le boosting, les SVM et les réseaux de neurones pour les problèmes d'apprentissage supervisé? Sont-ils utiles uniquement dans certaines situations pour ces problèmes? Ou mon impression générale est-elle incorrecte?
Réponses:
Cette question n'attire pas trop l'attention, alors je vais répondre pour mettre à jour ce que j'ai trouvé et (espérons-le) stimuler la discussion. J'ai rencontré un article que j'ai hâte de lire et qui utilise des DPM pour effectuer la classification (Shahbaba et Neal, 2007) qu'ils ont testé sur des données sur les protéines. Essentiellement, il semble qu'ils aient fait quelque chose de similaire à ce que j'ai suggéré dans les commentaires ci-dessus. Il se compare favorablement aux réseaux de neurones et aux machines à vecteurs de support. Cela me soulage un peu, car j'ai consacré beaucoup de temps à ces modèles dans le souci des problèmes d'apprentissage automatique supervisé, il semble donc que je n'ai peut-être pas perdu mon temps.
la source
Jetez un œil au DPpackage du processus de R. Dirichlet qui peut être utilisé au moins comme a priori pour un effet aléatoire et pour construire une distribution d'erreur non paramétrique pour la régression.
la source