Il me semble que les experts en apprentissage automatique / exploration de données connaissent bien P et NP, mais parlent rarement de certaines des classes de complexité les plus subtiles (par exemple NC, BPP ou IP) et de leurs implications pour une analyse efficace des données. Y a-t-il une enquête sur le travail qui le fait?
cc.complexity-theory
reference-request
machine-learning
Mike Izbicki
la source
la source
Réponses:
Il existe une différence inhérente ou une dissimilarité des approches entre les deux domaines de l'apprentissage automatique appliqué et de la théorie TCS / complexité.
Voici un récent atelier sur le sujet au Center for Computational Intractability, Princeton avec beaucoup de vidéos.
Dans le TCS, un domaine d'étude principal de l '«apprentissage», parfois aussi appelé «apprentissage machine», est parfois appelé théorie PAC, ce qui signifie probablement approximativement correct. son origine au début des années 80 est antérieure à la recherche beaucoup plus moderne sur «l'apprentissage automatique». wikipedia l'appelle partie de la théorie de l'apprentissage computationnel sur le terrain . Le PAC concerne souvent les résultats de l'apprentissage des formules booléennes à partir d'échantillons statistiques des distributions, etc. et la précision réalisable de l'apprentissage à l'aide de divers algorithmes ou d'échantillons limités. Ceci est étudié de manière théorique rigoureuse avec des liens avec les classes de complexité. Mais ce n'est pas tellement une page d'étude appliquée et de wikipédias sur l'apprentissage automatique qui ne la répertorie même pas.
La complexité computationnelle de la thèse de doctorat de Machine Learning par Kearns
Xing diapositives sur l'apprentissage automatique (PAC)
la source