Si vous connaissiez le théorème du déjeuner gratuit (Wolpert & Macready), vous ne seriez pas si accroché à un classificateur et demandez pourquoi ce n'est pas le meilleur. Le théorème de la NFL déclare essentiellement que "dans l'univers de toutes les fonctions de coût, il n'y a pas de meilleur classificateur". Deuxièmement, les performances du classificateur "dépendent toujours des données".
Le théorème du vilain petit canard (Watanabe) déclare essentiellement que "dans l'univers de tous les ensembles de fonctionnalités, il n'y a pas de meilleur ensemble de fonctionnalités."
Le théorème de Cover déclare que si , c'est-à-dire que la dimensionnalité des données est plus grande que la taille de l'échantillon, alors un problème de classification binaire est toujours séparable linéairement.p>n
À la lumière de ce qui précède, ainsi que du rasoir d'Occam , il n'y a jamais rien de mieux qu'autre chose, indépendamment des données et de la fonction de coût.
J'ai toujours soutenu que les CNN en eux-mêmes ne sont pas des ensembles de classificateurs pour lesquels la diversité (kappa vs erreur) peut être évaluée.