J'ai rencontré quelques moyens de base pour mesurer la complexité des réseaux de neurones:
- Naïf et informel: comptez le nombre de neurones, de neurones cachés, de couches ou de couches cachées
- Dimension VC (Eduardo D. Sontag [1998] "Dimension VC des réseaux de neurones" [ pdf ].)
- Une mesure de la complexité de calcul granulaire et asymptotique par équivalence à T C 0 d .
Existe-t-il d'autres alternatives?
Il est préférable:
- Si la métrique de complexité pouvait être utilisée pour mesurer des réseaux de neurones à partir de différents paradigmes (pour mesurer le backprop, les réseaux neuronaux dynamiques, la corrélation en cascade, etc.) à la même échelle. Par exemple, la dimension VC peut être utilisée pour différents types sur les réseaux (ou même des choses autres que les réseaux de neurones) tandis que le nombre de neurones n'est utile qu'entre des modèles très spécifiques où la fonction d'activation, les signaux (sommes de base vs pointes) et autres les propriétés du réseau sont les mêmes.
- S'il a de belles correspondances avec des mesures standard de la complexité des fonctions apprenables par le réseau
- S'il est facile de calculer la métrique sur des réseaux spécifiques (ce dernier n'est pas un must, cependant.)
Remarques
Cette question est basée sur une question plus générale sur CogSci.SE.
neural-networks
theory
vc-dimension
pac-learning
Artem Kaznatcheev
la source
la source
Réponses:
Vous voudrez peut-être jeter un œil à l'article "(Not) Bounding the True Error de John Langford & Rich Caruana (NIPS, 2001)
Le résumé déclare:
Ils montrent que vous pouvez appliquer des limites de style PAC-Bayes aux réseaux de neurones stochastiques. Cependant, l'analyse ne s'applique qu'aux réseaux neuronaux à action directe à 2 couches avec une fonction de transfert sigmoïde. Dans ce cas, le terme de complexité ne dépend que du nombre de nœuds et de la variance des poids. Ils montrent que pour ce paramètre, la limite prédit efficacement le surentraînement. Malheureusement, cela ne touche pas vraiment vos propriétés "préférées"!
la source
En outre, vous pourriez également être intéressé par le travail sur la dimension fracassante réalisé par le professeur Peter Bartlett. Voici une introduction à l'analyse de la complexité du réseau neuronal, dans un article de l'IEEE de 1998: La complexité de l'échantillon de la classification des modèles avec les réseaux neuronaux: la taille des poids est plus importante que la taille du réseau (Bartlett 1998) [ http: //ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=661502]
la source