Donc, en regardant les réseaux de neurones à fonction de base radiale, j'ai remarqué que les gens ne recommandent que l'utilisation d'une seule couche cachée, alors qu'avec les réseaux de neurones perceptron multicouches, plus de couches sont considérées comme meilleures.
Étant donné que les réseaux RBF peuvent être entraînés avec une version de rétropropagation, y a-t-il des raisons pour lesquelles les réseaux RBF plus profonds ne fonctionneraient pas, ou qu'une couche RBF ne pourrait pas être utilisée comme avant-dernière ou première couche dans un réseau MLP profond? (Je pensais à l'avant-dernière couche pour qu'elle puisse essentiellement être entraînée sur les fonctionnalités apprises par les couches MLP précédentes)
machine-learning
neural-networks
rbf-network
user1646196
la source
la source
Réponses:
Le problème fondamental est que les RBF sont a) trop non linéaires, b) ne font pas de réduction de dimension.
à cause de a) les RBF ont toujours été formés par k-moyennes plutôt que par descente de gradient.
Je dirais que le principal succès dans les NN profonds est les réseaux de convection, où l'un des éléments clés est la réduction de dimension: bien que travaillant avec, disons, 128x128x3 = 50 000 entrées, chaque neurone a un champ récepteur restreint et il y a beaucoup moins de neurones dans chaque couche Dans une couche donnée d'un MLP, chaque neurone représente une caractéristique / dimension) de sorte que vous réduisez constamment la dimensionnalité (en passant d'une couche à l'autre).
Bien que l'on puisse rendre la matrice de covariance RBF adaptative, tout comme la réduction de dimension, cela rend la formation encore plus difficile.
la source