Si les réseaux de neurones profonds sont considérés comme des approximateurs de fonctions universelles, l'expansion de la base est-elle vraiment nécessaire? Ou serait-ce spécifique au cas? Par exemple, si l'on a trois variables X quantitatives, y aurait-il un avantage à augmenter le nombre de variables en introduisant des interactions, des polynômes, etc.? Cela semble avoir une bonne utilité par exemple dans les RF et SVM, mais je ne suis pas sûr que ce soit une bonne stratégie pour les réseaux neuronaux.
Si c'est peut-être trop large ou trop vague, quelqu'un pourrait-il m'indiquer des informations pertinentes sur l'expansion de la base et l'ingénierie des fonctionnalités dans le contexte des réseaux profonds?
De nombreux modèles d'apprentissage en profondeur apprennent leurs propres caractéristiques à partir des données d'entrée brutes pendant la formation (par exemple, les réseaux neuronaux convolutionnels 2D pour les images). Ainsi, dans de nombreux cas, vous n'avez même pas à vous soucier de transmettre explicitement des variables à votre modèle. Dans certains autres cas, vous avez toujours besoin de fonctionnalités, mais uniquement des fonctionnalités de base (par exemple, des mots en PNL). Ces caractéristiques sont représentées comme des vecteurs dans un espace d'intégration qui capture la similitude (par exemple, ce «président» est proche de «Obama»). L'espace d'intégration est issu d'une pré-formation non supervisée (word2vec, gant) ou est initialisé de manière aléatoire, et les vecteurs sont réglés pendant la formation via une rétropropagation. L'architecture du réseau est responsable de l'apprentissage des combinaisons de fonctionnalités, comme la différence entre «pas mal, assez bien» et «pas bon,
Le paragraphe `` Combinaisons de fonctionnalités '' de la section 3 de Goldberg, Y. (2015). Une introduction aux modèles de réseaux de neurones pour le traitement du langage naturel. Journal of Artificial Intelligence Research, 57, 345-420. explique très bien cela (je recommande vraiment de lire toute la section 3, c'est excellent):
la source