Un réseau de neurones peut-il calculer

12

Dans l'esprit de la célèbre blague Tensorflow Fizz Buzz et problème XOr, j'ai commencé à penser, s'il était possible de concevoir un réseau de neurones qui implémente la fonction y=x2 ?

Étant donné une certaine représentation d'un nombre (par exemple, comme un vecteur sous forme binaire, de sorte que ce nombre 5est représenté par [1,0,1,0,0,0,0,...]), le réseau neuronal devrait apprendre à retourner son carré - 25 dans ce cas.

Si je pouvais implémenter y=x2 , je pourrais probablement implémenter y=x3 et généralement n'importe quel polynôme de x, puis avec la série Taylor je pourrais approximer y=sin(x) , ce qui résoudrait le problème Fizz Buzz - un réseau de neurones qui peut trouver le reste de la division.

De toute évidence, seule la partie linéaire des NN ne pourra pas effectuer cette tâche, donc si nous pouvions faire la multiplication, cela se produirait grâce à la fonction d'activation.

Pouvez-vous suggérer des idées ou lire sur le sujet?

Boris Burkov
la source

Réponses:

10

Les réseaux de neurones sont également appelés l'approximation de la fonction universelle qui est basée sur le théorème d'approximation de la fonction universelle . Il déclare que:

Dans la théorie mathématique des réseaux de neurones artificiels, le théorème d'approximation universelle stipule qu'un réseau à action directe avec une seule couche cachée contenant un nombre fini de neurones peut approximer les fonctions continues sur des sous-ensembles compacts de Rn, sous des hypothèses douces sur la fonction d'activation

Cela signifie qu'un ANN avec une fonction d'activation non linéaire pourrait mapper la fonction qui relie l'entrée à la sortie. La fonction y=x2 pourrait être facilement approximée en utilisant la régression ANN.

Vous pouvez trouver une excellente leçon ici avec un exemple de cahier.

De plus, en raison de cette capacité, ANN pourrait cartographier des relations complexes, par exemple entre une image et ses étiquettes.

Shubham Panchal
la source
2
Merci beaucoup, c'est exactement ce que je demandais!
Boris Burkov
4
Bien que cela soit vrai, c'est une très mauvaise idée d'apprendre cela. Je ne vois pas d'où pourrait découler un pouvoir de généralisation. NN brille quand il y a quelque chose à généraliser. Comme CNN pour une vision qui capture les modèles, ou RNN qui peut capturer les tendances.
Jeffrey prend en charge Monica
14

f(x)=x2Rn

RnRnXF(X)=X2RF(X)=X2XR

péché(X)X=0X10000

MachineLearner
la source
3
Belle prise! "ensemble compact".
Esmailian
2
Merci beaucoup, mec! Ouvre les yeux!
Boris Burkov