Questions marquées «neural-network»

Les réseaux de neurones artificiels (ANN) sont composés de «neurones» - des constructions de programmation qui imitent les propriétés des neurones biologiques. Un ensemble de connexions pondérées entre les neurones permet à l'information de se propager à travers le réseau pour résoudre des problèmes d'intelligence artificielle sans que le concepteur de réseau ait eu un modèle de système réel.

188
Que sont les couches déconvolutionnelles?

J'ai récemment lu des réseaux entièrement convolutionnels pour la segmentation sémantique par Jonathan Long, Evan Shelhamer et Trevor Darrell. Je ne comprends pas ce que font les "couches déconvolutionnelles" / comment elles fonctionnent. La partie pertinente est 3.3. L'échantillonnage est une...

95
Quand utiliser GRU sur LSTM?

La principale différence entre une GRU et un LSTM réside dans le fait qu’une GRU a deux portes (portes de réinitialisation et de mise à jour ) alors qu’un LSTM a trois portes (à savoir les portes d’ entrée , de sortie et d’ oubli ). Pourquoi utilisons-nous GRU alors que nous avons clairement plus...

62
Backprop à travers les couches Max-Pooling?

C'est une petite question conceptuelle qui me hante depuis un moment: comment pouvons-nous propager en arrière à travers une couche de regroupement maximal dans un réseau de neurones? Je suis tombé sur des couches de max-pooling en parcourant ce tutoriel pour la bibliothèque nn de Torch 7. La...

53
RNN vs CNN à un niveau élevé

J'ai pensé aux réseaux de neurones récurrents (RNN) et leurs variétés et aux réseaux de neurones convolutionnels (CNN) et leurs variétés. Ces deux points seraient-ils justes de dire: Utilisez les CNN pour décomposer un composant (tel qu'une image) en sous-composants (tel qu'un objet dans une image,...

42
Quelle est la différence entre LeakyReLU et PReLU?

Je pensais que les deux, PReLU et Leaky ReLU sont f(x)=max(x,αx) with α∈(0,1)f(x)=max(x,αx) with α∈(0,1)f(x) = \max(x, \alpha x) \qquad \text{ with } \alpha \in (0, 1) Keras, cependant, a les deux fonctions dans la documentation . Leaky ReLU Source de LeakyReLU : return K.relu(inputs,...