Meilleure bibliothèque Julia pour les réseaux de neurones

12

J'utilise cette bibliothèque pour la construction et l'analyse de réseaux neuronaux de base.

Cependant, il ne prend pas en charge la construction de réseaux de neurones multicouches, etc.

Donc, j'aimerais connaître de belles bibliothèques pour faire des réseaux neuronaux avancés et Deep Learning dans Julia.

Dawny33
la source
1
@itdxer Merci pour le lien. Pouvez-vous mettre cela comme réponse en développant à ce sujet?
Dawny33

Réponses:

7

Mocha.jl - Mocha est un framework Deep Learning pour Julia, inspiré du framework C ++ Caffe.

Projet avec une bonne documentation et des exemples. Peut être exécuté sur le processeur et le backend GPU.

Bartłomiej Twardowski
la source
1
Je pense qu'ils ont cessé de développer Mocha et MXNet est la voie à suivre. Voir le commentaire de malmaud ici: github.com/pluskid/Mocha.jl/issues/157
niczky12
J'ai utilisé Mocha pendant un certain temps, il y a des problèmes et il manque une communauté, je suis d'accord que MXNet est le développement actif. Il y a aussi un wrapper Julia pour Tensorflow: github.com/malmaud/TensorFlow.jl (divulgateur: je n'ai utilisé ni MXNet ni le TF Julia Wrapper)
davidparks21
9

MXNet Julia Package - apprentissage en profondeur flexible et efficace dans Julia

https://github.com/dmlc/MXNet.jl

Avantages

  • Vite
  • Évolue jusqu'à plusieurs GPU et paramètres distribués avec parallélisme automatique.
  • Léger, efficace en mémoire et portable pour les appareils intelligents.
  • Différenciation automatique

Les inconvénients

itdxer
la source
2

Juste pour ajouter une réponse plus récente (2019): Flux .

Flux is an elegant approach to machine learning. It's a 100% pure-Julia stack,
and provides lightweight abstractions on top of Julia's native GPU and
AD support. Flux makes the easy things easy while remaining fully hackable.

Par exemple:

model = Chain(
  Dense(768, 128, σ),
  LSTM(128, 256),
  LSTM(256, 128),
  Dense(128, 10),
  softmax)

loss(x, y) = crossentropy(model(x), y)

Flux.train!(loss, data, ADAM(...))
Wayne
la source