Questions marquées «gradient-descent»

Gradient Descent est un algorithme pour trouver le minimum d'une fonction. Il calcule de manière itérative les dérivées partielles (gradients) de la fonction et descend par étapes proportionnelles à ces dérivées partielles. Une application majeure de Gradient Descent consiste à adapter un modèle paramétré à un ensemble de données: la fonction à minimiser est une fonction d'erreur pour le modèle.

12
Combien de cellules LSTM dois-je utiliser?

Existe-t-il des règles générales (ou des règles réelles) concernant la quantité minimale, maximale et "raisonnable" de cellules LSTM que je devrais utiliser? Plus précisément, je me rapporte à BasicLSTMCell de TensorFlow et à la num_unitspropriété. Veuillez supposer que j'ai un problème de...