Je passe par le blog suivant sur le réseau de neurones LSTM: http://machinelearningmastery.com/understanding-stateful-lstm-recurrent-neural-networks-python-keras/
L'auteur remodèle le vecteur d'entrée X en [échantillons, pas de temps, caractéristiques] pour différentes configurations de LSTM.
L'auteur écrit
En effet, les séquences de lettres sont des pas de temps d'une caractéristique plutôt qu'un pas de temps de caractéristiques distinctes. Nous avons donné plus de contexte au réseau, mais pas plus de séquence que prévu
Qu'est-ce que ça veut dire?
la source
t-n,..., t-2, t-1
pour prédiret
.C'est un peu trop tard mais juste au cas où;
Un échantillon peut faire référence à des exemples de formation individuels. Une variable «batch_size» est donc le nombre d'échantillons que vous avez envoyés au réseau neuronal. Autrement dit, combien d'exemples différents vous alimentez à la fois sur le réseau neuronal.
TimeSteps sont des périodes de temps. C'est la durée de chacun de vos échantillons. Par exemple, un échantillon peut contenir 128 pas de temps, chaque pas de temps pouvant être un 30ème de seconde pour le traitement du signal. Dans le traitement du langage naturel (NLP), un pas de temps peut être associé à un caractère, un mot ou une phrase, selon la configuration.
Les fonctionnalités sont simplement le nombre de dimensions que nous alimentons à chaque pas de temps. Par exemple, dans la PNL, un mot peut être représenté par 300 entités à l'aide de word2vec. Dans le cas du traitement du signal, supposons que votre signal soit en 3D. Autrement dit, vous avez un signal X, Y et Z, comme les mesures d'un accéléromètre sur chaque axe. Cela signifie que vous auriez 3 fonctionnalités envoyées à chaque pas de temps pour chaque échantillon.
Par Guillaume
la source
Ma réponse avec un exemple: ["bonjour c'est xyz", "comment allez-vous", "grand homme ..."]
dans ce cas, "[échantillons, pas de temps, caractéristiques]" signifie:
la source