Dans ce code de didacticiel du site Web TensorFlow,
quelqu'un pourrait-il aider à expliquer ce que cela
global_step
signifie?J'ai trouvé sur le site Web de Tensorflow écrit que l'étape globale est utilisée pour compter les étapes de formation , mais je ne comprends pas tout à fait ce que cela signifie exactement.
Aussi, que signifie le chiffre 0 lors de la configuration
global_step
?
def training(loss,learning_rate):
tf.summary.scalar('loss',loss)
optimizer = tf.train.GradientDescentOptimizer(learning_rate)
# Why 0 as the first parameter of the global_step tf.Variable?
global_step = tf.Variable(0, name='global_step',trainable=False)
train_op = optimizer.minimize(loss, global_step=global_step)
return train_op
Selon la documentation Tensorflow global_step: incrémenter de un après la mise à jour des variables . Cela signifie-t-il qu'une mise à jour global_step
devient 1?
la source
tf.train.global_step()
l'global_step_tensor
est à 10. Est -ce que cela veut dire 10 lots sont déjà vus par le graphique?vous montrer un échantillon vivant ci-dessous:
code:
impression correspondante
la source
Le
global_step
Variable
contient le nombre total d'étapes pendant la formation sur les tâches (chaque index d'étape ne se produira que sur une seule tâche).Une chronologie créée par
global_step
nous aide à comprendre où nous en sommes dans le grand schéma, à partir de chacune des tâches séparément. Par exemple, la perte et la précision peuvent êtreglobal_step
comparées sur Tensorboard.la source
Il existe des réseaux, par exemple des GAN, qui peuvent nécessiter deux étapes différentes (ou plus). L'entraînement d'un GAN avec la spécification WGAN nécessite que les étapes sur le discriminateur (ou critique) D soient plus que celles effectuées sur le générateur G. Dans ce cas, il est utile de déclarer différentes variables global_steps.
Exemple: (
G_loss
etD_loss
sont la perte du générateur et du discriminateur)la source