La perte saute brusquement lorsque je diminue le taux d'apprentissage avec Adam optimizer dans PyTorch
Je forme un auto-encoderréseau avec Adamoptimiseur (avec amsgrad=True) et MSE losspour la tâche de séparation de source audio à canal unique. Chaque fois que je diminue le taux d'apprentissage d'un facteur, la perte de réseau saute brusquement puis diminue jusqu'à la prochaine décroissance du taux...