Questions marquées «softmax»

Fonction exponentielle de normalisation qui transforme un vecteur numérique de telle sorte que toutes ses entrées deviennent comprises entre 0 et 1 et totalisent ensemble 1. Elle est souvent utilisée comme couche finale d'un réseau de neurones effectuant une tâche de classification.

14
Caret glmnet vs cv.glmnet

Il semble y avoir beaucoup de confusion dans la comparaison de l'utilisation à l' glmnetintérieur caretpour rechercher un lambda optimal et à utiliser cv.glmnetpour faire la même tâche. De nombreuses questions ont été posées, par exemple: Modèle de classification train.glmnet vs cv.glmnet? Quelle...

11
Débordement Softmax [fermé]

Fermé. Cette question est hors sujet . Il n'accepte pas actuellement de réponses. Voulez-vous améliorer cette question? Mettez à jour la question afin qu'elle soit sur le sujet pour la validation croisée. Fermé il y a 2 ans . En attendant le prochain cours d'Andrew Ng sur Coursera, j'essaie de...

9
Qu'est-ce que le normalisateur de gradient-log?

Dans le wiki, la fonction softmax est définie comme le normalisateur de gradient-log de la distribution de probabilité catégorielle . Une explication partielle du normalisateur de journal se trouve ici , mais que signifie normalisateur de journal de gradient