Essayer de comprendre la relation entre l'entropie croisée et la perplexité. En général pour un modèle M , Perplexité (M) = 2 ^ entropie (M) . Cette relation est-elle valable pour tous les n-grammes différents, c'est-à-dire unigramme, bigramme, etc.?
natural-language
entropy
perplexity
Margalit
la source
la source
Réponses:
Oui, la perplexité est toujours égale à deux à la puissance de l'entropie. Peu importe le type de modèle que vous possédez, n-gramme, unigramme ou réseau de neurones.
Il y a quelques raisons pour lesquelles le langage modélise les gens comme la perplexité au lieu d'utiliser simplement l'entropie. La première est que, en raison de l'exposant, les améliorations de la perplexité "semblent" être plus importantes que l'amélioration équivalente de l'entropie. Un autre est qu'avant de commencer à utiliser la perplexité, la complexité d'un modèle de langage a été signalée à l'aide d'une mesure de facteur de ramification simpliste qui est plus similaire à la perplexité qu'à l'entropie.
la source
D'accord avec la réponse @Aaron avec une légère modification:
Ce n'est pas toujours égal à deux à la puissance de l'entropie. En fait, ce sera (base pour log) au pouvoir de l'entropie. Si vous avez utilisé e comme base, ce serait e ^ entropie.
la source