Dans plusieurs compétitions de kaggle, la notation était basée sur la "perte de log". Cela concerne l'erreur de classification.
Voici une réponse technique mais je recherche une réponse intuitive. J'ai vraiment aimé les réponses à cette question sur la distance de Mahalanobis, mais PCA n'est pas logloss.
Je peux utiliser la valeur de mon logiciel de classification, mais je ne la comprends pas vraiment. Pourquoi l'utilisons-nous au lieu de vrais / faux positifs / négatifs? Pouvez-vous m'aider pour que je puisse expliquer cela à ma grand-mère ou à un débutant dans le domaine?
J'aime aussi et suis d'accord avec la citation:
vous ne comprenez vraiment quelque chose que si vous pouvez l'expliquer à votre grand
- mère - Albert Einstein
J'ai essayé de répondre à cela par moi-même avant de poster ici.
Les liens que je n'ai pas trouvés intuitifs ou vraiment utiles incluent:
- http://www.r-bloggers.com/making-sense-of-logarithmic-loss/
- https://www.quora.com/What-is-an-intuitive-explanation-for-the-log-loss-function
- https://lingpipe-blog.com/2010/11/02/evaluating-with-probabilistic-truth-log-loss-vs-0-1-loss/
- https://www.kaggle.com/wiki/LogarithmicLoss
Celles-ci sont informatives et précises. Ils sont destinés à un public technique. Ils ne dessinent pas une image simple, ni ne donnent d'exemples simples et accessibles. Ils ne sont pas écrits pour ma grand-mère.
la source
Réponses:
Logloss est le logarithme du produit de toutes les probabilités. Supposons qu'Alice prédit:
Il s'est avéré que Mary n'a pas épousé John, Bill n'est pas un meurtrier, mais John a tué Jack. Le produit des probabilités, selon Alice, est de 0,2 * 0,999 * 0,99 = 0,197802
Bob a prédit:
Le produit est 0,5 * 0,5 * 0,5 = 0,125.
Alice est un meilleur prédicteur que Bob.
la source