Je recherche un livre ou une ressource en ligne qui explique les différents types d'entropie tels que Sample Entropy et Shannon Entropy et leurs avantages et inconvénients. Quelqu'un peut me diriger dans la bonne direction?
references
entropy
Christian
la source
la source
Ces notes de cours sur la théorie de l'information par O. Johnson contiennent une bonne introduction à différents types d'entropie.
la source
Si vous êtes intéressé par la statistique mathématique autour de l'entropie, vous pouvez consulter ce livre
http://www.renyi.hu/~csiszar/Publications/Information_Theory_and_Statistics:_A_Tutorial.pdf
il est disponible gratuitement!
la source
L'entropie n'est qu'un (en tant que concept) - la quantité d'informations nécessaires pour décrire un système; il n'y a que beaucoup de généralisations. L'échantillon d'entropie n'est qu'un descripteur de type entropique utilisé dans l'analyse de la fréquence cardiaque.
la source
Jaynes montre comment dériver l'entropie de Shannon des principes de base de son livre .
la source
L'article de Grünwald et Dawid Théorie des jeux, entropie maximale, divergence minimale et solide théorie de la décision bayésienne discutent des généralisations de la notion traditionnelle d'entropie. Étant donné une perte, sa fonction d'entropie associée est le mappage d'une distribution à la perte attendue minimale réalisable pour cette distribution. La fonction d'entropie habituelle est l'entropie généralisée associée à la perte de log. D'autres choix de pertes produisent une entropie différente telle que l'entropie de Rényi.
la source