La plupart d'entre nous connaissent - ou du moins ont entendu parler - l'entropie de Shannon d'une variable aléatoire, , et toutes les mesures théoriques de l'information connexes telles que l'entropie relative, informations mutuelles, etc. Il existe quelques autres mesures de l'entropie couramment utilisées en informatique théorique et en théorie de l'information, comme l'entropie minimale d'une variable aléatoire.
J'ai commencé à voir ces soi-disant entropies Renyi plus souvent en parcourant la littérature. Ils généralisent l'entropie de Shannon et l'entropie min, et fournissent en fait tout un spectre de mesures entropiques d'une variable aléatoire. Je travaille principalement dans le domaine de l'information quantique, où la version quantique de l'entropie Renyi est également considérée assez souvent.
Ce que je ne comprends pas vraiment, c'est pourquoi ils sont utiles. J'ai entendu dire qu'il est souvent plus facile de travailler avec des analyses que de dire l'entropie de Shannon / von Neumann ou l'entropie min. Mais ils peuvent également être liés à l'entropie / min-entropie de Shannon.
Quelqu'un peut-il fournir des exemples (classiques ou quantiques) de l'utilisation de l'entropie Renyi comme «la bonne chose à faire»? Ce que je recherche, c'est un «crochet mental» ou un «modèle» pour savoir quand je pourrais utiliser des entropies Renyi.
Merci!
la source
Réponses:
Pensez à essayer de faire des suppositions atomiques pour une variable aléatoire inconnue répartie sur un certain ensemble fini A . Dans l'entropie de Shannon, on suppose que vous pouvez interroger petit à petit, c'est-à-dire que si A = { 1 , … , N } vous pouvez demander:X A. A={1,…,N}
Est-ce que ?X∈{1,…,N/2} (supposez pair ou utilisez les fonctions plancher / plafond)N
En crypto et certains scénarios de décodage, ce n'est pas réaliste. Essayer de deviner un mot de passe inconnu dont vous avez besoin pour faire des requêtes atomiques, c'est-à-dire demander si est une valeur spécifique.X
Il s'avère que le nombre attendu de requêtes pour deviner une variable aléatoire dépend alors étroitement de l'entropie Renyi d'ordre 1 / 2. Il en va de même pour les moments supérieurs. Par exempleX 1/2.
et le numérateur est essentiellement le logarithme de l'entropie de Renyi d'ordre On peut aussi rendre l'entropie de Shannon très grande tandis que l'entropie de Renyi et l'attente du nombre de suppositions sont très petites. Si vous comptiez sur l'entropie de Shannon pour la sécurité, vous auriez des ennuis dans ce cas.1/2.
Veuillez également consulter la question connexe Deviner une faible valeur d'entropie lors de plusieurs tentatives
Quelques références:
la source
L'entropie de Renyi est analogue, dans un certain sens, àℓp normales, alors rappelons d'abord pourquoi ces normes sont utiles.
Supposons que nous ayons un vecteur de nombres . Nous voulons avoir un numéro unique qui représente, dans un certain sens, comment l'élément typique d' una∈Rn a .
Une façon de le faire est de prendre la moyenne des nombres dans , ce qui correspond à peu près à la norme ℓ 1 : E 1 ≤ i ≤ n [ | a i | ] . Ceci est souvent utile, mais pour certaines applications, il présente les problèmes suivants: Premièrement, la norme ℓ 1 ne nous donne pas une bonne borne supérieure sur le plus grand élément de a , car s'il y a un seul grand élément et plusieurs zéros, le ℓ 1 norme sera significativement plus petite que l'élément le plus grand. En revanche, le ℓ 1a ℓ1 E1≤i≤n[|ai|] ℓ1 a ℓ1 ℓ1 La norme ne nous donne pas non plus une bonne limite sur la taille des éléments d' , par exemple, le nombre de zéros d' una a a - ce problème se produit exactement le même scénario que précédemment.
Bien sûr, lorsque les éléments d' ont beaucoup de variance, comme dans le scénario extrême ci-dessus, aucun nombre unique ne peut résoudre les deux problèmes ci-dessus. Nous avons un compromis. Par exemple, si nous voulons seulement connaître l'élément le plus grand, nous pouvons utiliser la norme ℓ ∞ , mais nous perdrons alors toutes les informations sur les éléments les plus petits. Si nous voulons le nombre de zéros, nous pouvons regarder la norme ℓ 0 , qui est juste la taille du support d' una ℓ∞ ℓ0 a .
Maintenant, la raison pour laquelle nous considérons les normes est qu'elles nous donnent tout le compromis continu entre les deux extrêmes. Si nous voulons plus d'informations sur les grands éléments, nous considérons que p est plus grand, et vice versa.ℓp p
Il en va de même pour les entropies de Renyi: l'entropie de Shanon est comme la norme - elle nous dit quelque chose sur la probabilité "typique" d'un élément, mais rien sur la variance ou les extrêmes. La min-entropie nous donne des informations sur l'élément avec la plus grande probabilité, mais perd toutes les informations sur le reste. La taille du support donne l'autre extrême. Les entropies Renyi nous donnent un compromis continu entre les deux extrêmes.ℓ1
Par exemple, plusieurs fois l'entropie Renyi-2 est utile car elle est d'une part proche de l'entropie de Shanon, et contient donc des informations sur tous les éléments de la distribution, et d'autre part donne plus d'informations sur les éléments avec la plus grande probabilité. En particulier, il est connu que les limites de l'entropie Renyi-2 donnent des limites sur l'entropie min, voir, par exemple, l'annexe A ici: http://people.seas.harvard.edu/~salil/research/conductors-prelim .ps
la source
L'entropie Renyi (d'ordre 2) est utile en cryptographie pour analyser la probabilité de collisions.
Rappelons que l'entropie Renyi d'ordre 2 d'une variable aléatoire est donnée parX
Il s'avère que nous permet de mesurer la probabilité que deux valeurs tirées iid en fonction de la distribution de X soient identiques ("collision"): cette probabilité est exactement 2 - H 2 ( X ) . Après avoir tiré n fois de cette distribution, le nombre attendu de collisions entre ces n tirages est C ( n , 2 ) 2 - H 2 ( X ) .H2(X) X 2−H2(X) n n C(n,2)2−H2(X)
Ces faits sont utiles en cryptographie, où les collisions peuvent parfois être problématiques et permettre des attaques.
Pour une analyse d'autres utilisations en cryptographie, je recommande la thèse de doctorat suivante:
Christian Cachin. Mesures d'entropie et sécurité inconditionnelle en cryptographie . Thèse de doctorat, ETH Zurich, mai 1997.
la source
Cette autre réponse stackexchange et cet article de blog pourraient être très utiles pour avoir un aperçu rapide d'un exemple de base,
/physics/73424/deriving-entanglement-entropy-from-renyi-entropy
https://johncarlosbaez.wordpress.com/2011/02/10/rnyi-entropy-and-free-energy/
En gros, les entropies de Renyi connaissent les états excités d'un système quantique, mais l'entropie d'enchevêtrement connaît les états fondamentaux. AVERTISSEMENT: Cette intuition pourrait être terriblement grossière mais pourrait simplement être un bon "crochet mental": DI serait TRÈS heureux de connaître une façon meilleure et précise de le dire!
Aux valeurs intégrales deq> 1 il y a généralement une construction toujours très bien définie en termes d'intégration de certaines fonctions sur certaines q- manifold ramifié. Après avoir fait une telle intégration, on oublie joyeusement la variété utilisée et essaie simplement de faire la continuation analytique paramétrique dans la variableq .
Il y a toujours beaucoup de problèmes à propos de l'existence et de la bonne posture quand on essaie de faire ces continuations anayltic - mais pour quelqu'un comme moi qui est élevé quotidiennement au régime de Feynman-intégrales c'est un problème très commun à traiter et nous ont beaucoup d'outils pour y faire face. Trois beaux articles pour étudier ces problèmes sont: http://arxiv.org/pdf/1306.5242.pdf , http://arxiv.org/pdf/1402.5396.pdf , http://arxiv.org/pdf/1303.7221 .pdf (le dernier de ces articles pourrait être un point de départ plus facile) Cette présentation pourrait également aider, https://www.icts.res.in/media/uploads/Talk/Document/Tadashi_Takayanagi.pdf
Ce que dit l'entropie de Renyi en termes de théorie de la complexité quantique pourrait être une question passionnante! Peut-on penser à l'indice Renyi comme paramétrant en quelque sorte une hiérarchie de classes de complexité? Cela devrait être amusant si c'est vrai! Faites le moi savoir :)
la source
L'entropie Renyi a trouvé sa place dans les définitions du flux d'informations quantitatives , d'un domaine ou de la recherche sur la sécurité. Voir le document d'enquête de G. Smith .
la source