Questions marquées «it.information-theory»

Questions en théorie de l'information

33
Quel est le volume d'informations?

Cette question a été posée à Jeannette Wing après sa présentation de PCAST sur la science informatique. «Du point de vue de la physique, y a-t-il un volume maximal d'informations que nous pouvons avoir?» (Une question intéressante pour la communauté informatique théorique, car je pense que cela...

14
L'utilité des entropies Renyi?

La plupart d'entre nous connaissent - ou du moins ont entendu parler - l'entropie de Shannon d'une variable aléatoire, H(X)=−E[logp(X)]H(X)=−E[log⁡p(X)]H(X) = -\mathbb{E} \bigl[ \log p(X)\bigr] , et toutes les mesures théoriques de l'information connexes telles que l'entropie relative, informations...

14
L'équivalence eta pour les fonctions est-elle compatible avec l'opération seq de Haskell?

Lemme: En supposant une équivalence éta, nous avons cela (\x -> ⊥) = ⊥ :: A -> B. Preuve: ⊥ = (\x -> ⊥ x)par eta-équivalence, et (\x -> ⊥ x) = (\x -> ⊥)par réduction sous lambda. Le rapport Haskell 2010, section 6.2 spécifie la seqfonction par deux équations: seq :: a -> b -> b...

12
Sur l'entropie d'une somme

Je cherche une borne sur l'entropie de la somme de deux variables aléatoires discrètes indépendantes X et Y . Naturellement, H ( X + Y ) ≤ H ( X ) + H ( Y ) ( ∗ ) Cependant, appliqué à la somme de n variables aléatoires Bernoulli indépendantes Z 1 , … , Z n , cela donne H ( Z 1 +H( X+...