Quels sont vos exemples préférés dans lesquels la théorie de l’information est utilisée pour prouver de façon simple une déclaration combinatoire nette?
Certains exemples auxquels je peux penser sont liés aux limites inférieures pour les codes localement décodables, par exemple, dans cet article: supposons que pour un tas de chaînes binaires de longueur il en est de même pour chaque , pour différent paires { },Alors m est au moins exponentiel dans n, où l’exposant dépend linéairement du rapport moyen de . n i k i j 1 , j 2 e i = x j 1 ⊕ x j 2 . k i / m
Un autre exemple (lié) est certaines inégalités isopérimétriques sur le cube booléen (n'hésitez pas à en parler dans vos réponses).
Avez-vous d'autres exemples intéressants? De préférence, court et facile à expliquer.
la source
Réponses:
La preuve de Moser de la lemma locale constructive de Lovasz . Il montre fondamentalement que, dans les conditions du lemme local, le deuxième algorithme le plus simple pour SAT auquel on puisse penser fonctionne. (La première solution peut être d’essayer simplement une assignation aléatoire jusqu’à ce que celle-ci fonctionne. La deuxième solution consiste à choisir une assignation aléatoire, à trouver une clause non satisfaite, à la satisfaire, puis à voir quelles autres clauses vous avez rompues, rappelées et répétées jusqu’à fin.) La preuve que cela fonctionne en temps polynomial est peut-être l'utilisation la plus élégante de la théorie de l'information (ou de la complexité de Kolmogorov, comme vous voulez l'appeler dans ce cas) que j'ai jamais vue.
la source
Mon exemple préféré de ce type est la preuve du lemme de Shearer basée sur l'entropie. (J'ai appris cette preuve et plusieurs autres très jolies grâce à Entropy and Counting de Jaikumar Radhakrishnan .)
Revendication: Supposons que vous avez points dans qui ont projections distinctes sur le plan , projections distinctes sur le plan et projections distinctes sur le plan . Ensuite, .R 3 n x y z n y x z n z x y n 2 ≤ n x n y n zn R3 nx yz ny xz nz xy n2≤nxnynz
Preuve: Soit un point uniformément choisi au hasard parmi les points. Soit , , ses projections sur les plans , et respectivement. n p x p y p z y z x z x yp=(x,y,z) n px py pz yz xz xy
D'une part, , , et , par les propriétés de base de l'entropie.H [ p x ] ≤ log n x H [ p y ] ≤ log n y H [ p z ] ≤ log n zH[p]=logn H[px]≤lognx H[py]≤logny H[pz]≤lognz
Par contre, nous avons et aussi L'ajout des trois dernières équations nous donne: H [ z | x ] + H [ z | y ] ≥ 2 H [ x ] + 2 H [ y | x ] + 2 H [ z | x ,H [ p x ] = H [ y ] + H [ z | y ] H [ p y ] = H [ x ] + H [ z | x ] H [
Nous avons donc , ou n 2 ≤ n x n y n z .2logn≤lognx+logny+lognz n2≤nxnynz
la source
La preuve entropie de Radhakrishnan du théorème de Bregman, que le nombre de couplages parfaits dans un graphe biparti ( L ∪ R , E ) est au plus Π v ∈ L ( d ( v ) ! ) 1 / d ( v ) . La preuve utilise deux idées très intelligentes. Voici un croquis de la preuve:p (L∪R,E) ∏v∈L(d(v)!)1/d(v)
La généralisation de cette inégalité est Kahn-Lovász Théorème: Le nombre de appariements parfaits dans tout graphe est au plus Π v ∈ V ( G ) ( d ( v ) ! ) 1 / 2 d ( v ) . Une preuve d'entropie de ce résultat a été prouvée par Cutler et Radcliffe .G ∏v∈V(G)(d(v)!)1/2d(v)
la source
De très bons exemples sont contenus dans deux articles de Pippenger. Une méthode de la théorie de l'information en théorie combinatoire. J. Comb. Théorie, Ser. A 23 (1): 99-104 (1977) et Entropie et énumération des fonctions booléennes. Transactions IEEE sur la théorie de l'information 45 (6): 2096-2100 (1999). En fait, plusieurs articles de Pippenger contiennent de jolies preuves de faits combinatoires par entropie / information mutuelle. En outre, les deux livres: Jukna, La combinatoire extrême avec des applications en informatique et Aigner, La recherche combinatoire en ont de bons exemples. J'aime aussi les deux papiers Madiman et al. Inégalités de la théorie de l'information dans la combinatoire additive et Terence Tao, estimations du jeu d'entropie (vous pouvez les trouver avec Google Scholar). J'espère que ça aide.
la source
Un autre bon exemple est la preuve alternative de Terry Tao du lemme de régularité des graphes de Szemerédi . Il utilise une perspective théorique de l'information pour prouver une version forte du lemme de régularité, ce qui s'avère extrêmement utile pour prouver le lemme de régularité des hypergraphes . La preuve de Tao est de loin la preuve la plus concise pour le lemme de régularité de l'hypergraphe.
Permettez-moi d'essayer d'expliquer à un très haut niveau cette perspective de la théorie de l'information.
la source
Il existe essentiellement un cours entier consacré à cette question:
https://catalyst.uw.edu/workspace/anuprao/15415/86751
Le cours est toujours en cours. Toutes les notes ne sont donc pas disponibles au moment de la rédaction. En outre, certains exemples du cours ont déjà été mentionnés.
la source
la source
la source
la source
Analyse de cas moyens d'algorithmes utilisant la complexité de Kolmogorov par Jiang, Li, Vitanyi.
«L'analyse de la complexité moyenne des algorithmes est un problème très pratique mais très difficile en informatique. Ces dernières années, nous avons démontré que la complexité de Kolmogorov est un outil important pour l'analyse de la complexité moyenne des cas des algorithmes. Nous avons développé la méthode d'incompressibilité [7]. Dans cet article, nous utilisons plusieurs exemples simples pour démontrer davantage la puissance et la simplicité de cette méthode. Nous prouvons des bornes sur le nombre moyen de cas de piles (files d'attente) nécessaires au tri séquentiel ou parallèle de Queueusort ou Stacksort. '
Voir aussi, par exemple, la complexité de Kolmogorov et un problème triangulaire de type Heilbronn .
la source
L'équivalence de l'échantillonnage et de la recherche par Scott Aaronson. Il montre ici l’équivalence des problèmes d’échantillonnage et de recherche dans la théorie de la complexité en ce qui concerne la validité de la thèse étendue de Church-Turing. La théorie de l'information standard, la théorie de l'information algorithmique et la complexité de Kolmogorov sont utilisées de manière fondamentale.
Il souligne:
" Soulignons que nous n'utilisons pas la complexité de Kolmogorov uniquement pour des raisons de commodité technique, ni pour abréger un argument de comptage. Au contraire, la complexité de Kolmogorov semble essentielle même pour définir un problème de recherche .. "
la source
Celui-ci est simple et approximatif: combien de combinaisons de 10 6 choses sur 10 9 , permettant des doublons? La bonne formule est
Mais imaginez donner des instructions pour marcher le long d'une rangée de milliards de seaux, laissant tomber un million de billes dans les seaux le long du chemin. Il y aura ~ 10 9 instructions "Pas à pas vers le seau suivant" et 10 6 instructions "Laisser tomber une bille". L'information totale est
ce qui est drôle, mais très bon moyen d’approximer le (journal du) compte. J'aime ça parce que ça marche si j'oublie comment faire de la combinatoire. Cela équivaut à dire que
ce qui revient à utiliser l'approximation de Stirling, à annuler et à rater quelque chose.
la source
Une très belle application récente de Linial et Luria pour donner des limites supérieures aux permutations de grandes dimensions est ici: http://www.cs.huji.ac.il/~nati/PAPERS/hd_permutations.pdf
la source