La preuve standard de la borne de Chernoff (du manuel Randomized Algorithms ) utilise les fonctions d'inégalité de Markov et de génération de moments, avec un peu de développement de Taylor, rien de trop difficile, mais plutôt mécanique.
Mais il existe d'autres preuves liées de Chernoff qui exposent la structure plus profonde qui conduit au résultat. Par exemple, il existe une version de la théorie de l'information qui passe par la méthode des types, illustrée par cet article d' Impagliazzo et de Kabanets , ainsi que par ce bref article de Sanjoy Dasgupta . Ces dernières preuves sont plus "intuitives" en ce qu'elles fournissent une généralisation du résultat standard, tout en expliquant d'où viennent les termes amusants de l'exposant (c'est une divergence KL).
Quels sont de bons exemples de telles choses? Pour être plus concret, voici les règles:
- La déclaration devrait être assez bien connue (le genre de chose qui serait enseigné dans une sorte de classe de troisième cycle)
- Il devrait y avoir une preuve "standard" disponible dans les manuels scolaires ou le matériel de référence standard enseigné "couramment"
- Il devrait exister une autre preuve moins bien connue, qui n'est PAS enseignée couramment et qui prouve soit un énoncé plus général, soit le lie à une structure mathématique plus profonde.
Je commencerai par deux exemples.
Le chernoff lié
- preuve de "manuel": inégalité de Markov, fonctions génératrices de moment, expansion de Taylor (MR)
- Preuve rare et perspicace: méthode des types, exposant de queue avec divergence KL
-
- preuve "de manuel": cas de base impliquant un polynôme univarié. Induction sur nombre de variables
- preuve "peu commune": argument géométrique via Dana Moshkovitz (et Per Vognsen )
Un exemple par réponse s'il vous plaît.
ps Je n'insinue pas nécessairement qu'il faut enseigner la preuve peu commune : une preuve directe est souvent plus facile pour les étudiants. Mais dans le sens où "les preuves nous aident à comprendre", ces preuves alternatives sont très utiles.
J'en jetterai un de la complexité, la preuve que BPP est dans . La preuve du manuel est due à Lautemann, écrivez simplement l' expression et montrez qu'elle fonctionne avec un simple argument probabiliste. La preuve peu commune: Devinez une fonction difficile ( pour deviner, pour vérifier la dureté) et branchez-la au générateur Nisan-Wigderson. ∃ ∀ ∃ ∀Σp2 ∃∀ ∃ ∀
la source
Nous savons tous que pour Bernoulli devrait se comporter comme un gaussien avec écart type , n'est-ce pas? Alors prouvons-le en nous rapportant directement aux Gaussiens! Prenant un entier,∑iaiXi ±1 Xi t ≥ 2σ=∥a∥2 t≥2
Maintenant, regardons la somme ci-dessus à droite. Dans tout sommand donné, soit certains sont impairs, rendant l'espérance égale à , soit tous sont pairs, ce qui donne . Imaginez que vous tous les par des Gaussian . Nous serions alors dans un scénario similaire: impair donnerait , et même ferait le produit au moins à . Ainsi, le cas gaussien terme par terme domine le cas Bernoulli. Ainsi,rj 0 1 Xi Gi rj 0 rj 1
Mais, par stabilité du gaussien, est lui-même un gaussien avec écart type , nous connaissons donc ses moments! Ainsi, notre e moment est délimité par (Approximativement ); c'est ce qu'on appelle l'inégalité de Khintchine. Ensuite,2 ∑i|ai|Gi ∥a∥2 t ∥a∥t2⋅t!/(2t/2⋅(t/2)!) ∥a∥t2tt/2
la source
Minc a conjecturé et Brégman a prouvé que si est une matrice 0-1 avec 1 dans la rangée , alors le permanent de est au plusLa méthode probabiliste d' Alon et Spencer contient une courte preuve , mais on peut soutenir que la preuve de "livre" est la preuve utilisant l'entropie de Jaikumar Radhakrishnan ( J. Combin. Theory Ser. A 77 (1997), 161-164). Il ne ressort pas du tout de l’énoncé du résultat que le concept d’entropie est ici sous-jacent.r i i A ∏ i ( r i ! ) 1 / r i .A ri i A
la source