J'aimerais vraiment votre aide pour prouver ou réfuter la revendication suivante: . Dans la théorie de la complexité computationnelle, BPP, qui signifie temps polynomial probabiliste à erreurs bornées, est la classe de problèmes de décision pouvant être résolus par une machine de Turing probabiliste en temps polynomial, avec une probabilité d'erreur d'au plus pour toutes les instances . .
Il n'est pas immédiat que l'un des ensembles soit un sous-ensemble de l'autre, car si la probabilité d'erreur est inférieure à elle ne doit pas être inférieure à et si elle est supérieure à il ne doit pas être supérieur à .
J'essaie d'utiliser l'inégalité de Chernoff pour prouver la demande, je ne sais pas exactement comment. J'aimerais vraiment votre aide. Y a-t-il une réclamation générale concernant ces relations que je peux utiliser?
Réponses:
Pour développer mon commentaire en une réponse: la forme multiplicative de la borne de Chernoff dit que si l'espérance pour la somme des variables binaires aléatoires indépendantes est , alors la probabilité de s'égarer ' trop loin 'de cette attente va comme: .X=∑ni=0Xi μ Pr(X>(1+δ)μ)<(eδ(1+δ)(1+δ))μ
Maintenant, imaginez une procédure où, étant donné une chaîne à tester, nous exécutons essais de notre algorithme (pour certains à choisir plus tard) et acceptons au moins de ces essais acceptent . Nous pouvons utiliser la borne de Chernoff pour trouver la probabilité de défaillance en termes de comme suit:σ n BPP(0.90,0.95) n 0.925n σ n
Soit le résultat du ème essai, et donc le nombre d'essais réussis. Nous pouvons supposer prudemment que notre probabilité de faux positifs est de ; cela signifie que si nous faisons essais indépendants sur une chaîne , le nombre attendu de succès est . (Notez qu'une probabilité de faux positif inférieure à conduira à une valeur attendue encore plus faible et donc à des limites encore plus strictes sur les estimations à venir.) Maintenant, regardons la probabilité que nous ayons plus de faux positifs (c'est-à-dire , que ). Nous prenonsXi i X=∑Xi .9 n σ∉L μ=E(X)=0.9n .9 0.925n X>0.925n δ=(0.9250.9)−1=136 ; puis et nous avons donc .(eδ(1+δ)(1+δ))≈.99961<29993000 Pr ( X> 0,925 n ) <(29993000)0,9 n
De là, il devrait être clair qu'en prenant suffisamment grand, nous pouvons réduire cette probabilité à . Ainsi, pour ce suffisamment grand , si nous acceptons la chaîne uniquement si le nombre d'essais réussis sur est supérieur à , alors notre probabilité d'accepter une chaîne tombe en dessous de . Notez que ce est constant , ne dépend pas de la taille de notre problème; puisque nous exécutons notre polynomialn <13 n σ σ .925 n σ∉ L 13 n B PP( 0,9 , 0,95 ) algorithme un nombre constant de fois, la durée totale de notre nouvelle procédure est toujours polynomiale. Une analyse similaire allant dans l'autre sens montrera que la probabilité d'un `` faux négatif '' (que pour une chaîne qui est dans notre langue) sera limitée par pour certains , et donc nous pouvons prendre assez grand pour limiter la probabilité d'un faux négatif par (ou, en d'autres termes, pour assurer au moins probabilité d'accepter sur une chaîne ). Cela montre queX< .925 n cn c n 13 23 σ∈ L B PP( .9 , .95 ) ⊆ B PP(13,23) ≡ B PP et le commentaire de Yuval montre comment prouver l'équivalence inverse par une procédure similaire.
Canoniquement, c'est ce qu'on appelle l' amplification de probabilité et c'est une méthode extrêmement utile pour traiter les classes probabilistes. Les constantes spécifiques sont évidemment moins importantes que le fait que la limite de Chernoff nous permette de lier nos probabilités de `` faux résultats '' par une fonction exponentielle du nombre d'essais, de sorte qu'elles peuvent être rendues arbitrairement petites avec seulement un nombre modeste d'essais.
la source