et sont deux des classes de complexité probabiliste de base.
est la classe de langages décidée par les algorithmes de Turing à temps polynomial probabiliste où la probabilité que l'algorithme renvoie une réponse incorrecte est limitée, c'est-à-dire que la probabilité d'erreur est au plus (pour les instances OUI et NON).
D'un autre côté, les algorithmes peuvent être considérés comme ces algorithmes probabilistes qui ne renvoient jamais une réponse incorrecte, chaque fois qu'ils renvoient une réponse, elle est correcte. Cependant, leur durée de fonctionnement n'est pas limitée par un polynôme, ils s'exécutent dans le polynôme attendu.
Soit la classe de langage décidée par des algorithmes probabilistes avec une probabilité d'erreur nulle et un temps d'exécution attendu . Ils sont également appelés algorithmes de Las Vegas et .
Ma question est quelle est la meilleure simulation connue des algorithmes utilisant les algorithmes de Las Vegas? Pouvons-nous les simuler en temps attendu sous-exponentiel? Y a-t-il une amélioration connue par rapport à la simulation de force brute triviale qui prend un temps exponentiel?
Plus formellement, savons-nous si ou B P pour certains ϵ > 0 ?
Réponses:
Tout d' abord, d' observer que , si pour une constante c , alors B P P ≠ N E X P . (Preuve par une hiérarchie temporelle non déterministe.) Il serait donc important de prouver une telle inclusion, non seulement parce qu'il s'agit d'une simulation améliorée, mais aussi de la première avancée sur des bornes inférieures temporelles randomisées depuis des décennies.BPP⊆ZPTIME[2nc] c BPP≠NEXP
Ensuite, considérons la classePromiseBPP , pour laquelle le problème suivant est " -hard":PromiseBPP
Les résultats d'Impagliazzo, Kabanets et Wigderson 2002 impliquent qu'un algorithme de temps zéro à pour CAPP (où n est la taille de C ) impliquerait N E X P ⊄ P / p o l y . Dans STOC'10, j'ai étendu ceci pour montrer: en supposant que pour chaque C avec k bits d'entrée et n taille, on peut calculer CAPP de manière non déterministe (donc, zéro erreur suffit) en 2 k - ω ( log k ) p o l y (2nε n C NEXP⊄P/poly C k n temps, puis N E X P ⊄ P / p o l y . C'est-à-dire qu'il y a certainement des problèmes calculables avec le caractère aléatoire à deux erreurs, pour lesquels des algorithmes à zéro erreur qui battent même légèrement la recherche exhaustive impliqueraient des limites inférieures de circuit. Je crois que cela devrait être interprété comme une méthode possible pour prouver les limites inférieures; Votre kilométrage peut varier.2k−ω(logk)poly(n) NEXP⊄P/poly
Notez que même prouver est également ouvert, et prouver cela impliquerait également des limites inférieures: par Kabanets et Impagliazzo 2004, si le test d'identité polynomiale (un problème de c o R P ) est dans Z P T I M E [ 2 n ε ] pour tous les ε . Récemment (à venir dans STOC'13), j'ai prouvé sans condition que soit B P P ⊆ i oRP⊆ZPTIME[2nε] coRP ZPTIME[2nε] , alors nous avons des bornes inférieures pour le permanent ou N E X Pε>0 NEXP ou R T I M E [ 2 nBPP⊆ioZPTIME[2nε]/nε a n circuits de taille c , s'appuyant sur la méthode du "témoin facile" des Kabanets. Cela implique deux choses:RTIME[2n] nc
Il y a un tel que pour tout ε > 0 , R P est inconditionnellement dans i o Z P T I M E [ 2 n ε ] / n c - il s'agit de la meilleure dérandomisation inconditionnelle de R P / B Pc ε>0 RP ioZPTIME[2nε]/nc dans Z P P que nous connaissons jusqu'à présent.RP/BPP ZPP
Pour commencer à obtenir des simulations sous-exponentielles intéressantes de , il suffit "de" supposer R T I M E [BPP n'a pas de circuits de taille polynomiale fixe.RTIME[2n]
la source
Cela dépend des hypothèses que vous êtes prêt à faire.
Dans certaines hypothèses de dureté, à savoir , on obtient que P = B P P . Cela implique notamment que B P P = Z P P , et donc que chaque langue L ∈ B P PE⊈SIZE(2εn) P=BPP BPP=ZPP L∈BPP est acceptée par une machine de Las Vegas (voir "P = BPP sauf si E a des circuits sous-exponentiels: dérandomisation du lemme XOR", par Impagliazzo et Wigderson).
Vous pouvez également faire une hypothèse de dureté plus douce, à savoir que , et obtenir que B P P = Z P P (voir le lemme 46 dans "A la recherche d'un témoin facile: Temps exponentiel vs temps polynomial probabiliste "par Impagliazzo, Kabanets et Wigderson).ZPE⊈io−DTIME(2εn) BPP=ZPP
la source
À moins de progrès dans la dérandomisation, il me semble que l'exigence selon laquelle la machine de Las Vegas ne fait aucune erreur est cruciale, de sorte qu'il y a peu ou pas d'avantages à avoir un caractère aléatoire dans ce cas.
Pour un langage BPP décidé par un algorithme approprié A , qui agit sur les entrées x ∈ { 0 , 1 } n et une chaîne aléatoire r ∈ { 0 , 1 } N ( n ) représentant ses choix aléatoires, le critère d'erreur nulle implique que la machine de Las Vegas doit déterminer avec certitude lequel des deux cas Pr r ( A accepte ( x , r ) ) ⩾ 2L A x∈{0,1}n r∈{0,1}N(n) prises. Si on ne nous donne pas plus d'informations surA, alors c'est essentiellement un problème de promesse d'oracle: étant donné un oracleA′calculantA′(r)=A(x,r), et étant donné la promesse queA′donne une sortiea∈{0,1}pour au moins deux fois plus d'entrées que la sortie opposée1-a, déterminez quelle sortie est la plus courante.
Bien que la machine de Las Vegas puisse utiliser des techniques aléatoires, si nous sommes en effet obligés de traiter comme un oracle, nous pouvons voir que la seule stratégie disponible pour une machine de Las Vegas est de faire un examen relativement approfondi (mais non exhaustif) de la chaînes aléatoires r , pour voir quelle réponse est donnée pour chacun. Il ne peut être sûr que s'il trouve plus de 2 N ( n )A′ r chaînes distinctes r qui donnent toutes la même sortie; sinon, avec une probabilité faible (mais non nulle!), il peut être malchanceux et obtenir un échantillon non représentatif des sorties possibles. Pour obtenir zéro erreur, il doit échantillonner au moins 2 N ( n )2N(n)/3 r entrées r .2N(n)/3 r
Parce que la machine de Las Vegas doit inspecter au moins une fraction constante de toutes les chaînes aléatoires possibles , asymptotiquement nous ne sommes pas mieux lotis que si nous testions de manière déterministe toutes les chaînes aléatoires possibles. Nous ne tirons aucun avantage asymptotique de la simulation aléatoire d'algorithmes BPP dans un paramètre sans erreur, au-delà de ce que nous pouvons faire de manière déterministe par force brute.r
Notez que ce même argument donne lieu à une séparation oracle entre BPP et ZPP , c'est -à- dire qu'il existe un oracle tel que Z P P A ⫋ B P P A car l' algorithme ZPP prend un temps exponentiel, tandis qu'un algorithme BPP peut résoudre la question de l'oracle en une seule requête et réussir avec une erreur bornée. Cependant, cela ne vous dit rien de plus que ce que vous soupçonniez déjà (que le surcoût de la simulation peut être pire que le polynôme) ni que les asymptotiques sont tout aussi mauvaises qu'une simulation déterministe naïve.A
la source