Du point de vue du sens commun, il est facile de croire que l’ajout du non-déterminisme à étend considérablement son pouvoir, c’est-à-dire que est beaucoup plus grand que . Après tout, le non-déterminisme permet un parallélisme exponentiel, qui apparaît sans aucun doute très puissant.
D'un autre côté, si nous ajoutons simplement la non-uniformité à et obtenons P / p o l y , alors l'intuition est moins claire (en supposant que nous excluions les langages non récursifs qui pourraient se produire dans P / p o l y ). On pourrait s'attendre à ce que le fait d'autoriser différents algorithmes de temps polynomial pour différentes longueurs d'entrée (sans quitter le domaine récursif) constitue une extension moins puissante que le parallélisme exponentiel dans le non-déterminisme.
Fait intéressant, cependant, si nous comparons ces classes à la très grande classe , nous voyons alors la situation contre-intuitive suivante. Nous savons que N E X P contient correctement N P , ce qui n’est pas surprenant. (Après tout, N E X P permet une double parallélisme exponentielle.) D'autre part, actuellement nous ne pouvons pas exclure N E X P ⊆ P / p o l y .
Ainsi, dans ce sens, la non-uniformité, ajoutée au temps polynomial, le rend éventuellement extrêmement puissant, potentiellement plus puissant que le non-déterminisme. On pourrait même aller jusqu'à simuler un parallélisme doublement exponentiel ! Même si nous pensons que ce n’est pas le cas, mais le fait qu’il ne puisse pas être exclu à l’heure actuelle laisse néanmoins penser que les théoriciens de la complexité luttent contre de «puissantes puissances».
Comment expliqueriez-vous à un profane intelligent ce qui se cache derrière ce "pouvoir déraisonnable" de non-uniformité?
la source
Réponses:
Une réponse rapide est que ce n'est pas la première chose à propos de la théorie de la complexité que j'essaierais d'expliquer à un profane! Pour apprécier même l’idée de non-uniformité, et la différence entre celle-ci et le non-déterminisme, il est nécessaire d’être plus loin dans les mauvaises herbes avec les définitions des classes de complexité que beaucoup de gens sont disposés à obtenir.
Cela dit, j’ai trouvé utile, lorsqu’on explique P / poly à des étudiants de premier cycle, que la non-uniformité signifie que vous pouvez avoir une séquence infinie d’optimismes de mieux en mieux, en passant à des longueurs d’entrée de plus en plus grandes. En pratique, par exemple, nous savons que l’algorithme naïf de multiplication matricielle fonctionne mieux pour les matrices jusqu’à 100x100, et qu’à un moment donné, la multiplication de Strassen devient meilleure et que les algorithmes plus récents ne s’améliorent que pour les matrices de taille astronomique. ne se poserait jamais dans la pratique. Alors, si vous aviez la capacité magique de cibler le meilleur algorithme quelle que soit la plage de n avec laquelle vous travailliez?
Bien sûr, ce serait une capacité étrange, et toutes choses considérées, probablement pas aussi utile que la capacité de résoudre des problèmes NP-complets en temps polynomial. Mais à proprement parler, ce serait une capacité incomparable : ce n’est pas une capacité que vous obtiendriez automatiquement, même si P = NP. En effet, vous pouvez même construire des exemples artificiels de problèmes non calculables (par exemple, en prenant 0 n en entrée, la n- ième machine de Turing s'arrête-t-elle?) Que cette capacité vous permettrait de résoudre. Donc, c'est le pouvoir de la non-uniformité.
Pour comprendre l' intérêt de considérer cet étrange pouvoir, vous aurez probablement besoin de dire quelque chose à propos de la quête de la limite inférieure du circuit et du fait que, du point de vue de nombre de nos techniques de la limite inférieure, c'est l' uniformité qui semble étrange. condition supplémentaire dont nous n'avons presque jamais besoin.
la source
Voici un argument de "finesse" que j’ai entendu récemment pour défendre l’affirmation selon laquelle les modèles de calcul non uniformes devraient être plus puissants que nous le supposons. D’une part, nous savons du théorème de la hiérarchie temporelle qu’il existe par exemple des fonctions calculables en temps qui ne le sont pas en temps O ( 2 n ) . Par contre, selon le théorème de Lupanov, toute fonction booléenne sur n entrées est calculable par un circuit de taille ( 1 + o ( 1 ) ) 2 n / nO(22n) O(2n) n (1+o(1))2n/n . Donc, si nous prétendons que la non-uniformité ne donne pas beaucoup de puissance, c’est que devrait se comporter comme D T I M E ( f ( n ) O ( 1 ) ) , alors cette affirmation devrait cesser brusquement maintenant lorsque f ( n ) devient 2 O ( n ) . Mais ce comportement - deux mesures de complexité vont de pair jusqu'à ce que l'une d'elles devienne soudainement tout-puissant - semble arbitraire et quelque peu anormal.SIZE(f(n)) DTIME(f(n)O(1)) f(n) 2O(n)
D'autre part, si les circuits sont assez puissants que , puis par Karp-Lipton la hiérarchie polynomiale s'effondre au deuxième niveau, ce qui serait aussi étrange: pourquoi quantificateurs soudainement cesser de donner plus de puissance de calcul ? Je ne sais pas où cela nous laisse.NP⊆P/poly
la source
Ensuite, j'essayerais d'expliquer queP / p o l y is so powerful because for each different length, the TM is given advice that it can trust completely. Then I would mention that we can devise hard (non-TM-computable actually) languages that have 1 word per input length (i.e. unary), so they are in P/poly ! But maybe a polynomial long advice isn't enough to solve all languages in NP , since there we are allowed a different hint for every different input.
On the other hand, I would remind that person thatNP has to verify the answer, not trust it completely. So, we cannot use the same advice for each input length, it may not be verifiable!
Finally, I would mention that complexity theorists believe that there are languages inNP that require more than polynomial many hints for some input length, and thus cannot be in P/poly .
A critical point for giving a good understanding, which I think is also common when teaching the subject for the first time, is making clear that advice and "hint" (i.e. certificate) are different things, and how they differ.
la source
For me, the starkest illustration of the power of non-uniformity is that a suitably padded version of the Halting Problem is already in P/1. A single bit of advice is then enough to decide this language with a trivial TM that simply returns the advice bit.
Of course, padding an undecidable language by an exponential amount means it is not "morally" in P/poly. But this does show that one needs to be careful when allowing non-uniformity.
la source
I have the impression that the real issue here is the unreasonable heavy burden of proof, not the unreasonable power of non-uniformity. As the answers by chazisop and András Salamon already stress, undecidable languages become computable even in very restricted non-uniform languages, because the burden of proof has been completely waived.
The basic intuition why we might get away without a proof is that there are only2n different inputs of length n , for which we have to check that the circuit gives the correct answer. So it seems like there would be a proof of at most exponential length in n , that the circuit indeed gives the correct answer. But this is only true as long as there exists for each input of length n a proof of at most exponential length in n , that the input is (not) contained in the language (if it is actually (not) contained in the language). Note that exponentially many inputs times an at most exponentially long proof for each input gives a complete proof for all inputs of exponential length, because 2nexp(O(n))=exp(nlog(2)+O(n))=exp(O(n)) .
If we require the existence of a proof of at most exponential length inn for non-uniform languages, then we can prove that all these languages are contained in NEXP . The corresponding non-deterministic algorithm just needs a hint that contains both a "small" circuit together with a "small" proof that this circuit really computes what it is supposed to compute.
The same non-deterministic algorithm would also showP/poly′⊆NP , if we required instead the existence of proofs of at most polynomial length in n that the circuit is suitable. Notice that this restricted P/poly′ could still be more powerful than P . Even Karp-Lipton (i.e. that the polynomial hierarchy collapses if NP⊆P/poly′ ) still holds true, but this statement is less interesting than the real Karp-Lipton theorem.
la source