Le compte-rendu standard de l'informatique quantique est qu'un ordinateur quantique (CQ) fonctionnerait en se divisant en plusieurs exponentiellement copies parallèles sans interaction de lui-même dans différents univers et en demandant à chacun d'essayer de vérifier un certificat différent, puis à la fin du calcul , la copie unique qui a trouvé un certificat valide "annonce" sa solution et les autres branches disparaissent comme par magie.
Les gens qui savent quoi que ce soit sur le calcul quantique théorique savent que cette histoire est un non-sens absolu, et que l'idée approximative décrite ci-dessus correspond plus étroitement à une machine de Turing non déterministe (NTM) qu'à un ordinateur quantique. De plus, la classe de complexité des problèmes pouvant être résolus efficacement par les MNT est NP et par les QC est BQP , et ces classes ne sont pas considérées comme égales.
Les personnes qui tentent de corriger la présentation populaire soulignent à juste titre que le récit simpliste des "mondes multiples" surestime considérablement la puissance des QC, qui ne sont pas censés être en mesure de résoudre (disons) des problèmes complets liés au NP . Ils se concentrent sur la fausse représentation du processus de mesure: en mécanique quantique, le résultat que vous mesurez est déterminé par la règle de Born, et dans la plupart des situations, la probabilité de mesurer une réponse incorrecte submerge complètement la probabilité de mesurer la bonne. (Et dans certains cas, comme la recherche dans la boîte noire, nous pouvons prouver qu'aucun circuit quantique intelligent ne peut battre la règle de Born et fournir une accélération exponentielle.) Si nous le pouvionsmagiquement "décider quoi mesurer", alors nous serions en mesure de résoudre efficacement tous les problèmes dans la classe de complexité PostBQP , qui est considérée comme beaucoup plus grande que BQP .
Mais je n'ai jamais vu personne souligner explicitement qu'il existe une autre manière dont la caractérisation populaire est erronée, qui va dans l'autre sens. On pense que BQP n'est pas un sous-ensemble strict de NP , mais plutôt incomparable avec lui. Il existe des problèmes comme la vérification de Fourier qui ne se situent pas seulement en dehors de NP , mais en fait en dehors de toute la hiérarchie polynomiale PH . Donc, en ce qui concerne des problèmes comme ceux-ci, le récit populaire sous les États plutôt que surévalue le pouvoir des QC.
Mon intuition naïve est que si nous pouvions "choisir quoi mesurer", alors le récit populaire serait plus ou moins correct, ce qui impliquerait que ces ordinateurs super-quantiques seraient capables de résoudre efficacement la classe NP . Mais nous pensons que c'est faux; en fait PostBQP = PP , que nous pensons être un sur-ensemble strict de NP .
Y a-t-il une intuition pour ce qui se passe dans les coulisses qui permet à un ordinateur quantique d'être (à certains égards) plus puissant qu'une machine de Turing non déterministe? Vraisemblablement, cette puissance "intrinsèquement quantique", lorsqu'elle est combinée avec la post-sélection (qui dans un sens, les NTM ont déjà) est ce qui rend un super-QC tellement plus puissant qu'un NTM. (Notez que je recherche une intuition qui contraste directement les NTM et les QC avec la post-sélection, sans "traverser" la classe de complexité classique PP .)
la source
Cette réponse a été «migrée» à partir du moment où cette question a été posée sur l' informatique (l'auteur reste le même)
Eh bien, l'une des principales raisons est qu'il n'y a pas d'algorithmes quantiques qui résolvent les problèmes NP-difficiles en temps polynomial.
Un autre est que le recuit quantique adiabétique (comme dans le Dwave) ne peut que battre à peine le recuit quantique classique.
la source