Une des questions les plus discutées sur le site a été Qu'est-ce que cela signifierait de réfuter la thèse de Church-Turing ? C'est en partie parce que Dershowitz et Gurevich ont publié une preuve de la thèse de Church-Turing est le Bulletin de la logique symbolique de 2008. (Je n'en discuterai pas ici, mais pour un lien et des commentaires détaillés, veuillez consulter la question initiale, ou - - auto-promotion sans vergogne - une entrée de blog que j'ai écrite.)
Cette question concerne la thèse de l'Église-Turing étendue , qui, comme l'a formulé Ian Parberry, est:
Le temps sur tous les modèles de machines "raisonnables" est lié par un polynôme.
Grâce à Giorgio Marinelli, j’ai appris qu’un des coauteurs du précédent article, Dershowitz, et son doctorant, Falkovich, avaient publié une preuve de la thèse de l’église élargie de Turing, qui venait de paraître à l’atelier Developments of Modèles de calcul 2011 .
Je viens d'imprimer le papier ce matin et je l'ai écrémé, rien de plus. Les auteurs affirment que les machines de Turing peuvent simuler n’importe quel dispositif de calcul séquentiel avec un surcoût au plus polynomial. Le calcul quantique et le calcul parallèle à grande échelle ne sont pas explicitement couverts. Ma question concerne l'affirmation suivante dans le document.
Nous avons montré - comme on l'a supposé et largement admis - que toute implémentation efficace, quelle que soit la structure de données utilisée, peut être simulée par une machine de Turing, avec au maximum une surcharge de temps polynomiale.
Ma question est donc la suivante: s’agit-il vraiment d’un "grand" calcul séquentiel sans "randomisation"? Et si les choses sont aléatoires? L'informatique quantique constituerait probablement un contre-exemple si elle pouvait effectivement être instanciée, mais existe-t-il des possibilités "plus faibles" que celles quantiques qui seraient également des contre-exemples?
la source
Réponses:
Rant préparatoire
Je dois vous dire, je ne vois pas en quoi le fait de parler de "preuves" de la CT ou de l'ECT ajoute de la lumière à cette discussion. De telles "preuves" tendent à être exactement aussi bonnes que les hypothèses sur lesquelles elles reposent - en d'autres termes, que ce qu'elles prennent comme termes "calcul" ou "calcul efficace". Alors, pourquoi ne pas passer immédiatement à une discussion des hypothèses et se passer du mot "preuve"?
C’était déjà clair avec le CT original, mais c’est encore plus clair avec le TCE, car non seulement le TCE est «philosophiquement irréalisable», mais aujourd’hui, il est largement considéré comme faux. Pour moi, l'informatique quantique est le contre-exemple énorme et criant qui devrait être le point de départ de toute discussion moderne sur l'ECT, et non un élément mis de côté. Pourtant, le document de Dershowitz et Falkovich ne parle même pas de CQ avant le dernier paragraphe:
Le résultat ci-dessus ne couvre pas le calcul parallèle à grande échelle, tel que le calcul quantique, car il postule qu'il existe une limite fixe sur le degré de parallélisme, avec le nombre de termes critiques fixés par l'algorithme. La question de la complexité relative des modèles parallèles sera abordée dans un proche avenir.
J'ai trouvé ce qui précède très trompeur: le contrôle de la qualité n'est pas un "modèle parallèle" au sens classique du terme. En mécanique quantique, il n'y a pas de communication directe entre les "processus parallèles" - uniquement les interférences d'amplitudes - mais il est également facile de générer un nombre exponentiel de "processus parallèles". (En fait, on pourrait penser que tous les systèmes physiques de l'univers agissent de la manière dont nous parlons!) Quoi qu'il en soit, quel que soit ce que vous pensez de l'interprétation de la mécanique quantique (ou même de sa vérité ou de son mensonge), il est clair que cela nécessite une analyse séparée. discussion!
Passons maintenant à vos questions (intéressantes)!
Non, je ne connais aucun contre-exemple convaincant à l'ECT autre que l'informatique quantique. En d’autres termes, si la mécanique quantique avait été fausse (d’une manière qui gardait toujours l’univers plus «numérique» que «analogique» à l’échelle de Planck - voir ci-dessous), alors l’ECT, tel que je l’ai compris, ne serait toujours pas "prouvable" (car cela dépendrait toujours de faits empiriques sur ce qui est efficacement calculable dans le monde physique), mais ce serait une bonne hypothèse de travail.
La randomisation ne remet probablement pas en question le TCE tel qu’on le comprend habituellement, en raison de la forte évidence actuelle que P = BPP. (Notez cependant que, si vous êtes intéressé par des paramètres autres que des problèmes de décision linguistique - par exemple, des problèmes relationnels, des arbres de décision ou la complexité de la communication -, la randomisation peut de toute évidence faire toute la différence. Ces paramètres sont parfaitement raisonnables. ceux dont il faut parler, ce ne sont tout simplement pas ceux que les gens pensent généralement lorsqu'ils discutent du TCE.)
L’autre classe de "contre-exemples" de l’ECT souvent évoquée concerne l’informatique analogique ou "hyper". Mon point de vue personnel est que, selon notre meilleure compréhension actuelle de la physique, l'informatique analogique et l'hypercalculateur ne peuvent pas évoluer, et la raison pour laquelle ils ne peuvent pas, paradoxalement, c'est la mécanique quantique! En particulier, bien que nous n'ayons pas encore de théorie quantique de la gravité, les connaissances actuelles suggèrent qu'il existe des obstacles fondamentaux à l'exécution de plus de 10 43 pas de calcul par seconde ou à la résolution de distances inférieures à 10-33 cm environ.
Enfin, si vous voulez supposer hors de la discussion tout ce qui pourrait constituer un défi plausible ou intéressant pour l’ECT et n’autoriser que le calcul en série, discret et déterministe, alors je suis d’accord avec Dershowitz et Falkovich pour dire que l’ECT est valable! :-) Mais même là, il est difficile d’imaginer une "preuve formelle" augmentant ma confiance en cette déclaration - le vrai problème, encore une fois, est justement ce que nous prenons comme mots "en série", "discret" et "déterministe". dire .
Quant à votre dernière question:
L'informatique quantique constituerait probablement un contre-exemple si elle pouvait effectivement être instanciée, mais existe-t-il des possibilités "plus faibles" que celles quantiques qui seraient également des contre-exemples?
Aujourd'hui, il existe de nombreux exemples intéressants de systèmes physiques qui semblent capables de mettre en œuvre une partie de l'informatique quantique, mais pas tous (donnant des classes de complexité pouvant être intermédiaires entre BPP et BQP). En outre, beaucoup de ces systèmes pourraient être plus faciles à réaliser qu’un CQ universel. Voir par exemple cet article de Bremner, Jozsa et Shepherd, ou celui d'Arkhipov et moi-même.
la source
Cette réponse est destinée à compléter la réponse de Scott Aaronson (avec laquelle je suis principalement d'accord).
D'un point de vue technique, il est frappant de constater que l'article de Dershowitz / Falkovich utilise le mot "random" uniquement dans le sens de "mémoire à accès aléatoire". En outre, l'article n'utilise pas le mot "sample" (ni aucun de ses mots). variantes) du tout. L'analyse de Dershowitz / Falkovic se concentre plutôt sur le calcul de fonctions numériques.
Cette limitation est frappante car la grande majorité des ressources de calcul STEM modernes (je me risquerai à dire) ne respectent pas la restriction aux fonctions numériques, mais sont plutôt consacrées à la génération d’échantillons à partir de distributions (par exemple, dynamique moléculaire, flux de fluide turbulent, propagation de fracture). , systèmes de spin bruyants classiques et quantiques, ondes se propageant à travers des supports aléatoires, etc.).
Ainsi, si la "thèse de l'Eglise-Turing élargie" (ECT) doit avoir une pertinence substantielle pour les calculs STEM définis au sens large, peut-être que la restriction exclusive aux fonctions numériques devrait être levée et qu'une déclaration généralisée de l'ECT soit fournie, qui englobe l'échantillonnage calculs (et leur validation et vérification).
Cette version du test ECT généralisée à l’échantillonnage relèverait-elle toujours de la compétence du SDC telle que conçue traditionnellement? La réponse est apparemment "oui", selon la FAQ de TCS Stack Exchange :
Ces considérations suggèrent que, pour être utiles aux calculs STEM pratiques, les analyses de l'ECT devraient inclure des considérations explicites sur la validation et la vérification de l'échantillonnage ... et nous pouvons raisonnablement anticiper que cette extension de l'ECT serait associée à la fois à de beaux théorèmes mathématiques et à stimuler des connaissances physiques.la source
Par exemple, supposons que je prétende avoir construit une machine qui factorise les nombres et que son exécution respecte une limite polynomiale particulière. La machine est dans une boîte, vous insérez le numéro inscrit sur une bande de papier et vous imprimez les facteurs. Il ne fait aucun doute que cela fonctionne, car je l'ai utilisé pour remporter les défis RSA, confisquer la crypto-monnaie, factoriser de grands nombres de votre choix, etc. Qu'y a-t-il dans la boîte? S'agit-il d'un nouveau type d'ordinateur incroyable ou d'un ordinateur ordinaire utilisant un nouveau type de logiciel?
la source