Il me semble qu'une question extrêmement pertinente pour les perspectives de l'informatique quantique serait de savoir comment la complexité technique des systèmes quantiques évolue avec la taille. Signification, il est plus facile de construire 1 ordinateurs -qubit d'un n ordinateur -qubit. Dans mon esprit, cela est à peu près analogue au fait qu'il est plus facile de résoudre analytiquement n 1 problèmes -Corps que l' un n problème -Corps, étant donné que l' enchevêtrement est le principal facteur de motivation derrière l' informatique quantique en premier lieu.
Ma question est la suivante: il semble que nous devrions vraiment nous soucier de la façon dont la «difficulté» de construire et de contrôler un système quantique à corps croît avec n . Réparer une architecture de porte, ou même un algorithme - y a-t-il une difficulté de principe résultant du fait qu'un ordinateur à n bits est un problème quantique à plusieurs corps? Et que mathématiquement parlant, notre compréhension de la façon dont les phénomènes quantiques se transforment en phénomènes classiques est assez mauvaise? Ici, la difficulté peut être définie de différentes manières, et la question qui nous préoccupe, grosso modo, est de contrôler une machine à 1 000 bits (c'est-à-dire de préserver la cohérence de ses fonctions d'onde) «simplement» 100 fois plus difficile que de contrôler unMachine à 10 bits, ou 100 2 , ou 100 ! ou 100 100 ? Avons-nous des raisons de croire que ce sont plus ou moins les premiers, et non les seconds?
la source
Réponses:
C'est une question à laquelle je pense depuis plus de 10 ans. En 2008, j'étais étudiant, et j'ai dit à mon professeur d'informatique quantique que je voulais étudier la "complexité physique" de l'exécution d'algorithmes quantiques pour lesquels la "complexité informatique" était connue pour bénéficier du calcul quantique.
Par exemple, la recherche Grover nécessite portes quantiques par opposition auxportes classiquesO(n), mais que se passe-t-il si le coût du contrôle des portes quantiques est égal àn4alors que pour les portes classiques, ce n'est quen?O(n−−√) O(n) n4 n
Il a instantanément répondu:
Cela s'est avéré vrai. La «complexité physique» de la manipulation de qubits avec la RMN est bien pire que pour les qubits supraconducteurs, mais nous n'avons pas de formule pour la difficulté physique par rapport à n dans les deux cas.n n
Voici les étapes à suivre:
1. Trouvez un modèle de décohérence précis pour votre ordinateur quantique. Ce sera différent pour un qubit de spin dans un point quantique GaAs, contre un qubit de spin dans un centre NV de diamant, par exemple.F n F n
E
2. Calculez avec précision la dynamique des qubits en présence de décohérence.
3. Tracez vs n , où F est la fidélité des n qubits décohérés par rapport au résultat que vous obtiendriez sans décohérence. 4. Cela peut vous donner une indication du taux d'erreur (mais différents algorithmes auront des exigences de fidélité différentes). 5.
Choisissez un code de correction d'erreur. Cela vous indiquera combien de qubits physique dont vous avez besoin pour chaque qubit logique, pour un taux d'erreur . 6. Vous pouvez maintenant tracer le coût (en termes de nombre de qubits auxiliaires nécessaires) de "l'ingénierie" de l'ordinateur quantique.
Maintenant, vous pouvez voir pourquoi vous avez dû venir ici pour poser la question et la réponse ne figurait dans aucun manuel:
L'étape 1 dépend du type d'implémentation (RMN, photonique, SQUIDS, etc.) L'
étape 2 est très difficile. La dynamique sans décohérence a été simulée sans approximations physiques pour 64 qubits , mais la dynamique non markovienne et non perturbative avec décohérence est actuellement limitée à 16 qubits .
L'étape 4 dépend de l'algorithme. Il n'y a donc pas de "mise à l'échelle universelle" de la complexité physique, même si vous travaillez avec un type particulier d'implémentation (comme la RMN, la photonique, les SQUID, etc.). L'
étape 5 dépend du choix du code de correction d'erreur
Donc, pour répondre spécifiquement à vos deux questions:
Cela dépend de votre choix à l' étape 1 , et personne n'a encore été en mesure de passer de l' étape 1 à l'étape 3 pour obtenir une formule précise de la complexité physique en fonction du nombre de qubits, même pour un algorithme spécifique. Il s'agit donc toujours d'une question ouverte, limitée par la difficulté de simuler la dynamique des systèmes quantiques ouverts.
la source
Complexité du circuit
Je pense que le premier problème est de vraiment comprendre ce que l'on entend par «contrôler» un système quantique. Pour cela, il pourrait être utile de commencer à réfléchir au cas classique.
Décohérence
Suite aux commentaires,
Cela se divise en deux régimes. Pour les appareils quantiques à petite échelle, avant la correction d'erreur, vous pourriez dire que nous sommes dans le régime NISQ . Cette réponse est probablement la plus pertinente pour ce régime. Cependant, à mesure que votre appareil s'agrandit, les rendements diminuent; il devient de plus en plus difficile d'accomplir la tâche d'ingénierie juste pour ajouter quelques qubits supplémentaires.
Ce qui est vraiment très convaincant, c'est de voir comment les coefficients dans ces relations changent à mesure que votre erreur de porte se rapproche de plus en plus du seuil de correction d'erreur. Je n'arrive pas à mettre la main sur un calcul approprié (je suis sûr qu'Andrew Steane en a fait un à un moment donné. Peut-être que c'était un discours auquel je suis allé.), Mais ils explosent vraiment mal, donc vous voulez être en train de fonctionner avec une marge décente en dessous du seuil.
Cela dit, il y a quelques hypothèses à faire sur votre architecture avant que ces considérations soient pertinentes. Par exemple, il doit y avoir un parallélisme suffisant; vous devez pouvoir agir simultanément sur différentes parties de l'ordinateur. Si vous ne faites qu'une seule chose à la fois, les erreurs s'accumuleront toujours trop rapidement. Vous voulez également pouvoir faire évoluer votre processus de fabrication sans empirer les choses. Il semble que, par exemple, les qubits supraconducteurs seront assez bons pour cela. Leurs performances dépendent principalement de la précision avec laquelle vous pouvez créer différentes parties du circuit. Vous avez raison pour un, et vous pouvez "simplement" répéter plusieurs fois pour faire de nombreux qubits.
la source
Donc, dans un sens, la "fidélité" pourrait donner une estimation de la probabilité d'erreur du processeur. Si vous avez utilisé l'ordinateur quantique pour calculer, par exemple, la dynamique des réactions chimiques, ou tout autre problème, qui pourrait utiliser la superposition pour atteindre une accélération quantique (ou même la «suprématie quantique» éventuellement), vous pourriez être affecté par la décohérence, ou même la rapidité avec laquelle vous réalisez une superposition , pourrait jouer un rôle dans le fonctionnement sans erreur. "Fidelity" pourrait donner une estimation d'erreur, que nous utilisions 1 qubit ou disons 200 qubits. Vous pourriez même "concevoir" un hamiltonien, pour donner des qubits de haute fidélité, dans le cas adiabatique, où des erreurs de fuite se produisent.
Notez qu'en pratique, des taux d'erreur de 99,5% + sont hautement souhaitables, pour faciliter une correction efficace des erreurs. Les taux d'erreur pourraient être du type à lire les spins d'électrons entre les qubits avec précision. Dans un tel cas, des taux d'erreur de 99,5% ou 99,8% (confiance de type cinq ou six sigma) nécessiteraient moins de frais généraux (correction d'erreur) lors de la mise à l'échelle du système.
la source