Existe-t-il des estimations de la complexité de l'ingénierie quantique avec la taille?

12

Il me semble qu'une question extrêmement pertinente pour les perspectives de l'informatique quantique serait de savoir comment la complexité technique des systèmes quantiques évolue avec la taille. Signification, il est plus facile de construire 1 ordinateurs -qubit d'un n ordinateur -qubit. Dans mon esprit, cela est à peu près analogue au fait qu'il est plus facile de résoudre analytiquement n 1 problèmes -Corps que l' un n problème -Corps, étant donné que l' enchevêtrement est le principal facteur de motivation derrière l' informatique quantique en premier lieu.n 1nn 1n

Ma question est la suivante: il semble que nous devrions vraiment nous soucier de la façon dont la «difficulté» de construire et de contrôler un système quantique à corps croît avec n . Réparer une architecture de porte, ou même un algorithme - y a-t-il une difficulté de principe résultant du fait qu'un ordinateur à n bits est un problème quantique à plusieurs corps? Et que mathématiquement parlant, notre compréhension de la façon dont les phénomènes quantiques se transforment en phénomènes classiques est assez mauvaise? Ici, la difficulté peut être définie de différentes manières, et la question qui nous préoccupe, grosso modo, est de contrôler une machine à 1 000 bits (c'est-à-dire de préserver la cohérence de ses fonctions d'onde) «simplement» 100 fois plus difficile que de contrôler unnnn1000100Machine à 10 bits, ou 100 2 , ou 100 ! ou 100 100 ? Avons-nous des raisons de croire que ce sont plus ou moins les premiers, et non les seconds?101002100!100100

Keith Rush
la source
Ha, je ne sais pas ce que mon et était censé conduire à ...
Keith Rush
Salut @KeithRush n'y a-t-il pas aussi quelque chose qui manque dans la première phrase? Grande question au fait.
MEE - Rétablir Monica
Absolument pas dupliqué, mais je pense que les réponses aux deux questions sont profondément liées: quantumcomputing.stackexchange.com/questions/1803/…
agaitaarino

Réponses:

8

C'est une question à laquelle je pense depuis plus de 10 ans. En 2008, j'étais étudiant, et j'ai dit à mon professeur d'informatique quantique que je voulais étudier la "complexité physique" de l'exécution d'algorithmes quantiques pour lesquels la "complexité informatique" était connue pour bénéficier du calcul quantique.

Par exemple, la recherche Grover nécessite portes quantiques par opposition auxportes classiquesO(n), mais que se passe-t-il si le coût du contrôle des portes quantiques est égal àn4alors que pour les portes classiques, ce n'est quen?O(n)O(n)n4n

Il a instantanément répondu:

"Votre idée de la complexité physique dépendra sûrement de l'implémentation"

Cela s'est avéré vrai. La «complexité physique» de la manipulation de qubits avec la RMN est bien pire que pour les qubits supraconducteurs, mais nous n'avons pas de formule pour la difficulté physique par rapport à n dans les deux cas.nn

Voici les étapes à suivre:

1. Trouvez un modèle de décohérence précis pour votre ordinateur quantique. Ce sera différent pour un qubit de spin dans un point quantique GaAs, contre un qubit de spin dans un centre NV de diamant, par exemple.
2. Calculez avec précision la dynamique des qubits en présence de décohérence.
3. Tracez vs n , où F est la fidélité des n qubits décohérés par rapport au résultat que vous obtiendriez sans décohérence. 4. Cela peut vous donner une indication du taux d'erreur (mais différents algorithmes auront des exigences de fidélité différentes). 5.FnFn

Choisissez un code de correction d'erreur. Cela vous indiquera combien de qubits physique dont vous avez besoin pour chaque qubit logique, pour un taux d'erreur . 6. Vous pouvez maintenant tracer le coût (en termes de nombre de qubits auxiliaires nécessaires) de "l'ingénierie" de l'ordinateur quantique.E

Maintenant, vous pouvez voir pourquoi vous avez dû venir ici pour poser la question et la réponse ne figurait dans aucun manuel:

L'étape 1 dépend du type d'implémentation (RMN, photonique, SQUIDS, etc.) L'
étape 2 est très difficile. La dynamique sans décohérence a été simulée sans approximations physiques pour 64 qubits , mais la dynamique non markovienne et non perturbative avec décohérence est actuellement limitée à 16 qubits .
L'étape 4 dépend de l'algorithme. Il n'y a donc pas de "mise à l'échelle universelle" de la complexité physique, même si vous travaillez avec un type particulier d'implémentation (comme la RMN, la photonique, les SQUID, etc.). L'
étape 5 dépend du choix du code de correction d'erreur

Donc, pour répondre spécifiquement à vos deux questions:

100101002100!100100

Cela dépend de votre choix à l' étape 1 , et personne n'a encore été en mesure de passer de l' étape 1 à l'étape 3 pour obtenir une formule précise de la complexité physique en fonction du nombre de qubits, même pour un algorithme spécifique. Il s'agit donc toujours d'une question ouverte, limitée par la difficulté de simuler la dynamique des systèmes quantiques ouverts.

Avons-nous des raisons de croire que ce sont plus ou moins les premiers, et non les seconds?

n!n100n

user1271772
la source
1
nρ(C2)nnρn
1
Qu'entendez-vous par «dynamique infinitésimale»? Le champ vectoriel est déterminé par la dynamique évaluée à quel point? Calculer la norme de quoi (en utilisant le champ tensoriel métrique de Fisher)? Voulez-vous dire calculer la norme du champ vectoriel? Cela semble être peut-être une bonne idée, mais si c'est ce que je pense que vous voulez dire, qui est de regarder la décohérence pour un temps infinitésimal à t = 0, je ne sais pas à quel point cela est précieux en tant que métrique, car cela prend Il est temps que la décohérence atteigne sa pleine résistance, car la résistance à la décohérence est caractérisée par la fonction de réponse au bain, qui fait partie intégrante de t.
user1271772
1
(Mn,g)nMnρTρMnr(ρ). Si vous voulez un supremum sur tous les états possibles, faites une ascension en gradient. Cela donne une limite très grossière du taux de décohérence étant donné le champ vectoriel qui a défini la dynamique. Cela peut être utilisé pour limiter la décohérence même à des moments plus importants en raison de cette limite de vitesse.
AHusain
4

Complexité du circuit

Je pense que le premier problème est de vraiment comprendre ce que l'on entend par «contrôler» un système quantique. Pour cela, il pourrait être utile de commencer à réfléchir au cas classique.

n2n222n2n/nk2n

nϵO(n2), puis contrôler de manière appropriée une machine à 1000 qubits est en quelque sorte 10000 fois plus difficile que de contrôler une machine à 10 qubits, dans le sens où vous devez le protéger de la décohérence pendant beaucoup plus longtemps, implémenter autant de portes, etc.

Décohérence

Suite aux commentaires,

Prenons un algorithme spécifique ou un type de circuit spécifique. Ma question pourrait être reformulée - y a-t-il une indication, théorique ou pratique, de la façon dont le problème (d'ingénierie) de la prévention de la décohérence évolue lorsque nous modifions le nombre de ces circuits?

Cela se divise en deux régimes. Pour les appareils quantiques à petite échelle, avant la correction d'erreur, vous pourriez dire que nous sommes dans le régime NISQ . Cette réponse est probablement la plus pertinente pour ce régime. Cependant, à mesure que votre appareil s'agrandit, les rendements diminuent; il devient de plus en plus difficile d'accomplir la tâche d'ingénierie juste pour ajouter quelques qubits supplémentaires.

pppp1%O(logϵ)ϵO(logϵ)facteur d'échelle. Pour des nombres spécifiques, vous pourriez être intéressé par les types de calculs qu'Andrew Steane a effectués: voir ici (bien que les nombres pourraient probablement être améliorés un peu maintenant).

Ce qui est vraiment très convaincant, c'est de voir comment les coefficients dans ces relations changent à mesure que votre erreur de porte se rapproche de plus en plus du seuil de correction d'erreur. Je n'arrive pas à mettre la main sur un calcul approprié (je suis sûr qu'Andrew Steane en a fait un à un moment donné. Peut-être que c'était un discours auquel je suis allé.), Mais ils explosent vraiment mal, donc vous voulez être en train de fonctionner avec une marge décente en dessous du seuil.

Cela dit, il y a quelques hypothèses à faire sur votre architecture avant que ces considérations soient pertinentes. Par exemple, il doit y avoir un parallélisme suffisant; vous devez pouvoir agir simultanément sur différentes parties de l'ordinateur. Si vous ne faites qu'une seule chose à la fois, les erreurs s'accumuleront toujours trop rapidement. Vous voulez également pouvoir faire évoluer votre processus de fabrication sans empirer les choses. Il semble que, par exemple, les qubits supraconducteurs seront assez bons pour cela. Leurs performances dépendent principalement de la précision avec laquelle vous pouvez créer différentes parties du circuit. Vous avez raison pour un, et vous pouvez "simplement" répéter plusieurs fois pour faire de nombreux qubits.

DaftWullie
la source
1
C'est essentiellement ce que je voulais dire, mais supprimer la complexité algorithmique et se concentrer sur la complexité de l'ingénierie - en particulier la prévention de la décohérence. Prenons un algorithme spécifique ou un type de circuit spécifique. Ma question pourrait être reformulée - y a-t-il une indication, théorique ou pratique, de la façon dont le problème (d'ingénierie) de la prévention de la décohérence évolue lorsque nous modifions le nombre de ces circuits?
Keith Rush
@KeithRush OK! Maintenant, je commence à comprendre ce que vous recherchez :) essentiellement, c'est la complexité de calcul de la tolérance aux pannes - quels sont les temps et l'espace nécessaires pour obtenir un certain nombre de qubits logiques de haute qualité - et c'est quelque chose que les gens ont élaboré assez attentivement. J'essaierai de creuser les informations pertinentes demain, à moins que quelqu'un d'autre ne me bat.
DaftWullie
2

mn

Donc, dans un sens, la "fidélité" pourrait donner une estimation de la probabilité d'erreur du processeur. Si vous avez utilisé l'ordinateur quantique pour calculer, par exemple, la dynamique des réactions chimiques, ou tout autre problème, qui pourrait utiliser la superposition pour atteindre une accélération quantique (ou même la «suprématie quantique» éventuellement), vous pourriez être affecté par la décohérence, ou même la rapidité avec laquelle vous réalisez une superposition , pourrait jouer un rôle dans le fonctionnement sans erreur. "Fidelity" pourrait donner une estimation d'erreur, que nous utilisions 1 qubit ou disons 200 qubits. Vous pourriez même "concevoir" un hamiltonien, pour donner des qubits de haute fidélité, dans le cas adiabatique, où des erreurs de fuite se produisent.

Notez qu'en pratique, des taux d'erreur de 99,5% + sont hautement souhaitables, pour faciliter une correction efficace des erreurs. Les taux d'erreur pourraient être du type à lire les spins d'électrons entre les qubits avec précision. Dans un tel cas, des taux d'erreur de 99,5% ou 99,8% (confiance de type cinq ou six sigma) nécessiteraient moins de frais généraux (correction d'erreur) lors de la mise à l'échelle du système.

user3483902
la source