Quels sont les modèles de calcul quantique?

38

Il semble que l'on entend souvent par calcul quantique la méthode de calcul par circuit quantique, dans laquelle un registre de qubits est exploité par un circuit à portes quantiques et mesuré à la sortie (et éventuellement à des étapes intermédiaires). Le recuit quantique semble au moins être une méthode totalement différente pour le calcul avec des ressources quantiques 1 , car il ne fait pas intervenir de portes quantiques.

Quels sont les différents modèles de calcul quantique? Qu'est-ce qui les rend différents?

Pour clarifier, je ne demande pas ce que différentes qubits d’implémentations physiques ont, je veux dire la description de différentes idées sur la façon de calculer les sorties à partir des entrées 2 en utilisant des ressources quantiques.


1. Tout ce qui est intrinsèquement non classique, comme enchevêtrement et cohérence.
2. Un processus qui transforme les entrées (telles que les qubits) en sorties (résultats du calcul).

Kiro
la source

Réponses:

19

Le modèle adiabatique

Ce modèle de calcul quantique est motivé par des idées de la théorie quantique à N-corps multiples et diffère sensiblement du modèle de circuit (en tant que modèle à temps continu) et des marches quantiques en temps continu (en ce qu'il a une évolution dépendante).

Le calcul adiabatique prend généralement la forme suivante.

  1. Commencez avec un ensemble de qubits, le tout dans un état simple tel que . Appelez l'état global initial | ψ 0 .|+|ψ0
  2. Soumettre ces qubits à une interaction hamiltonienne pour laquelle | ψ 0 est l'état fondamental unique , (l'état avec la plus faible énergie). Par exemple, étant donné | ψ 0= | +H0|ψ0 , nous pouvons choisir H 0 = - Σ k σ ( x ) k .|ψ0=|+nH0=kσk(x)
  3. Choisissez un Hamiltonien final , qui possède un état fondamental unique et qui code la réponse à un problème qui vous intéresse. Par exemple, si vous souhaitez résoudre un problème de satisfaction de contrainte, vous pouvez définir un hamiltonien H 1 = c h c , où la somme est prise sur les contraintes c du problème classique, et où chaque h c est un opérateur qui impose une pénalité énergétique (une contribution d'énergie positive) à tout état de base standard représentant une affectation classique qui ne satisfait pas la contrainte c .H1H1=chcchcc
  4. Définir un intervalle de temps et un hamiltonien H ( t ) variant dans le temps tel que H ( 0 )T0H(t) et H ( T ) = H 1 . Un choix courant mais non nécessaire consiste simplement à prendre une interpolation linéaire H ( t ) = tH(0)=H0H(T)=H1.H(t)=tTH1+(1tT)H0
  5. Pour les temps t=0 à , laissez le système évoluer sous l'hamiltonien H ( t ) qui varie continuellement , et mesurez les qubits à la sortie pour obtenir un résultat y { 0 , 1 } n .t=TH(t)y{0,1}n

La base du modèle adiabatique est le théorème adiabatique , dont il existe plusieurs versions. La version de Ambainis et Regev [  arXiv: quant-ph / 0411152  ] (un exemple plus rigoureux) implique que s’il existe toujours un "fossé énergétique" d’au moins λ>0 entre l’état fondamental de et son premier état excité pour tout 0 t T , et les normes d'opérateur des première et seconde dérivées de H sont suffisamment petites (c'est-à-dire H ( t )H(t)0tTHH(t)ne varie pas trop rapidement ou brusquement), vous pouvez augmenter la probabilité d'obtenir le résultat souhaité aussi grand que vous le souhaitez, en effectuant le calcul assez lentement. De plus, vous pouvez réduire la probabilité d'erreur d'un facteur constant en ralentissant tout le calcul avec un facteur lié au polynôme.

Bien que sa présentation soit très différente du modèle de circuit unitaire, il a été démontré que ce modèle est équivalent en temps polynomial au modèle de circuit unitaire [  arXiv: quant-ph / 0405098  ]. L’avantage de l’algorithme adiabatique est qu’il offre une approche différente de la construction d’algorithmes quantiques, qui se prête mieux aux problèmes d’optimisation. Un inconvénient est qu'il n'est pas clair comment le protéger contre le bruit ou comment ses performances se dégradent sous un contrôle imparfait. Un autre problème est que, même sans aucune imperfection dans le système, il est difficile de déterminer la lenteur d'exécution de l'algorithme pour obtenir une réponse fiable. Cela dépend du déficit d'énergie et il n'est pas facile en général de dire de quelle énergie écart est pour un hamiltonien statique H, encore moins un variable dans le temps .H(t)

Néanmoins, il s’agit d’un modèle présentant un intérêt à la fois théorique et pratique et qui présente la particularité d’être le plus différent du modèle de circuit unitaire, qui est pratiquement le même.

Niel de Beaudrap
la source
15

Calcul quantique basé sur les mesures (MBQC)

C'est une façon d'effectuer un calcul quantique, en utilisant des mesures intermédiaires pour piloter le calcul plutôt que d'extraire les réponses. C'est un cas particulier de "circuits quantiques avec mesures intermédiaires", et n'est donc pas plus puissant. Cependant, lorsqu’il a été introduit, il a dépassé les intuitions du rôle des transformations unitaires dans le calcul quantique. Dans ce modèle, on a des contraintes telles que:

  1. On prépare ou on donne un très grand état enchevêtré - un état qui peut être décrit (ou préparé) en ayant un ensemble de qubits tous initialement préparés dans l'état , Puis une séquence d'opérations à Z contrôlées C Z = d i a g ( + 1 , + 1 ,|+ , exécutées sur des paires de qubits en fonction des relations de bord d'un graphe (généralement, une grille rectangulaire ou un réseau hexagonal).CZ=diag(+1,+1,+1,1)
  2. Effectuer une séquence de mesures sur ces qubits - certains peut-être dans la base standard, mais la majorité pas dans la base standard, mais plutôt dans la mesure d'observables tels que pour différents angles θ . Chaque mesure donne un résultat +MXY(θ)=cos(θ)Xsin(θ)Yθ ou - 1 (souvent étiquetés respectivement «0» ou «1»), et le choix de l'angle est autorisé à dépendre de manière simple des résultats des mesures précédentes (d'une manière calculée par un calcul classique). Système de contrôle).+11
  3. La réponse au calcul peut être calculée à partir des résultats classiques des mesures.±1

Comme avec le modèle de circuit unitaire, il existe des variations que l’on peut envisager pour ce modèle. Cependant, le concept de base consiste en des mesures adaptatives à un seul bit effectuées dans un grand état enchevêtré ou dans un état qui a été soumis à une séquence d'opérations de commutation et éventuellement enchevêtrement qui sont effectuées en une fois ou par étapes.

Ce modèle de calcul est généralement considéré comme utile principalement pour simuler des circuits unitaires. Parce qu'il est souvent perçu comme un moyen de simuler un modèle de calcul plus apprécié et plus simple, il n’est plus considéré théoriquement très intéressant pour la plupart des gens. Toutefois:

  • C'est notamment un concept motivant derrière la classe IQP , un moyen de démontrer qu'un ordinateur quantique est difficile à simuler, et Blind Quantum Computing, qui est un moyen d'essayer de résoudre des problèmes de calcul sécurisé en utilisant des ressources quantiques. .

  • Il n'y a aucune raison pour que les calculs basés sur des mesures soient essentiellement limités à la simulation de circuits quantiques unitaires: il me semble (avec une poignée d'autres théoriciens de la minorité) que MQBC pourrait fournir un moyen de décrire des primitives de calcul intéressantes. Bien que MBQC ne soit qu'un cas particulier de circuits avec des mesures intermédiaires, et puisse donc être simulé par des circuits unitaires avec une surcharge polynomiale uniquement, cela ne veut pas dire que les circuits unitaires seraient nécessairement une manière très féconde de décrire ce que l'on pourrait faire en principe dans un calcul basé sur la mesure (tout comme il existe des langages de programmation impératifs et fonctionnels dans le calcul classique qui sont un peu mal à l'aise les uns avec les autres).

La question reste de savoir si MBQC suggérera une manière de concevoir des algorithmes qui ne se présentent pas aussi facilement en termes de circuits unitaires - mais il ne peut être question d'un avantage ou d'un désavantage de calcul par rapport aux circuits unitaires, à l'exception de ressources spécifiques et de l'aptitude à l'emploi. un peu d'architecture.

Niel de Beaudrap
la source
1
MBQC peut être vu comme l'idée sous-jacente à certains codes de correction d'erreur, tels que le code de surface. Principalement dans le sens où le code de surface correspond à un réseau 3D de qubits avec un ensemble particulier de CZ entre eux que vous mesurez (avec l'implémentation réelle évaluant le cube couche par couche). Mais peut-être aussi dans le sens où la mise en œuvre réelle du code de surface est dictée par la mesure de stabilisants particuliers.
Craig Gidney
1
Cependant, la manière dont les résultats de mesure sont utilisés diffère considérablement entre les QECC et les MBQC. Dans le cas idéalisé d'absence ou de faible taux d'erreurs non corrélées, tout système QECC calcule la transformation d'identité à tout moment, les mesures sont périodiques dans le temps et les résultats sont fortement biaisés en faveur du résultat +1. Pour les constructions standard de protocoles MBQC, cependant, les mesures donnent des résultats de mesure uniformément aléatoires à chaque fois, et ces mesures sont fortement dépendantes du temps et entraînent une évolution non triviale.
Niel de Beaudrap
1
Est-ce une différence qualitative ou juste une différence quantitative? Le code de surface a également ces opérations de conduite (par exemple défauts de tressage et injection d'états T), il les sépare simplement par la distance du code. Si vous définissez la distance de code sur 1, une proportion beaucoup plus élevée d'opérations est importante en l'absence d'erreur.
Craig Gidney
1
Je dirais que la différence se produit également sur le plan qualitatif, car mon expérience tient compte des effets des procédures MBQC. De plus, il me semble que dans le cas des défauts de tressage et de l'injection de l'état T, ce ne sont pas le code de correction d'erreur, mais leurs déformations, qui effectuent le calcul. Ce sont certainement des choses pertinentes que l’on peut faire avec une mémoire corrigée en erreur, mais dire que le code le fait revient à peu près au même niveau que dire que c’est le qubit qui fait les calculs quantiques, par opposition aux opérations que l’ on effectue sur ces qubits.
Niel de Beaudrap
12

Le modèle de circuit unitaire

C'est le meilleur modèle bien connu de calcul quantique. Dans ce modèle, on a des contraintes telles que:

  1. un ensemble de qubits initialisés à l'état pur, que nous notons ;|0
  2. une séquence de transformations unitaires qui effectue un sur eux, ce qui peut dépendre d'une chaîne de bits classique ;x{0,1}n
  3. une ou plusieurs mesures de la norme effectuées à la toute fin du calcul, donnant une chaîne de sortie classique . (Nous n’avons pas besoin de k = n : par exemple, pour les problèmes OUI / NON, on prend souvent k = 1 quelle que soit la taille de n .)y{0,1}kk=nk=1n

Des détails mineurs peuvent changer (par exemple, l'ensemble des unitaries ne peut effectuer, si l' on permet la préparation dans d' autres états purs tels que , | + , | - , si des mesures doivent être dans la base standard ou peuvent également être base différente), mais cela ne fait aucune différence essentielle.|1|+|

Niel de Beaudrap
la source
11

Marche quantique à temps discret

Une "marche quantique à temps discret" est une variation quantique d'une marche aléatoire, dans laquelle il y a un "promeneur" (ou plusieurs "promeneurs") qui fait de petits pas dans un graphique (par exemple une chaîne de nœuds ou une grille rectangulaire ). La différence est que lorsqu'un randonneur aléatoire fait un pas dans une direction déterminée de manière aléatoire, un randonneur quantique fait un pas dans une direction déterminée par un registre "pièce" quantique qui, à chaque étape, est "retourné" par une transformation unitaire plutôt que modifiée. en ré-échantillonnant une variable aléatoire. Voir [  arXiv: quant-ph / 0012090  ] pour une référence rapide .

Par souci de simplicité, je décrirai une marche quantique sur un cycle de taille ; Cependant, il faut modifier certains détails pour prendre en compte les marches quantiques sur des graphiques plus généraux. Dans ce modèle de calcul, on fait généralement ce qui suit.2n

  1. Préparez un registre "position" sur bits dans un état tel que | 00 0 , et un registre « pièce » (avec des états de base standard que nous noterons | + 1 et | - 1 ) dans un état initial qui peut être une superposition des deux états de base standard.n|000|+1|1
  2. Effectuer une transformation cohérente contrôlée-unitaire, qui ajoute 1 à la valeur du registre de position (modulo ) si la pièce est à l'état | + 1 , et soustrait 1 à la valeur du registre de position (modulo 2 n ) si la pièce est dans l'état | - 1 .2n|+12n|1
  3. Effectuer une transformation unitaire fixe dans le registre des pièces. Cela joue le rôle d'une "pièce de monnaie" pour déterminer la direction de la prochaine étape. Nous revenons ensuite à l'étape 2.C

La principale différence entre cette marche et une marche aléatoire est que les différentes "trajectoires" possibles du promeneur sont exécutées de manière cohérente en superposition, de manière à pouvoir interférer de manière destructive. Cela conduit à un comportement du promeneur qui ressemble plus à un mouvement balistique qu'à une diffusion. En effet, Feynmann a présenté très tôt un tel modèle pour simuler l’équation de Dirac.

Ce modèle est également souvent décrit en termes de recherche ou de localisation d'éléments "marqués" dans le graphe, auquel cas on effectue une autre étape (pour déterminer si le nœud du promeneur est marqué, puis pour mesurer le résultat de ce calcul. ) avant de revenir à l'étape 2. Les autres variantes de ce type sont raisonnables.

Pour effectuer un parcours quantique sur un graphe plus général, il faut remplacer le registre "position" par un registre pouvant exprimer tous les nœuds du graphe, et le registre "pièce" par un registre pouvant exprimer les arêtes incidentes d'un sommet. Le "monnayeur" doit alors aussi être remplacé par un opérateur qui permet au promeneur de réaliser une superposition intéressante de trajectoires différentes. (Ce qui compte comme "intéressant" dépend de votre motivation: les physiciens considèrent souvent comment changer d'opérateur de pièce modifie l'évolution de la densité de probabilité, non pas à des fins de calcul, mais comme un moyen de sonder la physique de base en utilisant les balades quantiques comme modèle de jouet raisonnable du mouvement des particules.  ] de marches quantiques à temps discret.

Ce modèle de calcul est à proprement parler un cas particulier du modèle de circuit unitaire, mais est motivé par des intuitions physiques très spécifiques, ce qui a conduit à quelques éclairages algorithmiques (voir par exemple [  arXiv: 1302.3143  ]) pour des accélérations de temps polynomial dans borned-error algorithmes quantiques. Ce modèle est également un proche parent de la marche quantique en temps continu en tant que modèle de calcul.

Niel de Beaudrap
la source
1
si vous souhaitez parler des DTQW dans le contexte du contrôle de la qualité, vous devez probablement inclure des références au travail de Childs et de ses collaborateurs (par exemple, arXiv: 0806.1972 . Vous décrivez également le fonctionnement des DTQW, mais pas vraiment comment vous pouvez les utiliser pour effectuer des calculs. .
ih
2
@gIS: en effet, j'ajouterai plus de détails à un moment donné: lorsque je les ai écrits pour la première fois, c'était pour énumérer rapidement certains modèles et les commenter, plutôt que pour donner des critiques complètes. Mais quant à la façon de calculer, le dernier paragraphe ne représente-t-il pas un exemple?
Niel de Beaudrap
1
@gIS: N'est-ce pas le travail de Childs et al. en fait sur les marches quantiques en temps continu, de toute façon?
Niel de Beaudrap
10

Circuits quantiques avec mesures intermédiaires

Il s’agit d’une légère variation des "circuits unitaires", dans laquelle on autorise les mesures au milieu et à la fin de l’algorithme et permet également aux opérations futures de dépendre des résultats de ces mesures. Il représente une image réaliste d'un processeur quantique qui interagit avec un dispositif de contrôle classique, qui constitue entre autres l'interface entre le processeur quantique et un utilisateur humain.

Intermediary measurement is practically necessary to perform error correction, and so this is in principle a more realistic picture of quantum computation than the unitary circuit model. but it is not uncommon for theorists of a certain type to strongly prefer measurements to be left until the end (using the principle of deferred measurement to simulate any 'intermediary' measurements). So, this may be a significant distinction to make when talking about quantum algorithms — but this does not lead to a theoretical increase in the computational power of a quantum algorithm.

Niel de Beaudrap
la source
2
Je pense que cela devrait aller avec le "modèle de circuit unitaire" post, ils sont tous deux vraiment juste des variations du modèle de circuit, et on ne les distingue généralement pas vraiment comme des modèles différents
glS
1
@gIS: il n'est pas rare de le faire dans la communauté de la théorie CS. En fait, le biais est très fort en particulier pour les circuits unitaires.
Niel de Beaudrap
6

Recuit quantique

Le recuit quantique est un modèle de calcul quantique qui, grosso modo, généralise le modèle de calcul adiabatique. Il a attiré l'attention populaire - et commerciale - à la suite des travaux de D-WAVE sur le sujet.

Precisely what quantum annealing consists of is not as well-defined as other models of computation, essentially because it is of more interest to quantum technologists than computer scientists. Broadly speaking, we can say that it is usually considered by people with the motivations of engineers, rather than the motivations of mathematicians, so that the subject appears to have many intuitions and rules of thumb but few 'formal' results. In fact, in an answer to my question about quantum annealing, Andrew O goes so far as to say that "quantum annealing can't be defined without considerations of algorithms and hardware". Nevertheless, "quantum annealing" seems is well-defined enough to be described as a way of approaching how to solve problems with quantum technologies with specific techniques — and so despite Andrew O's assessment, I think that it embodies some implicitly defined model of computation. I will attempt to describe that model here.

Intuition behind the model

Quantum annealing gets its name from a loose analogy to (classical) simulated annealing. They are both presented as means of minimising the energy of a system, expressed in the form of a Hamiltonian:

Hclassical=i,jJijsisjHquantum=A(t)i,jJijσizσjzB(t)iσix
With simulated annealing, one essentially performs a random walk on the possible assignments to the 'local' variables si{0,1}, but where the probability of actually making a transition depends on
  • The difference in 'energy' ΔE=E1E0 between two 'configurations' (the initial and the final global assignment to the variables {si}i=1n) before and after each step of the walk;
  • A 'temperature' parameter which governs the probability with which the walk is allowed to perform a step in the random walk which has ΔE>0.

One starts with the system at 'infinite temperature', which is ultimately a fancy way of saying that you allow for all possible transitions, regardless of increases or decreases in energy. You then lower the temperature according to some schedule, so that time goes on, changes in state which increase the energy become less and less likely (though still possible). The limit is zero temperature, in which any transition which decreases energy is allowed, but any transition which increases energy is simply forbidden. For any temperature T>0, there will be a stable distribution (a 'thermal state') of assignments, which is the uniform distribution at 'infinite' temperature, and which is which is more and more weighted on the global minimum energy states as the temperature decreases. If you take long enough to decrease the temperature from infinite to near zero, you should in principle be guaranteed to find a global optimum to the problem of minimising the energy. Thus simulated annealing is an approach to solving optimisation problems.

Quantum annealing is motivated by generalising the work by Farhi et al. on adiabatic quantum computation [arXiv:quant-ph/0001106], with the idea of considering what evolution occurs when one does not necessarily evolve the Hamiltonian in the adiabatic regime. Similarly to classical annealing, one starts in a configuration in which "classical assignments" to some problem are in a uniform distribution, though this time in coherent superposition instead of a probability distribution: this is achieved for time t=0, for instance, by setting

A(t=0)=0,B(t=0)=1
in which case the uniform superposition |ψ0|0000+|0001++|1111 is a minimum-energy state of the quantum Hamiltonian. One steers this 'distribution' (i.e. the state of the quantum system) to one which is heavily weighted on a low-energy configuration by slowly evolving the system — by slowly changing the field strengths A(t) and B(t) to some final value
A(tf)=1,B(tf)=0.
Again, if you do this slowly enough, you will succeed with high probability in obtaining such a global minimum. The adiabatic regime describes conditions which are sufficient for this to occur, by virtue of remaining in (a state which is very close to) the ground state of the Hamiltonian at all intermediate times. However, it is considered possible that one can evolve the system faster than this and still achieve a high probability of success.

Similarly to adiabatic quantum computing, the way that A(t) and B(t) are defined are often presented as a linear interpolations from 0 to 1 (increasing for A(t), and decreasing for B(t)). However, also in common with adiabatic computation, A(t) and B(t) don't necessarily have to be linear or even monotonic. For instance, D-Wave has considered the advantages of pausing the annealing schedule and 'backwards anneals'.

'Proper' quantum annealing (so to speak) presupposes that evolution is probably not being done in the adiabatic regime, and allows for the possibility of diabatic transitions, but only asks for a high chance of achieving an optimum — or even more pragmatically still, of achieving a result which would be difficult to find using classical techniques. There are no formal results about how quickly you can change your Hamiltonian to achieve this: the subject appears mostly to consist of experimenting with a heuristic to see what works in practise.

The comparison with classical simulated annealing

Despite the terminology, it is not immediately clear that there is much which quantum annealing has in common with classical annealing. The main differences between quantum annealing and classical simulated annealing appear to be that:

  • In quantum annealing, the state is in some sense ideally a pure state, rather than a mixed state (corresponding to the probability distribution in classical annealing);

  • In quantum annealing, the evolution is driven by an explicit change in the Hamiltonian rather than an external parameter.

It is possible that a change in presentation could make the analogy between quantum annealing and classical annealing tighter. For instance, one could incorporate the temperature parameter into the spin Hamiltonian for classical annealing, by writing

H~classical=A(t)i,jJijsisjB(t)i,jconst.
where we might choose something like A(t)=t/(tFt) and B(t)=tFt for tF>0 the length of the anneal schedule. (This is chosen deliberately so that A(0)=0 and A(t)+ for ttF.) Then, just as an annealing algorithm is governed in principle by the Schrödinger equation for all times, we may consider an annealing process which is governed by a diffusion process which is in principle uniform with tim by small changes in configurations, where the probability of executing a randomly selected change of configuration is governed by
p(xy)=max{1,exp(γΔExy)}
for some constant γ, where Exy is the energy difference between the initial and final configurations. The stable distribution of this diffusion for the Hamiltonian at t=0 is the uniform distribution, and the stable distribution for the Hamiltonian as ttF is any local minimum; and as t increases, the probability with which a transition occurs which increases the energy becomes smaller, until as ttF the probability of any increases in energy vanish (because any of the possible increase is a costly one).

There are still disanalogies to quantum annealing in this — for instance, we achieve the strong suppression of increases in energy as ttF essentially by making the potential wells infinitely deep (which is not a very physical thing to do) — but this does illustrate something of a commonality between the two models, with the main distinction being not so much the evolution of the Hamiltonian as it is the difference between diffusion and Schrödinger dynamics. This suggests that there may be a sharper way to compare the two models theoretically: by describing the difference between classical and quantum annealing, as being analogous to the difference between random walks and quantum walks. A common idiom in describing quantum annealing is to speak of 'tunnelling' through energy barriers — this is certainly pertinent to how people consider quantum walks: consider for instance the work by Farhi et al. on continuous-time quantum speed-ups for evaluating NAND circuits, and more directly foundational work by Wong on quantum walks on the line tunnelling through potential barriers. Some work has been done by Chancellor [arXiv:1606.06800] on considering quantum annealing in terms of quantum walks, though it appears that there is room for a more formal and complete account.

On a purely operational level, it appears that quantum annealing gives a performance advantage over classical annealing (see for example these slides on the difference in performance between quantum vs. classical annealing, from Troyer's group at ETH, ca. 2014).

Quantum annealing as a phenomenon, as opposed to a computational model

Because quantum annealing is more studied by technologists, they focus on the concept of realising quantum annealing as an effect rather than defining the model in terms of general principles. (A rough analogy would be studying the unitary circuit model only inasmuch as it represents a means of achieving the 'effects' of eigenvalue estimation or amplitude amplification.)

Therefore, whether something counts as "quantum annealing" is described by at least some people as being hardware-dependent, and even input-dependent: for instance, on the layout of the qubits, the noise levels of the machine. It seems that even trying to approach the adiabatic regime will prevent you from achieving quantum annealing, because the idea of what quantum annealing even consists of includes the idea that noise (such as decoherence) will prevent annealing from being realised: as a computational effect, as opposed to a computational model, quantum annealing essentially requires that the annealing schedule is shorter than the decoherence time of the quantum system.

Some people occasionally describe noise as being somehow essential to the process of quantum annealing. For instance, Boixo et al. [arXiv:1304.4595] write

Unlike adiabatic quantum computing[, quantum annealing] is a positive temperature method involving an open quantum system coupled to a thermal bath.

It might perhaps be accurate to describe it as being an inevitable feature of systems in which one will perform annealing (just because noise is inevitable feature of a system in which you will do quantum information processing of any kind): as Andrew O writes "in reality no baths really help quantum annealing". It is possible that a dissipative process can help quantum annealing by helping the system build population on lower-energy states (as suggested by work by Amin et al., [arXiv:cond-mat/0609332]), but this seems essentially to be a classical effect, and would inherently require a quiet low-temperature environment rather than 'the presence of noise'.

The bottom line

It might be said — in particular by those who study it — that quantum annealing is an effect, rather than a model of computation. A "quantum annealer" would then be best understood as "a machine which realises the effect of quantum annealing", rather than a machine which attempts to embody a model of computation which is known as 'quantum annealing'. However, the same might be said of adiabatic quantum computation, which is — in my opinion correctly — described as a model of computation in its own right.

Perhaps it would be fair to describe quantum annealing as an approach to realising a very general heuristic, and that there is an implicit model of computation which could be characterised as the conditions under which we could expect this heuristic to be successful. If we consider quantum annealing this way, it would be a model which includes the adiabatic regime (with zero-noise) as a special case, but it may in principle be more general.

Niel de Beaudrap
la source