Au cours des dernières années, il y a eu une vague de démonstrations de dispositifs capables de réaliser une preuve de principe, un calcul quantique à petite échelle et non tolérant aux pannes (ou les technologies quantiques à échelle intermédiaire bruyante, comment elles ont été désignées ).
Avec cela, je me réfère principalement aux dispositifs supraconducteurs et pièges à ions démontrés par des groupes tels que Google, Microsoft, Rigetti Computing, le groupe Blatt (et probablement d'autres que j'oublie maintenant).
Ces appareils, ainsi que ceux qui les suivront, sont souvent radicalement différents les uns des autres (en termes d'architecture, de portes plus faciles / plus difficiles à mettre en œuvre, nombre de qubit, connectivité entre les qubits, cohérence et temps de porte, génération et capacités de lecture, fidélité des portes, pour ne citer que les facteurs les plus évidents).
D'un autre côté, il est très courant dans les communiqués de presse et les actualités non techniques de simplement dire "le nouveau dispositif X a Y plus de qubits que le précédent, il est donc beaucoup plus puissant".
Le nombre de qubits est-il vraiment un facteur si important pour évaluer ces appareils? Ou devrions-nous plutôt utiliser des métriques différentes? Plus généralement, existe-t-il des mesures «simples» qui peuvent être utilisées pour comparer qualitativement, mais de manière significative, différents appareils?
Alors que le nombre de qubits devrait faire partie d' une telle métrique, comme vous le dites, c'est loin de tout.
Cependant, comparer deux appareils complètement différents (par exemple, supraconducteur et optique linéaire) n'est pas la tâche la plus simple 1 .
Facteurs
Poser des questions sur la cohérence et les temps de porte équivaut à poser des questions sur la fidélité et les temps de porte 1 . Les portes étant plus difficiles ou plus faciles à mettre en œuvre affectent à nouveau la fidélité.
Le taux d'initialisation, la génération de qubit / enchevêtrement et les capacités de lecture (etc.) vont affecter la fidélité globale ainsi que quelque chose qui ressemble à `` à quelle fréquence (en moyenne) pouvons-nous effectuer un calcul (tout en obtenant un résultat de fidélité suffisamment élevé, pour certains idée de «fidélité suffisamment élevée») ».
En termes d'architecture, plus la macro-architecture (par exemple qRAM) aura ses propres normes et repères, tels que le temps de lecture, "la lecture est-elle à la demande?" et bien sûr, la fidélité.
Plus la microarchitecture peut être décrite sous les mêmes notions de connectivité.
Une autre mesure, souvent ignorée, est la puissance / les ressources utilisées.
Dans l'ensemble, cela peut avoir légèrement réduit cette liste , mais c'est toujours une liste qui implique une bonne quantité de comparaison. Comparer différents appareils qui utilisent la même méthode n'est même pas aussi simple que (aux niveaux de technologie actuels), les processeurs avec un plus grand nombre de qubits ont souvent des fidélité plus faibles 2 .
Volume quantique
Bien sûr, nous voulons aller au-delà de la science et de l'ingénierie. Pour cela, nous avons besoin d'un standard 3 . Ceci est actuellement prévu, comme détaillé dans la réponse de Whurley .
Cependant, comme toute comparaison entre de telles listes ne sera pas simple, il y a toujours la manière la plus subjective, comme Quantum Awesomeness , où la jouissance du jeu dépend de la qualité du processeur 4 .
1 Dans ce cas particulier, un exemple est que, comme les photons ne décroissent pas, cela doit donc être adapté pour demander la durée ou le nombre de portes avant que l'état réalisé ne soit plus une bonne approximation de l'état idéal, qui demande juste la fidélité, ou la fidélité et les temps de porte
2 J'ai essayé beaucoup au moins et même ce n'est pas exactement la tâche la plus amusante
3 Le premier, contrairement au XKCD 927
4 L'opinion de l'auteur est que, bien qu'une idée géniale et utile pour avoir une idée de la qualité d'un processeur, dire qu'un processeur est meilleur qu'un autre dans un tel jeu est un peu trop subjectif pour dire si un processeur est réellement meilleur que un autre
la source
IBM fait la promotion de leur idée de volume quantique (voir également ceci ) pour quantifier la puissance d'une machine modèle de porte avec un seul numéro. Avant IBM, Rigetti avait tenté de définir un facteur quantique total . On ne sait pas s'il capture ce que nous voulons en termes d'utilité des appareils pour les applications. Des choses comme le volume quantique doivent être conçues en pensant aux expériences de suprématie, me semble-t-il. Je penche pour penser qu'une métrique devrait être vraiment spécifique à l'application. Pour l'échantillonnage, ce travail a suggéré d'utiliser le score qBAS .
Pour le recuit quantique et les approches analogiques similaires, il semble que la communauté est d'accord sur délai de résolution et les variantes; une fois de plus des détails d'application assez.
La communauté travaille sur la définition de métriques, et je m'attends à voir en 2018 des exécutions réelles du même problème sur différents appareils (comparaison empirique).
la source