Quels types de problèmes statistiques sont susceptibles de bénéficier de l'informatique quantique?

14

Nous sommes à l'avènement de l'informatique quantique , les langages quantiques anticipant les ordinateurs quantiques matériels désormais disponibles à des niveaux élevés et faibles pour les ordinateurs quantiques simulés. L'informatique quantique apporte de nouvelles fonctions élémentaires comme l' intrication et la téléportation des qubits, la mesure des qubits et l'imposition de superposition sur les qubits.

Quels types de problèmes statistiques sont susceptibles de bénéficier du calcul quantique?

Par exemple, les ordinateurs quantiques fourniront-ils une génération de nombres aléatoires véritablement plus omniprésente? Qu'en est-il de la génération de nombres pseudo-aléatoires à bas coût de calcul? L'informatique quantique aidera-t-elle à accélérer la convergence MCMC ou à garantir les limites supérieures du temps de convergence? Y aura-t-il des algorithmes quantiques pour d'autres estimateurs basés sur l'échantillonnage?

C'est une question large, et les réponses acceptables seront également larges, mais bravo s'ils différencient le calcul quantique et classique. (S'il s'agit d'une question trop large , veuillez m'aider à en faire une meilleure question.)

Alexis
la source
6
+1 Je pense que c'est une bonne et intéressante question. Puisqu'il invite de nombreuses réponses (et potentiellement spéculatives), il est à la limite du type de question qui fonctionne ici. Il partage cette frontière avec certains de nos fils les plus populaires et les plus durables et, comme ceux-ci, mérite le statut CW.
whuber
7
Étant donné que l'apprentissage automatique est une sorte de sous-discipline des statistiques, vous pourriez trouver intéressant les algorithmes quantiques pour l'apprentissage automatique supervisé et non supervisé .
Jakub Bartczuk
2
Une informatique plus rapide est toujours précieuse, mais actuellement l'informatique quantique en est à ses balbutiements et elle n'a pas encore réussi à battre l'informatique classique. J'apprécie cette question car elle m'a permis d'aller en apprendre quelque chose. Jusqu'à présent, j'ai du mal à comprendre.
Michael R. Chernick
1
Est-il important que l'informatique quantique en soit encore à ses balbutiements? Cela fonctionne et il bat l'informatique classique quand il était bébé. De plus, la vitesse peut être exponentielle pour des problèmes tels que la résolution d'équations matricielles ou la recherche de l'inverse de fonctions et de boîtes noires. Maintenant, il nous suffit de le faire grandir. Les algorithmes qui peuvent fonctionner sur ces ordinateurs futurs ont déjà été réalisées en place depuis des décennies .. Il est seulement simple (bien que très large, il suffit de penser des équations de la matrice) pour trouver des applications pour les statistiques.
Sextus Empiricus
1
Je pense que le premier point et le plus important est que l'informatique quantique peut théoriquement accélérer l'arithmétique de manière significative. Est-ce exact? Si oui, alors toutes les routines d'algèbre linéaire voient déjà un avantage.
AdamO

Réponses:

1

Les méthodes de force brute sont les plus susceptibles de bénéficier de ce qu'est l'informatique quantique. Pourquoi? Une explication physique possible du chemin d'une balle de baseball lancée est que tous les chemins quantiques possibles sont automatiquement explorés et que le chemin de moindre dépense d'énergie, c'est-à-dire le chemin de moindre résistance disponible, est choisi, et tout cela sans avoir à construire de calculatrice. ; les calculs sont ineffables. Généralisation; la nature peut être considérée comme une calculatrice quantique. Ainsi, les problèmes similaires, ceux qui optimisent, comme la minimisation de la régression de certains critères, sont que la qualité de l'ajustement ou autre (la qualité de l'ajustement est, dans certains cas, mal posée) sont ceux qui en bénéficieront.

BTW, les étapes intermédiaires; les itérations, en optimisation ne seraient pas calculées, seul le résultat final, tout comme lorsqu'un terrain de baseball se produit. Autrement dit, seul le chemin réel du baseball se produit, les chemins alternatifs sont automatiquement exclus. Une différence entre une implémentation statistique et un événement physique est, cependant, que l'erreur du calcul statistique peut être faite aussi petite que souhaité en augmentant arbitrairement la précision, (par exemple, à 65 décimales), et cela n'est généralement pas réalisable physiquement . Par exemple, même une machine à lancer ne lancera pas une balle de baseball dans une voie exactement dupliquée.

Carl
la source
+1 Merci. Diriez-vous que les méthodes de Monte Carlo, les méthodes d'amorçage et d'autres approches quantitatives des solutions correspondent au label «force brute»?
Alexis
1
Potentiellement, ils peuvent, mais pas de la même manière que la programmation linéaire. Par exemple, la méthode de Metropolis et Ulam (simulation de Monte Carlo) a été initialement appliquée par Ulam pour calculer la masse critique de la bombe atomique. Avec le véritable calcul quantique, une bombe simulée subira ou non une explosion simulée, à peu près à la même vitesse que l'explosion réelle. BTW, j'ai rencontré Ulam en 1964, j'étais un jeune homme à l'époque.
Carl
1
Merci, ce point sur "l'explosion simulée" aide vraiment, et je pense que je construis mon intuition à ce sujet. À lire
Alexis
1

J'ai aimé la réponse ci-dessus sur le baseball. Mais je serais prudent quant à ce que l'informatique quantique pourrait bien faire.

Il semble que cela pourrait très bien faire dans des choses comme le craquage de schémas cryptographiques et autres: être capable de superposer toutes les solutions puis de s'effondrer sur la solution réelle pourrait aller assez vite.

Mais dans les années 1980 - il y a très longtemps - il y avait une entreprise très en vue nommée Thinking Machines. Voir cet article: https://en.wikipedia.org/wiki/Thinking_Machines_Corporation

L'idée entière avait une bouffée d'informatique quantique. Il a utilisé un arrangement d'hypercube à n dimensions. Imaginez, si vous voulez, quatre microprocesseurs (très simples) connectés dans un carré. Chacun pourrait faire un calcul, puis partager le résultat avec le processeur avant (dans le sens antihoraire), après (dans le sens horaire), ou en face (à travers). Imaginez ensuite 8 processeurs dans un cube qui peuvent étendre ce concept à trois dimensions (chaque processeur peut désormais partager sa sortie avec un ou plusieurs des 7 autres: 3 le long d'un sommet du cube; trois sur la face d'un carré auquel le processeur faisait partie de, et une diagonale dans 3 espaces).

Prenons maintenant ceci, avec peut-être 64 processeurs dans un hypercube à 6 dimensions.

C'était l'une des idées les plus en vogue de l'époque (avec la machine Lisp 34 bits dédiée que Symbolics a mise en place et le système de mémoire cache un peu bizarre mis en place par Kendall Square Research - les deux ont des pages wikipedia qui valent la peine d'être lues).

Le problème était qu'il y avait précisément un, et un seul algorithme qui fonctionnait bien sur l'architecture TM: une transformation de Fourier rapide utilisant ce qu'on appelait le "Perfect Shuffle Algorithm". C'était un aperçu génial de la façon d'utiliser une technique de masque binaire, l'algorithme sur mesure et l'architecture pour traiter en parallèle une FFT d'une manière brillamment intelligente et rapide. Mais je ne pense pas qu'ils aient jamais trouvé un autre usage unique pour cela. (voir cette question connexe: /cs/10572/perfect-shuffle-in-parallel-processing )

Je suis là depuis assez longtemps pour réaliser que les technologies qui semblent brillantes et puissantes finissent souvent par ne pas résoudre un problème (ou suffisamment de problèmes) pour les rendre utiles.

Il y avait beaucoup d'idées brillantes à l'époque: TM, Symbolics, KSR, ainsi que Tandem (disparu) et Stratus (étonnamment, toujours vivant). Tout le monde pensait que ces entreprises - au moins certaines d'entre elles - allaient conquérir le monde et révolutionner l'informatique.

Mais, à la place, nous avons eu FaceBook.

eSurfsnake
la source
Vous avez raison d'appeler le battage médiatique, et j'aime votre perspective historique, eSurfsnake. J'ai grandi dans le comté de Santa Clara en devenant la Silicon Valley ... J'ai depuis longtemps une profonde appréciation du calcul universel. L'une des raisons pour lesquelles les statistiques m'émeuvent, c'est parce que la probabilité - le vrai hasard - est en dehors du domaine du calcul. Nous pouvons le simuler ... très bien à de nombreuses fins, mais il y a des aspects de la nature, apparemment, qui ne sont pas du calcul. L'informatique quantique semble offrir des opérations élémentaires qui ne sont pas non plus du calcul de Turing ... donc je veux comprendre ce que de tels outils pourraient signifier.
Alexis
@Alexis En fait, les ordinateurs quantiques n'ont aucune capacité de super-Turing. Tout problème pouvant être calculé à l'aide d'un ordinateur quantique peut également être calculé à l'aide d'un ordinateur classique, ce qui découle du fait que les ordinateurs classiques peuvent simuler des ordinateurs quantiques. Mais, il existe quelques problèmes connus qui peuvent être résolus plus efficacement en utilisant des ordinateurs quantiques.
user20160
@ user20160 Le vrai hasard est une capacité super-Turing. La superposition est une capacité de super-Turing. La simulation n'est pas la chose en soi.
Alexis
@Alexis Je ne sais pas si nous parlons de la même chose, mais ce que je veux dire par super-Turing, c'est la capacité de calculer une fonction qu'une machine de Turing ne peut pas. Fait intéressant, le vrai hasard ne donne pas la possibilité de calculer une fonction qui ne pourrait pas être calculée de manière déterministe. Je suis tout à fait d'accord pour dire que la simulation n'est pas la chose elle-même, mais qu'elle est au cœur même de l'équivalence informatique (où nous résumons la chose elle-même). Si la machine A peut simuler la machine B, alors A peut calculer n'importe quelle fonction que B peut. Plus à Nielsen & Chuang. Calcul quantique et informations quantiques
user20160
0

Quels types de problèmes statistiques sont susceptibles de bénéficier de l'informatique quantique?

À la page 645 de « Chimie physique: concepts et théorie », Kenneth S. Schmitz explique:

Les effets quantiques deviennent importants lorsque la longueur d'onde de Broglie devient comparable ou supérieure aux dimensions de la particule. Lorsque cela se produit, les fonctions d'onde peuvent se chevaucher, donnant différentes propriétés du système.

Les systèmes macroscopiques peuvent être analysés par des méthodes classiques, comme l'explique cette page Wikipedia:

Une considération plus raffinée distingue la mécanique classique et la mécanique quantique sur la base que la mécanique classique ne reconnaît pas que la matière et l'énergie ne peuvent pas être divisées en parcelles infinitésimales, de sorte que finalement une division fine révèle des caractéristiques granulaires irréductibles. Le critère de finesse est de savoir si les interactions sont décrites ou non en termes de constante de Planck. En gros, la mécanique classique considère les particules en termes mathématiquement idéalisés, même aussi fines que des points géométriques sans magnitude, ayant toujours leurs masses finies. La mécanique classique considère également les matériaux étendus idéalisés mathématiquement comme substantiellement géométriquement continus. De telles idéalisations sont utiles pour la plupart des calculs quotidiens, mais peuvent échouer entièrement pour les molécules, les atomes, les photons et autres particules élémentaires. De plusieurs façons, la mécanique classique peut être considérée comme une théorie principalement macroscopique. À une échelle beaucoup plus petite d'atomes et de molécules, la mécanique classique peut échouer, et les interactions des particules sont ensuite décrites par la mécanique quantique.

   

Par exemple, les ordinateurs quantiques fourniront-ils une véritable génération de nombres aléatoires plus omniprésente ?

Non. Vous n'avez pas besoin d'un ordinateur pour générer un vrai nombre aléatoire, et utiliser un ordinateur quantique pour le faire serait un énorme gaspillage de ressources sans amélioration du caractère aléatoire.

ID Quantique a disponibles, SoC autonomes et les cartes PCIe à vendre pour de U $ 1200 à U $ 3500 . C'est un peu plus que des photons voyageant à travers un miroir semi-transparent, mais il a suffisamment de propriétés aléatoires quantiques pour passer AIS 31 ("Classes de fonctionnalité et méthodologie d'évaluation pour un vrai générateur de nombres aléatoires (physique) - Version 3.1 29 septembre 2001" .PDF ). Voici comment ils décrivent leur méthode:

Quantis est un générateur de nombres aléatoires physiques exploitant un processus d'optique quantique élémentaire. Les photons - particules de lumière - sont envoyés un par un sur un miroir semi-transparent et détectés. Ces événements exclusifs (réflexion - transmission) sont associés à des valeurs binaires «0» - «1». Cela nous permet de garantir un système véritablement impartial et imprévisible.

Un système plus rapide (1 Gbit / s) est proposé par QuintessenceLabs . Leur générateur de nombres aléatoires quantiques «qStream» est conforme au NIST SP 800-90A et répond aux exigences du projet NIST SP 800 90B et C. Il utilise des diodes tunnel Esaki . Leurs produits sont nouveaux et les prix ne sont pas encore accessibles au public.

Des systèmes de Comscire sont également disponibles pour plusieurs centaines à quelques milliers de dollars. Leurs méthodes et brevets PCQNG et RNG post-quantique sont expliqués sur leur site Web.

Quantum Numbers Corp. a développé un appareil de la taille d'une puce pour produire rapidement (1 Gbit / s) des nombres aléatoires quantiques qui, selon eux, seront bientôt disponibles.

Qu'en est-il de la génération de nombres pseudo-aléatoires à bas coût de calcul?

Si vous voulez dire "bon marché sur le plan du calcul" comme dans peu d'instructions et exécution rapide = oui.

Si vous voulez dire que n'importe quel ordinateur est un moyen peu coûteux de générer de vrais nombres aléatoires = non.

Toute propriété implémentée QRNG ne produira pas de nombres pseudo aléatoires.

L'informatique quantique aidera-t-elle à accélérer la convergence de la chaîne de Markov Monte-Carlo (MCMC) ou garantira-t-elle des limites supérieures sur le temps de convergence?

Je vais laisser quelqu'un d'autre faire un essai là-dessus pour l'instant.

Y aura-t-il des algorithmes quantiques pour d'autres estimateurs basés sur l'échantillonnage?

Probablement.

Veuillez modifier et améliorer cette réponse Wiki.

Rob
la source
Je ne suis pas sûr d'être d'accord sur le "vrai gaspillage de ressources" pour un vrai RNG fiable. D'une part, le pseudo-RNG prend du temps, ce qui s'additionne rapidement dans les travaux de simulation à grande échelle. D'autre part, RNG prend de la mémoire , et de même pour les travaux de simulation à grande échelle. Le fait d'avoir une source rapide et garantie de véritable aléatoire d'une distribution connue ne semble pas si inutile. De plus, d' autres solutions au vrai RNG n'empêchent pas les ordinateurs quantiques de fournir également une telle solution.
Alexis