Franchement, je doute que cela fonctionnerait jamais - l'OMI toute structure plus complexe fondra juste de la décohérence.
Néanmoins, l'utilisation la plus évidente est probablement de faire des balayages combinatoires complets pour un plus grand nombre de variables ou d'énormes simulations de Monte Carlo.
Pourtant, ce sont des choses réalisables par les ordinateurs moléculaires - imaginez combinaisons évaluées à la fois (-; Et ce genre de choses est plus réaliste, une configuration similaire a déjà été utilisée pour le vendeur itinérant . Bien sûr, il y a des problèmes, comme celui de l'assemblage l'étape est encore plus longue que l'étape de résolution et ce sont des dispositifs ponctuels, mais nous sommes au tout début de ce chemin.1023
Merci pour votre réponse! Existe-t-il déjà des algorithmes conçus pour fonctionner sur des ordinateurs quantiques (hypothétiques) pour des balayages combinatoires complets ou des simulations de Monte Carlo?
Andrew
@Andrew Nope, et il y a peu de chances de les avoir bientôt. La plupart des travaux dans le domaine portent sur la cryptographie, d'où les problèmes pratiquement insolubles de la théorie des nombres. Et ce sont bien des accélérateurs (c.-à-d. Des boîtiers de matériel magiques qui font certaines choses) plus que des CPU - même la machine Turing est hors de portée.
@Andrew BTW, vous pouvez en savoir plus en posant une question similaire sur Physics.SE .
Si je poste cela là-bas, est-ce que je tomberai en colère contre les gens qui sont contrariés par la publication croisée?
Andrew
@Andrew, je ne pensais pas à publier le Q exact, plutôt quelque chose comme "Un ordinateur quantique peut-il effectuer un balayage combinatoire complet? Est-ce que ça vaut le coup?" et une brève mention de l'aspect classique d'un tel algorithme (pour éviter "Oui, il peut résoudre le problème quantique X directement!" - comme des réponses).
2
Si cela fonctionnait réellement, et est-ce que vous pourriez implémenter le code statistique d'une manière ou d'une autre? Absolument. Il existe sans aucun doute de nouvelles techniques qui pourraient émerger en jetant encore plus de puissance de calcul sur quelque chose. Ou, ce qui est plus important encore, en rendant accessibles les techniques de pointe actuellement à la pointe du progrès. Pensez aux ordinateurs actuels - L'estimation bayésienne n'est pas exactement nouvelle. Mais pouvoir exécuter une analyse basée sur MCMC sur des ensembles de données massivement complexes où ce n'est pas l'objet du papier, mais juste quelque chose qui s'est passé en cours de route, est une chose profondément puissante.
Donc, même s'ils n'apportent pas de nouvelles techniques (ce qu'ils feront), pouvoir "oui, bien sûr, nous pouvons le faire" à des techniques intensives en calcul sur d'énormes ensembles de données est un gros problème.
Merci! Êtes-vous en mesure de donner votre avis sur le type de problèmes de statistiques de calcul qui peuvent être résolus?
Andrew
2
Je ne dirais pas que je suis à la pointe de la théorie statistique ou autre, mais celle qui est assez facile à envisager est l'utilisation de l'imputation multiple pour les problèmes d'information manquants / incomplets, ou des modèles bayésiens basés sur MCMC pour de nombreuses variables en très grande jeux de données. En épidémiologie, des données comme l'ensemble de la base de données Medicare / Medicade ou d'autres bases de données nationales sur les réclamations dans les pays dotés de systèmes de santé nationaux. Tout cela peut être fait maintenant, mais c'est lent et nécessite des choses comme les clusters, qui ne sont pas accessibles à certains et ... intimidants pour d'autres.
Si cela fonctionnait réellement, et est-ce que vous pourriez implémenter le code statistique d'une manière ou d'une autre? Absolument. Il existe sans aucun doute de nouvelles techniques qui pourraient émerger en jetant encore plus de puissance de calcul sur quelque chose. Ou, ce qui est plus important encore, en rendant accessibles les techniques de pointe actuellement à la pointe du progrès. Pensez aux ordinateurs actuels - L'estimation bayésienne n'est pas exactement nouvelle. Mais pouvoir exécuter une analyse basée sur MCMC sur des ensembles de données massivement complexes où ce n'est pas l'objet du papier, mais juste quelque chose qui s'est passé en cours de route, est une chose profondément puissante.
Donc, même s'ils n'apportent pas de nouvelles techniques (ce qu'ils feront), pouvoir "oui, bien sûr, nous pouvons le faire" à des techniques intensives en calcul sur d'énormes ensembles de données est un gros problème.
la source