En tant que titulaire d'un BA en physique, j'ai été quelque peu scandalisé lorsque j'ai commencé à travailler avec des simulations moléculaires. Ce fut un peu un choc de découvrir que même les simulations les plus détaillées et les plus coûteuses en calcul ne peuvent pas reproduire quantitativement le comportement complet de l'eau à partir des premiers principes.
Auparavant, j'avais eu l'impression que les lois de base de la mécanique quantique étaient un problème résolu (à part la gravité, qui est généralement supposée non pertinente à l'échelle moléculaire). Cependant, il semble qu'une fois que vous essayez d'intensifier ces lois et de les appliquer à quelque chose de plus grand ou de plus complexe qu'un atome d'hydrogène, leur pouvoir prédictif commence à se dégrader.
D'un point de vue mathématique, je comprends que les fonctions d'onde deviennent rapidement trop compliquées à résoudre et que des approximations (telles que Born-Oppenheimer) sont nécessaires pour rendre les fonctions d'onde plus maniables. Je comprends également que ces approximations introduisent des erreurs qui se propagent de plus en plus à mesure que les échelles de temps et d'espace du système étudié augmentent.
Quelle est la nature de la plus grande et de la plus importante de ces erreurs d'approximation? Comment acquérir une compréhension intuitive de ces erreurs? Plus important encore, comment pouvons-nous évoluer vers une méthode ab-initio qui nous permettra de simuler avec précision des molécules entières et des populations de molécules? Quels sont les plus gros problèmes non résolus qui empêchent les gens de développer ce type de simulations?
Réponses:
Pour autant que je sache, les méthodes les plus précises pour les calculs statiques sont l'interaction de configuration complète avec un Hamiltonien Dirac à quatre composants entièrement relativiste et un ensemble de base "assez complet". Je ne suis pas un expert dans ce domaine particulier, mais d'après ce que je sais de la méthode, la résoudre en utilisant une méthode variationnelle (plutôt qu'une méthode basée sur Monte-Carlo) est terriblement mauvaise, car je pense que le nombre de déterminants Slater que vous avez d'inclure dans votre échelle matricielle quelque chose comme . (Il y a un article sur le coût de calcul iciO (no r b sCne) .) Les méthodes Monte-Carlo associées et les méthodes basées sur celles-ci en utilisant des «marcheurs» et des réseaux de déterminants peuvent donner des résultats plus rapidement, mais comme implicite ci-dessus, elles ne sont pas variationnelles. Et sont toujours horriblement coûteux.
Les approximations actuellement utilisées dans la pratique uniquement pour les énergies de plus de deux atomes comprennent:
Pour la dynamique, de nombreuses approximations se réfèrent à des choses comme la taille limitée d'un système maniable et le choix pratique des pas de temps - c'est assez standard dans le domaine de la simulation numérique du temps. Il y a aussi le maintien de la température (voir les thermostats Nose-Hoover ou Langevin). Il s'agit surtout d'un ensemble de problèmes de mécanique statistique, si je comprends bien.
Quoi qu'il en soit, si vous êtes axé sur la physique, vous pouvez avoir une assez bonne idée de ce qui est négligé en regardant les formulations et les articles sur ces méthodes: les méthodes les plus couramment utilisées auront au moins un ou deux articles qui ne sont pas les spécifications d'origine expliquer leur formulation et ce qu'elle comprend. Ou vous pouvez simplement parler aux personnes qui les utilisent. (Les personnes qui étudient les systèmes périodiques avec DFT marmonnent toujours sur ce que les différentes fonctions font et n'incluent pas et ne rendent pas compte.) Très peu de méthodes ont des omissions ou des modes de défaillance surprenants spécifiques. Le problème le plus difficile semble être un traitement approprié de la corrélation d'électrons, et tout ce qui dépasse la méthode Hartree-Fock, qui ne l'explique pas du tout, est une tentative de l'inclure.
Si je comprends bien, obtenir la précision du CI relativiste complet avec des ensembles de base complets ne sera jamais bon marché sans réinventer (ou jeter) de manière spectaculaire les algorithmes que nous utilisons actuellement. (Et pour les gens qui disent que la DFT est la solution à tout, j'attends vos formulations sans orbite de densité pure.)
Il y a aussi le problème que plus vous effectuez votre simulation avec précision en incluant plus de contributions et de formulations plus complexes, plus il est difficile de faire quoi que ce soit avec. Par exemple, le couplage orbite-spin est parfois évité uniquement parce qu'il rend tout plus compliqué à analyser (mais parfois aussi parce qu'il a un effet négligeable), et les orbitales canoniques Hartree-Fock ou Kohn-Sham peuvent être très utiles pour comprendre les caractéristiques qualitatives d'un système sans superposition sur la sortie supplémentaire de méthodes plus avancées.
(J'espère que cela a du sens, c'est probablement un peu inégal. Et j'ai probablement raté l'approximation ou le niggle préféré de quelqu'un.)
la source
Le problème principal sera que, en plus de l'augmentation de la puissance de calcul, vous devrez trouver de meilleurs algorithmes qui peuvent faire tomber l'exposant 3.7 vers quelque chose de plus gérable.
la source
Le problème est globalement équivalent à la différence entre les ordinateurs classiques et les ordinateurs quantiques. Les ordinateurs classiques fonctionnent sur des valeurs uniques à la fois, car un seul futur / historique est possible pour une entrée déterministe. Cependant, un ordinateur quantique peut fonctionner simultanément sur toutes les entrées possibles, car il peut être mis en superposition de tous les états possibles.
De la même manière, un ordinateur classique doit calculer chaque propriété individuellement, mais le système quantique qu'il simule a toutes les lois de l'univers pour calculer toutes les propriétés simultanément.
Le problème est exacerbé par la façon dont nous devons transmettre les données presque en série via un processeur, ou tout au plus quelques milliers de processeurs. En revanche, l'univers dispose d'un ensemble presque illimité de calculs simultanés en cours en même temps.
Prenons comme exemple 3 électrons dans une boîte. Un ordinateur doit choisir un pas de temps (première approximation) et continuer à recalculer les interactions de chaque électron avec chaque autre électron, via un nombre limité de CPU. En réalité, les électrons ont un nombre inconnu de particules d'échange réelles et virtuelles en transit, absorbées et émises, comme un processus continu. Chaque particule et point dans l'espace a une interaction en cours, qui aurait besoin d'un ordinateur pour simuler.
La simulation est vraiment l'art de choisir vos approximations et vos algorithmes pour modéliser au mieux le sujet avec les ressources dont vous disposez. Si vous voulez la perfection, j'ai bien peur que ce soit les mathématiques des poulets sphériques sous vide; nous ne pouvons que simuler parfaitement le très simple.
la source
Je ne sais pas si ce qui suit aide, mais pour moi, c'était très perspicace de visualiser le comportement de mise à l'échelle des systèmes quantiques:
Le principal problème vient du fait que l'espace Hilbert des états quantiques croît de façon exponentielle avec le nombre de particules. Cela peut être vu très facilement dans les systèmes discrets. Pensez à quelques puits potentiels qui sont connectés l'un à l'autre, peut-être deux: puits 1 et puits 2. Ajoutez maintenant des bosons (par exemple, Rubidium 87, juste comme exemple), au début un seul. Combien de vecteurs de base possibles existe-t-il?
Supposons maintenant que le boson puisse sauter (ou tunnel) d'un puits à l'autre. L'hamiltonien qui décrit le système peut alors être écrit comme une notation matricielle comme
Ce problème est si simple qu'il peut être résolu à la main.
Supposons maintenant que nous ayons plus de puits potentiels et plus de bosons, par exemple, dans le cas de quatre puits avec deux bosons, il existe 10 possibilités différentes de répartir les bosons entre les puits. Le hamiltonien aurait alors 10x10 = 100 éléments et 10 états propres.
la source
La théorie fonctionnelle de la densité est une autre façon de résoudre ce problème, mais c'est une approximation. C'est une très bonne approximation dans certains cas, mais dans d'autres cas, cela peut être étonnamment mauvais.
la source
Je pense qu'une simulation très précise de l'eau a fait l'objet d'une des toutes premières et grandes simulations effectuées à l'aide du supercalculateur Jaguar . Vous voudrez peut-être examiner ce document et son travail de suivi (qui, soit dit en passant, a été finaliste pour le prix Gordon-Bell en 2009):
"Eau liquide: obtenir la bonne réponse pour les bonnes raisons" , Aprà, Rendell, Harrison, Tipparaju, deJong, Xantheas.
la source
Ce problème est résolu par la théorie de la densité fonctionnelle. L'essence est de remplacer de nombreux degrés de liberté du corps par plusieurs champs dont l'un est la densité des électrons. Pour une grande exposition, voir la conférence Nobel de l'un des fondateurs de DFT: http://www.nobelprize.org/nobel_prizes/chemistry/laureates/1998/kohn-lecture.pdf
la source