Alan Turing a proposé un modèle pour une machine (la Turing Machine, TM) qui calcule (nombres, fonctions, etc.) et a démontré le théorème de Halting .
Une MT est un concept abstrait d'une machine (ou d'un moteur si vous le souhaitez). Le théorème de l'arrêt est un résultat impossible. Un moteur Carnot (CE) est un concept abstrait de moteur thermique et Carnot a prouvé le théorème de Carnot , un autre résultat d'impossibilité lié à l'entropie thermodynamique.
Étant donné qu'une MT est physiquement réalisable (au moins autant qu'une CE, ou peut-être pas?), Existe-t-il une cartographie ou une représentation ou "isomorphisme" de la MT ou CE qui pourrait permettre d'unifier ces résultats et en plus de se connecter à l'entropie?
Il existe bien sûr des formulations de TM et du théorème de Halting en termes de théorie algorithmique de l'information (par exemple Chaitin, Kolmogorov etc.) et d'entropie (dans ce contexte). La question demande le concept plus physique d'entropie (si dans le processus d'une réponse potentielle l'entropie algorithmique se pose, c'est bien, mais ce n'est pas ce que la question demande exactement).
On peut aussi vérifier une autre question dans physics.se qui relie l'incertitude quantique à la 2ème loi de la thermodynamique. Voir aussi: une caractérisation algébrique de l'entropie , une caractérisation algorithmique de l'entropie , une revue et des connexions entre les différentes formulations de l'entropie
la source
Réponses:
Je ne suis pas du tout un expert dans ce domaine, mais je pense que vous serez intéressé par l' informatique réversible . Cela implique, entre autres, l'étude de la relation entre les processus physiquement réversibles et les processus logiquement réversibles. Je pense qu'il serait juste de dire que les "fondateurs" du domaine étaient / sont Ralph Landauer et Charles H Bennett (tous deux de la recherche IBM, je pense.)
Il touche à l'informatique quantique et à la théorie de l'information quantique, mais examine également des questions telles que "quelles sont les limites du calcul en termes de temps, d'espace et d'énergie?" On sait, (si je me souviens bien) que vous pouvez rendre l' énergie nécessaire pour effectuer un calcul réversible arbitrairement petite en lui faisant prendre un temps arbitrairement long. C'est-à-dire que l'énergie temps (= action ) nécessaire pour effectuer un calcul réversible peut devenir une constante. Ce n'est pas le cas pour les calculs non réversibles.×
Beaucoup de personnes qui étudient dans ce domaine travaillent également sur l'informatique quantique et la physique numérique (l'idée que l'univers est un grand automate cellulaire quantique). Les noms des chercheurs qui me viennent à l'esprit sont Ed Fredkin , Tommaso Toffoli et Norm Margolus .
Ces questions sont absolument sur le thème de l'informatique. Pas seulement pour la théorie (qui comprend les mathématiques cool ainsi que la physique cool) mais pour les ingénieurs qui veulent connaître les limites ultimes du calcul. Existe-t-il un volume ou une énergie minimum requis pour stocker un peu d'informations? L' action requise pour effectuer un calcul réversible peut être constante, mais y a-t-il des limites sur ce qu'est cette constante? Ce sont des connaissances essentielles pour les ingénieurs qui tentent de repousser les limites du possible.
la source
Je ne connais pas le théorème de Carnot, sauf ce que je viens de lire sur Wikipedia, mais même à partir de cette introduction superficielle, il y a un lien dans la structure des preuves, et cela peut vous intéresser, car c'est une technique de preuve qui est applicable dans de nombreux domaines.
Ce sont deux preuves par contradiction pour montrer qu'aucune chose dans une classe donnée n'a de propriété, vous supposez qu'une instance a effectivement cette propriété, puis montrez qu'une contradiction s'ensuit.
Le problème de l'arrêt est intéressant en ce que la contradiction provient d'une certaine auto-interaction concernant l'instance particulière (qui est une machine M qui peut déterminer si une machine arbitraire s'arrêtera avec une entrée donnée). En particulier, vous construisez une nouvelle machine qui inclut M en tant que composant, puis alimentez la nouvelle machine en M.
Quelqu'un avec plus de connaissances sur le théorème de Carnot pourrait en parler (ce que je ne suis pas qualifié pour faire), mais il semble que la contradiction provient du type de moteur thermique que vous pourriez construire si vous aviez une instance avec la propriété à portée de main.
Les deux cas impliquent donc la construction de:
Il semble cependant y avoir une différence dans la mesure où la contradiction dans le cas du théorème de Halting est une pure contradiction logique et serait contradictoire dans n'importe quel contexte de la logique classique. Le théorème de Carnot, si je comprends bien, n'est que contradictoire par rapport à la deuxième loi de la thermodynamique. D'un point de vue logique, c'est un axiome, donc si vous preniez une axiomatisation différente dans laquelle la deuxième loi de la thermodynamique ne tenait pas, le théorème de Carnot ne serait pas un théorème, car la contradiction n'existerait pas. (À quoi ressemblerait une formalisation de la thermodynamique sans la seconde loi, c'est le genre de question qui a conduit les géomètres à une géométrie non euclidienne.)
la source
IANAPhysicist mais je ne vois aucune connexion. Les machines de Turing sont des objets de mathématiques pures et l'indécidabilité du problème d'arrêt est indépendante de toute réalisation physique de quoi que ce soit.
la source
Cette question plurielle à sujets multiples n'a pas de réponse simple / facile et touche à des domaines actifs de la recherche TCS. cependant c'est une question rare demandant un lien entre physique et TCS qui m'a intéressé au fil des ans. il y a plusieurs directions différentes à suivre. la réponse de base est que c'est une "question ouverte" mais avec des recherches actives / modernes qui y touchent et font allusion aux connexions.
il y a quelques problèmes indécidables surprenants / profonds de la physique avancée. par exemple à partir de systèmes dynamiques. cependant, ils n'ont pas vu cela connecté à l'entropie en soi, mais l'entropie est associée à tous les systèmes physiques (par exemple, on peut le voir dans la théorie de la chimie), donc il doit au moins y avoir un lien indirect.
l'entropie apparaît en effet dans CS mais plus sous la forme de théorie de l'information et de théorie du codage. la naissance de la théorie du codage a impliqué la définition / analyse de l'entropie associée aux codes de communication par Shannon. essayez cette excellente référence en ligne Entropie et théorie de l'information par Gray
l'entropie est également associée parfois associée à la mesure de l'aléatoire dans les PRNG. il existe un lien entre les séparations de classes de complexité (par exemple P =? NP) et les PRNG dans le célèbre article "Natural Proofs" de Razborov / Rudich. il y a des recherches continues sur ce sujet.
vous mentionnez la thermodynamique et sa connexion au TCS. il existe un lien profond entre l'aimantation dans les verres de spin en physique et les problèmes NP complets étudiés au point de transition SAT. là (encore) le système physique a une entropie associée mais il a probablement été étudié plus dans un contexte physique que dans un contexte TCS.
la source
Il existe un problème de pensée simple qui est parfois utilisé comme introduction aux paradigmes informatiques non conventionnels:
Vous avez deux ampoules et leurs interrupteurs marche-arrêt respectifs. Quelqu'un ouvre et ferme les deux lumières l'une après l'autre. Comment déterminez-vous lequel a été fermé en premier et lequel a été fermé en dernier? Déterminez le nombre minimal de fois que vous devrez ouvrir les lumières pour résoudre ce problème.
La plupart des informaticiens essaient généralement de trouver une solution basée sur la logique booléenne. La réponse est (au moins l'une d'entre elles): en touchant les ampoules et en voyant laquelle est plus chaude.
Les paradigmes basés sur la chaleur existent en informatique: le recuit simulé est un algorithme connu (l'ordinateur quantique à ondes D est l'équivalent quantique de l'algorithme).
Y a-t-il maintenant une relation avec le problème de l'arrêt?
Le travail classique de Chaitin et Calude sur le problème Halting via le concept des nombres Omega peut être lié à la formulation probabiliste du problème Halting. C'est le traité le plus récent sur le problème auquel je peux penser ... et pas de relation claire avec l'entropie (thermodynamique). Maintenant, si l'entropie de l'information (au sens de Shannon) vous convient, le nombre Omega code de la manière la plus succincte le problème de l'arrêt, au sens d'une liaison de Shannon.
En bref, un nombre Omega est la probabilité qu'un programme aléatoire s'arrête. La connaissance de la constante permettrait l'énumération de toutes les déclarations mathématiques valides (vérités, axiomes, etc.) et n'est pas calculable. Calude a calculé une version d'Omega en changeant la mesure de probabilité uniforme par une mesure inversement proportionnelle à la longueur d'un programme aléatoire et en utilisant des encodages sans préfixe. On pourrait donc parler d'Omega de Chaitin et d'Oméga de Calude.
la source
Oui !, assez étrangement j'y ai pensé .. Voici l'idée:
Premier pas
Modélisez le démon de Maxwell comme un programme informatique. Ensuite, comment le démon a-t-il connu la vitesse et la position des particules avant d'ouvrir la porte pour la sélection?
Supposons que le démon ne puisse pas mesurer la vitesse à laquelle les particules frappent la porte, pourquoi? parce que cela changerait la vitesse des particules, donc le démon doit comprendre avant de l' ouvrir, sans regarder, sans mesurer. Pour être juste, nous informerons le démon des règles du jeu à l'avance, c'est-à-dire nourrir le démon avec les lois du mouvement, les interactions des particules et les conditions initiales, assez du modèle physique / dynamique.
Deuxième étape
Modélisez maintenant le gaz des particules également comme un programme informatique qui exécute le même code donné au démon pour chaque particule, de sorte que le gaz calcule un résultat à partir de ses conditions initiales, le démon ne sait pas ce résultat jusqu'à ce qu'il s'arrête (si jamais ): à savoir "une particule avec la bonne vitesse est à la porte", la décision oui / non que nous posons au système est "Avoir une particule à la bonne position et suffisamment de vitesse?", si oui, la porte pourrait être ouverte et la particule rapide peut entrer dans le côté haute température de la pièce en définissant de nouvelles conditions initiales (ces problèmes consécutifs auront-ils une réponse? ou se poursuivront-ils pour toujours?)
Il y aura un moment où il n'y aura pas de particule avec une vitesse suffisante pour traverser la frontière, donc, il y aura un moment où le code s'exécutera pour toujours (ne vous arrêtez pas) pour presque n'importe quel seuil donné.
Le démon veut connaître le résultat calculé par le gaz, mais le résultat est en quelque sorte potentiellement impliqué dans le code source des lois des particules plus les conditions initiales .. bien sûr, nous devons exécuter ce programme pour le savoir. Si Demon exécute le même programme en attendant la bonne vitesse à la sortie, le programme pourrait s'arrêter ou il pourrait fonctionner indéfiniment (mais nous supposons également que le démon n'a pas plus de puissance de calcul que le gaz, il ne pourra donc pas décider de la ouverture des portes à temps).
Le démon pourrait essayer de comprendre la sortie du programme (ou s'il s'arrêtera) en regardant la source et les entrées sans l'exécuter, mais c'est comme essayer de résoudre le problème d'arrêt, pourquoi? parce que Demon ne sait pas quelles lois et conditions initiales seront alimentées , Démon devrait être prêt à résoudre tout ensemble de lois et conditions initiales, et nous savons que ce n'est pas possible en général, il aura besoin d'un oracle, s'il le peut, il le fera être suffisant pour construire un démon pour générer de l'énergie à partir de rien. (même en connaissant les lois et la condition initiale, les deux choses sont déjà assez difficiles à savoir)
Cette expérience de pensée peut relier comment une réduction de l'entropie, au moyen d'ordinateurs, pourrait en quelque sorte délimitée par Halting Problem , comme un problème pour anticiper en général les résultats.
(Parfois, toutes les limites semblent être la même limite ..)
En savoir plus sur les lois des particules
Les lois des particules ne sont pas le principal problème de cette expérience de pensée, ces lois pourraient être quantiques ou classiques, mais nous devons tenir compte du fait de la complexité des lois et des conditions initiales, la complexité de l'arrangement des particules n'est pas limitée, et cela pourrait ont beaucoup de complexité supplémentaire (dans un exemple extrême de conditions initiales, vous pouvez même insérer un ordinateur entier tirant des particules selon un code source interne et donner ce code au démon).
la source
Question très captivante en effet, et nous verrons que votre pensée EST correcte .
Voyons d'abord ce que dit le deuxième principe de la thermodynamique.
La fonction d'entropie est utilisée dans la 2ème loi de la thermodynamique. Il découle du théorème de Carnot selon lequel les processus se déroulant dans les machines à vapeur ont un rendement inférieur ou au mieux égal à la machine "réversible" correspondante (qui semble d'ailleurs être un concept instable au cours des 150 ans de thermodynamique). Carnot n'a pas inventé lui-même la fonction d'entropie, mais avec Clausius, voici ce qu'ils disent:
Comme il n'y a pas de machine perpétuelle, alors nous pouvons construire une fonction S appelée entropie qui contraint les mesures thermodynamiques macroscopiques dans une certaine équation, à savoir que S (V, T, P, etc.) = 0
Notez que cette équation n'est rien d'autre que l'équation d'une hyper-surface dans l'espace des mesures thermodynamiques.
Entre dans Carathéodory.
Carathéodory est un mathématicien allemand et, comme tous les mathématiciens, il veut extraire du raisonnement de Carnot et de Clausius quelques axiomes qui lui permettraient de clarifier en quoi consiste réellement la seconde loi . Autrement dit, il veut purifier la thermodynamique pour savoir exactement ce qu'est l'entropie.
Après avoir énuméré un certain nombre d'axiomes, il parvient à formuler SA deuxième loi, qui dit (plus ou moins):
Il existe des processus adiabatiques. Ou plus prosaïquement, si vous voulez revenir, parfois travailler seul ne suffit pas. Vous avez besoin d'un peu de chaleur.
Maintenant, cela semble TRÈS différent de la formulation de Clausius! Mais en fait ce n'est pas le cas. Carathéodory n'a fait que changer l'ordre des mots, un peu comme les mathématiciens ont joué avec le 5ème axiome d'Euclide pendant 2000 ans et ont produit de nombreux mots différents pour cet axiome. Et si vous reculez, vous ne devriez pas être trop surpris par la déclaration de Carathéodory sur la deuxième loi. En fait, Carathéodory conduit à exactement la même fonction d'entropie et l'équation hyper-surface S (V, T, P, etc.) = 0
Réfléchissez bien au théorème de Carnot. En tant que mathématicien, vous ne devriez pas être trop satisfait de la façon dont Carnot admet que les machines perpétuum n'existent pas. En fait, en tant que mathématicien, vous préféreriez voir quelque chose comme ceci:
Il existe une fonction entropique S qui contraint les mesures macroscopiques SI ET SEULEMENT SI il n'y a pas de machines perpétuelles ".
MAINTENANT, vous avez un théorème. Et que dit-il? Que tant qu'il n'y a pas de système mécanique isolé qui produit une quantité infinie d'énergie et pourrait donc vous conduire à n'importe quel état que vous souhaitez, alors vous trouverez une fonction d'entropie. Un système mécanique isolé est un processus adiabatique. D'où la formulation de Carathéodory: aucun système adiabatique ne peut vous conduire nulle part. Parfois, vous aurez besoin de chaleur.
Donc non seulement nous sommes sûrs que Carathéodory est correct, mais aussi que sa formulation est assez simple.
Maintenant, où avez-vous l'impression que la deuxième loi à la Carathéodory ressemble au problème de l'arrêt?
Prenez du recul sur la déclaration de Carathéodory. Tout ce qu'il dit, c'est qu'une fois que vous avez un système mécanique isolé avec lequel vous arrêtez de vous mêler, vous ne pouvez pas atteindre l'état que vous voulez.
Cela ne sonne-t-il PAS PRÉCISÉMENT comme le problème d'arrêt? C'est-à-dire qu'une fois que vous aurez écrit tous les axiomes de votre théorie et établi toutes les transitions possibles, il y aura des problèmes que vous ne pourrez pas résoudre. Parfois, vous devrez ajouter plus d'axiomes.
En fait, si vous voulez aller vraiment en profondeur et coder la formulation de Carathéodory, cela se traduira par le même code que le problème d'arrêt des processus adiabatiques au lieu des machines de Turing et des états au lieu de problèmes.
Qu'est-ce que tu penses?
REMARQUE: j'ai modifié ma réponse presque entièrement afin que les commentaires ci-dessous ne correspondent pas à ce qu'elle contient maintenant.
la source