L'opération du hasard dans un monde déterministe

15

Dans le livre de Steven Pinker, Better Angels of Our Nature , il note que

La probabilité est une question de perspective. Vu à une distance suffisamment proche, les événements individuels ont des causes déterminées. Même un tirage au sort peut être prévu à partir des conditions de départ et des lois de la physique, et un magicien qualifié peut exploiter ces lois pour lancer des têtes à chaque fois. Pourtant, lorsque nous effectuons un zoom arrière pour prendre une vue grand angle d'un grand nombre de ces événements, nous voyons la somme d'un grand nombre de causes qui s'annulent parfois et s'alignent parfois dans la même direction. Le physicien et philosophe Henri Poincaré a expliqué que nous voyons le fonctionnement du hasard dans un monde déterministe soit lorsqu'un grand nombre de causes chétives s'additionnent à un effet formidable, soit lorsqu'une petite cause qui échappe à notre attention détermine un effet important que nous ne pouvons pas manquer. .Dans le cas de la violence organisée, quelqu'un peut vouloir déclencher une guerre; il attend le moment opportun, qui peut ou non venir; son ennemi décide de s'engager ou de battre en retraite; les balles volent; des bombes éclatent; les gens meurent. Chaque événement peut être déterminé par les lois des neurosciences et de la physique et de la physiologie. Mais dans l'ensemble, les nombreuses causes qui entrent dans cette matrice peuvent parfois être mélangées dans des combinaisons extrêmes. (p. 209)

Je suis particulièrement intéressé par la phrase en gras, mais je donne le reste pour le contexte. Ma question: existe-t-il des méthodes statistiques pour décrire les deux processus décrits par Poincaré? Voici mes suppositions:

1) "Un grand nombre de causes chétives ont un effet redoutable." Le "grand nombre de causes" et le "cumul" me semblent comme théorème de la limite centrale . Mais dans (la définition classique de) le CLT, les causes doivent être des variables aléatoires et non des effets déterministes. La méthode standard est-elle ici d'approximer ces effets déterministes comme une sorte de variable aléatoire?

2) "Une petite cause qui échappe à notre attention détermine un effet important que nous ne pouvons pas manquer." Il me semble que vous pourriez considérer cela comme une sorte de modèle Markov caché . Mais les probabilités de transition d'état (non observables) dans un HMM ne sont que des probabilités, qui par définition ne sont pas encore déterministes.

Andy McKenzie
la source

Réponses:

7

Pensée intéressante (+1).

Dans les cas 1) et 2), le problème est le même: nous n'avons pas d'informations complètes. Et la probabilité est une mesure du manque d'information.

1) Les causes chétives peuvent être purement déterministes, mais quelles causes particulières opèrent est impossible à connaître par un processus déterministe. Pensez aux molécules dans un gaz. Les lois de la mécanique s'appliquent, alors qu'est-ce qui est aléatoire ici? L'information qui nous est cachée: où est quelle molécule à quelle vitesse. Donc, le CLT s'applique, non pas parce qu'il y a du hasard dans le système, mais parce qu'il y a du hasard dans notre représentation du système .

2) Il y a une composante temporelle dans HMM qui n'est pas nécessairement présente dans ce cas. Mon interprétation est la même qu'avant, le système peut être non aléatoire, mais notre accès à son état présente un certain caractère aléatoire.

EDIT : Je ne sais pas si Poincaré envisageait une approche statistique différente pour ces deux cas. Dans le cas 1), nous connaissons les varialbes, mais nous ne pouvons pas les mesurer car elles sont trop nombreuses et trop petites. Dans le cas 2), nous ne connaissons pas les variables. Dans les deux cas, vous finissez par faire des hypothèses et modéliser l'observable du mieux que nous pouvons, et assez souvent nous supposons la normalité dans le cas 2).

Mais quand même, s'il y avait une différence, je pense que ce serait l' émergence . Si tous les systèmes étaient déterminés par des sommes de causes chétives, alors toutes les variables aléatoires du monde physique seraient gaussiennes. De toute évidence, ce n'est pas le cas. Pourquoi? Parce que l'échelle compte. Pourquoi? Parce que de nouvelles propriétés émergent d'interactions à plus petite échelle, et ces nouvelles propriétés n'ont pas besoin d'être gaussiennes. En fait, nous n'avons pas de théorie statistique de l'émergence (pour autant que je sache) mais peut-être un jour nous le ferons. Il sera alors justifié d'avoir des approches statistiques différentes pour les cas 1) et 2)

gui11aume
la source
1
Merci d'avoir répondu. Je suis d'accord que les deux se résument au fait que nous n'avons pas d'informations complètes - c'est une bonne façon de les formuler. Cependant, j'aimerais voir une réponse qui distingue davantage les deux cas. À quoi pensait Poincaré?
Andy McKenzie
Je vois que vous vous inquiétez. J'ai modifié ma réponse pour essayer de répondre au mieux.
gui11aume
4

Je pense que vous lisez trop dans la déclaration. Tout semble reposer sur la prémisse que le monde est déterministe et que les humains le modélisent de manière probabiliste parce qu'il est plus facile d'approximer ce qui se passe de cette façon que de parcourir tous les détails de la physique et de toute autre équation mathématique qui le décrit. Je pense qu'il y a un débat de longue date sur le déterminisme par rapport aux effets aléatoires, en particulier entre le physicien et les statisticiens. J'ai été particulièrement frappé par les phrases précédentes suivantes de ce que vous avez mis en gras. "Même un tirage au sort peut être prévu à partir des conditions de départ et des lois de la physique, et un magicien qualifié peut exploiter ces lois pour lancer des têtes à chaque fois." Quand j'étais étudiant diplômé à Stanford à la fin des années 1970, Persi Diaconis, statisticien et magicien, et Joe Keller, physicien, ont en fait essayé d'appliquer les lois de la physique à un tirage au sort pour déterminer ce que l'otucome serait basé sur les conditions initiales de savoir si ou non, les têtes sont face visible et exacte; y comment la force du coup de doigt frappe la pièce. je pense qu'ils ont peut-être réussi. Mais penser qu'un magicien, même avec la formation magique et la connaissance statistique d'un diaconis persi, pourrait faire basculer la pièce et la faire remonter la tête à chaque fois est absurde. Je pense qu'ils ont trouvé qu'il était impossible de reproduire les conditions initiales et je pense que la théorie du chaos s'applique. De petites perturbations dans l'état initial ont de grands effets sur le vol de la pièce et rendent le résultat imprévisible. En tant que statisticien, je dirais que même si le monde est déterministe, les modèles stochastiques font un meilleur travail de prévision des résultats que les lois déterministes complexes. Lorsque la physique est simple, des lois déterministes peuvent et doivent être utilisées. Par exemple, la loi gravitationnelle de Newton fonctionne bien pour déterminer la vitesse d'un objet lorsqu'il frappe le sol en tombant de 10 pieds au-dessus du sol et en utilisant l'équation d = gt vous pouvez également résoudre le temps nécessaire pour terminer la chute très précisément, car la constante gravitationnelle g a été déterminée avec un haut niveau de précision et l'équation s'applique presque exactement.2

Michael R. Chernick
la source
2
Michael Chernick, vous pourriez être intéressé par cet article sur Diaconis.
Cyan
Je remplacerais la phrase "... les humains le modélisent de manière probabiliste parce qu'il est plus facile d'approximer ce qui se passe de cette façon ..." par "... les humains modélisent de manière probabiliste parce qu'il est trop difficile d'incorporer les petits détails la plupart du temps, peu importe, ... ". De plus, vous adoptez une approche "pratique" à une question plus philosophique / conceptuelle. La théorie du chaos n'est qu'un problème "en pratique" car nous n'avons pas de représentations arbitrairement précises des nombres. Un autre problème des lois déterministes est qu'elles dépendent souvent de choses que nous ne pouvons pas mesurer.
probabilités du
1
Merci Cyan. Je n'ai pas vu cet article en particulier, mais j'en ai vu plusieurs autres sur Persi et je le connais assez bien en tant qu'ancien professeur adjoint qui m'a enseigné la théorie des probabilités et les séries chronologiques alors que nous étions à la fin de la vingtaine et au début de la trentaine de 1974 à 1978 . Persi m'a également fait, avec Michael Cohen (quand Michael Cohen et moi étions tous deux étudiants diplômés), raser les dés sur un chiffon des centaines ou des milliers de fois pour confirmer sa théorie sur le parti pris de ce type de rasage.
Michael R. Chernick
1
Comme tout bon expérimentateur, il ne nous a pas dit qu'ils étaient rasés et que la différence de zone n'était pas si grande pour le rendre visible à l'œil. bien sûr, si vous vouliez tromper un établissement de jeu avec des dés rasés, vous ne pouviez pas vous raser tellement pour le rendre visible et pourtant pas si peu qu'il vous faudrait une éternité pour gagner de bons gains et éviter la ruine des joueurs. Bien sûr, nous avions quelques soupçons à propos de l'expérience, car cela n'avait pas beaucoup de sens d'essayer de confirmer que chaque côté arrivait très près du 1/6 du temps.
Michael R. Chernick
Faire également une expérience pour montrer que vous pouvez biaiser une pièce de monnaie équitable en faveur des têtes est loin d'être en mesure d'obtenir une tête à chaque fois. Les statisticiens sont utilisés par les commissions de loterie pour tester leurs machines afin de s'assurer qu'elles sont équitables.
Michael R. Chernick
4

2N 2N

Nanbnlimnanbn=1

(NNf)12πNf(1f)exp(NH(f))

H(f)=flog(f)+(1f)log(1f)H(f)12

H(f)log(2)+2(f12)2

Nous avons donc aussi:

(NNf)2N12πNf(1f)exp(2N(NfN2)2)

f

probabilitéislogique
la source
1
Je vous remercie. Je suppose que l'OP ne lisait pas trop dans la connexion de la phrase en gras avec le CLT. Mais puis-je m'assurer de bien comprendre cela? Voulez-vous dire que pour un grand N, le nombre de combinaisons de N choses prises Nf à la fois est approximativement égal à la densité normale avec le paramètre de variance Nf (1-F) et le paramètre moyen N / 2? C'est aussi juste une propriété mathématique asymptotique sans lien avec la probabilité? C'est aussi étonnant que de voir la version De Moivre - LaPlace du théorème de la limite centrale en action en utilisant le dispositif quinconce!
Michael R. Chernick
Merci, il est très utile de penser à la distribution normale de manière non probabiliste. Cependant, je ne comprends pas 1) comment cette première limite se pose et 2) à quel point vous faites l'extension de la série Taylor.
Andy McKenzie
1
anbnan/bn1
Les modifications sont plus belles. Cependant, il doit encore y avoir un terme manquant dans la première équation d'affichage. :)
cardinal
log(N)
0

La citation du livre de Pinker et l'idée d'un monde déterministe ignorent complètement la mécanique quantique et le principe d'incertitude de Heisenberg. Imaginez que vous placez une petite quantité de radioactif près d'un détecteur et que vous organisez les quantités et les distances de sorte qu'il y ait 50% de chances de détecter une décroissance pendant un intervalle de temps prédéterminé. Connectez maintenant le détecteur à un relais qui fera quelque chose de très important si une décroissance est détectée et faites fonctionner l'appareil une seule fois.

Vous avez maintenant créé une situation où l'avenir est intrinsèquement imprévisible. (Cet exemple est tiré de celui décrit par quiconque a enseigné la physique en deuxième année ou en première année au MIT au milieu des années 1960.)

Emil Friedman
la source