Si jamais il y a eu un cas où cela est devenu clair, c'est avec le problème de Monty Hall. Même le grand Paul Erdos s'est laissé berner par ce problème. Ma question à laquelle il peut être difficile de répondre est la suivante: quelle est la probabilité que nous puissions être si sûrs d'une réponse que nous obtenons un argument intuitif et pourtant nous nous trompons tellement. La loi de Benford sur les premiers chiffres et le paradoxe du temps d'attente sont d'autres exemples célèbres comme celui-ci.
probability
conditional-probability
paradox
heuristic
Michael R. Chernick
la source
la source
Réponses:
Il existe deux approches principales pour comprendre cette question. La première (et je pense que la plus réussie) est la littérature sur les biais cognitifs (voir ce lien LessWrong ).
Beaucoup a été écrit sur ce sujet et il serait trop présomptueux de le résumer ici. En général, cela signifie simplement que la machinerie cognitive dont les humains sont dotés à travers le processus évolutif utilise beaucoup d'heuristiques et de raccourcis pour prendre des décisions de survie plus efficacement. Ces décisions de survie s'appliquent principalement aux environnements ancestraux auxquels nous sommes rarement confrontés, et donc la fréquence à laquelle nous sommes confrontés à des scénarios où nos heuristiques échouent pourrait augmenter.
Les humains, par exemple, sont excellents pour générer des croyances. Si poser une nouvelle croyance coûte très peu, mais ne pas utiliser une croyance qui aurait conduit à la survie a un coût élevé (même si la croyance est généralement incorrecte), alors on s'attendrait à voir beaucoup de rationalisation et de faibles obstacles à la croyance propositions (ce que nous voyons avec les humains). Vous obtenez également des comportements tels que l' appariement des probabilités pour des raisons similaires.
On pourrait continuer à décrire en détail toutes les façons fascinantes que nous dévions de la prise de décision optimale. Consultez le livre récent de Kahneman Thinking, Fast and Slow et le livre de Dan Ariely Predictably Irrational pour des comptes populaires et lisibles avec de nombreux exemples. Je recommande de lire certaines séquences de LessWrong pour une discussion plus approfondie des biais cognitifs et de nombreuses revues de littérature académique intéressantes concernant les mesures à prendre pour éviter ces biais dans certaines circonstances.
L'autre approche de ce problème est (je pense) beaucoup plus ténue. C'est l'idée que la probabilité n'est pas en soi la bonne théorie normative pour traiter l'incertitude. Je n'ai pas le temps d'annoter certaines sources pour cela maintenant, mais je mettrai à jour ma réponse plus tard avec une discussion de cette vue.
la source