Existe-t-il une définition formelle (mathématique) de ce que les fréquentistes entendent par «probabilité»? J'ai lu que c'est la fréquence relative d'occurrence «à long terme», mais existe-t-il un moyen formel de la définir? Y a-t-il des références connues où je peux trouver cette définition?
ÉDITER:
Par fréquentiste (voir le commentaire de @whuber et mes commentaires sur la réponse @Kodiologist et @Graeme Walsh ci-dessous), je veux dire ceux qui «croient» que cette fréquence relative à long terme existe. Peut-être que cela répond (en partie) à la question de @Tim également
Réponses:
TL; DR Il ne semble pas possible de définir une définition fréquentiste de probabilité cohérente avec le cadre de Kolmogorov qui ne soit pas complètement circulaire (c'est-à-dire au sens de la logique circulaire).
Pas trop longtemps donc j'ai lu: je veux aborder ce que je considère comme des problèmes potentiels avec la définition fréquentiste candidate de la probabilité Tout d'abord, ne peut être raisonnablement interprétée que comme une variable aléatoire, de sorte que l'expression ci-dessus n'est pas précisément définie dans un sens rigoureux. Il faut préciser le mode de convergence de cette variable aléatoire, que ce soit presque sûrement, en probabilité, en distribution, en moyenne, ou en moyenne au carré.
Mais toutes ces notions de convergence nécessitent qu'une mesure sur l'espace de probabilité à définir soit significative. Le choix intuitif, bien sûr, serait de choisir presque sûrement la convergence. Cela a pour caractéristique que la limite doit exister ponctuellement, sauf en cas de mesure nulle. Ce qui constitue un ensemble de mesures nul coïncidera pour toute famille de mesures qui sont absolument continues les unes par rapport aux autres - cela nous permet de définir une notion de convergence presque sûre rendant rigoureuse la limite ci-dessus tout en restant quelque peu agnostique quant à ce que le sous-jacent mesure pour l'espace mesurable des événements est (c'est-à-dire parce qu'il pourrait s'agir de n'importe quelle mesure absolument continue par rapport à une mesure choisie). Cela empêcherait la circularité de la définition qui résulterait de la fixation préalable d'une mesure donnée,
Cependant, si nous utilisons une convergence presque sûre, cela signifie que nous nous limitons à la situation de la loi forte des grands nombres (désormais SLLN). Permettez-moi d'énoncer ce théorème (comme donné à la p. 133 de Chung) pour référence ici:
Disons donc que nous avons un espace mesurable et nous voulons définir la probabilité d'un événement par rapport à une famille de mesures de probabilité mutuellement absolument continues . Ensuite, par le théorème d'extension de Kolmogorov ou le théorème d'extension Ionescu Tulcea (je pense que les deux fonctionnent), nous pouvons construire une famille d'espaces de produits , un pour chaque . (Notez que l'existence d'espaces de produits infinis qui est une conclusion du théorème de Kolmogorov nécessite que la mesure de chaque espace soit , c'est pourquoi je me limite maintenant aux mesures de probabilité, au lieu d'arbitraires). Définissez ensuite(X,F) A∈F {μi}i∈I {(∏∞j=1Xj)i}i∈I μi 1 1Aj pour être la variable aléatoire indicatrice, c'est-à-dire qui est égale à si apparaît dans la ème copie et si ce n'est pas le cas, en d'autres termesAlors clairement (où dénote une attente par rapport à ), donc la loi forte des grands nombres sera en fait appliquer à (car par construction le1 A j 0
Je viens de réaliser cependant que même si la séquence de variables aléatoires convergera presque sûrement par rapport à si et seulement si elle converge presque sûrement par rapport à , ( où ) cela ne signifie pas nécessairement qu'il convergera vers la même valeur ; en fait, le SLLN garantit qu'il ne le sera que si ce qui n'est pas vrai de façon générique.nAn μi1 μi2 i1,i2∈I Ei11A=Ei21A
Si est en quelque sorte "assez canonique", disons comme la distribution uniforme pour un ensemble fini, alors peut-être que cela fonctionne bien, mais ne donne pas vraiment de nouvelles perspectives. En particulier, pour la distribution uniforme, , c'est-à-dire que la probabilité de est juste la proportion de points ou d'événements élémentaires dans qui appartiennent à , qui me semble encore un peu circulaire. Pour une variable aléatoire continue, je ne vois pas comment nous pourrions jamais nous mettre d'accord sur un choix "canonique" de .μ E1A=|A||X| A X A μ
C'est-à-dire qu'il semble logique de définir la fréquence d'un événement comme la probabilité de l'événement, mais il ne semble pas qu'il soit logique de définir la probabilité que l'événement soit la fréquence (au moins sans être circulaire). Ceci est particulièrement problématique, car dans la vie réelle, nous ne savons pas réellement quelle est la probabilité; nous devons l'estimer.
Notez également que cette définition de la fréquence pour un sous-ensemble d'un espace mesurable dépend de la mesure choisie étant un espace de probabilité; par exemple, il n’existe pas de mesure de produit pour de nombreuses copies de dotées de la mesure de Lebesgue, car . De même, la mesure de utilisant la mesure de produit canonique est , qui explose à l'infini si ou va à zéro si , c'est-à-dire que les théorèmes d'extension de Kolmogorov et Tulcea sont des résultats très particuliers propres aux mesures de probabilité .R μ(R)=∞ ∏nj=1X (μ(X))n μ(X)>1 μ(X)<1
la source
Je ne pense pas qu'il y ait de définition mathématique, non. La différence entre les diverses interprétations de la probabilité n'est pas une différence dans la façon dont la probabilité est définie mathématiquement. La probabilité pourrait être définie mathématiquement de cette façon: si est un espace de mesure avec , alors la probabilité de tout événement est juste . J'espère que vous convenez que cette définition est neutre par rapport à des questions comme celle de savoir si nous devons interpréter les probabilités de manière fréquentiste ou bayésienne.(Ω,Σ,μ) μ(Ω)=1 S∈Σ μ(S)
la source