Dans un certain sens, il n'existe pas de statistiques sans "paramètres" et "modèles". Il s'agit dans une certaine mesure d'un étiquetage arbitraire, selon ce que vous reconnaissez comme un "modèle" ou un "paramètre". Les paramètres et les modèles sont essentiellement des moyens de traduire des hypothèses et des connaissances sur le monde réel en un système mathématique. Mais cela est vrai de tout algorithme mathématique. Vous devez en quelque sorte convertir votre problème du monde réel dans le cadre mathématique que vous avez l'intention d'utiliser pour le résoudre.
L'utilisation d'une distribution de probabilité qui a été attribuée selon un certain principe est une façon de procéder à cette conversion de manière systématique et transparente. Les meilleurs principes que je connaisse sont le principe de l'entropie maximale (MaxEnt) et le principe des groupes de transformation (qui, je pense, pourrait aussi être appelé le principe de «l'invariance» ou de «l'indifférence au problème»).
Une fois attribué, vous pouvez utiliser la théorie des probabilités bayésienne pour manipuler de manière cohérente ces probabilités "d'entrée" qui contiennent vos informations et hypothèses en probabilités de "sortie" qui vous indiquent la quantité d'incertitude présente dans l'analyse qui vous intéresse.
Quelques introductions du point de vue Bayes / MaxEnt décrites ci-dessus peuvent être trouvées ici , ici et ici . Celles-ci sont basées sur l'interprétation de la probabilité comme une extension de la logique déductive. Ils sont plutôt du côté théorique des choses.
En tant que note de fin mineure, je recommande ces méthodes principalement parce qu'elles me semblent les plus attrayantes - je ne peux pas penser à une bonne raison théorique pour abandonner les comportements normatifs qui se cachent derrière la logique Bayes / MaxEnt. Bien sûr, vous n'êtes peut-être pas aussi obligé que moi, et je peux penser à quelques compromis pratiques autour de la faisabilité et des limitations logicielles. Les statistiques du «monde réel» peuvent souvent être sur l'idéologie que vous approximez (approximativement Bayes vs approximativement Maximum de vraisemblance vs approximativement basée sur la conception) ou quelle idéologie vous comprenez et êtes capable d'expliquer à vos clients.
Une manière bayésienne d'introduire et de motiver des modèles paramétriques consiste à utiliser l'échangeabilité et le théorème de représentation de De Finetti. Il y a une discussion dans cette question:
Qu'est-ce qui est si cool dans le théorème de représentation de De Finetti?
Une excellente introduction est donnée dans le premier chapitre de la théorie des statistiques de Schervish . Tout le langage théorique de mesure nécessaire à la discussion est donné dans son annexe tour de force (avec preuves complètes!). J'ai beaucoup appris de ce livre et je vous recommande fortement de l'acheter.
Cet article étudie la généralité de la construction bayésienne:
Sandra Fortini, Lucia Ladelli et Eugenio Regazzini
Sankhyā: The Indian Journal of Statistics, Series A (1961-2002)
Vol. 62, n ° 1 (février 2000), p. 86-109
Il est disponible en téléchargement ici: http://sankhya.isical.ac.in/search/62a1/62a17092.pdf
la source