Je travaille sur un modèle reposant sur une vilaine fonction paramétrée faisant office de fonction de calibration sur une partie du modèle. En utilisant un paramètre bayésien, j'ai besoin d'obtenir des priors non informatifs pour les paramètres décrivant ma fonction. Je sais que dans l'idéal, je devrais dériver la référence ou au moins les précédents de Jeffreys mais la fonction est très moche, possède de nombreux paramètres et je suis pessimiste sur la possibilité d'obtenir réellement un résultat. J'ai donc décidé de laisser tomber cette possibilité et de choisir empiriquement mes prieurs pour qu'ils soient assez informatifs. Voici mes deux questions.
Puis-je faire plus que des indiscrets et donner un aperçu de leur non-informativité à partir des résultats d'inférence? Edit: Je suppose que tracer le Vs postérieur avant serait un premier point. Peut-être que la comparaison des estimations MAP et ML pourrait être un deuxième argument?
De plus, est-ce logique de justifier un aspect du choix à partir d'une "analyse dimensionnelle"? Par exemple, si je considère une structure de vraisemblance de la forme (dans un cadre de régression simple): Pensez-vous que je peux deviner n'importe quelle "structure" pour le prieur sur et basant sur le fait que l'un pèse tandis que l'autre pèse ?