Disons que dépend de α . Rigoureusement parlant,
si et α sont tous deux des variables aléatoires, on pourrait écrire p ( X ∣ α ) ;
cependant, si est une variable aléatoire et α est un paramètre, nous devons écrire p ( X ; α ) .
Je remarque plusieurs fois que la communauté du machine learning semble ignorer les différences et abuser des termes.
Par exemple, dans le célèbre modèle LDA, où est le paramètre Dirichlet au lieu d'une variable aléatoire.
Ne devrait-il pas s'agir de ? Je vois beaucoup de gens, y compris les auteurs originaux du document LDA, l'écrire comme p ( θ ∣ α ) .
machine-learning
terminology
Sibbs Gambling
la source
la source
Réponses:
Je pense que cela concerne plus les statistiques bayésiennes / non-bayésiennes que l'apprentissage automatique vs les statistiques.
Dans les statistiques bayésiennes, les paramètres sont également modélisés comme des variables aléatoires. Si vous avez une distribution conjointe pour , p ( X ∣ α ) est une distribution conditionnelle, quelle que soit l'interprétation physique de X et α . Si l'on considère seulement α s fixe ou sinon ne met pas une distribution de probabilité sur α , les calculs avec p ( X ; α ) sont exactement les mêmes qu'avec p ( X ∣ α ) avec p ( )X,α p(X∣α) X α α α p(X;α) p(X∣α) p(α) α α α
la source