Je comprends que les modèles de Markov cachés (HMM) sont des modèles génératifs et les modèles CRF sont des modèles discriminants. Je comprends également comment les CRF (Conditional Random Fields) sont conçus et utilisés. Ce que je ne comprends pas, c'est comment ils sont différents des HMM? J'ai lu que dans le cas de HMM, nous ne pouvons que modéliser notre prochain état sur le nœud précédent, le nœud actuel et la probabilité de transition, mais dans le cas des CRF, nous pouvons le faire et connecter un nombre arbitraire de nœuds pour former des dépendances. ou des contextes? Est-ce que j'ai raison ici?
machine-learning
hidden-markov-model
natural-language
conditional-random-field
utilisateur1343318
la source
la source
Réponses:
De l' introduction de McCallum aux CRF :
la source
"Les champs aléatoires conditionnels peuvent être compris comme une extension séquentielle du modèle d'entropie maximum". Cette phrase provient d'un rapport technique relatif aux "Modèles probabilistes classiques et champs aléatoires conditionnels".
C'est probablement la meilleure lecture pour des sujets tels que HMM, CRF et Maximum Entropy.
PS: La figure 1 du lien donne une très bonne comparaison entre eux.
Cordialement,
la source
Remarque: je vous prie de bien vouloir maintenir cette liste (incomplète) afin que les utilisateurs intéressés disposent d’une ressource facilement accessible. Le statu quo exige toujours que les personnes examinent un grand nombre de documents et / ou de longs rapports techniques pour trouver des réponses concernant les ERC et les HMM.
En plus des autres réponses déjà bonnes, je tiens à souligner les caractéristiques distinctives que je trouve les plus remarquables:
[1] Sutton, Charles; McCallum, Andrew (2010), "Introduction aux champs aléatoires conditionnels"
la source