Je suis un nouvel apprenant en PNL. Je suis intéressé par la tâche de génération de phrases. En ce qui me concerne, une méthode de pointe est le CharRNN , qui utilise RNN pour générer une séquence de mots.
Cependant, BERT est sorti il y a plusieurs semaines et est très puissant. Par conséquent, je me demande si cette tâche peut également être effectuée avec l'aide du BERT? Je suis un nouvel apprenant dans ce domaine, et merci pour tout conseil!
Réponses:
Pour les débutants, NON.
La génération de phrases nécessite un échantillonnage à partir d'un modèle de langage, qui donne la distribution de probabilité du mot suivant compte tenu des contextes précédents. Mais le BERT ne peut pas le faire en raison de sa nature bidirectionnelle.
Pour les chercheurs avancés, OUI.
Vous pouvez commencer par une phrase de tous les jetons [MASK] et générer des mots un par un dans un ordre arbitraire (au lieu de la décomposition en chaîne de gauche à droite). Bien que la qualité de génération de texte soit difficile à contrôler.
Voici le rapport technique BERT a une bouche, et il doit parler: BERT comme un modèle de langage de champ aléatoire Markov , ses errata et le code source .
En résumé:
la source
cette expérience de Stephen Mayhew suggère que BERT est moche à la génération séquentielle de texte:
http://mayhewsw.github.io/2019/01/16/can-bert-generate-text/
la source
Non. La génération de phrases est directement liée à la modélisation du langage (étant donné les mots précédents de la phrase, quel est le mot suivant). En raison de la bidirectionnalité de BERT, BERT ne peut pas être utilisé comme modèle de langage. S'il ne peut pas être utilisé comme modèle de langage, je ne vois pas comment générer une phrase en utilisant BERT.
la source
Quelles options alternatives existent pour cela?
la source