J'utilise Gensim Library en python pour utiliser et former le modèle word2vector. Récemment, je cherchais à initialiser mes poids de modèle avec un modèle word2vec pré-formé tel que (modèle pré-formé GoogleNewDataset). J'ai du mal avec ça quelques semaines. Maintenant, je viens de découvrir que dans gesim il y a une fonction qui peut m'aider à initialiser les poids de mon modèle avec des poids de modèle pré-formés. Cela est mentionné ci-dessous:
reset_from(other_model)
Borrow shareable pre-built structures (like vocab) from the other_model. Useful if testing multiple models in parallel on the same corpus.
Je ne sais pas si cette fonction peut faire la même chose ou non. S'il vous plaît, aidez !!!
Réponses:
Merci Abhishek. Je l'ai compris! Voici mes expériences.
1). nous traçons un exemple simple:
À partir des graphiques ci-dessus, nous pouvons voir que les phrases faciles ne peuvent pas distinguer la signification des différents mots par les distances.
2). Charger l'intégration de mots pré-formés:
D'après la figure ci-dessus, nous pouvons voir que les incorporations de mots sont plus significatives.
J'espère que cette réponse vous sera utile.
la source
Voyons un exemple de code:
Par conséquent, nous observons que model1 est réinitialisé par le model2 et donc le mot, 'troisième' et 'phrase' sont dans son vocabulaire donnant finalement sa similitude. Ceci est l'utilisation de base, vous pouvez également vérifier reset_weights () pour réinitialiser les poids à l'état non formé / initial.
la source
Si vous cherchez un réseau pré-formé pour l'intégration de mots, je vous suggère GloVe. Le blog suivant de Keras est très instructif sur la façon de l'implémenter. Il a également un lien vers les intégrations GloVe pré-formées. Il existe des vecteurs de mots pré-formés allant d'un vecteur de 50 dimensions à 300 vecteurs de dimensions. Ils ont été construits sur Wikipédia, Common Crawl Data ou Twitter. Vous pouvez les télécharger ici: http://nlp.stanford.edu/projects/glove/ . De plus, vous devriez examiner le blog des keras sur la façon de les implémenter. https://blog.keras.io/using-pre-trained-word-embeddings-in-a-keras-model.html
la source
Je l'ai fait ici: https://gist.github.com/AbhishekAshokDubey/054af6f92d67d5ef8300fac58f59fcc9
Voyez si c'est ce dont vous avez besoin
la source