Je me demande comment former un réseau de neurones pour un jeu de plateau rond, comme le tic-tac-toe, les échecs, le risque ou tout autre jeu basé sur le tour. Obtenir le prochain coup par inférence semble être assez simple, en alimentant l'état du jeu en entrée et en utilisant la sortie comme coup pour le joueur actuel. Cependant, la formation d'une IA à cet effet ne semble pas être aussi simple, car:
- Il peut ne pas y avoir de note si un seul mouvement est bon ou non, donc la formation des mouvements simples ne semble pas être le bon choix
- L'utilisation de tous les états de jeu (entrées) et mouvements (sorties) de l'ensemble du jeu pour entraîner le réseau de neurones ne semble pas être le bon choix, car tous les mouvements d'une partie perdue peuvent ne pas être mauvais
Je me demande donc comment former un réseau de neurones pour un jeu de plateau rond? Je voudrais créer un réseau de neurones pour tic-tac-toe en utilisant tensorflow.
la source
Je pense que vous devriez vous familiariser avec l'apprentissage par renforcement. Dans ce domaine de l'apprentissage automatique, l'agent interagit avec son environnement et après cela, l'agent obtient une récompense. Maintenant, l'agent est le réseau de neurones, l'environnement est le jeu et l'agent peut obtenir une récompense +1 s'il gagne ou -1 s'il perd. Vous pouvez utiliser cet état, action, récompense le tuple d'expérience pour former l'agent. Je peux également recommander les conférences de David Silver sur YouTube et le livre de Sutton.
la source