Remarque : le référentiel n'est pas maintenu. N'hésitez pas à me contacter en MP si vous souhaitez prendre en charge la maintenance.
Créez un chatbot conversationnel à usage général basé sur une approche hot seq2seq implémentée dans tensorflow. Comme cela ne produit pas de bons résultats jusqu'à présent, envisagez également d'autres implémentations de seq2seq.
Les résultats actuels sont plutôt mauvais :
hello baby - hello
how old are you ? - twenty .
i am lonely - i am not
nice - you ' re not going to be okay .
so rude - i ' m sorry .
Clause de non-responsabilité:
Tout le monde est invité à étudier le code et à suggérer des améliorations.
Actes réels
Papiers
Belle photo
Avec l'aimable autorisation de cet article.
Installation
git clone [email protected]:nicolas-ivanov/tf_seq2seq_chatbot.git
cd tf_seq2seq_chatbot
bash setup.sh
Courir
Entraînez un modèle seq2seq sur un petit corpus (17 Mo) de sous-titres de films :
python train.py
(cette commande exécutera la formation sur un CPU... Les instructions GPU arrivent)
Testez le modèle entraîné sur un ensemble de questions courantes :
python test.py
Discutez avec un modèle entraîné dans la console :
python chat.py
Tous les paramètres de configuration sont stockés dans tf_seq2seq_chatbot/configs/config.py
Utilisation du GPU
Si vous avez la chance d'avoir déjà une configuration GPU appropriée pour Tensorflow, cela devrait faire l'affaire :
python train.py
Sinon, vous devrez peut-être créer Tensorflow à partir des sources et exécuter le code comme suit :
cd tensorflow # cd to the tensorflow source folder
cp -r ~/tf_seq2seq_chatbot ./ # copy project's code to tensorflow root
bazel build -c opt --config=cuda tf_seq2seq_chatbot:train # build with gpu-enable option
./bazel-bin/tf_seq2seq_chatbot/train # run the built code
Exigences