Nota: el repositorio no se mantiene. No dudes en enviarme un mensaje privado si deseas encargarte del mantenimiento.
Cree un chatbot conversacional de uso general basado en un enfoque hot seq2seq implementado en tensorflow. Dado que hasta ahora no produce buenos resultados, considere también otras implementaciones de seq2seq.
Los resultados actuales son bastante malos:
hello baby - hello
how old are you ? - twenty .
i am lonely - i am not
nice - you ' re not going to be okay .
so rude - i ' m sorry .
Descargo de responsabilidad:
Todos son bienvenidos a investigar el código y sugerir mejoras.
Hechos reales
Papeles
Buena foto
Cortesía de este artículo.
Configuración
git clone [email protected]:nicolas-ivanov/tf_seq2seq_chatbot.git
cd tf_seq2seq_chatbot
bash setup.sh
Correr
Entrene un modelo seq2seq en un corpus pequeño (17 MB) de subtítulos de películas:
python train.py
(este comando ejecutará el entrenamiento en una CPU... Las instrucciones de la GPU están en camino)
Pruebe el modelo entrenado en un conjunto de preguntas comunes:
python test.py
Chatea con el modelo entrenado en la consola:
python chat.py
Todos los parámetros de configuración se almacenan en tf_seq2seq_chatbot/configs/config.py
Uso de GPU
Si tienes suerte de tener ya una configuración de gpu adecuada para tensorflow, esto debería funcionar:
python train.py
De lo contrario, es posible que necesites compilar tensorflow desde el código fuente y ejecutar el código de la siguiente manera:
cd tensorflow # cd to the tensorflow source folder
cp -r ~/tf_seq2seq_chatbot ./ # copy project's code to tensorflow root
bazel build -c opt --config=cuda tf_seq2seq_chatbot:train # build with gpu-enable option
./bazel-bin/tf_seq2seq_chatbot/train # run the built code
Requisitos