Nota: o repositório não é mantido. Sinta-se à vontade para me enviar uma mensagem privada se desejar fazer a manutenção.
Construa um chatbot conversacional de uso geral baseado em uma abordagem hot seq2seq implementada em tensorflow. Como não produziu bons resultados até agora, considere também outras implementações de seq2seq.
Os resultados atuais são péssimos:
hello baby - hello
how old are you ? - twenty .
i am lonely - i am not
nice - you ' re not going to be okay .
so rude - i ' m sorry .
Isenção de responsabilidade:
Todos são bem-vindos para investigar o código e sugerir melhorias.
Ações reais
Artigos
Foto legal
Cortesia deste artigo.
Configurar
git clone [email protected]:nicolas-ivanov/tf_seq2seq_chatbot.git
cd tf_seq2seq_chatbot
bash setup.sh
Correr
Treine um modelo seq2seq em um pequeno corpus (17 MB) de legendas de filmes:
python train.py
(este comando executará o treinamento em uma CPU... As instruções da GPU estão chegando)
Teste o modelo treinado treinado em um conjunto de perguntas comuns:
python test.py
Converse com o modelo treinado no console:
python chat.py
Todos os parâmetros de configuração são armazenados em tf_seq2seq_chatbot/configs/config.py
Uso de GPU
Se você tiver sorte de já ter uma configuração de GPU adequada para tensorflow, isso deve funcionar:
python train.py
Caso contrário, pode ser necessário construir o tensorflow a partir do código-fonte e executar o código da seguinte maneira:
cd tensorflow # cd to the tensorflow source folder
cp -r ~/tf_seq2seq_chatbot ./ # copy project's code to tensorflow root
bazel build -c opt --config=cuda tf_seq2seq_chatbot:train # build with gpu-enable option
./bazel-bin/tf_seq2seq_chatbot/train # run the built code
Requisitos