Agente conversacional basado en habilidades que obtuvo el primer lugar en el NIPS Conversational Intelligence Challenge 2017 (http://convai.io/2017/).
Todavía actualizamos nuestro Agente conversacional y la última versión se puede encontrar en la rama principal.
Aquí se presenta la versión final de ConvAI del Agente (el 12 de noviembre): https://github.com/sld/convai-bot-1337/tree/032d5f6f5cc127bb56d29f0f0c6bbc0487f98316
Presentamos el bot#1337: un sistema de diálogo desarrollado para el 1er Desafío de Inteligencia Conversacional NIPS 2017 (ConvAI). El objetivo del concurso era implementar un bot capaz de conversar con humanos a partir de un determinado pasaje de texto. Para permitir la conversación, implementamos un conjunto de habilidades para nuestro bot, que incluyen charla, detección de temas, resumen de texto, respuesta y generación de preguntas. El sistema ha sido entrenado en un entorno supervisado utilizando un administrador de diálogo para seleccionar una habilidad adecuada para generar una respuesta. Este último permite al desarrollador centrarse en la implementación de habilidades en lugar del administrador de diálogo basado en una máquina de estados finitos. El sistema propuesto bot#1337 ganó el concurso con una puntuación media de calidad de diálogo de 2,78 sobre 5 otorgada por evaluadores humanos. El código fuente y los modelos entrenados para el bot#1337 están disponibles en GitHub.
Para obtener una breve descripción general del bot#1337, consulte los siguientes recursos:
Descargue y coloque modelos entrenados en carpetas:
./setup.sh
Construir contenedores:
docker-compose -f docker-compose.yml -f telegram.yml build
Configura config.py, no olvides poner el token TELEGRAM:
cp dialog_tracker/config.example.py dialog_tracker/config.py
dialog_tracker/config.py debería verse así:
WAIT_TIME = 15
WAIT_TOO_LONG = 60
version = "17 (24.12.2017)"
telegram_token = "your telegram token"
Este comando ejecutará el bot de Telegram con su token de Telegram:
docker-compose -f docker-compose.yml -f telegram.yml up
Ejecute el bot utilizando el servidor json api:
docker-compose -f docker-compose.yml -f json_api.yml up
Ejecute las pruebas:
python dialog_tracker/tests/test_json_api.py http://0.0.0.0:5000
Lea CONTRIBUTING.md para obtener detalles sobre nuestro código de conducta y el proceso para enviarnos solicitudes de extracción.
Este proyecto tiene la licencia GPLv3; consulte el archivo de LICENCIA para obtener más detalles.
Bifurcación de este bot en el TOP-3 (equipo infinito) del hackathon DeepHack Chat http://deephack.me/leaderboard_hack.