Цель этого трека — настроить активные задачи чата на основе графиков знаний. Диалог, основанный на знаниях - адрес официального сайта
Цель разговора g, где g=START->TOPIC_A->TOPIC_B означает, что машина активно общается из состояния холодного запуска с темой A, а затем с темой B; Это означает, что в этой задаче машина активно направляет разговор, в конкретные темы входят фильмы и развлекательные персонажи;
Информация о связанных знаниях M, где M=f1, f2,...,fn, включает в себя три категории, а именно: информацию о знаниях по теме A, информацию о знаниях по теме B и связанную информацию по теме A и теме B. В этой задаче конкретная соответствующая информация о знаниях включает кассовые сборы фильма, режиссера и оценку и т. д., выраженную в форме SPO. То есть (Субъект, Предикат, Объект), то есть (сущность один, предикат, сущность два).
Текущая последовательность диалогов H=u1,u2,...u(t-1)
Машина отвечает: «Ут».
Сочетание индикаторов автоматической оценки и индикаторов ручной оценки. Индекс автоматической оценки учитывает три уровня измерения, а именно уровень символов (оценка F1), уровень слов (BLEU) и разнообразие ответов (DISTINCT). Что касается разнообразия ответов, то он по-прежнему основан на подсчете слов, но исследует другое измерение сгенерированных слов. В ссылке 2 автор пишет:
различные униграммы и биграммы разделены на общее количество сгенерированных слов соответственно.
Ссылаясь на руководство, официально предоставленное PyTorch (см. ссылку 4), способ решения проблемы с точки зрения seq2seq состоит в том, чтобы разделить несколько раундов диалога на параллельные предложения. Например, текущая последовательность диалогов H=u1,u2,...u(t-1) может быть разбита на t-2 группы выборок, а именно: u1->u2;u2->u3;...; u (t-2)->u(t-1); Однако у этого метода деления есть очевидная проблема: гладкость между предложениями. Это должен быть вопрос, но я глубоко об этом не задумывался.
В настоящее время учебный код официального чат-бота PyTorch был реорганизован, каждый модуль отделен и обнаружена ошибка. На этой основе подготовьтесь к реализации базового плана, адреса кода
За идеями реализации мы в основном обращаемся к статье «Модель нейронного диалога, основанной на знаниях», которая включает в себя две основные части:
Первое: как встроить в модель информацию графа знаний;
Второе: реализация механизма памяти;
Пополнить:
Раздел 3.2 статьи IJCAI16 «Нейронно-генеративный ответ на вопросы» предлагает два метода взаимодействия между входными данными и KG:
Первое: Билинейная модель
Второе: модель сопоставления на основе CNN.
обратитесь к:
0.www2018,《DKN: Сеть глубоких знаний для рекомендаций новостей》
1. 6-я Национальная конференция по обработке социальных сетей-SMP2017. Оценка технологий китайского диалога между человеком и компьютером (ECDT).
Содержит две задачи: классификацию области намерений пользователя и онлайн-оценку диалога человека и компьютера на основе конкретных задач.
2.《Целевая функция, способствующая разнообразию для моделей нейронных диалогов》
3.《Модель нейронного диалога на основе личности》
4. Учебное пособие по чат-боту с Pytorch
План занявшего второе место в конкурсе диалогов JDDC 5.2018
6. Как машина может угадать, о чем вы думаете? Платформа предсказаний Alibaba Xiaomi расшифрована
7. Разобрать ядро Alibaba Xiaomi и увидеть логику реализации интеллектуального взаимодействия человека и компьютера.
8. Раскройте секрет в одной статье! Весь процесс построения графа знаний снизу вверх
9. Как граф знаний, созданный для электронной коммерции, учитывает потребности пользователей?
10. Как инженеры Alibaba реализуют карту знаний о здоровье?