O objetivo desta faixa é configurar tarefas de chat ativas com base em gráficos de conhecimento. Endereço do site oficial do diálogo orientado ao conhecimento
Destino de conversa g, onde g=START->TOPIC_A->TOPIC_B significa que a máquina conversa ativamente do estado de inicialização a frio para o tópico A e depois para o tópico B; Isso significa que nesta tarefa a máquina orienta ativamente a conversa, tópicos específicos incluem filmes e personagens de entretenimento;
Informações de conhecimento relacionadas M, onde M=f1, f2,...,fn inclui três categorias, a saber: informações de conhecimento do tópico A, informações de conhecimento do tópico B e informações relacionadas do tópico A e do tópico B. Nesta tarefa, informações específicas de conhecimento relevante incluem bilheteria de filmes, diretor e avaliação, etc., expressas na forma de SPO. Isto é (Sujeito, Predicado, Objeto), isto é (entidade um, predicado, entidade dois).
Sequência de diálogo atual H=u1,u2,...u(t-1)
A máquina responde.
Combinação de indicadores de avaliação automática e indicadores de avaliação manual. O índice de avaliação automática considera três níveis de medição, nomeadamente nível de carácter (pontuação F1), nível de palavra (BLEU) e diversidade de resposta (DISTINCT). Quanto à diversidade de respostas, ainda se baseia no cálculo de palavras, mas examina outra dimensão das palavras geradas. Na Referência 2 o autor escreve:
distinto-1 e distinto-2 são, respectivamente, o número de unigramas e bigramas distintos dividido pelo número total de palavras geradas
Referindo-se ao tutorial fornecido oficialmente pelo PyTorch (ver Referência 4), a maneira de resolver o problema da perspectiva do seq2seq é dividir as múltiplas rodadas de diálogo em frases paralelas. Por exemplo, a sequência de diálogo atual H=u1,u2,...u(t-1) pode ser dividida em t-2 grupos de amostras, que são: u1->u2;u2->u3;...; u (t-2)->u(t-1); No entanto, há um problema óbvio com este método de divisão: suavidade entre sentenças. Esta deveria ser uma pergunta, mas não pensei profundamente sobre isso.
Atualmente, o código do tutorial do Chatbot oficial do PyTorch foi refatorado, cada módulo foi desacoplado e um bug foi descoberto. Com base nisso, prepare-se para implementar uma linha de base, endereço de código
Para ideias de implementação, referimo-nos principalmente ao artigo "A Knowledge-Grounded Neural Conversation Model", que inclui duas partes principais:
Primeiro: como incorporar as informações do gráfico de conhecimento ao modelo;
Segundo: a implementação do mecanismo de memória;
Reabastecer:
A seção 3.2 do artigo IJCAI16 "Neural Generative Question Answering" propõe dois métodos para interação entre entrada e KG:
Primeiro: Modelo Bilinear
Segundo: modelo de correspondência baseado em CNN
consulte:
0.www2018,《DKN: Deep Knowledge-Aware Network for News Recommendation》
1. 6ª Conferência Nacional de Processamento de Mídia Social-SMP2017 Avaliação Chinesa de Tecnologia de Diálogo Humano-Computador (ECDT)
Contém duas tarefas: classificação do domínio da intenção do usuário e avaliação on-line do diálogo humano-computador baseado em tarefas específicas do domínio
2.《Uma função objetiva de promoção da diversidade para modelos de conversação neural》
3.《Um modelo de conversa neural baseado em persona》
4. tutorial do chatbot com pytorch
5.2018 Plano de vice-campeão da competição de diálogo JDDC
6. Como uma máquina pode adivinhar o que você está pensando? Plataforma de previsão Alibaba Xiaomi descriptografada
7. Desmonte o núcleo do Alibaba Xiaomi e veja a lógica de implementação da interação inteligente homem-computador
8. Revele o segredo em um artigo! Todo o processo de construção de um gráfico de conhecimento de baixo para cima
9. Como o gráfico de conhecimento criado para o comércio eletrônico percebe as necessidades do usuário?
10. Como os engenheiros do Alibaba implementam o mapa do conhecimento em saúde?