이 트랙의 목표는 지식 그래프를 기반으로 활성 채팅 작업을 설정하는 것입니다. 지식기반대화 공식 홈페이지 주소
대화 대상 g(여기서 g=START->TOPIC_A->TOPIC_B)는 머신이 콜드 스타트 상태에서 주제 A, 그리고 주제 B로 활발하게 채팅한다는 것을 의미합니다. 이는 이 작업에서 기계가 대화를 적극적으로 안내한다는 것을 의미하며 특정 주제에는 영화 및 엔터테인먼트 캐릭터가 포함됩니다.
관련 지식 정보 M(여기서 M=f1, f2,...,fn)에는 주제 A에 대한 지식 정보, 주제 B에 대한 지식 정보, 주제 A 및 주제 B에 대한 관련 정보의 세 가지 범주가 포함됩니다. 본 작업에서는 영화 흥행, 감독, 평가 등 구체적인 관련 지식정보를 SPO 형태로 표현한다. 즉 (주어, 술어, 목적어), 즉 (엔티티 1, 술어, 엔터티 2)입니다.
현재 대화 시퀀스 H=u1,u2,...u(t-1)
기계가 ut라고 대답합니다.
자동 평가 지표와 수동 평가 지표를 결합한 것입니다. 자동 평가 지수는 문자 수준(F1-점수), 단어 수준(BLEU) 및 응답 다양성(DISTINCT)의 세 가지 측정 수준을 고려합니다. 응답의 다양성에 관해서는 여전히 단어 계산을 기반으로 하지만 생성된 단어의 다른 차원을 검토합니다. 참고문헌 2에서 저자는 다음과 같이 썼습니다.
개별-1 및 개별-2는 각각 개별 유니그램 및 바이그램 수를 생성된 총 단어 수로 나눈 값입니다.
PyTorch에서 공식적으로 제공하는 튜토리얼(참조 4 참조)을 참조하면 seq2seq 관점에서 문제를 해결하는 방법은 여러 라운드의 대화를 병렬 문장으로 분할하는 것입니다. 예를 들어, 현재 대화 시퀀스 H=u1,u2,...u(t-1)은 t-2개의 샘플 그룹으로 분할될 수 있습니다. u1->u2;u2->u3;...; u (t-2)->u(t-1); 그러나 이 분할 방법에는 문장 간의 부드러움이라는 명백한 문제가 있습니다. 이런 질문이 있어야 하는데 깊이 생각해보지는 않았습니다.
현재 PyTorch 공식 Chatbot의 Tutorial 코드가 리팩토링되었으며 각 모듈이 분리되었으며 버그가 발견되었습니다. 이를 바탕으로 베이스라인, 코드 주소 구현 준비
구현 아이디어에 대해서는 주로 다음 두 부분으로 구성된 "지식 기반 신경 대화 모델" 논문을 참조합니다.
첫째, 지식 그래프의 정보를 모델에 삽입하는 방법입니다.
둘째: 메모리 메커니즘의 구현입니다.
다시 채우다:
IJCAI16 기사 "신경 생성 질문 응답"의 섹션 3.2에서는 입력과 KG 간의 상호 작용을 위한 두 가지 방법을 제안합니다.
첫 번째: 이중선형 모델
두 번째: CNN 기반 매칭 모델
참조:
0.www2018, 《DKN: 뉴스추천을 위한 심층지식인식네트워크》
1. 제6회 전국 소셜 미디어 처리 컨퍼런스 - SMP2017 중국 인간-컴퓨터 대화 기술 평가(ECDT)
두 가지 작업이 포함되어 있습니다: 사용자 의도 도메인 분류 및 도메인별 작업 기반 인간-컴퓨터 대화 온라인 평가
2. 《신경 대화 모델을 위한 다양성 증진 목적 함수》
3. 《페르소나 기반 신경 대화 모델》
4. 파이토치를 이용한 챗봇 튜토리얼
5.2018 JDDC 대화대회 준우승 계획
6. 기계는 당신이 생각하는 것을 어떻게 추측할 수 있습니까? Alibaba Xiaomi 예측 플랫폼이 해독되었습니다.
7. Alibaba Xiaomi의 핵심을 분해하고 지능형 인간-컴퓨터 상호 작용의 구현 논리를 확인합니다.
8. 기사 하나로 그 비밀을 밝혀보세요! 지식 그래프를 아래에서 위로 구축하는 전 과정
9. 전자상거래를 위해 만들어진 지식 그래프는 사용자의 요구를 어떻게 감지하나요?
10. Alibaba 엔지니어들은 건강 지식 지도를 어떻게 구현합니까?