Ziel dieses Tracks ist es, aktive Chat-Aufgaben auf Basis von Wissensgraphen einzurichten. Wissensgesteuerter Dialog – offizielle Website-Adresse
Konversationsziel g, wobei g=START->TOPIC_A->TOPIC_B bedeutet, dass die Maschine aktiv vom Kaltstartstatus zu Thema A und dann zu Thema B chattet. Das bedeutet, dass bei dieser Aufgabe die Maschine das Gespräch aktiv leitet; bei dieser Aufgabe gehören bestimmte Themen zu Filmen und Unterhaltungsfiguren.
Verwandte Wissensinformationen M, wobei M = f1, f2, ..., fn drei Kategorien umfasst, nämlich: Wissensinformationen zu Thema A, Wissensinformationen zu Thema B und verwandte Informationen zu Thema A und Thema B. Bei dieser Aufgabe umfassen spezifische relevante Wissensinformationen die Filmkasse, den Regisseur und die Bewertung usw. und werden in Form von SPO ausgedrückt. Das heißt (Subjekt, Prädikat, Objekt), das heißt (Entität eins, Prädikat, Entität zwei).
Aktuelle Dialogsequenz H=u1,u2,...u(t-1)
Die Maschine antwortet ut.
Kombination aus automatischen Bewertungsindikatoren und manuellen Bewertungsindikatoren. Der automatische Bewertungsindex berücksichtigt drei Messebenen, nämlich Zeichenebene (F1-Score), Wortebene (BLEU) und Antwortvielfalt (DISTINCT). Was die Vielfalt der Antworten angeht, basiert es immer noch auf der Wortberechnung, untersucht jedoch eine andere Dimension der generierten Wörter. In Referenz 2 schreibt der Autor:
„distinct-1“ und „distinct-2“ sind jeweils die Anzahl der unterschiedlichen Unigramme und Bigramme geteilt durch die Gesamtzahl der generierten Wörter
Unter Bezugnahme auf das offiziell von PyTorch bereitgestellte Tutorial (siehe Referenz 4) besteht die Möglichkeit, das Problem aus der Perspektive von seq2seq zu lösen, darin, die mehreren Dialogrunden in parallele Sätze aufzuteilen. Beispielsweise kann die aktuelle Dialogsequenz H=u1,u2,...u(t-1) in t-2 Gruppen von Stichproben aufgeteilt werden, die wie folgt lauten: u1->u2;u2->u3;...; u (t-2)->u(t-1); Es gibt jedoch ein offensichtliches Problem bei dieser Divisionsmethode: Glätte zwischen Sätzen. Das sollte eine Frage sein, aber ich habe nicht tief darüber nachgedacht.
Derzeit wurde der Tutorial-Code des offiziellen Chatbots von PyTorch überarbeitet, jedes Modul wurde entkoppelt und ein Fehler wurde entdeckt. Bereiten Sie auf dieser Grundlage die Implementierung einer Basiscodeadresse vor
Für Umsetzungsideen verweisen wir vor allem auf das Papier „A Knowledge-Grounded Neural Conversation Model“, das zwei Hauptteile umfasst:
Erstens: Wie werden die Informationen des Wissensgraphen in das Modell eingebettet?
Zweitens: die Implementierung des Speichermechanismus;
Auffüllen:
Abschnitt 3.2 des IJCAI16-Artikels „Neural Generative Question Answering“ schlägt zwei Methoden für die Interaktion zwischen Eingabe und KG vor:
Erstens: Bilineares Modell
Zweitens: CNN-basiertes Matching-Modell
siehe:
0.www2018,《DKN: Deep Knowledge-Aware Network for News Recommendation》
1. Die 6. Nationale Konferenz zur Verarbeitung sozialer Medien – SMP2017 – Chinesische Mensch-Computer-Dialog-Technologiebewertung (ECDT)
Enthält zwei Aufgaben: Klassifizierung der Benutzerabsichtsdomäne und domänenspezifische aufgabenbasierte Online-Bewertung des Mensch-Computer-Dialogs
2.《Eine diversitätsfördernde Zielfunktion für neuronale Konversationsmodelle》
3.《Ein Persona-basiertes neuronales Konversationsmodell》
4. Chatbot-Tutorial mit Pytorch
5. Zweitplatzierter Plan für den JDDC-Dialogwettbewerb 2018
6. Wie kann eine Maschine erraten, was Sie denken? Alibaba Xiaomi-Vorhersageplattform entschlüsselt
7. Zerlegen Sie den Kern von Alibaba Xiaomi und sehen Sie sich die Implementierungslogik der intelligenten Mensch-Computer-Interaktion an
8. Enthülle das Geheimnis in einem Artikel! Der gesamte Prozess der Erstellung eines Wissensgraphen von Grund auf
9. Wie erkennt der für E-Commerce erstellte Wissensgraph die Benutzerbedürfnisse?
10. Wie implementieren Alibaba-Ingenieure die Gesundheitswissenskarte?