Tujuan dari jalur ini adalah untuk menyiapkan tugas obrolan aktif berdasarkan grafik pengetahuan. Alamat situs web resmi dialog berbasis pengetahuan
Target percakapan g, di mana g=START->TOPIC_A->TOPIC_B; berarti mesin aktif mengobrol dari status awal dingin ke topik A, lalu ke topik B. Artinya dalam tugas ini, mesin secara aktif memandu percakapan dalam tugas ini, topik tertentu mencakup film dan karakter hiburan;
Informasi pengetahuan terkait M, dimana M=f1, f2,...,fn. mencakup tiga kategori, yaitu: informasi pengetahuan topik A, informasi pengetahuan topik B, dan informasi terkait topik A dan topik B. Dalam tugas ini, informasi pengetahuan spesifik yang relevan meliputi film box office, sutradara dan evaluasi, dll., yang dinyatakan dalam bentuk SPO. Yaitu (Subjek, Predikat, Objek), yaitu (entitas satu, predikat, entitas dua).
Urutan dialog saat ini H=u1,u2,...u(t-1)
Mesin menjawab ut.
Kombinasi indikator evaluasi otomatis dan indikator evaluasi manual. Indeks evaluasi otomatis mempertimbangkan tiga tingkat pengukuran, yaitu tingkat karakter (skor F1), tingkat kata (BLEU), dan keragaman balasan (DISTINCT). Mengenai keberagaman tanggapan masih berdasarkan penghitungan kata, namun mengkaji dimensi lain dari kata yang dihasilkan. Dalam Referensi 2 penulis menulis:
berbeda-1 dan berbeda-2 masing-masing adalah jumlah unigram dan bigram berbeda dibagi dengan jumlah total kata yang dihasilkan
Mengacu pada tutorial resmi yang disediakan oleh PyTorch (lihat Referensi 4), cara menyelesaikan masalah dari perspektif seq2seq adalah dengan membagi beberapa putaran dialog menjadi kalimat paralel. Misalnya, rangkaian dialog saat ini H=u1,u2,...u(t-1) dapat dibagi menjadi t-2 kelompok sampel, yaitu: u1->u2;u2->u3;...; u (t-2)->u(t-1); Namun, ada masalah yang jelas dengan metode pembagian ini: kelancaran antar kalimat. Ini seharusnya menjadi pertanyaan, tapi saya belum memikirkannya secara mendalam.
Saat ini, kode Tutorial Chatbot resmi PyTorch telah difaktorkan ulang, setiap modul telah dipisahkan, dan bug telah ditemukan. Atas dasar ini, bersiaplah untuk menerapkan garis dasar, kode alamat
Untuk ide implementasi, kami terutama merujuk pada makalah "Model Percakapan Neural Berbasis Pengetahuan", yang mencakup dua bagian utama:
Pertama: bagaimana memasukkan informasi grafik pengetahuan ke dalam model;
Kedua: penerapan mekanisme memori;
Mengisi kembali:
Bagian 3.2 artikel IJCAI16 "Neural Generative Question Answering" mengusulkan dua metode interaksi antara input dan KG:
Pertama: Model Bilinear
Kedua: Model Pencocokan berbasis CNN
lihat:
0.www2018,《DKN: Jaringan Sadar Pengetahuan Mendalam untuk Rekomendasi Berita》
1. Konferensi Pemrosesan Media Sosial Nasional ke-6-SMP2017 Evaluasi Teknologi Dialog Manusia-Komputer Tiongkok (ECDT)
Berisi dua tugas: klasifikasi domain niat pengguna dan evaluasi online dialog manusia-komputer berbasis tugas khusus domain
2.《Fungsi Tujuan yang Mempromosikan Keberagaman untuk Model Percakapan Neural》
3.《Model Percakapan Neural Berbasis Persona》
4. tutorial chatbot dengan pytorch
Rencana runner-up kompetisi dialog JDDC 5.2018
6. Bagaimana mesin bisa menebak apa yang Anda pikirkan? Platform prediksi Alibaba Xiaomi didekripsi
7. Bongkar inti Alibaba Xiaomi dan lihat logika implementasi interaksi cerdas manusia-komputer
8. Ungkapkan rahasianya dalam satu artikel! Seluruh proses membangun grafik pengetahuan dari bawah ke atas
9. Bagaimana grafik pengetahuan yang dibuat untuk e-commerce dapat memahami kebutuhan pengguna?
10. Bagaimana para insinyur Alibaba menerapkan peta pengetahuan kesehatan?