ภาษาไทย
中文(简体)
中文(繁体)
한국어
日本語
English
Português
Español
Русский
العربية
Indonesia
Deutsch
Français
ภาษาไทย
แผนที่เว็บไซต์ทั้งหมด
อัปเดตล่าสุด
หน้าแรก
โค้ดต้นฉบับ
เกี่ยวกับการเขียนโปรแกรม
ทรัพยากรสร้างเว็บไซต์
บทเรียนออกแบบเว็บ
บทเรียนการเขียนโปรแกรมเครือข่าย
หน้าแรก
>
การเขียนโปรแกรมที่เกี่ยวข้อง
>
โค้ดแหล่งที่มา AI
papernote
โค้ดแหล่งที่มา AI
1.0.0
ดาวน์โหลด
ระบบผู้แนะนำ
โมเดลการฝังเนื้อหาเชิงลึกของผู้ใช้
ปี 2018.07
สำหรับการแนะนำเพลง [arxiv] [หมายเหตุ]
2017.08
Deep & Cross Network สำหรับการคาดการณ์การคลิกโฆษณา [arxiv] [หมายเหตุ]
2017.03
DeepFM: โครงข่ายประสาทเทียมที่ใช้แฟคเตอร์ไรเซชันสำหรับการทำนาย CTR [arxiv] [หมายเหตุ]
2016.09
Deep Neural Networks สำหรับการแนะนำของ YouTube [การวิจัย] [หมายเหตุ]
2016.06
การเรียนรู้แบบกว้างและเชิงลึกสำหรับระบบผู้แนะนำ [arxiv] [หมายเหตุ]
2010.12
เครื่องแยกตัวประกอบ [ieee] [หมายเหตุ]
1998.08
ผลตอบรับโดยนัยสำหรับระบบผู้แนะนำ [aaai] [หมายเหตุ]
QA และการสร้างข้อความ
QA: ตามการดึงข้อมูล (ลีดเดอร์บอร์ด):
2018.12
การออกแบบและการปรับใช้ XiaoIce ซึ่งเป็น Chatbot ทางสังคมที่เอาใจใส่ [arxiv] [หมายเหตุ]
2018.06
การสร้างแบบจำลองการสนทนาหลายรอบด้วยการรวมคำพูดที่ลึกซึ้ง [arxiv] [หมายเหตุ]
2017.11
การสำรวจเกี่ยวกับระบบการสนทนา: ความก้าวหน้าล่าสุดและขอบเขตใหม่ [arxiv] [หมายเหตุ]
2017.05
IRGAN [arxiv] [หมายเหตุ]
2017.02
การจับคู่หลายมุมมองระดับทวิภาคีสำหรับประโยคภาษาธรรมชาติ [arxiv] [หมายเหตุ]
2016.12
สถาปัตยกรรมใหม่สำหรับการเลือกการตอบสนองแบบหลายเทิร์นใน Chatbots แบบดึงข้อมูล [arxiv] [หมายเหตุ]
2016.11
โมเดลเปรียบเทียบรวมสำหรับการจับคู่ลำดับข้อความ [arxiv] [หมายเหตุ]
2016.10
การประมาณค่าความเปรียบต่างของสัญญาณรบกวนสำหรับการเลือกคำตอบด้วยโครงข่ายประสาทเทียมเชิงลึก [semanticscholar] [หมายเหตุ]
2016.02
เครือข่ายการรวมกลุ่มที่เอาใจใส่ [arxiv] [หมายเหตุ]
โมเดลการเรียนรู้เชิงลึกที่ใช้ LSTM
ปี 2015.11
สำหรับการเลือกคำตอบที่ไม่ใช่ข้อเท็จจริง [arxiv] [หมายเหตุ]
chatbot: ตามรุ่น:
2018.04
พูดคุยเพิ่มเติม: การทำให้หัวข้อการสนทนาลึกซึ้งยิ่งขึ้นและกว้างขึ้นผ่าน A Deep Model [กระดาษ] [หมายเหตุ]
2018.01
จาก Eliza สู่ XiaoIce: ความท้าทายและโอกาสด้วย Social Chatbots [arxiv] [แปล]
2017.11
การสร้างการตอบสนองของระบบประสาทด้วยคำศัพท์แบบไดนามิก [arxiv] [หมายเหตุ]
11.11.2017
MOJITALK: การสร้างการตอบสนองทางอารมณ์ [arxiv] [หมายเหตุ]
2017.07
AliMe Chat: ลำดับต่อลำดับและจัดอันดับ Chatbot Engine ที่ใช้อันดับใหม่ [aclweb] [หมายเหตุ]
2017.04
การสร้างการสนทนาทางอารมณ์ด้วยหน่วยความจำภายในและภายนอก [arxiv] [หมายเหตุ]
2017.03
การเรียนรู้ความหลากหลายระดับวาทกรรมสำหรับโมเดลไดอะล็อกประสาทโดยใช้ CVAE [arxiv] [หมายเหตุ]
2017.02
โมเดลการสนทนาทางประสาทที่มีเหตุผล [arxiv] [หมายเหตุ]
2017.01
การสร้างการตอบสนองที่ยาวนานและหลากหลายด้วยโมเดลการสนทนาทางประสาท [arxiv] [หมายเหตุ]
2016.07
ลำดับสู่ลำดับย้อนหลังและไปข้างหน้า [arxiv] [หมายเหตุ]
2016.06
หัวข้อ Aware Neural Response Generation [arxiv] [หมายเหตุ]
2016.06
การเรียนรู้แบบเสริมกำลังเชิงลึกสำหรับการสร้างบทสนทนา [arxiv] [หมายเหตุ]
2015.03
เครื่องตอบสนองทางประสาทสำหรับการสนทนาด้วยข้อความสั้น [arxiv] [หมายเหตุ]
การสร้างข้อความ
2018.06
การสร้างหัวข้อเป็นเรียงความด้วยโครงข่ายประสาทเทียม [กระดาษ] [หมายเหตุ]
2016.10
การสร้างบทกวีจีนด้วยโครงข่ายประสาทเทียมตามการวางแผน [arxiv] [หมายเหตุ]
2016.03
การผสมผสานกลไกการคัดลอกในการเรียนรู้แบบเรียงลำดับต่อลำดับ [arxiv] [หมายเหตุ]
การจำแนกประเภท
2019.05
จะปรับแต่ง BERT สำหรับการจำแนกข้อความได้อย่างไร [arxiv] [หมายเหตุ]
SGM
ปี 2018.06
: โมเดลการสร้างลำดับสำหรับการจำแนกประเภทหลายฉลาก [arxiv] [หมายเหตุ]
2018.04
ETH-DS3Lab ที่งาน SemEval-2018 งานที่ 7: ... การจำแนกประเภทความสัมพันธ์และการดึงข้อมูล [arxiv] [หมายเหตุ]
2017.08
การใช้อีโมจินับล้านครั้งเพื่อเรียนรู้การเป็นตัวแทนโดเมนสำหรับ ... [aclweb] [หมายเหตุ]
2016.xx
LSTM ที่อิงตามความสนใจสำหรับการจำแนกความรู้สึกระดับมุมมอง [aclweb] [หมายเหตุ]
2016.07
Bag of Tricks เพื่อการจำแนกข้อความที่มีประสิทธิภาพ (ข้อความด่วน) [arxiv] [หมายเหตุ]
2016.06
เครือข่ายความสนใจแบบลำดับชั้นสำหรับการจำแนกเอกสาร [aclweb] [หมายเหตุ]
2016.03
การจำแนกข้อความสั้นตามลำดับด้วยโครงข่ายประสาทเทียมแบบเกิดซ้ำและแบบ Convolutional [arxiv] [หมายเหตุ]
2015.07
การจำแนกความสัมพันธ์ตามการจัดอันดับด้วย Convolutional Neural Networks [aclweb] [หมายเหตุ]
2014.08
Convolutional Neural Networks สำหรับการจำแนกประโยค [aclweb] [หมายเหตุ]
2012.07
Baselines and Bigrams: Simple, Good Sentiment and Topic Classification [aclweb] [หมายเหตุ]
การฝัง
การฝังคำ:
2018.12
เรื่องมิติของการฝังคำ [arxiv] [หมายเหตุ]
2018.09
การเปิดเผยข้อมูลทางภาษาที่แตกต่างในการฝังคำ ... [arxiv] [หมายเหตุ]
2018.02
การแสดงคำตามบริบทเชิงลึก (ELMo) [arxiv] [หมายเหตุ]
2017.12
ความก้าวหน้าในการนำเสนอคำแบบกระจายก่อนการฝึกอบรม [arxiv] [หมายเหตุ]
2017.07
วิธีง่ายๆ ในการเรียนรู้การฝังคำแบบหลายคำ [arxiv] [หมายเหตุ]
2017.07
การเลียนแบบการฝังคำโดยใช้ Subword RNNs [arxiv] [หมายเหตุ]
2016.07
การเพิ่มคุณค่าให้กับเวกเตอร์คำด้วยข้อมูลคำย่อย [arxiv] [หมายเหตุ]
2013.01
ความสม่ำเสมอทางภาษาในการแทนคำในอวกาศต่อเนื่อง [aclweb] [หมายเหตุ]
การฝังประโยค:
2018.09
การสร้างแบบจำลองลำดับกึ่งกำกับดูแลพร้อมการฝึกอบรม Cross-View [arxiv] [หมายเหตุ]
2018.05
Baseline Needs More Love: On Simple Word-Embedding-Based Models และ ... [arxiv] [หมายเหตุ]
2018.04
การเรียนรู้ความคล้ายคลึงกันของข้อความเชิงความหมายจากการสนทนา [arxiv] [หมายเหตุ]
2018.03
กรอบการทำงานที่มีประสิทธิภาพสำหรับการนำเสนอประโยคการเรียนรู้ [arxiv] [หมายเหตุ]
2017.05
การเรียนรู้ภายใต้การดูแลของการแทนประโยคสากลจากข้อมูล NLI [arxiv] [หมายเหตุ]
2016.11
บรรทัดฐานที่เรียบง่ายแต่ยากที่จะเอาชนะสำหรับการฝังประโยค [openreview] [หมายเหตุ]
2016.05
การเรียนรู้การอนุมานภาษาธรรมชาติโดยใช้แบบจำลอง LSTM แบบสองทิศทางและความสนใจภายใน [arxiv] [หมายเหตุ]
2016.02
การเรียนรู้การกระจายการนำเสนอประโยคจากข้อมูลที่ไม่มีป้ายกำกับ [arxiv] [หมายเหตุ]
2015.12
การเรียนรู้ความคล้ายคลึงทางความหมายสำหรับข้อความที่สั้นมาก [arxiv] [หมายเหตุ]
2015.11
ลำดับการฝังรูปภาพและภาษา [arxiv] [หมายเหตุ]
2014.05
การกระจายการนำเสนอประโยคและเอกสาร [arxiv] [หมายเหตุ]
การฝังผู้ใช้:
2017.05
การหาปริมาณสุขภาพจิตจากโซเชียลมีเดียด้วยการฝังผู้ใช้ประสาท [arxiv] [หมายเหตุ]
การทำให้เป็นมาตรฐานและการทำให้เป็นมาตรฐาน
2018.08
การออกกลางคันเป็นกรณีพิเศษของกฎสุ่มเดลต้า: การเรียนรู้เชิงลึกที่เร็วขึ้นและแม่นยำยิ่งขึ้น [arxiv] [หมายเหตุ]
2018.05
Batch Normalization ช่วยเพิ่มประสิทธิภาพได้อย่างไร? (ไม่ มันไม่เกี่ยวกับการเปลี่ยนแปลงโควาเรียตภายใน) [arxiv] [หมายเหตุ]
2017.02
การทำให้เป็นมาตรฐานใหม่เป็นชุด [arxiv] [หมายเหตุ]
2016.07
การทำให้เลเยอร์เป็นมาตรฐาน [arxiv] [หมายเหตุ]
2016.05
วิธีการฝึกอบรมฝ่ายตรงข้ามสำหรับการจัดประเภทข้อความแบบกึ่งกำกับดูแล [arxiv] [หมายเหตุ]
2016.03
การทำให้เป็นมาตรฐานแบทช์ที่เกิดซ้ำ [arxiv] [หมายเหตุ]
2016.02
การปรับน้ำหนักให้เป็นมาตรฐาน [arxiv] [หมายเหตุ]
2015.10
Batch Normalized Recurrent Neural Networks [arxiv] [หมายเหตุ]
2015.07
การปรับการกระจายให้ราบรื่นด้วยการฝึกอบรมฝ่ายตรงข้ามเสมือนจริง [arxiv] [หมายเหตุ]
2015.02
การทำให้เป็นมาตรฐานแบบแบทช์ [arxiv] [หมายเหตุ]
2014.12
การอธิบายและการควบคุมตัวอย่างของฝ่ายตรงข้าม [arxiv] [หมายเหตุ]
2013.06
การทำให้โครงข่ายประสาทเทียมเป็นมาตรฐานโดยใช้ DropConnect [กระดาษ] [หมายเหตุ]
2009.06
การเรียนรู้หลักสูตร [collobert] [หมายเหตุ]
โครงข่ายประสาทเทียม
2019.01
ถึงเวลาที่จะหวดแล้วหรือยัง? การเปรียบเทียบฟังก์ชันการเปิดใช้งานการเรียนรู้เชิงลึกระหว่างงาน NLP [arxiv] [หมายเหตุ]
2018.03
การออกกลางคันตามเป้าหมาย [openreview] [หมายเหตุ]
2017.11
โมเดลภาษาที่เอาใจใส่ [aclweb] [หมายเหตุ]
2017.04
โมเดลภาษาเครือข่ายประสาทเทียมแบบสองทิศทางระยะยาวตามบริบท [aclweb] [หมายเหตุ]
2017.04
การเรียนรู้เพื่อสร้างบทวิจารณ์และการค้นพบความรู้สึก [arxiv] [หมายเหตุ]
2017.04
การสำรวจ Sparsity ในโครงข่ายประสาทเทียมที่เกิดซ้ำ [arxiv] [หมายเหตุ]
2017.02
Deep Nets ไม่เรียนรู้ผ่านการท่องจำ [openreview] [หมายเหตุ]
2017.01
การสร้างแบบจำลองภาษาบริบทโต้ตอบด้วยโครงข่ายประสาทเทียมที่เกิดซ้ำ [arxiv] [หมายเหตุ]
2016.11
การผูกคำเวกเตอร์และตัวแยกประเภทคำ: กรอบการสูญเสียสำหรับการสร้างแบบจำลองภาษา [arxiv] [หมายเหตุ]
2016.11
การทำความเข้าใจการเรียนรู้เชิงลึกจำเป็นต้องมีการคิดใหม่เกี่ยวกับลักษณะทั่วไป [arxiv] [หมายเหตุ]
2016.09
ภาพรวมของอัลกอริธึมการเพิ่มประสิทธิภาพการไล่ระดับสี Descent [arxiv] [หมายเหตุ]
2016.09
โมเดล Pointer Sentinel Mixture [arxiv] [หมายเหตุ]
2016.08
การใช้การฝังเอาต์พุตเพื่อปรับปรุงโมเดลภาษา [arxiv] [หมายเหตุ]
2016.03
การออกกลางคันซ้ำโดยไม่มีการสูญเสียความทรงจำ [arxiv] [หมายเหตุ]
2015.11
การเพิ่มสัญญาณรบกวนแบบไล่ระดับสีช่วยปรับปรุงการเรียนรู้สำหรับเครือข่ายที่ลึกมาก [arxiv] [หมายเหตุ]
2015.11
การเรียนรู้ตามลำดับแบบกึ่งกำกับดูแล [arxiv] [หมายเหตุ]
2015.06
การแสดงภาพและทำความเข้าใจเครือข่ายที่เกิดซ้ำ [arxiv] [หมายเหตุ]
2015.xx
แคลคูลัสบนกราฟการคำนวณ: Backpropagation [github] [หมายเหตุ]
2014.12
การประเมินเชิงประจักษ์ของ Gated Recurrent Neural Networks บนการสร้างแบบจำลองลำดับ [arxiv] [หมายเหตุ]
2014.09
การทำให้เครือข่ายประสาทเทียมเกิดซ้ำ [arxiv] [หมายเหตุ]
2013.12
วิธีสร้างโครงข่ายประสาทเทียมที่เกิดซ้ำในระดับลึก [arxiv] [หมายเหตุ]
2010.xx
ทำความเข้าใจกับความยากลำบากในการฝึกโครงข่ายประสาทเทียมแบบป้อนลึก [imag] [หมายเหตุ]
2010.xx
ตัวเข้ารหัสอัตโนมัติ Denoising แบบเรียงซ้อน [กระดาษ] [หมายเหตุ]
2008.07
สถาปัตยกรรมแบบครบวงจรสำหรับการประมวลผลภาษาธรรมชาติ [collobert] [หมายเหตุ]
หม้อแปลงไฟฟ้า
2019.09
ALBERT: A Lite BERT สำหรับการเรียนรู้ด้วยตนเองของการแทนภาษา [arxiv] [หมายเหตุ]
2019.07
RoBERTa: แนวทางการฝึกอบรมล่วงหน้าของ BERT ที่ได้รับการปรับปรุงอย่างแข็งแกร่ง [arxiv] [หมายเหตุ]
2019.04
ERNIE: ปรับปรุงการเป็นตัวแทนผ่านการบูรณาการความรู้ [arxiv] [หมายเหตุ]
10.10.2018
BERT: การฝึกอบรมล่วงหน้าเกี่ยวกับหม้อแปลงสองทิศทางเชิงลึกเพื่อการทำความเข้าใจภาษา [arxiv] [หมายเหตุ]
2018.06
การปรับปรุงความเข้าใจภาษาโดย Generative Pre-Training [amazonaws] [หมายเหตุ]
2018.03
Universal Sentence Encoder [arxiv] [หมายเหตุ]
2017.06
ความสนใจคือสิ่งที่คุณต้องการ [arxiv] [หมายเหตุ]
ลำดับตามลำดับ
2018.07
การเพิ่มข้อมูลตามลำดับเพื่อความเข้าใจภาษาบทสนทนา [arxiv] [การแปล]
2018.07
Fluency Boost Learning และการอนุมานสำหรับการแก้ไขข้อผิดพลาดทางไวยากรณ์ทางประสาท [aclweb] [หมายเหตุ]
2017.04
เข้าถึงประเด็น: การสรุปด้วย Pointer-Generator Networks [arxiv] [หมายเหตุ]
2017.04
การเรียนรู้การอ่านข้อความแบบผ่านๆ [arxiv] [หมายเหตุ]
2015.06
Pointer Networks [arxiv] [หมายเหตุ]
2015.06
เวกเตอร์ข้ามความคิด [arxiv] [หมายเหตุ]
2014.12
ไวยากรณ์เป็นภาษาต่างประเทศ [arxiv] [หมายเหตุ]
2014.12
เรื่องการใช้คำศัพท์เป้าหมายที่มีขนาดใหญ่มากสำหรับการแปลด้วยเครื่องประสาทเทียม [arxiv] [หมายเหตุ]
2014.09
การแปลด้วยเครื่องประสาทโดย Jontly Learning to Align and Translate [arxiv] [หมายเหตุ]
2014.09
ลำดับการเรียนรู้ตามลำดับด้วยโครงข่ายประสาทเทียม [arxiv] [หมายเหตุ]
หลายงาน
2019.01
โครงข่ายประสาทเทียมเชิงลึกแบบหลายงานเพื่อการทำความเข้าใจภาษาธรรมชาติ [arxiv] [หมายเหตุ]
2018.08
การสร้างแบบจำลองความสัมพันธ์ของงานในการเรียนรู้แบบหลายงานด้วยผู้เชี่ยวชาญแบบผสมผสานหลายประตู [acm] [หมายเหตุ]
2016.12
การเอาชนะการลืมภัยพิบัติในโครงข่ายประสาทเทียม [arxiv] [หมายเหตุ]
การรับรู้เอนทิตีชื่อ
2018.05
NER จีนใช้ Lattice LSTM [arxiv] [หมายเหตุ]
2018.03
การจำแนกประเภทของเอนทิตีแบบละเอียดแบบ Neural พร้อมการสูญเสียการรับรู้ลำดับชั้น [arxiv] [หมายเหตุ]
2017.04
การเรียนรู้มัลติทาสก์แบบกึ่งกำกับดูแลสำหรับการติดฉลากลำดับ [arxiv] [หมายเหตุ]
2016.03
สถาปัตยกรรมประสาทสำหรับการรับรู้เอนทิตีที่มีชื่อ [arxiv] [หมายเหตุ]
2016.xx
สถาปัตยกรรมประสาทสำหรับการจำแนกประเภทเอนทิตีแบบละเอียด [aclweb] [หมายเหตุ]
การเรียนรู้ด้วยตนเอง
2020.02
กรอบการทำงานอย่างง่ายสำหรับการเรียนรู้เชิงเปรียบเทียบของการนำเสนอด้วยภาพ [arxiv] [หมายเหตุ]
คนอื่น
2017.06
โมดูลโครงข่ายประสาทเทียมอย่างง่ายสำหรับการให้เหตุผลเชิงสัมพันธ์ [arxiv] [หมายเหตุ]
2016.11
คำหรือตัวอักษร Gating แบบละเอียดเพื่อความเข้าใจในการอ่าน [arxiv] [หมายเหตุ]
2016.08
การแปลด้วยเครื่องประสาทของคำที่หายากด้วยหน่วยคำย่อย (BPE) [aclweb] [หมายเหตุ]
2005.08
การปรับแต่งการค้นหาในแบบของคุณผ่านการวิเคราะห์ความสนใจและกิจกรรมอัตโนมัติ [microsoft] [หมายเหตุ]
ขยาย
ข้อมูลเพิ่มเติม
เวอร์ชัน
1.0.0
ประเภท
โค้ดแหล่งที่มา AI
เวลาอัปเดต
2024-12-14
ขนาด
3.27MB
มาจาก
Github
แอปที่เกี่ยวข้อง
node telegram bot api
2024-12-14
typebot.io
2024-12-14
python wechaty getting started
2024-12-14
TranscriberBot
2024-12-14
genal chat
2024-12-14
Facemoji
2024-12-14
แนะนำสำหรับคุณ
chat.petals.dev
ซอร์สโค้ดอื่น ๆ
1.0.0
GPT Prompt Templates
ซอร์สโค้ดอื่น ๆ
1.0.0
GPTyped
ซอร์สโค้ดอื่น ๆ
GPTyped 1.0.5
node telegram bot api
โค้ดแหล่งที่มา AI
v0.50.0
typebot.io
โค้ดแหล่งที่มา AI
v3.1.2
python wechaty getting started
โค้ดแหล่งที่มา AI
1.0.0
waymo open dataset
ซอร์สโค้ดอื่น ๆ
December 2023 Update
termwind
หมวดหมู่อื่นๆ
v2.3.0
wp functions
หมวดหมู่อื่นๆ
1.0.0
ข้อมูลที่เกี่ยวข้อง
ทั้งหมด
วิธีการใช้งาน Java ของการเปลี่ยนแบบสอบถามไฟล์
2025-02-02
การอัปโหลดไฟล์แอปพลิเคชัน HTML5
2025-02-02
ใช้คลาส DateFormat ใน Java Multi -Threaded Programming
2025-02-02
Guide Excel ใน ASPX
2025-02-01
วิธีการติดตั้ง OpenJDK ของ Java บนระบบ CentOS
2025-02-01
ใช้ PhoneGap เพื่อเล่นวิธีการใช้งานเสียง
2025-02-01