KG-LLM-เอกสาร
LLM สามารถทำอะไรให้กับ KG ได้บ้าง? หรืออีกนัยหนึ่ง KG สามารถมีบทบาทอะไรได้บ้างในยุคของ LLM
- พื้นที่เก็บข้อมูลนี้รวบรวมเอกสารที่รวม กราฟความรู้ (KG) และ แบบจำลองภาษาขนาดใหญ่ (LLM)
- ยินดีแนะนำเอกสารที่ขาดหายไปผ่าน Adding Issues
หรือ Pull Requests
- ข่าว
-
2024-05
บทความของเรา Knowledgeable Preference Alignment สำหรับ LLM ในการตอบคำถามเฉพาะโดเมนได้รับการยอมรับโดย ACL 2024 [ Repo
] -
2024-02
เราพิมพ์กราฟความรู้แบบสำรวจล่วงหน้าพบกับการเรียนรู้แบบหลายรูปแบบ: แบบสำรวจที่ครอบคลุม [ Repo
] -
2023-10
เราพิมพ์รายงานของเราล่วงหน้าเรื่อง Making Large Language Models ทำงานได้ดีขึ้นในการเติมกราฟความรู้ให้สมบูรณ์ และเผยแพร่ [ Repo
] -
2023-06
เราสร้างพื้นที่เก็บข้อมูลนี้เพื่อเก็บรักษารายการกระดาษเกี่ยวกับ Intergrating Knowledge Graphs and Large Language Models
เนื้อหา
- เอกสาร
- - แบบสำรวจ
- ⚙ วิธีการ
- - ทรัพยากร
เอกสาร
แบบสำรวจ
- [arxiv] กราฟความรู้พบกับการเรียนรู้แบบหลายรูปแบบ: แบบสำรวจที่ครอบคลุม
2024.02
- [arxiv] กราฟความรู้สามารถลดอาการประสาทหลอนใน LLM ได้หรือไม่ : แบบสำรวจ.
2023.11
- [arxiv] แบบสำรวจข้อเท็จจริงในแบบจำลองภาษาขนาดใหญ่: ความรู้ การสืบค้น และความจำเพาะของโดเมน
2023.10
- [arxiv] ว่าด้วยวิวัฒนาการของกราฟความรู้: การสำรวจและมุมมอง
2023.10
- [arxiv] การเปรียบเทียบความสามารถของโมเดลภาษาขนาดใหญ่สำหรับการสร้างและความเข้าใจกราฟความรู้ของ RDF: LLM พูดเต่าได้ดีแค่ไหน
2023.09
- [arxiv] การอธิบายสำหรับโมเดลภาษาขนาดใหญ่: แบบสำรวจ
2023.09
- [arxiv] กราฟความรู้รุ่นต่างๆ: ไอเดียสุดเจ๋งและผลกระทบทางธุรกิจ
2023.08
- [arxiv] โมเดลภาษาขนาดใหญ่และกราฟความรู้: โอกาสและความท้าทาย
2023.08
- [TKDE] การรวมโมเดลภาษาขนาดใหญ่และกราฟความรู้เข้าด้วยกัน: แผนงาน
2023.06
[ซื้อคืน] - [arxiv] ChatGPT ยังไม่เพียงพอ: การปรับปรุงโมเดลภาษาขนาดใหญ่ด้วยกราฟความรู้สำหรับการสร้างแบบจำลองภาษาที่คำนึงถึงข้อเท็จจริง
2023.06
- [arxiv] แบบสำรวจโมเดลภาษาก่อนการฝึกอบรมเสริมความรู้
2023.05
วิธี
- [arxiv] การถอดรหัสบนกราฟ: การใช้เหตุผลอย่างซื่อสัตย์และมีเหตุผลบนกราฟความรู้ผ่านการสร้างเครือข่ายที่มีรูปแบบดี
2024.10
- [arxiv] สู่แบบจำลองพื้นฐานกราฟ: มุมมองของการใช้เหตุผลแบบ Zero-shot บนกราฟความรู้
2024.10
- [NeurIPS 2024] MKGL: การเรียนรู้ภาษาสามคำ
2024.10
[ซื้อคืน] - [NeurIPS 2024] UrbanKGent: กรอบงานตัวแทนโมเดลภาษาขนาดใหญ่แบบครบวงจรสำหรับการสร้างกราฟความรู้ในเมือง
2024.10
[ซื้อคืน] - [ICML 2024] การเน้นแบบหยาบถึงละเอียด: การลดอาการประสาทหลอนในความรู้ในแบบจำลองภาษาขนาดใหญ่
2024.10
[ซื้อคืน] - [ACL 2024] SAC-KG: การใช้ประโยชน์จากโมเดลภาษาขนาดใหญ่ในฐานะตัวสร้างอัตโนมัติที่มีทักษะสำหรับกราฟความรู้โดเมน
2024.09
- [NeurIPS 2024] LLM4EA: การจัดตำแหน่งเอนทิตีด้วยคำอธิบายประกอบที่มีเสียงดังจากโมเดลภาษาขนาดใหญ่
2024.09
[ซื้อคืน] - [arxiv] ห่วงโซ่แห่งความรู้: การบูรณาการการให้เหตุผลความรู้เข้ากับแบบจำลองภาษาขนาดใหญ่โดยการเรียนรู้จากกราฟความรู้
2024.07
- [arxiv] GraphEval: กรอบการประเมินภาพหลอน LLM ตามกราฟความรู้
2024.07
- [arxiv] Think-on-Graph 2.0: การใช้เหตุผลโมเดลภาษาขนาดใหญ่ที่ลึกซึ้งและตีความได้ด้วยการดึงข้อมูลจากกราฟความรู้
2024.07
- [ISWC 2024] การปรับแต่งโมเดลภาษาขนาดใหญ่ทั่วไปพร้อมคำแนะนำในการเลือกปฏิบัติเพื่อทำให้กราฟความรู้สมบูรณ์
2024.07
- [ผลการวิจัยของ ACL 2024] การตอบคำถามเชิงสร้างสรรค์แบบสองขั้นตอนบนกราฟความรู้ชั่วคราวโดยใช้แบบจำลองภาษาขนาดใหญ่
2024.07
- [arxiv] Tree-of-Traversals: อัลกอริธึมการใช้เหตุผลแบบ Zero-Shot สำหรับการเพิ่มโมเดลภาษากล่องดำด้วยกราฟความรู้
2024.07
- [การค้นพบของ NAACL ในปี 2024] GenTKG: การพยากรณ์เชิงสร้างสรรค์บนกราฟความรู้ชั่วคราวด้วยแบบจำลองภาษาขนาดใหญ่
2024.06
- [ผลการวิจัยของ ACL 2024] การตอบคำถามเชิงสร้างสรรค์แบบสองขั้นตอนบนกราฟความรู้ชั่วคราวโดยใช้แบบจำลองภาษาขนาดใหญ่
2024.06
- [arxiv] การเติมความรู้อย่างมีประสิทธิภาพผ่านการจัดตำแหน่ง KG-LLM
2024.06
- [arxiv] กราฟความรู้การสร้างการดึงข้อมูลที่เพิ่มขึ้นสำหรับโหมดความล้มเหลวและการวิเคราะห์ผลกระทบ
2024.06
- [arxiv] โมเดลภาษาขนาดใหญ่ที่ปรับปรุงกราฟความรู้ผ่านการเลือกเส้นทาง
2024.06
- [arxiv] การเรียนรู้ที่จะวางแผนสำหรับโมเดลภาษาขนาดใหญ่ที่ดึงข้อมูลมาเสริมจากกราฟความรู้
2024.06
- [arxiv] Docs2KG: การสร้างกราฟความรู้แบบครบวงจรจากเอกสารที่แตกต่างกันซึ่งได้รับการช่วยเหลือโดยโมเดลภาษาขนาดใหญ่
2024.06
- [arxiv] UniOQA: กรอบงานแบบครบวงจรสำหรับการตอบคำถามกราฟความรู้ด้วยโมเดลภาษาขนาดใหญ่
2024.06
- [arxiv] การใช้เหตุผลหลายรูปแบบด้วยกราฟความรู้หลายรูปแบบ
2024.06
- [arxiv] กราฟความรู้ในการวิจัยทางดาราศาสตร์ด้วยแบบจำลองภาษาขนาดใหญ่: แรงผลักดันเชิงปริมาณในการค้นพบทางวิทยาศาสตร์แบบสหวิทยาการ
2024.06
- [arxiv] EffiQA: การตอบคำถามที่มีประสิทธิภาพด้วยการทำงานร่วมกันหลายรูปแบบเชิงกลยุทธ์บนกราฟความรู้
2024.06
- [arxiv] สำรวจแล้วกำหนด: กรอบการทำงานการทำงานร่วมกันของ GNN-LLM สำหรับการให้เหตุผลผ่านกราฟความรู้
2024.06
- [arxiv] EMERGE: การบูรณาการ RAG สำหรับการสร้างแบบจำลองการคาดการณ์ EHR หลายรูปแบบที่ได้รับการปรับปรุง
2024.06
- [EPJ Data Science] แวววาวหรือทองคำ? การรับข้อมูลเชิงลึกที่มีโครงสร้างจากรายงานความยั่งยืนผ่านแบบจำลองภาษาขนาดใหญ่
2024.06
- [arxiv] DepsRAG: สู่การจัดการการพึ่งพาซอฟต์แวร์โดยใช้โมเดลภาษาขนาดใหญ่
2024.06
[ซื้อคืน] - [arxiv] รู้: Ontology ในโลกแห่งความเป็นจริงสำหรับการรวบรวมความรู้ด้วยโมเดลภาษาขนาดใหญ่
2024.05
[Repo] - [arxiv] HippoRAG: หน่วยความจำระยะยาวที่ได้รับแรงบันดาลใจจากระบบประสาทสำหรับโมเดลภาษาขนาดใหญ่
2024.05
[Repo] - [arxiv] KG-FIT: การปรับแต่งกราฟความรู้อย่างละเอียดตามความรู้แบบเปิดโลก
2024.05
- [arxiv] การบันทึกความรู้เชิงสัญลักษณ์ที่ขับเคลื่อนด้วยอภิปรัชญาตามเวลาพร้อมท์ด้วยโมเดลภาษาขนาดใหญ่
2024.05
[Repo] - [arxiv] การแบ่งแยกประโยคตามไทม์ไลน์พร้อมการเรียนรู้ในบริบทเพื่อการดึงข้อเท็จจริงชั่วคราว
2024.05
- [arxiv] SOK-Bench: เกณฑ์มาตรฐานการใช้เหตุผลผ่านวิดีโอที่มีการจัดวางความรู้แบบโลกเปิดที่สอดคล้อง
2024.05
- [arxiv] การบรรเทาอาการประสาทหลอนในแบบจำลองภาษาขนาดใหญ่ผ่านการเรียกค้นความรู้ที่ปรับปรุงด้วยตนเอง
2024.05
- [arxiv] การแจ้งโมเดลภาษาขนาดใหญ่พร้อมกราฟความรู้สำหรับการตอบคำถามที่เกี่ยวข้องกับข้อเท็จจริงแบบหางยาว
2024.05
- [arxiv] DALK: การเสริมร่วมแบบไดนามิกของ LLM และ KG เพื่อตอบคำถามโรคอัลไซเมอร์ด้วยวรรณกรรมทางวิทยาศาสตร์
2024.05
- [arxiv] BiasKG: กราฟความรู้ของฝ่ายตรงข้ามเพื่อชักนำให้เกิดอคติในโมเดลภาษาขนาดใหญ่
2024.05
- [arxiv] AttacKG+: เพิ่มการสร้างกราฟความรู้การโจมตีด้วยโมเดลภาษาขนาดใหญ่
2024.05
- [arxiv] Sora Detector: การตรวจจับภาพหลอนแบบครบวงจรสำหรับโมเดลข้อความเป็นวิดีโอขนาดใหญ่
2024.05
- [arxiv] FOKE: กรอบการศึกษาส่วนบุคคลและอธิบายได้ซึ่งผสานรวมแบบจำลองพื้นฐาน กราฟความรู้ และวิศวกรรมที่รวดเร็ว
2024.05
- [arxiv] การคาดการณ์ความสัมพันธ์สำหรับการเติมกราฟความรู้ให้สมบูรณ์โดยใช้โมเดลภาษาขนาดใหญ่
2024.05
- [arxiv] การประเมินแบบจำลองภาษาขนาดใหญ่สำหรับการสรุปโครงสร้างวิทยาศาสตร์ในกราฟความรู้การวิจัยแบบเปิด
2024.05
- [arxiv] การปรับปรุงการใช้เหตุผลที่ซับซ้อนบนกราฟความรู้ด้วยการปรับหลักสูตร Logic-Aware
2024.05
- [arxiv] การทำนายพฤติกรรมผู้ใช้ถนนที่อธิบายได้โดยใช้ RAG สำหรับการขับขี่อัตโนมัติโดยใช้กราฟความรู้และแบบจำลองภาษาขนาดใหญ่
2024.05
- [arxiv] PrivComp-KG : การใช้ประโยชน์จากกราฟความรู้และโมเดลภาษาขนาดใหญ่สำหรับการตรวจสอบการปฏิบัติตามนโยบายความเป็นส่วนตัว
2024.04
- [arxiv] การตอบคำถามแบบ Multi-hop บนกราฟความรู้โดยใช้โมเดลภาษาขนาดใหญ่
2024.04
- [arxiv] การสร้างกราฟความรู้เฉพาะธีมโดยอัตโนมัติ
2024.04
- [arxiv] การสร้างแบบดึงข้อมูล-เสริมด้วยกราฟความรู้สำหรับการตอบคำถามการบริการลูกค้า
2024.04
- [arxiv] การประเมินความสัมพันธ์สมาชิกของชั้นเรียนในกราฟความรู้โดยใช้แบบจำลองภาษาขนาดใหญ่
2024.04
- [arxiv] KGValidator: กรอบงานสำหรับการตรวจสอบความถูกต้องอัตโนมัติของการสร้างกราฟความรู้
2024.04
- [arxiv] โมเดลภาษาที่ได้รับการปรับปรุงบริบทสำหรับการสร้างการอ้างอิงหลายกระดาษ
2024.04
- [arxiv] การใช้เหตุผลบนเส้นทางความรู้ที่มีประสิทธิภาพ: กราฟความรู้แนะนำแบบจำลองภาษาขนาดใหญ่สำหรับการตอบคำถามในโดเมน
2024.04
- [arxiv] KG-CTG: การสร้างการอ้างอิงผ่านแบบจำลองภาษาขนาดใหญ่ที่มีกราฟความรู้นำทาง
2024.04
- [arxiv] CuriousLLM: ยกระดับ QA หลายเอกสารด้วยการแสดงกราฟความรู้แบบใช้เหตุผล
2024.04
- [arxiv] ODA: ตัวแทนที่ขับเคลื่อนด้วยการสังเกตสำหรับการบูรณาการ LLM และกราฟความรู้
2024.04
- [arxiv] การสร้างกราฟความรู้เพื่อเพิ่มการตอบสนอง ChatGPT ในการค้นพบบริการด้านการผลิต
2024.04
- [arxiv] แบบสอบถามเชิงตรรกะของความคิด: การนำทางแบบจำลองภาษาขนาดใหญ่เพื่อตอบแบบสอบถามเชิงตรรกะที่ซับซ้อนด้วยกราฟความรู้
2024.04
- [arxiv] แยก กำหนด กำหนดรูปแบบมาตรฐาน: กรอบงานที่ใช้ LLM สำหรับการสร้างกราฟความรู้
2024.04
- [COLM 2024] เปิดตัว LLM: วิวัฒนาการของการเป็นตัวแทนที่แฝงอยู่ในกราฟความรู้แบบไดนามิก
2024.04
- [arxiv] การสร้างกราฟความรู้วัสดุเชิงหน้าที่ในวิทยาศาสตร์วัสดุสหสาขาวิชาชีพผ่านแบบจำลองภาษาขนาดใหญ่
2024.04
- [arxiv] เกี่ยวกับการทำให้ข้อมูลที่มีโครงสร้างเชิงเส้นในโมเดลภาษาตัวเข้ารหัส-ตัวถอดรหัส: ข้อมูลเชิงลึกจากข้อความเป็น SQL
2024.04
- [arxiv] การเขียนโปรแกรมเพื่อการพัฒนาตนเองสำหรับการตอบคำถามกราฟความรู้ชั่วคราว
2024.04
- [arxiv] แผนงานเบื้องต้นสำหรับ LLM ในฐานะผู้ช่วยในการสำรวจ วิเคราะห์ และแสดงกราฟความรู้
2024.04
- [arxiv] การประเมินความเป็นจริงของโมเดลภาษาขนาดใหญ่โดยใช้กราฟความรู้ขนาดใหญ่
2024.04
- [arxiv] การควบคุมพลังของโมเดลภาษาขนาดใหญ่เพื่อการประมวลผลกราฟที่ไม่แน่นอน
2024.04
- [arxiv] EventGround: การใช้เหตุผลเชิงบรรยายโดยการต่อสายดินกับกราฟความรู้ที่เน้นเหตุการณ์เป็นหลัก
2024.04
- [arxiv] สร้างบนกราฟ: ถือว่า LLM เป็นทั้งตัวแทนและ KG ในการตอบคำถามกราฟความรู้ที่ไม่สมบูรณ์
2024.04
- [arxiv] จากท้องถิ่นสู่สากล: แนวทาง RAG แบบกราฟไปจนถึงการสรุปที่เน้นการสืบค้น
2024.04
- [arxiv] HyKGE: กรอบความรู้กราฟสมมุติฐานที่ได้รับการปรับปรุงเพื่อการตอบสนอง LLM ทางการแพทย์ที่แม่นยำและเชื่อถือได้
2024.04
- [arxiv] การประเมินความเป็นจริงของโมเดลภาษาขนาดใหญ่โดยใช้กราฟความรู้ขนาดใหญ่
2024.04
- [arxiv] การประเมินความเป็นจริงของโมเดลภาษาขนาดใหญ่โดยใช้กราฟความรู้ขนาดใหญ่
2024.04
- [arxiv] KnowLA: การปรับปรุงการปรับแต่งพารามิเตอร์อย่างมีประสิทธิภาพด้วยการปรับตัวที่มีความรู้
2024.03
- [LREC-COLING 2024] KC-GenRe: วิธีการจัดอันดับใหม่แบบสร้างใหม่ที่จำกัดความรู้ โดยอิงตามแบบจำลองภาษาขนาดใหญ่สำหรับการเติมกราฟความรู้ให้สมบูรณ์
2024.03
- [arxiv] K-Act2Emo: กราฟความรู้ทั่วไปของเกาหลีสำหรับการแสดงออกทางอารมณ์ทางอ้อม
2024.03
- [arxiv] การผสมผสานเนื้อหาเฉพาะโดเมนจากโมเดลภาษาขนาดใหญ่ลงในกราฟความรู้เพื่อการจำแนกสถานะวัตถุ Zero Shot ที่ได้รับการปรับปรุง
2024.03
- [arxiv] การสร้างกราฟความรู้เชิงสัมพันธ์เชิงลึกโดยใช้โมเดลภาษาขนาดใหญ่ที่ได้รับการฝึกอบรมล่วงหน้า
2024.03
- [arxiv] โทรหาฉันเมื่อจำเป็น: LLM สามารถให้เหตุผลอย่างมีประสิทธิภาพและซื่อสัตย์ต่อสภาพแวดล้อมที่มีโครงสร้าง
2024.03
- [arxiv] จากผู้เชี่ยวชาญที่เป็นมนุษย์ไปจนถึงเครื่องจักร: LLM สนับสนุนแนวทางในการสร้างภววิทยาและกราฟความรู้
2024.03
- [arxiv] การใช้เหตุผลที่ซับซ้อนเหนือแบบสอบถามเชิงตรรกะบนกราฟความรู้ทั่วไป
2024.03
- [arxiv] กราฟความรู้โมเดลภาษาขนาดใหญ่ (KG-LLM) สำหรับการทำนายลิงก์
2024.03
- [arxiv] KG-Rank: การปรับปรุงโมเดลภาษาขนาดใหญ่สำหรับ QA ทางการแพทย์ด้วยกราฟความรู้และเทคนิคการจัดอันดับ
2024.03
- [arxiv] ความก้าวหน้าของการขุดข้อความทางชีวการแพทย์พร้อมความท้าทายของชุมชน
2024.03
- [arxiv] กราฟความรู้เป็นแหล่งบริบทสำหรับคำอธิบายคำแนะนำการเรียนรู้โดยใช้ LLM
2024.03
- [arxiv] การสรุปข้อเท็จจริงที่เน้นหลักฐานเป็นหลักสำหรับการตอบคำถาม Zero-Shot ที่เสริมความรู้
2024.03
- [arxiv] AceMap: การค้นพบความรู้ผ่านกราฟเชิงวิชาการ
2024.03
- [arxiv] KnowPhish: โมเดลภาษาขนาดใหญ่พบกับกราฟความรู้หลายรูปแบบเพื่อเพิ่มประสิทธิภาพการตรวจจับฟิชชิ่งตามการอ้างอิง
2024.03
- [arxiv] เผยลิงค์ที่ซ่อนอยู่ระหว่างเอนทิตีความปลอดภัยที่มองไม่เห็น
2024.03
- [LREC-COLING 2024] การปรับปรุงกราฟความรู้แบบหลายมุมมองให้สมบูรณ์ด้วยโมเดลภาษาขนาดใหญ่
2024.03
- [arxiv] การผสมผสานความรู้เข้ากับโมเดลภาษาขนาดใหญ่พร้อมข้อความแจ้งตามบริบท
2024.03
- [arxiv] CR-LT-KGQA: คำถามกราฟความรู้ที่ตอบชุดข้อมูลที่ต้องใช้เหตุผลทั่วไปและความรู้แบบหางยาว
2024.03
- [arxiv] ถูกต้องด้วยเหตุผลที่ถูกต้อง: โมเดลภาษาขนาดใหญ่สำหรับการตอบคำถามกราฟความรู้ทั่วไปที่ตรวจสอบได้
2024.03
- [arxiv] การสร้างคำถาม-คำตอบอัตโนมัติสำหรับความรู้แบบหางยาว
2024.03
- [arxiv] AutoRD: ระบบอัตโนมัติและครบวงจรสำหรับการสร้างกราฟความรู้โรคหายากโดยอิงจากโมเดลภาษาขนาดใหญ่ที่ปรับปรุง Ontologies
2024.03
- [arxiv] การใช้เหตุผลทางคณิตศาสตร์ที่สอดคล้องกันในตัวเองแบบขั้นตอนด้วยแบบจำลองภาษาขนาดใหญ่
2024.02
- [arxiv] การตอบคำถามเชิงกำเนิดแบบสองขั้นตอนบนกราฟความรู้ชั่วคราวโดยใช้แบบจำลองภาษาขนาดใหญ่
2024.02
- [arxiv] ปลดล็อกพลังของโมเดลภาษาขนาดใหญ่เพื่อการจัดตำแหน่งเอนทิตี
2024.02
- [arxiv] การเพิ่มประสิทธิภาพการพยากรณ์กราฟความรู้ชั่วคราวด้วยแบบจำลองภาษาขนาดใหญ่ผ่านการให้เหตุผลแบบลูกโซ่แห่งประวัติศาสตร์
2024.02
- [arxiv] ทำลายอุปสรรค: การใช้แบบจำลองภาษาขนาดใหญ่สำหรับระบบการแนะนำทางอุตสาหกรรมผ่านกราฟความรู้เชิงอนุมาน
2024.02
- [arxiv] กราฟความรู้ปรับปรุงการแก้ไขโมเดลภาษาขนาดใหญ่
2024.02
- [arxiv] การบูรณาการ Modality-Aware กับโมเดลภาษาขนาดใหญ่สำหรับการตอบคำถามด้วยภาพตามความรู้
2024.02
- [arxiv] รีทรีฟเวอร์ที่ใช้กราฟจับความรู้ด้านชีวการแพทย์อันยาวนาน
2024.02
- [arxiv] LLM ในฐานะผู้บอกกล่าว: การใช้เหตุผลเชิงอุปนัยทรัพยากรต่ำบนกราฟความรู้โดยพลการ
2024.02
- [arxiv] ขัดกับสัญชาตญาณ: โมเดลภาษาขนาดใหญ่สามารถเข้าใจกราฟความรู้ได้ดีกว่าที่เราคิด
2024.02
- [arxiv] InfuserKI: การปรับปรุงโมเดลภาษาขนาดใหญ่ด้วยกราฟความรู้ผ่านการบูรณาการความรู้แบบ Infuser-Guided
2024.02
- [arxiv] สู่การพัฒนาแผนที่ความรู้อัตโนมัติและฐานข้อมูลสำหรับวิศวกรรมวัสดุโดยใช้แบบจำลองภาษาขนาดใหญ่
2024.02
- [arxiv] KG-Agent: กรอบงานตัวแทนอัตโนมัติที่มีประสิทธิภาพสำหรับการให้เหตุผลที่ซับซ้อนบนกราฟความรู้
2024.02
- [arxiv] คำถาม PAT: เกณฑ์มาตรฐานที่อัปเดตด้วยตนเองสำหรับการตอบคำถามชั่วคราวที่ยึดไว้ในปัจจุบัน
2024.02
- [arxiv] กรอบงานกราฟการเปลี่ยนภาพแบบย่อสำหรับการทำนายลิงก์แบบ Zero-shot ด้วยโมเดลภาษาขนาดใหญ่
2024.02
- [arxiv] การเพิ่มประสิทธิภาพโมเดลภาษาขนาดใหญ่ด้วยกราฟความรู้แบบหลอกและหลายแหล่งสำหรับการตอบคำถามปลายเปิด
2024.02
- [arxiv] G-Retriever: การสร้างแบบดึงข้อมูลเสริมเพื่อการทำความเข้าใจกราฟข้อความและการตอบคำถาม
2024.02
- [arxiv] X-LoRA: การผสมผสานของผู้เชี่ยวชาญด้านอะแดปเตอร์ระดับต่ำ กรอบงานที่ยืดหยุ่นสำหรับโมเดลภาษาขนาดใหญ่พร้อมการใช้งานในกลศาสตร์และการออกแบบโปรตีน
2024.02
- [arxiv] REALM: การปรับปรุงที่ขับเคลื่อนด้วย RAG ของการวิเคราะห์บันทึกสุขภาพอิเล็กทรอนิกส์หลายรูปแบบผ่านแบบจำลองภาษาขนาดใหญ่
2024.02
- [arxiv] GLaM: การปรับแต่งโมเดลภาษาขนาดใหญ่อย่างละเอียดสำหรับการจัดตำแหน่งกราฟความรู้โดเมนผ่านการแบ่งพาร์ติชันในบริเวณใกล้เคียงและการเข้ารหัสกราฟย่อยแบบกำเนิด
2024.02
- [arxiv] ให้กราฟของคุณพูดแทน: การเข้ารหัสข้อมูลที่มีโครงสร้างสำหรับ LLM
2024.02
- [arxiv] CADReN: เครือข่ายเชิงสัมพันธ์ที่ขับเคลื่อนด้วยสมอตามบริบทสำหรับการประมาณค่าความสำคัญของโหนดแบบข้ามกราฟที่ควบคุมได้
2024.02
- [arxiv] โครงการการให้เหตุผล LLM แบบพร้อมท์ที่ได้รับการปรับปรุงผ่านการทำงานร่วมกันแบบบูรณาการกราฟความรู้
2024.02
- [arxiv] การสร้าง SPARQL: การวิเคราะห์เกี่ยวกับการปรับแต่ง OpenLLaMA อย่างละเอียดสำหรับการตอบคำถามบนกราฟความรู้ด้านวิทยาศาสตร์ชีวภาพ
2024.02
- [arxiv] การทำงานร่วมกันของการสื่อสารความหมายและการเรียนรู้ความรู้
2024.02
- [arxiv] GUARD: การสวมบทบาทเพื่อสร้างการเจลเบรกด้วยภาษาธรรมชาติเพื่อทดสอบการปฏิบัติตามแนวทางของโมเดลภาษาขนาดใหญ่
2024.02
- [arxiv] การเรนเดอร์กราฟสำหรับการให้เหตุผลเชิงกราฟในโมเดลภาษาขนาดใหญ่หลายรูปแบบ
2024.02
- [arxiv] การประเมิน LLM -- การวินิจฉัยหลายรูปแบบที่สร้างขึ้นจากภาพทางการแพทย์และการวิเคราะห์อาการ
2024.02
- [EACL 2024] การกลั่นตามบริบทจากแบบจำลองภาษาขนาดใหญ่เพื่อการเติมกราฟความรู้ให้สมบูรณ์
2024.02
- [EACL 2024] การวิเคราะห์เปรียบเทียบแบบจำลองภาษาสนทนาขนาดใหญ่ในการสร้างข้อความจากฐานความรู้
2024.02
- [arxiv] การบันทึกความรู้เชิงสัญลักษณ์พร้อมท์ไทม์ด้วยโมเดลภาษาขนาดใหญ่
2024.02
[ซื้อคืน] - [arxiv] การตรวจจับจุดบกพร่องที่มีประสิทธิภาพในเอ็นจิ้นฐานข้อมูลกราฟ: แนวทางที่ใช้ LLM
2024.02
- [arxiv] สองหัวย่อมดีกว่าหัวเดียว: การบูรณาการความรู้จากกราฟความรู้และแบบจำลองภาษาขนาดใหญ่เพื่อการจัดตำแหน่งเอนทิตี
2024.01
- [arxiv] การเปรียบเทียบโมเดลภาษาขนาดใหญ่ในการระบุแหล่งที่มาของการตอบคำถามที่ซับซ้อนโดยใช้กราฟความรู้
2024.01
- [arxiv] การสำรวจเส้นทางที่มีเบาะแส: กรอบงานการตอบคำถามฐานความรู้ที่มีประสิทธิภาพพร้อมการใช้ทรัพยากรในการคำนวณต่ำ
2024.01
- [AAAI 2024] KAM-CoT: การให้เหตุผลแบบห่วงโซ่แห่งความคิดที่เสริมความรู้หลายรูปแบบ
2024.01
- [arxiv] บริบทมีความสำคัญ: ผลักดันขอบเขตของการสร้างคำตอบปลายเปิดด้วยบริบทความรู้ที่มีโครงสร้างกราฟ
2024.01
- [arxiv] สนับสนุนการตัดสินใจของนักเรียนเกี่ยวกับคำแนะนำการเรียนรู้: แชทบอทที่ใช้ LLM พร้อมบริบทกราฟความรู้เพื่อการอธิบายและการให้คำปรึกษาในการสนทนา
2024.01
- [arxiv] การกลั่นกรองความรู้เกี่ยวกับลำดับเหตุการณ์จากโมเดลภาษาขนาดใหญ่
2024.01
- [ACL 24] โมเดลภาษาขนาดใหญ่สามารถเรียนรู้การใช้เหตุผลชั่วคราวได้
2024.01
[ซื้อคืน] - [arxiv] ห่วงโซ่แห่งประวัติศาสตร์: การเรียนรู้และการพยากรณ์ด้วย LLM เพื่อความสมบูรณ์ของกราฟความรู้ชั่วคราว
2024.01
- [arxiv] TechGPT-2.0: โปรเจ็กต์แบบจำลองภาษาขนาดใหญ่เพื่อแก้ปัญหาการสร้างกราฟความรู้
2024.01
[ซื้อคืน] - [arxiv] การประเมินโมเดลภาษาขนาดใหญ่ในการแยกวิเคราะห์ความหมายสำหรับการตอบคำถามเชิงสนทนาบนกราฟความรู้
2024.01
- [arxiv] โลกแบนเหรอ? การเปิดเผยข้อผิดพลาดเชิงข้อเท็จจริงในโมเดลภาษาขนาดใหญ่
2024.01
- [arxiv] keqing: การตอบคำถามตามความรู้เป็นพี่เลี้ยงสายโซ่แห่งความคิดตามธรรมชาติของ LLM
2024.01
- [arxiv] Quartet Logic: กรอบการใช้เหตุผลสี่ขั้นตอน (QLFR) เพื่อความก้าวหน้าในการจำแนกข้อความสั้น
2024.01
- [arxiv] การตอบคำถามเชิงสนทนาพร้อมการปรับโครงสร้างใหม่บนกราฟความรู้
2023.12
- [arxiv] คิดและค้นคืน: กราฟความรู้สมมุติฐานที่ปรับปรุงแบบจำลองภาษาขนาดใหญ่ทางการแพทย์
2023.12
- [arxiv] KnowledgeNavigator: การใช้ประโยชน์จากโมเดลภาษาขนาดใหญ่เพื่อการให้เหตุผลที่ดีขึ้นบนกราฟความรู้
2023.12
- [arxiv] Urban Generative Intelligence (UGI): แพลตฟอร์มพื้นฐานสำหรับตัวแทนในสภาพแวดล้อมของเมืองที่เป็นตัวเป็นตน
2023.12
- [arxiv] การตรวจสอบข้อเท็จจริงแบบ Zero-Shot ด้วย Semantic Triples และกราฟความรู้
2023.12
- [arxiv] KGLens: โซลูชันกราฟความรู้แบบกำหนดพารามิเตอร์เพื่อประเมินว่า LLM ทำอะไรและไม่รู้อะไร
2023.12
- [arxiv] LLM-ARK: การใช้เหตุผลกราฟความรู้โดยใช้แบบจำลองภาษาขนาดใหญ่ผ่านการเรียนรู้แบบเสริมกำลังเชิงลึก
2023.12
- [arxiv] สู่ความช่วยเหลือในการพัฒนาซอฟต์แวร์ AI ที่น่าเชื่อถือ
2023.12
- [arxiv] KnowGPT: การแทรกความรู้แบบกล่องดำสำหรับโมเดลภาษาขนาดใหญ่
2023.12
- [arxiv] การสร้างโมเดลภาษาขนาดใหญ่ช่วยให้นักขุดมีความรู้ดีขึ้นสำหรับการตลาดออนไลน์ด้วยการเพิ่มการแจ้งเตือนแบบก้าวหน้า
2023.12
- [arxiv] วิศวกรรมแนวความคิดโดยใช้แบบจำลองภาษาขนาดใหญ่
2023.12
- [arxiv] Beyond Isolation: การทำงานร่วมกันหลายตัวแทนเพื่อการปรับปรุงการสร้างกราฟความรู้
2023.12
- [arxiv] การแยก Triplet ของกราฟความรู้แบบ Zero- และ Few-Shots ด้วยโมเดลภาษาขนาดใหญ่
2023.12
- [arxiv] ในการสำรวจความสามารถในการให้เหตุผลของแบบจำลองภาษาขนาดใหญ่ด้วยกราฟความรู้
2023.11
- [arxiv] การสร้างกราฟความรู้ทางชีวการแพทย์ที่ปรับให้เหมาะสมสำหรับแบบจำลองภาษาขนาดใหญ่
2023.11
[ซื้อคืน] - [arxiv] แนวทางกราฟเป็นข้อความเพื่อสร้างการตอบสนองโดยอาศัยความรู้พื้นฐานในการโต้ตอบระหว่างมนุษย์และหุ่นยนต์
2023.11
- [EMNLP 2023] ทบทวนกรอบการทำงานการแทรกความรู้
2023.12
- [EMNLP 2023]ความถูกต้องของความรู้ตามข้อเท็จจริงมีความสำคัญสำหรับโมเดลภาษาที่ได้รับการฝึกอบรมล่วงหน้าที่เสริมความรู้ตามความเป็นจริงหรือไม่
2023.12
- [EMNLP 2023] การใช้เหตุผลLM: การเปิดใช้งานการใช้เหตุผลเชิงกราฟย่อยเชิงโครงสร้างในแบบจำลองภาษาที่ได้รับการฝึกอบรมล่วงหน้าสำหรับการตอบคำถามบนกราฟความรู้
2023.12
- [ผลการวิจัยของ EMNLP ปี 2023]KICGPT: โมเดลภาษาขนาดใหญ่ที่มีความรู้ในบริบทสำหรับการเติมกราฟความรู้ให้สมบูรณ์
2023.12
- [อาร์ซิฟ] $อาร์^3$ -NL2GQL: แนวทางโมเดลไฮบริดเพื่อเพิ่มความแม่นยำและการบรรเทาภาพหลอน
2023.11
- [arxiv] การบรรเทาภาพหลอนแบบจำลองภาษาขนาดใหญ่ผ่านการปรับปรุงตามกราฟความรู้อัตโนมัติ
2023.11
- [EMNLP 2023] LLM ที่ได้รับการปรับแต่งอย่างละเอียดรู้มากขึ้น อาการประสาทหลอนน้อยลงด้วยการแยกวิเคราะห์ความหมายแบบลำดับต่อลำดับแบบไม่กี่ช็อตบน Wikidata
2023.11
- [arxiv] การใช้ประโยชน์จาก LLM ในการตอบคำถามกราฟความรู้เชิงวิชาการ
2023.11
- [arxiv] การจัดแนวการตั้งค่าที่มีความรู้สำหรับ LLM ในการตอบคำถามเฉพาะโดเมน
2023.11
- [arxiv] OLaLa: อภิปรัชญาที่จับคู่กับโมเดลภาษาขนาดใหญ่
2023.11
- [arxiv] การเรียนรู้ในบริบทสำหรับการตอบคำถามฐานความรู้สำหรับระบบไร้คนขับตามแบบจำลองภาษาขนาดใหญ่
2023.11
- [arxiv] มาค้นพบความสัมพันธ์ API เพิ่มเติม: เชน AI ที่ใช้โมเดลภาษาขนาดใหญ่สำหรับการอนุมานความสัมพันธ์ API ที่ไม่มีผู้ดูแล
2023.11
- [arxiv] แบบฟอร์มเป็นไปตามฟังก์ชัน: การสร้างกราฟแบบมีเงื่อนไขจากข้อความเป็นข้อความตามความต้องการด้านฟังก์ชัน
2023.11
- [arxiv] โมเดลภาษาขนาดใหญ่พบกับกราฟความรู้เพื่อตอบคำถามที่เป็นข้อเท็จจริง
2023.10
- [arxiv] การเลือกประเภทผู้สมัครตอบ: โมเดลภาษาการแปลงข้อความเป็นข้อความสำหรับการตอบคำถามในหนังสือปิดตรงกับกราฟความรู้
2023.10
- [arxiv] การกระตุ้นเตือนด้วยความรู้: การประเมินและการพัฒนาการสร้างข้อมูลข้อความทางคลินิกด้วยแบบจำลองภาษาขนาดใหญ่
2023.10
- [arxiv] DIVKNOWQA: การประเมินความสามารถในการใช้เหตุผลของ LLM ผ่านการตอบคำถามแบบเปิดโดเมนผ่านฐานความรู้และข้อความ
2023.10
- [arxiv] กราฟออนโทโลยีแบบเสริมการดึงข้อมูลแบบทั่วไปและกลยุทธ์หลายเอเจนต์สำหรับการออกแบบวัสดุที่ใช้แบบจำลองภาษาขนาดใหญ่ในการตีความ
2023.10
- [arxiv] วิธีการแนะนำรูปแบบอารยธรรมนิเวศหลายรูปแบบโดยอิงจากแบบจำลองภาษาขนาดใหญ่และกราฟความรู้
2023.10
- [arxiv] LoRAShear: การตัดแต่งโครงสร้างแบบจำลองภาษาขนาดใหญ่ที่มีประสิทธิภาพและการกู้คืนความรู้
2023.10
- [arxiv] Graph Agent: ตัวแทนการใช้เหตุผลที่ชัดเจนสำหรับกราฟ
2023.10
- [arxiv] วิธีการทำความเข้าใจสคีมาในบริบทสำหรับการตอบคำถามฐานความรู้
2023.10
- [arxiv] GraphGPT: การปรับแต่งคำสั่งกราฟสำหรับโมเดลภาษาขนาดใหญ่
2023.10
- [ข้อค้นพบของ EMNLP ปี 2023] การประเมินความรู้ตามข้อเท็จจริงอย่างเป็นระบบในแบบจำลองภาษาขนาดใหญ่
2023.10
- [การค้นพบของ EMNLP ปี 2023] KG-GPT: กรอบการทำงานทั่วไปสำหรับการใช้เหตุผลบนกราฟความรู้โดยใช้แบบจำลองภาษาขนาดใหญ่
2023.10
- [arxiv] MechGPT กลยุทธ์ที่ใช้ภาษาสำหรับการสร้างแบบจำลองกลศาสตร์และวัสดุที่เชื่อมโยงความรู้ในระดับต่างๆ สาขาวิชา และรูปแบบต่างๆ
2023.10
- [arxiv] Qilin-Med: การฉีดความรู้แบบหลายขั้นตอนแบบจำลองภาษาขนาดใหญ่ทางการแพทย์ขั้นสูง
2023.10
- [arxiv] ChatKBQA: กรอบงานที่สร้างแล้วดึงข้อมูลสำหรับการตอบคำถามฐานความรู้ด้วยโมเดลภาษาขนาดใหญ่ที่ได้รับการปรับแต่งอย่างละเอียด
2023.10
- [arxiv] จากแบบจำลองภาษาขนาดใหญ่ไปจนถึงกราฟความรู้สำหรับการค้นพบตัวบ่งชี้ทางชีวภาพในมะเร็ง
2023.10
- [arxiv] การทำให้โมเดลภาษาขนาดใหญ่ทำงานได้ดีขึ้นในการเติมกราฟความรู้ให้สมบูรณ์
2023.10
- [arxiv] CP-KGC: การเติมกราฟความรู้แบบจำกัดและพร้อมท์ด้วยโมเดลภาษาขนาดใหญ่
2023.10
- [arxiv] PHALM: การสร้างกราฟความรู้ตั้งแต่เริ่มต้นโดยการกระตุ้นเตือนมนุษย์และแบบจำลองภาษา
2023.10
- [arxiv] InstructProtein: การจัดภาษาของมนุษย์และโปรตีนผ่านการสอนความรู้
2023.10
- [arxiv] โมเดลภาษาขนาดใหญ่พบกับกราฟความรู้เพื่อตอบคำถามที่เป็นข้อเท็จจริง
2023.10
- [arxiv] ปริศนาอักษรไขว้ความรู้: การใช้เหตุผลเชิงเรขาคณิตเหนือความรู้เชิงโครงสร้างด้วยแบบจำลองภาษาขนาดใหญ่
2023.10
- [ICLR 2024] การใช้เหตุผลบนกราฟ: การใช้เหตุผลแบบจำลองภาษาขนาดใหญ่ที่ซื่อสัตย์และเข้าใจได้
2023.10
[ซื้อคืน] - [arxiv] RelBERT: การฝังความสัมพันธ์กับโมเดลภาษา
2023.10
- [arxiv] การเปรียบเทียบความสามารถของโมเดลภาษาขนาดใหญ่สำหรับการสร้างและความเข้าใจกราฟความรู้ของ RDF: LLM พูดเต่าได้ดีแค่ไหน?
2023.09
- [arxiv] มาแชทเพื่อค้นหา API กันเถอะ: การเชื่อมต่อ Human, LLM และกราฟความรู้ผ่าน AI Chain
2023.09
- [arxiv] การแสดงกราฟประสาทด้วยโมเดลภาษาขนาดใหญ่
2023.09
- [arxiv] แนวทางการนำเสนอความรู้สำหรับการสร้างแบบจำลองความรู้เกี่ยวกับสัญญาก่อสร้าง
2023.09
- [arxiv] ดึงข้อมูล-เขียนซ้ำ-ตอบ: กรอบงาน LLM ที่ปรับปรุง KG-to-Text สำหรับการตอบคำถามกราฟความรู้
2023.09
- [arxiv] "ผสานความขัดแย้ง!" การสำรวจผลกระทบของสิ่งรบกวนภายนอกต่อกราฟความรู้แบบพาราเมตริก
2023.09
- [arxiv] FactLLaMA: การเพิ่มประสิทธิภาพโมเดลภาษาตามคำสั่งด้วยความรู้ภายนอกสำหรับการตรวจสอบข้อเท็จจริงอัตโนมัติ
2023.09
- [arxiv] ChatRule: การขุดกฎเชิงตรรกะด้วยโมเดลภาษาขนาดใหญ่สำหรับการให้เหตุผลกราฟความรู้
2023.09
- [AAAI 2024] การเรียนรู้ในบริบทแบบโค้ดสำหรับการตอบคำถามตามความรู้
2023.09
- [arxiv] ปลดปล่อยพลังของการเรียนรู้กราฟผ่านตัวแทนอิสระที่ใช้ LLM
2023.09
- [arxiv] แบบจำลองภาษาขนาดใหญ่ที่ปรับแต่งความรู้พร้อมฐานความรู้ทางการแพทย์ที่มีโครงสร้างเพื่อการสร้างการตอบสนองที่เชื่อถือได้ในภาษาจีน
2023.09
- [arxiv] Knowledge Solver: การสอน LLM เพื่อค้นหาความรู้โดเมนจากกราฟความรู้
2023.09
- [arxiv] เอนทิตีชีวการแพทย์เชื่อมโยงกับการฝึกอบรมล่วงหน้าแบบ Triple-aware
2023.08
- [arxiv] การสำรวจโมเดลภาษาขนาดใหญ่สำหรับการเติมกราฟความรู้ให้สมบูรณ์
2023.08
[ซื้อคืน] - [arxiv] การพัฒนาเกณฑ์มาตรฐานที่ปรับขนาดได้สำหรับการประเมินแบบจำลองภาษาขนาดใหญ่ในวิศวกรรมกราฟความรู้
2023.08
- [arxiv] การใช้ประโยชน์จากกราฟความรู้ทางการแพทย์ในแบบจำลองภาษาขนาดใหญ่สำหรับการทำนายการวินิจฉัย
2023.08
- [arxiv] LKPNR: LLM และ KG สำหรับกรอบการแนะนำข่าวสารส่วนบุคคล
2023.08
- [arxiv] กราฟความรู้พร้อมท์สำหรับการตอบคำถามหลายเอกสาร
2023.08
- [arxiv] Head-to-Tail: Large Language Models (LLM) มีความรู้แค่ไหน? AKA LLM จะมาแทนที่กราฟความรู้หรือไม่
2023.08
- [arxiv] MindMap: กราฟความรู้ที่กระตุ้นให้เกิดกราฟประกายความคิดในโมเดลภาษาขนาดใหญ่
2023.08
- [arxiv] มุ่งสู่การฝังที่เสริมความหมายเพื่อความสมบูรณ์ของกราฟความรู้
2023.07
- [TKDE 2024] AutoAlign: การจัดแนวกราฟความรู้แบบอัตโนมัติและมีประสิทธิภาพโดยโมเดลภาษาขนาดใหญ่
2023.07
- [arxiv] การใช้โมเดลภาษาขนาดใหญ่สำหรับการสร้างภาษาธรรมชาติแบบ Zero-Shot จากกราฟความรู้
2023.07
- [ICLR 2024] การคิดบนกราฟ: การใช้เหตุผลอย่างลึกซึ้งและมีความรับผิดชอบของโมเดลภาษาขนาดใหญ่พร้อมกราฟความรู้
2023.07
- [การสำรวจ SIGKDD 2024] การสำรวจศักยภาพของโมเดลภาษาขนาดใหญ่ (LLM) ในการเรียนรู้บนกราฟ
2023.07
- [arxiv] การสำรวจโมเดลภาษาขนาดใหญ่เพื่อทำความเข้าใจข้อมูลกราฟในการแนะนำงานออนไลน์
2023.07
- [arxiv] RecallM: สถาปัตยกรรมสำหรับการทำความเข้าใจบริบทชั่วคราวและการตอบคำถาม
2023.07
- [arxiv] วิศวกรรมกราฟความรู้ที่ได้รับความช่วยเหลือจาก LLM: การทดลองกับ ChatGPT
2023.07
- [arxiv] LLM แบบ Zero-Shot แบบวนซ้ำพร้อมท์สำหรับการสร้างกราฟความรู้
2023.07
- [arxiv] มนุษย์หิมะ: กราฟความรู้สามัญสำนึกของจีนล้านระดับกลั่นจากแบบจำลองพื้นฐาน
2023.06
- [arxiv] โมเดลภาษาเสริมความรู้ที่พร้อมท์ให้ตอบคำถามกราฟความรู้แบบ Zero-Shot
2023.06
- [arxiv] การปรับแต่งโมเดลภาษาองค์กรขนาดใหญ่อย่างละเอียดผ่านการใช้เหตุผลเชิงอภิปรัชญา
2023.06
- [NeurIPS 2023] การกลั่นกรองการใช้เหตุผลเสริมความรู้สำหรับแบบจำลองภาษาขนาดเล็กในงานที่เน้นความรู้
2023.05
- [arxiv] การเพิ่มประสิทธิภาพการสร้างกราฟความรู้โดยใช้โมเดลภาษาขนาดใหญ่
2023.05
- [arxiv] ChatGraph: การจัดประเภทข้อความที่ตีความได้โดยการแปลงความรู้ ChatGPT เป็นกราฟ
2023.05
- [ACL 2023] FactKG: การตรวจสอบข้อเท็จจริงผ่านการใช้เหตุผลบนกราฟความรู้
2023.05
- [arxiv] HiPrompt: การผสมผสานความรู้ทางชีวการแพทย์เพียงไม่กี่ช็อตผ่านการกระตุ้นเตือนแบบลำดับชั้น
2023.04
- [EMNLP 2023] StructGPT: กรอบงานทั่วไปสำหรับแบบจำลองภาษาขนาดใหญ่เพื่อเหตุผลเหนือข้อมูลที่มีโครงสร้าง
2023.05
- [ICLR 2024] การใช้คำอธิบาย: ล่าม LLM-to-LM สำหรับการเรียนรู้การแสดงกราฟแบบ Text-Attributed ที่ได้รับการปรับปรุง
2023.05
- [arxiv] LLM สำหรับการสร้างกราฟความรู้และการใช้เหตุผล: ความสามารถล่าสุดและโอกาสในอนาคต
2023.05
[ซื้อคืน] - [NeurIPS 2023] โมเดลภาษาสามารถแก้ปัญหากราฟในภาษาธรรมชาติได้หรือไม่
2023.05
- [arxiv] โมเดลการเติมกราฟความรู้ให้สมบูรณ์คือผู้เรียนเพียงไม่กี่คน: การศึกษาเชิงประจักษ์ของการติดป้ายกำกับความสัมพันธ์ในอีคอมเมิร์ซด้วย LLM
2023.05
- [arxiv] โมเดลภาษาขนาดใหญ่สามารถสร้างข้อความเชิงลบที่เด่นชัดได้หรือไม่?
2023.05
- [arxiv] GPT4Graph: โมเดลภาษาขนาดใหญ่สามารถเข้าใจข้อมูลที่มีโครงสร้างกราฟได้หรือไม่ การประเมินเชิงประจักษ์และการเปรียบเทียบ
2023.05
- [arxiv] การใช้เหตุผลเชิงตรรกะที่ซับซ้อนบนกราฟความรู้โดยใช้แบบจำลองภาษาขนาดใหญ่
2023.05
[ซื้อคืน] - [arxiv] การใช้เหตุผลเชิงสาเหตุและแบบจำลองภาษาขนาดใหญ่: การเปิดพรมแดนใหม่สำหรับความเป็นเหตุเป็นผล
2023.04
- [arxiv] โมเดลภาษาขนาดใหญ่สามารถสร้างกราฟเชิงสาเหตุได้หรือไม่?
2023.04
- [arxiv] การใช้กราฟความรู้ RDF หลายรายการเพื่อเพิ่มการตอบกลับ ChatGPT
2023.04
- [arxiv] Graph-ToolFormer: เพื่อเสริมศักยภาพ LLM ด้วยความสามารถในการให้เหตุผลเชิงกราฟผ่าน Prompt Augmented โดย ChatGPT
2023.04
- [arxiv] การซักถามแบบมีโครงสร้างพร้อมท์และการแยกความหมายแบบเรียกซ้ำ (SPIRES): วิธีการเติมฐานความรู้โดยใช้การเรียนรู้แบบ Zero-Shot
2023.04
[ซื้อคืน]
ทรัพยากรและการเปรียบเทียบ
- [arxiv] STARK: การเปรียบเทียบการดึงข้อมูล LLM บนฐานความรู้ที่เป็นข้อความและเชิงสัมพันธ์
2024.04
[ซื้อคืน] - [arxiv] RareBench: LLM สามารถทำหน้าที่เป็นผู้เชี่ยวชาญด้านโรคหายากได้หรือไม่?
2024.02
- [arxiv] การเปรียบเทียบโมเดลภาษาขนาดใหญ่ในการระบุแหล่งที่มาของการตอบคำถามที่ซับซ้อนโดยใช้กราฟความรู้
2024.01
- [ACL 24] โมเดลภาษาขนาดใหญ่สามารถเรียนรู้การใช้เหตุผลชั่วคราวได้
2024.01
[ซื้อคืน] - [arxiv] AbsPyramid: การเปรียบเทียบความสามารถในการนามธรรมของโมเดลภาษาด้วยกราฟ Entailment แบบรวม
2023.11
- [arxiv] เกณฑ์มาตรฐานเพื่อทำความเข้าใจบทบาทของกราฟความรู้ต่อความแม่นยำของโมเดลภาษาขนาดใหญ่สำหรับการตอบคำถามในฐานข้อมูล SQL ระดับองค์กร
2023.11
- [arxiv] สู่รุ่นที่ตรวจสอบได้: เกณฑ์มาตรฐานสำหรับการระบุแหล่งที่มาของโมเดลภาษาที่รับรู้ความรู้
2023.10
- [EMNLP 2023] MarkQA: ชุดข้อมูล KBQA ขนาดใหญ่พร้อมการให้เหตุผลเชิงตัวเลข
2023.10
- [CIKM 2023] การเพิ่มคุณค่าภววิทยาจากข้อความ: ชุดข้อมูลชีวการแพทย์สำหรับการค้นพบแนวคิดและการวางตำแหน่ง
2023.06
- [arxiv] Xiezhi: เกณฑ์มาตรฐานที่อัปเดตอยู่เสมอสำหรับการประเมินความรู้โดเมนแบบองค์รวม
2023.06
- [การสาธิตระบบ AACL 2023] LambdaKG: ไลบรารีสำหรับการฝังกราฟความรู้ตามแบบจำลองภาษาที่ได้รับการฝึกอบรมล่วงหน้า
2023.03
[Repo] - [arxiv] การสร้างชุดข้อมูลกราฟ-ข้อความความรู้คู่ที่ได้รับแจ้งจากการประเมินแบบวนรอบ
2023.09
- [arxiv] จากแบบจำลองภาษาขนาดใหญ่ไปจนถึงกราฟความรู้สำหรับการค้นพบตัวบ่งชี้ทางชีวภาพในมะเร็ง
2023.10
- [ISWC 2023] Text2KGBench: เกณฑ์มาตรฐานสำหรับการสร้างกราฟความรู้ที่ขับเคลื่อนด้วย Ontology จากข้อความ
2023.08
ผลงาน
ผู้ร่วมให้ข้อมูล
- มีส่วนร่วม (ยินดีต้อนรับ!)
- เพิ่มรายงานใหม่หรืออัปเดตรายงาน LLM ที่เกี่ยวข้องกับ KG ที่มีอยู่
- - ใช้รูปแบบเดียวกับรายการที่มีอยู่เพื่ออธิบายงาน
- - คำอธิบายสั้น ๆ ว่าทำไมคุณถึงคิดว่าควรเพิ่มหรืออัปเดตรายงาน (ไม่จำเป็น) ผ่าน
Adding Issues
หรือ Pull Requests
ไม่ต้องกังวลหากคุณใส่อะไรผิด เราจะแก้ไขให้คุณ เพียงอย่าลังเลที่จะมีส่วนร่วมและโปรโมตผลงานที่ยอดเยี่ยมของคุณที่นี่! - เราจะติดต่อกลับให้ทันเวลา~
- อ้างอิง:
หาก Repo นี้เป็นประโยชน์กับคุณ โปรดพิจารณาอ้างอิงเอกสารของเรา เราจะขอบคุณมาก :)
@article{DBLP:journals/corr/abs-2311-06503,
author = {Yichi Zhang and
Zhuo Chen and
Yin Fang and
Lei Cheng and
Yanxi Lu and
Fangming Li and
Wen Zhang and
Huajun Chen},
title = {Knowledgeable Preference Alignment for LLMs in Domain-specific Question
Answering},
journal = {CoRR},
volume = {abs/2311.06503},
year = {2023}
}
@article{DBLP:journals/corr/abs-2310-06671,
author = {Yichi Zhang and
Zhuo Chen and
Wen Zhang and
Huajun Chen},
title = {Making Large Language Models Perform Better in Knowledge Graph Completion},
journal = {CoRR},
volume = {abs/2310.06671},
year = {2023}
}