
ทรัพยากรรูปแบบภาษาขนาดใหญ่ที่ดีที่สุดของโลกได้รับการปรับปรุงอย่างต่อเนื่อง
ตรวจสอบข้อมูลเพิ่มเติม
[อ่านออนไลน์]
สารบัญ
- ข้อมูล
- การปรับแต่ง
- การอนุมาน
- การประเมิน
- สัมผัสประสบการณ์การใช้งาน
- ความรู้พื้นฐานผ้าขี้ริ้ว
- ตัวแทน
- ค้นหา
- หนังสือ
- คอร์ส
- การสอน
- กระดาษ
- เคล็ดลับ
ข้อมูล
บันทึก
นี่คือ数据
ที่มีชื่อ แต่ไม่มีชุดข้อมูลเฉพาะที่นี่ แต่มีวิธีการประมวลผลการเก็บข้อมูลขนาดใหญ่
เราเชื่อเสมอว่าเป็นการดีกว่าที่จะสอนผู้คนถึงวิธีการตกปลามากกว่าที่จะสอนผู้คนถึงวิธีการตกปลา
- AOTOLABEL: LABEL, CLEAN และ Enrich Text DataSTECT ด้วย LLMS
- Labelllm: แพลตฟอร์มคำอธิบายประกอบข้อมูลโอเพ่นซอร์ส
- Data-Juicer: ระบบประมวลผลข้อมูลแบบครบวงจรเพื่อให้ข้อมูลมีคุณภาพสูงขึ้นฉ่ำและย่อยได้มากขึ้นสำหรับ LLM!
- Omniparser: ตัวแยกวิเคราะห์การสตรีม Golang ETL ดั้งเดิมและแปลงไลบรารีสำหรับ CSV, JSON, XML, EDI, ข้อความ ฯลฯ
- Mineru: Mineru เป็นเครื่องมือสกัดข้อมูลแบบเปิดซอร์ส, โอเพ่นซอร์ส, โอเพ่นซอร์ส, คุณภาพสูง, รองรับการสกัด PDF/เว็บเพจ/e-book
- PDF-Extract-Kit: ชุดเครื่องมือที่ครอบคลุมสำหรับการสกัดเนื้อหา PDF คุณภาพสูง
- Parsera: ห้องสมุดที่มีน้ำหนักเบาสำหรับการขูดเว็บไซต์ด้วย LLMS
- Sparrow: Sparrow เป็นโซลูชันโอเพ่นซอร์สที่เป็นนวัตกรรมสำหรับการสกัดข้อมูลและการประมวลผลที่มีประสิทธิภาพจากเอกสารและรูปภาพต่างๆ
- DOCLING: แปลง PDF เป็น JSON หรือ Markdown ได้อย่างง่ายดายและความเร็ว
- Got-coR2.0: โมเดล OCR
- LLM decontaminator: การทบทวนเกณฑ์มาตรฐานและการปนเปื้อนสำหรับแบบจำลองภาษาที่มีตัวอย่าง rephrased
- DataTrove: DataTrove เป็นไลบรารีในการประมวลผลตัวกรองและข้อมูลซ้ำซ้อนในระดับที่มีขนาดใหญ่มาก
- LLM-Swarm: สร้างชุดข้อมูลสังเคราะห์ขนาดใหญ่เช่น Cosmopedia
- Distilabel: Distilabel เป็นกรอบสำหรับข้อมูลสังเคราะห์และข้อเสนอแนะ AI สำหรับวิศวกรที่ต้องการท่อส่งที่รวดเร็วเชื่อถือได้และปรับขนาดได้ตามเอกสารการวิจัยที่ผ่านการตรวจสอบแล้ว
- Common-Crawl-Pipeline-Creator: ผู้สร้างท่อรวบรวมข้อมูลทั่วไป
- Tabled: ตรวจจับและแยกตารางไปยัง Markdown และ CSV
- Zerox: Zero Shot PDF OCR พร้อม GPT-4O-MINI
- Doclayout-YOLO: เพิ่มการวิเคราะห์เค้าโครงเอกสารผ่านข้อมูลสังเคราะห์ที่หลากหลายและการรับรู้แบบปรับตัวทั่วโลก
- Tensorzero: ทำให้ LLMS ปรับปรุงผ่านประสบการณ์
- พรอมต์ไรท์: สร้างข้อมูลสังเคราะห์ขนาดใหญ่โดยใช้ LLM ในท้องถิ่น
- PDF-Extract-API: การสกัดเอกสาร (PDF) และการแยกวิเคราะห์ API โดยใช้โมเดลที่สนับสนุน OCRS + Ollama ที่ทันสมัย
- PDF2HTMLEX: แปลง PDF เป็น HTML โดยไม่สูญเสียข้อความหรือรูปแบบ
- สกัด: การสกัดข้อมูลที่ไม่มีโครงสร้างอย่างรวดเร็วและมีประสิทธิภาพ
↥กลับไปด้านบน
การปรับแต่ง
- LLAMA-FACTORY: รวมการปรับแต่งที่มีประสิทธิภาพ 100+ LLMS
- unsloth: 2-5x เร็วขึ้น 80% หน่วยความจำน้อยกว่า llm finenetning
- TRL: การเรียนรู้การเสริมแรงของหม้อแปลง
- หิ่งห้อย: หิ่งห้อย: เครื่องมือฝึกอบรมขนาดใหญ่ที่สนับสนุนการฝึกอบรมรุ่นใหญ่หลายสิบรุ่น
- XTUNER: ชุดเครื่องมือที่มีประสิทธิภาพยืดหยุ่นและเต็มรูปแบบสำหรับการปรับแต่งรุ่นใหญ่
- TORCHTUNE: ห้องสมุด Native-Pytorch สำหรับการปรับแต่ง LLM
- Swift: ใช้ PEFT หรือพารามิเตอร์เต็มรูปแบบเพื่อ Finetune 200+ LLMS หรือ 15+ Mllms
- Autotrain: วิธีใหม่ในการฝึกอบรมประเมินและปรับใช้รูปแบบการเรียนรู้ของเครื่องจักรที่ทันสมัยโดยอัตโนมัติ
- OpenRLHF: กรอบ RLHF ที่ใช้งานง่ายปรับขนาดได้และสมรรถนะสูง (รองรับ 70B+ การปรับแต่งเต็มรูปแบบ & LORA & MIXTRAL & KTO)
- LUDWIG: เฟรมเวิร์กรหัสต่ำสำหรับการสร้าง LLM ที่กำหนดเองเครือข่ายประสาทและโมเดล AI อื่น ๆ
- MISTRAL-FINETUNE: codebase น้ำหนักเบาที่ช่วยให้หน่วยความจำมีประสิทธิภาพและประสิทธิภาพการทำงานของโมเดลของ Mistral
- Aikit: ปรับแต่งสร้างและปรับใช้ LLMS โอเพนซอร์ซได้อย่างง่ายดาย!
- H2O-llmstudio: H2O LLM Studio-เฟรมเวิร์กและ GUI ที่ไม่มีรหัสสำหรับการปรับแต่ง LLMS
- LITGPT: pretrain, finetune, ปรับใช้ 20+ LLMs บนข้อมูลของคุณเอง
- LLMBox: ห้องสมุดที่ครอบคลุมสำหรับการใช้งาน LLMs รวมถึงการฝึกอบรมแบบครบวงจรและการประเมินแบบจำลองที่ครอบคลุม
- Paddlenlp: ไลบรารี NLP และ LLM ที่ใช้งานง่ายและมีประสิทธิภาพ
- Workbench-llamafactory: นี่เป็นโครงการตัวอย่าง Nvidia AI Workbench ที่แสดงให้เห็นถึงเวิร์กโฟลว์การพัฒนาแบบจำลองแบบ end-to-end โดยใช้ LlamaFactory
- OpenRLHF: เฟรมเวิร์ก RLHF ที่ใช้งานได้ง่ายปรับขนาดได้
- Tinyllava Factory: กรอบของโมเดลขนาดใหญ่หลายรูปแบบขนาดเล็ก
- LLM-Foundry: รหัสการฝึกอบรม LLM สำหรับโมเดลฐานข้อมูล Databricks
- LMMS-Finetune: codebase unified สำหรับ finetuning (เต็ม, LORA) รุ่นใหญ่หลายรูปแบบรองรับ LLAVA-1.5, QWEN-VL, LLAVA-Interleave, LLAVA-NEXT-VIDEO, PhI3-V ฯลฯ
- Simplifine: simplifine ช่วยให้คุณเรียกใช้ LLM finenetuning ด้วยรหัสเพียงบรรทัดเดียวโดยใช้ชุดข้อมูลหรือรุ่นกอดใด ๆ
- Transformer Lab: แอปพลิเคชันโอเพนซอร์สสำหรับวิศวกรรม LLM ขั้นสูง: โต้ตอบ, รถไฟ, ปรับแต่งและประเมินรูปแบบภาษาขนาดใหญ่บนคอมพิวเตอร์ของคุณเอง
- Liger-Kernel: เคอร์เนลไทรทันที่มีประสิทธิภาพสำหรับการฝึกอบรม LLM
- Chatlearn: กรอบการฝึกอบรมที่ยืดหยุ่นและมีประสิทธิภาพสำหรับการจัดตำแหน่งขนาดใหญ่
- nanotron: การฝึกอบรมภาษาขนาดใหญ่แบบมินิมัลลิสต์แบบจำลอง 3D-parallelism
- การปรับแต่งพร็อกซี: การปรับโมเดลภาษาโดยพร็อกซี
- การจัดตำแหน่ง LLM ที่มีประสิทธิภาพ: ชุดเครื่องมือการจัดตำแหน่ง LLM ที่มีประสิทธิภาพ
- Autotrain-Advanced
- Meta Lingua: รหัสฐานแบบลีนที่มีประสิทธิภาพและง่ายต่อการแฮ็กเพื่อการวิจัย LLMS
- Vision-LLM Alignemnt: ที่เก็บนี้มีรหัสสำหรับ SFT, RLHF และ DPO ออกแบบมาสำหรับ LLM ที่ใช้การมองเห็นรวมถึงรุ่น LLAVA และรุ่น LLAMA-3.2-Vision
- Finetune-qwen2-VL: เริ่มต้นอย่างรวดเร็วสำหรับการปรับแต่งหรือดำเนินการต่อรุ่นก่อนรถไฟ QWEN2-VL
↥กลับไปด้านบน
การอนุมาน
- Ollama: ลุกขึ้นและทำงานกับ Llama 3, Mistral, Gemma และโมเดลภาษาขนาดใหญ่อื่น ๆ
- เปิด WebUI: WebUI ที่ใช้งานง่ายสำหรับ LLMS (ชื่อเดิมคือ Ollama WebUI)
- การสร้างข้อความ Webui: A GRATIO Web UI สำหรับโมเดลภาษาขนาดใหญ่
- Xinference: ห้องสมุดที่ทรงพลังและหลากหลายออกแบบมาเพื่อให้บริการภาษาการรู้จำเสียงพูดและโมเดลหลายรูปแบบ
- Langchain: สร้างแอปพลิเคชันการให้เหตุผลตามบริบท
- Llamaidex: กรอบข้อมูลสำหรับแอปพลิเคชัน LLM ของคุณ
- Lobe-Chat: กรอบการแชทแบบโอเพ่นซอร์ส, การออกแบบที่ทันสมัย LLMS/AI แชท
- Tensorrt-LLM: Tensorrt-LLM ให้ผู้ใช้ Python API ที่ใช้งานง่ายเพื่อกำหนดรูปแบบภาษาขนาดใหญ่ (LLMs) และสร้างเครื่องยนต์ tensorrt ที่มีการปรับให้เหมาะสมที่สุดเพื่อดำเนินการอย่างมีประสิทธิภาพบน NVIDIA GPU
- VLLM: การอนุมานที่มีประสิทธิภาพสูงและมีประสิทธิภาพและเครื่องยนต์ที่ให้บริการสำหรับ LLMS
- LAMACHAT: แชทกับนางแบบ Llama ที่คุณชื่นชอบในแอพ MacOS พื้นเมือง
- Nvidia Chatrtx: Chatrtx เป็นแอพสาธิตที่ให้คุณปรับแต่งรูปแบบภาษาขนาดใหญ่ GPT (LLM) ที่เชื่อมต่อกับเนื้อหาของคุณเอง - DOCs, Notes หรือข้อมูลอื่น ๆ
- LM Studio: ค้นพบดาวน์โหลดและเรียกใช้ LLMS ในท้องถิ่น
- Chat-With-MLX: แชทกับข้อมูลของคุณบน Apple Silicon โดยใช้ MLX Framework
- การกำหนดราคา LLM: ค้นหารูปแบบภาษาขนาดใหญ่ที่สมบูรณ์แบบ (LLM) API อย่างรวดเร็วสำหรับงบประมาณของคุณ! ใช้เครื่องมือฟรีของเราสำหรับการเข้าถึงราคาล่าสุดจากผู้ให้บริการชั้นนำ
- Open Interpreter: อินเทอร์เฟซภาษาธรรมชาติสำหรับคอมพิวเตอร์
- แชท-อลลา: แชทบอทโอเพ่นซอร์สที่ใช้ LLMS
- chat-ui: โอเพนซอร์สรหัสเบสที่ให้พลังแอพ Huggingchat
- MEMGPT: สร้างตัวแทน LLM ด้วยหน่วยความจำระยะยาวและเครื่องมือที่กำหนดเอง
- KOBOLDCPP: วิธีเดียวที่ง่ายในการเรียกใช้รุ่น GGML และ GGUF ที่หลากหลายด้วย UI ของ Koboldai
- LLMFARM: LLAMA และโมเดลภาษาขนาดใหญ่อื่น ๆ บน iOS และ MacOS ออฟไลน์โดยใช้ไลบรารี GGML
- Enchanted: Enchanted เป็นแอพ iOS และ MacOS สำหรับการแชทกับโมเดลภาษาที่โฮสต์ส่วนตัวเช่น Llama2, Mistral หรือ Vicuna โดยใช้ Ollama
- Flowise: Drag & Drop UI เพื่อสร้างโฟลว์ LLM ที่กำหนดเองของคุณ
- ม.ค. : ม.ค. เป็นทางเลือกโอเพ่นซอร์สสำหรับ CHATGPT ที่ทำงานออฟไลน์ 100% บนคอมพิวเตอร์ของคุณ
- LMDeploy: LMDeploy เป็นชุดเครื่องมือสำหรับการบีบอัดการปรับใช้และการให้บริการ LLMS
- Routellm: กรอบการทำงานสำหรับการให้บริการและประเมินเราเตอร์ LLM - ประหยัดค่าใช้จ่าย LLM โดยไม่ลดระดับคุณภาพ!
- Minerferes: กำลังจะเพิ่มความเร็วในการอนุมาน LLMS ของ LLMS ที่ยาวนานและมีพลวัตคำนวณความสนใจซึ่งจะช่วยลดเวลาแฝงการอนุมานได้สูงสุด 10 เท่าสำหรับการเติมเต็ม A100 ในขณะที่ยังคงความแม่นยำ
- MEM0: เลเยอร์หน่วยความจำสำหรับ AI ส่วนบุคคล
- SGLANG: SGLANG เป็นอีกหนึ่งกรอบการให้บริการที่รวดเร็วสำหรับแบบจำลองภาษาขนาดใหญ่และแบบจำลองภาษาวิสัยทัศน์
- Airllm: Airllm ปรับการใช้หน่วยความจำการอนุมานให้ดีที่สุดทำให้โมเดลภาษาขนาดใหญ่ 70b สามารถใช้การอนุมานได้บนการ์ด GPU 4GB เดียวโดยไม่ต้องใช้ปริมาณการกลั่นและการตัดแต่งกิ่ง
- LLMHUB: LLMHUB เป็นแพลตฟอร์มการจัดการน้ำหนักเบาที่ออกแบบมาเพื่อปรับปรุงการทำงานและการโต้ตอบกับรูปแบบภาษาต่างๆ (LLMS)
- Yuanchat
- Litellm: โทร LLM APIs ทั้งหมดโดยใช้รูปแบบ openai [Bedrock, Huggingface, Vertexai, Sonateai, Azure, Openai, Groq ฯลฯ ]
- Guidellm: Guidellm เป็นเครื่องมือที่มีประสิทธิภาพสำหรับการประเมินและเพิ่มประสิทธิภาพการปรับใช้แบบจำลองภาษาขนาดใหญ่ (LLMs)
- LLM-Engines: เอ็นจิ้นการอนุมานแบบครบวงจรสำหรับรุ่นภาษาขนาดใหญ่ (LLMS) รวมถึงรุ่นโอเพนซอร์ซ (VLLM, SGLANG, ร่วมกัน) และโมเดลเชิงพาณิชย์ (OpenAI, Mistral, Claude)
- OARC: Ollama_Agent_Roll_Cage (OARC) เป็นตัวแทน Python ท้องถิ่นที่หลอมรวม Ollama LLM กับโมเดลคำพูด Coqui-TTS, คลาส Keras, Llava Vision, การจดจำเสียงกระซิบและอื่น ๆ
- G1: การใช้ LLAMA-3.1 70B บน GROQ เพื่อสร้างโซ่การให้เหตุผลที่คล้าย O1
- MemoryScope: MemoryScope ให้ LLM chatbots ที่มีความสามารถในระยะยาวที่ทรงพลังและยืดหยุ่นซึ่งนำเสนอกรอบการทำงานสำหรับการสร้างความสามารถดังกล่าว
- OpenLLM: เรียกใช้ LLM แบบโอเพนซอร์สเช่น LLAMA 3.1, Gemma ซึ่งเป็นจุดสิ้นสุด API ที่เข้ากันได้ของ OpenAI ในคลาวด์
- อินฟินิตี้: ฐานข้อมูล Ai-Native ที่สร้างขึ้นสำหรับแอปพลิเคชัน LLM ให้การค้นหาไฮบริดอย่างรวดเร็วอย่างไม่น่าเชื่อของการฝังความหนาแน่นการฝังแบบเบาบางเทนเซอร์และข้อความเต็ม
- Optillm: พร็อกซีที่เข้ากันได้กับ OpenAI API ซึ่งใช้เทคนิคที่ทันสมัยหลายอย่างที่สามารถปรับปรุงความแม่นยำและประสิทธิภาพของ LLMS
- LLAMA Box: การใช้งานเซิร์ฟเวอร์การอนุมาน LLM ตาม LLAMA.CPP
↥กลับไปด้านบน
การประเมิน
- LM-Evaluation-Harness: กรอบสำหรับการประเมินแบบจำลองภาษาไม่กี่แบบ
- OpenCompass: OpenCompass เป็นแพลตฟอร์มการประเมิน LLM ซึ่งรองรับโมเดลที่หลากหลาย (LLAMA3, Mistral, InternLM2, GPT-4, Llama2, Qwen, GLM, Claude ฯลฯ ) กว่า 100+ ชุดข้อมูล
- LLM-comparator: LLM Comparator เป็นเครื่องมือสร้างภาพข้อมูลแบบโต้ตอบสำหรับการประเมินและวิเคราะห์การตอบสนอง LLM แบบเคียงข้างกันพัฒนา
- Evalscope
- สาน: ชุดเครื่องมือที่มีน้ำหนักเบาสำหรับการติดตามและประเมินแอปพลิเคชัน LLM
- Mixeval: ได้รับภูมิปัญญาของฝูงชนจากการผสมเกณฑ์มาตรฐาน LLM
- คู่มือการประเมินผล: หากคุณเคยสงสัยว่าจะทำให้ LLM ทำงานได้ดีกับงานเฉพาะของคุณอย่างไรคู่มือนี้เหมาะสำหรับคุณ!
- มาตรฐาน Ollama: เกณฑ์มาตรฐาน LLM สำหรับปริมาณงานผ่าน Ollama (LLMS ท้องถิ่น)
- VLMEVALKIT: ชุดเครื่องมือประเมินโอเพ่นซอร์สของโมเดลภาษาวิสัยทัศน์ขนาดใหญ่ (LVLMS), รองรับ ~ 100 VLMS, มาตรฐาน 40+
LLM API 服务平台
:
- การทำ
- การไหลของซิลิคอน
- เครื่องยนต์ภูเขาไฟ
- Wen Xin Qianfan
- หน้าปัด
↥กลับไปด้านบน
สัมผัสประสบการณ์การใช้งาน
- LMSYS Chatbot Arena: การเปรียบเทียบ LLMS ในป่า
- สนามกีฬา Mockup Pompassarena Sinan
- Langya Bang
- HuggingFace Spaces
- ช่องว่าง Wisemodel
- ปอ
- รายการป่าขนาดใหญ่ของ Brother Lin
- OpenRouter
- Anychat
↥กลับไปด้านบน
ความรู้พื้นฐานผ้าขี้ริ้ว
- อะไรก็ตาม: แอพ AL-in-One AI สำหรับ LLM ใด ๆ ที่มีความสามารถในการใช้ RAG เต็มรูปแบบและ AI
- MaxKB: ระบบพื้นฐานความรู้และระบบคำตอบตามรูปแบบภาษาขนาดใหญ่ LLM นอกกรอบสนับสนุนการฝังอย่างรวดเร็วในระบบธุรกิจของบุคคลที่สาม
- Ragflow: เครื่องยนต์ RAG โอเพนซอร์ส
- DIFY: แพลตฟอร์มการพัฒนาแอพโอเพนซอร์ซ LLM
- FASTGPT: แพลตฟอร์มที่ใช้ความรู้ที่สร้างขึ้นบน LLM นำเสนอการประมวลผลข้อมูลนอกกรอบและความสามารถในการเรียกใช้โมเดลช่วยให้การจัดระเบียบเวิร์กโฟลว์ผ่านการสร้างภาพข้อมูลการไหล
- Langchain-Chatchat: คำถามพื้นฐานความรู้ในท้องถิ่นและคำตอบตามรูปแบบภาษาขนาดใหญ่ที่แตกต่างกันเช่น Langchain และ Chatglm
- Qanything: คำถามและคำตอบตามอะไรก็ได้
- QUIVR: ผู้ช่วยเพิ่มประสิทธิภาพส่วนบุคคล (RAG) ⚡?
- RAG-GPT: RAG-GPT, ใช้ประโยชน์จากเทคโนโลยี LLM และ RAG เรียนรู้จากฐานความรู้ที่ผู้ใช้กำหนดเองเพื่อให้คำตอบที่เกี่ยวข้องกับบริบทสำหรับการสืบค้นที่หลากหลายทำให้มั่นใจได้ว่าการดึงข้อมูลอย่างรวดเร็วและแม่นยำ
- Verba: แชทบ็อต Augmented Generation (RAG) Retrieval Powered โดย Weaviate
- Flashrag: ชุดเครื่องมือ Python สำหรับการวิจัย RAG ที่มีประสิทธิภาพ
- graphrag: ระบบการเรียกคืนกราฟแบบแยกส่วนแบบแยกส่วน (RAG)
- LIGHTRAG: LIGHTRAG ช่วยให้นักพัฒนามีทั้งการสร้างและเพิ่มประสิทธิภาพท่อส่งข้อมูล Retriever-Agent-Generator
- graphrag-ollama-ui: graphrag โดยใช้ ollama กับ gradio ui และคุณสมบัติพิเศษ
- Nano-Graphrag: การใช้งาน Graphrag ง่าย ๆ ง่ายๆ
- เทคนิค RAG: พื้นที่เก็บข้อมูลนี้นำเสนอเทคนิคขั้นสูงต่าง ๆ สำหรับระบบ Generation-Augmented Generation (RAG)
- RAGAS: กรอบการประเมินผลสำหรับท่อ Augmented Generation (RAG) ของคุณ
- Kotaemon: Rag UI ที่สะอาดและกำหนดเองสำหรับการแชทกับเอกสารของคุณ
- Ragapp: วิธีที่ง่ายที่สุดในการใช้ Rag Agentic ในองค์กรใด ๆ
- Turborag: การเร่งการดึงการสืบค้น-เพิ่มขึ้นพร้อมกับแคช KV ที่คาดการณ์ล่วงหน้าสำหรับข้อความอัน
- LIGHTRAG: รุ่นที่ใช้งานง่ายและรวดเร็ว
- สิบ: เฟรมเวิร์ก AI-Gen Gen, กรอบการทำงาน AI AI Multimodal AI ของโลกเป็นครั้งแรกอย่างแท้จริง
- Autorag: เครื่องมือ RAG Automl สำหรับการค้นหาท่อส่ง RAG แบบออพติคอลโดยอัตโนมัติสำหรับข้อมูลของคุณ
- KAG: KAG เป็นเฟรมเวิร์กรุ่นที่เพิ่มความรู้โดยใช้เครื่องยนต์ OpenSPG ซึ่งใช้ในการสร้างการตัดสินใจที่เข้มงวดขึ้นและให้บริการความรู้ในการดึงข้อมูล
- Fast-graphrag: ผ้าขี้ริ้วที่ปรับให้เข้ากับกรณีการใช้งานข้อมูลและการสืบค้นของคุณอย่างชาญฉลาด
- กริกรากเล็ก ๆ
- db-gpt graphrag: db-gpt graphrag รวมกราฟความรู้ที่ใช้ทริปเปิลและกราฟโครงสร้างเอกสารในขณะที่ใช้ประโยชน์จากกลไกการดึงข้อมูลชุมชนและเอกสารเพื่อเพิ่มความสามารถในการเพิ่มประสิทธิภาพการทำงานของ Rag
- Chonkie: ห้องสมุดผ้าขี้ริ้วไร้สาระที่ไร้สาระซึ่งมีน้ำหนักเบาเร็วเร็วและพร้อมที่จะใช้ข้อความของคุณ
↥กลับไปด้านบน
ตัวแทน
- Autogen: Autogen เป็นเฟรมเวิร์กที่ช่วยให้การพัฒนาแอปพลิเคชัน LLM โดยใช้ตัวแทนหลายตัวที่สามารถสนทนากันเพื่อแก้ปัญหางาน
- CREWAI: กรอบสำหรับการสวมบทบาทการสวมบทบาทตัวแทน AI อิสระ
- ร่วมกัน
- AgentGPT: ประกอบกำหนดค่าและปรับใช้ AI AID ATOMOUS ATOMOUS ในเบราว์เซอร์ของคุณ
- Xagent: เอเจนต์ LLM อิสระสำหรับการแก้ปัญหาที่ซับซ้อน
- MobileAgent: ตระกูลผู้ช่วยผู้ดำเนินการอุปกรณ์มือถือที่ทรงพลัง
- Lagent: กรอบการทำงานที่มีน้ำหนักเบาสำหรับการสร้างตัวแทนที่ใช้ LLM
- Qwen-Agent: Agent Framework และแอพพลิเคชั่นที่สร้างขึ้นบน Qwen2, เนื้อเรื่องการเรียกใช้ฟังก์ชัน, Code Interpreter, Rag และ Chrome Extension
- Linkai: แพลตฟอร์มอาคารอัจฉริยะ AI แบบครบวงจร
- baidu appbuilder
- Agentuniverse: Agentuniverse เป็นเฟรมเวิร์กหลายตัวแทน LLM ที่ช่วยให้นักพัฒนาสามารถสร้างแอปพลิเคชันหลายตัวแทนได้อย่างง่ายดาย
- Lazyllm: เครื่องมือพัฒนาสำหรับการสร้างแอปพลิเคชันขนาดใหญ่หลายตัวแทนพร้อมรหัสต่ำ
- AgentsCope: เริ่มสร้างแอพพลิเคชั่นหลายตัวแทน LLM ที่ได้รับการสนับสนุนจาก LLM ในวิธีที่ง่ายขึ้น
- MOA: ส่วนผสมของตัวแทน (MOA) เป็นวิธีการใหม่ที่ใช้ประโยชน์จากจุดแข็งโดยรวมของ LLM หลายตัวเพื่อเพิ่มประสิทธิภาพเพื่อให้ได้ผลลัพธ์ที่ทันสมัย
- Agently: AI Agent Application Development Framework
- Omagent: กรอบตัวแทนหลายรูปแบบสำหรับการแก้ปัญหาที่ซับซ้อน
- Tribe: ไม่มีเครื่องมือรหัสในการสร้างและประสานงานทีมหลายตัวแทนอย่างรวดเร็ว
- อูฐ: เฟรมเวิร์กหลายตัวแทน LLM ครั้งแรกและชุมชนโอเพ่นซอร์สที่อุทิศตนเพื่อค้นหากฎการปรับขนาดของตัวแทน
- Praisonai: แอปพลิเคชั่น Praisonai ผสมผสาน Autogen และ Crewai หรือกรอบการทำงานที่คล้ายกันเข้ากับโซลูชันรหัสต่ำสำหรับการสร้างและจัดการระบบ LLM หลายตัวแทนโดยมุ่งเน้นไปที่ความเรียบง่ายการปรับแต่งและการทำงานร่วมกันของตัวแทนมนุษย์ที่มีประสิทธิภาพ
- IOA: กรอบโอเพนซอร์ซสำหรับตัวแทน AI การทำงานร่วมกันทำให้เกิดความหลากหลายตัวแทนแจกจ่ายให้กับทีมและจัดการงานที่ซับซ้อนผ่านการเชื่อมต่อที่คล้ายอินเทอร์เน็ต
- Llama-Agentic-System: ส่วนประกอบตัวแทนของ Llama Stack APIs
- Agent Zero: Agent Zero ไม่ใช่เฟรมเวิร์กเอเจนต์ที่กำหนดไว้ล่วงหน้า
- ตัวแทน: เฟรมเวิร์กโอเพนซอร์ซสำหรับตัวแทนภาษาอิสระที่เน้นข้อมูลด้วยตนเอง
- AgentsCope: เริ่มสร้างแอพพลิเคชั่นหลายตัวแทน LLM ที่ได้รับการสนับสนุนจาก LLM ในวิธีที่ง่ายขึ้น
- Fastagency: วิธีที่เร็วที่สุดในการนำเวิร์กโฟลว์หลายตัวแทนมาสู่การผลิต
- Swarm: เฟรมเวิร์กสำหรับการสร้างการจัดทำและปรับใช้ระบบหลายตัวแทน
- Agent-S: เฟรมเวิร์ก Open Agent ที่ใช้คอมพิวเตอร์เหมือนมนุษย์
↥กลับไปด้านบน
ค้นหา
- OpenSearch GPT: SearchGPT / Perplexity Clone แต่เป็นส่วนตัวสำหรับคุณ
- MindSearch: เฟรมเวิร์กหลายตัวแทนที่ใช้ LLM ของเครื่องมือค้นหาเว็บ (เช่น perplexity.ai pro และ searchgpt)
- Nanoperplexityai: การใช้งานโอเพนซอร์ซที่ง่ายที่สุดของ Perplexity.ai
- ความอยากรู้อยากเห็น: พยายามสร้างประสบการณ์ผู้ใช้ที่น่างงงวย
↥กลับไปด้านบน
หนังสือ
- รูปแบบภาษาขนาดใหญ่: จากทฤษฎีสู่การฝึกฝน
- "โมเดลภาษาใหญ่"
- "การเยาะเย้ยแบบมือดำดิ่งลงไปใน LLMS"
- "ตัวแทน AI มือ"
- สร้างรูปแบบภาษาขนาดใหญ่ (ตั้งแต่เริ่มต้น)
- "Multimodal Mockup"
- คู่มือ AI Generative: แผนงานสำหรับการเรียนรู้แหล่งข้อมูล
- เข้าใจการเรียนรู้อย่างลึกซึ้ง
- "หนังสือภาพประกอบเพื่อเรียนรู้เกี่ยวกับ Transformers & LLMS"
- การสร้าง LLM สำหรับการผลิต: เพิ่มความสามารถและความน่าเชื่อถือของ LLM ด้วยการกระตุ้นการปรับแต่งและผ้าขี้ริ้ว
- "แนวทางปฏิบัติเกี่ยวกับแบบจำลองภาษาขนาดใหญ่: การฝึกฝนแอปพลิเคชันและการใช้งานสถานการณ์"
- "แบบจำลองภาษาขนาดใหญ่แบบลงมือ"
- การประมวลผลภาษาธรรมชาติ: ทฤษฎีและการปฏิบัติแบบจำลองขนาดใหญ่
- "การเรียนรู้เสริมการเรียนรู้ด้วยมือ"
- "บทนำสู่ LLM สำหรับนักพัฒนา"
- "โมเดลพื้นฐาน"
↥กลับไปด้านบน
คอร์ส
LLM Resources Hub
- Stanford CS224N: การประมวลผลภาษาธรรมชาติด้วยการเรียนรู้อย่างลึกซึ้ง
- NG: AI Generative สำหรับทุกคน
- NG: ชุดหลักสูตร LLM
- ACL 2023 บทช่วยสอน: แบบจำลองภาษาและแอปพลิเคชันแบบดึงข้อมูล
- LLM-Course: หลักสูตรเพื่อเข้าสู่รูปแบบภาษาขนาดใหญ่ (LLMS) พร้อมแผนการทำงานและสมุดบันทึก colab
- Microsoft: Generative AI สำหรับผู้เริ่มต้น
- Microsoft: สถานะของ GPT
- HuggingFace NLP หลักสูตร
- tsinghua nlp liu zhiyuan ทีมใหญ่รุ่นเปิดชั้นเรียน
- Stanford CS25: Transformers United V4
- Stanford CS324: รูปแบบภาษาขนาดใหญ่
- Princeton Cos 597G (ฤดูใบไม้ร่วง 2022): ทำความเข้าใจกับแบบจำลองภาษาขนาดใหญ่
- Johns Hopkins CS 601.471/671 NLP: โมเดลผู้ดูแลตนเอง
- หลักสูตร Li Hongyi Genai
- Openai-Cookbook: ตัวอย่างและแนวทางสำหรับการใช้ OpenAI API
- Hands on LLMS: เรียนรู้เกี่ยวกับ LLM, LLMOPS และ Vector DBS ฟรีโดยการออกแบบการฝึกอบรมและการปรับใช้ระบบ LLM ที่ปรึกษาทางการเงินแบบเรียลไทม์
- University of Waterloo CS 886: Advanceds ล่าสุดเกี่ยวกับรูปแบบมูลนิธิ
- MISTRAL: เริ่มต้นด้วย Mistral
- Stanford CS25: Transformers United V4
- Coursera: โครงการพรอมต์แอปพลิเคชัน CHATGPT
- Langgpt: ช่วยให้ทุกคนเป็นผู้เชี่ยวชาญที่รวดเร็ว!
- Mistralai-cookbook
- รู้เบื้องต้นเกี่ยวกับการกำเนิด AI 2024 ฤดูใบไม้ผลิ
- สร้าง Nanogpt: วิดีโอ+รหัสบทเรียนเกี่ยวกับการสร้าง Nanogpt ตั้งแต่เริ่มต้น
- LLM101N: มาสร้างนักเล่าเรื่องกันเถอะ
- กราฟความรู้สำหรับผ้าขี้ริ้ว
- LLMS จากศูนย์ (เวอร์ชัน Datawhale)
- OpenRag
- ถนนสู่ agi
- Andrej Karpathy - Neural Networks: Zero to Hero
- การสร้างภาพข้อมูลแบบโต้ตอบของหม้อแปลง
- Andysingal/LLM-course
- LM-class
- Google Advanced: AI Generative สำหรับนักพัฒนา
- มานุษยวิทยา: การสอนแบบโต้ตอบทางวิศวกรรมที่รวดเร็ว
- llmsbook
- ตัวแทนโมเดลภาษาขนาดใหญ่
- Cohere Llm University
- LLMS และ Transformers
- SMOL VISION: สูตรสำหรับการหดตัวการปรับให้เหมาะสมปรับแต่งแบบจำลองการมองเห็นที่ทันสมัย
- ผ้าขี้ริ้วหลายรูปแบบ: แชทกับวิดีโอ
- บันทึกการสัมภาษณ์ LLMS
- RAG ++: จาก POC ไปจนถึงการผลิต: Advanced RAG Course
- Weights & Biases AI Academy: Finetuning, การสร้างด้วย LLM, ผลลัพธ์ที่มีโครงสร้างและหลักสูตร LLM อื่น ๆ
- การสอนด้านวิศวกรรมและ AI และทรัพยากร AI
- เรียนรู้ RAG ตั้งแต่เริ่มต้น - Python AI Tutorial จากวิศวกร Langchain
- การประเมิน LLM: หลักสูตรที่สมบูรณ์
↥กลับไปด้านบน
การสอน
- เรียนรู้การพัฒนาแอปพลิเคชันขนาดใหญ่
- ช่องนักพัฒนา AI
- สถานี B: Wulidun Tea House
- สถานี B: Cheney Muyu
- YTB: AI ได้ทุกเวลา
- สถานี B: Qi Nini
- คู่มือวิศวกรรมที่รวดเร็ว
- YTB: AI Super Metamorphosis
- สถานี B: ชุมชนปัญญาประดิษฐ์ TechBeat
- สถานี B: Huang Yihe
- สถานี B: การเรียนรู้ภาษาธรรมชาติเรียนรู้อย่างลึกซึ้ง
- การสร้างภาพ LLM
- Zhihu: มนุษย์หินดิบ
- สถานี B: Xiao Heihei พูดถึง AI
- สถานี B: วิศวกรยานพาหนะหันหน้าเข้าหาผนัง
- สถานี B: AI ทหารผ่านศึก Wenzhe
- โมเดลภาษาขนาดใหญ่ (LLMS) พร้อมสมุดบันทึก colab
- YTB: เทคโนโลยี IBM
- YTB: รวมกลุ่มกระดาษอ่าน
- ชิป Huyen
- vram เท่าไหร่
- บล็อก: พื้นที่วิทยาศาสตร์ (Su Jianlin)
- YTB: Hyung Won Chung
- บล็อก: Tejaswi Kashyap
- บล็อก: บล็อกของ Xiaosheng
- Zhihu: YBQ
- บทความ W&B
- บล็อก HuggingFace
- บล็อก: gbyai
- บล็อก: Mlabonne
- แอ็คชั่น LLM
- บล็อก: lil'log (oponai)
↥กลับไปด้านบน
กระดาษ
บันทึก
? HuggingFace Daily Papers, เอกสารเย็น, เอกสาร ML อธิบาย
- HERMES-3-Technical-Port
- The Llama 3 Herd of Models
- รายงานทางเทคนิคของ Qwen
- รายงานทางเทคนิค QWEN2
- รายงานทางเทคนิค QWEN2-VL
- Deepseek LLM: ปรับขนาดแบบจำลองภาษาโอเพนซอร์ซด้วยความยาว
- Deepseek-V2: โมเดลภาษาที่แข็งแกร่งประหยัดและมีประสิทธิภาพ
- Baichuan 2: เปิดรุ่นภาษาขนาดใหญ่
- DataComp-LM: ในการค้นหาชุดการฝึกอบรมรุ่นต่อไปสำหรับรูปแบบภาษา
- Olmo: เร่งวิทยาศาสตร์ของแบบจำลองภาษา
- MAP-NEO: ซีรี่ส์รุ่นภาษาขนาดใหญ่ที่มีความสามารถสูงและโปร่งใสสูงและโปร่งใส
- LLM LLM ของจีน: การเตรียมรูปแบบภาษาขนาดใหญ่ที่เน้นภาษาจีนเป็นศูนย์กลาง
- รายงานทางเทคนิค Phi-3: รูปแบบภาษาที่มีความสามารถสูงในโทรศัพท์ของคุณ
- jamba-1.5: รุ่นไฮบริด Transformer-Mamba ในระดับ
- Jamba: โมเดลภาษา Transformer-Mamba ไฮบริด
- ตำราเรียนเป็นสิ่งที่คุณต้องการ
- ปลดปล่อยพลังของสึนามิข้อมูล: การสำรวจที่ครอบคลุมเกี่ยวกับการประเมินข้อมูลและการเลือกสำหรับการปรับแต่งการเรียนการสอนแบบจำลองภาษา
data
- Olmoe: เปิดแบบจำลองภาษาผสมของ Experts
- แบบจำลองกระดาษผสาน
- รายงานทางเทคนิคของ Baichuan-Omni
- 1.5-pints รายงานทางเทคนิค: การเตรียมการในวันไม่ใช่เดือน-รูปแบบภาษาของคุณเจริญเติบโตจากข้อมูลคุณภาพ
- รายงานทางเทคนิคการจัดตำแหน่งของ Baichuan
- Hunyuan-Large: โมเดลโอเพนซอร์ซที่มีพารามิเตอร์เปิดใช้งาน 52 พันล้านโดย Tencent
- Molmo และ Pixmo: เปิดน้ำหนักและเปิดข้อมูลสำหรับแบบจำลองหลายรูปแบบที่ทันสมัย
- Tülu 3: การผลักดันพรมแดนในรูปแบบภาษาเปิดหลังการฝึกอบรม
↥กลับไปด้านบน
เคล็ดลับ
- สิ่งที่เราเรียนรู้จากปีแห่งการสร้างด้วย LLM (ตอนที่ 1)
- สิ่งที่เราเรียนรู้จากปีแห่งการสร้างด้วย LLM (ตอนที่สอง)
- สิ่งที่เราเรียนรู้จากปีแห่งการสร้างด้วย LLMS (ตอนที่ III): กลยุทธ์
- เริ่มต้นใช้งานง่ายด้วยโมเดลภาษาขนาดใหญ่ (LLM)
- LLMs สำหรับการจำแนกประเภทข้อความ: คู่มือการเรียนรู้ภายใต้การดูแล
- การจำแนกประเภทข้อความที่ไม่ได้รับการดูแล: จัดหมวดหมู่ภาษาธรรมชาติด้วย LLMS
- การจำแนกประเภทข้อความด้วย LLMS: Roundup ของวิธีที่ดีที่สุด
- ราคา LLM
- uncensor llm ใด ๆ ที่มีนามธรรม
- จักรวาล LLM เล็ก ๆ
- zero-chatgpt
- zero-qwen-vl
- Finetune-qwen2-Vl
- MPP-llava
- build_minillm_from_scratch
- LLM เล็ก ๆ
- Minimind: 3 ชั่วโมงของการฝึกอบรมพารามิเตอร์ขนาดเล็ก GPT ที่มีเพียง 26 เมตรและการ์ดกราฟิกอย่างน้อย 2G จะต้องใช้เพื่ออนุมานการฝึกอบรมการอนุมาน
- LLM-Travel: อุทิศให้กับความเข้าใจเชิงลึกการอภิปรายและการใช้เทคโนโลยีหลักการและแอปพลิเคชันที่เกี่ยวข้องกับแบบจำลองขนาดใหญ่ที่หลากหลาย
- การกลั่นความรู้: การสอน LLM ด้วยข้อมูลสังเคราะห์
- ส่วนที่ 1: วิธีการปรับรูปแบบภาษาขนาดใหญ่
- ส่วนที่ 2: เพื่อปรับแต่งหรือไม่ปรับแต่ง
- ส่วนที่ 3: วิธีปรับแต่ง: มุ่งเน้นไปที่ชุดข้อมูลที่มีประสิทธิภาพ
- Reader-LM: รุ่นภาษาขนาดเล็กสำหรับการทำความสะอาดและแปลง HTML เป็น markdown
- ประสบการณ์การก่อสร้างแอปพลิเคชัน LLMS เป็นเวลาหนึ่งปี
- การฝึกอบรม LLM
- Pytorch-llama: Llama 2 ดำเนินการตั้งแต่เริ่มต้นใน Pytorch
- การเพิ่มประสิทธิภาพการตั้งค่าสำหรับแบบจำลองภาษาการมองเห็นด้วย TRL 【โมเดลสนับสนุน】
- แบบจำลองภาษาภาพที่ปรับจูนโดยใช้ SFTTrainer 【เอกสาร】
- คู่มือภาพเกี่ยวกับการผสมผสานของผู้เชี่ยวชาญ (MOE)
- การสวมบทบาทในรูปแบบภาษาขนาดใหญ่เช่น CHATGPT
- คู่มือการฝึกอบรมแบบกระจาย: แนวทางปฏิบัติที่ดีที่สุดและคำแนะนำเกี่ยวกับวิธีการเขียนรหัสฝึกอบรม Pytorch แบบกระจาย
- เทมเพลตแชท
- คำถามสัมภาษณ์ RAG 20 อันดับแรก
↥กลับไปด้านบน
หากคุณพบว่าโครงการนี้เป็นประโยชน์กับคุณโปรดอ้าง:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}