
Sumber daya model bahasa besar terbaik di dunia terus diperbarui
Periksa informasi lebih lanjut
[Baca online]
Isi
- Data
- Fine-tuning
- Kesimpulan
- Evaluasi
- Pengalaman Penggunaan
- Rag dasar pengetahuan
- Agen
- Mencari
- Buku
- Kursus
- Tutorial
- Kertas
- Tips
Data
Catatan
Di sini dinamai数据
, tetapi tidak ada set data spesifik yang disediakan di sini, tetapi metode untuk memproses akuisisi data skala besar disediakan
Kami selalu percaya bahwa lebih baik mengajari orang cara memancing daripada mengajari orang cara memancing
- Aotolabel: Label, Dataset Teks Bersih dan Enrich dengan LLMS.
- LABELLLM: Platform anotasi data sumber terbuka.
- Data-Juicer: Sistem pemrosesan data satu atap untuk membuat data berkualitas lebih tinggi, lebih juicier, dan lebih mudah dicerna untuk LLM!
- Omniparser: Parser streaming ETL Golang asli dan mengubah perpustakaan untuk CSV, JSON, XML, EDI, teks, dll.
- Mineru: Mineru adalah alat ekstraksi data satu atap, open-source, dan berkualitas tinggi, mendukung ekstraksi PDF/Webpage/E-book.
- PDF-Extract-Kit: Toolkit komprehensif untuk ekstraksi konten PDF berkualitas tinggi.
- Parsera: Perpustakaan ringan untuk mengikis situs web dengan LLMS.
- Sparrow: Sparrow adalah solusi sumber terbuka yang inovatif untuk ekstraksi dan pemrosesan data yang efisien dari berbagai dokumen dan gambar.
- Dorpling: Transform PDF ke JSON atau Markdown dengan mudah dan kecepatan.
- GOT-OCR2.0: Model OCR.
- Dekontaminator LLM: Memikirkan kembali tolok ukur dan kontaminasi untuk model bahasa dengan sampel yang diulang.
- DataTrove: Datasrove adalah pustaka untuk memproses, memfilter, dan mendeduplikasi data teks pada skala yang sangat besar.
- LLM-SWARM: Hasilkan set data sintetis besar seperti Cosmopedia.
- Distilabel: Distilabel adalah kerangka kerja untuk data sintetis dan umpan balik AI untuk para insinyur yang membutuhkan jaringan pipa yang cepat, andal dan dapat diskalakan berdasarkan makalah penelitian yang diverifikasi.
- Common-Crawl-Pipeline-Creator: Pencipta Pipa Perayapan Umum.
- Tabel: Deteksi dan ekstrak tabel ke Markdown dan CSV.
- Zerox: Zero Shot PDF OCR dengan GPT-4O-Mini.
- DOCLAYOUT-YOLO: Meningkatkan analisis tata letak dokumen melalui beragam data sintetis dan persepsi adaptif global-ke-lokal.
- Tensorzero: Buat LLM meningkat melalui pengalaman.
- Promptwright: Menghasilkan data sintetis besar menggunakan LLM lokal.
- PDF-Extract-API: Dokumen (PDF) Ekstraksi dan Parse API Menggunakan Seni Modern OCRS + Model yang Didukung Ollama.
- PDF2HTMLEX: Konversi PDF ke HTML tanpa kehilangan teks atau format.
- Ekstrak: Ekstraksi data tidak terstruktur yang cepat dan efisien.
↥ Kembali ke atas
Fine-tuning
- Llama-factory: menyatukan penyempurnaan efisien 100+ llms.
- melepaskan: 2-5x lebih cepat 80% lebih sedikit memori llm finenetning.
- TRL: Pembelajaran Penguatan Transformer.
- Firefly: Firefly: Alat pelatihan model besar yang mendukung pelatihan lusinan model besar
- Xtuner: Toolkit yang efisien, fleksibel, dan berfitur lengkap untuk menyempurnakan model besar.
- Torchtune: Perpustakaan Native-Pytorch untuk fine-tuning LLM.
- Swift: Gunakan PEFT atau parameter penuh untuk finetune 200+ llms atau 15+ mllms.
- Autotrain: Cara baru untuk secara otomatis melatih, mengevaluasi, dan menggunakan model pembelajaran mesin yang canggih.
- OpenRLHF: Kerangka kerja RLHF yang mudah digunakan, dapat diskalakan, dan berkinerja tinggi (dukungan 70b+ tuning penuh & lora & mixtral & kto).
- Ludwig: Kerangka kerja kode rendah untuk membangun LLM khusus, jaringan saraf, dan model AI lainnya.
- Mistral-Finetune: Basis kode ringan yang memungkinkan finetuning finetuning yang efisien memori dan kinerja dari model Mistral.
- Aikit: Fine-Tune, Build, dan sebutkan LLMS open-source dengan mudah!
- H2O-LLMSTUDIO: H2O LLM Studio-Kerangka kerja dan GUI tanpa kode untuk menyempurnakan LLMS.
- Litgpt: pretrain, finetune, menggunakan 20+ llms pada data Anda sendiri.
- LLMBox: Perpustakaan komprehensif untuk mengimplementasikan LLM, termasuk pipa pelatihan terpadu dan evaluasi model komprehensif.
- Paddlenlp: Perpustakaan NLP dan LLM yang mudah digunakan dan kuat.
- Workbench-llamafactory: Ini adalah proyek contoh NVIDIA AI Workbench yang menunjukkan alur kerja pengembangan model ujung-ke-ujung menggunakan llamafactory.
- OpenRlHF: Kerangka kerja RLHF yang mudah digunakan, dapat diukur, dan berkinerja tinggi (70b+ PPO tuning penuh & DPO iteratif & lora & mixtral).
- Tinyllava Factory: Kerangka kerja model multimodal besar skala kecil.
- LLM-Foundry: Kode pelatihan LLM untuk model Yayasan Databricks.
- LMMS-Finetune: Basis kode terpadu untuk finetuning (penuh, LORA) Model multimodal besar, pendukung LLAVA-1.5, QWEN-VL, LLAVA-INTERLEAVE, LLAVA-NEXT-Video, PHI3-V dll.
- Sederhana: Sederhana memungkinkan Anda memohon llm finenetuning dengan hanya satu baris kode menggunakan dataset atau model wajah pelukan.
- Transformer Lab: Aplikasi Open Source untuk Rekayasa LLM Lanjutan: Interact, Train, Fine-Tune, dan Evaluasi Model Bahasa Besar di Komputer Anda Sendiri.
- Liger-Kernel: Kernel triton yang efisien untuk pelatihan LLM.
- ChatLearn: Kerangka kerja pelatihan yang fleksibel dan efisien untuk penyelarasan skala besar.
- Nanotron: Pelatihan 3D-paralelisme Model Bahasa Minimalis.
- Tuning proxy: Tuning Model Bahasa oleh Proxy.
- Penyelarasan LLM yang Efektif: Toolkit Alignment LLM yang Efektif.
- Autotrain-Advanced
- Meta Lingua: Basis kode yang ramping, efisien, dan mudah dipelihara untuk meneliti LLMS.
- Visi-llm Alignemnt: Repositori ini berisi kode untuk SFT, RLHF, dan DPO, yang dirancang untuk LLM berbasis visi, termasuk model LLAVA dan model LLAMA-3.2-Vision.
- Finetune-qwen2-VL: Mulai cepat untuk menyempurnakan atau melanjutkan model QWEN2-VL pra-Train.
↥ Kembali ke atas
Kesimpulan
- Ollama: Bangun dan jalankan dengan Llama 3, Mistral, Gemma, dan model bahasa besar lainnya.
- Buka WebUI: WebUI yang ramah pengguna untuk LLMS (sebelumnya Ollama Webui).
- WEBUI Generasi Teks: UI Web Gradio untuk Model Bahasa Besar.
- Xinference: Perpustakaan yang kuat dan serbaguna yang dirancang untuk melayani bahasa, pengenalan ucapan, dan model multimodal.
- Langchain: Bangun aplikasi penalaran yang sadar konteks.
- LLAMAINDEX: Kerangka data untuk aplikasi LLM Anda.
- LOBE-CHAT: Kerangka Obrolan Open-Source, Modern-Design LLMS/AI.
- Tensorrt-llm: Tensorrt-llm memberi pengguna API Python yang mudah digunakan untuk mendefinisikan model bahasa besar (LLM) dan membangun mesin Tensorrt yang berisi optimisasi canggih untuk melakukan inferensi secara efektif pada NVIDIA GPU.
- VLLM: Inferensi throughput tinggi dan hemat memori dan mesin penyajian untuk LLMS.
- LLAMACHAT: Obrolan dengan model Llama favorit Anda di aplikasi MacOS asli.
- NVIDIA CHATRTX: CHATRTX adalah aplikasi demo yang memungkinkan Anda mempersonalisasikan Model Bahasa Besar (LLM) GPT yang terhubung ke konten Anda sendiri - DOCS, catatan, atau data lainnya.
- LM Studio: Temukan, Unduh, dan Jalankan LLM Lokal.
- CHAT-WITH-MLX: Obrolan dengan data Anda secara asli di Apple Silicon menggunakan MLX Framework.
- Harga LLM: Cepat temukan API Model Bahasa Besar (LLM) yang sempurna untuk anggaran Anda!
- Open Interpreter: Antarmuka bahasa alami untuk komputer.
- Obrolan-Olama: Open Source Chatbot berdasarkan LLMS.
- Chat-UI: Basis kode sumber terbuka yang memberi daya pada aplikasi HuggingChat.
- MEMGPT: Buat agen LLM dengan memori jangka panjang dan alat kustom.
- Koboldcpp: Cara satu file sederhana untuk menjalankan berbagai model GGML dan GGUF dengan UI Koboldai.
- LLMFARM: Llama dan model bahasa besar lainnya di iOS dan macOS offline menggunakan perpustakaan GGML.
- Enchanted: Enchanted adalah aplikasi iOS dan macOS untuk mengobrol dengan model bahasa pribadi yang di -host seperti llama2, mistral atau vicuna menggunakan ollama.
- Flowise: Seret & Jatuhkan UI untuk membangun aliran LLM yang disesuaikan.
- Jan: Jan adalah alternatif open source untuk chatgpt yang berjalan 100% offline di komputer Anda.
- LMDeploy: LMDeploy adalah toolkit untuk mengompresi, menggunakan, dan melayani LLMS.
- Routellm: Kerangka kerja untuk melayani dan mengevaluasi router LLM - menghemat biaya LLM tanpa mengurangi kualitas!
- Minference: Akan mempercepat inferensi LLMS yang panjang, jarang dan dinamis menghitung perhatian, yang mengurangi latensi inferensi hingga 10x untuk pra-pengisian pada A100 sambil mempertahankan akurasi.
- MEM0: Lapisan memori untuk AI yang dipersonalisasi.
- SGLANG: SGLANG adalah kerangka kerja porsi cepat lainnya untuk model bahasa besar dan model bahasa visi.
- Airllm: Airllm mengoptimalkan penggunaan memori inferensi, memungkinkan model bahasa 70b besar untuk menjalankan inferensi pada kartu GPU 4GB tunggal tanpa kuantisasi, distilasi dan pemangkasan.
- LLMHUB: LLMHUB adalah platform manajemen ringan yang dirancang untuk merampingkan operasi dan interaksi dengan berbagai model bahasa (LLM).
- Yuanchat
- Litellm: Hubungi semua API LLM menggunakan format OpenAI [Bedrock, Huggingface, Vertexai, Bersama, Azure, Openai, Groq dll.]
- GuidellM: GuidellM adalah alat yang ampuh untuk mengevaluasi dan mengoptimalkan penyebaran model bahasa besar (LLM).
- LLM-ENGINES: Mesin inferensi terpadu untuk model bahasa besar (LLM) termasuk model open-source (VLLM, SGLANG, bersama-sama) dan model komersial (OpenAI, Mistral, Claude).
- OARC: ollama_agent_roll_cage (oarc) adalah agen Python lokal yang menggabungkan Ollama LLM dengan model pidato Coqui-tts, kelas keras, visi Llava, pengakuan bisikan, dan lebih banyak lagi untuk membuat agen chatbot terpadu untuk otomatisasi lokal, kustom.
- G1: Menggunakan LLAMA-3.1 70B di GROQ untuk membuat rantai penalaran seperti O1.
- MemoryScope: MemoryScope memberikan LLM Chatbots kemampuan memori jangka panjang yang kuat dan fleksibel, menawarkan kerangka kerja untuk membangun kemampuan tersebut.
- OpenLLM: Jalankan LLMS open-source, seperti LLAMA 3.1, Gemma, sebagai titik akhir API yang kompatibel di cloud.
- Infinity: Basis data asli AI yang dibangun untuk aplikasi LLM, memberikan pencarian hibrida yang sangat cepat dari embedding padat, embedding jarang, tensor dan teks lengkap.
- OPTILLM: Proxy inferensi yang dioptimalkan OpenAI API yang kompatibel yang mengimplementasikan beberapa teknik canggih yang dapat meningkatkan akurasi dan kinerja LLM.
- LLAMA BOX: Implementasi server inferensi LLM berdasarkan llama.cpp.
↥ Kembali ke atas
Evaluasi
- LM-Evaluasi-Harness: Kerangka kerja untuk evaluasi beberapa-shot dari model bahasa.
- OpenCompass: OpenCompass adalah platform evaluasi LLM, mendukung berbagai model (LLAMA3, Mistral, Internlm2, GPT-4, LLAMA2, QWEN, GLM, Claude, dll) lebih dari 100+ dataset.
- LLM-Comparator: LLM Comparator adalah alat visualisasi data interaktif untuk mengevaluasi dan menganalisis respons LLM berdampingan, dikembangkan.
- Evalscope
- Weave: Toolkit yang ringan untuk melacak dan mengevaluasi aplikasi LLM.
- Mixeval: Mengredupkan kebijaksanaan kerumunan dari campuran benchmark LLM.
- Buku Panduan Evaluasi: Jika Anda pernah bertanya -tanya bagaimana cara memastikan LLM berkinerja baik pada tugas spesifik Anda, panduan ini untuk Anda!
- Benchmark Ollama: Benchmark LLM untuk throughput melalui Ollama (LLM lokal).
- VLMEVALKIT: Toolkit evaluasi sumber terbuka dari model bahasa penglihatan besar (LVLM), dukungan ~ 100 VLM, 40+ tolok ukur.
LLM API 服务平台
:
- Groq
- Aliran berbasis silikon
- Mesin vulkanik
- Wen Xin Qianfan
- Dashscope
↥ Kembali ke atas
Pengalaman Penggunaan
- LMSYS Chatbot Arena: Benchmarking LLMS in the Wild
- Compassarena Sinan Mockup Arena
- Langya Bang
- Ruang Huggingface
- Ruang Wisemodel
- Poe
- Daftar Liar Model Besar Brother Lin
- OpenRouter
- Anychat
↥ Kembali ke atas
Rag dasar pengetahuan
- Apapun: Aplikasi AI all-in-one untuk setiap LLM dengan kemampuan agen Rag dan AI penuh.
- MAXKB: Sistem tanya jawab basis pengetahuan berdasarkan model bahasa besar LLM. Di luar kotak, mendukung penyematan cepat ke sistem bisnis pihak ketiga
- RAGFLOW: Mesin Rag Open-Source (Retrieval-Augmmented Generation) berdasarkan pemahaman dokumen yang mendalam.
- Dify: Platform pengembangan aplikasi LLM open-source.
- FastGPT: Platform berbasis pengetahuan yang dibangun di LLM, menawarkan pemrosesan data out-of-the-box dan kemampuan doa model, memungkinkan untuk orkestrasi alur kerja melalui visualisasi aliran.
- Langchain-Chatchat: Pertanyaan dan jawaban basis pengetahuan lokal berdasarkan berbagai model bahasa besar seperti Langchain dan Chatglm
- Qanything: Pertanyaan dan jawaban berdasarkan apa pun.
- Quivr: Asisten Produktivitas Pribadi (RAG) ⚡️?
- RAG-GPT: Rag-GPT, Leveraging LLM dan Teknologi RAG, belajar dari basis pengetahuan yang disesuaikan dengan pengguna untuk memberikan jawaban yang relevan secara kontekstual untuk berbagai pertanyaan, memastikan pengambilan informasi yang cepat dan akurat.
- Verba: Chatbot Retrieval Augmented Generation (RAG) ditenagai oleh Weaviate.
- FlashRag: Toolkit Python untuk penelitian kain yang efisien.
- Graphrag: Sistem generasi pengambilan-getaran berbasis grafik modular (RAG).
- Lightrag: Lightrag membantu pengembang dengan membangun dan mengoptimalkan pipa agen-agen-generator.
- Graphrag-ollama-UI: Graphrag menggunakan ollama dengan gradio UI dan fitur tambahan.
- Nano-Graphrag: Implementasi Graphrag yang sederhana dan mudah dipukul.
- Teknik Rag: Repositori ini menampilkan berbagai teknik canggih untuk sistem generasi pengambilan (RAG).
- Ragas: Kerangka Evaluasi untuk Palangan Palangan Generasi augmented (RAG) pengambilan Anda.
- Kotaemon: Rag UI yang bersih & khusus untuk mengobrol dengan dokumen Anda.
- Ragapp: Cara termudah untuk menggunakan kain agen di perusahaan mana pun.
- Turborag: Generasi Accelerating Retrieval-Agusted dengan cache KV yang telah dikomputasi untuk teks yang dipotong.
- Lightrag: Generasi Augmented yang sederhana dan cepat dan cepat.
- Sepuluh: Kerangka kerja AI-agen generasi berikutnya, kerangka kerja agen multimodal AI pertama yang benar-benar real-time di dunia.
- Autorag: Alat Rag Automl untuk secara otomatis menemukan pipa kain optik untuk data Anda.
- KAG: KAG adalah kerangka kerja generasi yang ditingkatkan pengetahuan berdasarkan mesin OpenSpg, yang digunakan untuk membangun layanan pengambilan keputusan dan pengambilan informasi yang ditingkatkan pengetahuan.
- Fast-Graphrag: Rag yang secara cerdas beradaptasi dengan kasus penggunaan, data, dan pertanyaan Anda.
- Grafrag kecil
- DB-GPT Graphrag: DB-GPT Graphrag mengintegrasikan grafik pengetahuan berbasis triplet dan grafik struktur dokumen sambil memanfaatkan mekanisme pengambilan komunitas dan dokumen untuk meningkatkan kemampuan RAG, mencapai kinerja yang sebanding sambil mengkonsumsi hanya 50% dari token yang dibutuhkan oleh Microsoft's Graphrag.
- Chonkie: Perpustakaan chunking rag yang tidak masuk akal yang ringan, cepat kilat, dan siap untuk menelusuri teks Anda.
↥ Kembali ke atas
Agen
- Autogen: Autogen adalah kerangka kerja yang memungkinkan pengembangan aplikasi LLM menggunakan beberapa agen yang dapat berkomunikasi satu sama lain untuk menyelesaikan tugas
- Crewai: Kerangka kerja untuk mengatur peran sebagai agen AI otonom.
- Beromong
- AgenGPT: Merakit, mengkonfigurasi, dan menggunakan agen AI otonom di browser Anda.
- XAGENT: Agen LLM otonom untuk pemecahan tugas yang kompleks.
- MobileAgent: Keluarga Asisten Operasi Perangkat Seluler yang kuat.
- Lagent: Kerangka kerja ringan untuk membangun agen berbasis LLM.
- QWEN-AGEN: Kerangka kerja agen dan aplikasi yang dibangun di atas QWEN2, menampilkan panggilan fungsi, juru bahasa kode, RAG, dan ekstensi Chrome.
- Linkai: Platform Bangunan Cerdas AI One-Stop
- Baidu appbuilder
- AgentUniverse: AgentUniverse adalah kerangka kerja multi-agen LLM yang memungkinkan pengembang untuk dengan mudah membangun aplikasi multi-agen.
- Lazyllm: Alat pengembangan untuk membangun aplikasi skala besar multi-agen dengan kode rendah
- Agentscope: Mulai membangun aplikasi multi-agen yang diberdayakan LLM dengan cara yang lebih mudah.
- MOA: Campuran agen (MOA) adalah pendekatan baru yang memanfaatkan kekuatan kolektif dari beberapa LLM untuk meningkatkan kinerja, mencapai hasil canggih.
- Agen: Kerangka Pengembangan Aplikasi Agen AI.
- Omagent: Kerangka kerja agen multimodal untuk menyelesaikan tugas -tugas kompleks.
- Suku: Tidak ada alat kode untuk membangun dan mengoordinasikan tim multi-agen dengan cepat.
- CAMEL: Kerangka kerja multi-agen LLM pertama dan komunitas open-source yang didedikasikan untuk menemukan hukum penskalaan agen.
- Praisonai: Aplikasi Praisonai menggabungkan autogen dan crewai atau kerangka kerja serupa ke dalam solusi kode rendah untuk membangun dan mengelola sistem LLM multi-agen, berfokus pada kesederhanaan, penyesuaian, dan kolaborasi agen manusia yang efisien.
- IOA: Kerangka kerja sumber terbuka untuk agen AI kolaboratif, memungkinkan keragaman, agen terdistribusi untuk bekerja sama dan menangani tugas-tugas kompleks melalui konektivitas seperti internet.
- Llama-Agentik-System: Komponen Agen dari Llama Stack API.
- Agen Zero: Agen nol bukan kerangka kerja agen yang telah ditentukan.
- Agen: Kerangka kerja open-source untuk agen bahasa otonom yang berpusat pada data.
- Agentscope: Mulai membangun aplikasi multi-agen yang diberdayakan LLM dengan cara yang lebih mudah.
- Fastagency: Cara tercepat untuk membawa alur kerja multi-agen ke produksi.
- Swarm: Kerangka kerja untuk membangun, mengatur dan menggunakan sistem multi-agen.
- Agen-S: Kerangka kerja agen terbuka yang menggunakan komputer seperti manusia.
↥ Kembali ke atas
Mencari
- OpenSearch GPT: Klon pencarian / kebingungan, tetapi dipersonalisasi untuk Anda.
- MindSearch: Kerangka kerja multi-agen berbasis LLM dari mesin pencari web (seperti kebencian.ai Pro dan SearchGPT).
- Nanoperplexityai: Implementasi Open-Source yang paling sederhana dari kebingungan.ai.
- Keingintahuan: Cobalah untuk membangun pengalaman pengguna seperti kebingungan.
↥ Kembali ke atas
Buku
- Model Bahasa Skala Besar: Dari Teori ke Praktek
- "Model Bahasa Besar"
- "Mockup Hand-on menyelam ke LLMS"
- "Agen AI Hand-on"
- Bangun model bahasa besar (dari awal)
- "Mockup multimodal"
- Buku Pegangan AI Generatif: Peta Jalan untuk Sumber Belajar
- Memahami pembelajaran yang mendalam
- "Buku Ilustrasi Untuk Belajar Tentang Transformers & LLMS"
- Membangun LLM untuk Produksi: Meningkatkan Kemampuan dan Keandalan LLM Dengan Dorongan, Menyetranya, dan Rag
- "Panduan Praktis untuk Model Bahasa Besar: Praktek Aplikasi dan Implementasi Skenario"
- "Model Bahasa Tangan Besar"
- Pemrosesan Bahasa Alami: Teori dan Praktek Model Besar
- "Pembelajaran Penguatan Pembelajaran Hand-On"
- "Pengantar LLM untuk Pengembang"
- "Model Dasar"
↥ Kembali ke atas
Kursus
Hub Sumber Daya LLM
- Stanford CS224N: Pemrosesan bahasa alami dengan pembelajaran yang mendalam
- NG: AI generatif untuk semua orang
- NG: Seri LLM Kursus
- Tutorial ACL 2023: Model dan Aplikasi Bahasa Berbasis Pengambilan
- LLM-Course: Kursus untuk masuk ke model bahasa besar (LLM) dengan peta jalan dan notebook Colab.
- Microsoft: AI generatif untuk pemula
- Microsoft: State of GPT
- Huggingface NLP Course
- Tsinghua NLP Liu Zhiyuan Team Big Model Open Class
- Stanford CS25: Transformers United V4
- Stanford CS324: Model Bahasa Besar
- Princeton Cos 597G (Musim Gugur 2022): Memahami Model Bahasa Besar
- Johns Hopkins CS 601.471/671 NLP: Model yang Di-swadaya
- Kursus Li Hongyi Genai
- Openai-Cookbook: Contoh dan pedoman untuk menggunakan API OpenAI.
- Hands on LLMS: Pelajari tentang LLM, LLMOP, dan DB Vektor GRATIS dengan merancang, melatih, dan menggunakan sistem LLM penasihat keuangan waktu nyata.
- University of Waterloo CS 886: Lanjutan Terbaru pada Model Yayasan
- Mistral: Memulai dengan Mistral
- Stanford CS25: Transformers United V4
- Coursera: Proyek Prompt Aplikasi Chatgpt
- LANGGPT: Memberdayakan semua orang untuk menjadi ahli yang cepat!
- Mistralai-Cookbook
- Pengantar Generatif AI 2024 Spring
- Bangun Nanogpt: Video+Kode Pelajaran tentang Membangun Nanogpt dari awal.
- LLM101N: Mari kita bangun pendongeng.
- Grafik pengetahuan untuk kain
- LLMS From Scratch (Versi DataWhale)
- OpenRag
- Jalan Menuju Agi
- Andrej Karpathy - Neural Networks: Nol to Hero
- Visualisasi transformator interaktif
- Andysingal/llm-course
- LM-Class
- Google Advanced: AI generatif untuk jalur pembelajaran pengembang
- Antropik: Tutorial Interaktif Engineering Prompt
- LLMSBOOK
- Agen Model Bahasa Besar
- COHERE LLM University
- Llms dan transformer
- Visi SMOL: Resep untuk menyusut, mengoptimalkan, menyesuaikan model penglihatan canggih.
- Rag multimodal: mengobrol dengan video
- Catatan wawancara LLMS
- Rag ++: Dari POC ke Produksi: Kursus Rag Lanjutan.
- Bobot & Biases AI Academy: Finetuning, membangun dengan LLM, output terstruktur dan lebih banyak kursus LLM.
- Tutorial & Sumber Daya Teknik & AI
- Pelajari Rag From Scratch - Tutorial Python AI dari Insinyur Langchain
- Evaluasi LLM: Kursus Lengkap
↥ Kembali ke atas
Tutorial
- Pelajari Pengembangan Aplikasi Model Besar
- Saluran pengembang AI
- B Station: Rumah Teh Wulidun
- B Station: Cheney Muyu
- YTB: AI kapan saja
- B Station: Qi nini
- Panduan Teknik yang Segera
- YTB: AI Super Metamorfosis
- B Station: Komunitas Kecerdasan Buatan TechBeat
- B Station: Huang Yihe
- B Station: Pemrosesan Bahasa Alami Pembelajaran Depat
- Visualisasi LLM
- Zhihu: manusia batu mentah
- B Station: Xiao Heihei berbicara tentang AI
- Stasiun B: Insinyur kendaraan yang menghadap ke dinding
- B Station: AI Veteran Wenzhe
- Model Bahasa Besar (LLM) dengan Colab Notebooks
- YTB: Teknologi IBM
- YTB: Unify Reading Paper Group
- Chip Huyen
- Berapa banyak vram
- Blog: Science Space (Su Jianlin)
- YTB: Hyung memenangkan Chung
- Blog: Tejaswi Kashyap
- Blog: Blog Xiaosheng
- Zhihu: YBQ
- Artikel W&B
- Blog Huggingface
- Blog: Gbyai
- Blog: Mlabonne
- Llm-action
- Blog: Lil'log (Oponai)
↥ Kembali ke atas
Kertas
Catatan
? Menggeluk kertas harian, kertas keren, kertas ML menjelaskan
- Hermes-3-Teknis-Report
- Kawanan model llama 3
- Laporan Teknis Qwen
- Laporan Teknis Qwen2
- Laporan teknis QWEN2-VL
- Deepseek LLM: Menskalakan model bahasa open-source dengan jangka panjang
- Deepseek-V2: Model Bahasa Campuran Eksperti yang Kuat, Ekonomis, dan Efisien
- Baichuan 2: Buka model bahasa berskala besar
- DataComp-LM: Mencari generasi berikutnya dari set pelatihan untuk model bahasa
- Olmo: Mempercepat Ilmu Model Bahasa
- Peta-neo: Seri model bahasa besar bilingual yang sangat mampu dan transparan
- LLM kecil Cina: pretraining model bahasa besar yang berpusat pada Cina-sentris
- Laporan Teknis PHI-3: Model Bahasa yang sangat cakap secara lokal di ponsel Anda
- JAMBA-1.5: Model Transformer-Mamba hybrid pada skala
- Jamba: Model Bahasa Transformator Hibrida
- Semua buku teks yang Anda butuhkan
- Melepaskan Kekuatan Data Tsunami: Survei Komprehensif tentang Penilaian Data dan Seleksi untuk Penyetelan Instruksi
data
Model Bahasa - OLMOE: Model Bahasa Campuran Terbuka Ekspertion
- Kertas penggabungan model
- Laporan Teknis Baichuan-Omni
- Laporan teknis 1,5 liter: pretraining dalam beberapa hari, bukan bulan-model bahasa Anda berkembang dengan data berkualitas
- Laporan Teknis Alignment Baichuan
- HUNYUAN-Large: Model MOE open-source dengan 52 miliar parameter teraktivasi oleh Tencent
- Molmo dan Pixmo: Bobot terbuka dan data terbuka untuk model multimodal canggih
- Tülu 3: Mendorong perbatasan dalam model bahasa terbuka pasca-pelatihan
↥ Kembali ke atas
Tips
- Apa yang kami pelajari dari satu tahun membangun dengan LLMS (Bagian I)
- Apa yang kami pelajari dari satu tahun membangun dengan LLMS (Bagian II)
- Apa yang kami pelajari dari satu tahun membangun dengan LLMS (Bagian III): Strategi
- Mudah Dimulai Dengan Model Bahasa Besar (LLM)
- LLMS untuk Klasifikasi Teks: Panduan untuk Pembelajaran Diawasi
- Klasifikasi teks tanpa pengawasan: Mengategorikan bahasa alami dengan LLMS
- Klasifikasi Teks dengan LLMS: Pengumpulan metode terbaik
- Harga llm
- Uncensor llm apa pun dengan abstraksi
- Semesta kecil LLM
- Nol-chatgpt
- Zero-Qwen-Vl
- finetune-qwen2-vl
- MPP-Llava
- build_minillm_from_scratch
- Llm kecil
- Minimind: 3 jam pelatihan GPT parameter kecil dengan hanya 26m, dan setidaknya 2G kartu grafis diperlukan untuk menyimpulkan pelatihan inferensi.
- LLM-Travel: Didedikasikan untuk pemahaman mendalam, diskusi dan implementasi berbagai teknologi, prinsip, dan aplikasi yang terkait dengan model besar
- Distilasi Pengetahuan: Mengajar LLM dengan Data Sintetis
- Bagian 1: Metode untuk mengadaptasi model bahasa besar
- Bagian 2: Untuk menyempurnakan atau tidak menyempurnakan
- Bagian 3: Cara Menyempurnakan: Fokus pada Dataset yang Efektif
- Pembaca-LM: Model Bahasa Kecil untuk Membersihkan dan Mengubah HTML menjadi Markdown
- Pengalaman Konstruksi Aplikasi LLMS selama satu tahun
- LLM Pelatihan-pretrain
- Pytorch-llama: Llama 2 diimplementasikan dari awal di Pytorch.
- Optimalisasi Preferensi untuk Model Bahasa Visi dengan TRL 【Model Dukungan】
- Model bahasa visual yang menyempurnakan menggunakan sfttrainer 【docs】
- Panduan Visual untuk Campuran Pakar (MOE)
- Bermain peran dalam model bahasa besar seperti chatgpt
- Panduan Pelatihan Terdistribusi: Praktik & Panduan Terbaik tentang Cara Menulis Kode Pelatihan Pytorch Terdistribusi.
- Template obrolan
- Pertanyaan Wawancara 20+ Rag Teratas
↥ Kembali ke atas
Jika Anda menemukan proyek ini bermanfaat bagi Anda, silakan kutip:
@misc { wang2024llm ,
title = { awesome-LLM-resourses } ,
author = { Rongsheng Wang } ,
year = { 2024 } ,
publisher = { GitHub } ,
journal = { GitHub repository } ,
howpublished = { url{https://github.com/WangRongsheng/awesome-LLM-resourses} } ,
}