Panduan Teknik Sumber Terbuka untuk Pembelajaran Cepat dalam Konteks dari EgoAlpha Lab.
Makalah | ⚡️ Taman Bermain | ? Rekayasa Cepat | ? Perintah ChatGPT | ⛳ Panduan Penggunaan LLM
️ Cemerlang ️: Ini adalah sumber daya segar yang diperbarui setiap hari untuk pembelajaran dalam konteks dan rekayasa cepat. Seiring dengan semakin dekatnya Kecerdasan Umum Buatan (Artificial General Intelligence/AGI), mari kita mengambil tindakan dan menjadi pembelajar super agar dapat memposisikan diri kita di garis depan era yang menarik ini dan berjuang untuk mencapai kesuksesan pribadi dan profesional.
Sumber dayanya meliputi:
?Dokumen? : Makalah terbaru tentang In-Context Learning , Prompt Engineering , Agent , dan Foundation Models .
?Tempat bermain? : Model bahasa besar(LLM)yang memungkinkan eksperimen cepat.
?Rekayasa Cepat? : Teknik cepat untuk memanfaatkan model bahasa besar.
Perintah ChatGPT? : Contoh nyata yang dapat diterapkan dalam pekerjaan dan kehidupan kita sehari-hari.
?Panduan Penggunaan LLM? : Metode untuk memulai dengan cepat model bahasa besar dengan menggunakan LangChain.
Di masa depan, kemungkinan akan ada dua tipe manusia di Bumi (bahkan mungkin di Mars, tapi itu pertanyaan untuk Musk):
?EgoAlpha: Hello! human?, are you ready?
☄️ EgoAlpha merilis TrustGPT yang berfokus pada penalaran. Percayakan GPT dengan kemampuan penalaran terkuat untuk mendapatkan jawaban yang autentik dan andal. Anda dapat mengklik di sini atau mengunjungi Taman Bermain secara langsung untuk merasakannya。
[2024.11.17]
[2024.11.16]
[2024.11.15]
[2024.11.14]
[2024.11.13]
[2024.11.12]
[2024.11.11]
Berita sejarah lengkap?
Anda dapat langsung mengklik judulnya untuk melompat ke lokasi tautan PDF yang sesuai
Gerakan bertemu Perhatian: Perintah Gerakan Video ( 2024.07.03 )
Menuju Model Bahasa Besar Kesehatan Pribadi ( 2024.06.10 )
Husky: Agen Bahasa Sumber Terbuka Terpadu untuk Penalaran Multi-Langkah ( 2024.06.10 )
Menuju Pembelajaran Seumur Hidup Model Bahasa Besar: Sebuah Survei ( 2024.06.10 )
Menuju Kesetaraan Semantik Tokenisasi di Multimodal LLM ( 2024.06.07 )
LLM Bertemu Pembuatan dan Pengeditan Multimodal: Sebuah Survei ( 29.05.2024 )
Pembelajaran Alat dengan Model Bahasa Besar: Survei ( 28.05.2024 )
Saat LLM memasuki Dunia 3D: Survei dan Analisis Meta Tugas 3D melalui Model Bahasa Besar Multimodal ( 2024.05.16 )
Estimasi Ketidakpastian dan Kuantifikasi untuk LLM: Pendekatan Pengawasan Sederhana ( 2024.04.24 )
Survei tentang Mekanisme Memori Agen Berbasis Model Bahasa Besar ( 21.04.2024 )
Daftar makalah lengkap? untuk "Survei"?
LLaRA: Meningkatkan Data Pembelajaran Robot untuk Kebijakan Bahasa Penglihatan ( 28.06.2024 )
Pemulihan Ukuran Kumpulan Data dari Bobot LoRA ( 27.06.2024 )
Optimasi Cepat yang Dipercepat Fase Ganda ( 2024.06.19 )
Dari RAG hingga parameter kaya: Menyelidiki bagaimana model bahasa memanfaatkan pengetahuan eksternal melalui informasi parametrik untuk kueri faktual ( 18.06.2024 )
VoCo-LLaMA: Menuju Kompresi Penglihatan dengan Model Bahasa Besar ( 2024.06.18 )
LaMDA: Penyempurnaan Model Besar melalui Adaptasi Dimensi Rendah yang Terdekomposisi Secara Spektral ( 2024.06.18 )
Dampak Inisialisasi pada Dinamika Penyempurnaan LoRA ( 2024.06.12 )
Studi Empiris tentang Penyempurnaan yang Efisien Parameter untuk Model Bahasa Besar MultiModal ( 2024.06.07 )
Serangan Pintu Belakang Lintas Konteks terhadap Pembelajaran Cepat Grafik ( 28.05.2024 )
Yuan 2.0-M32: Campuran Pakar dengan Router Perhatian ( 28.05.2024 )
Daftar makalah lengkap? untuk "Desain Cepat"?
Studi Empiris tentang Penyempurnaan yang Efisien Parameter untuk Model Bahasa Besar MultiModal ( 2024.06.07 )
Penyanyi: Rantai Pemikiran Multimodal MLLM yang Menginspirasi ( 2024.04.24 )
nicolay-r di SemEval-2024 Tugas 3: Menggunakan Flan-T5 untuk Menalar Penyebab Emosi dalam Percakapan dengan Rantai Pemikiran pada Keadaan Emosi ( 2024.04.04 )
Visualisasi Pemikiran Menimbulkan Penalaran Spasial dalam Model Bahasa Besar ( 2024.04.04 )
Bisakah Model Bahasa Kecil Membantu Model Bahasa Besar Bernalar Lebih Baik?: Rantai Pemikiran yang Dipandu LM ( 2024.04.04 )
Visual CoT: Melepaskan Penalaran Rantai Pemikiran dalam Model Bahasa Multi-Modal ( 2024.03.25 )
Pendekatan Rantai Pemikiran yang Mendorong dengan LLM untuk Mengevaluasi Respons Penilaian Formatif Siswa dalam Sains ( 2024.03.21 )
NavCoT: Meningkatkan Navigasi Visi dan Bahasa Berbasis LLM melalui Pembelajaran Penalaran Terurai ( 2024.03.12 )
ERA-CoT: Meningkatkan Rantai Pemikiran melalui Analisis Hubungan Entitas ( 2024.03.11 )
Pelatihan Konsistensi Bias-Augmented Mengurangi Penalaran Bias dalam Rantai Pemikiran ( 2024.03.08 )
Daftar makalah lengkap? untuk "Rantai Pemikiran"?
LaMDA: Penyempurnaan Model Besar melalui Adaptasi Dimensi Rendah yang Terdekomposisi Secara Spektral ( 2024.06.18 )
Dampak Inisialisasi pada Dinamika Penyempurnaan LoRA ( 2024.06.12 )
Studi Empiris tentang Penyempurnaan yang Efisien Parameter untuk Model Bahasa Besar MultiModal ( 2024.06.07 )
Memanfaatkan Token Visual untuk Konteks Teks yang Diperluas dalam Pembelajaran Multi-Modal ( 2024.06.04 )
Belajar grok: Munculnya pembelajaran dalam konteks dan komposisi keterampilan dalam tugas aritmatika modular ( 2024.06.04 )
Konteks Panjang Tidak Panjang Sama Sekali: Pencari Data Ketergantungan Panjang untuk Model Bahasa Besar ( 28.05.2024 )
Penyetelan Cepat yang Efisien dengan Proyeksi Multi-Ruang dan Penggabungan Cepat ( 2024.05.19 )
MAML-en-LLM: Pelatihan Meta Agnostik Model LLM untuk Peningkatan Pembelajaran Dalam Konteks ( 2024.05.19 )
Meningkatkan Keberagaman Generasi Akal Sehat dengan Model Bahasa Besar melalui Pembelajaran Dalam Konteks ( 25.04.2024 )
Garis Dasar Acak yang Lebih Kuat untuk Pembelajaran Dalam Konteks ( 2024.04.19 )
Daftar makalah lengkap? untuk "Pembelajaran Dalam Konteks"?
Campuran Pakar LoRA yang Ditambah Pengambilan untuk Pembelajaran Mesin yang Dapat Diunggah ( 24.06.2024 )
Meningkatkan Sistem RAG: Survei Strategi Optimasi Kinerja dan Skalabilitas ( 2024.06.04 )
Meningkatkan Kekokohan Kebisingan Model Bahasa Retrieval-Augmented dengan Pelatihan Adversarial Adaptif ( 2024.05.31 )
Mempercepat Inferensi Generasi Retrieval-Augmented melalui Seleksi Konteks Jarang ( 25.05.2024 )
DocReLM: Menguasai Pengambilan Dokumen dengan Model Bahasa ( 2024.05.19 )
UniRAG: Augmentasi Pengambilan Universal untuk Model Bahasa Besar Multi-Modal ( 2024.05.16 )
ChatHuman: Pemahaman Manusia 3D Berbasis Bahasa dengan Penalaran Alat yang Ditambah Pengambilan ( 2024.05.07 )
ALASAN: Tolok ukur untuk Pengambilan dan Kutipan Otomatis Kalimat Ilmiah menggunakan LLM Publik dan Kepemilikan ( 2024.05.03 )
Dorongan Superposisi: Meningkatkan dan Mempercepat Generasi Augmented Pengambilan ( 2024.04.10 )
Mengurai Simpul: Menjalin Pengetahuan yang Bertentangan dan Keterampilan Penalaran dalam Model Bahasa Besar ( 2024.04.04 )
Daftar makalah lengkap? untuk "Pengambilan Generasi Augmented"?
CELLO: Evaluasi Kausal Model Bahasa Visi Besar ( 27.06.2024 )
PrexSaya! Eksplorasi Cepat Skala Besar LLM Sumber Terbuka untuk Terjemahan Mesin dan Evaluasi Peringkasan ( 26.06.2024 )
Meninjau Kembali Evaluasi Pemahaman Ekspresi Merujuk di Era Model Multimodal Besar ( 24.06.24 2024 )
OR-Bench: Tolok Ukur Penolakan Berlebihan untuk Model Bahasa Besar ( 2024.05.31 )
TimeChara: Mengevaluasi Halusinasi Karakter Point-in-Time dari Model Bahasa Besar Role-Playing ( 28.05.2024 )
Bias Halus Membutuhkan Pengukuran yang Lebih Halus: Metrik Ganda untuk Mengevaluasi Bias Representatif dan Afinitas dalam Model Bahasa Besar ( 23.05.2024 )
HW-GPT-Bench: Tolok Ukur Arsitektur Sadar Perangkat Keras untuk Model Bahasa ( 2024.05.16 )
LLM Multimodal Berjuang dengan Analisis Jaringan Visual Dasar: Tolok Ukur VNA ( 2024.05.10 )
Vibe-Eval: Rangkaian evaluasi keras untuk mengukur kemajuan model bahasa multimodal ( 2024.05.03 )
Evaluasi Kausal Model Bahasa ( 2024.05.01 )
Daftar makalah lengkap? untuk "Evaluasi & Keandalan"?
Metode Pembelajaran Penguatan Mendalam Multi-Agen Kooperatif untuk Jaringan Komputasi Tepi Seluler berbantuan UAV ( 2024.07.03 )
Pembelajaran Simbolik Memungkinkan Agen Berkembang Mandiri ( 26.06.2024 )
Serangan Musuh terhadap Agen Multimoda ( 18.06.2024 )
DigiRL: Melatih Agen Pengendali Perangkat di Alam Liar dengan Pembelajaran Penguatan Otonom ( 2024.06.14 )
Mengubah Data yang Dapat Dipakai menjadi Wawasan Kesehatan menggunakan Agen Model Bahasa Besar ( 10.06.2024 )
Mimpi neuromorfik: Jalur menuju pembelajaran yang efisien dalam agen buatan ( 24.05.2024 )
Menyempurnakan Model Bahasa Visi Besar sebagai Agen Pengambil Keputusan melalui Pembelajaran Penguatan ( 16.05.2024 )
Mempelajari Komunikasi Multi-Agen dari Perspektif Pemodelan Grafik ( 2024.05.14 )
Smurf: Memanfaatkan Banyak Agen Kemahiran dengan Efisiensi Konteks untuk Perencanaan Alat ( 2024.05.09 )
Mengungkap Disparitas Penanganan Tugas Web Antara Manusia dan Agen Web ( 2024.05.07 )
Daftar makalah lengkap? untuk "Agen"?
InternLM-XComposer-2.5: Model Bahasa Visi Besar Serbaguna yang Mendukung Input dan Output Kontekstual Panjang ( 2024.07.03 )
LLaRA: Meningkatkan Data Pembelajaran Robot untuk Kebijakan Bahasa Penglihatan ( 28.06.2024 )
Web2Code: Kumpulan Data dan Kerangka Evaluasi Halaman Web-ke-Kode Berskala Besar untuk LLM Multimodal ( 2024.06.28 )
LLaVolta: Model Multi-modal yang Efisien melalui Kompresi Konteks Visual Berdasarkan Tahap ( 28.06.2024 )
Cambrian-1: Eksplorasi LLM Multimodal yang Sepenuhnya Terbuka dan Berpusat pada Visi ( 24.06.24 2024 )
VoCo-LLaMA: Menuju Kompresi Penglihatan dengan Model Bahasa Besar ( 2024.06.18 )
Melampaui LLaVA-HD: Menyelami Model Multimoda Besar Resolusi Tinggi ( 2024.06.12 )
Studi Empiris tentang Penyempurnaan yang Efisien Parameter untuk Model Bahasa Besar MultiModal ( 2024.06.07 )
Memanfaatkan Token Visual untuk Konteks Teks yang Diperluas dalam Pembelajaran Multi-Modal ( 2024.06.04 )
DeCo: Memisahkan Kompresi Token dari Abstraksi Semantik dalam Model Bahasa Besar Multimodal ( 2024.05.31 )
Daftar makalah lengkap? untuk "Permintaan Multimodal"?
IncogniText: Anonimisasi Teks Bersyarat yang Meningkatkan Privasi melalui Pengacakan Atribut Pribadi berbasis LLM ( 2024.07.03 )
Web2Code: Kumpulan Data dan Kerangka Evaluasi Halaman Web-ke-Kode Berskala Besar untuk LLM Multimodal ( 2024.06.28 )
OMG-LLaVA: Menjembatani Penalaran dan Pemahaman Tingkat Gambar, Tingkat Objek, Tingkat Piksel ( 27.06.2024 )
Optimasi Mesin Pencari Adversarial untuk Model Bahasa Besar ( 26.06.2024 )
VideoLLM-online: Model Bahasa Besar Video Online untuk Video Streaming ( 2024.06.17 )
Mengatur Status Tersembunyi Memungkinkan Pembelajaran Model Penghargaan yang Dapat Digeneralisasikan untuk LLM ( 2024.06.14 )
Model Autoregresif Mengalahkan Difusi: Llama untuk Pembuatan Gambar yang Dapat Diskalakan ( 2024.06.10 )
Model bahasa meniru profil kognitif tertentu: Investigasi tentang bagaimana ukuran prediktabilitas berinteraksi dengan perbedaan individu ( 2024.06.07 )
PaCE: Rekayasa Konsep Pelit untuk Model Bahasa Besar ( 2024.06.06 )
Yuan 2.0-M32: Campuran Pakar dengan Router Perhatian ( 28.05.2024 )
Daftar makalah lengkap? untuk "Aplikasi Cepat"?
TeoremaLlama: Mengubah LLM Tujuan Umum menjadi Pakar Lean4 ( 2024.07.03 )
Pemahaman Bentuk 3D Pejalan Kaki untuk Identifikasi Ulang Orang melalui Pembelajaran Multi-Tampilan ( 2024.07.01 )
Penghapusan Token sebagai Jejak Item Kosakata Implisit di LLM ( 2024.06.28 )
OMG-LLaVA: Menjembatani Penalaran dan Pemahaman Tingkat Gambar, Tingkat Objek, Tingkat Piksel ( 27.06.2024 )
Masalah Mendasar Dengan Pengeditan Model: Bagaimana Seharusnya Revisi Keyakinan Rasional Bekerja di LLM? ( 27.06.2024 )
Model Dunia yang Efisien dengan Tokenisasi Sadar Konteks ( 27.06.2024 )
Kekokohan LLM yang Luar Biasa: Tahapan Inferensi? ( 27.06.2024 )
ResumeAtlas: Meninjau Kembali Klasifikasi Resume dengan Kumpulan Data Skala Besar dan Model Bahasa Besar ( 2024.06.26 )
AITTI: Pembelajaran Token Inklusif Adaptif untuk Pembuatan Teks-ke-Gambar ( 2024.06.18 )
Mengungkap Model Bahasa Visi Bebas Encoder ( 17.06.2024 )
Daftar makalah lengkap? untuk "Model Fondasi"?
Model bahasa besar (LLM) menjadi teknologi revolusioner yang membentuk perkembangan zaman kita. Pengembang dapat membuat aplikasi yang sebelumnya hanya mungkin ada dalam imajinasi kita dengan membangun LLM. Namun, penggunaan LLM ini sering kali disertai dengan hambatan teknis tertentu, dan bahkan pada tahap perkenalan, orang mungkin terintimidasi oleh teknologi mutakhir: Apakah Anda memiliki pertanyaan seperti berikut?
Jika ada tutorial yang dapat diakses oleh semua audiens, tidak hanya profesional ilmu komputer, tutorial tersebut akan memberikan panduan terperinci dan komprehensif untuk memulai dan mengoperasikan dengan cepat dalam waktu singkat, yang pada akhirnya mencapai tujuan untuk dapat menggunakan LLM secara fleksibel. dan kreatif untuk membangun program yang mereka impikan. Dan sekarang, hanya untuk Anda: panduan pemula Langchain terinci dan komprehensif, bersumber dari situs resmi langchain tetapi dengan penyesuaian konten lebih lanjut, disertai dengan contoh kode paling detail dan beranotasi, mengajarkan kode baris demi baris dan kalimat demi kalimat ke semua penonton.
Klik disini? untuk mengikuti tur singkat memulai LLM.
Repo ini dikelola oleh EgoAlpha Lab. Pertanyaan dan diskusi dipersilakan melalui [email protected]
.
Kami bersedia untuk terlibat dalam diskusi dengan teman-teman dari komunitas akademis dan industri, dan bersama-sama mengeksplorasi perkembangan terkini dalam rekayasa cepat dan pembelajaran dalam konteks.
Terima kasih kepada mahasiswa PhD dari EgoAlpha Lab dan pekerja lain yang berpartisipasi dalam repo ini. Kami akan meningkatkan proyek ini pada masa tindak lanjut dan menjaga komunitas ini dengan baik. Kami juga ingin mengucapkan terima kasih yang tulus kepada penulis sumber daya yang relevan. Upaya Anda telah memperluas wawasan kami dan memungkinkan kami melihat dunia yang lebih indah.