Proyek Prompt yang ajaib?♂️
Repositori ini berisi sumber daya teknik Prompt yang disaring secara manual, dengan fokus pada Generative Pretrained Transformer (GPT), ChatGPT, PaLM, dan banyak lagi.
Daftar isi
- kertas
- Alat dan kode
- API
- Kumpulan data
- Model
- Detektor konten AI
- mendidik
- video
- buku
- masyarakat
- Bagaimana cara berkontribusi
kertas
?
Teknologi Rekayasa Cepat :
- Metode untuk menyempurnakan proyek Prompt ChatGPT menggunakan direktori Pola Prompt [2023] (Arxiv)
- Pengoptimalan diskrit berbasis gradien untuk penyesuaian dan penemuan cepat [2023] (Arxiv). - Tip umum: Demo menghasilkan rantai pemikiran untuk model bahasa besar [2023] (Arxiv)
- Petunjuk progresif: Pembelajaran model bahasa secara berkelanjutan [2023] (Arxiv)
- Tips Pemrosesan Batch: Inferensi Efisien dengan LLM API [2023] (Arxiv)
- Perintah berkelanjutan untuk memecahkan masalah yang kompleks [2022] (Arxiv)
- Tip Struktural: Menskalakan Pembelajaran Kontekstual ke 1.000 Contoh [2022] (Arxiv)
- Model bahasa besar adalah insinyur cepat tingkat manusia [2022] (Arxiv)
- Tanyakan apa saja kepada saya: Strategi sederhana untuk mendorong model bahasa [2022] (Arxiv)
- Tips agar GPT-3 dapat diandalkan [2022] (Arxiv)
- Tips Penting: Pendekatan Modular untuk Menyelesaikan Tugas Kompleks [2022] (Arxiv)
- PromptChainer: Merangkai perintah model bahasa besar melalui pemrograman visual [2022] (Arxiv)
- Menyelidiki rekayasa petunjuk dalam model difusi [2022] (Arxiv)
- Tunjukkan pekerjaan Anda: Draf kasar perhitungan menengah menggunakan model bahasa [2021] (Arxiv)
- Kiat mengajar untuk menata ulang GPTk [2021] (Arxiv)
- Isyarat yang tertata dengan indah dan penemuannya: Mengatasi sensitivitas urutan isyarat sampel kecil [2021] (Arxiv)
- Kekuatan skala untuk penyesuaian parameter yang cepat dan efisien [2021] (Arxiv)
- Memprogram model bahasa besar: Melampaui paradigma beberapa langkah [2021] (Arxiv) - Penyetelan Awalan: Mengoptimalkan petunjuk berkelanjutan untuk pembuatan [2021] (Arxiv)
Penalaran dan pembelajaran kontekstual :
- Penalaran rantai pemikiran multimodal dalam model bahasa [2023] (Arxiv)
- Setelah dipikir-pikir lagi, kami tidak mengambil jalur berpikir satu langkah! Bias dan Bahaya dalam Zero-shot Inference [2022] (Arxiv)
- ReAct: Sinergi Penalaran dan Tindakan dalam Model Bahasa [2022] (Arxiv)
- Model bahasa adalah pemikir yang rakus: analisis formal yang sistematis terhadap rantai pemikiran [2022] (Arxiv)
- Kemajuan dalam membuat model bahasa lebih baik untuk inferensi [2022] (Arxiv)
- Model bahasa besar adalah pemikir yang tepat [2022] (Arxiv)
- Penalaran seperti pelaksana program [2022] (Arxiv)
- Konsistensi diri meningkatkan penalaran rantai pemikiran dalam model bahasa [2022] (Arxiv)
- Memikirkan kembali peran demonstrasi: Apa yang membuat pembelajaran kontekstual berhasil? [2022] (Arxiv)
- Belajar menjelaskan: Penalaran multimodal untuk Tanya Jawab ilmiah melalui rantai pemikiran [2022] (Arxiv)
- Rantai Pemikiran meminta untuk memperoleh inferensi dalam model bahasa besar [2021] (Arxiv)
- Menghasilkan pengetahuan yang mendorong penalaran yang masuk akal [2021] (Arxiv)
- BERTese: Belajar berkomunikasi dengan BERT [2021] (Acl)
Evaluasi dan tingkatkan model bahasa :
- Model bahasa besar rentan terhadap interferensi dari konteks yang tidak relevan [2023] (Arxiv)
- Merangkak basis pengetahuan internal model bahasa [2023] (Arxiv) - Metode untuk menemukan perilaku model bahasa: Evaluasi penulisan model [2022] (Arxiv) Tautan asli
- Kalibrasi sebelum digunakan: Meningkatkan performa beberapa jepretan model bahasa [2021] (Arxiv) Tautan asli
Penerapan model bahasa :
- Tips untuk mengklasifikasikan meme berbahaya multimodal [2023] (Arxiv) Tautan asli
- Model Bahasa Prompt untuk Sintesis Percakapan Sosial [2023] (Arxiv) Tautan asli
- Akal sehat mendorong generasi percakapan empati yang terkendali [2023] (Arxiv) Tautan asli
- Model Bahasa Berbantuan Program [2023] (Arxiv) Tautan asli
- Penulisan prompt hukum untuk prediksi penilaian hukum multibahasa [2023] (Arxiv) Tautan asli
- Penelitian tentang rekayasa cepat untuk menyelesaikan masalah CS1 menggunakan bahasa alami [2022] (Arxiv) Tautan asli
- Pembuatan plot menggunakan model bahasa terlatih [2022] (Acl) Tautan asli
- AutoPrompt: Menggunakan perintah yang dihasilkan secara otomatis untuk memperoleh pengetahuan dari model bahasa [2020] (Arxiv) Tautan asli
Contoh deteksi dan penanggulangan ancaman :
- Kecerdasan Buatan Konstitusional: Tidak Berbahaya melalui Umpan Balik AI [2022] (Arxiv) Tautan asli
- Abaikan tip sebelumnya: Teknik Serangan untuk Model Bahasa [2022] (Arxiv) Tautan asli
- Teks yang dihasilkan mesin: Survei komprehensif tentang model ancaman dan metode deteksi [2022] (Arxiv) Tautan asli
- Mengevaluasi kerentanan model bahasa terlatih melalui contoh permusuhan buatan tangan [2022] (Arxiv) Tautan asli
- Deteksi toksisitas menggunakan petunjuk yang dihasilkan [2022] (Arxiv) Tautan asli. - Bagaimana kita mengetahui apa yang diketahui model bahasa? [2020] (Mit)
Pembelajaran singkat dan optimalisasi kinerja :
- Promptagator: Pengambilan padat beberapa kali dari 8 contoh [2022] (Arxiv)
- Few-Shot menunjukkan ketidakandalan interpretatif dalam penalaran tekstual [2022] (Arxiv)
- Menjadikan model bahasa terlatih menjadi lebih baik bagi pelajar pemula [2021] (Acl)
- Model bahasa adalah pembelajar beberapa kali [2020] (Arxiv)
Pembuatan teks ke gambar :
- Klasifikasi pengubah petunjuk untuk pembuatan teks-ke-gambar [2022] (Arxiv)
- Pedoman Desain untuk Model Generatif Text-to-Image Rekayasa Cepat [2021] (Arxiv)
- Sintesis gambar resolusi tinggi menggunakan model difusi laten [2021] (Arxiv)
- DALL·E: Membuat gambar dari teks [2021] (Arxiv)
Teks ke musik/pembuatan suara :
- MusicLM: Menghasilkan musik dari teks [2023] (Arxiv)
- ERNIE-Music: Pembuatan musik teks-ke-gelombang menggunakan model difusi [2023] (Arxiv)
- Noise2Music: Pembuatan musik termodulasi teks menggunakan model difusi [2023) (Arxiv)
- AudioLM: Metode pembuatan audio berdasarkan pemodelan bahasa [2023] (Arxiv)
- Make-An-Audio: Pembuatan teks-ke-audio menggunakan model difusi isyarat yang disempurnakan [2023] (Arxiv)
Pembuatan teks ke video :
- Dreamix: Model difusi video untuk editor video universal [2023] (Arxiv). - Penyetelan Video: Penyetelan satu kali model difusi gambar untuk pembuatan teks-ke-video [2022] (Arxiv)
- Kebisingan terhadap musik: pembuatan musik bersyarat teks berdasarkan model difusi [2023] (Arxiv)
- Audio LM: Metode pembuatan model bahasa audio [2023] (Arxiv)
Ringkasan :
- Uji Coba Kopilot dan Kodeks: Suhu Panas, Anjuran Dingin, atau Ilmu Hitam [2022] (Arxiv)
Alat dan kode
?
nama | menggambarkan | Link |
---|
Indeks GPT | Indeks GPT adalah proyek yang terdiri dari sekumpulan struktur data yang dirancang untuk mempermudah bekerja dengan basis pengetahuan eksternal yang besar dengan LLM. | [Github] |
Prompt | Gunakan LLM untuk memecahkan masalah NLP, dan gunakan Promptify untuk dengan mudah menghasilkan berbagai perintah tugas NLP untuk model generatif populer seperti GPT dan PaLM. | [Github] |
Perintah yang Lebih Baik | Uji rangkaian pengujian sebelum mendorong perintah LLM ke produksi | [Github] |
Penjelajah Komposisi Interaktifx | ICE adalah visualisator jejak untuk pustaka Python dan program model bahasa. | [Github] |
LangChainx | Bangun aplikasi menggunakan kombinasi LLM | [Github] |
BukaPrompt | Kerangka kerja sumber terbuka untuk pembelajaran cepat | [Github] |
Mesin Cepat | Repositori ini berisi perpustakaan utilitas NPM untuk membuat dan memelihara perintah model bahasa besar (LLM). | [Github] |
Anjurkan AI | Tempat kerja tingkat lanjut untuk GPT-3 | [Github] |
Sumber Cepat | PromptSource adalah perangkat untuk membuat, berbagi, dan menggunakan perintah bahasa alami. | [Github] |
Sumber Pemikiran | Kerangka kerja bagi mesin untuk berpikir tentang sains | [Github] |
Api
nama | menggambarkan | URL | Berbayar atau sumber terbuka |
---|
OpenAI | GPT-n untuk tugas bahasa alami, Codex untuk menerjemahkan bahasa alami ke dalam kode, dan DALL·E untuk membuat dan mengedit gambar mentah. | [OpenAI] | Membayar |
KohereAI | Cohere menyediakan akses ke model bahasa skala besar yang canggih dan alat pemrosesan bahasa alami melalui API. | [CohereAI] | Membayar |
Antropis | segera hadir | [Antropik] | Membayar |
FLAN-T5XXL | segera hadir | [Wajah Memeluk] | Sumber terbuka |
Kumpulan data
?
nama | menggambarkan | URL |
---|
P3 (Kumpulan Perintah Umum) | P3 (Public Pool of Prompts) adalah kumpulan kumpulan data bahasa Inggris yang diminta yang berisi berbagai tugas NLP. | [Memeluk Wajah] |
Perintah ChatGPT yang Luar Biasa | Repositori ini menyertakan kurasi prompt ChatGPT untuk penggunaan ChatGPT yang lebih baik. | [Github] |
?
nama | menggambarkan | Link |
---|
ObrolanGPT | ObrolanGPT | [OpenAI] |
Naskah kuno | Model Codex adalah turunan dari model GPT-3 kami dan dapat memahami serta menghasilkan kode. Data pelatihannya mencakup bahasa alami dan miliaran baris kode publik di GitHub | [Github] |
Bunga | BigScience Model Bahasa Multibahasa Akses Terbuka Besar Sains Terbuka | [Memeluk Wajah] |
Facebook LLM | OPT-175B adalah model setara GPT-3 yang dilatih Meta. Ini adalah model bahasa terlatih terbesar yang tersedia saat ini, dengan 175 miliar parameter | [Alpa] |
GPT-NeoX | GPT-NeoX-20B, model bahasa autoregresif 20 miliar parameter terlatih | [Memeluk Wajah] |
FLAN-T5XXL | Flan-T5 adalah model yang disetel dengan perintah, artinya model ini tidak menunjukkan perilaku pengaktifan saat perintah diberikan sebagai bagian dari isyarat. | [HuggingFace/Google] |
XLM-RoBERTa-XL | Model XLM-RoBERTa-XL telah dilatih sebelumnya pada data CommonCrawl yang difilter sebesar 2,5 TB, yang berisi 100 bahasa | [Memeluk Wajah] |
GPT-J | Ini adalah model bahasa kausal yang mirip dengan GPT-2 yang dilatih pada kumpulan data Pile | [Memeluk Wajah] |
|. Perintah Menulis |. Kumpulan data besar berisi 300 ribu cerita yang ditulis secara individual dan perintah menulis yang diambil dari forum online (reddit) | [Kaggle] |. Perintah Tengah Perjalanan |. rlhf-pytorch |. Implementasi RLHF (Reinforcement Learning with Human Feedback) dalam arsitektur PaLM. Pada dasarnya ChatGPT, tetapi dengan tambahan PaLM |.[Github] | .GPT-Neo |. |.[Github] |. | .LaMDA-rlhf-pytorch |. Implementasi LaMDA sumber terbuka dari Google, menggunakan PyTorch. Menambahkan RLHF mirip dengan ChatGPT. |.[Github] |.| .RLHF |.Implementasi pembelajaran penguatan melalui umpan balik manusia |.[Github] | .GLM-130B |
Detektor konten AI
?
nama | menggambarkan | URL |
---|
Pengklasifikasi teks AI | Pengklasifikasi Teks AI adalah model GPT yang disesuaikan dengan baik yang dapat memprediksi kemungkinan suatu teks dihasilkan oleh AI dari berbagai sumber seperti ChatGPT. | [OpenAI] |
Detektor keluaran GPT-2 | Ini adalah demonstrasi online RoBERTa yang diimplementasikan berdasarkan ?/Transformers | [Memeluk Wajah] |
Detektor Openai | Pengklasifikasi AI untuk menunjukkan teks yang ditulis oleh AI (pembungkus OpenAI Detector Python) | [GitHub] |
tutorial
Pengantar proyek Prompt
- Rekayasa Cepat 101 - Pendahuluan dan Sumber Daya
- Rekayasa Cepat 101". - Panduan Teknik Cepat oleh SudalaiRajkumar
Panduan Pemula untuk Model Bahasa Generatif
- Panduan ramah pemula untuk model bahasa generatif - Panduan LaMBDA
- AI Generatif berdasarkan Cohere: Bagian 1 - Tip Model
Praktik Terbaik untuk Rekayasa Cepat
- Praktik Terbaik untuk Rekayasa Prompt OpenAI API
- Cara menulis petunjuk yang baik
Panduan Proyek Cepat Lengkap
- Pengantar lengkap untuk proyek Prompt model bahasa besar
- Panduan Teknik Prompt: Cara Mendesain Prompt Terbaik
Aspek teknis yang cepat dari rekayasa
- Tiga prinsip utama rekayasa GPT-3 Prompt
- Kerangka kerja umum untuk proyek ChatGPT Prompt
- Metode pemrograman yang cepat
Sumber daya proyek yang cepat
- Kiat ChatGPT yang Luar Biasa
- 100+ Prompt Difusi Stabil Terbaik
- BUKU CEPAT DALLE
- Buku Masak OpenAI
- Proyek Prompt Microsoft
video
?- Versi lanjutan dari proyek ChatGPT Prompt
- ChatGPT: 5 Tip Teknik Cepat untuk Pemula
- Pemrosesan Bahasa Alami Tingkat Lanjut CMU 2022: Anjuran
- Rekayasa Cepat - karier baru?
- Panduan ChatGPT: Gunakan Perintah yang Lebih Baik untuk Meningkatkan Hasil Anda 10x
- Model Bahasa dan Rekayasa Prompt: Survei Sistematis Metode Prompting di NLP
- Rekayasa Prompt 101: Perintah pelengkapan otomatis, sampel nol, sampel tunggal, dan beberapa sampel
Masyarakat
?
- Perselisihan OpenAI
- Perselisihan PromptsLab
- Pelajari Anjuran
- r/Obrolan Perselisihan GPT
- Perselisihan Tengah Perjalanan
Bagaimana cara berkontribusi
Kami menyambut kontribusi ke daftar ini! Faktanya, itulah alasan utama saya membuatnya - untuk mendorong kontribusi dan mendorong orang untuk berlangganan perubahan agar tetap mengikuti perkembangan baru dan menarik di bidang model bahasa besar (LLM) dan teknik Prompt.
Sebelum berkontribusi, harap luangkan waktu sejenak untuk meninjau pedoman kontribusi kami. Pedoman ini akan membantu memastikan bahwa kontribusi Anda konsisten dengan tujuan kami dan memenuhi standar kualitas dan relevansi kami. Terima kasih atas minat Anda untuk berkontribusi pada proyek ini!
Sumber gambar: docs.cohere.ai