Bermain dengan LLM
Bagikan cara melatih dan mengevaluasi model bahasa besar, dan membangun aplikasi LLM menarik berdasarkan RAG, Agen, dan Rantai.
Siap digunakan |. Saya kodekan ini jadi Anda tidak perlu melakukannya!
- Mistral-8x7b-Instruct mengeluarkan Format Json secara stabil, dipasangkan dengan tata bahasa Llamacpp
- Mistral-8x7b-Instruksikan Agen CoT, Pikirkan langkah demi langkah
- Mistral-8x7b-Instruksikan ReAct Agent dengan panggilan alat
- Llama3-8b-Instruksikan, transformator, vLLM dan Llamacpp
- Llama3-8b-Instruksikan, CoT dengan vLLM
- Llama3-8b-Instruct, implementasi ReAct murni dalam bahasa Mandarin dengan panggilan alat
- Chinese-Llama3-8b, penyempurnaan DPO membuat Llama3 lebih bersedia berbicara bahasa Mandarin
- llama-cpp-convert-GGUF, ubah kuantifikasi model menjadi format GGUF dan unggah pelukan
- LanjutanReAct
?LLM mendalam |. Pra-pelatihan, Penyempurnaan, RLHF dan ?>
- qlora-menyempurnakan-Baichuan-7B
Tampilan kasus
Campuran 8x7b Bereaksi | Llama3-8b Bereaksi |
---|
| |