Bahasa Inggris |
Akses model multi-platform, format output yang dapat diskalakan, dan ganda, plug-in robot yang menyediakan layanan obrolan model bahasa besar.
Status Proyek: Mantap Dicari ke Versi Resmi 1.0 (saat ini memasuki tahap kandidat rilis)
Preset | Mode plug-in & output streaming | Output rendering gambar |
---|---|---|
Kami dapat menginstal plug-in ini langsung di bawah Koishi untuk menggunakan fungsi dasar tanpa konfigurasi tambahan.
Baca dokumen ini untuk mempelajari lebih lanjut.
Kami saat ini mendukung model/platform berikut:
Model/Platform | Metode akses | ciri | Hal -hal yang perlu diperhatikan |
---|---|---|---|
Openai | Klien Lokal, Akses API Resmi | Kepribadian yang Dapat Disesuaikan, Dukungan Mode Plug-In/Browsing dan Mode Obrolan Lainnya | Akses API dibebankan |
Azure Openai | Klien Lokal, Akses API Resmi | Kepribadian yang Dapat Disesuaikan, Dukungan Mode Plug-In/Browsing dan Mode Obrolan Lainnya | Akses API dibebankan |
Google Gemini | Klien Lokal, Akses API Resmi | Kecepatan cepat, kinerja melampaui GPT-3.5 | Perlu memiliki akun akses Gemini, dan mungkin menagih |
Claude API | Klien Lokal, Akses API Resmi | Konteks yang sangat besar, dalam kebanyakan kasus, dapat melebihi GPT 3.5, membutuhkan kunci API, biaya | Mungkin mahal dan tidak mendukung panggilan fungsi |
Pertanyaan Tongyi Qian | Klien Lokal, Akses API Resmi | Ali menghasilkan model domestik dengan kuota gratis | Efek pengukuran aktual sedikit lebih baik daripada Zhishu |
Kebijaksanaan | Klien Lokal, Akses API Resmi | Chatglm, pendatang baru bisa mendapatkan kuota token gratis | Efek uji aktual sedikit lebih baik daripada Iflytek Spark |
Iflytek Spark | Klien Lokal, Akses API Resmi | Model domestik, pendatang baru bisa mendapatkan kuota token gratis | Efek yang diukur aktual kira -kira sama dengan GPT 3.5 |
Kata -kata Wen Xin | Klien Lokal, Akses API Resmi | Model Model Seri Baidu | Efek uji aktual sedikit lebih buruk daripada Iflytek Spark |
HUNYUAN BIG MODEL | Klien Lokal, Akses API Resmi | Serangkaian model besar tencent | Efek uji aktual lebih baik dari Wen Xinyiyan |
Ollama | Klien Lokal, Akses API Dibangun | Koleksi model open source terkenal, mendukung penyebaran hibrida CPU/GPU, dapat dibangun secara lokal | Anda perlu membangun API backend Anda sendiri dan memerlukan konfigurasi tertentu |
GPT gratis | Klien Lokal, Akses API Resmi | Penerusan lokal menggunakan model GPT dari situs web lain, proyek secara otomatis mengonfigurasi situs web, dll. Tanpa pendaftaran manual diperlukan | Mungkin gagal kapan saja dan menjadi tidak stabil |
Chatglm | Klien lokal, akses API backend sendiri | Dapat dibangun secara lokal, pembulatan bebas dari uang | Anda perlu membangun API backend Anda sendiri, yang membutuhkan konfigurasi tertentu. |
Rwkv | Klien Lokal, Akses API Dibangun | Model open source terkenal, dapat dibangun secara lokal | Anda perlu membangun API backend Anda sendiri dan memerlukan konfigurasi tertentu |
Kami mendukung model untuk memberikan kemampuan pencarian jaringan:
Dimulai dengan versi 1.0.0-alpha.10
, kami menggunakan preset yang lebih dapat disesuaikan. Preset kepribadian baru menggunakan YAML sebagai file konfigurasi.
Anda dapat mengklik di sini untuk melihat file kepribadian kami yang dilengkapi dengan default: catgirl.yml
Jalur folder preset default kami adalah你当前运行插件的koishi 目录的路径+/data/chathub/presets
.
Semua file preset dimuat dari folder di atas. Oleh karena itu, Anda dapat dengan bebas menambahkan dan mengedit file preset di folder ini dan kemudian menggunakan perintah untuk beralih preset kepribadian.
Untuk informasi lebih lanjut, silakan lihat dokumen ini.
Jalankan instruksi berikut pada proyek template Koishi apa pun untuk mengkloning chatluna:
# yarn
yarn clone ChatLunaLab/chatluna
# npm
npm run clone ChatLunaLab/chatluna
Anda dapat mengganti ChatLunaLab/chatluna-koishi
dengan alamat proyek Anda sendiri setelah fork.
Kemudian edit file tsconfig.json
di direktori root proyek template dan tambahkan jalur proyek chatluna di compilerOptions.paths
.
{
"extends" : " ./tsconfig.base " ,
"compilerOptions" : {
"baseUrl" : " . " ,
"paths" : {
"koishi-plugin-chatluna-*" : [ " external/chatluna/packages/*/src " ]
}
}
}
Karena proyek itu sendiri rumit, penggunaan awal harus dibangun sekali.
# yarn
yarn workspace @root/chatluna-koishi build
# npm
npm run build -w @root/chatluna-koishi
Menyelesaikan! Sekarang Anda dapat memulai proyek template dengan yarn dev
atau npm run dev
di proyek root dan mengembangkan chatluna dua kali.
Meskipun Koishi mendukung Modul Hot Replacement (HMR), proyek ini mungkin tidak sepenuhnya kompatibel.
Jika Anda memiliki bug ketika Anda menggunakan HMR untuk mengembangkan proyek ini, silakan angkat masalah dan ikuti langkah -langkah di atas untuk membangun kembali proyek dan restart Koishi untuk mencoba memperbaikinya.
Saat ini, kapasitas produksi tim proyek Chatluna sangat langka, dan tidak ada lagi kapasitas produksi untuk mencapai tujuan berikut:
Selamat datang untuk mengirimkan permintaan tarik atau diskusikan, dan kontribusi Anda sangat disambut!
Proyek ini dikembangkan oleh Chatlunalab.
Chatluna (selanjutnya disebut sebagai proyek ini) adalah kerangka kerja robot dialog berdasarkan model bahasa besar. Kami berkomitmen untuk bekerja dengan komunitas open source untuk mempromosikan pengembangan teknologi model skala besar. Kami sangat meminta pengembang dan pengguna lain untuk mematuhi perjanjian open source untuk memastikan bahwa kerangka kerja dan kode proyek ini (dan turunan lain berdasarkan proyek ini yang dipromosikan oleh masyarakat) dan derivatif terkait tidak digunakan untuk tujuan apa pun yang dapat menyebabkan kerusakan pada negara dan masyarakat, serta layanan yang belum dinilai dan terdaftar.
Proyek ini tidak secara langsung memberikan dukungan untuk layanan kecerdasan buatan generatif, dan pengguna perlu mendapatkan API algoritma yang digunakan dari organisasi atau individu yang menyediakan layanan intelijen buatan produksi.
Jika Anda telah menggunakan proyek ini, silakan ikuti undang -undang dan peraturan daerah setempat dan gunakan algoritma layanan intelijen buatan produksi yang tersedia di daerah setempat.
Proyek ini tidak bertanggung jawab atas hasil yang dihasilkan oleh algoritma, dan semua hasil dan operasi adalah tanggung jawab pengguna.
Penyimpanan informasi yang relevan dari proyek ini semuanya bersumber oleh pengguna, dan proyek itu sendiri tidak memberikan penyimpanan informasi langsung.
Proyek ini tidak memikul risiko dan tanggung jawab yang timbul dari keamanan data, risiko opini publik yang disebabkan oleh pengguna atau penyalahgunaan, penyalahgunaan, penyebaran, atau penggunaan model apa pun yang tidak tepat.
Proyek ini juga merujuk pada proyek open source lainnya saat menulisnya, dan terima kasih khusus untuk proyek -proyek berikut:
Koishi-plugin-Openai
Node-chatgpt-API
Poe-API
Penyair
Chathub
Terima kasih kepada JetBrains karena telah menyediakan proyek ini dengan lisensi open source gratis untuk IDE seperti Webstorm.