AnythingLLM: Aplikasi AI lengkap yang Anda cari.
Ngobrol dengan dokumen Anda, gunakan Agen AI, dapat dikonfigurasi secara hiper, multi-pengguna, & tidak perlu pengaturan yang membuat frustrasi.
| | Dokumen | Mesin Virtual yang Dihosting
Bahasa Inggris · 简体中文 · 日本語
Apa punLLM untuk desktop (Mac, Windows, & Linux)! Unduh Sekarang
Aplikasi tumpukan penuh yang memungkinkan Anda mengubah dokumen, sumber daya, atau konten apa pun menjadi konteks yang dapat digunakan oleh LLM mana pun sebagai referensi selama mengobrol. Aplikasi ini memungkinkan Anda memilih LLM atau Database Vektor mana yang ingin Anda gunakan serta mendukung manajemen dan izin multi-pengguna.
AnythingLLM adalah aplikasi full-stack di mana Anda dapat menggunakan LLM komersial siap pakai atau LLM sumber terbuka populer dan solusi vectorDB untuk membangun ChatGPT pribadi tanpa kompromi yang dapat Anda jalankan secara lokal serta dihosting dari jarak jauh dan dapat mengobrol dengan cerdas dengan dokumen apa pun yang Anda berikan.
AnythingLLM membagi dokumen Anda menjadi objek yang disebut workspaces
. Ruang Kerja berfungsi sangat mirip dengan thread, namun dengan tambahan containerisasi dokumen Anda. Ruang kerja dapat berbagi dokumen, namun tidak berkomunikasi satu sama lain sehingga Anda dapat menjaga konteks setiap ruang kerja tetap bersih.
Model Bahasa Besar (LLM):
Model penyemat:
Model Transkripsi Audio:
Dukungan TTS (teks-ke-ucapan):
Dukungan STT (ucapan-ke-teks):
Basis Data Vektor:
Monorepo ini terdiri dari tiga bagian utama:
frontend
: Frontend viteJS + React yang dapat Anda jalankan untuk dengan mudah membuat dan mengelola semua konten Anda yang dapat digunakan LLM.server
: Server ekspres NodeJS untuk menangani semua interaksi dan melakukan semua manajemen vectorDB dan interaksi LLM.collector
: Server ekspres NodeJS yang memproses dan mem-parsing dokumen dari UI.docker
: Instruksi Docker dan proses pembuatan + informasi untuk membangun dari sumber.embed
: Submodul untuk pembuatan & pembuatan widget penyematan web.browser-extension
: Submodul untuk ekstensi browser chrome. Mintplex Labs & komunitas memelihara sejumlah metode penerapan, skrip, dan templat yang dapat Anda gunakan untuk menjalankan AnythingLLM secara lokal. Lihat tabel di bawah untuk membaca cara menerapkan pada lingkungan pilihan Anda atau menerapkan secara otomatis.
Buruh pelabuhan | AWS | GCP | Samudera Digital | Render.com |
---|---|---|---|---|
![]() | ![]() |
Kereta Api | RepoCloud | Elestio |
---|---|---|
atau atur instance produksi AnythingLLM tanpa Docker →
yarn setup
Untuk mengisi file .env
yang diperlukan, Anda memerlukan setiap bagian aplikasi (dari root repo).server/.env.development
terisi atau semuanya tidak akan berjalan dengan baik.yarn dev:server
Untuk mem-boot server secara lokal (dari root repo).yarn dev:frontend
Untuk mem-boot frontend secara lokal (dari root repo).yarn dev:collector
Untuk kemudian menjalankan kolektor dokumen (dari root repo).Pelajari tentang dokumen
Pelajari tentang caching vektor
AnythingLLM oleh Mintplex Labs Inc berisi fitur telemetri yang mengumpulkan informasi penggunaan anonim.
Kami menggunakan informasi ini untuk membantu kami memahami bagaimana AnythingLLM digunakan, untuk membantu kami memprioritaskan pekerjaan pada fitur baru dan perbaikan bug, dan untuk membantu kami meningkatkan kinerja dan stabilitas AnythingLLM.
Setel DISABLE_TELEMETRY
di server atau pengaturan docker .env Anda ke "true" untuk menyisih dari telemetri. Anda juga dapat melakukan ini dalam aplikasi dengan membuka sidebar > Privacy
dan menonaktifkan telemetri.
Kami hanya akan melacak detail penggunaan yang membantu kami membuat keputusan produk dan peta jalan, khususnya:
Anda dapat memverifikasi klaim ini dengan menemukan semua lokasi panggilan Telemetry.sendTelemetry
. Selain itu, peristiwa ini ditulis ke log keluaran sehingga Anda juga dapat melihat data spesifik yang dikirim - jika diaktifkan. Tidak ada IP atau informasi identitas lainnya yang dikumpulkan. Penyedia Telemetri adalah PostHog - layanan pengumpulan telemetri sumber terbuka.
Lihat semua peristiwa telemetri dalam kode sumber
<issue number>-<short name>
Hak Cipta © 2024 Mintplex Labs.
Proyek ini berlisensi MIT.