Open WebUI adalah WebUI mandiri yang dapat diperluas, kaya fitur, dan ramah pengguna yang dirancang untuk beroperasi sepenuhnya secara offline. Ini mendukung berbagai pelari LLM, termasuk API yang kompatibel dengan Ollama dan OpenAI. Untuk informasi lebih lanjut, pastikan untuk membaca Dokumentasi Open WebUI kami.
? Penyiapan yang Mudah : Instal dengan lancar menggunakan Docker atau Kubernetes (kubectl, kustomize, atau helm) untuk pengalaman tanpa kerumitan dengan dukungan untuk gambar yang diberi tag :ollama
dan :cuda
.
? Integrasi API Ollama/OpenAI : Integrasikan API yang kompatibel dengan OpenAI dengan mudah untuk percakapan serbaguna bersama model Ollama. Sesuaikan URL API OpenAI untuk ditautkan dengan LMStudio, GroqCloud, Mistral, OpenRouter, dan lainnya .
? Pipelines, Dukungan Plugin Open WebUI : Integrasikan logika kustom dan pustaka Python dengan mulus ke dalam Open WebUI menggunakan Kerangka Plugin Pipelines. Luncurkan instance Pipelines Anda, atur URL OpenAI ke URL Pipelines, dan jelajahi kemungkinan tanpa batas. Contohnya termasuk Pemanggilan Fungsi , Pembatasan Nilai Pengguna untuk mengontrol akses, Pemantauan Penggunaan dengan alat seperti Langfuse, Terjemahan Langsung dengan LibreTranslate untuk dukungan multibahasa, Pemfilteran Pesan Beracun , dan banyak lagi.
? Desain Responsif : Nikmati pengalaman mulus di PC Desktop, Laptop, dan perangkat Seluler.
? Aplikasi Web Progresif (PWA) untuk Seluler : Nikmati pengalaman seperti aplikasi asli di perangkat seluler Anda dengan PWA kami, menyediakan akses offline di localhost dan antarmuka pengguna yang mulus.
✒️? Dukungan Penurunan Harga dan LaTeX Penuh : Tingkatkan pengalaman LLM Anda dengan kemampuan Penurunan Harga dan LaTeX yang komprehensif untuk interaksi yang diperkaya.
?? Panggilan Suara/Video Bebas Genggam : Rasakan komunikasi yang lancar dengan fitur panggilan suara dan video bebas genggam yang terintegrasi, memungkinkan lingkungan obrolan yang lebih dinamis dan interaktif.
?️ Pembuat Model : Membuat model Ollama dengan mudah melalui UI Web. Buat dan tambahkan karakter/agen khusus, sesuaikan elemen obrolan, dan impor model dengan mudah melalui integrasi Komunitas WebUI Terbuka.
? Alat Pemanggil Fungsi Python Asli : Tingkatkan LLM Anda dengan dukungan editor kode bawaan di ruang kerja alat. Bawa Fungsi Anda Sendiri (BYOF) hanya dengan menambahkan fungsi Python murni Anda, memungkinkan integrasi yang lancar dengan LLM.
? Integrasi RAG Lokal : Selami masa depan interaksi obrolan dengan dukungan Retrieval Augmented Generation (RAG) yang inovatif. Fitur ini dengan mulus mengintegrasikan interaksi dokumen ke dalam pengalaman obrolan Anda. Anda dapat memuat dokumen langsung ke dalam obrolan atau menambahkan file ke pustaka dokumen Anda, dengan mudah mengaksesnya menggunakan perintah #
sebelum melakukan kueri.
? Pencarian Web untuk RAG : Lakukan pencarian web menggunakan penyedia seperti SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
dan SearchApi
dan masukkan hasilnya langsung ke pengalaman obrolan Anda.
? Kemampuan Penjelajahan Web : Integrasikan situs web dengan mulus ke dalam pengalaman obrolan Anda menggunakan perintah #
diikuti dengan URL. Fitur ini memungkinkan Anda memasukkan konten web langsung ke dalam percakapan Anda, sehingga meningkatkan kekayaan dan kedalaman interaksi Anda.
? Integrasi Pembuatan Gambar : Menggabungkan kemampuan pembuatan gambar dengan mulus menggunakan opsi seperti API AUTOMATIC1111 atau ComfyUI (lokal), dan DALL-E OpenAI (eksternal), memperkaya pengalaman obrolan Anda dengan konten visual yang dinamis.
⚙️ Percakapan Banyak Model : Terlibat dengan mudah dengan berbagai model secara bersamaan, manfaatkan kekuatan unik mereka untuk respons optimal. Tingkatkan pengalaman Anda dengan memanfaatkan beragam model secara paralel.
? Kontrol Akses Berbasis Peran (RBAC) : Pastikan akses aman dengan izin terbatas; hanya individu yang berwenang yang dapat mengakses Ollama Anda, dan hak pembuatan/penarikan model eksklusif disediakan untuk administrator.
?? Dukungan Multibahasa : Rasakan Open WebUI dalam bahasa pilihan Anda dengan dukungan internasionalisasi kami (i18n). Bergabunglah dengan kami dalam memperluas bahasa yang kami dukung! Kami secara aktif mencari kontributor!
? Pembaruan Berkelanjutan : Kami berkomitmen untuk meningkatkan Open WebUI dengan pembaruan rutin, perbaikan, dan fitur baru.
Ingin mempelajari lebih lanjut tentang fitur Open WebUI? Lihat dokumentasi Open WebUI kami untuk ikhtisar komprehensif!
Jangan lupa untuk menjelajahi proyek saudara kami, Komunitas Open WebUI, tempat Anda dapat menemukan, mengunduh, dan menjelajahi Modelfile yang disesuaikan. Komunitas Open WebUI menawarkan berbagai kemungkinan menarik untuk meningkatkan interaksi obrolan Anda dengan Open WebUI! ?
Open WebUI dapat diinstal menggunakan pip, penginstal paket Python. Sebelum melanjutkan, pastikan Anda menggunakan Python 3.11 untuk menghindari masalah kompatibilitas.
Instal Open WebUI : Buka terminal Anda dan jalankan perintah berikut untuk menginstal Open WebUI:
pip install open-webui
Menjalankan Open WebUI : Setelah instalasi, Anda dapat memulai Open WebUI dengan menjalankan:
open-webui serve
Ini akan memulai server Open WebUI, yang dapat Anda akses di http://localhost:8080
Catatan
Harap dicatat bahwa untuk lingkungan Docker tertentu, konfigurasi tambahan mungkin diperlukan. Jika Anda mengalami masalah koneksi, panduan terperinci kami tentang Dokumentasi Open WebUI siap membantu Anda.
Peringatan
Saat menggunakan Docker untuk menginstal Open WebUI, pastikan untuk menyertakan -v open-webui:/app/backend/data
dalam perintah Docker Anda. Langkah ini penting karena memastikan database Anda terpasang dengan benar dan mencegah hilangnya data.
Tip
Jika Anda ingin menggunakan Open WebUI yang menyertakan Ollama atau akselerasi CUDA, sebaiknya gunakan gambar resmi kami yang diberi tag :cuda
atau :ollama
. Untuk mengaktifkan CUDA, Anda harus menginstal toolkit kontainer Nvidia CUDA di sistem Linux/WSL Anda.
Jika Ollama ada di komputer Anda , gunakan perintah ini:
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Jika Ollama berada di Server Berbeda , gunakan perintah ini:
Untuk terhubung ke Ollama di server lain, ubah OLLAMA_BASE_URL
ke URL server:
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Untuk menjalankan Open WebUI dengan dukungan GPU Nvidia , gunakan perintah ini:
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
Jika Anda hanya menggunakan OpenAI API , gunakan perintah ini:
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Metode instalasi ini menggunakan satu gambar kontainer yang menggabungkan Open WebUI dengan Ollama, memungkinkan pengaturan yang disederhanakan melalui satu perintah. Pilih perintah yang sesuai berdasarkan pengaturan perangkat keras Anda:
Dengan Dukungan GPU : Manfaatkan sumber daya GPU dengan menjalankan perintah berikut:
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Hanya Untuk CPU : Jika Anda tidak menggunakan GPU, gunakan perintah ini:
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
Kedua perintah tersebut memfasilitasi instalasi Open WebUI dan Ollama yang terintegrasi dan tidak merepotkan, memastikan bahwa Anda dapat menjalankan semuanya dengan cepat.
Setelah instalasi, Anda dapat mengakses Open WebUI di http://localhost:3000. Menikmati! ?
Kami menawarkan berbagai alternatif instalasi, termasuk metode instalasi non-Docker asli, Docker Compose, Kustomize, dan Helm. Kunjungi Dokumentasi Open WebUI kami atau bergabunglah dengan komunitas Discord kami untuk mendapatkan panduan komprehensif.
Mengalami masalah koneksi? Dokumentasi WebUI Terbuka kami siap membantu Anda. Untuk bantuan lebih lanjut dan untuk bergabung dengan komunitas dinamis kami, kunjungi Open WebUI Discord.
Jika Anda mengalami masalah koneksi, sering kali hal ini disebabkan oleh kontainer buruh pelabuhan WebUI tidak dapat menjangkau server Ollama di 127.0.0.1:11434 (host.docker.internal:11434) di dalam kontainer . Gunakan tanda --network=host
di perintah buruh pelabuhan Anda untuk mengatasi masalah ini. Perhatikan bahwa port berubah dari 3000 menjadi 8080, menghasilkan tautan: http://localhost:8080
.
Contoh Perintah Docker :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Jika Anda ingin memperbarui instalasi Docker lokal Anda ke versi terbaru, Anda dapat melakukannya dengan Menara Pengawal:
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
Di bagian terakhir perintah, ganti open-webui
dengan nama container Anda jika berbeda.
Periksa Panduan Migrasi kami yang tersedia di Dokumentasi WebUI Terbuka kami.
Peringatan
Cabang :dev
berisi fitur dan perubahan terbaru yang tidak stabil. Gunakan dengan risiko Anda sendiri karena mungkin ada bug atau fitur yang tidak lengkap.
Jika Anda ingin mencoba fitur-fitur terbaru dan tidak keberatan dengan ketidakstabilan yang sesekali terjadi, Anda dapat menggunakan tag :dev
seperti ini:
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Temukan fitur-fitur mendatang pada peta jalan kami di Dokumentasi WebUI Terbuka.
Proyek ini dilisensikan di bawah Lisensi MIT - lihat file LISENSI untuk detailnya. ?
Jika Anda memiliki pertanyaan, saran, atau butuh bantuan, silakan buka masalah atau bergabunglah dengan komunitas Open WebUI Discord kami untuk terhubung dengan kami! ?
Dibuat oleh Timothy Jaeryang Baek - Mari kita jadikan Open WebUI lebih menakjubkan bersama-sama! ?