Open WebUI는 완전히 오프라인으로 작동하도록 설계된 확장 가능하고 기능이 풍부하며 사용자 친화적인 자체 호스팅 WebUI입니다. Ollama 및 OpenAI 호환 API를 포함한 다양한 LLM 실행기를 지원합니다. 자세한 내용은 Open WebUI 설명서를 확인하세요.
? 손쉬운 설정 : :ollama
및 :cuda
태그가 지정된 이미지를 모두 지원하여 번거로움 없는 경험을 위해 Docker 또는 Kubernetes(kubectl, kustomize 또는 helm)를 사용하여 원활하게 설치합니다.
? Ollama/OpenAI API 통합 : Ollama 모델과 함께 다양한 대화를 할 수 있도록 OpenAI 호환 API를 손쉽게 통합합니다. OpenAI API URL을 사용자 정의하여 LMStudio, GroqCloud, Mistral, OpenRouter 등과 연결하세요.
? Pipelines, Open WebUI 플러그인 지원 : Pipelines Plugin Framework를 사용하여 사용자 지정 논리와 Python 라이브러리를 Open WebUI에 원활하게 통합합니다. Pipelines 인스턴스를 시작하고 OpenAI URL을 Pipelines URL로 설정하고 무한한 가능성을 탐색해 보세요. 그 예로는 함수 호출 , 액세스 제어를 위한 사용자 속도 제한 , Langfuse와 같은 도구를 사용한 사용 모니터링 , 다국어 지원을 위한 LibreTranslate를 사용한 실시간 번역 , 독성 메시지 필터링 등이 있습니다.
? 반응형 디자인 : 데스크톱 PC, 노트북, 모바일 장치 전반에서 원활한 경험을 즐겨보세요.
? 모바일용 PWA(프로그레시브 웹 앱) : PWA를 통해 모바일 장치에서 네이티브 앱과 같은 경험을 즐기세요. 로컬 호스트에서 오프라인 액세스와 원활한 사용자 인터페이스를 제공합니다.
✒️? 전체 Markdown 및 LaTeX 지원 : 풍부한 상호 작용을 위한 포괄적인 Markdown 및 LaTeX 기능으로 LLM 경험을 향상하세요.
?? 핸즈프리 음성/영상 통화 : 통합된 핸즈프리 음성/영상 통화 기능으로 원활한 커뮤니케이션을 경험해 보다 역동적이고 대화형 채팅 환경을 구현하세요.
?️ 모델 빌더 : 웹 UI를 통해 Ollama 모델을 쉽게 생성할 수 있습니다. Open WebUI 커뮤니티 통합을 통해 사용자 정의 캐릭터/에이전트를 생성 및 추가하고, 채팅 요소를 사용자 정의하고, 모델을 쉽게 가져올 수 있습니다.
? 기본 Python 함수 호출 도구 : 도구 작업 공간에 내장된 코드 편집기 지원을 통해 LLM을 향상하세요. 순수 Python 함수를 추가하기만 하면 BYOF(Bring Your Own Function)를 통해 LLM과 원활하게 통합할 수 있습니다.
? 로컬 RAG 통합 : 획기적인 RAG(Retrieval Augmented Generation) 지원을 통해 채팅 상호 작용의 미래를 살펴보세요. 이 기능은 문서 상호 작용을 채팅 경험에 원활하게 통합합니다. 문서를 채팅에 직접 로드하거나 문서 라이브러리에 파일을 추가하여 쿼리 전에 #
명령을 사용하여 쉽게 액세스할 수 있습니다.
? RAG용 웹 검색 : SearXNG
, Google PSE
, Brave Search
, serpstack
, serper
, Serply
, DuckDuckGo
, TavilySearch
및 SearchApi
와 같은 공급자를 사용하여 웹 검색을 수행하고 결과를 채팅 환경에 직접 삽입합니다.
? 웹 검색 기능 : #
명령 뒤에 URL을 사용하여 웹사이트를 채팅 환경에 원활하게 통합합니다. 이 기능을 사용하면 웹 콘텐츠를 대화에 직접 통합하여 상호 작용의 풍부함과 깊이를 높일 수 있습니다.
? 이미지 생성 통합 : AUTOMATIC1111 API 또는 ComfyUI(로컬) 및 OpenAI의 DALL-E(외부)와 같은 옵션을 사용하여 이미지 생성 기능을 원활하게 통합하여 동적 시각적 콘텐츠로 채팅 경험을 풍부하게 합니다.
⚙️ 다양한 모델 대화 : 최적의 응답을 위해 다양한 모델의 고유한 강점을 활용하여 동시에 다양한 모델과 쉽게 소통할 수 있습니다. 다양한 모델 세트를 동시에 활용하여 경험을 향상하세요.
? 역할 기반 액세스 제어(RBAC) : 제한된 권한으로 보안 액세스를 보장합니다. 승인된 개인만이 귀하의 Ollama에 접근할 수 있으며 독점적인 모델 생성/가져오기 권한은 관리자에게 있습니다.
?? 다국어 지원 : 국제화(i18n) 지원을 통해 원하는 언어로 Open WebUI를 경험해 보세요. 지원 언어 확장에 동참하세요! 우리는 적극적으로 기여자를 찾고 있습니다!
? 지속적인 업데이트 : 우리는 정기적인 업데이트, 수정 사항 및 새로운 기능을 통해 Open WebUI를 개선하기 위해 최선을 다하고 있습니다.
Open WebUI의 기능에 대해 더 자세히 알고 싶으십니까? 포괄적인 개요를 보려면 Open WebUI 문서를 확인하세요!
맞춤형 모델 파일을 검색, 다운로드 및 탐색할 수 있는 형제 프로젝트인 Open WebUI 커뮤니티를 탐색하는 것을 잊지 마십시오. Open WebUI 커뮤니티는 Open WebUI와의 채팅 상호 작용을 향상시킬 수 있는 다양하고 흥미로운 가능성을 제공합니다! ?
Open WebUI는 Python 패키지 설치 프로그램인 pip를 사용하여 설치할 수 있습니다. 계속하기 전에 호환성 문제를 방지하기 위해 Python 3.11을 사용하고 있는지 확인하세요.
Open WebUI 설치 : 터미널을 열고 다음 명령을 실행하여 Open WebUI를 설치합니다.
pip install open-webui
Open WebUI 실행 : 설치 후 다음을 실행하여 Open WebUI를 시작할 수 있습니다.
open-webui serve
그러면 http://localhost:8080에서 액세스할 수 있는 Open WebUI 서버가 시작됩니다.
메모
특정 Docker 환경의 경우 추가 구성이 필요할 수 있습니다. 연결 문제가 발생하면 Open WebUI 문서에 대한 자세한 가이드가 도움을 드릴 준비가 되어 있습니다.
경고
Docker를 사용하여 Open WebUI를 설치할 때 Docker 명령에 -v open-webui:/app/backend/data
포함해야 합니다. 이 단계는 데이터베이스가 올바르게 탑재되었는지 확인하고 데이터 손실을 방지하는 데 매우 중요합니다.
팁
Ollama가 포함된 Open WebUI 또는 CUDA 가속을 활용하려면 :cuda
또는 :ollama
태그가 지정된 공식 이미지를 활용하는 것이 좋습니다. CUDA를 활성화하려면 Linux/WSL 시스템에 Nvidia CUDA 컨테이너 도구 키트를 설치해야 합니다.
Ollama가 컴퓨터에 있는 경우 다음 명령을 사용하세요.
docker run -d -p 3000:8080 --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Ollama가 다른 서버에 있는 경우 다음 명령을 사용하세요.
다른 서버의 Ollama에 연결하려면 OLLAMA_BASE_URL
을 서버의 URL로 변경하세요.
docker run -d -p 3000:8080 -e OLLAMA_BASE_URL=https://example.com -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
Nvidia GPU 지원으로 Open WebUI를 실행하려면 다음 명령을 사용하십시오.
docker run -d -p 3000:8080 --gpus all --add-host=host.docker.internal:host-gateway -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:cuda
OpenAI API만 사용하는 경우 다음 명령을 사용하세요.
docker run -d -p 3000:8080 -e OPENAI_API_KEY=your_secret_key -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:main
이 설치 방법은 Ollama와 함께 Open WebUI를 번들로 제공하는 단일 컨테이너 이미지를 사용하므로 단일 명령을 통해 간소화된 설정이 가능합니다. 하드웨어 설정에 따라 적절한 명령을 선택하십시오.
GPU 지원 : 다음 명령을 실행하여 GPU 리소스를 활용합니다.
docker run -d -p 3000:8080 --gpus=all -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
CPU 전용 : GPU를 사용하지 않는 경우 대신 다음 명령을 사용하십시오.
docker run -d -p 3000:8080 -v ollama:/root/.ollama -v open-webui:/app/backend/data --name open-webui --restart always ghcr.io/open-webui/open-webui:ollama
두 명령 모두 Open WebUI와 Ollama의 내장된 번거로움 없는 설치를 촉진하므로 모든 것을 신속하게 시작하고 실행할 수 있습니다.
설치 후 http://localhost:3000에서 Open WebUI에 액세스할 수 있습니다. 즐기다! ?
Docker가 아닌 기본 설치 방법, Docker Compose, Kustomize 및 Helm을 포함한 다양한 설치 대안을 제공합니다. 포괄적인 지침을 보려면 Open WebUI 문서를 방문하거나 Discord 커뮤니티에 가입하세요.
연결 문제가 발생했나요? 우리의 Open WebUI 문서가 여러분을 도와드립니다. 추가 지원을 받고 활발한 커뮤니티에 참여하려면 Open WebUI Discord를 방문하세요.
연결 문제가 발생하는 경우 WebUI Docker 컨테이너가 컨테이너 내부의 127.0.0.1:11434(host.docker.internal:11434)에 있는 Ollama 서버에 연결할 수 없기 때문에 발생하는 경우가 많습니다. 이 문제를 해결하려면 docker 명령에 --network=host
플래그를 사용하세요. 포트가 3000에서 8080으로 변경되어 http://localhost:8080
링크가 생성됩니다.
Docker 명령 예 :
docker run -d --network=host -v open-webui:/app/backend/data -e OLLAMA_BASE_URL=http://127.0.0.1:11434 --name open-webui --restart always ghcr.io/open-webui/open-webui:main
로컬 Docker 설치를 최신 버전으로 업데이트하려는 경우 Watchtower를 사용하여 업데이트할 수 있습니다.
docker run --rm --volume /var/run/docker.sock:/var/run/docker.sock containrrr/watchtower --run-once open-webui
명령의 마지막 부분에서 open-webui
컨테이너 이름이 다른 경우 해당 이름으로 바꿉니다.
Open WebUI 문서에서 제공되는 마이그레이션 가이드를 확인하세요.
경고
:dev
분기에는 불안정한 최신 기능과 변경 사항이 포함되어 있습니다. 버그나 불완전한 기능이 있을 수 있으므로 위험을 감수하고 사용하세요.
최신 최첨단 기능을 시험해보고 가끔 불안정해도 괜찮다면 다음과 같이 :dev
태그를 사용할 수 있습니다.
docker run -d -p 3000:8080 -v open-webui:/app/backend/data --name open-webui --add-host=host.docker.internal:host-gateway --restart always ghcr.io/open-webui/open-webui:dev
Open WebUI 문서의 로드맵에서 향후 기능을 알아보세요.
이 프로젝트는 MIT 라이선스에 따라 라이선스가 부여됩니다. 자세한 내용은 LICENSE 파일을 참조하세요. ?
질문이나 제안 사항이 있거나 도움이 필요한 경우 문제를 공개하거나 Open WebUI Discord 커뮤니티에 가입하여 저희와 소통하세요! ?
작성자: Timothy Jaeryang Baek - 함께 Open WebUI를 더욱 멋지게 만들어 봅시다! ?