크롬 확장 | 웹/모바일 앱
LLM X는 외부 API 호출을 하지 않습니다. (계속해서 네트워크 탭을 확인하고 가져오기 섹션을 참조하세요). 귀하의 채팅과 이미지 생성은 100% 비공개입니다. 이 사이트/앱은 완전히 오프라인으로 작동합니다.
LLM X(웹 앱)는 안전하지 않은 서버에 연결하지 않습니다. 즉, localhost(보안 컨텍스트로 간주)에서 LLM X를 사용할 수 있지만 네트워크를 통해 llm-x를 사용하려는 경우 서버는 https에 있어야 하며 그렇지 않으면 작동하지 않습니다.
ollama pull llava
(또는 앱 사용)BypassPerfRequirement
선택하여 온디바이스 모델을 활성화합니다.OLLAMA_ORIGINS
= https://mrdjohnson.github.io
설정하세요.OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
설정하세요.OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
에서 이것을 실행하세요.lms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
로 이동하세요.llm-x/extensions/chrome/dist
Google의 온디바이스 Gemini Nano를 사용하여 Chrome 확장 모드 표시 |
---|
Ollama의 llama3.2-vision으로 Chrome 확장 모드 표시 |
---|
ollama와 LM Studio를 동시에 실행하는 능력을 보여줌 |
---|
로고에 대한 대화 |
---|
이미지 생성 예시! |
---|
옴니바 및 코드 표시 |
---|
코드와 조명 테마 표시 |
---|
고양이에 대한 반응 |
---|
라텍스 지원! |
---|
또 다른 로고 응답 |
---|
이게 뭔가요? Ollama(오프라인 채팅 gpt 서버와 유사하다고 생각함)를 로컬에서 실행하는 틈새 그룹을 위한 ChatGPT 스타일 UI입니다. 이미지와 텍스트 전송 및 수신을 지원합니다! PWA(Progressive Web App) 표준을 통해 오프라인으로 작동합니다 (죽지 않았습니다!).
왜 이런 일을 하는가? 나는 한동안 LLM UI 에 관심이 있었는데 이것이 좋은 입문 응용 프로그램인 것 같았습니다. 저도 이 프로젝트 덕분에 많은 현대 기술을 접하게 되었어요. 정말 즐거웠어요!
왜 그렇게 유행어가 많은 걸까요? 나는 도울 수 없었지만 멋지다?
논리 도우미:
UI 도우미:
프로젝트 설정 도우미:
영감: ollama-ui의 프로젝트. 사용자가 웹 앱을 통해 ollama에 연결할 수 있습니다.
Perplexity.ai Perplexity는 LLM UI 공간에서 몇 가지 놀라운 UI 발전을 이루었으며 저는 그 지점에 도달하는 데 매우 관심이 있었습니다. 이 시작 프로젝트를 통해 비슷한 일을 하는 데 더 가까워질 수 있기를 바랍니다!
(json 패키지의 최소 엔진 요구 사항을 참고하세요)
프로젝트를 복제하고 루트 디렉터리에서 yarn
실행합니다.
yarn dev
로컬 인스턴스를 시작하고 https:// 아래에 브라우저 탭을 엽니다(PWA 이유로).
이 앱을 스파이크하는 동안 LangChain.js가 시도되었지만 불행히도 들어오는 스트림을 중지하기 위해 올바르게 설정되지 않았습니다. 나중에 이 문제가 수정되기를 바랍니다. 또는 가능하다면 사용자 정의 LLM 에이전트를 활용하여 LangChain을 사용할 수 있기를 바랍니다.
원래는 create-react-app을 사용했습니까? 이 프로젝트를 만들면서 더 이상 유지 관리되지 않는다는 사실을 모르고 Vite를 사용하고 있습니다. ? 이를 통해 이전에는 사용할 수 없었던 ollama-js
와 같은 라이브러리를 사용할 수 있게 되었습니다. 곧 langchain으로 더 많은 테스트를 진행할 예정입니다.
이 추가 정보는 https://stackedit.io/app으로 작성되었습니다.
기본 분기에 대한 변경 사항은 https://mrdjohnson.github.io/llm-x/에 대한 즉시 배포를 트리거합니다.