Extensão do Chrome | Aplicativo web/móvel
LLM X não faz chamadas de API externas. (Vá em frente, verifique sua guia de rede e consulte a seção Fetch). Seus bate -papos e gerações de imagem são 100% privados. Este site / aplicativo funciona completamente offline.
LLM X (aplicativo da Web) não se conectará a um servidor que não é seguro. Isso significa que você pode usar o LLM X no localhost (considerado um contexto seguro), mas se você estiver tentando usar o LLM-X em uma rede, o servidor precisa ser do HTTPS ou não funcionará.
ollama pull llava
(ou use o aplicativo)BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
lms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Mostrando o modo de extensão do Chrome com o Nano de Gêmeos no Device do Google |
---|
Mostrando o modo de extensão do Chrome com a LLAMA3.2-VISÃO DE OLLAMA |
---|
Mostrando capacidade de executar o Ollama e LM Studio ao mesmo tempo |
---|
Conversa sobre logotipo |
---|
Exemplo de geração de imagens! |
---|
Mostrando omnibar e código |
---|
Mostrando o código e o tema leve |
---|
Respondendo sobre um gato |
---|
Suporte de látex! |
---|
Outra resposta do logotipo |
---|
O que é isso? A interface do usuário do Chatgpt Style para o grupo de nicho de pessoas que administra o Ollama (pense nisso como um servidor GPT de bate -papo offline) localmente. Suporta enviar e receber imagens e texto! Funciona offline através dos padrões da PWA (Progressive Web App) (não está morto!)
Por que fazer isso? Estou interessado em LLM UI há algum tempo e isso parecia um bom aplicativo de introdução. Fui apresentado a muitas tecnologias modernas graças a este projeto também, foi divertido!
Por que tantas palavras de burburinho? Eu não pude deixar de ser legal?
Ajudantes lógicos:
Ajudantes da interface do usuário:
Ajudadores de configuração do projeto:
Inspiração: o projeto de Ollama-Ui. Que permite que os usuários se conectem a Ollama por meio de um aplicativo da web
Perplexity.ai A Perplexity tem alguns avanços incríveis na interface do usuário no espaço da interface do usuário LLM e estou muito interessado em chegar a esse ponto. Esperançosamente, este projeto inicial me permite me aproximar de fazer algo semelhante!
(Observe os requisitos mínimos do motor no pacote JSON)
Clone o projeto e execute yarn
no diretório raiz
yarn dev
inicia uma instância local e abre uma guia do navegador sob https: // (por motivos de PWA)
Langchain.js foi tentado enquanto bateu nesse aplicativo, mas infelizmente não foi configurado corretamente para interromper os fluxos de entrada, espero que isso seja consertado mais tarde no futuro ou, se possível
Originalmente, usei Create-React-App? Ao fazer esse projeto sem saber que não é mais mantido, agora estou usando o Vite. ? Isso já me permite usar bibliotecas como ollama-js
que eu não podia usar antes. Estará testando mais com Langchain muito em breve
Este readme foi escrito com https://stackedit.io/app
Alterações no ramo principal desencadeiam uma implantação imediata para https://mrdjohnson.github.io/llm-x/