Extensão do Chrome | Aplicativo web/móvel
O LLM X não faz nenhuma chamada de API externa. (vá em frente, verifique sua guia de rede e veja a seção Buscar). Seus bate-papos e gerações de imagens são 100% privados. Este site/aplicativo funciona totalmente offline.
LLM X (aplicativo web) não se conectará a um servidor que não seja seguro. Isso significa que você pode usar o LLM X em localhost (considerado um contexto seguro), mas se estiver tentando usar o llm-x em uma rede, o servidor precisa ser https ou não funcionará.
ollama pull llava
(ou use o aplicativo)BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
lms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Mostrando o modo de extensão do Chrome com Gemini Nano no dispositivo do Google |
---|
Mostrando o modo de extensão do Chrome com llama3.2-vision de Ollama |
---|
Mostrando capacidade de executar ollama e LM Studio ao mesmo tempo |
---|
Conversa sobre logotipo |
---|
Exemplo de geração de imagem! |
---|
Exibindo omnibar e código |
---|
Exibindo código e tema leve |
---|
Respondendo sobre um gato |
---|
Suporte ao látex! |
---|
Outra resposta do logotipo |
---|
O que é isso? UI estilo ChatGPT para o grupo de nicho de pessoas que executam o Ollama (pense nisso como um servidor gpt de bate-papo offline) localmente. Suporta envio e recebimento de imagens e texto! FUNCIONA OFFLINE por meio dos padrões PWA (Progressive Web App) (não está morto!)
Por que fazer isso? Já faz algum tempo que estou interessado na interface do LLM e este me pareceu um bom aplicativo de introdução. Conheci muitas tecnologias modernas graças a este projeto também, foi divertido!
Por que tantas palavras da moda? Eu não pude deixar de ser legal?
Ajudantes lógicos:
Ajudantes de IU:
Ajudantes de configuração do projeto:
Inspiração: projeto de ollama-ui. O que permite que os usuários se conectem ao ollama por meio de um aplicativo da web
Perplexity.ai Perplexity tem alguns avanços incríveis de UI no espaço de UI LLM e estou muito interessado em chegar a esse ponto. Espero que este projeto inicial me permita chegar mais perto de fazer algo semelhante!
(observe os requisitos mínimos do motor no pacote json)
Clone o projeto e execute yarn
no diretório raiz
yarn dev
inicia uma instância local e abre uma guia do navegador em https:// (por motivos de PWA)
LangChain.js foi tentado ao aumentar este aplicativo, mas infelizmente não foi configurado corretamente para interromper fluxos de entrada. Espero que isso seja corrigido mais tarde no futuro OU, se possível, um agente LLM personalizado possa ser utilizado para usar LangChain
Originalmente eu usei create-react-app ? enquanto fazia esse projeto sem saber que ele não tinha mais manutenção, agora estou usando o Vite. ? Isso já me permite usar libs como ollama-js
que eu não conseguia usar antes. Estarei testando mais com langchain em breve
Este leia-me foi escrito com https://stackedit.io/app
Mudanças na ramificação principal acionam uma implantação imediata em https://mrdjohnson.github.io/llm-x/