Extensión de Chrome | Aplicación web/móvil
LLM X no realiza ninguna llamada a API externa. (Continúe, verifique la pestaña de su red y consulte la sección Recuperar). Tus chats y generación de imágenes son 100% privados. Este sitio/aplicación funciona completamente sin conexión.
LLM X (aplicación web) no se conectará a un servidor que no sea seguro. Esto significa que puede usar LLM X en localhost (considerado un contexto seguro), pero si intenta usar llm-x en una red, el servidor debe ser https o, de lo contrario, no funcionará.
ollama pull llava
(o use la aplicación)BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
lms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Mostrando el modo de extensión de Chrome con Gemini Nano en el dispositivo de Google |
---|
Mostrando el modo de extensión de Chrome con llama3.2-vision de Ollama |
---|
Mostrando capacidad para ejecutar ollama y LM Studio al mismo tiempo |
---|
Conversación sobre logotipo |
---|
¡Ejemplo de generación de imágenes! |
---|
Mostrando omnibar y código |
---|
Mostrando código y tema ligero |
---|
Respondiendo sobre un gato |
---|
¡Soporte de látex! |
---|
Otra respuesta del logo |
---|
¿Qué es esto? Interfaz de usuario estilo ChatGPT para el grupo especializado de personas que ejecutan Ollama (piense en esto como un servidor gpt de chat sin conexión) localmente. ¡Admite enviar y recibir imágenes y texto! FUNCIONA SIN CONEXIÓN a través de los estándares PWA (Progressive Web App) (¡no está muerto!)
¿Por qué hacer esto? He estado interesado en LLM UI desde hace algún tiempo y me pareció una buena aplicación de introducción. También conocí muchas tecnologías modernas gracias a este proyecto, ¡ha sido divertido!
¿Por qué tantas palabras de moda? ¿No pude evitar ser genial?
Ayudantes lógicos:
Ayudantes de la interfaz de usuario:
Ayudantes de configuración del proyecto:
Inspiración: el proyecto de ollama-ui. Que permite a los usuarios conectarse a ollama a través de una aplicación web.
Perplexity.ai Perplexity tiene algunos avances sorprendentes en la interfaz de usuario en el espacio de la interfaz de usuario de LLM y he estado muy interesado en llegar a ese punto. ¡Ojalá este proyecto inicial me permita acercarme a hacer algo similar!
(tenga en cuenta los requisitos mínimos del motor en el paquete json)
Clona el proyecto y ejecuta yarn
en el directorio raíz.
yarn dev
inicia una instancia local y abre una pestaña del navegador en https:// (por motivos de PWA)
Se intentó utilizar LangChain.js mientras se activaba esta aplicación, pero desafortunadamente no se configuró correctamente para detener las transmisiones entrantes. Espero que esto se solucione más adelante en el futuro O, si es posible, se puede utilizar un agente LLM personalizado para usar LangChain.
¿Originalmente usé create-react-app? Mientras hago este proyecto sin saber que ya no se mantiene, ahora estoy usando Vite. ? Esto ya me permite usar bibliotecas como ollama-js
que no podía usar antes. Probaremos más con langchain muy pronto
Este archivo Léame fue escrito con https://stackedit.io/app
Los cambios en la rama principal desencadenan una implementación inmediata en https://mrdjohnson.github.io/llm-x/