Extension Chrome | Application Web/Mobile
LLM X n'effectue aucun appel d'API externe. (allez-y, vérifiez votre onglet réseau et consultez la section Récupérer). Vos discussions et générations d'images sont 100% privées. Ce site/application fonctionne complètement hors ligne.
LLM X (application Web) ne se connectera pas à un serveur non sécurisé. Cela signifie que vous pouvez utiliser LLM X sur localhost (considéré comme un contexte sécurisé), mais si vous essayez d'utiliser llm-x sur un réseau, le serveur doit provenir de https, sinon cela ne fonctionnera pas.
ollama pull llava
(ou utilisez l'application)BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
de terminallms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Affichage du mode d'extension Chrome avec Gemini Nano sur l'appareil de Google |
---|
Affichage du mode d'extension Chrome avec la vision lama3.2 d'Ollama |
---|
Capacité à exécuter ollama et LM Studio en même temps |
---|
Conversation sur le logo |
---|
Exemple de génération d'images ! |
---|
Montrer omnibar et le code |
---|
Montrer le code et le thème lumineux |
---|
Répondre à propos d'un chat |
---|
Prise en charge de Latex ! |
---|
Une autre réponse du logo |
---|
Qu'est-ce que c'est? Interface utilisateur de style ChatGPT pour le groupe de niche de personnes qui exécutent Ollama (pensez à cela comme à un serveur gpt de chat hors ligne) localement. Prend en charge l'envoi et la réception d'images et de texte ! FONCTIONNE HORS LIGNE grâce aux normes PWA (Progressive Web App) (ce n'est pas mort !)
Pourquoi faire ça ? Je m'intéresse à l'interface utilisateur LLM depuis un certain temps maintenant et cela semble être une bonne application d'introduction. J'ai également découvert beaucoup de technologies modernes grâce à ce projet, c'était amusant !
Pourquoi tant de mots à la mode ? Je n'ai pas pu m'empêcher d'être cool ?
Aides logiques :
Aides à l'interface utilisateur :
Aides au montage de projet :
Inspiration : le projet d'ollama-ui. Ce qui permet aux utilisateurs de se connecter à ollama via une application web
Perplexity.ai Perplexity propose des avancées étonnantes en matière d'interface utilisateur dans l'espace de l'interface utilisateur LLM et j'ai été très intéressé par en arriver là. J'espère que ce projet de démarrage me permettra de me rapprocher de quelque chose de similaire !
(veuillez noter la configuration minimale requise pour le moteur dans le package json)
Clonez le projet et exécutez yarn
dans le répertoire racine
yarn dev
démarre une instance locale et ouvre un onglet de navigateur sous https:// (pour des raisons PWA)
LangChain.js a été tenté lors du pic sur cette application, mais malheureusement, il n'a pas été configuré correctement pour arrêter les flux entrants. J'espère que cela sera corrigé plus tard dans le futur OU, si possible, un agent LLM personnalisé peut être utilisé afin d'utiliser LangChain.
À l'origine, j'utilisais create-react-app ? en réalisant ce projet sans savoir qu'il n'est plus maintenu, j'utilise désormais Vite. ? Cela me permet déjà d'utiliser des bibliothèques comme ollama-js
que je ne pouvais pas utiliser auparavant. Je testerai davantage avec langchain très bientôt
Ce fichier Lisez-moi a été écrit avec https://stackedit.io/app
Les modifications apportées à la branche principale déclenchent un déploiement immédiat sur https://mrdjohnson.github.io/llm-x/