Chrome-Erweiterung | Web-/Mobile-App
LLM X führt keine externen API-Aufrufe durch. (Fahren Sie fort, überprüfen Sie die Registerkarte „Netzwerk“ und sehen Sie sich den Abschnitt „Abrufen“ an.) Ihre Chats und Bildgenerierungen sind 100 % privat. Diese Website/App funktioniert vollständig offline.
LLM X (Web-App) stellt keine Verbindung zu einem Server her, der nicht sicher ist. Das bedeutet, dass Sie LLM
ollama pull llava
(oder verwenden Sie die App).BypassPerfRequirement
auswählenOLLAMA_ORIGINS
= https://mrdjohnson.github.io
festzulegenOLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
festzulegenOLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
auslms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Zeigt den Chrome-Erweiterungsmodus mit Gemini Nano auf dem Gerät von Google |
---|
Zeigt den Chrome-Erweiterungsmodus mit Ollamas llama3.2-vision |
---|
Zeigt die Fähigkeit, ollama und LM Studio gleichzeitig auszuführen |
---|
Gespräch über Logo |
---|
Beispiel für die Bildgenerierung! |
---|
Omnibar und Code zur Schau stellen |
---|
Vorführen von Code und Lichtthema |
---|
Antwort auf eine Katze |
---|
LaTex-Unterstützung! |
---|
Eine weitere Logo-Antwort |
---|
Was ist das? Benutzeroberfläche im ChatGPT-Stil für die Nischengruppe von Leuten, die Ollama (stellen Sie sich das wie einen Offline-Chat-GPT-Server vor) lokal ausführen. Unterstützt das Senden und Empfangen von Bildern und Text! FUNKTIONIERT OFFLINE über PWA-Standards (Progressive Web App) (es ist nicht tot!)
Warum das tun? Ich interessiere mich schon seit einiger Zeit für die LLM-Benutzeroberfläche und dies schien mir eine gute Einstiegsanwendung zu sein. Dank dieses Projekts habe ich auch viele moderne Technologien kennengelernt, es hat Spaß gemacht!
Warum so viele Schlagworte? Ich konnte nicht anders, als cool zu sein?
Logikhelfer:
UI-Helfer:
Helfer bei der Projekteinrichtung:
Inspiration: ollama-uis Projekt. Dadurch können Benutzer über eine Web-App eine Verbindung zu Ollama herstellen
Perplexity.ai Perplexity bietet einige erstaunliche UI-Fortschritte im LLM-UI-Bereich und ich war sehr daran interessiert, diesen Punkt zu erreichen. Hoffentlich bringt mich dieses Starterprojekt dazu, etwas Ähnliches näher zu bringen!
(Bitte beachten Sie die Mindestanforderungen an die Engine im Paket json)
Klonen Sie das Projekt und führen Sie yarn
im Stammverzeichnis aus
yarn dev
startet eine lokale Instanz und öffnet einen Browser-Tab unter https:// (aus PWA-Gründen)
Beim Hochladen dieser App wurde versucht, LangChain.js zu verwenden, aber leider wurde es nicht richtig eingerichtet, um eingehende Streams zu stoppen. Ich hoffe, dass dies später in der Zukunft behoben wird ODER wenn möglich, kann ein benutzerdefinierter LLM-Agent verwendet werden, um LangChain zu verwenden
Ursprünglich habe ich „create-react-app“ verwendet? Während ich dieses Projekt erstellt habe, ohne zu wissen, dass es nicht mehr gepflegt wird, verwende ich jetzt Vite. ? Dadurch kann ich bereits Bibliotheken wie ollama-js
verwenden, die ich vorher nicht verwenden konnte. Ich werde in Kürze weitere Tests mit Langchain durchführen
Diese Readme-Datei wurde mit https://stackedit.io/app geschrieben
Änderungen am Hauptzweig lösen eine sofortige Bereitstellung unter https://mrdjohnson.github.io/llm-x/ aus.