Chrome 拡張機能 |ウェブ/モバイルアプリ
LLM X は外部 API 呼び出しを行いません。 (先に進んで、ネットワークタブを確認し、「フェッチ」セクションを参照してください)。チャットと画像生成は 100% プライベートです。このサイト/アプリは完全にオフラインで動作します。
LLM X (Web アプリ) は、安全でないサーバーには接続しません。これは、ローカルホスト (安全なコンテキストとみなされる) で LLM X を使用できることを意味しますが、ネットワーク上で llm-x を使用しようとしている場合、サーバーは https からのものである必要があり、そうしないと機能しません。
ollama pull llava
(またはアプリを使用)BypassPerfRequirement
選択してオンデバイス モデルを有効にしますOLLAMA_ORIGINS
= https://mrdjohnson.github.io
を設定します。OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
を設定します。OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
lms server start
./webui.sh --api --listen
yarn install
、 yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
に移動しますllm-x/extensions/chrome/dist
から解凍された状態でロードします (開発者モード オプション)。 Google のオンデバイス Gemini Nano で Chrome 拡張モードを表示する |
---|
Ollama の llama3.2-vision を使用した Chrome 拡張モードの表示 |
---|
ollama と LM Studio を同時に実行できることを示す |
---|
ロゴについての会話 |
---|
画像生成例! |
---|
オムニバーとコードを披露する |
---|
コードとライトのテーマを披露する |
---|
猫についてのお返事 |
---|
ラテックスサポート! |
---|
別のロゴの応答 |
---|
これは何ですか? Ollama (オフライン チャット gpt サーバーのようなものだと考えてください) をローカルで実行するニッチなグループ向けの ChatGPT スタイル UI。画像やテキストの送受信に対応! PWA (Progressive Web App) 標準によりオフラインでも動作します(死んだわけではありません!)
なぜこれを行うのでしょうか?私はしばらくの間LLM UIに興味を持っており、これは良い入門アプリケーションだと思いました。私もこのプロジェクトのおかげで多くの最新テクノロジーを知ることができました、とても楽しかったです!
なぜこれほど流行語が多いのでしょうか?思わずクールになってしまいました?
ロジックヘルパー:
UI ヘルパー:
プロジェクトセットアップヘルパー:
インスピレーション: ollama-ui のプロジェクト。これにより、ユーザーは Web アプリ経由で ollam に接続できるようになります。
Perplexity.ai Perplexity は、LLM UI 空間において驚くべき UI の進歩をもたらしており、私はその点に到達することに非常に興味を持っていました。このスターター プロジェクトをきっかけに、同様のことに近づければ幸いです。
(パッケージ json の最小エンジン要件に注意してください)
プロジェクトのクローンを作成し、ルート ディレクトリでyarn
を実行します
yarn dev
ローカル インスタンスを起動し、https:// でブラウザ タブを開きます (PWA の理由のため)
このアプリでスパイク中に LangChain.js が試行されましたが、残念ながら受信ストリームを停止するように正しく設定されていませんでした。将来的にこれが修正されることを願っています。または、可能であればカスタム LLM エージェントを利用して LangChain を使用できるようにしてください。
もともと私はcreate-react-appを使用していましたか?メンテナンスが終了していることを知らずにこのプロジェクトを作成している間、私は今 Vite を使用しています。 ?これにより、以前は使用できなかったollama-js
などのライブラリを使用できるようになりました。近いうちに langchain を使ってさらにテストする予定です
この Readme は https://stackedit.io/app で書かれています
メイン ブランチに変更を加えると、https://mrdjohnson.github.io/llm-x/ への即時デプロイがトリガーされます。