Chrome 扩展 |网络/移动应用程序
LLM X 不会进行任何外部 api 调用。 (继续,检查您的网络选项卡并查看“获取”部分)。您的聊天和图像生成是 100% 私密的。该网站/应用程序完全离线工作。
LLM X(网络应用程序)不会连接到不安全的服务器。这意味着您可以在本地主机上使用 LLM X(被视为安全上下文),但如果您尝试通过网络使用 llm-x,则服务器需要来自 https,否则它将无法工作。
ollama pull llava
(或使用应用程序)BypassPerfRequirement
启用“在设备模型上”OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
中运行此命令lms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
使用 Google 设备上的 Gemini Nano 显示 Chrome 扩展模式 |
---|
使用 Ollama 的 llama3.2-vision 显示 Chrome 扩展模式 |
---|
表现出同时运行 ollama 和 LM Studio 的能力 |
---|
关于标志的对话 |
---|
图像生成示例! |
---|
展示多功能栏和代码 |
---|
展示代码和浅色主题 |
---|
回复关于一只猫的问题 |
---|
乳胶支持! |
---|
另一个标志响应 |
---|
这是什么? ChatGPT 风格的 UI,适合本地运行 Ollama(将其视为离线聊天 GPT 服务器)的小众群体。支持发送和接收图像和文本!通过 PWA(渐进式 Web 应用程序)标准离线工作(它还没有消亡!)
为什么要这样做?我对LLM UI感兴趣已经有一段时间了,这似乎是一个很好的入门应用程序。通过这个项目,我也了解了很多现代技术,这很有趣!
为什么这么多流行词?我忍不住要酷起来?
逻辑助手:
用户界面助手:
项目设置助手:
灵感: ollama-ui 的项目。允许用户通过网络应用程序连接到 ollama
Perplexity.ai Perplexity 在 LLM UI 领域有一些惊人的 UI 进步,我对此非常感兴趣。希望这个入门项目能让我更接近做类似的事情!
(请注意 json 包中的最低引擎要求)
克隆项目,并在根目录中运行yarn
yarn dev
启动本地实例并在 https:// 下打开浏览器选项卡(出于 PWA 原因)
在这个应用程序上尝试使用 LangChain.js,但不幸的是它没有正确设置以停止传入流,我希望这个问题在将来得到修复,或者如果可能的话可以使用自定义 LLM 代理来使用 LangChain
最初我使用了 create-react-app ?在制作这个项目而不知道它不再维护的情况下,我现在正在使用Vite。 ?这已经允许我使用像ollama-js
这样我以前无法使用的库。很快将使用 langchain 进行更多测试
本自述文件是使用 https://stackedit.io/app 编写的
对主分支的更改会触发立即部署到 https://mrdjohnson.github.io/llm-x/