Расширение Chrome | Веб/мобильное приложение
LLM X не выполняет никаких внешних вызовов API. (идите дальше, проверьте вкладку сети и посмотрите раздел «Извлечение»). Ваши чаты и создание изображений на 100% конфиденциальны. Этот сайт/приложение работает полностью в автономном режиме.
LLM X (веб-приложение) не будет подключаться к незащищенному серверу. Это означает, что вы можете использовать LLM X на локальном хосте (считается безопасным контекстом), но если вы пытаетесь использовать llm-x по сети, сервер должен быть https, иначе он не будет работать.
ollama pull llava
(или воспользуйтесь приложением).BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
lms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Показ режима расширения Chrome с помощью Gemini Nano от Google на устройстве |
---|
Показ режима расширения Chrome с помощью llama3.2-vision от Ollama |
---|
Демонстрация способности одновременно запускать ollama и LM Studio. |
---|
Разговор о логотипе |
---|
Пример создания изображения! |
---|
Демонстрация омнибара и кода |
---|
Демонстрация кода и светлой темы |
---|
Отзыв о кошке |
---|
Поддержка Латекса! |
---|
Еще один ответ на логотип |
---|
Что это? Пользовательский интерфейс в стиле ChatGPT для нишевой группы людей, которые локально запускают Ollama (подумайте об этом как об автономном GPT-сервере чата). Поддерживает отправку и получение изображений и текста! РАБОТАЕТ АВТОНОМНО через стандарты PWA (Progressive Web App) (оно не умерло!)
Зачем это делать? Я уже некоторое время интересуюсь пользовательским интерфейсом LLM , и это показалось мне хорошим вводным приложением. Благодаря этому проекту я познакомился со многими современными технологиями, это было весело!
Откуда столько модных словечек? Я не мог не быть крутым?
Логические помощники:
Помощники пользовательского интерфейса:
Помощники по настройке проекта:
Вдохновение: проект ollama-ui. Это позволяет пользователям подключаться к олламе через веб-приложение.
Perplexity.ai Perplexity имеет некоторые удивительные улучшения пользовательского интерфейса в области пользовательского интерфейса LLM, и мне очень хотелось добраться до этой точки. Надеюсь, этот стартовый проект позволит мне приблизиться к созданию чего-то подобного!
(обратите внимание на минимальные требования к движку в пакете json)
Клонируйте проект и запустите yarn
в корневом каталоге.
yarn dev
запускает локальный экземпляр и открывает вкладку браузера по адресу https:// (по причинам PWA)
Во время загрузки этого приложения была предпринята попытка использования LangChain.js, но, к сожалению, оно не было правильно настроено для остановки входящих потоков. Я надеюсь, что это будет исправлено позже в будущем ИЛИ, если возможно, для использования LangChain можно использовать специальный агент LLM.
Первоначально я использовал create-реагировать-приложение? создавая этот проект, не зная, что он больше не поддерживается, я теперь использую Vite. ? Это уже позволяет мне использовать такие библиотеки, как ollama-js
, которые я раньше не мог использовать. Очень скоро будем тестировать больше с langchain
Этот файл readme был написан с помощью https://stackedit.io/app.
Изменения в основной ветке вызывают немедленное развертывание на https://mrdjohnson.github.io/llm-x/.