Ekstensi Chrome | Aplikasi Web/Seluler
LLM X tidak melakukan panggilan api eksternal apa pun. (silakan, periksa tab jaringan Anda dan lihat bagian Ambil). Obrolan dan pembuatan gambar Anda 100% pribadi. Situs/aplikasi ini berfungsi sepenuhnya offline.
LLM X (aplikasi web) tidak akan terhubung ke server yang tidak aman. Ini berarti Anda dapat menggunakan LLM X di localhost (dianggap sebagai konteks aman) tetapi jika Anda mencoba menggunakan llm-x melalui jaringan, server harus dari https atau server tidak akan berfungsi.
ollama pull llava
(atau gunakan aplikasi)BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
Andalms server start
./webui.sh --api --listen
yarn install
, yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
Menampilkan mode ekstensi Chrome dengan Gemini Nano di perangkat Google |
---|
Menampilkan mode ekstensi Chrome dengan llama3.2-vision Ollama |
---|
Menampilkan kemampuan menjalankan ollama dan LM Studio secara bersamaan |
---|
Percakapan tentang logo |
---|
Contoh pembuatan gambar! |
---|
Memamerkan omnibar dan kode |
---|
Memamerkan kode dan tema terang |
---|
Menanggapi tentang kucing |
---|
Dukungan lateks! |
---|
Respons logo lainnya |
---|
Apa ini? UI gaya ChatGPT untuk kelompok khusus orang yang menjalankan Ollama (anggap ini seperti server gpt obrolan offline) secara lokal. Mendukung pengiriman dan penerimaan gambar dan teks! BEKERJA OFFLINE melalui standar PWA (Progressive Web App) (tidak mati!)
Mengapa melakukan ini? Saya sudah lama tertarik dengan LLM UI dan ini sepertinya aplikasi intro yang bagus. Saya juga telah diperkenalkan dengan banyak teknologi modern berkat proyek ini, sungguh menyenangkan!
Mengapa begitu banyak kata-kata yang menarik? Mau tak mau aku menjadi keren?
Pembantu logika:
Pembantu UI:
Pembantu pengaturan proyek:
Inspirasi: proyek ollama-ui. Yang memungkinkan pengguna untuk terhubung ke ollama melalui aplikasi web
Perplexity.ai Perplexity memiliki beberapa kemajuan UI yang luar biasa di ruang LLM UI dan saya sangat tertarik untuk mencapai titik itu. Semoga proyek awal ini membuat saya semakin dekat untuk melakukan hal serupa!
(harap perhatikan persyaratan mesin minimum dalam paket json)
Kloning proyek, dan jalankan yarn
di direktori root
yarn dev
memulai instance lokal dan membuka tab browser di bawah https:// (untuk alasan PWA)
LangChain.js dicoba saat melakukan spiking pada aplikasi ini tetapi sayangnya tidak diatur dengan benar untuk menghentikan aliran masuk, saya harap ini diperbaiki nanti di masa mendatang ATAU jika memungkinkan Agen LLM khusus dapat digunakan untuk menggunakan LangChain
Awalnya saya menggunakan create-react-app ? sambil membuat proyek ini tanpa saya sadari sudah tidak dipertahankan lagi, saya sekarang menggunakan Vite. ? Ini sudah memungkinkan saya untuk menggunakan lib seperti ollama-js
yang tidak dapat saya gunakan sebelumnya. Akan segera menguji lebih banyak dengan langchain
Readme ini ditulis dengan https://stackedit.io/app
Perubahan pada cabang utama memicu penerapan langsung ke https://mrdjohnson.github.io/llm-x/