ملحق كروم | تطبيق الويب/الجوال
لا يقوم LLM X بإجراء أي مكالمات خارجية لواجهة برمجة التطبيقات. (تابع، تحقق من علامة تبويب الشبكة وراجع قسم الجلب). تتمتع محادثاتك وأجيال الصور الخاصة بك بالخصوصية بنسبة 100%. يعمل هذا الموقع/التطبيق دون اتصال بالإنترنت تمامًا.
لن يتصل LLM X (تطبيق الويب) بخادم غير آمن. هذا يعني أنه يمكنك استخدام LLM X على المضيف المحلي (يعتبر سياقًا آمنًا) ولكن إذا كنت تحاول استخدام llm-x عبر شبكة، فيجب أن يكون الخادم من https وإلا فلن يعمل.
ollama pull llava
(أو استخدم التطبيق)BypassPerfRequirement
OLLAMA_ORIGINS
= https://mrdjohnson.github.io
OLLAMA_ORIGINS=https://mrdjohnson.github.io ollama serve
$env:OLLAMA_ORIGINS="https://mrdjohnson.github.io"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
OLLAMA_ORIGINS
= chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk
OLLAMA_ORIGINS=chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk ollama serve
$env:OLLAMA_ORIGINS="chrome-extension://iodcdhcpahifeligoegcmcdibdkffclk"; ollama serve
)lms server start --cors=true
./webui.sh --api --listen --cors-allow-origins "*"
ollama serve
الطرفية الخاصة بكlms server start
./webui.sh --api --listen
yarn install
، yarn preview
docker compose up -d
yarn chrome:build
chrome://extensions/
llm-x/extensions/chrome/dist
عرض وضع ملحق Chrome مع Gemini Nano الموجود على الجهاز من Google |
---|
عرض وضع ملحق Chrome مع رؤية Ollama's llama3.2 |
---|
إظهار القدرة على تشغيل ollama وLM Studio في نفس الوقت |
---|
محادثة حول الشعار |
---|
مثال لتوليد الصور! |
---|
الرياء omnibar والكود |
---|
اظهار الكود والموضوع الخفيف |
---|
الرد على القطة |
---|
دعم اللاتكس! |
---|
رد شعار آخر |
---|
ما هذا؟ واجهة مستخدم بنمط ChatGPT لمجموعة متخصصة من الأشخاص الذين يديرون Ollama (فكر في هذا مثل خادم gpt للدردشة دون اتصال بالإنترنت) محليًا. يدعم إرسال واستقبال الصور والنصوص! يعمل دون اتصال بالإنترنت من خلال معايير PWA (تطبيق الويب التقدمي) (لم يمت!)
لماذا تفعل هذا؟ لقد كنت مهتمًا بـ LLM UI منذ فترة ويبدو أن هذا تطبيق مقدمة جيد. لقد تعرفت على الكثير من التقنيات الحديثة بفضل هذا المشروع أيضًا، لقد كان ممتعًا!
لماذا الكثير من الكلمات الطنانة؟ لا يسعني إلا أن النحلة باردة؟
المساعدين المنطقيين:
مساعدي واجهة المستخدم:
مساعدو إعداد المشروع:
الإلهام: مشروع ollama-ui. والذي يسمح للمستخدمين بالاتصال بـ ollama عبر تطبيق الويب
يحتوي Perplexity.ai Perplexity على بعض التطورات المذهلة في واجهة المستخدم في مجال LLM UI وقد كنت مهتمًا جدًا بالوصول إلى هذه النقطة. آمل أن يتيح لي هذا المشروع المبدئي الاقتراب من القيام بشيء مماثل!
(يرجى ملاحظة الحد الأدنى لمتطلبات المحرك في الحزمة json)
قم باستنساخ المشروع وتشغيل yarn
في الدليل الجذر
يبدأ yarn dev
مثيلًا محليًا ويفتح علامة تبويب المتصفح ضمن https:// (لأسباب PWA)
تمت تجربة LangChain.js أثناء الارتفاع على هذا التطبيق ولكن لسوء الحظ لم يتم إعداده بشكل صحيح لإيقاف التدفقات الواردة، وآمل أن يتم إصلاح ذلك لاحقًا في المستقبل أو إذا كان ذلك ممكنًا، يمكن استخدام وكيل LLM مخصص لاستخدام LangChain
في الأصل استخدمت إنشاء تطبيق رد فعل؟ أثناء إنشاء هذا المشروع دون أن أعلم أنه لم يعد يتم صيانته، أستخدم الآن Vite. ؟ يتيح لي هذا بالفعل استخدام libs مثل ollama-js
التي لم أتمكن من استخدامها من قبل. سيتم اختبار المزيد باستخدام langchain قريبًا جدًا
تمت كتابة هذا الملف التمهيدي باستخدام https://stackedit.io/app
تؤدي التغييرات التي تم إجراؤها على الفرع الرئيسي إلى النشر الفوري على https://mrdjohnson.github.io/llm-x/