خادم Pico MLX هو أسهل طريقة للبدء في إطار عمل MLX AI الخاص بـ Apple
يوفر Pico MLX Server واجهة المستخدم الرسومية لخادم MLX. يوفر MLX Server واجهة برمجة تطبيقات لنماذج MLX المحلية تتوافق مع API Openai. يتيح لك ذلك استخدام معظم عملاء Openai دردشة مع خادم Pico MLX.
انظر مجتمع MLX على Luggingface
لتثبيت Pico MLX Server ، قم بإنشاء المصدر باستخدام Xcode ، أو تنزيل القابلة للتنفيذ مباشرة من Github.
لإعداد خادم Pico MLX ، افتح التطبيق و
MLX -> Setup...
)Settings
MLX -> Servers -> New Server...
Create
لإنشاء الخادم الافتراضي mlx-community/Nous-Hermes-2-Mistral-7B-DPO-4bit-MLX
على المنفذ 8080
v
أو اكتب نموذجًا يدويًا من مجتمع MLX على Luggingface (تأكد من استخدام mlx-community/
Prefix)View Logs
لفتح نافذة مع سجلات الخادم في الوقت الفعلي قم بتوزيع أي مساعد AI AI Openai على http://127.0.0.1:8080
(أو أي منفذ آخر استخدمته في خادم Pico MLX). (تعليمات لمساعد Pico AI قريبًا)
حليقة:
curl -X GET 'http://127.0.0.1:8080/generate?prompt=write%20me%20a%20poem%20about%the%20ocean&stream=true'
POST /v1/completions
. راجع لمزيد من المعلومات https://platform.openai.com/docs/api- المرجع/completions/create. lsof -i:8080
في المحطة للعثور على PID لخادم التشغيل)New Server
وقائمة Servers
حيث لا يتم تحديث حالة الخوادم يعد Pico MLX Server جزءًا من حزمة من أدوات SWIFT مفتوحة المصدر لمهندسي الذكاء الاصطناعي. هل تبحث عن وكيل Swift Openai Swift من جانب الخادم لحماية مفاتيح Openai؟ تحقق من Swift Openai Proxy.
تم إنشاء خادم Pico MLX ، وكيل سويفت Openai ، ومساعد Pico AI بواسطة Ronald Mannak بمساعدة من Ray Fernando
تم إنشاء خادم MLX بواسطة Mustafa Aljadery & Siddharth Sharma
الكود المستخدم من MLX Swift Chat و Swift Chat