يدعم FLAML ضبط AutoML وHyperparameter في Microsoft Fabric Data Science. بالإضافة إلى ذلك، قدمنا دعم Python 3.11، إلى جانب مجموعة من أدوات التقدير الجديدة، والتكامل الشامل مع MLflow — بفضل المساهمات المقدمة من فريق منتج Microsoft Fabric.
تنبيه: لقد قمنا بترحيل AutoGen إلى مستودع جيثب مخصص. وإلى جانب هذه الخطوة، أطلقنا أيضًا خادم Discord مخصصًا وموقعًا إلكترونيًا للتوثيق الشامل.
إطار الدردشة الآلي متعدد الوكلاء في AutoGen قيد المعاينة من الإصدار 2.0.0.
تم تسليط الضوء على FLAML في كتاب الطبخ الخاص بـ OpenAI.
تم إصدار autogen بدعم ChatGPT وGPT-4، استنادًا إلى تحسين المعلمات الفائقة الفعالة من حيث التكلفة لاستدلال إنشاء نماذج اللغة الكبيرة.
FLAML هي مكتبة Python خفيفة الوزن للأتمتة الفعالة للتعلم الآلي وعمليات الذكاء الاصطناعي. يقوم بأتمتة سير العمل بناءً على نماذج اللغات الكبيرة ونماذج التعلم الآلي وما إلى ذلك وتحسين أدائها.
يتيح FLAML إنشاء تطبيقات GPT-X من الجيل التالي استنادًا إلى محادثات متعددة الوكلاء بأقل جهد. إنه يبسط عملية التنسيق والأتمتة وتحسين سير عمل GPT-X المعقد. إنه يزيد من أداء نماذج GPT-X ويزيد من ضعفها.
بالنسبة لمهام التعلم الآلي الشائعة مثل التصنيف والانحدار، فإنه يجد بسرعة نماذج عالية الجودة للبيانات المقدمة من المستخدم ذات الموارد الحسابية المنخفضة. من السهل التخصيص أو التوسع. يمكن للمستخدمين العثور على إمكانية التخصيص المطلوبة من خلال نطاق سلس.
وهو يدعم الضبط التلقائي السريع والاقتصادي (على سبيل المثال، معلمات الاستدلال الفائقة لنماذج الأساس، والتكوينات في سير عمل MLOps/LMOps، وخطوط الأنابيب، والنماذج الرياضية/الإحصائية، والخوارزميات، وتجارب الحوسبة، وتكوينات البرامج)، وقادر على التعامل مع مساحة بحث كبيرة بتكلفة تقييم غير متجانسة و القيود المعقدة/التوجيه/التوقف المبكر.
يتم تشغيل FLAML من خلال سلسلة من الدراسات البحثية من Microsoft Research والمتعاونين مثل جامعة ولاية بنسلفانيا ومعهد ستيفنز للتكنولوجيا وجامعة واشنطن وجامعة واترلو.
يحتوي FLAML على تطبيق .NET في ML.NET، وهو إطار عمل للتعلم الآلي مفتوح المصدر ومتعدد الأنظمة الأساسية لـ .NET.
يتطلب FLAML إصدار Python >= 3.8 . يمكن تثبيته من النقطة:
نقطة تثبيت فلامل
يتم تثبيت الحد الأدنى من التبعيات دون خيارات إضافية. يمكنك تثبيت خيارات إضافية بناءً على الميزة التي تحتاجها. على سبيل المثال، استخدم ما يلي لتثبيت التبعيات التي تحتاجها حزمة autogen
.
تثبيت النقطة "flaml[autogen]"
ابحث عن المزيد من الخيارات في التثبيت. قد يتطلب كل من notebook examples
تثبيت خيار محدد.
(جديد) تعمل حزمة autogen على تمكين تطبيقات GPT-X من الجيل التالي من خلال إطار محادثة عام متعدد الوكلاء. إنه يوفر وكلاء قابلين للتخصيص وقابلين للتحدث ويدمجون LLMs والأدوات والبشر. من خلال أتمتة الدردشة بين العديد من الوكلاء القادرين، يمكن للمرء بسهولة جعلهم يؤدون المهام بشكل جماعي بشكل مستقل أو مع تعليقات بشرية، بما في ذلك المهام التي تتطلب استخدام الأدوات عبر التعليمات البرمجية. على سبيل المثال،
from flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="أرني مكاسب منذ بداية العام لأكبر 10 شركات تكنولوجيا اعتبارًا من اليوم.", )# يؤدي هذا إلى بدء محادثة آلية بين العميلين لحل المهمة
يساعد Autogen أيضًا على زيادة الاستفادة من برامج LLM الباهظة الثمن مثل ChatGPT وGPT-4. وهو يوفر بديلاً سهلاً لـ openai.Completion
أو openai.ChatCompletion
مع وظائف قوية مثل الضبط والتخزين المؤقت والقوالب والتصفية. على سبيل المثال، يمكنك تحسين الأجيال من خلال LLM باستخدام بيانات الضبط ومقاييس النجاح والميزانيات الخاصة بك.
# إجراء tuningconfig, Analysis = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# إجراء الاستدلال لمثيل اختبارresponse = autogen.Completion.create(context=test_instance, **config)
باستخدام ثلاثة أسطر من التعليمات البرمجية، يمكنك البدء في استخدام محرك AutoML الاقتصادي والسريع هذا كمقدر لأسلوب scikit-learn.
من استيراد flaml AutoMLautoml = AutoML()automl.fit(X_train, y_train, المهمة = "classification")
يمكنك تقييد المتعلمين واستخدام FLAML كأداة ضبط سريعة للمعلمات الفائقة لـ XGBoost وLightGBM وRandom Forest وما إلى ذلك أو متعلم مخصص.
automl.fit(X_train, y_train, المهمة = "classification"، estimator_list = ["lgbm"])
يمكنك أيضًا تشغيل ضبط عام للمعلمات الفائقة لوظيفة مخصصة.
من flaml import tunetune.run(evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600)
يسمح Zero-shot AutoML باستخدام واجهة برمجة تطبيقات التدريب الحالية من lightgbm وxgboost وما إلى ذلك مع الاستفادة من AutoML في اختيار تكوينات المعلمات الفائقة عالية الأداء لكل مهمة.
من flaml.default import LGBMRegressor# استخدم LGBMRegressor بنفس الطريقة التي تستخدم بها lightgbm.LGBMRegressor.estimator = LGBMRegressor()# يتم تعيين المعلمات الفائقة تلقائيًا وفقًا لبيانات التدريب.estimator.fit(X_train, y_train)
يمكنك العثور على وثائق مفصلة حول FLAML هنا.
بالإضافة إلى ذلك، يمكنك أن تجد:
الأبحاث والمدونات حول FLAML.
الفتنة.
دليل المساهمة.
وثائق ML.NET وبرامج تعليمية لـ Model Builder وML.NET CLI وAutoML API.
يرحب هذا المشروع بالمساهمات والاقتراحات. تتطلب معظم المساهمات منك الموافقة على اتفاقية ترخيص المساهم (CLA) التي تعلن أن لديك الحق في منحنا حقوق استخدام مساهمتك، بل وتفعل ذلك بالفعل. للحصول على التفاصيل، تفضل بزيارة https://cla.opensource.microsoft.com.
إذا كنت جديدًا على GitHub، فإليك مصدر مساعدة تفصيلي حول المشاركة في التطوير على GitHub.
عند إرسال طلب سحب، سيحدد روبوت CLA تلقائيًا ما إذا كنت بحاجة إلى تقديم CLA وتزيين العلاقات العامة بشكل مناسب (على سبيل المثال، التحقق من الحالة، والتعليق). ما عليك سوى اتباع التعليمات التي يقدمها لك الروبوت. سوف تحتاج إلى القيام بذلك مرة واحدة فقط عبر جميع اتفاقيات إعادة الشراء باستخدام CLA الخاصة بنا.
اعتمد هذا المشروع قواعد السلوك الخاصة بشركة Microsoft مفتوحة المصدر. لمزيد من المعلومات، راجع الأسئلة الشائعة حول قواعد السلوك أو اتصل بـ [email protected] لطرح أي أسئلة أو تعليقات إضافية.