FLAML 支援 Microsoft Fabric Data Science 中的 AutoML 和超參數調整。此外,我們還引入了 Python 3.11 支援以及一系列新的估計器,以及與 MLflow 的全面整合——這要歸功於 Microsoft Fabric 產品團隊的貢獻。
注意:我們已將 AutoGen 移轉到專用的 github 儲存庫。除了這項措施之外,我們還推出了專用的 Discord 伺服器和一個提供綜合文件的網站。
AutoGen 中的自動化多代理聊天框架從 v2.0.0 開始提供預覽版。
OpenAI 的食譜中重點介紹了 FLAML。
autogen 發布,支援 ChatGPT 和 GPT-4,基於用於大型語言模型生成推理的經濟高效的超參數最佳化。
FLAML 是一個輕量級 Python 函式庫,用於高效自動化機器學習和 AI 操作。它基於大型語言模型、機器學習模型等自動化工作流程並優化其效能。
FLAML 可以輕鬆建立基於多代理對話的下一代 GPT-X 應用程式。它簡化了複雜 GPT-X 工作流程的編排、自動化和最佳化。它最大限度地提高了 GPT-X 模型的性能並彌補了它們的弱點。
對於分類和回歸等常見機器學習任務,它可以使用較低的計算資源快速找到使用者提供的資料的品質模型。它很容易定製或擴展。用戶可以從平滑的範圍中找到他們想要的可自訂性。
它支援快速且經濟的自動調整(例如,基礎模型的推理超參數、MLOps/LMOps工作流程中的配置、管道、數學/統計模型、演算法、計算實驗、軟體配置),能夠處理具有異質評估成本的大搜尋空間和複雜的約束/指導/提前停止。
FLAML 由 Microsoft Research 以及賓州州立大學、史蒂文斯理工學院、華盛頓大學和滑鐵盧大學等合作者的一系列研究提供支援。
FLAML 在 ML.NET 中具有 .NET 實現,ML.NET 是 .NET 的開源跨平台機器學習框架。
FLAML 需要Python 版本 >= 3.8 。可以從 pip 安裝:
pip 安裝 flaml
安裝最少的依賴項,無需額外選項。您可以根據需要的功能安裝額外的選項。例如,使用下列命令安裝autogen
套件所需的依賴項。
pip install "flaml[autogen]"
在安裝中找到更多選項。每個notebook examples
可能需要安裝特定的選項。
(新)autogen 套件支援具有通用多代理對話框架的下一代 GPT-X 應用程式。它提供可自訂和可對話的代理,整合了法學碩士、工具和人員。透過在多個有能力的代理之間自動進行聊天,人們可以輕鬆地讓他們自主地或根據人工回饋集體執行任務,包括需要透過程式碼使用工具的任務。例如,
from flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="顯示截至今天 10 家最大科技公司的年初至今收益。"," )# 這會在兩個代理之間啟動自動聊天來解決任務
Autogen 也有助於最大限度地提高 ChatGPT 和 GPT-4 等昂貴的法學碩士的效用。它提供了openai.Completion
或openai.ChatCompletion
的直接替代品,具有強大的功能,如調整、快取、模板、篩選。例如,您可以透過 LLM 使用您自己的調整資料、成功指標和預算來優化生成。
# 執行調整配置,analysis = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# 對測試實例執行推理response = autogen.Completion.create(context=test_instance, **config)
只需三行程式碼,您就可以開始使用這個經濟且快速的 AutoML 引擎作為 scikit-learn 風格的估計器。
from flaml import AutoMLautoml = AutoML()automl.fit(X_train, y_train, 任務=「分類」)
您可以限制學習器並使用 FLAML 作為 XGBoost、LightGBM、隨機森林等的快速超參數調整工具或自訂學習器。
automl.fit(X_train, y_train, 任務=「分類」, estimator_list=[「lgbm」])
您也可以對自訂函數執行通用超參數調整。
from flaml import tuunetune.run(evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600)
零樣本 AutoML 允許使用 lightgbm、xgboost 等現有的訓練 API,同時在為每個任務選擇高效能超參數配置方面獲得 AutoML 的優勢。
from flaml.default import LGBMRegressor# 使用 LGBMRegressor 的方式與使用 lightgbm.LGBMRegressor.estimator = LGBMRegressor()# 根據訓練資料自動設定超參數.estimator.fit(X_train, y_train)
您可以在此處找到有關 FLAML 的詳細文件。
此外,您還可以找到:
圍繞 FLAML 的研究和部落格文章。
不和諧。
貢獻指南。
適用於模型產生器、ML.NET CLI 和 AutoML API 的 ML.NET 文件和教學課程。
該項目歡迎貢獻和建議。大多數貢獻都要求您同意貢獻者授權協議 (CLA),聲明您有權並且實際上授予我們使用您的貢獻的權利。有關詳細信息,請訪問 https://cla.opensource.microsoft.com。
如果您是 GitHub 新手,這裡有關於參與 GitHub 開發的詳細幫助資源。
當您提交拉取請求時,CLA 機器人將自動確定您是否需要提供 CLA 並適當地修飾 PR(例如,狀態檢查、評論)。只需按照機器人提供的說明進行操作即可。您只需使用我們的 CLA 在所有儲存庫中執行一次此操作。
該專案採用了微軟開源行為準則。有關詳細信息,請參閱行為準則常見問題解答或聯繫 [email protected] 提出任何其他問題或意見。