FLAML は、Microsoft Fabric Data Science での AutoML とハイパーパラメータ調整をサポートしています。さらに、Microsoft Fabric 製品チームの貢献により、Python 3.11 のサポート、さまざまな新しい推定機能、および MLflow との包括的な統合が導入されました。
注意: AutoGen を専用の github リポジトリに移行しました。この動きに合わせて、専用の Discord サーバーと包括的なドキュメント用の Web サイトも立ち上げました。
AutoGen の自動マルチエージェント チャット フレームワークは、v2.0.0 からプレビュー段階にあります。
FLAML は OpenAI のクックブックで取り上げられています。
autogen は、大規模言語モデル生成推論のためのコスト効率の高いハイパーパラメータ最適化に基づいて、ChatGPT および GPT-4 をサポートしてリリースされました。
FLAML は、機械学習と AI 操作を効率的に自動化するための軽量の Python ライブラリです。大規模な言語モデル、機械学習モデルなどに基づいてワークフローを自動化し、パフォーマンスを最適化します。
FLAML を使用すると、最小限の労力でマルチエージェントの会話に基づいた次世代 GPT-X アプリケーションを構築できます。複雑な GPT-X ワークフローのオーケストレーション、自動化、最適化を簡素化します。 GPT-X モデルのパフォーマンスを最大化し、その弱点を補います。
分類や回帰などの一般的な機械学習タスクでは、少ない計算リソースでユーザーが提供したデータの高品質なモデルを迅速に見つけます。カスタマイズや拡張も簡単です。ユーザーはスムーズな範囲から希望のカスタマイズ性を見つけることができます。
高速かつ経済的な自動チューニング (基礎モデルの推論ハイパーパラメーター、MLOps/LMOps ワークフローの構成、パイプライン、数学/統計モデル、アルゴリズム、計算実験、ソフトウェア構成など) をサポートし、異種の評価コストを伴う大規模な検索スペースを処理でき、複雑な制約/ガイダンス/早期停止。
FLAML は、Microsoft Research と、ペンシルベニア州立大学、スティーブンス工科大学、ワシントン大学、ウォータールー大学などの共同研究者による一連の調査研究によって支えられています。
FLAML には、.NET 用のオープンソースのクロスプラットフォーム機械学習フレームワークである ML.NET での .NET 実装があります。
FLAML にはPython バージョン 3.8 以上が必要です。 pip からインストールできます。
pip インストール flaml
追加のオプションなしで最小限の依存関係がインストールされます。必要な機能に基づいて追加のオプションをインストールできます。たとえば、 autogen
パッケージに必要な依存関係をインストールするには、次のコマンドを使用します。
pip インストール「flaml[autogen]」
インストールでその他のオプションを見つけてください。各notebook examples
では、特定のオプションをインストールする必要がある場合があります。
(新規) autogen パッケージは、汎用マルチエージェント会話フレームワークを備えた次世代 GPT-X アプリケーションを有効にします。 LLM、ツール、人間を統合する、カスタマイズ可能で会話可能なエージェントを提供します。複数の有能なエージェント間のチャットを自動化することで、コードを介してツールを使用する必要があるタスクを含め、自律的に、または人間のフィードバックを受けてタスクを集合的に実行させることが簡単にできます。例えば、
from flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="今日の時点での大手テクノロジー企業 10 社の年初来利益を見せてください。", )# これにより、タスクを解決するために 2 人のエージェント間の自動チャットが開始されます
Autogen は、ChatGPT や GPT-4 などの高価な LLM のユーティリティを最大化するのにも役立ちます。これは、チューニング、キャッシュ、テンプレート、フィルタリングなどの強力な機能を備えた、 openai.Completion
またはopenai.ChatCompletion
のドロップイン置き換えを提供します。たとえば、独自のチューニング データ、成功指標、予算を使用して LLM によって世代を最適化できます。
# チューニング設定を実行し、分析 = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# テスト インスタンスの推論を実行しますresponse = autogen.Completion.create(context=test_instance, **config)
3 行のコードで、この経済的で高速な AutoML エンジンを scikit-learn スタイルの推定ツールとして使用し始めることができます。
from flaml import AutoMLautoml = AutoML()automl.fit(X_train, y_train, task="classification")
学習者を制限し、XGBoost、LightGBM、ランダム フォレストなどの高速ハイパーパラメータ調整ツールとして、またはカスタマイズされた学習者として FLAML を使用できます。
automl.fit(X_train, y_train, task="分類", estimator_list=["lgbm"])
カスタム関数の汎用ハイパーパラメーター調整を実行することもできます。
from flaml importtunetune.run(evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600)
ゼロショット AutoML では、lightgbm、xgboost などの既存のトレーニング API を使用できると同時に、タスクごとに高性能のハイパーパラメータ構成を選択する際に AutoML の利点を活用できます。
from flaml.default import LGBMRegressor# lightgbm.LGBMRegressor.estimator = LGBMRegressor()# を使用するのと同じ方法で LGBMRegressor を使用します。 ハイパーパラメータはトレーニング データに従って自動的に設定されます。estimator.fit(X_train, y_train)
FLAML に関する詳細なドキュメントはここで見つけることができます。
さらに、次のものも見つかります。
FLAML に関する研究とブログ投稿。
不和。
貢献したガイド。
モデル ビルダー、ML.NET CLI、および AutoML API の ML.NET ドキュメントとチュートリアル。
このプロジェクトは貢献と提案を歓迎します。ほとんどの投稿では、投稿を使用する権利をお客様が有しており、実際に当社に付与することを宣言する投稿者ライセンス契約 (CLA) に同意する必要があります。詳細については、https://cla.opensource.microsoft.com をご覧ください。
GitHub を初めて使用する場合は、GitHub での開発に参加するための詳細なヘルプ ソースを参照してください。
プル リクエストを送信すると、CLA ボットが CLA を提供する必要があるかどうかを自動的に判断し、PR を適切に装飾します (ステータス チェック、コメントなど)。ボットが提供する指示に従ってください。 CLA を使用するすべてのリポジトリでこれを 1 回行うだけで済みます。
このプロジェクトはマイクロソフトのオープンソース行動規範を採用しています。詳細については、「行動規範に関するよくある質問」を参照するか、追加の質問やコメントがあれば [email protected] までお問い合わせください。