FLAML은 Microsoft Fabric Data Science에서 AutoML 및 하이퍼 매개 변수 조정을 지원합니다. 또한 Microsoft Fabric 제품 팀의 기여 덕분에 Python 3.11 지원, 다양한 새로운 추정기 및 MLflow와의 포괄적인 통합을 도입했습니다.
알림: AutoGen을 전용 github 저장소로 마이그레이션했습니다. 이러한 움직임과 함께 우리는 전용 Discord 서버와 포괄적인 문서를 위한 웹사이트도 출시했습니다.
AutoGen의 자동화된 다중 에이전트 채팅 프레임워크는 v2.0.0에서 미리 보기로 제공됩니다.
FLAML은 OpenAI의 요리책에서 강조되어 있습니다.
autogen은 대규모 언어 모델 생성 추론을 위한 비용 효율적인 하이퍼 매개변수 최적화를 기반으로 ChatGPT 및 GPT-4를 지원하여 출시되었습니다.
FLAML은 기계 학습 및 AI 작업의 효율적인 자동화를 위한 경량 Python 라이브러리입니다. 대규모 언어 모델, 머신러닝 모델 등을 기반으로 워크플로를 자동화하고 성능을 최적화합니다.
FLAML을 사용하면 최소한의 노력으로 다중 에이전트 대화를 기반으로 차세대 GPT-X 애플리케이션을 구축할 수 있습니다. 복잡한 GPT-X 워크플로우의 조정, 자동화 및 최적화를 단순화합니다. GPT-X 모델의 성능을 극대화하고 약점을 보완합니다.
분류 및 회귀와 같은 일반적인 기계 학습 작업의 경우 적은 계산 리소스로 사용자 제공 데이터에 대한 품질 모델을 빠르게 찾습니다. 사용자 정의하거나 확장하기 쉽습니다. 사용자는 원활한 범위에서 원하는 사용자 정의 기능을 찾을 수 있습니다.
빠르고 경제적인 자동 튜닝(예: 기초 모델을 위한 추론 하이퍼파라미터, MLOps/LMOps 워크플로의 구성, 파이프라인, 수학/통계 모델, 알고리즘, 컴퓨팅 실험, 소프트웨어 구성)을 지원하며, 다양한 평가 비용으로 대규모 검색 공간을 처리할 수 있습니다. 복잡한 제약/안내/조기 중지.
FLAML은 Microsoft Research와 Penn State University, Stevens Institute of Technology, University of Washington, University of Waterloo와 같은 공동 작업자의 일련의 연구를 기반으로 합니다.
FLAML은 .NET용 오픈 소스 크로스 플랫폼 기계 학습 프레임워크인 ML.NET에 .NET을 구현합니다.
FLAML에는 Python 버전 >= 3.8이 필요합니다. pip에서 설치할 수 있습니다.
pip 설치 flaml
추가 옵션 없이 최소한의 종속성이 설치됩니다. 필요한 기능에 따라 추가 옵션을 설치할 수 있습니다. 예를 들어 다음을 사용하여 autogen
패키지에 필요한 종속성을 설치합니다.
pip 설치 "flaml[autogen]"
설치에서 더 많은 옵션을 찾아보세요. 각 notebook examples
에는 특정 옵션을 설치해야 할 수 있습니다.
(New) autogen 패키지를 사용하면 일반 다중 에이전트 대화 프레임워크를 통해 차세대 GPT-X 애플리케이션을 사용할 수 있습니다. LLM, 도구 및 인간을 통합하는 사용자 정의 가능하고 대화 가능한 에이전트를 제공합니다. 여러 유능한 에이전트 간의 채팅을 자동화함으로써 코드를 통해 도구를 사용해야 하는 작업을 포함하여 자율적으로 또는 사람의 피드백을 통해 작업을 집합적으로 쉽게 수행할 수 있습니다. 예를 들어,
from flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="오늘 현재 10대 기술 기업의 YTD 이익을 보여주세요.", )# 이렇게 하면 작업을 해결하기 위해 두 에이전트 간의 자동 채팅이 시작됩니다.
Autogen은 또한 ChatGPT 및 GPT-4와 같은 값비싼 LLM의 유용성을 극대화하는 데 도움이 됩니다. 이는 튜닝, 캐싱, 템플릿 작성, 필터링과 같은 강력한 기능을 갖춘 openai.Completion
또는 openai.ChatCompletion
의 드롭인 대체 기능을 제공합니다. 예를 들어, 자체 튜닝 데이터, 성공 지표 및 예산을 사용하여 LLM으로 세대를 최적화할 수 있습니다.
# 조정 구성 수행, 분석 = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# 테스트 인스턴스에 대한 추론 수행response = autogen.Completion.create(context=test_instance, **config)
세 줄의 코드를 사용하면 이 경제적이고 빠른 AutoML 엔진을 scikit-learn 스타일 추정기로 사용할 수 있습니다.
flaml import AutoMLautoml = AutoML()automl.fit(X_train, y_train, task="classification")
학습자를 제한하고 FLAML을 XGBoost, LightGBM, Random Forest 등을 위한 빠른 하이퍼 매개변수 조정 도구 또는 맞춤형 학습자로 사용할 수 있습니다.
automl.fit(X_train, y_train, task="classification", estimator_list=["lgbm"])
사용자 정의 함수에 대해 일반 하이퍼매개변수 조정을 실행할 수도 있습니다.
flaml import tunetune.run(evaluation_function, config={...}, low_cost_partial_config={...}, time_budget_s=3600)에서 가져오기
제로샷 AutoML을 사용하면 lightgbm, xgboost 등의 기존 교육 API를 사용하는 동시에 작업당 고성능 하이퍼파라미터 구성을 선택할 때 AutoML의 이점을 얻을 수 있습니다.
from flaml.default import LGBMRegressor# lightgbm.LGBMRegressor.estimator = LGBMRegressor()#을 사용하는 것과 같은 방식으로 LGBMRegressor를 사용합니다. 하이퍼파라미터는 훈련 데이터에 따라 자동으로 설정됩니다.estimator.fit(X_train, y_train)
여기에서 FLAML에 대한 자세한 문서를 찾을 수 있습니다.
또한 다음을 찾을 수 있습니다.
FLAML에 관한 연구 및 블로그 게시물.
불화.
기여 가이드.
Model Builder, ML.NET CLI 및 AutoML API에 대한 ML.NET 설명서 및 자습서입니다.
이 프로젝트는 기여와 제안을 환영합니다. 대부분의 기여는 귀하가 귀하의 기여를 사용할 권리가 있고 실제로 그렇게 할 권리가 있음을 선언하는 기여자 라이센스 계약(CLA)에 동의해야 합니다. 자세한 내용을 보려면 https://cla.opensource.microsoft.com을 방문하세요.
GitHub를 처음 사용하는 경우 GitHub 개발 참여에 대한 자세한 도움말 소스가 있습니다.
끌어오기 요청을 제출하면 CLA 봇이 자동으로 CLA 제공이 필요한지 여부를 결정하고 PR을 적절하게 장식합니다(예: 상태 확인, 댓글). 봇이 제공하는 지침을 따르기만 하면 됩니다. CLA를 사용하여 모든 저장소에서 이 작업을 한 번만 수행하면 됩니다.
이 프로젝트는 Microsoft 오픈 소스 행동 강령을 채택했습니다. 자세한 내용은 행동 강령 FAQ를 참조하거나 추가 질문이나 의견이 있는 경우 [email protected]으로 문의하세요.