FLAML oferece suporte a AutoML e ajuste de hiperparâmetros no Microsoft Fabric Data Science. Além disso, introduzimos o suporte ao Python 3.11, juntamente com uma variedade de novos estimadores e integração abrangente com o MLflow, graças às contribuições da equipe de produto do Microsoft Fabric.
Atenção: migramos o AutoGen para um repositório github dedicado. Junto com essa mudança, também lançamos um servidor Discord dedicado e um site para documentação abrangente.
A estrutura de bate-papo multiagente automatizada no AutoGen está em versão prévia na versão 2.0.0.
FLAML é destacado no livro de receitas da OpenAI.
autogen é lançado com suporte para ChatGPT e GPT-4, com base na otimização econômica de hiperparâmetros para inferência de geração de modelos de linguagem grande.
FLAML é uma biblioteca Python leve para automação eficiente de aprendizado de máquina e operações de IA. Ele automatiza o fluxo de trabalho com base em grandes modelos de linguagem, modelos de aprendizado de máquina, etc., e otimiza seu desempenho.
FLAML permite a construção de aplicativos GPT-X de última geração baseados em conversas multiagentes com esforço mínimo. Ele simplifica a orquestração, automação e otimização de um fluxo de trabalho GPT-X complexo. Maximiza o desempenho dos modelos GPT-X e aumenta seus pontos fracos.
Para tarefas comuns de aprendizado de máquina, como classificação e regressão, ele encontra rapidamente modelos de qualidade para dados fornecidos pelo usuário com poucos recursos computacionais. É fácil personalizar ou ampliar. Os usuários podem encontrar a personalização desejada em uma variedade suave.
Ele suporta ajuste automático rápido e econômico (por exemplo, hiperparâmetros de inferência para modelos básicos, configurações em fluxos de trabalho MLOps/LMOps, pipelines, modelos matemáticos/estatísticos, algoritmos, experimentos de computação, configurações de software), capaz de lidar com grande espaço de pesquisa com custo de avaliação heterogêneo e restrições complexas/orientação/parada antecipada.
FLAML é alimentado por uma série de estudos de pesquisa da Microsoft Research e colaboradores como Penn State University, Stevens Institute of Technology, University of Washington e University of Waterloo.
FLAML tem uma implementação .NET em ML.NET, uma estrutura de aprendizado de máquina multiplataforma e de código aberto para .NET.
FLAML requer versão Python >= 3.8 . Ele pode ser instalado a partir do pip:
pip instalar flaml
Dependências mínimas são instaladas sem opções extras. Você pode instalar opções extras com base no recurso necessário. Por exemplo, use o seguinte para instalar as dependências necessárias ao pacote autogen
.
pip instalar "flaml[autogen]"
Encontre mais opções em Instalação. Cada um dos notebook examples
pode exigir a instalação de uma opção específica.
(Novo) O pacote autogen habilita os aplicativos GPT-X de última geração com uma estrutura genérica de conversação multiagente. Oferece agentes customizáveis e conversacionais que integram LLMs, ferramentas e humanos. Ao automatizar o bate-papo entre vários agentes capazes, é possível fazer com que eles executem tarefas coletivamente de forma autônoma ou com feedback humano, incluindo tarefas que exigem o uso de ferramentas via código. Por exemplo,
from flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="Mostre-me o ganho acumulado no ano das 10 maiores empresas de tecnologia a partir de hoje.", )# Isso inicia um bate-papo automatizado entre os dois agentes para resolver a tarefa
O Autogen também ajuda a maximizar a utilidade de LLMs caros, como ChatGPT e GPT-4. Ele oferece uma substituição imediata de openai.Completion
ou openai.ChatCompletion
com funcionalidades poderosas como ajuste, cache, modelagem, filtragem. Por exemplo, você pode otimizar gerações por LLM com seus próprios dados de ajuste, métricas de sucesso e orçamentos.
# execute tuningconfig, análise = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# realizar inferência para uma instância de testeresponse = autogen.Completion.create(context=test_instance, **config)
Com três linhas de código, você pode começar a usar esse mecanismo AutoML econômico e rápido como um estimador de estilo scikit-learn.
de flaml importar AutoMLautoml = AutoML()automl.fit(X_train, y_train, task="classificação")
Você pode restringir os alunos e usar FLAML como uma ferramenta rápida de ajuste de hiperparâmetros para XGBoost, LightGBM, Random Forest etc.
automl.fit(X_train, y_train, task="classificação", estimator_list=["lgbm"])
Você também pode executar o ajuste genérico de hiperparâmetros para uma função personalizada.
de flaml import tunetune.run(evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600)
O Zero-shot AutoML permite usar a API de treinamento existente de lightgbm, xgboost etc., ao mesmo tempo que obtém os benefícios do AutoML na escolha de configurações de hiperparâmetros de alto desempenho por tarefa.
from flaml.default import LGBMRegressor# Use LGBMRegressor da mesma forma que usa lightgbm.LGBMRegressor.estimator = LGBMRegressor()# Os hiperparâmetros são definidos automaticamente de acordo com o treinamento data.estimator.fit(X_train, y_train)
Você pode encontrar uma documentação detalhada sobre FLAML aqui.
Além disso, você pode encontrar:
Pesquisa e postagens em blogs sobre FLAML.
Discórdia.
Guia de contribuição.
Documentação e tutoriais do ML.NET para Model Builder, ML.NET CLI e AutoML API.
Este projeto aceita contribuições e sugestões. A maioria das contribuições exige que você concorde com um Contrato de Licença de Colaborador (CLA), declarando que você tem o direito de nos conceder, e realmente nos concede, os direitos de uso de sua contribuição. Para obter detalhes, visite https://cla.opensource.microsoft.com.
Se você é novo no GitHub, aqui está uma fonte de ajuda detalhada sobre como se envolver com o desenvolvimento no GitHub.
Quando você envia uma solicitação pull, um bot CLA determinará automaticamente se você precisa fornecer um CLA e decorará o PR adequadamente (por exemplo, verificação de status, comentário). Basta seguir as instruções fornecidas pelo bot. Você só precisará fazer isso uma vez em todos os repositórios que usam nosso CLA.
Este projeto adotou o Código de Conduta de Código Aberto da Microsoft. Para obter mais informações, consulte as Perguntas frequentes sobre o Código de Conduta ou entre em contato com [email protected] com perguntas ou comentários adicionais.