FLAML поддерживает AutoML и настройку гиперпараметров в Microsoft Fabric Data Science. Кроме того, мы представили поддержку Python 3.11, а также ряд новых средств оценки и комплексную интеграцию с MLflow — благодаря вкладу команды разработчиков Microsoft Fabric.
Внимание: мы перенесли AutoGen в специальный репозиторий GitHub. Помимо этого, мы также запустили выделенный сервер Discord и веб-сайт с подробной документацией.
Платформа автоматизированного многоагентного чата в AutoGen доступна в предварительной версии, начиная с версии 2.0.0.
FLAML выделен в кулинарной книге OpenAI.
autogen выпущен с поддержкой ChatGPT и GPT-4 на основе экономичной оптимизации гиперпараметров для вывода больших языковых моделей.
FLAML — это легкая библиотека Python для эффективной автоматизации машинного обучения и операций искусственного интеллекта. Он автоматизирует рабочий процесс на основе больших языковых моделей, моделей машинного обучения и т. д. и оптимизирует их производительность.
FLAML позволяет с минимальными усилиями создавать приложения GPT-X следующего поколения на основе межагентного взаимодействия. Он упрощает оркестровку, автоматизацию и оптимизацию сложного рабочего процесса GPT-X. Это максимизирует производительность моделей GPT-X и усиливает их недостатки.
Для распространенных задач машинного обучения, таких как классификация и регрессия, он быстро находит качественные модели для предоставленных пользователем данных с небольшими вычислительными ресурсами. Его легко настроить или расширить. Пользователи могут найти желаемые возможности настройки в широком диапазоне.
Он поддерживает быструю и экономичную автоматическую настройку (например, гиперпараметры вывода для базовых моделей, конфигурации в рабочих процессах MLOps/LMOps, конвейеры, математические/статистические модели, алгоритмы, вычислительные эксперименты, конфигурации программного обеспечения), способен обрабатывать большое пространство поиска с неоднородной стоимостью оценки и сложные ограничения/руководство/ранняя остановка.
FLAML основан на серии исследований Microsoft Research и таких сотрудников, как Университет штата Пенсильвания, Технологический институт Стивенса, Вашингтонский университет и Университет Ватерлоо.
FLAML имеет реализацию .NET в ML.NET, кроссплатформенной платформе машинного обучения с открытым исходным кодом для .NET.
Для FLAML требуется версия Python >= 3.8 . Его можно установить из pip:
pip install flaml
Минимальные зависимости устанавливаются без дополнительных опций. Вы можете установить дополнительные опции в зависимости от необходимой вам функции. Например, используйте следующее для установки зависимостей, необходимых для пакета autogen
.
pip install "flaml[autogen]"
Дополнительные параметры см. в разделе «Установка». Для каждого из notebook examples
может потребоваться установка определенной опции.
(Новое) Пакет autogen позволяет использовать приложения GPT-X следующего поколения с универсальной платформой многоагентного диалога. Он предлагает настраиваемых и диалоговых агентов, которые объединяют LLM, инструменты и человека. Автоматизируя чат между несколькими способными агентами, можно легко заставить их коллективно выполнять задачи автономно или с обратной связью от человека, включая задачи, требующие использования инструментов через код. Например,
from flaml import autogenassistant = autogen.AssistantAgent("assistant")user_proxy = autogen.UserProxyAgent("user_proxy")user_proxy.initiate_chat(assistant,message="Покажите мне прибыль 10 крупнейших технологических компаний на сегодняшний день с начала года", )# Это инициирует автоматический чат между двумя агентами для решения задачи.
Autogen также помогает максимизировать полезность дорогих LLM, таких как ChatGPT и GPT-4. Он предлагает замену openai.Completion
или openai.ChatCompletion
с мощными функциями, такими как настройка, кэширование, создание шаблонов и фильтрация. Например, вы можете оптимизировать поколения с помощью LLM, используя свои собственные данные настройки, показатели успеха и бюджеты.
# выполнить настройку настройки, анализ = autogen.Completion.tune(data=tune_data,metric="success",mode="max",eval_func=eval_func,inference_budget=0.05,optimization_budget=3,num_samples=-1, )# выполнить вывод для тестового экземпляраresponse = autogen.Completion.create(context=test_instance, **config)
С помощью трех строк кода вы можете начать использовать этот экономичный и быстрый движок AutoML в качестве средства оценки в стиле научного обучения.
из импорта flaml AutoMLautoml = AutoML()automl.fit(X_train, y_train, Task="classification")
Вы можете ограничить число учащихся и использовать FLAML в качестве инструмента быстрой настройки гиперпараметров для XGBoost, LightGBM, Random Forest и т. д. или в качестве индивидуального учащегося.
automl.fit(X_train, y_train, Task="классификация", estimator_list=["lgbm"])
Вы также можете запустить общую настройку гиперпараметров для пользовательской функции.
из flaml import Tunetune.run(evaluation_function, config={…}, low_cost_partial_config={…}, time_budget_s=3600)
AutoML с нулевым выстрелом позволяет использовать существующий API обучения от Lightgbm, xgboost и т. д., одновременно получая преимущества AutoML при выборе высокопроизводительных конфигураций гиперпараметров для каждой задачи.
из flaml.default import LGBMRegressor# Используйте LGBMRegressor так же, как вы используете Lightgbm.LGBMRegressor.estimator = LGBMRegressor()# Гиперпараметры автоматически устанавливаются в соответствии с обучающими данными.estimator.fit(X_train, y_train)
Подробную документацию по FLAML можно найти здесь.
Кроме того, вы можете найти:
Исследования и публикации в блогах о FLAML.
Раздор.
Руководство по содействию.
Документация и руководства по ML.NET для построителя моделей, интерфейса командной строки ML.NET и API AutoML.
Этот проект приветствует вклад и предложения. Большинство вкладов требует от вас согласия с Лицензионным соглашением для авторов (CLA), в котором говорится, что вы имеете право и действительно предоставляете нам права на использование вашего вклада. Подробную информацию можно найти на странице https://cla.opensource.microsoft.com.
Если вы новичок в GitHub, вот подробный источник помощи по участию в разработке на GitHub.
Когда вы отправляете запрос на включение, бот CLA автоматически определяет, нужно ли вам предоставить CLA, и соответствующим образом оформляет PR (например, проверку статуса, комментарий). Просто следуйте инструкциям бота. Вам нужно будет сделать это только один раз во всех репозиториях, используя наш CLA.
В этом проекте принят Кодекс поведения Microsoft с открытым исходным кодом. Для получения дополнительной информации см. часто задаваемые вопросы о Кодексе поведения или свяжитесь с нами по адресу [email protected], если у вас возникнут дополнительные вопросы или комментарии.