Расширение прав и возможностей действительно автономных агентов ИИ через состязательное эволюционное обучение подкреплению
Веб -сайт
Белый документ
Технологическая бумага
Док
Телеграмма
Twitter/x
Обзор
Функции
Начиная
Установка
Компоненты
Эволюционная петля
Подробное прохождение
Лицензия
Внося
Цитирование
Evolverl-это новаторская структура, которая позволяет агентам искусственного интеллекта в самосовершенствовании с помощью эволюционных и состязательных механизмов. В отличие от традиционных подходов, которые в значительной степени зависят от ручной разработки, Evolverl позволяет агентам систематически генерировать, проверять и совершенствовать свои собственные подсказки и конфигурации, преодолевая разрыв между теоретической автономией и фактической уверенностью.
В новой экономике агента ИИ многие предполагают будущее, когда агенты автономно работают с минимальным человеческим надзором. Однако, если люди должны постоянно обновлять подсказки для ИИ для выполнения новых задач или краевых случаев, агенты не являются суверенными. Evolverl решает это, обеспечивая непрерывное самосовершенствование через:
Автономная эволюция : агенты обнаруживают пробелы и обновляют свои собственные подсказки
Адверсенциальное тестирование : надежная проверка против сложных сценариев
Выбор на основе производительности : естественное появление оптимальных конфигураций
Непрерывная адаптация : реакция в реальном времени на изменение условий
Эволюционная оптимизация : эволюционные подсказки и поведение с использованием генетических алгоритмов
Домен агностик : специализация для любого домена
Надежная оценка : комплексная оценка и оценка
Адверскую тестирование : генерируйте сложные сценарии, чтобы обеспечить надежность
Управление государством : сэкономить и нагрузить модели и их состояния
Поддержка нескольких моделей : используйте GPT Openai или Claude's или Run LlaMa на местном уровне (скоро наступит)
Петля самосовершенствования : непрерывная эволюция без вмешательства человека
# Basic InstallPip Install Evolverl# Установка со всеми зависимостью INTERCHT EVOLVERL [ALL]
Из Evolverl.Evolution Import Evolution, evolutionConfigfrom evolverl.llm import llmconfigfrom evolverl.agent import Agent, AgentConfig # configure llm Backendllm_config = llmconfig (model_name = "gpt-4", model_type = "open open_kee_key_kee_key_kee_ -api-key " # или anpropic_api_key for claude) # Создать агента с помощью системы racgleagent_config = agentconfig (llm_config = llm_config) agent = agent (agent_config) agent.set_default_prompt (" " Сложные задачи шаг за шагом и показать свою работу ясно. (config, experiment_id = "math_solver")# запустить Evolution Processawait Evolution.Evolve (domain = "Mathematics", description = "Решение сложных математических задач с подробными объяснениями")
Вы также можете использовать агенты напрямую без эволюции:
# Создание и настройка AgentAgent = Agent (AgentConfig (LLM_CONFIG = LLM_CONFIG)) AGERT.SET_DEFAULT_PROMPT («Вы - полезный помощник AI ...»)# Отправить сообщения. (ответ)
train_agent.py
- это одно файловый клин, который запускает процесс эволюции. Обязательно обновите файл конфигурации default_config.json
в первую очередь, а также сохраните свой ключ OpenAI или антропного API в качестве переменных среды или в .env
.
# Базовое использование с OpenAipyThon Train_agent.py -Domain Math -Description "Решение математических задач" -v# Используйте Anpropic Claudepython train_agent.py -provider Антропический train_agent.py-домен-файл домен/math_solver.json# пользовательский выходной каталог train_agent.py -домен математика -description "..." -vvv
Текущие примеры домена находятся на естественном языке. Вы можете добавить более подробную информацию при создании собственных вариантов использования. Кроме того, вы можете включить любые примеры, которые, по вашему мнению, важны для того, чтобы агент знал.
agents/ ├── {experiment_id}_gen0.json # Best agent from generation 0 ├── {experiment_id}_gen0_full.json # All variants and scores from generation 0 ├── {experiment_id}_gen1.json # Best agent from generation 1 ├── {experiment_id}_gen1_full.json # All variants and scores from generation 1 └── {experiment_id}_best.json # Best agent overall
Индивидуальный .json
(не *_full.json
) содержит AgentConfig
для лучшего агента поколения или в целом. Вы можете инициировать агента непосредственно из его файла AgentConfig
, позвонив в agent.load_config(PATH_TO_CONFIG_FILE)
. Обязательно обновите ключ API, так как он не будет храниться в файле AgentConfig
.
{"popult_size": 5, «поколения»: 10, "mutation_rate": 0,1, "crossover_rate": 0,8, "min_score_threshold": 0,7, "tournament_size": 2, "max_interaction_attempts": 5, "output_dir": «агенты». , "llm_config": {"model_name": "gpt-4o-mini", "model_type": "openai", "max_tokens": 500, "Температура": 0,7} }
agents/ ├── {experiment_id}_gen0.json # Best agent from generation 0 ├── {experiment_id}_gen0_full.json # All variants from generation 0 ├── {experiment_id}_gen1.json # Best agent from generation 1 ├── {experiment_id}_gen1_full.json # All variants from generation 1 └── {experiment_id}_best.json # Best agent overall
Процесс эволюции показывает прогресс в режиме реального времени с вложенными барами прогресса:
Generation 2/10: 100%|██████████| 6/6 [00:15<00:00, best_score=0875, avg_score=0834] Overall Progress: 15%|██ | 12/80 [00:30<02:45, generation=2/10, best_overall=0875]
Это может занять некоторое время в зависимости от количества поколений и численности населения на поколение.
Лицензия MIT - для получения подробной информации см. Файл лицензии
Вилка репозитория
Создать филиал
Совершить свои изменения
Подтолкнуть к ветке
Создать запрос на вытягивание
@software {evolverl2024, title = {evolverl: эволюционное обучение подкрепления для LLMS}, Author = {TheHandsomedev}, Год = {2025}, url = {https://www.evolverl.com/}}