Фреймворк для децентрализованного выполнения политики, эффективной координации и масштабируемого обучения агентов с подкреплением с несколькими агентами в различных средах.
DEf-MARL (Фреймворк децентрализенного исполнения для многопользовательского обучения с подкреплением) обеспечивает надежную инфраструктуру для выполнения и обучения кооперативных агентов без централизованных контроллеров. Он использует протоколы связи peer-to-peer для обмена политиками и наблюдениями между агентами, обеспечивая координацию через локальные взаимодействия. Фреймворк бесшовно интегрируется с такими популярными инструментами RL, как PyTorch и TensorFlow, предлагая настраиваемые оболочки окружения, сборку распределенных запусков и модули синхронизации градиентов. Пользователи могут определять индивидуальные пространства наблюдения, функции награды и топологии связи. DEf-MARL поддерживает динамическое добавление и удаление агентов во время выполнения, отказоустойчивое выполнение за счет репликации критического состояния между узлами и адаптивное расписание связи для балансировки исследования и эксплуатации. Он ускоряет обучение за счет параллельного моделирования окружений и уменьшения центральных узких мест, что делает его подходящим для масштабных исследований MARL и промышленных симуляций.
Основные функции DEf-MARL
Децентрализованное выполнение политики
Протоколы связи peer-to-peer
Распределенный сбор запуска
Модули синхронизации градиентов
Гибкие оболочки окружения
Отказоустойчивое выполнение
Динамическое управление агентами
Адаптивное расписание связи
Плюсы и минусы DEf-MARL
Плюсы
Обеспечивает безопасную координацию с нулевыми нарушениями ограничений в мультиагентных системах
Улучшает стабильность обучения с использованием эпиграфной формы для оптимизации с ограничениями
Поддерживает распределенное выполнение с децентрализованным решением задач каждым агентом
Демонстрирует превосходную производительность в различных симуляционных средах
Проверено на реальном оборудовании (квадрокоптеры Crazyflie) для сложных совместных задач
Минусы
Нет четкой информации о коммерческой доступности или ценах
Ограничено областью исследований и робототехники без упоминания прямого применения для конечного пользователя
Потенциальная сложность реализации из-за продвинутой теоретической формулировки
VMAS — это модульная система обучения с усилением для многопроцессорных агентов, позволяющая моделировать и обучать мультиагентные системы с использованием встроенных алгоритмов и аппаратного ускорения GPU.
VMAS — полный набор инструментов для построения и обучения мультиагентных систем с помощью глубокого обучения с подкреплением. Он обеспечивает параллельное моделирование сотен экземпляров окружений на GPU, что позволяет собирать данные с высокой пропускной способностью и масштабировать обучение. VMAS включает реализации популярных алгоритмов MARL, таких как PPO, MADDPG, QMIX и COMA, и предлагает модульные интерфейсы для быстрой прототипизации политики и среды. Фреймворк позволяет организовать централизованное обучение с децентрализованным исполнением (CTDE), поддерживаемые настраиваемые наградные функции, пространства наблюдения и хуки обратных вызовов для ведения журналов и визуализации. Благодаря модульной архитектуре VMAS легко интегрируется с моделями PyTorch и внешними средами, что делает его идеальным для исследований в задачах сотрудничества, соревнований и смешанных мотиваций в робототехнике, управлении трафиком, распределении ресурсов и сценариях игровой AI.
Open-source рамочная платформа с несколькими агентами с обучением с подкреплением для кооперативного управления автономными транспортными средствами в дорожных сценариях.
AutoDRIVE Cooperative MARL — это открытая платформа для обучения и развертывания совместных политик обучения с подкреплением для автономных заданий. Она интегрируется с реалистичными симуляторами для моделирования дорожных сценариев, таких как перекрестки, автопоезда на шоссе и сценарии слияния. В рамках реализовано централизованное обучение с децентрализованным выполнением, что позволяет транспортным средствам обучаться объединённым политикам для повышения эффективности и безопасности дорожного движения. Пользователи могут настраивать параметры среды, выбирать алгоритмы MARL, визуализировать прогресс обучения и оценивать координацию агентов.