RL Collision Avoidance предоставляет полный конвейер для разработки, обучения и внедрения политик избегания столкновений для мульти-роботов. Предлагает набор сценариев симуляции, совместимых с Gym, где агенты учатся избегать столкновений с помощью алгоритмов обучения с подкреплением. Пользователи могут настраивать параметры окружения, использовать GPU для ускоренного обучения и экспортировать полученные политики. Фреймворк также интегрирован с ROS для тестирования в реальных условиях, поддерживает предварительно обученные модели для немедленной оценки и оснащен инструментами для визуализации траекторий агентов и метрик производительности.
Основные функции RL Collision Avoidance
Многоагентные среды обучения с подкреплением
Обучение политик избегания столкновений
Предварительно обученные модели для быстрого старта
Что такое StarCraft II Reinforcement Learning Agent?
Данный репозиторий предоставляет полноценную рамочную платформу для исследований в области обучения с подкреплением в игре StarCraft II. Основной агент использует Proximal Policy Optimization (PPO) для обучения сетей политики, интерпретирующих данные наблюдений из среды PySC2 и выдающих точные действия в игре. Разработчики могут настраивать слои нейронных сетей, формирование вознаграждений и графики обучения для оптимизации производительности. Система поддерживает многопоточность для эффективного сбора образцов, утилиты логирования для мониторинга кривых обучения и скрипты оценки для тестирования обученных моделей против скриптованных или встроенных ИИ-оппонентов. Код написан на Python и использует TensorFlow для определения и оптимизации моделей. Пользователи могут расширять компоненты, такие как пользовательские функции вознаграждения, предварительная обработка состояния или архитектура сети, для достижения конкретных целей исследования.
Основные функции StarCraft II Reinforcement Learning Agent