Как использовать keras-rl для обучения нескольких агентов

Я пытаюсь использовать keras-rl, но в среде с несколькими агентами. Так что я обнаружил эту проблему с github keras-rl с идеей использования общей среды для всех агентов. К сожалению, мне не удалось заставить его работать. Кажется, что использование среды спортзала в таком контексте вообще возможно, мне просто не удалось заставить его работать с keras-rl. Кто-нибудь знает, как это сделать?

0 ответов

Я собрал что-то, что работает для последовательных игр, основываясь на одном из ответов на вопрос, который вы связали, и это в основном работает: https://github.com/velochy/rl-bargaining/blob/master/interleaved.py

Должно быть довольно просто адаптироваться к одновременным играм, настраивая функции "вперед" и "назад", чтобы соответствующим образом разделить пространство действий и вызвать всех субагентов.

Другие вопросы по тегам