Описание тега openai-gym

OpenAI Gym - это платформа для исследований в области обучения с подкреплением, цель которой - обеспечить общий уровень интеллекта в самых разных средах.
1 ответ

pip install -e успешно, импорт не удался: ModuleNotFoundError

Я пытаюсь установить модуль, который я разрабатываю. Когда я использую 'pip install -e.', Он выводит 'Успешно установленную gym-mabifish', но когда я пытаюсь импортировать модуль с помощью 'import gym_mabifish', я получаю 'ModuleNotFoundError: Нет м…
31 май '18 в 00:53
1 ответ

Объявите кодировку в реализации Open AI Gym на Python 3

Я изучаю обучение подкреплению и следую этому уроку. Я пытаюсь запустить экземпляр среды CartPole-v0 и получаю эту ошибку. import gym env = gym.make('CartPole-v0') env.reset() for _ in range(1000): env.render() env.step(env.action_space.sample()) Sy…
01 окт '18 в 08:26
1 ответ

Повтор опыта делает моего агента хуже

Я "успешно" настроил Q-сеть для решения задачи "FrozenLake-v0" в спортзале OpenAI (по крайней мере, я думаю... не уверен на 100%, как я наберу очки - я получаю от 70 до 80 из 100 успешных эпизодов после 5к эпизодов тренировки без опыта переигровки).…
0 ответов

Open AI Gym Cart-Pole на основах PPO2

Был на этом уже два дня и никуда не денется. Я хочу создать свою собственную спортивную среду и запустить ее с помощью базовых линий ppo2 (cnn). Я полагаю, что если я заставлю Cart Pole работать, мой env тоже будет работать. Мой код работает на Deep…
1 ответ

Создание настраиваемой среды openAI Gym

На ПК с Linux я пытаюсь создать настраиваемую открытую среду AI Gym, и я могу получить все эти шаги из блога, написанного с medium.com, включая pip install -e . но я получаю ошибку с конечным продуктом, создающим среду env = gym.make('BASoperator-v1…
0 ответов

(HotterColder-v0) Угадай число, используя градиенты и направленные производные

Мне было очень трудно решить OpenAi-среду HotterColder-v0. Цель игры состоит в том, чтобы эффективно использовать предоставленную награду, чтобы понять, какие действия лучше всего предпринять. После каждого шага агент получает наблюдение: 0 - догадк…
0 ответов

Запустите тренажерный зал-беседку в Google Colab Laboratory

Я пытаюсь запустить тренажерный зал-беседку в Google Colab Laboratory.Существует проблема с запуском сервера беседки (беседка без графического интерфейса пользователя) на Colab.На дисплее было предупреждение: Unable to create X window. Rendering wil…
1 ответ

Случайный агент в мультиагентной спортивной среде

Я не могу выбирать случайные действия для мультиагентных спортивных залов. def make_env(scenario_name, benchmark=False): from multiagent.environment import MultiAgentEnv import multiagent.scenarios as scenarios # load scenario from script scenario =…
14 ноя '18 в 16:38
1 ответ

Почему примеры keras-rl всегда выбирают линейную активацию в выходном слое?

Я - новичок в Обучении Укреплению. И у меня есть вопрос о выборе функции активации выходного слоя для агентов keras-rl. Во всех примерах, предоставленных keras-rl ( https://github.com/matthiasplappert/keras-rl/tree/master/examples), выберите функцию…
03 авг '17 в 20:28
3 ответа

Показывать тренажерный зал OpenAI только в ноутбуке Jupyter

Я хочу играть с тренажерными залами OpenAI в тетради, с тренажерным залом, встроенным в линию. Вот основной пример: import matplotlib.pyplot as plt import gym from IPython import display %matplotlib inline env = gym.make('CartPole-v0') env.reset() f…
0 ответов

Игры atari не отображаются должным образом

Я не уверен, почему, когда я вызываю сценарий из API Open AI Gym, игры atari отображаются четыре раза, как показано ниже, я использую Ubuntu 14.04, python 2.7. Кто-нибудь знает, в чем может быть проблема?
27 апр '18 в 21:58
0 ответов

Производительность OpenGL и проблемы в контейнере сингулярности при запуске openai-gym

Я нахожусь в процессе создания некоторых контейнеров особенностей OpenAI + TensorFlow для запуска разных версий CPU/Cuda и TensorFlow. Мне удалось получить версию CPU и GPU с графическим интерфейсом, работающим внутри контейнеров сингулярности, но п…
1 ответ

Как улучшить производительность машинного обучения - модель обучения DQ

Лунный посадочный аппарат на DQlearning работает не очень хорошо, поэтому я пытаюсь улучшить производительность лунного посадочного аппарата (обучение дк), оптимизируя параметры, чтобы сделать его лучше. Какую часть я могу настроить? Кто-нибудь може…
1 ответ

Трудности с графикой AI-Gym Python в ноутбуках Jupyter

Я пытаюсь заставить демонстрации AI-Gym отображаться в записных книжках Jupyter. Я получаю хорошие результаты для демонстрации Atari Breakout-v0 и трудное сообщение об ошибке для демоверсии CartPole-v0, Оба отлично работают вне ноутбуков. Ниже приве…
18 дек '17 в 02:42
1 ответ

Обучение модели с тензорным потоком на openai cartpole

Я реализую свою первую модель глубокого обучения с подкреплением, используя тензорный поток, для которого я реализую задачу Cartpole. Я прибег к глубокой нейронной сети, используя шесть слоев, которые обучаются на наборе данных, сгенерированном случ…
1 ответ

Openai Universe-стартер-агент не тренируется

Я пытался запустить пример Openai-юниверса агента Openai, найденный здесь. Однако при использовании экземпляра m4.16xlarge в AWS с 32 работниками результат обучения агента не улучшается через 0,6 часа (более 30 минут), пока он заявил, что "агент мож…
14 апр '17 в 00:19
1 ответ

tflearn создание нескольких моделей

Я работаю над сценарием машинного обучения с tflearn и тренажерным залом. Я могу заставить работать одну сеть в моем Python- скрипте, но всякий раз, когда я пытаюсь вызвать мои функции для создания 2-й или 3-й сети и обучения ее с помощью model.fit,…
2 ответа

Низкое использование графического процессора при работе Tensorflow

Я занимаюсь изучением глубокого подкрепления с использованием тренажерного зала Tensorflow и OpenAI. Моя проблема - низкая загрузка графического процессора. Погуглив эту проблему, я понял, что неправильно ожидать большого использования графического …
1 ответ

Почему тренажерный зал openai возвращает нулевое вознаграждение за состояние терминала?

В последнее время я много экспериментировал с Gym (и RL), и один интерес к спортзалу вызвал у меня интерес. Почему OpenAI Gym возвращает 0, даже когда игра окончена? Например, в Breakout-v0, когда все пять жизней потрачены, env.step вернется done=Tr…
0 ответов

qvel и qpos для гуманоида-v1 в спортзале OpenAI

Я немного сбит с толку наблюдением за окружающей средой. Согласно документации, есть 24 qpos (22 показано + 2 скрыто), но только 23 qvel. Какой qpos не имеет соответствующего qvel? Большое спасибо!
28 фев '18 в 04:18