Описание тега openai-gym
OpenAI Gym - это платформа для исследований в области обучения с подкреплением, цель которой - обеспечить общий уровень интеллекта в самых разных средах.
1
ответ
pip install -e успешно, импорт не удался: ModuleNotFoundError
Я пытаюсь установить модуль, который я разрабатываю. Когда я использую 'pip install -e.', Он выводит 'Успешно установленную gym-mabifish', но когда я пытаюсь импортировать модуль с помощью 'import gym_mabifish', я получаю 'ModuleNotFoundError: Нет м…
31 май '18 в 00:53
1
ответ
Объявите кодировку в реализации Open AI Gym на Python 3
Я изучаю обучение подкреплению и следую этому уроку. Я пытаюсь запустить экземпляр среды CartPole-v0 и получаю эту ошибку. import gym env = gym.make('CartPole-v0') env.reset() for _ in range(1000): env.render() env.step(env.action_space.sample()) Sy…
01 окт '18 в 08:26
1
ответ
Повтор опыта делает моего агента хуже
Я "успешно" настроил Q-сеть для решения задачи "FrozenLake-v0" в спортзале OpenAI (по крайней мере, я думаю... не уверен на 100%, как я наберу очки - я получаю от 70 до 80 из 100 успешных эпизодов после 5к эпизодов тренировки без опыта переигровки).…
04 апр '18 в 09:54
0
ответов
Open AI Gym Cart-Pole на основах PPO2
Был на этом уже два дня и никуда не денется. Я хочу создать свою собственную спортивную среду и запустить ее с помощью базовых линий ppo2 (cnn). Я полагаю, что если я заставлю Cart Pole работать, мой env тоже будет работать. Мой код работает на Deep…
20 апр '18 в 10:59
1
ответ
Создание настраиваемой среды openAI Gym
На ПК с Linux я пытаюсь создать настраиваемую открытую среду AI Gym, и я могу получить все эти шаги из блога, написанного с medium.com, включая pip install -e . но я получаю ошибку с конечным продуктом, создающим среду env = gym.make('BASoperator-v1…
03 дек '18 в 21:45
0
ответов
(HotterColder-v0) Угадай число, используя градиенты и направленные производные
Мне было очень трудно решить OpenAi-среду HotterColder-v0. Цель игры состоит в том, чтобы эффективно использовать предоставленную награду, чтобы понять, какие действия лучше всего предпринять. После каждого шага агент получает наблюдение: 0 - догадк…
24 фев '19 в 00:54
0
ответов
Запустите тренажерный зал-беседку в Google Colab Laboratory
Я пытаюсь запустить тренажерный зал-беседку в Google Colab Laboratory.Существует проблема с запуском сервера беседки (беседка без графического интерфейса пользователя) на Colab.На дисплее было предупреждение: Unable to create X window. Rendering wil…
20 фев '19 в 23:05
1
ответ
Случайный агент в мультиагентной спортивной среде
Я не могу выбирать случайные действия для мультиагентных спортивных залов. def make_env(scenario_name, benchmark=False): from multiagent.environment import MultiAgentEnv import multiagent.scenarios as scenarios # load scenario from script scenario =…
14 ноя '18 в 16:38
1
ответ
Почему примеры keras-rl всегда выбирают линейную активацию в выходном слое?
Я - новичок в Обучении Укреплению. И у меня есть вопрос о выборе функции активации выходного слоя для агентов keras-rl. Во всех примерах, предоставленных keras-rl ( https://github.com/matthiasplappert/keras-rl/tree/master/examples), выберите функцию…
03 авг '17 в 20:28
3
ответа
Показывать тренажерный зал OpenAI только в ноутбуке Jupyter
Я хочу играть с тренажерными залами OpenAI в тетради, с тренажерным залом, встроенным в линию. Вот основной пример: import matplotlib.pyplot as plt import gym from IPython import display %matplotlib inline env = gym.make('CartPole-v0') env.reset() f…
09 окт '18 в 17:32
0
ответов
Игры atari не отображаются должным образом
Я не уверен, почему, когда я вызываю сценарий из API Open AI Gym, игры atari отображаются четыре раза, как показано ниже, я использую Ubuntu 14.04, python 2.7. Кто-нибудь знает, в чем может быть проблема?
27 апр '18 в 21:58
0
ответов
Производительность OpenGL и проблемы в контейнере сингулярности при запуске openai-gym
Я нахожусь в процессе создания некоторых контейнеров особенностей OpenAI + TensorFlow для запуска разных версий CPU/Cuda и TensorFlow. Мне удалось получить версию CPU и GPU с графическим интерфейсом, работающим внутри контейнеров сингулярности, но п…
01 ноя '18 в 20:38
1
ответ
Как улучшить производительность машинного обучения - модель обучения DQ
Лунный посадочный аппарат на DQlearning работает не очень хорошо, поэтому я пытаюсь улучшить производительность лунного посадочного аппарата (обучение дк), оптимизируя параметры, чтобы сделать его лучше. Какую часть я могу настроить? Кто-нибудь може…
26 апр '18 в 10:59
1
ответ
Трудности с графикой AI-Gym Python в ноутбуках Jupyter
Я пытаюсь заставить демонстрации AI-Gym отображаться в записных книжках Jupyter. Я получаю хорошие результаты для демонстрации Atari Breakout-v0 и трудное сообщение об ошибке для демоверсии CartPole-v0, Оба отлично работают вне ноутбуков. Ниже приве…
18 дек '17 в 02:42
1
ответ
Обучение модели с тензорным потоком на openai cartpole
Я реализую свою первую модель глубокого обучения с подкреплением, используя тензорный поток, для которого я реализую задачу Cartpole. Я прибег к глубокой нейронной сети, используя шесть слоев, которые обучаются на наборе данных, сгенерированном случ…
02 июл '17 в 18:57
1
ответ
Openai Universe-стартер-агент не тренируется
Я пытался запустить пример Openai-юниверса агента Openai, найденный здесь. Однако при использовании экземпляра m4.16xlarge в AWS с 32 работниками результат обучения агента не улучшается через 0,6 часа (более 30 минут), пока он заявил, что "агент мож…
14 апр '17 в 00:19
1
ответ
tflearn создание нескольких моделей
Я работаю над сценарием машинного обучения с tflearn и тренажерным залом. Я могу заставить работать одну сеть в моем Python- скрипте, но всякий раз, когда я пытаюсь вызвать мои функции для создания 2-й или 3-й сети и обучения ее с помощью model.fit,…
21 ноя '17 в 00:23
2
ответа
Низкое использование графического процессора при работе Tensorflow
Я занимаюсь изучением глубокого подкрепления с использованием тренажерного зала Tensorflow и OpenAI. Моя проблема - низкая загрузка графического процессора. Погуглив эту проблему, я понял, что неправильно ожидать большого использования графического …
26 янв '18 в 14:44
1
ответ
Почему тренажерный зал openai возвращает нулевое вознаграждение за состояние терминала?
В последнее время я много экспериментировал с Gym (и RL), и один интерес к спортзалу вызвал у меня интерес. Почему OpenAI Gym возвращает 0, даже когда игра окончена? Например, в Breakout-v0, когда все пять жизней потрачены, env.step вернется done=Tr…
10 мар '18 в 16:26
0
ответов
qvel и qpos для гуманоида-v1 в спортзале OpenAI
Я немного сбит с толку наблюдением за окружающей средой. Согласно документации, есть 24 qpos (22 показано + 2 скрыто), но только 23 qvel. Какой qpos не имеет соответствующего qvel? Большое спасибо!
28 фев '18 в 04:18