Описание тега keras-rl
NoneKeras-rl - это библиотека обучения с подкреплением, основанная на Keras
1
ответ
Как вызвать функцию LSTM?
Я только начинаю с примера прогнозирования временных рядов LSTM. Получение ошибки ниже на последнем шаге, не уверен, что я здесь упускаю. Любая помощь будет принята с благодарностью!.ERROR- NameError: имя 'to_list' не определено def split_sequence(s…
22 янв '19 в 05:06
0
ответов
Как динамически изменить пространство действий в тренажерном зале OpenAI и агентах keras-rl/Tensorforce?
Разработка новой среды OpenAI GYM и агента keras-rl. Допустим, в начале есть 4 возможных действия (вверх / вниз / влево / вправо). Затем, на каком-то этапе симуляции (игры), есть только два возможных действия (влево / вправо). Как лучше всего исполь…
24 дек '18 в 13:25
0
ответов
keras_rl: Как использовать агент DQN с action_space, отличным от Discrete(2)
Я пытаюсь обучить DQNAgent с помощью типа action_space gym.spaces.Box(4). Но внутри функции соответствия возвращаемое действие всегда равно o или 1. Это приводит к сбою шага func в моем env. Как я могу использовать его для своих целей?
31 янв '19 в 10:47
0
ответов
Расширьте Gym Environment для рекомендаций с помощью kerasRL и некоторых вопросов.
Я хочу сделать простую систему рекомендаций, основанную на усиленном обучении, используя kerasRL а также OpenAI Gym, Я хочу сказать, что я уже создал Agent чтобы узнать Cartpole среда, и теперь я хочу создать свою собственную среду, чтобы тренироват…
26 фев '19 в 11:36
0
ответов
keras_rl DQN agent - все политики select_action() возвращают значение 0 или 1
Я пытаюсь настроить проект обучения с подкреплением, используя Gym & kears_rl. Описание: Учитывая числа в диапазоне (100, 200)Я хочу, чтобы агент предупредил меня, когда число близко к пределам, скажем, между 0%-10% а также 90%-100% квантилей. Возна…
30 янв '19 в 14:55
1
ответ
Tensorflow, OpenAI Gym, Keras-rl проблема производительности на базовом примере обучения подкрепления
Я занимаюсь подкреплением и у меня проблемы с производительностью. Ситуация, без пользовательского кода: Я загрузил виртуальную машину Google Deep Learning ( https://console.cloud.google.com/marketplace/details/click-to-deploy-images/deeplearning) в…
07 авг '18 в 11:40
0
ответов
Keras - веса, инициализированные как nans
Я пытаюсь создать нейронную сеть для RL на основе политики. Я написал класс для построения сети и генерации действий, как показано ниже: class Oracle(object): def __init__(self, input_dim, output_dim, hidden_dims=None): if hidden_dims is None: hidde…
10 янв '18 в 23:40
0
ответов
Керас учат идеальное соотношение тасования
Есть ли способ обучить правильному соотношению смешивания, а затем проверить его с помощью прогноза? Я пытаюсь создать что-то вроде суб-модели, которая научится лучше перетасовывать мои данные, прежде чем делать прогноз.
11 июл '18 в 10:05
2
ответа
Эпизоды Keras-RL, возвращающие одинаковые значения после подгонки модели
Поэтому я создал пользовательскую среду с использованием OpenAI Gym. Я внимательно слежу за примерами keras-rl DQNAgent для примера CartPole, что приводит к следующей реализации: nb_actions = env.action_space.n # Option 1 : Simple model model = Sequ…
25 июл '18 в 16:18
1
ответ
Как напечатать значение Tensor, Keras/Tensorflow
Я пытаюсь понять некоторый код из алгоритма обучения подкрепления. Для этого я пытаюсь вывести значение тензора. Я сделал простой кусок кода, чтобы показать, что я имею в виду. import tensorflow as tf from keras import backend as K x = K.abs(-2.0) t…
10 окт '18 в 07:33
0
ответов
ImportError: невозможно импортировать имя pywrap_dlopen_global_flags
Я получаю следующую ошибку при попытке использовать tenorflow (версия - самая новая на дату публикации) на оборудовании - ЦП MacBookPro с ОС - Dual Boot Ubuntu 16.04 LTS в virtualenv —no-site-package with Keras и keras-rl и python 2,7. ... Using Ten…
16 фев '18 в 12:00
1
ответ
Что делает EpisodeParameterMemory из keras-rl?
Я нашел пример keras-rl/examples/cem_cartpole.py и хотел бы понять, но я не нахожу документацию. Что значит линия memory = EpisodeParameterMemory(limit=1000, window_length=1) делать? Что limit и что это window_length? Какой эффект имеет увеличение о…
06 ноя '17 в 15:43
0
ответов
Масштабирование выходной сети актера до границ пространства действия в Keras Rl
Я пытаюсь реализовать DDPG из Keras RL и иметь следующую сеть актеров. actor = Sequential() actor.add(Flatten(input_shape=(1,) + env.observation_space.shape)) actor.add(Dense(16)) actor.add(Activation('relu')) actor.add(Dense(16)) actor.add(Activati…
21 ноя '18 в 00:39
2
ответа
Импорт пакета keras-rl в среду conda
Я установил пакет keras-rl на свой компьютер, используя их инструкции: git clone https://github.com/matthiasplappert/keras-rl.git cd keras-rl python setup.py install Так что моя среда conda видит этот пакет, однако, когда я пытаюсь импортировать его…
22 янв '17 в 22:35
0
ответов
Как использовать keras-rl для обучения нескольких агентов
Я пытаюсь использовать keras-rl, но в среде с несколькими агентами. Так что я обнаружил эту проблему с github keras-rl с идеей использования общей среды для всех агентов. К сожалению, мне не удалось заставить его работать. Кажется, что использование…
09 ноя '17 в 00:44
1
ответ
ValueError: вход 0 несовместим со слоем conv2d_1: ожидаемый ndim=4, найденный ndim=5
Я пытаюсь передать изображение RGB с симулятора в мою пользовательскую нейронную сеть. У источника генерации RGB (симулятора) размер изображения RGB равен (3,144,256), Вот как я строю нейронную сеть: rgb_model = Sequential() rgb = env.shape() // thi…
13 авг '18 в 17:23
0
ответов
Конвертировать keras-rl агент в Core ML
Я совершенно новичок в Core ML и keras-rl/ глубокое подкрепление обучения. Можно ли преобразовать агент keras-rl в модель Core ML для использования в приложении iOS? Я знаю, что Core ML поддерживает модели Keras, но не смог найти никаких ответов, ес…
23 фев '19 в 10:55
0
ответов
openai тренажерный зал нестандартная среда action_space и наблюдение_space howto
Я пытаюсь реализовать пользовательскую среду openai тренажерного зала. И пространство действия, и пространство наблюдения содержат комбинацию списка значений и дискретных пространств. Я правильно смоделировал это? Например: self.action_space = space…
15 фев '19 в 06:25
0
ответов
Измерение наград эпизода при использовании жадной политики эпсилона с линейным отжигом на эпсилоне
Существует ли стандартная практика или инструмент в Керасе, который даст оценку награды за эпизод, которая связана с эпсилоном во время тренировки? При обучении в следующей сети dqn я могу измерить награды за эпизоды с течением времени во время обуч…
20 фев '19 в 23:24
1
ответ
Инвертирование градиентов в Керасе
Я пытаюсь портировать BoundingLayer функция из этого файла агенту DDPG.py в keras-rl, но у меня возникли некоторые проблемы с реализацией. Я модифицировал get_gradients(loss, params) метод в DDPG.py, чтобы добавить это: action_bounds = [-30, 50] inv…
13 июл '17 в 23:03