Описание тега recurrent-neural-network
Рекуррентная нейронная сеть (RNN) - это класс искусственных нейронных сетей, в которых связи между устройствами образуют направленный цикл.
0
ответов
transformer.set_is_flow в sequence_input_layer.py <RESOLVED>
В примере lisa-caffe-lstm для распознавания активности используется файл уровня данных python 'sequence_input_layer.py': https://github.com/LisaAnne/lisa-caffe-public/blob/lstm_video_deploy/examples/LRCN_activity_recognition/sequence_input_layer.py …
17 сен '18 в 04:32
1
ответ
Как спроектировать выходной слой модели word-RNN с использованием вложения word2vec
Я пытаюсь создать Word-RNN-эквивалент Char-RNN, сеть должна генерировать следующее слово в предложении. В качестве входных данных я использую предварительно обученные 100-мерные векторы word2vec, размер скрытого слоя равен 200. Моя основная проблема…
08 окт '17 в 10:41
1
ответ
Функция потери не отображается
Я хочу начать пробовать свои силы в нейронных сетях и нашел синтаксис керас очень простым. Моя установка - X_train - массив формы (3516, 6), а y_train - формы (3516,) X_train выглядит так: [[ 888. 900.5 855. 879.311 877.00266667 893.5008 ] [ 875. 87…
03 июл '16 в 11:41
3
ответа
Как вставить предложение в вектор
У меня было предложение. Я использую word2vec для встраивания слова в вектор. Например, представьте, что у меня есть предложение из 5 слов. Поэтому я получаю 5 разных векторов (по одному на каждое слово) для предложения. Какой метод является лучшим …
11 мар '18 в 15:31
1
ответ
Построение нескольких моделей в одном графике
Я пытаюсь построить две похожие модели, предсказывающие разные типы вывода. Один прогнозирует между двумя категориями, а другой имеет шесть выходных категорий. Их входы одинаковы, и они оба LSTM RNN. Я разделил обучение и прогнозирование на отдельны…
03 авг '16 в 17:58
0
ответов
В модели LSTM для задачи прогнозирования, как я могу получить обратное распространение во времени?
В правиле обучения LSTM я хотел бы вывести алгоритм BPTT. Но большая часть примера деривации, который я нашел, - это предполагаемая задача классификации, выходной функцией которой является softmax. Для типичной модели LSTM на этом рисунке: Термин де…
23 май '18 в 16:01
1
ответ
Классификация временных рядов с использованием LSTM - как подойти?
Я работаю над экспериментом с LSTM для классификации временных рядов и прохожу несколько HOWTO, но все же я борюсь с некоторыми очень простыми вопросами: Является ли основная идея для обучения LSTM брать один и тот же образец из каждого временного р…
02 янв '18 в 22:16
0
ответов
LSTM с накоплением тензорного потока: "Объект" Тензор "не повторяется"
Я пытаюсь построить LSTM RNN в тензорном потоке с числом слоев, равным num_layersи каждый слой имеет ячейки, равные lstm_state_dim, Ниже приведен код для генерации вычислительного графа для того же. lstm_cells = [] for _ in range(num_layers): lstm_c…
26 сен '17 в 17:54
1
ответ
Запрос на LSTM (Запрос на руководство)
Недавно я начал работать над проектом в университете. Основная задача проекта - применить Deep Learning для прогнозирования. У меня есть набор данных от компании, который в основном содержит различные параметры, которые могут повлиять на качество ко…
10 ноя '18 в 12:34
1
ответ
Как я могу обучить нейронную сеть с большим количеством данных, чем умещается в памяти?
Попытка обучить классификатор с помощью повторяющегося слоя, используя много данных. В результате все данные могут не поместиться в память. Это дает мне следующую ошибку: Error using zeros Requested 1x2114046976 (15.8GB) array exceeds maximum array …
04 июн '16 в 08:44
0
ответов
Генерация последовательностей из скрытого пространства [pytorch]
У меня есть несколько вопросов о наилучшей практике использования рекуррентных сетей в pytorch для генерации последовательностей. Первый, если я хочу построить сеть декодера, я должен использовать nn.GRU (или же nn.LSTM) вместо nn.LSTMCell (nn.GRUCe…
18 янв '18 в 11:36
2
ответа
Являются ли Recurrent Neural Networks цепочкой нейронных сетей?
Я спрашиваю, являются ли Рекуррентные Нейронные Сети цепочкой Нейронных Сетей. Теперь интуитивно RNN - это нейронная сеть с петлей обратной связи от прошлых выходов и в зависимости от реализации петля обратной связи от скрытых слоев к скрытому слою …
10 окт '16 в 16:13
1
ответ
Керас: Невозможно продолжить обучение загруженной модели
Я сохранил модель RNN (GRU), используя model.save, но когда я запускаю функцию подгонки после загрузки модели, она портит мои веса и дает неверные прогнозы. Тем не менее, я получаю правильные прогнозы, когда прогнозирую без запуска функции подгонки.…
20 мар '18 в 00:22
2
ответа
Расширение / заполнение данных временных рядов нулями и постоянными значениями в Pandas с Python 3.x
У меня проблема с расширением данных временных рядов. У меня есть следующий датафрейм: date_first = df1['date'].min() # is 2016-08-08 date_last = df1['date'].max() # is 2016-08-20 >>> df1 date customer qty 149481 2016-08-08 A 400 161933 201…
13 ноя '18 в 09:06
1
ответ
Построение языковой модели с использованием рекуррентных нейронных сетей
Я получаю эту ошибку, когда я запускаю свой код. Исключение: входные массивы должны иметь то же количество выборок, что и целевые. Найдено 12196 входных образцов и 1 целевой образец. Ниже модель, которую я тренирую. from keras.models import Sequenti…
27 авг '16 в 22:42
1
ответ
Как обработать большое изображение в Керасе?
Я работаю над проблемой машинного обучения на Keras. Моя цель - обучить модель, чей вклад (4214, 22311) матрица и выход (22311,) вектор. Такие двумерные данные можно рассматривать как ввод изображений, но большинство классификаторов изображений рабо…
21 сен '17 в 21:54
1
ответ
Невозможно понять tf.nn.raw_rnn
В официальной документации tf.nn.raw_rnn у нас есть структура излучения в качестве третьего выхода loop_fn когда loop_fn запускается впервые. Позже emit_structure используется для копирования tf.zeros_like(emit_structure) в записи мини-пакетов, кото…
08 май '18 в 22:45
1
ответ
Проблемы с пониманием tf.contrib.seq2seq.TrainingHelper
Мне удалось построить последовательность для модели последовательности в tenorflow с использованием классов tf.contrib.seq2seq в версии 1.1. Знаю, что я использую TrainingHelper для обучения моей модели. Но этот помощник передает ранее декодированны…
07 май '17 в 00:51
3
ответа
Должен ли я нормализовать свои функции, прежде чем выбросить их в RNN?
Я играю несколько демонстраций о текущей нейронной сети. Я заметил, что масштаб моих данных в каждом столбце сильно отличается. Поэтому я собираюсь выполнить некоторую предварительную обработку, прежде чем отправлять пакеты данных в мой RNN. Столбец…
18 апр '17 в 08:46
0
ответов
Как использовать LSTM для ввода 100 временных шагов с 128 функциями и вывода 19000 временных шагов с 128 функциями
Я хочу иметь вход с 100 временными шагами, а затем использовать какую-то ячейку LSTM, которая выводит 19000 временных шагов. Есть какой-либо способ сделать это? Я не знаком с LSTM, но кажется, что в каждом примере, с которым я сталкивался, результат…
10 фев '19 в 05:24