Описание тега gated-recurrent-unit
Стробируемый рекуррентный блок (GRU) - это тип блока в рекуррентной нейронной сети.
0
ответов
Каким должно быть значение параллельных итераций в реализациях тензорного RNN?
tf.nn.dynamic_rnn() а также tf.nn.raw_rnn() возьмите аргумент под названием parallel_iterations. В документации сказано: параллельные_терации: (по умолчанию: 32). Количество итераций для параллельного запуска. Те операции, которые не имеют никакой в…
02 апр '18 в 00:36
1
ответ
Как сбросить состояние ГРУ в тензорном потоке после каждой эпохи
Я использую ячейку tenorflow GRU для реализации RNN. Я использую вышеупомянутое с видео, которое длится максимум 5 минут. Поэтому, поскольку следующее состояние автоматически подается в GRU, как я могу вручную сбросить состояние RNN после каждой эпо…
30 янв '18 в 14:35
1
ответ
ГРУ в DeepLearning4J
Я пытаюсь найти реализацию GRU в DeepLearning4J, но не могу найти ее. Кто-нибудь знает, реализованы ли GRU в DL4J? Если да, можете ли вы привести меня к примеру. Если нет, есть ли это в их дорожной карте где-нибудь? Спасибо
02 авг '17 в 23:32
0
ответов
Прогнозирование долгосрочных прогнозов с использованием многомерного ГРУ (Keras, R)
Я пытаюсь построить прогнозирование временных рядов на основе глубокого обучения с использованием ГРУ. Мне удалось получить единый прогноз. Для справки, если кто-то захочет повторить мой процесс, вот мои данные - https://drive.google.com/file/d/1nTQ…
22 авг '18 в 15:36
0
ответов
Преобразование разреженных IndexedSlices в плотный тензор
Я получил следующее предупреждение: 94: UserWarning: Converting sparse IndexedSlices to a dense Tensor with 1200012120 elements. This may consume a large amount of memory. Для следующего кода: from wordbatch.extractors import WordSeq import wordbatc…
31 янв '18 в 05:13
1
ответ
Как я могу улучшить точность классификации LSTM,GRU рекуррентных нейронных сетей
Задача двоичной классификации в тензорном потоке: Я прошел онлайн-уроки и пытаюсь применить их к проблеме в реальном времени, используя gated-recurrent unit (GRU). Я перепробовал все возможности, которые я знаю, чтобы улучшить классификацию. 1) Нача…
10 июл '17 в 16:04
0
ответов
Это нормально, что RNN/LSTM/GRU имеет отрицательный вклад
Я искал объяснение в Интернете, но не смог его найти. Давайте поговорим о конкретном временном шаге RNN. Предположим, у нас есть отрицательный вклад в этой точке, скажем, x(t) = (-2,4,-4), и мы также предполагаем, что размер состояния 5 равен h(t-1)…
20 окт '18 в 04:16
0
ответов
Как обучить данные с большими различиями между значениями
В настоящее время я работаю над рекуррентными нейронными сетями для преобразования текста в речь, но я застрял в одном месте. У меня есть несколько входных файлов, и они имеют характерные черты текста (фонемы и т. Д.) С размером 490. Выходные файлы …
21 июл '16 в 10:50
0
ответов
Проблема временного шага в анализе настроений с использованием ГРУ Кераса
Я постараюсь объяснить мою проблему как можно более четко. Итак, я пытаюсь узнать информацию о продуктах обзоров с помощью ГРУ. У меня есть около миллиона обзоров, все они преобразованы в 300 пространственных векторов. Эти векторы обзора сгруппирова…
13 мар '17 в 20:51
1
ответ
Двунаправленный GRU TensorFlow возвращает ValueError из-за <предположительно> неправильной формы
Я реализую двунаправленную сеть маркировки GRU (1 уровень вперед, 1 уровень назад), используя версию 0.9 TensorFlow. После инициализации модели TensorFlow инициализирует все переменные, создает ячейки GRU и корректно применяет все регулярные преобра…
18 авг '16 в 04:03
1
ответ
Как получить последний вывод и полную последовательность LSTM или GRU в Keras одновременно?
В керасе, при использовании LSTM или же GRUесли я установлю return_sequences=FalseЯ получу последний вывод; если я установлю return_sequences=TrueЯ получу полную последовательность; но как получить их обоих одновременно?
11 дек '18 в 17:46
0
ответов
Как мне установить начальное состояние экземпляра keras.layers.RNN?
Я создал модель декодера с накоплением keras, используя следующий цикл: # Create the encoder # Define an input sequence. encoder_inputs = keras.layers.Input(shape=(None, num_input_features)) # Create a list of RNN Cells, these are then concatenated …
07 фев '19 в 06:41
1
ответ
Обслуживание Tensorflow - Stateful LSTM
Есть ли канонический способ поддерживать LSTM с сохранением состояния и т. Д. С помощью Tensorflow Serving? Используя Tensorflow API напрямую, это просто - но я не уверен, как наилучшим образом обеспечить сохранение состояния LSTM между вызовами пос…
30 апр '17 в 19:53
0
ответов
Вывод состояний ГРУ одинаков
Я пытаюсь построить сеть LSTM на tenorflow. и я смущен выходом tf.nn.dynamic_rnn(). почему следующий код выводит одинаковые состояния в каждом примере? tf.reset_default_graph() def length(sequence): used = tf.sign(tf.reduce_max(tf.abs(sequence), 2))…
03 мар '18 в 08:04
2
ответа
РНН с ГРУ в Керасе
Я хочу реализовать Рекуррентную Нейронную сеть с GRU, используя Keras в python. У меня проблема с запуском кода, и я все больше меняю переменные, но это не работает. У вас есть идея, чтобы решить это? inputs = 42 #number of columns input num_hidden …
26 окт '18 в 10:32
1
ответ
Как я могу выполнить следующие RNN на основе GRU, написанные в тензорном потоке?
Пока что я написал следующий код: import pickle import numpy as np import pandas as pd import tensorflow as tf # load pickled objects (x and y) x_input, y_actual = pickle.load(open('sample_input.pickle', 'rb')) x_input = np.reshape(x_input, (50, 1))…
06 июл '16 в 20:20
0
ответов
Генерируйте векторы предложений с помощью GRU, используя pytorch
Я пытаюсь сгенерировать векторы предложений, используя GRU в pytorch. У меня есть истории, которые разделены на предложения. Поэтому я читаю истории, делю предложения по словам и превращаю их в целые числа. Например, партия с 2 образцами: (0 ,.,.) =…
04 авг '18 в 20:22
1
ответ
Keras GRUCell пропустил 1 обязательный позиционный аргумент: 'states'
Я пытаюсь построить 3-х слойный RNN с Keras. Часть кода здесь: model = Sequential() model.add(Embedding(input_dim = 91, output_dim = 128, input_length =max_length)) model.add(GRUCell(units = self.neurons, dropout = self.dropval, bias_initializer = b…
09 июл '18 в 22:09
1
ответ
Объяснение ячейки ГРУ в Tensorflow?
Следующий код Tensorflow's GRUCell Блок показывает типичные операции для получения обновленного скрытого состояния, когда предоставляется предыдущее скрытое состояние вместе с текущим вводом в последовательности. def __call__(self, inputs, state, sc…
01 авг '16 в 06:47
0
ответов
Керас-временная конкатенация с переменной длиной входной последовательности
Я работаю над реализацией модели, основанной на seq2seq, которая использует ячейки GRU вместо LSTM. Вот мой текущий код: import constants from keras.layers import Input, GRU, Dense, TimeDistributed, Dropout from keras.models import Model from keras.…
16 апр '18 в 22:56