Описание тега gated-recurrent-unit

Стробируемый рекуррентный блок (GRU) - это тип блока в рекуррентной нейронной сети.
0 ответов

Каким должно быть значение параллельных итераций в реализациях тензорного RNN?

tf.nn.dynamic_rnn() а также tf.nn.raw_rnn() возьмите аргумент под названием parallel_iterations. В документации сказано: параллельные_терации: (по умолчанию: 32). Количество итераций для параллельного запуска. Те операции, которые не имеют никакой в…
1 ответ

Как сбросить состояние ГРУ в тензорном потоке после каждой эпохи

Я использую ячейку tenorflow GRU для реализации RNN. Я использую вышеупомянутое с видео, которое длится максимум 5 минут. Поэтому, поскольку следующее состояние автоматически подается в GRU, как я могу вручную сбросить состояние RNN после каждой эпо…
1 ответ

ГРУ в DeepLearning4J

Я пытаюсь найти реализацию GRU в DeepLearning4J, но не могу найти ее. Кто-нибудь знает, реализованы ли GRU в DL4J? Если да, можете ли вы привести меня к примеру. Если нет, есть ли это в их дорожной карте где-нибудь? Спасибо
0 ответов

Прогнозирование долгосрочных прогнозов с использованием многомерного ГРУ (Keras, R)

Я пытаюсь построить прогнозирование временных рядов на основе глубокого обучения с использованием ГРУ. Мне удалось получить единый прогноз. Для справки, если кто-то захочет повторить мой процесс, вот мои данные - https://drive.google.com/file/d/1nTQ…
22 авг '18 в 15:36
0 ответов

Преобразование разреженных IndexedSlices в плотный тензор

Я получил следующее предупреждение: 94: UserWarning: Converting sparse IndexedSlices to a dense Tensor with 1200012120 elements. This may consume a large amount of memory. Для следующего кода: from wordbatch.extractors import WordSeq import wordbatc…
1 ответ

Как я могу улучшить точность классификации LSTM,GRU рекуррентных нейронных сетей

Задача двоичной классификации в тензорном потоке: Я прошел онлайн-уроки и пытаюсь применить их к проблеме в реальном времени, используя gated-recurrent unit (GRU). Я перепробовал все возможности, которые я знаю, чтобы улучшить классификацию. 1) Нача…
0 ответов

Это нормально, что RNN/LSTM/GRU имеет отрицательный вклад

Я искал объяснение в Интернете, но не смог его найти. Давайте поговорим о конкретном временном шаге RNN. Предположим, у нас есть отрицательный вклад в этой точке, скажем, x(t) = (-2,4,-4), и мы также предполагаем, что размер состояния 5 равен h(t-1)…
0 ответов

Как обучить данные с большими различиями между значениями

В настоящее время я работаю над рекуррентными нейронными сетями для преобразования текста в речь, но я застрял в одном месте. У меня есть несколько входных файлов, и они имеют характерные черты текста (фонемы и т. Д.) С размером 490. Выходные файлы …
0 ответов

Проблема временного шага в анализе настроений с использованием ГРУ Кераса

Я постараюсь объяснить мою проблему как можно более четко. Итак, я пытаюсь узнать информацию о продуктах обзоров с помощью ГРУ. У меня есть около миллиона обзоров, все они преобразованы в 300 пространственных векторов. Эти векторы обзора сгруппирова…
1 ответ

Двунаправленный GRU TensorFlow возвращает ValueError из-за <предположительно> неправильной формы

Я реализую двунаправленную сеть маркировки GRU (1 уровень вперед, 1 уровень назад), используя версию 0.9 TensorFlow. После инициализации модели TensorFlow инициализирует все переменные, создает ячейки GRU и корректно применяет все регулярные преобра…
1 ответ

Как получить последний вывод и полную последовательность LSTM или GRU в Keras одновременно?

В керасе, при использовании LSTM или же GRUесли я установлю return_sequences=FalseЯ получу последний вывод; если я установлю return_sequences=TrueЯ получу полную последовательность; но как получить их обоих одновременно?
0 ответов

Как мне установить начальное состояние экземпляра keras.layers.RNN?

Я создал модель декодера с накоплением keras, используя следующий цикл: # Create the encoder # Define an input sequence. encoder_inputs = keras.layers.Input(shape=(None, num_input_features)) # Create a list of RNN Cells, these are then concatenated …
1 ответ

Обслуживание Tensorflow - Stateful LSTM

Есть ли канонический способ поддерживать LSTM с сохранением состояния и т. Д. С помощью Tensorflow Serving? Используя Tensorflow API напрямую, это просто - но я не уверен, как наилучшим образом обеспечить сохранение состояния LSTM между вызовами пос…
0 ответов

Вывод состояний ГРУ одинаков

Я пытаюсь построить сеть LSTM на tenorflow. и я смущен выходом tf.nn.dynamic_rnn(). почему следующий код выводит одинаковые состояния в каждом примере? tf.reset_default_graph() def length(sequence): used = tf.sign(tf.reduce_max(tf.abs(sequence), 2))…
2 ответа

РНН с ГРУ в Керасе

Я хочу реализовать Рекуррентную Нейронную сеть с GRU, используя Keras в python. У меня проблема с запуском кода, и я все больше меняю переменные, но это не работает. У вас есть идея, чтобы решить это? inputs = 42 #number of columns input num_hidden …
1 ответ

Как я могу выполнить следующие RNN на основе GRU, написанные в тензорном потоке?

Пока что я написал следующий код: import pickle import numpy as np import pandas as pd import tensorflow as tf # load pickled objects (x and y) x_input, y_actual = pickle.load(open('sample_input.pickle', 'rb')) x_input = np.reshape(x_input, (50, 1))…
0 ответов

Генерируйте векторы предложений с помощью GRU, используя pytorch

Я пытаюсь сгенерировать векторы предложений, используя GRU в pytorch. У меня есть истории, которые разделены на предложения. Поэтому я читаю истории, делю предложения по словам и превращаю их в целые числа. Например, партия с 2 образцами: (0 ,.,.) =…
04 авг '18 в 20:22
1 ответ

Keras GRUCell пропустил 1 обязательный позиционный аргумент: 'states'

Я пытаюсь построить 3-х слойный RNN с Keras. Часть кода здесь: model = Sequential() model.add(Embedding(input_dim = 91, output_dim = 128, input_length =max_length)) model.add(GRUCell(units = self.neurons, dropout = self.dropval, bias_initializer = b…
09 июл '18 в 22:09
1 ответ

Объяснение ячейки ГРУ в Tensorflow?

Следующий код Tensorflow's GRUCell Блок показывает типичные операции для получения обновленного скрытого состояния, когда предоставляется предыдущее скрытое состояние вместе с текущим вводом в последовательности. def __call__(self, inputs, state, sc…
0 ответов

Керас-временная конкатенация с переменной длиной входной последовательности

Я работаю над реализацией модели, основанной на seq2seq, которая использует ячейки GRU вместо LSTM. Вот мой текущий код: import constants from keras.layers import Input, GRU, Dense, TimeDistributed, Dropout from keras.models import Model from keras.…