Описание тега dropout

Отсев - это метод уменьшения переобучения на этапе обучения нейронной сети.
1 ответ

Ошибка нехватки памяти (OOM) модели tenorflow/keras

Когда я пытался добавить отсев в модель keras, это приводило к ошибке OOM: tenorflow.python.framework.errors_impl.ResourceExhaustedError: OOM при выделении тензора с формой [128,128,176,216]... Предполагается, что модель будет иметь автоматический к…
06 дек '18 в 19:39
0 ответов

Как выкинуть полный канал в керасе?

Я работаю над проблемой классификации сигналов, используя двунаправленный LSTM Keras.Мои данные в формате 3D (партия, длина, каналы).Чтобы получить сеть, способную к лучшему обобщению и с меньшей вероятностью перегрузить ее, не позволяя сети слишком…
0 ответов

Выпадение при сканировании - Theano

Я реализую вариант сети указателя, и я хочу применить dropout к скрытым состояниям на этапах кодирования / декодирования. Вот моя функция отсева: def dropout_layer(proj, use_noise): trng = RandomStreams() proj = tensor.switch(use_noise,(proj *trng.b…
0 ответов

Tensorflow LSTM - Реализация отсева

Я следую примеру Tensorflow для LSTM (в папке Udacity) https://github.com/tensorflow/tensorflow/blob/master/tensorflow/examples/udacity/6_lstm.ipynb и пытаюсь реализовать выпадение на ванильном LSTM. Читая статью Зарембы, моя интерпретация отсева со…
1 ответ

Тензор потока: прогноз валидации для каждого изображения одинаков

У меня следующая проблема. Я пытаюсь тренировать 3d CNN в тензорном потоке. Я разделил данные на три набора данных: тренировка, проверка и тестирование. Основная проблема заключается в том, что при тестировании набора проверки после 5 эпох обучения …
18 апр '18 в 00:40
2 ответа

Отсев с активацией relu

Я пытаюсь реализовать нейронную сеть с отсечкой в ​​тензорном потоке. tf.layers.dropout(inputs, rate, training) Из документации: "Выпадение состоит в том, чтобы случайным образом установить частоту дроби входных единиц на 0 при каждом обновлении во …
1 ответ

ReLu и отсев в CNN

Я изучаю сверточные нейронные сети. Я запутался в некоторых слоях в CNN. Что касается ReLu... Я просто знаю, что это сумма бесконечной логистической функции, но ReLu не подключается ни к каким верхним уровням. Зачем нам ReLu, и как он работает? Что …
05 дек '14 в 16:01
2 ответа

Керас вперед пас с выпадением

Я пытаюсь использовать dropout, чтобы получить оценки ошибок для нейронной сети. Это включает в себя запуск нескольких проходов моей сети после тренировки с активированным выпадением. Однако, похоже, что Dropout не активируется при вызове model.pred…
04 июн '17 в 05:30
1 ответ

Ошибка отсева сверточных нейронных сетей

У меня следующая ошибка, и я не знаю, как ее исправить: convnet = dropout(convnet, 0.8) TypeError: объект 'float' не вызывается convnet = input_data(shape=[None, img_size, img_size, 1], name='input') convnet = conv_2d(convnet, 32, 5, activation='rel…
3 ответа

Динамическое переключение отсева в Keras/Tensorflow

Я строю алгоритм обучения с подкреплением в Tensorflow, и я хотел бы иметь возможность динамически отключать и затем отключать в течение одного вызова session.run(), Обоснование: мне нужно (1) сделать прямой проход без отсева, чтобы рассчитать цели;…
14 дек '18 в 16:33
1 ответ

Как я могу сообщить Keras фазу обучения, когда я использую train_on_batch для обучения модели?

В моей модели есть выпадающие слои, поэтому я хочу, чтобы keras вычислил фазы обучения и тестирования для запуска или проигнорировал выпадающие слои, и я обнаружил, что K.set_learning_phase может оказать мне такую ​​услугу, но как я могу добавить ег…
0 ответов

Общий выпадающий слой на входе

Я хочу применить одно и то же выпадение к двум входным тензорам одинаковой формы. Один из способов сделать это - соединить входы, применить выпадение, а затем снова разделить тензоры. Таким образом, одни и те же функции будут исключены из каждого вв…
06 фев '19 в 23:48
0 ответов

Несколько выпадающих слоев в class_head и box_head для быстрого MCDropout

Я использую более быстрый R-CNN Resnet 101 API Tensorflow. Я добавил несколько слоев отсева в методы прогнозирования class_head и box_head для более быстрой выборки MC Dropout. Например, я хочу получить 300*50 обнаружений, если я добавлю 50 выпадающ…
2 ответа

PyTorch - Как отключить отсев в режиме оценки

Это модель, которую я определил, это простая lstm с 2 полностью соединенными слоями. import copy import torch import torch.nn as nn import torch.nn.functional as F import torch.optim as optim class mylstm(nn.Module): def __init__(self,input_dim, out…
21 дек '18 в 05:41
0 ответов

Как получить значения активации слоя Dropout в последнем мини-пакете в Keras

Я пытался сделать авто-кодер с пользовательской функцией потерь, где функция потерь зависит от значений, маскируемых и не маскируемых слоем выпадения по-разному. Поэтому я пытаюсь получить доступ к значениям в выпадающем слое на последней итерации. …
22 фев '19 в 05:53
1 ответ

Какой вид регуляризации использует регуляризацию L2 или отсев в multiRNNCell?

Я работал над проектом, связанным с последовательным и автоматическим кодировщиком последовательностей для прогнозирования временных рядов. Итак, я использовал tf.contrib.rnn.MultiRNNCell в кодере и декодере. Я запутался в том, какая стратегия испол…
23 апр '18 в 18:21
1 ответ

Добавление отсева на предварительно обученную модель Yolo v1

Я получил код Yolo v1 с https://github.com/lovish1234/YOLOv1 (если при добавлении этой ссылки возникают проблемы с лицензией, свяжитесь со мной) Насколько я знаю, код не содержит выпадения в отличие от статьи Yolo v1. Также согласно оригинальной ста…
1 ответ

Где добавить отсев в нейронной сети?

Я видел описание о пропадании в разных частях нейронной сети: выпадение в весовой матрице, выпадение в скрытом слое после умножения матрицы и до relu, выпадение в скрытом слое после рэлу, и выпадение в выходной балл до функции softmax Я немного смущ…
0 ответов

tf.nn.dropout при использовании выдает одинаковое значение

Когда я не использую отсев в моей модели для классификации кошек и собак, прогнозируемые значения остаются нормальными, т.е. не одинаковыми для всех изображений. Но когда я использую tf.nn.dropout с keep_prob = 0.8 для моей модели, которая была реко…
11 сен '18 в 10:17
1 ответ

Случайные отсева для tf.nn.dropout

Я экспериментирую с функцией отбрасывания тензорного потока. Поскольку функциональность, в которой уровень отсева уменьшается со временем во время обучения, была слишком сложной для реализации (вчера пробовали весь день), я подумал, что использовани…
01 июл '18 в 15:22