Как выкинуть полный канал в керасе?

Я работаю над проблемой классификации сигналов, используя двунаправленный LSTM Keras.
Мои данные в формате 3D (партия, длина, каналы).
Чтобы получить сеть, способную к лучшему обобщению и с меньшей вероятностью перегрузить ее, не позволяя сети слишком сильно полагаться на конкретный канал, я хотел бы случайным образом выбрасывать полный канал во время обучения (при каждом обновлении), оставаясь при этом случайным образом. установка доли дроби оставшихся единиц ввода на 0 при каждом обновлении (обычное выпадение).
Является ли такой подход разумным? Еще лучше, это выполнимо?
Если так, как это будет сделано?

Мой первый слой это:

model.add(Bidirectional(LSTM(32, return_sequences=True), input_shape=(time_steps, n_channels)))

0 ответов

Другие вопросы по тегам