Как выкинуть полный канал в керасе?
Я работаю над проблемой классификации сигналов, используя двунаправленный LSTM Keras.
Мои данные в формате 3D (партия, длина, каналы).
Чтобы получить сеть, способную к лучшему обобщению и с меньшей вероятностью перегрузить ее, не позволяя сети слишком сильно полагаться на конкретный канал, я хотел бы случайным образом выбрасывать полный канал во время обучения (при каждом обновлении), оставаясь при этом случайным образом. установка доли дроби оставшихся единиц ввода на 0 при каждом обновлении (обычное выпадение).
Является ли такой подход разумным? Еще лучше, это выполнимо?
Если так, как это будет сделано?
Мой первый слой это:
model.add(Bidirectional(LSTM(32, return_sequences=True), input_shape=(time_steps, n_channels)))