Общий выпадающий слой на входе

Я хочу применить одно и то же выпадение к двум входным тензорам одинаковой формы. Один из способов сделать это - соединить входы, применить выпадение, а затем снова разделить тензоры. Таким образом, одни и те же функции будут исключены из каждого ввода в каждой итерации.

Кажется, код работает нормально, а модель тренируется. Может ли кто-нибудь подтвердить, что я сделал то, что ожидал? Я не знаю, как сравнить тензоры, иначе я мог бы просто изменить выпадение на 0 и сравнить вывод с вводом.

#input1 (10, 6) input2 (10,6)
input_list = [input1, input2]

#Join inputs and form (20x6) tensor
input_concat = keras.layers.concatenate(input_list, axis=1)
input_dropout = Dropout(0.5)(input_concat)
reshaped_input = keras.layers.Reshape((10, 6, 2))(input_dropout)

input_1 = keras.layers.Lambda(lambda x:x[:,:,:,0])(reshaped_input)
input_2 = keras.layers.Lambda(lambda x:x[:,:,:,1])(reshaped_input)

0 ответов

Другие вопросы по тегам