Как число параметров, связанных со слоем BatchNormalization, равно 2048?
У меня есть следующий код.
x = keras.layers.Input(batch_shape = (None, 4096))
hidden = keras.layers.Dense(512, activation = 'relu')(x)
hidden = keras.layers.BatchNormalization()(hidden)
hidden = keras.layers.Dropout(0.5)(hidden)
predictions = keras.layers.Dense(80, activation = 'sigmoid')(hidden)
mlp_model = keras.models.Model(input = [x], output = [predictions])
mlp_model.summary()
И это резюме модели:
____________________________________________________________________________________________________
Layer (type) Output Shape Param # Connected to
====================================================================================================
input_3 (InputLayer) (None, 4096) 0
____________________________________________________________________________________________________
dense_1 (Dense) (None, 512) 2097664 input_3[0][0]
____________________________________________________________________________________________________
batchnormalization_1 (BatchNorma (None, 512) 2048 dense_1[0][0]
____________________________________________________________________________________________________
dropout_1 (Dropout) (None, 512) 0 batchnormalization_1[0][0]
____________________________________________________________________________________________________
dense_2 (Dense) (None, 80) 41040 dropout_1[0][0]
====================================================================================================
Total params: 2,140,752
Trainable params: 2,139,728
Non-trainable params: 1,024
____________________________________________________________________________________________________
Размер входа для слоя BatchNormalization (BN) равен 512. Согласно документации Keras, форма вывода для слоя BN совпадает с формой ввода, равной 512.
Тогда как число параметров, связанных с уровнем BN, равно 2048?
2 ответа
Пакетная нормализация в Keras реализует эту статью.
Как вы можете прочитать там, чтобы нормализация партий работала во время обучения, им необходимо отслеживать распределения каждого нормализованного измерения. Для этого, так как вы находитесь в mode=0
по умолчанию они вычисляют 4 параметра для объекта на предыдущем слое. Эти параметры обеспечивают правильное распространение и обратное распространение информации.
Так 4*512 = 2048
, это должно ответить на ваш вопрос.
Эти 2048 параметров на самом деле [gamma weights, beta weights, moving_mean(non-trainable), moving_variance(non-trainable)]
каждый из которых имеет 512 элементов (размер входного слоя).