Как число параметров, связанных со слоем BatchNormalization, равно 2048?

У меня есть следующий код.

x = keras.layers.Input(batch_shape = (None, 4096))
hidden = keras.layers.Dense(512, activation = 'relu')(x)
hidden = keras.layers.BatchNormalization()(hidden)
hidden = keras.layers.Dropout(0.5)(hidden)
predictions = keras.layers.Dense(80, activation = 'sigmoid')(hidden)
mlp_model = keras.models.Model(input = [x], output = [predictions])
mlp_model.summary()

И это резюме модели:

____________________________________________________________________________________________________
Layer (type)                     Output Shape          Param #     Connected to                     
====================================================================================================
input_3 (InputLayer)             (None, 4096)          0                                            
____________________________________________________________________________________________________
dense_1 (Dense)                  (None, 512)           2097664     input_3[0][0]                    
____________________________________________________________________________________________________
batchnormalization_1 (BatchNorma (None, 512)           2048        dense_1[0][0]                    
____________________________________________________________________________________________________
dropout_1 (Dropout)              (None, 512)           0           batchnormalization_1[0][0]       
____________________________________________________________________________________________________
dense_2 (Dense)                  (None, 80)            41040       dropout_1[0][0]                  
====================================================================================================
Total params: 2,140,752
Trainable params: 2,139,728
Non-trainable params: 1,024
____________________________________________________________________________________________________

Размер входа для слоя BatchNormalization (BN) равен 512. Согласно документации Keras, форма вывода для слоя BN совпадает с формой ввода, равной 512.

Тогда как число параметров, связанных с уровнем BN, равно 2048?

2 ответа

Решение

Пакетная нормализация в Keras реализует эту статью.

Как вы можете прочитать там, чтобы нормализация партий работала во время обучения, им необходимо отслеживать распределения каждого нормализованного измерения. Для этого, так как вы находитесь в mode=0по умолчанию они вычисляют 4 параметра для объекта на предыдущем слое. Эти параметры обеспечивают правильное распространение и обратное распространение информации.

Так 4*512 = 2048, это должно ответить на ваш вопрос.

Эти 2048 параметров на самом деле [gamma weights, beta weights, moving_mean(non-trainable), moving_variance(non-trainable)]каждый из которых имеет 512 элементов (размер входного слоя).

Другие вопросы по тегам