Как значение параметра пакетной нормализации используется при выводе?

У меня вопрос о пакетной нормализации. Я знаю, что пакетная нормализация часто используется при обучении сети глубокого обучения.

Что мне интересно, так это то, как работает пакетная нормализация на этапе вывода. Когда учусь в интернете, есть поговорка, что он выключен при выводе. Означает ли это, что параметр (gmma или beta ...), используемый при пакетной нормализации, инициализируется значением 0 или 1? Я использую фреймворк TVM для оптимизации вывода, но когда я привожу предварительно обученную модель из TVM, параметр пакетной нормализации инициализируется значением 0 или 1, как показано ниже.

gmma = 1,
beta = 0,
moving_mean = 0,
moving_var = 1,

Если это правда, то, похоже, не нужно вычислять уровень пакетной нормализации при выводе. Поэтому я думаю, что при выводе мне не нужно создавать слой пакетной нормализации. Я правильно понимаю?

Буду признателен за ваш ответ. Спасибо!

0 ответов

Другие вопросы по тегам