входные данные для всех узлов скрытых слоев одинаковы, тогда как они различаются на своем выходе?
Я новичок в глубоком обучении и пытаюсь понять концепцию скрытых слоев, но не понимаю следующих вещей:
Если есть предположим 3 скрытых слоя. Когда мы берем вывод со всех узлов 2-го уровня в качестве ввода для всех узлов 3-го уровня, тогда какая разница в выводе узлов 3-го уровня, поскольку они получают одинаковый ввод + инициализацию тех же параметров (согласно тому, что я читал, Предположим, что все узлы одного слоя имеют одинаковый случайный вес для параметров).
Пожалуйста, поправьте меня, если я думаю в неправильном направлении.
1 ответ
Простой ответ - случайная инициализация.
Если вы начали с одинаковыми весами в нейронной сети (NN), то все узлы будут давать одинаковый результат.
Это связано с тем, что при использовании алгоритма обратного распространения ошибка распространяется в зависимости от силы активации каждого узла. Если они начнут одинаково, ошибка будет распространяться одинаково, и, следовательно, узлы в NN не смогут изучать различные функции.
Таким образом, базовая случайная инициализация гарантирует, что каждый узел специализируется. Следовательно, после обучения узлы в скрытых слоях будут давать разные выходные данные, даже если входные данные одинаковы.
Надеюсь это поможет.