Почему параметры слоя добавляются для примера многослойного персептрона на deeplearning.net
Для примера многослойного персептрона в
[ http://www.deeplearning.net/tutorial/mlp.html
почему добавляются параметры (веса и смещения). Смотрите пятый раздел кода на странице выше.
1 ответ
Решение
Они на самом деле не "добавлены". Параметры слоя находятся в списке, а сумма списков остается списком. Таким образом, операция не является математическим суммированием.
Вот код для описания идеи:
param1 = range(2, 6)
param2 = range(12, 15)
print param1
print param2
print "param1 + param2: %s" % ''.join(str(param1 + param2))
Будет печатать
[2, 3, 4, 5]
[12, 13, 14]
param1 + param2: [2, 3, 4, 5, 12, 13, 14]