Почему параметры слоя добавляются для примера многослойного персептрона на deeplearning.net

Для примера многослойного персептрона в

[ http://www.deeplearning.net/tutorial/mlp.html

почему добавляются параметры (веса и смещения). Смотрите пятый раздел кода на странице выше.

1 ответ

Решение

Они на самом деле не "добавлены". Параметры слоя находятся в списке, а сумма списков остается списком. Таким образом, операция не является математическим суммированием.

Вот код для описания идеи:

param1 = range(2, 6)
param2 = range(12, 15)
print param1
print param2
print "param1 + param2: %s" % ''.join(str(param1 + param2))

Будет печатать

[2, 3, 4, 5]
[12, 13, 14]
param1 + param2: [2, 3, 4, 5, 12, 13, 14]
Другие вопросы по тегам