Как я могу изменить функцию активации узлов в скрытом слое с помощью нейролаборатории?
Здравствуйте, уважаемые пользователи neuorlab, я хочу изменить узлы функции активации скрытого слоя на ReLU и сохранить линейную функцию в выходных узлах.
import numpy as np
import neurolab as nl
# Create train samples
input = np.random.uniform(-1, 1, (5, 2))
target = (input[:, 0] + input[:, 1]).reshape(5, 1)
net = nl.net.newff([[-1, 1]]*2, [4, 1])
# What I try to do
import numpy as np
import neurolab as nl
# Create train samples
input = np.random.uniform(-1, 1, (5, 2))
target = (input[:, 0] + input[:, 1]).reshape(5, 1)
net = nl.net.newff([[-1, 1]]*2, [4, 1],[nl.trans.PoseLin(), nl.trans.PureLin()])