Как я могу изменить функцию активации узлов в скрытом слое с помощью нейролаборатории?

Здравствуйте, уважаемые пользователи neuorlab, я хочу изменить узлы функции активации скрытого слоя на ReLU и сохранить линейную функцию в выходных узлах.

      import numpy as np
import neurolab as nl

# Create train samples
input = np.random.uniform(-1, 1, (5, 2))
target = (input[:, 0] + input[:, 1]).reshape(5, 1)
net = nl.net.newff([[-1, 1]]*2, [4, 1]) 

# What I try to do

import numpy as np
import neurolab as nl

# Create train samples
input = np.random.uniform(-1, 1, (5, 2))
target = (input[:, 0] + input[:, 1]).reshape(5, 1)
net = nl.net.newff([[-1, 1]]*2, [4, 1],[nl.trans.PoseLin(), nl.trans.PureLin()]) 

0 ответов

Другие вопросы по тегам