NeuPy: проблемы с входными фигурами
Я хочу построить нейронную сеть, используя neupy. Поэтому я создал следующую архитектуру:
network = layers.join(
layers.Input(10),
layers.Linear(500),
layers.Relu(),
layers.Linear(300),
layers.Relu(),
layers.Linear(10),
layers.Softmax(),
)
Мои данные имеют следующую форму:
x_train.shape = (32589,10)
y_train.shape = (32589,1)
Когда я пытаюсь обучить эту сеть, используя:
model.train(x_train, y_trian)
Я получаю следующую ошибку:
ValueError: Input dimension mis-match. (input[0].shape[1] = 10, input[1].shape[1] = 1)
Apply node that caused the error: Elemwise{sub,no_inplace}(SoftmaxWithBias.0, algo:network/var:network-output)
Toposort index: 26
Inputs types: [TensorType(float64, matrix), TensorType(float64, matrix)]
Inputs shapes: [(32589, 10), (32589, 1)]
Inputs strides: [(80, 8), (8, 8)]
Inputs values: ['not shown', 'not shown']
Outputs clients: [[Elemwise{Composite{((i0 * i1) / i2)}}(TensorConstant{(1, 1) of 2.0}, Elemwise{sub,no_inplace}.0, Elemwise{mul,no_inplace}.0), Elemwise{Sqr}[(0, 0)](Elemwise{sub,no_inplace}.0)]]
Как мне отредактировать мою сеть, чтобы отобразить данные такого типа?
Спасибо большое!
1 ответ
Решение
Ваша архитектура имеет 10 выходов вместо 1. Я предполагаю, что ваш y_train
Функция является идентификатором класса 0-1. Если так, то вам нужно изменить свою структуру следующим образом:
network = layers.join(
layers.Input(10),
layers.Linear(500),
layers.Relu(),
layers.Linear(300),
layers.Relu(),
layers.Linear(1), # Single output
layers.Sigmoid(), # Sigmoid works better for 2-class classification
)
Вы можете сделать это еще проще
network = layers.join(
layers.Input(10),
layers.Relu(500),
layers.Relu(300),
layers.Sigmoid(1),
)
Причина, почему это работает, потому что layers.Liner(10) > layers.Relu()
такой же как layers.Relu(10)
, Вы можете узнать больше в официальной документации: http://neupy.com/docs/layers/basics.html