Игнорировать / Маскировать определенные метки Softmax Кросс-энтропия
При попытке реализовать перекрестную потерю энтропии с помощью регуляризации l2, описанной здесь . Быстрый и точный анализатор зависимостей с использованием нейронных сетей, я получаю ошибку: ValueError: Cannot feed value of shape (48,) for Tensor u'Placeholder_2:0', which has shape '(48, 1)
после получения отрицательной потери за несколько шагов на тренировке. Моя потеря заключается в следующем:
self.loss = tf.reduce_mean(tf.nn.softmax_cross_entropy_with_logits(logits=self.prediction, labels=self.train_labels))
+ 1e-8 * (tf.nn.l2_loss(w1)
+ tf.nn.l2_loss(w2))
и является отрицательным значением на шаге 0. Я полагаю, что моя проблема в том, что некоторые метки равны -1, и их следует игнорировать, как указано в документе: "Небольшое отклонение состоит в том, что мы вычисляем вероятности softmax только среди выполнимых переходов на практике". Как бы я проигнорировал эти метки при расчете потерь?