seq2seq chatbot получает отрицательный результат при прогнозировании
Я изучаю модель seq2seq для чат-ботов, она работает нормально, но я обнаружил странную проблему. После обучения, когда я использую поиск луча, чтобы предсказать новое предложение, я обнаружил, что среди результатов есть отрицательное число, например, ответ, возвращаемый chatbot: [120, 8, 3, 99, 2, -1, -1, -1]
, где [-1]
должно быть [0]
представляющий [pad]
(а также [2]
за [eos]
) так где же эти [-1]
родом из? Набор данных, который я использую, является диалоговым окном фильма Корнелла, и цель входного декодера точно такая же, как [120, 8, 3, 99, 2, 0, 0, 0]
.... Спасибо.