seq2seq chatbot получает отрицательный результат при прогнозировании

Я изучаю модель seq2seq для чат-ботов, она работает нормально, но я обнаружил странную проблему. После обучения, когда я использую поиск луча, чтобы предсказать новое предложение, я обнаружил, что среди результатов есть отрицательное число, например, ответ, возвращаемый chatbot: [120, 8, 3, 99, 2, -1, -1, -1], где [-1] должно быть [0] представляющий [pad] (а также [2] за [eos]) так где же эти [-1] родом из? Набор данных, который я использую, является диалоговым окном фильма Корнелла, и цель входного декодера точно такая же, как [120, 8, 3, 99, 2, 0, 0, 0].... Спасибо.

0 ответов

Другие вопросы по тегам