Поведение Tensorflow's GreedyEmbeddingHelper

Я использую tf.contrib.seq2seq.GreedyEmbeddingHelper в качестве помощника для моей модели вывода. Вывод, я получаю переводы, которые являются частично правильными, как, например, правильный перевод, объединенный с маркером конца последовательности<EOS> затем добавил несколько слов из словаря. Пример:

Источник: это исходное предложение

Метка: это целевое предложение

Предсказание: это целевое предложение , это .......

А также я использую decoding_length_factor = 30.0 в tf.contrib.seq2seq.dynamic_decode

Если я использую impute_finished = Trueмодель просто заполняет предложение жетонами из словаря <OOV> в результате чего

Предсказание: это целевое предложение .......

Это нормально? Мне нужно нарезать прогноз вручную? perplexity очень низкий, обучение больше не действительно улучшает модель. Это привело к низкой оценке метрик. Уменьшение decoding_length_factor это не вариант, потому что у меня есть source который имеет sequence_length = 1 с соответствующими target с sequence_length = 30

Любые идеи с благодарностью. Спасибо.

0 ответов

Другие вопросы по тегам