Поведение Tensorflow's GreedyEmbeddingHelper
Я использую tf.contrib.seq2seq.GreedyEmbeddingHelper
в качестве помощника для моей модели вывода. Вывод, я получаю переводы, которые являются частично правильными, как, например, правильный перевод, объединенный с маркером конца последовательности<EOS>
затем добавил несколько слов из словаря. Пример:
Источник: это исходное предложение
Метка: это целевое предложение
Предсказание: это целевое предложение
, это .......
А также я использую decoding_length_factor = 30.0
в tf.contrib.seq2seq.dynamic_decode
Если я использую impute_finished = True
модель просто заполняет предложение жетонами из словаря <OOV>
в результате чего
Предсказание: это целевое предложение
.......
Это нормально? Мне нужно нарезать прогноз вручную? perplexity
очень низкий, обучение больше не действительно улучшает модель. Это привело к низкой оценке метрик. Уменьшение decoding_length_factor
это не вариант, потому что у меня есть source
который имеет sequence_length = 1
с соответствующими target
с sequence_length = 30
Любые идеи с благодарностью. Спасибо.