Как использовать fairseq-interactive с предварительно обученной моделью M2M100 для перевода?
Мне интересно, как использовать fairseq-interactive с M2M100, я могу использовать fairseq-generate с M2M100, но результаты перемешиваются, я не могу этого избежать. Это не относится к fairseq-interactive, результаты находятся в исходном порядке.
В Fairseq каждая модель имеет свои собственные параметры, так что, ребята, не могли бы вы рассказать мне, как использовать fairseq-interactive с M2M100? Спасибо большое!
1 ответ
Вы все еще можете использовать
fairseq-generate
. Как указано в Github Issue #2036, вы можете отсортировать вывод по
H-XXX
приставка. Предложения расположены не в исходном порядке, потому что они хотят минимизировать количество
<pad>
жетоны.
Скрипты и имеют одинаковые параметры, нет ничего особенного в использовании вместо. Единственная разница в том, что
generate
работает с бинаризованными данными, тогда как
interactive
использует необработанный ввод (что означает, что текст должен быть подготовлен так же, как вы использовали для
fairseq-preprocess
).