Как использовать fairseq-interactive с предварительно обученной моделью M2M100 для перевода?

Мне интересно, как использовать fairseq-interactive с M2M100, я могу использовать fairseq-generate с M2M100, но результаты перемешиваются, я не могу этого избежать. Это не относится к fairseq-interactive, результаты находятся в исходном порядке.

В Fairseq каждая модель имеет свои собственные параметры, так что, ребята, не могли бы вы рассказать мне, как использовать fairseq-interactive с M2M100? Спасибо большое!

1 ответ

Вы все еще можете использовать fairseq-generate. Как указано в Github Issue #2036, вы можете отсортировать вывод по H-XXXприставка. Предложения расположены не в исходном порядке, потому что они хотят минимизировать количество <pad> жетоны.

Скрипты и имеют одинаковые параметры, нет ничего особенного в использовании вместо. Единственная разница в том, что generate работает с бинаризованными данными, тогда как interactive использует необработанный ввод (что означает, что текст должен быть подготовлен так же, как вы использовали для fairseq-preprocess).

Другие вопросы по тегам