Обучение обученной модели seq2seq дополнительным данным обучения

Я обучил модель seq2seq с 1М сэмплами и сохранил последнюю контрольную точку. Теперь у меня есть несколько дополнительных обучающих данных из 50 тыс. Пар предложений, которых не было в предыдущих обучающих данных. Как я могу адаптировать текущую модель к этим новым данным, не начиная обучение с нуля?

1 ответ

Решение

Вам не нужно повторно запускать инициализацию всей сети. Вы можете запустить дополнительное обучение.

Обучение по заранее обученным параметрам

Другой вариант использования - использовать базовую модель и обучать ее новым возможностям обучения (в частности, методам оптимизации и скорости обучения). С помощью -train_from без -continue начнется новое обучение с параметрами, инициализированными из предварительно обученной модели.

Не забудьте токенизировать ваш корпус 50 КБ так же, как вы использовали предыдущий.

Кроме того, вам не нужно использовать один и тот же словарь, начиная с OpenNMT 0.9. Смотрите раздел Обновление словарей и используйте соответствующее значение с -update_vocab вариант.

Другие вопросы по тегам