Сколько эпох обычно требуется для приличной тренировки глубокой речи Мозиллы?

Я хотел бы знать, сколько эпох вы обычно проводите для обучения глубокой речи mozilla с ее архитектурой по умолчанию. (без изменений по сравнению с версией GitHub). Какое будет количество приличных эпох, особенно если учесть, что для каждой эпохи в доступной инфраструктуре требуется немало времени ((одиночный графический процессор Tesla K80))

Также с другой стороны, при ранней остановке (критерий по умолчанию), каким будет это число? Ценю ваши предложения / советы.

Учебные данные: резюме

0 ответов

Хорошее практическое правило - позволить ему работать, пока модель учится, то есть, пока ошибка проверки ниже ошибки обучения. Вы можете контролировать это во время выполнения, так как оно распечатано в Консоль, или автоматизировать это, например, с помощью параметра dropout_rate. Если вы установите значение, равное 0,1, оно прекратится, когда ошибка проверки будет очень близка к ошибке обучения.

Это, конечно, также зависит от других настроек параметров и ваших данных.

  • n_hidden и epoch - основные параметры, влияющие на точность модели
  • n_hidden и train_batch_size влияют на скорость (если n_hidden меньше, а train_batch_size больше, скорость будет выше).
Другие вопросы по тегам