Сколько эпох обычно требуется для приличной тренировки глубокой речи Мозиллы?
Я хотел бы знать, сколько эпох вы обычно проводите для обучения глубокой речи mozilla с ее архитектурой по умолчанию. (без изменений по сравнению с версией GitHub). Какое будет количество приличных эпох, особенно если учесть, что для каждой эпохи в доступной инфраструктуре требуется немало времени ((одиночный графический процессор Tesla K80))
Также с другой стороны, при ранней остановке (критерий по умолчанию), каким будет это число? Ценю ваши предложения / советы.
Учебные данные: резюме
0 ответов
Хорошее практическое правило - позволить ему работать, пока модель учится, то есть, пока ошибка проверки ниже ошибки обучения. Вы можете контролировать это во время выполнения, так как оно распечатано в Консоль, или автоматизировать это, например, с помощью параметра dropout_rate. Если вы установите значение, равное 0,1, оно прекратится, когда ошибка проверки будет очень близка к ошибке обучения.
Это, конечно, также зависит от других настроек параметров и ваших данных.
- n_hidden и epoch - основные параметры, влияющие на точность модели
- n_hidden и train_batch_size влияют на скорость (если n_hidden меньше, а train_batch_size больше, скорость будет выше).