Почему моя нейронная сеть никогда не перезаряжается?
Я тренирую глубокую остаточную сеть с 10 скрытыми слоями с игровыми данными.
У кого-нибудь есть идея, почему я не получаю никакого переоснащения здесь? Потеря тренировок и испытаний по-прежнему уменьшается после 100 эпох обучения.
1 ответ
Просто пара советов:
- Для глубокого обучения рекомендуется делать даже 90/10 или 95/5 расщепление (Эндрю Нг)
- эта небольшая разница между кривыми означает, что ваш
learning_rate
не настроен; попробуйте увеличить его (и, возможно, числоepochs
если вы будете реализовывать какой-то "умный" lr-Reduce) - также целесообразно, чтобы DNN пытался использовать небольшой объем данных (10-100 строк) и огромное количество итераций.
- проверьте утечку данных в наборе: анализ весов внутри каждого слоя может помочь вам в этом