Результаты обучения / тестирования Keras сильно различаются после нескольких запусков

Я использую Keras с бэкэндом TensorFlow. Набор данных, с которым я работаю, это данные последовательности со значением Y, которое непрерывно между 0 и 1. Набор данных разделен на обучение с размером 1900 и тестирование с размером 400. Я использую архитектуру VGG19, которую я создал с нуля в Keras, Я использую эпоху 30.

Мой вопрос: если я запускаю эту архитектуру несколько раз, я получаю совершенно разные результаты. Мои результаты могут быть между 0,15 и 0,5 RMSE. Это нормально для данных этого типа? Это потому, что у меня недостаточно эпох? Похоже, что потери в сети стабилизируются на уровне 0,024 в конце пробега. Есть идеи?

0 ответов

Другие вопросы по тегам