Почему общий размер набора данных в нейронной сети влияет на использование памяти
Первоначально я пытался передать обучение в модели классификации изображений, используя 268 тестовых изображений + 65 проверочных изображений размером 256x256.
(Код, который я использую, взят с https://github.com/conan7882/GoogLeNet-Inception)
Однако даже с Tesla K80(16 ГБ памяти) я все еще не могу обучать больше, чем размер пакета 5.
Теперь, когда я увеличил размер набора данных до 480 тестовых изображений + 120 проверочных изображений, ошибка нехватки памяти снова появляется. Мне нужно уменьшить размер партии до 2, чтобы продолжить обучение.
Почему размер набора данных имеет значение при использовании памяти? Разве размер пакета не должен определять, сколько данных обрабатывает графический процессор?