YOLO - тензорный поток работает на процессоре, но не на процессоре
Я использовал обнаружение YOLO с обученной моделью, используя мой графический процессор - Nvidia 1060 3Gb, и все работало нормально.
Сейчас я пытаюсь сгенерировать свою собственную модель с параметром --gpu 1.0. Tensorflow может видеть мой графический процессор, так как я могу прочитать при запуске, что он сообщает: "name: GeForce GTX 1060 major: 6 minor: 1 memoryClockRate(GHz): 1.6705" "totalMemory: 3.00GiB freeMemory: 2.43GiB"
Во всяком случае, позже, когда программа загружает данные и пытается начать обучение, я получил следующую ошибку: "не удалось выделить 832,51M (872952320 байт) с устройства: CUDA_ERROR_OUT_OF_MEMORY"
Я проверил, пытается ли он использовать мой другой графический процессор (Intel 630), но это не так.
Когда я запускаю поезд без опций режима --gpu, он работает нормально, но медленно. (Я пробовал также - GPU 0,8, 0,4 и т. Д.)
Есть идеи как это исправить?
2 ответа
Задача решена. Изменение размера пакета и размера изображения в конфигурационном файле, похоже, не помогло, так как они загружались неправильно. Мне пришлось перейти в файл defaults.py и изменить его там на более низкий, чтобы мой GPU мог рассчитать шаги.
Похоже, ваша пользовательская модель использует много памяти, и графическая карта не может ее поддерживать. Вам нужно всего лишь использовать параметр --batch, чтобы контролировать размер памяти.