Сравнивая два времени обучения ConvNet с использованием процессора TensorFlow, одна сеть медленнее, чем операционная, но на TF GPU у них одинаковое время обучения

Я сравниваю время обучения с моей новой функцией затрат и сравниваю ее с перекрестной энтропией. Используя одну и ту же сетевую архитектуру для обеих функций затрат, я заметил, что время обучения, записанное при работе TF на ЦП, показывает, что моя функция затрат в 4 раза быстрее, чем кросс-энтропия. Однако на TF GPU оба подхода имеют одинаковое время обучения. Примечание: оба запускаются для одинакового количества обучающих итераций. Как это возможно?

0 ответов

Другие вопросы по тегам