Получение OOM с Titan X (Pascal), но не с GeForce 1080 Ti

В настоящее время я тренирую модель трансформатора (распознавание речи) на двух разных машинах. Один из них оснащен картами Titan X (~12 ГБ видеопамяти), другой - видеокартами 1080 Ti (~11 ГБ видеопамяти).

Однако я не могу использовать тот же batch_size - сколько бы карт я ни использовал.

В то время как я могу установить размер пакета до 3 миллионов на 1080 Ti, Titan X выходит из строя из-за OOM при размере пакета всего 50 КБ. Он работает с 25k, но это довольно далеко от 3 миллионов.

В чем может быть причина? В этом нет никакого смысла, правда?

0 ответов

Другие вопросы по тегам