Получение OOM с Titan X (Pascal), но не с GeForce 1080 Ti
В настоящее время я тренирую модель трансформатора (распознавание речи) на двух разных машинах. Один из них оснащен картами Titan X (~12 ГБ видеопамяти), другой - видеокартами 1080 Ti (~11 ГБ видеопамяти).
Однако я не могу использовать тот же batch_size
- сколько бы карт я ни использовал.
В то время как я могу установить размер пакета до 3 миллионов на 1080 Ti, Titan X выходит из строя из-за OOM при размере пакета всего 50 КБ. Он работает с 25k, но это довольно далеко от 3 миллионов.
В чем может быть причина? В этом нет никакого смысла, правда?