Гарантируется ли, что области cuMemAlloc'ed в разном контексте не пересекаются?

Мы знаем, что механизм унифицированного виртуального адресного пространства для графических процессоров NVIDIA (Fermi и новее) позволяет нам различать адреса указателей на стороне устройства на разных устройствах; см., например:

В чем разница между cudaMemcpy () и cudaMemcpyPeer () для P2P-копирования?

но это для распределения в первичных контекстах каждого из устройств. Верно ли это также для распределений в других контекстах? То есть, если я выделяю память cuMemAlloc() Могу ли я гарантировать, что диапазоны адресов не пересекаются в двух разных контекстах, на одном и том же устройстве или на разных устройствах?

0 ответов

Другие вопросы по тегам