Гарантируется ли, что области cuMemAlloc'ed в разном контексте не пересекаются?
Мы знаем, что механизм унифицированного виртуального адресного пространства для графических процессоров NVIDIA (Fermi и новее) позволяет нам различать адреса указателей на стороне устройства на разных устройствах; см., например:
В чем разница между cudaMemcpy () и cudaMemcpyPeer () для P2P-копирования?
но это для распределения в первичных контекстах каждого из устройств. Верно ли это также для распределений в других контекстах? То есть, если я выделяю память
cuMemAlloc()
Могу ли я гарантировать, что диапазоны адресов не пересекаются в двух разных контекстах, на одном и том же устройстве или на разных устройствах?