Разница между MPI с поддержкой CUDA и GPUDirect
У меня есть вопрос о MPI и GPUDirect с поддержкой CUDA. Я пишу статью, в которой считаю, что использую GPUDirect, но рецензент заметил, что я использую только MPI с поддержкой CUDA. В используемом мной кластере установлены CUDA 8.0.61, PGI 18.1 и MVAPICH2-GDR/2.3b, а в коде OpenACC я использую host_data use_device для отправки/получения буферов непосредственно между графическими процессорами внутри узла (насколько я знаю GPUDirect RDMA не работает в моей текущей ситуации, но я также знаю, что GPUDirect имеет много уровней, и это слово-зонтик).
Может ли кто-нибудь высказать некоторые мысли по этому поводу? Спасибо!
Лучший,