Разница между @cuda.jit и @jit(target='gpu')

У меня есть вопрос по работе с библиотеками Python CUDA из пакетов Continuum Accelerate и numba. Использует декоратор @jit с target = gpu такой же как @cuda.jit?

1 ответ

Решение

Нет, они не одинаковы, хотя возможный путь компиляции в PTX в ассемблер есть. @jit Декоратор - это общий путь компилятора, который может быть дополнительно направлен на устройство CUDA. @cuda.jit Декоратор - это низкоуровневый диалект ядра Python CUDA, разработанный Continuum Analytics. Таким образом, вы получаете поддержку встроенных переменных CUDA, таких как threadIdx и спецификаторы пространства памяти, такие как __shared__ в @cuda.jit,

Если вы хотите написать ядро ​​CUDA на Python, скомпилировать и запустить его, используйте @cuda.jit, В противном случае, если вы хотите ускорить использование существующего фрагмента Python @jit с целью CUDA.

Другие вопросы по тегам