Разница между @cuda.jit и @jit(target='gpu')
У меня есть вопрос по работе с библиотеками Python CUDA из пакетов Continuum Accelerate и numba. Использует декоратор @jit
с target = gpu
такой же как @cuda.jit
?
1 ответ
Нет, они не одинаковы, хотя возможный путь компиляции в PTX в ассемблер есть. @jit
Декоратор - это общий путь компилятора, который может быть дополнительно направлен на устройство CUDA. @cuda.jit
Декоратор - это низкоуровневый диалект ядра Python CUDA, разработанный Continuum Analytics. Таким образом, вы получаете поддержку встроенных переменных CUDA, таких как threadIdx
и спецификаторы пространства памяти, такие как __shared__
в @cuda.jit
,
Если вы хотите написать ядро CUDA на Python, скомпилировать и запустить его, используйте @cuda.jit
, В противном случае, если вы хотите ускорить использование существующего фрагмента Python @jit
с целью CUDA.