Как использовать CUDA DevicePtr в качестве ускоренного массива
Я пытаюсь использовать Cuda DevicePtr
(который называется CUdeviceptr
в CUDA-стране) возвращен из иностранного кода в качестве ускорения Array
с ускорением-llvm-PTX.
Код, который я написал ниже, несколько работает:
import Data.Array.Accelerate
(Acc, Array, DIM1, Z(Z), (:.)((:.)), use)
import qualified Data.Array.Accelerate as Acc
import Data.Array.Accelerate.Array.Data
(GArrayData(AD_Float), unsafeIndexArrayData)
import Data.Array.Accelerate.Array.Sugar
(Array(Array), fromElt, toElt)
import Data.Array.Accelerate.Array.Unique
(UniqueArray, newUniqueArray)
import Data.Array.Accelerate.LLVM.PTX (run)
import Foreign.C.Types (CULLong(CULLong))
import Foreign.CUDA.Driver (DevicePtr(DevicePtr))
import Foreign.ForeignPtr (newForeignPtr_)
import Foreign.Ptr (intPtrToPtr)
-- A foreign function that uses cuMemAlloc() and cuMemCpyHtoD() to
-- create data on the GPU. The CUdeviceptr (initialized by cuMemAlloc)
-- is returned from this function. It is a CULLong in Haskell.
--
-- The data on the GPU is just a list of the 10 floats
-- [0.0, 1.0, 2.0, ..., 8.0, 9.0]
foreign import ccall "mytest.h mytestcuda"
cmyTestCuda :: IO CULLong
-- | Convert a 'CULLong' to a 'DevicePtr'.
--
-- A 'CULLong' is the type of a CUDA @CUdeviceptr@. This function
-- converts a raw 'CULLong' into a proper 'DevicePtr' that can be
-- used with the cuda Haskell package.
cullongToDevicePtr :: CULLong -> DevicePtr a
cullongToDevicePtr = DevicePtr . intPtrToPtr . fromIntegral
-- | This function calls 'cmyTestCuda' to get the 'DevicePtr', and
-- wraps that up in an accelerate 'Array'. It then uses this 'Array'
-- in an accelerate computation.
accelerateWithDataFromC :: IO ()
accelerateWithDataFromC = do
res <- cmyTestCuda
let DevicePtr ptrToXs = cullongToDevicePtr res
foreignPtrToXs <- newForeignPtr_ ptrToXs
uniqueArrayXs <- newUniqueArray foreignPtrToXs :: IO (UniqueArray Float)
let arrayDataXs = AD_Float uniqueArrayXs :: GArrayData UniqueArray Float
let shape = Z :. 10 :: DIM1
xs = Array (fromElt shape) arrayDataXs :: Array DIM1 Float
ys = Acc.fromList shape [0,2..18] :: Array DIM1 Float
usedXs = use xs :: Acc (Array DIM1 Float)
usedYs = use ys :: Acc (Array DIM1 Float)
computation = Acc.zipWith (+) usedXs usedYs
zs = run computation
putStrLn $ "zs: " <> show z
При компиляции и запуске этой программы она правильно выводит результат:
zs: Vector (Z :. 10) [0.0,3.0,6.0,9.0,12.0,15.0,18.0,21.0,24.0,27.0]
Однако, из-за чтения исходного кода ускорения и ускорения-llvm-ptx, похоже, это не сработает.
В большинстве случаев это похоже на ускорение Array
содержит указатель на массив данных в памяти HOST и Unique
значение уникальной идентификации Array
, При выполнении Acc
вычисления, ускорение будет загружать данные массива из памяти HOST в память GPU по мере необходимости, и отслеживать это с помощью HashMap
индексируется Unique
,
В приведенном выше коде я создаю Array
непосредственно с указателем на данные графического процессора. Это не похоже, что это должно работать, но, похоже, работает в приведенном выше коде.
Однако некоторые вещи не работают. Например, пытаясь распечатать xs
(мой Array
с указателем на данные графического процессора) завершается с ошибкой. Это имеет смысл, так как Show
экземпляр для Array
просто пытается peek
данные из указателя HOST. Это терпит неудачу, потому что это не указатель HOST, а указатель GPU:
-- Trying to print xs causes a segfault.
putStrLn $ "xs: " <> show xs
Есть ли правильный способ принять CUDA DevicePtr
и использовать его непосредственно в качестве ускорения Array
?
1 ответ
На самом деле, я удивлен, что вышесказанное сработало так же, как и раньше; Я не мог повторить это.
Одна из проблем здесь заключается в том, что память устройства неявно связана с контекстом выполнения; указатели в одном контексте недопустимы в другом контексте, даже на одном и том же графическом процессоре (если вы явно не разрешаете доступ к одноранговой памяти между этими контекстами).
Итак, на самом деле есть две составляющие этой проблемы:
- Импортируйте иностранные данные в Accelerate так, как они понимают; а также
- Убедитесь, что последующие ускоренные вычисления выполняются в контексте, который имеет доступ к этой памяти.
решение
Вот код C, который мы будем использовать для генерации данных на GPU:
#include <cuda.h>
#include <stdio.h>
#include <stdlib.h>
CUdeviceptr generate_gpu_data()
{
CUresult status = CUDA_SUCCESS;
CUdeviceptr d_arr;
const int N = 32;
float h_arr[N];
for (int i = 0; i < N; ++i) {
h_arr[i] = (float)i;
}
status = cuMemAlloc(&d_arr, N*sizeof(float));
if (CUDA_SUCCESS != status) {
fprintf(stderr, "cuMemAlloc failed (%d)\n", status);
exit(1);
}
status = cuMemcpyHtoD(d_arr, (void*) h_arr, N*sizeof(float));
if (CUDA_SUCCESS != status) {
fprintf(stderr, "cuMemcpyHtoD failed (%d)\n", status);
exit(1);
}
return d_arr;
}
И код Haskell/Accelerate, который его использует:
{-# LANGUAGE ForeignFunctionInterface #-}
import Data.Array.Accelerate as A
import Data.Array.Accelerate.Array.Sugar as Sugar
import Data.Array.Accelerate.Array.Data as AD
import Data.Array.Accelerate.Array.Remote.LRU as LRU
import Data.Array.Accelerate.LLVM.PTX as PTX
import Data.Array.Accelerate.LLVM.PTX.Foreign as PTX
import Foreign.CUDA.Driver as CUDA
import Text.Printf
main :: IO ()
main = do
-- Initialise CUDA and create an execution context. From this we also create
-- the context that our Accelerate programs will run in.
--
CUDA.initialise []
dev <- CUDA.device 0
ctx <- CUDA.create dev []
ptx <- PTX.createTargetFromContext ctx
-- When created, a context becomes the active context, so when we call the
-- foreign function this is the context that it will be executed within.
--
fp <- c_generate_gpu_data
-- To import this data into Accelerate, we need both the host-side array
-- (typically the only thing we see) and then associate this with the existing
-- device memory (rather than allocating new device memory automatically).
--
-- Note that you are still responsible for freeing the device-side data when
-- you no longer need it.
--
arr@(Array _ ad) <- Sugar.allocateArray (Z :. 32) :: IO (Vector Float)
LRU.insertUnmanaged (ptxMemoryTable ptx) ad fp
-- NOTE: there seems to be a bug where we haven't recorded that the host-side
-- data is dirty, and thus needs to be filled in with values from the GPU _if_
-- those are required on the host. At this point we have the information
-- necessary to do the transfer ourselves, but I guess this should really be
-- fixed...
--
-- CUDA.peekArray 32 fp (AD.ptrsOfArrayData ad)
-- An alternative workaround to the above is this no-op computation (this
-- consumes no additional host or device memory, and executes no kernels).
-- If you never need the values on the host, you could ignore this step.
--
let arr' = PTX.runWith ptx (use arr)
-- We can now use the array as in a regular Accelerate computation. The only
-- restriction is that we need to `run*With`, so that we are running in the
-- context of the foreign memory.
--
let r = PTX.runWith ptx $ A.fold (+) 0 (use arr')
printf "array is: %s\n" (show arr')
printf "sum is: %s\n" (show r)
-- Free the foreign memory (again, it is not managed by Accelerate)
--
CUDA.free fp
foreign import ccall unsafe "generate_gpu_data"
c_generate_gpu_data :: IO (DevicePtr Float)