Запустите код ламы из Hugging Face локально с помощью графического процессора

Я пытаюсь разместить Code Llama из Hugging Face локально и запустить его. Он работает только на процессоре и не использует доступный на компьютере графический процессор, несмотря на наличие драйверов Nvidia и набора инструментов Cuda.

      from transformers import AutoTokenizer
import transformers

model = "codellama/CodeLlama-7b-hf"

tokenizer = AutoTokenizer.from_pretrained(model)
pipeline = transformers.pipeline(
    "text-generation",
    model=model,
    torch_dtype=None,
    device_map = "cuda:0"
)

prompt = "Write python code to reverse a string"

sequences = pipeline(
    prompt,
    do_sample=True,
    top_k=10,
    temperature=0.1,
    top_p=0.95,
    num_return_sequences=1,
    eos_token_id=tokenizer.eos_token_id,
    max_length=200,
)
for seq in sequences:
    print(f"Result: {seq['generated_text']}")

Приведенный выше код запускает LLM локально, но если мы используем cuda для устройства, он выдает следующую ошибку:

      File "C:\Users\winuser3\Desktop\GENAI-App\venv\lib\site-packages\transformers\modeling_utils.py", line 3333, in from_pretrained
    ) = cls._load_pretrained_model(
  File "C:\Users\winuser3\Desktop\GENAI-App\venv\lib\site-packages\transformers\modeling_utils.py", line 3723, in _load_pretrained_model
    new_error_msgs, offload_index, state_dict_index = _load_state_dict_into_meta_model(
  File "C:\Users\winuser3\Desktop\GENAI-App\venv\lib\site-packages\transformers\modeling_utils.py", line 744, in _load_state_dict_into_meta_model
    set_module_tensor_to_device(model, param_name, param_device, **set_module_kwargs)
  File "C:\Users\winuser3\Desktop\GENAI-App\venv\lib\site-packages\accelerate\utils\modeling.py", line 317, in set_module_tensor_to_device
    new_value = value.to(device)
  File "C:\Users\winuser3\Desktop\GENAI-App\venv\lib\site-packages\torch\cuda\__init__.py", line 289, in _lazy_init
    raise AssertionError("Torch not compiled with CUDA enabled")
AssertionError: Torch not compiled with CUDA enabled

1 ответ

Вам необходимо установить версию Torch с поддержкой CUDA; см. https://pytorch.org/get-started/locally.

А именно, Вы нажимаете на «Windows», «CUDA 11.8» и получаете инструкцию по установке.pip3 install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118.

Если вы уже установили Torch или другие пакеты, возможно, вам придется сначала удалить их.

Другие вопросы по тегам