Загрузка модели формата защитных датчиков с помощью Hugging Face Transformers

Я пытаюсь загрузить модель notstoic/pygmalion-13b-4bit-128g, используя библиотеку Transformers Hugging Face. Я столкнулся с проблемой при попытке загрузить модель, сохраненную в новом формате безопасных тензоров.

Вот код, который я использую:

      from transformers import LlamaForCausalLM, LlamaTokenizer

tokenizer = LlamaTokenizer.from_pretrained("path/to/model")
model = LlamaForCausalLM.from_pretrained("path/to/model", use_safetensors=True)

Однако этот код приводит к следующей ошибке:

      Traceback (most recent call last):
  File "/Users/maxhager/Projects2023/nsfw/model_run.py", line 4, in <module>
    model = LlamaForCausalLM.from_pretrained("path/to/model", use_safetensors=True)
            ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
  File "/Users/maxhager/.virtualenvs/nsfw/lib/python3.11/site-packages/transformers/modeling_utils.py", line 2449, in from_pretrained
    raise EnvironmentError(
OSError: Error no file named pytorch_model.bin, tf_model.h5, model.ckpt.index or flax_model.msgpack found in directory path/to/model.

Меня смущает эта ошибка, потому что я установил use_safetensors=True, поскольку модель хранится в формате безопасных тензоров. В каталоге модели (путь/к/модели) у меня есть следующие файлы:

  • 4bit-128g.safetensors
  • config.json
  • поколение_config.json
  • pytorch_model.bin.index.json
  • Special_tokens_map.json
  • токенизатор.json
  • токенизатор.модель
  • tokenizer_config.json

Похоже, что функция from_pretrained() не распознает формат безопасных тензоров и вместо этого ищет типичные форматы файлов (pytorch_model.bin, tf_model.h5 и т. д.).

Я был бы признателен, если бы кто-нибудь мог подсказать, почему это происходит и как мне успешно загрузить эту модель.

0 ответов

Другие вопросы по тегам