LLModel Ошибка при попытке загрузить квантованную модель LLM из GPT4All на MacBook Pro с чипом M1?

Я установил привязки Python gpt4all на свой MacBook Pro (чип M1) в соответствии с этими инструкциями: https://github.com/nomic-ai/gpt4all/tree/main/gpt4all-bindings/python.

Однако, опробовав некоторые модели, я столкнулся с ошибкой LLModel, которая, как я предполагаю, связана с чипом M1 моего Macbook. Но должно ли быть решение/обходной путь? Или я делаю что-то не так?

Я импортировал gpt4all, а затем попытался загрузить orca-mini-3b, но получил следующий Traceback.

      >>> from gpt4all import GPT4All
>>> model = GPT4All("orca-mini-3b-gguf2-q4_0.gguf")
100%|████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 1.98G/1.98G [02:34<00:00, 12.8MiB/s]
LLModel ERROR: CPU does not support AVX
Traceback (most recent call last):
  File "<stdin>", line 1, in <module>
  File "/usr/local/lib/python3.11/site-packages/gpt4all/gpt4all.py", line 101, in __init__
    self.model.load_model(self.config["path"])
  File "/usr/local/lib/python3.11/site-packages/gpt4all/pyllmodel.py", line 260, in load_model
    raise ValueError(f"Unable to instantiate model: code={err.code}, {err.message.decode()}")
ValueError: Unable to instantiate model: code=45, Model format not supported (no matching implementation found)

0 ответов

Другие вопросы по тегам