AssertionError при использовании llama-cpp-python в Google Colab
Я пытаюсь использовать llama-cpp-python (оболочку Python для llama.cpp) для выполнения вывода с использованием Llama LLM в Google Colab. Мой код выглядит следующим образом:
!pip install llama-cpp-python
from llama_cpp import ChatCompletionMessage, Llama
model = Llama(
"/content/drive/MyDrive/<weights-file>.bin",
)
Однако при запуске я получаю эту ошибку:
AssertionError Traceback (most recent call last)
<ipython-input-13-652eb650093d> in <cell line: 9>()
7 }
8
----> 9 model = Llama(
10 model_path="/content/drive/MyDrive/careo/Wizard-Vicuna-13B-Uncensored.ggmlv3.q4_1.bin",
11 )
/usr/local/lib/python3.10/dist-packages/llama_cpp/llama.py in __init__(self, model_path, n_ctx, n_parts, n_gpu_layers, seed, f16_kv, logits_all, vocab_only, use_mmap, use_mlock, embedding, n_threads, n_batch, last_n_tokens_size, lora_base, lora_path, low_vram, tensor_split, rope_freq_base, rope_freq_scale, n_gqa, rms_norm_eps, mul_mat_q, verbose)
321 self.model_path.encode("utf-8"), self.params
322 )
--> 323 assert self.model is not None
324
325 if verbose:
AssertionError:
Я попробовал запустить этот код на своем локальном компьютере, и он работает без проблем. Есть ли у вас идеи, что может быть причиной ошибки в Google Colab?
2 ответа
С модельного пути -model_path="/content/drive/MyDrive/careo/Wizard-Vicuna-13B-Uncensored.ggmlv3.q4_1.bin"
Я вижу, что вы используете формат модели ggmlv3, согласно новому коммиту для репозитория llama-cpp-python , новый формат модели был изменен с ggmlv3 на gguf.
Автор также упомянул, что веса ggmlv3 по-прежнему будут работать для версий до 0.1.79(новая версия), поэтому вы либо указываете версию при установке пакета.pip install llama-cpp-python==0.1.78
или измените формат модели на новую версию gguf — см .
Если вам полезны веса моделей CodeLlama, то есть много весов моделей, опубликованных в обнимающем лице, например TheBloke/CodeLlama-13B-GGUF.
@ Ответ Шрирама Говардханама сработал, по крайней мере, для модели «TheBloke/Llama-2-7B-Chat-GGML». Мне пришлось просто установить «pip install llama-cpp-python==0.1.78».