Отсутствует файл main.exe при установке модели llama2.
Я пытаюсь установить языковую модель под названием llama2 отсюда .
Следовал этому руководству с некоторыми необходимыми корректировками (см. воспроизводимость ниже), но на шаге 7 он хочет использовать файл Main.exe, которого там нет. Я просмотрел несколько репозиториев Llama2, но никто не предоставил Main.exe.
Как мне найти отсутствующий здесь файл Main.exe для запуска модели llama2?
Воспроизводимость Я сделал следующее:
- в Гит Баш:
git clone https://github.com/sychhq/llama-cpp-setup.git && cd llama-cpp-setup && chmod +x setup.sh && ./setup.sh
- У него проблемы с лицензиями SSL, поэтому я добавляю
git config --global http.sslbackend schannel
и повторите строку выше. Теперь все работает и просит настройки. Я использую значение по умолчанию для обоих вопросов, поэтому дважды нажмите Enter. - Загрузка занимает 6 минут и попадает в C:/Users/…/llama-cpp-setup.
- Теперь я клонирую репозиторий ламы с помощью
git clone https://github.com/facebookresearch/llama.git
- Теперь я устанавливаю wget и вставляю его
C:/Windows/System32
- Тогда я бегу
/bin/bash ./download.sh
куда я поместил URL-адрес, который я запросил с https://ai.meta.com/resources/models-and-libraries/llama-downloads/ - Я обновился до Python 11 и запустил
python -m venv llama2
отcd llama.cpp
- Затем для активации модели (исходник)
llama2\Scripts\activate
иpython3 -m pip install -r requirements.txt
- Затем
python3 convert.py --outfile models/7B/ggml-model-f16.bin --outtype f16 ../../llama-cpp-setup/llama/llama-2-7b --vocab-dir ../../llama-cpp-setup//llama/llama (let op de paths!)
-
quantize ./models/7B/ggml-model-f16.bin ./models/7B/ggml-model-q4_0.bin q4_0
компрометирует модель. Это происходит из программы quantize.exe, которая видна в проводнике. - Наконец я бегу
./main -m ./models/7B/ggml-model-q4_0.bin -n 1024 --repeat_penalty 1.0 --color -i -r "User:" -f ./prompts/chat-with-bob.txt
но он не может найти файл main.exe. Что, очевидно, верно, поскольку в каталоге нет Main.exe (проверял в Проводнике).