Как загрузить настроенную модель (объединенные веса) в Colab?

Я настроил модель llama2. Перезагрузил базовую модель и объединил веса LoRA. Я снова сохранил эту наконец загруженную модель и теперь собираюсь ее запустить.

      base_model = AutoModelForCausalLM.from_pretrained(
    model_name,
    low_cpu_mem_usage=True,
    return_dict=True,
    torch_dtype=torch.float16,
    device_map=device_map,
)
model = PeftModel.from_pretrained(base_model, new_model)
model = model.merge_and_unload()
model.save_pretrained(...path/to/model)

Теперь я хотел бы использовать модель по пути/к/модели, используя следующий код

      
model_config = transformers.AutoConfig.from_pretrained(
    model_id,
    use_auth_token=hf_auth
)

model = transformers.AutoModelForCausalLM.from_pretrained(
    model_id,
    trust_remote_code=True,
    config=model_config,
    device_map='auto',
    offload_folder="offload",
    torch_dtype=float16,
    use_auth_token=hf_auth,
    offload_state_dict = True,
)
model.eval()

Моя цель сохранить объединенную модель — устранить зависимость от base_model.

проблема

Запуская модель в Colab, я вижу, что графический процессор не используется, а используется только процессор. Это приводит к сбою среды выполнения. Я хотел бы знать, что заставляет графический процессор не использоваться?

0 ответов

Другие вопросы по тегам