Ошибка при развертывании модели LLM в конечной точке sagemaker. пожалуйста, дайте решение, любое известное
#033[2m2023-07-31T06:58:11.298494Z#033[0m #033[31mERROR#033[0m #033[2mtext_generation_launcher#033[0m#033[2m:#033[0m Download encountered an error: Traceback (most recent call last):
File "/opt/conda/bin/text-generation-server", line 8, in <module>
sys.exit(app())
File "/opt/conda/lib/python3.9/site-packages/text_generation_server/cli.py", line 151, in download_weights
utils.convert_files(local_pt_files, local_st_files)
File "/opt/conda/lib/python3.9/site-packages/text_generation_server/utils/convert.py", line 84, in convert_files
convert_file(pt_file, sf_file)
File "/opt/conda/lib/python3.9/site-packages/text_generation_server/utils/convert.py", line 62, in convert_file
save_file(pt_state, str(sf_file), metadata={
"format": "pt"
})
File "/opt/conda/lib/python3.9/site-packages/safetensors/torch.py", line 232, in save_file
serialize_file(_flatten(tensors), filename, metadata=metadata)
мы пытаемся развернуть соколаLLM
модель вaws sagemaker
конечная точка, используя следующий код, указанный вhuggingface
вариант развертывания модели.
подскажите пожалуйста решение этой проблемы..
1 ответ
Вы можете использовать этот блокнот для развертывания моделей Faclcon: https://github.com/aws/amazon-sagemaker-examples/blob/main/introduction_to_amazon_algorithms/jumpstart-foundation-models/text-generation-falcon.ipynb