Не читает модель
Пишу программу на Python, хочу подключить GPT4ALL, чтобы программа работала как GPT-чат, только локально в моей среде программирования. Для этого я уже установил модель GPT4All-13B-snoozy.ggmlv3.q4_0.bin (вот ссылка для скачивания: https://huggingface.co/TheBloke/GPT4All-13B-snoozy-GGML/resolve/main/GPT4All-13B-snoozy .ggmlv3.q4_0.bin), у меня есть модель локально, местоположение: C:\Models\GPT4All-13B-snoozy.ggmlv3.q4_0.bin. Насколько я понимаю, проблема в установке GPT4ALL. Но я запустилpip install gpt4all
команду в терминале и она все скачивает и все работает (ошибку не выдает). Программа видит модель, но при запуске кода выдает следующую ошибку:
Found model file at C:\\Models\\GPT4All-13B-snoozy.ggmlv3.q4_0.bin
Unable to load the model: 1 validation error for GPT4All
__root__
Unable to instantiate model (type=value_error)
Invalid model file
Process finished with exit code 0
Пишу код на PyCharm (Если это важно), библиотека langchain установлена и работает (последняя ее версия). Программа видит и находит модель, но выдает эту ошибку. Я скачал модель с этого сайта: https://gpt4all.io/index.html . Для подключения использовал официальную документацию langchain. Я не могу понять, что не так.
Пробовал скачать другие модели с того же сайта - выдало ту же ошибку. Также менял формат модели - не помогло.