Не могу найти модель GPT4ALL.
Пишу программу на Python, хочу подключить GPT4ALL, чтобы программа работала как GPT-чат, только локально в моей среде программирования. Для этого я уже установил модель GPT4All-13B-snoozy.ggmlv3.q4_0.bin (вот ссылка для скачивания: https://huggingface.co/TheBloke/GPT4All-13B-snoozy-GGML/resolve/main/GPT4All-13B-snoozy.ggmlv3.q4_0.bin), у меня есть модель локально, местоположение: C:\Models\GPT4All-13B-snoozy.ggmlv3.q4_0.bin. Насколько я понимаю, проблема в установке GPT4ALL. Но я запустилpip install gpt4all
команду в терминале и она все скачивает и все работает (ошибку не выдает). Программа видит модель, но при запуске кода выдает следующую ошибку:Found model file at C:\\Models\\GPT4All-13B-snoozy.ggmlv3.q4_0.bin Unable to load the model: 1 validation error for GPT4All __root__ Unable to instantiate model (type=value_error) Invalid model file Process finished with exit code 0
Пишу код на PyCharm (Если это важно), библиотека langchain установлена и работает (последняя ее версия). Программа видит и находит модель, но выдает эту ошибку. Я скачал модель с этого сайта: https://gpt4all.io/index.html . Для подключения использовал официальную документацию langchain. Я не могу понять, что не так.
Пробовал скачать другие модели с того же сайта - выдало ту же ошибку. Также менял формат модели - не помогло.