Описание тега gpt4all
1
ответ
Сравнение методов системы контроля качества в наборе данных Markdown из 1000 документов: индексы и встраивания с помощью GPT-4 и переобучение GPT4ALL (или аналогичного)
Я работаю над проектом по созданию системы вопросов и ответов для портала документации, содержащего более 1000 документов Markdown, каждый из которых состоит примерно из 2000–4000 токенов. Я рассматриваю следующие два варианта: Использование индексо…
09 апр '23 в 11:58
2
ответа
Вывести полный ответ в виде строки и подавить параметры модели?
Как экспортировать полный ответ из gpt4all в одну строку? И как запретить печать параметров модели (gptj_generate... и gptj_model_load...)? Пример: response="Немецкое пиво — очень популярный напиток во всем мире. Процесс пивоварения и используемые и…
03 май '23 в 08:07
2
ответа
Кто-нибудь может успешно запустить langchain gpt4all?
Следующий фрагмент кода взят из https://python.langchain.com/docs/modules/model_io/models/llms/integrations/gpt4all . from langchain import PromptTemplate, LLMChain from langchain.llms import GPT4All from langchain.callbacks.streaming_stdout import …
03 июл '23 в 01:21
0
ответов
Я не могу использовать GPT4All со Streamlit.
Я пытаюсь использовать GPT4All с Streamlit в своем коде Python, но кажется, что какой-то параметр получает неправильные значения. Я испробовал все альтернативы. Это выглядит небольшой проблемой, которую я где-то упускаю. Мой код: from langchain impo…
24 авг '23 в 16:53
1
ответ
Ошибка «Нет соответствующей модели для указанного имени файла. Обязательно укажите допустимый тип_модели» в gpt4all.
Я пытаюсь запустить модель gpt4all через библиотеку gpt4all python и разместить ее в Интернете. Согласно документации, мое форматирование правильное, поскольку я указал путь, название модели и загрузил фактическую модель на свой компьютер. Мой код: …
28 авг '23 в 13:49
0
ответов
__call__ не работает корректно с langchain LLMChain
При выполнении вне объекта класса код работает правильно, однако, если я передам ту же функциональность в новый класс, он не сможет обеспечить тот же результат. Это работает, как и ожидалось: from langchain.llms import GPT4All from langchain import …
21 июл '23 в 21:30
0
ответов
Не могу найти модель GPT4ALL.
Пишу программу на Python, хочу подключить GPT4ALL, чтобы программа работала как GPT-чат, только локально в моей среде программирования. Для этого я уже установил модель GPT4All-13B-snoozy.ggmlv3.q4_0.bin (вот ссылка для скачивания: https://huggingfa…
22 июн '23 в 17:02
1
ответ
AttributeError: объект «Модель» не имеет атрибута «_ctx»: ошибка при использовании gpt4all с langchain
from langchain import PromptTemplate, LLMChain from langchain.llms import GPT4All from langchain.callbacks.base import CallbackManager from langchain.callbacks.streaming_stdout import StreamingStdOutCallbackHandler local_path = './models/gpt4all-co…
16 май '23 в 19:12
0
ответов
Может ли GPT4All интерпретировать изображение в текст, как это делаетchat-gpt-4?
У меня есть вопрос по GPT4All: может ли GPT4All интерпретировать изображение (которое будет входными данными) в текст (в качестве выходных данных), как это делаетchat-gpt-4? Спасибо за помощь.
16 авг '23 в 09:34
1
ответ
Langchain не может создать индекс при работе внутри сервера Django
У меня есть простой чат-бот Langchain, использующий GPT4ALL, который запускается в одноэлементном классе на моем сервере Django. Вот простой код: gpt4all_path = './models/gpt4all_converted.bin' llama_path = './models/ggml_model_q4_0.bin' embeddings …
04 июн '23 в 14:08
0
ответов
AttributeError: объект «GPT4All» не имеет атрибута «chat_completion».
просто установите gpt4all 1.0.8. Не знаю, как решить эту ошибку. Спасибо за помощь. Я использую Python 3.8. https://pypi.org/project/gpt4all/ import gpt4all gptj=gpt4all.GPT4All("ggml-gpt4all-j-v1.3-groovy") messages = [{"role": "user", "content": "…
07 авг '23 в 02:11
0
ответов
Пространственный компонент времени для LangChain и векторных баз данных?
Недавно я работал с PrivateGPT и создал парсеры контента, чтобы извлекать справочные статьи для загрузки. В настоящее время мой проект очищает PrivateGPT каждый день, чтобы загрузить и суммировать набор статей за предыдущий день. Кажется, это лучший…
08 авг '23 в 15:30
0
ответов
Обучение в несколько раз с помощью GPT4Все приводит к галлюцинациям
Я настроил llm как модель GPT4All локально и интегрировал его с шаблоном подсказки с несколькими кадрами с помощью LLMChain. Несколько примеров подсказок для выстрелов просты. Шаблон подсказки для нескольких выстрелов . Я попробовал тот же шаблон, и…
17 июл '23 в 09:51
1
ответ
Для GPT4All не удается загрузить загруженный файл модели. Получение ошибки llama_init_from_file: не удалось загрузить модель (неверное значение f16 5)
Я пытаюсь использовать следующий код для использования GPT4All с langchain, но получаю вышеуказанную ошибку: Код: import streamlit as st from langchain import PromptTemplate, LLMChain from langchain.llms import GPT4All from langchain.agents.agent_to…
04 июл '23 в 10:31
1
ответ
Невозможно создать экземпляр модели gpt4all в Windows
Невозможно создать экземпляр модели в Windows. Привет, ребята! Я действительно застрял в попытке запустить код из руководства gpt4all . Может это как-то связано с виндой? Я использую gpt4all v.1.0.8, Windows 10 pro 21H2, процессор Core i7-12700HMSI …
15 авг '23 в 19:02
2
ответа
как заставить PrivateGPT получать информацию только из локальных документов?
Я использую PrivateGPT со стандартной моделью GPT4All (ggml-gpt4all-j-v1.3-groovy.bin), а также с последней версией Falcon. Моя проблема в том, что я ожидал получить информацию только из местных документов, а не из того, что модель уже «знает». Прим…
01 авг '23 в 16:06
1
ответ
Как улучшить/предварительно обработать текст (в особых случаях), чтобы встраивания и LLM имели лучший контекст?
Я работал над настройкой локальных документов для загрузки в векторную базу данных, а затем для использования (встраивания) в качестве контекста для LLM. Проблема в том, что местные документы очень высокого уровня (более подробную информацию см. ниж…
20 июн '23 в 04:28
1
ответ
Конфликт библиотеки GPT4All Metal во время встраивания на M1 Mac
Я пытаюсь запустить модель внедрения GPT4All на своем Macbook M1 с помощью следующего кода: import json import numpy as np from gpt4all import GPT4All, Embed4All # Load the cleaned JSON data with open('coursesclean.json') as file: data = json.load(f…
17 июл '23 в 21:42
0
ответов
Ошибка Cmake --build, GPT4ALL, невозможно открыть включаемый файл: 'unistd.h'
Я пытаюсь запустить модель gpt4all в своей Windows 10, но когда я запускаю эту команду cmake --build. --parallel' Я получил эту ошибку Невозможно открыть включаемый файл: 'unistd.h': такого файла или каталога нет [D:\projects\gpt4all\gpt4all-backend…
14 май '23 в 12:06
0
ответов
Не читает модель
Пишу программу на Python, хочу подключить GPT4ALL, чтобы программа работала как GPT-чат, только локально в моей среде программирования. Для этого я уже установил модель GPT4All-13B-snoozy.ggmlv3.q4_0.bin (вот ссылка для скачивания: https://huggingfa…
22 июн '23 в 15:24