Описание тега large-language-model

0 ответов

Как загрузить модель Лораса из таблицы лидеров Huggingface?

В open_llm_leaderboard есть много интересных моделей 30b loras с чрезвычайно хорошей производительностью. Но КАК Я МОГУ ЭТО ЗАГРУЗИТЬ без адаптера_config.json? Мне очень жаль, что я новичок в этой области, но, если я не правильно понял, при наличии …
23 июл '23 в 15:38
2 ответа

Как использовать LLMChain с моделью llm, хранящейся на диске

Мне нужно использовать LLMChain с локально хранимой моделью. У меня есть код ниже. llm_chain = LLMChain(prompt=prompt, llm = HuggingFaceHub(repo_id="google/flan-t5-large", model_kwargs={..some params})) Вместо repo_id мне нужно указать локальный пут…
09 май '23 в 09:20
0 ответов

Агент Langchain MRKL не дает полезного окончательного ответа

Вот код, который я использую для инициализации агента Zero Shot ReAct с некоторыми инструментами для извлечения соответствующих документов из векторной базы данных: chat_model = ChatOpenAI( model_name="gpt-3.5-turbo", temperature="0", openai_api_key…
1 ответ

Получение ошибки версии Peft при точной настройке Autotrain на Llama 2

Я провел тонкую настройку Llama 2 с помощью Autotrain в Google Colab. это образец текстового столбца для точной настройки ###Human: Here is the OCR Text extracted from a VHS tape cover. Yes, the text is surely extracted from a VHS tape, but it may h…
1 ответ

Ошибка при получении соединения с использованием библиотеки openllm Python

Я пытаюсь использовать этот репозиторий GitHub, особенно приведенный ниже код Python: import openllm client = openllm.client.HTTPClient('http://localhost:3000') client.query('Explain to me the difference between "further" and "farther"') Но выдает с…
1 ответ

Сравнение методов системы контроля качества в наборе данных Markdown из 1000 документов: индексы и встраивания с помощью GPT-4 и переобучение GPT4ALL (или аналогичного)

Я работаю над проектом по созданию системы вопросов и ответов для портала документации, содержащего более 1000 документов Markdown, каждый из которых состоит примерно из 2000–4000 токенов. Я рассматриваю следующие два варианта: Использование индексо…
0 ответов

Точная настройка Starcoder — как выбрать графический процессор и как оценить время, необходимое для точной настройки

Я хотел бы точно настроить Starcoder (https://huggingface.co/bigcode/starcoder) для моего набора данных и экземпляра виртуальной машины GCP. В документации сказано, что для обучения модели использовалось 512 графических процессоров Tesla A100 и это …
0 ответов

Загадочная ошибка CUDA при точной настройке модели классификации последовательностей

Я работаю над тонкой настройкой Llama 2 7B для классификации последовательностей с использованием QLoRA. Я использую один графический процессор A100 и получаю одну и ту же загадочную ошибку CUDA даже при увеличении количества графических процессоров…
1 ответ

Обратное распространение ошибки/минибатчинг при обучении больших языковых моделей (LLM)

Я изо всех сил пытаюсь понять, как работает обратное распространение для LLM на основе трансформатора. Вот мое предположение о том, как работает этот процесс. Учитывая последовательность токенов длиной 64, мы обрабатываем последовательность параллел…
1 ответ

Связь между моделями внедрения и моделями вывода LLM в архитектуре RAG

Я пытаюсь реализовать архитектуру RAG в AWS с документами на испанском языке. Мой вопрос следующий: имеет ли значение, генерирую ли я вложения документов с помощью модели, обученной на английском языке или многоязычной? Или мне нужно создать вложени…
2 ответа

Есть ли способ редактировать разговор агента Langchain по мере его продолжения?

Я использую langchain для запроса базы данных MySQL, но агенты langchain всегда превышают лимит токенов OpenAI в 4 КБ. Когда я просмотрел историю разговоров агента, кажется, что агент звонилschema_sql_dbнесколько раз, и схемы таблиц заняли много мои…
0 ответов

Могу ли я генерировать усиленные вопросы на основе ответов пользователей?

Ввод: «У меня кашель и насморк» бот: «Как долго у вас кашель? (дни/недели/месяцы):? Ввод: «За последнюю неделю». бот: "Кашель сухой или продуктивный? (сухой/продуктивный) Ввод: «Кашель продуктивный». бот: «Кашель звучит хрипящим или надрывным?» . . …
01 сен '23 в 05:49
0 ответов

Ошибка конвейера обнимания лица от langchain PydanticUserError:

У меня возникает следующая ошибка при попытке загрузить конвейер обнимающего лица из langchain PydanticUserError: если вы используете pre=False (по умолчанию), вы ДОЛЖНЫ указатьskip_on_failure=True. Обратите внимание, что@root_validatorустарел и дол…
1 ответ

Как сгенерировать оценки настроений, используя предопределенные аспекты с помощью модели deberta-v3-base-absa-v1.1 Huggingface?

У меня есть фрейм данных, где есть текст в 1-м столбце и предопределенный аспект в другом столбце, однако для нескольких текстов, например, строки 2, не определены аспекты. data = { 'text': [ "The camera quality of this phone is amazing.", "The belt…
1 ответ

Почему модель суммирования bart-large-cnn дала забавный результат с разными настройками длины?

У меня есть кусок текста в 4226 символов (316 слов + спецсимволы) Я пробую разные комбинации min_length и max_length, чтобы получить сводку print(summarizer(INPUT, max_length = 1000, min_length=500, do_sample=False)) С кодом: Код summarizer = pipeli…
0 ответов

Как ограничить поиск вне контекста в LangChain

Я хочу ограничить поиск по запросам специальными документами для LLM. но результаты отображаются вне контекста, как показано на изображении ниже. Мой код ниже: для генерации токенов max_input_size = 4096 num_outputs = 512 max_chunk_overlap = 20 chun…
04 апр '23 в 12:22
1 ответ

Можно ли использовать модель mT5 на Huggingface для машинного перевода?

The Модель предварительно обучена на корпусе mC4, охватывающем 101 язык: Африкаанс, албанский, амхарский, арабский, армянский, азербайджанский, баскский, белорусский, бенгальский, болгарский, бирманский, каталанский, кебуанский, чичева, китайский, к…
0 ответов

Сопоставьте обзоры с концепциями

У меня есть обзоры продуктов «N» и концепции «K», такие как «Цвет», «Аудио», «Впечатление пользователя», «Долговечность» и т. д. Я хочу получить логический массив «N x K», где 1 указывает если в обзоре говорится об указанной концепции, а 0 означает,…
0 ответов

fastchat-t5-3b-v1.0 дает усеченные/неполные ответы

Я использовал следующие вложения: преобразователи предложений/all-mpnet-base-v2 hkunlp/инструктор-xl чтобы получить встраивание def getEmbedding(): device = "cuda" if torch.cuda.is_available() else "cpu" return HuggingFaceEmbeddings(model_name="sent…
1 ответ

Как скомпилировать библиотеку llm с помощью nix

Я попытался установить библиотеку llm с помощью nix. Вам просто нужно сделать это: git clone https://github.com/rustformers/llm.git nix build К сожалению, это не удается: ошибка: сборщик для '/nix/store/zllzqwj422zqrsl24lgr6j5y0m4c1mx7-rust-workspac…
13 июл '23 в 01:59