Описание тега fine-tuning

1 ответ

Получение ошибки версии Peft при точной настройке Autotrain на Llama 2

Я провел тонкую настройку Llama 2 с помощью Autotrain в Google Colab. это образец текстового столбца для точной настройки ###Human: Here is the OCR Text extracted from a VHS tape cover. Yes, the text is surely extracted from a VHS tape, but it may h…
1 ответ

Выполнение пакетных прогнозов с точно настроенной моделью PALM в Vertex AI всегда выдает ValueError.

Для моего кода: import vertexai from vertexai.preview.language_models import TextGenerationModel model = TextGenerationModel.get_tuned_model("projects/PROJECT_ID/locations/us-central1/models/MODEL_ID") batch_file=f'gs://my_bucket/test_.jsonl' batch_…
0 ответов

Извлечение текста структурированным способом не работает с Transformer DONUT

В настоящее время я работаю над точной настройкой преобразователя DONUT (https://huggingface.co/docs/transformers/model_doc/donut) над этой задачей: я хочу, чтобы он извлекал только абзацы моего текстового документа следующим образом: <>Текст …
10 июл '23 в 07:23
0 ответов

Как правильно настроить модель OpenAI LLM с использованием их API?

const port = process.env.PORT || 3080; app.listen(port, () => { console.log(`Example app listening on port ${port}`); }); app.post("/firegpt", async (req, res) => { const { conversation } = req.body; app.use(express.static(path.join(__dirname…
16 июл '23 в 15:05
2 ответа

Точная настройка модели TheBloke/Llama-2-13B-chat-GPTQ с помощью библиотеки Hugging Face Transformers выдает ошибку Exllama.

Я пытаюсь настроить модель TheBloke/Llama-2-13B-chat-GPTQ, используя библиотеку Hugging Face Transformers. Я использую файл JSON для наборов данных обучения и проверки. Однако при попытке запустить скрипт я сталкиваюсь с ошибкой, связанной с серверн…
0 ответов

Точная настройка преобразователей предложений для задачи семантического поиска продукта

Проблема, с которой я столкнулся, заключается в создании модели предложения продуктов, которая предлагает продукты на основе контекста поискового запроса пользователя. Мой план состоит в том, чтобы получить предварительно обученную модель из предвар…
0 ответов

Я настраиваю модель «t5-small» для стандартизации жаргонного текста. Я не могу получить правильный результат даже для примера из обучающей выборки.

Пример из обучающего набора: input_text = «у тебя очень сексуальный заголовок». Я ожидал, что модель изменит букву «u» на «ты». Я думаю, что есть какая-то проблема с форматом набора данных или параметрами. Я прилагаю свой обучающий код, а также код,…
1 ответ

Доработка: лама-2-13б-чат

Для точной настройки больших языковых моделей (llama2) какой должен быть формат (.text/.json/.csv) и структура (например, файл Excel или docs, приглашение и ответ или инструкция и вывод) набор обучающих данных? А также как подготовить или организова…
22 авг '23 в 05:10
0 ответов

Вопросы о распределенной точной настройке модели трансформаторов (chatglm) с помощью Accelerate в графических процессорах Kaggle

Я пытаюсь настроить модель Chatglm-6b, используя LoRA с трансформаторами и peft в графических процессорах Kaggle (2*T4). Структура модели: Традиционный метод загрузки (AutoModel.from_pretrained) требует сначала загрузить саму модель (15 ГБ) в ЦП, то…
0 ответов

Как присвоить вес или рейтинг набору данных при точной настройке модели LLM?

В настоящее время я занимаюсь доработкой модели мета-ламы/Ламы-2-7b-chat-hf с использованием рецепта Ламы и техники LoRA. Мой подход предполагает оперативное проектирование для улучшения производительности модели с использованием данных, представлен…
23 авг '23 в 05:01
0 ответов

Как добавить контрольную точку активации Deepspeed в LLM для тонкой настройки в PyTorch Lightning?

Я пытаюсь включить контрольную точку активации для модели T5-3b, чтобы значительно освободить память графического процессора. Однако не совсем понятно, как реализовать LLM. Судя по документации PTL , это примерно так: from lightning.pytorch import T…
0 ответов

Как нам точно настроить модель Llama 2 для специальной классификации намерений?

Как нам точно настроить модель Llama 2 для классификации текста? Кроме того, какими должны быть данные обучения для специальной классификации намерений? Я стремлюсь точно настроить модель llama2 для обнаружения и распознавания намерений/классификаци…
0 ответов

Как точно настроить английскую модель преобразователя зрения на другие языки

Наша команда пытается использовать модель глубокого обучения (преобразователя зрения) под названием Deplot. Это модель преобразователя зрения, способная преобразовывать диаграммы в таблицы (тексты). Архитектура модели не слишком сложна по сравнению …
13 июл '23 в 09:34
0 ответов

Уровень бесплатного пользования Google Colab: код останавливается на 51000 примеров при тонкой настройке LLAMA 2 с помощью пользовательского набора данных

Я столкнулся с проблемой при точной настройке Llama 2 в Google Colab с использованием специального набора данных. В процессе обучения код останавливается ровно на 51000 примерах, хотя мой набор данных содержит 61609 примеров. Странно то, что когда я…
0 ответов

Подсчитайте токены файла jsonl для точной настройки gpt

Как я могу вычислить токен моего файла JSONL, который создается после запуска команды openai в терминале. Я знаю, что когда мы запускаем команду для создания модального окна, она показывает статистику об использовании и ценах taokens, но я не мог ви…
17 июл '23 в 09:51
0 ответов

Ошибка с get_peft_model() и PromptTuningConfig.

Я учусь выполнять быструю настройку и столкнулся с проблемой. Я использую функцию get_peft_model для инициализации модели для обучения из «google/flan-t5-base». model_name='google/flan-t5-base' tokenizer = AutoTokenizer.from_pretrained(model_name,) …
1 ответ

Модель Stable Diffusion Dreambooth отправляется в Hub

Я настроил модель стабильной диффузии с помощью Dreambooth в Colab. Теперь новая Модель с гирями находится здесь./content/my_model/facial-sketch/800Я также получил.ckptфайл. Как мне теперь перенести эту модель в HuggingFace Hub? Я попробовал методом…
20 июл '23 в 17:43
1 ответ

AttributeError: у модуля openai нет атрибута FineTuneingJob.

Я пытаюсь начать работу по тонкой настройке с использованием GPT 3.5-turbo через вызов Python, используя формат, указанный в справочнике по тонкой настройке, по существу: import os import openai openai.api_key = os.getenv("OPENAI_API_KEY") openai.Fi…
27 авг '23 в 22:10
0 ответов

Проблема с точной настройкой, когда я использую «flow_from_dataframe»

Я без проблем использую CNN для классификации, используя следующий код (кратко!) cnn_input = Input((128, 32,3)) cnn_output = Conv2D(32, (3, 3), padding='same', activation=LeakyReLU(alpha=0.01)) (cnn_input) fc_input = Flatten() (cnn_output) fc_input …
0 ответов

Huggingfacetrainer.train(), похоже, завершается почти мгновенно

Я новичок в Huggingface и Transformers и пытаюсь настроить mt5-small на собственном наборе данных. Проблема в том, чтоtrainer.train()кажется, что он заканчивается очень быстро, вместо того, чтобы тренироваться. Я использовал аналогичный код для точн…