Описание тега fine-tune

1 ответ

Кодирование / токенизация словаря набора данных (BERT/Huggingface)

Я пытаюсь доработать свою модель анализа настроений. Поэтому я разделил свой фрейм данных pandas (столбец с отзывами, столбец с оценками настроений) на тренировочный и тестовый фрейм данных и преобразовал все в словарь набора данных: #Creating Datas…
1 ответ

Множественное условие ИЛИ в SQL-запросе

Приведенный ниже запрос требует больше времени для выполнения, так как таблица содержит более 50 миллионов записей, и кажется, что условие OR неверно в запросе .... Кто-нибудь может предоставить оптимизированную версию для моего запроса. Ценить..!! …
18 авг '21 в 17:21
0 ответов

Точно настроенная модель BERT не работает в соответствии с обучением

Я настроил модель BERT для поведения по умолчанию схожести текста на итальянском языке. Я вручную установил оценку схожести схожести текста, но все же после точной настройки она не работает должным образом. с использованием предварительно обученной …
17 авг '21 в 19:42
0 ответов

как настроить модель «distiluse-base-многоязычный корпус» для настройки схожести текста

Я пытаюсь выполнить семантический поиск, но предварительно обученная модель не соответствует данным итальянских продуктовых магазинов. например. Query: latte al cioccolato #chocolate milk Top 3 most similar sentences in the corpus: Milka cioccolato …
0 ответов

Как настроить модель НЛП (Барт)? [закрыто]

Недавно я начал создавать веб-сайт, который позволяет пользователю резюмировать статьи, связанные с финансами, используя модель HuggingFace под названием BART (которая является расширением известной модели НЛП BERT). Модель может обработать статью и…
1 ответ

Использование веса из модели Gensim Word2Vec в качестве отправной точки для другой модели

У меня есть два корпуса из одной области, но с временным сдвигом, скажем, на одно десятилетие. Я хочу обучить на них модели Word2vec, а затем исследовать различные факторы, влияющие на семантический сдвиг. Интересно, как мне инициализировать вторую …
28 авг '21 в 13:15
1 ответ

Тонкая настройка семантического поиска

например. Предварительно обученный результат BERT для косинусного сходства предложений ====================== Query: milk with chocolate flavor Top 10 most similar sentences in corpus: Milka milk chocolate 100 g (Score: 0.8672) Alpro, Chocolate soy …
31 авг '21 в 17:51
0 ответов

Перенос обучения на изображения с более высоким динамическим диапазоном

Можно ли точно настроить модель на основе CNN, ранее обученную на изображениях с глубиной 8 бит [0 ~ 2^8], чтобы соответствовать изображениям с глубиной 16 бит [0 ~ 2^16]? если есть какая-либо исследовательская работа, подтверждающая это, было бы зд…
0 ответов

Подписи к изображениям и точная настройка

Если я построю модель для подписи к изображениям с использованием CNN на основе кодировщика-декодера мобильной сети и lstm, имеет ли значение тонкая настройка архитектуры мобильной сети в моем наборе данных? Или просто нужно настроить декодер?
1 ответ

как обучить бертовскую модель с нуля с помощью huggingface?

Я нахожу ответ модели обучения с нуля в этом вопросе:Как обучить BERT с нуля на новом домене как для MLM, так и для NSP? в одном ответе используются такие аргументы, как Trainer и TrainingArguments: from transformers import Trainer, TrainingArgument…
1 ответ

Finetune mBART для задач перед тренировкой с помощью HuggingFace

Я хотел бы доработать facebook/mbart-large-cc25 на моих данных, используя предварительные обучающие задания, в частности моделирование маскированного языка (MLM). Как я могу это сделать в HuggingFace? Edit: переписал вопрос для ясности
1 ответ

Тонкая настройка модели преобразователя предложений BERT

Я использую предварительно обученную модель преобразователя предложений BERT, как описано здесь https://www.sbert.net/docs/training/overview.html , чтобы получить вложения для предложений. Я хочу точно настроить эти предварительно обученные вложения…
1 ответ

Тонкая настройка с очень низкой скоростью обучения. Есть признаки того, что что-то не так?

Я работал с глубоким обучением с подкреплением, и в литературе обычно скорость обучения ниже, чем я обнаружил в других условиях. Моя модель следующая: def create_model(self): model = Sequential() model.add(LSTM(HIDDEN_NODES, input_shape=(STATE_SIZE,…
0 ответов

NeMo Conformer-CTC многократно предсказывает одно и то же слово при тонкой настройке

Я использую NeMo Conformer-CTC small в наборе данных LibriSpeech (чистое подмножество, около 29K входов, 90% используются для обучения и 10% для тестирования). Я использую Pytorch Lightning. Когда я пытаюсь тренироваться, модель выучивает 1 или 2 пр…
1 ответ

Tensorflow: доступ для просмотра активации слоя (тонкая настройка),

Пользуюсь тонкой настройкой. Как я могу увидеть и получить доступ к активациям всех слоев, находящихся внутри сверточной основы? conv_base = VGG16(weights='imagenet', include_top=False, input_shape=(inp_img_h, inp_img_w, 3)) def create_functional_mo…
1 ответ

Ошибка типа при тонкой настройке модели bert-large-uncased-all-word-masking с помощью Huggingface

Я пытаюсь настроить модель Huggingface bert-large-uncased-all-word-masking, и при обучении получаю такую ​​ошибку типа: «TypeError: только целочисленные тензоры одного элемента могут быть преобразованы в индекс» Вот код: train_inputs = tokenizer(tex…
28 окт '21 в 15:34
1 ответ

Как загрузить файл .mdl в Python?

Я планирую точно настроить модель преобразователя GPT с помощью специального набора данных, в набора данных частности,EmpatheticDialogues для моего чат-бота. Репозиторий предоставляет для своего проекта файл .mdl. Как я могу загрузить эти файлы .mdl…
0 ответов

Невозможно получить ошибку блокировки (кэширования файла) в преобразователе тонкой настройки

Я использую jupyter для тонкой настройки трансформатора T5. Я пытаюсь запустить код, взятый из github, но у меня возникает проблема, когда я пытаюсь обучить модель, это фрагмент кода model = T5FineTuner(args) но я получил эту ошибку ValueError: Cann…
1 ответ

Проблемы с кодированием предсказаний OpenAI после точной настройки

Я следую этому руководству OpenAI по тонкой настройке. Я уже создал набор данных с помощью инструмента openai. Проблема в том, что кодировка выходных данных (результат вывода) смешивает UTF-8 с символами, отличными от UTF-8. Сгенерированная модель в…
1 ответ

Как настроить BERT Base (модель без корпуса) для создания вложений?

В Интернете я нашел только примеры задач классификации, но в моей задаче ярлыка нет (у меня есть только набор твитов). Моя задача заключается в следующем: сгенерировать вложения Word с помощью BERT, теперь используйте эти вложения Word в следующей з…