Описание тега huggingface

1 ответ

Подведение итогов с помощью Huggingface: как генерировать по одному слову за раз?

Я использую DistilBART для абстрактного обобщения. Методgenerate() очень прост в использовании. Однако он возвращает полные, законченные сводки. Что я хочу, так это на каждом шаге получать доступ к логитам, чтобы затем получить список кандидатов на …
0 ответов

Не удается отправить набор данных в Huggingface

Я пытаюсь загрузить набор данных в Huggingface, но получаю сообщение об ошибке Error: ------------------------------------------------------------------------- Your push was rejected because it contains binary files. Please use https://git-lfs.githu…
27 май '22 в 16:52
0 ответов

Huggingface Trainer.train () выдает «IndexError: Target -1 is out of bounds» во время анализа настроений предложений на словацком языке с использованием SlovakBert

Моя цель — обучить классификатор, способный выполнять анализ настроений на словацком языке, используя загруженную модель SlovakBert и библиотеку HuggingFace. Код выполняется в Google Colaboratory. Мой набор данных читается из одного CSV-файла для те…
0 ответов

Вход декодера для трансформатора

Я пытаюсь создать вариационный автоэнкодер, используя Longformer от Huggingface. Но я изо всех сил пытаюсь подключить линейный слой к декодеру. В настоящее время подаю заявку self.decoder(inputs_embeds=x, warning_mask=mask1, global_attention_mask=ma…
1 ответ

Как установить библиотеку из HuggingFace? Например, GPT Neo 125M.

Я не понимаю, как установить библиотеку из HuggingFace на свой рабочий стол или сервер. Насколько сложно установить библиотеку? Есть ли где-нибудь пошаговая инструкция? Я нашел несколько статей, но они предполагали определенный уровень знаний, а я с…
0 ответов

Использование предварительно обученной модели без корпуса Huggingface для регрессии. Однако метод предсказания возвращает логит

Я использую TFAutoModelForSequenceClassification для регрессии. Обучение и оценка выглядели правильно. Однако метод предсказания возвратил логиты. Как преобразовать логиты в значения регрессии, которые меня интересуют? Код, который я использовал для…
30 май '22 в 02:31
1 ответ

Преобразование h5 в tflite

Я пытался получить эту классификацию текста с нулевым выстрелом joeddav / xlm-roberta-large-xnliконвертировать из файла h5 в файл tflite ( https://huggingface.co/joeddav/xlm-roberta-large-xnli ), но эта ошибка выскакивает, и я не могу найти ее описа…
0 ответов

Как я могу поделиться моделью .pt на HuggingFace Hub?

Моя модель сохранена в файле .pt, и сейчас я пытаюсь поделиться ею на HuggingFace Hub. Согласно этому руководству, https://huggingface.co/transformers/v4.0.1/model_sharing.html Мне нужны эти файлы: файл config.json, в котором сохраняется конфигураци…
1 ответ

Модель HuggingFace FinBert в Google Collab

Когда я запускаю свою модель FinBert, она всегда приводит к сбою оперативной памяти в Google Collab на выходе = модель (** ввод) from transformers.utils.dummy_pt_objects import HubertModel import textwrap # Reads all files at once but you will have …
1 ответ

Функция Huggingface Load_dataset() выдает «ValueError: не удалось выполнить преобразование»

Моя цель — обучить классификатор, способный выполнять анализ настроений на словацком языке, используя загруженную модель SlovakBert и библиотеку HuggingFace. Код выполняется в Google Colaboratory. Мой тестовый набор данных считывается из этого CSV-ф…
1 ответ

Hugginface Transformers Bert Tokenizer - Узнайте, какие документы усекаются

Я использую библиотеку Transforms от Huggingface для создания модели классификации текста на основе Bert. Для этого я токенизирую свои документы и устанавливаю усечение равным true, поскольку мои документы длиннее допустимого (512). Как я могу узнат…
1 ответ

Создание модели преобразователя предложений в Spark Mllib

Я использовал предварительно обученную модель из библиотеки преобразователей предложений, чтобы проверить сходство между двумя предложениями. Теперь мне нужно, чтобы эта конкретная модель была реализована с помощью spark mllib. Какие-либо предложени…
1 ответ

Как работает усечение при применении токенизатора BERT к пакету пар предложений в HuggingFace?

Скажем, у меня есть три примера предложений: s0 = "This model was pretrained using a specific normalization pipeline available here!" s1 = "Thank to all the people around," s2 = "Bengali Mask Language Model for Bengali Language" Я мог бы сделать пар…
0 ответов

Ошибка авторизации при загрузке обученных моделей с Huggingface.co

Я пытаюсь загрузить предварительно обученные модели и получаю ошибку ниже, $ git clone --verbose --progress https://huggingface.co/joeddav/xlm-roberta-large-xnli Cloning into 'xlm-roberta-large-xnli'... POST git-upload-pack (175 bytes) remote: Enume…
3 ответа

Как включить заголовок в текстовых файлах load_dataset в Huggingface?

Я пытаюсь загрузить текстовый файл с помощью Huggingface ( https://huggingface.co/docs/datasets/v1.2.1/loading_datasets.html ) from datasets import load_dataset dataset = load_dataset('text', data_files='my_file.txt') Этот текстовый файл уже содержи…
0 ответов

wandb регистрируется без запуска

Я не хочу использовать wandb. У меня даже нет аккаунта. Я просто следую этому блокноту для тонкой настройки. Я не запускаю 2-ю и 3-ю ячейку, потому что не хочу проталкивать модель в хаб. Однако, когда я делаю train.train(), я получаю следующую ошибк…
1 ответ

Обнаружение предложения запроса в результате Wav2Vec 2.0

Я изучаю ASR(автоматическое распознавание речи) с помощью Wav2Vec2.0. Когда я запускаю Wav2Vec2.0, я получаю результат без запятой (""."), вопросительного знака ("?") и т. д. Таким образом, результат получился как одно целое предложение. Я знаю, что…
0 ответов

Как запустить вывод для тензорной модели T5, развернутой на nvidia triton?

Я развернул модель tensorrt T5 на сервере nvidia triton, и ниже приведен файл config.pbtxt, но столкнулся с проблемой при выводе модели с помощью клиента triton. В соответствии с файлом config.pbtxt должно быть 4 входа в модель tensorrt вместе с иде…
18 апр '22 в 12:08
1 ответ

ValueError: класс токенизатора MarianTokenizer не существует или в настоящее время не импортирован

Получите эту ошибку при попытке запустить модель nmt на основе MarianMT. Traceback (most recent call last): File "/home/om/Desktop/Project/nmt-marionmt-api/inference.py", line 45, in <module> print(batch_inference(model_path="en-ar-model/Mark2…
04 май '22 в 10:14
2 ответа

Добавление предварительно обученной модели вне AllenNLP в демоверсию AllenNLP

Я работаю над интерпретируемостью моделей. Я хочу использовать демонстрацию AllenAI для проверки карт заметности и методов состязательной атаки (реализованных в этой демонстрации) на некоторых других моделях. Я использую учебник здесь и запускаю дем…