Описание тега roberta-language-model

0 ответов

Как использовать доработанную модель берта в других задачах?

Я настроил модель Берта (или Роберты) для классификации последовательностей. Могу ли я точно настроить одну и ту же модель для другой задачи (контроль качества или анализ настроений)?
1 ответ

Обучение модели роберты на наборе данных обзоров фильмов imdb дает эту ошибку?

def convert_data_to_examples(train, test, review, sentiment): train_InputExamples = train.apply(lambda x: InputExample(guid=None, # Globally unique ID for bookkeeping, unused in this case text_a = x[review], label = x[sentiment]), axis = 1) validat…
1 ответ

Каков правильный ввод / форма для тренировки предварительно обученного RoBERTa?

Прямо сейчас я пытаюсь обучить / настроить предварительно обученную модель RoBERTa с помощью многоэлементной головы, но мне трудно найти правильный ввод, чтобы моя модель могла обучаться / настраиваться. Фрейм данных, который у меня сейчас есть, выг…
0 ответов

как использовать класс исходного кода RobertaSelfAttention(nn.Module):

Я хочу получить запрос и ключ из приведенного ниже кода. И эта часть из взятаhttps://huggingface.co/transformers/_modules/transformers/models/roberta/modeling_roberta.html#RobertaModel В конце я хочу воспроизвести рисунок 1 в этом документе https://…
2 ответа

Ошибка FileNotFound при загрузке преобразователей предложений модели Роберта

Я уже скачал модель «roberta-large-nli-stsb-mean-tokens», но она начинает скачиваться снова и снова. Примечание: это не связано с пространством, в машине есть место. И вот эта ошибка приходит ... FileNotFoundError from sentence_transformers import S…
0 ответов

Почему RoBERTa предсказывает только следующий символ маски?

Я обучил RoBERTa с помощью ByteLevelBPETokenizer на языке Bangla. Но он может предсказать только один персонаж маски. Но я хочу предсказать следующее слово. Что мне делать?
0 ответов

Как выполнить пакетный логический вывод с квантованной моделью RoBERTa ONNX?

Я преобразовал модель RoBERTa PyTorch в модель ONNX и проанализировал ее. Я могу получить оценки из модели ONNX для одной точки входных данных (каждое предложение). Я хочу понять, как получить пакетные прогнозы с помощью сеанса вывода ONNX Runtime, …
0 ответов

исправление AttributeError: объект 'NoneType' не имеет атрибута 'tokenize'

Я использую TokenClassificationPipeline для NER через трансформаторы, но сталкиваюсь с AttributeError: объект «NoneType» не имеет атрибута «tokenize». Я не знаю, как это исправить. from transformers import TokenClassificationPipeline import torch im…
0 ответов

Ошибка: AssertionError: не удалось вычислить выходной тензор («density / Softmax: 0», shape = (None, 3), dtype = float32)

Я использую библиотеку трансформаторов для запуска модели трансформатора ( roberta-large-mnli): def model(n_classes): input_ids = tf.keras.layers.Input(shape=(MAX_LEN,), dtype=tf.int32, name="input_ids") attention_mask = tf.keras.layers.Input(shape=…
1 ответ

Использование модели Роберта не может определить модель .compile или summary

Использование модели Роберты для анализа настроений не может определить модель. Compile или summary from transformers import RobertaTokenizer, RobertaForSequenceClassification from transformers import BertConfig tokenizer = RobertaTokenizer.from_pre…
1 ответ

Постройте матрицу путаницы из модели Роберты

Я написал код классификации текста с двумя классами, используя модель Роберты, и теперь хочу нарисовать матрицу путаницы. Как приступить к построению матрицы путаницы на основе модели Роберты? RobertaTokenizer = RobertaTokenizer.from_pretrained('rob…
0 ответов

Роберта заново настраивает точно настроенную модель для другой задачи

У меня есть тонко настроенная модель xlm-roberta-base для задачи двоичной классификации, как показано ниже: model = XLMRobertaForSequenceClassification.from_pretrained( "xlm-roberta-base", num_labels=2, ) Я хочу повторно обучить модель с помощью mas…
0 ответов

Ошибка загрузки самообучающегося токензера в BertTokenizerFast

Я обучил токенизатор следующим образом: tokenizer = ByteLevelBPETokenizer() tokenizer.train(files=paths, vocab_size=20_000, min_frequency=2, special_tokens=["<s>","<pad>","</s>","<unk>","<mask>"]) tokenizer.save_model('…
0 ответов

Обучение модели с несколькими ответами на вопросы в формате PDF [закрыто]

У меня несколько файлов pdf (более 10000). Каждый из которых может иметь более 100-200 страниц. Мне нужно обучить модель ответов на вопросы машинного обучения, чтобы детали можно было получать, задавая вопросы, и чтобы они наилучшим образом соответс…
0 ответов

Как тренировать / настраивать предварительно обученную Роберту с многоканальной головой?

Итак, для университетского проекта мы пытаемся настроить предварительно обученную модель RoBERTa, чтобы проверить, какой из трех возможных ответов с множественным выбором на ложное предложение является правильным ответом, почему предложение не имеет…
0 ответов

Классификация текста с помощью Roberta -CPU

Мы уже реализовали классификацию текста с несколькими метками с использованием BOW. Мы хотим попробовать модель БЕРТ-Роберта с использованием центрального процессора. Можете поделиться ссылкой на то же самое. Спасибо!!
0 ответов

Перекрестная проверка с моделями обеспечения качества

Я использую сценарий run_squad.py для точной настройки моделей обеспечения качества, таких как BERT и RoBERTa. Однако у меня мало данных, поэтому я хочу использовать перекрестную проверку. Есть ли способ использовать перекрестную проверку скрипта? Я…
2 ответа

_batch_encode_plus() получил неожиданный аргумент ключевого слова 'return_attention_masks'

Я изучаю модель RoBERTA, чтобы определять эмоции в твитах. В Google colab. После этого файла Noteboook от Kaggle - https://www.kaggle.com/ishivinal/tweet-emotions-analysis-using-lstm-glove-roberta?scriptVersionId=38608295 Фрагмент кода: def regular_…
0 ответов

Хочу точно настроить предварительно обученный RoBERTa от Huggingface на моих собственных данных для резюмирования текста

Я в этом новичок. Пожалуйста, помогите мне найти решение. Я использовал RobertaTokenizerFast для токенизации текста и резюме ( max_token_length 200 и 50 соответственно). Планируется использовать RoBERTa в качестве первого слоя. Затем сожмите его выв…
1 ответ

Почему кодирование BPE, обученное на английском языке и примененное к бенгальскому языку, не возвращает неизвестные токены?

Я использую токенизатор roberta-base tokenizer = RobertaTokenizerFast.from_pretrained('roberta-base',add_prefix_space=True)обучены английским данным, чтобы токенизировать бенгальский язык, просто чтобы посмотреть, как он себя ведет. Когда я пытаюсь …