Описание тега roberta

Roberta - это графическая IDE с открытым исходным кодом, разработанная для нескольких роботизированных систем, таких как Calliope Mini, LEGO Mindstorm или NAO. Основная аудитория - это дети, делающие первые шаги в программировании.
0 ответов

Как получить список в списке (он же матрица)?

Как создать n-мерную структуру данных в рамках lab.open-roberta.org с помощью calliope как система? Кажется, нет способа объявить переменную как список в списке. В качестве обходного пути можно было бы составить список String и затем прочитайте симв…
23 ноя '17 в 22:46
1 ответ

Ошибка в заявлении о программировании на языке роберта в Calliope mini?

Я пытаюсь программировать на недавно выпущенной компьютерной мини-платформе Calliope ( https://calliope.cc/), используя один из предлагаемых редакторов Roberta, графический интерфейс ( https://lab.open-roberta.org/). Простая программа, которая прове…
07 июн '17 в 08:15
1 ответ

Ошибка при запуске "config = RobertaConfig.from_pretrained(" /Absolute-path-to/BERTweet_base_transformers/config.json""

Я пытаюсь запустить версию этого кода "трансформеры", чтобы использовать новую предварительно обученную модель BERTweet, и получаю сообщение об ошибке. Следующие строки кода успешно запустились в моем блокноте Google Colab: !pip install fairseq impo…
0 ответов

Несогласованное поведение ByteLevelBPETokenizer

Я столкнулся со странным поведением ByteLevelBPETokenizer: этот общедоступный блокнот параметризован для работы с двумя почти идентичными текстовыми файлами. Первый - это транслитерация текста Библии на иврите, а второй - та же транслитерация с двум…
0 ответов

Уменьшайте убытки, а затем прыгайте RoBERTa

Я пытаюсь предварительно обучить модель RoBERTa, используя huggingface и свой собственный файл словаря. Я распечатал потери для каждой партии и вижу, как в первую эпоху потери уменьшаются, а затем переходят / сходятся при более высоком значении. Мне…
0 ответов

Python - каковы аргументы в пользу псевдонимов типов в этом примере?

Я как раз анализировал пример Roberta LanguageModel: import torch from tokenizers import SentencePieceBPETokenizer from tokenizers.processors import RobertaProcessing from transformers import RobertaModel, AutoModel model_dir = "roberta_large_transf…
13 июн '20 в 18:10
0 ответов

проверка предтренировочных потерь в huggingface/transformers

Заранее спасибо. Я обучил роберту модели с нуля. Но я не могу проверить потерю тренировки во время предварительной тренировки. Я сделал это, сославшись на ссылку ниже. https://colab.research.google.com/github/huggingface/blog/blob/master/notebooks/0…
20 июл '20 в 06:08
0 ответов

как преобразовать Bert model.bin трансформатора Roberta в файл контрольной точки тензорного потока

В модели Роберты Берт у меня есть 3 файла: bpe.codes,config.json,dict.txt. Я пытаюсь преобразовать их во что-то вроде пакета файлов, выпущенных тензорным потоком для предварительно обученной модели Берта: bert_config.json,bert_model.ckpt.data-00000-…
0 ответов

colab: model = torch.hub.load('pytorch/fairseq', 'roberta.large') ошибка

Я попробовал код ниже. import torch model = torch.hub.load('pytorch/fairseq', 'roberta.large') Я получил ошибку ниже. Я уже искал учебник для RoBERTa, но он тоже не работает. https://colab.research.google.com/github/pytorch/pytorch.github.io/blob/ma…
14 авг '20 в 16:22
2 ответа

AutoModelForSequenceClassification требует библиотеки PyTorch, но она не была найдена в вашей среде.

Я пытаюсь использовать трансформатор Роберта и предварительно обученную модель, но продолжаю получать эту ошибку: ImportError: AutoModelForSequenceClassification requires the PyTorch library but it was not found in your environment. Checkout the ins…
26 апр '21 в 11:31
0 ответов

Почему RoBERTa предсказывает только следующий символ маски?

Я обучил RoBERTa с помощью ByteLevelBPETokenizer на языке Bangla. Но он может предсказать только один персонаж маски. Но я хочу предсказать следующее слово. Что мне делать?
0 ответов

Как сериализовать и загрузить обученную модель RoBERTa?

Я сделал код для соревнований в kaggle, основанный на RoBerta, я хотел бы сериализовать его, чтобы можно было воспроизвести результаты, но я не могу найти, как это сделать. с участием model3.save('my_model.h5') это не работает Буду признателен за лю…
13 май '21 в 01:22
0 ответов

Конфигурация и выходы трансформаторов hugglingface

при использовании предварительно обученных трансформаторов hugglingface, таких как roberta и bert, я обнаружил, что не было никаких подробных документов о значениях конфигураций моделей и выходных уровней моделей. Я искал https://huggingface.co/tran…
05 июл '21 в 04:47
0 ответов

Pytorch Roberta kernal умер сразу после запуска «out = model(input)»

У меня есть текстовый набор данных, на котором я тренировался, чтобы получить токернизер, под названием «bert_tokenizer». Затем я пытаюсь дать новое слово и убрать слово «встраивание». from transformers import RobertaConfig config = RobertaConfig( v…
21 июл '21 в 08:45
1 ответ

Можно ли использовать разные модели трансформатора для токенизатора и модели?

Могу ли я использовать роберту в качестве токенизатора, а причал - для модели? from transformers import RobertaTokenizerFast tokenizer = RobertaTokenizerFast.from_pretrained("./bert_tokenizer", max_len=512) from transformers import BertForMaskedLM c…
22 июл '21 в 08:11
1 ответ

ошибка предварительно обученного атрибута извлечения отношения Роберты

Я пытаюсь заставить работать следующую предварительно обученную модель huggingface: https://huggingface.co/mmoradi/Robust-Biomed-RoBERTa-RelationClassification Я использую следующий код: from transformers import AutoTokenizer, AutoModel tokenizer = …
22 окт '21 в 16:00
0 ответов

Можно ли увеличить лимит токенов в RoBERTa с 512?

Итак, я пробовал EmoRoBERTA для классификации эмоций, однако некоторые строки в моих данных превышают предел в 512 токенов. Есть ли способ увеличить этот лимит? Я где-то читал о настройке max_length = 1024 но не уверен, работает ли это? Я использую …
0 ответов

Должна ли Роберта быть намного лучше для классификации текста, чем BERT?

У меня проблема с двоичным TC, около 10 тыс. Коротких сэмплов и сбалансированное соотношение классов. Я использую предварительно обученные BERT и Роберту для классификации. С Roberta я получаю на 20% лучшие результаты, чем BERT, почти идеальную точн…
1 ответ

Вопросы при обучении языковых моделей с нуля с Huggingface

Я следую руководству здесь (https://github.com/huggingface/blog/blob/master/how-to-train.md, https://huggingface.co/blog/how-to-train) для обучения модель в стиле RoBERTa с нуля. (С моим собственным токенизатором и набором данных) Однако, когда я за…
0 ответов

Квантизируйте модель ответов на вопросы Берта для процессора с минимальной задержкой

Как мы можем обучить базовую модель Роберты обучению с учетом квантования? Имеет ли модель квантования минимальную задержку на процессоре? Как мы используем модель Берта для ответа на вопросы в производственной среде.