Pytorch Roberta kernal умер сразу после запуска «out = model(input)»

У меня есть текстовый набор данных, на котором я тренировался, чтобы получить токернизер, под названием «bert_tokenizer». Затем я пытаюсь дать новое слово и убрать слово «встраивание».

      from transformers import RobertaConfig

config = RobertaConfig(
    vocab_enter code heresize=tokenizer.get_vocab_size(),
    max_position_embeddings=514,
    num_attention_heads=12,
    num_hidden_layers=6,
    type_vocab_size=1,)

#re-create tokenizer in transformers
from transformers import RobertaTokenizerFast

tokenizer = RobertaTokenizerFast.from_pretrained("bert_tokenizer", output_hidden_states =True, max_len=512)

#initialise model
from transformers import RobertaForMaskedLM

model = RobertaForMaskedLM(config=config)
model.eval()

word = tokenizer.encode('test test')
input = torch.LongTensor(word)
out = model(input_ids=input)

Ошибка последней строки out = model(input_ids=input), немедленно. Ошибка: ядро ​​умерло. У меня очень маленький набор данных для обучения, это проблема? Или по другим причинам?

Я следую руководству здесь: https://github.com/BramVanroy/bert-for-inference/blob/master/introduction-to-bert.ipynb

Спасибо.

0 ответов

Другие вопросы по тегам