Можно ли использовать разные модели трансформатора для токенизатора и модели?

Могу ли я использовать роберту в качестве токенизатора, а причал - для модели?

      from transformers import RobertaTokenizerFast

tokenizer = RobertaTokenizerFast.from_pretrained("./bert_tokenizer", max_len=512)

from transformers import BertForMaskedLM
config = BertConfig()
bert= BertForMaskedLM(config)

1 ответ

Вы не можете использовать токенизатор RoBERTa для модели BERT. Причина в том, что словари для BERT и RoBERTa различаются. Таким образом, токен отрывка слова, который присутствует в словаре RoBERTa, может отсутствовать в словаре BERT.

Другие вопросы по тегам