Как указать количество целевых классов для TFRobertaSequenceClassification?

У меня есть задача классификации текста, и я хочу использовать предварительно обученную модель Роберты из библиотеки трансформаторов.

Вот документы: TFRobertaForSequenceClassification

Согласно документации для обучения мы должны использовать:

from transformers import RobertaTokenizer, TFRobertaForSequenceClassification

tokenizer = RobertaTokenizer.from_pretrained('roberta-base')
model = TFRobertaForSequenceClassification.from_pretrained('roberta-base')

model.compile('adam', loss='sparse_categorical_crossentropy')
model.fit(x, y)

Итак, где мне указать количество целевых меток для классификации последовательностей?

1 ответ

Решение

Вы можете использовать num_labels параметр.

model = TFRobertaForSequenceClassification.from_pretrained('roberta-base', num_labels = 5)

ссылка: https://huggingface.co/transformers/main_classes/configuration.html

Другие вопросы по тегам