HuggingFace - конфигурация токенизатора GPT2 в config.json
Точно настроенная модель GPT2 загружается в huggingface-models для логического вывода.
Ниже ошибка наблюдается во время вывода,
Не удается загрузить токенизатор с помощью from_pretrained, обновите его конфигурацию: не удается загрузить токенизатор для 'bala1802 / model_1_test'. Убедитесь, что: - 'bala1802 / model_1_test' - это правильный идентификатор модели, указанный на 'https://huggingface.co/models' - или 'bala1802 / model_1_test' - это правильный путь к каталогу, содержащему соответствующие файлы токенизатора
Ниже представлена конфигурация - файл config.json для модели Finetuned huggingface,
{
"_name_or_path": "gpt2",
"activation_function": "gelu_new",
"architectures": [
"GPT2LMHeadModel"
],
"attn_pdrop": 0.1,
"bos_token_id": 50256,
"embd_pdrop": 0.1,
"eos_token_id": 50256,
"gradient_checkpointing": false,
"initializer_range": 0.02,
"layer_norm_epsilon": 1e-05,
"model_type": "gpt2",
"n_ctx": 1024,
"n_embd": 768,
"n_head": 12,
"n_inner": null,
"n_layer": 12,
"n_positions": 1024,
"resid_pdrop": 0.1,
"summary_activation": null,
"summary_first_dropout": 0.1,
"summary_proj_to_labels": true,
"summary_type": "cls_index",
"summary_use_proj": true,
"task_specific_params": {
"text-generation": {
"do_sample": true,
"max_length": 50
}
},
"transformers_version": "4.3.2",
"use_cache": true,
"vocab_size": 50257
}
Стоит ли настраивать токенизатор GPT2 так же, как
"model_type": "gpt2"
в файле config.json
1 ответ
В вашем репозитории нет файлов, необходимых для создания токенизатора. Похоже, вы загрузили только файлы для своей модели. Создайте объект вашего токенизатора, который вы использовали для обучения модели, и сохраните необходимые файлы с помощью save_pretrained():
from transformers import GPT2Tokenizer
t = GPT2Tokenizer.from_pretrained("gpt2")
t.save_pretrained('/SOMEFOLDER/')
Выход:
('/SOMEFOLDER/tokenizer_config.json',
'/SOMEFOLDER/special_tokens_map.json',
'/SOMEFOLDER/vocab.json',
'/SOMEFOLDER/merges.txt',
'/SOMEFOLDER/added_tokens.json')