Это перебор с данными обучения 14 КБ и данными проверки 4,7 КБ при создании текста GPT2? [закрыто]
Я пытаюсь разработать модель генерации текста с использованием GPT2. Подскажите, пожалуйста, не слишком ли она подходит. График потерь набора для обучения и проверки прилагается.