Это перебор с данными обучения 14 КБ и данными проверки 4,7 КБ при создании текста GPT2? [закрыто]

Я пытаюсь разработать модель генерации текста с использованием GPT2. Подскажите, пожалуйста, не слишком ли она подходит. График потерь набора для обучения и проверки прилагается.

0 ответов

Другие вопросы по тегам