Как настроить модель НЛП (Барт)? [закрыто]
Недавно я начал создавать веб-сайт, который позволяет пользователю резюмировать статьи, связанные
с финансами, используя модель HuggingFace под названием BART (которая является расширением известной модели НЛП BERT).
Модель может обработать статью и выдать довольно приличное резюме.
вы можете поиграть с моделью здесь:
https://huggingface.co/facebook/bart-large-cnn" BART - это автоэнкодер с шумоподавлением для предварительного обучения моделей от последовательности к последовательности. Он обучается путем (1) искажения текста с помощью произвольной функции шумоподавления и (2) обучения модели для восстановления исходного текста. Он использует стандартный преобразователь на основе архитектура нейронного машинного перевода. Она использует стандартную архитектуру seq2seq / NMT с двунаправленным кодировщиком (например, BERT) и декодером слева направо (например, GPT) ».
При написании бэкэнд-программы мне не требовалось никаких предварительных знаний о pyTorch, huggingFace или tensorflow.
Теперь, когда интерфейс готов и бэкэнд настроен, я хочу узнать, как улучшить модель с помощью тонкой настройки.
После прочтения документации HuggingFace «Тонкая настройка предварительно обученной модели» ,
попытки просмотреть несколько руководств (1,2,3,4 ) и, как правило, поискать в Интернете что-то, что упростило бы для себя тему,
я пришел к выводу, что мне нужен кто-то чтобы указать мне правильное направление, потому что я чувствую себя потерянным.
Есть ли учебник, который ясно объясняет эту тему?
любые советы или ссылки будут оценены.