Каким будет протокол для размещения предварительно обученной модели неконтролируемого языка GPT-2 в IBM Watson?

У нас есть результаты обученной модели генерации текста GPT2, и мы пытаемся создать API с помощью IBM Cloud, чтобы запросить эту модель с конкретным запросом и вернуть результат.

Насколько мне известно, канонический рабочий процесс будет заключаться в импорте и обучении модели в среде (Python3.6 для нас) в Watson, а затем ее развертывании с помощью клиента WML API. Это кажется относительно тривиальным для модели, построенной на основе чего-то вроде scikit-learn, однако наша модель имеет ряд файлов, которые необходимы для инициализации сеанса в среде, и они должны существовать в определенных каталогах, чтобы библиотека GPT-2 может правильно инициализировать сеанс.

Мы пытались добавить эти файлы в качестве ресурсов непосредственно в записную книжку и прочитать их с помощью boto3, но это не решает проблему необходимости в указанном дереве файлов.

Кроме того, я загрузил каталоги в облачную корзину IBM в надлежащем формате, но не смог найти способ получить доступ к этой файловой системе из ноутбука.

У вас есть предложения, как действовать дальше? Мы лаем не на то дерево? Будем очень признательны за любые отзывы и рекомендации!

0 ответов

Другие вопросы по тегам