Используйте этот тег с генеративным предварительно обученным преобразователем 2 (GPT-2). Не используйте с GPT-3 или библиотекой тегов объявлений (GPT).
0 ответов

Немногочисленное обучение с использованием GPT2 [закрыто]

Каким образом осуществляется обучение по принципу «один / несколько выстрелов» для моделей НЛП (например, GPT2), если обновление градиента не является частью процесса?
24 фев '21 в 12:58
0 ответов

Я установил модуль fire на python, но по-прежнему получаю ошибку ModuleNotFoundError: на spyder нет модуля с именем fire

Я пытаюсь запустить gpt-2 из учебника, и я постоянно получаю сообщение «ModuleNotFoundError: No module named 'fire'», несмотря на то, что устанавливал его несколько раз с помощью нескольких команд. я пытался pip3 install fire, pip install fire, cond…
23 фев '21 в 15:10
0 ответов

Попросите GPT2 сгенерировать текст по своему желанию

Я познакомился с моделью GPT2 на https://huggingface.co/gpt2 и на некоторых других ресурсах, я считаю, что она может генерировать хороший объем текста, но очень непредсказуемо с точки зрения того, какой контент он генерирует. Как мы можем его исполь…
24 фев '21 в 05:51
0 ответов

Нет модуля с именем «tensorflow.contrib»

Я хотел запустить gpt-2, который требует тензорного потока. Самая старая версия tenorflow, которую вы можете установить, - это tensorflow 2.2.0rc. К сожалению, tensorflow.contrib включен только в tenorflow 1.xx, для которого был создан gpt-2. Может …
25 фев '21 в 12:28
0 ответов

Это перебор с данными обучения 14 КБ и данными проверки 4,7 КБ при создании текста GPT2? [закрыто]

Я пытаюсь разработать модель генерации текста с использованием GPT2. Подскажите, пожалуйста, не слишком ли она подходит. График потерь набора для обучения и проверки прилагается.
1 ответ

HuggingFace - конфигурация токенизатора GPT2 в config.json

Точно настроенная модель GPT2 загружается в huggingface-models для логического вывода. Ниже ошибка наблюдается во время вывода, Не удается загрузить токенизатор с помощью from_pretrained, обновите его конфигурацию: не удается загрузить токенизатор д…
3 ответа

Как сделать генерацию перефразирования с помощью BERT/ GPT-2

Я очень стараюсь понять, как сделать генерацию перефразирования с помощью BERT/GPT-2. Я не могу понять, как мне это сделать. Не могли бы вы предоставить мне какие-либо ресурсы, где я смогу сделать модель генерации перефразирования?«На входе будет пр…
07 мар '21 в 18:45
1 ответ

Ускорение вывода на GPT2 - оптимизация tf.sess.run()

Я пытаюсь оптимизировать время вывода на GPT2. Текущее время создания образца после вызова скрипта в Google Colab составляет 55 секунд. Я ставил временные метки, чтобы попытаться определить узкое место. Это код: for _ in range(nsamples // batch_size…
16 мар '21 в 03:39
1 ответ

GPT2Simple having issues running

I am trying to run this GPT2Simple sample but I am getting errors Original stack trace for 'model/MatMul': File "c:/Users/Jerome Ariola/Desktop/Machine Learning Projects/gpt test.py", line 32, in <module> steps=1) File "C:\Program Files\Python…
17 мар '21 в 12:02
0 ответов

Как сгенерировать новые образцы из GPT-2?

Я хочу генерировать новую случайную безусловную выборку из GPT-2 каждый раз, когда вызывается функция. В настоящее время, когда generate_poetryвызывается, он продолжает генерировать тот же образец текста. Почему это? Я использую Flask с Flask-Socket…
22 мар '21 в 18:53
0 ответов

<|endoftext|> токен, отображаемый в выходных данных настроенной модели GPT-2

Я обучил модель GPT-2, используя кодовую базу nshepperd и свои собственные наборы данных. Набор данных, на котором я тренировался, представляет собой простой файл * .txt, в котором многие операторы разделены <|endoftext|>. Однако текст, сгенер…
0 ответов

Тонкая настройка GPT-2

Я пытаюсь точно настроить GPT-2 для задачи: если я даю пять последовательных чисел, каковы следующие последовательные числа. Например, если input_text = "one | two | three | four | five", output_text = "six | seven... | ten". Важные части модели, ко…
24 мар '21 в 12:58
0 ответов

Получите вывод преобразователей GPT слоев Huggingface

Я пытаюсь использовать языковую модель GPT и получить веса, которые она присваивает каждому слову в последнем состоянии генерации текста. Моя модель - GPT2 из библиотеки трансформеров. Вот как я называю предварительно обученную модель: tokenizer = A…
1 ответ

Encoder.py и train.py в GPT-2 не работают

Я пытаюсь обучить GPT-2 использовать то, что я предоставляю в текстовом файле napoleon.txt. Когда я запускаю кодировщик, кажется, что он работает из командной строки. python encoder.py napoleon.txt napoleon.npz Однако на самом деле он не создает nap…
07 апр '21 в 20:41
0 ответов

Понимание репозитория gpt transformer

Для моего проекта мне нужно понять и уметь выполнять этот репозиторий github о генерации здравого смысла с использованием языковой модели преобразователя GPT. Он довольно обширен, и у меня недостаточно опыта программирования, чтобы во всем разобрать…
12 апр '21 в 15:21
2 ответа

AttributeError: объект 'GPT2TokenizerFast' не имеет атрибута 'max_len'

Я просто использую библиотеку преобразователя huggingface и при запуске run_lm_finetuning.py получаю следующее сообщение: AttributeError: объект 'GPT2TokenizerFast' не имеет атрибута 'max_len'. У кого-нибудь еще есть эта проблема или есть идея, как …
0 ответов

gpt2-japanese ERROR when i run fine-tuning code

I have no idea where this error came from, and how to fix it.please help... the error code when I run python3 run_finetune.py --base_model gpt2ja-small --dataset embedded_data_finetune.npz --run_name gpr2ja-finetune the error is below Training... 0 …
21 апр '21 в 11:02
1 ответ

Ошибка несоответствия размера тензора при генерации текста с помощью beam_search (библиотека huggingface)

Я использую библиотеку huggingface для генерации текста с использованием предварительно обученной модели distilgpt2. В частности, я использую функцию beam_search , так как я хотел бы включить LogitsProcessorList (который вы не можете использовать с …
1 ответ

Обучите GPT2 с помощью Trainer & TrainingArguments, используя / указав маску внимания

Я использую Trainer & TrainingArguments для обучения модели GPT2, но, похоже, это не работает. В моих наборах данных есть идентификаторы токенов моего корпуса и маска каждого текста, чтобы указать, на что следует обратить внимание: Dataset({ fea…
1 ответ

Понимание того, как gpt-2 токенизирует строки

Используя здесь руководства , я написал следующие коды: from transformers import GPT2Tokenizer, GPT2Model import torch tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2Model.from_pretrained('gpt2') inputs = tokenizer("Hello, my dog is c…