Описание тега gpt-2
Используйте этот тег с генеративным предварительно обученным преобразователем 2 (GPT-2). Не используйте с GPT-3 или библиотекой тегов объявлений (GPT).
0
ответов
Немногочисленное обучение с использованием GPT2 [закрыто]
Каким образом осуществляется обучение по принципу «один / несколько выстрелов» для моделей НЛП (например, GPT2), если обновление градиента не является частью процесса?
24 фев '21 в 12:58
0
ответов
Я установил модуль fire на python, но по-прежнему получаю ошибку ModuleNotFoundError: на spyder нет модуля с именем fire
Я пытаюсь запустить gpt-2 из учебника, и я постоянно получаю сообщение «ModuleNotFoundError: No module named 'fire'», несмотря на то, что устанавливал его несколько раз с помощью нескольких команд. я пытался pip3 install fire, pip install fire, cond…
23 фев '21 в 15:10
0
ответов
Попросите GPT2 сгенерировать текст по своему желанию
Я познакомился с моделью GPT2 на https://huggingface.co/gpt2 и на некоторых других ресурсах, я считаю, что она может генерировать хороший объем текста, но очень непредсказуемо с точки зрения того, какой контент он генерирует. Как мы можем его исполь…
24 фев '21 в 05:51
0
ответов
Нет модуля с именем «tensorflow.contrib»
Я хотел запустить gpt-2, который требует тензорного потока. Самая старая версия tenorflow, которую вы можете установить, - это tensorflow 2.2.0rc. К сожалению, tensorflow.contrib включен только в tenorflow 1.xx, для которого был создан gpt-2. Может …
25 фев '21 в 12:28
0
ответов
Это перебор с данными обучения 14 КБ и данными проверки 4,7 КБ при создании текста GPT2? [закрыто]
Я пытаюсь разработать модель генерации текста с использованием GPT2. Подскажите, пожалуйста, не слишком ли она подходит. График потерь набора для обучения и проверки прилагается.
25 фев '21 в 06:47
1
ответ
HuggingFace - конфигурация токенизатора GPT2 в config.json
Точно настроенная модель GPT2 загружается в huggingface-models для логического вывода. Ниже ошибка наблюдается во время вывода, Не удается загрузить токенизатор с помощью from_pretrained, обновите его конфигурацию: не удается загрузить токенизатор д…
19 фев '21 в 13:53
3
ответа
Как сделать генерацию перефразирования с помощью BERT/ GPT-2
Я очень стараюсь понять, как сделать генерацию перефразирования с помощью BERT/GPT-2. Я не могу понять, как мне это сделать. Не могли бы вы предоставить мне какие-либо ресурсы, где я смогу сделать модель генерации перефразирования?«На входе будет пр…
07 мар '21 в 18:45
1
ответ
Ускорение вывода на GPT2 - оптимизация tf.sess.run()
Я пытаюсь оптимизировать время вывода на GPT2. Текущее время создания образца после вызова скрипта в Google Colab составляет 55 секунд. Я ставил временные метки, чтобы попытаться определить узкое место. Это код: for _ in range(nsamples // batch_size…
16 мар '21 в 03:39
1
ответ
GPT2Simple having issues running
I am trying to run this GPT2Simple sample but I am getting errors Original stack trace for 'model/MatMul': File "c:/Users/Jerome Ariola/Desktop/Machine Learning Projects/gpt test.py", line 32, in <module> steps=1) File "C:\Program Files\Python…
17 мар '21 в 12:02
0
ответов
Как сгенерировать новые образцы из GPT-2?
Я хочу генерировать новую случайную безусловную выборку из GPT-2 каждый раз, когда вызывается функция. В настоящее время, когда generate_poetryвызывается, он продолжает генерировать тот же образец текста. Почему это? Я использую Flask с Flask-Socket…
22 мар '21 в 18:53
0
ответов
<|endoftext|> токен, отображаемый в выходных данных настроенной модели GPT-2
Я обучил модель GPT-2, используя кодовую базу nshepperd и свои собственные наборы данных. Набор данных, на котором я тренировался, представляет собой простой файл * .txt, в котором многие операторы разделены <|endoftext|>. Однако текст, сгенер…
22 мар '21 в 22:44
0
ответов
Тонкая настройка GPT-2
Я пытаюсь точно настроить GPT-2 для задачи: если я даю пять последовательных чисел, каковы следующие последовательные числа. Например, если input_text = "one | two | three | four | five", output_text = "six | seven... | ten". Важные части модели, ко…
24 мар '21 в 12:58
0
ответов
Получите вывод преобразователей GPT слоев Huggingface
Я пытаюсь использовать языковую модель GPT и получить веса, которые она присваивает каждому слову в последнем состоянии генерации текста. Моя модель - GPT2 из библиотеки трансформеров. Вот как я называю предварительно обученную модель: tokenizer = A…
05 апр '21 в 19:40
1
ответ
Encoder.py и train.py в GPT-2 не работают
Я пытаюсь обучить GPT-2 использовать то, что я предоставляю в текстовом файле napoleon.txt. Когда я запускаю кодировщик, кажется, что он работает из командной строки. python encoder.py napoleon.txt napoleon.npz Однако на самом деле он не создает nap…
07 апр '21 в 20:41
0
ответов
Понимание репозитория gpt transformer
Для моего проекта мне нужно понять и уметь выполнять этот репозиторий github о генерации здравого смысла с использованием языковой модели преобразователя GPT. Он довольно обширен, и у меня недостаточно опыта программирования, чтобы во всем разобрать…
12 апр '21 в 15:21
2
ответа
AttributeError: объект 'GPT2TokenizerFast' не имеет атрибута 'max_len'
Я просто использую библиотеку преобразователя huggingface и при запуске run_lm_finetuning.py получаю следующее сообщение: AttributeError: объект 'GPT2TokenizerFast' не имеет атрибута 'max_len'. У кого-нибудь еще есть эта проблема или есть идея, как …
14 апр '21 в 13:20
0
ответов
gpt2-japanese ERROR when i run fine-tuning code
I have no idea where this error came from, and how to fix it.please help... the error code when I run python3 run_finetune.py --base_model gpt2ja-small --dataset embedded_data_finetune.npz --run_name gpr2ja-finetune the error is below Training... 0 …
21 апр '21 в 11:02
1
ответ
Ошибка несоответствия размера тензора при генерации текста с помощью beam_search (библиотека huggingface)
Я использую библиотеку huggingface для генерации текста с использованием предварительно обученной модели distilgpt2. В частности, я использую функцию beam_search , так как я хотел бы включить LogitsProcessorList (который вы не можете использовать с …
23 апр '21 в 02:09
1
ответ
Обучите GPT2 с помощью Trainer & TrainingArguments, используя / указав маску внимания
Я использую Trainer & TrainingArguments для обучения модели GPT2, но, похоже, это не работает. В моих наборах данных есть идентификаторы токенов моего корпуса и маска каждого текста, чтобы указать, на что следует обратить внимание: Dataset({ fea…
27 апр '21 в 21:07
1
ответ
Понимание того, как gpt-2 токенизирует строки
Используя здесь руководства , я написал следующие коды: from transformers import GPT2Tokenizer, GPT2Model import torch tokenizer = GPT2Tokenizer.from_pretrained('gpt2') model = GPT2Model.from_pretrained('gpt2') inputs = tokenizer("Hello, my dog is c…
28 апр '21 в 14:38