mizalla/DeepSpeech: Ошибка прогноза модели вычислительной акустики: OOM

Я использую DeepSpeech для обучения китайской модели. С предварительной обработкой и обучением все в порядке. И затем он собирается вывести модель.pb. Но при вычислении предсказаний модели акустики процесс python3 убивается из-за OOM.

Параметры соблюдаются. В тестовом CSV-файле содержится более 2400 строк. Аудиофайлы в тестовом CSV-файле составляют около 1 ГБ. Когда я использую только первые 100 строк тестового CSV и пытаюсь вывести модель.pb, все в порядке.

параметр

 python3 -u DeepSpeech.py \
   --train_files /home/ljh/train/thchs30/data/thchs30_train.csv  \
   --dev_files /home/ljh/train/thchs30/data/thchs30_dev.csv \
   --test_files /home/ljh/train/thchs30/data/thchs30_test.csv \
   --train_batch_size 8 \
   --dev_batch_size 8 \
   --test_batch_size 8 \
   --learning_rate 0.0001 \
   --n_hidden 512 \
   --epoch 20 \
   --alphabet_config_path /home/ljh/train/thchs30/data/thchs30.txt \
   --checkpoint_dir /home/ljh/train/thchs30/checkpoint \
   --export_dir /home/ljh/train/thchs30/output_model \
   "$@"

Использование памяти CPU и GPU

CPU: при выводе модели.pb используется 6 ГБ памяти процессора (максимум 32 ГБ)

GPU: почти вся память GPU используется. Но когда я успешно использую небольшой тестовый CSV для вывода модели, ситуация с памятью GPU такая же, как и в случае отказа (при использовании тестового CSV с большими 2400 строками)

Я хочу знать причину этой ситуации. И повлияет ли небольшой тест CSV (первые 100 строк) на точность модели? Пожалуйста, сообщите мне причину, если вы это знаете. Спасибо!!

0 ответов

Другие вопросы по тегам