mizalla/DeepSpeech: Ошибка прогноза модели вычислительной акустики: OOM
Я использую DeepSpeech для обучения китайской модели. С предварительной обработкой и обучением все в порядке. И затем он собирается вывести модель.pb. Но при вычислении предсказаний модели акустики процесс python3 убивается из-за OOM.
Параметры соблюдаются. В тестовом CSV-файле содержится более 2400 строк. Аудиофайлы в тестовом CSV-файле составляют около 1 ГБ. Когда я использую только первые 100 строк тестового CSV и пытаюсь вывести модель.pb, все в порядке.
параметр
python3 -u DeepSpeech.py \
--train_files /home/ljh/train/thchs30/data/thchs30_train.csv \
--dev_files /home/ljh/train/thchs30/data/thchs30_dev.csv \
--test_files /home/ljh/train/thchs30/data/thchs30_test.csv \
--train_batch_size 8 \
--dev_batch_size 8 \
--test_batch_size 8 \
--learning_rate 0.0001 \
--n_hidden 512 \
--epoch 20 \
--alphabet_config_path /home/ljh/train/thchs30/data/thchs30.txt \
--checkpoint_dir /home/ljh/train/thchs30/checkpoint \
--export_dir /home/ljh/train/thchs30/output_model \
"$@"
Использование памяти CPU и GPU
CPU: при выводе модели.pb используется 6 ГБ памяти процессора (максимум 32 ГБ)
GPU: почти вся память GPU используется. Но когда я успешно использую небольшой тестовый CSV для вывода модели, ситуация с памятью GPU такая же, как и в случае отказа (при использовании тестового CSV с большими 2400 строками)
Я хочу знать причину этой ситуации. И повлияет ли небольшой тест CSV (первые 100 строк) на точность модели? Пожалуйста, сообщите мне причину, если вы это знаете. Спасибо!!