Как найти источник MemoryError в Python?
Я использую гиперпараметрическую оптимизацию, используя Hyperopt для нейронной сети. При этом после некоторых итераций я получаю исключение MemoryError
До сих пор я пытался очистить все переменные после того, как они были использованы (присвоить им None или пустые списки, есть ли лучший способ для этого?) И распечатать все locals(), dirs() и globals() с их размерами, но эти цифры никогда не увеличиваются, а размеры довольно малы.
Структура выглядит так:
def create_model(params):
## load data from temp files
## pre-process data accordingly
## Train NN with crossvalidation clearing Keras' session every time
## save stats and clean all variables (assigning None or empty lists to them)
def Optimize():
for model in models: #I have multiple models
## load data
## save data to temp files
trials = Trials()
best_run = fmin(create_model,
space,
algo=tpe.suggest,
max_evals=100,
trials=trials)
После X числа итераций (иногда он завершает первые 100 и переходит ко второй модели) он выдает ошибку памяти. Я предполагаю, что некоторые переменные остаются в памяти, и я не очищаю их, но я не смог их обнаружить.
РЕДАКТИРОВАТЬ:
Traceback (most recent call last):
File "Main.py", line 32, in <module>
optimal = Optimize(training_sets)
File "/home/User1/Optimizer/optimization2.py", line 394, in Optimize
trials=trials)
File "/usr/local/lib/python3.5/dist-packages/hyperopt/fmin.py", line 307, in fmin
return_argmin=return_argmin,
File "/usr/local/lib/python3.5/dist-packages/hyperopt/base.py", line 635, in fmin
return_argmin=return_argmin)
File "/usr/local/lib/python3.5/dist-packages/hyperopt/fmin.py", line 320, in fmin
rval.exhaust()
File "/usr/local/lib/python3.5/dist-packages/hyperopt/fmin.py", line 199, in exhaust
self.run(self.max_evals - n_done, block_until_done=self.async)
File "/usr/local/lib/python3.5/dist-packages/hyperopt/fmin.py", line 173, in run
self.serial_evaluate()
File "/usr/local/lib/python3.5/dist-packages/hyperopt/fmin.py", line 92, in serial_evaluate
result = self.domain.evaluate(spec, ctrl)
File "/usr/local/lib/python3.5/dist-packages/hyperopt/base.py", line 840, in evaluate
rval = self.fn(pyll_rval)
File "/home/User1/Optimizer/optimization2.py", line 184, in create_model
x_train, x_test = x[train_indices], x[val_indices]
MemoryError
1 ответ
Мне понадобилось несколько дней, чтобы понять это, поэтому я отвечу на свой вопрос, чтобы спасти любого, кто столкнется с этой проблемой когда-нибудь.
Обычно при использовании Hyperopt для Keras предлагается return
из create_model
функция примерно такая:
return {'loss': -acc, 'status': STATUS_OK, 'model': model}
Но в больших моделях со многими оценками вы не хотите возвращать и сохранять в памяти каждую модель, все, что вам нужно, - это набор гиперпараметров, который дал наименьшую loss
Простое удаление модели из возвращенного dict позволяет решить проблему увеличения памяти с каждой оценкой.
return {'loss': -acc, 'status': STATUS_OK}