Расчет проблем с запутанностью и памятью в Keras/Tensorflow

Я хотел бы оценивать свою модель с недоумением после каждой тренировочной эпохи. Я использую Keras с бэкэндом Tensorflow. Проблема в том, что после каждой оценки все больше и больше памяти используется, но никогда не освобождается. Так что после нескольких эпох моя система падает. Это работало бы без проблемы с памятью, если бы я не использовал керасы и функции тензорного потока. Но тогда это будет слишком медленно. Вот код:

def compute_perplexity(self, modelName, sentences):
    all_labels, all_predictions = self.predictLabels_for_perplexity_evaluation(self.models[modelName], sentences)
    # add an axis to fit tensor shape
    for i in range(len(all_labels)):
        all_labels[i] = all_labels[i][:,:, np.newaxis]

#calculate perplexity for each sentence length and each datapoint and append to list
perplexity = []
for i in range(10,15): #range(len(all_labels)):
    start = time.time()
    xentropy = K.sparse_categorical_crossentropy(tf.convert_to_tensor(all_labels[i]), tf.convert_to_tensor(all_predictions[i]))
    perplexity.append(K.eval(K.pow(2.0, xentropy)))
    print('time for one set of sentences. ', time.time()- start)
#average for each datapoint
for i in range(len(perplexity)):
    perplexity[i] = np.average(perplexity[i], axis=1)
    perplexity[i] = np.average(perplexity[i])

return np.mean(perplexity)

1 ответ

Нет необходимости оценивать эту метрику с помощью TensorFlow, то, что вы делаете, это добавляете all_labels массив к графику каждый раз, когда он вызывается, который объясняет использование памяти, которую вы видите.

Подумайте о том, чтобы реализовать все эти вычисления, используя numpy, или выполнить операцию, которую вы оцениваете с новыми данными в сеансе, используя feed_dict (без использования tf.convert_to_tensor).

Другие вопросы по тегам