Tensorflow странное использование памяти графического процессора
Привет, я новичок в TensorFlow, GPU, моделирую все :)
Я использую приведенный ниже код для создания встраивания текста
texts = [ "This is the first sentence.","Another sentence for embedding.","Embeddings are useful for NLP."]
import tensorflow as tf
import numpy as np
# Path to the saved USE model directory
use_model_path = "universal-sentence-encoder"
# Configure GPU memory growth
gpus = tf.config.experimental.list_physical_devices('GPU')
if gpus:
for gpu in gpus:
tf.config.experimental.set_memory_growth(gpu, True)
use_model = tf.saved_model.load(use_model_path)
embeddings_list = []
embeddings = use_model(texts)
embeddings_list = embeddings.numpy().tolist()
#clear session
tf.keras.backend.clear_session()
print(embeddings_list)
Если я выполню это в цикле for со списком текстов размером 512 КБ, память графического процессора увеличится в геометрической прогрессии. Даже после добавленияtf.keras.backend.clear_session()
на каждой итерации я вижу одно и то же поведение.
как я могу это оптимизировать?