Tensorflow странное использование памяти графического процессора

Привет, я новичок в TensorFlow, GPU, моделирую все :)

Я использую приведенный ниже код для создания встраивания текста

      texts = [ "This is the first sentence.","Another sentence for embedding.","Embeddings are useful for NLP."]
import tensorflow as tf
import numpy as np

# Path to the saved USE model directory
use_model_path = "universal-sentence-encoder"
# Configure GPU memory growth
gpus = tf.config.experimental.list_physical_devices('GPU')
if gpus:
    for gpu in gpus:
        tf.config.experimental.set_memory_growth(gpu, True)
        
use_model = tf.saved_model.load(use_model_path)

embeddings_list = []
embeddings = use_model(texts)
embeddings_list = embeddings.numpy().tolist()
#clear session
tf.keras.backend.clear_session()


print(embeddings_list)

Если я выполню это в цикле for со списком текстов размером 512 КБ, память графического процессора увеличится в геометрической прогрессии. Даже после добавленияtf.keras.backend.clear_session()на каждой итерации я вижу одно и то же поведение.

как я могу это оптимизировать?

0 ответов

Другие вопросы по тегам