Оптимизатор момента Tenseflow в распределенном кластере: где сохраняется импульс?

Я работаю над обучением модели на распределенном кластере с помощью Tensorflow.

я использую tf.train.MomentumOptimizerкак оптимизатор. И я использую сервер параметров для поддержания глобального состояния в кластере PySpark.

Я хочу знать, сохраняется ли накопленный импульс на сервере параметров (он глобален для всех рабочих) или является локальным импульсом для каждого рабочего? Я не нашел ссылки на него в документации.

Приветствуется любое указание на то, где найти ответ.

0 ответов

Другие вопросы по тегам