Оптимизатор момента Tenseflow в распределенном кластере: где сохраняется импульс?
Я работаю над обучением модели на распределенном кластере с помощью Tensorflow.
я использую tf.train.MomentumOptimizer
как оптимизатор. И я использую сервер параметров для поддержания глобального состояния в кластере PySpark.
Я хочу знать, сохраняется ли накопленный импульс на сервере параметров (он глобален для всех рабочих) или является локальным импульсом для каждого рабочего? Я не нашел ссылки на него в документации.
Приветствуется любое указание на то, где найти ответ.