ExponentialDecay находится в другом графе с весом вложения

Построение модели с экспоненциальным затуханием и начало обучения модели. Однако получил ошибку

Tensor("ExponentialDecay:0", shape=(), dtype=float32) 
  must be from the same graph as Tensor("dnn/.../embedding_weights/...", ...)

Похоже, основная причина заключается в том, что в процессе обучения tf пытается создать другой график вместо того, который использовался при создании тензора "ExponentialDecay". Но как это должно произойти?

learning_rate = tf.train.exponential_decay(learning_rate=0.1, global_step=tf.train.get_or_create_global_step(), decay_steps=100, decay_rate=0.96)

optimizer = tf.train.AdagradOptimizer(learning_rate=learning_rate)

estimator = tf.estimator.DNNClassifier(
    feature_columns=...,
    hidden_units=...,
    n_classes=...,
    model_dir=...,
    optimizer=optimizer)

tf.estimator.train_and_evaluate(
    estimator=estimator,
    train_spec=...,
    eval_spec=...)

0 ответов

Другие вопросы по тегам