Разница между tf.train.Checkpoint и tf.train.Saver

Я обнаружил, что существуют разные способы сохранения / восстановления моделей и переменных в Tensorflow, Эти способы в том числе:

В документации tenorflow я обнаружил некоторые различия между ними:

  1. tf.saved_model это тонкая обертка вокруг tf.train.Saver
  2. tf.train.Checkpoint поддерживает стремление к исполнению, но tf.train.Saver нет
  3. tf.train.Checkpoint не создает .meta файл, но все еще может загрузить структуру графа (вот большой вопрос! как это можно сделать?)

Как tf.train.Checkpoint можно загрузить график без .meta файл? или в более общем смысле, в чем разница между tf.train.Saver а также tf.train.Checkpoint?

0 ответов

Согласно документам Tensorflow:

Checkpoint.save а также Checkpoint.restore писать и читать объектно-ориентированные контрольные точки, в отличие от tf.train.Saver который пишет и читает контрольные точки на основе variable.name. Объектная контрольная точка сохраняет график зависимостей между объектами Python (Layers, Optimizer, Variables и т. Д.) С именованными ребрами, и этот график используется для сопоставления переменных при восстановлении контрольной точки. Он может быть более устойчивым к изменениям в программе Python и помогает поддерживать восстановление при создании переменных при их активном выполнении. предпочитать tf.train.Checkpoint над tf.train.Saver для нового кода.

Другие вопросы по тегам