Разница между tf.train.Checkpoint и tf.train.Saver
Я обнаружил, что существуют разные способы сохранения / восстановления моделей и переменных в Tensorflow
, Эти способы в том числе:
В документации tenorflow я обнаружил некоторые различия между ними:
tf.saved_model
это тонкая обертка вокругtf.train.Saver
tf.train.Checkpoint
поддерживает стремление к исполнению, ноtf.train.Saver
нетtf.train.Checkpoint
не создает.meta
файл, но все еще может загрузить структуру графа (вот большой вопрос! как это можно сделать?)
Как tf.train.Checkpoint
можно загрузить график без .meta
файл? или в более общем смысле, в чем разница между tf.train.Saver
а также tf.train.Checkpoint
?
0 ответов
Согласно документам Tensorflow:
Checkpoint.save
а такжеCheckpoint.restore
писать и читать объектно-ориентированные контрольные точки, в отличие отtf.train.Saver
который пишет и читает контрольные точки на основе variable.name. Объектная контрольная точка сохраняет график зависимостей между объектами Python (Layers, Optimizer, Variables и т. Д.) С именованными ребрами, и этот график используется для сопоставления переменных при восстановлении контрольной точки. Он может быть более устойчивым к изменениям в программе Python и помогает поддерживать восстановление при создании переменных при их активном выполнении. предпочитатьtf.train.Checkpoint
надtf.train.Saver
для нового кода.