Не удалось преобразовать замороженный граф тензорного потока в файл pbtxt

Я хочу извлечь файл pbtxt с учетом ввода замороженного графа вывода тензорного потока. Для этого я использую следующий скрипт:

import tensorflow as tf

#from google.protobuf import text_format
from tensorflow.python.platform import gfile

def converter(filename): 
  with gfile.FastGFile(filename,'rb') as f:
    graph_def = tf.GraphDef()
    graph_def.ParseFromString(f.read())
    tf.import_graph_def(graph_def, name='')
    tf.train.write_graph(graph_def, 'pbtxt/', 'protobuf.pbtxt', as_text=True)
    print(graph_def)
  return


#converter('ssd_mobilenet_v1_coco_2017_11_17/frozen_inference_graph.pb')  # here you can write the name of the file to be converted
# and then a new file will be made in pbtxt directory.

converter('ssd_mobilenet_v1_coco_2017_11_17/frozen_inference_graph.pb')

В качестве примера я использую архитектуру ssd mobilenet. Используя приведенный выше код, я получаю вывод в виде pbtxt, но не могу его использовать. Для справки смотрите изображение ниже

ВПРАВО: Изображение исходного файла pbtxt для архитектуры мобильной сети

LEFT: изображение файла pbtxt, полученное с помощью вышеуказанного скрипта.

Когда я использую официальный pbtxt на право, я получаю правильные результаты. Но я не получаю никакого прогноза, когда использую LEFT pbtxt, который я сгенерировал с помощью приведенного выше скрипта

Я использую эти прогнозы на открытом модуле CV DNN

tensorflowNet = cv2.dnn.readNetFromTensorflow('ssd_mobilenet_v1_coco_2017_11_17/frozen_inference_graph.pb', 'pbtxt/protobuf.pbtxt')

Как мне преобразовать замороженный вывод логики mobilenet в правильный формат pbtxt, чтобы получить вывод?

Ссылки: https://gist.github.com/Arafatk/c063bddb9b8d17a037695d748db4f592

4 ответа

Решение

Вот что сработало для меня

  • git clone https://github.com/opencv/opencv.git
  • Перейдите к opencv / samples / dnn /
  • Скопируйте файл frozen_inference_graph.pb и *.config, соответствующий вашему pb-файлу.
  • Вставьте скопированные файлы в каталог opencv / samples / dnn
  • Создайте новую папку в каталоге den и назовите ее "exported_pbtxt"

И запустите этот скрипт:

python3 tf_text_graph_ssd.py --input frozen_inference_graph.pb --output exported_pbtxt/output.pbtxt --config pipeline.config

Это все, что вам нужно, теперь скопируйте замороженный граф вывода и недавно сгенерированный файл pbtxt. И используйте следующий скрипт для запуска вашей модели с использованием OpenCV:

import cv2

# Load a model imported from Tensorflow
tensorflowNet = cv2.dnn.readNetFromTensorflow('card_graph/frozen_inference_graph.pb', 'exported_pbtxt/output.pbtxt')

# Input image
img = cv2.imread('image.jpg')
rows, cols, channels = img.shape

# Use the given image as input, which needs to be blob(s).
tensorflowNet.setInput(cv2.dnn.blobFromImage(img, size=(300, 300), swapRB=True, crop=False))

# Runs a forward pass to compute the net output
networkOutput = tensorflowNet.forward()

# Loop on the outputs
for detection in networkOutput[0,0]:

    score = float(detection[2])
    if score > 0.9:

        left = detection[3] * cols
        top = detection[4] * rows
        right = detection[5] * cols
        bottom = detection[6] * rows

        #draw a red rectangle around detected objects
        cv2.rectangle(img, (int(left), int(top)), (int(right), int(bottom)), (0, 0, 255), thickness=2)

# Show the image with a rectagle surrounding the detected objects 
cv2.imshow('Image', img)
cv2.waitKey()
cv2.destroyAllWindows()

Пожалуйста, следуйте этому руководству: https://github.com/opencv/opencv/wiki/TensorFlow-Object-Detection-API. Нет смысла создавать.pbtxt без его изменения. Сценарий из руководства создает дополнительный текстовый график, который используется для импорта в OpenCV.

Может кому-нибудь помочь. Встретил ту же проблему с mars-small128.pb для OpenCV 4.3.0, извлеченный из мастера

import argparse
import tensorflow as tf
from tensorflow.python.saved_model import signature_constants

def save(graph_pb, export_dir):
builder = tf.saved_model.builder.SavedModelBuilder(export_dir)

with tf.gfile.GFile(graph_pb, "rb") as f:
    graph_def = tf.GraphDef()
    graph_def.ParseFromString(f.read())

sigs = {}

with tf.Session(graph=tf.Graph()) as sess:
    # INFO: name="" is important to ensure we don't get spurious prefixing
    tf.import_graph_def(graph_def, name='')
    g = tf.get_default_graph()

    # INFO: if name is added the input/output should be prefixed like:
    #       name=net => net/images:0 & net/features:0
    inp = tf.get_default_graph().get_tensor_by_name("images:0")
    out = tf.get_default_graph().get_tensor_by_name("features:0")

    sigs[signature_constants.DEFAULT_SERVING_SIGNATURE_DEF_KEY] = \
        tf.saved_model.signature_def_utils.predict_signature_def(
            {"in": inp}, {"out": out})

    builder.add_meta_graph_and_variables(sess,
                                         [tag_constants.SERVING],
                                         signature_def_map=sigs)

builder.save(as_text=True)


if __name__ == '__main__':
    # export_dir = './saved'
    # graph_pb = '../models/deep_sort/mars-small128.pb'

    parser = argparse.ArgumentParser()
    parser.add_argument('--input', help="path to frozen pb file")
    parser.add_argument('--output', help="Folder to save")
    args = parser.parse_args()
    if args.input is not None and args.output:
        save(args.input, args.output)
    else:
        print(f"Usage adapt_opencv.py.py --input 'path_to_bp' --output './saved'")

Преобразование pb в pbtxt для TF 2.xxx:

      import tensorflow as tf
from google.protobuf import text_format
from tensorflow.python.platform import gfile

def graphdef_to_pbtxt(filename): 
    with open(filename,'rb') as f:
        graph_def = tf.compat.v1.GraphDef()
        graph_def.ParseFromString(f.read())
    with open('protobuf.txt', 'w') as fp:
        fp.write(str(graph_def))
    
graphdef_to_pbtxt('saved_model.pb')
Другие вопросы по тегам