как запустить tensorflow frozen_inference_graph.pb в jetson.inference.detectNet
Я обучил свой ssdlite_mobilenet_v3 тензорному потоку и экспортирую его как frozen_inference_graph.pb. Я могу запустить его на своем GPU ti1080. Теперь хочу перейти в Jetson Nano. Как я могу запустить его с помощью jetson.inference.detectNet? или запустить его на движке логического вывода jetson? Пожалуйста, порекомендуйте. Спасибо!
В приложении, пожалуйста, найдите мои файлы модели в файле sample_model_inference.zip