Механизм сборки Tensorrt выдает ошибку со статическими входными размерами

Я пытаюсь создать движок cuda, используя статические размеры и ссылаясь на эту документацию: https://docs.nvidia.com/deeplearning/tensorrt/developer-guide/index.html

Однако я продолжаю видеть следующую ошибку:

[TensorRT] ERROR: (Unnamed Layer* 249) [PluginV2Ext]: PluginV2Layer must be V2DynamicExt when there are runtime input dimensions.

Эта ошибка указывает на входные размеры среды выполнения, однако вместо этого мне нужно указать и использовать статические размеры. Я искал на многих онлайн-форумах, однако все они касались использования измерений времени выполнения и использования профиля оптимизации.

Я также попытался создать и настроить профиль оптимизации с такими же значениями MIN/OPT/MAX, как показано ниже, но это тоже не помогло.

profile = builder.create_optimization_profile();
profile.set_shape("foo", (1, 3, 100, 200), (1, 3, 100, 200), (1, 3, 100, 200)) 
config.add_optimization_profile(profile)

Может ли кто-нибудь указать, как я могу вместо этого использовать статические размеры и отключить проверку входных размеров во время выполнения?

1 ответ

похоже, только версия tenorrt, обновленная до 7.0.0, может реализовать эту функцию!

Другие вопросы по тегам