Механизм сборки Tensorrt выдает ошибку со статическими входными размерами
Я пытаюсь создать движок cuda, используя статические размеры и ссылаясь на эту документацию: https://docs.nvidia.com/deeplearning/tensorrt/developer-guide/index.html
Однако я продолжаю видеть следующую ошибку:
[TensorRT] ERROR: (Unnamed Layer* 249) [PluginV2Ext]: PluginV2Layer must be V2DynamicExt when there are runtime input dimensions.
Эта ошибка указывает на входные размеры среды выполнения, однако вместо этого мне нужно указать и использовать статические размеры. Я искал на многих онлайн-форумах, однако все они касались использования измерений времени выполнения и использования профиля оптимизации.
Я также попытался создать и настроить профиль оптимизации с такими же значениями MIN/OPT/MAX, как показано ниже, но это тоже не помогло.
profile = builder.create_optimization_profile();
profile.set_shape("foo", (1, 3, 100, 200), (1, 3, 100, 200), (1, 3, 100, 200))
config.add_optimization_profile(profile)
Может ли кто-нибудь указать, как я могу вместо этого использовать статические размеры и отключить проверку входных размеров во время выполнения?
1 ответ
похоже, только версия tenorrt, обновленная до 7.0.0, может реализовать эту функцию!