Нахождение параметров перевода / вращения из соответствий с Kinect и OpenCV

Скажем, у меня есть объект, и я получил данные RGB и данные о глубине из kinect под одним углом. Затем я слегка передвинул кинект, чтобы я мог сфотографировать объект под другим углом. Я пытаюсь выяснить лучший способ определить, насколько камера kinect переместилась и повернулась из своего исходного положения на основе соответствий обоих изображений.

Я использую OpenCV для определенных задач обработки изображений, и я изучил алгоритм SURF, который, кажется, находит хорошие соответствия из двух 2D изображений. Однако он не учитывает данные о глубине, и я не думаю, что он хорошо работает с несколькими изображениями. Кроме того, я не могу понять, как вы можете получить данные о переводе / ротации из корреспонденции... Возможно, я смотрю в неправильном направлении?

Примечание. Моя долгосрочная цель - "объединить" несколько изображений, чтобы сформировать трехмерную модель из всех данных. На данный момент это несколько работает, если я укажу углы, в которых расположен кинект, но я думаю, что гораздо лучше уменьшить связанные с этим "ошибки" (т. Е. Точки, слегка смещенные относительно того места, где они должны быть), находя соответствия вместо указания параметров вручную

0 ответов

Другие вопросы по тегам