Проекция трехмерной лидарной точки на изображение i-й камеры (набор данных KITTI)

Я работаю над проблемой классификации объектов и использую данные лидара и камеры из набора данных Kitti. В этой статье: http://ww.cvlibs.net/publications/Geiger2013IJRR.pdf, они предоставляют формулы для проецирования трехмерного изображения. PointCloud в плоскость изображения i-й камеры, но я не понимаю некоторые вещи:

Следующее уравнение ((3):

Если 3D-точка X находится на изображении с камеры и Y на изображении с i-й камеры, почему X имеет четыре координаты, а Y три? Должно было быть 3 и 2, нет?

формула

Мне нужно спроецировать трехмерное облако точек на плоскость изображения камеры, чтобы затем создать лидарные изображения, чтобы использовать их в качестве канала для CNN. У кого есть идеи для этого?

Заранее спасибо

1 ответ

Для вашего первого запроса относительно размера x и y есть два объяснения.

Причина 1

  • Для повторного проецирования изображения используется модель камеры с отверстием в виде булавки, которая находится в перспективе или однородной координате. Перспективная проекция использует источник изображения в качестве центра проекции, а точки отображаются на плоскость z=1. Трехмерная точка [x y z] представлена ​​как [xw yw zw w], а точка, которую она отображает на плоскости, представлена ​​как [xw yw zw]. Нормализация с помощью w дает.

    Итак (x, y) -> [xy 1] T: однородные координаты изображения

    и (x, y, z) -> [xyz 1] T: однородные координаты сцены

Причина 2

  • Что касается бумаги, которую вы приложили, учитывая уравнения (4) и (5)

    Ясно, что P имеет размерность 3X4 и R расширяется до размера 4x4. Также x имеет размерность 1x4. Таким образом, согласно правилу умножения матриц количество столбцов первой матрицы должно равняться количеству строк второй матрицы. Таким образом, для данного P 3x4 и R 4x4, x должен быть 1x4.

Теперь перейдем ко второму вопросу о слиянии изображений LiDAR. Для него требуются внутренние и внешние параметры (относительное вращение и перемещение) и матрица камеры. Это вращение и перемещение образуют матрицу 3x4, называемую матрицей преобразования. Таким образом, точечные уравнения слияния становятся

[x y 1]^T = Transformation Matrix * Camera Matrix * [X Y Z 1]^T

Вы также можете сослаться:: Lidar Image Fusion KITTI

Как только слияние изображений LiDAR будет завершено, вы можете ввести это изображение в модель CNN. Я не знаю модулей DNN для слитного изображения LiDAR.

Надеюсь это поможет..

Другие вопросы по тегам