OpenCV, как рассчитать SIFT дескриптор на заданный пиксель

Привет, ребята, я использую opencv3 с Contribu. Вопрос в том, что я хочу вычислить дескриптор просеивания для заданного пикселя (без использования обнаруженных ключевых точек).

Я пытаюсь построить вектор KeyPoint с заданным пикселем. Однако для создания KeyPoint мне нужно знать информацию о размере в дополнение к местоположению в пикселях.

KeyPoint (Point2f _pt, float _size, float _angle=-1, float _response=0, int _octave=0, int _class_id=-1)

Кто-нибудь может сказать мне, какой размер в конструкторе? Нужна ли мне информация об углах для вычисления дескриптора просеивания? И как я могу рассчитать их с poencv3.

2 ответа

Решение

@Utkarsh: я согласен с тем фактом, что для дескриптора SIFT требуется информация об ориентации и масштабе ключевой точки. В оригинальной статье Дэвида Дж. Лоу (Отличительные особенности изображения из масштабно-инвариантных ключевых точек) говорится: "Для достижения неизменности ориентации координаты дескриптора и ориентации градиента поворачиваются относительно ориентации ключевой точки". в то время как информация о масштабе используется для выбора уровня размытия по Гауссу для изображения во время вычисления дескриптора.

Однако вопрос в этом посте касался вычисления дескриптора для данного пикселя. Обратите внимание, что данное местоположение пикселя не является SIFT Keypoint, рассчитанным с использованием желаемой процедуры. Поэтому информация об ориентации и масштабе в этом случае недоступна. Таким образом, код, упомянутый в предыдущем ответе, вычисляет дескриптор SIFT для заданного пикселя в масштабе по умолчанию (т.е. 1) и ориентации по умолчанию (без поворота градиентных ориентаций окрестности).

@Teng Long: С другой стороны, я думаю, что подход, который вы используете для сопоставления ключевых точек на двух изображениях (исходном и повернутом), несколько двусмыслен. Вы должны отдельно запустить обнаружение SIFT Keypoint на обоих изображениях и рассчитать их соответствующие дескрипторы отдельно. Затем вы можете использовать грубую силу, соответствующую этим двум наборам ключевых точек.

Следующий код вычисляет ключевые точки SIFT на изображении и его повернутой на 45 градусов версии, а затем вычисляет дескрипторы ключевых точек SIFT, используя сопоставление методом грубой силы.

# include "opencv2/opencv_modules.hpp"
# include "opencv2/core/core.hpp"
# include "opencv2/features2d/features2d.hpp"
# include "opencv2/highgui/highgui.hpp"
# include "opencv2/nonfree/features2d.hpp"
# include "opencv2\imgproc\imgproc.hpp"
# include <stdio.h>

using namespace cv;

int main( int argc, char** argv )
{
    Mat img_1, img_2;

    // Load image in grayscale format
    img_1 = imread( "scene.jpg", CV_LOAD_IMAGE_GRAYSCALE );     

    // Rotate the input image without loosing the corners 
    Point center = Point(img_1.cols / 2, img_1.rows / 2);
    double angle = 45, scale = 1;
    Mat rot = getRotationMatrix2D(center, angle, scale);
    Rect bbox = cv::RotatedRect(center, img_1.size(), angle).boundingRect();
    rot.at<double>(0,2) += bbox.width/2.0 - center.x;
    rot.at<double>(1,2) += bbox.height/2.0 - center.y;
    warpAffine(img_1, img_2, rot, bbox.size());

    // SIFT feature detector
    SiftFeatureDetector detector;
    std::vector<KeyPoint> keypoints_1, keypoints_2;

    detector.detect( img_1, keypoints_1 );
    detector.detect( img_2, keypoints_2 );

    // Calculate descriptors 
    SiftDescriptorExtractor extractor;
    Mat descriptors_1, descriptors_2;

    extractor.compute( img_1, keypoints_1, descriptors_1 );
    extractor.compute( img_2, keypoints_2, descriptors_2 );

    // Matching descriptors using Brute Force
    BFMatcher matcher(NORM_L2);
    std::vector<DMatch> matches;
    matcher.match(descriptors_1, descriptors_2, matches);


    //-- Quick calculation of max and min distances between Keypoints
    double max_dist = 0; double min_dist = 100;

    for( int i = 0; i < descriptors_1.rows; i++ )
    { double dist = matches[i].distance;
      if( dist < min_dist ) min_dist = dist;
      if( dist > max_dist ) max_dist = dist;
    }   

    // Draw only "good" matches (i.e. whose distance is less than 2*min_dist,
    //-- or a small arbitary value ( 0.02 ) in the event that min_dist is very
    //-- small)
    std::vector< DMatch > good_matches;

    for( int i = 0; i < descriptors_1.rows; i++ )
    { if( matches[i].distance <= max(2*min_dist, 0.02) )
      { good_matches.push_back( matches[i]); }
    }

    //-- Draw only "good" matches
    Mat img_matches;
    drawMatches( img_1, keypoints_1, img_2, keypoints_2,
               good_matches, img_matches, Scalar::all(-1), Scalar::all(-1),
               vector<char>(), DrawMatchesFlags::NOT_DRAW_SINGLE_POINTS );

    //-- Show detected matches
    imshow( "Good Matches", img_matches );

    waitKey(0);
    return 0;
  }

И вот результат:

Посмотрите это для кода.

Надеюсь, поможет.

Другие вопросы по тегам