OpenCV Feature Matching не подходит для обрезанных изображений разных размеров и изображений, взятых из разных источников?

Я пытаюсь сопоставить два изображения, одно - это снимок экрана мобильного экрана, а изображение шаблона - это любая иконка приложения. Если я сопоставляю исходный текст и шаблон, вырезанные из одних и тех же изображений, это идеально соответствует. Но когда я использую иконку приложения, вырезанную с другого экрана мобильного устройства, это не соответствует должным образом.

Для сопоставления изображений я работаю над следующим кодом:

int main( int argc, char** argv )
{

Mat objectImg = imread("source.jpg", cv::IMREAD_GRAYSCALE);
Mat sceneImg = imread("note4-3.jpg", cv::IMREAD_GRAYSCALE);

//cv::resize(sceneImg,sceneImg,objectImg.size(),0,0,CV_INTER_CUBIC);

if( !objectImg.data || !sceneImg.data )
{
    printf( " No image data \n " );
    return -1337;
}

std::vector<cv::KeyPoint> objectKeypoints;
std::vector<cv::KeyPoint> sceneKeypoints;
cv::Mat objectDescriptors;
cv::Mat sceneDescriptors;

Ptr<FeatureDetector> detector;
detector = cv::MSER::create();
detector->detect(objectImg, objectKeypoints);
detector->detect(sceneImg, sceneKeypoints);

Ptr<DescriptorExtractor> extractor = cv::ORB::create();
extractor->compute( objectImg, objectKeypoints, objectDescriptors );
extractor->compute( sceneImg, sceneKeypoints, sceneDescriptors );

if(objectDescriptors.type()!=CV_32F) {
objectDescriptors.convertTo(objectDescriptors, CV_32F);
}

if(sceneDescriptors.type()!=CV_32F) {
sceneDescriptors.convertTo(sceneDescriptors, CV_32F);
}

vector< vector<DMatch> > matches;
Ptr<DescriptorMatcher> matcher = DescriptorMatcher::create("BruteForce");
matcher->knnMatch( objectDescriptors, sceneDescriptors, matches, 8 );

double max_dist = 0; double min_dist = 100;

//-- Quick calculation of max and min distances between keypoints
for( int i = 0; i < objectDescriptors.rows; i++ )
{ 
    double dist = matches[i][0].distance;
    if( dist < min_dist ) min_dist = dist;
    if( dist > max_dist ) max_dist = dist;
}

std::vector<cv::DMatch> good_matches;

for( int i = 0; i < objectDescriptors.rows; i++ )
{ 
    if( matches[i][0].distance <= max(2*min_dist, 0.02) ) {
        good_matches.push_back( matches[i][0]); 
    }

}

//look whether the match is inside a defined area of the image
//only 25% of maximum of possible distance
/*double tresholdDist = 0.50 * sqrt(double(sceneImg.size().height*sceneImg.size().height + sceneImg.size().width*sceneImg.size().width));

vector< DMatch > good_matches2;
good_matches2.reserve(matches.size());  
for (size_t i = 0; i < matches.size(); ++i)
{ 
    for (int j = 0; j < matches[i].size(); j++)
    {
        Point2f from = objectKeypoints[matches[i][j].queryIdx].pt;
        Point2f to = sceneKeypoints[matches[i][j].trainIdx].pt;

        //calculate local distance for each possible match
        double dist = sqrt((from.x - to.x) * (from.x - to.x) + (from.y - to.y) * (from.y - to.y));

        //save as best match if local distance is in specified area and on same height
        if (dist < tresholdDist && abs(from.y-to.y)<5)
        {
            good_matches2.push_back(matches[i][j]);
            j = matches[i].size();
        }
    }
}*/

Mat allmatchs;
   drawMatches(objectImg,objectKeypoints,sceneImg,sceneKeypoints,good_matches,allmatchs,Scalar::all(-1), Scalar::all(-1),vector<char>(),0);
namedWindow("Matchs" , CV_WINDOW_NORMAL);
imshow( "Matchs",allmatchs);

waitKey(0);

}

[Неверное совпадение при обрезке из другого источника][1]

Приведенный выше результат получается при сопоставлении источника из одного снимка экрана мобильного устройства и шаблона из другого снимка экрана.

Я использую opencv3.0

Пожалуйста, помогите, если я внес изменения в код, или я должен использовать сопоставление с шаблоном или какой-то другой метод. Я не могу использовать детекторы SUR, поскольку у меня не может быть платных версий из-за конфликта лицензий??

Образцы изображений:

Исходное изображение

шаблон

2 ответа

Решение

Я получил лучшие совпадения по следующим комбинациям:детектор казе Kaze экстрактор BruteForce-L1 matcher в сочетании с перекрестной проверкой соответствия, приведенной в следующей ссылке

http://ecee.colorado.edu/~siewerts/extra/ecen5043/ecen5043_code/sift/descriptor_extractor_matcher.cpp

Глядя на предоставленное вами изображение, я могу предложить некоторые изменения, которые помогут вам.

  • Удалите выбор подходящих совпадений, это создает проблемы, когда присутствуют острые особенности Острые черты имеют намного меньшее расстояние Хэмминга по сравнению с другими хорошими матчами. Когда вы выбираете 2*min_dist, косвенно вы игнорируете возможные хорошие совпадения.
  • Убедитесь, что на изображении объекта имеется разумное количество характерных точек.
  • Если эта комбинация детектора признаков и дескриптора не работает, выберите другой детектор функций и дескрипторы, такие как STAR-BRIEF, SURF, которые намного лучше, чем MSER-ORB.
  • В вашей ситуации детектор-сопоставитель не обязательно должен быть инвариантным к вращению, он должен быть масштабируемым. Так что попробуйте изменить размер изображения объекта

Надеюсь, мои предложения помогут вам

Другие вопросы по тегам