Использование дескрипторов OpenCV с findFundamentalMat

Я опубликовал ранее с проблемой, касающейся одной и той же программы, но не получил ответов. С тех пор я исправил проблему, с которой я столкнулся в данный момент, только для того, чтобы столкнуться с новой проблемой.

В основном я автоматически корректирую пары стереоизображений для вращения и перевода с использованием некалиброванного подхода. Я использую алгоритмы обнаружения функций, такие как SURF, чтобы найти точки в двух изображениях, левую и правую пару стереоизображений, а затем снова использовать SURF. Я сопоставляю точки между двумя изображениями. Затем мне нужно использовать эти совпадающие точки, чтобы найти основную матрицу, которую я могу использовать для коррекции изображений.

Моя проблема в этом. Мои совпадающие точки хранятся в одном векторе совпадений дескрипторов, который затем фильтруется для выбросов. findFundamentalMat принимает в качестве входных данных два отдельных массива совпадающих точек. Я не знаю, как преобразовать из моего вектора в два разных массива.

cout << "< Matching descriptors..." << endl;
vector<DMatch> filteredMatches;
crossCheckMatching( descriptorMatcher, descriptors1, descriptors2, filteredMatches, 1 );
cout << filteredMatches.size() << " matches" << endl << ">" << endl;

Создается вектор.

void crossCheckMatching( Ptr<DescriptorMatcher>& descriptorMatcher,
                         const Mat& descriptors1, const Mat& descriptors2,
                         vector<DMatch>& filteredMatches12, int knn=1 )
{
    filteredMatches12.clear();
    vector<vector<DMatch> > matches12, matches21;
    descriptorMatcher->knnMatch( descriptors1, descriptors2, matches12, knn );
    descriptorMatcher->knnMatch( descriptors2, descriptors1, matches21, knn );
    for( size_t m = 0; m < matches12.size(); m++ )
    {
        bool findCrossCheck = false;
        for( size_t fk = 0; fk < matches12[m].size(); fk++ )
        {
            DMatch forward = matches12[m][fk];

            for( size_t bk = 0; bk < matches21[forward.trainIdx].size(); bk++ )
            {
                DMatch backward = matches21[forward.trainIdx][bk];
                if( backward.trainIdx == forward.queryIdx )
                {
                    filteredMatches12.push_back(forward);
                    findCrossCheck = true;
                    break;
                }
            }
            if( findCrossCheck ) break;
        }
    }
}

Матчи перекрестно проверены и сохранены в файлах фильтров.

cout << "< Computing homography (RANSAC)..." << endl;
vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
H12 = findHomography( Mat(points1), Mat(points2), CV_RANSAC, ransacReprojThreshold );
cout << ">" << endl;

Гомография найдена на основе порога, установленного во время выполнения в командной строке.

//Mat drawImg;
if( !H12.empty() ) // filter outliers
{
    vector<char> matchesMask( filteredMatches.size(), 0 );
    vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
    vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
    Mat points1t; perspectiveTransform(Mat(points1), points1t, H12);
    for( size_t i1 = 0; i1 < points1.size(); i1++ )
    {
        if( norm(points2[i1] - points1t.at<Point2f>((int)i1,0)) < 4 ) // inlier
            matchesMask[i1] = 1;
    }
    /* draw inliers
    drawMatches( leftImg, keypoints1, rightImg, keypoints2, filteredMatches, drawImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255), matchesMask, 2 ); */
}

Матчи далее фильтруются, чтобы удалить выбросы.

... а потом что? Как разделить то, что осталось на два мата совпадающих точек для использования в findFundamentalMat?

ИЗМЕНИТЬ

Теперь я использовал свою маску для создания вектора finalMatches как такового (это заменяет последнюю процедуру фильтрации выше):

Mat drawImg;
if( !H12.empty() ) // filter outliers
{
    size_t i1;
    vector<char> matchesMask( filteredMatches.size(), 0 );
    vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
    vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
    Mat points1t; perspectiveTransform(Mat(points1), points1t, H12);
    for( i1 = 0; i1 < points1.size(); i1++ )
    {
        if( norm(points2[i1] - points1t.at<Point2f>((int)i1,0)) < 4 ) // inlier
            matchesMask[i1] = 1;
    }
    for( i1 = 0; i1 < filteredMatches.size(); i1++ )
    {
        if ( matchesMask[i1] == 1 )
            finalMatches.push_back(filteredMatches[i1]);
    }
    namedWindow("matches", 1);
    // draw inliers
    drawMatches( leftImg, keypoints1, rightImg, keypoints2, filteredMatches, drawImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255), matchesMask, 2 );
    imshow("matches", drawImg);
}

Однако я до сих пор не знаю, как разделить мой finalMatches DMatch-вектор на массивы Mat, которые мне нужно передать в findFundamentalMat, пожалуйста, помогите!!!

ИЗМЕНИТЬ

Рабочее (сорт) решение:

Mat drawImg;
vector<Point2f> finalPoints1;
vector<Point2f> finalPoints2;
if( !H12.empty() ) // filter outliers
{
    size_t i, idx;
    vector<char> matchesMask( filteredMatches.size(), 0 );
    vector<Point2f> points1; KeyPoint::convert(keypoints1, points1, queryIdxs);
    vector<Point2f> points2; KeyPoint::convert(keypoints2, points2, trainIdxs);
    Mat points1t; perspectiveTransform(Mat(points1), points1t, H12);

    for( i = 0; i < points1.size(); i++ )
    {
        if( norm(points2[i] - points1t.at<Point2f>((int)i,0)) < 4 ) // inlier
            matchesMask[i] = 1;
    }

    for ( idx = 0; idx < filteredMatches.size(); idx++)
    {
        if ( matchesMask[idx] == 1 ) {
            finalPoints1.push_back(keypoints1[filteredMatches[idx].queryIdx].pt);
            finalPoints2.push_back(keypoints2[filteredMatches[idx].trainIdx].pt);
        }
    }    

    namedWindow("matches", 0);
    // draw inliers
    drawMatches( leftImg, keypoints1, rightImg, keypoints2, filteredMatches, drawImg, CV_RGB(0, 255, 0), CV_RGB(0, 0, 255), matchesMask, 2 );
    imshow("matches", drawImg);
}

И затем я передаю finalPoints1 и finalPoints2 в findFundamentalMat как Mat's. Теперь моя единственная проблема заключается в том, что мой вывод не удаленно, как ожидалось, изображения все прикручиваются: -/

Ответ 1

Ваш массив соответствия - это смещения в массивах дескрипторов. Поскольку каждый дескриптор имеет соответствующую ключевую точку, вы можете просто перебрать и построить два массива ключевых точек из индексов. Затем эти ключевые точки могут быть отправлены в findFundamentalMat.

Edit:

Я считаю, что ваша ошибка заключается в создании finalMatches, где вы теряете информацию. Вектор filterMatches перегружен. Индексы, где matchesMask - это 1, показывают индексы в ключевые точки1, а индексы, хранящиеся в finalMatches, являются индексами в keypoints2. Свернув вниз в finalMatches, вы фактически теряете первый набор индексов.

Попробуйте следующее:

У вас есть цикл, который подсчитывает количество фактических совпадений:

int num_matches = 0;
for( int idx = 0; idx < matchesMask.size(); idx++ )
{
    if ( matchesMask[idx] == 1 )
        num_matches++;
}

Теперь объявите CvMats правильного размера:

matched_points1  = cvCreateMat(2,numPoints,CV_32F);
matched_points2  = cvCreateMat(2,numPoints,CV_32F);

Теперь перебираем filterMatches и вставляем: (Точный синтаксис может отличаться, вы получаете идею)

offset = 0;
for (int idx = 0; idx < matchesMask.size(); idx++)
{
    if ( matchesMask[idx] == 1 ) {
        matched_points1[2*offset] = keypoints1[idx].pt.x;
        matched_points1[2*offset+1] = keypoints1[idx].pt.y;
        matched_points2[2*offset] = keypoints2[filteredMatches[idx]].pt.x;
        matched_points2[2*offset+1] = keypoints2[filteredMatches[idx]].pt.y;
        offset++;
    }
}