Обнаружение крестов в изображении

Я работаю над программой для обнаружения кончиков зондирующего устройства и анализа изменения цвета во время зондирования. Механизмы ввода/вывода более или менее установлены. Теперь мне нужно настоящее мясо: обнаружить подсказки.

На рисунках ниже подсказки находятся в центре крестов. Я думал о применении BFS к изображениям после некоторого порога, но затем застрял и не знал, как действовать. Затем я обратился к OpenCV после прочтения, что он предлагает обнаружение функции в изображениях. Однако меня ошеломило огромное количество понятий и методов, используемых здесь и снова, и не знаю, как действовать дальше.

Я правильно смотрю на это? Можете ли вы дать мне несколько указателей?

Colored Image Изображение, извлеченное из короткого видео

Binary image with threshold set at 95 Бинарная версия с порогом, установленным в 95

Ответ 1

Подход к шаблону

Вот простой matchTemplate решение, похожее на подход, о котором говорит Гай Сиртон.

Согласование шаблонов будет работать до тех пор, пока у вас не будет большого масштабирования или вращения с вашей целью.

Вот шаблон, который я использовал: enter image description here

Вот код, который я использовал для обнаружения нескольких беспрепятственных крестов:

#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <iostream>

using namespace cv;
using namespace std;

int main(int argc, char* argv[])
{
    string inputName = "crosses.jpg";
    string outputName = "crosses_detect.png";
    Mat img   = imread( inputName, 1);
    Mat templ = imread( "crosses-template.jpg", 1);

    int resultCols =  img.cols - templ.cols + 1;
    int resultRows = img.rows - templ.rows + 1;
    Mat result( resultCols, resultRows, CV_32FC1 );

    matchTemplate(img, templ, result, CV_TM_CCOEFF);
    normalize(result, result, 0, 255.0, NORM_MINMAX, CV_8UC1, Mat());

    Mat resultMask;
    threshold(result, resultMask, 180.0, 255.0, THRESH_BINARY);

    Mat temp = resultMask.clone();
    vector< vector<Point> > contours;
    findContours(temp, contours, CV_RETR_EXTERNAL, CV_CHAIN_APPROX_SIMPLE, Point(templ.cols / 2, templ.rows / 2));

    vector< vector<Point> >::iterator i;
    for(i = contours.begin(); i != contours.end(); i++)
    {
        Moments m = moments(*i, false);
        Point2f centroid(m.m10 / m.m00, m.m01 / m.m00);
        circle(img, centroid, 3, Scalar(0, 255, 0), 3);
    }

    imshow("img", img);
    imshow("results", result);
    imshow("resultMask", resultMask);

    imwrite(outputName, img);

    waitKey(0);

    return 0;
}

В результате этого изображения обнаружения:
enter image description here

Этот код в основном устанавливает пороговое значение для разделения кросс-пиков от остальной части изображения, а затем обнаруживает все эти контуры. Наконец, он вычисляет центр тяжести каждого контура для определения центра креста.

Альтернатива обнаружения формы

Вот альтернативный подход с использованием обнаружения треугольника. Это не кажется столь же точным, как подход matchTemplate, но может быть альтернативой, с которой вы могли бы играть.

Используя findContours, мы обнаруживаем все треугольники в изображении, что приводит к следующему:

enter image description here

Затем я заметил все кластеры треугольных вершин вблизи кросс-центра, поэтому эти кластеры используются для центроида поперечной центральной точки, показанной ниже:

enter image description here

Наконец, вот код, который я использовал для этого:

#include <opencv2/core/core.hpp>
#include <opencv2/highgui/highgui.hpp>
#include <opencv2/imgproc/imgproc.hpp>
#include <iostream>
#include <list>

using namespace cv;
using namespace std;

vector<Point> getAllTriangleVertices(Mat& img, const vector< vector<Point> >& contours);
double euclideanDist(Point a, Point b);

vector< vector<Point> > groupPointsWithinRadius(vector<Point>& points, double radius);
void printPointVector(const vector<Point>& points);
Point computeClusterAverage(const vector<Point>& cluster);

int main(int argc, char* argv[])
{
    Mat img   = imread("crosses.jpg", 1);
    double resizeFactor = 0.5;
    resize(img, img, Size(0, 0), resizeFactor, resizeFactor);

    Mat momentImg = img.clone();

    Mat gray;
    cvtColor(img, gray, CV_BGR2GRAY);

    adaptiveThreshold(gray, gray, 255.0, ADAPTIVE_THRESH_MEAN_C, THRESH_BINARY, 19, 15);
    imshow("threshold", gray);
    waitKey();

    vector< vector<Point> > contours;
    findContours(gray, contours, CV_RETR_LIST, CV_CHAIN_APPROX_SIMPLE);

    vector<Point> allTriangleVertices = getAllTriangleVertices(img, contours);

    imshow("img", img);
    imwrite("shape_detect.jpg", img);
    waitKey();

    printPointVector(allTriangleVertices);
    vector< vector<Point> > clusters = groupPointsWithinRadius(allTriangleVertices, 10.0*resizeFactor);
    cout << "Number of clusters: " << clusters.size() << endl;

    vector< vector<Point> >::iterator cluster;
    for(cluster = clusters.begin(); cluster != clusters.end(); ++cluster)
    {
        printPointVector(*cluster);

        Point clusterAvg = computeClusterAverage(*cluster);
        circle(momentImg, clusterAvg, 3, Scalar(0, 255, 0), CV_FILLED);
    }

    imshow("momentImg", momentImg);
    imwrite("centroids.jpg", momentImg);
    waitKey();

    return 0;
}

vector<Point> getAllTriangleVertices(Mat& img, const vector< vector<Point> >& contours)
{
    vector<Point> approxTriangle;
    vector<Point> allTriangleVertices;
    for(size_t i = 0; i < contours.size(); i++)
    {
        approxPolyDP(contours[i], approxTriangle, arcLength(Mat(contours[i]), true)*0.05, true);
        if(approxTriangle.size() == 3)
        {
            copy(approxTriangle.begin(), approxTriangle.end(), back_inserter(allTriangleVertices));
            drawContours(img, contours, i, Scalar(0, 255, 0), CV_FILLED);

            vector<Point>::iterator vertex;
            for(vertex = approxTriangle.begin(); vertex != approxTriangle.end(); ++vertex)
            {
                circle(img, *vertex, 3, Scalar(0, 0, 255), 1);
            }
        }
    }

    return allTriangleVertices;
}

double euclideanDist(Point a, Point b)
{
    Point c = a - b;
    return cv::sqrt(c.x*c.x + c.y*c.y);
}

vector< vector<Point> > groupPointsWithinRadius(vector<Point>& points, double radius)
{
    vector< vector<Point> > clusters;
    vector<Point>::iterator i;
    for(i = points.begin(); i != points.end();)
    {
        vector<Point> subCluster;
        subCluster.push_back(*i);

        vector<Point>::iterator j;
        for(j = points.begin(); j != points.end(); )
        {
            if(j != i &&  euclideanDist(*i, *j) < radius)
            {
                subCluster.push_back(*j);
                j = points.erase(j);
            }
            else
            {
                ++j;
            }
        }

        if(subCluster.size() > 1)
        {
            clusters.push_back(subCluster);
        }

        i = points.erase(i);
    }

    return clusters;
}

Point computeClusterAverage(const vector<Point>& cluster)
{
    Point2d sum;
    vector<Point>::const_iterator point;
    for(point = cluster.begin(); point != cluster.end(); ++point)
    {
        sum.x += point->x;
        sum.y += point->y;
    }

    sum.x /= (double)cluster.size();
    sum.y /= (double)cluster.size();

    return Point(cvRound(sum.x), cvRound(sum.y));
}

void printPointVector(const vector<Point>& points)
{
    vector<Point>::const_iterator point;
    for(point = points.begin(); point != points.end(); ++point)
    {
        cout << "(" << point->x << ", " << point->y << ")";
        if(point + 1 != points.end())
        {
            cout << ", ";
        }
    }
    cout << endl;
}

Я исправил несколько ошибок в моей предыдущей реализации и немного очистил код. Я также тестировал его с различными факторами изменения размера, и он, казалось, работал достаточно хорошо. Тем не менее, после того, как я достиг четверть шкалы, у него начались проблемы с правильным обнаружением треугольников, поэтому это может не сработать для очень маленьких крестов. Кроме того, похоже, что в функции moments есть ошибка, как для некоторых допустимых кластеров, которые он возвращал (-NaN, -NaN). Итак, я считаю, что точность улучшилась. Может потребоваться еще несколько настроек, но в целом я думаю, что это будет хорошей отправной точкой для вас.

Я думаю, что мое обнаружение треугольника будет работать лучше, если черная рамка вокруг треугольников будет немного толще/острее, и если на самих треугольниках будет меньше теней.

Надеюсь, что это поможет!

Ответ 2

Как просто определить автокорреляцию, поскольку у вас есть хороший периодический шаблон в ваших изображениях.

Скажем, у вас есть целевой образ:

enter image description here

И образ шаблона для синхронизации с

enter image description here

Вы можете определить Автокорреляцию обоих:

enter image description hereenter image description here

В обоих случаях вы можете обнаружить пики ACF, как в этом примере enter image description here

Эти пики, которые вы можете сопоставить друг с другом с использованием венгерского алгоритма. Здесь совпадение обозначается белой линией.

enter image description here

Это дает вам набор подходящих 2D-координат, которые, надеюсь, удовлетворяют соотношению:

x = Ax'

Где A - матрица трансформации с масштабированием и вращением. Таким образом, решение этой проблемы дает вам поворот и масштабирование между вашим шаблоном и вашим целевым изображением. Затем перевод может быть установлен через обычную кросс-корреляцию с частично исправленным/исправленным изображением и образцом шаблона.

Ответ 3

Я использовал коммерческий инструмент HexSight (http://www.lmi3d.com/product/hexsight) в прошлом в очень похожем приложении. Мы были очень довольны его производительностью и точностью.

Если вы ищете что-то очень грубое/базовое, вы можете попытаться сопоставить кросс-корреляцию между эталонным изображением и изображением, которое вы смотря на. Альтернатива (именно то, что использует HexSight) заключается в том, чтобы начать с некоторого алгоритма обнаружения границ, прежде чем пытаться найти совпадения с эталонным изображением. В любом случае вы можете следить за некоторыми алгоритмами уточнения, как только у вас будет грубый кандидат. Учитывая, что вы пытаетесь найти определенный тип цели, вы можете применить некоторые эвристики или использовать конкретную цель с помощью настраиваемого алгоритма.

Здесь идея для настраиваемого решения, предполагая, что крестики равномерно распределены по сетке, и изображение не слишком искажено:

  • Суммируйте все строки и столбцы изображения. Это создаст пики между строками и столбцами крестов (белые).
  • Определите поворот изображения путем поиска угла, который максимизирует ширину и амплитуду этих пиков. Вы можете выполнить двойной поиск между +/- максимальным ожидаемым углом.
  • Как только вы определили угол, теперь вы можете использовать осевые линии пиков для определения местоположения зонда. На самом деле у вас будет еще один узкий/меньший пик вокруг центра целей.

В предположениях это должно быть достаточно надежным и точным, поскольку оно использует информацию из всего изображения. Он не будет слишком чувствителен к любым локальным проблемам, он даже будет работать, если цель (или несколько) полностью отсутствует или затенена.

Наличие хорошей оптики и освещения - это предпосылки для получения высококачественных результатов из любой системы. Изображение, которое вы делаете, выглядит не очень хорошо.