Я пытаюсь реализовать автоматическую коррекцию перспективы в моей программе iOS, и когда я использую тестовое изображение, которое я нашел в учебнике, все работает так, как ожидалось. Но когда я делаю снимок, я получаю странный результат.
Я использую код, найденный в этом tutorial
Когда я даю ему изображение, которое выглядит так:

Я получаю это как результат:

Вот что мне может помочь dst.

Я использую это для вызова метода, который содержит код.
quadSegmentation(Img, bw, dst, quad);
Может ли кто-нибудь сказать мне, когда я получаю так много зеленых линий по сравнению с учебником? И как я могу исправить это и правильно обрезать изображение, чтобы содержать только карту?



