Недавно Apple добавила новую константу в класс CIDetector
под названием CIDetectorTracking
, который, как представляется, способен отслеживать лица между кадрами в видео. Это было бы очень полезно для меня, если бы мне удалось выяснить, как это работает.
Я попытался добавить этот ключ в словарь параметров детектора, используя каждый объект, который, как я могу думать, имеет отдаленное отношение, включая мой экземпляр AVCaptureStillImageOutput, UIImage, над которым я работаю, YES, 1 и т.д.
NSDictionary *detectorOptions = [[NSDictionary alloc] initWithObjectsAndKeys:CIDetectorAccuracyHigh, CIDetectorAccuracy,myAVCaptureStillImageOutput,CIDetectorTracking, nil];
Но независимо от того, какой параметр я пытаюсь передать, он либо сбой (очевидно, я угадываю его здесь), либо выходы отладчика:
Указана неизвестная CIDetectorTracking. Не обращая внимания.
Обычно, я бы не догадывался об этом, но ресурсов по этой теме практически не существует. Ссылка на класс Apple:
Ключ, используемый для включения или отключения отслеживания лица для детектора. использование эта опция, когда вы хотите отслеживать лица по кадрам в видео.
Помимо доступности - iOS 6+ и OS X 10.8+, это.
Комментарии внутри CIDetector.h
:
/* Ключ в словаре опций, используемый для указания этой функции следует использовать отслеживание. */
Если это не так плохо, поиск Google содержит 7 результатов (8, когда они находят это сообщение), все из которых являются ссылками класса Apple, API diffs, сообщение SO, спрашивающее, как это сделать в iOS 5, или сторонние копии первого.
Все, что сказано, любые советы или подсказки для правильного использования CIDetectorTracking
были бы с благодарностью!