В настоящее время я создаю автоматическую обработку синхронизации между видеодорожкой (исходящей от камеры) и звуковыми дорожками (исходящими от микрофона). Для этого я планирую создать небольшое веб-приложение, которое отобразит clapper со своим смартфоном (Ex: Iphone) и испустит определенный бит, когда я буду сниматься. После этого я выполню небольшое приложение OpenCV (JavaCV на самом деле), которое обнаружит изображение, на котором мой смартфон отобразил clapper. Мне остается только найти конкретный бип для синхронизации двух дорожек.
Здесь вы можете увидеть (http://vimeo.com/47002882) и здесь (http://vimeo.com/46213073) видео, которые мы уже построены и синхронизированы вручную. Основываясь на этом контексте (расстояние, освещение и т.д. Предыдущих видео) Что для вас, лучшая вещь (форма, цвет или другое), которые можно обнаружить почти все время? И какую трансформацию я должен использовать?
Вы должны представить себе, что я покажу вам clapper с моего смартфона с камерой, которая будет помещена в пять-семь метров от меня.
Я построил первый базовый clapper (http://jsbin.com/zuqumiso/45/) и использовал обработку видео с помощью OpenCV следующим образом:
Кадр → преобразование RGB в GREY → GaussianBlur → AdaptativeThreshold → Преобразование Hought (стандартное) для обнаружения строк.
Но он эффективен только тогда, когда мой смартфон находится на расстоянии тридцати сантиметров от камеры...