Я пытаюсь реплицировать этот размытый фон из Apple, публично выпущенного экрана примера iOS 7:
Этот вопрос предлагает применить фильтр CI к содержанию ниже, но это совершенно другой подход. Очевидно, что iOS 7 не учитывает содержание нижеприведенных представлений по многим причинам:
- Выполнение грубого тестирования, снятие скриншота из приведенных ниже представлений и применение фильтра CIGaussianBlur с достаточно большим радиусом для имитации стирания iOS 7 размытия занимает 1-2 секунды даже на симуляторе.
- Взгляд размытия iOS 7 способен размывать динамические представления, такие как видео или анимации, без заметного запаздывания.
Кто-нибудь может предположить, какие рамки они могут использовать для создания этого эффекта, и если можно создать аналогичный эффект с текущими общедоступными API?
Изменить: (из комментария) Мы точно не знаем, как Apple это делает, но есть ли какие-либо базовые предположения, которые мы можем сделать? Мы можем предположить, что они используют аппаратное обеспечение, верно?
Является ли эффект самодостаточным в каждом представлении, так что эффект фактически не знает, что за ним? Или, в зависимости от того, как работает размытие, следует учитывать содержание за размытием?
Если содержание, лежащее в основе эффекта, актуально, можем ли мы предположить, что Apple получает "фид" нижеприведенного содержания и непрерывно визуализирует их с размытием?