В части 2 MPEG-4 были некоторые удивительные концепции движения лица и тела, но они исчезли в MPEG-4 Part 10 (H.264). Зачем?

В течение последних нескольких недель у меня была возможность прочитать два документа:

  • Спецификация MPEG-4 Part 2 (ISO/IEC 14496-2), которую люди просто называют "mpeg-4"
  • Спецификация MPEG-4 Part 10 (ISO/IEC 14496-10), которая также называется "h.264" или "AVC"

После того, как я прочитал все интересные идеи в "mpeg-4", такие как определение выражения лица, движение конечностей людей и спрайты, я действительно взволновался. Идеи звучат очень весело, может быть, даже фантастически, для идеи с 1999 года.

Но затем я прочитал стандарт "h.264", и ни одна из этих идей не была там. Было много дискуссий о том, как кодировать пиксели, но ни одна из действительно классных идей.

Что случилось? Почему эти идеи были удалены?

Это не вопрос кода, но, как программист, я чувствую, что я должен попытаться понять, насколько это важно для спецификации. Если код, который я пишу, придерживается духа, в котором должна была использоваться спецификация, он скорее всего будет позиционировать, чтобы использовать всю спецификацию.

Ответ 1

Похоже, вы утверждаете, что спецификация MPEG-4 Part 10 улучшается в части 2 MPEG-4, в то время как факт состоит в том, что эти две спецификации не связаны друг с другом, не имеют ничего общего и даже разработаны разными людьми (MPEG разработали спецификацию Part 2, в то время как ITU-T, ISO, IEC и MPEG вместе разработали спецификацию части 10).

Имейте в виду, что стандарт ISO/IEC 14496 представляет собой набор спецификаций, которые применяются к различным аспектам аудиовизуального кодирования. Цель спецификации Part 2 - кодировать различные виды визуальных объектов (видео, 3D-объекты и т.д.). Цель части 10 - обеспечить очень эффективное и качественное кодирование видео. Другие части стандарта относятся к другим аспектам, например, спецификация части 3 относится к кодированию аудио, а части 12 и 15 определяют формат файла контейнера, который наиболее обычно используется для обертывания видеоролика части 10 (то есть H.264) и части 3 аудио (т.е. AAC) в один файл, так называемый формат .mp4.

Надеюсь, это поможет!

Ответ 2

Немного истории может помочь.

MPEG-4 был разработан как спецификация несущей/контейнера для различных типов передачи данных, связанных с медиа. Чтобы быть совместимым, устройству приходилось распознавать и игнорировать контент.

Это была реакция на короткое время жизни спецификаций MPEG-1, которые были устаревшими до их формализации.

MPEG-4 можно разделить на

механизмы для транспорта данных генерации изображений

К ним относятся такие очевидные вещи, как

  • сжатие
  • компенсация движения и явные спрайты

Эксперимент, такой как

  • Транспортировка и восстановление 3D и 3D + данных времени с изображения поток (видео) для обеспечения сжатия и расширения функций.

Механизмы адаптации скорости

В 1999 году был  битные скорости от 128 КБ до 1000 Мбит/с/WAN, а спецификация была  многие особые случаи и усилия по обеспечению интероперабельности.

Это привело к большой работе комитета, которая стала излишней, поскольку сеть  диапазон производительности сужается до минимумов/максимумов от 1 Мбит до 100 Мбит.

Изначально каждая спецификация под солнцем и некоторые еще в сознании создателей были привязаны к среде MPEG-4, за исключением конкурирующих спецификаций, таких как H.264.

Некоторые из спецификаций исчезли из-за того, что деньги выросли в результате краха dot.com, а H.264 и другие слились в MPEG4.

Одна вещь, которую я узнал из этого, - это чтение спецификации без хотя бы примерной реализации, в то время как часто интересная редко бывает продуктивной.

Я думаю, "использование источника Luke" может применяться

или

"Характеристики плохого вкуса без источника".