Не так давно, когда я был на ужине, кто-то спросил, чем я зарабатываю деньги. Мне показалось, что я очень хорошо описал индустрию Pro AV и работу Alliance for IP Media Solutions (AIMS) по разработке и продвижению открытого стандарта IPMX для AV по IP. Но когда я закончил отвечать, стало ясно, что я потерпел неудачу, потому что следующим вопросом был: "Так чем же это отличается от видео на YouTube?".
Это был скромный ответ, в основном из-за отсутствия быстрого ответа. Чем IP-аудио и видео, с которыми мы работаем, отличаются от видеосистем, которыми мы пользуемся каждый день, через Интернет? Это качество? В том, что мы используем их на работе? Тем, что наши системы обычно устанавливают профессионалы? Казалось, что эти ответы станут неактуальными или устаревшими к тому времени, когда придет наш десерт.
Есть много вещей, которые отделяют индустрию Pro AV от более широкого мира медиа в Интернете, но после размышлений об этом, одна вещь, которая выделяется для меня - это время. В отличие от Интернета, который имеет дело с контентом через Интернет, люди в мире вещания и Pro AV имеют дело с контентом, изменяющимся во времени, которое также может проходить через Интернет.
В то время как в Интернете задержка измеряется в секундах, нам нужны миллисекунды для измерения приемлемой задержки между источником видео и дисплеем. Когда мы увеличиваем изображение 4K до размеров пятиэтажного здания, небольшие отклонения в задержке могут вызвать разрывы между плитками, которые будут выглядеть уродливо в огромном масштабе. Когда зрители слышат живое выступление из динамиков в зале, звук должен быть выровнен с точностью до наносекунды для каждого из этих динамиков, иначе он будет звучать ужасно.
При вещании по стандарту SMPTE ST 2110 каждый источник синхронизируется и привязывается к PTP-гроссмейстеру, так что задержки системы могут быть обоснованы и сведены к минимуму. Для таких живых постановок требуется, чтобы каждая камера показывала один и тот же фрагмент реальности точно в одно и то же время, чтобы производственные коммутаторы могли беспрепятственно смешивать источники. Кроме того, эти ограничения позволяют режиссеру видеть результаты в реальном времени, когда он управляет своим коммутатором, без необходимости мысленно учитывать задержку при переключении камер в такт музыке или течению разговора.
Цель IPMX - обеспечить производительность, необходимую миру Pro AV для любого применения аудио и видео, включая живое производство и презентационные рабочие процессы, и сделать это в реальном мире, где обучение, оборудование и бюджеты не всегда оптимизированы для успеха. Нам нужно, чтобы видео достигало субкадровой задержки, даже если у нас нет гроссмейстера PTP. Нам нужно подключить наши ноутбуки, даже если они не умеют работать с опорной синхронизацией.
Чтобы воплотить эти требования в жизнь, IPMX включает дополнительные спецификации для поддержки широкого спектра сценариев системной синхронизации:
1: Синхронные источники с фиксацией PTP: задержка субкадра, бесшовное переключение, дополнительная буферизация и обработка на источнике, если устройство не может синхронизироваться с внешними часами. Это также описывает SMPTE ST 2110.
2: Асинхронные источники с синхронизацией PTP в качестве эталона: Задержка субкадра, нет бесшовного переключения, но устройства могут понимать, когда каждый кадр появился во времени относительно друг друга, так что они могут быть повторно выровнены на приемнике.
3: Асинхронные источники без синхронизации PTP: Задержка субкадра и быстрое восстановление при переключении между источниками, но выравнивание невозможно.
Как IPMX осуществляет такое волшебство? Путем установления правил для устройств и предоставления контроллеру системы того, что ему необходимо для рассуждений о задержках между отправителями и получателями. В IPMX каждый отправитель (источник контента в системе) передает отчет отправителя RTCP (управляющий пакет для потоков RTP) для каждого кадра видео и для каждых 10 миллисекунд аудио. Этот отчет содержит соотношение между медиа-часами, которые всегда следуют точной скорости передачи контента, и вторыми эталонными часами. Если PTP доступен, то каждое устройство должно использовать его в качестве второго опорного генератора, независимо от того, можно ли синхронизировать видео. В противном случае пакеты RTCP ссылаются на часы, которые являются внутренними для отправляющего устройства.
Когда носитель синхронизирован с PTP, часы носителя и опорные часы PTP будут идти с одинаковой скоростью. В противном случае приемник может использовать эту информацию, чтобы определить, когда были созданы различные кадры из разных источников. Когда PTP нет, ничего нельзя сказать о выравнивании, но приемники все равно могут использовать эту информацию для быстрой регенерации часов на приемнике, сокращая время восстановления на дисплее при переключении источников.
В результате, задержка субкадра может быть достигнута без PTP-часов, а синхронный контент может быть смешан с асинхронным, при условии, что устройства системы могут обрабатывать буферизацию и обработку, необходимую для выравнивания. Короче говоря, дорогие, дешевые, хорошо спроектированные и специальные аудиовизуальные системы могут работать на пике своего потенциала независимо от того, производят ли они контент или представляют его.
Сделать что-то простое и гибкое очень сложно, но инженеры, работающие над IPMX, сделали именно это. Они создали единую совместимую технологию, способную поддерживать AV-транспорт для широкого спектра устройств и приложений, так что у нас наконец-то появится открытый стандарт AV over IP, способный заменить устаревший базовый транспорт, который определял нашу отрасль с самого начала.
И это определенно повод для размышлений.