Чтение метаданных в прямом эфире в Apple HTTP Live Streaming

В мире Flash существует концепция объектов, представляющих живое потоковое соединение и поток (NetConnection и NetStream). Несмотря на то, что Flash API эти объекты можно использовать для ввода текстовых метаданных в живой поток (NetStream.send()). Затем эти данные можно прослушивать на стороне просмотра в приложении для просмотра Flash с прослушивателями в коде ActionScript. Вы можете передавать вызовы функций через видеопоток, прослушивать их и выполнять на стороне клиента.

Существует ли эта концепция в сфере Apple HTTP Live Streaming?

1 ответ

Да, метаданные генерируются в файл id3taggeneratorи встроенный в видео с помощью mediafilesegmenterоба они включены в скачивание HTTP Live Streaming Tools. Пример:

id3taggenerator -o camera1.id3 -text "Dolly camera"
id3taggenerator -o camera2.id3 -text "Tracking camera"

Существует несколько видов метаданных, которые вы можете встраивать, включая двоичные объекты. Обратитесь к странице справочника для деталей. Теперь нам нужно сослаться на сгенерированный файл из "мета-макрофайла". Это простой текстовый файл в следующем формате:

60 id3 camera1.id3
120 id3 camera2.id3

Первое число - это секунды, прошедшие с начала видео, в которое вы хотите вставить уведомление. Я точно не помню команду mediafilesegmenter, нужно передать хотя бы файл макроса, индекс и видеофайл.

Полученное видео содержит метаданные, которые публикуются MPMoviePlayerController как уведомления. Подробности смотрите на этой странице: http://jmacmullin.wordpress.com/2010/11/03/adding-meta-data-to-video-in-ios/

Другие вопросы по тегам