Чтение метаданных в прямом эфире в Apple HTTP Live Streaming
В мире Flash существует концепция объектов, представляющих живое потоковое соединение и поток (NetConnection и NetStream). Несмотря на то, что Flash API эти объекты можно использовать для ввода текстовых метаданных в живой поток (NetStream.send()). Затем эти данные можно прослушивать на стороне просмотра в приложении для просмотра Flash с прослушивателями в коде ActionScript. Вы можете передавать вызовы функций через видеопоток, прослушивать их и выполнять на стороне клиента.
Существует ли эта концепция в сфере Apple HTTP Live Streaming?
1 ответ
Да, метаданные генерируются в файл id3taggenerator
и встроенный в видео с помощью mediafilesegmenter
оба они включены в скачивание HTTP Live Streaming Tools. Пример:
id3taggenerator -o camera1.id3 -text "Dolly camera"
id3taggenerator -o camera2.id3 -text "Tracking camera"
Существует несколько видов метаданных, которые вы можете встраивать, включая двоичные объекты. Обратитесь к странице справочника для деталей. Теперь нам нужно сослаться на сгенерированный файл из "мета-макрофайла". Это простой текстовый файл в следующем формате:
60 id3 camera1.id3
120 id3 camera2.id3
Первое число - это секунды, прошедшие с начала видео, в которое вы хотите вставить уведомление. Я точно не помню команду mediafilesegmenter, нужно передать хотя бы файл макроса, индекс и видеофайл.
Полученное видео содержит метаданные, которые публикуются MPMoviePlayerController
как уведомления. Подробности смотрите на этой странице: http://jmacmullin.wordpress.com/2010/11/03/adding-meta-data-to-video-in-ios/