Временные метаданные в AAC+ потоковая передача HTTP только по аудио (HLS)
При создании прямого / непрерывного аудиопотока через HTTP Live Streaming (HLS) от Apple все еще можно использовать синхронизированные метаданные?
Я понимаю, что с видео вы используете теги ID3 и смешиваете их с транспортным потоком MPEG-2, но я также понимаю, что для аудио только TS - неправильный путь.
Какова правильная методология включения синхронизированных метаданных в непрерывный поток HLS только в режиме реального времени?