Используя AVAudioSession на iOS, как я могу прочитать образцы аудио с микрофона в режиме реального времени?
Apple отвергла все API Audio Session C в iOS 7, поэтому весь подход известного примера кода Apple AurioTouch для обработки звука в реальном времени больше не является полезным.
Поэтому мне интересно, как я должен продолжать анализировать аудиоданные в режиме реального времени. Я смотрел видео WWDC за 2013 год, и там говорят, что AVAudioSession имеет возможность сделать это, но, видимо, они просмотрели его только в своих лабораториях!!
Любая помощь будет высоко оценена. Большое спасибо!