Сегментация переднего плана камеры TrueDepth, улучшая результат маски
Я проверяю проект Apple, который демонстрирует, как отделить человека от фона с помощью фронтальной камеры TrueDepth. Вы можете увидеть это здесь:
Это работает довольно хорошо, однако иногда, если я поворачиваю свое лицо, карта глубины теряет некоторые точки данных и обрезает части моего лица и уха. Вы можете увидеть этот пример здесь: https://streamable.com/cstex
У кого-нибудь есть идеи как это улучшить? Объект AVPortraitEffectsMatte идеально подходит, если вы используете AVCapturePhotoOutput
Однако он не подходит для видео в реальном времени, так как время обработки слишком велико для обновления кадров.
Я заметил, что приложение Clips от Apple дает отличные результаты и не обрезает мне ни лицо, ни уши, а обеспечивает хорошую частоту кадров: https://streamable.com/5n96h Поскольку их приложение не теряет деталей, оно не должно полагаться исключительно на глубине данных. ИЛИ, они проводят свои данные глубины через модель, чтобы улучшить ее (возможно, аналогично проприетарной модели, которую они используют для генерации AVPortraitEffectsMatte)
Есть идеи, как получить похожий результат или как они его достигли?