Apple Vision Framework: обнаруживать улыбки или счастливые лица с помощью наблюдений?

Я работаю над проектом, который использует Vision Framework для обнаружения лиц на изображениях, а затем использует модель CoreML для определения улыбающегося лица. Проблема в том, что файл модели CoreML составляет почти 500 МБ. Я не хочу раздувать свое приложение так сильно.

Поскольку я уже получаю данные наблюдений VNFaceLandmarks2D из платформы Vision, я подумал, что попытаюсь использовать это для обнаружения улыбок.

Кто-нибудь пытался использовать данные VNFaceLandmarks2D из платформы Vision, чтобы определить, счастливое ли лицо или улыбается?

Если да, то как ты это сделал и насколько хорошо это сработало?

Спасибо!

1 ответ

Решение

Одним из решений является использование меньшего файла модели Core ML. Похоже, вы используете модель, основанную на VGGNet. Существует несколько моделей архитектуры гораздо меньшего размера (от 4 до 16 МБ), которые имеют ту же точность, что и VGGNet, и поэтому лучше подходят для использования на мобильных устройствах.

Это лучше, мало, быстро, приятно:

Обнаружение CIFaceFeature позволяет обнаруживать закрытые глаза и улыбки. https://developer.apple.com/documentation/coreimage/cifacefeature

Другие вопросы по тегам