Обнаружение нескольких настраиваемых объектов (обработка изображений) из заданного изображения в iOS
Я хотел бы, чтобы пользовательские объекты обнаруживались с его рамкой.
Я проверил это, я получал много реализаций ARKit - используя это, мы можем получать обнаружение живых объектов (то есть использовать входной поток в качестве потока камеры), но мое требование - получить его из заданного / статического изображения.
Я нашел последние рекомендации / образцы iOS, используя камеру в качестве входного потока, который обеспечивает классификацию или обнаружение прямоугольника или лица и т. Д.
Моя проблема в том, что мне нужно получить его из заданного изображения с несколькими настраиваемыми объектами.
Например, мне нужно определить часы на данном изображении (изображение стены с несколькими часами разных типов), здесь я могу предоставить образцы изображений часов. Итак, мне нужно получить идентифицированные часы с его рамкой.
Я проверил использование Vision VNImageBasedRequest с классификацией объектов, в которой я могу получать классификации с помощью настраиваемой обученной модели CoreML, но не удается получить свойство boundingBox для получения кадров, которое доступно в VNDetectedObjectObservation.
Заранее благодарим за ваше драгоценное время и ответ.
1 ответ
Вы можете сделать это с помощью Google Cloud AutoML Vision Object Detection. Если вы хотите обнаруживать настраиваемые объекты, вам необходимо создать собственный набор данных настраиваемой модели и обучить его. После обучения модели вы можете разместить ее в облаке и выполнить вызов API из приложения iOS для обнаружения объектов на статическом изображении (онлайн) или добавить обученную модель в свой проект для обнаружения объектов из изображения (вавтономном режиме).). Вы можете найти полную документацию здесь https://cloud.google.com/vision/automl/object-detection/docs/before-you-begin
Если вы можете сделать это каким-либо другим способом, дайте мне знать, как это сделать, даже если я работаю над аналогичным вариантом использования.