Описание тега avdepthdata

1 ответ

Карта глубины из AVDepthData отличается от данных глубины файла HEIC в Photoshop

Я использую следующий код для извлечения карты глубины (следуя собственному примеру Apple): - (nullable AVDepthData *)depthDataFromImageData:(nonnull NSData *)imageData orientation:(CGImagePropertyOrientation)orientation { AVDepthData *depthData = n…
13 дек '18 в 01:06
1 ответ

Значение выборки текстуры из пиксельного формата DisparityFloat16 на iOS OpenGLES

Я хочу использовать глубину DataMap в качестве текстуры из камеры iPhoneX истинной глубины в моем проекте OpenGLES. Похоже, что вы скачали несколько образцов Swift, можно создать и опробовать глубину карты как текстуру с плавающей точкой на металле.…
1 ответ

Фильтрация данных по глубине на iOS 12, похоже, повернута

У меня возникла проблема, когда данные глубины для .builtInDualCamera кажется повернутым на 90 градусов, когда isFilteringEnabled = true Вот мой код: fileprivate let session = AVCaptureSession() fileprivate let meta = AVCaptureMetadataOutput() filep…
05 мар '19 в 18:17
1 ответ

Как создать данные глубины и добавить их к изображению?

Извините, я продублировал этот вопрос. Как собрать AVDepthData вручную, потому что у него нет ответов, которые я хочу, и у меня недостаточно представителей, чтобы комментировать там. Если вы не возражаете, я мог бы удалить свой вопрос в будущем и по…
28 май '19 в 11:31
0 ответов

Как собрать AVDepthData вручную

Я хочу построить свою собственную карту глубины и сохранить изображение как портретное фото с информацией о глубине. Итак, в первую очередь мне нужно сгенерировать AVDepthData. После того, как копать, как он построен, я пытаюсь воспроизвести его: fu…
07 мар '19 в 12:19
0 ответов

Как получить данные о глубине из изображений с камеры

Я пишу приложение для получения данных о глубине и несоответствии из снимков, сделанных с камеры. Я могу получить данные о несоответствии, но не данные о глубине, они всегда возвращают ноль. Мне нужно получить информацию о глубине и сохранить ее в ф…
0 ответов

Как получить субпиксельные различия в объектах AVDepthData

Я работаю над быстрым приложением, которое должно измерять физические правильные z-значения человека, стоящего перед статически установленным iPhone 7+. Поэтому я использую объекты AVDepthData, которые содержат карты глубины, поступающие из системы …
26 сен '19 в 18:25
0 ответов

Как получить доступ к файлам SD-карты эмулятора Android на ПК с Windows 10?

Используя эмулятор Andriod, я загрузил несколько файлов из Интернета в браузер Google Chrome. но я не знаю, где он находится на моем компьютере, пожалуйста, помогите мне с этим, вот подробности эмулятора Имя: Nexus_5_API_28 ЦП /ABI: Google X86_ARM P…
0 ответов

Как получить точные расстояния между кадрами изображения в реальном мире с камеры iphone?

Я пытаюсь найти точные расстояния от камеры, чтобы закончить кадр изображения. Я использовал фронтальную камеру iPhone 11. Я щелкнул фотографию с фронтальной камеры в портретном режиме и получил карту глубины, преобразовав ее в KCVPixelformat_type_D…
0 ответов

Как получить реальные расстояния с помощью камер с датчиком глубины в устройствах ios (iphone 11)

Я старался: func grayPixelData() -> [Float32] { CVPixelBufferLockBaseAddress(self, CVPixelBufferLockFlags(rawValue: 0)) let width = CVPixelBufferGetWidth(self) let height = CVPixelBufferGetHeight(self) var pixelData = [Float32](repeating: 0, coun…
0 ответов

Захват данных о глубине из фотографий с помощью AVDepthData в iOS

Я могу делать глубинные фотографии с помощью устройств iPhone. Я имею в виду этот код прямо сейчас guard let source = CGImageSourceCreateWithURL(url as CFURL, nil) else {return nil} let cfAuxDataInfo = CGImageSourceCopyAuxiliaryDataInfoAtIndex( sour…
24 июл '20 в 10:41
0 ответов

Не работает захват глубины для задней камеры iPhone X

Я столкнулся с проблемой, когда isDepthDataDeliveryEnabled неверно для меня на iPhone X и использую .builtInDualCamera. Странно то, что это происходит только на одном конкретном iPhone X. Я тестировал на других iPhone Xs и iPhone 11s, и все работает…
27 дек '19 в 04:37
2 ответа

Что такое черные пиксели в пиксельном буфере карты глубины ARKit?

При получении пиксельного буфера глубины из сеанса ARKit, например: CVPixelBufferRef depthDataMap = frame.capturedDepthData.depthDataMap; многие пиксели черные. Что они собой представляют? Почему они черные? Это не отражает реальной глубины реальног…
0 ответов

Поддерживает ли swift 5 извлечение данных глубины из формата изображения .HEIC?

Недавно я пытался извлечь данные о глубине и данные о матовых эффектах портрета с помощью портретных изображений. Я попытался сделать это с портретными изображениями (формат .HEIC), снятыми на iPhone 11 с iOS 14.3. Но мне не удалось извлечь данные г…
26 мар '21 в 13:42
0 ответов

Есть ли способ сохранить AVDepthData для видео для IOS?

Я пытаюсь создать приложение IOS, которое сохраняет AVDepthData для видео как mp4. Я пробовал использовать AVAssetWriter, но это не сработало (проблема похожа на - https://developer.apple.com/forums/thread/685883). Я намерен сохранить как RGB, так и…
24 авг '21 в 02:03
0 ответов

iOS заменяет фон изображения с помощью depthData

Я смог получить данные о глубине, выполнив следующие действия: AVCaptureDevice *device = [AVCaptureDevice defaultDeviceWithDeviceType:AVCaptureDeviceTypeBuiltInTrueDepthCamera mediaType:AVMediaTypeVideo position:AVCaptureDevicePositionUnspecified]; …
13 дек '21 в 21:44
0 ответов

как установить .isFilteringEnabled для CaptureDepthData сеанса ARFaceTrackingConfiguration?

Я вижу, как вы можете создавать свои собственные сеансы захвата и добавлять к ним свой собственный AVCaptureDepthDataOutput, чтобы у вас был доступ к этому выходному объекту и вы могли установить для него .isFilteringEnabled и .alwaysDiscardsLateDep…
0 ответов

AVFoundation depthData.depthDataMap иногда имеет значение null на iPhone 12 Pro.

Я разработал собственный Camera ViewController, используя библиотеку камер AVFoundation, чтобы получать высококачественные изображения со встроенными данными о глубине, как описано здесь https://developer.apple.com/videos/play/wwdc2017/507/. Для это…
0 ответов

Нежелательное «сглаживание» в AVDepthData на iPhone 13 (не заметно на iPhone 12)

Мы пишем приложение, которое анализирует 3D-данные реального мира с помощью камеры TrueDepth на передней панели iPhone и AVCaptureSession, настроенного для создания AVDepthData вместе с данными изображения. Это отлично работало на iPhone 12, но тот …
0 ответов

Как получить мировые координаты ArKit для текущего кадра

Шаг 1: Я использовал sceneDepth?.depthMap, чтобы получить свою карту глубины (https://developer.apple.com/documentation/arkit/ardepthdata/3566296-depthmap) Шаг 2: я полагался на внутренний параметр камеры, чтобы найти облако точек текущего кадра (ка…
31 янв '23 в 08:42