Захват данных о глубине из фотографий с помощью AVDepthData в iOS
Я могу делать глубинные фотографии с помощью устройств iPhone. Я имею в виду этот код прямо сейчас
guard let source = CGImageSourceCreateWithURL(url as CFURL, nil) else {return nil}
let cfAuxDataInfo = CGImageSourceCopyAuxiliaryDataInfoAtIndex(
source,
0,
kCGImageAuxiliaryDataTypeDisparity
)
guard let auxDataInfo = cfAuxDataInfo as? [AnyHashable : Any] else {
return nil
}
let cfProperties = CGImageSourceCopyPropertiesAtIndex(source, 0, nil)
guard
let properties = cfProperties as? [CFString: Any],
let orientationValue = properties[kCGImagePropertyOrientation] as? UInt32,
let orientation = CGImagePropertyOrientation(rawValue: orientationValue)
else {
return nil
}
guard var depthData = try? AVDepthData(
fromDictionaryRepresentation: auxDataInfo
) else {
return nil
}
if depthData.depthDataType != kCVPixelFormatType_DisparityFloat32 {
depthData = depthData.converting(toDepthDataType: kCVPixelFormatType_DisparityFloat32)
}
"cfAuxDataInfo" предоставляет данные строк в шестнадцатеричном формате, и теперь я не понимаю, как использовать их в некоторых форматах для чтения и передавать их нашему серверу?
Кто-нибудь может мне в этом помочь?