Захват данных о глубине из фотографий с помощью AVDepthData в iOS

Я могу делать глубинные фотографии с помощью устройств iPhone. Я имею в виду этот код прямо сейчас

guard let source = CGImageSourceCreateWithURL(url as CFURL, nil) else {return nil}

let cfAuxDataInfo = CGImageSourceCopyAuxiliaryDataInfoAtIndex(
  source,
  0,
  kCGImageAuxiliaryDataTypeDisparity
)

guard let auxDataInfo = cfAuxDataInfo as? [AnyHashable : Any] else {
  return nil
}

let cfProperties = CGImageSourceCopyPropertiesAtIndex(source, 0, nil)
guard
  let properties = cfProperties as? [CFString: Any],
  let orientationValue = properties[kCGImagePropertyOrientation] as? UInt32,
  let orientation = CGImagePropertyOrientation(rawValue: orientationValue)
  else {
    return nil
}

guard var depthData = try? AVDepthData(
  fromDictionaryRepresentation: auxDataInfo
) else {
  return nil
}

if depthData.depthDataType != kCVPixelFormatType_DisparityFloat32 {
  depthData = depthData.converting(toDepthDataType: kCVPixelFormatType_DisparityFloat32)
}

"cfAuxDataInfo" предоставляет данные строк в шестнадцатеричном формате, и теперь я не понимаю, как использовать их в некоторых форматах для чтения и передавать их нашему серверу?

Кто-нибудь может мне в этом помочь?

0 ответов

Другие вопросы по тегам