Поверните CMSampleBuffer на произвольный угол и добавьте к AVAssetWriterInput в быстром 3

Я конвертирую буфер образца в CGContext, Затем я применяю преобразование к контексту и создаю CIImage от того, что в свою очередь отображается в UIImageView,

В то же время я хочу добавить это к AVAssetWriterInput создать фильм об этих превращениях.

Пока что преобразования, которые я применяю к контексту, не имеют никакого эффекта. Когда я отображаю так называемое преобразованное изображение в окне просмотра изображений. это выглядит точно так же.

ОБНОВЛЕНИЕ: мне удалось записать пример буфера в видеофайл (он все еще растянут из-за неправильной ориентации). Я использовал этот код в качестве основы

http://geek-is-stupid.github.io/blog/2017/04/13/how-to-record-detect-face-overlay-video-at-real-time-using-swift/

Но я все еще борюсь с применением поворота к CGContext. в основном все, что я делаю с контекстом, полностью игнорируется.

func captureOutput(_ captureOutput: AVCaptureOutput!, didOutputSampleBuffer sampleBuffer: CMSampleBuffer!, from connection: AVCaptureConnection!) {

        let writable = canWrite()
        if writable , sessionAtSourceTime == nil {
                print("starting session")
                sessionAtSourceTime = CMSampleBufferGetPresentationTimeStamp(sampleBuffer)
                assetWriter!.startSession(atSourceTime: sessionAtSourceTime!)
            }

        let pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer)!
        if writable {
            autoreleasepool {
                CVPixelBufferLockBaseAddress(pixelBuffer, CVPixelBufferLockFlags(rawValue: 0))
                var renderedOutputPixelBuffer: CVPixelBuffer? = nil
                let options = [
                    kCVPixelBufferCGImageCompatibilityKey as String: true,
                    kCVPixelBufferCGBitmapContextCompatibilityKey as String: true,] as CFDictionary
                let status = CVPixelBufferCreate(kCFAllocatorDefault,
                                                 CVPixelBufferGetWidth(pixelBuffer),
                                                 CVPixelBufferGetHeight(pixelBuffer),
                                                 kCVPixelFormatType_32BGRA, options,
                                                 &renderedOutputPixelBuffer)
                guard status == kCVReturnSuccess else { return }

                CVPixelBufferLockBaseAddress(renderedOutputPixelBuffer!,CVPixelBufferLockFlags(rawValue: 0))

                let renderedOutputPixelBufferBaseAddress = CVPixelBufferGetBaseAddress(renderedOutputPixelBuffer!)

                memcpy(renderedOutputPixelBufferBaseAddress,CVPixelBufferGetBaseAddress(pixelBuffer),CVPixelBufferGetHeight(pixelBuffer) * CVPixelBufferGetBytesPerRow(pixelBuffer))

                CVPixelBufferLockBaseAddress(renderedOutputPixelBuffer!, CVPixelBufferLockFlags(rawValue: 0))

                let context = CGContext(data: renderedOutputPixelBufferBaseAddress,
                                        width: CVPixelBufferGetWidth(renderedOutputPixelBuffer!),
                                        height: CVPixelBufferGetHeight(renderedOutputPixelBuffer!),
                                        bitsPerComponent: 8,
                                        bytesPerRow: CVPixelBufferGetBytesPerRow(renderedOutputPixelBuffer!),
                                        space: CGColorSpaceCreateDeviceRGB(),
                                        bitmapInfo: bitmapInfo!)


                let radians : Float = atan2f(Float(boxView!.transform.b), Float(boxView!.transform.a));
                context!.translateBy(x: self.view.frame.size.width/2, y: self.view.frame.size.height/2)
                context!.rotate(by:CGFloat(radians))

                let image: CGImage = context!.makeImage()!

                self.imageView!.image = UIImage(cgImage: image)

                if (bufferAdaptor?.assetWriterInput.isReadyForMoreMediaData)!, canWrite() {
                   bufferAdaptor?.append(renderedOutputPixelBuffer!, withPresentationTime: CMSampleBufferGetPresentationTimeStamp(sampleBuffer))
                }

            CVPixelBufferUnlockBaseAddress(renderedOutputPixelBuffer!,CVPixelBufferLockFlags(rawValue: 0))
            CVPixelBufferUnlockBaseAddress(pixelBuffer,CVPixelBufferLockFlags(rawValue: 0))
        } 
    }

1 ответ

Решение

Нашел решение. Ниже важная часть кода.

   //create pixelbuffer from the delegate method samplebuffer
   let pixelBuffer = CMSampleBufferGetImageBuffer(sampleBuffer)!
   CVPixelBufferLockBaseAddress(pixelBuffer, CVPixelBufferLockFlags(rawValue: 0))
   //create CI image from the buffer
   let ci = CIImage.init(cvPixelBuffer: pixelBuffer, options: options)
   //create filter to rotate
   let filter = CIFilter.init(name: "CIAffineTransform")
   //create transform, move rotation point to center             
   var transform = CGAffineTransform(translationX: self.view.frame.midX, y: self.view.frame.midY)
   //rotate it
   transform = transform.rotate(angle: CGFloat(radians))
   // move the transform point back to the original
   transform = transform.translatedBy(x: -self.view.frame.midX, y: -self.view.frame.midY)

   filter!.setValue(transform, forKey: kCIInputTransformKey)
   filter!.setValue(ci, forKey: kCIInputImageKey)
   //take the output from the filter
   let output = filter?.outputImage
   //create empty pixelbuffer
   var newPixelBuffer : CVPixelBuffer? = nil

   CVPixelBufferCreate(kCFAllocatorDefault, Int(self.view.frame.width) ,
                                    Int(self.view.frame.height),
                                    kCVPixelFormatType_32BGRA,
                                    nil,
                                    &newPixelBuffer)
   //render the context to the new pixelbuffer, context is a global
   //CIContext variable. creating a new one each frame is too CPU intensive             
   context.render(output!, to: newPixelBuffer!)

   //finally, write this to the pixelbufferadaptor             
   if (bufferAdaptor?.assetWriterInput.isReadyForMoreMediaData)!, canWrite() {
       bufferAdaptor?.append(newPixelBuffer!, 
                      withPresentationTime: CMSampleBufferGetPresentationTimeStamp(sampleBuffer))

      }

   CVPixelBufferUnlockBaseAddress(pixelBuffer,CVPixelBufferLockFlags(rawValue: 0))
Другие вопросы по тегам