Построение памяти iOS при создании UIImage из CMSampleBufferRef
Я создаю UIImage
объекты из CMSampleBufferRef
"S. Я делаю это в отдельной очереди (в фоновом режиме), поэтому я включаю обработку в @autorealease
бассейн. Проблема в том, что память накапливается без какого-либо уведомления об утечке. Ниже приводится метод, который я использую:
- (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer
{
@autoreleasepool {
// Get a CMSampleBuffer's Core Video image buffer for the media data
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
// Lock the base address of the pixel buffer
CVPixelBufferLockBaseAddress(imageBuffer, 0);
// Get the number of bytes per row for the pixel buffer
void *baseAddress = CVPixelBufferGetBaseAddress(imageBuffer);
// Get the number of bytes per row for the pixel buffer
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
// Get the pixel buffer width and height
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
// Create a device-dependent RGB color space
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
// Create a bitmap graphics context with the sample buffer data
CGContextRef context = CGBitmapContextCreate(baseAddress, width, height, 8,
bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
// Create a Quartz image from the pixel data in the bitmap graphics context
CGImageRef quartzImage = CGBitmapContextCreateImage(context);
// Unlock the pixel buffer
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [[UIImage imageWithCGImage:quartzImage] retain];
// Release the Quartz image
CGImageRelease(quartzImage);
return (image);
}
}
И вот как я это использую:
- (void)captureOutput:(AVCaptureOutput *)captureOutput
didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer
fromConnection:(AVCaptureConnection *)connection {
CFRetain(sampleBuffer);
dispatch_async(movieWritingQueue, ^{
@autoreleasepool {
if (self.returnCapturedImages && captureOutput != audioOutput) {
UIImage *capturedImage = [self imageFromSampleBuffer: sampleBuffer];
dispatch_async(callbackQueue, ^{
@autoreleasepool {
if (self.delegate && [self.delegate respondsToSelector: @selector(recorderCapturedImage:)]) {
[self.delegate recorderCapturedImage: capturedImage];
}
[capturedImage release];
}
});
}
CFRelease(sampleBuffer);
}
});
2 ответа
Решение
Я нашел временное решение. Я делаю те же операции, но в основной очереди. Это совсем не элегантно и не эффективно, но, по крайней мере, память больше не накапливается.
Мне интересно, если это ошибка iOS...?
ОБНОВЛЕНИЕ: Вот как я обрабатываю CMSampleBuffers в основном потоке:
[[NSOperationQueue mainQueue] addOperationWithBlock:^ {
CGImageRef cgImage = [self cgImageFromSampleBuffer:sampleBuffer];
UIImage *capturedImage = [UIImage imageWithCGImage: cgImage ];
//do something with the image - I suggest in a background thread
dispatch_async(dispatch_get_global_queue(DISPATCH_QUEUE_PRIORITY_DEFAULT, 0), ^{
// do something with the image
});
CGImageRelease( cgImage );
CFRelease(sampleBuffer);
}];
- (CGImageRef) cgImageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer
{
CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);
CVPixelBufferLockBaseAddress(imageBuffer,0); // Lock the image buffer
uint8_t *baseAddress = (uint8_t *)CVPixelBufferGetBaseAddressOfPlane(imageBuffer, 0); // Get information of the image
size_t bytesPerRow = CVPixelBufferGetBytesPerRow(imageBuffer);
size_t width = CVPixelBufferGetWidth(imageBuffer);
size_t height = CVPixelBufferGetHeight(imageBuffer);
CGColorSpaceRef colorSpace = CGColorSpaceCreateDeviceRGB();
CGContextRef newContext = CGBitmapContextCreate(baseAddress, width, height, 8, bytesPerRow, colorSpace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst);
CGImageRef newImage = CGBitmapContextCreateImage(newContext);
CGContextRelease(newContext);
CGColorSpaceRelease(colorSpace);
CVPixelBufferUnlockBaseAddress(imageBuffer,0);
/* CVBufferRelease(imageBuffer); */ // do not call this!
return newImage;
}
У меня на самом деле была похожая проблема несколько дней назад...
Вы уже отпускаете свой CMSampleBufferRef
, но также попробуйте выпустить CVPixelBufferRef
Пример:
- (UIImage *) imageFromSampleBuffer:(CMSampleBufferRef) sampleBuffer
{
@autoreleasepool {
// ...
// Free up the context and color space
CGContextRelease(context);
CGColorSpaceRelease(colorSpace);
// Create an image object from the Quartz image
UIImage *image = [[UIImage imageWithCGImage:quartzImage] retain];
// Release the Quartz image
CGImageRelease(quartzImage);
CVPixelBufferRelease(imageBuffer); <-- release your pixel buffer
return (image);
}
}