glReadPixels сохраняет только снимки экрана размером 1/4

Я работаю над приложением дополненной реальности для клиента. Часть OpenGL и EAGL была сделана в Unity 3D и реализована в виде в моем приложении.

Что мне сейчас нужно, так это кнопка, которая делает снимок экрана с содержимым OpenGL, который является самым задним представлением.

Я попытался написать это сам, но когда я нажимаю кнопку с назначенным IBAction, он сохраняет только 1/4 экрана (нижний левый угол) - хотя и сохраняет его в кадре камеры.

Итак, в принципе, как я могу сохранить весь экран вместо одной четверти?

вот мой код для метода:

-(IBAction)tagBillede:(id)sender
{
    UIImage *outputImage = nil;

    CGRect s = CGRectMake(0, 0, 320, 480);            
    uint8_t *buffer = (uint8_t *) malloc(s.size.width * s.size.height * 4);

    if (!buffer) goto error;

    glReadPixels(0, 0, s.size.width, s.size.height, GL_RGBA, GL_UNSIGNED_BYTE, buffer);    

    CGDataProviderRef ref = CGDataProviderCreateWithData(NULL, buffer, s.size.width * s.size.height * 4, NULL);

    if (!ref) goto error;

    CGImageRef iref = CGImageCreate(s.size.width, s.size.height, 8, 32, s.size.width * 4, CGColorSpaceCreateDeviceRGB(), kCGBitmapByteOrderDefault, ref, NULL, true, kCGRenderingIntentDefault);

    if (!iref) goto error;        

    size_t width = CGImageGetWidth(iref);    
    size_t height = CGImageGetHeight(iref);    
    size_t length = width * height * 4;            
    uint32_t *pixels = (uint32_t *)malloc(length);

    if (!pixels) goto error;

    CGContextRef context = CGBitmapContextCreate(pixels, width, height, 8, width * 4,    
        CGImageGetColorSpace(iref), kCGImageAlphaNoneSkipFirst | kCGBitmapByteOrder32Big);

    if (!context) goto error;            

    CGAffineTransform transform = CGAffineTransformIdentity;    
    transform = CGAffineTransformMakeTranslation(0.0f, height);    
    transform = CGAffineTransformScale(transform, 1.0, -1.0);    
    CGContextConcatCTM(context, transform);            
    CGContextDrawImage(context, CGRectMake(0.0f, 0.0f, width, height), iref);         
    CGImageRef outputRef = CGBitmapContextCreateImage(context);

    if (!outputRef) goto error;

    outputImage = [UIImage imageWithCGImage: outputRef]; 

    if (!outputImage) goto error;    

    CGDataProviderRelease(ref);   
    CGImageRelease(iref);    
    CGContextRelease(context);    
    CGImageRelease(outputRef);
    free(pixels);
    free(buffer);

    UIImageWriteToSavedPhotosAlbum(outputImage, self, @selector(image: didFinishSavingWithError: contextInfo:), nil);
}

3 ответа

Я подозреваю, что вы используете устройство с дисплеем Retina, размером 640x960. Вы должны принять во внимание масштаб экрана; это 1,0 на дисплеях без Retina и 2,0 на дисплеях Retina. Попробуйте инициализировать s как это:

CGFloat scale = UIScreen.mainScreen.scale;
CGRect s = CGRectMake(0, 0, 320 * scale, 480 * scale);            

Если устройство представляет собой устройство с сетчаткой, вам нужно самостоятельно масштабировать OpenGL. Вы на самом деле указываете, что вам нужен левый нижний угол, захватывая только половину ширины и половину высоты.

Вам необходимо удвоить ширину и высоту экрана сетчатки, но на самом деле вы должны умножить его на масштаб экрана:

CGFloat scale = [[UIScreen mainScreen] scale];
CGRect s = CGRectMake(0, 0, 320.0f * scale, 480.0f * scale);

Думал, что я перезвоню и, в то же время, поблагодарить:)

Теперь у меня все работает, как уловка, вот очищенный код:

UIImage *outputImage = nil;

CGFloat scale = [[UIScreen mainScreen] scale];
CGRect s = CGRectMake(0, 0, 320.0f * scale, 480.0f * scale);            
uint8_t *buffer = (uint8_t *) malloc(s.size.width * s.size.height * 4);

glReadPixels(0, 0, s.size.width, s.size.height, GL_RGBA, GL_UNSIGNED_BYTE, buffer);    

CGDataProviderRef ref = CGDataProviderCreateWithData(NULL, buffer, s.size.width * s.size.height * 4, NULL);

CGImageRef iref = CGImageCreate(s.size.width, s.size.height, 8, 32, s.size.width * 4, CGColorSpaceCreateDeviceRGB(), kCGBitmapByteOrderDefault, ref, NULL, true, kCGRenderingIntentDefault);

size_t width = CGImageGetWidth(iref);    
size_t height = CGImageGetHeight(iref);    
size_t length = width * height * 4;            
uint32_t *pixels = (uint32_t *)malloc(length);

CGContextRef context = CGBitmapContextCreate(pixels, width, height, 8, width * 4,    
                                             CGImageGetColorSpace(iref), kCGImageAlphaNoneSkipFirst | kCGBitmapByteOrder32Big);           

CGAffineTransform transform = CGAffineTransformIdentity;    
transform = CGAffineTransformMakeTranslation(0.0f, height);    
transform = CGAffineTransformScale(transform, 1.0, -1.0);    
CGContextConcatCTM(context, transform);            
CGContextDrawImage(context, CGRectMake(0.0f, 0.0f, width, height), iref);         
CGImageRef outputRef = CGBitmapContextCreateImage(context);

outputImage = [UIImage imageWithCGImage: outputRef]; 

CGDataProviderRelease(ref);   
CGImageRelease(iref);    
CGContextRelease(context);    
CGImageRelease(outputRef);
free(pixels);
free(buffer);

UIImageWriteToSavedPhotosAlbum(outputImage, nil, nil, nil);
Другие вопросы по тегам