2017-01-02 9 views
2

Я использую библиотечную функцию GPUImage для управления высотой и шириной CVPixelbuffer. Я записываю видео в портрете, и когда пользователь поворачивает устройство, мой экран настраивается в ландшафтном режиме. Я хочу, чтобы рамка ландшафта была аспектна, соответствующая экрану.Манипуляция CVPixelBufferRef Высота и ширина

Например: - Я запускаю видео в режиме Portrait 320x568, и когда я поворачиваю свое устройство к пейзажу, мой кадр имеет размер 568x320, который я хочу поместить в 320x568. Чтобы настроить эту вещь, я решил манипулировать CVPixelBuffer. Но это есть много памяти, и в конце мое приложение падает.

- (CVPixelBufferRef) GPUImageCreateResizedSampleBufferWithBuffer:(CVPixelBufferRef)cameraFrame withBuffer:(CGSize)finalSize withSampleBuffer:(CMSampleBufferRef)sampleBuffer 
{ 
    CVPixelBufferRef pixel_buffer = NULL; 

// CVPixelBufferCreateWithPlanarBytes for YUV input 
@autoreleasepool { 

    CGSize originalSize = CGSizeMake(CVPixelBufferGetWidth(cameraFrame), CVPixelBufferGetHeight(cameraFrame)); 

    CVPixelBufferLockBaseAddress(cameraFrame, 0); 
    GLubyte *sourceImageBytes = (GLubyte *)CVPixelBufferGetBaseAddress(cameraFrame); 
    CGDataProviderRef dataProvider = CGDataProviderCreateWithData(NULL, sourceImageBytes, CVPixelBufferGetBytesPerRow(cameraFrame) * originalSize.height, NULL); 
    CGColorSpaceRef genericRGBColorspace = CGColorSpaceCreateDeviceRGB(); 
    CGImageRef cgImageFromBytes = CGImageCreate((int)originalSize.width, (int)originalSize.height, 8, 32, CVPixelBufferGetBytesPerRow(cameraFrame), genericRGBColorspace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst, dataProvider, NULL, NO, kCGRenderingIntentDefault); 

    GLubyte *imageData = (GLubyte *) calloc(1, ((int)finalSize.width * (int)finalSize.height * 4)); 


    CGContextRef imageContext = CGBitmapContextCreate(imageData, (int)finalSize.width, (int)finalSize.height, 8, (int)finalSize.width * 4, genericRGBColorspace, kCGBitmapByteOrder32Little | kCGImageAlphaPremultipliedFirst); 

    CGRect scaledRect = AVMakeRectWithAspectRatioInsideRect(originalSize, CGRectMake(0, 0, finalSize.width, finalSize.height)); 

    CGContextDrawImage(imageContext, scaledRect, cgImageFromBytes); 
    CGImageRelease(cgImageFromBytes); 
    CGContextRelease(imageContext); 
    CGColorSpaceRelease(genericRGBColorspace); 
    CGDataProviderRelease(dataProvider); 

    CVPixelBufferCreateWithBytes(kCFAllocatorDefault, finalSize.width, finalSize.height, kCVPixelFormatType_32BGRA, imageData, finalSize.width * 4, stillImageDataReleaseCallback, NULL, NULL, &pixel_buffer); 
    CMVideoFormatDescriptionRef videoInfo = NULL; 
    CMVideoFormatDescriptionCreateForImageBuffer(NULL, pixel_buffer, &videoInfo); 

    CMTime frameTime = CMTimeMake(1, 30); 
    CMSampleTimingInfo timing = {frameTime, frameTime, kCMTimeInvalid}; 

    CMSampleBufferCreateForImageBuffer(kCFAllocatorDefault, pixel_buffer, YES, NULL, NULL, videoInfo, &timing, &sampleBuffer); 
    CVPixelBufferUnlockBaseAddress(cameraFrame, 0); 
    CFRelease(videoInfo); 
    // CVPixelBufferRelease(pixel_buffer); 

} 
return pixel_buffer; 

} 
+0

Вы пробовали использовать инструменты для проверки и обнаружения утечек памяти? Уточняют ли результаты конкретно этот метод? – dlbuckley

+0

@dlbuckley Я пытался использовать инструменты и пытался выпустить объект imageData, но приложение начало сбой при выпуске imageData. – Leena

+0

Где вы пытались выпустить imageData? – dlbuckley

ответ

0

CG * - CoreGraphics использовать CPU и слишком медленно для видео в реальном времени, использование CV * и GPU

// - (void)captureOutput:(AVCaptureOutput *)captureOutput didOutputSampleBuffer:(CMSampleBufferRef)sampleBuffer fromConnection:(AVCaptureConnection *)connection 
    CVPixelBufferLockBaseAddress(pixelBuffer, kCVPixelBufferLock_ReadOnly); 

    CIImage *baseImg = [CIImage imageWithCVPixelBuffer:pixelBuffer]; 
    CIImage *resultImg = [baseImg imageByCroppingToRect:outputFrameCropRect]; 
    resultImg = [resultImg imageByApplyingTransform:outputFrameTransform]; 

    // created once 
    // glCtx = [[EAGLContext alloc] initWithAPI:kEAGLRenderingAPIOpenGLES2]; 
    // ciContext = [CIContext contextWithEAGLContext:glCtx options:@{kCIContextWorkingColorSpace:[NSNull null]}]; 
    // ciContextColorSpace = CGColorSpaceCreateDeviceRGB(); 
    // CVReturn res = CVPixelBufferPoolCreatePixelBuffer(kCFAllocatorDefault, VTCompressionSessionGetPixelBufferPool(compressionSession), &finishPixelBuffer); 

    [ciContext render:resultImg toCVPixelBuffer:finishPixelBuffer bounds:resultImg.extent colorSpace:ciContextColorSpace]; 

    CVPixelBufferUnlockBaseAddress(pixelBuffer, kCVPixelBufferLock_ReadOnly); 
+0

Я делаю аспект изображения, не обрезаю и не трансформирую его. – Leena

 Смежные вопросы

  • Нет связанных вопросов^_^