1

以下是文档中的代码:

int myEmboss(void *inData,
unsigned int inRowBytes,
void *outData,
unsigned int outRowBytes,
unsigned int height,
unsigned int width,
void *kernel,
unsigned int kernel_height,
unsigned int kernel_width,
int divisor ,
vImage_Flags flags ) {
   uint_8 kernel = {-2, -2, 0, -2, 6, 0, 0, 0, 0}; // 1
   vImage_Buffer src = { inData, height, width, inRowBytes }; // 2
   vImage_Buffer dest = { outData, height, width, outRowBytes }; // 3
   unsigned char bgColor[4] = { 0, 0, 0, 0 }; // 4
   vImage_Error err; // 5
   err = vImageConvolve_ARGB8888(    &src,     //const vImage_Buffer *src
                                     &dest,    //const vImage_Buffer *dest,
                                      NULL,
                                      0,    //unsigned int srcOffsetToROI_X,
                                      0,    //unsigned int srcOffsetToROI_Y,
                                      kernel,    //const signed int *kernel,
                                      kernel_height,     //unsigned int
                                      kernel_width,    //unsigned int
                                      divisor,    //int
                                      bgColor,
                                      flags | kvImageBackgroundColorFill
                                      //vImage_Flags flags
                                    );


   return err;
}

这就是问题所在:内核变量似乎指的是三种不同的类型:

  1. 形参列表中的 void * kernel
  2. 一个未定义的 unsigned int uint_8 内核,作为一个新变量,它可能会影响形参
  3. 调用 vImageConvolve_ARGB8888 时的 const signed int *kernel。

这是实际代码吗?我该如何编译这个函数?

4

3 回答 3

2

内核只是卷积中使用的内核。在数学术语中,它是与您的图像卷积的矩阵,以实现模糊/锐化/浮雕或其他效果。您提供的这个函数只是 vimage 卷积函数的一个薄包装器。要实际执行卷积,您可以按照下面的代码进行操作。代码都是手动输入的,因此不一定 100% 正确,但应该为您指明正确的方向。

要使用此功能,您首先需要对图像进行像素访问。假设你有一个 UIImage,你这样做:

//image is a UIImage
CGImageRef img = image.CGImage;
CGDataProviderRef dataProvider = CGImageGetDataProvider(img); 
CFDataRef cfData = CGDataProviderCopyData(dataProvider);
void * dataPtr = (void*)CFDataGetBytePtr(cfData);

接下来,构建将传递给函数的 vImage_Buffer

vImage_Buffer inBuffer, outBuffer;
inBuffer.data = dataPtr;
inBuffer.width = CGImageGetWidth(img);
inBuffer.height = CGImageGetHeight(img);
inBuffer.rowBytes = CGImageGetBytesPerRow(img);

同时分配 outBuffer

outBuffer.data = malloc(inBuffer.height * inBuffer.rowBytes)
// Setup width, height, rowbytes equal to inBuffer here

现在我们创建内核,与您的示例中的内核相同,它是一个 3x3 矩阵,如果它们是浮点数,则将值乘以除数(它们需要是 int)

int divisor = 1000;
CGSize kernalSize = CGSizeMake(3,3);
int16_t *kernel = (int16_t*)malloc(sizeof(int16_t) * 3 * 3);
// Assign kernel values to the emboss kernel
// uint_8 kernel = {-2, -2, 0, -2, 6, 0, 0, 0, 0} // * 1000 ;

现在对图像执行卷积!

//Use a background of transparent black as temp
Pixel_8888 temp = 0;
vImageConvolve_ARGB8888(&inBuffer, &outBuffer, NULL, 0, 0, kernel, kernelSize.width, kernelSize.height, divisor, temp, kvImageBackgroundColorFill);

现在用 outBuffer 构造一个新的 UIImage 就完成了!

记得释放内核和 outBuffer 数据。

于 2013-09-20T21:10:14.503 回答
2

你是对的,那个功能很混乱。我建议使用提供反馈小部件让 Apple 知道。

我认为您应该从函数签名中删除kernelkernel_width和参数。kernel_height这些似乎是应用调用者提供的内核的函数的保留,但这个示例是关于应用内部定义的内核。

修复了kernel局部变量的声明,使其成为 的数组uint8_t,如下所示:

    uint8_t kernel[] = {-2, -2, 0, -2, 6, 0, 0, 0, 0}; // 1

然后,在调用,vImageConvolve_ARGB8888()替换kernel_widthkernel_height3由于内核是硬编码的,因此尺寸也可以。

于 2013-09-20T23:16:56.250 回答
2

这就是我使用它来处理使用 AVAssetReader 从视频中读取的帧的方式。这是一个模糊,但您可以更改内核以满足您的需要。'imageData' 当然可以通过其他方式获得,例如从 UIImage。

     CMSampleBufferRef sampleBuffer = [asset_reader_output copyNextSampleBuffer];
     CVImageBufferRef imageBuffer = CMSampleBufferGetImageBuffer(sampleBuffer);            
     CVPixelBufferLockBaseAddress(imageBuffer,0);
     void *imageData = CVPixelBufferGetBaseAddress(imageBuffer);        

     int16_t kernel[9];
     for(int i = 0; i < 9; i++) {
        kernel[i] = 1;
     }
     kernel[4] = 2;

     unsigned char *newData= (unsigned char*)malloc(4*currSize);

     vImage_Buffer  inBuff = { imageData, height, width, 4*width };
     vImage_Buffer  outBuff = { newData, height, width, 4*width };

     vImage_Error err=vImageConvolve_ARGB8888 (&inBuff,&outBuff,NULL, 0,0,kernel,3,3,10,nil,kvImageEdgeExtend);
     if (err != kvImageNoError) NSLog(@"convolve error %ld", err);
     CVPixelBufferUnlockBaseAddress(imageBuffer, 0);

     //newData holds the processed image
于 2013-09-15T18:27:19.080 回答