2

我正在为 10.5+ 开发我的第一个 mac osx cocoa 应用程序,其中我有一个 CVImageBufferRef(使用 QTKit 捕获),我需要通过 TCP 套接字将此图像传输到客户端应用程序。客户端应用程序需要 RGB 值。所以这就是我目前正在做的事情(我目前的解决方案根据需要工作,但使用大量 CPU)

CVImageBufferRef --> NSBitmapImageRep --> NSData --> 然后通过 TCP Socket 将 NSData 传输到客户端应用程序,在客户端我有以下代码来获取 RGB:

UInt8 r,g,b
int width=320;
int height=240;

NSData *data; //read from TCP Socket
NSBitmapImageRep *bitmap=[[NSBitmapImageRep alloc] initWithData:data];

for (y=1;y<=height;y++) {
    for(x=1;x<=width;x++){


        NSColor *color=[bitmap colorAtX:x y:y];
        // ^^ this line is actually a culprit and uses a lot of CPU


        r=[color redComponent]*100;
        g=[color greenComponent]*100;
        b=[color blueComponent]*100;
        NSLog(@"r:%d g:%d b:%d",r,g,b);
    }
}

[bitmap release];

如果 CVImageBufferRef 可以转换为一个完美的 RGB 值数组,否则我需要一个有效的解决方案将 NSBitmapImageRep 转换为 RGB 值。

4

2 回答 2

3

您可以使用获取位图数据bitmapData并从中获取所需的像素值。这应该会使许多案例的速度提高 100 倍以上。

(日志也应该去)

于 2011-10-19T21:47:34.657 回答
3

如果直接来自 CVImageBufferRef,则可以使用 CVPixelBuffer,因为它是从 CVImageBuffer 派生的。使用 CVPixelBufferLockBaseAddress() 然后使用 CVPixelBufferGetBaseAddress() 来获取指向第一个像素的指针。还有许多其他 CVPixelBufferGet* 方法 ( http://developer.apple.com/library/mac/#documentation/QuartzCore/Reference/CVPixelBufferRef/Reference/reference.html ) 来查询宽度、高度等以了解要传输的数据。当然 CVPixelBufferUnlockBaseAddress() 一旦完成数据。

如果使用 NSBitmapImageRep,我同意 Justin。using[bitmap bitmapData]将返回指向第一个元素的指针。即使没有先验知识,您也可以发送以下原始数据:

unsigned char *data = [bitmap bitmapData];
unsigned long size = [bitmap pixelsWide]*[bitmap pixelsHigh]*[bitmap samplesPerPixel]*sizeof(unsigned char);

然后,此数据将是 RGB 连续值,即1stRedComponent = *(data + 0)1stGreenComponent = *(data + 1) 1stBlueComponent = *(data + 2)如果您需要 NSBitmapImageRep 之外的像素特定访问,将为您提供数据中的第一个 RGB 分量

于 2011-10-20T04:00:34.203 回答