我正在开发一个需要比较两个图像的应用程序,以查看它们的不同之处,并且该应用程序对不同的图像重复执行此操作。所以我目前这样做的方法是将两个图像都设置为NSBitmapImageRep
,然后使用该colorAtX: y:
函数来获取一个NSColor
对象,然后检查 RGB 分量。但是这种方法非常缓慢。因此,在互联网上进行研究时,我发现帖子说更好的方法是使用函数 bitmapData 获取位图数据,该函数返回一个无符号字符。对我来说不幸的是,我不知道如何从这里进一步发展,而且我发现的所有帖子都没有向您展示如何从中实际获取每个像素的 RGB 分量bitmapData
。所以目前我有:
NSBitmapImageRep* imageRep = [self screenShot]; //Takes a screenshot of the content displayed in the nswindow
unsigned char *data = [imageRep bitmapData]; //Get the bitmap data
//What do I do here in order to get the RGB components?
谢谢