所以我有一些原始图像。
我需要使用特定的蒙版获取并显示此图像的某些部分。掩码不是矩形或形状。它包含不同的多边形和形状。
是否有任何方法或教程如何实现它?或者从哪里开始做这个?我应该写一些小着色器或比较图像的适当像素或类似的东西吗?
很高兴有任何建议。
谢谢
所以我有一些原始图像。
我需要使用特定的蒙版获取并显示此图像的某些部分。掩码不是矩形或形状。它包含不同的多边形和形状。
是否有任何方法或教程如何实现它?或者从哪里开始做这个?我应该写一些小着色器或比较图像的适当像素或类似的东西吗?
很高兴有任何建议。
谢谢
您可以将图像放在 UIImageView 中,并使用类似的东西向该图像视图添加蒙版
myImageView.layer.mask = myMaskLayer;
要绘制您的自定义形状,myMaskLayer 应该是您自己的实现该drawInContext
方法的 CALayer 子类的实例。该方法应该使用完整的 alpha 绘制要在图像中显示的区域以及使用零 alpha 隐藏的区域(如果您愿意,也可以在 alpha 之间使用)。这是一个 CALayer 子类的示例实现,当它用作图像视图上的掩码时,将只显示图像左上角的椭圆形区域:
@interface MyMaskLayer : CALayer
@end
@implementation MyMaskLayer
- (void)drawInContext:(CGContextRef)ctx {
static CGColorSpaceRef rgbColorSpace;
static dispatch_once_t onceToken;
dispatch_once(&onceToken, ^{
rgbColorSpace = CGColorSpaceCreateDeviceRGB();
});
const CGRect selfBounds = self.bounds;
CGContextSetFillColorSpace(ctx, rgbColorSpace);
CGContextSetFillColor(ctx, (CGFloat[4]){0.0, 0.0, 0.0, 0.0});
CGContextFillRect(ctx, selfBounds);
CGContextSetFillColor(ctx, (CGFloat[4]){0.0, 0.0, 0.0, 1.0});
CGContextFillEllipseInRect(ctx, selfBounds);
}
@end
要将这样的遮罩层应用于图像视图,您可以使用这样的代码
MyMaskLayer *maskLayer = [[MyMaskLayer alloc] init];
maskLayer.bounds = self.view.bounds;
[maskLayer setNeedsDisplay];
self.imageView.layer.mask = maskLayer;
现在,如果您想从这样的渲染中获取像素数据,最好渲染到由您控制像素缓冲区的位图支持的 CGContext 中。您可以在渲染后检查缓冲区中的像素数据。这是一个示例,我创建了位图上下文并将图层和蒙版渲染到该位图上下文中。由于我为像素数据提供了自己的缓冲区,因此我可以在缓冲区中四处寻找渲染后的 RGBA 值。
const CGRect imageViewBounds = self.imageView.bounds;
const size_t imageWidth = CGRectGetWidth(imageViewBounds);
const size_t imageHeight = CGRectGetHeight(imageViewBounds);
const size_t bytesPerPixel = 4;
// Allocate your own buffer for the bitmap data. You can pass NULL to
// CGBitmapContextCreate and then Quartz will allocate the memory for you, but
// you won't have a pointer to the resulting pixel data you want to inspect!
unsigned char *bitmapData = (unsigned char *)malloc(imageWidth * imageHeight * bytesPerPixel);
CGContextRef context = CGBitmapContextCreate(bitmapData, imageWidth, imageHeight, 8, bytesPerPixel * imageWidth, rgbColorSpace, kCGImageAlphaPremultipliedLast);
// Render the image into the bitmap context.
[self.imageView.layer renderInContext:context];
// Set the blend mode to destination in, pixels become "destination * source alpha"
CGContextSetBlendMode(context, kCGBlendModeDestinationIn);
// Render the mask into the bitmap context.
[self.imageView.layer.mask renderInContext:context];
// Whatever you like here, I just chose the middle of the image.
const size_t x = imageWidth / 2;
const size_t y = imageHeight / 2;
const size_t pixelIndex = y * imageWidth + x;
const unsigned char red = bitmapData[pixelIndex];
const unsigned char green = bitmapData[pixelIndex + 1];
const unsigned char blue = bitmapData[pixelIndex + 2];
const unsigned char alpha = bitmapData[pixelIndex + 3];
NSLog(@"rgba: {%u, %u, %u, %u}", red, green, blue, alpha);