12

我正在尝试通过将图像效果应用于MKMapView. 这个由 Apple 提供的 UIImage 类别是我用作基线的。此方法使源图像去饱和,应用淡色,并使用输入 val 进行大量模糊:

[image applyBlurWithRadius:10.0
                 tintColor:[UIColor colorWithRed:229/255.0f green:246/255.0f blue:255/255.0f alpha:0.33] 
     saturationDeltaFactor:0.66
                 maskImage:nil];

这产生了我正在寻找的效果,但是在 iPhone 4 上渲染的时间太长了 - 几秒之间.3.5

在此处输入图像描述

我想使用优秀GPUImage的,因为我的初步尝试快了大约 5-10 倍,但我似乎无法做到正确。

GPUImagePicture *stillImageSource = [[GPUImagePicture alloc] initWithImage:image];

GPUImageSaturationFilter *saturationFilter = [[GPUImageSaturationFilter alloc] init];
saturationFilter.saturation = 0.33; // 1.0 - 0.66;
[stillImageSource addTarget:saturationFilter];

GPUImageMonochromeFilter *monochromeFilter = [[GPUImageMonochromeFilter alloc] init];
[monochromeFilter setColor:(GPUVector4){229/255.0f, 246/255.0f, 1.0f, 0.33f}];
[monochromeFilter setIntensity:0.2];
[saturationFilter addTarget:monochromeFilter];

GPUImageFastBlurFilter *blurFilter = [[GPUImageFastBlurFilter alloc] init];
blurFilter.blurSize = 2;
blurFilter.blurPasses = 3;
[monochromeFilter addTarget:blurFilter];

[saturationFilter prepareForImageCapture];
[monochromeFilter prepareForImageCapture];

[stillImageSource processImage];
image = [blurFilter imageFromCurrentlyProcessedOutput];

这会产生一个接近但不完全存在的图像

在此处输入图像描述

模糊似乎不够深,但是当我尝试增加blurSize上面的内容时,它变成了网格状,几乎就像一个万花筒。通过放大第二张图像,您实际上可以看到此处的网格。我试图模仿的色调似乎只是洗掉了图像,而不是叠加和混合,我认为 Apple 示例正在这样做。

我试图根据@BradLarson 在另一个 SO question中的评论设置过滤器。我是否使用了错误的GPUImage过滤器来重现这种效果,或者我只是设置错误?

4

1 回答 1

32

好的,我在这里做了一段时间的工作,我终于让它发挥作用了。我刚刚将 GPUImage 的模糊过滤器的一些更改滚动到框架中,因此我相信我有一个合理的 Apple 模糊效果复制品,它们用于控制中心视图之类的东西。

以前,我在框架中使用的模糊使用单个预先计算的半径,影响其强度的唯一方法是调整它们从输入图像中采样像素的间距。由于每个像素的样本数量有限,将采样像素之间的间距的倍数更改为远高于 1.5 开始引入严重的块状伪影,因为像素被跳过。

我构建的新高斯模糊实现将预先计算的高斯权重的性能优势与使用任意半径 (sigma) 进行高斯模糊的能力相结合。它通过动态生成着色器来实现这一点,因为它们是各种半径所需的。它还通过使用硬件插值为每个样本点一次读取两个纹理像素来减少给定模糊半径所需的纹理样本数量。

新的 GPUImageiOSBlurFilter 将这个经过调整的任意半径高斯模糊滤镜与颜色校正滤镜相结合,该滤镜似乎可以复制 Apple 在颜色模糊后对颜色执行的调整。我在此处的答案中添加了以下比较,但它从左侧的控制中心视图显示了 Apple 的内置模糊,在右侧显示了我的新 GPUImage 模糊过滤器:

苹果的模糊 GPUImage 的模糊

作为提高性能的一种方式(Apple 的模糊似乎发生在 sigma 为 48,这需要为每个像素采样相当大的区域),我在高斯模糊之前使用 4X 下采样,然后使用 4X 上采样。这将需要模糊的像素数量减少了 16 倍,并将模糊 sigma 从 48 减少到 12。iPhone 4S 使用此滤镜可以在大约 30 毫秒内模糊整个屏幕。

获得正确的模糊是一回事。Apple 仍然没有提供快速获取视图背后的图像内容的方法,因此这很可能成为快速变化内容的瓶颈。

于 2013-10-19T22:29:57.737 回答