问题标签 [gpuimage]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
ios - iOS:GPUImage 库和 VBO
我正在使用Brad Larson 出色的 GPUImage 库进行图像处理。到目前为止,一切都很好。但是,我正在尝试添加一个过滤器以允许网格变形并遇到很多问题。具体来说,我想要一个使用 VBO 渲染四边形的过滤器,这样我最终可以动态地更改顶点以进行变形。
使用 VBO 的第一步是导致崩溃。
我创建了一个GPUImageFilter
重写该- (void)newFrameReadyAtTime:(CMTime)frameTime
方法的子类,以通过 VBO 呈现四边形。注意:我只是尝试渲染单个 Quad 而不是完整的网格,这样我可以一次解决一个问题。
插入此过滤器,我看到:“设置完成”和“绘制 VBO”显示在控制台上。但是,在它调用目标(在本例中为 a GPUImageView
)之后,它会在目标的绘图调用中崩溃,该调用使用glDrawArrays
.
这是包含此行的完整方法。
任何帮助将不胜感激,我一直在努力解决这个问题。
objective-c - XCODE 工具中的实际内存利用率 Vrs “实时”内存
我们的应用程序使用 GPUImage 框架来处理图像。我们正在使用框架内的几乎所有过滤器和混合模式。我们按照我们应该的方式分配和释放内存。但是,尽管我们的“实时”内存保持在 2.5MB 左右,有时会飙升至 10MB 但又回落至 2.5MB,但毫无疑问,该应用程序在保存大约 13 张使用覆盖或边框的图像后会崩溃。所以,在深入研究这个问题并被它完全愚蠢的时候,我看到了一些“检查活动监视器以了解你的“真实”内存使用情况”的内容。所以我只是发现“真实”内存一直在攀升,直到大约 250MB 真实和 480MB 虚拟应用程序将崩溃。我正在按我应该的方式释放我的内存。
这是我们用来处理图像的代码。这将获取图像,将其发送到第一个过滤器,分配过滤器,处理图像,释放分配的过滤器,然后将处理后的图像发送到下一个过滤器进行处理,具体取决于启用与否的过滤器。如果我在这里做错了什么,我欢迎所有的批评和建议!我不是专业人士!就我而言,处理 13 张 1536 x 2048 大小的图像不会导致应用程序崩溃,如果您正确处理内存的话。非常感谢你提前拯救了我剩下的头发。
吉姆
ios - GPUImage - 如何为 GPUImageMedianFilter 和 GPUImageGaussianBlurFilter 指定过滤器大小
嗨 GPUImage 社区和布拉德,
我想指定 GPUImageMedianFilter 和 GPUImageGaussianBlurFilter 的过滤器大小(半径)。
指定 GPU 的需求是否值得称赞?还是可以通过 GPUImage 包装器来完成?如果是这样,我该怎么做?
谢谢
iphone - CVOpenGLESTextureCacheCreateTextureFromImage 的 avcomposition 失败
我正在尝试通过使用 AVAssetReaderVideoCompositionOutput 作为帧输入将 GPUImage 库中的 GPUImageMovie 扩展到 AVComposition。但是当到达时:
我得到:无法创建 IOSurface 图像(纹理)电影 CVOpenGLESTextureCacheCreateTextureFromImage 失败(错误:-6683)
结果是:kCVReturnPixelBufferNotOpenGLCompatible -6683
由于不支持的缓冲区大小、像素格式或属性,像素缓冲区与 OpenGL 不兼容。适用于 iOS 4.0 及更高版本
有任何想法吗?谢谢
iphone - 如何添加外部框架GPUImage框架?
我正在使用 iOS 开发 iPhone 应用程序。我需要添加 GPUImage 框架,我按照这个 url 来添加目的。http://www.sunsetlakesoftware.com/2012/02/12/introducing-gpuimage-framework
现在我将 GPUImage xcodeproject 文件拖放到我的项目中。在这个项目产品文件夹中有 libGPImage.a 文件。它显示空文件夹,在此文件中丢失。它显示像红色。我无法访问 GPUImage 类文件。为什么会这样。
谢谢,
iphone - 我可以使用 GPUImage 在视频上设置帧吗?
我有一个本地视频文件,现在我在 GPUImage 库的帮助下应用了过滤器,这里是使用 GPUImage 制作过滤视频的代码
现在我想在这个视频文件上应用帧,我的意思是我已经获取了视频文件的 naturalSize。并希望在此视频文件上应用带有 naturalSize 的帧。
我能怎么做 ?可能吗 ?
问候,
******** 已解决 ********* 根据我的限制,GPUImage 无法在视频上添加图像.. 非常感谢这个链接
ios - AVFoundation 在 ios5 中使用 Alpha 合成覆盖两个视频剪辑?
我希望使用带或不带 Open GL 的 IOS5 AV Foundation 来录制来自摄像机的视频,并使用某种形式的 alpha 通道合成/前景抠图在顶部覆盖/合并另一个视频剪辑。
组合输出的示例用例可能是动画角色的视频,该视频与用户从 iPhone/iPad 相机录制的视频剪辑进行交互。
现在是否可以使用 IOS5 或可能使用 Brad Larson 的 GPUImage 框架?两个视频源的 alpha 通道可以轻松组合吗?
如果有人有任何他们可以分享的示例代码,或者提供任何指导,我将非常感激。
android - 适用于 Android 的 GPUimage 端口
有人把这个移植到android
了吗?比着色器更多的框架。诸如将相机数据带入openGL
. 我已经使用它了iOS
,而且速度非常快。任何帮助深表感谢。
ios - 有没有办法在片段着色器中使用超过 64 个统一向量?还是替代方案?
我在我的项目中使用 GPUImage。我想将一个 2304 整数的数组传递给片段着色器。但是PowerVR SGX 上的 OpenGL ES 2.0 仅限制 64 个用于片段着色器的统一向量。
ios - GPUImageExposureFilter 切换图像尺寸?
我在一些图像上运行 GPUImageExposureFilter。当我在纵向图像上执行此操作时,由于某种原因,它会将图像的纵横比调整为横向。
当我运行这个过滤器时,图像从 2448 x 3264 变为 3264 x 2448。我正在努力追查问题。如果您认识到这个问题,任何帮助将不胜感激。
过滤器设置
滑块: