问题标签 [gpuimagestillcamera]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
objective-c - 检查 GPUImage 的设备类型
对于 iPhone 4 及更低版本,GPUImage 需要小于 2048 像素的图像。4S及以上可以处理更大。如何查看我的应用当前在哪个设备上运行?我还没有找到任何UIDevice
我正在寻找的东西。有什么建议/解决方法吗?
iphone - 应用程序在 dispatch_release 信号量上崩溃?
我正在研究 GPUImage 框架,使用 GPUImageVideoCamera 录制视频。
它曾经有时工作得非常完美,但有时我从我的相机屏幕来回走动,它确实有时会崩溃。我不知道发生了什么。我正在使用 ARC 和 IOS 6。
我正在添加我的错误图像,请看一下。
在释放 frameRenderingSemaphore 时,在 GpuImageVideoCamera 的 dealloc 方法中发生崩溃:
ios - 在 GPUImageVideoCamera 上使用 GPUImageTransformFilter 会产生闪烁
我想使用 GPUImageTransformFilter 从 GPUImageVideoCamera 裁剪实时视频流。
我有两个问题:
1)视频流的方向旋转了90度。
2) 我的 GPUImageView 中的输出在没有变换的图像(好像没有应用变换)和 90 度旋转的变换图像之间闪烁,在 iPhone 5s 上以大约每秒 1/10 的速率闪烁。
关于我做错了什么和/或您将如何在您不希望裁剪的视频流顶部使用纹理裁剪实时视频的任何想法?
ios - 获取 GPUImageView 的帧速率
我有一个 GPUImageView,它是一堆 GPUImageFilters 的目标,底部有一个 GPUImageVideoCamera。如何获得该特定视图的帧速率以进行性能测试。我不想要整个窗口堆栈的帧率,只想要 GPUImageView。
ios - GPUImageNormalBlendFilter 问题
我正在使用 GPUImage Famewark,其中,当我将 GPUImageNormalBlendFilter 与静态相机一起使用时,当我使用其他混合(例如叠加、添加等)时,图像不会显示在相机上以录制视频……图像与混合完美显示。 ..
我的代码如下:
这个问题你能继承吗……???
谢谢
ios - 是否有任何情况可以导致在 didBecomeActive 之前调用 ViewDidLoad?
我知道这听起来很傻,但只是为了澄清一点。是否有可能在 didBecomeActive 之前调用视图确实加载?这完全不可能吗?
编辑
当用户从后台返回应用程序并且我们开始使用 openGL 时,我们会发生崩溃。我们尝试在后台使用openGL的崩溃错误点。
重要的是,我们的应用程序作为 VOIP 应用程序存在于后台。
我们试图弄清楚是否有可能我们在后台触发了某些东西,这会导致应用程序在后台重新启动 openGl。
在堆栈中,我们看到:
之后几行:
最后:
我们试图弄清楚是否有一种方法[VideoCallViewController viewDidLoad]
在后台被调用,或者我们必须假设我们在前台,并且在viewDidLoad
?之后以某种方式移动到后台。
第二种选择
第二种选择是我们确实在viewDidLoad
. 这里的重点是我们正在监听 AppWillResignActive 并且我们暂停了 GPUIMage。所以我们无法理解为什么会发生崩溃?
谢谢
谢谢
objective-c - GPUImage capturePhotoAsImageProcessedUpToFilter 仅适用于最后一个过滤器
在我的应用程序中,我使用了一组 3 个过滤器并将其添加到 StillCamera。我正在尝试从 filter1 中获取图像,它是一个空过滤器,因此它返回实际图像。
当我调用 capturePhotoAsImageProcessedUpToFilter 时,它只会在我通过 filter3 时返回图像,如下所示。
下面的两个示例从不返回图像
难道我做错了什么?作为修复,我正在使用:
调用 capturePhotoAsImageProcessedUpToFilter 和 imageFromCurrentlyProcessedOutput 有什么区别吗?
ios - 使用 GPUImage 捕获 ios 照片时的闪存计时问题
使用闪光灯时,拍摄的照片有一半会完全变暗 - ios 相机应用程序不会像这样失火。
上面的 gpuimage 代码位于 https://github.com/BradLarson/GPUImage/blob/master/framework/Source/GPUImageStillCamera.m
ios - 我可以检测相机是否使用 GPUImage 运行?
有没有一种简单的方法可以在使用 GPUImage 时检测相机是否正在运行?
目前要启动我运行的相机:
和
阻止它。
我发现如果我连续运行几次 startCameraCapture 就会出现内存问题。
这意味着要么我需要使用设置的程序来构建我的应用程序,因此只能在开始之后停止,或者我需要确定相机是否正在运行,然后只有在它正在运行时才停止它(反之亦然)
目前我正在使用
但是这些并不理想,因为当我们建立复杂性时,会有太多的排列来确保简历总是在暂停之后。
任何帮助将不胜感激
gpuimage - GPUImageHistogramFilter 与 GPUImageFilterPipeline
我在我的照片应用程序中使用 GPUImage 来制作一些图像过滤器选项。在应用程序中,有一个选项可以在捕获图像时添加多个过滤器,因此为了处理多个过滤器,我使用了 GPUImageFilterPipeline。我添加的每个过滤器效果在除 GPUImageHistogramFilter 之外的管道上运行良好。我知道与其他过滤器相比,GPUImageHistogramFilter 需要更多步骤(如此处所述)。但这不适用于管道。如何使用 GPUImageFilterPipeline 制作直方图?