问题标签 [camera2]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
android - Android Camera2 Burst 和 ImageReader
我正在尝试获取多张具有不同曝光时间的照片来执行我的HDR algorithm
. 但是,我无法弄清楚如何captureBurst()
在 Android中使用camera2 API
和ImageReader
保存文件。我的代码将创建重复的文件。谁能帮我一把?
android - 当ImageFormat为JPEG时,如何从android camera2中的byte []数组获取RGB值?
我正在使用 camera2 API 我有兴趣从字节数组中获取 RGB 值实际上是 RGB 值的平均值当从 ByteBuffer 收集字节数组并使用 FileOutputStream.write(bytes) 写入文件时,我可以从这部分得到它
这是我的代码:
android - Galaxy S7 上的 Android 相机 API 光泽效果
左上图是它的外观(使用 Galaxy S6 拍摄),而右图(使用 Galaxy S7 拍摄)是我在 S7 上使用 Camera2 API 时得到的效果。我正在使用 OpenCV 做计算机视觉的东西,所以这种光泽效果正在破坏它。
在 Galaxy S7 上使用时,Camera2 API(现有的三星相机应用程序很好)似乎会产生某种不受欢迎的光泽效果。我尝试了普通的 Android Camera2 API 和 Samsung Galaxy Camera SDK 1.1(在http://developer.samsung.com/galaxy#camera上找到)。
如果我使用已弃用的 Camera1 API,则不会发生这种情况,因此问题似乎出在 S7 的 HALv3 上。这在 Galaxy S6 和其他设备(三星和非三星)上也不会发生。
如果您在 Play 商店中尝试使用 Camera2 的任何 3rd 方相机应用程序,您应该能够复制此效果。不确定 SO 是否是发布此内容的最佳地点,但三星似乎并不活跃在他们自己的开发者论坛中。
android - Camera2 可以连续访问相机预览图像
我想根据 API 将应用程序从 Camera1 扩展到 Camera2。该应用程序的一个核心机制是以每秒约 20 张照片的速度拍摄预览照片。使用 Camera1,我意识到通过创建一个 SurfaceView,在其持有者上添加一个回调,并在创建表面后通过定期 setOneShotPreviewCallbacks 访问预览图片。这非常简单可靠。
现在,在学习 Camera2 时,我“从头到尾”成功地将 YUV420_888 转换为位图(请参阅YUV420_888 到位图转换)。但是我现在正在努力使用“捕获技术”。从 Google 示例中,我看到您需要使用 CameraDevice.TEMPLATE_PREVIEW 进行“setRepeating” CaptureRequest 以显示预览,例如在表面视图上。没事儿。但是,为了拍摄实际照片,我需要使用(这次)builder.addTarget(imageReader.getSurface()) 发出另一个捕获请求。即数据将在 imageReader 的 onImageAvailable 方法中可用。
问题:在我的设备上创建 captureRequest 是一项相当繁重的操作,大约需要 200 毫秒。因此,使用捕获请求(无论是模板 STILL_CAPTUR 还是 PREVIEW)不可能是每秒捕获 20 张图像的可行方法,因为我需要它。我在这里找到的关于 SO 的建议主要基于(教育效率适中)谷歌示例,我不太明白......
我觉得解决方案必须是为 ImageReader 提供连续的预览图片流,可以以给定的频率从那里挑选。有人可以就如何实现这一点提供一些指导吗?非常感谢。
java - 我无法用 camera2 检测到人脸
我在 android.hardware.Camera2 的预览中找不到有关人脸检测的信息,有人可以帮我举一个完整的例子吗?
我在 github 中看到了一些有关 camera2 示例的问题,但我无法理解。
我使用了来自 Google 的 Camera2 示例:https ://github.com/googlesamples/android-Camera2Basic 。
我将人脸识别模式设置为 FULL。
我还检查STATISTICS_INFO_MAX_FACE_COUNT
了STATISTICS_INFO_AVAILABLE_FACE_DETECT_MODES
:
我的捕获回调:
输出:面:0,模式:2
人脸长度始终为 0。看起来它无法正确识别人脸,或者我错过了一些东西。
我知道使用 FaceDetector 的方法。我只是想检查一下它如何与新的 camera2 Face 配合使用。
我需要在camera2的预览中检测到人脸!
flash - how to use android camera's flash in Android Studio
I am working on a kind of torch application in android Studio environment. I want to use a pulse waves modulated(PWM) to make the flash light be adapted to the ambient light. I made lot of research about that, but i didn't find any tutorial about how to manage the camera's flash alone in android studio. Is there any solution?
android - Android camera2 视频到声音之间的延迟
我正在尝试从android camera2 示例录制视频
一切正常,但是当我在录制后(从 sd 卡)播放视频时,视频开始冻结,您只能听到背景中的音频,当音频停止时,视频开始播放而没有音频和时间视频从秒跳到最小 (03:24)
弄清楚它在没有这些行的情况下也可以工作:
我怎样才能让它与声音一起工作?
愚蠢的解决方案是重新启动设备。有人知道为什么会这样吗?
感谢您的帮助
android - Android 设备上的 60/120fps 预览数据?
我们希望使用 Neon 组件或 GPU 着色器处理 120 fps(或 60fps)的相机预览数据,以执行简单的图像处理操作(例如 3x3 卷积)。我们对在屏幕上显示图像不感兴趣,因此相机数据应该直接转到 SurfaceTexture。
我们认为我们可以在使用 CameraConstrainedHighSpeedCaptureSession 的 Nexus 5 上使用 Camera2 API 来做到这一点,但没有成功。
互联网上目前没有功能代码(至少我们已经抓取的部分)允许这样做,但该功能似乎很可能存在。
使用 Camera2 API 进行高速录制的最佳示例如下:https ://github.com/PkmX/lcamera
为了鼓励某人发布解决方案,我在这个问题上悬赏。
android - Camera2 imageReader 在拍照前更改
我在设置相机时正在初始化 imageReader:
有没有办法在捕获时更改 mImageReader ?问题是,我有两种捕获模式并且想要保持两种不同的最大尺寸。在拍照之前我想设置合适的最大尺寸。
android - 带有 SurfaceTexture 的 camera2 预览在 SDK v21 中完美运行,但在 v23 中保持黑色
我在三星 Galaxy A3 (2014) 上测试 SDK v21,在 Nexus 5X 上测试 v23。我也测试了 Camera2Basic 示例,它适用于两种设备。我想知道我的小代码重组(我使用 Activity 而不是 Fragment)如何仅在两个设备中的一个上导致此错误:
我自己的日志输出在两个设备上都是相同的,没有抛出错误或异常,两者都CameraCaptureSession.CaptureCallback.onCaptureCompleted
被TextureView.SurfaceTextureListener.onSurfaceTextureUpdated
定期调用。(可能有来自相机服务的条目会讲述另一个故事,但这些错误应该反映在活动中抛出的明确错误中。)预览仅在我的三星设备上实时,在我的 Nexus 上它具有正确的大小,但保持黑色。