我创建了一个 ARCore Session并通过Session#setCameraTextureName方法附加了一个 OpenGL 纹理 ID以显示我的相机数据。我想访问纹理上显示的相机图像数据字节。
ARKit和Tango提供对每一帧图像字节的访问,但似乎没有任何东西可以在 ARCore API 中轻松提供。
使用 ARCore 时还有其他方法可以访问图像字节吗?
我创建了一个 ARCore Session并通过Session#setCameraTextureName方法附加了一个 OpenGL 纹理 ID以显示我的相机数据。我想访问纹理上显示的相机图像数据字节。
ARKit和Tango提供对每一帧图像字节的访问,但似乎没有任何东西可以在 ARCore API 中轻松提供。
使用 ARCore 时还有其他方法可以访问图像字节吗?
也许这可以帮助你我想以位图形式获得相机视图。我在三星s8上测试过。
int w=1080;
int h = 2220;
int b[]=new int[w*(0+h)];
int bt[]=new int[w*h];
IntBuffer ib = IntBuffer.wrap(b);
ib.position(0);
GLES20.glReadPixels(0, 0, w, h, GLES20.GL_RGBA, GLES20.GL_UNSIGNED_BYTE, ib);
for(int i=0, k=0; i<h; i++, k++)
{//remember, that OpenGL bitmap is incompatible with Android bitmap
//and so, some correction need.
for(int j=0; j<w; j++)
{
int pix=b[i*w+j];
int pb=(pix>>16)&0xff;
int pr=(pix<<16)&0x00ff0000;
int pix1=(pix&0xff00ff00) | pr | pb;
bt[(h-k-1)*w+j]=pix1;
}
}
sb=Bitmap.createBitmap(bt, w, h, Bitmap.Config.ARGB_8888);
目前,访问图像数据的最佳选择可能是将纹理绘制到渲染缓冲区并将 glReadPixels 用于持久映射的像素解包缓冲区。使用栅栏同步来检测 glReadPixels 何时完成。
另一种选择是使用计算着色器并直接写入持久映射的SSBO。 (忽略持久映射的建议。我认为EXT_buffer_storage
有更广泛的支持)
后者可能是更少的副本(即使您在 glReadPixels 之后使渲染缓冲区像素无效,渲染缓冲区像素仍可能会命中 DRAM),但它也是一个不太常见的代码路径并且会导致渲染/计算转换,所以我不知道哪种方法会更有效率。
从 ARCore v1.1.0 开始,有一个 API 可以访问当前帧的图像字节:
https://developers.google.com/ar/reference/java/com/google/ar/core/Frame.html#acquireCameraImage()