问题标签 [framebuffer]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
c - 适用于 Linux 帧缓冲区的 Windows 镜像驱动程序
对于我正在编写的软件,我需要知道 linux 帧缓冲区何时更新。我需要 Windows Mirror Drivers 之类的东西(有关更多信息,请查看 Wikipedia 上的 Mirror_driver)。
环顾四周,我没有找到任何东西,所以我正在寻找一种方法来实现这一点。
从我所见,我需要编写一个在帧缓冲区特定模块之后加载的模块,并挂钩 fb ops 结构以注入自己的东西并捕获更新。
有人可以给我一个提示吗?我对内核模块编写没有太多经验。
谢谢!
qt - 支持qt一个18bit的显示器吗?
QT可以控制18位显示器吗?显示器以每像素 3 个字节(18 位)的形式获取他的数据,但仅评估每字节的前 6 位以获取颜色信息。
ios - 为什么在 iOS 上 glRenderbufferStorage 似乎失败了?
在 iOS 设备 (iPad) 上,我决定将渲染缓冲区的存储从支持视图的 CAEAGLLayer 更改为通过 glRenderbufferStorage 显式存储。遗憾的是,以下代码无法生成有效的 FBO。有人可以告诉我我错过了什么吗?:
注意:
图层大小有效且正确。这是可靠的生产工作渲染代码。我正在做的唯一改变是这条线:
以前我做过:
java - OpenGL 帧缓冲操作,drawPixels 使用 Alpha 通道失败
我正在使用 OpenGL 和 JOGL 处理帧缓冲区。我有一个 Graphics 对象,我在其中进行绘制。
每次图形更改时,我都会将 R、G、B 和 A 信息提取为每个像素的字节,并以 ARGB 顺序将其写入 ByteBuffer。我检查了转换,没关系。
如果我使用 GL_RGB 模式调用 drawPixels 方法,它会在给定坐标处绘制框,无论我的图形中有什么颜色,它都会被绘制为黑色。如果我使用 GL_RGBA 模式,它不会绘制任何内容。
所以我的帧缓冲区操作代码,ib1 是带有图像数据的字节缓冲区:
在此先感谢您的帮助
linux - LinuxFB + DirectFB 同时?
我有一个嵌入式平台,它有 2 个图形层(/dev/fb0 和 /dev/fb1)。
我想使用 2 个单独的进程:一个直接使用 /dev/fb0(原始模式,无视频库)。另一个通过directfb使用/dev/fb1。
我可以启动第一个,它运行良好(我正在使用 linux open 函数打开 /dev/fb0 并直接写入)。
当我尝试启动第二个时,它卡在了 directfb 初始化中。
如果我尝试使用 /dev/fb1,我无法理解为什么 directFb 会锁定 /dev/fb0。
根据@shodanex 的要求,这是第二个进程的 strace 输出:
请注意,directfb 读取 /etc/directfbrc 文件(提前检查其内容)。之后不会打印任何内容。
有什么想法吗?再次非常感谢。
iphone - 如何在 iPhone OpenGL ES 2.0 中在渲染和呈现帧缓冲区之间切换?
iPhone OpenGL ES 2.0..
- 第一帧,渲染到我的帧缓冲区,然后呈现(因为它在模板 OpenGL ES 应用程序中默认工作)。
- 在下一帧,我想使用渲染的帧缓冲区作为我的着色器的输入,同时渲染到另一个帧缓冲区并呈现第二个帧缓冲区。
- 下一帧,我想使用 framebuffer2 作为着色器的输入,同时再次渲染到第一个帧缓冲区。
- 重复
我该怎么做呢?
monitor - 如何在计算机显示器显示输出图像之前对其进行操作?
我一直在阅读 GPU 抽象和帧缓冲区,但我一直无法找到满足我需要的特定文献。我想在显示器显示图像之前以编程方式处理从 GPU 发送到显示器的图像。本质上,我想操纵屏幕上的像素(重新排列它们)以在使用计算机时有效地产生失真。如果可能的话,一个独立于操作系统的解决方案将是首选,我对任何语言都持开放态度。
谢谢,赛义夫
c++ - 使用帧缓冲区缩放纹理
我的目标是能够在加载纹理时缩放纹理,因此我不必在精灵渲染的每一帧上都这样做。我认为最好的方法是将缩放的纹理渲染到另一个纹理上,基本上是缓存它。但是,使用以下代码,我只得到红色四边形(由于 glClearColor)所以我知道 FBO 正在工作,而不是我渲染新纹理的方法
c - 通过 Linux FrameBuffer 将像素绘制到屏幕上
我最近有一个奇怪的想法,即从 /dev/urandom 获取输入,将相关字符转换为随机整数,并将这些整数用作像素的 rgb/xy 值以绘制到屏幕上。
我已经做了一些研究(在 StackOverflow 和其他地方),许多人建议您可以直接写入 /dev/fb0,因为它是设备的文件表示。不幸的是,这似乎不会产生任何视觉上明显的结果。
我找到了一个来自 QT 教程(不再可用)的示例 C 程序,它使用 mmap 写入缓冲区。程序成功运行,但同样没有输出到屏幕。有趣的是,当我将笔记本电脑置于暂停状态并稍后恢复时,我看到了更早写入帧缓冲区的图像(红色方块)的瞬间闪烁。在 Linux 中写入帧缓冲区是否可以用于绘制到屏幕?理想情况下,我想编写一个 (ba)sh 脚本,但 C 或类似的脚本也可以。谢谢!
编辑:这是示例程序……兽医可能看起来很熟悉。
android - Android:如何在有根设备上获取帧缓冲区(屏幕截图)?
我试过了 :
但它不起作用。我的设备已植根。
我看到很多答案,它需要根访问,但没有实际代码来获取帧缓冲区。
我也试过 glReadPixels() 但没有运气。