我目前正在开发一个支持深度无关(也称为顺序无关)alpha blending的程序。为此,我实现了一个按像素链接列表,使用标题的纹理(每个像素指向链接列表中的第一个条目)和链接列表本身的纹理缓冲区对象。虽然这很好用,但我想将纹理缓冲区对象与着色器存储缓冲区交换作为练习。
我想我几乎明白了,但我花了大约一周的时间才真正可以使用着色器存储缓冲区。我的问题是:
为什么我不能映射着色器存储缓冲区?
为什么再次绑定着色器存储缓冲区会出现问题?
为了调试,我只显示着色器存储缓冲区的内容(它还不包含链表)。我通过以下方式创建了着色器存储缓冲区:
glm::vec4* bufferData = new glm::vec4[windowOptions.width * windowOptions.height];
glm::vec4* readBufferData = new glm::vec4[windowOptions.width * windowOptions.height];
for(unsigned int y = 0; y < windowOptions.height; ++y)
{
for(unsigned int x = 0; x < windowOptions.width; ++x)
{
// Set the whole buffer to red
bufferData[x + y * windowOptions.width] = glm::vec4(1,0,0,1);
}
}
GLuint ssb;
// Get a handle
glGenBuffers(1, &ssb);
glBindBuffer(GL_SHADER_STORAGE_BUFFER, ssb);
// Create buffer
glBufferData(GL_SHADER_STORAGE_BUFFER, windowOptions.width * windowOptions.height * sizeof(glm::vec4), bufferData, GL_DYNAMIC_COPY);
// Now bind the buffer to the shader
glBindBufferBase(GL_SHADER_STORAGE_BUFFER, 0, ssb);
在着色器中,着色器存储缓冲区定义为:
layout (std430, binding = 0) buffer BufferObject
{
vec4 points[];
};
在渲染循环中,我执行以下操作:
glUseProgram(defaultProgram);
for(unsigned int y = 0; y < windowOptions.height; ++y)
{
for(unsigned int x = 0; x < windowOptions.width; ++x)
{
// Create a green/red color gradient
bufferData[x + y * windowOptions.width] =
glm::vec4((float)x / (float)windowOptions.width,
(float)y / (float)windowOptions.height, 0.0f, 1.0f);
}
}
glMemoryBarrier(GL_ALL_BARRIER_BITS); // Don't know if this is necessary, just a precaution
glBufferSubData(GL_SHADER_STORAGE_BUFFER, 0, windowOptions.width * windowOptions.height * sizeof(glm::vec4), bufferData);
// Retrieving the buffer also works fine
// glMemoryBarrier(GL_ALL_BARRIER_BITS);
// glGetBufferSubData(GL_SHADER_STORAGE_BUFFER, 0, windowOptions.width * windowOptions.height * sizeof(glm::vec4), readBufferData);
glMemoryBarrier(GL_ALL_BARRIER_BITS); // Don't know if this is necessary, just a precaution
// Draw a quad which fills the screen
// ...
此代码有效,但是当我用以下代码替换glBufferSubData时,
glm::vec4* p = (glm::vec4*)glMapBufferRange(GL_SHADER_STORAGE_BUFFER, 0, windowOptions.width * windowOptions.height, GL_WRITE_ONLY);
for(unsigned int x = 0; x < windowOptions.width; ++x)
{
for(unsigned int y = 0; y < windowOptions.height; ++y)
{
p[x + y * windowOptions.width] = glm::vec4(0,1,0,1);
}
}
glUnmapBuffer(GL_SHADER_STORAGE_BUFFER);
映射失败,返回GL_INVALID_OPERATION。似乎着色器存储缓冲区仍然绑定到某些东西,因此无法映射。我读了一些关于glGetProgramResourceIndex ( http://www.opengl.org/wiki/GlGetProgramResourceIndex ) 和glShaderStorageBlockBinding ( http://www.opengl.org/wiki/GlShaderStorageBlockBinding ) 的东西,但我真的不明白。
我的第二个问题是,为什么我不能打电话
glBindBufferBase(GL_SHADER_STORAGE_BUFFER, 0, ssb);
, 也不
glBindBuffer(GL_SHADER_STORAGE_BUFFER, ssb);
在glBufferSubData和glMemoryBarrier之后的渲染循环中。这段代码不应该改变任何事情,因为这些调用与创建着色器存储缓冲区期间的调用相同。如果我不能绑定不同的着色器存储缓冲区,我只能使用一个。但我知道支持不止一个着色器存储缓冲区,所以我认为我错过了其他东西(比如“释放”缓冲区)。