2

我目前正在开发一个支持深度无关(也称为顺序无关alpha blending的程序。为此,我实现了一个按像素链接列表,使用标题的纹理(每个像素指向链接列表中的第一个条目)和链接列表本身的纹理缓冲区对象。虽然这很好用,但我想将纹理缓冲区对象与着色器存储缓冲区交换作为练习。

我想我几乎明白了,但我花了大约一周的时间才真正可以使用着色器存储缓冲区。我的问题是:

  • 为什么我不能映射着色器存储缓冲区?

  • 为什么再次绑定着色器存储缓冲区会出现问题?

为了调试,我只显示着色器存储缓冲区的内容(它还不包含链表)。我通过以下方式创建了着色器存储缓冲区:

glm::vec4* bufferData = new glm::vec4[windowOptions.width * windowOptions.height];
glm::vec4* readBufferData = new glm::vec4[windowOptions.width * windowOptions.height];

for(unsigned int y = 0; y < windowOptions.height; ++y)
{
    for(unsigned int x = 0; x < windowOptions.width; ++x)
    {
        // Set the whole buffer to red
        bufferData[x + y * windowOptions.width] = glm::vec4(1,0,0,1);
    }
}

GLuint ssb;
// Get a handle
glGenBuffers(1, &ssb);
glBindBuffer(GL_SHADER_STORAGE_BUFFER, ssb);
// Create buffer
glBufferData(GL_SHADER_STORAGE_BUFFER, windowOptions.width * windowOptions.height * sizeof(glm::vec4), bufferData, GL_DYNAMIC_COPY);
// Now bind the buffer to the shader
glBindBufferBase(GL_SHADER_STORAGE_BUFFER, 0, ssb);

在着色器中,着色器存储缓冲区定义为:

layout (std430, binding = 0) buffer BufferObject
{
    vec4 points[];
};

在渲染循环中,我执行以下操作:

glUseProgram(defaultProgram);

for(unsigned int y = 0; y < windowOptions.height; ++y)
{
    for(unsigned int x = 0; x < windowOptions.width; ++x)
    {
        // Create a green/red color gradient
        bufferData[x + y * windowOptions.width] =
            glm::vec4((float)x / (float)windowOptions.width,
            (float)y / (float)windowOptions.height, 0.0f, 1.0f);
    }
}

glMemoryBarrier(GL_ALL_BARRIER_BITS);  // Don't know if this is necessary, just a precaution
glBufferSubData(GL_SHADER_STORAGE_BUFFER, 0, windowOptions.width * windowOptions.height * sizeof(glm::vec4), bufferData);
// Retrieving the buffer also works fine
// glMemoryBarrier(GL_ALL_BARRIER_BITS);
// glGetBufferSubData(GL_SHADER_STORAGE_BUFFER, 0, windowOptions.width * windowOptions.height * sizeof(glm::vec4), readBufferData);

glMemoryBarrier(GL_ALL_BARRIER_BITS);  // Don't know if this is necessary, just a precaution

// Draw a quad which fills the screen
// ...

此代码有效,但是当我用以下代码替换glBufferSubData时,

glm::vec4* p = (glm::vec4*)glMapBufferRange(GL_SHADER_STORAGE_BUFFER, 0, windowOptions.width * windowOptions.height, GL_WRITE_ONLY);
for(unsigned int x = 0; x < windowOptions.width; ++x)
{
    for(unsigned int y = 0; y < windowOptions.height; ++y)
    {
        p[x + y * windowOptions.width] = glm::vec4(0,1,0,1);
    }
}
glUnmapBuffer(GL_SHADER_STORAGE_BUFFER);

映射失败,返回GL_INVALID_OPERATION。似乎着色器存储缓冲区仍然绑定到某些东西,因此无法映射。我读了一些关于glGetProgramResourceIndex ( http://www.opengl.org/wiki/GlGetProgramResourceIndex ) 和glShaderStorageBlockBinding ( http://www.opengl.org/wiki/GlShaderStorageBlockBinding ) 的东西,但我真的不明白。

我的第二个问题是,为什么我不能打电话

glBindBufferBase(GL_SHADER_STORAGE_BUFFER, 0, ssb);

, 也不

glBindBuffer(GL_SHADER_STORAGE_BUFFER, ssb);

glBufferSubDataglMemoryBarrier之后的渲染循环中。这段代码不应该改变任何事情,因为这些调用与创建着色器存储缓冲区期间的调用相同。如果我不能绑定不同的着色器存储缓冲区,我只能使用一个。但我知道支持不止一个着色器存储缓冲区,所以我认为我错过了其他东西(比如“释放”缓冲区)。

4

1 回答 1

1

首先,glMapBufferRange失败只是因为GL_WRITE_ONLY它不是一个有效的论据。这用于旧的glMapBuffer,但glMapBufferRange使用一组标志来进行更细粒度的控制。在你的情况下,你需要GL_MAP_WRITE_BIT。而且由于您似乎完全覆盖了整个缓冲区,而不关心以前的值,因此可能会进行额外的优化GL_MAP_INVALIDATE_BUFFER_BIT。因此,将该调用替换为:

glm::vec4* p = (glm::vec4*)glMapBufferRange(GL_SHADER_STORAGE_BUFFER, 0, 
                    windowOptions.width * windowOptions.height, 
                    GL_MAP_WRITE_BIT | GL_MAP_INVALIDATE_BUFFER_BIT);

问题中没有很好地描述另一个错误。但是首先修复这个,也许它已经有助于解决以下错误。

于 2013-10-06T10:21:47.097 回答