6

嘿,我在加载了 Freetype 2 库的 openGL 中绘制文本时遇到了一个奇怪的问题。这是我所看到的屏幕截图。

例如 http://img203.imageshack.us/img203/3316/freetypeweird.png

这是我用于加载和呈现文本的代码位。

class Font
{
    Font(const String& filename)
    {
       if (FT_New_Face(Font::ftLibrary, "arial.ttf", 0, &mFace)) {
          cout << "UH OH!" << endl;
       }

       FT_Set_Char_Size(mFace, 16 * 64, 16 * 64, 72, 72);
    }

    Glyph* GetGlyph(const unsigned char ch)
    {
       if(FT_Load_Char(mFace, ch, FT_LOAD_RENDER))
          cout << "OUCH" << endl;

       FT_Glyph glyph;

       if(FT_Get_Glyph( mFace->glyph, &glyph ))
          cout << "OUCH" << endl;

       FT_BitmapGlyph bitmap_glyph = (FT_BitmapGlyph)glyph;

       Glyph* thisGlyph = new Glyph;
       thisGlyph->buffer = bitmap_glyph->bitmap.buffer;
       thisGlyph->width = bitmap_glyph->bitmap.width;
       thisGlyph->height = bitmap_glyph->bitmap.rows;

       return thisGlyph;
    }
};

相关字形信息(宽度、高度、缓冲区)存储在以下结构中

struct Glyph {
   GLubyte* buffer;
   Uint width;
   Uint height;
};

最后,为了渲染它,我有一个名为 RenderFont 的类。

class RenderFont 
{
   RenderFont(Font* font)
   {
      mTextureIds = new GLuint[128];

      mFirstDisplayListId=glGenLists(128);
      glGenTextures( 128, mTextureIds );

      for(unsigned char i=0;i<128;i++)
      {
         MakeDisplayList(font, i);
      }
   }

   void MakeDisplayList(Font* font, unsigned char ch)
   {
      Glyph* glyph = font->GetGlyph(ch);

      glBindTexture( GL_TEXTURE_2D, mTextureIds[ch]);
      glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MAG_FILTER,GL_LINEAR);
      glTexParameteri(GL_TEXTURE_2D,GL_TEXTURE_MIN_FILTER,GL_LINEAR);

      glTexImage2D(GL_TEXTURE_2D, 
                   0, 
                   GL_RGBA, 
                   glyph->width, 
                   glyph->height, 
                   0,
                   GL_ALPHA, 
                   GL_UNSIGNED_BYTE, 
                   glyph->buffer);

      glNewList(mFirstDisplayListId+ch,GL_COMPILE);
      glBindTexture(GL_TEXTURE_2D, mTextureIds[ch]);

      glBegin(GL_QUADS);
      glTexCoord2d(0,1); glVertex2f(0,glyph->height);
      glTexCoord2d(0,0); glVertex2f(0,0);
      glTexCoord2d(1,0); glVertex2f(glyph->width,0);
      glTexCoord2d(1,1); glVertex2f(glyph->width,glyph->height);
      glEnd();

      glTranslatef(16, 0, 0);

      glEndList();
   }

   void Draw(const String& text, Uint size, const TransformComponent* transform, const Color32* color)
   {
      glEnable(GL_TEXTURE_2D);
      glEnable(GL_BLEND);
      glBlendFunc(GL_SRC_ALPHA, GL_ONE_MINUS_SRC_ALPHA);

      glTranslatef(100, 250, 0.0f);

      glListBase(mFirstDisplayListId);

      glCallLists(text.length(), GL_UNSIGNED_BYTE, text.c_str());

      glDisable(GL_TEXTURE_2D);
      glDisable(GL_BLEND);

      glLoadIdentity();
   }

private:
   GLuint mFirstDisplayListId;
   GLuint* mTextureIds;
};

任何人都可以看到这里发生的任何奇怪的事情会导致乱码吗?这很奇怪,因为如果我更改字体大小或 DPI,那么一些正确显示的字母会变成乱码,而之前出现乱码的其他字母会正确显示。

4

4 回答 4

8

我对FreeType不熟悉,但是从图片来看,字符的宽度似乎与缓冲区的大小没有直接关系(即glyph->buffer不指向glyph->width*的数组glyth-> 高度字节)。

作为一种猜测,我会说所有字符在内存中都有一个宽度(与它们在屏幕上使用的大小相反),可能是所有字形宽度中最大的,但是你用每个字符加载它们宽度而不是正确的宽度。因此,只有使用全宽的字形是正确的。

于 2010-02-27T22:51:22.710 回答
4

采用:

glPixelStorei(GL_PACK_ALIGNMENT, 1);
glPixelStorei(GL_UNPACK_ALIGNMENT, 1);

这也让我很恼火,但你需要告诉 OpenGL 使用你给它的间距,而不是它期望的正常 32 位边界。图像的间距会发生变化,但OpenGL在创建纹理之前不知道在没有这些调用的情况下使用较小的包装对齐方式。

我这样做:

// Convert the glyph to a bitmap.
FT_Glyph_To_Bitmap(&glyph, FT_RENDER_MODE_NORMAL, NULL, true);
FT_BitmapGlyph bitmap_glyph = (FT_BitmapGlyph)glyph;

// This reference will make accessing the bitmap easier
FT_Bitmap& bitmap = bitmap_glyph->bitmap;

int _Left = abs(bitmap_glyph->left);
int _Top = abs(bitmap_glyph->top);
int _Height = abs(bitmap.rows);
int _Width = _Left+abs(bitmap.width);

// If it's not a glyph or spacing, go to the next one
if ((_Width == 0 || _Height == 0) && !isspace(i))
    return;

advances[i] = max(_Width, face->glyph->advance.x >> 6);

vector<unsigned char> Data(_Height*_Width*2, 0);
for (int32 h=0; h < abs(bitmap.rows); ++h)
    for (int32 w=0; w < abs(bitmap.width); ++w)
    {
        int32 luminance = bitmap.buffer[h*bitmap.pitch + w];
        Data[(h*_Width + w + _Left)*2 + 0] = 255;
        Data[(h*_Width + w + _Left)*2 + 1] = luminance;
    }

我可以将 255(白色)移到字符串初始化函数中,然后只使用其中的值FreeType作为我的 alpha 值,但这种方式似乎更具描述性,并且速度在我的使用中不是问题。

Address &Data[0] 现在包含一种GL_LUMINANCE_ALPHA external格式,包括 typeGL_UNSIGNED_CHAR和 size _Width*_Height。这应该使任何做这些事情的人的生活更轻松。

于 2011-01-24T10:37:06.390 回答
1

你确定这FT_Glyph实际上是一个位图字形吗?确保您FT_Glyph_To_Bitmap先使用。

或者,由于您之后似乎不需要存储FT_Glyphs ,您可以这样做:

int error = FT_Load_Char(face, ch, FT_LOAD_RENDER);
if(error)
   return error;

FT_GlyphSlot slot = face->glyph;
FT_Bitmap bitmap = slot->bitmap;

// do stuff with this FT_Bitmap

有关. _ _ FT_Bitmap请注意,下次调用时FT_Load_Char,中的数据bitmap将不再有效。

您在内存管理方面也存在许多问题。

  1. new Glyph用来分配你的字形,但从不调用delete.因为你只需要临时制作一个字形来生成纹理和显示列表,你应该使用一个std::auto_ptr<Glyph>.

  2. 你永远不会 call ,所以你分配的FT_Glyph_Done所有s 永远不会被释放。FT_Glyph

于 2010-02-27T22:44:27.673 回答
-1

“16”应该是以磅为单位的字体大小。所以,在翻译时你应该使用 glyph->width 而不是“16”。此外,某些字母可能需要调整字距以获得最佳文本。例如,“AV”可能看起来像“AV”,但没有使用字距调整。

于 2010-04-08T05:38:44.857 回答