我了解创建 Atlas 时,图像是:
a) 旋转
b) 修剪多余的透明像素
c) 颜色格式可能会改变等
因此,如果我有一个 50 像素高的图像,但只有图像的顶部是纯色,而底部是完全透明的。该图像将存储在高度为 25 像素的图集中,透明像素将被丢弃)。
我很难理解的是...
当您将此图像从地图集显示到屏幕时应该发生什么?
我应该取回原始图像的精确副本(在高度降低到 25 像素之前)吗?
在 Xcode 6.x 及以下版本中,这似乎正是会发生的情况:
- 如果我在 xcode 6 中用此图像填充整个屏幕(顶部为 50% 纯色,底部为 50% 透明),我会看到屏幕的上半部分为纯色,而底部将是透明的。
如果我使用最新的 SDK 做同样的事情,屏幕的顶部 25% 是透明的,中间 50% 是我的纯色,底部 25% 是透明的。
我不知道透明像素是否被添加回图像,如果我实际上正在处理我现在在图集中看到的完全相同的图像(透明像素的裁剪/修剪),或者图像我'从图集回来的是我的图像,透明空间平等地返回到每一侧 vs(在一侧或另一侧)。
我真的很想了解正在发生的事情(现在看起来像是一个错误)。
我知道很多人建议在透明空间的角落使用 1% 的 alpha 像素,以确保图像完全按照他们想要的方式返回,但我认为这不是一个好的解决方案(使 atlas 图像更大,像素是如果你足够努力的话,在 1% 处可见)
谁能告诉我这是否是一个错误,是否有原因为什么我的所有带有透明像素的图像现在都返回位于宽度 x 高度框架底部的图像?