众所周知,HDFS 中的块大小与传统文件系统中的块大小相比非常大(64M 或 128M)。这样做是为了减少寻道时间与传输时间相比的百分比(传输速率的改进比磁盘寻道时间的改进要大得多,因此,设计文件系统的目标始终是减少与要传输的数据量相比的查找次数)。但这带来了内部碎片的另一个缺点(这就是为什么传统的文件系统块大小不那么大,并且只有几个 KB 的数量级 - 通常是 4K 或 8K)。
我正在阅读这本书 - Hadoop,权威指南,发现这写在某处,一个小于 HDFS 块大小的文件不占用整个块,也不占整个块的空间,但不明白怎么做?有人可以对此有所了解。