我阅读了以下 wiki,但仍然无法澄清一件事。
https://wiki.apache.org/hadoop/HadoopMapReduce
比如说,我有一个大文件被分成两个 HDFS 块,并且这些块被物理保存到 2 台不同的机器中。考虑在集群中没有这样的节点在本地托管这两个块。据我了解,对于 TextInputFormat HDFS 块大小通常与拆分大小相同。现在由于有 2 个拆分,2 个地图实例将在 2 个单独的机器中生成,这些机器在本地保存块。现在假设 HDFS 文本文件在一行中间被破坏以形成块。hadoop 现在会将第 2 台机器中的第 2 块复制到第 1 台机器中,以便它可以提供第 2 块的第一行(断线的一半)来完成第一个块的最后一条断线吗?