大师!
很长一段时间我找不到以下问题的答案:hadoop 如何在写入过程中拆分大文件。示例:1) 块大小 64 Mb 2) 文件大小 128 Mb(平面文件,包含文本)。
当我写文件时,它将被分成两部分(文件大小/块大小)。但是... Block1 之后的可能出现 将在... word300 word301 wo 和 Block 2 将开始 rd302 word303 ... 写案例将是
Block1 将在 ... word300 word301 结束,Block 2 将从 word302** word303 ...
或者你可以在写hadoop拆分算法的地方链接。
先感谢您!