我用的是hadoop cdh4.1.2,我的mapper程序几乎是输入数据的回声。但是在我的工作状态页面中,我看到了
FILE: Number of bytes written 3,040,552,298,327
几乎等于
FILE: Number of bytes read 3,363,917,397,416
对于映射器,虽然我已经设置了
conf.set("mapred.compress.map.output", "true");
似乎他们的压缩算法不适用于我的工作?为什么是这样?