大家,早安,
我正在开发一个运行 Hadoop Pipes 1.1.2 的完整集群,我发现这些错误适用于很长的工作:
2013-07-24 06:13:55,058 ERROR org.apache.hadoop.mapred.pipes.BinaryProtocol: java.io.IOException: Bad command code: 48
at org.apache.hadoop.mapred.pipes.BinaryProtocol$UplinkReaderThread.run(BinaryProtocol.java:157)
(这个一对一节点)
2013-07-24 06:18:03,472 ERROR org.apache.hadoop.mapred.pipes.BinaryProtocol: java.lang.NegativeArraySizeException
at org.apache.hadoop.mapred.pipes.BinaryProtocol$UplinkReaderThread.readObject(BinaryProtocol.java:180)
at org.apache.hadoop.mapred.pipes.BinaryProtocol$UplinkReaderThread.run(BinaryProtocol.java:132)
(其余执行reduce任务的这个)
这是我的减速器代码。我使用那里的地图按字符串中的辅助键进行排序,也欢迎任何性能改进!
void ACEReducer::reduce(HadoopPipes::ReduceContext& context) {
string fragmento, instante, contenido;
size_t pos;
string fichero = string();
map<string, string> resultados;
// Ordena la lista de valores para escribirlos conforme al instante simulado (map se encarga de la ordenacon)
int nValores = 0;
while (context.nextValue()) {
fragmento = context.getInputValue();
pos = fragmento.find("\t", 0);
if (pos == string::npos) {
cerr << "ERROR - Valor erroneo en Reduce." << endl;
} else {
instante = fragmento.substr(0, pos);
contenido = fragmento.substr(pos+1, string::npos);
resultados.insert(pair<string&, string&>(instante, contenido));
}
nValores++;
if (nValores % 10 == 0) {
context.progress();
}
}
// Concatena los resultados ordenados y los emite para escritura.
nValores = 0;
for (map<string, string>::iterator it=resultados.begin(); it!=resultados.end(); it++){
nValores++;
if (nValores % 10 == 0) {
context.progress();
}
fichero += it->second;
}
context.emit(context.getInputKey(), fichero);
}
抛出 IOException 的代码在 Java BinaryProtocol 的 run() 函数中;它可以在第 120 行找到。 NegativeArraySizeException 在第 133 行和第 149 行之间的某处被抛出;我的猜测是int numBytes = WritableUtils.readVInt(inStream);
高于 INT_MAX 但我不知道如何解决它。
HDFS 在所有节点中看起来都很健康,仅使用了约 3%。我正在使用非常强大的节点,至少有 64GB 的 RAM。
我已经搜索了这个问题,但没有找到任何提示,因此非常感谢任何帮助。
提前致谢,
里奥