我们正在处理 5000 万条数据,最后处理后我们在 pig 脚本中使用 rank 函数,而 pig 作业在执行 rank 函数时失败,我们得到以下错误:“org.apache.hadoop.mapreduce.counters.LimitExceededException:计数器太多:121 max=120"
我们在 pig 脚本中使用了以下命令,但仍然遇到相同的错误:
设置 mapreduce.job.counters.max 1000
如果有人能帮我解决这个错误,或者可以为我提供在 50+百万处理数据上使用排名函数的替代方法,我将不胜感激。