1

我有一个在许多 url 上运行并解析它们的 mapreduce 作业。我需要一种方法来处理一个解析任务因致命错误(如 OOM 错误)而崩溃的情况。在正常的 hadoop 行为中,任务被重试了定义的时间,然后作业失败。问题在于以某种方式损坏的网址导致此错误。这些 url 将在所有重试中失败。

有没有办法在任务失败后进行干预?或达到重试次数后?并防止整个工作失败?

4

0 回答 0