0

现在我有两个 hadoop 工作需要链接在一起。一个是 Mapred 作业(旧 API),另一个是 Mapreduce 作业(新 API),这是因为我们用于这两个作业的外部库。

我想知道是否有一个很好的方法可以链接这两个工作。

我已经尝试了一种方法(首先使用 JobClient.runjob() 运行 mapred 作业,在它完成运行第二个之后。)但是我将这个作业提交给 hadoop 集群有一个问题。如果我关闭本地终端,那么只有第一个作业会运行,第二个不会。是因为Java代码是在本地运行的,那么有没有好的解决办法呢?然后我可以将整个作业提交到集群,本地程序不需要继续运行。

4

0 回答 0