我们在公司内部进行一些文件处理\计算 简单地说,我们有一项工作或任务涉及读取一个包含超过十亿条记录的大文件,解析文件并进行一些清理并将清理后的数据写入另一个文件。我们有数百个这样的工作不断被创建、提交、运行。每个作业都处理自己的文件,因此我们不必担心并发问题。
为此,我们构建了自己的调度系统(MainFrame 和 Java 的组合)。我们目前的吞吐量约为每小时 4000 万条记录。
在我们追求更好(并提供更多容错能力)的过程中,我们正在评估 IBM 的 LSF 以帮助我们进行这种调度和创建作业。
你们有没有人觉得使用 LSF 可能会解决这个问题?我可以考虑使用 AKKA 中的参与者模型实现并围绕它编写自己的作业调度程序来实现相同的目标。
有什么想法吗?