在选择并行化任务时,我通常使用 Spark。阅读有关 Akka 并行处理的文章,例如http://blog.knoldus.com/2011/09/19/power-of-parallel-processing-in-akka/似乎使用 Akka 进行并行化处于较低水平。Spark 似乎从用户那里抽象了一些较低级别的概念,例如 map reduce。Spark 为分组和过滤数据提供了高级抽象。Akka 在并行化任务方面是 Spark 的竞争对手,还是他们在解决不同的问题?
在决定使用哪个之前,我应该考虑什么?