我是 Spark 的新用户。我有一个 Web 服务,允许用户通过从数据库中读取并将结果推回数据库来请求服务器执行复杂的数据分析。我已将这些分析转移到各种 Spark 应用程序中。目前我使用 spark-submit 来部署这些应用程序。
但是,我很好奇,当我的 Web 服务器(用 Java 编写)收到用户请求时,启动相应 Spark 应用程序的“最佳实践”方式是什么?Spark 的文档似乎是使用“spark-submit”,但我宁愿不将命令输出到终端以执行此操作。我看到了一个替代方案,Spark-JobServer,它提供了一个 RESTful 接口来执行此操作,但我的 Spark 应用程序是用 Java 或 R 编写的,这似乎与 Spark-JobServer 的接口不太好。
是否有另一种最佳实践可以从 Web 服务器(Java 中)启动 spark 应用程序,并等待作业成功或失败的状态结果?
任何关于其他人正在做什么来实现这一点的想法都会非常有帮助!谢谢!