我在玩 Livy/Spark,对如何使用其中一些有点困惑。在构建作业的 livy 示例文件夹中有一个示例,该示例将上传到 spark。我喜欢正在使用的接口,但我想通过 http 连接到 livy/spark,因为我没有 java 客户端。这样看来,如果我使用 livyclient 上传 jar,它似乎只存在于该 spark 会话中。有没有办法将 livyjobs 上传到 spark 中,然后在所有 spark 中持续存在?将这些工作/应用程序改为 spark 会更好吗?
老实说,我试图找出最好的方法是什么。我希望能够通过 shell 做交互式的事情,但我也想为我经常使用的 spark 中不可用的算法制作自定义作业。我不确定我应该用什么方法来解决这个问题。有什么想法吗?我应该如何使用 Livy?就像其他服务一样,在 spark 中构建自定义应用程序/方法?
例如:
假设我有一些 javascript 应用程序,并且我有一些可以加载的数据,并且我想在其上运行算法 x。算法 x 是否在 spark 中实现,但是通过按下该按钮,我想将该数据放入 spark 中,无论是放入 hdfs 还是从 elasticsearch 中提取或其他。如果我有 livy,我想在 livy 中调用一些 rest 命令来执行此操作,然后它会运行该特定算法。这样做的标准方法是什么?
谢谢