0

我正在尝试将我的 Scala Eclipse IDE 与我的 Azure Databricks 集群集成,以便我可以通过我的 Databricks 集群上的 Eclipse IDE 直接运行我的 Spark 程序。

我遵循了 Databricks Connect 的官方文档(https://docs.databricks.com/dev-tools/databricks-connect.html)。我有:安装了 Anaconda。安装了 Python Lib 3.7 和 Databricks Connect 库 6.0.1。是否 Databricks 连接配置部分(CLI 部分)。此外,还在 Eclipse IDE 中添加了客户端库。设置 SPARK_HOME 环境。我从 Anaconda 中运行命令获得的路径的变量,即“databricks-connect get-jar-dir”

除了上面提到的之外,我没有设置任何其他环境变量。

需要帮助才能找到完成此集成需要做的其他事情,例如 ENV. 如果通过 IDE 运行,与连接相关的变量将起作用。

如果有人已经成功地做到了这一点,请指导我。

4

0 回答 0