0

我已经在 window-10 中安装了 HADOOP,但是当我安装 Apache Spark 时,我必须在单个变量中提供两个路径,即“HADOOP_HOME”,我无法创建两个具有相同名称的变量,请指导我如何在单个变量中设置两个路径。

4

1 回答 1

0

好吧,显然这是不可能的,所以你误解了一些东西

如果您已经拥有 Hadoop,则可以下载未与 Hadoop 本身捆绑的 Spark 二进制文件。然后它将使用您现有的所有设置和变量

于 2021-09-26T08:05:54.297 回答