在 bash shell 中运行spark-shell --packages "graphframes:graphframes:0.7.0-spark2.4-s_2.11"
有效,我可以成功导入 graphframes 0.7,但是当我尝试在这样的 scala jupyter 笔记本中使用它时:
import scala.sys.process._
"spark-shell --packages \"graphframes:graphframes:0.7.0-spark2.4-s_2.11\""!
import org.graphframes._
给出错误信息:
<console>:53: error: object graphframes is not a member of package org
import org.graphframes._
据我所知,这意味着它运行 bash 命令,但仍然找不到检索到的包。
我在运行 spark scala 内核的 EMR Notebook 上执行此操作。
我是否必须在 jupyter 环境中设置某种火花库路径?