我正在使用 AWS 笔记本。我可以在没有第三方库依赖的情况下运行正常的基于 scala 的 spark 作业。但我想加载一些常见的库,如 typesafe-config、mysql-connector 等。
如何在 AWS 上的 scala spark notebook 中添加这些库依赖项?
我尝试在笔记本的第一个单元格中添加这些片段,但都没有奏效
%%configure -f
{
"conf": {
"spark.jars": "s3://bucket-xxx/jars/lib/config-1.3.1.jar"
}
}
也
%%configure -f
{
"conf": {"spark.jars.packages": "com.typesafe:config:1.3.1,mysql:mysql-connector-java:8.0.17"},
"jars": ["s3://bucket-xxx/jars/lib/"]
}
都抛出了错误
控制台>:29:错误:对象 ConfigFactor 不是包 com.typesafe.config 导入 com.typesafe.config.ConfigFactor 的成员
当我尝试导入类型安全配置时
import com.typesafe.config.ConfigFactor
我还尝试在笔记本元数据中添加 Maven 坐标为
"customDeps": [
"com.typesafe:config:1.3.1"
]
并得到
错误:对象类型安全不是包 com 导入 com.typesafe.config.ConfigFactor 的成员