我正在尝试使用 PySpark 在外部 jar 中导入类,我正在运行带有 --jars 的 spark-shell 以及包含我想要使用的类的 jar 的路径。
但是,当我在代码中导入类时,找不到命名空间:
from io.warp10.spark import WarpScriptFilterFunction
错误:
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
Traceback (most recent call last):
File "warp10-test.py", line 1, in <module>
from io.warp10.spark import WarpScriptFilterFunction
ImportError: No module named warp10.spark