2

我正在使用 Cloudera,Spark 版本是 2.1.0。

我试图交叉加入两个表并创建一个具有模糊匹配率的列(因此我需要导入fuzzywuzzy)。这是代码:

from fuzzywuzzy import fuzz
def fuzzy_ratio(x,y):
    from fuzzywuzzy import fuzz
    res = fuzz.token_set_ratio(x,y)
    return res

fuzz_udf = F.udf(fuzzy_ratio,IntegerType())  # register UDF

Master = tableA.crossJoin(tableB) \
               .withColumn('ratio',fuzz_udf(tableA['colA'],tableB['colB']))

它抛出

ImportError: No module named fuzzywuzzy

at org.apache.spark.api.python.PythonRunner$$anon$1.read(PythonRDD.scala:193)
at org.apache.spark.api.python.PythonRunner$$anon$1.<init>(PythonRDD.scala:234)
at org.apache.spark.api.python.PythonRunner.compute(PythonRDD.scala:152)
at org.apache.spark.sql.execution.python.BatchEvalPythonExec$$anonfun$doExecute$1.apply(BatchEvalPythonExec.scala:144)
at org.apache.spark.sql.execution.python.BatchEvalPythonExec$$anonfun$doExecute$1.apply(BatchEvalPythonExec.scala:87)
at org.apache.spark.rdd.RDD$$anonfun$mapPartitions$1$$anonfun$apply$23.apply(RDD.scala:796)

但是fuzzy.token_set_ratio当我在交互式外壳中输入它时可以工作。所以我真的不知道这里发生了什么。

有人可以帮忙解决我的问题吗?太感谢了!

4

2 回答 2

1

这是因为fuzzywuzzy 包并非在所有工作节点中都可用。一种解决方法是让您在所有工作节点中安装此软件包。

为了标准化此设置,它需要集群级别的配置。有关更多详细信息,请参阅cloudera 链接。

于 2017-07-11T17:15:10.033 回答
1

我遇到了类似的错误,我将fuzzywuzzy 依赖项添加到我的spark 提交命令中。

首先压缩两个包文件夹。在我的情况下,文件夹位于位置C:\Anaconda2\Lib\site-packages\fuzzywuzzyC:\Anaconda2\Lib\site-packages\fuzzywuzzy-0.15.0.dist-info

然后我将 zip 文件添加到spark-submit命令中 ../bin/spark-submit /path/to/mycode.py --py-files /path/to/fuzzywuzzy.zip

这确保了所有工作节点都获得了fuzzywuzzy 依赖。

还有一个选项可以稍后在 sparkContext 中添加此依赖项spark.sparkContext.addPyFile('/path/to/fuzzywuzzy.zip')

于 2017-10-10T09:49:15.053 回答