我希望使用Spark(http://spark.apache.org/docs/latest/programming-guide.html )的mapPartitions和reduce功能,使用sparklyr。
在pyspark中很容易,我唯一需要使用的是一个普通的 python 代码。我可以简单地添加 python 函数作为回调函数。太简单。
例如,在pyspark中,我可以使用这两个函数,如下所示:
mapdata = self.rdd.mapPartitions(mycbfunc1(myparam1))
res = mapdata.reduce(mycbfunc2(myparam2))
但是,这在 R 中似乎是不可能的,例如sparklyr库。我检查了 RSpark,但它似乎是在 R 中查询/整理数据的另一种方式,仅此而已。
如果有人让我知道如何在 R 中使用这两个函数和 R 回调函数,我将不胜感激。