0

我知道 Spark 不允许您使用在其内部map或其任何变体中生成 RDD 的函数。有解决办法吗?例如,我可以对分区中的所有 RDD 执行标准循环迭代吗?(例如,有没有一种方法可以将 RDD 转换为每个节点上的列表,以便每个节点包含它所携带的条目的列表?)

我正在尝试使用 in 进行一些图形处理graphframespyspark但目前无法执行我想要的操作。

4

0 回答 0