我是第一次使用 pyspark。
我希望我的 reducer 任务迭代从映射器返回的值,就像在 java 中一样。
我看到只有累加器选项而不是迭代 - 就像在添加函数 add(data1,data2) => data1 是累加器一样。
我想在我的输入中输入一个包含属于键的值的列表。
这就是我想做的。任何人都知道是否有这样做的选择?
我是第一次使用 pyspark。
我希望我的 reducer 任务迭代从映射器返回的值,就像在 java 中一样。
我看到只有累加器选项而不是迭代 - 就像在添加函数 add(data1,data2) => data1 是累加器一样。
我想在我的输入中输入一个包含属于键的值的列表。
这就是我想做的。任何人都知道是否有这样做的选择?