我在 Zeppelin 笔记本上使用带有 Scala 的 Spark 1.5.1。
- 我有一个 DataFrame,其中有一列名为 userID 的 Long 类型。
- 我总共有大约 400 万行和 200,000 个唯一用户 ID。
- 我还有一个要排除的 50,000 个用户 ID 的列表。
- 我可以轻松构建要保留的用户 ID 列表。
删除属于要排除的用户的所有行的最佳方法是什么?
提出相同问题的另一种方法是:保留属于用户的行的最佳方法是什么?
我看到了这篇文章并应用了它的解决方案(参见下面的代码),但执行速度很慢,因为我知道我在本地机器上运行 SPARK 1.5.1,我有 16GB 的良好 RAM 内存并且初始 DataFrame 适合记忆。
这是我正在应用的代码:
import org.apache.spark.sql.functions.lit
val finalDataFrame = initialDataFrame.where($"userID".in(listOfUsersToKeep.map(lit(_)):_*))
在上面的代码中:
- initialDataFrame 有 3885068 行,每行有 5 列,其中一列称为 userID,它包含 Long 值。
- listOfUsersToKeep 是一个 Array[Long],它包含 150,000 个 Long 用户 ID。
我想知道是否有比我正在使用的更有效的解决方案。
谢谢