1

我在 Spark 中寻找 Hadoop 的 mapjoin 等价物,我可以找到这个spark.sql.autoBroadcastJoinThreshold

  1. spark SQL 可以正常工作吗?我试过了,但它似乎没有效果,因为即使我应用了参数,随机读取/写入也是一样的。

我设置了这个值并运行了我的查询sqlContext.sql("SET spark.sql.autoBroadcastJoinThreshold=100000000;")

  1. SPARK-SQL 中还有其他等效概念吗?

谢谢 ..

4

1 回答 1

0
  1. 这是在 Spark 1.1.0 中引入的。
  2. 它在 Spark 测试套件进行了测试(一点点)——请参阅PlannerSuite
  3. 您的SET查询被不支持它的 Spark 版本愉快而无声地吞没——我刚刚用 1.0.2 尝试过。
于 2014-09-24T21:56:59.557 回答