我在 Spark 中寻找 Hadoop 的 mapjoin 等价物,我可以找到这个spark.sql.autoBroadcastJoinThreshold
- spark SQL 可以正常工作吗?我试过了,但它似乎没有效果,因为即使我应用了参数,随机读取/写入也是一样的。
我设置了这个值并运行了我的查询sqlContext.sql("SET spark.sql.autoBroadcastJoinThreshold=100000000;")
- SPARK-SQL 中还有其他等效概念吗?
谢谢 ..
我在 Spark 中寻找 Hadoop 的 mapjoin 等价物,我可以找到这个spark.sql.autoBroadcastJoinThreshold
我设置了这个值并运行了我的查询sqlContext.sql("SET spark.sql.autoBroadcastJoinThreshold=100000000;")
谢谢 ..
SET
查询被不支持它的 Spark 版本愉快而无声地吞没——我刚刚用 1.0.2 尝试过。