我在 spark 1.5.0 中有一个包含两列的数据框。以下查询正常工作:
sqlContext.sql("select id, value from table").show()
但是做聚合失败了:
sqlContext.sql("select id, count(value) from table group by id").show()
返回错误:
WARN TaskSetManager: Lost task 13.0 in stage 10.0: Traceback
...
IndexError: list Index out of range
我count
故意使用确实排除了错误类型的可能性。所有列都被视为字符串(尽管有些是数字)。我叫错了吗?