-1

我需要使用包 org.apache.spark.sql.functions._ 中的函数 array_max 和 array_min ,但是两个函数都没有找到?

scala> import org.apache.spark.sql.functions._
     import org.apache.spark.sql.functions._
scala>... array_max(col(..))
error: not found: value array_max

ps:

  1. 斯卡拉版本 2.11.8
  2. 火花版本 2.3.0.2.6.5.0-292
  3. HDP 2.6.5
4

1 回答 1

0

def array_max(e: org.apache.spark.sql.Column): org.apache.spark.sql.Column

array_max功能在Spark 2.3& 之后才可用Spark 2.4

如需参考,请查看下面的 git repos。

Spark 2.3

Spark 2.4

于 2020-05-04T13:46:32.307 回答