0

我正在尝试通过 com.crealytics.spark.excel 读取 excel 文件。但是我在尝试运行我的代码时遇到以下错误:

scala.MatchError: Map(treatemptyvaluesasnulls -> true, location -> a.xlsx, useheader -> true, inferschema -> False, addcolorcolumns -> False) (of class org.apache.spark.sql.catalyst.util.CaseInsensitiveMap)
at com.crealytics.spark.excel.WorkbookReader$.apply(WorkbookReader.scala:30)

这是我的代码:

spark.read
      .format("com.crealytics.spark.excel")
      .option("location", fileLoc)
      .option("useHeader", "true")
      .option("treatEmptyValuesAsNulls", "true")
      .option("inferSchema", "False")
      .option("addColorColumns", "False")
      .load()
4

1 回答 1

0

如果您安装com.crealytics:spark-excel_2.11:0.12.5库(在 Databricks 中按预期工作),这可能会起作用。

val df_excel= spark.read.
                   format("com.crealytics.spark.excel").
                   option("useHeader", "true").
                   option("treatEmptyValuesAsNulls", "false").
                   option("inferSchema", "false"). 
                   option("addColorColumns", "false").load(file_path)

display(df_excel)
于 2020-02-22T16:45:44.970 回答