问题标签 [spark-excel]
For questions regarding programming in ECMAScript (JavaScript/JS) and its various dialects/implementations (excluding ActionScript). Note JavaScript is NOT the same as Java! Please include all relevant tags on your question; e.g., [node.js], [jquery], [json], [reactjs], [angular], [ember.js], [vue.js], [typescript], [svelte], etc.
excel - 如何在 Scala/Spark 中创建包含来自多个 DataFrame 的多个工作表的 excel 文件?
在Scala/Spark
应用程序中,我创建了两个不同的 DataFrame。我的任务是为每个 DataFrame 创建一个带有两张工作表的 excel 文件。
我决定使用spark-excel库,但我有点困惑。据我了解,未来的excel文件是保存在hdfs文件系统中的吧?我需要在.save()
方法中设置未来excel文件的路径,对吗?另外我不明白应该dataAddress
选择什么格式?
excel - scala.MatchError 尝试通过 com.crealytics.spark.excel 读取 excel 文件
我正在尝试通过 com.crealytics.spark.excel 读取 excel 文件。但是我在尝试运行我的代码时遇到以下错误:
这是我的代码:
excel - 有没有办法通过 Scala/Spark 应用程序中的 Apache POI 设置 Excel 文件的样式?
在我的 Scala 应用程序中,我使用 Spark 插件 ( spark-excel ) 通过 Apache POI 创建和编写带有多个新工作表的 Excel 文件。
问题:有什么办法可以改变 Excel 文件的样式?例如我想改变标题的颜色,也改变列的宽度。你有什么建议?
excel - 在 Spark 错误中读取 Excel:ZipArchiveInputStream 类的 InputStream 未实现 InputStreamStatistics
我正在尝试通过 spark 从 COS 读取 excel 文件,就像这样
在这段代码中,我首先创建一个空数据框,然后读取所有 excel 文件(通过迭代文件路径)并通过联合操作合并数据。
它抛出这样的错误
sparkExcel 版本为 0.10.2
apache-spark - 如何使用 apache spark scala 读取 XLSX 的整个目录?
我必须读取 xlsx 文件的整个目录,并且需要使用 Scala 使用 Apache Spark 加载所有目录。
实际上我正在使用这个依赖项: "com.crealytics" %% "spark-excel" % "0.12.3"
,我不知道如何加载所有内容。
java - 如何使用 Apache Spark 读取来自公式的 excel 文件列数据
我正在尝试读取 spark 中的一个 excel 文件。我正在crealytics
为此使用库。
但是我的代码失败了,因为其中一列正在引用表格以通过VLOOKUP公式填充其值。
我一直在尝试使用“crealytics”库,但没有运气。
java.lang.RuntimeException:VLOOKUP 的未知单元格类型 2。
scala - 如何以orc格式在已经创建的hive表中加载excel数据
我需要以 orc 格式在已经创建的配置单元表中加载数据。
即我需要从excel表中读取数据,创建数据框,然后将其加载到orc格式的hive表中。
apache-spark - 在 pyspark 中读取 Excel (.xlsx) 文件
我正在尝试从 PySpark 中的本地路径读取 .xlsx 文件。
我写了下面的代码:
错误:
TypeError:“DataFrameReader”对象不可调用
java - java - 在使用java中的crealytics/spark-excel将多个org.apache.spark.sql.Dataset写入.xls文件时如何提及单个工作表名称?
我正在尝试将不同的 Java 数据集写入一个 excel 文件,该文件将使用 crealytics/spark-excel 库在其中包含多个工作表。
如何为这些单独的 Excel 工作表提供名称?
这是我想做的事情:
scala - 使用 apache spark 读取 excel 文件
(新的 Apache 火花)
我尝试创建一个小型 Scala Spark 应用程序,它读取 excel 文件并将数据插入数据库,但由于库版本不同(我认为),我遇到了一些错误。
Maven配置是:
Main.scala
错误是:
仅当我尝试读取 excel 文件时才会发生这种情况,因为我使用 spark-excel 库。CSV 或 tsv 工作正常。