根据此处提到的说明,我正在尝试在启动 spark-shell 时包含 spark-avro 包:https ://github.com/databricks/spark-avro#with-spark-shell-or-spark-submit 。
spark-shell --packages com.databricks:spark-avro_2.10:2.0.1
我的意图是使用包中存在的 SchemaConverter 类将 avro 模式转换为 spark 模式类型。
import com.databricks.spark.avro._ ... //colListDel 是来自 avsc 的字段列表,由于某些功能原因,这些字段将被删除。
for( field <- colListDel){
println(SchemaConverters.toSqlType(field.schema()).dataType);
}
...
在执行上述 for 循环时,我得到以下错误:
<console>:47: error: object SchemaConverters in package avro cannot be accessed in package com.databricks.spark.avro
println(SchemaConverters.toSqlType(field.schema()).dataType);
请建议我是否缺少任何东西,或者让我知道如何在我的 scala 代码中包含 SchemaConverter。
以下是我的 envt 详细信息: Spark 版本:1.6.0 Cloudera VM 5.7
谢谢!