我尝试使用这个问题将 rdd 对象转换为 spark 中的数据框。我的用例中的类包含 100 多个参数(列)
case class MyClass(val1: String, ..., val104: String )
val df = rdd.map({
case Row(val1: String, ..., val104: String) => MyClass(val1, ..., val104)
}).toDF("col1_name", ..., "col104_name")
我收到此错误:未应用模式的参数过多,最大值 = 22
有人可以帮我举一个具体的例子吗?我正在使用 spark 1.6 和 scala 。谢谢