1

我正在尝试使用随机森林进行使用 spark 2.1.1 的多类分类

像往常一样定义我的管道后,它在索引阶段失败了。

我有一个包含许多字符串类型列的数据框。我为它们中的每一个创建了一个 StringIndexer。

我通过将 StringIndexers 与 VectorAssembler 链接起来创建一个管道,最后是一个 RandomForestClassifier,然后是一个标签转换器。

我已经检查了我所有的专栏,distinct().count()以确保我没有太多的类别等等......

经过一些调试,我了解到每当我开始对某些列进行索引时,都会出现以下错误......调用时:

  val indexer = udf { label: String =>
  if (labelToIndex.contains(label)) {
    labelToIndex(label)
  } else {
    throw new SparkException(s"Unseen label: $label.")
  }
}

Error evaluating methog: 'labelToIndex'
Error evaluating methog: 'labels'

然后在转换内部,定义元数据时出现此错误:

错误评估方法:org$apache$spark$ml$feature$StringIndexerModel$$labelToIndex 方法抛出“java.lang.NullPointerException”异常。无法评估 org.apache.spark.sql.types.Metadata.toString()

发生这种情况是因为我在索引的某些列上有 null。

我可以使用以下示例重现该错误。

val df = spark.createDataFrame(
  Seq(("asd2s","1e1e",1.1,0), ("asd2s","1e1e",0.1,0), 
      (null,"1e3e",1.2,0), ("bd34t","1e1e",5.1,1), 
      ("asd2s","1e3e",0.2,0), ("bd34t","1e2e",4.3,1))
).toDF("x0","x1","x2","x3")

val indexer = new 
StringIndexer().setInputCol("x0").setOutputCol("x0idx")

indexer.fit(df).transform(df).show

// java.lang.NullPointerException

https://issues.apache.org/jira/browse/SPARK-11569

https://github.com/apache/spark/blob/branch-2.1/mllib/src/main/scala/org/apache/spark/ml/feature/StringIndexer.scala

4

2 回答 2

0

可以使用此处提供的解决方案,并且在Spark 2.2.0上,该问题已在上游修复。

于 2018-02-14T23:43:14.557 回答
0

您可以使用 DataFrame.na.fill(Map("colName1", val1), ("colName2", val2),..))

在哪里:

数据帧 - 数据帧对象;“colName” - 列的名称 & val - 如果在“colName”列中找到任何空值,则替换该值。

在填充所有空值后使用特征转换。

您可以检查以下所有列中的空值数:

for ( column <- DataFrame.columns ) { DataFrame.filter(DataFrame(column) === null || DataFrame(column).isNull || DataFrame(column).isNan).count()

}

或者

DataFrame.count() 将为您提供 DataFrame 中的总行数。然后可以通过 DataFrame.describe() 来判断 null 的个数

于 2018-02-15T21:45:29.610 回答