0

我们在多个列上分区了 Spark 数据帧。例如,我们有一个合作伙伴列,可以是 Google、Facebook 和 Bing。我们有一个频道栏,可以是 PLA 和 Text。我们想分别在 Google-PLA、Google-TEXT、Facebook-TEXT 等上运行异常检测,因为它们遵循不同的模式。到目前为止,我发现我可以使用不同的过滤器描述配置 AnomalyCheckConfig,并在检查结果时使用相同的过滤器。但首先我需要过滤掉每个分区组合的数据,然后使用其关联的过滤器运行异常测试。一一连载。有没有办法并行运行它们?我可以对整个数据帧多次使用不同的 AnomalyCheckConfigs 执行 addAnomalyCheck() 并在一次运行中获得验证结果吗?

4

1 回答 1

1

如果您的 Spark DataFrame 中有分区列,则可以VerificationSuite通过指定要在其中运行异常检测的质量指标的条件,在单个中实例化多个异常检查。假设您要计算Completenessc1的 ,例如,您可以使用 来控制分区where = Some("partition = 'GOOGL'")

val verificationResults = VerificationSuite()
  .onData(df)
  ...
  .addAnomalyCheck(
    AbsoluteChangeStrategy(Some(-17.0), Some(7.0)),
    Completeness("c1", where = Some("c0 <= 5")),
    Some(AnomalyCheckConfig(CheckLevel.Error, "First Anomaly check",
      Map.empty, Some(0), Some(11)))
  )
  .addAnomalyCheck(
    AbsoluteChangeStrategy(Some(-17.0), Some(7.0)),
    Completeness("c1", where = Some("c0 > 5")),
    Some(AnomalyCheckConfig(CheckLevel.Error, "Second Anomaly check",
      Map.empty, Some(0), Some(11)))
  )
  .run()
于 2021-02-09T14:11:55.310 回答