我们在多个列上分区了 Spark 数据帧。例如,我们有一个合作伙伴列,可以是 Google、Facebook 和 Bing。我们有一个频道栏,可以是 PLA 和 Text。我们想分别在 Google-PLA、Google-TEXT、Facebook-TEXT 等上运行异常检测,因为它们遵循不同的模式。到目前为止,我发现我可以使用不同的过滤器描述配置 AnomalyCheckConfig,并在检查结果时使用相同的过滤器。但首先我需要过滤掉每个分区组合的数据,然后使用其关联的过滤器运行异常测试。一一连载。有没有办法并行运行它们?我可以对整个数据帧多次使用不同的 AnomalyCheckConfigs 执行 addAnomalyCheck() 并在一次运行中获得验证结果吗?
问问题
356 次
1 回答
1
如果您的 Spark DataFrame 中有分区列,则可以VerificationSuite
通过指定要在其中运行异常检测的质量指标的条件,在单个中实例化多个异常检查。假设您要计算Completeness
列c1
的 ,例如,您可以使用 来控制分区where = Some("partition = 'GOOGL'")
。
val verificationResults = VerificationSuite()
.onData(df)
...
.addAnomalyCheck(
AbsoluteChangeStrategy(Some(-17.0), Some(7.0)),
Completeness("c1", where = Some("c0 <= 5")),
Some(AnomalyCheckConfig(CheckLevel.Error, "First Anomaly check",
Map.empty, Some(0), Some(11)))
)
.addAnomalyCheck(
AbsoluteChangeStrategy(Some(-17.0), Some(7.0)),
Completeness("c1", where = Some("c0 > 5")),
Some(AnomalyCheckConfig(CheckLevel.Error, "Second Anomaly check",
Map.empty, Some(0), Some(11)))
)
.run()
于 2021-02-09T14:11:55.310 回答