假设我们有一个大约 17,000 行的 PySpark 数据框,并且想要检查列“a”是否不为空。以下代码需要多长时间才能运行:
import great_expectations as ge
# results_all is a list of PySpark Data Frames and its length is currently 1
for df in results_all:
dq = ge.dataset.SparkDFDataset(df)
r1 = dq.expect_column_values_to_not_be_null('a')
print(r1)
到目前为止,它已经花费了大约 14 个小时,并且仍然作为胶水作业运行。这是预期的吗?