我正在运行100个查询(测试用例)以检查Spark Scala中的数据质量。我正在从配置单元表查询数据。
空数据框是这些示例查询的预期结果:
SELECT car_type FROM car_data WHERE car_version is null
SELECT car_color FROM car_data WHERE car_date is null
SELECT car_sale FROM car_data WHERE car_timestamp is null
我想根据预期结果将测试用例通过还是失败写到文本文件中。我想知道实现此目标的最佳方法。
到目前为止我所拥有的:
val test_1 = context.sql("SELECT car_type FROM car_data WHERE car_version is null")
val test_2 = context.sql("SELECT car_color FROM car_data WHERE car_date is null")
val test_3 = context.sql("SELECT car_sale FROM car_data WHERE car_timestamp is null")
test_1.head(1).isEmpty
如果您想知道是否有任何值是NULL
,则可以使用条件聚合。我倾向于使用一个查询来运行所有测试:
SELECT (CASE WHEN COUNT(*) = COUNT(car_type) THEN 'PASS' ELSE 'FAIL' END) as car_type_test,
(CASE WHEN COUNT(*) = COUNT(car_color) THEN 'PASS' ELSE 'FAIL' END) as car_color_test,
(CASE WHEN COUNT(*) = COUNT(car_sale) THEN 'PASS' ELSE 'FAIL' END) as car_sale_test
FROM car_data;
注意:这将认为是一个空表可以通过测试,而您的代码则不会。这些可以很容易地修改以处理这种情况,但是这种行为对我来说很有意义。