我使用 spark-2.1 。下面是我的代码
delta="insert overwrite table schema1.table1 select * from schema2.table2"
try:
spark.sql(delta)
except Exception as e:
spark.sql("drop table schema2.table2")
print("Overall load failed for schema1.table1", e)
sqlCtx.sql("drop table schema1.table1 ")
下面是我正在尝试的
从另一个 schema2 中的另一个 table2 插入到 schema1 的 table1 中。
我将它放在一个 try 块中,这样如果它成功,它将退出到 except 条件将删除表并打印消息架构 1.table1 的整体加载失败。
现在的问题是,每当我执行上述语句时,它都会将表删除到 schema 中。pyspark 不受 python 的 try and catch 控制
我感觉没有尝试它会进入 catch 块并丢弃
请帮助跨越这个障碍
提前致谢 !