1

我使用 spark-2.1 。下面是我的代码

    delta="insert overwrite table schema1.table1 select * from schema2.table2"

    try:
             spark.sql(delta)
    except Exception as e:
             spark.sql("drop table schema2.table2")
             print("Overall load failed for schema1.table1", e)

    sqlCtx.sql("drop table schema1.table1 ")

下面是我正在尝试的

从另一个 schema2 中的另一个 table2 插入到 schema1 的 table1 中。

我将它放在一个 try 块中,这样如果它成功,它将退出到 except 条件将删除表并打印消息架构 1.table1 的整体加载失败。

现在的问题是,每当我执行上述语句时,它都会将表删除到 schema 中。pyspark 不受 python 的 try and catch 控制

我感觉没有尝试它会进入 catch 块并丢弃

请帮助跨越这个障碍

提前致谢 !

4

0 回答 0