Проблема с блоком try и кроме pyspark
Я использую spark-2.1 . Ниже мой код
delta="insert overwrite table schema1.table1 select * from schema2.table2"
try:
spark.sql(delta)
except Exception as e:
spark.sql("drop table schema2.table2")
print("Overall load failed for schema1.table1", e)
sqlCtx.sql("drop table schema1.table1 ")
Ниже то, что я пытаюсь
Вставить в таблицу1 схемы1 из другой таблицы2 в другую схему2.
Я помещаю его в блок try, чтобы в случае его успешного завершения он ушел, за исключением того, что условие сбрасывает таблицу и печатает сообщение "Полная загрузка не удалась для schema1.table1".
Теперь проблема в том, что всякий раз, когда я выполняю вышеприведенный оператор, он удаляет таблицу в схеме. Pyspark не контролируется попытками Python
Я чувствую, не вдаваясь в попытки, это идет в ловушку блока и падает
Пожалуйста, помогите преодолеть это препятствие
Заранее спасибо!