Проблема с блоком try и кроме pyspark

Я использую spark-2.1 . Ниже мой код

    delta="insert overwrite table schema1.table1 select * from schema2.table2"

    try:
             spark.sql(delta)
    except Exception as e:
             spark.sql("drop table schema2.table2")
             print("Overall load failed for schema1.table1", e)

    sqlCtx.sql("drop table schema1.table1 ")

Ниже то, что я пытаюсь

Вставить в таблицу1 схемы1 из другой таблицы2 в другую схему2.

Я помещаю его в блок try, чтобы в случае его успешного завершения он ушел, за исключением того, что условие сбрасывает таблицу и печатает сообщение "Полная загрузка не удалась для schema1.table1".

Теперь проблема в том, что всякий раз, когда я выполняю вышеприведенный оператор, он удаляет таблицу в схеме. Pyspark не контролируется попытками Python

Я чувствую, не вдаваясь в попытки, это идет в ловушку блока и падает

Пожалуйста, помогите преодолеть это препятствие

Заранее спасибо!

0 ответов

Другие вопросы по тегам