Загрузка данных в озеро дельты из хранилища лазурной капли

Я пытаюсь загрузить данные в озеро дельты из хранилища голубых блобов. Я использую приведенный ниже фрагмент кода

storage_account_name = "xxxxxxxxdev" storage_account_access_key = "xxxxxxxxxxxxxxxxxxxxx"

file_location = "wasbs: //bicc-hdspk-eus-qc@xxxxxxxxdev.blob.core.windows.net/FSHC/DIM/FSHC_DIM_SBU"

file_type = "csv"

spark.conf.set ("fs.azure.account.key." + storage_account_name + "blob.core.windows.net", storage_account_access_key)

df = spark.read.format (file_type).option ("header", "true"). option ("inferSchema", "true"). option ("delimiter", '|'). load (file_location)

dx = df.write.format ("паркет")

До этого этапа он работает, и я также могу загрузить его в таблицу блоков данных.

dx.write.format ("дельта"). сохранить (file_location)

ошибка: AttributeError: у объекта "DataFrameWriter" нет атрибута "запись"

PS - Я передаю местоположение файла неправильно в операторе записи? Если это причина, то каков путь к файлу для delta lake.

Пожалуйста, вернитесь ко мне, если потребуется дополнительная информация.

Спасибо, Абхируп

1 ответ

Dx - это создатель данных, поэтому то, что вы пытаетесь сделать, не имеет смысла. Вы могли бы сделать это:

df = spark.read.format(file_type).option("header","true").option("inferSchema", "true").option("delimiter", '|').load(file_location)

df.write.format("parquet").save()
df.write.format("delta").save()
Другие вопросы по тегам