AWS SageMaker Spark SQL

Я знаю, что, например, благодаря предложению Qubole Hive, в котором используются записные книжки Zeppelin, я могу использовать Spark SQL для выполнения собственных команд SQL для взаимодействия с таблицами Hive. Я могу читать из внешних таблиц и создавать внутренние таблицы или просто выполнять специальные запросы.

Я работаю над проектом в AWS. У меня есть данные в S3, с внешними таблицами, созданными в Афине. Я нашел статьи и последовал за ними, чтобы настроить некоторые ноутбуки Jupyter, но я не понимаю, как у меня могут быть записные книжки, использующие Spark SQL. Это возможно?

Если нет, то каков наилучший механизм в экосистеме AWS для инкапсуляции логики для создания внутренних таблиц из внешних таблиц для вторичной обработки данных.

1 ответ

Решение

У вас есть два варианта:

1) запустить записные книжки Jupyter на EMR: https://docs.aws.amazon.com/emr/latest/ManagementGuide/emr-managed-notebooks.html

2) запустить блокноты Jupyter на SageMaker: https://docs.aws.amazon.com/sagemaker/latest/dg/gs.html

Оба поддерживают PySpark, поэтому вы должны иметь возможность выполнять SQL-запросы на любом бэкэнде, в котором живут ваши данные.

Другие вопросы по тегам