Чтение файла внутри S3 из экземпляра EC2

Я хотел бы использовать AWS Data Pipeline, чтобы запустить экземпляр EC2, а затем запустить скрипт python, который хранится в S3.

Является ли это возможным? Я хотел бы сделать один шаг ETL, используя скрипт Python.

Это лучший способ?

2 ответа

Да, это возможно и относительно просто при использовании Shell Command Activity.

Я полагаю, что из предоставленных вами подробностей покажется, что это наилучший способ - поскольку DataPipeline предоставляет экземпляр EC2 для вас по требованию и впоследствии отключает его.

http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-object-shellcommandactivity.html

Существует также учебное пособие, которому вы можете следовать, чтобы привыкнуть к ShellCommndActivity of Data Pipeline. http://docs.aws.amazon.com/datapipeline/latest/DeveloperGuide/dp-template-gettingstartedshell.html

Да, вы можете напрямую загружать и резервировать свои данные в s3

http://awssolution.blogspot.in/2015/10/how-to-backup-share-and-organize-data.html

Другие вопросы по тегам