R: Автоматизируйте очистку и хранение данных Twitter в облаке

Я являюсь пользователем R и работаю над проектом, который включает в себя получение информации из данных Twitter (более конкретно, просмотр данных Twitter с использованием rtweet пакет и проведение анализа на эти данные). Кроме того, для визуализации я создал приложение Shiny на основе этих данных.

Где мне нужны дополнительные входы

Сегодня данные Twitter, которые я собираю, хранятся локально на моем ноутбуке. Однако я хотел бы сделать это по-другому. В идеале я бы хотел добиться следующего -

1) Данные извлекаются из Twitter с помощью rtweet пакет и хранится непосредственно на облачной платформе (например, AWS или Microsoft Azure).

2) Я бы хотел определить периодичность этого процесса очистки (например, раз в два дня). Я хотел бы добиться этого с помощью какого-либо инструмента планирования.

3) В конце концов, я бы хотел, чтобы мое приложение Shiny (размещенное на shinyapps.io) могло взаимодействовать с этой облачной платформой и получать сохраненные в ней твиты для анализа.

Я искал в Интернете решения, но пока ничего не нашел.

Если у кого-то есть опыт в этом, ваши отзывы будут высоко оценены.

1 ответ

Решение

Вы создаете аккаунт на AWS. Затем вы создаете s3 bucket. На вашем виртуальном сервере или машине с hwrre вы хотите сделать копию, вы устанавливаете aws cli (клиент для взаимодействия с aws resiurces)

Затем вы запустили команду копирования и файлы копируются в облако.

Точно так же назад вы используете cli для извлечения файлов

Другие вопросы по тегам