Роль сокола в экосистеме Hadoop

Я должен работать над зеркалированием кластера, где мне нужно настроить аналогичный кластер HDFS (тот же главный и подчиненный), как существующий, и скопировать данные в новый, а затем запустить те же задания, что и у меня.

Я читал о соколе как инструменте для обработки кормов и координации рабочего процесса, и он также используется для зеркалирования кластеров HDFS. Может ли кто-нибудь объяснить мне, какова роль Сокола в экосистеме Hadoop и как это помогает в отражении, в частности. Я ищу здесь, чтобы понять, что предлагает весь facon, когда он является частью моей экосистемы Hadoop (HDP).

1 ответ

Решение
  • Apache Falcon упрощает настройку перемещения данных с помощью: репликации; управление жизненным циклом; происхождение и прослеживаемость. Это обеспечивает согласованность управления данными между компонентами Hadoop.
  • Репликация сокола асинхронна с дельта-изменениями. Восстановление выполняется путем запуска процесса и замены источника и цели.
  • Потеря данных - дельта-данные могут быть потеряны, если основной кластер полностью отключен
  • Резервное копирование может быть запланировано при необходимости в зависимости от пропускной способности и доступности сети.
Другие вопросы по тегам