Роль сокола в экосистеме Hadoop
Я должен работать над зеркалированием кластера, где мне нужно настроить аналогичный кластер HDFS (тот же главный и подчиненный), как существующий, и скопировать данные в новый, а затем запустить те же задания, что и у меня.
Я читал о соколе как инструменте для обработки кормов и координации рабочего процесса, и он также используется для зеркалирования кластеров HDFS. Может ли кто-нибудь объяснить мне, какова роль Сокола в экосистеме Hadoop и как это помогает в отражении, в частности. Я ищу здесь, чтобы понять, что предлагает весь facon, когда он является частью моей экосистемы Hadoop (HDP).
1 ответ
Решение
- Apache Falcon упрощает настройку перемещения данных с помощью: репликации; управление жизненным циклом; происхождение и прослеживаемость. Это обеспечивает согласованность управления данными между компонентами Hadoop.
- Репликация сокола асинхронна с дельта-изменениями. Восстановление выполняется путем запуска процесса и замены источника и цели.
- Потеря данных - дельта-данные могут быть потеряны, если основной кластер полностью отключен
- Резервное копирование может быть запланировано при необходимости в зависимости от пропускной способности и доступности сети.