Apache Ambari: сбой установки Datanode при установке в существующий кластер
Я создал кластер hadoop с использованием Apache Ambari 2.1.0 с 3 датоде. Теперь, когда я пытаюсь добавить еще один объект данных в (существующий кластер), он выдает ошибку,
resource_management.core.exceptions.Fail: выполнение '/usr/bin/yum -d 0 -e 0 -y install 'hadoop_2_3_*'' возвращено 1. Нет доступных метаданных Presto для базы
Число оборотов Delta уменьшено на 3,6 млн. Обновлений до 798 тыс. (Сэкономлено 78%).
Вот мой журнал консоли веб-интерфейса:
Traceback (последний вызов был последним):
Файл "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/datanode.py", строка 153, в DataNode(). Execute()
Файл "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", строка 218, в методе execute (env)
Файл "/var/lib/ambari-agent/cache/common-services/HDFS/2.1.0.2.0/package/scripts/datanode.py", строка 34, в установочном файле self.install_packages(env, params.exclude_packages)
Файл "/usr/lib/python2.6/site-packages/resource_management/libraries/script/script.py", строка 376, в пакете install_packages (имя)
Файл "/usr/lib/python2.6/site-packages/resource_management/core/base.py", строка 157, в init self.env.run ()
Файл "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", строка 152, в прогоне self.run_action(ресурс, действие)
Файл "/usr/lib/python2.6/site-packages/resource_management/core/environment.py", строка 118, в run_action provider_action()
Файл "/usr/lib/python2.6/site-packages/resource_management/core/providers/package/init.py", строка 45, в файле action_install self.install_package(имя_пакета, self.resource.use_repos, self.resource.skip_repos)
Файл "/usr/lib/python2.6/site-packages/resource_management/core/providers/package/yumrpm.py", строка 49, в install_package shell.checked_call(cmd, sudo=True, logoutput=self.get_logoutput())
Файл "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", строка 70, во внутреннем результате = функция (команда, **kwargs)
Файл "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", строка 92, в параметре checked_call try = попытки, try_sleep=try_sleep)
Файл "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", строка 140, в _call_wrapper result = _call(команда, **kwargs_copy)
Файл "/usr/lib/python2.6/site-packages/resource_management/core/shell.py", строка 291, в _call повысить Fail (err_msg)
resource_management.core.exceptions.Fail: Выполнение '/usr/bin/yum -d 0 -e 0 -y install 'hadoop_2_3_*'' вернуло 1. Нет доступных метаданных Presto для базовых RPM Delta уменьшено на 3,6 М обновлений до 798 k (78% сэкономлено)
Ошибка при загрузке пакетов:
hadoop_2_3_4_0_3485-yarn-proxyserver-2.7.1.2.3.4.0-3485.el6.x86_64: [Errno 256] Больше зеркал не нужно пробовать.
1 ответ
Похоже, что есть две проблемы с yum и вашими репозиториями.
Сначала я вижу сообщение:
Нет доступных метаданных Presto для базовых RPM-версий Delta, уменьшено 3,6 М обновлений до 798 КБ (сохранено 78%)
Попробуйте выполнить следующую команду на хосте, который вы пытаетесь добавить в качестве датоды, чтобы решить первую проблему:
sudo yum clean all
Затем посмотрите, сможете ли вы успешно выполнить эту команду:
sudo yum -v install hadoop_2_3_*
Если вы получите приглашение, которое спрашивает, хотите ли вы установить (да / нет), то оно прошло успешно, выберите опцию no и повторите действие add datanode из Ambari. Если вы получили ошибку или какой-либо сбой, взгляните на подробный вывод для дальнейшего устранения проблемы.