"start-all.sh" и "start-dfs.sh" от главного узла не запускают службы подчиненного узла?

Я обновил файл /conf/slaves на главном узле Hadoop, указав имена хостов моих подчиненных узлов, но я не могу запустить ведомые с главного. Я должен по отдельности запустить подчиненные, а затем мой кластер из 5 узлов запущен и работает. Как я могу запустить весь кластер с помощью одной команды от главного узла?

Кроме того, SecondaryNameNode работает на всех ведомых устройствах. Это проблема? Если так, как я могу удалить их из рабов? Я думаю, что должен быть только один SecondaryNameNode в кластере с одним NameNode, я прав?

Спасибо!

1 ответ

В Apache Hadoop 3.0 используйте $HADOOP_HOME/etc/hadoop/workers файл для добавления подчиненных узлов по одному на строку.

Другие вопросы по тегам