"start-all.sh" и "start-dfs.sh" от главного узла не запускают службы подчиненного узла?
Я обновил файл /conf/slaves на главном узле Hadoop, указав имена хостов моих подчиненных узлов, но я не могу запустить ведомые с главного. Я должен по отдельности запустить подчиненные, а затем мой кластер из 5 узлов запущен и работает. Как я могу запустить весь кластер с помощью одной команды от главного узла?
Кроме того, SecondaryNameNode работает на всех ведомых устройствах. Это проблема? Если так, как я могу удалить их из рабов? Я думаю, что должен быть только один SecondaryNameNode в кластере с одним NameNode, я прав?
Спасибо!
1 ответ
В Apache Hadoop 3.0 используйте $HADOOP_HOME/etc/hadoop/workers
файл для добавления подчиненных узлов по одному на строку.