Hadoop несколько датододов на одной машине

Я заинтересован в настройке нескольких узлов данных (скажем, 2) на одном компьютере с Linux.

Я провел некоторое исследование и следовал учебнику, но не работал.

Если кто-то может дать рабочий учебник или показать мне, как это сделать.

Спасибо

1 ответ

Решение

Вместо создания отдельных виртуальных машин вы можете запустить несколько экземпляров датоде на одном и том же узле. Единственное, что вам нужно, - это поддерживать разные конфигурации для каждого экземпляра datanode.

Необходимо указать разные порты для каждого демона датоде, переопределить следующие параметры в hdfs-site.xml:

dfs.datanode.address  0.0.0.0:50010  The datanode server address and port for data transfer.
dfs.datanode.http.address    0.0.0.0:50075  The datanode http server address and port.
dfs.datanode.ipc.address     0.0.0.0:50020  The datanode ipc server address and port.

Также необходимо поддерживать разные каталоги данных для каждого демона датоде, переопределить следующие параметры

dfs.datanode.data.dir
Другие вопросы по тегам