Hadoop: два datanodes, но пользовательский интерфейс показывает один и Spark: два рабочих интерфейса показывает один

Я видел много ответов на SO и Quora вместе со многими сайтами. Некоторые проблемы были решены, когда они настроили брандмауэр для подчиненных IP-адресов, некоторые сказали, что это сбой пользовательского интерфейса. Я сбит с толку. У меня есть две датододы: одна является чистой датодой, а другая - Namenode + датодода. Проблема в том, когда я делаю <master-ip>:50075 он показывает только одну датодану (та, что у машины, у которой тоже есть наменоде). но мой hdfs dfsadmin -report показывает, у меня есть две датододы и после запуска Hadoop на моем мастере, и если я делаю jps на моем pure-datanode-machine or slave machine Я вижу, как работает датанода. Брандмауэр на обеих машинах отключен. sudo ufw status verbose дает Status: inactive ответ. То же самое сценарий с искрой. Пользовательский интерфейс Spark показывает рабочий узел как узел с главным узлом, а не как чистый рабочий узел. Но рабочий работает на pure-worker-machine, Опять же, это глюк пользовательского интерфейса или я что-то упустил?hdfs dfsadmin -report

Configured Capacity: 991216451584 (923.14 GB)
Present Capacity: 343650484224 (320.05 GB)
DFS Remaining: 343650418688 (320.05 GB)
DFS Used: 65536 (64 KB)
DFS Used%: 0.00%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
Missing blocks (with replication factor 1): 0
Pending deletion blocks: 0

-------------------------------------------------
Live datanodes (2):

Name: 10.10.10.105:50010 (ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 24690192384 (22.99 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 7112691712 (6.62 GB)
DFS Remaining: 16299675648 (15.18 GB)
DFS Used%: 0.00%
DFS Remaining%: 66.02%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017


Name: 110.44.111.147:50010 (saque-slave-ekbana)
Hostname: ekbana
Decommission Status : Normal
Configured Capacity: 966526259200 (900.15 GB)
DFS Used: 32768 (32 KB)
Non DFS Used: 590055215104 (549.53 GB)
DFS Remaining: 327350743040 (304.87 GB)
DFS Used%: 0.00%
DFS Remaining%: 33.87%
Configured Cache Capacity: 0 (0 B)
Cache Used: 0 (0 B)
Cache Remaining: 0 (0 B)
Cache Used%: 100.00%
Cache Remaining%: 0.00%
Xceivers: 1
Last contact: Tue Jul 25 04:27:36 EDT 2017

/etc/hadoop/masters файл на главном узле

ekbana

/etc/hadoop/slaves файл на главном узле

ekbana
saque-slave-ekbana

/etc/hadoop/masters файл на подчиненном узле

saque-master

Примечание: saque-master на подчиненной машине и экбана на ведущей машине сопоставляются с одним и тем же IP. Также интерфейс выглядит похожим на интерфейс этого вопроса

2 ответа

Решение

Это из-за того же имени хоста (экбана). Таким образом, в пользовательском интерфейсе будет отображаться только одна запись для одного и того же имени хоста.

если вы хотите это подтвердить, просто запустите только одну датододу, которая не находится в master. Вы можете увидеть запись для этого в пользовательском интерфейсе.

Если вы также запустили другой канал данных, он замаскирует вторую запись для того же имени хоста.

Вы можете изменить имя хоста и попробовать.

Я также столкнулся с подобной проблемой, где я не мог видеть информацию о датодане на dfshealth.html стр. У меня было два хозяина по имени хозяин и раб.

etc/hadoop/masters (on master machine)
master
etc/hadoop/slaves
master
slave

etc/hadoop/masters (slave machine)
master
etc/hadoop/slaves
slave

и он мог видеть датододы на пользовательском интерфейсе.

Другие вопросы по тегам