Блоки HDFS повреждены после перезагрузки

У меня есть Hadoop на Ubuntu 16.10

Все работает отлично: я могу загрузить входной файл в HDFS и выполнить операции уменьшения карты. Но когда я перезагружаю свой компьютер, все блоки HDFS повреждены, и NameNode запускается в SafeMode

Так что я должен

1) Оставьте SafeMode

2) Удалить все поврежденные блоки с помощью

hdfs fsck -delete

3) Повторно загрузить входной файл

Тогда все работает нормально до следующей перезагрузки.

Может кто-нибудь, пожалуйста, дайте мне какое-то решение для этого. Спасибо

2 ответа

Я решил мою проблему. Я использую эту ссылку, чтобы проверить мои файлы конфигурации http://www.bogotobogo.com/Hadoop/BigData_hadoop_Install_on_ubuntu_single_node_cluster.php

я забыл использовать sudo chown -R hduser:hadoop /usr/local/hadoop_tmp в моем каталоге hdfs

Create folder like /dfs/ in your machine 
open hdfs-site.xml or hdfs-default.xml  
set this property "dfs.namenode.name.dir".

    Example:
    <property>
      <name>dfs.namenode.name.dir</name>
      <value>/dfs/</value>
      <description>Determines where on the local filesystem the DFS name node
          should store the name table(fsimage).  If this is a comma-delimited list
          of directories then the name table is replicated in all of the
          directories, for redundancy. </description>
    </property>
Другие вопросы по тегам