Слишком много ошибок выборки: Hadoop в кластере (x2)

Я использую Hadoop в течение последней недели или около того (пытаясь справиться с этим), и хотя мне удалось настроить многоузловой кластер (2 машины: 1 ноутбук и небольшой рабочий стол) и получать результаты, я всегда Кажется, что я сталкиваюсь с "Слишком много ошибок извлечения", когда я запускаю задание hadoop.

Пример вывода (на тривиальном примере WordCount):

hadoop@ap200:/usr/local/hadoop$ bin/hadoop jar hadoop-examples-0.20.203.0.jar wordcount sita sita-output3X
11/05/20 15:02:05 INFO input.FileInputFormat: Total input paths to process : 7
11/05/20 15:02:05 INFO mapred.JobClient: Running job: job_201105201500_0001
11/05/20 15:02:06 INFO mapred.JobClient:  map 0% reduce 0%
11/05/20 15:02:23 INFO mapred.JobClient:  map 28% reduce 0%
11/05/20 15:02:26 INFO mapred.JobClient:  map 42% reduce 0%
11/05/20 15:02:29 INFO mapred.JobClient:  map 57% reduce 0%
11/05/20 15:02:32 INFO mapred.JobClient:  map 100% reduce 0%
11/05/20 15:02:41 INFO mapred.JobClient:  map 100% reduce 9%
11/05/20 15:02:49 INFO mapred.JobClient: Task Id :      attempt_201105201500_0001_m_000003_0, Status : FAILED
Too many fetch-failures
11/05/20 15:02:53 INFO mapred.JobClient:  map 85% reduce 9%
11/05/20 15:02:57 INFO mapred.JobClient:  map 100% reduce 9%
11/05/20 15:03:10 INFO mapred.JobClient: Task Id : attempt_201105201500_0001_m_000002_0, Status : FAILED
Too many fetch-failures
11/05/20 15:03:14 INFO mapred.JobClient:  map 85% reduce 9%
11/05/20 15:03:17 INFO mapred.JobClient:  map 100% reduce 9%
11/05/20 15:03:25 INFO mapred.JobClient: Task Id : attempt_201105201500_0001_m_000006_0, Status : FAILED
Too many fetch-failures
11/05/20 15:03:29 INFO mapred.JobClient:  map 85% reduce 9%
11/05/20 15:03:32 INFO mapred.JobClient:  map 100% reduce 9%
11/05/20 15:03:35 INFO mapred.JobClient:  map 100% reduce 28%
11/05/20 15:03:41 INFO mapred.JobClient:  map 100% reduce 100%
11/05/20 15:03:46 INFO mapred.JobClient: Job complete: job_201105201500_0001
11/05/20 15:03:46 INFO mapred.JobClient: Counters: 25
11/05/20 15:03:46 INFO mapred.JobClient:   Job Counters 
11/05/20 15:03:46 INFO mapred.JobClient:     Launched reduce tasks=1
11/05/20 15:03:46 INFO mapred.JobClient:     SLOTS_MILLIS_MAPS=72909
11/05/20 15:03:46 INFO mapred.JobClient:     Total time spent by all reduces waiting  after reserving slots (ms)=0
11/05/20 15:03:46 INFO mapred.JobClient:     Total time spent by all maps waiting after reserving slots (ms)=0
11/05/20 15:03:46 INFO mapred.JobClient:     Launched map tasks=10
11/05/20 15:03:46 INFO mapred.JobClient:     Data-local map tasks=10
11/05/20 15:03:46 INFO mapred.JobClient:     SLOTS_MILLIS_REDUCES=76116
11/05/20 15:03:46 INFO mapred.JobClient:   File Output Format Counters 
11/05/20 15:03:46 INFO mapred.JobClient:     Bytes Written=1412473
11/05/20 15:03:46 INFO mapred.JobClient:   FileSystemCounters
11/05/20 15:03:46 INFO mapred.JobClient:     FILE_BYTES_READ=4462381
11/05/20 15:03:46 INFO mapred.JobClient:     HDFS_BYTES_READ=6950740
11/05/20 15:03:46 INFO mapred.JobClient:     FILE_BYTES_WRITTEN=7546513
11/05/20 15:03:46 INFO mapred.JobClient:     HDFS_BYTES_WRITTEN=1412473
11/05/20 15:03:46 INFO mapred.JobClient:   File Input Format Counters 
11/05/20 15:03:46 INFO mapred.JobClient:     Bytes Read=6949956
11/05/20 15:03:46 INFO mapred.JobClient:   Map-Reduce Framework
11/05/20 15:03:46 INFO mapred.JobClient:     Reduce input groups=128510
11/05/20 15:03:46 INFO mapred.JobClient:     Map output materialized bytes=2914947
11/05/20 15:03:46 INFO mapred.JobClient:     Combine output records=201001
11/05/20 15:03:46 INFO mapred.JobClient:     Map input records=137146
11/05/20 15:03:46 INFO mapred.JobClient:     Reduce shuffle bytes=2914947
11/05/20 15:03:46 INFO mapred.JobClient:     Reduce output records=128510
11/05/20 15:03:46 INFO mapred.JobClient:     Spilled Records=507835
11/05/20 15:03:46 INFO mapred.JobClient:     Map output bytes=11435785
11/05/20 15:03:46 INFO mapred.JobClient:     Combine input records=1174986
11/05/20 15:03:46 INFO mapred.JobClient:     Map output records=1174986
11/05/20 15:03:46 INFO mapred.JobClient:     SPLIT_RAW_BYTES=784
11/05/20 15:03:46 INFO mapred.JobClient:     Reduce input records=201001

Я сделал гугл по проблеме, и люди из apache, похоже, предполагают, что это может быть что-то из проблем с сетью (или что-то связанное с файлами / etc / hosts) или поврежденный диск на подчиненных узлах.

Просто добавлю: я вижу 2 "живых узла" на панели администратора namenode (localhost:50070/dfshealth) и в разделе "Карта / уменьшение администратора" я также вижу 2 узла.

Любые подсказки относительно того, как я могу избежать этих ошибок? Заранее спасибо.

Изменить:1:

Журнал отслеживания задач включен: http://pastebin.com/XMkNBJTh Журнал датодода включен: http://pastebin.com/ttjR7AYZ

Большое спасибо.

3 ответа

Изменить узел узла данных /etc/hosts.

Каждая строка делится на три части. Первая часть - это IP-адрес сети, вторая - имя хоста или имя домена, третья часть - псевдоним хоста. Ниже приведены подробные шаги:

  1. Сначала проверьте имя хоста:

    cat / proc / sys / kernel / hostname

    Вы увидите HOSTNAME приписывать. Измените значение IP позади на OK и затем выйдите.

  2. Используйте команду:

    hostname ***. ***. ***. ***

    Звездочка заменена на соответствующий IP.

  3. Измените конфигурацию хостов аналогично:

    127.0.0.1 localhost.localdomain localhost:: 1 localhost6.localdomain6 localhost6 10.200.187.77 10.200.187.77 hadoop-datanode

Если IP-адрес настроен и успешно изменен, или если в имени хоста есть проблема, продолжайте изменять файл хостов.

Следующее решение обязательно сработает

1. Удалите или прокомментируйте строку с Ip 127.0.0.1 и 127.0.1.1

2. использовать имя хоста, а не псевдоним для ссылки на узел в файле хоста и файл Master/slave в каталоге hadoop

  -->in Host file 172.21.3.67 master-ubuntu

  -->in master/slave file master-ubuntu

3. см. Для NameSpaceId namenode = NameSpaceId Datanode

У меня была та же проблема: "слишком много ошибок извлечения" и очень низкая производительность Hadoop (простой пример wordcount занял более 20 минут для запуска на кластере из двух узлов мощных серверов). Я также получил сообщение об ошибке "WARN mapred.JobClient: Ошибка чтения задания outputConnection отказано".

Проблема была исправлена, когда я следовал инструкции Томаса Юнгблута: я удалил свой главный узел из файла конфигурации ведомых устройств. После этого ошибки исчезли, и пример WordCount занял всего 1 минуту.

Другие вопросы по тегам