Объяснение параметров Hadoop
Hadoo-2.6 имеет следующие параметры как указано в документации
mapreduce.job.max.split.locations
(Максимальное количество местоположений блоков для хранения для каждого разделения для расчета населенного пункта. Как это используется в вычислении населенного пункта?)mapreduce.job.split.metainfo.maxsize
(Максимально допустимый размер разделенного файла метаинфо. JobTracker не будет пытаться прочитать разделенные файлы метаинфо, превышающие настроенное значение. Но в чем преимущество его фиксирования в некотором значении? Почему мы не можем сделать его гибким?)mapreduce.job.counters.limit
(что это за счетчики пользователей на работу и почему мы хотим ограничить их?)mapreduce.jobhistory.datestring.cache.size
(Размер кэша строки даты. Влияет на количество каталогов, которые будут сканироваться, чтобы найти работу. В чем преимущество этого ограничения?)mapreduce.jobhistory.joblist.cache.size
(Размер кэша списка заданий. Почему мы используем этот кеш?)mapreduce.jobhistory.loadedjobs.cache.size
(в чем разница между этим и предыдущим?)mapreduce.jobhistory.move.thread-count
(Количество потоков, используемых для перемещения файлов. Используются ли они только для перемещения файлов истории и почему требуется это перемещение?)
Применимы ли они для выполнения заданий в стиле MRv1 и MRv2?