Вывод списка из Hadoop Map Reduce, используя настраиваемые записи

Я пытаюсь создать простую работу по уменьшению карты, изменяя пример подсчета слов, заданный hadoop.

Я пытаюсь поставить список вместо подсчета слов. Пример wordcount дает следующий вывод

hello 2
world 2

Я пытаюсь вывести его в виде списка, который станет основой будущей работы.

hello 1 1
world 1 1

Я думаю, что я на правильном пути, но у меня проблемы с написанием списка. Вместо вышесказанного я получаю

Hello   foo.MyArrayWritable@61250ff2
World   foo.MyArrayWritable@483a0ab1

Вот мой MyArrayWritable. Я поставил систему в write(DataOuptut arg0) но он никогда ничего не выводит, поэтому я думаю, что этот метод не может быть вызван, и я не знаю почему.

class MyArrayWritable extends ArrayWritable{

public MyArrayWritable(Class<? extends Writable> valueClass, Writable[] values) {
    super(valueClass, values);
}
public MyArrayWritable(Class<? extends Writable> valueClass) {
    super(valueClass);
}

@Override
public IntWritable[] get() {
    return (IntWritable[]) super.get();
}

@Override
public void write(DataOutput arg0) throws IOException {
    for(IntWritable i : get()){
        i.write(arg0);
    }
}
}

РЕДАКТИРОВАТЬ - добавить больше исходного кода

public class WordCount {

public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
    private final static IntWritable one = new IntWritable(1);
    private Text word = new Text();

    public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
        String line = value.toString();
        StringTokenizer tokenizer = new StringTokenizer(line);
        while (tokenizer.hasMoreTokens()) {
            word.set(tokenizer.nextToken());
            context.write(word, one);
        }
    }
} 

public static class Reduce extends Reducer<Text, IntWritable, Text, MyArrayWritable> {

    public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
        ArrayList<IntWritable> list = new ArrayList<IntWritable>();    
        for (IntWritable val : values) {
            list.add(val);
        }
        context.write(key, new MyArrayWritable(IntWritable.class, list.toArray(new IntWritable[list.size()])));
    }
}

public static void main(String[] args) throws Exception {
    if(args == null || args.length == 0)
        args = new String[]{"./wordcount/input","./wordcount/output"};
    Path p = new Path(args[1]);
    FileSystem fs = FileSystem.get(new Configuration());
    fs.exists(p);
    fs.delete(p, true);

    Configuration conf = new Configuration();

    Job job = new Job(conf, "wordcount");
    job.setOutputKeyClass(Text.class);
    job.setOutputValueClass(IntWritable.class);
    job.setMapperClass(Map.class);
    job.setReducerClass(Reduce.class);
    job.setJarByClass(WordCount.class);
    job.setInputFormatClass(TextInputFormat.class);
    FileInputFormat.addInputPath(job, new Path(args[0]));
    FileOutputFormat.setOutputPath(job, new Path(args[1]));

    job.waitForCompletion(true);
}

}

1 ответ

Решение

У вас есть "ошибка" в вашем редукторе - итератор значений повторно использует один и тот же IntWritable во всем цикле, поэтому вы должны обернуть добавляемое значение в список следующим образом:

public void reduce(Text key, Iterable<IntWritable> values, Context context)
                                      throws IOException, InterruptedException {
    ArrayList<IntWritable> list = new ArrayList<IntWritable>();    
    for (IntWritable val : values) {
        list.add(new IntWritable(val));
    }
    context.write(key, new MyArrayWritable(IntWritable.class, list.toArray(new IntWritable[list.size()])));
}

На самом деле это не проблема, так как вы используете список массивов, и ваш преобразователь выводит только одно значение (одно), но это то, что может сбить вас с толку, если вы когда-нибудь расширите этот код.

Вы также должны определить в своей работе, что ваши выходные данные карты и редуктора разные:

// map output types
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
// reducer output types

job.setOutputValueClass(Text.class);
job.setOutputValueClass(MyArrayWritable.class);

Возможно, вы захотите явно определить количество редукторов (возможно, поэтому вы никогда не увидите, чтобы ваши системные сообщения записывались в журналы задач, особенно если администратор вашего кластера определил номер по умолчанию равным 0):

job.setNumReduceTasks(1);

Вы используете формат вывода текста по умолчанию, который вызывает toString() для пар ключ-выход и значение - MyArrayWritable не имеет переопределенного метода toString, поэтому вы должны поместить его в свой MyArrayWritable:

@Override
public String toString() {
  return Arrays.toString(get());
}

Наконец удалите переопределенный write метод из MyArrayWritable - это недопустимая реализация, совместимая с бесплатным методом readFields. вам не нужно переопределять этот метод, но если вы это сделаете (скажем, вы хотите увидеть sysout, чтобы убедиться, что он вызывается), тогда сделайте что-то вроде этого:

@Override
public void write(DataOutput arg0) throws IOException {
  System.out.println("write method called");
  super.write(arg0);
}
Другие вопросы по тегам