Вывод списка из Hadoop Map Reduce, используя настраиваемые записи
Я пытаюсь создать простую работу по уменьшению карты, изменяя пример подсчета слов, заданный hadoop.
Я пытаюсь поставить список вместо подсчета слов. Пример wordcount дает следующий вывод
hello 2
world 2
Я пытаюсь вывести его в виде списка, который станет основой будущей работы.
hello 1 1
world 1 1
Я думаю, что я на правильном пути, но у меня проблемы с написанием списка. Вместо вышесказанного я получаю
Hello foo.MyArrayWritable@61250ff2
World foo.MyArrayWritable@483a0ab1
Вот мой MyArrayWritable. Я поставил систему в write(DataOuptut arg0)
но он никогда ничего не выводит, поэтому я думаю, что этот метод не может быть вызван, и я не знаю почему.
class MyArrayWritable extends ArrayWritable{
public MyArrayWritable(Class<? extends Writable> valueClass, Writable[] values) {
super(valueClass, values);
}
public MyArrayWritable(Class<? extends Writable> valueClass) {
super(valueClass);
}
@Override
public IntWritable[] get() {
return (IntWritable[]) super.get();
}
@Override
public void write(DataOutput arg0) throws IOException {
for(IntWritable i : get()){
i.write(arg0);
}
}
}
РЕДАКТИРОВАТЬ - добавить больше исходного кода
public class WordCount {
public static class Map extends Mapper<LongWritable, Text, Text, IntWritable> {
private final static IntWritable one = new IntWritable(1);
private Text word = new Text();
public void map(LongWritable key, Text value, Context context) throws IOException, InterruptedException {
String line = value.toString();
StringTokenizer tokenizer = new StringTokenizer(line);
while (tokenizer.hasMoreTokens()) {
word.set(tokenizer.nextToken());
context.write(word, one);
}
}
}
public static class Reduce extends Reducer<Text, IntWritable, Text, MyArrayWritable> {
public void reduce(Text key, Iterable<IntWritable> values, Context context) throws IOException, InterruptedException {
ArrayList<IntWritable> list = new ArrayList<IntWritable>();
for (IntWritable val : values) {
list.add(val);
}
context.write(key, new MyArrayWritable(IntWritable.class, list.toArray(new IntWritable[list.size()])));
}
}
public static void main(String[] args) throws Exception {
if(args == null || args.length == 0)
args = new String[]{"./wordcount/input","./wordcount/output"};
Path p = new Path(args[1]);
FileSystem fs = FileSystem.get(new Configuration());
fs.exists(p);
fs.delete(p, true);
Configuration conf = new Configuration();
Job job = new Job(conf, "wordcount");
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(IntWritable.class);
job.setMapperClass(Map.class);
job.setReducerClass(Reduce.class);
job.setJarByClass(WordCount.class);
job.setInputFormatClass(TextInputFormat.class);
FileInputFormat.addInputPath(job, new Path(args[0]));
FileOutputFormat.setOutputPath(job, new Path(args[1]));
job.waitForCompletion(true);
}
}
1 ответ
У вас есть "ошибка" в вашем редукторе - итератор значений повторно использует один и тот же IntWritable во всем цикле, поэтому вы должны обернуть добавляемое значение в список следующим образом:
public void reduce(Text key, Iterable<IntWritable> values, Context context)
throws IOException, InterruptedException {
ArrayList<IntWritable> list = new ArrayList<IntWritable>();
for (IntWritable val : values) {
list.add(new IntWritable(val));
}
context.write(key, new MyArrayWritable(IntWritable.class, list.toArray(new IntWritable[list.size()])));
}
На самом деле это не проблема, так как вы используете список массивов, и ваш преобразователь выводит только одно значение (одно), но это то, что может сбить вас с толку, если вы когда-нибудь расширите этот код.
Вы также должны определить в своей работе, что ваши выходные данные карты и редуктора разные:
// map output types
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(IntWritable.class);
// reducer output types
job.setOutputValueClass(Text.class);
job.setOutputValueClass(MyArrayWritable.class);
Возможно, вы захотите явно определить количество редукторов (возможно, поэтому вы никогда не увидите, чтобы ваши системные сообщения записывались в журналы задач, особенно если администратор вашего кластера определил номер по умолчанию равным 0):
job.setNumReduceTasks(1);
Вы используете формат вывода текста по умолчанию, который вызывает toString() для пар ключ-выход и значение - MyArrayWritable не имеет переопределенного метода toString, поэтому вы должны поместить его в свой MyArrayWritable:
@Override
public String toString() {
return Arrays.toString(get());
}
Наконец удалите переопределенный write
метод из MyArrayWritable - это недопустимая реализация, совместимая с бесплатным методом readFields. вам не нужно переопределять этот метод, но если вы это сделаете (скажем, вы хотите увидеть sysout, чтобы убедиться, что он вызывается), тогда сделайте что-то вроде этого:
@Override
public void write(DataOutput arg0) throws IOException {
System.out.println("write method called");
super.write(arg0);
}