Подсчет частоты слов Java 8
Как посчитать частоту слов List в Java 8?
List <String> wordsList = Lists.newArrayList("hello", "bye", "ciao", "bye", "ciao");
Результат должен быть:
{ciao=2, hello=1, bye=2}
13 ответов
Я хочу поделиться решением, которое я нашел, потому что сначала я ожидал использовать методы map-and-Reduce, но это было немного по-другому.
Map<String, Long> collect =
wordsList.stream().collect(groupingBy(Function.identity(), counting()));
Или для целочисленных значений:
Map<String, Integer> collect =
wordsList.stream().collect(groupingBy(Function.identity(), summingInt(e -> 1)));
РЕДАКТИРОВАТЬ
Я добавляю, как отсортировать карту по значению:
LinkedHashMap<String, Long> countByWordSorted = collect.entrySet()
.stream()
.sorted(Map.Entry.comparingByValue(Comparator.reverseOrder()))
.collect(Collectors.toMap(
Map.Entry::getKey,
Map.Entry::getValue,
(v1, v2) -> {
throw new IllegalStateException();
},
LinkedHashMap::new
));
(ПРИМЕЧАНИЕ: см. Правки ниже)
В качестве альтернативы ответу Mounas, вот подход, который подсчитывает количество слов параллельно:
import java.util.Arrays;
import java.util.List;
import java.util.Map;
import java.util.stream.Collectors;
public class ParallelWordCount
{
public static void main(String[] args)
{
List<String> list = Arrays.asList(
"hello", "bye", "ciao", "bye", "ciao");
Map<String, Integer> counts = list.parallelStream().
collect(Collectors.toConcurrentMap(
w -> w, w -> 1, Integer::sum));
System.out.println(counts);
}
}
РЕДАКТИРОВАТЬ В ответ на комментарий я провел небольшой тест с JMH, сравнивая
toConcurrentMap
иgroupingByConcurrent
подход, с различными размерами входного списка и случайных слов различной длины. Этот тест предполагает, чтоtoConcurrentMap
подход был быстрее. При рассмотрении того, насколько разные эти подходы "скрыты", трудно предсказать что-то подобное.В качестве дополнительного дополнения, основываясь на дальнейших комментариях, я расширил тест, чтобы охватить все четыре комбинации
toMap
,groupingBy
последовательный и параллельный.Результаты по-прежнему, что
toMap
Подход быстрее, но неожиданно (по крайней мере, для меня) "параллельные" версии в обоих случаях медленнее, чем последовательные версии...:
(method) (count) (wordLength) Mode Cnt Score Error Units
toConcurrentMap 1000 2 avgt 50 146,636 ± 0,880 us/op
toConcurrentMap 1000 5 avgt 50 272,762 ± 1,232 us/op
toConcurrentMap 1000 10 avgt 50 271,121 ± 1,125 us/op
toMap 1000 2 avgt 50 44,396 ± 0,541 us/op
toMap 1000 5 avgt 50 46,938 ± 0,872 us/op
toMap 1000 10 avgt 50 46,180 ± 0,557 us/op
groupingBy 1000 2 avgt 50 46,797 ± 1,181 us/op
groupingBy 1000 5 avgt 50 68,992 ± 1,537 us/op
groupingBy 1000 10 avgt 50 68,636 ± 1,349 us/op
groupingByConcurrent 1000 2 avgt 50 231,458 ± 0,658 us/op
groupingByConcurrent 1000 5 avgt 50 438,975 ± 1,591 us/op
groupingByConcurrent 1000 10 avgt 50 437,765 ± 1,139 us/op
toConcurrentMap 10000 2 avgt 50 712,113 ± 6,340 us/op
toConcurrentMap 10000 5 avgt 50 1809,356 ± 9,344 us/op
toConcurrentMap 10000 10 avgt 50 1813,814 ± 16,190 us/op
toMap 10000 2 avgt 50 341,004 ± 16,074 us/op
toMap 10000 5 avgt 50 535,122 ± 24,674 us/op
toMap 10000 10 avgt 50 511,186 ± 3,444 us/op
groupingBy 10000 2 avgt 50 340,984 ± 6,235 us/op
groupingBy 10000 5 avgt 50 708,553 ± 6,369 us/op
groupingBy 10000 10 avgt 50 712,858 ± 10,248 us/op
groupingByConcurrent 10000 2 avgt 50 901,842 ± 8,685 us/op
groupingByConcurrent 10000 5 avgt 50 3762,478 ± 21,408 us/op
groupingByConcurrent 10000 10 avgt 50 3795,530 ± 32,096 us/op
Я не так опытен с JMH, может быть, я сделал что-то не так - предложения и исправления приветствуются:
import java.util.ArrayList;
import java.util.List;
import java.util.Map;
import java.util.Random;
import java.util.concurrent.TimeUnit;
import java.util.function.Function;
import java.util.stream.Collectors;
import org.openjdk.jmh.annotations.Benchmark;
import org.openjdk.jmh.annotations.BenchmarkMode;
import org.openjdk.jmh.annotations.Mode;
import org.openjdk.jmh.annotations.OutputTimeUnit;
import org.openjdk.jmh.annotations.Param;
import org.openjdk.jmh.annotations.Scope;
import org.openjdk.jmh.annotations.Setup;
import org.openjdk.jmh.annotations.State;
import org.openjdk.jmh.infra.Blackhole;
@State(Scope.Thread)
public class ParallelWordCount
{
@Param({"toConcurrentMap", "toMap", "groupingBy", "groupingByConcurrent"})
public String method;
@Param({"2", "5", "10"})
public int wordLength;
@Param({"1000", "10000" })
public int count;
private List<String> list;
@Setup
public void initList()
{
list = createRandomStrings(count, wordLength, new Random(0));
}
@Benchmark
@BenchmarkMode(Mode.AverageTime)
@OutputTimeUnit(TimeUnit.MICROSECONDS)
public void testMethod(Blackhole bh)
{
if (method.equals("toMap"))
{
Map<String, Integer> counts =
list.stream().collect(
Collectors.toMap(
w -> w, w -> 1, Integer::sum));
bh.consume(counts);
}
else if (method.equals("toConcurrentMap"))
{
Map<String, Integer> counts =
list.parallelStream().collect(
Collectors.toConcurrentMap(
w -> w, w -> 1, Integer::sum));
bh.consume(counts);
}
else if (method.equals("groupingBy"))
{
Map<String, Long> counts =
list.stream().collect(
Collectors.groupingBy(
Function.identity(), Collectors.<String>counting()));
bh.consume(counts);
}
else if (method.equals("groupingByConcurrent"))
{
Map<String, Long> counts =
list.parallelStream().collect(
Collectors.groupingByConcurrent(
Function.identity(), Collectors.<String> counting()));
bh.consume(counts);
}
}
private static String createRandomString(int length, Random random)
{
StringBuilder sb = new StringBuilder();
for (int i = 0; i < length; i++)
{
int c = random.nextInt(26);
sb.append((char) (c + 'a'));
}
return sb.toString();
}
private static List<String> createRandomStrings(
int count, int length, Random random)
{
List<String> list = new ArrayList<String>(count);
for (int i = 0; i < count; i++)
{
list.add(createRandomString(length, random));
}
return list;
}
}
Время совпадает только для последовательного случая списка с 10000 элементов и двухбуквенных слов.
Возможно, стоит проверить, превосходят ли параллельные версии даже при больших размерах списков последовательные версии, но в настоящее время у них нет времени для еще одного подробного теста производительности со всеми этими конфигурациями.
Найти наиболее часто встречающийся предмет в коллекции с помощью дженериков:
private <V> V findMostFrequentItem(final Collection<V> items)
{
return items.stream()
.filter(Objects::nonNull)
.collect(Collectors.groupingBy(Functions.identity(), Collectors.counting()))
.entrySet()
.stream()
.max(Comparator.comparing(Entry::getValue))
.map(Entry::getKey)
.orElse(null);
}
Вычислить частоты элементов:
private <V> Map<V, Long> findFrequencies(final Collection<V> items)
{
return items.stream()
.filter(Objects::nonNull)
.collect(Collectors.groupingBy(Function.identity(), Collectors.counting()));
}
Если вы используете Eclipse Collections, вы можете просто преобразовать List
к Bag
,
Bag<String> words = Lists.mutable.with("hello", "bye", "ciao", "bye", "ciao").toBag();
Assert.assertEquals(2, words.occurrencesOf("ciao"));
Assert.assertEquals(1, words.occurrencesOf("hello"));
Assert.assertEquals(2, words.occurrencesOf("bye"));
Этот код будет работать с Java 5 - 8.
Примечание: я являюсь коммиттером для коллекций Eclipse
Вот способ создать карту частот, используя функции карты.
List<String> words = Stream.of("hello", "bye", "ciao", "bye", "ciao").collect(toList());
Map<String, Integer> frequencyMap = new HashMap<>();
words.forEach(word ->
frequencyMap.merge(word, 1, (v, newV) -> v + newV)
);
System.out.println(frequencyMap); // {ciao=2, hello=1, bye=2}
Или же
words.forEach(word ->
frequencyMap.compute(word, (k, v) -> v != null ? v + 1 : 1)
);
Я представлю решение, которое я здесь сделал (с группировкой гораздо лучше:)).
static private void test0(List<String> input) {
Set<String> set = input.stream()
.collect(Collectors.toSet());
set.stream()
.collect(Collectors.toMap(Function.identity(),
str -> Collections.frequency(input, str)));
}
Просто мои 0,02$
Вы можете использовать Java 8 Streams
Arrays.asList(s).stream()
.collect(Collectors.groupingBy(Function.<String>identity(),
Collectors.<String>counting()));
Я удивлен, что никто не упомянул решение, использующееMap.getOrDefault
:
Map<String, Integer> res = new HashMap<>();
wordsList.forEach(w -> res.put(w, res.getOrDefault(w, 0) + 1));
default V getOrDefault(Object key, V defaultValue)
- Возвращает значение, с которым сопоставлен указанный ключ, или значение по умолчанию, если это сопоставление не содержит сопоставления для ключа. Таким образом, его довольно легко использовать для расчета частоты.
public class Main {
public static void main(String[] args) {
String testString ="qqwweerrttyyaaaaaasdfasafsdfadsfadsewfywqtedywqtdfewyfdweytfdywfdyrewfdyewrefdyewdyfwhxvsahxvfwytfx";
long java8Case2 = testString.codePoints().filter(ch -> ch =='a').count();
System.out.println(java8Case2);
ArrayList<Character> list = new ArrayList<Character>();
for (char c : testString.toCharArray()) {
list.add(c);
}
Map<Object, Integer> counts = list.parallelStream().
collect(Collectors.toConcurrentMap(
w -> w, w -> 1, Integer::sum));
System.out.println(counts);
}
}
Я думаю, что есть более читаемый способ:
var words = List.of("my", "more", "more", "more", "simple", "way");
var count = words.stream().map(x -> Map.entry(x, 1))
.collect(Collectors.toMap(Map.Entry::getKey, Map.Entry::getValue, Integer::sum));
Подобно подходу с уменьшением карты, сначала сопоставьте каждое слово w с a ( w , 1). Затем агрегируйте (уменьшите часть) количество всех пар (Map.Entry::getValue
), где их ключ (слово w ) аналогичен, (Map.Entry::getKey
) и вычислить сумму (Integer::sum
).
Последняя операция терминала вернетHashMap<String, Integer>
:
{more=3, simple=1, my=1, way=1}
Количество слов в Java 8
1.Разбить все слова (w -> w.split("\s+"))
2. Используйте метод Collectors.toMap() для накопления элементов в карту.
3. Определите функцию keyMapper w -> w.toLowerCase() для метода toMap().
4. Определите функцию valueMapper w -> 1 для метода toMap().
5. Определите функцию mergeFunction Integer::sum для метода toMap().
- Вывести результат в виде ключей и значений (Map<String, Integer>)
String str = "java test string test java string";
List<String> wordsList = Stream.of(str).map(w->w.split("//s+")).flatMap(Arrays::stream).collect(Collectors.toList());
wordsList.stream().collect(Collectors.toMap(w->w.toLowerCase(), w->1, Integer::sum)).entrySet().stream().forEach(stringIntegerEntry -> {
System.out.println(stringIntegerEntry.getKey() +" : "+ stringIntegerEntry.getValue());
});
public static void main(String[] args) {
String str = "Hi Hello Hi";
List<String> s = Arrays.asList(str.split(" "));
Map<String, Long> hm =
s.stream().collect(Collectors.groupingBy(Function.identity(),
Collectors.counting()));
hm.entrySet().forEach(entry -> {
System.out.println(entry.getKey() + " " + entry.getValue());
});
}
Еще 2 цента моего, учитывая массив:
import static java.util.stream.Collectors.*;
String[] str = {"hello", "bye", "ciao", "bye", "ciao"};
Map<String, Integer> collected
= Arrays.stream(str)
.collect(groupingBy(Function.identity(),
collectingAndThen(counting(), Long::intValue)));