Как объединить результаты bash sort по нескольким файлам в один файл?
У меня есть ~90GB
файл. Каждая строка состоит из пар, разделенных табуляцией, таких как Something \t SomethingElse
, Моя главная цель - найти частоту каждой уникальной строки в файле. Так я попробовал
sort --parallel=50 bigFile | unique -c > new_sortedFile
который не работал из-за размера файла. Затем я разделил исходный большой файл на 9 частей (каждая по 10 ГБ), после чего одна и та же команда работала для каждого файла отдельно.
Итак, мой вопрос: как я могу объединить результаты этих 9 файлов в один файл, чтобы получить тот же результат, что и у bigFile?