Мне интересно, есть ли способ объединить текстовые файлы unix вместе быстрее
чем запуск cat
?
Вот проблема, с которой я сталкиваюсь. Я строкую обработку текстового файла ~ 100G в размер. Я пытаюсь улучшить время выполнения, разбивая файл на многие сотни меньших файлов и обработки их параллельно. В конце концов, я получаю файлы обратно в порядке. Время чтения/записи файла занимает несколько часов. я хотел бы найти способ улучшить следующее:
cat file1 file2 file3 ... fileN >> newBigFile
-
Это требует удвоения дискового пространства, поскольку
file1
...fileN
занимает 100G и тоnewBigFile
берет еще 100 Гб, а затемfile1
...fileN
получает удален -
Данные уже находятся в
file1
...fileN
, при этомcat >>
вызывает чтение и писать время, когда все, что мне действительно нужно, это сотни файлов для снова появится как 1 файл...