Мне нужно нарезать несколько ТБ данных журнала и предпочесть скорость командной строки. Перед обработкой я разбиваю файл на куски, но вам нужно удалить некоторые разделы.Файл журнала Slice 3TB с sed, awk & xargs?
Ниже приведен пример формата:
uuJ oPz eeOO 109 66 8
uuJ oPz eeOO 48 0 221
uuJ oPz eeOO 9 674 3
kf iiiTti oP 88 909 19
mxmx lo uUui 2 9 771
mxmx lo uUui 577 765 27878456
Промежутки между первые 3 буквенно-цифровые строки пространства. Все после этого - вкладки. Строки разделяются \n
.
Я хочу сохранить только последнюю строку в каждой группе.
Если в группе есть только 1 строка, ее следует хранить.
Вот ожидаемый результат:
uuJ oPz eeOO 9 674 3
kf iiiTti oP 88 909 19
mxmx lo uUui 577 765 27878456
Как я могу сделать это с помощью SED, AWK, xargs и друзей, или я должен просто использовать что-то выше уровня, как Python?
Это не дает ожидаемого результата, как в вопросе. Цифры в каждой строке различны, и прямое сравнение с предыдущими строками всегда терпит неудачу. – HappyTimeGopher
+1 Работает со мной с данными с разделителями табуляции, которые вы опубликовали. – tripleee
Да, я тоже. Работы Прекрасно теперь я исправил тестовый файл :) – HappyTimeGopher