Привет, нужно удалить строки с "файла 1.тхт", которые содержатся в "файле 2.тхт" и записать результат в "файл3.тхт", раньше использовал "udolyator by inoy" с форума, но когда есть два файла по 500 000 строк и больше - он зависает просто на определенном моменте... Пробовал keywordkeeper - вообще не реагирует. Как можно сделать это на windows или android? Возможно есть у кого программа? Содержание файла приблизительно такое: 56214586 1485224 658452846 4782221 ....
понял, спасибо только все равно в файле останутся уникальные строки с файла, которые мне не нужны в конечном результате Если у кого есть более простые варианты - жду
udolyator by inoy - умеет, но при больших файлах от 250 000 строк зависает...) С программированием я на Вы
да и какие проблемы ваще: 1)сливаешь 2 файла в один 2)сортируешь обычной тулзой без удаления 3)режешь на куски по 240000 4)каждый обрабатываешь своей тулзой удаляющей все дубликаты 5)сливаешь в 1 файл если не умеешь кодить страдай, хуле ))))
Я юзаю http://vizbe.net/myprogram.html#bvsTextCombi Хорошо справляется с максимум крупными файлами. Выбираешь вкладку CrossOut, там все поймешь.
Эту тему на античате уже жевали и не один раз. https://forum.antichat.ru/search/41548779/?q=Как+удалить+дубли&o=relevance
keywrodkeeper прекрасно справляется с тхт по 3-5КК это тебе кажется что он не реагирует, ну или возьми Text Utilities by Guron
comm -13 file2.txt file1.txt > result.txt в result.txt останутся уникальные строки из file1.txt, но перед этим оба нужно прогнать sort -u