Я немного про другое. Он удаляет повторы, а если вот такая ситуация: povtor POVTOR, truesort посчитает это повтором?
Не Оставляет Дублей например если у меня в 20 словарях который перебивает сейчас софт во все пароли 12345 -он удалит дубли в 20 словарях, а хоть один оригинал оставит? или пасс тоже уйдет Вопрос к Знатакам кто юзал данный софт.
1. Дубли уже подразумевает смысл.. 2. Так тяжело скачать и посмотреть? 3. В курсе что в результате 1 файл?!) Хотя бы запустил хоть раз, как вообще логично возможно до такого дойти, чтобы в итоге в 1 файл с уникальным листом вдруг не содержал 12345 из списков для сортировки/dedub ???
Простите, что нарушаю хор славословий в адрес программы, но программа - говно. Со словарями больше 500 метров начинаются совершенно немотивированные зависоны. Если алгоритм программы в том, чтобы разбить словарь на несколько словарей и сравнить их внутри себя и друг с другом, то ULM умеет это делать гораздо быстрее. Возьмём, к примеру, какой-нибудь Huegelcdc-Clean.txt. У меня он 520 метров. ULM его очень быстро дербанит на примерно равные по весу куски по алфавиту, а потом их можно легко отсортировать любой программой - хоть Пассвордспро, хоть Раптор. На какой срок задумается трусорт? Даже страшно подумать. Зря автор похвалился, что написал за 5 вечеров. Оно и видно. ЗЫ: Даже после обработки словаря трусортом, другие программы, типа ULM или Passwordspro продолжают находить в словаре нечитаемые символы.
Вам дать словарь на 50+ Гб который никто не съест?) Эта прога золото своего времени. Конечно уже все иначе но она была верным другом многим.
Найди программиста который согласится написать альтернативную прогу с использованием GPU, тогда съест твои 50 гигов как два пальца об асфальт =)
давай) могу даже тебе распарсить его регулярками и сравнить с кучей других словарей минут этак за 5-10) ГПУ надо задействовать и ОЗУ в них для этой задачи я думаю, если специфика еще и дает такую вохможноть, вообще гпу по сути везде сила) вот тока кодеров на вес золота дефецит а так и на CPU тот же ulm cli вполне отлично берет хоть 80 гиговые файлы
Подскажите пожалуйста, когда обрабатываю одни и те же словари , то truesortEOF другой размер файла создаёт. Пример : input 10.5 gb truesort output 8.5 gb truesortEOF output : 7.5 gb В input несколько словарей каждый объемом меньше 4 Гб , общий размер 10.5 Гб , что делать?
нашел тут в закромах, мож кому до сих пор надо desintegrator+исходники https://yadi.sk/d/yM_pXfCGObkTtg