8 гб она обрабатывает часа 2-3( если отключить режим turbo то можно увидеть на обработке какого temp файла она застопорилась, а затем этот файл убрать из темпа. После этот файл можно отдельно обработать и склеить с уже упорядоченным мегасловарем. Решение конечно галимое, я понимаю, но разбираться сейчас тупо нет времени. (ред: галимое-не галимое, но сработает ) Могу посоветовать обрабатывать предварительно словари дезинтегратором, чтобы там гарантированно не было никакой фигни нечитаемой в пасслистах (служебных символов винды). Напоминаю - сурсы так же в архиве. Если знаете как - можете править что угодно, GPL как никак Насчет MySQL - а фиг его знает как там оно. я с ним не работал. Дойдут руки - повожусь с тем что есть. А пока что при необходимости (сортировка кучи гигабайт) - юзайте описанные выше шаманства. Так или иначе, но помогает.
Прога, видимо, не может работать с очень большим количеством словарей не зависимо от их общего объёма -_- UPD: или всё же она застревает на каком-то файлике, который ей не нравится и дальше ничего не делает...
для этого нужно включить режим "step2", создать темп (Create temp), не закрывая программу сделать резервную копию папки temp, запустить "Process Temp" не включая режима turbo. В папке temp каждой букве соотсетствует отдельый файл. Если в логе последняя обработанна буква будет, скажем "F" - находите в темпе файл с паролями на F и удаляете оттуда. Важный момент - при закрытии программы она чистит temp, потому если она например зависла на букве "F" - вырубайте ее по alt-ctrl-del, находите файл с пассами на F и как я уже сказал - переносите его куданибудь оттуда. Потом вы сможете упорядочить его отдельно, и склеить с уже поучившимся мегасловарем.
processing created cash All!....... done All"....... done All#....... done All$....... done All%....... done All&....... done Cashing file E:\truesort\temp\temp___\039.txt (25Mb) cashing file done processing created cash ....... done и висим - кого тереть, куда нажать?
1. Create Temp/ 2. в папке temp файл с паролями, начинающимися на A - перенеси из нее куданить "в резерв". 3. сорти без него. 4. потом его один отсортить попробуй.
отсортировал все свои словари,но перед тем как сортировать я пробрутил 45537 акков выхлоп 4880,после того как все словари прогнал по проге, опять же пробрутил и выхлоп уже 4582, у меня касяк?) сортировал небольшими партиями по 300 мб.
Софт отличный, только иногда выпадает, ничего не сказав. Но, наверное, это из-за семерки х64, + работаю с ОЧЕНЬ большими файлами..
3a4eT - прогоняй не хэшкетом а Пасвордс Про, и сравнивай. Допускаю что у тебя часть словарей сделаны под юниксом и имеют виндове сужебные символы, из за чего их нужно обрабатывать прогой truesort.exe а не truesortEOF.exe. для теста добавь свои хэши в пасс-про и все свои слвоари тоже - и прогони там, как До обьединения, так и после. //как я уже говорил, по возможности сортируйте частями, если обрабатываете ОЧЕНЬ большие обьмы. Так оно по-надежнее. Ну и если совсем плохо, то чистите словари дезинтегратором. Он просто удалит пассы, где используются _нечитаемые_ символы. Под тем же пасспро словари с такими пассами все равно бы не загрузилиь (точнее загрузились бы до 1 такого символа), хотя пассы на арабском или китайском под хэшкетом такими почищенными словарями к сожалению тоже уже будет не снять xD
Подскажи плз где взять дезинтератор этот=) обрабатывал truesort.exe и тестил на пасвордПро, да действительно нечитаемые символы есть(
Не подскажите, где то была тут програмка, помоему даже ErrorNeo выкладывал. для генерации словарика из текста, что то аналогично нужно было в папку input накидать файликов\словарей\текстов, и она в итоге выдавала итоговый словарь без повторений. Кто даст ссылку плюсану
Br@!ns называется она PPLC v1a. В этой теме она _https://forum.antichat.ru/thread98233-PPLC+v1a.html ссылки там старые, битые уже. По быстрому выложил http://depositfiles.com/files/v0ve32rah
у PPLC_1a минус - она не сможет сделать словарь, если входящий "текст" больше мегабайт эдак 50-ти. И тем не менее словари, созданные ей у меня отжигали. Вообще все, кто всерьез интересуется _созданием_ словарей - могут стучать мне в осику. Хотя никаких новых изысканий в области хэшкрекинга я уже как с весны и не проводил - и все же готов буду помочь специфическим софтом тем, кто желает пойти по пути создания Нового - новых словерей, и часто из самого что ни на есть текстового мусора. #6 пост этой темы, ссылка на депозите по прежнему жива.
Подскажите есть ли программа которая вот что умеет. В общем есть 2 файла. Первый файл общий большой словарь. Второй файл маленький словарь. Программа должна из общего словаря удалить слова которые присутствуют в маленьком словаре не объединяя их
Эти программы которые вы назвали это не умеют. Объясню по другому. К примеру есть файл 1.txt в котором Code: 0 1 2 3 4 5 6 7 8 9 10 Есть файл 2.txt в котором Code: 1 15 Программа сравнивает эти файлы и видит что в файле 1.txt совпадают строки с файлом 2.txt а именно Code: 1 В итоге программа создает обработанный файл в котором отсутствует строка 1 и так же отсутствует 15 т.к. такой строки нету в файле 1.txt то есть получается. Code: 0 2 3 4 5 6 7 8 9 10