полезная софтинка, тестил с самой первой версии единственный - столь длительное закрытие потоков при онклике на стоп.
md5.benramsey - не добавил, т.к. парсит результаты с другого сервиса, отчего сервер почти всегда в бане на час при 900 запросах. rehash.dustinfineout.com и alimamed.pp.ru добавил уже есть В чем выражается (не запускается? ошибка? не находит хэши?) Спасибо. Да согласен, это происходит потому как логика программы устроена так, что при нажатии на стоп, программа ожидает завершения текущего запроса и только после этого завершается поток. Как вариант можно уменьшить таймаут соединения, потоки будут завершаться быстрее. Я подумаю как ещё можно ускорить данный процесс.
Версия 2.4 - Добавил возможность удаления пустых строк в выходных данных (Опция "DELETE EMPTY STRINGS") - Добавил следующие сервисы: Code: [B]MD5:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [COLOR=Yellow]http://alimamed.pp.ru/[/COLOR] [B]SHA-1:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]SHA-256:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]SHA-512:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]MYSQL:[/B] [COLOR=Lime]http://passcracking.ru/[/COLOR] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]MYSQL5:[/B] [COLOR=Lime]http://passcracking.ru/[/COLOR] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]LM:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]NTLM:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] [B]RIPEMD-160:[/B] [COLOR=Yellow]http://rehash.dustinfineout.com/[/COLOR] Ссылки обновил. P.P.S. Название темы изменить возможно? ^^
Версия 2.4.1: Пофиксил несколько мелких багов: - при сворачивании в трэй сбрасывался выбор сервисов - удалялись дубликаты хэшей при выборе опции "DELETE NOT FOUND HASHES"
Версия 2.4.2: - Добавил поддержку пользовательских данных (e-mail, name etc) при сохранении результатов с заменой в первоначальном списке.
Версия 2.4.3: - Исправил алгоритм формирования выходных данных с опциями замены/удаления хэшей. (Список формировался в неправильном порядке)
ТС, хотел бы узнать твое мнение. Был такой замечательные сервис хешкиллер, сейчас долгое время не работает. Я думаю он в твоем личном топе среди подобных сервисов, так же входил в пятерку лучших. Мне просто на больших объемах не приходилось тестить, в основном по 3-5 штук. Вот ты можешь сказать, что все сервисы которые сейчас включены, могут в полной степени заменить хешкиллер или все таки с ним пробив был лучше?
Да данный сервис был очень хорошим, определенно могу сказать был одним из лучших сервисов по расшифровке хэшей. Во первых поддерживался он большим кол-вом людей, которые каждый день добавляли в его базу хэши реальных паролей да и сам он в случае не нахождения хэша, автоматически отправлял его в список на дешифровку. И безусловно он содержал уникальные хэши паролей которых и до сих пор нет в базах других сервисов. Но не могу сказать что их кол-во было особенно большим, гораздо больше в этом плане поражает collision.net, который содержит очень огромную каждый день пополняющуюся базу. Но тут стоит заметить, что у хэшкиллера было 2 способа расшифровывать - за $ и бесплатно, так вот за $ потестить его не удалось, но его бесплатной базой остался вполне доволен. Безусловно с хэшкиллером пробив был бы лучше, т.к. его база состояла не просто из например цифр (длинной 5-7 символов) которая может дублироваться и другими сервисами, а из реальных уникальных паролей пользователей. Но в целом, насколько я помню, из 1000 хэшей хэшкиллер расшифровывал ~ 20-30 уникальных паролей которых не было в других базах.
Версия 2.5: - Добавил в поле статистики [STATUS] информацию о кол-ве запросов/загруженных данных в килобайтах, для того чтобы видеть активность программы при проверке одного хэша.
несколько замечаний: 1. При бруте 1.5 млн хешей, примерно на 250к в статусе значение полученных кб переходит в минус 2. в service name необязателен префикс http, за счет этого можно сэкономить место под длинные пассы, чтобы не открывалась полоса прокрутки 3. подумай над увеличением скорости: - увеличение кол-ва потоков с базовых 250 - есть сервисы, которые позволяют постить сразу список хешей, почему бы этим не воспользоваться?
Не тестил на таком кол-ве хэшей, спс исправил, теперь подсчет загруженных данных в Mb Сделал. Кол-во потоков поднял до 1000, по поводу грузить сразу список хэшей посмотрю подумаю как время будет.
Версия 2.6: - Увеличил кол-во потоков до 1000 (будте аккуратны с этим параметром, и выставляейте его только в том случае если вам позволяет это сделать ширина канала) - Испавил несколько ошибок связанных с парсингом LM, NTLM, MYSQL и MYSQL5 хэшей, оптимизировал запросы нескольких сервисов MD5. - Добавил возможность расшарить найденные хэши. Ссылки обновил. По поводу последней возможности. Со мной связался автор хорошего ресурса по расшифровке MD5 хэшей - md5.darkbyte.ru, который предложил добавлять найденные при помощи программы хэши в базу md5.darkbyte.ru. База данного ресурса и так не маленькая и бесплатная, так что я поддержал инициативу и готов как автор, помочь в расширении базы, поэтому при запуске процесса сканирования, программа спросит пользователя готов ли он добавлять найденные хэши в базу md5.darkbyte.ru, если согласился - то на каждый найденный хэш будет один быстрый гет запрос вида: http://md5.darkbyte.ru/api.php?q=[Расшифрованный текст], так что на производительности почти не отразится. Если же пользователь отказался - ничего никому отсылаться не будет.
спасибо кстати, твоя программа будет в октябрьском номере журнала Хакер, правда ты обновляешь ее настолько быстро, что там она будет проходить еще под старым названием --- и еще небольшое замечание по опции удаления найденных хешей в сохраняемом файле: 1. работает очень медленно, так что приходится сохранять результат в [DATA];[HASH], а затем прогой bvsCrossOut (http://vizbe.net.ru/myprogram.html) вычитать из файла-оригинала полученный файл 2. на маленьких объемах работает, но удаляются только именно хеши, получается кривой файл вроде: [email protected]; [email protected];hash [email protected];hash [email protected]; хотелось бы увеличения скорости этой функции + чтобы удалялась все-таки вся строка, как-то не так это выглядит --- вспомнил еще: при больших объемах в нижней полосе, где статусы и каунты, цифры не помещаются справа там есть место, можно чуть-чуть все каунты расширить
Ок ждемс. Еще было бы круто заиметь кнопку паузы и плюс, чтобы потоки и таймаут изменялись на лету. Из других фич: можно было бы придумать установку приоритета работы программы, как в passwordspro; сохранение тасков (то есть определенного места в файле, откуда продолжить брут); подробная статистика, сколько и какой сервис хешей расшифровал; в статусе - время работы программы (прошло и сколько примерно осталось), средняя скорость брута --- и вообще, развивал бы свой проект: хоумпага, кошелек для пожертвований итд
имеются некоторые баги с сервисом rehash.com для MySQL5 так же думаю стоит добавить автоопределение типа хеша по определенным визуальным признакам(длина, наличие\отсутствие определенных символов)
ТС, ты как-то писал, что соленые хеши так же можно чекать. А можешь сделать выборку, какие сервисы поддерживают соленые, я думаю их не так уж и много, чтобы остальные впустую не нагружать.
Да по поводу расшифровки NTLM, LM, MYSQL, MYSQL5 хэшей возможен вывод не верной информации, т.к. ещё не реализовал автоматическую проверку хэша для этих алгоритмов. Если у кого нибудь есть реализация этих алгоритмов буду признателен. По поводу авто определения уже думал, ну как например отличить MD5 от LM или NTLM хэша? или SHA-1 от MYSQL5? Я исправил тот пост, писал уже под утро, так что ошибся, я имел ввиду MD5(MD5($pass)) т.е. двойные хэши. Сервисов для расшифровки соленых хэшей не встречал. Я тоже заметил, что он выводит хэши которые есть на collision.net, однако так же было замечено, что он расшифровывал не мало хэшей которых нет на collision.net. Я так думаю у него есть своя база + он парсит результаты collision.net