Обращаюсь к старшим братья по этому не легкому делу) Подскажите распространенные уязвимости, которые можно найти сканнером ... В смысле допустим очень старенький "типа" баг на некоторых сайтах есть файлик WS_FTP.ini в корне в котором находятся пароли от ФТП, или допустим иногда в папке /backup/ нет файлика .htaccess и можно просматривать содержимое папки ... Какие еще есть подобные уязвимости? И если не сложно подскажите дырки в CMS распространенные, в смысле не XSS и SQL(потому что в сканнер не впихнешь), а какие то другие? Я перечитал много инфы с этого форума о дырках в CMS но я незнаю какие из них часто встречаются или допустим какие плагины для джумлы чаще всего встречаются на сайтах ...
Sad Raven's Guestbook v1.1-1.3 акк админа лежит в файле passwd.dat site.ru/guestbook/passwd.dat пасс в md5 далее site.ru/guestbook/admin.php редактируем дизайн, либо в настройках вместо пути с конфигами гесты указываем путь к шеллу и если есть права на запись, то профит) в индексе пс уже не найти этого файла, но можно искать по другим критериям в своё время эта детская бага была очень популярна)
google hack то я конечно изучал, но еще раз повторюсь мне нужны уязвимости которые можно найти сканнером, то есть есть список сайтов прога заходят на уязвимые скрипты этих сайтов и проверяет ...
я так и делаю блин, я уже незнаю на каком языке писать или вы просто не читаете или я незнаю ... Короче клоз тему ...
ТС, вот ты говоришь имеется список сайтов, а прога будет заходить на уязвимые скрипты этих сайтов. Как ты себе это представляешь, ты наверно для начала должен указать ссылки на эти уязвимые скрипты, а так проще тебе будет брать каждый сайт и пихать его в несколько самых популярных сканеров уязвимостей. У тебя вообще какая в итоге конечная цель? Хочешь найти множество уязвимых сайтов? Вот тогда рекомендую для прочтения: https://forum.antichat.ru/thread225917.html
Спасибо, читал ... Но есть ряд недостатков в этом способе ... После поиска сканнером каждый сайт приходиться вставлять в sqlhelper ручками, ну или проверять самостоятельно, а это скучно и долго, потом даже если ты в течении дня нашел 100-ку действительно уязвимых сайтов, тут начинаем отсекать сразу - 20 сайтов это те которые просто не имеют админки, - 20 сайтов это те которые не удалось расшифровать пароль - 40 сайтов это те которые не имеют запись в нужной папке что бы загрузить шелл. Это я не считаю форс мажоры, когда то админки найти не можешь, то еще всякие мелочи которые конкретно достают ... И на выходе получается несколько залитых шеллов, из которых мы еще не знаем хорошие они или нет, может там вобще тиц и пр 0 и он уйдет в корзину. Вобщем со стороны сколько времени тратиться и какой доход с этого получается, даже до "дохода работы на заводе" не всегда получиться дойти. Вобщем незнаю может это просто не мое (
FlooP1k Ну эта статья как бы дает вам основу с чего начать, теория как подойти к поиску уязвимых сайтов в большом количестве. Никто не мешает тебе ее дополнять своими собственными доработками. Это не готовый способ как одним кликом поиметь кучу сайтов, а всего лишь почва для вашей собственной деятельности. Я смотрю ты хочешь разжиться со всего этого, боюсь данный метод тебе в этом не помощник, для этого используются совсем другие приемы и методы.
Боюсь даже спрашивать какие)) Мне просто нужен совет где лучше копать, вот допустим взять ту же Jooml'y заходишь в багтрек, а там уже наверно тысячи уязвимых плагинов и какой выбрать, ну вот какой) Я ж не когда не пользовался Джумлой та даже если бы пользовался я все равно незнаю какой плагин актуальный и какую багу лучше юзать на массовость ...
Бери все, какие сможешь. По выхлопу поймешь, какие лучше. Какие тут еще могут быть советы? К тому же, насколько я понял, прогонять все сканером собираешься? Так вот соберешь некую статистику, отбросишь неинтересующие плагины, вот и все...
Вот только проблема скан одной уязвимости по всей базе моих сайтов занимает примерно 3 часа ... Поэтому просто не реально все пересканить ...
Юзаем дедики! Разбиваем базу на несколько частей и запускаем все это дело на дедиках. Если нет дедов, насканить их достаточное количество - дело одного дня. Или купить. Сейчас их пачками по смешным ценам продают. Думаю, для тебя это - лучший вариант.