Всем привет. Хотелось бы узнать кто как осматривает сайты на предмет уязвимостей. Я, например, первым делом захожу в robots.txt, sitemap.xml и ищу директории доступные для листинга и скрытые от посторонних глаз файлы; если повезет, но на этом этапе узнаю CMS, если не удается, то приходится искать признаки своими сканерами (писал сам на Python). Потом пробиваю Google, пытаясь найти опять же все директории доступные для листинга. Затем осматриваю код страниц сайта на предмет JS кода, который я полностью копирую к себе для дальнейшего изучения. Возвращаюсь к сайту и осматриваю GET переменные, пытаюсь найти XSS, SQLi, PHP Include Vulnerability. Ну и под конец прохожусь по сайту "тяжелой артиллерией": Acunetix, XSpider, nmap. Рассматриваю все дыры, которые нашли сканеры, если дыр в вебе нет, то пытаюсь пробиться через сервер, но это уже совсем другая история. Жду ваших алгоритмов.