Вчера на ГТ прочитал интересную тему про веб архив, там в коментах чувак приводит пример как некоторые админы сайтов тупят. Например, если зайти https://partsnb.ru/user/basket?id=17630 и посмотреть исходный код, то среди прочего есть такие интересные строки: <input name="cps_phone" value="+7(996)414-98-98" type="hidden"> <input name="custName" value="Кочев Алексей Николаевич" type="hidden"/> <input name="custEmail" value="[email protected]" type="hidden"/> <input name="custAddr" value="Новокузнецк Шолохова, 9-47" type="hidden"/> Соотв если вместо id=17630 поставить 17629 17632 и т.д. там тоже везде личные данные. В связи с этим у меня два вопроса. 1. Кто знает, есть ли такой парсер чтобы вытащить всю эту инфу с этого сайта скажем в эксель сразу отсортированную. 2. Я так понял, раз веб архив теперь не будет смотреть на robot.txt то через него теоретически можно подобные кривые сайты искать с целью вытащить такую же инфу. Кто что думает? статья на ГТ https://geektimes.ru/post/288512/