Ну, ладно, не срочный, сегодня до 17:00 надо решить. Есть сайт(ы) на сайте есть определённые страницы, на них сылки на другие сайты, вот мне надо собрать с нужных страниц все сылки на сайты. Как это сделать, желательно на пхп. ещё надо что-бы результат записывался в файл.тхт.
открываешь файл с списком урл перебираешь их для каждого получаешь код страницы через file_get_content или curl ищешь регуляркой все теги <a...</a> сохраняешь значение href если путь относительный, то плюсуешь вперёд адрес текущего урл, как относительный путь определить? наверное искать отсутствие вхождение ".домен_первого_уровня/" а вообще по запросу в гугле - сохранить все ссылки со страницы выдаёт плагины, которые это умеют делать для одной страницы, если страниц не слишком много, то можно так
не, мне массово надо. Много сайтов перелопатить, и создать овер список. В гугле есть скрипты, но чё та я сомневаюсь что они подойдут. Хотя хз, тестануть надо
Дождался? Я как обещал в говнище вчера напился,даже очки потерял.Сейчас твоя тема я домен шатал и твой "пых" шатал, и твой клавиатура тоже шатал.......