Как правильно работать с шеллами? К примеру есть сайт site.ru. Я через шелл создаю в уже существующей директории несколько поддиректорий, и заливаю туда дор: site.ru/images/03/pic/, далее эту ссылку ввожу в аддурл. Жду апов, а дор не индексируется((( И так на нескольких шеллах((( В robots.txt доступ на директории где дор не закрыт для индексации! Подскажите, что делать
Такие доры, которые я залил на шеллы, на обычных рушках почти полностью индексируются яшей на 3-й ап. Т.е. в моём примере это _http://site.ru/images/03/pic/ ? Если да, то спасибо), может есть еще варианты?
rushter, PaCo Спасибо)) Сегодня опробую. Еще вопросик. На шелле в robots.txt: User-agent: * Allow: /admin/picture Это значит, что пс робот будет индексировать только /admin/picture или папки, которые расположены в picture будут тоже индексироваться?
Вопрос такого плана: есть статьи, примерно 5к. Есть вап-сайт, несколько разносторонний, но основой является библиотека. Где то читал, что поисковики любят когда информация на сайте часто обновляется. так вот, лучше добавлять по нескольку статей в день, чем за несколько дней выложить все что есть и потом выкладывать уже по случаю?
Смотря под что сайт,под людей или сапу.Систематически добовлять контент лучше.т.е выкладывать статьи потихоньку
Капча выводиться(и причем давным давно) только если кол-тво запросов превышает допустимый минимум с 1 ip за короткий промежуток времени, указываем в ослике проксик и пользуемся дальше Магаданом.
Скорей всего шаред IP и уже кто-то намагаданился(либо интервал запросов слишком маленький), плюшки бесполезно удалять, капча по ип вылезает. А вообще wordstat не пользуюсь, ливерныйе данные рулят.
Я под впном был оказывается, вот и капчу просили, с ру айпи не просят.Ну вордстат как начало, а потом отсеиваю ключевики через ливер.