Черные методы раскрутки Парад способов грязной линковки

Discussion in 'SЕО - тонкости, методы раскрутки' started by $Lemur$, 4 Sep 2008.

  1. $Lemur$

    $Lemur$ Elder - Старейшина

    Joined:
    7 Jan 2007
    Messages:
    70
    Likes Received:
    15
    Reputations:
    0
    Мета-инструкции для роботов - использование аттрибутов noindex и nofollow позволит видеть партнеру свою ссылку на странице, в то время как поисковые роботы будут игнорировать эту страницу, поэтому такие ссылки никогда не будут найдены. Использование nofollow разрешает индексацию страницы и даже создает впечатление, что в конечном итоге поисковик будет ее учитывать.

    Атрибуты rel=nofollow - это не действительный HTML-атрибут, однако это тот атрибут, который был воспринимается поисковыми машинами, чтобы помочь им идентифицировать факт, что какие-то ссылки не должны посещаться. Этот атрибут часто используется в блогах, чтобы предотвратить спам в комментариях и ссылках. Ссылка будет отображаться на странице и в кэше поисковика, но не будет учитываться.

    Динамический листинг - динамический листинг - это результат появления ссылок случайным образом на разных страницах. Каждый раз ссылка находится на новой странице, поэтому поисковая машина каждый раз учитывает это как обновление ссылки. Очень вероятно, что ссылка не будет на той же самой странице, когда поисковый робот придет на нее еще раз. Таким образом, ссылка с партнера, использующего ротатор, динамический листинг вряд ли поможет.

    Плавающий список - вы даже можете не заметить этого, проверяя обратные ссылки с партнера. По сути, ваша ссылка может быть первой сегодня, но по мере добавления новых ссылок на страницу партнера, она перемещается вниз. Это болезненно для страницы, на которую эта ссылка ведет, т. к. значимость ссылок внизу списка много меньше, чем ссылки вверху списка. В связи с этим, возможно, что ваша ссылка будет перемещена на страницу, чей PR существенно меньше и вообще не существует и новая страница не будет посещена и проиндексирована месяцы.

    Старый кэш - дата кэширования, которую обеспечивает Гугл свидетельствует о времени последнего посещения и кэширования страницы. Страницы с низкой величиной PR (PR-page rank, значимость страницы в Гугле , прим. переводчика) имеют тенденцию посещаться и кэшироваться не так часто, как страницы, которые имеют среднюю или высокую величину PR. Если кэш старше, чем полгода, то это наводит на мысль, что Гугл слишком редко или вообще не посещал эту страницу.

    Денвер-страницы - в то время как Денвер отличное место для посещения, Денвер-страницы - это не то место, где бы вы хотели найти свои ссылки после обмена или покупки. Денвер-страницы обычно содержат огромное количество ссылок, сгруппированных по категориями на той же самой странице. Страницы такого типа не имею никакой значимости для поисковых машин и никоим образом не могут подходить для вашего сайта.

    Страницы-лужи - довольно опасны и легко узнаваемы. Ваша ссылка находится в куче нетематических ссылок, расположенных в бессмысленном порядке. Это похоже, как будто кто-то взял все ссылки и подбросил их в воздух, чтобы посмотреть как они упадут на землю. Это даже хуже, чем Денвер-страницы.

    Клоакинг - процесс, когда страница, которая отдается реальному посетителю отличается от той страницы, которая отдается поисковому роботу. Вы можете видеть свою ссылку на странице, однако поисковый робот, возможно, никогда не увидит ее, потому что ему будет представлена совершенно другая страница. Только проверка кэша Гугла позволит определить эту уловку.

    Танцующие роботы - этот способ легко применять с серверными скриптовыми языками, типа PHP и его очень редко удается отловить. В этой ситуации люди, которые пытаются получить копию файла robots.txt получают ее, однако она не содержит в себе инструкции для поискового робота. С другой стороны, если этот файл robots.txt будет затребован поисковым роботом, то он получит все необходимые ему инструкции. В такой ситуации страницы с ссылками никогда не будет проиндексированы и вы не узнаете об этом без вмешательства специалиста.

    Путаница с использованием МЕТА - тэгов и robots.txt - какие инструкции имею больший вес? Не знаете ответ? Позор. Поисковые машины знают. Если возникает конфликт инструкций МЕТА-тэгов и robots.txt, то обычно используется правило follow.

    Ссылка в заголовке HEAD - в то время как эти ссылки не учитываются поисковиками и не показываются на веб-странице, они все таки обнаруживаются скриптами или программами, разработанными для проверки существования этой ссылки. Эти программы только ищут URL внутри исходного кода веб-страницы.

    Пустые анкеры - отвратительный трюк, который однако может быть и честной ошибкой. Ссылки существуют и учитываются поисковыми машинами, но, к несчастью, они невидимы или некликабельны на веб-странице. Другими словами, ссылка не дает трафик вообще.

    Автор статьи: Ли Робертс (Lee Roberts)
    Перевод: Bambino
     
    1 person likes this.