Google вновь модернизирует свой поисковый алгоритм. В компании говорят, что поисковик теперь будет значительно более требователен к сайтам, глубже изучая их контент и отдавая предпочтение проектам, публикующим оригинальную информацию, развернутые данные, а вот копипейстерам, тайпсквоттерам и иным "оптимизаторам" заказана дорога вниз рейтинга. В компании говорят, что новый алгоритм был внедрен несколько дней назад и еще несколько дней потребуется, чтобы все поисковые машины Google его реализовали в своей части поискового индекса. По словам пресс-службы Google, улучшения, внедренные в алгоритме будут способствовать росту рейтингов "высококачественных сайтов", в то же время поисковая система позаботится о том, чтобы сайты с контентом "низкого качества" были опущены вниз рейтинга. Амит Синхал, один из ведущих разработчиков Google, говорит, что ранее компания уже начала воевать против контент-ферм в интернете - сайтов, которые в огромных количествах размещают различный рекламный материал, статьи украденные с других сайтов, а также прочую информацию, призванную лишь для того, чтобы обмануть поисковые системы и искусственно завысить рейтинг сайта, передав ему бОльшую часть поискового трафика. В связи с реализованными нововведениями, возникает резонный вопрос: что считать качественным контентом, а что нет? Мэтт Каттс, старший инженер Google, говорит, что под качественным контентом компания понимает оригинальную информацию, например исследования, глубокие и развернутые статьи и отчета, широкую аналитику и различные вспомогательные материалы, призванные еще больше раскрыть суть контента. Соответственно, критерии отбора информации будет определять новый алгоритм. Пресс-секретарь Google говорит, что компания не может публиковать все данные, касающиеся особенности работы новой версии алгоритма. "Мы не хотим давать плохим актерам возможность играть с нашим алгоритмом и снижать качество информации для пользователей", - заявил представитель компании. В Google заверили, что новая версия алгоритма пока не будет полагаться на недавно реализованные в браузере Chrome возможности по блокировке тех или иных страниц. Напомним, что чуть более недели назад компания представила новую экспериментальную утилиту для пользователей браузера Chrome, при помощи которой те смогут бороться с порядком надоевшими уже контент-фермами, обслуживающими сотни тысяч тайпсквоттерских доменов. Сейчас Google заявляет, что новинка пока находится в стадии испытания и решение о ее окончательном внедрении пока нет. Пользователи Chrome могут сказать расширение под названием Personal Blocklist, при помощи которого можно блокировать определенные домены от появления в персонализированных результатах поиска. Google со своей стороны также обещает мониторить домены, которые чаще всего попадают в бан со стороны пользователей и вносить соответствующие коррективы в основной поисковый вывод на Google.com. Новое расширение сейчас доступно на английском, французском, немецком, итальянском, португальском, испанском, турецком и русском языках. (19:05) 25.02.2011 http://www.cybersecurity.ru/net/116241.html
А как они определяют кто у кого украл контент... Хм..., думаю кто быстрее проиндексировал свой контент, тот и первоисточник... С таким успехом можно украсть свежинький контент и если ты его быстрее проиндексируешь то ты и хозяин чтоли получается Много вопросов тут возникает
как всегда они что-то намудрят а потом пиши через Вебмастер почему твой сайт стал в выдаче ниже какого-то ГС так всегда было интересно как сейчас гугл будет относиться к синонимайзу - Яндекс уже косится
гугл захлопотал потомучто bing обошол его по поисковой оптимизации, как было недавно написано на хакере
Конечно, гугл хрен просто так на задний план отодвинешь.. у него там мегамозги работают.. но, лично мне, не по душе его изменения в поиске за последние полгода..
В целом радует, если будет что либо концептуально новое. Но дорвеи как были, так и будут пока существуют ПС. Новые алго это хорошо. Новый сео софт, новые схемы и т.д ...ниша не стоит на месте)