В 2009 году Google внес от 350 до 550 изменений в свой поисковый алгоритм. Учитывая данный факт, вебмастерам не стоит концентрироваться на каких-то определенных факторах ранжирования. Если вы создаете привязку к конкретному алгоритму, то вы полностью отдаете себя в руки Гугла. Обратив же внимание на то, как Гугл совершенствует поиск, выбирая наиболее релевантные и полезные результаты, вы сможете занять более высокие позиции в естественном поиске.
Впрочем, иногда изменения алгоритма Гугла настолько значительны, что их замечают даже те, кто далек от этой темы. Сюда относится и то явление, которое вебмастера всего мира назвали «Mayday». Мэтт Каттс так охарактеризовал это явление: «Гугл производит более 400 изменений алгоритма в год, и это — одно из них, просто оно оказалось более заметным, чем другие. Это изменение имеет целью выявление сайтов наиболее релевантных запросам. Оно уже прошло период тестирования, и возврата назад не будет».
Сотрудники Гугла говорят, что это было изменение в ранжировании, а не в индексе. Это предполагает, что сайты получающее меньше трафика, по-прежнему будут индексироваться, но они уже не будут располагаться так высоко. Из этого пояснения стало ясно, что произведенные изменения коснутся в первую очередь низкочастотного трафика, который все же вкупе может составлять значительную часть.
В общем-то эти изменения коснуться крупных сайтов. Сюда относится большинство сайтов, занимающихся электронной торговлей. Разумеется, как и при любом изменении, когда кто-то теряет, всегда существуют те, кто выигрывает. Как отметил Мэтт Каттс, хорошо ранжироваться будут страницы по низкочастотным запросам, располагаемые на сайтах более высокого качества (или, возможно, страницы более высоко качества).
Все-таки похоже на то, что изменения в алгоритме были значительными. Если раньше страницы с релевантным, но менее качественным наполнением имели шансы хорошо ранжировать, то теперь релевантность запросу уже не является основным критерием.
Что в этой ситуации может сделать владелец сайта? Создание уникального контента и привлечение ссылок на такие страницы может представлять трудность. Можно посоветовать выделить запросы, по которым сайт получает меньше трафика и проверить по поисковику, какие страницы стали лучше ранжироваться. Проанализируйте, в чем они лучше. Например, неизвестно насколько Amazon.com выиграл от апдейта, но они проделали большую работу по смене контента и добавлении внутренних ссылок.
Исходя из прогнозов, эти изменения носят долгосрочный характер. Так что, если эти изменения коснулись вашего сайта, вам лучше проявить немного изобретательности и подумать над тем, как заставить эти страницы ранжироваться лучше.
Мэтт Каттс опубликовал на YouTube видео, где он рассказывает о произошедших изменениях. Он говорит: «Основная суть обновления — изменение способа оценки релевантности сайтов для низкочастотных запросов. Он порекомендовал владельцам сайтов, которые затронули изменения, объективно оценить свой сайт и при необходимости привнести изменения. Страница все же должна содержать нечто большее, чем тот же набор ключевых слов, что и запрос».
Оригинал статьи на английском языке: SearchEngineLand.