Как пользовательские факторы влияют на ранжирование: 2 важнейших фактора

16:55 13.10.2014 anastasiapmp 2,949 0
Мы продолжаем цикл переводов статей, посвященных различным аспектам поведенческих факторов и тому, как ПФ влияют на позиции сайта в поиске. Резюмируя предыдущие публикации, ПФ являются одним из наиболее сложных для накрутки, а значит и наиболее надёжных для поисковых систем способов определения «качественных» сайтов. Проще говоря, чем лучше ПФ вашего сайта, тем выше сайт находится в органической выдаче. В этом посте, увидевшем свет ещё в 2012 на SEOMoz.com, Питер Мейерс раскрывает детали алгоритма учета ПФ системами Гугл и Бинг, которые по нашему мнению активно развиваются и по сей день. SERPClick разработан в том числе на основе данных, подробно рассмотренных в этом посте. Он позволяет реализовать ПФ кампании, нацеленные на улучшение ранжирования вашего сайта через улучшение показателей поведенческих факторов. Благодарим аналитический отдел компании ALTWeb Group за предоставленный перевод.


Последствия обновления алгоритма Панда заставили всех нас поволноваться по поводу так называемых пользовательских метрик и того, как они повлияют на оптимизацию. Многие стали опасаться, что «плохие» сигналы из аналитики, особенно высокий процент отказов и короткое время на сайте, могут потенциально ухудшить позиции сайта.

Я считаю (и позже объясню — почему), что Гугл не смотрит напрямую нам в аналитику. И не думаю, что это им нужно. Потому что есть две метрики, к которым Бинг и Гугл имеют непосредственный доступ:

(1) Кликабельность страницы выдачи (SERP CTR)
(2) Время возврата в поиск («Dwell time»)

И я думаю, эти две метрики могут сказать поисковикам достаточно о вашем сайте.

Аналитика Гугла и оптимизация

Официальная позиция Гугла по этому вопросу такова: данные из аналитики для ранжирования не используются. Я не буду высказываться по данному вопросу, здесь вы можете сами решать, верить в это или нет. Замечу только, что мало что Мэтт так настоятельно подчеркивал. Я думаю, что аргументы против того, чтобы напрямую использоавть аналитику для ранжирования имеют под собой практическую почву.

(1) Не все используют GA (Аналитику Гугл)
Сложно однозначно сказать, какой процент сайтов использует в данный момент GA, однако большое исследование, проведённое в 2009 году показало цифру в 28%. Я, в свою очередь, видел цифры и в 40% в некоторых источниках, но вполне можно предположить что в среднем 2/3 сайтов не имеют подключенного GA. Поэтому логично предположить, что Гуглу достаточно сложно ранжировать или баннить сайт, основываясь на факторе, который присутствует только у 1/3 всех интернет-ресурсов. Что ещё усугубляет картину: наиболее крупные сайты обходятся без GA, т. к. они могут позволить себе традиционные корпоративные системы аналитики (WebTrends, Omniture, и подобные).

(2) GA может быть криво установлен
Гугл не может контролировать качество установки GA на тех сайтах, которые используют систему. Из своего опыта консультирования и из секции вопросов и ответов здесь на Moz'е, могу сказать, что аналитика зачастую прикручена плохо. Из-за этого показатели отказов, времени на сайте могут быть не очень приятными, плюс это создаёт в системе определённую путанницу.

(3) GA может быть накручен
Как «хакерский» вариант (2) — аналитику можно установить «криво» нарочно. Таким образом, можно манипулировать большинством пользовательских метрик. В данном случае у Гугла нет возможности перепроверить качество каждой установки. В тот момент, когда теги GA оказываются в ваших руках, сам Гугл уже мало что может контролировать.

Справедливости ради надо отметить, что есть мнение, что Гугл использует любые доступные данные. Я даже встречал косвенные доказательства того, что покажатель отказов имеет значение. Вот с этим я готов поспорить: Гуглу и Бингу не нужны данные аналитики или показатели отказов. У них есть все необходимые данные в их собственных логах.

Основная причина, почему я в это не верю
Наиболее часто встречающийся аргумент состоит в том, что Гугл не может по идее использовать метрики вроде показателя отказов в качестве сигнала ранжирования, так как показатель отказов сильно различается в зависимости от специфики сайта и не может расцениваться однозначно. Слышать это приходится настолько часто, что здесь я хотел бы остановиться поподробнее, т. к. у меня есть вполне четкая причина этому не верить.

ЛЮБОЙ сигнал ранжирования, сам по себе — не может расцениваться однозначно. Я не знаю ни одного оптимизатора, который сказал бы, что заголовок страницы не имеет значения. И тем не менее, именно заголовок страницы легче всего повернуть так, как это нужно именно вам. В принципе все факторы, относящиеся к страницам сайта, можно проспаммить: именно поэтому Гугл добавил учет ссылок в свой алгоритм ранжирования. Ссылками, в свою очередь, тоже можно спаммить — поэтому Гугл также добавил социальные и пользовательские факторы ранжирования в общий алгоритм. Таким образом мы получаем более 200 факторов ранжирования. Бинг утверждает, что учитывает 1000 факторов ранжирования. А значит, ни один из этих сотен факторов не идеален.

Метрика #1: Кликабельность страницы выдачи (SERP CTR)

Основная метрика которая, я думаю, находит широкое применение в Гугл — это кликабельность страницы выдачи. Пришёлся ли на результат выдачи клик пользователя или нет — для Гугла и Бинга это основной показатель того, отвечает ли результат выдачи запросу. Мы знаем что и Гугл и Бинг собирают эти данные, потому что они косвенно ссылаются на них. (Актуальность этого заключения находит свои подтверждения в переводимом нами ранее докладе Яндекса для одноимённой поисковой системы. Доклад рассказывает о том, по какому алгоритму клики пользователей со страницы выдачи могут говорить о качестве выдачи в целом и данной страницы — косвенно. — прим. перев.)

В Инструментах Вебмастера (Google Webmaster Tools) вы можете найти данные о кликабельности в разделе «Ваш сайт в сети» > «Поисковые запросы» (“Your site on the web” > “Search queries”). Выглядит это примерно так:

image

Бинг отражает похожие данные: в Паннели мониторинга (“Dashboard”) кликните на «Отчет по трафику» (“Traffic Summary”):
image

Конечно, мы также знаем что Гугл опирается на кликабельность своей страницы выдачи когда дают ей оценку качества, и Бинг следует этому примеру последние несколько лет. Алгоритм платного поиска в значительной мере отличается от алгоритма органического поиска, тем не менее, CTR важен и там. Более релевантные результаты привлекают больше кликов.

Метрика #2: Время возврата в поиск (Dwell Time)

В прошлом году, Дуан Форрестер из Бинг написал пост, который назывался «Как создавать качественный контент» в котором умоминал такой термин, как время возврата в поиск:

Вашей целью должна быть такая ситуация, при которой пользователь приходит на вашу страницу, контент удовлетворяет всем его вопросам и потребностям, и пользователь остаётся у вас. Если контент не заставляет пользователя остаться на вашем сайте, пользователь уходит. Поисковая система фиксирует это по показателю времени возврата в поиск. Время между тем, когда юзер кликнул из поиска и ушёл на ваш сайт и тем, когда подльзователь вернулся обратно в поиск с вашего сайта, потенциально всё говорит о качестве вашего контента. Минута или две вполне достаточны, так как это может означать, что пользователь ознакомился с контентом на вашем сайте. Пара секунд, достаточные для беглого просмотра — плохой результат.

Время возврата в поиск своего рода отражает и процент отказов и метрику времени, проведённого на сайте: эта метрика показывает, сколько времени прошло, прежде чем пользователь вернётся обратно в выдачу после ухода из неё на вашу страницу (и эти цифры можно непосредственно найти в логах самой поисковой системы).

Гугл никогда не высказывался однозначно по этому вопросу, но косвенные улики указывают на то, что Гугл использует показатель времени возврата в поиск (либо какой-то похожий показатель). В прошлом году, Гугл протестировал функциональность, при которой, если вы кликаете на результат выдачи и потом быстро возвращаетесь в неё (т. е. время возврата в выдачу оказывается минимальным), то вы получаете опцию заблокировать данный сайт:
image

В настоящий момент функциональность недоступна широкой аудитории. С запуском персонализированного поиска Гугл временно отказался от этой опции. Но тот факт, что быстрый возврат в поиск являлся тригером для включения опции блокировки сайта показывает, что Гугл полагается на время возврата в поиск как на сигнал качества сайта.

1+2 = Убойная комбинация

Обе метрики дают блестящий результат в сочетании. Сам по себе CTR можно накрутить: можно поставить вводящие в заблуждения заголовки страниц и мета-теги, которые имеют мало общего с содержанием самой страницы. Но зато подобного рода манипуляция приведёт к низкому времени возврата в поиск. Тоесть, вы накручиваете CTR, а затем сайт не удовлетворяет ожиданиям пользователя, которые появились у него после просмотра сниппета, и люди уходят обратно в поиск. Сочетание CTR и времени возврата в поиск даёт ощутимую возможность прослеживать качество страниц и выдачи, при этом опираясь всего на 2 метрики. Если у вас одновременно высокие CTR и время возврата в поиск, вероятнее всего у ваш результат удовлетворяет качеству и является релевантным.

Принимаются ли во внимание другие метрики?

Я не говорю, что процент отказов и другие параметры поведенческих факторов не принимаются во внимание. Как я уже говорил, время возврата на страницу связано (и возможно коррелирует) с процентом отказов и временем, проведённым пользователем на сайте. Гленн Гейб публиковал хороший пост по поводу «Действительного процента отказов» где говорил также и о том, почему время возврата может более точно отражать ситуацию по сравнению с процентом отказов. По прежнему, нужно принимать во внимание традиционные поведенческие факторы, которые мы видим из аналитики, а также не забывать более широкие показатели, такие, как скорость сайта и сигналы из соц.сетей, которые, в свою очередь, также связаны с поведенческими факторами.

Мне бы хотелось чтобы у вас сложилось более широкое понимание поведенческих факторов. Посмотрите на них с точки зрения поисковой системы: пора немного отвлечься от собственно аналитики сайта. Я недавно видел примеры, когда GA удаляли или манипулировали тегами с целью накрутки показателей, так как боялись последствий со стороны поисковой системы. Но на самом деле это приводило к плохому результату: утрачивалась достоверность собственных данных. Я не думаю, что Гугл или Бинг используют данные из нашей аналитики. И даже если бы им и пришлось к ней прибегнуть, то они анализировали бы эти данные вместе с данными из своих логов и с учетом прочих факторов.

Так и что же мне делать?

Создайте сниппеты, которые приводят клики на релевантные страницы (Важно! Это совет для читателей в 2012 году, сейчас Гугл сам может выбрать текст сниппета — прим. перев.). Создайте страницы, на которых пользователи остаются. В конце концов, это вполне очевидно, к тому же — положительно влияет и на показатели оптимизации, и на конверсию. Особенно подумайте над комбинацией: просто привлекать клики пользователей бесполезно (и может быть даже вредно для удержания позиций сайта) в том случае, если люди после клика сразу покидают сайт. Работайте над тем, чтобы создать ситуацию баланса между релевантными ключами и качественными переходами.

На правах переводчиков: мы также рекомендуем вам воспользоваться продуктом SERPClick для улучшения позиций вашего сайта путём улучшения показателей поведенческих факторов.
Источник: habrahabr.ru/company/altweb/blog/238335/
  anastasiapmp   2,949

Обсуждение