Последствия обновления алгоритма Панда заставили всех нас поволноваться по поводу так называемых пользовательских метрик и того, как они повлияют на оптимизацию. Многие стали опасаться, что «плохие» сигналы из аналитики, особенно высокий процент отказов и короткое время на сайте, могут потенциально ухудшить позиции сайта.
Я считаю (и позже объясню — почему), что Гугл не смотрит напрямую нам в аналитику. И не думаю, что это им нужно. Потому что есть две метрики, к которым Бинг и Гугл имеют непосредственный доступ:
(1) Кликабельность страницы выдачи (SERP CTR)
(2) Время возврата в поиск («Dwell time»)
И я думаю, эти две метрики могут сказать поисковикам достаточно о вашем сайте.
Аналитика Гугла и оптимизация
Официальная позиция Гугла по этому вопросу такова: данные из аналитики для ранжирования не используются. Я не буду высказываться по данному вопросу, здесь вы можете сами решать, верить в это или нет. Замечу только, что мало что Мэтт так настоятельно подчеркивал. Я думаю, что аргументы против того, чтобы напрямую использоавть аналитику для ранжирования имеют под собой практическую почву.(1) Не все используют GA (Аналитику Гугл)
Сложно однозначно сказать, какой процент сайтов использует в данный момент GA, однако большое исследование, проведённое в 2009 году показало цифру в 28%. Я, в свою очередь, видел цифры и в 40% в некоторых источниках, но вполне можно предположить что в среднем 2/3 сайтов не имеют подключенного GA. Поэтому логично предположить, что Гуглу достаточно сложно ранжировать или баннить сайт, основываясь на факторе, который присутствует только у 1/3 всех интернет-ресурсов. Что ещё усугубляет картину: наиболее крупные сайты обходятся без GA, т. к. они могут позволить себе традиционные корпоративные системы аналитики (WebTrends, Omniture, и подобные).(2) GA может быть криво установлен
Гугл не может контролировать качество установки GA на тех сайтах, которые используют систему. Из своего опыта консультирования и из секции вопросов и ответов здесь на Moz'е, могу сказать, что аналитика зачастую прикручена плохо. Из-за этого показатели отказов, времени на сайте могут быть не очень приятными, плюс это создаёт в системе определённую путанницу.(3) GA может быть накручен
Как «хакерский» вариант (2) — аналитику можно установить «криво» нарочно. Таким образом, можно манипулировать большинством пользовательских метрик. В данном случае у Гугла нет возможности перепроверить качество каждой установки. В тот момент, когда теги GA оказываются в ваших руках, сам Гугл уже мало что может контролировать.Справедливости ради надо отметить, что есть мнение, что Гугл использует любые доступные данные. Я даже встречал косвенные доказательства того, что покажатель отказов имеет значение. Вот с этим я готов поспорить: Гуглу и Бингу не нужны данные аналитики или показатели отказов. У них есть все необходимые данные в их собственных логах.
Основная причина, почему я в это не верю
Наиболее часто встречающийся аргумент состоит в том, что Гугл не может по идее использовать метрики вроде показателя отказов в качестве сигнала ранжирования, так как показатель отказов сильно различается в зависимости от специфики сайта и не может расцениваться однозначно. Слышать это приходится настолько часто, что здесь я хотел бы остановиться поподробнее, т. к. у меня есть вполне четкая причина этому не верить.ЛЮБОЙ сигнал ранжирования, сам по себе — не может расцениваться однозначно. Я не знаю ни одного оптимизатора, который сказал бы, что заголовок страницы не имеет значения. И тем не менее, именно заголовок страницы легче всего повернуть так, как это нужно именно вам. В принципе все факторы, относящиеся к страницам сайта, можно проспаммить: именно поэтому Гугл добавил учет ссылок в свой алгоритм ранжирования. Ссылками, в свою очередь, тоже можно спаммить — поэтому Гугл также добавил социальные и пользовательские факторы ранжирования в общий алгоритм. Таким образом мы получаем более 200 факторов ранжирования. Бинг утверждает, что учитывает 1000 факторов ранжирования. А значит, ни один из этих сотен факторов не идеален.
Метрика #1: Кликабельность страницы выдачи (SERP CTR)
Основная метрика которая, я думаю, находит широкое применение в Гугл — это кликабельность страницы выдачи. Пришёлся ли на результат выдачи клик пользователя или нет — для Гугла и Бинга это основной показатель того, отвечает ли результат выдачи запросу. Мы знаем что и Гугл и Бинг собирают эти данные, потому что они косвенно ссылаются на них. (Актуальность этого заключения находит свои подтверждения в переводимом нами ранее докладе Яндекса для одноимённой поисковой системы. Доклад рассказывает о том, по какому алгоритму клики пользователей со страницы выдачи могут говорить о качестве выдачи в целом и данной страницы — косвенно. — прим. перев.)В Инструментах Вебмастера (Google Webmaster Tools) вы можете найти данные о кликабельности в разделе «Ваш сайт в сети» > «Поисковые запросы» (“Your site on the web” > “Search queries”). Выглядит это примерно так:
Бинг отражает похожие данные: в Паннели мониторинга (“Dashboard”) кликните на «Отчет по трафику» (“Traffic Summary”):
Конечно, мы также знаем что Гугл опирается на кликабельность своей страницы выдачи когда дают ей оценку качества, и Бинг следует этому примеру последние несколько лет. Алгоритм платного поиска в значительной мере отличается от алгоритма органического поиска, тем не менее, CTR важен и там. Более релевантные результаты привлекают больше кликов.
Метрика #2: Время возврата в поиск (Dwell Time)
В прошлом году, Дуан Форрестер из Бинг написал пост, который назывался «Как создавать качественный контент» в котором умоминал такой термин, как время возврата в поиск:Вашей целью должна быть такая ситуация, при которой пользователь приходит на вашу страницу, контент удовлетворяет всем его вопросам и потребностям, и пользователь остаётся у вас. Если контент не заставляет пользователя остаться на вашем сайте, пользователь уходит. Поисковая система фиксирует это по показателю времени возврата в поиск. Время между тем, когда юзер кликнул из поиска и ушёл на ваш сайт и тем, когда подльзователь вернулся обратно в поиск с вашего сайта, потенциально всё говорит о качестве вашего контента. Минута или две вполне достаточны, так как это может означать, что пользователь ознакомился с контентом на вашем сайте. Пара секунд, достаточные для беглого просмотра — плохой результат.
Время возврата в поиск своего рода отражает и процент отказов и метрику времени, проведённого на сайте: эта метрика показывает, сколько времени прошло, прежде чем пользователь вернётся обратно в выдачу после ухода из неё на вашу страницу (и эти цифры можно непосредственно найти в логах самой поисковой системы).
Гугл никогда не высказывался однозначно по этому вопросу, но косвенные улики указывают на то, что Гугл использует показатель времени возврата в поиск (либо какой-то похожий показатель). В прошлом году, Гугл протестировал функциональность, при которой, если вы кликаете на результат выдачи и потом быстро возвращаетесь в неё (т. е. время возврата в выдачу оказывается минимальным), то вы получаете опцию заблокировать данный сайт:
В настоящий момент функциональность недоступна широкой аудитории. С запуском персонализированного поиска Гугл временно отказался от этой опции. Но тот факт, что быстрый возврат в поиск являлся тригером для включения опции блокировки сайта показывает, что Гугл полагается на время возврата в поиск как на сигнал качества сайта.
1+2 = Убойная комбинация
Обе метрики дают блестящий результат в сочетании. Сам по себе CTR можно накрутить: можно поставить вводящие в заблуждения заголовки страниц и мета-теги, которые имеют мало общего с содержанием самой страницы. Но зато подобного рода манипуляция приведёт к низкому времени возврата в поиск. Тоесть, вы накручиваете CTR, а затем сайт не удовлетворяет ожиданиям пользователя, которые появились у него после просмотра сниппета, и люди уходят обратно в поиск. Сочетание CTR и времени возврата в поиск даёт ощутимую возможность прослеживать качество страниц и выдачи, при этом опираясь всего на 2 метрики. Если у вас одновременно высокие CTR и время возврата в поиск, вероятнее всего у ваш результат удовлетворяет качеству и является релевантным.Принимаются ли во внимание другие метрики?
Я не говорю, что процент отказов и другие параметры поведенческих факторов не принимаются во внимание. Как я уже говорил, время возврата на страницу связано (и возможно коррелирует) с процентом отказов и временем, проведённым пользователем на сайте. Гленн Гейб публиковал хороший пост по поводу «Действительного процента отказов» где говорил также и о том, почему время возврата может более точно отражать ситуацию по сравнению с процентом отказов. По прежнему, нужно принимать во внимание традиционные поведенческие факторы, которые мы видим из аналитики, а также не забывать более широкие показатели, такие, как скорость сайта и сигналы из соц.сетей, которые, в свою очередь, также связаны с поведенческими факторами.Мне бы хотелось чтобы у вас сложилось более широкое понимание поведенческих факторов. Посмотрите на них с точки зрения поисковой системы: пора немного отвлечься от собственно аналитики сайта. Я недавно видел примеры, когда GA удаляли или манипулировали тегами с целью накрутки показателей, так как боялись последствий со стороны поисковой системы. Но на самом деле это приводило к плохому результату: утрачивалась достоверность собственных данных. Я не думаю, что Гугл или Бинг используют данные из нашей аналитики. И даже если бы им и пришлось к ней прибегнуть, то они анализировали бы эти данные вместе с данными из своих логов и с учетом прочих факторов.
Так и что же мне делать?
Создайте сниппеты, которые приводят клики на релевантные страницы (Важно! Это совет для читателей в 2012 году, сейчас Гугл сам может выбрать текст сниппета — прим. перев.). Создайте страницы, на которых пользователи остаются. В конце концов, это вполне очевидно, к тому же — положительно влияет и на показатели оптимизации, и на конверсию. Особенно подумайте над комбинацией: просто привлекать клики пользователей бесполезно (и может быть даже вредно для удержания позиций сайта) в том случае, если люди после клика сразу покидают сайт. Работайте над тем, чтобы создать ситуацию баланса между релевантными ключами и качественными переходами.На правах переводчиков: мы также рекомендуем вам воспользоваться продуктом SERPClick для улучшения позиций вашего сайта путём улучшения показателей поведенческих факторов.
Источник: habrahabr.ru/company/altweb/blog/238335/
Обсуждение