Как контент ранжируется в том случае, если на него не ведёт много ссылок [с внешних сайтов]?
Мы с вами уже знакомились с очередным докладом Яндекса в нашем блоге, который был посвящен теме индексации новых страниц. Каковы шансы, что вашу новую страницу проиндексируют и заметят раньше других? В ходе изучения доклада мы пришли к выводу, что важными факторами будут вес домена, а также данные непосредственно из тулбара браузера — первые посещения. После того, как страница замечена, она встанет в очередь на индексацию и вопрос — какое место она займёт в этой очереди? — будет решаться путём прогнозирования как популярности этой страницы так и вероятного спада этой популярности. Первой нужно выбрать ту страницу, которая актуально именно сейчас. Этот доклад был оформлен как отдельное исследование, здесь же мы имеем дело с вопросом пользователей грубо говоря в «поддержку» Гугл.
Мэтт избегает сложных конструкций и старается объяснить всё максимально просто и на пальцах. Если говорить кратко, то по версии Мэтта, для новой страницы на которую ещё не ведут ссылки решающим фактором её ранжирования будет качество контента, а также сам запрос, по которому эта страница будет искаться. По его словам, если запрос достаточно редкий — то показывать по нему придётся именно ту страницу, которая ему отвечает.
Можно сделать вывод, что ссылки актуальны и желание получить их на новую страницу весьма оправдано. Однако помимо работы над ссылками можно добавить поведенческие факторы, которые могут сработать как триггер для поисковой системы: чаще всего, говоря «качество контента» представители поисковых систем прямо или косвенно подтверждают мысль о том, что это качество выражается в количестве посещений, длине сессии и отсутствию возврата в поиск за тем же запросом. Об этом мы уже говорили ранее.
Текст видео:
Сегодняшний вопрос пришёл из Индии. Ашиш спрашивает: «Как гугл оценит качество контента, если нет ссылок, ведущий на пост [с других сайтов]? Это хороший вопрос. В принципе, это отсылает нас обратно в тот период, когда поисковые системы ещё не начали ранжирование, основанное на ссылках. В этом случае судить приходится исходя из текста на самой странице.
И тут у Гугла достаточно возможностей. Первый раз, когда мы видим [ключевое] слово на странице, мы учитываем это. Встретив его снова, вновь обращаем на него внимание, но это ещё не решающий момент. Через некоторое время мы говорим [сами себе] «А пожалуй, мы уже видели это [ключевое] слово. Может быть, эта страница по этой теме. Но вот повторять ключевое слово снова и снова не очень вам поможет. А в какой-то момент [если переборщить с ключевиками], мы можем расценить это как «чрезмерную оптимизацию» и тогда страница ранжируется хуже, не так хорошо, как если вы используете умеренное количество упоминаний какого-то слова в одном тексте.
Так что у нас есть и другие способы [ранжировать страницу, если нет ведущих на неё с других сайтов ссылок]. Теоретически, мы, например, можем задаться вопросом: расположена ли новая страница на домене с хорошей репутацией?
Есть различные способы определить качество контента. Но в принципе, если пользователь набирает какую-то редкую фразу и в сети нет других страниц с этой фразой, и даже если на эту страницу не ведёт множество ссылок, тем не менее, эта страница будет показана в выдаче, потому что мы можем полагать, что она релевантна. Она может отражать то, что пользователь ищет. Поэтому может быть сложно, но с этой точки зрения мы как будто делаем шаг назад и отталкиваемся только от качества контента, который определяется по самому тексту, самой странице.
Потеряют ли ссылки когда-нибудь свою актуальность для ранжирования?
Нет и снова нет — спешим мы ответить, и эти слова находят подтверждение и в ответе Мэтта на данный вопрос. Ссылки по прежнему остаются решающим фактором в ранжировании всего домена в целом, в определении степени его авторитетности и важности. Однако в свете новых алгоритмов вновь на первый план выходит поведение пользователя по отношению к контенту. Здесь Мэтт пускается в пространное и довольно лиричное объяснение того, как Гуглу хотелось бы быть похожим на суперкомпьютер из Звёздного Пути.
Честно говоря, подобное объяснение, отталкивающееся от UX в поиске не даёт ответа на вопрос, что собственно нам делать, чтобы «договориться» с суперкомпьютером. В данном случае, обращаясь к поведенческим факторам, можно говорить об усилении ссылок при помощи переходов пользователей, а также о работе с поведенческими факторами, которые вкупе дают возможность поисковой системе оценить на базе собственных логов важнейшие параметры реакции пользователей на ваш контент: пользователь нашел вас в поиске, ушёл к вам и не вернулся (переход из поиска, время на странице, отсутствие возврата за тем же запросом).
Текст видео:
Сегодняшний вопрос пришел от Леа из Нью-Йорка и звучит он так: «Гугл изменил рынок поисковых систем в 90-х годах когда стал ранжировать сайты по количеству ведущих на них ссылок вместо того, чтобы оценивать только контент, как это делали другие поисковые системы. Обновления алгоритмов, такие как Панди и Пингвин показали смещение внимания назад к контенту. Значит ли это, что ссылки станут не нужны?»
Что ж, я думаю что ссылки продолжат быть актуальными ещё много, много лет. Конечно неизбежно то, что мы стараемся понять, решит ли пользователь-эксперт [в какой-то области] по поводу данной, [предложенной ему] страницы, насколько она удовлетворяет его потребностям. И иногда обратные ссылки помогают это понять.
Также полезно знать репутацию данного домена или страницы. Хотя в большинстве случаев, людям важно качество контента на конкретной странице, на которую они пришли.
Я думаю что со временем ссылки несколько потеряют в своей важности. Если бы могли точно определять, например, Дэнни Саливан (главный редактор Search Engine Land — прим. перев.) написал эту статью или Ванесса Фокс (оптимизатор, работала в Гугл Инструменты Вебмастера в 2005-2007) написала другую статью — что-нибудь в таком духе, это помогло бы нам понять. То есть у нас есть эксперт [который создал контент страницы], эксперт в конкретной области. В случае, если мы не знаем кто автор контента, Гугл начинает понимать всё лучше и лучше собственно что там написано.
Поэтому один из достаточно обширных вопросов, которым мы планируем заниматься в ближайшие месяцы это попытка понять как делать что-то похожее на супер-компьютер из Star Trek, это диалоговый поиск. Это тип поиска где вы можете говорить с машиной. И она сможет понимать, то есть вы не просто используете ключевые слова. Чтобы можно было понимать то, что кто-то говорит, например как [в вопросе] «какого роста Джастин Бибер» а потом — «когда он родился», а для этого надо понимать, о чём идёт речь. Речь идёт о Джастине Бибере.
Здесь чтобы делать это хорошо, нам нужно лучше понимать естественную речь. И я думаю по мере того как у нас всё лучше получается понимать кто что написал, каково истинное значение текста, то, неизбежно со временем внешним ссылкам будет придаваться меньшее значение.
Я бы ожидал, что в ближайшие годы мы продолжим опираться на ссылки для того, чтобы определять основную репутацию страниц и самих сайтов.
Источник: habrahabr.ru/company/altweb/blog/239733/
Обсуждение