В подкасте SEO Office Hours Джона Мюллера из Google спросили, приводит ли блокировка сканирования веб-страницы к удалению «силы ссылок» внутренних или внешних ссылок. Его ответ предложил неожиданный взгляд на проблему и дает представление о том, как Google Search справляется с этой и другими ситуациями внутри компании.

О силе ссылок

Есть много способов думать о ссылках, но когда дело доходит до внутренних ссылок, Google всегда говорит о внутренних ссылках, сообщающих Google, какие страницы наиболее важны.

Google в последнее время не публиковал никаких патентов или исследовательских отчетов о том, как использовать внешние ссылки для ранжирования веб-страниц. Таким образом, практически все, что оптимизаторы знают о внешних ссылках, основано на старой информации, которая сейчас может устареть.

То, что сказал Джон Мюллер, ничего не добавляет к нашему пониманию того, как Google использует входящие или внутренние ссылки, но дает другой способ думать об этом, который, на мой взгляд, более полезен, чем кажется на первый взгляд.

Последствия блокировки индексации ссылок

Задавший вопрос хотел знать, повлияет ли блокировка Google на сканирование веб-страницы на использование Google внутренних и входящих ссылок.

Вот в чем вопрос:

«Уменьшает ли блокировка сканирования или индексирования URL-адреса ссылочную силу внешних и внутренних ссылок?»

Мюллер предлагает найти ответ на вопрос, подумав о том, как на него отреагирует пользователь. Это странный ответ, но он также содержит интересные идеи.

Он ответил:

«Я бы посмотрел на это с точки зрения пользователя. Если страница ему недоступна, он не сможет ничего с ней сделать, и поэтому любые ссылки на этой странице будут совершенно неактуальны».

Вышеизложенное согласуется с тем, что мы знаем о взаимосвязи между сканированием, индексированием и ссылками. Если Google не может просканировать ссылку, Google ее не увидит и, следовательно, ссылка не будет иметь никакого эффекта.

ЧИТАТЬ  Что такое поведенческая реклама? -Джон Лумер Digital

Взгляд на ссылки на основе ключевых слов или на основе пользователей

Предложение Мюллера взглянуть на это так, как на него смотрел бы пользователь, интересно, потому что большинство людей не будут смотреть на вопросы, связанные со ссылками, таким образом. Но это имеет смысл, потому что, если вы заблокируете человеку доступ к веб-странице, он не сможет видеть ссылки, верно?

А как насчет внешних ссылок? Давным-давно я увидел платную ссылку на сайт, посвященный чернилам для принтеров, на сайте морской биологии, посвященном чернилам кальмара. Разработчики ссылок в то время думали, что если веб-страница содержит слова, соответствующие целевой странице (чернила от кальмара до чернил принтера), Google будет использовать эту ссылку для ранжирования страницы, поскольку ссылка находилась на «релевантной» веб-странице.

Как бы глупо это ни звучало сегодня, многие люди верили в этот подход к пониманию ссылок, основанный на ключевых словах, в отличие от подхода, основанного на пользователях, который предлагает Джон Мюллер. Если смотреть с точки зрения пользователя, понимание ссылок становится намного проще и, скорее всего, больше соответствует тому, как Google ранжирует ссылки, чем старомодному подходу, основанному на ключевых словах.

Оптимизируйте ссылки, сделав их доступными для сканирования.

Мюллер продолжил свой ответ, подчеркнув важность того, чтобы страницы были доступны для поиска по ссылкам.

Он объяснил:

«Если вы хотите, чтобы страницу можно было легко найти, убедитесь, что на нее есть ссылки со страниц, которые индексируются и релевантны вашему сайту. Также можно заблокировать индексирование страниц, которые вы не хотите находить. В конечном итоге это ваше решение. Однако, если на важную часть вашего сайта есть ссылки только с заблокированного сайта, это значительно усложняет поиск».

О блокировке сканирования

Последнее слово о блокировке поисковыми системами сканирования веб-сайтов. Удивительно распространенная ошибка, которую допускают некоторые владельцы веб-сайтов, заключается в том, что они используют метадирективу Robots, чтобы сообщить Google не индексировать веб-страницу, а сканировать ссылки на веб-странице.

ЧИТАТЬ  Мурал «Дом вдали от дома» в Google NYC

(Неверное) утверждение выглядит так:

В Интернете циркулирует много дезинформации, рекомендующей приведенное выше метаописание. Это даже отражено в обзорах искусственного интеллекта Google:

Скриншот обзоров ИИ

Конечно, приведенная выше директива Robots не работает, потому что, как объясняет Мюллер, если человек (или поисковая система) не может видеть веб-страницу, он (или поисковая система) не сможет перейти по ссылкам, присутствующим на веб-странице.

Хотя существует директива nofollow, которая позволяет сканеру поисковой системы игнорировать ссылки на веб-странице, не существует директивы Follow, которая заставляет сканер поисковой системы сканировать все ссылки на веб-странице. Переход по ссылкам — это требование, которое поисковая система может установить перед собой.

Узнайте больше о метатегах роботов.

Послушайте, как Джон Мюллер отвечает на вопрос, начиная с 14:45 минуты подкаста:

Рекомендованное изображение: Shutterstock/ShotPrime Studio.

Source