Об этом заявил глава Google Джон Мюллер. Реддит что запрет URL-адресов с параметрами UTM не поможет вам улучшить сканирование или рейтинг в Google Поиске. Он добавил, что сайт должен стараться поддерживать чистоту и согласованность своих внутренних URL-адресов, но со временем канонические теги должны помочь внешним ссылкам, несущим параметры UTM.

Джон написал: «Я сомневаюсь, что вы увидите какие-либо видимые эффекты при сканировании или ранжировании от этого. (И если от этого нет никакой пользы, зачем это делать?)», когда его спросили о запрете таких URL-адресов.

Добавил он:

Вообще говоря, я бы все равно попытался улучшить сайт, чтобы не нужно было сканировать нерелевантные URL-адреса (внутренние ссылки, относительные канонические, соответствующие URL-адресам в каналах). Я думаю, что это имеет смысл с точки зрения того, чтобы все было чище и легче отслеживать — это хорошая гигиена веб-сайта. Если у вас есть URL-адреса случайных параметров из внешних ссылок, они в любом случае со временем будут очищены с помощью rel-canonical, я бы не стал блокировать их с помощью robots.txt. Если вы сами создаете URL-адреса случайных параметров, скажем, в рамках внутренних ссылок или из отправленных каналов, я бы очистил это в источнике, а не блокировал его с помощью robots.txt.

tldr: чистый сайт? да. заблокировать случайные неумелые URL-адреса снаружи? нет.

Все это очень похоже на предыдущий совет Джона Мюллера, который я цитировал в этих статьях:

Обсуждение на форуме Реддит.



Source link

ЧИТАТЬ  Поддельные фишинговые электронные письма DocuSign и HubSpot нацелены на 20 000 учетных записей Microsoft Azure