Фабрис Канель и Кришна Мадхаван из команды Microsoft Bing опубликовали полезную запись в блоге под названием Влияет ли дублированный контент на видимость SEO и AI в поиске?? Короткий ответ — да, и длинный ответ — тоже да.

Мне нравится, как это надел Фабрис Канель. Х«Похожие страницы размывают сигналы и ослабляют видимость SEO и AI». Да, когда вы подаете поисковым системам, таким как Bing, смешанные и запутанные сигналы, это может вызвать проблемы с традиционным поиском и поиском с использованием искусственного интеллекта. Вот почему Джон Мюллер из Google продолжает говорить о последовательности.

При этом сообщение в блоге Bing посвящено всему этому аспекту искусственного интеллекта. Там написано:

  • Поиск с помощью ИИ основывается на тех же сигналах, которые поддерживают традиционное SEO, но добавляет дополнительные уровни, особенно в плане удовлетворения намерений. Многие LLM полагаются на данные, основанные на индексе Bing или других поисковых индексах, и оценивают не только то, как индексируется контент, но и насколько четко каждая страница удовлетворяет цели запроса. Когда на нескольких страницах повторяется одна и та же информация, эти сигналы о намерениях становится сложнее интерпретировать системам искусственного интеллекта, что снижает вероятность того, что правильная версия будет выбрана или обобщена.
  • Когда несколько страниц посвящены одной и той же теме с похожими формулировками, структурой и метаданными, системы искусственного интеллекта не могут легко определить, какая версия лучше всего соответствует намерениям пользователя. Это снижает вероятность того, что предпочитаемая вами страница будет выбрана в качестве основного источника.
  • LLM группируют почти повторяющиеся URL-адреса в один кластер, а затем выбирают одну страницу для представления набора. Если различия между страницами минимальны, модель может выбрать устаревшую версию или не ту, которую вы намеревались выделить.
  • Страницы кампании, сегменты аудитории и локализованные версии могут удовлетворять разным целям, но только если эти различия значимы. Когда варианты повторно используют один и тот же контент, у моделей меньше сигналов для сопоставления каждой страницы с уникальными потребностями пользователя.
  • Системы искусственного интеллекта предпочитают свежий, актуальный контент, но дубликаты могут замедлить скорость отражения изменений. Когда сканеры повторно посещают повторяющиеся или малоценные URL-адреса вместо обновленных страниц, новой информации может потребоваться больше времени, чтобы достичь систем, поддерживающих сводки и сравнения ИИ. Более четкое намерение повышает прозрачность ИИ, помогая моделям понять, какой версии доверять и какой версии использовать.
ЧИТАТЬ  Роскошь доступна для влюбленных: откройте для себя презерватив Louis Vuitton - Chroniquesblondes.com

Это действительно хороший пост в блоге, в котором содержится множество деталей. И я считаю, что все это актуально и для поиска Google, и для ответов искусственного интеллекта Google.

Так что читайте Влияет ли дублированный контент на видимость SEO и AI в поиске? сообщение в блоге.

Обновление от Джона Мюллера из Google:

Да! Я думаю, что в наши дни это еще более актуально. У основных поисковых систем есть практика работы со странной и шаткой сетью, но это нечто большее, и вам не следует лениться только потому, что поисковые системы могут определить множество типов сайтов/присутствий в Интернете.

— Джон Мюллер (@johnmu.com) 24 декабря 2025 г., 8:41

Обсуждение на форуме Х.





Source link