Фабрис Канель и Кришна Мадхаван из команды Microsoft Bing опубликовали полезную запись в блоге под названием Влияет ли дублированный контент на видимость SEO и AI в поиске?? Короткий ответ — да, и длинный ответ — тоже да.
Мне нравится, как это надел Фабрис Канель. Х«Похожие страницы размывают сигналы и ослабляют видимость SEO и AI». Да, когда вы подаете поисковым системам, таким как Bing, смешанные и запутанные сигналы, это может вызвать проблемы с традиционным поиском и поиском с использованием искусственного интеллекта. Вот почему Джон Мюллер из Google продолжает говорить о последовательности.
При этом сообщение в блоге Bing посвящено всему этому аспекту искусственного интеллекта. Там написано:
- Поиск с помощью ИИ основывается на тех же сигналах, которые поддерживают традиционное SEO, но добавляет дополнительные уровни, особенно в плане удовлетворения намерений. Многие LLM полагаются на данные, основанные на индексе Bing или других поисковых индексах, и оценивают не только то, как индексируется контент, но и насколько четко каждая страница удовлетворяет цели запроса. Когда на нескольких страницах повторяется одна и та же информация, эти сигналы о намерениях становится сложнее интерпретировать системам искусственного интеллекта, что снижает вероятность того, что правильная версия будет выбрана или обобщена.
- Когда несколько страниц посвящены одной и той же теме с похожими формулировками, структурой и метаданными, системы искусственного интеллекта не могут легко определить, какая версия лучше всего соответствует намерениям пользователя. Это снижает вероятность того, что предпочитаемая вами страница будет выбрана в качестве основного источника.
- LLM группируют почти повторяющиеся URL-адреса в один кластер, а затем выбирают одну страницу для представления набора. Если различия между страницами минимальны, модель может выбрать устаревшую версию или не ту, которую вы намеревались выделить.
- Страницы кампании, сегменты аудитории и локализованные версии могут удовлетворять разным целям, но только если эти различия значимы. Когда варианты повторно используют один и тот же контент, у моделей меньше сигналов для сопоставления каждой страницы с уникальными потребностями пользователя.
- Системы искусственного интеллекта предпочитают свежий, актуальный контент, но дубликаты могут замедлить скорость отражения изменений. Когда сканеры повторно посещают повторяющиеся или малоценные URL-адреса вместо обновленных страниц, новой информации может потребоваться больше времени, чтобы достичь систем, поддерживающих сводки и сравнения ИИ. Более четкое намерение повышает прозрачность ИИ, помогая моделям понять, какой версии доверять и какой версии использовать.
Это действительно хороший пост в блоге, в котором содержится множество деталей. И я считаю, что все это актуально и для поиска Google, и для ответов искусственного интеллекта Google.
Так что читайте Влияет ли дублированный контент на видимость SEO и AI в поиске? сообщение в блоге.
🎁 Санта может проверить свой список дважды, но дублированный веб-контент — это то место, где меньше значит лучше. Подобные страницы размывают сигналы и ослабляют видимость SEO и AI. Придайте своему сайту ясность в нашем последнем блоге для веб-мастеров Bing. #Бинг #SEO #AIsearch pic.twitter.com/EXwx8cSFw0
— Фабрис Канель (@facan) 19 декабря 2025 г.
Обновление от Джона Мюллера из Google:
Да! Я думаю, что в наши дни это еще более актуально. У основных поисковых систем есть практика работы со странной и шаткой сетью, но это нечто большее, и вам не следует лениться только потому, что поисковые системы могут определить множество типов сайтов/присутствий в Интернете.
— Джон Мюллер (@johnmu.com) 24 декабря 2025 г., 8:41
Обсуждение на форуме Х.

