Недавнее расследование выявило проблему для веб-сайтов, использующих JavaScript для структурированных данных.

К этим данным, часто в формате JSON-LD, роботам с искусственным интеллектом трудно получить доступ, если они не содержатся в исходном ответе HTML.

Такие сканеры, как GPTBot (используется ChatGPT), ClaudeBot и PerplexityBot, не могут выполнять JavaScript и пропускают любые структурированные данные, добавленные позже.

Это создает проблемы для веб-сайтов, использующих такие инструменты, как Google Tag Manager (GTM), для вставки JSON-LD на стороне клиента, поскольку многие сканеры AI не могут читать динамически генерируемый контент.

Ключевые выводы о JSON-LD и роботах с искусственным интеллектом

Эли Берреби, основатель SEM King, рассмотрен что происходит, когда JSON-LD добавляется с помощью Диспетчера тегов Google (GTM) без рендеринга на стороне сервера (SSR).

Он выяснил, почему этот тип структурированных данных часто не видят сканеры ИИ:

  1. Начальная загрузка HTML: когда сканер запрашивает веб-страницу, сервер возвращает первую версию HTML. Если структурированные данные добавляются с помощью JavaScript, их не будет в этом первоначальном ответе.
  2. Выполнение JavaScript на стороне клиента: JavaScript запускается в браузере и изменяет объектную модель документа (DOM) для пользователей. На этом этапе GTM может добавить JSON-LD в DOM.
  3. Краулеры без рендеринга JavaScript: сканеры искусственного интеллекта, которые не могут запускать JavaScript, не видят изменений в DOM. Это означает, что они пропускают любой JSON-LD, добавленный после загрузки страницы.

Подводя итог, можно сказать, что структурированные данные, добавляемые только с помощью клиентского JavaScript, невидимы для большинства сканеров искусственного интеллекта.

ЧИТАТЬ  6 способов получить более индивидуальный опыт поиска

Почему традиционные поисковые системы отличаются

Традиционные поисковые сканеры, такие как Googlebot, могут читать JavaScript и обрабатывать изменения, внесенные в веб-страницу после ее загрузки, включая данные JSON-LD, введенные Диспетчером тегов Google (GTM).

Напротив, многие сканеры AI не могут читать JavaScript и видят только необработанный HTML-код с сервера. В результате они пропускают динамически добавляемый контент, например JSON-LD.

Предупреждение Google о чрезмерном использовании JavaScript

Эта проблема связана с более широким предупреждением Google о чрезмерном использовании JavaScript.

В недавнем подкасте команда Google Search Relations обсудила растущую зависимость от JavaScript. Хотя он обеспечивает динамические функции, он не всегда идеален для таких важных элементов SEO, как структурированные данные.

Мартин Сплитт, адвокат разработчиков поиска Google, объяснил, что веб-сайты варьируются от простых страниц до сложных приложений. Важно сбалансировать использование JavaScript и сделать ключевой контент доступным в исходном HTML.

Джон Мюллер, еще один защитник Google Search Advocate, согласился, отметив, что разработчики часто обращаются к JavaScript, когда более простые варианты, такие как статический HTML, были бы более эффективными.

Что делать вместо этого

Разработчики и специалисты по поисковой оптимизации должны обеспечить доступность структурированных данных для всех сканеров, чтобы избежать проблем с поисковыми роботами с искусственным интеллектом.

Вот некоторые ключевые стратегии:

  1. Серверный рендеринг (SSR): Отображение страниц на сервере для включения структурированных данных в первоначальный ответ HTML.
  2. Статический HTML: используйте разметку схемы непосредственно в HTML, чтобы ограничить использование JavaScript.
  3. Предварительный рендеринг: предлагать предварительно обработанные страницы, на которых уже был выполнен JavaScript, предоставляя сканерам полностью обработанный HTML.

Эти подходы согласуются с советом Google уделять приоритетное внимание разработке HTML и включать важный контент, такой как структурированные данные, в первоначальный ответ сервера.

ЧИТАТЬ  3 новые способы работы по защите и восстановлению природы с помощью ИИ

Почему это важно

Значимость ИИ-сканеров будет только расти, и они играют по другим правилам, чем традиционные поисковые системы.

Если ваш сайт зависит от GTM или другого клиентского JavaScript для структурированных данных, вы упускаете возможности получить рейтинг в результатах поиска на основе искусственного интеллекта.

Перейдя на серверные или статические решения, вы сможете подготовить свой сайт к будущему и обеспечить видимость в традиционном поиске и поиске с помощью искусственного интеллекта.


Рекомендованное изображение: nexusby/Shutterstock



Source link