Отчет, опубликованный Версель подчеркивает растущее влияние ботов с искусственным интеллектом на сканирование веб-страниц.
GPTBot от OpenAI и Claude от Anthropic ежемесячно генерируют около 1 миллиарда запросов в сети Vercel.
Данные показывают, что за последний месяц GPTBot сделал 569 миллионов запросов, а на долю Клода — 370 миллионов.
Кроме того, PerplexityBot выполнил 24,4 миллиона выборок, а AppleBot добавил 314 миллионов запросов.
Вместе эти роботы с искусственным интеллектом представляют собой примерно 28% общего объема Googlebot, который составляет 4,5 миллиарда запросов.
Вот что это может означать для SEO.
Содержание
Ключевые выводы по роботам с искусственным интеллектом
В ходе анализа рассматривались модели трафика в сети Vercel и различных веб-архитектурах. Он обнаружил некоторые ключевые особенности сканеров с искусственным интеллектом:
- Основные роботы с искусственным интеллектом не обрабатывают JavaScript, но извлекают файлы JavaScript.
- Поисковые роботы с искусственным интеллектом зачастую неэффективны: ChatGPT и Claude тратят более 34% их запросов на 404 страницах.
- Тип контента, на котором фокусируются эти сканеры, варьируется. ChatGPT отдает приоритет HTML (57,7%), а Клод больше фокусируется на изображениях (35,17%).
Географическое распространение
В отличие от традиционных поисковых систем, которые работают в нескольких регионах, роботы с искусственным интеллектом в настоящее время сохраняют концентрированное присутствие в США:
- ChatGPT работает из Де-Мойна (Айова) и Феникса (Аризона).
- Клод работает из Колумбуса (Огайо).
Корреляция веб-альманаха
Эти выводы согласуются с данными, опубликованными в SEO веб-альманаха. главав котором также отмечается растущее присутствие сканеров с искусственным интеллектом.
Согласно отчету, веб-сайты теперь используют файлы robots.txt для установки правил для ботов ИИ, сообщая им, что они могут или не могут сканировать.
GPTBot — самый упоминаемый бот, появляющийся на 2,7% изучено мобильных сайтов. Также часто упоминается бот Common Crawl, который часто используется для сбора обучающих данных для языковых моделей.
В обоих отчетах подчеркивается, что владельцам веб-сайтов необходимо приспосабливаться к поведению сканеров с искусственным интеллектом.
3 способа оптимизации для сканеров с искусственным интеллектом
Основываясь на недавних данных Vercel и Web Almanac, вот три способа оптимизации для сканеров с искусственным интеллектом.
1. Рендеринг на стороне сервера
Сканеры с искусственным интеллектом не выполняют JavaScript. Это означает, что любой контент, основанный на рендеринге на стороне клиента, может быть невидимым.
Рекомендуемые действия:
- Реализация рендеринга на стороне сервера для критического контента.
- Убедитесь, что основной контент, метаинформация и структуры навигации присутствуют в исходном HTML.
- По возможности используйте генерацию статического сайта или поэтапную статическую регенерацию.
2. Структура и доставка контента
Данные Vercel показывают различные предпочтения типов контента среди сканеров с искусственным интеллектом:
ЧатGPT:
- Отдает приоритет HTML-контенту (57,70%)
- Тратит 11,50% выборок на файлы JavaScript.
Клод:
- Сильно фокусируется на изображениях (35,17%)
- Выделяет 23,84% выборок для файлов JavaScript.
Рекомендации по оптимизации:
- Четко и семантически структурируйте HTML-контент.
- Оптимизация доставки изображений и метаданных
- Включите описательный альтернативный текст для изображений.
- Реализуйте правильную иерархию заголовков
3. Технические соображения
Высокие показатели 404 от сканеров с искусственным интеллектом означают, что вам необходимо учитывать следующие технические соображения:
- Поддерживать обновленные карты сайта
- Реализуйте правильные цепочки перенаправления
- Используйте согласованные шаблоны URL-адресов
- Регулярный аудит 404 ошибок
Заглядывая в будущее
Для поисковых маркетологов идея ясна: чат-боты с искусственным интеллектом — это новая сила в веб-сканировании, и сайтам необходимо соответствующим образом адаптировать свою SEO.
Хотя сейчас ИИ-боты могут полагаться на кэшированную или устаревшую информацию, их способность анализировать свежий контент со всего Интернета будет расти.
Вы можете гарантировать, что ваш контент сканируется и индексируется с помощью рендеринга на стороне сервера, чистых структур URL-адресов и обновленных карт сайта.
Рекомендуемое изображение: tete_escape/Шаттерсток