Мартина Сплитта из Google спросили, как сканирование и рендеринг робота Googlebot адаптируются к увеличению количества контента, генерируемого ИИ.

Ответ Мартина дал представление о том, как Google обрабатывает контент, созданный искусственным интеллектом, и роль контроля качества.

Рендеринг веб-страницы роботом Googlebot

Рендеринг веб-страницы — это процесс создания веб-страницы в браузере путем загрузки HTML, изображений, CSS и JavaScript и последующего объединения всего этого в веб-страницу.

Сканер Google, Googlebot, также загружает файлы HTML, изображения, CSS и JavaScript для отображения веб-страницы.

Как Google обрабатывает контент, созданный искусственным интеллектом

Контекст комментариев Мартина был на вебинаре под названием «Изучение искусства рендеринга с Мартином Сплиттом из Google», продюсером которого был Дуда.

Один из слушателей задал вопрос о том, повлияло ли большое количество ИИ-контента на способность Google отображать страницы в момент сканирования.

Мартин дал объяснение, но также добавил информацию о том, как Google во время сканирования решает, имеет ли веб-страница низкое качество, и что Google делает после определения.

Аммон Джонс задал вопрос, который прочитала Ульрика Виберг.

Вот вопрос:

«Итак, у нас тоже есть один из Аммона, и об этом много говорят.

Я часто это вижу.

По их словам, производство контента увеличивается благодаря искусственному интеллекту, что увеличивает нагрузку на сканирование и рендеринг.

Возможно ли, что процессы рендеринга придется упростить?»

Очевидно, Аммон хочет знать, происходят ли какие-либо специальные процессы в ответ на контент ИИ, чтобы справиться с возросшей нагрузкой сканирования и рендеринга.

Мартин Сплитт ответил:

«Нет, я так не думаю, потому что мое лучшее предположение…»

Далее Мартин обращается к очевидной проблеме с контентом ИИ, которая интересует оптимизаторов, а именно его обнаружению.

ЧИТАТЬ  Локальное SEO для нефизического бизнеса: преодоление проблем

Мартин продолжил:

«Поэтому мы проводим определение качества или контроль качества на нескольких этапах, и большинству непристойного контента не обязательно нужен JavaScript, чтобы показать нам, насколько он отстойный.

Итак, если мы раньше поймаем, что это дерьмовый контент, и пропустим рендеринг, какой в ​​этом смысл?

Если мы увидим, окей, это выглядит абсолютно… мы можем быть абсолютно уверены, что это чушь, и JavaScript может просто добавить еще чуши, и тогда пока.

Если это пустая страница, мы можем сказать: «Мы не знаем».

Обычно сюда не помещают пустые страницы, так что давайте хотя бы попробуем отрендерить.

А потом, когда рендеринг возвращается с дерьмом, мы говорим: да, ладно, честно говоря, это было дерьмо.

Итак, это уже происходит. Это не что-то новое.

ИИ может увеличить масштаб, но не сильно изменится. Рендеринг здесь не виноват».

Обнаружение качества применимо к ИИ

Мартин Сплитт не сказал, что Google применяет обнаружение ИИ к контенту.

Он сказал, что Google использует обнаружение качества на нескольких этапах.

Это очень интересно, поскольку журнал Search Engine Journal опубликовал статью об алгоритме определения качества, который также обнаруживает низкокачественный контент, созданный искусственным интеллектом.

Алгоритм не был создан для поиска низкокачественного машинного контента. Но они обнаружили, что алгоритм обнаружил это автоматически.

Многое в этом алгоритме соответствует всему, что Google объявил о своей системе полезного контента, которая предназначена для идентификации контента, написанного людьми.

Дэнни Салливан написал об алгоритме полезного контента:

«…мы внедряем ряд улучшений в Поиск, чтобы людям было проще находить полезный контент, созданный людьми и для них».

Однако он не просто упомянул контент, написанный людьми. В его статье, анонсирующей систему полезного контента, об этом упоминалось трижды.

ЧИТАТЬ  Заключенного президента Южной Кореи перевели в одиночную камеру

Алгоритм был разработан для обнаружения машинного контента, который также обнаруживает контент низкого качества в целом.

Научная работа называется, Генеративные модели — неконтролируемые предсказатели качества страниц: исследование колоссального масштаба.

В нем исследователи отмечают:

«В этой статье утверждается, что детекторы, обученные отличать человеческий текст от машинописного, являются эффективными предикторами языкового качества веб-страниц, превосходя базовые контролируемые классификаторы спама».

Возвращаясь к словам Мартина Сплитта:

«…мы проводим определение качества или контроль качества на нескольких этапах…

Итак, это уже происходит. Это не что-то новое.

ИИ может увеличить масштаб, но не сильно изменится».

Кажется, Мартин говорит следующее:

  1. Для контента AI не применяется ничего нового.
  2. Google использует определение качества как для человеческого контента, так и для искусственного контента

Посмотрите вебинар Дуды с участием Мартина Сплитта на отметке 35:50:

Изучение искусства рендеринга с Мартином Сплиттом из Google



Source link