Google подтвердил, что большинству веб -сайтов все еще не нужно беспокоиться о бюджете Crawl, если у них более миллиона страниц. Однако есть поворот.
Член команды по поиску Google Гари Иллиес раскрыл на Недавний подкаст То, как быстро ваша база данных работает, имеет большее значение, чем количество страниц, которые у вас есть.
Это обновление происходит через пять лет после того, как Google поделился аналогичным руководством по бюджетам Crawl. Несмотря на значительные изменения в веб -технологии, советы Google остаются неизменными.
Содержание
Правило на миллион страниц остается прежним
Во время поиска в подкасте «Запись» Иллиес сохранил длинную позицию Google, когда соведущий Мартин Сплитт рассказал о порогах бюджета Crawl.
Иллиес заявил:
«Я бы сказал, что 1 миллион — это нормально».
Это подразумевает, что сайты с менее чем миллионом страниц могут перестать беспокоиться об их бюджете.
Что удивительно, так это то, что это число остается неизменным с 2020 года. Интернет значительно вырос, с увеличением JavaScript, динамического контента и более сложных веб -сайтов. Тем не менее, порог Google остался прежним.
Важна скорость базы данных
Вот большая новость: Illyes показал, что медленные базы данных мешают ползаниям больше, чем на большом количестве страниц.
Иллиес объяснил:
«Если вы делаете дорогие вызовы в базе данных, это будет стоить сервера».
Сайт с 500 000 страниц, но медленные запросы базы данных могут столкнуться с большим количеством проблем с ползанием, чем сайт с 2 миллионами статических страниц быстро загружающихся.
Что это значит? Вам необходимо оценить производительность базы данных, а не только считать количество страниц. Сайты с динамическим содержанием, сложными запросами или данными в реальном времени должны расставлять приоритеты в скорости и производительности.
Реальный ресурс Hog: индексация, а не ползание
Иллиес поделился чувством, которое противоречит тому, во что верят многие SEO.
Он сказал:
«Это не ползание, которое питает ресурсы, это индексирует и потенциально обслуживает или что вы делаете с данными, когда вы обрабатываете эти данные».
Подумайте, что это значит. Если ползание не потребляет много ресурсов, то блокирование Googlebot может быть не полезно. Вместо этого сосредоточьтесь на том, чтобы сделать ваш контент проще для Google, чтобы обработать его после того, как он заполз.
Как мы сюда попали
Подкаст предоставил некоторый контекст о масштабе. В 1994 году Всемирная паутина червя индексировала всего 110 000 страниц, в то время как WebCrawler индексировал 2 миллиона. Иллиес назвал эти цифры «милыми» по сравнению с сегодняшним днем.
Это помогает объяснить, почему отметка на один миллион страниц остается неизменной. То, что когда-то казалось огромным в ранней сети, теперь является просто сайтом среднего размера. Системы Google расширились, чтобы управлять этим без изменения порога.
Почему порог остается стабильным
Google стремится уменьшить свой ползающий след. Иллиес рассказал, почему это вызов.
Он объяснил:
«Вы сохранили семь байтов из каждого запроса, который вы делаете, а затем этот новый продукт добавит восемь».
Этот толчок между повышением эффективности и новыми функциями помогает объяснить, почему порог бюджета сканирования остается последовательным. В то время как инфраструктура Google развивается, базовая математика в отношении того, когда бюджет Crawl имеет значение без изменений.
Что вы должны делать сейчас
Основываясь на этих пониманиях, вот на чем вы должны сосредоточиться:
Сайты до 1 миллиона страниц:
Продолжайте свою текущую стратегию. Распределите приоритет отличный контент и пользовательский опыт. Бюджет Crawl для вас не является проблемой.
Большие сайты:
Повысьте эффективность базы данных в качестве вашего нового приоритета. Обзор:
- Время выполнения запроса
- Эффективность кэширования
- Скорость генерации динамического содержания
Все сайты:
Перенаправить фокус от профилактики сканирования на индексацию оптимизации. Поскольку ползание не является проблемой ресурсов, помогите Google в более эффективной обработке вашего контента.
Ключевые технические проверки:
- Производительность запроса базы данных
- Время отклика сервера
- Оптимизация доставки контента
- Правильная реализация кэширования
Глядя в будущее
Последовательное руководство Google по бюджету Crawl демонстрирует, что некоторые основы SEO действительно являются фундаментальными. Большинству сайтов не нужно беспокоиться об этом.
Тем не менее, понимание эффективности базы данных меняет разговор для более крупных сайтов. Речь идет не только о количестве страниц, которые у вас есть; Речь идет о том, как эффективно вы их обслуживаете.
Для профессионалов SEO это означает включение производительности базы данных в ваши технические аудиты SEO. Для разработчиков это подчеркивает значение оптимизации запросов и стратегий кэширования.
Через пять лет порог на миллион страниц все еще может существовать. Но сайты, которые оптимизируют производительность своей базы данных сегодня, будут готовы к тому, что будет дальше.
Послушайте полный эпизод подкаста ниже:
https://www.youtube.com/watch?v=IggUggonz1e
Показанное изображение: Novikov Aleksey/Shutterstock