Главные сложности Google с обходом сайтов в 2025 году
- Google перечисляет среди проблем фасетную навигацию, параметры действий, нерелевантные параметры, календарные параметры и другие нестандартные параметры URL.
- Фасетная навигация (фильтры и сортировки) названа крупнейшей категорией проблем: 50%.
- Параметры действий (например, add_to_cart и add_to_wishlist) оценены в 25% и могут увеличивать URL-пространство без существенных изменений контента.
- Нерелевантные параметры (например, UTM-метки и идентификаторы сессии) — 10%: роботу сложно понять, меняют ли они состояние страницы.
- WordPress-плагины или виджеты — 5%, а «другое странное» — 2% (пример — случайное двойное кодирование URL).
Почему это важно: В подкасте отмечается, что из-за таких URL робот может попадать в петли обхода и нагружать сервер, что влияет на производительность сайта. Gary Illyes объяснил, что после обнаружения набора URL робот не может решить, хорошее ли это пространство, пока не обойдёт значительную его часть.
На что обратить внимание: В разбивке отдельно выделены фасетная навигация и URL-параметры, а также параметры действий и «случайные» строки вроде UTM или session ID. В тексте подчёркивается, что неочевидные параметры заставляют робота проверять больше вариантов, чтобы понять, меняется ли страница. Отдельно упомянуты случаи, когда плагины/виджеты WordPress или ошибки кодирования создают редкие, но проблемные URL.
Коротко
- Подкаст Google напоминает: раздутое URL-пространство из-за параметров может дать лишнюю нагрузку на сервер и ухудшить работу сайта.
- Для сайтов с фильтрами и сортировками ключевой сигнал — растёт ли число комбинаций URL быстрее, чем появляется полезный контент.
- Параметры «действий» вроде add_to_cart часто создают дубли страниц; обычно это означает дополнительные обходы без заметной пользы для пользователя.
- UTM-метки и session ID выглядят как вариации адресов; в тексте сказано, что Googlebot может активнее обходить их, чтобы проверить смысл параметров.
- Редкие ошибки вроде двойного кодирования URL и эффекты плагинов/виджетов могут порождать «странные» ссылки, которые робот всё равно обходит.
FAQ
Зачем это важно: что происходит с сайтом, когда Googlebot сталкивается с огромным пространством URL из параметров и начинает обходить его циклично?
В тексте говорится, что такие петли обхода повышают нагрузку на сервер и могут ухудшать производительность сайта. Google отмечает, что без обхода большой части URL-пространства трудно оценить его ценность.
Какие типы проблем при обходе URL Google выделил по итогам 2025 года, помимо фасетной навигации, и почему часть из них связана с CMS и плагинами?
Упомянуты параметры действий, нерелевантные и календарные параметры, плагины или виджеты WordPress и другие редкие ошибки. В описании приводится пример, что параметры действий нередко добавляются плагинами CMS.
Почему нерелевантные параметры вроде UTM-меток или идентификаторов сессии могут заставлять робота обходить больше вариантов одной и той же страницы?
В тексте подчёркнуто, что Googlebot не всегда может сразу определить, меняют ли такие строки состояние страницы. Поэтому он может обходить варианты активнее, чтобы проверить их значимость.
Что в подкасте подразумевается под категорией «другое странное» и какой пример технической ошибки там приводится?
Это редкие технические проблемы, включая случайное двойное кодирование URL. Робот декодирует адрес один раз, но остаётся всё ещё закодированная строка, что ведёт к ошибкам.
Читайте также
Контент в фармотрасли: как получить органический небрендовый трафик
Google: почему ошибки 404 не важны для SEO
Google: выбирайте разумное название сайта, по которому реально ранжироваться в поиске
Google Shopping тестирует кликабельные подменю категорий
Google тестирует увеличенные фавиконки в поисковой выдаче
- Карта рисков для crawl: какие URL-паттерны чаще всего раздувают пространство страниц: В подкасте Google перечислены типовые классы URL, которые чаще всего создают избыточное пространство адресов при обходе: фасетная навигация, параметры действий, нерелевантные параметры, календарные параметры и редкие «странные» случаи. Это полезно как практический чек-лист для аудита генерации URL и оценки того, где у ботов возникает риск «перекрауливания» и лишней нагрузки на сайт.
[Процессы]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Сотрудники Google Gary Illyes и Martin Splitt в подкасте описали основные проблемы, которые Googlebot замечал при обходе сайтов в 2025 году. Главный вывод: параметры и фасеты раздувают пространство URL и могут создавать лишнюю нагрузку на сервер.