Вы масштабируете не контент, а разочарование

Материал Search Engine Journal разбирает очередную волну массового производства SEO-контента — теперь с помощью LLM — и утверждает, что сам по себе объем страниц не заменяет реальную ценность. Главный вывод статьи: при слабом содержании масштабирование может обернуться потерей видимости, ручными мерами и лишним шумом для AI-систем поиска ответов.

  • Автор проводит историческую линию от content spinning в 2008–2011 годах через programmatic SEO в 2015–2022 годах к AI-генерации контента с 2023 года.
  • Обновление Panda в феврале 2011 года, как указано в тексте, затронуло почти 12% поисковых запросов, а Demand Media сообщила о убытке в $6,4 млн в следующем году.
  • Programmatic SEO в статье описан как массовое создание шаблонных страниц вроде Best [] in [City]; часть таких страниц могла быть полезной, но многие автор относит к doorway pages.
  • В одном из примеров упоминается AI visibility tool с сотнями страниц по шаблону best SEO agencies in {city}; отдельно приводится кейс Lily Ray с резюме-сайтом и 500+ programmatic pages.
  • В тексте сказано, что в июне 2025 года Google начала применять manual actions за scaled content abuse, а августовское spam update 2025 года продолжило это направление.
  • Также упоминается исследование 2025 года по retrieval для LLM-систем: низкополезные страницы могут не просто не помогать, а ухудшать качество ответов, отвлекая модели лишними фрагментами.

Почему это важно: Для SEO здесь важен не сам факт использования AI, а порог полезности материала. Объем без новой ценности в логике статьи может работать как слабый сигнал качества, а в сценариях AI-powered answers — еще и как шум, который мешает извлечению действительно полезных фрагментов. Обычно это означает смещение фокуса с количества страниц на то, что именно страница добавляет по сравнению с уже существующей выдачей.

На что обратить внимание: В статье отдельно отмечено, что Google описывает scaled content abuse через цель страниц: ранжирование без пользы для пользователя, а не через сам факт применения AI. Также заметен уровень оценки: автор пишет не только про отдельные URL, но и про site-level quality signals, из-за чего локальный успех нескольких страниц не обязательно означает устойчивость всей стратегии. Следующий логический шаг в такой рамке — смотреть на редакторский контроль, оригинальность и то, не скрываются ли полезные материалы внутри массы однотипных страниц.

Читайте также

  1. Google: не делайте «контент кусочками» для LLM, если важны позиции в поиске
  2. Пока бренды адаптируются к AI search, границы между paid search и органическим поиском размываются
  3. Как AI Overviews Google меняют правила SEO-игры: рост охвата и снижение органического трафика
  4. Google о найме GEO/AEO/SEO и покупке AI-инструментов оптимизации
  5. Официально: Google AI Overviews теперь ссылаются на новые поисковые результаты
Ключевые инсайты из новости (по версии ChatGPT)
  • Качество важнее уникальности при масштабировании контента: Для поисковых систем сама по себе уникальность текста не является ценностью: критичен порог реальной полезности страницы по сравнению с уже существующими материалами по теме. При планировании контентного масштаба нужно оценивать не количество новых URL, а наличие оригинального вклада: экспертизы, опыта, данных или вывода, которого пользователь не получит в соседних результатах выдачи.
    [SEO / Контентная стратегия]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!