Google: не делайте «контент кусочками» для LLM, если важны позиции в поиске
- В выпуске Search Off the Record об этом говорили John Mueller и Danny Sullivan.
- Тренд «content chunking» описывается как разбиение текста на очень короткие абзацы и секции.
- Цель подхода — выглядеть удобнее для генеративных ботов вроде
Gemini и чаще попадать в цитаты. - Danny Sullivan назвал это заблуждением и сказал, что Google не использует такие сигналы для улучшения позиций.
- Обсуждение начинается примерно на 18-й минуте выпуска.
- В качестве более устойчивой стратегии Google обозначил создание контента для людей; выбор пользователей, на что кликать, остаётся важным сигналом.
Почему это важно: На фоне роста генеративных ответов вокруг SEO появляются новые «тактики», и не все они связаны с тем, как действительно работает поиск. Заявление Google задаёт рамку: ранжирование не «настраивается» под LLM через формальное дробление текста. Для редакций и брендов это снижает риск переразметки контента ради моды без понятного эффекта.
На что обратить внимание: В тексте подчёркивается, что речь идёт именно о структуре «короткими кусками» ради LLM-цитирования, а не о обычной читабельной разбивке и подзаголовках. Также фиксируется позиция Google, что поведение людей (клики) остаётся значимым сигналом. Следующий шаг по смыслу — наблюдать, как подобные рекомендации соотносятся с практикой и изменениями в выдаче.
Читайте также
Google о найме GEO/AEO/SEO и покупке AI-инструментов оптимизации
Google отключил AI Overviews для некоторых медицинских запросов
The Rundown: Google обозначила границы платежей за ИИ — и пространство манёвра издателей невелико
Стартап: «быть просто хорошим» недостаточно, чтобы выиграть в AI-поиске
Future оттачивает стратегию видимости в AI-поиске
Ключевые инсайты из новости (по версии ChatGPT)
- Антипаттерн: «content chunking» ради LLM-цитирования: В практике SEO появился паттерн «content chunking»: контент искусственно дробят на очень короткие абзацы и секции, часто с подзаголовками-вопросами, чтобы повысить вероятность «поглощения» и цитирования генеративными моделями (например, Gemini). Важно фиксировать это как отдельную цель (цитирование LLM), а не как универсальный приём улучшения качества материала или позиций в поиске.
[SEO / Контент-стратегия]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!
Ars Technica
В подкасте
Google Search Off the Record представители Google заявили, что не стоит дробить материалы на «куски» ради цитирования LLM. По их словам, такой приём не помогает ранжированию в поиске.