Как я отучил нейросеть писать «Я коммуникабельный» и заставил её проходить HR-фильтры

Автор описывает, как построил LLM-агента для отклика на вакансии так, чтобы сообщения не выглядели как шаблонный ChatGPT-текст и лучше проходили HR-фильтры. Главный итог — «генерация по одному промпту» заменена на пайплайн и проверку фактов.

  • Автор утверждает, что типовые сопроводительные письма от LLM рекрутеры распознают за секунды и часто отправляют в корзину как пустые.
  • Пайплайн генерации разделён на три шага: Extraction (выжимка фактов из вакансии), Matching (сопоставление с JSON-резюме), Generation (написание по правилам).
  • Для подготовки входа автор очищает HTML вакансий на hh, оставляя только блоки Requirements и Tasks, чтобы убрать «шум» про «печеньки» и «дружный коллектив».
  • Чтобы снизить риск приписывания навыков, добавлен шаг Fact-Checking: второй (более дешёвый) инстанс модели сверяет текст с JSON-резюме и при несоответствии перезапускает генерацию.
  • В «было/стало» приводятся примеры: вместо общих фраз — конкретные детали из вакансии и опыта; автор связывает это с ростом конверсии в ответы.

Почему это важно: Материал показывает, что «AI-slop» в откликах становится операционной проблемой: текст может быть грамотно написан, но не нести проверяемой конкретики. В статье тон и структура задаются через ограничения и примеры (negative prompting, few-shot learning), чтобы письмо было коротким и по делу. Проверка фактов по резюме снижает риск автоматизации, который автор называет ключевым.

На что обратить внимание: В описании подчёркнуто, что качество зависит от подготовки входа и явных запретов на клише, а не от «красивых формулировок». Источник истины в этом подходе — структурированное резюме в JSON, иначе модель может «додумывать» детали. Эффект измеряется через ответы, при этом численных метрик в статье нет.

Коротко

  • В статье подчёркнут короткий формат: 2–3 предложения по формуле «требование → релевантный опыт → стек», без вводных и «энтузиазма».
  • Отдельный акцент сделан на «анти-клише»: стиль задаётся ограничениями и примерами, а не попыткой сделать текст более «вдохновляющим».
  • Ключевой риск автоматизации — галлюцинации, когда модель «добавляет опыт»; ценность даёт связка генерации с проверяемым источником фактов.
  • В качестве результата автор описывает рост реакции на отклики, но без численных метрик — это оставляет вопрос о повторяемости эффекта в других ситуациях.
  • Текст подталкивает к мысли, что качество генерации часто определяется входом: если данные зашумлены, на выходе получается тот же «шум», только связнее.

FAQ

Зачем это важно рекрутеру и кандидату: что меняется, когда сопроводительное письмо выглядит как «AI-slop», и почему автор добавляет проверки фактов?

Автор пишет, что типовые письма быстро распознаются и воспринимаются как пустой спам. Проверка фактов по JSON-резюме снижает риск приписать себе навыки, которых нет.

Как устроен пайплайн генерации в статье и почему автор не ограничивается подачей текста вакансии в модель одним запросом без промежуточных шагов?

Процесс разделён на Extraction, Matching и Generation: сначала из вакансии выжимается стек и «боли», затем это сопоставляется с JSON-резюме, после чего текст собирается по жёстким правилам.

Как в статье решается риск «галлюцинаций», когда модель может приписать кандидату опыт, которого нет в резюме, и что происходит при найденном несоответствии?

Перед отправкой второй, более дешёвый инстанс модели сверяет сгенерированный текст с JSON-резюме. Если находится несоответствие, генерация перезапускается.

Читайте также

  1. Как научить LLM исправлять код без лишних изменений
  2. Как в ЮMoney автоматизировали найм с помощью LLM и сократили ручной труд HR на 70%
  3. Как я локально тестировал новый Qwen 3.6 и Gemma 4
  4. ИИ для PHP-разработчиков: практика без Python и науки о данных
  5. Когда ИИ не понимает бизнес-контексты
Ключевые инсайты из новости (по версии ChatGPT)
  • Пайплайн генерации персонализированного текста: Extraction → Matching → Generation: Вместо «одного промпта на всё» полезно разделять генерацию на этапы: сначала извлечь из входного текста только факты (например, требования и задачи), затем сопоставить их со структурированными данными о человеке/продукте (JSON-профиль), и только после этого генерировать итоговый текст по правилам. Такой конвейер снижает долю «воды» и помогает делать сообщения более конкретными и проверяемыми.
    [LLM / Процессы генерации текста]
Для получения полного доступа оформите подписку PubMag PRO.
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться
Инсайты автоматически генерируются с помощью искусственного интеллекта на основе текста статьи.
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!