Способности LLM к «симулированным рассуждениям» — «хрупкий мираж», выяснили исследователи
Исследование Университета Аризоны подвергает сомнению устойчивость подхода simulated reasoning в LLM: эффект прироста качества от chain-of-thought (CoT) описывается как «хрупкий мираж». Авторы показывают, что модели часто воспроизводят знакомые шаблоны рассуждений вместо принципиального понимания логики, а ответы становятся несвязными при добавлении нерелевантных условий или небольшом отклонении от привычных шаблонов задач.
Для объективной проверки обобщаемой логики создан контролируемый тренировочный стенд DataAlchemy: небольшие модели обучаются на двух простых текстовых трансформациях (ROT-шифр и циклические сдвиги) и их композициях с разным порядком применения. Далее им предлагаются задачи вне домена обучающих паттернов.
- Вывод: скачки качества CoT оказываются нестабильными и ломаются уже при умеренных сдвигах распределения.
- Причина: CoT отражает репликацию выученных шаблонов, а не понимание текста.
- Импликации: необходимы стресс-тесты с трансформациями и проверкой устойчивости к формулировкам, осторожность при использовании «рассуждающих» LLM в продуктах и критичных сценариях.
Читайте также
Архитектурный подход к контролю согласованности в LLM
Wikipedia приостанавливает AI-саммари после резкого протеста редакторов
Учёные создали робота-бадминтониста с искусственным интеллектом
Lamoda запускает «Г(ии)д по стилю» для онлайн-примерки вещей
«Вам нужны партнеры, а не подрядчики»: как запустить ИИ-проект, который принесет реальную пользу бизнесу
Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!