Способности LLM к «симулированным рассуждениям» — «хрупкий мираж», выяснили исследователи
Исследование Университета Аризоны подвергает сомнению устойчивость подхода simulated reasoning в LLM: эффект прироста качества от chain-of-thought (CoT) описывается как «хрупкий мираж». Авторы показывают, что модели часто воспроизводят знакомые шаблоны рассуждений вместо принципиального понимания логики, а ответы становятся несвязными при добавлении нерелевантных условий или небольшом отклонении от привычных шаблонов задач.
Для объективной проверки обобщаемой логики создан контролируемый тренировочный стенд DataAlchemy: небольшие модели обучаются на двух простых текстовых трансформациях (ROT-шифр и циклические сдвиги) и их композициях с разным порядком применения. Далее им предлагаются задачи вне домена обучающих паттернов.
- Вывод: скачки качества CoT оказываются нестабильными и ломаются уже при умеренных сдвигах распределения.
- Причина: CoT отражает репликацию выученных шаблонов, а не понимание текста.
- Импликации: необходимы стресс-тесты с трансформациями и проверкой устойчивости к формулировкам, осторожность при использовании «рассуждающих» LLM в продуктах и критичных сценариях.
Читайте также
«ИИ, найди факты, а я подумаю»: почему гибридный подход не работает для форсайта
Wikipedia приостанавливает AI-саммари после резкого протеста редакторов
Учёные создали робота-бадминтониста с искусственным интеллектом
AI-приложения идут на ваш компьютер
Дружба Linux и Windows, или как поиграться с ИИ-моделями на втором компьютере без видеокарты
Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!