Галлюцинации AI в судебных документах становятся проблемой: новые данные показывают, что за ошибки всё чаще отвечают юристы

Проблема "галлюцинаций" AI в юридических документах становится всё более заметной: судьи все чаще выявляют фейковые ссылки на несуществующие дела и цитаты, сгенерированные искусственным интеллектом. По данным открытой базы, собранной аналитиком Дамьеном Шарлотеном, с 2023 года зафиксировано минимум 120 подобных случаев, и только за первые 5 месяцев 2025 года – уже 73, в основном в США, но также в Великобритании, ЮАР, Израиле, Австралии и Испании.

Если в 2023 году основную долю ошибок допускали самозащитники (pro se), то в 2025 году за 13 из 23 выявленных случаев отвечают уже профессиональные юристы и их помощники. Особо показательные инциденты закончились крупными штрафами — в пяти делах санкции превысили $10 000, а в одном случае команда юристов была оштрафована на $31 000 за подачу фейковых материалов, частично созданных AI из-за недопонимания в команде и отсутствия проверки данных.

В ряде случаев инструмент, использованный для генерации фейковых цитат, не раскрывался, но чаще всего судьи связывали ошибки с использованием ChatGPT. Тренд распространяется по миру, а суды становятся все строже в отношении проверки и наказания за недобросовестное применение AI в юридической практике.

← Назад в лентуЧитать оригинал →