Галлюцинации AI в судебных документах становятся проблемой: новые данные показывают, что за ошибки всё чаще отвечают юристы
Проблема "галлюцинаций" AI в юридических документах становится всё более заметной: судьи все чаще выявляют фейковые ссылки на несуществующие дела и цитаты, сгенерированные искусственным интеллектом. По данным открытой базы, собранной аналитиком Дамьеном Шарлотеном, с 2023 года зафиксировано минимум 120 подобных случаев, и только за первые 5 месяцев 2025 года – уже 73, в основном в
США, но также в
Великобритании, ЮАР, Израиле,
Австралии и Испании.
Если в 2023 году основную долю ошибок допускали самозащитники (pro se), то в 2025 году за 13 из 23 выявленных случаев отвечают уже профессиональные юристы и их помощники. Особо показательные инциденты закончились крупными штрафами — в пяти делах санкции превысили $10 000, а в одном случае команда юристов была оштрафована на $31 000 за подачу фейковых материалов, частично созданных AI из-за недопонимания в команде и отсутствия проверки данных.
В ряде случаев инструмент, использованный для генерации фейковых цитат, не раскрывался, но чаще всего судьи связывали ошибки с использованием
ChatGPT. Тренд распространяется по миру, а суды становятся все строже в отношении проверки и наказания за недобросовестное применение AI в юридической практике.
Читайте также
Disney и NBCUniversal подали в суд на Midjourney за копирование культовых персонажей через AI
Юристы Anthropic исправили ошибку AI-ассистента Claude в судебном цитировании
Илон Маск отвечает на иск OpenAI, обвиняя компанию в предательстве благотворительной миссии
Креативный директор Pixar: ИИ — это «наименее впечатляющее усреднение всего»
Президент HP: AI не заменит всех — только тех, кто не научится им пользоваться