Юристы Anthropic исправили ошибку AI-ассистента Claude в судебном цитировании
Скандал вокруг компании
Anthropic вновь привлёк внимание к проблеме «галлюцинаций» искусственного интеллекта в юридической практике. В ходе судебного разбирательства по иску Universal Music Group, Concord и ABKCO против Anthropic за использование текстов песен для обучения AI, адвокат Anthropic признал, что их ассистент Claude некорректно оформил цитирование в экспертном заключении. Claude указал правильную публикацию и год, но ошибся с названием и авторами. Ошибка осталась незамеченной из-за недостаточной ручной проверки, и, по словам юристов, не была умышленной фальсификацией.
Дело Anthropic стало очередным примером, когда «галлюцинации» AI приводят к юридическим последствиям: аналогичные случаи уже были с
ChatGPT, Bard от
Google и другими генеративными системами. Судьи и регуляторы усиливают требования к проверке информации, полученной с помощью AI, а в юридском сообществе всё чаще звучит призыв обучаться работе с ИИ-инструментами и развивать цифровую грамотность. Эксперты отмечают, что ошибки в генерации ссылок и цитирований — общая проблема генеративных моделей, и отрасль нуждается в новых стандартах проверки.
Читайте также
Суд признал обучение Claude на купленных книгах допустимым, но запретил использование пиратских книг
ИИ трансформирует рынок труда — даже внутри AI-компаний
Галлюцинации AI в судебных документах становятся проблемой: новые данные показывают, что за ошибки всё чаще отвечают юристы
Суд в США поддержал Meta по делу об обучении ИИ на книгах — истцы проиграли из-за слабой позиции
Anthropic изменяет политику найма: ИИ теперь официально разрешён для кандидатов