Юристы Anthropic исправили ошибку AI-ассистента Claude в судебном цитировании

Скандал вокруг компании Anthropic вновь привлёк внимание к проблеме «галлюцинаций» искусственного интеллекта в юридической практике. В ходе судебного разбирательства по иску Universal Music Group, Concord и ABKCO против Anthropic за использование текстов песен для обучения AI, адвокат Anthropic признал, что их ассистент Claude некорректно оформил цитирование в экспертном заключении. Claude указал правильную публикацию и год, но ошибся с названием и авторами. Ошибка осталась незамеченной из-за недостаточной ручной проверки, и, по словам юристов, не была умышленной фальсификацией.

Дело Anthropic стало очередным примером, когда «галлюцинации» AI приводят к юридическим последствиям: аналогичные случаи уже были с ChatGPT, Bard от Google и другими генеративными системами. Судьи и регуляторы усиливают требования к проверке информации, полученной с помощью AI, а в юридском сообществе всё чаще звучит призыв обучаться работе с ИИ-инструментами и развивать цифровую грамотность. Эксперты отмечают, что ошибки в генерации ссылок и цитирований — общая проблема генеративных моделей, и отрасль нуждается в новых стандартах проверки.

← Назад в лентуЧитать оригинал →