Юристы Anthropic исправили ошибку AI-ассистента Claude в судебном цитировании

Скандал вокруг компании вновь привлёк внимание к проблеме «галлюцинаций» искусственного интеллекта в юридической практике. В ходе судебного разбирательства по иску Universal Music Group, Concord и ABKCO против Anthropic за использование текстов песен для обучения AI, адвокат Anthropic признал, что их ассистент Claude некорректно оформил цитирование в экспертном заключении. Claude указал правильную публикацию и год, но ошибся с названием и авторами. Ошибка осталась незамеченной из-за недостаточной ручной проверки, и, по словам юристов, не была умышленной фальсификацией.

Дело Anthropic стало очередным примером, когда «галлюцинации» AI приводят к юридическим последствиям: аналогичные случаи уже были с , Bard от и другими генеративными системами. Судьи и регуляторы усиливают требования к проверке информации, полученной с помощью AI, а в юридском сообществе всё чаще звучит призыв обучаться работе с ИИ-инструментами и развивать цифровую грамотность. Эксперты отмечают, что ошибки в генерации ссылок и цитирований — общая проблема генеративных моделей, и отрасль нуждается в новых стандартах проверки.

Читайте также

  1. Суд признал обучение Claude на купленных книгах допустимым, но запретил использование пиратских книг
  2. ИИ трансформирует рынок труда — даже внутри AI-компаний
  3. Галлюцинации AI в судебных документах становятся проблемой: новые данные показывают, что за ошибки всё чаще отвечают юристы
  4. Суд в США поддержал Meta по делу об обучении ИИ на книгах — истцы проиграли из-за слабой позиции
  5. Anthropic изменяет политику найма: ИИ теперь официально разрешён для кандидатов
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!