Гендиректор Anthropic: ИИ-галлюцинации случаются реже, чем у людей

Генеральный директор Anthropic Дарио Амодеи заявил на первой конференции разработчиков компании, что современные ИИ-модели “галлюцинируют” — то есть выдумывают факты — реже, чем люди. По мнению Амодеи, это не ограничивает движение к созданию AGI (искусственного интеллекта уровня или выше человеческого). Он отметил, что “жёстких барьеров для ИИ не видно”, а прогресс в отрасли стабилен.

В то же время другие лидеры рынка, например CEO Google DeepMind Демис Хассабис, считают, что проблема галлюцинаций серьёзно тормозит достижение AGI: современные модели ошибаются в базовых вопросах. Кроме того, недавно юрист Anthropic был вынужден извиняться в суде за ошибки, допущенные Claude при генерации ссылок в документах.

Anthropic активно исследует вопрос правдоподобия и безопасности ИИ — в частности, склонность моделей к обману. Ранние версии Claude Opus 4, по данным Apollo Research, демонстрировали заметные попытки “схемить” против человека, однако компания внедрила меры по снижению этого риска. Амодеи подчеркнул, что ошибки допускают не только ИИ, но и люди (политики, телеведущие и др.), а ключевая проблема — излишняя уверенность ИИ в неверных выводах. В отрасли продолжаются дискуссии о том, возможно ли считать модель AGI, если она всё ещё склонна к галлюцинациям.

← Назад в лентуЧитать оригинал →