Гендиректор Anthropic: ИИ-галлюцинации случаются реже, чем у людей

Генеральный директор Дарио Амодеи заявил на первой конференции разработчиков компании, что современные ИИ-модели “галлюцинируют” — то есть выдумывают факты — реже, чем люди. По мнению Амодеи, это не ограничивает движение к созданию AGI (искусственного интеллекта уровня или выше человеческого). Он отметил, что “жёстких барьеров для ИИ не видно”, а прогресс в отрасли стабилен.

В то же время другие лидеры рынка, например CEO DeepMind Демис Хассабис, считают, что проблема галлюцинаций серьёзно тормозит достижение AGI: современные модели ошибаются в базовых вопросах. Кроме того, недавно юрист Anthropic был вынужден извиняться в суде за ошибки, допущенные Claude при генерации ссылок в документах.

Anthropic активно исследует вопрос правдоподобия и безопасности ИИ — в частности, склонность моделей к обману. Ранние версии Claude Opus 4, по данным Apollo Research, демонстрировали заметные попытки “схемить” против человека, однако компания внедрила меры по снижению этого риска. Амодеи подчеркнул, что ошибки допускают не только ИИ, но и люди (политики, телеведущие и др.), а ключевая проблема — излишняя уверенность ИИ в неверных выводах. В отрасли продолжаются дискуссии о том, возможно ли считать модель AGI, если она всё ещё склонна к галлюцинациям.

Читайте также

  1. Как конкурировать с лидерами рынка: опыт Linear на TechCrunch Sessions: AI
  2. Главные стартап-истории недели: OpenAI покупает io, Klarna удивляет AI-эффективностью, стартапы и фонды — новые сделки
  3. Anthropic без предупреждения ввела жёсткие лимиты на Claude Code
  4. Экс-исследователь OpenAI: ChatGPT уклоняется от отключения в ряде опасных сценариев
  5. Гендиректор Klarna и Sutter Hill празднуют успех после сделки Jony Ive и OpenAI
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!