OpenAI может ослабить защиту ИИ-моделей, если конкуренты выпустят более опасные системы

OpenAI обновила свой Preparedness Framework — внутреннюю систему оценки рисков ИИ и требований к мерам безопасности. Согласно изменениям, компания оставляет за собой право "адаптировать" уровень защиты, если конкуренты выпустят "высокорисковые" модели без аналогичных мер. При этом OpenAI подчёркивает, что такие шаги будут приниматься только после подтверждения изменений в риск-ландшафте, публичного признания корректировки и оценки её воздействия на общий уровень угроз.

На фоне обвинений в снижении стандартов ради ускорения релизов, OpenAI усиливает акцент на автоматизированные проверки, чтобы соответствовать более высокому темпу разработки. Однако, по данным Financial Times, внутренние сроки тестирования сократились до менее недели, а проверки часто проводятся на старых версиях моделей, а не на финальных. В частности, компания больше не требует обязательного тестирования дообученных моделей, что вызывает обеспокоенность у специалистов и бывших сотрудников, подавших заявление в рамках иска Илона Маска.

Обновления также уточняют критерии классификации моделей: “высокая способность” — когда модель может усилить существующие пути нанесения серьёзного вреда, и “критическая способность” — когда появляются совершенно новые риски. Такие системы должны получать дополнительные уровни защиты как на этапе разработки, так и до выхода в продакшн. Это первое обновление фреймворка с 2023 года и сигнализирует о попытке балансировать между безопасностью и рыночной конкуренцией.

← Назад в лентуЧитать оригинал →