Обновлённая модель DeepSeek R1 стала ещё более цензурированной — тест
Китайский AI-стартап DeepSeek представил обновлённую версию своей reasoning-модели R1 — “R1-0528”, показавшую высокие результаты на бенчмарках по программированию, математике и общим знаниям, почти догнав OpenAI o3. Однако независимые тесты (SpeechMap/xlr8harder) выявили, что новая модель стала значительно более "цензурированной": она менее охотно отвечает на вопросы, которые в Китае считаются политически чувствительными, особенно связанные с критикой властей или упоминанием ситуации в Синьцзяне.
- Согласно анализу, R1-0528 — самая «цензурированная» модель DeepSeek: она либо уходит от острых тем, либо повторяет официальную позицию китайских властей. Так, вопросы о правах человека или задержаниях уйгуров приводят к типовым или отклоняющим ответам.
- Причина — китайское регулирование (закон 2023 года), запрещающее генерацию контента, "наносящего ущерб единству страны и социальной гармонии". В итоге DeepSeek и другие разработчики вынуждены внедрять фильтрацию либо на уровне prompt-ов, либо через дообучение моделей.
- Исследование показало: оригинальная DeepSeek R1 уже отказывалась отвечать на 85% политически острых вопросов; новая версия ещё жёстче ограничена. Ситуация вызывает обеспокоенность у мирового AI-сообщества: эксперты предупреждают о рисках использования таких моделей в западных продуктах из-за их встроенных ограничений и контроля над информацией.
Читайте также
СДЭК внедрил ИИ для прогнозирования и оптимизации логистики
Маркетинг в эпоху нейроинтерфейсов — навстречу новой реальности
DeepSeek обновила свою сверхдешёвую AI-модель — но рынок это проигнорировал
ИИ экономит компаниям до 12 рабочих часов в неделю
МТС вложила 1 млрд рублей в развитие собственных ИИ-моделей Cotype
Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!