Обновлённая модель DeepSeek R1 стала ещё более цензурированной — тест

Китайский AI-стартап DeepSeek представил обновлённую версию своей reasoning-модели R1 — “R1-0528”, показавшую высокие результаты на бенчмарках по программированию, математике и общим знаниям, почти догнав OpenAI o3. Однако независимые тесты (SpeechMap/xlr8harder) выявили, что новая модель стала значительно более "цензурированной": она менее охотно отвечает на вопросы, которые в Китае считаются политически чувствительными, особенно связанные с критикой властей или упоминанием ситуации в Синьцзяне.

  • Согласно анализу, R1-0528 — самая «цензурированная» модель DeepSeek: она либо уходит от острых тем, либо повторяет официальную позицию китайских властей. Так, вопросы о правах человека или задержаниях уйгуров приводят к типовым или отклоняющим ответам.
  • Причина — китайское регулирование (закон 2023 года), запрещающее генерацию контента, "наносящего ущерб единству страны и социальной гармонии". В итоге DeepSeek и другие разработчики вынуждены внедрять фильтрацию либо на уровне prompt-ов, либо через дообучение моделей.
  • Исследование показало: оригинальная DeepSeek R1 уже отказывалась отвечать на 85% политически острых вопросов; новая версия ещё жёстче ограничена. Ситуация вызывает обеспокоенность у мирового AI-сообщества: эксперты предупреждают о рисках использования таких моделей в западных продуктах из-за их встроенных ограничений и контроля над информацией.
← Назад в лентуЧитать оригинал →