Сравнение: ChatGPT o3 Pro против Gemini, Claude и DeepSeek — какой AI лучше пишет код и рефераты?

опубликовал сравнительный тест нейросетей для двух задач: генерации кода интерактивной веб-презентации (визуализация алгоритмов сортировки) и написания научного реферата о беспилотных авто. В соревновании участвовали: o3 Pro, 2.5 Pro, Opus 4 и R1-0528. Тесты показали: хотя o3 Pro продемонстрировал глубину знаний и структурированность, он уступил конкурентам по стабильности генерации кода и читабельности текстов.

В задачах по коду наибольшую надежность и качество показали Claude Opus 4 и Gemini 2.5 Pro. Модель o3 Pro срезала вывод, а DeepSeek выдала слишком громоздкий и частично неработающий код. В генерации рефератов Gemini 2.5 Pro уверенно победил благодаря оптимальному балансу технической глубины, доступности и четкому следованию объему (16 874 символа при лимите 15 000). Claude Opus 4 и DeepSeek показали средний результат, а o3 Pro дал наиболее технически насыщенный, но фрагментарный текст (5960 знаков вместо 15 000).

Выводы: Gemini 2.5 Pro — оптимальный выбор для сложных, но “человекоориентированных” задач, Claude Opus 4 — для читаемости и кода, o3 Pro — для аналитических задач и сложной математики. Для типовых кейсов лучше использовать более легкие версии GPT. Тесты иллюстрируют быстрое развитие AI-моделей: новые апдейты повышают качество генерации как кода, так и сложных технических текстов.

← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!