GPT-5 сгенерировал 100 игр, 13 не запустились
Эксперимент на Хабре: автор с платной подпиской ChatGPT Plus поручил GPT-5 сгенерировать 100 браузерных версий Battle City на HTML/CSS/JS. На весь цикл ушло около 6 часов; одна игра генерировалась примерно за 3 минуты.
- Полноценный уровень без бонусов появился менее чем в 50% сборок.
- Простейший звук (выстрел) присутствовал менее чем в 20% генераций.
- «Три в ряд»: из 20 запусков 20% оказались с багами, 10% не запустились.
- Симуляция пчелиного улья (27 попыток): 5 не стартовали, 6 имели критичные баги.
Вывод: заметный прогресс GPT-5 — расширенный контекст и скорость ответа, однако до замены программистов далеко. Массовая генерация кода приводит к высокой доле нерабочих билдов, а рост сложности задачи повышает дефектность. Автор указывает и на риск гипотетического самопереписывания ИИ с вероятностью около 10% сломать систему.
Читайте также
Как кодинг-агенты используют инструменты, память и контекст репозитория, чтобы писать код лучше
Вайбкодинг с Claude: оформление Telegram-бота, UX и сценарии взаимодействия
Renga API: автоматизируем автоматизацию с помощью ИИ-агентов
Возвращаем к жизни связку OpenClaw и Claude
Анализ документов нейросетью с цитатами из источников: скилл research-docs для Claude Code
Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!