Материал объясняет, почему «средний» ноутбук пока не готов к локальному запуску LLM: типичный конфиг (CPU 4–8 ядер, встроенная графика, 16 ГБ RAM) без GPU/NPU не тянет полезные модели, а LLM с >1 трлн параметров требуют сотен гигабайт памяти и остаются в дата-центрах. Облако удобно, но уязвимо к простоям ДЦ и вызывает вопросы приватности; локальный инференс обещает меньшую задержку и хранение данных на устройстве.Что меняется в ПК под ИИ:NPU становятся обязательными: в 2023 у AMD было около 10 TOPS, сегодня у AMD/Intel — 40–50 TOPS;ускоряется и наращивается память, а два пула (системный и графический) заменяются унифицированной архитектурой;CPU+GPU+NPU чаще объединяют в один SoC и заново выстраивают энергопрофиль.Пример скачка: Qualcomm AI 100 NPU в Dell Pro Max Plau AI PC заявляет до 350 TOPS (в 35 раз выше «лучших пару лет назад»); для контраста RTX 5090 — до 3 352 TOPS, но до 575 Вт питания. AMD продвигает Ryzen AI Max (NPU 50 TOPS) с общим пулом до 128 ГБ RAM.Софт тоже перестраивается: Windows AI Foundry Local даёт каталог тысяч моделей и маршрутизацию задач через Windows ML, а также API для LoRA и on-device RAG. Обратная сторона интеграции — сложнее апгрейд и ремонт.