Как устроена память у нейросетей и почему ChatGPT вас не запоминает

15.07.2025 • Хабр

На вышла объёмная статья, объясняющая, как на самом деле устроена память у LLM в SaaS-сервисах вроде , и . Автор разобрал по уровням, как модель запоминает (и забывает) информацию: от контекстного окна и KV-кеша до сессионной, чатовой и глобальной памяти. Основной вывод — у пользователя нет прямого контроля над запоминаемыми данными, но платформа собирает метаданные, подмешивает их в промпты и строит персонализацию в обход самой LLM.

Особое внимание уделено архитектуре памяти:

Также разобраны практические советы: как формулировать промпты, избегать линейного "засорения" диалога и когда лучше перезапустить чат, чтобы получить более точный ответ.

Статья объясняет, почему LLM "забывает" сказанное ранее, несмотря на кажущуюся последовательность, и как на самом деле работает память в современных AI-продуктах. Рекомендуется к прочтению всем, кто активно использует нейросети в работе.

Читайте также

  1. Claude 4 вышел вперед, Codex от OpenAI уличили в ошибках, Meta теряет учёных: обзор новостей ИИ
  2. MIT и Кембридж: ChatGPT снижает креативность и память — как этого избежать
  3. Архитектура LLM-агентов: планирование, память и инструменты на практике
  4. ИИ, который программирует и эволюционирует сам: Sakana AI анонсировала Darwin Gödel Machine
  5. Мой первый AI-агент: личный опыт создания и реальность работы
#Искусственный интеллект#Хабр#OpenAI#AI-агенты#Identity Graph#first-party-data-activation#context-engineering
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!