Как устроена память у нейросетей и почему ChatGPT вас не запоминает

15.07.2025 • Хабр

На Хабре вышла объёмная статья, объясняющая, как на самом деле устроена память у LLM в SaaS-сервисах вроде ChatGPT, Gemini и Claude. Автор разобрал по уровням, как модель запоминает (и забывает) информацию: от контекстного окна и KV-кеша до сессионной, чатовой и глобальной памяти. Основной вывод — у пользователя нет прямого контроля над запоминаемыми данными, но платформа собирает метаданные, подмешивает их в промпты и строит персонализацию в обход самой LLM.

Особое внимание уделено архитектуре памяти:

Также разобраны практические советы: как формулировать промпты, избегать линейного "засорения" диалога и когда лучше перезапустить чат, чтобы получить более точный ответ.

Статья объясняет, почему LLM "забывает" сказанное ранее, несмотря на кажущуюся последовательность, и как на самом деле работает память в современных AI-продуктах. Рекомендуется к прочтению всем, кто активно использует нейросети в работе.

Читайте также

  1. Как тимлид заменил десятки вкладок на файловую систему и Claude Code
  2. Claude 4 вышел вперед, Codex от OpenAI уличили в ошибках, Meta теряет учёных: обзор новостей ИИ
  3. Когда, зачем и как правильно начинать новую сессию в Claude Code
  4. MIT и Кембридж: ChatGPT снижает креативность и память — как этого избежать
  5. Архитектура LLM-агентов: планирование, память и инструменты на практике
#Искусственный интеллект#Хабр#OpenAI#AI-агенты#Identity Graph#first-party-data-activation#context-engineering
← Назад в лентуЧитать оригинал →
✈️ Подписывайтесь на мой Telegram-канал — там еще больше интересного про AdTech, MarTech, AI и многое другое!