Статья описывает «живое знание» как управляемый движок импорта данных, где решения принимают детерминированные правила, а LLM выступает ассистентом. В центре — Онто как модель знаний (DatasetSignature, DatasetClass, PipelineTemplate, RecognitionResult), MCP как оркестратор шагов и связка MinIO → Airflow (единый DAG csv_ingest_pg) → Postgres. Подход “storage-first” и presigned PUT/GET исключают проксирование тяжёлых данных, снижают TCO и риски.Сигнатуры датасетов (нормализованный хедер, хэши, типы, PII-флаги) обеспечивают воспроизводимость и авто-маршрутизацию; класс не найден — создаётся draft с порогами и объяснимостью (matchedBy, score).Один универсальный DAG (profile → DDL → COPY → отчёт) заменяет «зоопарк» скриптов; параметры (sep, encoding, target) приходят из знаний.Качество гарантируется самопроверками (например, совпадение структуры строк ≥95%) и политиками no-overwrite; PII управляется на уровне шаблонов.Экономика: бОльшая часть труда — в переиспользуемых классах/шаблонах; MVP возможен за 3 дня одним экспертом, далее масштабирование — через пополнение Онто, а не переписывание конвейера.Практическая ценность для корп-среды: трассируемость («почему так»), предсказуемость (порог/джаккард/хэши), снижение MTTR и затрат на поддержку. LLM применён для генерации болванок, документации и диагностики, но не принимает критических решений.