В статье описана модель AIaaS — подключение ИИ-функций через облачные API без развёртывания своей инфраструктуры. Разобраны варианты интеграции и риски, которые остаются на стороне компании.AIaaS (AI as a Service) описывается как подключение к облачным API для машинного обучения, LLM (больших языковых моделей) и компьютерного зрения при инфраструктуре на стороне провайдера.Модель оплаты — за вызовы и интеграцию, а не за развёртывание и обучение базовой модели.Выделены четыре паттерна внедрения: direct use через интерфейс, модульная интеграция через API, low-code/no-code и оркестрация ИИ со слоем хранения состояния.Для API-сценариев приводится типовая схема с промежуточным слоем: очистка PII (персональных идентификаторов), лимиты, журналирование и защитные механизмы; перечислены провайдеры и их enterprise-режимы.Отдельно обсуждаются безопасность и комплаенс: риски утечек через логи и интеграции, а также влияние 152-ФЗ, GDPR и EU AI Act на архитектуру и договоры.После релиза акцент делается на поддержке качества: промпты как часть кода, изменения в данных и процессах, наблюдаемость, роли и внутренние практики обмена опытом.Почему это важно: AIaaS описан как способ подключать готовые ИИ-возможности и быстрее запускать прототипы, не разворачивая собственную инфраструктуру моделей. При этом стоимость и управляемость зависят от того, как устроена оплата за вызовы и интеграцию и насколько формализованы данные и процессы.На что обратить внимание: В описании direct use подчёркнута зона ответственности за корректность результата и правовые ограничения, особенно при работе с чувствительными данными. В инженерных сценариях значимо, где находится прокси-слой с фильтрацией PII, как устроены логи и доступы, и что закреплено в DPA и SLA. Для оркестрации упоминаются пороги уверенности и fallback-сценарии, поэтому заранее видны требования к метрикам качества и мониторингу.