Автор гайда собрал open-source веб-приложение Meeting-LLM, которое объединяет транскрипцию и LLM-анализ совещаний в одном интерфейсе и на собственном железе: загрузка аудио/видео → транскрипт с таймкодами → резюме, задачи, решения, вопросы → чат по содержимому, с историей встреч и рекомендациями на базе прошлых.STT: T-One от T-Tech (T-Банк) — работает на CPU, оптимизирована под русский и телефонию; пунктуацию предлагается добавить отдельной моделью (sbert_punc_case_ru).LLM: openai/gpt-oss-20b (20 млрд параметров) через vLLM; первая загрузка модели ~40 GB, далее запросы идут в локальный OpenAI-совместимый API.Железо: для LLM минимум 16 GB VRAM, рекомендовано 24 GB (RTX 3090/4090); CPU 4–8+ ядер для STT; RAM 8–16+ GB; диск 50–100+ GB (вес моделей и кэша).Инфра: Docker-контейнеры для T-One и vLLM, backend на FastAPI/uvicorn; поддержка Ubuntu/Debian, Windows через WSL/Docker Desktop, macOS M-серии с ограничениями; CRM-интеграция заявлена как beta/в разработке.Фокус — убрать «ручной конвейер» из отдельных сервисов (STT + чат-бот) и держать данные внутри периметра, разворачивая пайплайн на одном сервере с одной GPU.