llama-cpp
Последние новости
-
31.01.2026
Большой бенчмарк: ROCm против Vulkan в LM Studio 0.4 и параллельные запросы -
13.12.2025
Сборка высокопроизводительного AI-десктопа -
02.11.2025
Открываем RAG и интернет для LM Studio -
01.11.2025
Вам нужна RAM, а не VRAM: параметр -cmoe для локального запуска больших MoE-LLM. Ускоряем GPT-OSS-120B