llama-cpp
Последние новости
- 31.01.2026
Большой бенчмарк: ROCm против Vulkan в LM Studio 0.4 и параллельные запросы - 13.12.2025
Сборка высокопроизводительного AI-десктопа - 02.11.2025
Открываем RAG и интернет для LM Studio - 01.11.2025
Вам нужна RAM, а не VRAM: параметр -cmoe для локального запуска больших MoE-LLM. Ускоряем GPT-OSS-120B