DeepSeek научила ИИ не растрачивать внимание впустую
Китайская DeepSeek представила экспериментальную LLM DeepSeek-V3.2-Exp с механизмом DeepSeek Sparse Attention (DSA), нацеленным на снижение вычислительных затрат при работе с длинными контекстами. По заявлению разработчиков, качество ответов сохранено на уровне V3.1 при росте эффективности обработки больших документов.
DSA разрежает внимание трансформера: вместо полного пересчёта всех связей между токенами модель динамически фокусируется на значимых фрагментах контекста. Такой подход уменьшает потребление памяти и времени на длинных последовательностях и ускоряет задачи, где классические методы создают избыточные вычисления.
Доступность: бесплатная демо-версия и публикация на Hugging Face; интеграция через библиотеку Transformers. Командам рекомендуют тестировать сценарии расширенного контекста — суммаризацию длинных статей с последующими уточняющими вопросами.
Релиз позиционируется как промежуточный шаг перед полноформатной версией и как способ снизить «порог входа» для исследователей и разработчиков без мощного железа, упрощая локальный запуск LLM. В контексте фокуса на эффективности напоминается и прошлый ориентир: обучение модели R1 оценивалось примерно в $294 тыс.
Читайте также
DeepSeek выпустила модель «разреженного внимания», которая сокращает стоимость API вдвое
Динамический ресайзинг изображений (Image Previewer)
Как тимлид заменил десятки вкладок на файловую систему и Claude Code
Китай инвестирует до $98 млрд в искусственный интеллект к 2025 году
Как научить LLM исправлять код без лишних изменений
- Sparse Attention для длинных контекстов: смысл и выгода: Механизм DeepSeek Sparse Attention вычисляет внимание не по всем токенам, а по значимым, что снижает память/латентность при работе с длинными документами без заявленной потери качества относительно V3.1. Для PubMag это означает возможность обрабатывать цельные тексты (новости, лонгриды, лог-файлы) с меньшими затратами, сокращая количество принудительных чанков.
[архитектура]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться