DeepSeek научила ИИ не растрачивать внимание впустую
Китайская
DeepSeek представила экспериментальную LLM DeepSeek-V3.2-Exp с механизмом DeepSeek Sparse Attention (DSA), нацеленным на снижение вычислительных затрат при работе с длинными контекстами. По заявлению разработчиков, качество ответов сохранено на уровне V3.1 при росте эффективности обработки больших документов.
DSA разрежает внимание трансформера: вместо полного пересчёта всех связей между токенами модель динамически фокусируется на значимых фрагментах контекста. Такой подход уменьшает потребление памяти и времени на длинных последовательностях и ускоряет задачи, где классические методы создают избыточные вычисления.
Доступность: бесплатная демо-версия и публикация на Hugging Face; интеграция через библиотеку Transformers. Командам рекомендуют тестировать сценарии расширенного контекста — суммаризацию длинных статей с последующими уточняющими вопросами.
Релиз позиционируется как промежуточный шаг перед полноформатной версией и как способ снизить «порог входа» для исследователей и разработчиков без мощного железа, упрощая локальный запуск LLM. В контексте фокуса на эффективности напоминается и прошлый ориентир: обучение модели R1 оценивалось примерно в $294 тыс.
Читайте также
DeepSeek выпустила модель «разреженного внимания», которая сокращает стоимость API вдвое
«Вам нужны партнеры, а не подрядчики»: как запустить ИИ-проект, который принесет реальную пользу бизнесу
Ретроспектива 2025: год LLM — практика, иллюзия и реальные сдвиги
Lamoda запускает «Г(ии)д по стилю» для онлайн-примерки вещей
Китай инвестирует до $98 млрд в искусственный интеллект к 2025 году
- Sparse Attention для длинных контекстов: смысл и выгода: Механизм DeepSeek Sparse Attention вычисляет внимание не по всем токенам, а по значимым, что снижает память/латентность при работе с длинными документами без заявленной потери качества относительно V3.1. Для PubMag это означает возможность обрабатывать цельные тексты (новости, лонгриды, лог-файлы) с меньшими затратами, сокращая количество принудительных чанков.
[архитектура]
Зарегистрированные пользователи видят только два тезиса.
Зарегистрироваться