Китайская компания DeepSeek выпустила новую линейку больших языковых моделей DeepSeek-V3.2, использующую архитектуру разреженного внимания для повышения производительности.
Согласно техническому отчету разработчиков, старшая версия модели превзошла показатели GPT-5 от OpenAI в задачах на логику и программирование.
"DeepSeek-V3.2-Speciale демонстрирует исключительные способности к рассуждению, достигнув уровня золотой медали на Международной математической олимпиаде (IMO 2025) и Международной олимпиаде по информатике (IOI 2025)", - говорится в заявлении компании.
Разработчики утверждают, что внедрение механизма DSA (DeepSeek Sparse Attention) позволило существенно снизить вычислительные затраты при сохранении точности в длинных контекстах. В бенчмарках модель V3.2-Speciale показывает результаты, сопоставимые с системой Gemini-3.0-Pro от Google, а базовая версия V3.2 позиционируется как более эффективный аналог GPT-5.
Китайская DeepSeek делает ставку на открытый исходный код, веса моделей V3.2 уже опубликованы для исследовательского сообщества.