【环球网科技综合报道】9月29日,据DeepSeek官方消息,DeepSeek-V3.2-Exp大语言模型正式发布并开源。该模型通过引入创新的稀疏Attention架构,在降低计算资源消耗的同时显著提升推理效率,为长序列文本处理提供了更优解决方案。
据官方介绍,DeepSeek-V3.2-Exp 模型是一个实验性(Experimental)的版本。作为迈向新一代架构的中间步骤,V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek Sparse Attention(一种稀疏注意力机制),针对长文本的训练和推理效率进行了探索性的优化和验证。
具体来说,DeepSeek Sparse Attention(DSA)首次实现了细粒度稀疏注意力机制,在几乎不影响模型输出效果的前提下,实现了长文本训练和推理效率的大幅提升。
目前,官方App、网页端、小程序均已同步更新为DeepSeek-V3.2-Exp,同时API大幅度降价。据官方称,在新的价格政策下,开发者调用 DeepSeek API 的成本将降低 50% 以上。(青山)