出品|搜狐科技
作者|郑松毅
一改“憋大招”风格,DeepSeek又又又更新了!
刚刚,作为迈向下一代架构的过渡,DeepSeek-V3.2-Exp实验版本模型正式更新发布,相关文件链接已由官方上传至开源社区Hugging Face。
目前,官方 App、网页端、小程序均已同步更新为 DeepSeek-V3.2-Exp,同时 API 大幅度降价。
网友锐评,“节假日前发版本,DS(DeepSeek)企业文化。”
DeepSeek介绍,“V3.2-Exp 在 V3.1-Terminus 的基础上引入了 DeepSeek 稀疏注意力机制(DeepSeek Sparse Attention,简称DSA)——旨在针对长文本的训练和推理效率进行探索性的优化和验证。
“该实验版本的发布证明了我们在如何提升Transformer架构效率上的持续研究,特别是提高处理扩展文本序列时的计算效率。”
DeepSeek介绍,本次DSA首次实现了细粒度稀疏注意力机制(fine-grained sparse attention),在保持几乎相同的模型输出质量的同时,显著提高了长上下文训练和推理效率。
为了严格评估引入稀疏注意力机制的影响,DeepSeek特意将V3.2-Exp 的训练配置与 V3.1-Terminus 进行了对齐。从测试结果来看,DeepSeek-V3.2-Exp 的表现与 V3.1-Terminus 相当。
得益于新模型服务成本的大幅降低,官方 API 价格也相应下调,新价格即刻生效。
DeepSeek表示,“在新的价格政策下,开发者调用 DeepSeek API 的成本将降低 50% 以上。”
DeepSeek自2023年成立起,就将自己定位为通用人工智能(AGI)和大模型研发的“技术引擎”。
对于DeepSeek-V3.2的发布,有开发者表示“DeepSeek终于加快了节奏,这是要走阿里Qwen的路线?”但也有部分开发者失望提到,“等了半天还是V3系列模型,DeepSeek-V4/R2到底何时现身?”
关于DeepSeek-V4,在X平台有一则爆料信息。网传,V4将在十月发布,并具备极强性能。
该信息提到,DeepSeek-V4将拥有1M Tokens的上下文窗口,可以一次性处理整个代码库或小说。GRPO算法将进一步提升,模型数学及编码等能力增强,支持无缝切换多步思考模式。同时,新架构有望实现更快且更便宜的推理效率。
至于消息的真实性,只能说先狠狠期待一波了。