-
日期: 2025-10-03 | 来源: 科技狐 | 有0人参与评论 | 字体: 小 中 大
太卷了,又降价了!DeepSeek 这是铁了心要当 AI 圈的价格屠夫。
最近(9 月 29 日晚),DeepSeek 官宣全新模型 V3.2-Exp 正式发布并开源,紧接着,API 价格也跟着跳水。
降价还不是象征性地降一点,而是直接腰斩:成本直接砍掉 50% 以上,输出价格甚至暴跌 75%。
API 输入价格(缓存命中)从每百万 tokens 0.5 元降到 0.2 元,输出价格从 12 元砍到只剩 3 元,简直是三折跳楼甩卖的力度。
而且是马上生效,毫不拖泥带水,这波速度,属实带点国产厂商的豪爽气质。
这也让 DeepSeek 的 V3.2-Exp,成为了“性价比最高”的 API 之一。
其实老狐觉得连之一都可以省略了,目前主流 AI 大厂,能给到这个价格的,几乎一个没有。
网友们看完新报价直接发出灵魂拷问:“百万输出 3 块,这谁卷得过呀?”
值得一提的是,这波降价不是瞎搞促销,而是人家真在底层模型上做了优化。这一切的关键,是这次发布的 V3.2-Exp 模型核心创新技术:DeepSeek Sparse Attention(稀疏注意力机制,简称 DSA)。
为啥这玩意这么重要?稍微跟狐友们科普一下:
听着很抽象对吧?但其实你可以把它想象成一种“聪明的省电模式”。传统的注意力机制是每个 token 都要跟其他所有 token 打招呼,一句话几十个字,它们内部得互相问好几十次,累不累?
当然累啊,不仅计算慢,还特别烧钱(你懂的,服务器、GPU、电费、维护啥的都不是小钱)。
而 DSA 这个新招数呢?它只让重要的 token 说话,不重要的就自动闭麦,节省了大量计算资源和时间。
结果就是:推理更快了,成本更低了,关键是模型表现还没掉链子,跟前一版本 V3.1-Terminus 的水平差不多。就是说,在不牺牲效果的前提下,成功把算力这口锅轻了好几斤。
为啥叫“Exp”?因为这是个实验性版本,意思是团队在探索新架构的路上,迈出的关键一步,不是最终版本,但已经实用到可以全面开用。所以你现在用到的 DeepSeek API,全都已经是这个新模型了。
如果你是开发者,恭喜你,没动代码,调用成本直接砍半,喜提史上最值更新。
如果你还想对比下老模型的效果,DeepSeek也很贴心地保留了 V3.1-Terminus 的 API 接口直到 10 月 15 日,修改个 base_url 就能切换测试,不影响当前价格。
真学术范十足的安排,官方都劝你自己实测,不怕 PK,实力说话。
咱们再从开发者的角度,直白点说这波更新到底有多香。
比如你做长文本处理的,文档摘要、历史对话、代码分析这种,最怕的就是上下文太长,token 一多,价格跟着飙,跑一次你得犹豫半天。
这回好了,DSA 专门优化了“长上下文”任务的推理效率,成本一下就被拉下来了。再长的上下文也不用担心破产式调用了,终于能踏实跑大任务了。
而从模型训练的角度,V3.2-Exp 的开发过程其实也是科技感拉满。他们这次用的是“专家蒸馏+统一强化学习”双管齐下策略。
先是针对数学、编程、逻辑推理等多个领域,各自训练出了专精模型,再把这些“专家”的知识整合进最终大模型中(这波叫做蒸馏)。
然后在强化学习阶段,用一种新的 GRPO 策略(Group Relative Policy Optimization),把智能体能力、人类偏好(alignment)、推理水平全融合到一次训练中。
这样训练有两个好处:
每个领域都不落下,性能均衡
不会出现“新技能学了,旧知识忘了”的灾难性遗忘问题
更硬核的是,DeepSeek 还把 GPU 算子开源了,两套版本,TileLang 和 CUDA 全放出来了,研究、部署、二开随你选,开源力度拉满。MIT协议,不限商用,真诚到令人发指。
你要做本地部署?也OK。Docker 镜像准备好了,还兼容各种硬件平台,包括 NVIDIA H200、AMD MI350、甚至国产 NPU。
而这波重磅发布的时间点嘛……DeepSeek又一次选择了节前。- 新闻来源于其它媒体,内容不代表本站立场!
-
原文链接
原文链接:
目前还没有人发表评论, 大家都在期待您的高见