9月29日消息,今天下午 DeepSeek 突然推出了 DeepSeek v3.2-Exp 大模型。就在前几天刚刚发布 v3.1“终结版”后,DeepSeek 又迅速放出新动作,这也延续了其在重大节日前发布新模型的惯例。

相比性能提升,v3.2 更值得关注的其实是它所承载的技术探索。从“Exp”后缀就能看出,这一版本并非主打通用能力,而是用于验证新技术。
其中最亮眼的创新是 DeepSeek Sparse Attention(DSA)。它首次实现了细粒度稀疏注意力机制,在几乎不损失输出质量的前提下,大幅提升了长文本训练和推理的效率。
总体来说,v3.2 属于小幅度技术迭代。大家最期待的,仍然是传闻已久的 DeepSeek v4 及 r2 —— 尤其是 v4 这一基座级大模型。
近期有消息称,DeepSeek V4 将在 10 月发布,亮点包括:
-
100M 上下文(百万级别长文本处理能力)
-
GRPO 驱动推理
-
NSA/SPCT 等新技术
-
数学、编程能力显著增强
-
推理速度更快、成本更低

这一爆料来自推特账号 “DeepSeek News Commentary”。虽然该账号属地显示为杭州,但并非官方账号,真实性仍需存疑。不过,结合 v3.2 的技术验证定位,10 月份发布 v4 并非没有可能。
值得注意的是,DeepSeek v4 最早在今年四五月份就被传即将面世,但官方始终保持沉默,期间还流出过“训练失败”等负面传言。不过,这些传言大多被视作对国产大模型及算力生态的唱衰,不足为信。
更合理的解释是:DeepSeek v4 的发布需要一个关键契机——与国产算力芯片的全面适配。 官方此前已确认,下一代模型将支持 FP8 算法,并深度适配国产芯片。
目前,多家国产 AI 芯片厂商已宣布支持 FP8,其中最受关注的无疑是 华为昇腾。就在几天前,华为公布了全新昇腾路线图:明年 Q1 登场的 昇腾 950PR 将支持 FP4/FP8 算法,算力高达 1 PFLOPS(FP8)/ 2 PFLOPS(FP4),同时具备 2TB/s 互联带宽、144GB 显存容量 和 4TB/s 显存带宽,并支持 FP32/HF32/FP16/BF16/FP8/MXFP8/HiF8/MXFP4/HiF4 等多种数据格式。
显然,当昇腾 950PR 上市时,DeepSeek V4 将迎来最佳的登场时机。实际上,已有迹象表明 DeepSeek 已开始使用国产 AI 芯片训练:v3.2 同时兼容 CUDA 和华为 CANN,v4 自然不会缺席。
未来,DeepSeek v4 也很可能推出更多中国产芯片适配版本,包括寒武纪、海光等厂商。


























