来源:华为计算(企业公众号)
2026 年 4 月 24 日,,,DeepSeek V4-Pro 和 DeepSeek V4-Flash 正式发布并开源,,模型上下文处理长度由原有 128K 显著扩展至 1M,,实现近 10 倍容量提升。。模型首次增加 KV Cache 滑窗和压缩算法,,大幅减少 Attention 计算和访存开销,,并通过架构创新更好地支持 Agent 与 Coding 场景。。。。
昇腾一直同步支持 DeepSeek 系列模型,,,,本次通过双方芯模技术紧密协同,,实现昇腾超节点全系列产品支持 DeepSeek V4 系列模型。。。。昇腾 950 通过融合 kernel 和多流并行技术降低计算开销,,,,结合多种量化算法,,,,实现高吞吐、、低时延的推理部署;昇腾 A3 超节点系列产品全面适配,,同时提供基于 A3 超节点的训练参考实现,,,方便用户快速微调。。。
基于昇腾 950 底层架构三大升级,,实现极致性能表现:
· 原生精度加速:全面支持 FP8、、、、MXFP8、、、MXFP4 等格式,,,,保证精度同时内存占用降低 50%+,,计算能力翻倍。。。。
· 稀疏访存优化:针对 MoE 模型离散访存特征,,,,提升硬件级稀疏访存能力,,,,解决专家路由带宽瓶颈。。。
· Vector 与 Cube 共享 Memory:创新存储架构,,,消除大量片上数据搬运开销,,显著降低端到端时延。。。
性能实测:
· DeepSeek V4-Pro:8K 输入场景,,TPOT 约 20ms,,单卡 Decode 吞吐 4700TPS。。。。
· DeepSeek V4-Flash:8K 输入场景,,TPOT 约 10ms,,,单卡 Decode 吞吐 1600TPS。。
同时,,,昇腾联合定义超节点架构,,,,实现低成本、、高扩展、、、万卡级集群规模,,,,支持 4K–1M 序列长度全范围低延迟高吞吐,,,,并可基于 NAND SSU 实现超低成本、、超大容量 KV Cache,,,,支撑长序列应用。。
Atlas 900 A3 SuperPoD 液冷超节点及 Atlas 800 A3 风冷超节点采用平等架构、、全局内存统一编址,,,点对点互联带宽达 784GB/s,,,,提供 32 到 384 多种规格,,,是国内唯一成熟规模商用的超节点产品,,,可满足互联网、、、运营商、、金融等行业大模型推理的极致性能需求。。。。
基于昇腾 A3 64 卡超节点结合大 EP 模式部署,,在 vLLM 引擎下,,DeepSeek V4-Flash 模型可实现单卡 Decode 吞吐 2000+TPS,,,性能持续提升;同时已支持 DeepSeek V4-Pro 推理部署。。。
为解决自定义算子开发门槛高、、、、周期长的痛点,,,,昇腾 CANN 推出 PyPTO 编程范式:
· 高效算子开发:提供 Python API,,,,自动完成流水编排与内存管理,,,,DeepSeek V4 新一代模型算子开发周期缩短至天级。。。。
· 高性能 Kernel 自动生成:针对 Attention、、Compressor、、、mHC 等复杂算子自动生成优化 Kernel,,,,缩短算法验证到部署周期。。。
· PTO ISA 虚拟指令集跨代兼容:统一指令接口,,实现一套代码多代芯片兼容,,,,借助毕昇编译器实现更优融合。。。。
TileLang-Ascend 针对昇腾平台深度优化,,,,提供 AscendC 基础指令和 PTO AS 两种对接层次,,,,相关 DeepSeek V4 模型实现已在 TileAI 开源社区发布。。
目前,,,,昇腾 A2、、、、A3 及 950 全系列产品已完成 DeepSeek V4-Flash、、、DeepSeek V4-Pro 适配。。。昇腾将持续以极致算力与开放生态,,为大模型产业提供高效支撑,,,,与客户及开发者携手推进 AI 产业繁荣。。
版权声明:本文转载自华为计算官方公众号,,,仅用于行业资讯交流与技术分享,,,不代表本公司立场,,不用于任何商业用途。。。版权归原作者及原出处所有,,如有侵权,,,请联系我们及时删除。。
原文链接:
下一条培育智能原生新业态新模式2026.04.10