浪潮信息发布“元脑 SD200”超节点,面向万亿参数大模型创新设计
8 月 7 日,浪潮信息发布面向万亿参数大模型的超节点 AI 服务器“元脑 SD200”。该产品基于浪潮信息创新研发的多主机低延迟内存语义通信架构,以开放系统设计向上扩展支持 64 路本土 GPU 芯片。元脑 SD200 可实现单机内运行超万亿参数大模型,并支持多个领先大模型机内同时运行及多智能体实时协作与按需调用,目前已率先实现商用。在实际评测中,元脑 SD200 运行 DeepSeek R1 和 Kimi K2 等全参模型的 64 卡整机推理性能实现超线性扩展。
当前,混合专家模型 (MoE) 的高效架构正在驱动大模型参数规模持续扩展,国内外前沿大模型的参数量快速突破万亿规模,这给算力系统架构提出新的挑战。一方面,模型参数量增加和序列长度增加带来的键值缓存 (KV cache) 激增,需要智能计算系统具有超大显存空间承载,依靠单芯片或节点的性能提升已难以为继;且其推理过程作为通信敏感型计算,对分布式计算通信延时要求极高,需要构建更大向上扩展 (Scale up) 高速互连域。另一方面,智能体 AI 开启多模型协作的新范式,其推理过程需要生成比传统模型多近百倍的数据词元 (token),导致计算量激增。
元脑 SD200 超节点 AI 服务器是浪潮信息面向万亿参数大模型 AI 时代而设计,创新研发多主机低延迟内存语义通信架构,基于开放总线交换技术构建,在单机内实现了 64 路 GPU 芯片的高速统一互连,成功解决万亿大模型对超大显存空间和超低通信延时的核心需求。在开放架构之上,元脑 SD200 通过智能总线管理和开放的预填充-解码 (Prefill-Decoder) 分离推理框架实现软硬件深度协同,智能化管理复杂 AI 计算任务。
-在架构层面,元脑 SD200 基于自主研发的开放总线交换技术首创多主机三维网格系统架构,实现 64 路本土 GPU 芯片高速互连;通过创新远端 GPU 虚拟映射技术,突破多主机交换域统一编址难题,实现显存统一地址空间扩增 8 倍,单机可以提供最大 4TB 显存和 64TB 内存,为万亿参数、超长序列大模型提供充足键值缓存空间。同时,依托百纳秒级超低延迟链路,构建 64 卡大高速互连域统一原生内存语义通信,实测结果表明,在推理过程常见的小数据包通信场景中,全规约 (All Reduce) 性能表现优异,显著提升计算与通信效率。
-在系统层面,根据万亿参数大模型计算、通信需求特征,浪潮信息开发智能总线管理系统,实现超节点 64 卡全局最优路由的自动创建,支持不同拓扑切换,资源按需切分。对于全规约、全聚集 (All Gather) 等典型通信算子,开展不同数据量大小的细粒度通信策略设计,如多层级通信机制等,实现通信延时进一步降低。同时依托开放的 PD 分离框架,支持异步 KV Cache 高效传输与差异化并行策略,在提升业务服务级别目标的同时保持对多元算力的兼容性,实现计算与通信架构的深度协同优化。
元脑 SD200 超节点 AI 服务器通过软硬协同系统创新,成功向上扩展突破芯片性能边界,在大模型场景中展示出优异的性能表现。结合优化的 PD 分离框架,SD200 超节点满机运行 DeepSeek R1 全参模型推理性能超线性提升比为 3.7 倍,满机运行 Kimi K2 全参模型推理性能超线性提升比为 1.7 倍。
当前,开源模型的飞跃式进步正在加速智能时代的到来,推动研发范式从封闭走向开放协作。同时,随着大模型参数量的持续提升,对算力基础设施的建设提出了更高要求。浪潮信息通过开放系统架构创新,为开源大模型的规模化落地和应用创新提供关键支撑。