Deepseek-R1 等 AI 模型测试:英伟达 GB200 NVL72 性能较 HGX 200 提升 10 倍
最新 12 月 4 日消息,科技媒体 Wccftech 昨日(12 月 3 日)发布博文,报道称在“混合专家”模型上,英伟达的 GB200 NVL72 AI 服务器取得重大性能突破。
基于开源大语言模型 Kimi K2 Thinking、Deepseek-R1-0528、Mistral Large 3 测试,相比上一代 Hopper HGX 200 性能提升 10 倍。



最新注:混合专家模型(MoE)是一种高效的 AI 大模型架构。它不像传统模型那样在处理每个任务时都动用全部“脑力”(参数),而是像一个专家团队,根据任务类型只激活一小部分最相关的“专家”(参数子集)来解决问题。这样做能显著降低计算成本,提高处理速度。


英伟达为了解决 MoE 模型扩展时遇到的性能瓶颈,采用了“协同设计”(co-design)的策略,该方法整合了 GB200 的 72 芯片配置、高达 30TB 的快速共享内存、第二代 Transformer 引擎以及第五代 NVLink 高速互联技术。
通过这些技术的协同工作,系统能够高效地将 Token 批次拆分并分配到各个 GPU,同时以非线性速率提升通信量,从而将专家并行计算(expert parallelism)提升至全新水平,最终实现了性能的巨大飞跃。
除了硬件层面的协同设计,英伟达还实施了多项全栈优化措施来提升 MoE 模型的推理性能。例如,NVIDIA Dynamo 框架通过将预填充(prefill)和解码(decode)任务分配给不同的 GPU,实现了任务的解耦服务,允许解码阶段以大规模专家并行方式运行。

同时,系统还采用了 NVFP4 格式,这种数据格式在保持计算精度的同时,进一步提高了性能和效率,确保了整个 AI 计算流程的高效稳定。
该媒体指出,此次 GB200 NVL72 取得的性能突破,对英伟达及其合作伙伴具有重要意义。这一进展成功克服了 MoE 模型在扩展时面临的计算瓶颈,从而能够满足日益增长的 AI 算力需求,并巩固了英伟达在 AI 服务器市场的领先地位。


《Deepseek-R1 等 AI 模型测试:英伟达 GB200 NVL72 性能较 HGX 200 提升 10 倍》转载自互联网,如有侵权,联系我们删除,QQ:369-8522。
相关图文
-
坐稳自主第一豪华汽车!问界10月销量均价齐飞:追平BBA
快科技12月4日消息,博主“新渠道-李霸天”整理了问界10月的市场数据,发现它是目前第一个也是唯一一个,在销量和均价同时追上BBA的自主品牌。具体来看,10月问界交付4.4万辆,成... -
国内最大!110吨针栓式液氧煤油发动机力擎二号140秒试车成功
快科技12月4日消息,12月3日,作为国内最大的针栓式液氧煤油发动机,力擎二号进行了长程试车试验,取得圆满成功!力擎二号是中科宇航自主研制的110吨级液氧煤油发动机,也是目前国内推力最大的... -
卫星探秘:一座小岛 就是一个重点中学
快科技12月4日消息,从太空俯瞰江西吉安,在赣江的碧水中,一片1.5平方公里的梭形小岛,如同停泊的孤舟。引人注目的是,岛上约三分之一的区域,被一座学校的建筑群与绿茵场所占据。这便是中... -
NASA准局长称要抢在中国前重返月球 我国多次表态:无意搞太空竞赛
快科技12月4日消息,据媒体报道,被提名担任美国国家航空航天局(NASA)局长的贾里德·艾萨克曼近日公开表示,他主张加大对核动力推进技术和商业航天项目的投资力度,以助力美国赶在中国之... -
画风诡异!美艺术家展出名人款人头机器狗:能现场“排泄”
快科技12月4日消息,日前,美国数字艺术家Beeple在巴塞尔艺术展迈阿密海滩展会上展出了他的最新作品《Regular Animals》(普通动物)。这组作品以7只肉色机械狗为载体,每只都戴着高度仿真的名人...













