Aurora 超级计算机向全球科学界开放,模拟计算能力超 1 FP64 ExaFLOPS
最新 1 月 30 日消息,据 Tom's Hardware 今日报道,美国阿贡国家实验室宣布,其 Aurora 超级计算机现已全面投入使用,并正式向全球科学界开放。Aurora 早在 2015 年就已公布,但因多次延迟才终于完成。它能够提供超过 1 FP64 ExaFLOPS 的模拟计算能力,并能为人工智能和机器学习提供 11.6 混合精度 ExaFLOPS 的性能。
据最新了解,Aurora 原定于 2018 年完成,但由于英特尔停产了 Xeon Phi 处理器,项目进展受阻。随后,因英特尔 7nm 工艺的延迟,Aurora 的开发经历了多次推迟,最终推迟至 2023 年才完成。
尽管硬件在 2023 年 6 月安装完成,但系统直到 2024 年 5 月才真正达到了 Exascale 性能,且在此之前,系统仅对少数选定研究人员开放。据 HPL-MxP 基准测试,Aurora 能够实现 11.6 混合精度 ExaFLOPS。
它由 166 个机架组成,每个机架包含 64 个计算节点,总计 10624 个计算节点。每个节点配备两个 Xeon Max 处理器和 64GB HBM2E 内存,并搭载六个英特尔数据中心 Max“Ponte Vecchio” GPU,所有设备通过液冷系统进行高效散热。
Aurora 拥有 21248 个 CPU,110 万个 x86 核心,配备 19.9PB 的 DDR5 内存和 1.36PB HBM2E 内存。它还配备了 63744 个 AI 和 HPC 优化的 GPU,总共配备 8.16PB 的 HBM2E 内存。系统使用 1024 个节点,配有 220PB 的存储容量和 31TB/s 的带宽,并采用 HPE 的 Shasta 架构与 Slingshot 互连技术。
相关文章
- OpenAI 周活跃用户达 4 亿,高管称用户“口口相传”发现
- Figure AI 人形机器人多模态能力升级:“听懂”语音指令
- 李开复 AI 公司零一万物被曝多处变动:计划拆分数字人业
- Spotify 启动 AI 配音有声书服务,29 种语言可供选择
- OpenAI GPT-4.5 有望下周发布,GPT-5 被曝将与 o3 大一
- 英伟达推出 Signs 平台:AI 突破美式手语学习,助力连接无
- 传字节大模型团队架构调整,知情人士称吴永辉和朱文佳都
- 清华系团队 DeepSeek 版多模态生物医药大模型 BioMedG
- DeepSeek 还在发力:官宣下周陆续开源 5 个代码库,毫无保
- 报告称 DeepSeek App 上线一个月下载量破亿:几乎没花钱