NVIDIA自主CPU登场,高性能领域生态闭环
对于现如今几大上游芯片厂商而言,NVIDIA应该是最后一个拥有超大体量且决定进入处理器业务的公司。虽然之前NVIDIA也想借助Tegra系列染指智能手机业务,但对于自家更有发展前景的超大规模AI人工智能、HPC高性能计算领域来看,进军处理器产品才是正途。
NVIDIA Grace处理器基于ARM Neoverse架构,但具体核心数量、频率、缓存、功耗等暂未公布,此次主题演讲内容主要落在连接性能:据悉NVIDIA Grace将搭配LPDDR5X内存可提供超过500GB/s的带宽,而且支持ECC错误校验,通过缓存一致性NVLink总线连接自家GPU,带宽可超过900GB/s,同时两颗CPU之间的带宽超过600GB/s。
瑞士国家超级计算中心(CSCS)、慧与(HPE)、NVIDIA联合使用Grace CPU、下一代NVIDIA GPU,正在共同打造号称世界最快AI超算的“ALPS”(阿尔卑斯山),算力高达20ExaFlops(每秒2千亿亿次计算),主要用于天气研究与预报、材料科学等。
NVIDIA Grace处理器计划2023年正式推出,2025年还会有下一代。
说到此次NVIDIA选择Arm架构进入CPU业务,并非首次。之前的合作无论是消费端还是小型计算装置,都可谓铩羽而归。如今再次进入Arm市场,NVIDIA是直奔高性能计算而去,如果说DGX的连接核心受制于Xeon或者EPYC,那么在高性能计算上,NVIDIA“自制”连接核心,特别是手握Mellanox之后,解决CPU之间互联问题,NVlink解决GPU之间互联问题。
采用全NVIDIA方案实现大型机甚至巨型机,再也不用被掣肘。HPE的入局,对弥补NVIDIA自身直接设计制造大型机能力不足很有帮助,对HPE来说,也算是在吞掉SGI、Cray之后,HPC又双叒叕一春,双方可谓一拍即合。
现在还不用担心,今天的Grace选择Arm是当年的“顺理成章”——x86和RISC-V浑水不好趟,而吃下Arm(不过大几率是以失败告终)再用起来则是理所应当——小核心(CPU)实现从DRAM、存储到网络的高速互联,为GPU提供源源不断的低延迟数据,发挥后者的集群能力。