英伟达GPU现已支持ARM处理器,将带来高性能计算
在今天的SC19大会上,英伟达方面宣布了许多重要的公告,如ARM处理器可以使用其GPU加速技术、NVIDIA Magnum IO套件以及在Microsoft Azure上使用的新型云加速GPU超级计算机等等。其中,前者是为了方面企业快速构建基于GPU加速的ARM服务器。
众所周知,在数据中心领域,英特尔几乎占据了垄断的地位。在这个领域之内,除了目前正在努力替代英特尔CPU的AMD之外,ARM也加入了新的竞争。得益于其低功耗的优势,目前ARM处理器主要应用于智能手机等移动设备以及边缘计算方案。有分析师表示,尽管ARM处理器在性能上可能无法与Intel相提并论,但低功耗的特性正在使它们成为数据中心的诱人选择。AWS在2018年率先在其数据中心上使用了ARM处理器,在其武器库中添加了使用Arm CPU的新实例。
现在,英伟达宣布其GPU产品可以和ARM处理器一起搭配使用。通过支持ARM处理器,英伟达向云供应商以及数据中心经理展示了他们的GPU产品可以在任何CPU产品下无缝运行。对此,NVIDIA首席执行官黄仁勋明确表示,机器学习和AI的突破将会为新架构带来令人兴奋的机遇,英伟达GPU支持ARM处理器,将会为新应用程序从超大规模云扩展到百亿亿次超级计算等等。
同时,NVIDIA将ARM及其生态系统合作伙伴(包括Ampere,Fujitsu和Marvell)带入NVIDIA软件生态系统及其CUDA-X软件平台。NVIDIA和ARM都强调了这一生态系统方面。但是,除了ARM之外,NVIDIA还更广泛地提到了HPC(高性能计算)生态系统。除了使自己的软件与ARM兼容之外,NVIDIA还与其广泛的开发者生态系统紧密合作,将GPU加速带入ARM的HPC应用程序,例如GROMACS,LAMMPS,MILC,NAMD,Quantum Espresso和Relion。