GPU分类和应用现状分析
GPU最初用在PC和移动端上运行绘图运算工作的微处理器,与CPU集成以集成显卡(核显)的形态发挥功能。NVIDIA于2007年率先推出独立GPU(独显),使其作为“协处理器”在PC和服务器端负责加速计算,承接CPU计算密集部分的工作负载,同时由CPU继续运行其余程序代码。作为独显的GPU由GPU核心芯片、显存和接口电路构成。
独GPU与CPU之间通过PCIe总线连接,因而PCIe总线标准直接影响到通信带宽;而针对GPU之间的互连,Nvidia推出NVLink技术替代传统PCIe总线的方式,根据Nvidia官网数据,GPU性能提升5倍。
目前由于AI性能挖掘仍有空间,已经部署的服务器中GPU算力尚有冗余,预计PCIe由3.0升级至4.0和5.0短期内对GPU影响不大。但主流参与者仍在工艺路径持续推进产品升级。根据AIBResearch数据,Nvidia占据独显市场近80%的份额,目前NVIDIA Ampere A100产品7nm已经投入生产。
NVIDIA、AMD和Intel在GPU市场三分天下。根据Jon Peddie Research数据,Intel、AMD和Nvidia分别占据63%、19%和18%的市场份额。Intel和ADM在PC端GPU市场占据强势地位,主要原因是PC端集成GPU(核显),而Intel和AMD在PC端x86 CPU市场分别占据84%和16%的份额。
在独立GPU(独显)市场,Nvida是行业的奠基者和龙头,占据近70%份额。AIB 数据显示,2019年Q4,Nvidia和AMD在独立GPU市场份额分别为81%和19%。针对HPC和AI场景,Nvidia推出的产品主要是Tesla系列,包括V100、P100、K40/K80、M40/M60等多个型号,K系列更适合高精度计算,M系列更适合深度学习。
2019年3月,Nvidia宣布以49亿美元收购Mellanox,预计2020年4月底该项交易最终完成,成为Nvidia历史上最大的一笔收购。Mellanox是服务器和存储端到端连接解决方案的供应商,产品涉及HPC、云计算、数据中心、企业计算及存储市场,包括Smart NIC,网络交换机芯片和高速数据互联等。
AI芯片在智能摄像头、无人驾驶等领域应用广泛。数据、算力和算法是AI三大要素,CPU配合加速芯片模式成为典型的AI部署方案,CPU提供算力,加速芯片提升算力并助推算法的产生。常见的AI加速芯片包括GPU、FPGA(Field Programmable Gate Array)和ASIC(Application Specific Integrated Circuit)三种类型。
CPU适合逻辑控制和串行计算等通用计算,计算能力没有GPU强,主要由专为顺序串行处理而优化的几个核心组成;
GPU用于大量重复计算,由数以千计的更小、更高效的核心组成大规模并行计算架构,配备GPU的服务器可取代数百台通用CPU服务器来处理HPC和AI业务(根据Nvida)。
FPGA是一种半定制芯片,灵活性强集成度高,但运算量小,量产成本高,适用于算法更新频繁或市场规模小的专用领域;
ASIC专用性强,市场需求量大的专用领域,但开发周期较长且难度极高。谷歌自主设计了一款基于ASIC的TPU(Tensor Processing Unit)专门用于机器学习工作负载。
训练和推断是云端AI两大运行过程,训练产生算法,推断实现算法应用。训练阶段需要大量数据运算,GPU预计占64%左右市场份额,FPGA和ASIC分别为22%和14%。
推理阶段无需大量数据运算,GPU将占据42%左右市场,FPGA和ASIC分别为34%和24%。AI芯片运营场景包括云端(服务器)、边缘端和终端三类,不同应用场景对AI芯片的需求不同。就云端芯片而言,2023年市场需求将达200亿美元(根据Nvidia)。