NVIDIA或放弃大核心GPU战略,16nm 36模块“胶水”GPU来了
从Kpler时代开始,NVIDIA为了兼顾GPU计算及游戏两个市场采取了不同的市场战略——GX100/102大核心主要面向GPU计算市场,GX104/106主流核心则面向游戏GPU,砍掉了对游戏无大用的双精度运算,降低复杂性,减少芯片面积以节省成本、降低功耗。大核心的好处及代价都是非常明显的,但是随着摩尔定律终结,制造大核心芯片的工艺越来越复杂,成本也越来越贵,NVIDIA对7nm工艺就表示了明显的抵触,那他们有什么杀招吗?NVIDIA未来有可能放弃单一大核心GPU战略,他们已经研究了RC18超小核——基于台积电16nm工艺,晶体管数量只有8700万个,但一个GPU芯片内可以堆叠36个这样的小核心,换句话说NVIDIA未来也要走AMD、英特尔那样的胶水多模芯片路线了。
胶水多模这个说法并不严谨,只是网友的调侃,实际上这是目前半导体业界都在研究的Chiplets技术,简单来说就是在一个芯片内堆叠不同的核心单元,不同的核心可以是不同架构的,也可以是不同工艺的,而这样做的原因就是半导体制造工艺越来越复杂,制造大核心的难度及成本都居高不下,而且还会有浪费,因为并不是所有核心单元都需要最先进的工艺。
AMD的7nm 64核罗马处理器就是这样的代表,CPU核心是7nm工艺的,一个芯片内最多可以堆叠8组CPU单元,总计64核心,而IO核心则是14nm工艺的。
英特尔这边也有类似的战略,除了48核胶水封装的Cascade Lake-AP处理器之外,英特尔还有真正的Chiplets设计——Foreros 3D封装,也可以将不同架构、不同工艺的核心封装在一起。
AMD、NVIDIA现在是在CPU处理器上应用了Chiplets设计,而NVIDIA则是准备在GPU芯片上研究MCM多模封装技术。来自日本PCWatch网站的报道,NVIDIA研究部门主管、首席科学家、高级研究副总裁William J. Dally日前就公开了一个名为RC 18的芯片项目,这是一款适用于深度学习的加速器芯片,基于台积电16nm FinFET工艺,晶体管数量只有8700万个,相比现在动辄数十亿乃至上百亿的GPU芯片来说绝对是轻量级的芯片了。
但是RC18芯片只是基础,NVIDIA研究的目标是在芯片上集成多个基于RC18的MCM模块,目前已经做到了36模块堆栈,详细的技术细节可以参考PCWatch的原文。值得一提的是,RC18不仅是GPU,NVIDIA还在其中集成了RISC-V指令集的CPU核心,虽然只有5级流水线、单发射顺序指令架构。
结合这里的情况来看,现在大家应该可以理解NVIDIA对7nm工艺为何如此冷淡了。