人工智能大战Intel怎会缺席?首发神经网络处理器Nervana
Intel今天在WSJDLive全球技术大会上发布了自家第一款自家专为深度学习而打造的神经网络处理器Nervana(NNP),最快今年底交货。Intel称利用Nervana处理器可以帮助不同行业发挥最大的性能,找到自身最大价值。
Intel的新闻稿中其实并没有多少关于Nervana处理器的实质性内容,通篇都是在讲述Intel已经在不同领域展开研究,先有了17量子位的Qutech量子处理器,现在又有了Nervana人工智能处理器,它们都在不同领域发光发热。并且会继续对前沿领域进行创新性的研究、投资新硬件、算法,必要时会收购相关初创公司,保持技术领先优势。
而小编另外找到一篇介绍Nervana处理器的博客,是由Nervana处理器主导研发者Naveen Rao所撰写的,里面提到了一些关于该神经网络处理器的关键技术,还是相当有趣的。
现在机器学习、深度学习已经成为全球广泛使用的数据分析、研究方式,不过目前已有的处理器在运行相关程序总是显得力不从心,因为X86处理器其通用性架构本来就不擅长于大数据处理,因此像NVIDIA开发的计算卡就派上用场了。而Intel为了弥补这方面缺陷,开始了Nervana处理器的开发,其特点如下:
新的内存体系
矩阵乘法以及矩阵转置一直都是深度学习中的核心运算操作,这些计算不同于平常运算,很大程度上它们都是已知的操作,因此Intel Nervana处理器摒弃了原来的标准的缓存结构,而是利用软件实现内存管理,这样压榨出处理器的最大性能(估计意思就是不需要原来复杂的缓存结构和控制单元电路,全部让位给计算单元,实现更高的计算性能)。
新一代的AI模型
设计有高速片外互联通道,可以让Nervana处理器实现高速的双向数据传输,多个处理器甚至可以组成一个更加庞大的神经网络系统,可以实现更大的计算量,帮助客户快速获取有用数据。
专为人工智能设计的Flexpoint运算
神经网络计算在单个芯片上很容易受到功耗以及内存带宽限制,为了实现更高的吞吐量,Intel发明了一种新的运算Flexpoint,可以实现标量的点乘和加法,而且这种计算单元可以节省下不少的电路晶体管,因此可以提升处理器的密度,并且减少功耗。
Intel表示,Nervana处理器并非只有一款,多代处理器正在打造当中,在未来这些产品有助于在2020年实现深度计算数百倍的性能提升。而第一个合作方就是Facebook,双方将会深入合作应用,但未具体公布相关细节。