英特尔 CEO Brian Krzanich 刚刚在《华尔街日报》举办的 D.Live 大会上发布了自家性能最强、专为深度学习而打造的神经网络处理器 Nervana 。 其声称这颗 ASIC 芯片可用于处理人工智能方面的工作(比如矩阵乘法和转换),这是它与 CPU 和 GPU 这样的通用计算硬件的最大区别。尽管当前英特尔在芯片架构上没有太深入的动力,但 Nervana 创造者 Naveen Rao 在一篇单独的博客文章中写到: 其从一开始就能理解所涉及的操作和数据动作,因此该芯片可以不像今日的 CPU 或 GPU 那样需要一个标准的缓存层次结构。 相反,其内存管理显然是 100% 在软件中完成的。Rao 声称 ,与主打通用计算的竞品相比,这意味着该芯片能够更好地压榨芯片性能。 在更早的一篇博客文章中,该公司表示,由于仅包含金酸相关的硬件,Nervana 可以省去与缓存控制和相干逻辑有关的电路,从而囊括更多的计算资源。 在那时,Nervana 还计划为该芯片搭配高达 32GB 的四堆栈 HBM 运存,且暗示已通过某种形式实现了神经网络计算(NNP)。 NNP 的另一潜在创新,在于对某些数据类型的处理。英特尔声称 NNP 提供了一种全新的“拐点”(Flexpoint)数字格式。 该公司称:“Flexpoint 允许通过固定点乘和加法来实现标量计算,也可借助共享指数来实现大动态范围”。 该特性还使得 NNP 可以在给定核心面积上封装进更多的操作部件,同时减少每个部件工作时的能耗。此外,每个 NNP 也可包含专门用于和其它神经网络处理器通讯的片内互联芯片。 在过去有关 Nervana Engine ASIC 的描述中,该公司计划为每颗芯片上具有弹性计算力的内部或互联连结点引入“六个双向高带宽链接”—— 要么增加用于任务的计算资源的数量、要么增加 NNP 集群的规模大小。 Krzanich 表示,当前英特尔正在制定数代 Nervana NNP 产品。而该公司新闻稿中也提到,未来这些产品有助于在 2020 年将深度学习成绩提升百倍的目标。 最后,在一个单独的 播客 节目中,Rao 表示,随着产品的成熟,该公司还与 Facebook 在 NNP 上展开了合作,更多细节可留意该他们的后续报道。