英特尔公司副总裁兼人工智能产品事业部总经理 Naveen Rao 表示:
随着人工智能的进一步发展,计算硬件和内存都将到达临界点。如果要在该领域继续取得巨大进展,专用型硬件必不可少,如英特尔 Nervana NNP 和 Movidius Myriad VPU。采用更先进的系统级人工智能,我们将从“数据到信息的转换”阶段发展到 “信息到知识的转换阶段”。
Nervana NNP 已经投入生产并交付
对于英特尔来说,Nervana NNP 是它在神经网络处理器方面的重要产品,可以说是第一款 AI 商用芯片,而且这款产品从发布、测试、量产到应用,实际上是经历了一个漫长的产品周期。
新一代 Nervana NNP 首先亮相是在 2018 年 5 月。当时,在英特尔人工智能开发者大会 (AIDevCon 2018) 上,Naveen Rao 发布了新一代专为机器学习设计的神经网络处理器(NNP)芯片,并表示这是英特尔第一款商业 NNP 芯片,将不止是提供给小部分合作伙伴,将在 2019 年发货。
到了 2019 年 8 月,英特尔在 Hot Chips 大会召开期间公布了 NNP 芯片的更多信息,其中,它依据用途分为 Nervana NNP-T 和 Nervana NNP-I,分别用于训练和推理。
Nervana NNP-T 代号 Spring Crest,采用了台积电的 16nm FF+ 制程工艺,拥有 270 亿个晶体管,硅片面积 680 平方毫米,能够支持 TensorFlow、PaddlePaddle、PYTORCH 训练框架,也支持 C++ 深度学习软件库和编译器 nGraph。
而 Nervana NNP-I,代号为 Spring Hill,是一款专门用于大型数据中心的推理芯片。这款芯片是基于 10nm 技术和 Ice Lake 内核打造的,打造地点是以色列的 Haifa ,Intel 号称它能够利用最小的能量来处理高负载的工作,它在 ResNet50 的效率可达 4.8TOPs/W,功率范围在 10W 到 50W 之间。
按照官方说法,英特尔 Nervana 神经网络训练处理器(Intel Nervana NNP-T)在计算、通信和内存之间取得了平衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可进行近乎线性且极具能效的扩展。英特尔 Nervana 神经网络推理处理器(Intel Nervana NNP-I)具备高能效和低成本,且其外形规格灵活,非常适合在实际规模下运行高强度的多模式推理。这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处理需求进行了定制开发。
在 2019 英特尔人工智能峰会峰会现场,Intel 宣布——新推出的英特尔 Nervana 神经网络处理器(NNP)现已投入生产并完成客户交付。其中,Facebook 人工智能系统协同设计总监 Misha Smelyanskiy表示:
我们非常高兴能够与英特尔合作,利用英特尔神经网络推理处理器(NNP-I)部署更快、更高效的推理计算。同时,我们最新的深度学习编译器 Glow 也将支持 NNP-I。
另外,百度 AI 研究员 Kenneth Church 在现场表示,在今年 7 月,百度与英特尔合作宣布了双方在 Nervana NNP-T 的合作,双方通过硬件和软件的合作来实现用最大的效率来训练日益增长的复杂模型。Kenneth Church 还宣布,在百度 X-Man 4.0 的加持下,英特尔的 NNP-T 已经推向市场。
新一代 Movidius VPU 明年见
在峰会现场,Intel 公布了全新一代 Movidius VPU。
下一代英特尔 Movidius VPU 的代号是 Keem Bay,它是专门为边缘 AI 打造的一款产品,专注于深度学习推理、计算机视觉和媒体处理等方面,采用全新的高效能架构,并且通过英特尔的 OpenVINO 来加速。按照官方数据,它在速度上是英伟达 TX2 的 4 倍,是华为海思 Ascend 310 的 1.25 倍。另外在功率和尺寸上,它也远远超过对手。
Intel 方面表示,新一代 Movidius 计划于 2020 年上半年上市,它凭借独一无二的高效架构优势,能够提供业界领先的性能:与上一代 VPU 相比,推理性能提升 10 倍以上,能效则可达到竞品的 6 倍。
英特尔曾经在 2017 年 8 月推出一款 Movidius Myriad X 视觉处理器(VPU),该处理器是一款低功耗 SoC,采用了 16nm 制造工艺,由台积电来代工,的主要用于基于视觉的设备的深度学习和 AI 算法加速,比如无人机、智能相机、VR/AR 头盔。
除了新一代 Movidius,英特尔还发布了全新的英特尔 DevCloud for the Edge,该产品旨在与英特尔 Distribution of OpenVINO 工具包共同解决开发人员的主要痛点,即在购买硬件前,能够在各类英特尔处理器上尝试、部署原型和测试 AI 解决方案。
另外,英特尔还介绍了自家的英特尔至强可扩展处理器在 AI 方面的进展。
英特尔方面表示,推进深度学习推理和应用需要极其复杂的数据、模型和技术,因此在架构选择上需要有不同的考量。事实上,业界大部分组织都基于英特尔至强可扩展处理器部署了人工智能。英特尔将继续通过英特尔矢量神经网络指令 (VNNI) 和英特尔深度学习加速技术(DL Boost)等功能来改进该平台,从而在数据中心和边缘部署中提升人工智能推理的性能。
英特尔强调称,在未来很多年中,英特尔至强可扩展处理器都将继续成为强有力的人工智能计算支柱。
总结
在本次 2019 英特尔人工智能峰会上,Intel 还公布了其在 AI 方面的整体解决方案。实际上,英特尔在 AI 方面的优势不仅仅局限在 AI 芯片本身的突破,更重要的是,英特尔有能力全面考虑计算、内存、存储、互连、封装和软件,以最大限度提升效率和可编程性,并能确保将深度学习扩展到数以千计节点的关键能力。
不仅如此,英特尔还能够借重现有的市场优势将自家在 AI 领域的能力带向市场,实现 AI 的商用落地——值得一提的是,在峰会现场,英特尔宣布,自家的人工智能解决方案产品组合进一步得到强化,并有望在 2019 年创造超过 35 亿美元的营收。
可见,在推进 AI 技术走向商用落地方面,英特尔终于跨出了自信的一步。
本文素材来自互联网