service phone

400-123-4657

公司动态

service phone 400-123-4657

凯发一触即发(中国区)官方网站|Intel宣布首款AI商用芯片已交付,新一代MovidiusVPU明年见

点击量:188    时间:2024-12-25

本文摘要:美国西部时间 11 月 12 日,2019 英特尔人工智能峰会期间(Intel AI Summit 2019)在旧金山举办,应邀参与。

美国西部时间 11 月 12 日,2019 英特尔人工智能峰会期间(Intel AI Summit 2019)在旧金山举办,应邀参与。在峰会期间,英特尔展出了一系列 AI 涉及新产品和涉及进展,其中,还包括面向训练 (NNP-T1000) 和面向推理小说 (NNP-I1000) 的英特尔 Nervana 神经网络处理器 (NNP) 都重磅亮相,而英特尔也发布了新一代 Movidius Myriad 视觉处理单元。英特尔公司副总裁兼人工智能产品事业部总经理 Naveen Rao 回应:随着人工智能的更进一步发展,计算出来硬件和内存都将抵达临界点。

如果要在该领域之后获得极大进展,专用型硬件必不可少,如英特尔 Nervana NNP 和 Movidius Myriad VPU。使用更加先进设备的系统级人工智能,我们将从“数据到信息的切换”阶段发展到 “信息到科学知识的切换阶段”。

Nervana NNP 早已投入生产并交付给对于英特尔来说,Nervana NNP 是它在神经网络处理器方面的最重要产品,可以说道是第一款 AI 商用芯片,而且这款产品从公布、测试、量产到应用于,实质上是经历了一个漫长的产品周期。新一代 Nervana NNP 首先亮相是在 2018 年 5 月。当时,在英特尔人工智能开发者大会 (AIDevCon 2018) 上,Naveen Rao 公布了新一代专为机器学习设计的神经网络处理器(NNP)芯片,并回应这是英特尔第一款商业 NNP 芯片,将好比是获取给小部分合作伙伴,将在 2019 年发货。

到了 2019 年 8 月,英特尔在 Hot Chips 大会开会期间发布了 NNP 芯片的更好信息,其中,它依据用途分成 Nervana NNP-T 和 Nervana NNP-I,分别用作训练和推理小说。(公众号:)了解到,Nervana NNP-T 代号 Spring Crest,使用了台积电的 16nm FF+ 制程工艺,享有 270 亿个晶体管,硅片面积 680 平方毫米,需要反对 TensorFlow、PaddlePaddle、PYTORCH 训练框架,也反对 C++ 深度自学软件库和编译器 nGraph。而 Nervana NNP-I,代号为 Spring Hill,是一款专门用作大型数据中心的推理小说芯片。

这款芯片是基于 10nm 技术和 Ice Lake 内核打造出的,打造出地点是以色列的 Haifa ,Intel 堪称它需要利用大于的能量来处置低阻抗的工作,它在 ResNet50 的效率可约 4.8TOPs/W,功率范围在 10W 到 50W 之间。按照官方众说纷纭,英特尔 Nervana 神经网络训练处理器(Intel Nervana NNP-T)在计算出来、通信和内存之间获得了均衡,不管是对于小规模群集,还是最大规模的 pod 超级计算机,都可展开几近线性且极具能效的拓展。英特尔 Nervana 神经网络推理小说处理器(Intel Nervana NNP-I)不具备低能效和低成本,且其外形规格灵活性,非常适合在实际规模下运营高强度的多模式推理小说。

这两款产品面向百度、 Facebook 等前沿人工智能客户,并针对他们的人工智能处置市场需求展开了自定义研发。在 2019 英特尔人工智能峰会峰会现场,Intel 宣告——新的发售的英特尔 Nervana 神经网络处理器(NNP)现投入生产并已完成客户交付给。

其中,Facebook 人工智能系统协同设计总监 Misha Smelyanskiy回应:我们非常高兴需要与英特尔合作,利用英特尔神经网络推理小说处理器(NNP-I)部署更加慢、更加高效的推理小说计算出来。同时,我们近期的深度自学编译器 Glow 也将反对 NNP-I。另外,百度 AI 研究员 Kenneth Church 在现场回应,在今年 7 月,百度与英特尔合作宣告了双方在 Nervana NNP-T 的合作,双方通过硬件和软件的合作来构建用仅次于的效率来训练日益增长的简单模型。

Kenneth Church 还宣告,在百度 X-Man 4.0 的护持下,英特尔的 NNP-T 早已推向市场。新一代 Movidius VPU 明年闻在峰会现场,Intel 发布了全新一代 Movidius VPU。下一代英特尔 Movidius VPU 的代号是 Keem Bay,它是专门为边缘 AI 打造出的一款产品,专心于深度自学推理小说、计算机视觉和媒体处置等方面,使用全新的高效能架构,并且通过英特尔的 OpenVINO 来加快。

按照官方数据,它在速度上是英伟达 TX2 的 4 倍,是华为海思 Ascend 310 的 1.25 倍。另外在功率和尺寸上,它也相比之下多达输掉。

Intel 方面回应,新一代 Movidius 计划于 2020 年上半年上市,它凭借独一无二的高效架构优势,需要获取业界领先的性能:与上一代 VPU 比起,推理小说性能提高 10 倍以上,能效则可超过竞品的 6 倍。了解到,英特尔曾多次在 2017 年 8 月发售一款 Movidius Myriad X 视觉处理器(VPU),该处理器是一款低功耗 SoC,使用了 16nm 生产工艺,由台积电来代工,的主要用作基于视觉的设备的深度自学和 AI 算法加快,比如无人机、智能照相机、VR/AR 头盔。除了新一代 Movidius,英特尔还公布了全新的英特尔 DevCloud for the Edge,该产品目的与英特尔 Distribution of OpenVINO 工具包联合解决问题开发人员的主要痛点,即在出售硬件前,需要在各类英特尔处理器上尝试、部署原型和测试 AI 解决方案。

另外,英特尔还讲解了自家的英特尔至强劲可拓展处理器在 AI 方面的进展。英特尔方面回应,前进深度自学推理小说和应用于必须极为简单的数据、模型和技术,因此在架构自由选择上必须有有所不同的考量。

事实上,业界大部分的组织都基于英特尔至强劲可拓展处理器部署了人工智能。英特尔将之后通过英特尔矢量神经网络指令 (VNNI) 和英特尔深度自学加快技术(DL Boost)等功能来改良该平台,从而在数据中心和边缘部署中提高人工智能推理小说的性能。英特尔特别强调称之为,在未来很多年中,英特尔至强劲可拓展处理器都将之后沦为强有力的人工智能计算出来支柱。总结在本次 2019 英特尔人工智能峰会上,Intel 还发布了其在 AI 方面的整体解决方案。

实质上,英特尔在 AI 方面的优势某种程度局限在 AI 芯片本身的突破,更加最重要的是,英特尔有能力全面考虑到计算出来、内存、存储、点对点、PCB和软件,以最大限度提高效率和可编程性,并能保证将深度自学扩展到数以千计节点的关键能力。不仅如此,英特尔还需要有鉴于现有的市场优势将自家在 AI 领域的能力带上向市场,构建 AI 的商用落地——值得一提的是,在峰会现场,英特尔宣告,自家的人工智能解决方案产品组合更进一步获得增强,并未来将会在 2019 年建构多达 35 亿美元的营收。可见,在前进 AI 技术南北商用落地方面,英特尔再一踏出了热情的一步。

原创文章,予以许可禁令刊登。下文闻刊登须知。


本文关键词:一触即发 k8凯发(中国)天生赢家·一触即发,凯发一触即发(中国区)官方网站

本文来源:一触即发 k8凯发(中国)天生赢家·一触即发-www.paybank-honten.com

地址:广东省东莞市巴州区心斯大楼947号     座机:400-123-4657    手机:11942976054
版权所有:Copyright © 2007-2024 www.paybank-honten.com. 一触即发 k8凯发(中国)天生赢家·一触即发科技 版权所有    ICP备案编号:ICP备68245413号-6