加拿大28在线计划-加拿大28全天计划网址-加拿大28免费计划
做最好的网站

高通宣告正式进入云端AI芯片市场

作者: 企业 / 电工电气  发布:2019-11-22

电工电气加拿大28免费计划,网】讯

在旧金山举办的首届Qualcomm AI Day会议上,高通除了发布三款新系统芯片面向智能手机、平板电脑和其他移动设备之外,还正式宣布了他们第一款专用人工智能处理器 Qualcomm Cloud AI 100系列,专为数据中心推理计算使用。

高通,移动互联网时代最成功的公司之一。它对通信技术以及专利的掌控,已经主导整个行业20余年。

一直以来,高通在推动终端侧人工智能芯片的应用方面不遗余力。现在这家全球最大的手机芯片提供商又推出了面向数据中心推理计算的云端AI芯片Cloud AI 100,正式宣告进入云端AI芯片市场。

Cloud AI 100 系列加速器基于7 纳米芯片工艺,将于 2020 年推出产品,样片将在今年晚些时候公布。目前尚未得知高通将推出几款芯片。

一代代旗舰芯片和移动平台,更是安卓手机厂商核心竞争力和卖点之一。

迄今为止,作为终端侧最主流的人工智能芯片解决方案,骁龙人工智能芯片已经为市面上超过10亿部智能手机提供AI运算加速,越来越多的手机用户享受到人工智能芯片带来的智慧体验与便利。显然,高通并不想只局限于终端侧人工智能芯片领域,随着Cloud AI 100这款云端AI芯片的发布,高通把终端侧AI的技术和规模优势转移到云端AI芯片领域,全新的Cloud AI 100云端AI芯片和其他云端AI芯片解决方案(GPU、CPU和FPGA)相比,在性能功耗上能够达到10倍的提升,和高通骁龙处理器的终端侧AI计算能力相比则至少有50倍的提升。这款云端AI芯片的问世将为当今数据中心AI推理加速市场树立全新标杆。

据外媒报道,高通声称 Cloud AI 100 的峰值性能是 Snapdragon 855 和 Snapdragon 820 的 3 到 50 倍,与传统的 FPGA 相比,它的推理速度提高了约 10 倍。此外,Cloud AI 100 的运算性能可以远超 100 TOPs,不过高通并未透露不同精度下的峰值。这款专为 AI 推理处理设计的全新信号处理器将提供给原始设备制造商不同模块、外形和功率级别,同时集成了各种开发工具包括编译器、分析器、监视器、服务、芯片调试器和量化。

但随着AI浪潮汹涌,移动互联网向移动AI的转换已成大势。高通作为移动互联网领域的大赢家,将如何发力AI,来抓住移动AI时代?

据市场调研公司预测,用于数据中心的云端AI芯片市场规模将从2018年的25亿美元增长到2023年的212亿美元。仅AI推理这一细分市场从2018年到2025年将有10倍的增长,达到170亿美元。从云端AI芯片的用量来看,AI推理芯片使用场景广泛,需求量巨大。在2019年旧金山举办的AI Day会议上,高通宣布推出的这款Cloud AI 100云端AI芯片,就是专为满足急剧增长的云端AI推理处理的需求而设计。同时将基于骁龙AI芯片的终端侧AI技术优势拓展至数据中心,从云到端全面塑造人工智能生态。

加拿大28免费计划 1

关于高通AI动向,已经有过很多次披露,但都聚焦在业务上。其AI技术研发上,是怎样的一个格局?高通AI研发,如何驱动高通的移动AI业务?

经过多年的技术演进,骁龙AI芯片已经成为智能手机处理器行业的标准,在性能不断提高的同时,低功耗、少发热已经成为骁龙AI芯片在设计上的核心优势,现在这两个优势不仅可以被手机终端消费者所享受,现在也惠及到云端服务器、数据中心。一直以来,降低用电、减少发热都是服务器、数据中心迫切想要实现的目标。当前AI服务器行业使用的其他计算架构,很可能会出现明显的电力损耗、产生大量热能等问题,Cloud AI 100这款云端AI芯片从高通自家的骁龙AI芯片的架构设计和制造工艺中汲取灵感,使云端AI芯片的运行效率有了极大改善,因此其同等性能下的功耗只有竞争对手们的十分之一。此外Cloud AI 100这款云端AI芯片,还有一个明显的优势,那就是这款云端AI芯片并非特别隶属服务器应用项目,而是卡式设计作为协同处理器提供运算加速,同时在整体配置上也没有做太大限制,主要针对运算规模进行弹性布署,可以将云端AI芯片以插卡形式“即插即用”到云端服务器上,使用非常方便。

加拿大28免费计划 2

Rajesh Pankaj,高通工程技术高级副总裁,是为数不多能够回答这些问题的人,再次来到中国。

不仅使用方便、功耗低,更重要的是Cloud AI 100云端AI芯片性能强悍。由7纳米制程工艺打造,支持业界领先的软件栈,包括PyTorch、Glow、TensorFlow、Keras和ONNX,这个云端AI芯片的峰值AI性能将达到350 TOPS,可以高速执行密集的浮点和整数运算。与传统的现场可编程门阵列相比,Cloud AI 100这款AI芯片在推断任务方面比目前最先进的AI推理解决方案平均速度要快10倍左右。区别于纯CPU、CPU+FPGA之后的第三代高性能AI计算体系,Cloud AI 100这样的专用于推理计算的云端AI芯片在架构上本身就更适合专门类型的机器学习推理计算。

它还支持 ONNX,Glow 和 XLA 以及机器学习框架包括谷歌的 TensorFlow、Facebook 的 PyTorch、Keras、MXNet、百度的 PaddlePaddle 和微软的认知工具包。高通此举无疑是向英伟达和英特尔发起挑战。作为目前推理芯片领域的领头羊,英伟达和其 Tesla 系列一直受到云服务商的青睐。

Rajesh Pankaj是一名“老高通”,从1997年至今,已经在高通工作了22年。

凭借更高的AI算力、更节能环保的设计、更方便的快捷的使用方式,Cloud AI 100云端AI芯片将为服务提供商带来更强大的在线AI体验,让用户真正体会到AI的好处。在这个“应用为王”的时代,将云端AI芯片作为新的游戏平台,这便是Cloud AI 100的“完美应用场景”之一。一直以来,游戏过程中的延时和卡顿都是让玩家痛心疾首的致命伤,在云端服务器上执行的高能效AI推理可以减轻移动终端的AI处理负荷。在2019年深圳人工智能开放日活动上,高通联合vivo、腾讯王者荣耀开发团队和腾讯AI Lab,一起演绎了一场专业游戏电竞赛。通过MOBA类游戏场景的实验环境来不断提升和优化AI电竞战队的实力,为移动电竞带来体验的升级和优化,由此可以看出移动游戏将是最能发挥Cloud AI 100极致性能的应用。而腾讯云也可能成为国内首批Cloud AI 100云端AI芯片的用户。

去年推出的基于图灵架构的 Tesla T4 ,将会部署在亚马逊和谷歌的云服务器上。另一方面,英特尔自从收购芯片初创公司 Nervana 之后一直在发力人工智能芯片。

现在,他也是高通企业研发部门的负责人。而这个部门,正是高通AI研发的核心。

显而易见,Cloud AI 100这款人工智能芯片的发布是高通正式参与云端AI芯片领域的标志,凭借Cloud AI 100云端AI芯片的性能优势,预计到2025年,该芯片市场规模将达到6630万美元。云端人工智能芯片领域一个有很大增长潜力的新兴市场,高通以全新的云端AI芯片产品切入进去将为自身业务开辟新的领地。当Cloud AI 100云端AI芯片量产后,其强悍性能会真正落在实处,为消费者带来智慧生活体验的全新改变。

在今年 CES 上,英特尔宣布将和 Facebook 合作在今年开发 Nervana 神经网络推理处理器。

带着上述的这些问题,我们与他进行了深入交流,试图寻找高通将要如何继续主导移动AI时代的答案。

Cloud AI 100 将是高通的第一款专用人工智能处理器,势必会对高通带来许多未知的挑战。不过,高通多年来在生产规模、前沿节点、电源效率和信号处理方面的优势也将在这块处理器上体现。高通的入局也凸显了人工智能推理芯片市场的重要性。

更低功耗,更高能效,高通AI研发的重心所向

加拿大28免费计划 3

在与Rajesh Pankaj的交流中,他提到最多的,就是如何在低功耗环境下让AI发挥出更高的能效。

他说,这是高通AI研发最关注的领域。

其实不仅仅是高通,在当下这已经成为了业内备受关注的AI研发方向之一。

近年来,各种关于模型压缩的算法大量出现。谷歌、Facebook、百度也纷纷在自家的AI框架中加入端侧推理/部署能力。

Rajesh Pankaj从5G和AI的角度解释了背后的趋势。

一方面是AI技术的进一步成熟,相关的研究不再只是关注用AI解决问题,业界和学界开始考虑让AI进入到终端中,实现更多能力。

另一方面是5G的兴起,超低时延的数据传输变成了现实,端云协同变得触手可及。

这也就意味着和之前只依靠终端或者云端相比,边缘设备上能够实现更多的AI能力。

虽然相应的条件已经出现,但都处于不断完善中。不同的公司,都在通过不同的方式角逐未来。

Rajesh Pankaj说,得益于移动设备领域的技术积累,“低功耗环境下,实现高能效的AI,是高通最强的领域。

高通也给出了相应的数据进行了佐证:

利用张量分解、通道简化等手段压缩AI模型架构,压缩量达到3倍,同时准确度仅损失不到1%。

此外还有高精度训练、低精度推理的方法来实现能效的提升:

高通用量化8位推理模型,实现内存和计算4倍能效提升,可以和FP32实现近乎相同的准确率。

除此之外,高通还在优化编译器、内存计算AI等方面开展了相应的研究,为AI计算节能加速。

在专访过程中,Rajesh Pankaj也进一步解释说,虽然他很屡次提起低功耗运行AI,但这并不是高通AI研发的全部。

他说,从更大的角度来看,高通关注的是与端侧设备有关的所有AI,只要能够对业务带来帮助,都会投入资源去研发。

这些技术,并不都是处于研发阶段,高通也已经将这些技术应用到了移动AI芯片中。

2015年的骁龙820开始,高通的旗舰芯片就已经在全面集成高通自研人工智能引擎AI Engine。

到骁龙855,已经是第四代人工智能引擎AI Engine,突出的点在于异构计算。

核心能力,是让CPU、GPU、Hexagon不同功能的核心发挥各自所长,而又相互协作,共同实现高效的AI处理。

高通出圈:云端推理芯片已流片成功

虽然在相应的技术研发上,高通聚焦于端侧AI。但AI带来的不仅仅是冲击,也有机会。在场景上,高通也正在出圈。

最能体现这一动向的,不是高通面向IoT和汽车领域大秀肌肉。而是其4月份发布的一个数据中心AI推理芯片:Cloud AI 100。

同样,这一芯片主打的也是高能效。

在发布的时候,高通表示,这一芯片能降低终端与数据中心的延迟,提高AI云端效率。与其他商用方案相比,Cloud AI 100每瓦特性能提升了10倍。

微软和Facebook也为高通的这一芯片站台,并在产品发布时,分享了部署AI推理芯片的计划:

微软用它发现工业生产中的安全问题,Facebook则用它处理智能助理、视频AR特效以及加速VR硬件。

但在当时,高通只是宣布了芯片,并没有给出具体的产品。

Rajesh Pankaj也介绍了这一芯片的研发进展:芯片现在已经流片成功,并交于合作伙伴进行部署测试,明年会正式商用。

虽然这款芯片应用于云端,但Rajesh Pankaj说,高通暂时没有提供云服务的打算,硬件会对外出售,并配备相应的软件支持,来帮助合作伙伴搭建相应开发生态。

而且,这一芯片的出现,也在帮助高通拓展新的场景。

Rajesh Pankaj透露,不仅仅只有移动设备以及云服务商对这个芯片感兴趣,还有不少汽车厂商以及其他架构厂商也展现出了兴趣。

他说,在这些合作过程中,高通也会将AI落地到更多的领域中去。

与此同时,高通发力AI也不仅仅只是单打独斗。科技巨头们擅长使用的投资收购手段,它也没有落下。

2018年,高通风投成立了1亿美元的AI投资基金,主要用于投资5G赋能的AI领域,为自动驾驶汽车、机器人和机器学习平台开发新技术的企业。

高通的AI发展之道

聚焦端侧,巩固自身在高能效AI方面的领先地位。然后以此为切入点,不断拓宽AI的落地场景。

这是高通当下发展AI的重要策略之一。在Rajesh Pankaj看来,这背后也凸显出了高通在技术研发与商业落地上的一个“传统”:

高通所研发的AI,只是AI领域的一部分。其研发的目标,就是在这一部分中占据领导地位。只要技术在这一领域占据了主导地位,产品自然就更有优势了。

这在一定程度上,也反映了高通的“人才观”。

谈到高通如何吸引AI人才时,Rajesh Pankaj也表达了类似的观点,只需要把要做的做好,自然就会有人才加入。

此外,Rajesh Pankaj还谈到了高通吸引人才的另外一个特征:研究成果很快就会影响产品。

他说,这对于很多研究者来说,都是一个难以抵挡的诱惑。

本文由加拿大28在线计划发布于企业 / 电工电气,转载请注明出处:高通宣告正式进入云端AI芯片市场

关键词: