手机上搭载的移动AI芯片,其实大多数人并不需要

2017 年 10 月 23 日 DeepTech深科技

点击“阅读原文”加入EmTech China会员阅读月报“七张图看懂台积电商业模式(附产业链图解)”


它是个什么东西?我需要买一个吗?目前究竟是什么情况?



图 | 苹果 iPhone X 最大的卖点之一就是其中 A11 芯片里的“神经引擎”


如今,估计很多人都听过移动人工智能(AI)芯片这个东西了。在最近的几个月里,从苹果 iPhone X 的“神经元引擎(Neural Engine)”到华为 Mate 10 的“神经网络处理单元(NPU)”,这种在手机中用来处理机器学习的特殊芯片已经成为了新一代的营销热词。而高通和 ARM 等芯片商也卯足了劲,想要把它装进每个品牌的新旗舰机中。然而,只有很少的消费者才真正了解它到底是什么。


作为消费者,了解你所买的产品有何功能算是一门必修课了。因为只有当你知道你所买的和你所求的有无差误,才能避免花冤枉钱。


所以,当你在市场上寻找新手机时,AI 芯片是你需要的功能之一吗?如果你想使用一些最新的人工智能 APP,你需要一个专门的 AI 芯片吗?


答案很简单:不需要。理由也不复杂,请接着读下去。


我们为什么需要 AI 芯片?


在手机中安装一个 AI 芯片的原因很简单:手机中常见的 CPU(中央处理器)并不适合机器学习的要求。若是用 CPU 强行运行机器学习 APP,结果不但会很慢,也会十分耗电。


这是因为人工智能算法需要在短时间内进行巨量的小型计算,然而由于普通的 CPU 只有一小部分进行数学计算的资源(即内核),它需要很长的时间和电力才能完成所有计算。这也是为什么现代人工智能行业十分钟爱 GPU,即图像处理器。这种芯片原本是为渲染游戏 3D 画面而生的,而 3D 渲染却恰恰也是短时间多计算任务。因此,GPU 被设计成拥有成千上万个内核,在渲染画面之外也十分适合机器学习所需要的计算任务。


当然,把数千枚内核塞进你的手机里是不现实的,但是芯片框架师们可以做出其他方面的设计来提高手机芯片可以同时处理的任务量。高通的人工智能与机器学习产品管理部部长 Gary Brotman 曾表示道:“我认为并行计算是最核心的,尤其在高效实现它的时候”。但是他也补充说,专门的 AI 芯片并不是唯一的出路,其他类型的芯片框架也可以被调整的更适合机器学习算法。


而“AI 芯片”这个词虽然十分简单易懂,但是并不准确。就拿华为和苹果的产品来说,它们并非一枚单独的芯片,而是作为整个系统芯片(SoC),比如苹果的 A11 Bionic 芯片中,专门为机器学习任务所设的一个内核。系统芯片已经含有多个用于渲染画面,处理图片,或运行系统任务等的专用内核。所以在其中添加一个 AI 专用的内核算是遵守技术发展的大势。


图 | 华为的麒麟 970 芯片中包含着一款神经网络处理单元


我们可以从中获得什么?


从上述内容中,我们可以把专用 AI 芯片理解为(理论上)更高的性能和更低的能耗。但是,它还会带来更好的隐私和安全,也对开发者更友善。


在隐私和安全方面,由于手机本地计算力的限制,许多现有的机器学习 APP 都需要把你的数据传输到云端才能进行计算。虽然谷歌和苹果发明了一些在你手机里直接进行这种计算的方式,但是其限制还是很大,用处不多。所以,如果你手机里有一个专门为 AI 设置的芯片,这些计算就可以在手机内进行了。而更少的数据传输则可以有效地减少数据被盗或泄露的可能性。


此外,不需要一直往云端上传数据也可以为用户节省很多流量。而这一点也可以帮 APP 的开发者节省成本。毕竟,如果可以在手机内进行运算,开发者们就不需要花钱设置云端的服务器了。


因此,只要手机的 AI 硬件跟得上,所有人都会从中获利。


它现在可以被使用吗?


这个问题就比较难回答了,因为虽然你的手机可能有 AI 芯片,这不一定代表机器学习 APP 和服务可以有效地利用它的能力。


还是拿苹果和华为作为例子,这两家的 AI 芯片都有专门的应用程序接口(API),若是开发者想利用 AI 芯片,他们必须在其 APP 中使用这些接口。但是在这之前,他们首先还要确保他们所使用的 AI 框架,比如谷歌的 TensorFlow 或 Facebook 的 Caffe2 被 API 支持。如果不支持,他们就必须花时间对 APP 进行转化。


高德纳咨询公司的科技分析师 Anthony Mullen 表示,在这么多个界面中进行开发“并不轻松”:“我们离开发者使用这些硬件来开发精致的体验还有一段时间。在那之前,我们只会看到生产商和第三方之间的特殊合作”。这就是为什么微软正在与华为进行合作,确保其翻译 APP 可以在线下使用麒麟中的 NPU 内核,以及为什么 Facebook 选择与高通合作,用高通的 AI 硬件帮助 Facebook 提高其增强现实滤镜加载的速度。


图 | Facebook 正在与高通合作,提高其增强现实自拍滤镜在高通硬件上运行的速度


然而,我们很难预测小型的 APP 开发商是否像大公司这样,有足够的动力和资源来进行利用 AI 芯片的开发。有趣的是,苹果在这又可以秀一波优越感了:苹果 APP 的开发者只需要使用苹果的核心机器学习框架进行一次开发就足够了。对于安卓来说,如果不同的生产商开始推出自己的框架,这将大幅度增加 APP 开发者的难度。


所幸,谷歌正在施展其影响力来解决这一问题。其移动 AI 框架 TensorFlow Lite 正在标准化移动设备上的 AI 体验,他们也要推出一款安卓系统 API,帮助开发者“利用具体的芯片加速器”。


“从开发者的角度来看,安卓的系统环境无法避免其碎片化的风向”,Brotman 说道,“但是这确实会让开发变得更简单一些”。而有一部分项目的效果只有在 Android P 发布之后才会起效。


所以,我需要一款装有 AI 芯片的手机吗?


再重复一遍答案:不怎么需要。由于许多人正在努力提高机器学习和 AI 服务在现有硬件上的性能,除非你是专家级用户,否则手机里是否有专用的 AI 硬件对你来说没有区别。


对于华为和苹果,其 AI 硬件的主要用处就是提高他们手机本身的性能。对于 Mate 10 来说,这意味着监督其使用习惯,重新分配系统资源以避免手机变慢。对于 iPhone X 来说,这意味着驱动新的功能,比如 Face ID 和 Animoji。


对于消费者来说,“AI 专用芯片”听起来十分高大上,但是旗舰机中的其他功能,比如防水防尘或双摄像头也不赖。目前来看,AI 芯片的营销用途远大于它的真正功能。希望在不久的将来,它可以成为大家手机中普普通通的一部分,为我们驱动那些有趣又好用的 APP。


-End-

编辑:陈翔宇  校审:黄珊

参考:

https://www.theverge.com/2017/10/19/16502538/mobile-ai-chips-apple-google-huawei-qualcomm 


登录查看更多
0

相关内容

半导体元件产品的统称。是集成电路(IC, integrated circuit)的载体,由晶圆分割而成。
【经典书】贝叶斯编程,378页pdf,Bayesian Programming
专知会员服务
250+阅读 · 2020年5月18日
【Google】利用AUTOML实现加速感知神经网络设计
专知会员服务
30+阅读 · 2020年3月5日
模型压缩究竟在做什么?我们真的需要模型压缩么?
专知会员服务
28+阅读 · 2020年1月16日
我是怎么走上推荐系统这条(不归)路的……
全球人工智能
11+阅读 · 2019年4月9日
深度学习入门:投身深度学习你需要哪些准备?
机器学习研究会
13+阅读 · 2017年11月25日
干货 | 深度学习入门指北——从硬件到软件
AI科技评论
3+阅读 · 2017年11月22日
【物联网】5G时代的智能边缘计算AI-EC平台
产业智能官
6+阅读 · 2017年10月9日
Arxiv
92+阅读 · 2020年2月28日
Arxiv
14+阅读 · 2020年1月27日
Arxiv
35+阅读 · 2019年11月7日
Arxiv
3+阅读 · 2018年5月28日
Arxiv
8+阅读 · 2018年2月23日
VIP会员
相关论文
Top
微信扫码咨询专知VIP会员