量子计算机可以增强人工智能吗?

2018 年 4 月 10 日 中科院物理所 George Musser

科学无国界

我们是知识的搬运工


福利时间

今天我们将送出三本由北京联合出版社提供的优质科普书籍《扔一个苹果到宇宙边缘》


从苹果落地,到扭曲的时空,再到全息宇宙,神秘的黑洞视界,浪漫的量子缠绕,迷人的弦理论。屏住呼吸,准备凝视即将出现在地平线上的魔幻视界吧。谁会知道,在这个尚待发现的国度中,我们将会找到些什么?

如何才能得到这本扔一个苹果到宇宙边缘呢?参与的方式非常简单!只要你认真阅读下面的这篇文章,思考文末提出的问题,严格按照 互动:你的答案 的格式在评论区留言,就有机会获得奖品!(PS:格式不符合要求者无效)截止到本周四中午12点,点赞数前三名的朋友将获得一本扔一个苹果到宇宙边缘


【互动问答示例】

互动:这里就可以自由发挥你的答案啦~


作者:George Musser

翻译:yangfz

审校:陈星


量子计算和机器学习的融合已经成为一个蓬勃发展的研究领域,这个研究领域能够不负众望吗?


上世纪90年代初,威奇托州立大学物理学教授伊丽莎白•贝尔曼(Elizabeth Behrman)开始致力于将量子物理与人工智能结合起来,特别是当时特立独行的神经网络技术。大多数人都觉得她这是把油和水混在一起,不能产生什么有用的东西。 “那个时候,我的文章要经过好久才会被发表”,她回忆到,“神经网络杂志会问,‘量子力学是啥?’物理学杂志会说,‘这个神经网络是什么鬼?’”


今天来看,两者的融合似乎是世界上最自然的事情。神经网络和其他机器学习系统已经成为21世纪最具颠覆性创新的技术。它们超越了人类,不仅在我们大多数人从未真正擅长的任务上击败我们,比如国际象棋和数据挖掘,而且没放过那些我们大脑进化出来的各种功能,比如识别人脸和翻译语言等。这些系统是由于强大的计算能力而成为可能的,所以科技公司不可避免地去寻找那些不仅仅只是体积更大的计算机,而是一种新的更强的计算机。


经过几十年的研究, 量子计算机几乎有足够的能力来进行地球上其他计算机做不了的计算。它们的杀手级应用通常被认为是大数因子分解, 而这是现代加密技术的关键。虽然真的实现这种因子分解至少还需要十年的时间。但是, 即使是今天初级的量子处理器也与机器学习的需求惊人地匹配。它们在一个步骤中操作大量数据,挑选出经典计算机所忽略的微妙模式,而不会被不完整或不确定的数据所扼杀。加州伯克利的量子计算机公司 Rigetti Computing 的物理学家 Johannes Otterbach 说,“量子计算的内在统计性质与机器学习之间有着天然的结合。”


如果说有什么不同的话, 那就是钟摆现在已经摆到了另一个极端。谷歌、微软、 IBM 和其他科技巨头正在向量子机器学习投入大量资金,多伦多大学的创业孵化器也致力于此。莫斯科斯科尔科沃科学技术研究所(Skolkovo Institute of Science and Technology)的量子物理学家雅各布•比昂特(Jacob Biamonte)表示,“机器学习正在变成一个流行词,当你把它和量子混合在一起, 它就变成了一个超级流行词。”


然而,它里面的“量子”这个词并不是像看起来那样的。尽管你可能认为量子机器学习系统应该是非常强大的,但它却受到某种闭锁综合征的影响。它运行在量子态上,而不是在人类可读的数据上,而且两者之间的转换可以消除它的明显优势。就像你买了一部高端的新手机,尽管它的各方面都令人印象深刻,但如果你的网络还是一如既往的糟糕的话,那它最终和你的旧手机一样还是让人闹心。对于一些特殊情况,物理学家可以克服这种输入-输出瓶颈,但是这些情况是否出现在实际的机器学习任务中仍然是个未知数。德克萨斯大学奥斯汀分校的计算机科学家斯科特•阿隆森说:“我们还没有得到明确的答案。人们常常对这些算法是否能够加快速度非常不在意。”在量子计算领域,他总是保持清醒的声音。


量子神经元


神经网络的主要工作是识别模式,无论是经典的还是量子的。受到人类大脑的启发,神经网络是一个由基本计算单位——“神经元”所组成的网格,每个“神经元”都像一个开关那样简单。一个神经元监视多个其他神经元的输出,就好像在进行投票,如果有足够多的神经元选择开启开关,这个神经元就会开启。通常情况下,神经元是分层排列的。初始层接收输入(如图像像素) ,中间层创建各种输入组合(边缘和几何形状等结构表示) , 最后一层产生输出(图像内容的高级描述)。


一个典型的神经网络。来源:Lucy Reading-Ikkanda/Quanta Magazine


非常重要的一点是,网络的线路不是预先固定的,而是在不断尝试和错误的过程中进行调整的。这个网络可能会被“喂”进标签是小猫或小狗的图片。对于每个图片,它分配一个标签, 检查它是否和图片自己的标签一致,如果不是,则调整神经元之间的连接。一开始它的猜测是随机的,但是会慢慢变得更好;在大约10000次尝试之后,它知道了怎么区分小猫和小狗。一个神经网络甚至可以有十亿个互连, 所有这些互连参数都需要调整。


在一台经典的计算机上,所有这些连接都是由一个巨大的数字矩阵表示的,运行网络意味着做矩阵代数。通常情况下,这些矩阵操作被外包给一个专门的芯片,比如图形处理器(GPU)。 但是做矩阵操作没有什么比量子计算机更好的了。麻省理工学院的物理学家、量子计算先驱者塞思•劳埃德(Seth Lloyd)说:“在量子计算机上,大矩阵和大矢量的操作以指数级的速度增长。”


对于这项任务,量子计算机能够利用量子系统的指数性质。量子系统的大量信息存储容量并不在于其单独的数据单元——量子比特中,经典计算机比特的量子对应物——而是在这些量子比特的集合属性中。两个量子比特有四种联合状态,两个都开,两个都关,或者一个开一个关及反过来。每个状态都有一定的权重,或“振幅”,可以代表一个神经元。如果你加上第三个量子比特,你可以代表8个神经元;加上第四个,就能代表16个。机器的容量呈指数增长。实际上, 神经元被涂抹在整个系统上的。当你在四个量子比特的状态下操作时, 你一下子就处理了16个数字,而一台经典计算机则必须一个接一个地处理这些数字。


劳埃德估计,60个量子比特就足以编码相当于人类一年所产生的数据量,而300个量子比特可以携带可观测宇宙的经典信息内容(目前最大的量子计算机由IBM,英特尔和谷歌等公司创造的72量子比特计算机)。这是假设每个振幅只是一个单一的经典比特。阿隆森说:事实上,振幅是连续的数量(实际上是复数) ,而且在具体的实验精度中可能存储多达15位。


但是量子计算机的信息存储能力并不能让它更快。你需要有能力使用这些量子比特。2008年,麻省理工学院的物理学家阿拉姆•哈罗和以色列巴伊兰大学的计算机科学家阿维纳坦•哈西丁展示了如何算逆矩阵这一关键代数运算。他们把整个运算分解成一系列逻辑操作,可以在量子计算机上执行。他们的算法适用于各种各样的机器学习技术。而且它不需要像因式分解一个大数那样多的算法步骤。量子计算机可以在噪声影响正确结果之前完成分类任务,噪声是当今技术的一个重要限制因素。IBM的Thomas J. Watson研究中心的克里斯坦•泰姆(Kristan Temme)表示:“在拥有一台完全通用的容错量子计算机之前,你拥有的可能是具有量子优势的计算机。”


让自然解决问题


然而,到目前为止,基于量子矩阵代数的机器学习只在只有四个量子位的机器上得到证明。迄今为止,量子机器学习的大部分成功的实验都采用了一种不同的方法,那些实验里量子系统不仅只是模拟了网络;它们本身就是网络。每个量子位代表一个神经元。尽管缺乏指数化的力量, 但这样的装置可以利用量子物理学的其他特性。


最大的这种装置是由位于不列颠哥伦比亚省温哥华附近的 D-Wave 公司生产的量子处理器。它不是大多数人所认为的那种计算机。它不是从一些输入数据开始,执行一系列操作并显示输出,而是通过内部一致性来工作。它的每一个量子比特都是一个超导环, 作为一个微小的电磁体方向向上,向下或者上和下——叠加的状态。量子比特被“连接”在一起, 允许它们发生磁性相互作用。


D- Wave公司生产的处理器正被用于机器学习应用。  来源:Mwjohnson0


要运行这个系统,首先要施加一个水平磁场,它将量子位初始化到上下相等的叠加——相当于空白状态。有几种方法可以输入数据。在某些情况下,你可以将一层量子位调节到所需的输入值;更经常地,你将输入合并到量子比特相互作用的强度中。然后让量子比特相互作用。有些量子比特方向倾向于一致,有些则倾向于相反的方向,在水平场的影响下,它们转向它们喜欢的方向。这样做, 它们可能会触发其他的量子比特翻转。这种情况通常发生在初始时, 因为这个时候量子比特的朝向都是不一致的。不过, 随着时间的推移, 它们安定下来, 你可以关闭水平磁场来锁定它们。在这一点上,量子比特处于上和下的模式中,以确保输出遵循输入。


量子比特的最终排列将会是什么并不是很明显,这就是问题所在。这个系统,只是通过自然地去做,就是在解决一个普通电脑难以解决的问题。“我们不需要算法,”东京理工大学物理学家 Hidetoshi Nishimori 解释道,他发明了 D-Wave 机器运行的原理。“这完全不同于传统的编程,大自然解决了问题。”


量子比特翻转是由量子隧穿效应驱动的,这是一种自然的趋势,即量子系统必须找出它们的最佳配置,而不是满足于第二好的选择。你可以建立一个经典网络,这个网络运行在类似的原理上,使用随机的跳跃而不是隧穿来获得比特的翻转,在某些情况下它实际上会更好地工作。但有趣的是,对于机器学习中出现的各种问题,量子网络似乎更快地达到了最佳状态。


D-Wave的机器也遭到了一些批评。它噪声非常大,而且在当前的版本中,只能执行有限的操作菜单。然而,机器学习算法本身在本质上是可以容忍噪声的。它们之所以有用,恰恰是因为它们能理解混乱的现实,在红鲱鱼的背景下,从小狗中挑选小猫。“众所周知, 神经网络对噪声有很强的鲁棒性,”贝尔曼说。


2009年, 由谷歌(Google)计算机科学家哈特穆特•奈文(Hartmut Neven,谷歌眼镜项目(Google Glass)的联合创始人)领导的一个团队,随后开始进行量子信息处理,展示了早期 D-Wave 机器如何能够完成一项令人尊敬的机器学习任务。他们基本上将它用作单层神经网络,将20,000个街道场景的图库中的图像分成两类:“有车”或“无车”。该机器只有52个可用的量子比特,几乎无法接受整个图像(请记住:D-Wave 机器的类型与在2018年上线的最先进的72量子比特系统截然不同)。所以 Neven 的团队把这台机器和一台经典计算机结合起来,这台计算机分析了图像的各种统计量,并计算出这些数量对于汽车的存在有多么敏感——通常不是很敏感,但至少比抛硬币好。这些数量的一些组合可以一起可靠地识别出一辆汽车,但不清楚是哪一种。网络的工作就是找出答案。


这个团队给每个量分配了一个量子比特。如果这个量子比特处于1, 它会标记相应的量为有用;0表示不要打扰。量子比特的磁性相互作用编码了问题的要求, 例如只包括最有鉴别力的数量, 以使最终选择尽可能紧凑。结果能够发现汽车。


去年, 由加利福尼亚理工学院的粒子物理学家 Maria Spiropulu 和南加州大学物理学家丹尼尔••利达领导的团队将该算法应用于一个实际的物理问题:将质子碰撞归类为“希格斯玻色子”或“没有希格斯玻色子”。他们将注意力仅限于吐出光子的碰撞,使用基本粒子理论来预测哪些光子性质可能会出现Higgs转瞬即逝的存在,例如超过某个阈值的动量。他们考虑了8个这样的属性及其28个组合,共36个候选信号,并让南加利福尼亚大学的新型D-Wave机器找到了最佳选择。它认为其中的16个变量是有用的,3个是最好的。与标准程序相比,量子计算机需要更少的数据来执行准确的识别。“假设训练集很小, 那么量子方法确实比高能物理学中使用的传统方法提供了一个准确的优势”,Lidar 说。


加利福尼亚理工学院的物理学家 Maria Spiropulu 利用量子机器学习找到希格斯玻色子。 来源:Maria Spiropulu


去年12月,Rigetti 展示了一种使用19个量子位的通用量子计算机自动分组对象的方法。研究人员做了相当于给机器提供城市和城市之间距离的清单,并要求它将城市分为两个地理区域。让这个问题变得困难的是,指定一个城市取决于所有其他城市的指定,所以你必须同时解决整个系统。


Rigetti团队有效地给每个城市分配了一个量子比特,指出它被分配到哪个组。通过量子比特的相互作用(在 Rigetti 的系统中,它们是电场而不是磁场),每一对量子比特都更倾向取相反的值——当它们这样做的时候,它们的能量是最小化的。显然,对于任何一个有两个以上量子比特的系统,一些量子位必须同意被分配到同一组。距离比较近的城市更容易达到一致,因为它们在同一组的能量消耗比距离更远的城市要低。


为了将系统的能量最小化,Rigetti团队采用了类似于D-Wave退火程序的方法。他们将量子比特初始化为所有可能的集群分配的叠加。他们允许量子比特进行简单的相互作用,这使得它们偏向于假设相同或相反的值。然后他们应用了类似水平磁场的方法,允许量子比特在倾斜的情况下翻转,将系统推向能量最低的状态。他们重复这个两步过程——相互作用然后翻转——直到系统最小化其能量,从而将城市分为两个不同的区域。


这些分类任务是有用的, 但是很简单。机器学习的真正前沿是产生式模型,它们不仅能识别小狗和小猫, 还可以生成新异的原型——那些从未存在过的动物,但是每一个都和它们一样可爱。他们甚至可以自己找出“小猫”和“小狗”的分类,或者重建丢失尾巴或爪子的图像。D-wave 首席科学家穆罕默德•阿明(Mohammad Amin)表示:“这些技术非常强大,在机器学习方面非常有用,但它们非常困难”。量子如果能给予援助再好不过了。


D-Wave和其他研究团队已经接受了这个挑战。训练这样一个模型意味着调整量子比特之间的磁性或电子相互作用,以便网络可以再生一些样本数据。要做到这一点,你需要将网络与普通计算机结合起来。网络负责大的提升——弄清楚给定的相互作用选择对最终的网络配置意味着什么——然后计算机利用这些信息来调整相互作用。在去年的一次演示中,美国宇航局量子人工智能实验室的研究员 Alejandro Perdomo-Ortiz 和他的团队将D-Wave的机器“喂”入手写数字的图像。它发现有10个类别, 与数字0到9相匹配, 并产生了自己潦草的数字。


隧穿中的瓶颈


上面这些就是好消息。但糟糕的是,如果你不能将数据输入到处理器中,那么你的处理器有多棒并不重要。在矩阵代数算法中,单个操作可以操作16个数字的矩阵,但是要加载矩阵仍然需要16个操作。量子机器学习博士学位的第一批人之一,量子计算创业公司 Xanadu 的研究员 Maria Schuld 说,“量子态的准备工作——将经典数据转化为量子态——完全被忽视了,我认为这是最重要的部分之一”。以物理形式布置的机器学习系统面临着如何把问题嵌入量子比特网络并获得量子比特之间具有的相互作用这个两大困难。


一旦成功地输入了数据,这些数据就需要被存储在这样一种方式中,即量子系统可以与之交互,而不会导致正在进行的计算崩溃。Lloyd和他的同事们已经提出了一种使用光子的量子 RAM,但是还没有人在超导量子比特或离子阱这些引领量子计算的技术中拥有类似的装置。“这是建造量子计算机本身问题之外的另一个巨大的技术问题”,Aaronson 说。“我从实验者那里得到的印象是他们很吃惊。他们不知道如何开始建造这个”。


最后, 你如何取出你的数据?这意味着测量机器的量子状态,并且不仅每次测量只返回一个随机抽取的数字,它会使整个状态崩溃,在你有机会取回数据之前,将剩余的数据全部清除掉。你必须反复运行该算法来提取所有信息。


但我们并没有失去一切。对于某些类型的问题,你可以利用量子干涉。也就是说,你可以编排操作,让错误的答案自行消失,正确的答案自我强化;这样,当你去测量量子态时,它不会给你任意的随机值,而是你想要的答案。但只有少数算法, 比如暴力搜索法,能够很好地利用干涉,而且加速通常还不太大。


在某些情况下,研究人员发现了获取数据的捷径。2015年, Lloyd, 加拿大滑铁卢大学的 Silvano Garnerone 和南加州大学的 Paolo Zanardi 表示,对于某些统计分析,你不需要输入或存储整个数据集。你只要几个关键值就足够了,不需要读出所有的数据。例如,科技公司利用机器学习来建议观看节目或者根据庞大的消费习惯矩阵来购买东西。“如果你是Netflix 或者亚马逊,或者其他什么,你实际上并不需要把矩阵写在任何地方,”Aaronson 说。“你真正需要的是为用户生成推荐”。


所有这些都引发了这样的问题: 如果一个量子机器只在特殊情况下是强大的,那么经典机器在这些情况下是否也是强大的?这是这个领域尚未解决的主要问题。毕竟,普通计算机也是非常有能力的。处理大型数据集通常选择的方法——随机抽样——实际上与量子计算机在精髓上非常相似,不管它内部发生了什么,最终都会返回一个随机的结果。Schuld说:“我做了很多算法,我觉得‘这太神奇了。我们已经得到了应有的加速’,然后实际上我只是为了好玩,又为一台经典计算机写了一个取样技术, 我意识到你也可以用同样的方法进行取样。”


如果你回顾一下量子机器学习到目前为止所取得的成功,那么它们都带有星号。以 D-Wave 机器为例。当对汽车图像和希格斯玻色子进行分类时,它并不比传统机器快。“我们在这篇论文中没有谈到的一个问题是量子的加速,”Alex Mott 说,他是 Google DeepMind 的计算机科学家,也是希格斯研究小组的成员。矩阵代数方法,如 Harrow-Hassidim-Lloyd 算法表明,只有在矩阵稀疏——大部分都是零的情况下,才显示出加速。“没有人会问, 稀疏的数据集在机器学习中真的有趣吗?”Schuld补充到。


量子智能


另一方面,即使是现有技术的逐步改进,也会让科技公司感到高兴。 “最终你会看到这些优势,但它们可能不是指数型的,而是二次型的”,微软研究院(Microsoft Research)量子计算研究员内森•维伯(Nathan Wiebe)表示,“有了足够大、足够快的量子计算机,我们可以彻底改变机器学习的许多领域”。在使用这些系统的过程中,计算机科学家可能会解决一个理论难题,即它们是否天生就快,为什么。


Schuld也看到了软件方面的创新空间。机器学习不仅仅是一堆计算。这是一个复杂的问题,有着它们自己的特殊结构。她说:“人们构建的算法让机器学习不再那么有趣和美丽,这也是我开始反过来思考的原因:如果这台量子计算机已经存在——这些小规模的计算机——那么实际上它可以实现什么机器学习模型呢?也许是一个尚未被发明的模型”。如果物理学家想要给机器学习专家留下深刻的印象,他们需要做的不仅仅是制作现有模型的量子版本。


正如许多神经科学家现在认为人类思维的结构反映了拥有身体的要求,机器学习系统也体现了这一点。图像、语言和其他大多数数据都来自物理世界,并反映了它们的特性。量子机器学习也同样得到体现——但是是在一个更加丰富的世界里。毫无疑问,它将会在处理已经是量子的数据方面表现突出。当数据不是图像,而是物理或化学实验的产物时,量子机器就会迎来属于自己的时代。输入的问题也会随之消失,经典计算机将被遗忘在尘埃中。


神经网络和量子处理器有一个共同点:它们竟然能够工作,这就足够使人觉得惊讶了。神经网络可以训练并不是显然的,很多年来人们一直在怀疑这是不可能的。同样,量子物理学可以被用来计算这一点并不明显,因为量子物理独特的特征对于我们来说隐藏的非常好。然而, 两者都有效——虽然并非总是如此,但更多时候, 已经远超我们的期待。在它们的这个先例上,它们的联合似乎也可能找到它的位置。


原文链接:

https://www.quantamagazine.org/job-one-for-quantum-computers-boost-artificial-intelligence-20180129/


互动问题  

【互动问题: 如果通用量子计算机能够实现,并且像现在的计算机这样普及,世界会变成什么样?


请大家严格按照  互动:问题答案  的格式在评论区留言参与互动,格式不符合要求者无效。


截止到本周四中午12点,点赞数前三名的朋友将获得我们送出的图书一本。


编辑:山寺小沙弥


近期热门文章Top10

↓ 点击标题即可查看 ↓

1. 人类一思考,上帝就要忙疯掉……

2. 原来,这些我们都默认科学家早已解决了的问题,至今仍然无解

3. 理工科学霸的子女更易患自闭症

4. 鸡蛋从高空坠落能砸死人,为什么猫却摔不死?科学告诉你答案

5. 光学3分钟:从入门到放弃

6. 光速为什么如此重要?

7. 量子计算陷入难解困境,未来发展何去何从?

8. 除了《时间简史》,关于霍金你还应该知道这些!

9. 速速收藏!可乐竟然还有这些神奇的用途!

10. 石墨烯研究的意外发现,是否能解开高温超导之谜

点此查看以往全部热门文章


登录查看更多
1

相关内容

量子计算是一种遵循量子力学规律调控量子信息单元进行计算的新型计算模式。对照于传统的通用计算机,其理论模型是通用图灵机;通用的量子计算机,其理论模型是用量子力学规律重新诠释的通用图灵机。从可计算的问题来看,量子计算机只能解决传统计算机所能解决的问题,但是从计算的效率上,由于量子力学叠加性的存在,目前某些已知的量子算法在处理问题时速度要快于传统的通用计算机。

知识荟萃

精品入门和进阶教程、论文和代码整理等

更多

查看相关VIP内容、论文、资讯等
【ACL2020】利用模拟退火实现无监督复述
专知会员服务
13+阅读 · 2020年5月26日
【2020新书】C++20 特性 第二版,A Problem-Solution Approach
专知会员服务
57+阅读 · 2020年4月26日
机器学习速查手册,135页pdf
专知会员服务
336+阅读 · 2020年3月15日
【BAAI|2019】用深度学习模拟原子间势,王涵  (附pdf)
专知会员服务
17+阅读 · 2019年11月21日
人工智能能够预测地震吗?
人工智能学家
7+阅读 · 2018年12月10日
2019年机器学习:追踪人工智能发展之路
人工智能学家
4+阅读 · 2018年10月14日
量子计算
人工智能学家
7+阅读 · 2018年4月6日
人工智能创作的春天来了
微软丹棱街5号
7+阅读 · 2018年3月29日
CCCF专栏:黄铁军| 也谈强人工智能
中国计算机学会
5+阅读 · 2018年2月15日
【人工智能】人工智能的应用边界
产业智能官
4+阅读 · 2018年1月9日
使用人工智能增强人类智能(下)
论智
5+阅读 · 2017年12月9日
人工智能,机器学习和深度学习之间的差异是什么?
大数据技术
6+阅读 · 2017年11月22日
已删除
哈佛商业评论
4+阅读 · 2017年11月1日
Arxiv
14+阅读 · 2018年5月15日
Arxiv
4+阅读 · 2018年4月30日
Arxiv
5+阅读 · 2018年3月16日
VIP会员
相关资讯
人工智能能够预测地震吗?
人工智能学家
7+阅读 · 2018年12月10日
2019年机器学习:追踪人工智能发展之路
人工智能学家
4+阅读 · 2018年10月14日
量子计算
人工智能学家
7+阅读 · 2018年4月6日
人工智能创作的春天来了
微软丹棱街5号
7+阅读 · 2018年3月29日
CCCF专栏:黄铁军| 也谈强人工智能
中国计算机学会
5+阅读 · 2018年2月15日
【人工智能】人工智能的应用边界
产业智能官
4+阅读 · 2018年1月9日
使用人工智能增强人类智能(下)
论智
5+阅读 · 2017年12月9日
人工智能,机器学习和深度学习之间的差异是什么?
大数据技术
6+阅读 · 2017年11月22日
已删除
哈佛商业评论
4+阅读 · 2017年11月1日
Top
微信扫码咨询专知VIP会员