重大突破!斯坦福证明神经网络能直接在光学芯片上训练

2018 年 7 月 27 日 新智元







  新智元报道  

来源:phys.org

编译:肖琴


【新智元导读】美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。



据光学领域权威期刊Optica的报道,美国斯坦福大学的研究人员已经证明,可以直接在光学芯片上训练人工神经网络。这一重大突破表明,光学电路可以实现基于电子的人工神经网络的关键功能,进而可以以更便宜、更快速和更节能的方式执行语音识别、图像识别等复杂任务。


“相比使用数字计算机,使用光学芯片进行神经网络计算更有效,能够解决更复杂的问题,”斯坦福大学研究团队的负责人范汕洄(Shanhui Fan)说:“这将增强人工神经网络的能力,例如,使其能够执行自动驾驶汽车所要求的任务,或者能够对口头问题做出适当的回答。这将以我们现在无法想象的方式改善我们的生活。”


人工神经网络是人工智能的一种,它使用连接的单元,以类似大脑处理信息的方式来处理信息。使用人工神经网络执行复杂的任务,例如语音识别,需要训练算法对输入进行分类,比如对不同的单词进行分类。


虽然光学人工神经网络最近已经得到实验证明,但此前的研究是在传统的数字计算机上使用一个模型进行训练步骤,然后将最终的设置导入光学电路。在最新Optica期刊上,斯坦福大学的研究人员报告了一种新方法,通过实现“反向传播”算法(这是训练传统神经网络的标准方法)的光学模拟,直接在设备中训练人工神经网络。


图:研究人员已经证明,神经网络可以通过光学电路(图中蓝色矩形)进行训练。在整个网络中,有若干个这样的电路连接在一起。激光输入(绿色)的编码信息由光波导(黑色)通过芯片。芯片使用可调波束分离器(光波导中弯曲的部分)执行对人工神经网络至关重要的操作。分离器将两个相邻的波导连接在一起,并可通过调整光学移相器(红色和蓝色发光物体)的设置进行调整。分离器的作用就像“旋钮”,可以在特定任务的训练过程中进行调整。Credit: Tyler W. Hughes, Stanford University


该论文的第一作者Tyler W. Hughes说:“使用物理设备而不是计算机模型进行训练,可以使训练过程更精确。”“而且,由于训练步骤是神经网络实现中非常耗费计算力的部分,因此,在光学电路上执行这个步骤,对于改进人工神经网络的计算效率、速度和功耗都是至关重要的。”


基于光的网络


虽然神经网络处理通常使用传统的计算机进行,但仍有大量的工作要专门设计针对神经网络计算优化的硬件。基于光学的设备非常吸引人,因为它们可以并行地执行计算,同时比电子设备消耗的能量更少。


在这项新研究中,研究人员通过设计一种光学芯片来复制传统计算机训练神经网络的方式,克服了实现全光学神经网络(all-optical neural network)的一个重大挑战。


人工神经网络可以被视为一个带有许多旋钮的黑盒。在训练期间,每个旋钮都要转动一点,然后测试系统,查看算法的性能是否得到改善。


“我们的方法不仅可以帮助预测旋钮转动的方向,还可以预测每个旋钮转动的方向,从而更接近预期的性能。”Hughes说,“我们的方法大大加快了训练速度,特别是对于大型网络,因为可以并行地获得每个旋钮的信息。”


片上训练


新的训练协议在具有可调谐光束分离器的光学电路运行,通过改变光学移相器的设置进行调整。具体来说,该方法是将编码有待处理信息的激光束发射到光学电路中,由光波导通过光束分离器进行传输,像旋钮一样进行调整,以训练神经网络算法。



在新的训练协议中,激光首先通过光学电路输入。退出设备后,计算出与预期结果的差值。然后,这些信息被用来产生一个新的光信号,这个信号通过光网络以相反的方向发送回来



通过测量此过程中每个分束器周围的光强度,研究人员展示了如何并行地检测神经网络的性能随着每个分束器设置而变化的情况。移相器的设置可以根据这些信息进行更改,这个过程可以重复,直到神经网络产生期望的结果。


研究人员用光学模拟测试了他们的训练技术,方法是教算法执行复杂的任务,比如在一组点中找出复杂的特征。他们发现光学实现与传统计算机的执行类似。


该研究的负责人范汕洄说:“我们的研究表明,你可以利用物理定律来实现计算机科学算法。”“通过在光学领域对这些网络进行训练,证明光学神经网络系统可以利用光学器件来实现某些功能。”


研究人员计划进一步优化这个系统,并希望用它来实现神经网络任务的实际应用。他们设计的通用方法可用于各种神经网络架构,也可以用于其他应用。


原文:https://phys.org/news/2018-07-closer-optical-artificial-neural-network.html



新智元AI WORLD 2018大会【早鸟票】开售!


新智元将于9月20日在北京国家会议中心举办AI WORLD 2018 大会,邀请迈克思·泰格马克、周志华、陶大程、陈怡然等AI领袖一起关注机器智能与人类命运。


大会官网:

http://www.aiworld2018.com/ 


即日起到8月19日,新智元限量发售若干早鸟票,点击阅读原文购票,与全球AI领袖近距离交流,见证全球人工智能产业跨越发展。



  • 活动行购票链接:

    http://www.huodongxing.com/event/6449053775000

  • 活动行购票二维码: 


登录查看更多
0

相关内容

人工神经网络(Artificial Neural Network,即ANN),它从信息处理角度对人脑神经元网络进行抽象,建立某种简单模型,按不同的连接方式组成不同的网络。在工程与学术界也常直接简称为神经网络或类神经网络。神经网络是一种运算模型,由大量的节点(或称神经元)之间相互联接构成。每个节点代表一种特定的输出函数,称为激励函数(activation function)。每两个节点间的连接都代表一个对于通过该连接信号的加权值,称之为权重,这相当于人工神经网络的记忆。网络的输出则依网络的连接方式,权重值和激励函数的不同而不同。而网络自身通常都是对自然界某种算法或者函数的逼近,也可能是对一种逻辑策略的表达。
【ICML2020-哈佛】深度语言表示中可分流形
专知会员服务
12+阅读 · 2020年6月2日
斯坦福2020硬课《分布式算法与优化》
专知会员服务
118+阅读 · 2020年5月6日
专知会员服务
31+阅读 · 2020年4月24日
脉冲神经网络(SNN)概述
人工智能前沿讲习班
60+阅读 · 2019年5月30日
人工神经网络
平均机器
15+阅读 · 2017年7月17日
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年6月1日
Arxiv
6+阅读 · 2018年2月26日
VIP会员
相关论文
Mesh R-CNN
Arxiv
4+阅读 · 2019年6月6日
How to Fine-Tune BERT for Text Classification?
Arxiv
13+阅读 · 2019年5月14日
Universal Transformers
Arxiv
5+阅读 · 2019年3月5日
Relational recurrent neural networks
Arxiv
8+阅读 · 2018年6月28日
Arxiv
3+阅读 · 2018年6月1日
Arxiv
6+阅读 · 2018年2月26日
Top
微信扫码咨询专知VIP会员