有一份对19个行业和9个业务职能的400多个用例进行分析的报告突出了先进人工智能技术的广泛应用和重大经济潜力。
人工智能(AI)作为数字时代的转型技术脱颖而出——人工智能在整个经济中的实际应用正在快速增长。为了撰写《人工智能前沿记:数百用例知道多》这一简报,我们将传统分析和更新的“深度学习”技术及其可以解决的问题映射到公司和组织的400多个特定用例中。借助麦肯锡全球研究院的研究以及麦肯锡分析人工智能的应用经验,我们评估了跨行业和业务职能的高级人工智能技术的实际应用和经济潜力。我们的研究结果强调了在整个经济中应用深度学习技术的巨大潜力,但随着技术的不断发展,我们也意识到一些挥之不去的局限和障碍(以及未来的机遇)。最终,人工智能的价值不在于模型本身,而在于公司是否有能力使用人工智能。
即使我们意识到使用人工智能技术的经济潜力,数据的使用也必须始终考虑到数据安全性、隐私和潜在的偏见等等的问题,这一点不得不强调。
将人工智能技术对应到问题类型
随着人工智能技术的发展,到底是哪种技术构成了人工智能的定义也在不断发展。出于本简报的目的,我们将使用人工神经网络的深度学习技术的简称为人工智能。我们还考察了其它机器学习技术和传统分析技术。
神经网络(neural network)是机器学习技术的一部分。神经网络本质上是基于通过模拟方式连接的“神经元单元(neural unit)”的人工智能系统,这些系统粗略地模拟了神经元在大脑中的相互作用方式。自20世纪40年代以来,人们已经研究了受神经连接启发的计算模型,并且随着计算机处理能力的提高和大型训练数据集成功地用于分析输入数据(如图像、视频和语音)而再次声名大噪。人工智能从业者将这些技术称为“深度学习”,因为神经网络具有很多(“深”)层的模拟互连神经元(simulated interconnected neuron)。
我们分析了三种神经网络技术的应用和价值:
• 前馈神经网络(feed forward neural network):最简单的人工神经网络。在这种架构中,信息仅在一个方向上移动,从输入层向前移动,经过“隐藏”层移动到输出层。网络中没有环路(loop)。首个单神经元网络是由人工智能先驱Frank Rosenblatt在1958年提出的。虽然这个想法并不新鲜,但计算能力、训练算法和可用数据的发展促成了高于以往的性能水平。
• 递归神经网络(Recurrent neural network,RNN):人工神经网络的神经元之间的连接包含环路,这些环路非常适用于处理一连串输入。2016年11月,牛津大学的研究人员报告说,基于递归神经网络(和卷积神经网络)的系统在唇读(reading lips)方面达到了95%的准确率,优于经验丰富的人类唇读者,后者的准确率为52%。
• 人工神经网络,其中神经层之间的连接受到动物视觉皮层(animal visual cortex)的启发,动物视觉皮层是大脑处理图像的部分,非常适用于感知方面的任务。
对于我们的用例,我们还考虑了另外两种技术——生成对抗网络(GAN)和强化学习——但未将它们包含在我们对人工智能的潜在价值评估中,因为生成对抗网络这一新生技术尚未得到广泛应用。
生成对抗网络(GAN)使用两个神经网络在零和游戏(zero-sum game)框架中相互竞争(因此是“对抗”)。生成对抗网络能学会模拟各种数据分布(例如文本、语音和图像),因此,一旦没有数据分布可用的话,该网络就能生成测试数据集,这很有用。
强化学习是机器学习的子领域,在强化学习中,系统通过接收虚拟“奖励”或“惩罚”来得到训练,这实际上是通过试错法来学习。谷歌DeepMind已经使用强化学习来开发可以玩游戏的系统(包括视频游戏和围棋(Go)等棋类游戏),其能力胜过人类冠军棋手。
在业务环境中,这些分析技术可用来解决现实问题。最普遍的问题类型是分类、连续评估(continuous estimation)和聚类(clustering)。侧栏中提供了问题类型及其定义的列表。
用例带来的洞察
我们整理并分析了19个行业和9个业务职能部门的400多个用例。这些用例为特定部门里的领域带来了这样的洞察——深度神经网络在这些领域里所能创造的最大价值,这些神经网络相较于传统分析所能产生的增量提升,以及为了实现潜力而必须得到满足的贪婪的数据需求(就数量,种类和速度而论)。我们的用例库虽然范围很广,但并不详尽,可能会夸大或低估某些部门的潜力。我们将继续对它进行改进和扩充。
人工智能可用于改善现有用例性能的例子包括:
• 预测性维护(predictive maintenance):机器学习检测异常的能力。深度学习能分析大量高维数据(high dimensional data),因此它可以将现有的预防性维护系统(preventive maintenance system)提升到一个新的水平。如果将额外的数据(例如来自其它传感器的音频和图像数据,来自麦克风和摄像机等相对便宜的传感器也算)加入分层中,神经网络就可以增强并取代更传统的方法。人工智能能够预测故障并使有计划的干预措施成为可能,这些能力可以减少停机时间和运营成本,同时提高生产力。例如,人工智能可以用传统的分析技术延长货机的寿命,使其寿命大大超出预期,方法就是将飞机模型数据、维护记录、物联网传感器数据(例如发动机振动数据的异常检测)和表明发动机状况的图像和视频通通结合起来。
• 人工智能驱动的物流优化可以通过实时预测和行为指导来降低成本。物流中使用人工智能技术(如连续评估)可以为各个部门带来实实在在的增值。人工智能可以优化运输路线,从而提高燃油效率并缩短交付时间。有一家欧洲货运公司将燃油成本降低了15%,其方法五花八门,比如使用能同时监控车辆性能和驾驶员行为的传感器,让司机接收实时指导(包括何时加速或减速)、优化油耗并降低维护成本。
• 人工智能可以成为解决客服管理和个性化服务方面的难题的有用工具。因为人工智能技术的应用,呼叫中心管理和呼叫路由(call routing)中的语音识别得到了改善,为客户提供了更加无缝的体验(和更高效的处理能力)。这些功能不仅仅停留在文字上。例如,对音频进行深度学习分析使系统能评估客户的情绪;如果客户对系统反应不佳,呼叫会自动再路由到接线员和管理员。人工智能技术在营销和销售的其它领域也能产生重大影响。将客户人口统计、过去的交易数据与社交媒体监控相结合有助于生成个性化的产品推荐。面向个人客户的“下一个要购买的产品(next product to buy)”推荐(亚马逊和网飞等公司已成功实施)可以使销售转化率提高两倍。
人工智能的使用场合中,有三分之二用于提高现有分析用例的性能
在我们研究的69%的用例中,深度神经网络可用于提高性能,其提升性能的能力优于其它分析技术。我们将不得不使用神经网络的情况姑且称为“绿地(greenfield)”案例,这种情况仅占总数的16%。对于剩下的15%,人工神经网络在性能上略胜于其它分析技术,原因之一是数据的局限导致这些案例不适用于深度学习。
绿地人工智能解决方案(Greenfield AI solution)在客户服务管理等业务领域以及数据丰富且数量庞大并且有时会整合人类反应的一些行业中非常普遍。在各大行业中,我们发现医疗领域里绿地用例尤其多。这其中有一些用例涉及疾病诊断和护理改善,这些用例还依赖于包含图像和视频输入的富数据集(MRI发来的图像和富数据集也算)。
平均来看,我们的用例表明,现代深度学习人工智能技术对附加值的提升可能远高于传统分析技术,高出30%到128%不等,具体要看行业。
然而,在我们掌握的大量用例中,由于人工智能在某些情况下潜力有限,所以传统分析和机器学习技术继续支撑着行业(包括保险、制药和医疗产品以及电信)中很大一部分的价值创造潜力,人工智能则局限于某些环境中。在某种程度上,这归咎于这些行业使用数据的方式,归咎于监管问题。
深度学习的数据需求远远高于其它分析
要在大多数应用中高效使用神经网络就需要大型的经过标记的训练数据集,同时充分使用计算基础设施。此外,这些深度学习技术特别强大,能从复杂的多维数据类型(如图像,视频,音频或语音)中提取模式。
深度学习方法需要成千上万的数据记录才能使模型在分类任务中表现得相对较好,在某些情况下,该方法要数百万的数据记录才可以达到人类的表现水平。根据一个估计,有监督深度学习算法(supervised deep-learning algorithm)往往能达到可接受的性能(每个类别有大约5,000个标记示例),并且当人们用包含至少1,000万个标记示例的数据来训练有监督深度学习算法时,该算法能达到或超越人类的表现水平。在目前使用高级分析的某些情况下,可用的数据非常多(每个数据集有数百万甚至数十亿行),以至于人工智能非用不可。但是,如果数据量阈值未达到,人工智能可能无法为传统的分析技术增值。
对于很多业务用例而言,这些海量数据集很难获取或创建,并且标记仍是一个难题。当前大多数人工智能模型都是通过“有监督学习”进行训练的,有监督学习要求人类对基础数据进行标记和分类。然而,有前景的新技术将克服这些数据瓶颈(例如强化学习,生成对抗网络,转移学习和“一次性学习”),使训练有素的人工智能模型可以根据少量(有时只有一个)真实的演示或示例来学习主题。
组织必须采用和实施能大规模收集和整合数据的战略。即使组织有大型数据集,它们也必须防止“过拟合(overfitting)”,即模型与训练集的“嘈杂的”特征或随机特征过于匹配,过拟合会导致未来性能缺乏相对的准确性,它们还要防止“欠拟合(underfitting)”,即模型无法捕获所有相关功能。将客户群和渠道之间的数据连接起来,而不是让数据在孤岛中衰败,这对于创造价值尤为重要。
人工智能要实现全部潜力就需要各种数据类型(包括图像、视频和音频)
神经人工智能技术(Neural AI technique)擅于分析图像、视频和音频数据类型,因为它们具有从业者称为“高维度”的复杂的多维性质。神经网络擅长处理高维度,因为网络中的多个层可以学会表述数据中存在的很多不同特征。因此,对于人脸识别来说,网络中的第一层可以关注原始像素,下一层则关注边缘和线条,再下一层则关注通用面部特征,而最后一层则可以识别人脸。这些神经网络技术不同于前几代人工智能(前几代人工智能往往需要人的专业知识来做“特征工程”),它们往往能够学会在模拟神经网络中表述这些特征,成为训练过程的一部分。
除了和数据量和数据有关的各种问题,速度也是一个需求:人工智能技术需要重新训练模型,以匹配可能的条件变化,因此训练数据必须经常刷新。在三分之一的案例中,模型至少每月更新一次,几乎四分之一的案例需要每天更新;在营销和销售以及供应链管理和制造方面尤其如此。
确定人工智能潜在价值的大小
我们估计,我们在本次简报中引用的人工智能技术有可能在19个行业的9个业务职能中每年创造3.5万亿至5.8万亿美元的价值。这构成了每年总体影响力(即9.5万亿到15.5万亿)约40%的比重,这个比重也许可以由所有的分析技术实现。
按行业来看,我们估计人工智能的潜在价值相当于2016年收入的1%至9%。按行业收入百分比衡量的价值在不同行业之间大不相同,这取决于具体的适用用例、大量的复杂的数据的可用性,以及监管和其它限制因素。
这些数字不是某个特定时期的预测,但它们表明了高级分析所代表的全球经济的巨大潜力。
从我们研究过的用例中,我们发现使用人工智能产生的最大潜在价值影响都包含在以销售收入为导向的功能中,例如营销和销售,也包含在以损益表底线为导向的运营功能,包括供应链管理和制造业。
零售和高科技等消费行业往往在营销和销售人工智能方面的应用程序中更有潜力,因为业务和客户之间的频繁数字互动会产生更大的数据集,以便用上人工智能技术。特别是电子商务平台将受益。这是因为这些平台可以轻而易举地收集客户信息(例如点击率数据或客户在网页上花费的时间),然后能动态、实时地为每个客户定制促销、价格和产品。
以下是我们看到的受到人工智能影响的三个部门的简介:
• 在零售业,营销和销售是人工智能能发挥最大潜在价值的领域,在该职能范围内,定价和促销以及客户服务管理是主要的价值领域。我们的用例表明,使用客户数据将促销活动个性化(例如,包括每天定制个别优惠)就可以使实体零售商的增量销售额增加1%到2%。
• 在消费品中,供应链管理是可以从人工智能部署中受益的关键功能。在我们所列举的用例中,我们发现基于需求的潜在因果驱动因素(而不是先前的结果)的预测如何能够将预测准确性提高10%到20%,这意味着库存成本可能会降低5%,收入可能会增加2%到3%。
• 在银行业,尤其是零售银行业(retail banking),人工智能在营销和销售方面具有巨大的价值潜力,丝毫不亚于它在零售业的价值潜力。然而,由于评估和管理银行业风险的重要性(例如贷款承保和欺诈检测),人工智能在提高银行业风险绩效方面所具有的价值潜力要高于很多其它行业。
通往产生影响力和价值的道路
人工智能正在吸引越来越多的企业投资,随着技术的发展,可发掘的潜在价值很可能会增长。然而,到目前为止,只有约20%意识到人工智能重要性的公司目前在核心业务流程中使用其中一项或多项技术,或大规模使用这些技术。
尽管人工智能技术前景广阔,它仍有很多需要克服的局限。这些局限包括上面列出的苛刻的数据需求,还包括一下五个局限:
• 第一个局限是标记训练数据的挑战,这些数据往往必须手动完成,它们对于监督学习是必要的。有前景的新技术正在不断涌现,旨在应对这一挑战,例如强化学习和流内监督(in-stream supervision),在这些技术里,数据可以在自然使用过程中进行标记。
• 第二个局限是难以获得足够大且全面的数据集用于培训;对于很多商业用例来说,创建或获取此类海量数据集可能很困难——例如,有限的临床试验数据可以更准确地预测医疗治疗结果。
• 第三个局限是难以用人类的话来解释大型复杂模型得出来的结果:为什么达成了某个决定?例如,医疗以及汽车和航空航天工业中的产品认证可能是一个障碍;除了其它限制因素外,监管机构往往希望规则和选择标准能够得到清楚的解释。
• 第四个局限是学习的普遍性:人工智能模型从一种情况转移到另一种情况时仍然存在困难。这意味着公司必须投入资源来训练新模型,即使是与之前类似的用例。迁移学习(人工智能模型在这里得到训练以完成某项任务,然后快速将学到的知识应用于类似但不同的活动)是对这一挑战的一个有前景的回应。
• 第五个局限涉及数据和算法偏差的风险。这个问题本质上涉及更具社交意义的忧虑,并且可能需要更广泛的步骤来解决,例如,要了解用来收集训练数据的流程以什么样的方式影响曾经受过它们训练的模型的行为。例如,当训练数据不代表应用人工智能模型的较大人口时,人们可能会引入非预期的偏差。因此,当人们将人脸识别应用到具有更多不同特征的群体时,在与人工智能开发者的人口统计相对应的面部群体上受到训练的人脸识别模型可能会遇到困难。最近关于恶意使用人工智能的报告突出了一系列安全威胁,如复杂的入侵自动化、超个性化的虚假政治宣传活动等等。
组织面临的与技术、流程、人员有关的难题可能会减缓或阻碍人工智能的采用
计划采用重要深度学习工作的组织要考虑一系列有关如何做到这一点的选择。选择范围包括构建完整的内部人工智能功能,将这些功能外包或利用人工智能即服务(AI-as-a-service)产品。
公司要根据计划要构建的用例来制定一个能产生结果和预测的数据计划,这些数据计划可以输入设计的界面,供人类在交易系统上进行操作。关键的数据工程难题包括数据创建或数据获取,定义数据本体(data ontology)以及构建适当的数据“管道”。鉴于深度学习的重要计算要求,因为法规或安全问题,有些组织将维护自己的数据中心,但资本支出可能相当大(特别是在使用专用硬件时)。云供应商提供另一种选择。
如果组织在数字化方面不成熟,流程也可能会成为成功采用的障碍。在技术方面,组织必须开发强大的数据维护和治理流程,并实施现代软件规程,如敏捷(Agile)和开发运维(DevOps)。在规模方面,更难的是克服“最后一英里”问题,即确保人工智能提供的卓越洞察在企业人员和流程的行为中得到实例化。
从人的阵线来说,深度神经网络的大部分建设和优化仍然是一种艺术,因此需要真正的专家才能提供逐步改进的性能。这些技能供不应求;根据一些估算,具备解决严重人工智能问题所需的技能的人不到10,000个。科技巨头们纷纷展开激烈的人才争夺战。
人工智能似乎是一个难以捉摸的业务用例
在人工智能技术和数据可用且价值得到明确验证的情况下,组织就可以抓住机遇。在某些领域,当今的技术可能已经成熟并且数据已经可用,但考虑到人工智能可能生成的价值,部署人工智能的成本和复杂性可能根本不值得。例如,航空公司可以使用人脸识别和其它生物识别扫描技术来简化登机流程,但这么做所带来的价值可能无法证明与隐私和个人身份有关的成本和问题的合理性。
同样,我们看到了很多潜在案例,在这些案例中,数据和技术日趋成熟,但价值尚不明朗。最不可预测的情况是,数据(类型和数量)或技术都太新,且未经检验,以至于无法知道数据到底能发掘多少价值。例如,在医疗方面,如果人工智能能在惊人的精细度上再接再厉(我们要做X光分析才能看得到),将这种精度拓宽到医疗诊断乃至医疗程序上,这种经济价值是不可估量的。与此同时,抵达这一前沿的复杂性和成本也令人生畏。除其他问题外,这还需要完美的技术执行和解决医疗事故保险和其他法律问题。
社会问题和法规也可能限制人工智能的使用。监管限制在与个人身份信息相关的使用案例中尤为普遍。在一些关于某些在线平台上个人数据的使用和商业化的公众辩论日益激烈的时期,这一点尤为重要。个人信息的使用和存储在银行、医疗、医药和医疗产品以及公共和社会部门等部门尤为敏感。除了解决这些问题之外,企业和其它人工智能数据用户还要继续发展与数据使用相关的业务模式,以解决社会关注的问题。此外,监管要求和限制因国家和部门而异。
对利益相关者的影响
正如我们所看到的,真正创造价值的是公司对人工智能模型的执行能力,而不是模型本身。在最后这一节,我们概述了研究人工智能技术提供者、人工智能技术的应用者和政策制定者的案例所隐含的一些高层次的影响,这些人两种情况都占了。
• 对于提供人工智能技术的公司来说:很多为其它公司开发或提供人工智能的公司在技术本身和数据科学家所需的数据方面具有相当大的优势,但这些公司可能缺乏对终端市场的深刻理解。了解人工智能跨部门和职能的价值潜力有助于塑造这些人工智能技术公司的投资组合。也就是说,它们不一定只是优先考虑潜在价值最高的领域。相反,它们可以将所有的资源(对竞争格局的互补分析、对自身现有优势的互补分析、部门或职能领域的知识和客户关系)结合起来,以打造投资组合。在技术方面,将问题类型和技术对应到具有潜在价值的部门和职能对具有特定专业领域的公司所要关注的重点具有指导作用。
• 很多设法在运营中采用人工智能的公司已开始在业务中进行机器学习和人工智能实验。在推出更多试点项目或测试解决方案之前,走出藩篱并采取整体方法来解决问题,进而在整个企业中确立一系列重要的计划(包括人工智能和更广泛的分析和数字技术),这是十分有用的。要让业务负责人确立适当的投资组合,重要的是要了解哪些用例和领域有望为公司带来最大价值,以及需要对哪些人工智能和其它分析技术进行部署,获取这个价值。这个投资组合必须得到两方面的启迪,即在哪里能践行理论价值以及如何在整个企业范围内大规模部署技术。分析技术如何扩展的问题不仅取决于技术本身,更取决于公司的技能、能力和数据。公司要考虑“最初一英里”(和“最后一英里”)方面的工作,即如何获取和组织数据和工作,或者如何将人工智能模型的输出整合到工作流程中(从临床试验经理和销售队伍管理者乃至采购人员)。麦肯锡全球研究院以往的研究表明,人工智能领导者在最初一英里和最后一英里的这些工作中投入了大量资金。
• 政策制定者要在支持人工智能技术的发展和管理不良行为者的风险之间取得平衡。他们有意支持广泛采用,因为人工智能可以带来更高的劳动生产率、经济增长和社会繁荣。他们的手段包括对研发的公共投资以及对各种培训计划的支持,这些手段有助于培养人才。在数据问题上,政府可以通过开放的数据计划直接刺激训练数据的开发。开放公共部门数据可以刺激私营部门的创新。设立通用数据标准也大有裨益。人工智能也给政策制定者提出了新的问题,即传统的工具和框架可能不够用的问题。因此,人们可能需要一些政策创新来应对这些快速发展的技术。但鉴于商业、经济和社会受到了巨大的积极影响,其目标不应该只限制人工智能的采用和应用,而是鼓励人工智能得到有益和安全的使用。
来源:企业网D1Net
文章是《Nature》杂志为纪念人工智能60周年而专门推出的深度学习综述,也是Hinton、LeCun和Bengio三位大神首次合写同一篇文章。该综述在深度学习领域的重要性不言而喻,可以说是所有人入门深度学习的必读作品。
本文上半部分深入浅出介绍深度学习的基本原理和核心优势,下半部分则详解CNN、分布式特征表示、RNN及其不同的应用,并对深度学习技术的未来发展进行展望。
原文链接:
https://www.cs.toronto.edu/~hinton/absps/NatureDeepReview.pdf
论文摘要
深度学习可以让那些拥有多个处理层的计算模型来学习具有多层次抽象的数据的表示。这些方法在许多方面都带来了显著的改善,包括较先进的语音识别、视觉对象识别、对象检测和许多其它领域,例如药物发现和基因组学等。深度学习能够发现大数据中的复杂结构。它是利用BP算法来完成这个发现过程的。BP算法能够指导机器如何从前一层获取误差而改变本层的内部参数,这些内部参数可以用于计算表示。深度卷积网络在处理图像、视频、语音和音频方面带来了突破,而递归网络在处理序列数据,比如文本和演讲方面表现出了闪亮的一面。
机器学习技术在现代社会的各个方面表现出了强大的功能:从Web搜索到社会网络内容过滤,再到电子商务网站上的商品推荐都有涉足。并且它越来越多地出现在消费品中,比如相机和智能手机。
机器学习系统被用来识别图片中的目标,将语音转换成文本,匹配新闻元素,根据用户兴趣提供职位或产品,选择相关的搜索结果。逐渐地,这些应用使用一种叫深度学习的技术。传统的机器学习技术在处理未加工过的数据时,体现出来的能力是有限的。
几十年来,想要构建一个模式识别系统或者机器学习系统,需要一个精致的引擎和相当专业的知识来设计一个特征提取器,把原始数据(如图像的像素值)转换成一个适当的内部特征表示或特征向量,子学习系统,通常是一个分类器,对输入的样本进行检测或分类。特征表示学习是一套给机器灌入原始数据,然后能自动发现需要进行检测和分类的表达的方法。
深度学习就是一种特征学习方法,把原始数据通过一些简单的但是非线性的模型转变成为更高层次的,更加抽象的表达。通过足够多的转换的组合,非常复杂的函数也可以被学习。
对于分类任务,高层次的表达能够强化输入数据的区分能力方面,同时削弱不相关因素。比如,一副图像的原始格式是一个像素数组,那么在第一层上的学习特征表达通常指的是在图像的特定位置和方向上有没有边的存在。第二层通常会根据那些边的某些排放而来检测图案,这时候会忽略掉一些边上的一些小的干扰。第三层或许会把那些图案进行组合,从而使其对应于熟悉目标的某部分。随后的一些层会将这些部分再组合,从而构成待检测目标。
深度学习的核心方面是,上述各层的特征都不是利用人工工程来设计的,而是使用一种通用的学习过程从数据中学到的。
深度学习正在取得重大进展,解决了人工智能界的尽较大努力很多年仍没有进展的问题。它已经被证明,它能够擅长发现高维数据中的复杂结构,因此它能够被应用于科学、商业和政府等领域。除了在图像识别、语音识别等领域打破了纪录,它还在另外的领域击败了其他机器学习技术,包括预测潜在的药物分子的活性、分析粒子加速器数据、重建大脑回路、预测在非编码DNA突变对基因表达和疾病的影响。
也许更令人惊讶的是,深度学习在自然语言理解的各项任务中产生了非常可喜的成果,特别是主题分类、情感分析、自动问答和语言翻译。我们认为,在不久的将来,深度学习将会取得更多的成功,因为它需要很少的手工工程,它可以很容易受益于可用计算能力和数据量的增加。目前正在为深度神经网络开发的新的学习算法和架构只会加速这一进程。
监督学习
机器学习中,不论是否是深层,最常见的形式是监督学习。
试想一下,我们要建立一个系统,它能够对一个包含了一座房子、一辆汽车、一个人或一个宠物的图像进行分类。我们先收集大量的房子,汽车,人与宠物的图像的数据集,并对每个对象标上它的类别。
在训练期间,机器会获取一副图片,然后产生一个输出,这个输出以向量形式的分数来表示,每个类别都有一个这样的向量。我们希望所需的类别在所有的类别中具有较高的得分,但是这在训练之前是不太可能发生的。通过计算一个目标函数可以获得输出分数和期望模式分数之间的误差(或距离)。然后机器会修改其内部可调参数,以减少这种误差。这些可调节的参数,通常被称为权值,它们是一些实数,可以被看作是一些“旋钮”,定义了机器的输入输出功能。
在典型的深学习系统中,有可能有数以百万计的样本和权值,和带有标签的样本,用来训练机器。为了正确地调整权值向量,该学习算法计算每个权值的梯度向量,表示了如果权值增加了一个很小的量,那么误差会增加或减少的量。权值向量然后在梯度矢量的相反方向上进行调整。我们的目标函数,所有训练样本的平均,可以被看作是一种在权值的高维空间上的多变地形。负的梯度矢量表示在该地形中下降方向最快,使其更接近于最小值,也就是平均输出误差低较低的地方。
在实际应用中,大部分从业者都使用一种称作随机梯度下降的算法(SGD)。它包含了提供一些输入向量样本,计算输出和误差,计算这些样本的平均梯度,然后相应的调整权值。通过提供小的样本集合来重复这个过程用以训练网络,直到目标函数停止增长。它被称为随机的是因为小的样本集对于全体样本的平均梯度来说会有噪声估计。这个简单过程通常会找到一组不错的权值,同其他精心设计的优化技术相比,它的速度让人惊奇。训练结束之后,系统会通过不同的数据样本——测试集来显示系统的性能。这用于测试机器的泛化能力——对于未训练过的新样本的识别能力。
当前应用中的许多机器学习技术使用的是线性分类器来对人工提取的特征进行分类。一个2类线性分类器会计算特征向量的加权和。当加权和超过一个阈值之后,输入样本就会被分配到一个特定的类别中。从20世纪60年代开始,我们就知道了线性分类器只能够把样本分成非常简单的区域,也就是说通过一个超平面把空间分成两部分。
但像图像和语音识别等问题,它们需要的输入-输出函数要对输入样本中不相关因素的变化不要过于的敏感,如位置的变化,目标的方向或光照,或者语音中音调或语调的变化等,但是需要对于一些特定的微小变化非常敏感(例如,一只白色的狼和跟狼类似的白色狗——萨莫耶德犬之间的差异)。在像素这一级别上,两条萨莫耶德犬在不同的姿势和在不同的环境下的图像可以说差异是非常大的,然而,一只萨摩耶德犬和一只狼在相同的位置并在相似背景下的两个图像可能就非常类似。
图1 多层神经网络和BP算法
多层神经网络(用连接点表示)可以对输入空间进行整合,使得数据(红色和蓝色线表示的样本)线性可分。注意输入空间中的规则网格(左侧)是如何被隐藏层转换的(转换后的在右侧)。这个例子中只用了两个输入节点,两个隐藏节点和一个输出节点,但是用于目标识别或自然语言处理的网络通常包含数十个或者数百个这样的节点。获得C.Olah(http://colah.github.io/) 的许可后重新构建的这个图。
链式法则告诉我们两个小的变化(x和y的微小变化,以及y和z的微小变化)是怎样组织到一起的。x的微小变化量Δx首先会通过乘以∂y/∂x(偏导数)转变成y的变化量Δy。类似的,Δy会给z带来改变Δz。通过链式法则可以将一个方程转化到另外的一个——也就是Δx通过乘以∂y/∂x和∂z/∂x得到Δz的过程。当x,y,z是向量的时候,可以同样处理(使用雅克比矩阵)。
具有两个隐层一个输出层的神经网络中计算前向传播的公式。每个都有一个模块构成,用于反向传播梯度。在每一层上,我们首先计算每个节点的总输入z,z是前一层输出的加权和。然后利用一个非线性函数f(.)来计算节点的输出。简单期间,我们忽略掉了阈值项。神经网络中常用的非线性函数包括了最近几年常用的校正线性单元(ReLU)f(z) = max(0,z),和传统的sigmoids,比如f(z) = (exp(z) − exp(−z))/(exp(z) + exp(−z)) 和f(z) = 1/(1 + exp(−z))。
计算反向传播的公式。在隐层,我们计算每个输出单元产生的误差,这是由上一层产生的误差的加权和。然后我们将输出层的误差通过乘以梯度f(z)转换到输入层。在输出层上,每个节点的误差会用成本函数的微分来计算。如果节点l的成本函数是0.5*(yl-tl)^2, 那么节点的误差就是yl-tl,其中tl是期望值。一旦知道了∂E/∂zk的值,节点j的内星权向量wjk就可以通过yj ∂E/∂zk来进行调整。
一个线性分类器或者其他操作在原始像素上的浅层分类器不能够区分后两者,虽然能够将前者归为同一类。这就是为什么浅分类要求有良好的特征提取器用于解决选择性不变性困境——提取器会挑选出图像中能够区分目标的那些重要因素,但是这些因素对于分辨动物的位置就无能为力了。为了加强分类能力,可以使用泛化的非线性特性,如核方法,但这些泛化特征,比如通过高斯核得到的,并不能够使得学习器从学习样本中产生较好的泛化效果。
传统的方法是手工设计良好的特征提取器,这需要大量的工程技术和专业领域知识。但是如果通过使用通用学习过程而得到良好的特征,那么这些都是可以避免的了。这就是深度学习的关键优势。
深度学习的体系结构是简单模块的多层栈,所有(或大部分)模块的目标是学习,还有许多计算非线性输入输出的映射。栈中的每个模块将其输入进行转换,以增加表达的可选择性和不变性。比如说,具有一个5到20层的非线性多层系统能够实现非常复杂的功能,比如输入数据对细节非常敏感——能够区分白狼和萨莫耶德犬,同时又具有强大的抗干扰能力,比如可以忽略掉不同的背景、姿势、光照和周围的物体等。
用反向传播训练多层神经网络
在最早期的模式识别任务中,研究者的目标一直是使用可以训练的多层网络来替代经过人工选择的特征,虽然使用多层神经网络很简单,但是得出来的解很糟糕。直到20世纪80年代,使用简单的随机梯度下降来训练多层神经网络,这种糟糕的情况才有所改变。只要网络的输入和内部权值之间的函数相对平滑,使用梯度下降就凑效,梯度下降方法是在70年代到80年代期间由不同的研究团队独立发明的。
用来求解目标函数关于多层神经网络权值梯度的反向传播算法(BP)只是一个用来求导的链式法则的具体应用而已。反向传播算法的核心思想是:目标函数对于某层输入的导数(或者梯度)可以通过向后传播对该层输出(或者下一层输入)的导数求得(如图1)。反向传播算法可以被重复的用于传播梯度通过多层神经网络的每一层:从该多层神经网络的最顶层的输出(也就是改网络产生预测的那一层)一直到该多层神经网络的最底层(也就是被接受外部输入的那一层),一旦这些关于(目标函数对)每层输入的导数求解完,我们就可以求解每一层上面的(目标函数对)权值的梯度了。
很多深度学习的应用都是使用前馈式神经网络(如图1),该神经网络学习一个从固定大小输入(比如输入是一张图)到固定大小输出(例如,到不同类别的概率)的映射。从第一层到下一层,计算前一层神经元输入数据的权值的和,然后把这个和传给一个非线性激活函数。当前最流行的非线性激活函数是rectified linear unit(ReLU),函数形式:f(z)=max(z,0)。过去的几十年中,神经网络使用一些更加平滑的非线性函数,比如tanh(z)和1/(1+exp(-z)),但是ReLU通常会让一个多层神经网络学习的更快,也可以让一个深度网络直接有监督的训练(不需要无监督的pre-train)。
达到之前那种有pre-train的效果。通常情况下,输入层和输出层以外的神经单元被称为隐藏单元。隐藏层的作用可以看成是使用一个非线性的方式打乱输入数据,来让输入数据对应的类别在最后一层变得线性可分。
在20世纪90年代晚期,神经网络和反向传播算法被大多数机器学习团队抛弃,同时也不受计算机视觉和语音识别团队的重视。人们普遍认为,学习有用的、多级层次结构的、使用较少先验知识进行特征提取的这些方法都不靠谱。确切的说是因为简单的梯度下降会让整个优化陷入到不好的局部最小解。
实践中,如果在大的网络中,不管使用什么样的初始化条件,局部最小解并不算什么大问题,系统总是得到效果差不多的解。最近的理论和实验表明,局部最小解还真不是啥大问题。相反,解空间中充满了大量的鞍点(梯度为0的点),同时鞍点周围大部分曲面都是往上的。所以这些算法就算是陷入了这些局部最小值,关系也不太大。
2006年前后,CIFAR(加拿大高级研究院)把一些研究者聚集在一起,人们对深度前馈式神经网络重新燃起了兴趣。研究者们提出了一种非监督的学习方法,这种方法可以创建一些网络层来检测特征而不使用带标签的数据,这些网络层可以用来重构或者对特征检测器的活动进行建模。通过预训练过程,深度网络的权值可以被初始化为有意思的值。然后一个输出层被添加到该网络的顶部,并且使用标准的反向传播算法进行微调。这个工作对手写体数字的识别以及行人预测任务产生了显著的效果,尤其是带标签的数据非常少的时候。
使用这种与训练方法做出来的第一个比较大的应用是关于语音识别的,并且是在GPU上做的,这样做是因为写代码很方便,并且在训练的时候可以得到10倍或者20倍的加速。2009年,这种方法被用来映射短时间的系数窗口,该系统窗口是提取自声波并被转换成一组概率数字。它在一组使用很少词汇的标准的语音识别基准测试程序上达到了惊人的效果,然后又迅速被发展到另外一个更大的数据集上,同时也取得惊人的效果。从2009年到到2012年底,较大的语音团队开发了这种深度网络的多个版本并且已经被用到了安卓手机上。对于小的数据集来说,无监督的预训练可以防止过拟合,同时可以带来更好的泛化性能当有标签的样本很小的时候。一旦深度学习技术重新恢复,这种预训练只有在数据集合较少的时候才需要。
然后,还有一种深度前馈式神经网络,这种网络更易于训练并且比那种全连接的神经网络的泛化性能更好。这就是卷积神经网络(CNN)。当人们对神经网络不感兴趣的时候,卷积神经网络在实践中却取得了很多成功,如今它被计算机视觉团队广泛使用。
卷积神经网络
卷积神经网络被设计用来处理到多维数组数据的,比如一个有3个包含了像素值2-D图像组合成的一个具有3个颜色通道的彩色图像。很多数据形态都是这种多维数组的:1D用来表示信号和序列包括语言,2D用来表示图像或者声音,3D用来表示视频或者有声音的图像。卷积神经网络使用4个关键的想法来利用自然信号的属性:局部连接、权值共享、池化以及多网络层的使用。
图2 卷积神经网络内部
一个典型的卷积神经网络结构(如图2)是由一系列的过程组成的。最初的几个阶段是由卷积层和池化层组成,卷积层的单元被组织在特征图中,在特征图中,每一个单元通过一组叫做滤波器的权值被连接到上一层的特征图的一个局部块,然后这个局部加权和被传给一个非线性函数,比如ReLU。在一个特征图中的全部单元享用相同的过滤器,不同层的特征图使用不同的过滤器。使用这种结构处于两方面的原因。
首先,在数组数据中,比如图像数据,一个值的附近的值经常是高度相关的,可以形成比较容易被探测到的有区分性的局部特征。其次,不同位置局部统计特征不太相关的,也就是说,在一个地方出现的某个特征,也可能出现在别的地方,所以不同位置的单元可以共享权值以及可以探测相同的样本。在数学上,这种由一个特征图执行的过滤操作是一个离线的卷积,卷积神经网络也是这么得名来的。
卷积层的作用是探测上一层特征的局部连接,然而池化层的作用是在语义上把相似的特征合并起来,这是因为形成一个主题的特征的相对位置不太一样。一般地,池化单元计算特征图中的一个局部块的较大值,相邻的池化单元通过移动一行或者一列来从小块上读取数据,因为这样做就减少的表达的维度以及对数据的平移不变性。两三个这种的卷积、非线性变换以及池化被串起来,后面再加上一个更多卷积和全连接层。在卷积神经网络上进行反向传播算法和在一般的深度网络上是一样的,可以让所有的在过滤器中的权值得到训练。
深度神经网络利用的很多自然信号是层级组成的属性,在这种属性中高级的特征是通过对低级特征的组合来实现的。在图像中,局部边缘的组合形成基本图案,这些图案形成物体的局部,然后再形成物体。这种层级结构也存在于语音数据以及文本数据中,如电话中的声音,因素,音节,文档中的单词和句子。当输入数据在前一层中的位置有变化的时候,池化操作让这些特征表示对这些变化具有鲁棒性。
卷积神经网络中的卷积和池化层灵感直接来源于视觉神经科学中的简单细胞和复杂细胞。这种细胞的是以LNG-V1-V2-V4-IT这种层级结构形成视觉回路的。当给一个卷积神经网络和猴子一副相同的图片的时候,卷积神经网络展示了猴子下颞叶皮质中随机160个神经元的变化。卷积神经网络有神经认知的根源,他们的架构有点相似,但是在神经认知中是没有类似反向传播算法这种端到端的监督学习算法的。一个比较原始的1D卷积神经网络被称为时延神经网络,可以被用来识别语音以及简单的单词。
20世纪90年代以来,基于卷积神经网络出现了大量的应用。最开始是用时延神经网络来做语音识别以及文档阅读。这个文档阅读系统使用一个被训练好的卷积神经网络和一个概率模型,这个概率模型实现了语言方面的一些约束。20世纪90年代末,这个系统被用来美国超过10%的支票阅读上。后来,微软开发了基于卷积神经网络的字符识别系统以及手写体识别系统。20世纪90年代早期,卷积神经网络也被用来自然图形中的物体识别,比如脸、手以及人脸识别(face recognition )。
使用深度卷积网络进行图像理解
21世纪开始,卷积神经网络就被成功的大量用于检测、分割、物体识别以及图像的各个领域。这些应用都是使用了大量的有标签的数据,比如交通信号识别,生物信息分割,面部探测,文本、行人以及自然图形中的人的身体部分的探测。近年来,卷积神经网络的一个重大成功应用是人脸识别。
值得一提的是,图像可以在像素级别进行打标签,这样就可以应用在比如自动电话接听机器人、自动驾驶汽车等技术中。像Mobileye以及NVIDIA公司正在把基于卷积神经网络的方法用于汽车中的视觉系统中。其它的应用涉及到自然语言的理解以及语音识别中。
图3 从图像到文字
尽管卷积神经网络应用的很成功,但是它被计算机视觉以及机器学习团队开始重视是在2012年的ImageNet竞赛。在该竞赛中,深度卷积神经网络被用在上百万张网络图片数据集,这个数据集包含了1000个不同的类。该结果达到了前所未有的好,几乎比当时较好的方法降低了一半的错误率。这个成功来自有效地利用了GPU、ReLU、一个新的被称为dropout的正则技术,以及通过分解现有样本产生更多训练样本的技术。这个成功给计算机视觉带来一个革命。如今,卷积神经网络用于几乎全部的识别和探测任务中。最近一个更好的成果是,利用卷积神经网络结合回馈神经网络用来产生图像标题。
如今的卷积神经网络架构有10-20层采用ReLU激活函数、上百万个权值以及几十亿个连接。然而训练如此大的网络两年前就只需要几周了,现在硬件、软件以及算法并行的进步,又把训练时间压缩到了几小时。
基于卷积神经网络的视觉系统的性能已经引起了大型技术公司的注意,比如Google、Facebook、Microsoft、IBM,yahoo!、Twitter和Adobe等,一些快速增长的创业公司也同样如是。
卷积神经网络很容易在芯片或者现场可编程门阵列(FPGA)中高效实现,许多公司比如NVIDIA、Mobileye、Intel、Qualcomm以及Samsung,正在开发卷积神经网络芯片,以使智能机、相机、机器人以及自动驾驶汽车中的实时视觉系统成为可能。
分布式特征表示与语言处理
与不使用分布式特征表示(distributed representations )的经典学习算法相比,深度学习理论表明深度网络具有两个不同的巨大的优势。这些优势来源于网络中各节点的权值,并取决于具有合理结构的底层生成数据的分布。首先,学习分布式特征表示能够泛化适应新学习到的特征值的组合(比如,n元特征就有2n种可能的组合)。其次,深度网络中组合表示层带来了另一个指数级的优势潜能(指数级的深度)。
多层神经网络中的隐层利用网络中输入的数据进行特征学习,使之更加容易预测目标输出。下面是一个很好的示范例子,比如将本地文本的内容作为输入,训练多层神经网络来预测句子中下一个单词。内容中的每个单词表示为网络中的N分之一的向量,也就是说,每个组成部分中有一个值为1其余的全为0。在第一层中,每个单词创建不同的激活状态,或单词向量(如图4)。在语言模型中,网络中其余层学习并转化输入的单词向量为输出单词向量来预测句子中下一个单词,可以通过预测词汇表中的单词作为文本句子中下一个单词出现的概率。网络学习了包含许多激活节点的、并且可以解释为词的独立特征的单词向量,正如第一次示范的文本学习分层表征文字符号的例子。这些语义特征在输入中并没有明确的表征。
而是在利用“微规则”(‘micro-rules’,本文中直译为:微规则)学习过程中被发掘,并作为一个分解输入与输出符号之间关系结构的好的方式。当句子是来自大量的真实文本并且个别的微规则不可靠的情况下,学习单词向量也一样能表现得很好。利用训练好的模型预测新的事例时,一些概念比较相似的词容易混淆,比如星期二(Tuesday)和星期三(Wednesday),瑞典(Sweden)和挪威(Norway)。这样的表示方式被称为分布式特征表示,因为他们的元素之间并不互相排斥,并且他们的构造信息对应于观测到的数据的变化。这些单词向量是通过学习得到的特征构造的,这些特征不是由专家决定的,而是由神经网络自动发掘的。从文本中学习得单词向量表示现在广泛应用于自然语言中。
图4 词向量学习可视化
特征表示问题争论的中心介于对基于逻辑启发和基于神经网络的认识。在逻辑启发的范式中,一个符号实体表示某一事物,因为其的属性与其他符号实体相同或者不同。该符号实例没有内部结构,并且结构与使用是相关的,至于理解符号的语义,就必须与变化的推理规则合理对应。相反地,神经网络利用了大量活动载体、权值矩阵和标量非线性化,来实现能够支撑简单容易的、具有常识推理的快速“直觉”功能。
在介绍神经语言模型前,简述下标准方法,其是基于统计的语言模型,该模型没有使用分布式特征表示。而是基于统计简短符号序列出现的频率增长到N(N-grams,N元文法)。可能的N-grams的数字接近于VN,其中V是词汇表的大小,考虑到文本内容包含成千上万个单词,所以需要一个非常大的语料库。N-grams将每个单词看成一个原子单元,因此不能在语义相关的单词序列中一概而论,然而神经网络语言模型可以,是因为他们关联每个词与真是特征值的向量,并且在向量空间中语义相关的词彼此靠近(图4)。
递归神经网络
首次引入反向传播算法时,最令人兴奋的便是使用递归神经网络(recurrent neural networks,下文简称RNNs)训练。对于涉及到序列输入的任务,比如语音和语言,利用RNNs能获得更好的效果。RNNs一次处理一个输入序列元素,同时维护网络中隐式单元中隐式的包含过去时刻序列元素的历史信息的“状态向量”。如果是深度多层网络不同神经元的输出,我们就会考虑这种在不同离散时间步长的隐式单元的输出,这将会使我们更加清晰怎么利用反向传播来训练RNNs(如图5,右)。
图5 递归神经网络
RNNs是非常强大的动态系统,但是训练它们被证实存在问题的,因为反向传播的梯度在每个时间间隔内是增长或下降的,所以经过一段时间后将导致结果的激增或者降为零。
由于先进的架构和训练方式,RNNs被发现可以很好的预测文本中下一个字符或者句子中下一个单词,并且可以应用于更加复杂的任务。例如在某时刻阅读英语句子中的单词后,将会训练一个英语的“编码器”网络,使得隐式单元的最终状态向量能够很好地表征句子所要表达的意思或思想。这种“思想向量”(thought vector)可以作为联合训练一个法语“编码器”网络的初始化隐式状态(或者额外的输入),其输出为法语翻译首单词的概率分布。
如果从分布中选择一个特殊的首单词作为编码网络的输入,将会输出翻译的句子中第二个单词的概率分布,并直到停止选择为止。总体而言,这一过程是根据英语句子的概率分布而产生的法语词汇序列。这种简单的机器翻译方法的表现甚至可以和较先进的(state-of-the-art)的方法相媲美,同时也引起了人们对于理解句子是否需要像使用推理规则操作内部符号表示质疑。这与日常推理中同时涉及到根据合理结论类推的观点是匹配的。
类比于将法语句子的意思翻译成英语句子,同样可以学习将图片内容“翻译”为英语句子(如图3)。这种编码器是可以在最后的隐层将像素转换为活动向量的深度卷积网络(ConvNet)。解码器与RNNs用于机器翻译和神经网络语言模型的类似。近来,已经掀起了一股深度学习的巨大兴趣热潮(参见文献[86]提到的例子)。
RNNs一旦展开(如图5),可以将之视为一个所有层共享同样权值的深度前馈神经网络。虽然它们的目的是学习长期的依赖性,但理论的和经验的证据表明很难学习并长期保存信息。
为了解决这个问题,一个增大网络存储的想法随之产生。采用了特殊隐式单元的LSTM(long short-termmemory networks)被首先提出,其自然行为便是长期的保存输入。一种称作记忆细胞的特殊单元类似累加器和门控神经元:它在下一个时间步长将拥有一个权值并联接到自身,拷贝自身状态的真实值和累积的外部信号,但这种自联接是由另一个单元学习并决定何时清除记忆内容的乘法门控制的。
LSTM网络随后被证明比传统的RNNs更加有效,尤其当每一个时间步长内有若干层时,整个语音识别系统能够完全一致的将声学转录为字符序列。目前LSTM网络或者相关的门控单元同样用于编码和解码网络,并且在机器翻译中表现良好。
过去几年中,几位学者提出了不同的提案用于增强RNNs的记忆模块。提案中包括神经图灵机,其中通过加入RNNs可读可写的“类似磁带”的存储来增强网络,而记忆网络中的常规网络通过联想记忆来增强。记忆网络在标准的问答基准测试中表现良好,记忆是用来记住稍后要求回答问题的事例。
除了简单的记忆化,神经图灵机和记忆网络正在被用于那些通常需要推理和符号操作的任务,还可以教神经图灵机“算法”。除此以外,他们可以从未排序的输入符号序列(其中每个符号都有与其在列表中对应的表明优先级的真实值)中,学习输出一个排序的符号序列。可以训练记忆网络用来追踪一个设定与文字冒险游戏和故事的世界的状态,回答一些需要复杂推理的问题。在一个测试例子中,网络能够正确回答15句版的《指环王》中诸如“Frodo现在在哪?”的问题。
深度学习的未来展望
无监督学习对于重新点燃深度学习的热潮起到了促进的作用,但是纯粹的有监督学习的成功盖过了无监督学习。在本篇综述中虽然这不是我们的重点,我们还是期望无监督学习在长期内越来越重要。无监督学习在人类和动物的学习中占据主导地位:我们通过观察能够发现世界的内在结构,而不是被告知每一个客观事物的名称。
人类视觉是一个智能的、基于特定方式的利用小或大分辨率的视网膜中央窝与周围环绕区域对光线采集成像的活跃的过程。我们期望未来在机器视觉方面会有更多的进步,这些进步来自那些端对端的训练系统,并结合ConvNets和RNNs,采用增强学习来决定走向。结合了深度学习和增强学习的系统正处在初期,但已经在分类任务中超过了被动视频系统,并在学习操作视频游戏中产生了令人印象深刻的效果。
在未来几年,自然语言理解将是深度学习做出巨大影响的另一个领域。我们预测那些利用了RNNs的系统将会更好地理解句子或者整个文档,当它们选择性地学习了某时刻部分加入的策略。
最终,在人工智能方面取得的重大进步将来自那些结合了复杂推理表示学习(representation learning )的系统。尽管深度学习和简单推理已经应用于语音和手写字识别很长一段时间了,我们仍需要通过操作大量向量的新范式来代替基于规则的字符表达式操作。
来源:三体智讯
工业互联网
产业智能官 AI-CPS
通过工业互联网操作系统(云计算+大数据+物联网+区块链+人工智能),在场景中构建:状态感知-实时分析-自主决策-精准执行-学习提升的机器智能和认知系统;实现产业转型升级、DT驱动业务、价值创新创造的产业互联生态链。
版权声明:产业智能官(ID:AI-CPS)推荐的文章,除非确实无法确认,我们都会注明作者和来源。涉权烦请联系协商解决。联系、投稿邮箱:erp_vip@hotmail.com