编辑:袁榭 好困
【新智元导读】作为AI界的明星研究所,老是搞事情的OpenAI,现在真的搞出通用人工智能(AGI)了么?
「AI会不会变终结者」,这是外行经常会问、内行只有摊手的老套问题。
不过,这话要是让行内大佬一说,效果马上不一样了。
最近,OpenAI首席科学家的一句话,让整个机器学习圈都炸了锅了。
2月10日,伊利亚·萨茨克维尔(Ilya Sutskever)发推表示:「现在的大型神经网络可能已经有微弱自主意识了。」
争论持续了几天之后。
2月13日,LeCun甚至亲自下场,异常坚决且简单明了:
「不对。」
接着便措辞礼貌但尖刻地解释道:
「甚至『微弱意识』里的表微量的形容词,和『大型神经网络』里的表示大型的形容词,都是错的。我认为这需要一种当下所有神经网络都不具备的大型架构来支撑。」
这段时间,伊利亚老师都是一句话冷艳结束,所以现在没人知道他到底具体在讲些什么。
尤其是这句「仓促」得连首字母都没有大写,不由得引人想入非非。
是在说正在开发中的新GPT模型大力出奇迹呢?还是在说自家的现有模型受天启感召已经具有不亚于人的灵智呢?还是重复宣传「通用人工智能」(AGI)很好很强大的观点呢?
真要臆想超级AI,看《疑犯追踪》比看无聊纪录片舒服多了。
不出意外地充斥着对AI「自我认知」的强烈不安,但更多人则认为这是纯粹的胡说八道。
有网友在伊利亚的原推下回复:「现在人类所知的自我意识,必须有相当程度的动态随机性,甚至可以称为混沌性。若无,则只是算法性质的行为。算法的确可能足够复杂,让观察者误以为它具有意识。」
新南威尔士大学西德尼分校人工智能研究员托比·沃尔什(Toby Walsh)说:「每次这种猜测性的评论被发表时,都需要花几个月的时间来让对话回到人工智能带来的更现实的机会和威胁上来。」
花旗银行副总裁、深度学习专家瓦伦蒂诺·佐卡(Valentino Zocca)也有类似的观点:
「人工智能是没有意识,但显然,炒作比任何事实都更重要。」
独立的科技社会学者尤尔根·古特(Jürgen Geuter)在跟帖中说:「很有可能这根本没任何事实依据,只是一家跑了海量简单统计的创业公司吹嘘自己拥有魔法般技术力的销售噱头。」
这一观点得到了软件测试专家迈克尔·博尔顿(Michael Bolton)的支持,他开玩笑说:
「AI不见得有微弱意识,不过伊利亚很可能有在『微弱』地满嘴跑火车,甚至可能不止『微弱』。」
哥本哈根信息技术大学的副教授里昂·德尔琴斯基(Leon Dercynski)也大开嘲讽:「在地球和火星之间的某个地方,很可能有一个绕日飞行的茶壶,这比伊利亚的想入非非要合理多了。因为天体轨道飞行的规则架构事实上存在,而何为茶壶的精确定义也存在。」
微软挪威数据科学家、前DeepMind研究员罗曼·韦尔帕科斯基(Roman Werpachowski)用放出著名的「我是你爸爸」哏图的方式回应了这个消息。
不过,在被无数人抨击后,伊利亚老师非常高贵冷艳地淡淡回复:「自大才是最终的敌人。」
曾在微软、谷歌供职,现在英伟达深度学习项目就业的码农李奥纳多·摩西斯库(Leonard Mosescu)用伊利亚的金句句式嘲笑:
「现在的大型自大可能也有微弱自主意识了。」
另一个在英特尔、IBM、佐治亚理工大学都干过的码农杰格·多什(Jigar Doshi)反问:
「若无自我执念,何来人类的意识活动呢?」
在万众抨击中,伊利亚老师终于舍得多说几句话回击了:
「为了短期内自我感觉良好,而无意识选择相信显然的假象,并不是最优生活策略」。
「认知=行动,先进的深度学习智能体可能也会有类似这种人类劣性的短板。」
在千夫所指中,OpenAI的老板山姆·奥特曼(Sam Altman)表示力挺同事、同时反击LeCun:
OpenAI首席科学家:对神秘观点表示了好奇心与开放心态,用「可能」开始句子;
亲爱的Meta AI研究者们,这是我的电邮地址,我司现在招人哦。
网红LeCun在社交网络上从没有受气挨喷的习惯,马上回复:
某司的确可以天天造更快的飞机、打破飞行高度记录,搞这些事情既能让自家名字常常上头条,这些突破说不定也会有那么点真用处。
但如果目标是真正突破大气层飞上太空轨道,那就需要在冷凝储液罐、涡轮泵这些毫不上镜的技术上下苦功。
微软的深度学习研究大佬Devon Hjelm说了大实话:
AI界的研究者与学生们,如果你们还不清楚的话,以下是此次事情的梗概:
除了老套的AI公司互喷打嘴仗以外,这事情一点有意义的实质性内容都没有。
大家最好还是问优质问题、保持好奇心、同时保持狐疑态度。
伊利亚老师除了是OpenAI的首席科学家兼联合创始人、AlphaGo论文的诸多作者之一,也是AI业界最热衷于AGI的著名人士之一。
OpenAI本身,也在「公司的未来使命」中宣布要开发「造福全人类的AGI」
在接受关于人工智能的2019年纪录片《iHuman》采访时,伊利亚既宣布将解决当下人类遇到的所有难题,却又警告AGI可能将具备无限延续专制的潜力。
采访者应该是出于礼貌才没有追问「那用AGI能否解决人类社会面临独裁的难题」这种「以子之矛攻子之盾」的问题。
对此,非盈利研究机构「感知学院」(Sentience Institute)的联合创始人、社会科学家Jacy Reese Anthis在推特贴文中对此进行了深入的探讨。
在为自家的机构打了广告后,Jacy Reese Anthis阐述:
首先,意识的含义在哲学家和科学家中存在很大争议。
对此,可以用3个以上更精确的术语来形容:
思想,通常是一种语义上的字词流
感知,通过五种感官或想象力达到的感知
情感,积极和消极的情绪
然而,甚至这些都是有争议的。
这些是行为吗?过程?功能?二元论?不可言说的?等等。
Jacy认为,应该采取消除主义的观点。因为这些术语是如此模糊,所以意识并不客观存在。
那么,哪些具体特征会表明人工智能中的有知觉或意识?
「感知学院」的研究者认为如果人工智能可以被称为有意识,它可能具备以下特征中的一个或多个:对有害诱导数据的检测及于此可变的注重程度、对此诱因有规避的回应与记忆联想、对此诱因有类似情绪变化的状态变化,加强学习,基于目标而定的行为,对情绪状态的语义表述。
http://sentienceinstitute.org/blog/assessing-sentience-in-artificial-entities
当下如GPT-3等的变换模型,以上特征几近于无。不过,Jacy还是不认为此议题有完全客观的答案。
因为对于意识的定义、比如「此物感觉怎样」或「内在倾听者」等等,用来回答这问题都太过模糊。
如今,在分歧、模糊和不确定的情况下所能做到的最精确回答大概就是:「神经网络可能有了极微的意识,但是比昆虫要少」。
参考资料:
https://futurism.com/the-byte/openai-already-sentient
https://wordpress.futurism.com/conscious-ai-backlash/amp
Ilya Sutskever:https://twitter.com/ilyasut/status/1491554478243258368
LeCun:https://twitter.com/ylecun/status/1492890267468320778
Sam Altman:https://twitter.com/sama/status/1492644786133626882