“人工智能与人类思维战场”题目有三种不同的解释:
第一种解释是,题目指的是人工智能已经获得了我们认为是人脑独有的能力。不可否认,在许多领域,人工智能正在成功地与人类个体和集体的智慧力量进行竞争--对抗。问问 ChatGPT 就知道了!这是否意味着,在不远的将来,人工智能可能会与人类完全相似,并发展出某种形式的智商或意识?要回答这个问题,我们需要了解意识的含义。尽管我们每个人都是这一深刻主观体验的专家,但要将其转化为科学术语却相当困难。我如何知道 “你 ”是什么样子,或者如何解释 “你就像我一样”?如果 “对于有意识的有机体来说,存在着成为该有机体的感觉”(Nagel,1974 年),那么这种体验与当前的人工智能能力有什么关系呢?也许与我们的直觉相反,拥有语言并不是先决条件。即使是非常简单的蠕虫,如生活在土壤中的优雅猫科动物,也有 “优雅的头脑”,为它们提供了惊人的感官、社交和学习能力(Ardiel & Rankin,2010 年)。许多认知科学家认为,意识的基本构成要素是我们感知外部和内部世界的能力,以及根据这些信息采取行动的能力,从而使你我这个奇妙的细胞集合体得以生存。根据这种观点,意识是一种为支持平衡而进化出的机制--生物系统维持其生命参数(如温度、葡萄糖水平、血压或水平衡)稳定值的过程。如果我们将人工智能系统的运行参数(如 CPU 温度或内存使用率)视为人工智能的内部状态,为其提供外部传感器,并在其设计中加入自我监测和维护功能,人工智能会变得有意识吗?在这种情况下,人工智能与人类是否仍有本质区别,抑或只是人类中心主义的空想?
第二种解释是,人工智能正日益增强人类的能力。在这个需要持续关注的世界里,不同的认知过程都在争夺资源。与人工智能联手带来的结果要优于人类认知本身所能完成的结果。例如,在放射学领域,如果由经过训练的人工智能系统来解读医学影像,并与过滤掉假阳性结果的人类专家合作,就能检测出人类视觉认知无法发现的细微差别,从而达到最高的准确率--我的同事 Sharon Ong 和她的团队就证明了这一点。人工智能在应对认知超载方面也非常有用。让我们考虑这样一个事实:人类感知系统收集的外部感官信息每秒大约有 1100 万比特。这些信息被提交给大脑进行处理,但我们的意识却无法处理如此庞大的数据。根据《大英百科全书》,它实际上每秒只能处理大约 50 个比特。你可能会问,剩下的 10 999 950 比特会怎么处理呢?我们的认知系统在设计上似乎可以进行大量的数据压缩和过滤,而不会危及我们的生存机会。然而,这样一来,人类的感知就变成了一种 “骗局”,一种 “受控幻觉”,而不是对现实的直接反映。大脑在构建我们的感知体验时,会将预测(基于过去的经验和背景)与只需修正的有限感官输入相结合。得益于这一可控过程,尽管我没有清楚地表达每一个字,而且你们中的一些人坐在房间的后面,但你们还是有可能听懂我在唱什么。尽管你们并没有持续监控环境的每一个细节,也没有从头开始构建环境的图像,但你们对这个舞台和草裙舞的印象还是相当不错的。这也很可能意味着,你刚刚忽略了我用动词 “唱 ”而不是 “说 ”来指代我正在从事的活动。这并不是什么大问题,除非必须根据我们的感知精确度做出生死攸关的决定。在这种情况下,让我们假设今年不是 2024 年,而是 1953 年,现在是 2 月 1 日,泽兰省、南荷兰省和北布拉班特省的大片地区被洪水淹没。许多人躲在屋顶和屋子里,还有一些农场的牲畜处于危险之中。一些人受伤,需要紧急医疗救助。当时,荷兰只有一架直升机可供使用。现在想象一下,你正在驾驶这架直升机。由于天色昏暗,你很难发现所有等待救援的生灵。在几分之一秒的时间内,你需要做出决定,将急救人员派往何处。你的认知系统正在为如何分配稀缺的注意力资源而战斗,你也越来越疲惫。但是,如果有数百架配备了计算机视觉、红外和声学传感器的无人机,经过训练后可以半自动地扫描大片区域并探测到有生命的动物,只需要人类操作员的快速确认。在决定向何处求助时,这难道不是一件非常有价值的事情吗?然而,在这种人类与人工智能合作的情况下,究竟谁应该承担道德和法律责任?是你、操作员、整个人类-人工智能团队、人工智能系统、训练它的工程师,还是决定使用这项技术的政府?
最后,第三种解释指的是,人类的思想是利用人工智能来吸引我们的注意力并影响我们的信仰和行为的战争场地。通常认为国家间的冲突涉及实体武器,但现代战争主要是一种社会现象,战斗发生在搜索引擎和社交媒体上。在过去的 10-15 年里,民众都受到了这些系统性混合战争的影响,这些战争破坏了民主结构的稳定。人工智能和认知神经科学领域的进步为借助所谓的认知战争影响人脑带来了新的可能性。“认知战是一种战略,其重点是改变目标人群的思维方式--并通过这种方式改变其行为方式"(Burda,2023 年)。通过收集和分析我们的在线行为和偏好数据,人工智能算法已经比我们自己更了解我们。巧妙定制的信息,无论真假,都能迎合我们的情绪,吸引我们的注意力,正如我们在 COVID-19 大流行中清楚体验到的那样。我们如何才能让人工智能加入我们的团队,帮助我们提高感知力,发现虚假信息,保护我们免受认知操纵?人工智能在道义上是否有义务做到实事求是?
要回答所有这些问题,不仅需要计算认知科学领域的能力,还需要人类学、政治学、哲学和传播学方面的能力。在这方面,本研究活动所在的人文与数字科学学院提供了一个独特的机会,来研究这种有能力影响人类安全和我们的民主(无论好坏)的技术。本文依次阐述关于人工智能和人类思维的三个视角。人工智能是当前的热门话题,很多人认为它既是巨大的机遇,也是一种威胁。作者认为人工智能研究的主要价值在于,它让我们更深入地了解我们是谁,超越了常识所提供给我们的条件。它伴随着风险,但在其最佳状态下,人工智能技术为我们提供了一种精神体验: 从隐喻的角度来说,因为它为人类的认知提供了一面镜子,让我们有可能与原本无法触及的事物进行交流。从字面意义上讲,因为我们可以用它来实现改变的意识状态。