图:一名指挥与总参谋学院的学生使用 ChatGPT 完成学校作业。

2022 年 11 月,OpenAI 的 Chat Generative Pre-Trained Transformer(ChatGPT)公开发布。这款人工智能聊天机器人具有革命性意义。ChatGPT 可根据用户提示生成详细、无缝的文本。它可以写作文和诗歌,可以调试和编写计算机代码。以往任何技术都无法如此快速有效地完成这些任务。而 ChatGPT 的发布只是近期生成式人工智能(AI)众多进展中的一个高度公开的时刻。2023 年,微软发布了由人工智能驱动的新版必应搜索引擎,OpenAI 也发布了新的 GPT-4 模型。

自 ChatGPT 发布以来,生成式人工智能一直占据着头条新闻,尤其是在学术界。一些知名刊物刊登了这样的论点:"大学论文已死",没有人为学术界的变革做好准备,ChatGPT 是 "对高等教育的威胁",高等教育必须 "不变革就死亡"。聊天机器人甚至被比作 "瘟疫",让人联想到 COVID-19 对教育的毁灭性影响。一些学校的回应是立即禁止在其网络上访问 ChatGPT。其他学校则利用人工智能内容检测软件来识别和惩罚使用生成式人工智能完成家庭作业的学生。

美国陆军也未能幸免。陆军职业要求军官在整个职业生涯中参加专业军事教育 (PME)。PME 教育工作者与民间学术机构的同行们一样,正在努力与生成式人工智能进行谈判。部分挑战源于当前关于生成式人工智能的争论。这些争论往往是极端的--对高等教育的死亡或生产力的革命性提高持两极化的看法,而且是抽象的--以技术本身而非其在学习中的具体使用案例为论点。概念层面的争论固然重要,但对于必须决定如何在课堂上立即做出反应的教师来说,这些争论并不总是有帮助的。

指挥与总参谋学院(CGSC)最近通过了认证,成为向即将毕业的学生颁发硕士学位的机构,该学院制定了一项政策,允许各门课程自行决定是否可以使用生成式人工智能。然而,在实践中,CGSC 向学生传达的压倒性信息是,他们应该完全避免使用该技术,否则就有可能失去他们的 PME 学分。禁止性政策的实施表明,陆军 PME 对生成式人工智能的风险高度敏感。采用人工智能确实存在风险,尤其是在不考虑潜在成本的情况下盲目采用。但普遍回避该技术也存在风险。正如国防部的数据战略所明确指出的,陆军领导人必须是数据通。因此,CGSC 和其他 PME 所面临的挑战是,既要支持和鼓励使用人工智能来提高学生的学习能力,又要减少使用人工智能来阻碍学生批判性思维能力的发展。

本文在陆军 PME 的背景下对生成式人工智能提出了两种截然相反的观点:一方面是对生成式人工智能的公然抵制,另一方面是对人工智能的毫无疑问的接受。PME教育者应从务实和审慎的角度出发,避免这些极端观点,并以PME的目的为导向。教育工作者可以同时承认人工智能的重要益处,同时认识到有必要为其使用设置警戒线,因为不加限制地采用人工智能可能会破坏我们的教育使命。从这一角度出发,放弃极端的选择,就会产生本文概述的几项实用建议。

避免极端

对生成式人工智能的一种可能反应是直接拒绝将其用于 PME。CGSC 的教师可能会向学生传达这种观点,认为 ChatGPT 只会导致剽窃案件和可能的开除。持这种观点的 PME 领导者可能出于各种原因对人工智能技术保持警惕。意识到 ChatGPT 可以写出完整的论文,他们可能会否认任何有效的用途,这可能会促使他们禁止学生以任何身份使用人工智能。更糟糕的是,他们可能会坚持使用最能激励使用生成式人工智能的作业,即使他们取缔了这种使用。他们可能会假定未经授权使用生成式人工智能的现象比实际情况更加猖獗。他们可能不会关注这项技术的重要和长期影响,甚至不会了解它的基本功能。

普遍的否定过于轻视对专业教育和国家安全的潜在益处,而这两个领域正是每一位即将毕业的战地军官的职责所在。不利用人工智能工具将意味着我们的学生、机构和国防丧失竞争优势。粗暴地全面禁止人工智能工具将以维护我们使命的名义破坏我们的使命。在教学大纲和旨在培养批判性思维能力的作业政策中对人工智能的使用做出具体禁止规定是有益的,但教师应避免对该技术的普遍敌意和对使用该技术的学生的敌视。

对于 ChatGPT 的出现,另一种极端的反应是不加批判地接受生成式人工智能,将其视为最新的计算器或文字处理器。在这种观点中,生成式人工智能只是一种最新技术,只要教职员工加入进来,就能改善高等教育。非批判性支持者希望在整个教育领域毫无疑问地采用生成式人工智能。

聊天机器人的确与早期的颠覆性技术有几分相似。相似之处之一是一些教育工作者最初的抵制反应,这与上世纪八十年代反对采用计算器的争论(甚至小规模抗议)以及九十年代对课堂使用计算机的担忧如出一辙。

另一个相似之处是,聊天机器人与早期的技术一样,可以代替完成任务和遵守规则(ChatGPT 可以检查拼写、写出完整的句子等),从而提高学生的学习效率,释放学生的精力进行创造性思考。主张在高等教育中使用生成式人工智能的人指出了该技术在改善学生学习方面的潜力,他们的看法是正确的。生成式人工智能可以帮助学生为论文中有趣的主题集思广益,充当一般学习的对话导师,或为更高级的主题提供背景知识。人工智能工具还能根据用户的简单书面指令生成功能性编程脚本,例如用于清理和分析数据的脚本--一些观察家将这种能力称为英语的下一个大型编程语言。在诸如此类的应用中,生成式人工智能可以在不影响学习过程的前提下,通过加快工作速度和提高生产率来支持学生的学习。

然而,普遍采用的问题在于,生成式人工智能可以做得更多。ChatGPT 可以综合证据,生成论点陈述,并提出连贯而全面的论据来支持论点陈述,同时还能平衡相互矛盾的信息。在 CGSC 中,学生可以上传条令文件,并要求 ChatGPT 对所选节选内容进行总结。在这些方面,ChatGPT 显然比最新的打字机更胜一筹。当我们关注具体的使用案例,并提醒自己知识不仅是一种产品,也是一个过程时,它们之间的差异就显而易见了。有时,ChatGPT 可以通过提供信息和提高效率来补充批判性思维。但在其他时候,这项技术可以取代批判性思维。

怀疑论者基于 ChatGPT 众所周知的局限性,如 "自信地 "误传信息、"幻觉 "事实或不引用资料来源等倾向,过快地否定了这一点。然而,这场争论的关键点并不在于生成式人工智能是否能比人类更好地完成所有书面任务,也不在于聊天机器人是否真的具有智能,而在于它是否能始终如一地完成合格的作品,这就为学生缩短发现和深入思考的过程提供了动力。

图:平衡教育工作者的极端反应

那些采取 "不加批判地接受 "观点的人过于轻视权衡利弊。在课程的方方面面都采用这种技术的 PME 肯定会教给学生有用的技能,比如如何与人工智能进行有效互动,但往往会牺牲培养学生高阶思维能力的机会。培养这些能力的重要性明确体现在 CGSC 的愿景中,即培养能够在不确定和复杂的世界背景下进行批判性和创造性思考,并以灵活、敏捷和创新的方式做出反应的外勤级军官。这些目标是我们的支柱。生成式人工智能的某些应用将直接违背这一使命。不加批判的拥护者一味追求普遍采用,并将推理的替代品与效率的提高混为一谈,从而忽视了学生所付出的实际代价,更不用说在其他重要辩论中发现的潜在代价,如错误信息和两极分化的加剧或对科学知识信心的破坏。

给教育工作者的建议

关于生成式人工智能的这两种截然相反的观点很可能会扭曲教育工作者在课堂上的反应。将辩论组织成这种相互矛盾的立场之间的对垒,会给希望在掌握既定任务的同时驾驭这种新的复杂性的教育工作者带来困惑。

教育工作者既要承认人工智能的重要益处,也要认识到在使用人工智能时需要有警戒线,通过关注 PME 教育工作者的使命和生成式人工智能的具体应用,明确这两项当务之急,从而从中获益。从这个角度出发,以下一系列实用建议将有助于指导教育工作者在使用人工智能时,既能提高生产力,又能支持他们培养批判性思维者的目标。

  • 建议: 抓住机遇,重新评估和改革教学法与评估,让学生参与其中

新环境为重新评估教学法和评估提供了机会。教育工作者不应努力 "抓住 "学生使用人工智能的机会,而应努力重新思考教学和作业,以激发创造力,激活对课程材料的热情,并激励学生参与学习过程。关键是要从促进学生参与学习和作业的角度来思考问题,这样学生就不会把所有作业都推给聊天机器人,而不是从揭示聊天机器人的贡献的角度来思考问题。

教育工作者应该重新认真评估书面作业。那些人工智能可以 "毫不费力 "地完成而无需人工参与的作业应予以修改或取消。例如,学生很少参与的聊天机器人可以完成一项要求总结著名历史事件的作业。与此同时,如果作业要求学生选择一个对其家庭或自身从军经历非常重要的历史事件,并用课程概念对其进行解释,聊天机器人是可以完成的,但会打击学生做出选择的积极性。在这种情况下,学生的自然反应是逃避("不使用人工智能是我学生的责任")。现在,学生可能比以往任何时候都更需要找到拥有自己学习体验的动力。但是,教育者仍然可以通过设定苛刻的期望、挑战学生的成长和克服不适应来发挥作用。尽管要求很高,但对教师来说,一个有用的起点假设可能是,现有的每项作业都可以变得不那么公式化,而更有针对性,以激活学生的核心动机,从而抑制对人工智能的适得其反的使用,激励个人对知识的追求。

在教学法方面,教育工作者也应采取类似的方法。是否有办法通过课堂教学来鼓励学生善用生成式人工智能?例如,在课堂上进行更深入的批判性分析之前,能否将生成式人工智能用作头脑风暴功能?引入生成式人工智能为教育工作者和学生都带来了机遇。了解该技术正反两面的教育工作者可以改革课程和教学方式,鼓励学生更多参与。

  • 建议:要求所有课程大纲以细致入微的方式处理生成式人工智能的适当使用问题

所有课程的开发者都有责任在课程大纲中加入生成式人工智能条款,为其在作业和课堂上的使用设立警戒线。这些规定必须经过深思熟虑。教学大纲中的规定不应仅仅侧重于限制 ChatGPT 的使用(或指定允许检测的规则),还应侧重于构建规则,以积极促进学习和深思熟虑地使用人工智能。

处理这些规定的一种方法是确定在哪些具体情况下可以使用人工智能,在哪些情况下不可以。任何一套规定都要囊括所有好处或降低所有风险,这是不现实的,尤其是在技术不断进步的情况下;然而,选择不设置任何警戒线的教官会给学生的学习成果带来大得多的风险,从而给 PME 和整个陆军带来更大的风险。

禁止人工智能某些用途的声明可能是这样的 "使用生成式人工智能很可能会破坏研究和写作过程,从而阻碍课程目标的实现,而研究和写作过程对于培养学生的高阶思维能力至关重要。因此,在 F100 部队管理论文的研究和写作过程中,禁止在任何时候使用 ChatGPT 或其他生成式人工智能工具"。

促进生成式人工智能特定用途的声明可能是这样的: "可以接受并鼓励使用 ChatGPT 和其他生成式人工智能工具来为本课程的创意写作作业集思广益,作为本课程核心概念的对话导师,以及作为进行定量分析的编码辅助工具。引用生成式人工智能工具的任何贡献。请记住,这些工具可能会提供误导性和不正确的回答,并确保您避免过度依赖人工智能输出"。

  • 建议:避免使用人工智能内容检测工具进行过度测试。优先考虑教师的专家直觉

即使教育工作者决定在特定情况下禁止使用人工智能,他们也必须注意避免过度优先检测人工智能生成的内容。关注可能的学术违规行为固然重要,但过分强调检测会导致惩罚性和交易性思维,这与教育者的核心使命不符。此外,对提交的作业中使用人工智能的情况进行随机或全盘检测,会导致教育工作者严重高估班级中使用人工智能的普遍程度,以及在任何特定学生作业中使用人工智能的可能性(见第 6 页边栏)。

  • 建议:设计、实施并持续开展针对教师的生成式人工智能教育与培训

要回答人工智能的使用如何影响批判性思维能力的发展,以及教师在某些情况下是否应该禁止或推广人工智能等问题,教育工作者必须了解这项技术本身--它是什么、它能做什么、它不能做什么,以及它可能如何发展。

所有教师都应接受生成式人工智能方面的教育和培训,以积累这方面的知识。这里的 "培训 "一词很关键。人工智能培训不同于只是抽象地讨论技术的研讨会式的教师讲习班。培训要求对技术的工作原理和作用进行有准备的指导。例如,西点军校在 2023 年 1 月举办了关于大型语言模型及其能力和限制的培训,以帮助教师确定何时适合在课堂上使用 ChatGPT。

西点军校的这些工作值得称赞,但如果不能持续下去,这些努力将是不完整的。从长远来看,所有 PME 都应考虑就 ChatGPT 和其他人工智能的发展开展定期培训和对话。机构的反应不能是短期的狂热和长期的沉默。正如生成式人工智能模型在训练数据中遇到新的 "现实 "时会发生变化一样,教师也应定期更新他们对人工智能工具的理解。

  • 建议: 加强各级学术领导层对 ChatGPT 时代核心使命的机构宣传

PME 的所有教师都肩负着在课堂和作业中使用生成式人工智能的重任。在这一领域,自下而上的解决方案至关重要。然而,教师们可能并不完全了解这项技术或其成本与收益,而且在面对其他极端人士的强烈批评时,他们甚至可能难以倡导有理有据的建议。

PME 领导人在书面政策或口头交流中发出的一致信息,将为试图驾驭巨变的教师提供支持。无论任何新技术(或大流行病或世界危机)如何,陆军 PME 的目的始终不变--培养敏捷、适应性强的领导者,让他们在复杂环境中实现认知超配,从而赢得胜利。围绕人工智能的讨论应不断提出问题,探讨这一技术的具体应用将如何促进军官学习和发展高阶思维技能。生成式人工智能将有益于教育,但并非在任何情况下都是如此,教员们在确定专业军事教育的目的时,将能更好地识别这些特定情况。

未来对当前方法的启示

事物发展日新月异。去年,谷歌宣布首次发布 "实验性对话式人工智能服务 "Bard,即现在的 "双子座",并指出 "最大的人工智能计算规模每六个月翻一番,远远超过摩尔定律"。史蒂夫-沃兹尼亚克(Steve Wozniak)、埃隆-马斯克(Elon Musk)和其他科技领袖呼吁暂停人工智能发展中的 "失控竞赛"。

鉴于如此高的变化率,即使是最周到、最个性化、最复杂或最及时的任务,聊天机器人在不远的将来也能完成。对未来的憧憬以及由此引发的争论,让我们很想举手投降。然而,随着美国国防部的数据战略鼓励进一步整合人工智能,PME 的教育工作者应该抓住机遇,在这一领域发挥领导作用。如果教育工作者只是为了阻止人工智能的使用而无休止地布置更加复杂的作业,那么他们的命运将是西西弗斯式的。另一方面,不加批判地接受人工智能是所有情况下的 "金手指",也会适得其反。PME教育工作者既不要害怕也不要对这项技术一无所知,他们应该努力找出有价值的使用案例,改革教学方法,保持与学生之间的信任,并对培养陆军领导者批判性思维能力的使命充满信心。

成为VIP会员查看完整内容
24

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《人工智能在海战中的角色》
专知会员服务
57+阅读 · 7月2日
《美国陆军医疗与人工智能:改变未来战场》
专知会员服务
19+阅读 · 5月21日
《生成式人工智能模型:机遇与风险》
专知会员服务
69+阅读 · 4月22日
《人工智能:美国国防部面临的挑战和机遇》
专知会员服务
86+阅读 · 2023年4月22日
《可信人工智能: 将人工智能融入美国陆军知识体系》
专知会员服务
144+阅读 · 2023年4月12日
《人工智能在军事武器系统中的崛起》
专知会员服务
142+阅读 · 2023年3月21日
Gartner 报告:人工智能的现状与未来
InfoQ
14+阅读 · 2019年11月29日
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
29+阅读 · 2014年12月31日
A Survey of Large Language Models
Arxiv
398+阅读 · 2023年3月31日
Arxiv
139+阅读 · 2023年3月24日
Arxiv
20+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
6+阅读 · 2017年12月31日
国家自然科学基金
1+阅读 · 2017年12月31日
国家自然科学基金
3+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
7+阅读 · 2015年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
6+阅读 · 2014年12月31日
国家自然科学基金
5+阅读 · 2014年12月31日
国家自然科学基金
0+阅读 · 2014年12月31日
国家自然科学基金
29+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员