本文剖析了拟议中用于探测、监控及对抗“认知战”的人工智能系统,批判性审视此类系统对基本权利与价值观的影响。在阐释当代公共安全话语中的“认知战”概念后,文章指出人工智能作为新兴工具,可能加剧针对社会在线信息生态系统的恶意活动。为应对此挑战,研究者与决策者提议利用人工智能制定反制措施——从基于人工智能的预警系统到政府主导的全网络内容审核工具。然而这些干预措施在不同程度上干预了隐私权、言论自由、信息自由与自决权等基本权利与价值观。所提出的人工智能系统缺乏充分考量当代在线信息生态系统的复杂性,尤其未能解决“认知战”活动与不良后果间因果关系的固有判定难题。其后果在于,利用人工智能对抗“认知战”反而可能损害本应受保护的基本权利与价值观。决策者应减少对看似立竿见影的技术解决方案的过度关注,转而投入构筑立足于保障基本权利的长效策略,以应对数字传播生态系统中的信息失序问题。

成为VIP会员查看完整内容
2

相关内容

人工智能在军事中可用于多项任务,例如目标识别、大数据处理、作战系统、网络安全、后勤运输、战争医疗、威胁和安全监测以及战斗模拟和训练。
《人工智能对传统人工情报分析的影响》最新报告
专知会员服务
48+阅读 · 2024年10月10日
《强化学习人工智能系统的风险评估》最新101页报告
专知会员服务
41+阅读 · 2024年8月1日
《人工智能灾难性风险概述》2023最新55页报告
专知会员服务
67+阅读 · 2023年10月6日
《攻击和欺骗军事人工智能系统》2023最新48页报告
专知会员服务
145+阅读 · 2023年6月16日
《用于国家安全的人工智能:可预测性问题》65页报告
专知会员服务
72+阅读 · 2023年4月1日
美国人工智能国家安全委员会发布最终报告, 130页pdf
专知会员服务
144+阅读 · 2021年3月2日
【2022新书】深度学习归一化技术,117页pdf
专知
28+阅读 · 2022年11月25日
《人工智能安全测评白皮书》,99页pdf
专知
35+阅读 · 2022年2月26日
「强化学习可解释性」最新2022综述
专知
12+阅读 · 2022年1月16日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
Arxiv
170+阅读 · 2023年4月20日
A Survey of Large Language Models
Arxiv
472+阅读 · 2023年3月31日
Arxiv
77+阅读 · 2023年3月26日
Arxiv
171+阅读 · 2023年3月24日
Arxiv
24+阅读 · 2023年3月17日
VIP会员
相关VIP内容
相关基金
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
1+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
2+阅读 · 2015年12月31日
国家自然科学基金
44+阅读 · 2015年12月31日
国家自然科学基金
6+阅读 · 2015年12月31日
国家自然科学基金
5+阅读 · 2015年12月31日
国家自然科学基金
3+阅读 · 2014年12月31日
微信扫码咨询专知VIP会员