12月1日,IEEE新版人工智能与伦理白皮书发布预告会在中国科学院科技战略咨询研究院召开。
会议现场
会议由IEEE标准协会、IEEE中国办公室与中国科学院科技战略咨询研究院合作主办。IEEE 全球自动化及智能系统伦理倡议执行主任John C. Havens、IEEE亚洲总监华宁、IEEE人工智能与伦理全球倡议中国委员会主席王亮迪、中国科学院科技战略咨询研究院李真真研究员以及来自全国不同领域的四十多位人工智能技术、伦理、法律与社会学专家学者出席会议。
John Havens
全球自动化及智能系统伦理倡议执行主任
IEEE 全球自动化及智能系统伦理倡议执行主任John C. Havens 指出,IEEE标准协会基于来自全世界相关领域专家超过200页的对人工智能与伦理全球倡议1.0的反馈意见,对全球倡议2.0的整体设计做出了部分修改,并强调了IEEE标准协会对中国人工智能伦理专家意见的重视。
IEEE人工智能与伦理全球倡议中国委员会主席王亮迪预告了人工智能与伦理全球倡议2.0中英文版将于12月12日全球同步发布。
中国科学院科技战略咨询研究院李真真研究员在报告中提出,应重视人工智能的边界问题,鼓励发展提供基本服务的人工智能,限制发展增强型人工智能,禁止发展超级人工智能。李真真老师还预告中科院将成立“人工智能技术、伦理与法律联盟”,为深度研究提供合作平台。
李真真研究员
中国科学院科技战略咨询研究院吴焦苏从智能科学的数学基础---博弈动力学角度论证了禁止发展超级人工智能的必要性和紧迫性。
湖南师范大学李伦教授提出“给人工智能一颗良芯(良心)”,加强人工智能伦理约束机制、选择机制和道德责任的研究。
IEEE上海分会秘书长王潮认为人工智能发展不仅属于技术层面,还有其社会属性,并提出到2025年需要重点关注机器人安全问题。
中国科学院大学刘朝副教授提出需要关注中国语境下的人工智能伦理、道德和法律的独特性,希望技术、法律和伦理在人工智能平台上共同发展。
腾讯研究院徐思彦博士提出,腾讯正在尝试建立理解人工智能的框架,推动人工智的产业、社会、法律和伦理的跨领域研究。
北京大学罗定生副教授提出由于中国老龄化和空巢化问题严峻,需要特别加强对智能护理机器人的伦理和法律问题研究。
专家表示将对IEEE人工智能与伦理全球倡议接下来的2.0版本做出评议,并对3.0版本贡献中国视野和思想。与会专家表示将进一步加强互相之间的合作和交流,促进全球人工智能的安全平稳发展。
来源: IEEE电气电子工程师学会