约翰·艾伦在主旨发言中提到,中美在人工智能等新兴技术领域的战略竞争日益明显,围绕着“人工智能军备竞赛”的说法不绝于耳。为了避免不可控的军备竞赛,他希望“人工智能与国际安全”项目中所讨论的安全关切,能够在政府层面对话和非官方论坛中得到进一步探讨,特别是针对人工智能所构成的国家安全风险,以降低这些风险发生的可能性。他认为现在正是规范技术发展和应用的关键期,呼吁美中两国的政府和专家团体能够抓住当下的机遇,围绕降低人工智能可能构成的国家安全风险的实际步骤达成共识。
傅莹在主旨发言中重点介绍了中国关于人工智能治理国际合作的主张,她说,今年11月中国国家主席习近平在二十国集团(G20)峰会上强调,中方支持围绕人工智能加强对话,倡议适时召开专题会议,推动落实G20人工智能原则,引领全球人工智能的健康发展。今年9月,中国国务委员兼外长王毅提出《全球数据安全倡议》,表示希望国际社会在普遍参与的基础上就人工智能的安全问题达成国际协议,支持通过双边或多边协议的形式确认倡议中的承诺。他提出有效应对数据安全风险应遵循的三项原则,包括秉持多边主义、兼顾安全发展和坚守公平正义等。
她说,中美关于人工智能安全治理的联合研究项目是一个成功的案例,双方都从中受益良多,研究结果也有很好的参考价值。既然人工智能武器化不可避免,我们需要寻找合适的治理路径。人类必须汲取历史教训,例如对核武器的治理共识就发生的太晚,导致人类曾经面临巨大威胁,互联网的治理也没有能够在早期实现。大家希望这次对人工智能,尤其是智能武器的治理,人类能走在技术变革的前面,充分认识其风险,早些达成治理共识。在讨论人工智能国际治理时,人们经常引用在核武器治理方面享有声誉的Pugwash机构(帕格沃什科学和世界事务会议),这一机构在核军控领域起到了积极作用。在推动人工智能的国际治理方面,也可以参考这样的方式,成立一个由科研人员、政府和政策专业人士组成的“人工智能国际治理委员会”。
在座谈环节,专家就中美如何在人工智能治理领域合作展开深入讨论并表示,中美两国是人工智能大国,都有防范军用人工智能技术风险和完善治理的需求。人工智能技术的滥用或者偏差有可能冲击战略稳定、改变交战规则,抬高军事风险。中美都有较强的风险管控需求和共同利益。因此,中美在人工智能国际治理中有很大的合作空间。有专家指出,人工智能在数据收集、算法训练和战场应用中,必须遵守国际法中的比例原则和区分原则,不能攻击平民或民用设施,造成过多的伤害。中方专家提出采用数据收集的“红绿灯”规则,禁止人工智能武器攻击民用目标,只能对完全确认的军用目标发动进攻。这个措施可以使人工智能更好地遵守国际法。
最后,专家们表示,包括中美在内的世界各国可以通过政策交流、互换文件、学者探讨等多种方式,增信释疑,实现在人工智能安全问题上形成国际治理共识。