中国学者曾毅:我见证了《布莱奇利宣言》的诞生
【环球时报综合报道】人工智能风险与安全问题是全球共同的挑战,没有任何一个国家能够独善其身。2023年初,生成式人工智能快速发展并广泛应用,与之而来显现的风险引人担忧。美国生命未来研究所呼吁所有AI实验室立即暂停至少6个月,并发布公开信。美国麻省理工大学教授、生命未来研究所所长Max Tegmark教授写信希望我支持,作为人工智能科学和伦理的学者,我已心急如焚,毫不犹豫选择签署并支持,核心诉求是希望将人工智能安全提上优先议程,并敦促学者、企业和政府对伦理安全问题采取行动。在今年7月的联合国安全理事会专题会议上,我以中国学者的身份代表陈述并分析了人工智能安全的近期与远期挑战,并呼吁人工智能安全的全球协作对于全人类来说没有选择。此番英国之行,我作为中国学者再次参与,并见证了《布莱奇利宣言(The Bletchley Declaration)》的诞生。
由英国发起的本次人工智能安全峰会召集了包括中美在内的28个国家和欧盟。峰会首日,包括英国、中国、美国在内的28个国家及欧盟共同签署的《布莱奇利宣言》承诺为了全球人类的福祉,应当将以人为本、可信、负责任作为总体愿景,确保以安全的方式进行人工智能的设计、研发、部署、使用并通过全球协作共同应对人工智能安全的近期和长远挑战。这是继《联合国教科文组织人工智能伦理建议书》获193个会员国审议一致通过以来,政府间在更具体的人工智能安全议题上达成的广泛性共识。然而这些共识是否能够积极落地还需参与的各国在科技、产业和社会多个层面付出实际行动。
主会议开始即进行了非常重要的环节,美国商务部部长雷蒙多和我国科技部副部长吴朝晖相继发言。吴部长发言一开始,包括雷蒙多在内的所有外方参会者迅速戴上同声传译。没有人愿意错过中国的态度和中国的声音。
除了参与集体会议,我还担任了圆桌讨论的主席主持,就“前沿人工智能不可预知进展带来的风险”议题,与包括“图灵奖”获得者、美国商务部部长、英国国家网络安全中心主任等参与人员开展研讨。在我们这个议题的研讨会上,我们不仅讨论了难以预知的进展,也讨论难以预期的失败。而这正是人工智能安全工作的核心。我们对进展和失败能做出很好的预测吗?答案是否定的。但我们能停止这样的努力吗?答案也是否定的。而这就是我们讨论的重要性和魅力所在。
我们还讨论了开源模式及其潜在风险。这是一个非常具有挑战性的问题。当规模更大、不确定性更大的模型向所有人开放时,风险难以撤回,我们又如何才能防止误用、滥用?这不仅是人工智能科学家面临的挑战,也是全世界面临的挑战。需要寻找风险与收益的平衡。
共享评估工具是极其必要的,但我们必须十分明确:通过所有的评估也并不意味着绝对的安全,仅是根据已知的评估没有发现明显问题。我们需要不断关注正在和即将出现的风险。
这次会议国家之间是否只是协作没有竞争?很显然也不是这样的。英国首相苏纳克在10月26日于英国皇家学会进行的演讲中宣布英国将成立人工智能安全研究所。而在5天后的人工智能安全峰会第一天会议伊始,美国商务部部长雷蒙多也在其发言时宣布美国商务部和美国国家标准与技术研究院(NIST)将深度协作成立人工智能安全研究所。然而这种在人工智能风险安全议题上的“竞争”,相比人工智能快速迭代、野蛮应用的竞争恐怕还是好得多。我在下午的会议集体总结发言时表达了下述观点:“我们认为,每个国家都应该成立自己的人工智能安全机构。但这还不够,我们还需要建立一个涵盖全世界的人工智能安全协作网络,以期能够解决不可预知的进展和不可预知的失败。”