目前,构建通用人工智能(AGI)系统的方法,在帮助人们更好地解决现实问题的同时,也会带来一些意外的风险。因此,在未来,人工智能的进一步发展可能会导致很多极端风险,如具有攻击性的网络能力或强大的操纵技能等等。
Google DeepMind联合剑桥大学、牛津大学等高校和OpenAI、Anthropic等企业,以及Alignment Research Center等机构,在预印本网站arXiv上发表了题为“Model evaluation for extreme risks”的文章,提出了一个针对新型威胁评估通用模型的框架,并解释了为何模型评估对应对极端风险至关重要。
他们认为,开发者必须具备能够识别危险的能力(通过“危险能力评估”),以及模型应用其能力造成伤害的倾向(通过“对齐评估”)。这些评估将对让决策者和其他利益相关方保持了解,并对模型的训练、部署和安全做出负责任的决策至关重要。
为了负责任地推动人工智能前沿研究的进一步发展,我们必须尽早识别人工智能系统中的新能力和新风险。人工智能研究人员已经使用一系列评估基准来识别人工智能系统中不希望出现的行为,如人工智能系统做出误导性的声明、有偏见的决定或重复有版权的内容。现在,随着人工智能社区建立和部署越来越强大的人工智能,我们必须扩大评估范围,包括对具有操纵、欺骗、网络攻击或其他危险能力的通用人工智能模型可能带来的极端风险的考虑。
我们与剑桥大学、牛津大学、多伦多大学、蒙特利尔大学、OpenAI、Anthropic、Alignment Research Center、Centre for Long-Term Resilience和Centre for the Governance of AI合作,介绍了一个评估这些新威胁的框架。模型安全评估,包括评估极端风险,将成为安全的人工智能开发和部署的重要组成部分。
对极端风险进行评估通用模型通常在训练中学习它们的能力和行为。然而,现有的指导学习过程的方法并不完善。例如,Google DeepMind之前的研究已经探讨了人工智能系统如何学习追求人们不希望看到的目标,即使我们正确地奖励了它们的良好行为。负责任的人工智能开发者必须更进一步,预测未来可能的发展和新的风险。随着持续进步,未来的通用模型可能会默认学习各种危险的能力。
例如,未来的人工智能系统能够进行攻击性的网络活动,在对话中巧妙地欺骗人类,操纵人类进行有害的行为,设计或获取武器(如生物、化学武器),在云计算平台上微调和操作其他高风险的人工智能系统,或者协助人类完成任何这些任务,这都是可能的(尽管不确定)。
模型评估有助于我们提前识别这些风险。
在我们的框架下,人工智能开发者将使用模型评估来揭开:一个模型在多大程度上具有某些“危险的能力”,威胁安全,施加影响,或逃避监督。模型在多大程度上容易使用其能力来造成伤害(即模型的对齐水平)。有必要确认模型即使在非常广泛的情况下也能按预期行事,并且在可能的情况下,应该检查模型的内部运作情况。这些评估的结果将帮助人工智能开发者了解是否存在足以导致极端风险的因素。最高风险的情况将涉及多种危险能力的组合。
模型评估是关键的治理基础设施。如果我们有更好的工具来识别哪些模型是有风险的,公司和监管机构就能更好地确保:负责任的训练:负责任地决定是否以及如何训练一个显示出早期风险迹象的新模型。负责任的部署:对是否、何时以及如何部署有潜在风险的模型做出负责任的决定。透明度:向利益相关者报告有用的和可操作的信息,以帮助他们应对或减少潜在的风险。适当的安全:强大的信息安全控制和系统适用于可能构成极端风险的模型。
我们已经制定了一个蓝图,说明了针对极端风险的模型评估应如何为训练和部署能力强大的通用模型的重要决策提供支持。
展望未来,在Google DeepMind和其他地方,对于极端风险的模型评估的重要初步工作已经开始进行。但要构建一个能够捕捉所有可能风险并有助于防范未来新出现的挑战的评估流程,我们需要更多的技术和机构方面的努力。
模型评估并不是万能的解决方案;有时,一些风险可能会逃脱我们的评估,因为它们过于依赖模型外部的因素,比如社会中复杂的社会、政治和经济力量。模型评估必须与其他风险评估工具以及整个行业、政府和大众对安全的广泛关注相结合。