关于AI安全,OpenAI最新回应:没有⼈会为了尽快取得成功⽽“偷⼯减料”

来源: 学术头条

发布日期: 2023-04-06 08:55:09

OpenAI在其最新发布的博客文章中详细阐述了其在人工智能安全方面的做法,强调了在发布新系统前的严格测试和安全评估,以及从现实世界使用中学习的重要性。文章还提到了对儿童保护的重视、隐私保护措施、提高事实准确性的努力,以及持续的研究和参与在人工智能安全中的关键作用。

近些天,对OpenAI来说,可谓是⼀个“多事之秋”。由于ChatGPT及GPT-4可能引发的安全问题,OpenAI受到了来⾃外界的⼀些指责和阻挠。

⻢斯克等上千⼈联名呼吁“所有⼈⼯智能实验室应⽴即暂停训练⽐GPT-4更强⼤的⼤模型,这⼀时间⾄少为6个⽉”;意⼤利禁⽤ChatGPT,OpenAl“必须在20天内通过其在欧洲的代表向他们通报公司执⾏这⼀要求⽽采取的措施”;ChatGPT⼤⾯积封号;ChatGPT Plus停售;......这些事件表明,尽管AI已经证明有能⼒为⼈类社会带来诸多好处,但技术总是⼀把双刃剑,也会为⼈类社会带来带来真正的⻛险,AI也不例外。

4⽉6⽇,OpenAI官⽅发布了⼀篇名为“Our approach to AI safety”的博客⽂章,探讨了如何“安全地构建、部署和使⽤⼈⼯智能系统”的⽅法。OpenAI致⼒于保持强⼤的⼈⼯智能安全和(⼈类社会的)⼴泛受益。我们的⼈⼯智能⼯具为今天的⼈们提供了许多好处。来⾃世界各地的⽤户告诉我们,ChatGPT有助于提⾼他们的⽣产⼒,增强他们的创造⼒,并提供量身定制的学习体验。

我们也认识到,像任何技术⼀样,这些⼯具也有真正的⻛险——所以,我们努⼒确保在各个层⾯上将安全纳⼊我们的系统。

在发布任何新系统之前,我们都会进⾏严格的测试,让外部专家参与反馈,努⼒利⽤⼈类反馈的强化学习等技术改善模型的⾏为,并建⽴⼴泛的安全和监测系统。例如,在我们最新的模型GPT-4完成训练后,我们所有员⼯花了6个多⽉的时间使其在公开发布前更加安全和⼀致。我们认为,强⼤的⼈⼯智能系统应该接受严格的安全评估。需要有监管来确保这种做法被采纳,我们积极与政府接触,探讨这种监管可能采取的最佳形式。

我们努⼒在部署前预防可预⻅的⻛险,然⽽,我们在实验室中能学到的东⻄是有限的。尽管进⾏了⼴泛的研究和测试,我们⽆法预测⼈们使⽤我们技术的所有有益⽅式,也⽆法预测⼈们滥⽤技术的所有⽅式。这就是为什么我们相信,随着时间的推移,从现实世界的使⽤中学习是创建和发布越来越安全的⼈⼯智能系统的⼀个关键组成部分。

在有⼤量的保障措施下,我们谨慎地逐步发布新的⼈⼯智能系统,将其推送给⼀个稳步扩⼤的⼈群,并根据我们学到的经验不断改进。关于安全的⼀个关键⼯作是保护⼉童。我们要求使⽤我们的⼈⼯智能⼯具的⼈必须是18岁或以上,或13岁或以上并得到⽗⺟的批准,我们正在研究验证选项。我们不允许我们的技术被⽤来产⽣仇恨、骚扰、暴⼒或成⼈内容,以及其他(有害)类别。

我们的最新模型GPT-4与GPT-3.5相⽐,对不允许的内容请求的回应率降低了82%,我们已经建⽴了⼀个强⼤的系统来监控滥⽤。GPT-4现在可供ChatGPT Plus⽤户使⽤,我们希望随着时间的推移,能让更多⼈使⽤。我们的⼤型语⾔模型是在⼀个⼴泛的⽂本语料库上训练出来的,其中包括公开的、授权的内容,以及由⼈类审查者产⽣的内容。

我们不使⽤数据来销售我们的服务、⼴告或建⽴⼈们的档案,我们使⽤数据来使我们的模型对⼈们更有帮助。例如,ChatGPT通过对⼈们与它的对话进⾏进⼀步的训练来提⾼能⼒。虽然我们的⼀些训练数据包括公共互联⽹上的个⼈信息,但我们希望我们的模型能够了解这个世界,⽽不是私⼈。

因此,我们努⼒在可⾏的情况下从训练数据集中删除个⼈信息,对模型进⾏微调,以拒绝对私⽣信息的请求,并对个⼈提出的从我们的系统中删除其个⼈信息的请求作出回应。这些步骤最⼤限度地减少了我们的模型可能产⽣包括私⼈信息的内容的可能性。提⾼事实准确性是OpenAI和许多其他⼈⼯智能开发者的⼀个重要⼯作,我们正在取得进展。

通过利⽤⽤户对被标记为不正确的ChatGPT输出的反馈作为主要数据来源,我们已经提⾼了GPT-4的事实准确性。与GPT-3.5相⽐,GPT-4产⽣事实性内容的可能性增加了40%。当⽤户注册使⽤该⼯具时,我们努⼒做到尽可能透明,即ChatGPT可能不总是准确的。然⽽,我们认识到,要进⼀步减少出现幻觉的可能性,以及引导公众了解这些⼈⼯智能⼯具⽬前的局限性,还有很多其他⼯作要做。

我们认为,解决⼈⼯智能安全问题的实⽤⽅法是投⼊更多的时间和资源来研究有效的缓解措施和调整技术,并针对现实世界的滥⽤进⾏测试。重要的是,我们认为,提⾼⼈⼯智能的安全性和能⼒应该⻬头并进。迄今为⽌,我们最好的安全⼯作来⾃与我们能⼒最强的模型之间的合作,因为它们更善于遵循⽤户的指示,更容易引导或“指导”。

随着能⼒更强的模型的创建和部署,我们将越来越谨慎,随着我们⼈⼯智能系统的进⼀步发展,我们将继续加强安全防范措施。虽然我们为了更好地了解GPT-4的能⼒、好处和⻛险,等了6个多⽉才将其部署,但有时可能需要⽐这更⻓的时间来提⾼⼈⼯智能系统的安全性。因此,政策制定者和⼈⼯智能供应商将需要确保⼈⼯智能的发展和部署在全球范围内得到有效的管理,没有⼈会为了尽快取得成功⽽“偷⼯减料”。

这是⼀个艰巨的挑战,需要技术和制度上的创新,但这也是我们渴望做出的贡献。解决安全问题也需要⼴泛的辩论、实验和参与,包括在⼈⼯智能系统⾏为的界限上。我们已经并将继续促进利益相关者之间的合作和公开对话,以创建⼀个安全的⼈⼯智能⽣态系统。

UUID: 1691f82e-60e9-4708-9e16-660423db57c4

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2023年/学术头条_2023-04-06_关于AI安全,OpenAI最新回应:没有人会为了尽快取得成功而“偷工减料”.txt

是否为广告: 否

处理费用: 0.0073 元