警惕AI大模型的“共情鸿沟”!剑桥团队呼吁:我们需要“儿童安全人工智能”框架

作者: 马雪薇

来源: 学术头条

发布日期: 2024-07-11 12:12:13

剑桥大学研究团队提出“儿童安全人工智能”框架,以应对AI大模型的“共情鸿沟”问题,强调AI聊天机器人对儿童的负面影响,并呼吁开发者和政策制定者优先考虑儿童需求的AI设计方法。

警惕AI大模型的“共情鸿沟”!剑桥团队呼吁:我们需要“儿童安全人工智能”框架。人工智能(AI)聊天机器人对儿童的负面影响,不容忽视。2021年,亚马逊的AI语音助手Alexa指示一名10岁儿童用硬币触摸带电的电源插头;在另一项安全测试中,研究人员在My AI中扮演一个年龄为15岁的角色,AI聊天机器人会建议他们如何隐藏酒精和毒品。

大语言模型(LLM)是一个“随机鹦鹉”(stochastic parrots)——它们只是统计某个词语出现的概率,然后像鹦鹉一样随机产生看起来合理的字句,但并不理解真实世界。这意味着,即使AI聊天机器人拥有出色的语言能力,它们也可能无法很好地处理对话中抽象、情绪化和不可预测的方面。

来自剑桥大学的研究团队将这类问题描述为AI聊天机器人的“共情鸿沟”(empathy gap),即它们在模拟人类互动方面的高效性与其缺乏真正理解人类情感和语境的能力之间的矛盾。他们发现,儿童特别容易把AI聊天机器人当作真实的“准人类知己”,如果AI聊天机器人不能满足儿童的独特需求和缺点,他们之间的互动就会出现问题。

然而,AI聊天机器人在回应儿童时可能会遇到特别的困难,因为儿童的语言能力仍在发展,经常会使用不寻常的语言模式或模棱两可的词语。儿童通常也比成人更愿意倾诉敏感的个人信息。因此,他们敦促开发者和政策制定者优先考虑更多考虑儿童需求的AI设计方法。

相关研究论文以“No, Alexa, no!’: designing child-safe AI and protecting children from the risks of the ‘empathy gap’ in large language models”为题,已发表在科学期刊Learning, Media and Technology上。“儿童可能是AI最容易被忽视的利益相关者。

”该论文的作者之一、剑桥大学博士Nomisha Kurian表示,“目前只有极少数开发商和公司制定了完善的儿童安全AI政策......与其让公司在儿童面临风险后再开始反思,不如将儿童安全贯穿于整个设计周期,从而降低发生危险事件的风险。”“共情鸿沟”的危害包括人类化倾向与对敏感信息的错误回应,以及造成伤害和表现出攻击性。对策及建议包括短期内需要解决的问题和长期需要考虑的因素。

从长期的角度来看,教育政策与实践在采用LLM驱动的对话式人工智能(如聊天机器人)时,需要考虑几个关键因素。首先,必须明确使用这些工具而非人类交流者的独特必要性或益处,以及它们如何为学习和教学增加教学价值,无论是超过当前人类能力还是弥补资源的不足。同时,需要探讨在缺乏人工智能替代品的情况下,如何促进人类提供者的存在和可用性,以确保学生能够获得全面的教育支持。

监管方面,需要研究如何制定明确的法律法规,这些法规不仅要明确界定儿童用户的权利和保护,还要考虑拟人化系统的复杂心理风险。此外,应强制执行年龄适宜性设计标准,以帮助拟人化设计避免无意中导致情感操纵,并制定严格的监管规定,对违规行为进行严厉处罚,同时支持创新。

在设计方法上,AI开发者需要确保LLM的设计流程纳入以儿童为中心的方法,如参与式设计研讨会或焦点小组,以直接从儿童那里收集有关他们的偏好、语言使用和交互模式的见解。LLM的语言和内容应根据不同的年龄组进行定制,并考虑发育阶段、词汇量和认知能力。开发者还需要与教育工作者、儿童安全专家、人工智能伦理学家和心理学家合作,定期审查和增强LLM的安全功能,确保其符合儿童保护的最新最佳实践。

学校与家庭的参与也是至关重要的。教育者需要与家长或监护人就教育环境和家庭中安全使用LLM进行讨论,并确保LLM提供教育父母有关安全措施的可用资源。此外,LLM应提供允许教育者和看护人共同设置权限、监控儿童的交互以及控制儿童可以通过LLM访问的内容类型的特征或设置。通过这些措施,可以确保LLM在教育领域的长期应用既安全又有效。

UUID: 18584fbf-5938-4eb8-9014-27f880d1e542

原始文件名: /home/andie/dev/tudou/annot/微推助手/学术头条/学术头条_2024-07-11_警惕AI大模型的“共情鸿沟”!剑桥团队呼吁:我们需要“儿童安全人工智能”框架(1).html

是否为广告: 否

处理费用: 0.0045 元