OpenAI CTO呼吁减少对GPT-4的炒作。美国联邦贸易委员会(FTC)警告商家不得利用对出售的AI产品和服务进行虚假宣传。ChatGPT可以评估人的性格吗?大型语言模型(LLM),尤其是ChatGPT,在各个领域都取得了令人瞩目的成果,但它们潜在的类人心理在很大程度上仍未得到探索。现有的研究工作尝试考察LLM的虚拟人格,但少有学者通过LLM分析人类人格的可能性。
基于此,本文提出了一种基于MBTI测试的LLM通用评估框架来评估人的性格。具体来说,首先通过随机排列MBTI问题中的选项来设计无偏见的提示,并采用平均测试结果来鼓励更公正的答案生成。然后,替换主题询问陈述,以实现对LLM不同主题的灵活询问和评估。最后,以正确性评估的方式重新制定问题说明,以帮助LLM生成更清晰的响应。
研究结果显示,所设计的框架使LLM能够灵活地评估不同人群的性格。研究进一步提出了三种评估指标,以衡量最先进的LLM(包括ChatGPT和InstructGPT)的评估结果的一致性、稳健性和公平性。实验揭示了ChatGPT评估人类性格的能力,平均结果表明,与InstructGPT相比,ChatGPT以更少的性别偏差实现了更一致、更公平的评估,而其结果对提示偏差更敏感。
在口语对话系统方面,当前的口语对话系统(SDS)通常充当被动听众,仅在收到用户语音后才做出响应。为了实现类人对话,这项研究提出了一种新颖的未来预测架构,允许SDS使用用户在当前对话中的行为来预测用户在未来对话中的情感反应。研究调查了两种情况:言语和笑声。
研究表明,在语音中,根据用户与系统当前情绪的时间关系及其与系统当前对话行为(DA)的因果关系来预测用户未来的情绪;在笑声中,通过使用系统在当前对话的笑声行为来预测用户笑声的发生与类型。
研究验证了所提出的预测架构可以为未来SDS的开发做出贡献。
在社交和开放领域的对话中,具有预测架构的SDS可以实时生成适当的对话和情感行为,如附和“是”或是笑声,而不是延迟可能会打断用户下一个对话的回复,这将使得人机更好地合作并完成任务。在医疗保健和教育方面,它非常有用。例如,SDS可以通过激发抑郁症患者的某些情绪来调整其产生的情绪和对话行为,以支持用户的情绪调节过程。
在教育中,SDS可以在与孩子合作解决问题的过程中表达情绪,以增加他们对学习活动的参与度,并由此产生学习成果。
AIGC在过去几年中受到了极大关注,内容涵盖图像、文本、音频、视频等。与此同时,AIGC也已成为了一把双刃剑。此项研究关注可能阻碍AIGC在实践中健康发展和部署的问题,包括隐私、偏见、毒性、错误信息和知识产权(IP)风险。
例如,运用文生图应用Stable Diffusion以“三个工程师在草原上奔跑”为提示而生成的9张图片中共有28人,全部为男性。此外,他们都不属于被忽视的少数种族,这显示了Stable Diffusion的巨大偏见。
研究通过记录已知和潜在的风险,以及任何可能的AIGC滥用场景,旨在引起人们对潜在风险和滥用的关注,帮助社会消除障碍,促进AIGC更符合道德和安全的部署。此外,研究为应对这些风险提供了有希望的方向,使AIGC能够负责任地用于造福社会。例如,对于公司来说,应采取主动措施,以减轻数据源、模型和预处理/后处理步骤中的潜在风险。如果没有适当的保障措施,AIGC的发展可能面临重大挑战和监管负担。
机器学习模型可能会犯一些很容易隐藏在大量数据中的基本错误。这种错误常常与被称为“常识”的人类直觉背道而驰。因此,这项研究试图描述数据驱动模型的常识,并量化模型学习常识的程度:将常识规则形式化为与训练数据一致的统计分位数规则,并定义了大规模提取此类规则的问题。
研究提出了一个框架,该框架将基于逻辑的方法与统计推理相结合,以在没有监督的情况下从模型的训练数据中得出常识规则。
研究进一步展示了如何在测试时调整模型,以减少常识规则违规,并产生更连贯的预测。通过在三个不同领域的数据集和模型上评估此框架——它针对这些数据集生成大约25-30万条规则,并通过各自数据集的最先进模型发现了1500-26000条违反这些规则的行为。测试时间自适应可在不影响总体模型精度的情况下将这些违规行为减少38%。
3月1日,OpenAI宣布推出ChatGPT API和Whisper API,开发者可以通过API将ChatGPT和Whisper模型集成到他们的应用程序和产品中。ChatGPT是AI驱动的聊天机器人,Whisper是一款AI语音转文本模型,可以实现多种语言的转录,并可将那些语言翻译成英语。目前,社交软件Snapchat、全球学习平台Quizlet等已将API嵌入来提升用户的使用体验。
任何第三方可以通过OpenAI提供的API使用ChatGPT和Whisper模型。OpenAI表示,“我们相信AI可以为每个人提供难以置信的机会和经济赋权,而实现这一目标的最佳方式是让每个人都可以利用它进行建设。”这一宣布将驱动构建由ChatGPT和Whisper提供支持的下一代表应用程序,使更多的人从中受益。
近日,《华尔街日报》报道称,由于苹果要求应用程序BlueMail增加内容审核或仅限17岁及以上人群使用(该应用程序以前适用于4岁及以上的儿童),该更新被搁置,其中包括一项由聊天机器人ChatGPT提供支持的新功能:运用ChatGPT帮助使用先前电子邮件和日历事件的内容自动编写电子邮件。
该应用程序的制造商Blix告诉苹果,此次更新包括内容审核,并建议苹果公开有关在应用程序中使用ChatGPT或其他类似AI系统的任何新政策。然而,BlueMail更新在周四晚上未经更改就获得批准。苹果长期以来一直表示,它必须策划和审查通过其App Store的每个应用程序,以确保其产品对用户安全。
Apple最初拒绝BlueMail的ChatGPT功能的消息凸显了对语言生成AI工具新用途的忧虑,担心AI产生不正确的信息以及奇怪的、有时甚至是敌对的反应。尽管Apple对AI功能采取了行动,但Apple并没有提供对应程序中使用AIGC的额外正式App Store指南。
Red Ventures是一家私募股权支持的媒体公司,于2020年收购了科技新闻网站CNET。今年1月,CNET被披露发布了数十篇使用AI生成的文章。出于来自公众担忧的压力,Red Ventures对其网站上所有AI生成的内容进行了内部审计并暂停了AI工具的使用。担任CNET主编九年的Guglielmo为在媒体上使用AI工具而辩护。
近日,Guglielmo将卸任并担任AI内容战略高级副总裁兼特约编辑。与此同时,CNET正在进行大规模裁员,其中包括几名长期雇员。一位高管在电邮中表示,裁员是为了让CNET专注于本领域,生成“高度权威、相关性和差异化”内容,并使得网站可以在Google搜索中带来流量——这是公司的首要任务。
过去的两周内,微软向Bing和Edge移动应用程序添加了Bing预览功能,将Bing聊天与Skype集成,并宣布我们将Bing引入Windows 11任务栏。同时,微软也在对新的Bing预览进行日常增量改进,并添加了一些新功能。
聊天语气:可以将聊天语气从“精确”(侧重于更短、搜索的答案)切换到“创意”(提供更长且更具描述性的响应)。中间设置(“平衡”)介于两者之间。转向计数器:增加单个对话中的聊天次数(之前限制设置为6次)。针对用户很难预测何时需要重新开始一个新主题的问题,在Bing的底部设置转数计数器(turn counter)和红绿灯(stoplights)以指示用户在对话中的位置。
Edge中的页面上下文:如果用户使用Windows的Edge Dev通道中内置的Bing聊天体验,解决Bing有时无法识别用户正在浏览页面上下文的问题。聊天行为:针对不必要地限制响应或具有防御性或对抗性的聊天行为,使得Bing响应更具吸引力并提供更详尽的观察结果。
3月2日,联合国秘书长发言人杜加里克表示,联合国正与哥斯达黎加合作,利用AI打击仇恨言论,并制定了中美洲地区首个国家AI战略。据悉,哥斯达黎加政府已与联合国教科文组织达成协议,以符合道德的方式制定国家战略,以AI促进可持续发展的创新。
哥斯达黎加科技创新电信部部长萨莫拉指出:“AI正在帮助我们以更知情和公平的方式有效解决问题。AI潜力巨大,但同时也带来了极大挑战。我们必须积极主动地、以合乎道德的方式解决这些问题,并共同努力,确保AI用于整个社会的福祉。”
美国联邦贸易委员会(FTC)广告业务分部在其官网发布文章,警告商家不得利用对出售的AI产品和服务进行虚假宣传。
AI是当下正火的营销词汇,FTC认为,广告商们会倾向于滥用和过度使用这类热门术语。FTC要求商家宣传AI产品和服务时对以下四点问题进行慎重考虑:是否夸大了AI产品的功能?包括对AI性能做出无科学依据的吹捧,如称“AI可以预测未来”等。是否承诺你的AI产品比非AI产品做得更好?广告商所主张的一些新技术使他们的产品更好的观点,需要充分的证据。知道风险吗?
商家对AI技术的风险需有足够认知,在生成不良结果后不可用AI的“黑箱”性做出开脱或仅以此责怪第三方技术开发商。该产品是否真的使用了AI?产品AI技术需能够经得起FTC技术人员审核,在开发过程中使用AI技术不能算作产品使用了AI。
近日,美国新泽西州启动立法程序,对使用AI技术进行招聘进行立法规制。尽管使用AI技术对提高招聘效率发挥了较大作用。但AI算法的透明度、隐私保护状况以及是否存在歧视等问题日益引发民众和监管部门的关注。该法案将限制新泽西州的雇主使用AI驱动的招聘软件,除非该软件通过了“偏见审计”审查。
根据该法案,如果雇主在招聘过程中使用AI自动化决策工具,雇主有通知求职者的义务。不披露的公司将被处以500-1500美元每次的罚款。该法案的支持者表示,对雇主在招聘软件中使用AI技术进行限制和规范,将最大限度地减少这些系统歧视潜在员工的机会。
近日,在特斯拉的投资者日上马斯克回答一位股东的提问时发表评论:“我们应该需要某种监管机构之类的东西,监督AI的发展并确保它在公共利益范围内运作。”马斯克将AI描述为“相当危险的技术”,并担心自己“可能已经做了一些事情来加速它”。同时,上个月,马斯克在迪拜举行的世界政府峰会上发表讲话时表示,未经检查的AI可能对社会构成威胁。
比尔·盖茨告诉英国《金融时报》,人们试图让AI看起来很愚蠢,但它对人类并不构成威胁。盖茨表示,AI的问题在于控制它的人,而不是技术本身。被问及是否担心AI时,盖茨说“很好,没有威胁。但是,如果你坐在那里挑衅,还不清楚应该责怪谁”。另外,盖茨表示,AI有望在未来两年内迅速提高其准确性和能力。尽管他相信AI会引发一些劳动力流失,但它会创造更高的效率。同时,他认为AI预计也将在可再生能源中发挥重要作用。
OpenAI首席技术官米拉·穆拉蒂表示,应该减少对下一代对话式AI——GPT-4的炒作,希望人们对下一个版本的ChatGPT保持冷静:“少炒作就好。”穆拉蒂认为,GPT-4会将那些认为ChatGPT鼓励作弊和剽窃的心怀不满的老师变成快乐的老师,他们可以使用聊天机器人作为一种工具,比如帮助编写课程计划。