今⽇值得关注的⼈⼯智能新动态:
微软意外曝光38 TB敏感信息近⽇,微软的AI研究团队在GitHub上发布开源训练数据时,意外暴露了敏感数据。云安全初创公司Wiz发现GitHub存储库中的Azure Storage URL配置错误,导致整个存储帐户都被授权,意外曝露了38 TB的敏感信息,其中包括员⼯个⼈计算机的备份、微软服务的密码和数万条内部消息。
⽬前,微软已经撤销了SAS令牌,并表示没有客户数据曝露。此外,他们还扩展了GitHub的安全服务以检测类似问题,提⾼数据安全。
英国反垄断监管机构发布七项原则
为指导AI法规和开发公司,英国反垄断监管机构竞争与市场管理局(CMA)制定了七项原则,焦点集中在基础模型上,如OpenAI的GPT-4和Meta的Llama 2等⼤型语⾔模型。这些原则强调了开发⼈员和企业应对⽤户的输出负责任,同时确保⼴泛访问芯⽚、处理器和训练数据,提供多样化的业务模型,以及提供透明度和避免反竞争⾏为。他们强调,制定这些原则是为了保护竞争,防⽌低性能的AI系统扩散。
美国防部与⾕歌联⼿打造AI显微镜,助⼒癌症早期诊断据《科创板⽇报》消息,美国国防部与⾕歌合作,研发⼀种带有⼈⼯智能(AI)功能的新型显微镜,可协助医⽣更早地发现患者体内可能存在癌细胞。美国医⽣Nadeem Zafar在接受采访时表示,这⼀新产品被称为虚拟实景显微镜(ARM),尽管该技术⽬前仍在早期阶段,尚未⼴泛应⽤于诊疗,但初步研发进展顺利。
Zafar指出,⽬前已经⽣产了13台ARM设备,并正在⾸都华盛顿的Mitre机构进⾏测试。据估算,每台ARM的价格可能在9万⾄10万美元之间。
MIT新研究:“三个臭⽪匠,顶个诸葛亮”最近,麻省理⼯学院(MIT)计算机科学与⼈⼯智能实验室(CSAIL)的团队将“三个臭⽪匠,顶个诸葛亮”的智慧引⼊现代技术前沿。
他们提出了⼀种策略,利⽤多个⼈⼯智能(AI)系统来讨论和争论,以达成对给定问题的最佳答案。这种⽅法赋予这些⼴泛的语⾔模型更⾼的坚守事实数据的能⼒和决策改进。该研究的作者之⼀Yilun Du表示:“我们的过程动⽤多种AI模型,每个模型为解决问题提供独特的⻅解。尽管它们的初始回应可能显得简略或包含错误,但这些模型可以通过审查同⾏的回应来锐化和改进⾃⼰的答案。
随着这些AI模型参与对话和讨论,它们更有能⼒识别和纠正问题,提⾼解决问题的能⼒,并更好地验证其回应的准确性。”
瑞·达利欧:每周工作3天?AI或许能帮你传奇投资者瑞·达利欧表示,尽管⼈⼯智能(AI)在过去⼀年成为华尔街热⻔话题,引发⼴泛的担忧,但其好处可能会令⼈震惊。他特别强调了AI作为⼀个重要的变⾰⼒量,在提⾼⽣产⼒⽅⾯具有潜⼒。从⽣产率的⻆度来看,如果管理得当,⼯作周可能会减少到3天左右。
然⽽,他警告说,除⾮进⾏⼲预,否则只有社会的⼀部分群体会受益于这些变化,可能会导致贫富差距扩⼤。因此,政策制定者需要谨慎考虑如何分享AI带来的好处,以避免不平等加剧。
MindAgent:新兴游戏互动⼤型语⾔模型(LLMs)有能⼒在多代理系统中执⾏复杂的调度,并能协调这些代理完成需要⼴泛协作的复杂任务。
然⽽,尽管引⼊了许多博弈框架,但社区在构建包含LLMs和⼈类-NPC协作的通⽤多代理协作基础架构⽅⾯仍缺乏⾜够的基准。为此,来⾃微软、加州⼤学洛杉矶分校,以及斯坦福⼤学、北京通⽤⼈⼯智能研究院、北京⼤学、清华⼤学的研究团队提出了⼀种新型基础架构--MindAgent,⽤于评估游戏交互的规划和协调新兴能⼒。
特别是,该基础架构利⽤现有的游戏框架:1)要求理解多机器⼈系统的协调者;2)通过未调整的适当指令与⼈类玩家协作;3)在有反馈的少量提示中建⽴上下⽂学习。此外,该研究还介绍了⼀种新的游戏场景和相关基准——CUISINEWORLD,可调度多代理协作效率并监督多个代理同时进⾏游戏。研究团队利⽤计算协作效率的新⾃动度量CoS进⾏了全⾯评估。
另外,该基础架构可以在定制的VR版CUISINEWORLD中部署到现实世界的游戏场景中,并适⽤于现有的更⼴泛的Minecraft游戏领域。
综述:AI在Web 3.0中的应用Web 3.0是利⽤分布式技术重构的新⼀代互联⽹,其重点是数据所有权和价值表达。同时,它的运⾏原则是数据和数字资产应由⽤户⽽⾮⼤公司拥有和控制。
该研究探讨了Web 3.0的发展现状以及⼈⼯智能(AI)技术在Web 3.0中的应⽤,通过研究Web 3.0的现有应⽤和组件,从⽣态应⽤场景的⻆度提出了Web 3.0的架构框架,并将Web 3.0的⽣态勾勒并划分为四个层次:数据管理、价值流通、⽣态治理和应⽤场景,并研究深⼊探讨了每⼀层中存在的主要挑战和问题。
在此背景下,AI已显示出解决Web 3.0现存问题的强⼤潜⼒,该研究深⼊分析了AI技术在Web 3.0四个层⾯的应⽤现状,并对其未来潜在的发展⽅向提出了⼀些⻅解。
综述:聊天机器⼈中的偏⻅与公平与传统聊天机器⼈相⽐,基于⼤型语⾔模型(LLMs)的聊天机器⼈展现出了更强⼤的能⼒,并已在现实世界中得到应⽤。然⽽,它们的设计存在偏⻅和公平性问题。
由于训练数据量巨⼤、模型规模超⼤且缺乏可解释性,它们的偏差缓解和公平性保护⼯作⾯临挑战。因此,该研究对聊天机器⼈系统中的偏差和公平性进⾏了全⾯概述。该研究回顾了聊天机器⼈的历史及其类别;分析了应⽤中的偏⻅来源和潜在危害;研究了设计公平、⽆偏⻅的聊天机器⼈系统的注意事项;并讨论了未来的研究⽅向。
MIT新研究:拥有世界观的⽂本到图像⽣成模型
⽣成式⽂本到图像模型(GTI)能根据简短的⽂字描述⽣成⾼质量的图像,并⼴泛应⽤于学术和创意领域。然⽽,GTI模型经常会放⼤训练数据中的偏差,往往会⽣成带有偏⻅或刻板印象的图像。⽬前的偏差缓解策略⾮常有限,主要集中于在不同职业间强制执⾏性别均等。为了增强GTI偏差缓解能⼒,该研究提出了DiffusionWorldViewer,这是⼀种⽤于分析和操纵GTI模型的态度、价值观、故事和对世界的期望的⼯具。
据介绍,通过基于⽹络的GUI和Jupyter Notebook插件部署的交互式界⾯,DiffusionWorldViewer对GTI⽣成图像的现有⼈⼝统计进⾏分类,并提供交互式⽅法,使图像⼈⼝统计与⽤户世界观相⼀致。在对13位GTI⽤户的研究中,该研究发现DiffusionWorldViewer可以让⽤户表达他们对GTI输出公平性的不同观点,并以此挑战当前假定普遍世界观的公平性概念。
⼤型语⾔模型能否理解现实世界的复杂指令?⼤型语⾔模型(LLMs)可以理解⼈类指令,但在处理复杂指令时仍有困难,这就使得LLMs经常会忽略任务描述中的语义约束,⽣成错误的格式,违反⻓度或样本数约束,以及不忠实于输⼊⽂本。然⽽,现有的基准不⾜以评估LLMs理解复杂指令的能⼒,因为这些指令都是封闭式的、简单的。为此,该研究提出了CELLO基准,⽤于评估LLMs系统地遵循复杂指令的能⼒。
该研究为复杂指令设计了⼋个特征,并从真实世界的场景中构建了⼀个全⾯的评估数据集,还建⽴了四个标准,并开发了相应的度量⽅法。通过⼤量实验,该研究⽐较了具有代表性的⾯向中⽂和⾯向英⽂的模型在遵循复杂指令⽅⾯的性能。
TextBind:多轮交错多模态跟读指令
具有指令跟踪能⼒的⼤型语⾔模型(LLMs)通过⾃然语⾔界⾯,在处理各种现实世界任务时显示出了卓越的通⽤性。然⽽,它们的性能在很⼤程度上依赖于⾼质量的示例数据,⽽这些数据往往很难获得。当涉及多模态任务时,这⼀问题更加凸显。该研究介绍了⼀种⼏乎⽆需注释的框架——TextBind,⽤于增强LLMs的多轮交错多模态指令跟随能⼒。据介绍,该⽅法只需要图像-标题对,就能从语⾔模型⽣成多轮多模态指令-响应对话。