今⽇值得关注的⼈⼯智能新动态:姚期智团队新作:“累积推理”让⼤模型更聪明。尽管语⾔模型强⼤且⽤途多,但难解复杂问题,因为复杂问题需要深思熟虑,训练中对此⽀持有限。为解决此问题,姚期智团队提出了⼀种名为“累积推理”(Cumulative Reasoning,CR)的⽅法,该⽅法以累积和迭代的⽅式使⽤语⾔模型来模拟⼈类的思维过程。
以处理逻辑推理任务为例,CR在准确率上超越现有⽅法多达9.3%,在FOLIO维基数据集达98.04%。在“24点游戏”中,CR达94%准确率,较先前最先进⽅法提升20%。
突破极限!英伟达推出GH200芯⽚。本周⼆,英伟达宣布推出⼀款⽀持AI模型的新芯⽚GH200,该芯⽚在GPU性能⽅⾯与英伟达当前最⾼端的AI芯⽚H100相当,然⽽它引⼊了⾼达141GB的顶尖内存以及⼀颗拥有72核的ARM中央处理器。英伟达⾸席执⾏官⻩仁勋表示,“这款处理器是为全球数据中⼼的横向扩展⽽设计的。”
Stability AI发布全新StableCode模型。
昨天,Stability AI⾸次公开发布其全新开放式⼤型语⾔模型StableCode,该模型可以帮助⽤户⽣成编程语⾔代码。据悉,StableCode模型受益于开源的BigCode项⽬的初始编程语⾔数据集,并且经过Stability AI的额外筛选和微调。最初,StableCode将⽀持Python、Go、Java、JavaScript、C、Markdown和C++编程语⾔的开发。
⾕歌提出AI抓取版权新解:出版商拥有拒绝权利。近⽇,⾕歌呼吁修改版权法,允许出版商选择拒绝AI系统抓取其作品。公司主张推⼴适当使⽤版权内容的版权系统,同时⽀持实体选择退出。另外,⾕歌提议类似于Robots.txt的退出机制,要求出版商标明AI是否可使⽤其内容。专家认为,这或将形成规范,免去付费需求。
AutoPCF:⼤幅缩短⾃动计算产品碳⾜迹时间的框架。
近⽇,阿⾥云、⾹港中⽂⼤学和清华⼤学合作发布⼀项新研究,该研究测试了五个⼤型语⾔模型(LLMs)在产品⽣命周期建模和⽣成库存数据⽅⾯的新能⼒,揭示了它们作为通⽤产品碳⾜迹(PCF)知识库的限制。为解决该问题,研究团队利⽤LLMs提出了⾃动AI驱动的PCF核算框架——AutoPCF,该框架应⽤深度学习算法⾃动匹配计算参数,并最终计算PCF。
通过AutoPCF框架估算三种案例产品的碳⾜迹,结果显示其在实现PCF⾃动建模和估算⽅⾯潜⼒巨⼤,能将建模时间从数天减少到⼏分钟。
AgentSims:评估⼤型语⾔模型的开源沙盒。为弥补⽬前⼤型语⾔模型(LLMs)评估⽅法存在的缺陷,PTA studio领衔的研究团队提出了⼀种基于任务的评估⽅法——AgentSims,即在模拟环境中让LLMs代理完成任务。研究⼈员可以通过交互式图形⽤户界⾯(GUI)添加代理和建筑物来构建评估任务,也可以通过少量代码部署和测试新的⽀持机制。
AI多⻆⾊聊天机器⼈:⾰新计算机科学教育的参与模式。
近期,谢菲尔德⼤学、Microsoft Research、卡内基梅隆⼤学和科布伦茨⼤学共同发布了⼀项研究。该研究以AI为动⼒,通过设计创新的多⻆⾊聊天机器⼈,增强计算机科学教育中的学习体验与参与度。研究团队依托⾃我决定理论,将教师、同伴、职业指导和情感⽀持四种聊天机器⼈⻆⾊融⼊学习环境,满⾜学⽣在能⼒、⾃主性和相关性⽅⾯的需求。
经过⼀个⽉的⾼等教育背景测试,与⼈类导师或单⼀机器⼈相⽐,该系统展示了积极影响。
MindDiffuser:通过语义和结构扩散从⼈脑中控制图像重建。将⼤脑记录转化为视觉刺激是⼀项具有意义但充满挑战的任务。尽管复杂的图像重构技术已有所突破,但在将语义和结构与图像刺激紧密融合⽅⾯仍存在挑战。
为了解决这⼀问题,中国科学院⼤学、中科院⾃动化研究所和北京理⼯⼤学的研究⼈员提出了⼀种名为MindDiffuser的双阶段图像重构模型。定性和定量分析结果表明,该模型在⾃然场景数据集(NSD)上已超越⽬前最先进的模型。随后的实验结果证实了该模型的神经⽣物学合理性,多模态特征的可解释性与相应脑响应相吻合。
InstructZero:⿊盒⼤型语⾔模型的⾼效指令优化。
尽管⼤型语⾔模型(LLMs)可以执⾏指令,但在不同情境下找到最佳指令,尤其是对于不允许反向传播的⿊盒LLMs,是具有挑战性的。为了解决这个问题,⻢⾥兰⼤学的研究⼈员提出了⼀种名为InstructZero的⽅法。该⽅法通过在开源LLMs上优化低维软提示,⽣成适⽤于⿊盒LLMs的指令,⽽不是直接优化离散指令。
在每次迭代中,软提示转化为指令,提交给⿊盒LLMs进⾏零样本评估,并将性能发送到⻉叶斯优化产⽣新的软提示,提⾼零样本性能。在多种开源LLMs和API组合上的测试中,InstructZero在各类下游任务上的表现都超过了⾃动指令⽅法。