AI日报 | Google DeepMind新研究:将大模型作为通用模式机器

作者: 学术头条

来源: 学术头条

发布日期: 2023-07-11 19:15:59

本文介绍了Google DeepMind、腾讯、哥伦比亚大学、IBM研究、IITTirupati、中国科学院和中国科学院大学、上海交通大学、天津大学、微软亚洲研究院等团队在人工智能领域的最新研究成果,包括将大模型作为通用模式机器、强化学习生成高质量代码、零样本多机器人协作方法、生成自定义源代码表示、基于深度学习的汉字笔画提取以及用LLMs增强少样本学习框架。

今⽇值得关注的⼈⼯智能新动态:Google DeepMind新研究:将⼤模型作为通⽤模式机器先前的研究结果表明,⼤型语⾔模型(LLMs)可以在⽆需任何额外训练的情况下,基于上下⽂学习能⼒被⽤作为通⽤序列建模器(general sequence modeler)。

来⾃Google DeepMind、斯坦福⼤学、柏林⼯业⼤学的研究团队探讨了如何将这些零样本能⼒(zero-shot)应⽤于机器⼈领域的问题——从推断代表随时间变化的状态的数字序列以完成简单的运动,到发现和表示闭环策略(如CartPole的稳定控制器)的奖励条件轨迹的最少到最多提示。

尽管由于延迟、上下⽂⼤⼩限制和计算成本等原因,⽬前很难将其应⽤于实际系统,但使⽤LLMs驱动低级控制的⽅法可能为将⽂字之间的模式转化为机器⼈动作提供了令⼈兴奋的前景。腾讯强化学习新⽅法:让⼤模型⽣成⾼质量代码近来,越来越多的研究采⽤强化学习(RL)来提⾼⼤型语⾔模型(LLMs)在代码⽅⾯的性能。然⽽,这些RL⽅法只使⽤了离线框架,限制了它们对新样本空间的探索。

此外,⽬前利⽤单元测试信号的⽅法相当简单,并未考虑代码中特定错误位置的情况。为了解决以上问题,来⾃腾讯的研究团队提出了RLTF,即基于单元测试反馈的强化学习(Reinforcement Learning from Unit Test Feedback)。据介绍,该⽅法在训练过程中实时⽣成数据,并同时利⽤细粒度的反馈信号指导模型⽣成更⾼质量的代码。

⼤量实验证明,RLTF在APPS和MBPP基准测试中实现了最先进的性能。RoCo:零样本多机器⼈协作⽅法多机器⼈系统因其有望提⾼任务⽣产率⽽备受关注,但也⾯临着各种挑战。

其中⼀个挑战为,要使机器⼈有效地分⼯和分配⼯作,需要其对任务有⾼层次的理解,并考虑到每个机器⼈的能⼒,如到达范围或有效载荷;另⼀个挑战在于低层次的运动规划,随着机器⼈数量的增加,配置空间也随之扩⼤,寻找⽆碰撞的运动规划变得⾮常困难。来⾃哥伦⽐亚⼤学的研究团队提出了⼀种新颖的多机器⼈协作⽅法——RoCo,借助预训练的⼤型语⾔模型(LLMs)的能⼒解决⾼层次通信和低层次路径规划的问题。

实验结果证明,RoCo在RoCoBench(⼀个包含6个任务的基准测试)的所有任务中都取得了很⾼的成功率,且可以适应任务语义的变化。此外,RoCo也轻松地将⼈类纳⼊协作环节,⽤户可以与机器⼈代理进⾏沟通和协作,共同完成任务。COMEX:⽣成⾃定义源代码表示学习源代码的有效表示对于任何软件⼯程的机器学习(ML4SE)系统都⾄关重要,有效的源代码遵循由编程语⾔的底层语法控制的严格结构和模式。

然⽽,Codex和CodeGen等⼤型语⾔模型(LLMs)却没有利⽤源代码的这⼀特性,它们只是将代码视为token序列,同时忽略了可以从代码视图中提取的代码的关键结构和语义属性;⽽且,为每种编程语⾔⽣成和集成代码视图的过程繁琐且耗时。

为此,来⾃IBM研究、IITTirupati的研究团队提出了⼀个允许研究⼈员和开发⼈员创建和组合多个代码视图的框架——COMEX,这些代码视图可以被机器学习(ML)模型⽤于各种软件⼯程(SE)任务中。据介绍,COMEX可以直接处理源代码(⽆需可编译),⽀持通过使⽤过程内和过程间分析同时分析⽅法级⽚段和程序级⽚段;⽬前⽀持Java和C#语⾔,且易于扩展到其他语⾔。

基于深度学习的汉字笔画提取汉字笔画提取在汉字识别和⽣成⽅⾯具有重要作⽤。现有⽅法⼤多基于图像形态特征,由于很少使⽤笔画语义和先验信息,通常会导致交叉笔画提取和笔画匹配的错误。为此,来⾃中国科学院和中国科学院⼤学的研究团队提出了⼀种基于深度学习的字符笔画提取⽅法。实验结果表明,该⽅法优于现有基线⽅法。

据介绍,该⽅法由三部分组成:基于图像配准的笔画配准,建⽴参考笔画和⽬标笔画的粗配准作为先验信息;基于图像语义分割的笔画分割,将⽬标笔画初步分为七个类别;以及单笔画的⾼精度提取。在笔画配准⽅⾯,该研究提出了⼀种结构可变形图像配准⽹络,可以在保持复杂结构字符图像单笔画稳定形态的同时实现结构可变形变换。

FILM:⽤LLMs增强少样本学习框架少样本(Few-shot)学习的⽬标是训练可以在只有少量样本的情况下泛化到新类别的模型。以往的研究⼯作提出,使⽤来⾃类别名称的可访问语义信息来增强少样本学习,但主要集中在改进标准少样本学习框架中的视觉原型和特征提取器等现有模块,限制了语义信息的充分利⽤。

在该研究中,来⾃上海交通⼤学、天津⼤学、微软亚洲研究院的联合团队,提出了⼀种基于对⽐学习的预训练语⾔模型的少样本学习框架——FILM。为了解决基于⽂本的预训练语⾔模型产⽣的视觉特征和⽂本嵌⼊之间的对⻬问题,该研究设计了框架的⽂本分⽀,并引⼊了度量模块来泛化余弦相似度;为了获得更好的可迁移性,该研究让度量模块适应不同的少样本任务,并采⽤MAML通过双层优化来训练模型。

此外,在miniImageNet、tieredImageNet和CIFAR-FS等多个基准上的测试,证明了该⽅法的有效性。

UUID: 8831d977-fda8-48c4-90e0-2ddbb33a971f

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2023年/学术头条_2023-07-11_AI日报|GoogleDeepMind新研究:将大模型作为通用模式机器.txt

是否为广告: 否

处理费用: 0.0064 元