清华⼤学成⽴⼈⼯智能研究院基础模型研究中⼼据清华⼤学计算机科学与技术系官⽅公众号消息,清华⼤学⼈⼯智能研究院基础模型研究中⼼于6⽉30⽇下午在清华成⽴。清华⼤学校⻓王希勤在成⽴仪式上表示,基础模型对通⽤⼈⼯智能的发展⾄关重要,学校⾯向世界科技前沿成⽴研究中⼼旨在推动相关领域有组织科研和学科发展。
据介绍,计算机系教授唐杰受聘为研究中⼼主任,计算机系教授⻩⺠烈、刘知远受聘为研究中⼼副主任,清华⼤学⼈⼯智能研究院常务副院⻓孙茂松受聘为研究中⼼⾸席科学家。
AI新魔法:聊聊天就能创作GIF动图近⽇,图像编辑器Picsart推出了⼀款由AI驱动的动画GIF⽣成器。⽤户只需要在聊天框中输⼊指令,⼤约⼀分钟后就会出现创意⼗⾜的GIF作品。该平台已经集成到Picsart应⽤程序中,可⽤于iOS和Android等设备,制作完成的GIF可以直接下载到设备中。
⾕歌与Twitter:科技巨头之争升级近⽇,⾕歌更新了其隐私政策,明确表示该公司有权收集⽤户在⽹上发布的⼏乎所有内容,并将这些内容⽤来构建其AI⼯具。该政策称:“⾕歌可以使⽤公开信息来训练其AI模型并构建⾕歌翻译、Bard和Cloud AI等产品和功能。”与此同时,Twitter限制了⽤户每天可以查看的推⽂数量。对此,⻢斯克表示,这是对“数据抓取”和“系统操纵”的回应。
掌⼼中的未来:Humane AI Pin作为⼀款可穿戴投影仪,Humane AI Pin可以在⼿⼼上或物体表⾯投射通话、应⽤程序等内容。该设备还配置了⽤于扫描和查看周围环境的摄像头、⽤于激活⾃身的隐藏传感器以及内置扬声器。发明者Imran Chaudhri表示,“⽤户甚⾄不需要智能⼿机或其他电⼦设备来与Humane AI Pin配对,他们只需佩戴它或将其别在⾐服上即可激活其功能。”
Stability AI CEO:五年内将不再有程序员近⽇,在⼀次采访中,Stability AI创始⼈兼⾸席执⾏官Emad Mostaque表示“五年内将不再有程序员”。他还表示,“来⾃GitHub的数据显示,⽬前41%的代码都是由AI⽣成的。到明年年底,⽆需互联⽹连接,我们的⼿机上将拥有ChatGPT。随着AI模型完全接⼊⼿机,我们的对话交互可能会发⽣根本性的转变。”
保护学术严谨性:英国倡导明智使⽤AI近⽇,为确保学⽣和教职⼯具备AI素养,英国24所⼤学制定了⼀套指导原则。该原则称:“为帮助学⽣和教职员⼯做出明智的决策,使他们能够适当地使⽤这些⼯具,并在必要时承认使⽤⼯具,这些政策明确规定在何种情况下使⽤⽣成式AI是不适当的。”他们表示,这将有助于⼤学使⽤AI⼯具,同时保护学术的严谨性和完整性。
搜索,ChatGPT与⾕歌的较量新研究发现,ChatGPT可能对传统搜索引擎产⽣重要影响。在⼀项随机在线实验中,使⽤ChatGPT⼯具的⽤户相⽐使⽤⾕歌搜索⼯具的⽤户,在各项任务上花费的时间明显减少,但整体任务表现没有显著差异。ChatGPT在回答直接问题和提供⼀般解决⽅案⽅⾯表现出⾊,但在事实核实上表现不佳。尽管如此,⽤户认为ChatGPT的回答信息质量优于Google搜索。
此外,使⽤ChatGPT的参与者拥有更好的⽤户体验,⽽在使⽤便捷性感知⽅⾯与传统搜索引擎相当。然⽽,研究也指出,ChatGPT可能会导致过度依赖问题以及产⽣错误信息。
LEDITS:使⽤DDPM进⾏真实图像编辑近⽇,为解决基于⽂本的图像编辑技术问题,HuggingFace研究⼈员开发了⼀种名为LEDITS的新⽅法。LEDITS通过结合编辑友好的DDPM反转技术和语义引导,将语义引导扩展到真实图像编辑,这种⽅法实现了多功能编辑,⽆需对架构进⾏优化或扩展。
RH20T:帮助机器⼈⼀次性学习多种技能近⽇,上海交通⼤学卢策吾团队发现通过多模态感知可以帮助机器⼈获取多样化的操纵技能。该团队收集的110000多个真实世界机器⼈操纵序列,涵盖了多种技能、背景、机器⼈和摄像机视⻆。数据集RH20T中的每个序列都包括视觉、⼒量、⾳频和⾏动信息,以及相应的⼈类示范视频。这⼀研究为机器⼈技术的发展提供了新的可能性,使机器⼈能够在复杂任务中展现多样化的操纵能⼒。
⼤型语⾔模型的⼈格特征近⽇,来⾃Google DeepMind、剑桥⼤学的研究⼈员及其合作者,提出了⼀种⽅法,可以量化、分析和塑造⼤型语⾔模型(LLMs)⽣成⽂本中的⼈格特征。他们发现,在特定提示配置下,某些LLMs⽣成的⼈格模拟是可靠和有效的。此外,对于较⼤的和指令微调的模型,LLMs模拟⼈格的可靠性和有效性的证据更强。为模仿特定的⼈格特征,LLMs中的⼈格可以按照所需的维度进⾏塑造。
然⽽,⼈格塑造也引发了关于LLMs使⽤的伦理问题。
SCITUNE:让⼤模型理解科学近⽇,研究⼈员开发了⼀种名为SciTune的新⽅法,通过指令微调来提⾼⼤型语⾔模型对科学指令的理解能⼒。他们使⽤⼈类⽣成的科学指令数据集训练了⼀个⼤型多模态模型LLaMA-SciTune,该模型结合了视觉编码器和语⾔模型,实现了对科学和语⾔的综合理解。
研究结果显示,相⽐于仅使⽤机器⽣成的数据进⾏微调的模型,LLaMA-SciTune在科学问题回答⽅⾯表现更好,甚⾄超过了⼈类。
⽣成式AI如何影响⽹络安全和隐私?近⽇,⼀项新研究揭示了⽣成式AI在⽹络安全和隐私领域的限制、挑战、⻛险和机遇。该研究特别关注ChatGPT的漏洞,揭示了恶意⽤户可以绕过伦理约束,利⽤漏洞窃取恶意信息。
同时,研究⼈员还展示了ChatGPT⾯临的越狱攻击、逆向⼼理学和提示注⼊攻击等实例。此外,该研究还探讨了⽹络犯罪分⼦如何利⽤⽣成式AI⼯具进⾏社交⼯程攻击、钓⻥攻击、恶意软件制作等活动。为了应对这⼀威胁,研究⼈员提出了⼀些防御技术,包括⽹络防御⾃动化、安全代码⽣成和检测、制定伦理准则等。然⽽,研究⼈员也强调了ChatGPT的社会、法律和伦理影响。
FaiRLLM:ChatGPT推荐公平性检测基准为解决传统⼤型语⾔模型(LLM)推荐公平性基准问题,中国科学技术⼤学和新加披国⽴⼤学联合提出⼀个名为LLM推荐公平性(FaiRLLM)的新基准。该基准测试由精准的指标和数据集组成,该数据集考虑了⾳乐和电影场景中的⼋个敏感属性。通过利⽤FaiRLLM基准,研究⼈员对ChatGPT进⾏评估,结果发现该⼯具在⽣成推荐时仍然对某些敏感属性表现出不公。
北京市:⼒争到2030年,数据要素市场规模达到2000亿元北京市⽇前印发《关于更好发挥数据要素作⽤进⼀步加快发展数字经济的实施意⻅》,实施意⻅提出,完善⼈⼯智能数据标注库,探索打造数据训练基地,促进研发⾃然语⾔、多模态、认知等超⼤规模智能模型;⼒争到2030年,北京市数据要素市场规模达到2000亿元。
欧洲公司集体反抗欧盟欧洲⻛投公司和科技公司签署公开信,警告欧盟法律草案中对AI的过度监管。信中警告,“AI提供了重新加⼊技术先锋的机会,但欧盟⽬前的监管提案可能会扼杀这些机会。”这些公司呼吁成⽴⼀个由⾏业专家组成的欧盟监管机构,该机构可以监督新法律的适⽤⽅式并考虑新的技术进步。