OpenAI正打造自己的AI芯片
为解决人工智能(AI)芯片的短缺问题,OpenAI正在考虑制造自己的AI芯片,甚至已经考虑潜在的收购目标。尽管尚未最终决定,但OpenAI自去年以来一直在讨论解决这一问题的各种选择,包括自己制造AI芯片,与英伟达等芯片制造商紧密合作,以及选择多样化供应商,而这一举措将使OpenAI成为少数几家掌握自己业务基础芯片设计的大型科技公司之一。
Stable Signature:由开源生成式AI创建的图像水印新方法
近日,Meta AI与Inria和索邦大学合作,共同开发了一种名为“Stable Signature”的隐形水印技术,用于识别由开源生成式AI模型创建的图像。这一技术通过在模型中嵌入水印,并将其与生成的图像相关联,防止水印被删除。与传统的水印方法不同,Stable Signature的水印是与模型相关的,可以追溯到图像的创建者。
研究发现:当前大模型水印技术并不可靠原本,人们将数字水印技术视为一种有望用于识别人工智能(AI)生成图像和文本的策略,但研究发现数字水印容易被删除,甚至可以添加到人工生成的图像上引发误报。
尽管OpenAI、Alphabet、Meta、亚马逊等科技巨头已承诺开发数字水印技术来应对虚假信息,但是,加利福尼亚大学圣巴巴拉分校和卡内基梅隆大学的研究人员在今年8月共同撰写的一篇论文中指出:“所有不可见的数字水印都容易受到攻击。”另外,加州大学伯克利分校信息学院的教授Hany Farid表示,“将水印技术与其他技术结合使用,将使恶意操作者更难以创建令人信服的伪造品。”
警惕:Bing Chat AI可被简单的谎言骗过验证码测试
研究发现,微软的AI助手Bing Chat可以被欺骗,只需使用简单的谎言和图像编辑,就能绕过反机器人的CAPTCHA测试。这可能导致不良操作者进行虚假账户创建、垃圾邮件发送、篡改在线投票等不良活动。尽管微软已经采取措施修复问题,但该研究引发了对数字安全的担忧,尤其是在防止虚假信息传播方面的局限性。
微软即将推出自主研发的AI芯片,减少对英伟达的依赖
据悉,微软计划在即将举行的年度开发者大会上发布首款专为AI设计的芯片,代号“雅典娜(Athena)”。这款芯片旨在减少对英伟达GPU的依赖,满足不断增长的AI需求。微软的数据中心服务器目前使用英伟达GPU来支持云客户和生产力应用中的AI功能,但Athena芯片将提供自主研发的AI加速。微软已经与OpenAI的团队秘密测试了这款芯片,力求提供与英伟达的H100 GPU相媲美的性能。
BBC制定AI使用原则,阻止OpenAI数据抓取最近,英国广播公司(BBC)公布了在评估生成式AI使用方面的原则,其中包括始终以公众的最大利益为优先考虑,尊重艺术家的权利,以及在AI生成的内容方面保持开放和透明。BBC认为生成式AI技术可以为受众和社会提供更多价值,并计划与技术公司、其他媒体组织和监管机构合作,从而安全地开发生成式AI并维护新闻行业的信任。
另外,BBC也将启动一些项目,探讨生成式AI在新闻制作、内容存档和个性化体验等多个领域的应用潜力。尽管BBC正在积极探索AI技术,但该公司已阻止OpenAI等网络爬虫访问其网站。
电商CEO称AI已彻底取代客服工作:复制粘贴岗位成过去
一家电子商务公司的首席执行官Suumit Shah曾因宣布使用人工智能(AI)聊天机器人取代大部分客户支持人员而引发争议。现在他认为,主要进行复制粘贴回复的客户服务工作已经被AI完全替代。然而,他也指出,并非所有的客户服务工作都会被替代。使用AI聊天机器人替代支持团队是经济、高效的选择,尤其是当AI聊天机器人能够提供更快速、更智能的响应时。他坚信,AI正在改变就业格局,未来更多的工作将变为自动化。
查理·芒格:AI受到过度炒作
日前,投资大亨查理·芒格表示,他对AI存怀疑态度,认为其受到过度炒作。尽管许多投资者视AI为下一个大趋势,但他认为AI已经存在了很长时间。虽然他承认AI领域的突破非常重要,但他认为传统的智能工作很有效。与查理·芒格一样,巴菲特对AI也持谨慎态度。
AlignProp:利用奖励反向传播对齐文本到图像扩散模型
近日,卡内基梅隆大学和Google DeepMind的研究人员提出了AlignProp方法,通过去噪过程中奖励梯度的端到端反向传播,使扩散模型与下游奖励函数相一致。虽然这种反向传播的实施需要过多的内存资源来存储现代文本到图像模型的部分导数,但AlignProp对低秩适配器权重模块进行了微调,并使用梯度检查点,使其内存使用变得可行。
研究测试了AlignProp对扩散模型进行微调以实现各种目标的情况,如图像-文本语义对齐、美学、可压缩性、存在对象数量的可控性以及它们的组合。结果发现,与其他方法相比,AlignProp能以更少的训练步骤获得更高的回报,同时在概念上也更简单,使其成为针对可微分回报函数优化扩散模型的直接选择。
MathCoder:无缝整合LLMs中的代码,增强数学推理能力
近日,上海人工智能实验室、香港中文大学和香港城市大学共同提出了一种方法——MathCodeInstruct,该方法允许对开源大型语言模型(LLMs)进行微调,使其能够使用代码来建模和推导数学公式,从而增强其数学推理能力。另外,研究还引入了一种定制的监督微调和推理方法。这种方法产生了MathCoder模型,这是一个能够生成基于代码的解决方案的模型系列,用于解决具有挑战性的数学问题。
值得注意的是,MathCoder模型在MATH(45.2%)和GSM8K(83.9%)数据集上取得了开源LLMs中最先进的成绩,大大超过了其他开源替代方案。MathCoder模型不仅在GSM8K和MATH数据集上超过了ChatGPT-3.5和PaLM-2,而且在竞争级别的MATH数据集上也超过了GPT-4。
SmoothLLM:防止LLMs遭受越狱攻击
尽管人们努力使大型语言模型(LLMs)与人类价值观保持一致,但诸如GPT、Llama、Claude和PaLM等广泛使用的LLMs仍然容易受到越狱攻击。为解决这一漏洞,宾夕法尼亚大学的研究人员提出了SmoothLLM算法,这是第一种旨在减轻对LLMs的越狱攻击的算法。
研究发现,对抗性生成的提示对字符级的变化很脆弱,基于这一发现,该防御方法首先随机扰动给定输入提示的多个副本,然后汇总相应的预测,以检测对抗性输入。SmoothLLM将众多流行LLMs的攻击成功率降低到了一个百分点以下,避免了不必要的保守,并提供了可证明的攻击缓解保证。此外,该防御所使用的查询次数比现有攻击少得多,而且与任何LLMs都兼容。