11个ChatGPT和生成式AI安全趋势|关注

作者: Tim Keary

来源: VentureBeat

发布日期: 2023-02-15 18:42:45

普华永道的分析师们分享了生成式人工智能和ChatGPT等工具将如何影响网络安全,提出了11个预测,包括恶意使用人工智能、保护人工智能的训练和输出、制定使用政策、现代化安全审计等。

近期爆火的AI聊天机器人ChatGPT,以及文生图模型Dall·E 2、Stable Diffusion等,让生成式人工智能(generative AI)成功出圈。然而,技术的背后,也暗藏了一些不容忽视的风险。对安全团队而言,ChatGPT和生成式人工智能究竟是福还是祸?

最近,普华永道的分析师们对国外科技媒体VentureBeat分享了关于生成式人工智能和ChatGPT等工具将如何影响威胁形势以及防御者将出现哪些用例的看法。他们认为,虽然人工智能生成恶意代码和钓鱼邮件的能力给企业带来了新的挑战,但也为一系列防御性用例打开了大门,如威胁检测、补救指导,以及保护Kubernetes和云环境等。

总的来说,分析师们乐观地认为,从长远来看,防御性用例将上升,以打击人工智能的恶意使用。以下是11个关于生成式人工智能在未来将如何影响网络安全的预测。

1. 恶意使用人工智能:当人工智能掌握在公民和消费者手中时,伟大事情可以发生。与此同时,它可以被恶意的威胁者用于邪恶的目的,如恶意软件和复杂的网络钓鱼邮件。

2. 需要保护人工智能的训练和输出:公司必须保护人工智能的训练,因为他们从微调模型中获得的独特知识将对他们如何经营业务、提供更好的产品和服务,以及与员工、客户和生态系统接触至关重要。

3. 制定生成式人工智能使用政策:企业和用户都必须明白,使用生成式人工智能的方式应该是企业的隐私,任何企业都必须为使用生成式人工智能制定政策。

4. 现代化的安全审计:生成式人工智能很可能在审计工作方面催生创新,这项技术所提供的是一个获取信息和指导的单点,同时还支持文件自动化和分析数据以回应特定的查询。

5. 更加关注数据卫生和评价偏见:任何输入人工智能系统的数据都有可能被盗或被滥用的风险,重要的是进行适当的数据收集,以制定详细和有针对性的提示,并将其输入系统,这样你就可以获得更有价值的输出。

6. 跟上不断扩大的风险并掌握基础知识:既然生成式人工智能正在被广泛采用,实施强大的安全措施是防止威胁者的必要条件。

7. 创造新的工作和责任:生成式人工智能的出现有可能导致与技术本身相关的新工作和责任,并产生确保人工智能被道德地和负责任地使用的责任。

8. 利用人工智能来优化网络投资:在经济不确定的情况下,公司也没有积极寻求在2023年减少网络安全支出;然而,CISO必须考虑他们的投资决策是否更具经济性。

9. 加强威胁情报:在2023年,我们期待看到威胁情报和其他防御能力的进一步增强,以利用生成式人工智能做对社会有益的事。

10. 威胁预防和管理合规风险:随着生成式人工智能的不断发展,确保医疗系统安全的相关风险和机会也在不断增加,这强调了医疗行业在接受这种新技术时建立其网络防御和复原力的重要性。

11. 实施数字信任战略:通过追求数字信任战略,企业可以更好地协调传统上孤立的功能,如网络安全、隐私和数据治理,使他们能够预测风险,同时也为企业释放价值。

UUID: 30bf360f-aff1-4884-9f92-8e173ffac452

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2023年/学术头条_2023-02-15_11个ChatGPT和生成式AI安全趋势|关注.txt

是否为广告: 否

处理费用: 0.0055 元