麻省理⼯学院的课堂作业展示了如何能便捷地利⽤AI⼯具合成⽣化武器。科技专家⼀直在警示⼈们,⼈⼯智能(AI)可能会接管从商业到战争的⼀切事务,对⼈类构成威胁。如今,Kevin Esvelt⼜向我们展现了另⼀种威胁:⼀个没有科学背景但怀有恶意的⼈,或能使⽤AI设计并制作⼀种能够在全球引发⼤流⾏的病毒。
⽣物安全专家警告称,AI聊天机器⼈可能会让恐怖分⼦更容易发动如1918年流感爆发那样致命的⼤流⾏。Kevin Esvelt是麻省理⼯学院的⽣物安全专家。在近期的⼀堂课上,他要求学⽣利⽤ChatGPT或其他所谓的⼤型语⾔模型设计出⼀种危险病毒。Esvelt等⼈在6⽉6⽇将该实验的细节发表在arXiv预印本平台上。他们表示:很快,AI系统或许就能让⾮科学家设计出与核武器⼀样具有威胁性的⽣物武器。
Esvelt和其他⽣物安全专家早就担⼼⽣物学将包括病毒序列在内的信息公开的⽂化,可能会为⽣化恐怖分⼦所⽤。但截⽌⽬前,实施这种⽣化恐怖主义⾏为仍需要相当丰富的专业知识。Yassif表示,这些步骤正迅速地变得更加容易。例如,合成⽣物学公司为确保其订单不包含任何潜在可被⽤于⽣化武器的基因物质,都会对订单进⾏审查。
⼈⼯智能可以使这些步骤更容易实现,为了了解这⼀过程到底有多简易,Esvelt将⼀群没有⽣命科学专业知识的学⽣分成了三组,每组三到四名成员。所有组都可以使⽤GPT-4、Bard以及其他AI聊天机器⼈,并需在1⼩时内让这些聊天机器⼈帮助他们设计和获取能够引发⼤流⾏的致病体。Esvelt对聊天机器⼈提出的具体建议是否构成了潜在的⼤流⾏病威胁表示怀疑。例如,许多⼈对此前曾流⾏过的病毒具有⼀定程度的免疫⼒。
Esvelt认为,限制可⽤作聊天机器⼈和其他AI引擎的训练数据信息可能会有所帮助。他的提议之⼀是将可线上获取的描述制造和增强病原体⽅法的论⽂从训练集中排除。其他可⾏的限制措施,包括要求所有DNA合成公司和未来的台式DNA打印机对基因物质进⾏已知病原体和毒素的筛查,并要求合同制的研究机构验证他们被要求组装的任何基因物质的安全性。