前几日,AI教父Hinton离开谷歌,并表态AI很危险和后悔研发的言论在人工智能圈引起了轩然大波。作为深度学习之父,目前所有大语言模型的奠基人,Hinton的一举一动都标志着最了解AI的一群人对它的态度风向。这也是我们去理解人工智能发展和威胁的一个重要信号。
在离开谷歌后,Hinton参与了CNN,BBC的多轮简短访谈,讲述了他眼中的AI威胁,但限于时长的原因,他并没能展开讲述对AI深层恐惧的因由。
直到在5月3日,在麻省理工技术评论(MIT Technology Review)一场接近一小时半公开分享会上,Hinton终于有机会比较完整的讲述了他对AI的所有恐惧和担忧:一旦AI在人类灌输的目中生成了自我动机,那以它的成长速度,人类只会沦为硅基智慧演化的一个过渡阶段。
人工智能会取代人类,它有能力这么做,在当下的竞争环境下也没有什么办法限制它,因此这只是一个时间问题。
根据报道,麻省理工学院实验室的成员们对Hinton的表态无言以对,不知所措。Hinton觉得我们也许还有希望以防止核扩散的逻辑来限制住AI的军备竞赛和无序发展,尽管他对此并没有信心。因此他站了出来,讲述这些很难察觉的潜在危险,让更多人能通过他的呼吁了解人类所处的历史位置和当下的艰难处境,并期望能引发一些改变。
离开谷歌的原因:GPT4让我意识到AI模型和我们的不同,可能更善于学习。Hinton觉得我们也许还有希望以防止核扩散的逻辑来限制住AI的军备竞赛和无序发展,尽管他对此并没有信心。因此他站了出来,讲述这些很难察觉的潜在危险,让更多人能通过他的呼吁了解人类所处的历史位置和当下的艰难处境,并期望能引发一些改变。
希望大家都能够听到这有些飘渺,但实际已在切近的警报。Hinton觉得我们也许还有希望以防止核扩散的逻辑来限制住AI的军备竞赛和无序发展,尽管他对此并没有信心。因此他站了出来,讲述这些很难察觉的潜在危险,让更多人能通过他的呼吁了解人类所处的历史位置和当下的艰难处境,并期望能引发一些改变。