从7个方面看人工智能的失败

作者: Charles Q. Choi

来源: 悦智网

发布日期: 2022-03-28 15:24:23

本文详细分析了人工智能在七个方面的失败,包括脆弱性、固有偏见、灾难性遗忘、可解释性、量化不确定性、常识和数学能力,揭示了当前人工智能技术的弱点和挑战。

神经网络可能极其脆弱、易忘,且在数学方面出人意料地表现糟糕。从检测癌症到决定谁接受岗位面试,人工智能系统在很多问题上都能做得比人类更快、更准确、更可靠、更公正。不过,人工智能也经历了无数次失败,有时甚至是致命的失败。人工智能的日益普及也意味着失败不仅会影响个人,还会影响数百万人。人工智能界正在越来越多地记录这些失败,以监控它们可能带来的风险。

部分问题在于,驱动许多人工智能系统的神经网络技术可能会以某种方式崩溃,这对研究人员来说仍然是个谜。以下是7个人工智能失败的例子,以及它们揭示了当前人工智能的哪些弱点。科学家们正在讨论解决其中一些问题的可能方法;其他问题目前尚无法解释,或者从哲学角度讲,可能完全缺乏任何结论性解决方案。

脆弱性:拍一张校车的照片,然后翻转照片使其侧面着地,就像在现实世界发生事故时那样。2018年的一项研究发现,在通常能够正确识别正面朝上的校车的最先进的人工智能系统中,平均有97%的系统无法识别出旋转后的校车。这种失败就是一个脆弱性例子。人工智能通常“只能识别它以前见过的模式”,如果向它展示一种新模式,它就很容易上当。

固有偏见:人工智能越来越多地被用于支持重大决策,例如谁能获得贷款、刑期长短以及谁先获得医疗卫生服务。人们希望人工智能能够比人类更加公正地做出决策,但许多研究发现,如果训练这些人工智能所使用的数据存在偏见,那么可能会导致集体自动歧视,给社会带来巨大风险。例如,2019年,科学家发现美国在全国部署的一个医疗算法中存在种族偏见,影响了数百万美国人。

灾难性遗忘:深度伪造是指人工生成高度真实的虚假图像和视频,这种情况在互联网和社交媒体上越来越普遍,它们能够欺骗性地描绘人们说了或做了并未真正发生过的事情,从而造成巨大伤害。为了开发出能够识别深度伪造的人工智能,韩国成均馆大学的计算机科学家沙罗兹·塔里克及其同事创建了一个网站,人们可以上传图像来检查图像的真实性。

然而,几个月后又出现了许多新型的深度伪造,在他们训练人工智能来识别这些新型深度伪造时,人工智能很快就忘记了如何识别旧的深度伪造。

可解释性:为什么人工智能会怀疑某个人可能是罪犯或患有癌症?对这类以及其他高风险预测的解释会产生许多法律、医学和其他后果。长期以来,人工智能是如何得出结论的一直仿佛是一个神秘的黑匣子,许多人都试图解释人工智能的内部运作方式。然而,我最近的研究表明,可解释性领域有点陷入僵局。

量化不确定性:2016年,在佛罗里达州北部,一辆开启了自动驾驶系统的特斯拉Model S汽车与其前方一辆左转的卡车相撞,导致驾驶员死亡,这是报告的第一个与自动驾驶系统有关的死亡案例。有一个办法也许能帮助特斯拉、优步和其他公司避免此类灾难,即提高其汽车在计算和处理不确定性方面的表现。

常识:南加州大学计算机科学家任翔说,人工智能缺乏常识,即根据人们通常认为理所当然的广泛日常知识背景,得出可接受的合理结论的能力。例如,科学家可能会用仇恨言论异常多的地方的数据来训练人工智能识别仇恨言论,比如白人至上主义论坛。然而,当这个软件暴露在现实世界中时,它可能认识不到黑人和同性恋者可能比其他群体更经常地使用“黑人”和“同性恋”这两个词。

数学:虽然传统计算机很擅长处理数字,但人工智能“在数学方面却出人意料地糟糕”,加州大学伯克利分校的亨德里克斯说。“你的模型可能是最新、最强大的,能使用数百个GPU来训练,但它们仍然不如袖珍计算器可靠。”例如,亨德里克斯及其同事用数十万个数学问题训练了人工智能,并给出逐步解答。然而,在用1.25万道高中数学竞赛题测试时,“它的准确率只有5%左右。”

UUID: 3352d021-0a18-4a72-b7eb-8542fd2d1a73

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/学术头条公众号-pdf2txt/学术头条2022年/学术头条_2022-03-28_「转」从7个方面看人工智能的失败.txt

是否为广告: 否

处理费用: 0.0057 元