大模型集体失智?人脑也有不靠谱的时候!

作者: Light新媒体 中科院物理所

来源: 中国光学

发布日期: 2024-08-21 11:41:03

本文讨论了AI大模型在处理简单问题时出现的错误,以及人类大脑在处理信息时的类似现象。文章指出,无论是AI还是人脑,为了提高响应效率,往往会优先调取经验结果,而不执行高级的推理,这种现象在视觉处理中尤为明显。

随着计算机算力不断提高、算法的不断进步,基于人工神经网络的人工智能架构获得了空前的发展。深度神经网络不仅在模式识别、图像处理中得到了广泛的应用,在光学计量、成像等方面也硕果累累。而近些年逐步发展的AI大模型则更是融入到了人们生活的方方面面,可以协助人们绘画、创作文章、甚至是回答复杂问题。

而就在近日,有不少朋友发现各大AI大模型居然在简单的小数比大小上接连翻车,例如当人们对AI提问“9.11和9.9谁大?”时,AI会直接给出9.11比9.9大的结论。对于这个情况,网友合理的解释可以分为“程序员背锅”派和“大模型偷懒”派。

“程序员背锅”派认为:AI都是工程师开发的,对于工程师习惯用的版本号来说,9.11的版本号是要大于9.9的,因此9.9实际上为9.09,这在文章第一张图AI给出的解释也能发现一些端倪。而“大模型偷懒”派则认为:可能是问题看起来太简单,大模型没有被激发出按一步一步基于规则推理的过程。回答的时候出现“偷懒”情况,直接给出很简短的答案,而没有推理过程。

尽管两派对大模型犯错的解释不同,笔者认为这其实反映了同一个事实:大模型为了提高响应效率,会优先调取经验结果,而不执行高级的推理。实际上,这种为了提高响应效率而给出一个亦对亦错的结果在人类的大脑行为中也是相当常见的。大脑常常使用启发式和简化策略来快速处理大量信息,例如错觉中常见的形状、大小或颜色的误判,反映了大脑在缺乏完整信息时如何依赖经验和上下文进行推测。

人们总说“眼见为实”,而实际上,视觉信息由于存在高度的冗余,正是大脑“偷懒”的高发区。大脑中形成的图像首先由眼睛接收到光学信号转化为神经电信号后进入大脑。在传入大脑的过程中加入了感性的理解。此外,大脑还会为了节约“计算资源”,提高响应效率,在一些快速给一个“经验性”的答案,进一步导致人类真实的感知不一定和物理事实吻合,使得眼睛轻易被蒙混过关。

视觉依赖图像局部特征以及大脑依赖经验的能力是人类生存和快速适应环境的重要依靠,对人类视觉感知世界的研究不仅有助于生物医学的发展,还极大地促使了计算机视觉领域的进步。可以说,计算机视觉的终极目标就是实现人类的视觉处理能力。例如,基于人类视觉感知的研究,Edwin Land提出了一种叫做Retinex的理论,现在已经是计算机视觉领域应用广泛、影响深远的图像照明矫正算法之一。

Retinex 是“retina”和“cortex”两个词的结合,指的是眼睛的视网膜和大脑的视觉皮层共同作用以解释视觉信息。Retinex理论的核心思想是:物体的颜色感知是相对的,取决于物体在场景中的周围环境和光照条件。根据 Retinex 理论,人眼通过比较不同区域的亮度和颜色信息来感知物体的颜色,这种对比和计算使我们能够在不同的光照条件下识别物体的颜色。

Retinex理论现在已经成为了计算机视觉领域用于照明矫正的经典算法,并在图像分割、光学相位解包裹算法中也能看到Retinex的身影。

UUID: d2da432e-4f9b-4059-941b-b1f2cd2bcee5

原始文件名: /home/andie/dev/tudou/annot/微推助手/中科院物理所/中科院物理所_2024-08-21「转」_大模型集体失智?人脑也有不靠谱的时候!.html

是否为广告: 否

处理费用: 0.0044 元