目前AI尚无解的三个根本缺陷,你知道几个?
在我的印象中,大多数讲AI的文章,总是在讲AI有多强,未来的AI有可能对人类产生的威胁是什么。很少有文章会写目前的AI(准确地说,是大脑语言模型)从技术层面来说,有没有什么根本性的缺陷,而且这个缺陷还是大到暂时无解的那种。
AI底层缺陷一:逆转诅咒
说出来你可能不信,貌似无比强大的大脑语言模型,在处理类似下面这种问题时,表现的极其糟糕。
例如:你先告诉AI:奥拉夫·朔尔茨是德国第九任总理。然后问:谁是德国第九任总理?我想,这个问题,对于任何一个小学生来说,都是轻而易举的事情。但是,令人不可思议的是,大脑语言模型(AI)却无法处理这个问题,并且,更加令人惊讶的是,从底层技术原理上来说,这是目前AI的无法解顽疾。这就是让业界无比头疼的逆转诅咒(Reversal Curse)。
AI底层缺陷二:灾难性遗忘
灾难性遗忘恐怕是最著名的技术缺陷,它经常发生在给已经训练好的大脑模型做微调后。我解释一下什么是“微调”。一个已经训练好的模型,就像是通才,什么都知道一点儿,但都不精通。如果想让它在某个专业领域更突出,就需要对它进行专门训练,这就是“微调”。微调的具体做法就是直接把已经设定好参数的大模型拿来,然后再添加一些专业领域的数据,做进一步训练。
这次训练过后,也许上千亿个参数中的只有万分之一的参数发生了较小的改变。但是,现在AI业界的人,对于每次微调后,都要“烧香拜佛”,祈祷不要发生灾难性遗忘,什么意思呢?如果运气不好,一个AI模型,在对它微调后,确实精确生物医学了,但是,这个模型原本比较擅长的中英文翻译能力却突然骤降了。
AI底层缺陷三:复杂问题不可归约
这个缺陷,只要是深度用过AI,都会有体会。
不论是让AI对一篇文章里的内容进行总结概括,还是让AI画一幅画。一开始,我们只需要对AI说出个很简单的要求,它就可以非常轻松地给出一个还算不错的答案。但是这个所谓的不错,往往离满足预期还是有一定的差距的。这个时候,我们会继续描述我们的需求,但是,我们会发现,AI对详细需求的理解力似乎会随着提示词的增加而下降。有时候,我让AI帮我写点儿东西,不论我描述的多么详细,它就是听不懂,气也被气死。
到了最后,我郁闷地发现,我写得提示词已经详细到差不多就是我想要写的文章本身了,那我还要AI干啥呢。