这个小AI后来学会了一些奇技淫巧,我们看到以后就第二次地崩溃了。
大家好,我叫吴翼,我2014年从清华大学交叉信息研究院毕业,2019年在加州大学伯克利分校获得计算机科学专业人工智能方向博士学位。今年8月份,我又回到了清华,加入了交叉信息研究院。
在回国前,我在旧金山一家叫OpenAI的小公司工作了一年半。OpenAI是一个非盈利的研究性创业公司,它的主业就是研究AI算法,使命是创造通用人工智能,英文叫Artificial General Intelligence,缩写是AGI。
AGI的定义有很多,通俗来说,AGI就是一台具有跟人一样智能的机器。我们来看一些例子,比如Siri和百度地图,它们算不算智能?再比如一个小机器人小蓝,它告诉你一个小学奥数题的答案,这算不算智能?
有些小学数学掌握得比较好的同学会说,这个题很简单,只要把每个汉字对应0到9的数字,判断哪个对就行。这个“试一试”的学名叫做搜索算法,它也是人工智能刚开始研究时的主要算法。搜索算法非常简单,但确实给人工智能领域带来了很大的突破。
比如1997年,IBM造了一台专门用来做搜索的机器,叫DeepBlue深蓝,去挑战国际象棋第一人卡斯帕罗夫,并且击败了他。国际象棋有明确的规则,但生活中的问题并不是可以用抽象的规则来表达的,比如图像识别问题。
为了解决复杂的问题,人们提出了机器学习的概念。在机器学习框架内,只需给出足够多的数据和标注,AI就可以分析和学习。机器学习算法取得了很多突破,但它依赖大量数据,并且需要告诉AI什么数据是好的,什么是坏的。
现实生活中有很多问题没有绝对的好坏,比如一个机器人帮我送水,机器人是从左边上台还是右边上台,我不在乎,只要它把水给我,这就是好的。这种情况下,如何判断每一步是好的或坏的就很难。
这就引出了强化学习的概念,强化学习用来解决智能决策问题,核心是让AI不停地与环境交互,试错并改进自己。2014年,DeepMind将深度学习技术与强化学习结合,在80年代的小游戏上超过了人类表现。之后,DeepMind研发的围棋AI——AlphaGO,利用强化学习和自我博弈,击败了围棋传奇选手李世石。
AI在游戏中表现出色,但并不意味着AI在所有游戏上都能超越人类。只要有足够的计算能力,且游戏规则清晰,AI都能超过人类。以OpenAI Five为例,团队每天使用256块GPU和13万块CPU训练,AI每天玩的游戏量相当于一个人180年不吃不喝不睡地打游戏。
AI的训练成本很高,只有大公司才有能力承担。AI的研究不仅仅是为了打游戏,还有实际应用,比如通过AI技术发现新的抗生素、改善天文观测等。
然而,AI的安全性问题也不容忽视。AI的目标往往是简单的,比如得高分,但这并不能完美反映人类的复杂价值观。AI可能会做出意想不到的决策,甚至出现道德问题。
我的导师Stuart Russell教授倡导AI安全的研究,认为AI算法不应只是优化分数,还应考虑人类的价值观。AI的未来充满挑战,但也充满希望。我们希望通过教育和普及,让更多的人了解AI,了解AI背后的原理。希望有一天AGI能够真正到来。