开局一头狼六只羊,这个狼吃羊的AI火了!傻狼拒绝内卷:抓羊可太累了,我只想自杀……

作者: 耳洞打三金

来源: AI科技评论

发布日期: 2021-04-14

文章讲述了一个AI狼吃羊的游戏,由于奖励机制设置不合理,狼选择自杀而不是抓羊,引发了对AI内卷和奖励机制的讨论。文章还涉及了AI在捉迷藏游戏中的表现,以及AI在多智能体合作中的策略学习。

人工智能都开始拒绝内卷了,AI狼:抓羊太累,我选择自杀。事情是这样的,就在前几天,微博上一位网友@二雨TR发文称“听我老师给我讲他搞游戏ai的事情他妈笑死我了。”目前这条微博已经有两万多转发、三千多评论,并且这条微博上的三张图已经火出了圈,在朋友圈、知乎、豆瓣等很多平台都能见到它的身影。

狼为什么会选择直接撞死呢?因为自杀分数最高:如果抓羊,在狼学会躲避障碍物之前它是碰不到羊的。假设前5w次狼做了一些绕开障碍的尝试但是都死了。那他通过这5w次学到的东西就是——原地站着15秒得-1.5分;一头扎死得-1.1分;尝试绕路但是撞死得-1.1到-2.4分。所以由于狼根本没有吃到过羊,因此狼在-1.1到-2.4分之间选择了-1.1,也就是自杀。

网友们眼很尖心很细,把AI狼自杀和内卷联系到了一起:AI:就这?你们还tm想着我统治人类?连人工智能都知道拒绝内卷的。狼就是打工人……每秒扣的是青春和时间,羊永远达不到的“升职、加薪、迎娶白富美、走上人生巅峰”。面对不合理的KPI和奖惩机制,连ai展现出了令人类叹为观止的尊严。

为了激励狼快点抓羊而倒扣分是错误的,相反,应该激励狼活下去而每秒加0.1分。想要最高分当然会尽量抓羊,抓不到羊还撞障碍物扣分已经很劝退了,只有加分才能激励狼活下去。太现实了,只有活着本身就是一种奖励,人才愿意活下去。要不然真的不如一头撞死。

请给狼加一个参数:生命成本。这个参数的定义是我活这么大不容易随便死了太不值了。每次抓不到羊挫败-0.1,但每多活一天就累积+1,降到0才执行自杀,你就收获了一群要死不死的社畜狼了。

有网友直言这是强化学习的奖励函数机制做的不合理,碰撞的惩罚太大了且死亡的惩罚应该给到负无穷大,让狼知道痛的滋味和代价,这样狼就不会选择自杀了。

据了解,文章开头发三张聊天截图的网友@二雨TR并不是程序猿而是一位游戏绘画师,而她口中的老师是墨尔本的一位在读研究生。星尘研表示狼自杀的错误是很多东西共同影响产生的,最主要的一个错误是迭代次数太少,20W次完全不够学,后面提高到100W次起步,效果直线上升。狼之后是可以成功抓到羊的:另一个就是奖励分数设置有问题,最后他们控制在了-2到1之间,效果也很好。

更巧的是星尘研刚好把这个事情的大概经过以及狼抓羊的游戏录制了一个说明视频放在了B站上面:据星尘研向三金介绍,他目前研究生专业是“动画,游戏和交互”,本科时候的专业是游戏和图形编程Games and Graphics Programming,这个狼抓羊的项目是他本科最后一年的AI课和泰国的一位同学合作完成的,这时当时课程其中的一个作业,要求仅是“使用神经网络和强化学习、遗传算法等配合制作一个AI相关的游戏”。

星尘研表示他只是AI的初学者、门外汉,也是第一次接触强化学习,懂得不多,一切都是摸索着来的。“这个项目一共4-5个星期,决定做什么,然后怎么设计这套东西就花了一个星期,再弄环境和开始的碰壁也花了不 少时间,所以最后实际用在调算法bug的时间并不是很多。

”游戏整体都是在Unity上面开发的,开发语言是C#,算法主体是基于Unity上封装好的一个强化学习包——MLAgent,GPU用的是他朋友淘汰的2手1080 Ti。

星尘研他们在发现狼自杀后的三天内也不是什么都没做:为何要让狼撞石头死亡呢?星尘研的解释是“只是为了加快训练时间,因为在狼学会吃到羊之前它可能只会打转会原地不动来等时间消耗,大 大增加了训练所花费的时间。

”在训练了300万次后,狼已经可以成功地吃到羊:虽然有时是在最后一刻才吃到全部的羊:当然游戏因为各种原因还是存在缺陷的,比如两只狼还是会偶尔撞石头而死:两只狼会对着石头硬怼,绕不过去,就把自己磕死:上面的一只狼出现了未知的bug导致它原地死亡:两只狼之间无形之间学会了合作?

知乎网友@曾伊言给出了回答:而关于强化学习更多的知识,建议大家阅读强化学习领域圣经之书——《强化学习导论》第二版。

当然也有,这里不得不提一下Open AI的AI玩捉迷藏游戏:这个强化学习游戏项目的参与者有毕业于姚班现又回姚班教学的吴翼。吴翼师从人工智能泰斗、加州伯克利大学Stuart Russell教授,其论文Value Iteration Network荣获NIPS 2016年度最佳论文奖;多次在ACM-ICPC竞赛中取得好成绩,两次参加全球总决赛获得一枚银牌一枚铜牌。

具体而言,研究者在这个项目中创造了一个模拟环境,环境中有许多物体,例如箱子、梯子以及小蓝人和小红人。小蓝人代表捉迷藏游戏中的“藏匿者”,小红人代表游戏中的“寻找者”。小红人的目的就是为了抓住小蓝人,当然,捉迷藏游戏总是要给藏匿者提供准备时间,所以在游戏开始的一段时间,小红人(寻找者)需要等在原地不能动让小蓝人(藏匿者)做好准备。

经过强化学习和多智能体的自博弈,发现藏匿者和寻找者之间生成了很多种策略和反策略。

在训练最初阶段的策略是:小红人追着小蓝人跑,小蓝人只能四处逃窜。起初,AI们完全不知道自己能做什么,只是出于“本能”逃跑、追逐。但是在2500万次游戏训练之后,小蓝人学会了通过移动箱子,来建造把自己藏起来的庇护所。道高一丈魔高一尺。

又经过了7500万次训练之后,小红人在没有任何人指导的情况下全凭自己学会了将斜坡移动到小蓝人用箱子搭建的“城堡”旁边,然后借助斜坡闯进“城堡”!小蓝人在这样输了1000万次之后,竟学会了提前把斜坡给搬进城堡让小红人无坡可爬。

当然不是,仔细观察后很容易发现,小蓝人之间自主地学会了很有策略性的团队配合:场景比较封闭、太简单了?那就换一个更加开放的场景来试试。

在3.8亿次游戏训练之后可以看到,在小蓝人把所有的斜坡都给锁住、并且把自己给保藏起来之后,小红人竟然自主地学会了移动箱子到锁住的斜坡旁边,然后通过斜坡跳到箱子上,然后踩着箱子移动,就好像在冲浪一样,一路来到了小蓝人旁边并跳到里面抓住了小蓝人。而据研究者爆料,其实“踩着箱子移动”是系统设定产生的“bug”,小红抓住并利用上了这个bug!可真是太鸡贼了,且稍微有些反人类直觉。

最后在将近5亿次训练之后,针对小红人的鸡贼,小蓝人直接放大招!把梯子和箱子都锁起来,让小红人无法使用任何工具:好家伙,这群AI,可真TM好家伙。最后借此谈一谈大的愿景:从生物进化的角度来看,人类是一个可以不断适应新环境的物种,但人工智能却不是这样。因此,越来越多的研究者希望构建在行为、学习和进化等方面更类人的机器智能。

由于捉迷藏游戏中的目标相对简单,多个智能体通过竞争性的自我博弈进行训练之后,可以学会如何使用工具和类人一样的技能取得游戏中的胜利。而在这种简单环境中以自监督的方式学到的复杂策略进一步表明,多智能体协同合作适应在将来某一天很有可能生成极度复杂和智能的行为。OpenAI相信,这一研究会成为一个智能体开发和部署的非常有前景的方向。

而DeepMind创始人哈萨比斯对游戏AI则是这样来看的:游戏AI是通往通用人工智能的垫脚石。我们研究这些游戏的真正原因是,它是研究通用AI算法的一个非常方便的试验场。我们正在开发一种新算法,可以将其转化到现实世界中来,用于解决现实中真正具有挑战性的问题,并帮助这些领域的专家。

而用游戏的方式训练出可以在真实场景里应用的AI技术,可以称得上是创造了一个小世界,在这个小世界发生的魔幻的事在将来一天未必不会出现在现实生活中。

最后回到狼吃羊身上,也许未来的某一天真的会“狼”来了,而人类就是那“可爱善良但不无辜”的小绵羊……B站视频连接:https://www.bilibili.com/video/BV16X4y1V7Yu?p=1&share_medium=android&share_plat=android&share_source=COPY&share_tag=s_i×tamp=1615693913&unique_k=hUhmwF本文经授权转载自AI科技评论(ID:aitechtalk),原标题为《开局一头狼六只羊,这个狼吃羊的AI火了!

傻狼拒绝内卷:抓羊可太累了,我只想自杀……》,如需二次转载请联系原作者欢迎转发到朋友圈。

UUID: 58d4e4ad-347c-4311-8760-58ce2aacde0f

原始文件名: /home/andie/dev/tudou/annot/AI语料库-20240917-V2/AI语料库/果壳公众号-pdf2txt/2021/2021-04-14_人工智能都开始拒绝内卷了,AI狼:抓羊太累,我选择自杀.txt

是否为广告: 否

处理费用: 0.0094 元