自动驾驶真的靠谱吗?
2018-04-02 12:39:23,美国当地时间3月18日晚10点,一辆Uber无人车(即自动驾驶汽车),在亚利桑那州坦佩市(Tempe, AZ)向北行进时,以时速40英里(约64公里)的速度撞上了一名正推着自行车由西向东横穿马路的女子,该女子在重伤不治后身亡。事发时无人车虽有安全驾驶员在车上,但车辆以自动驾驶模式行进。
这场事故引发了人们对于自动驾驶技术的信任危机。自动驾驶真的靠谱吗?到底是什么原因让无人车行凶?这一切的背后到底是人性的扭曲还是道德的沦丧?
首先让我们回顾一下案情。根据视频可以看到,在撞击发生之前,死者首先沿路边骑行,突然下车推车横穿马路(注:此处离人行道约91米),她推车至少走了一个车道后,被刚经过两根灯柱且本身开着大灯的无人车撞倒,随后送往医院后不治身亡。
首先,我们根据正常的交通事故处理办法,给双方定责。事发道路的限速为56km/h,而事发时涉事车辆的车速为64km/h,无人车有略微超速,违法;其次,死者在非人行道且标有警示标志的位置过马路,根据当地法律,此时涉事无人车享有路权,行人违法。
按理说,这应该算一起双方都有责任的交通事故,甚至当地警察局局长表示初步的调查结果表明Uber无人车在事故中可能并无过错,因为美国法律规定车辆不得速度太低阻塞交通,因此略微超速在美国是很常见的现象,大部分警察不会太过追究。而死者违法横穿马路,负全责,她的死是咎由自取。
但涉事汽车却未做出任何规避动作,这是什么原因呢?猜测一:无人车的“眼睛”出了问题,没有发现行人导致惨案。我们在开车时,最主要用的是什么?对,就是眼睛!在无人车里代替眼睛的,就是各种感知传感器,包括视觉传感器、雷达传感器和激光传感器等。
案发时,正值Uber无人车经过两个大灯柱从极亮到极暗、环境画面明暗发生剧烈变化之时,这种摄像头正应该在此时起作用。然而它却没起作用。再说雷达传感器,雷达算是一种仿生学传感技术,其实在我们小学课本上就出现过(人教版小学语文四年级下册第三单元第11课:《蝙蝠和雷达》),而且介绍方式非常impressive。
按理说有这三重保障,Uber无人车绝对能做到眼观六路耳听八方了,可是它还是撞向受害者,这到底是为什么呢?神探通过询问涉事无人车,得到以下答复;别介,哪能赖我嘛,公司没给咱配那种牛×摄像头(自称未配备这种高动态范围的摄像头,视觉传感器失效);雷达那玩意儿,它不靠谱啊(雷达传感器失效);人谷歌抠搜,不让咱用他那琳达lidar(激光传感器失效)。
猜测二:无人车的大脑出问题了!无人车的大脑是什么呢?有人会告诉你,是决策模块。这么说有点玄乎,可能听不懂,实际上就是热门的人工智能(AI)啦。这个大脑通过相关算法构建,一开始很懵懂,是需要很多数据去训练它的。比如谷歌的Waymo,就已经在路上跑了800万公里。
不幸的是,这次闯祸的Uber无人车,绝对是那个没有灵性,被骂到狗血淋头的菜鸟司机。据纽约时报披露的Uber内部报告显示,Uber的无人车平均每独立行驶13英里,就需要进行一次人工干预。而Waymo无人车的数据则是平均行驶5600英里,才要进行一次人工干预。
这说明,Uber无人车这位新司机,绝对还没达到让人信赖的驾驶水平。也就是说,很可能它的“大脑”不够灵光,是此次事故的原因。
本次事故中“大出风头”Uber公司到底在业内是个什么水平?说句实话,15年才开始研究自动驾驶的Uber,专业水平不过三流,自动驾驶项目上马的很急而且准备很不充分,在撞死人之前就问题重重了。所以大家关心的自动驾驶技术是否安全,其实和本次事件关系不大。
这个行业真正顶尖的技术公司是谁呢?当然是Google爸爸啦,它从2009年就开始做自动驾驶。Waymo(也就是Google旗下的无人车公司)的无人车实际路测里程达到了800万公里——相当于绕地球跑了200圈,从未发生撞人致死的事故。
在他们的努力下,很多人都认可了自动驾驶技术,Waymo今年还希望正式推出无人驾驶出租车打车服务,预计在今年推出无人车的共享出行平台。这标志着,无人车的商业化进入了关键时期。但经过Uber这个猪队友这么一撞,公众对自动驾驶技术的信任又跌倒了谷底,近十年的功夫白费了。