今年5月7日在佛罗里达州,一位驾驶特斯拉Model S的车主使用了自动驾驶模式后,发生车祸并身亡。这是第一起自动驾驶模式下的致死车祸。这次事故将自动驾驶技术的安全问题摆上了桌面。
今日推荐文章《人类介入的深度学习将提高无人驾驶汽车的安全性》,来自头条号人工智能学家。
不久以后,AI驱动的无人驾驶汽车将大规模上路。
但是无人驾驶车上路只是成功的一半。系统操作员还需要对上路的无人车软件模型,车队频繁地部署升级。无人车不是几个月才升级一次的手机小游戏,为了保证乘客安全,无人车的软件必须定期升级。
很多汽车制造商认为,他们面临的最大的挑战就是需要持续地对软件模型进行训练和升级。最终解决方案中,深度学习AI技术平台,组织管理功能,甚至包括人类都是其中各司其职的一部分。
距完全无人驾驶汽车的发布至少还需要5年左右。目前的无人车安全性还没有达到大规模商用的标准。谷歌无人汽车还在犯错,比如它不明白为什么停车标志下骑车的人坐着不动,可以在高速上行驶的特斯拉Autopilot却在当地街道上出现故障。其实,需要解决的无人驾驶汽车的极端情况数不胜数,还有很多未发现或未考虑在内的问题。只有解决了足够多的场景下可能出现的问题后,无人驾驶汽车才能说是“足够安全”的。正如特斯拉最近发布的消息:
“无人车的正确率达到99%相对容易,但要达到99.9999%却要困难的多,而这才是我们最终的目标, 因为以70英里每秒行驶的车如果出现故障后果不堪设想。”
持续不断的升级挑战
虽不能达到100%的精准度,但我们仍要继续尝试,这正是在无人汽车大规模进入市场后,持续对其“大脑”进行升级将成为业界惯例的原因之一。同时,这也是新兴科技与人类强强联合的用武之地。
想要理解为什么持续升级过程会带来挑战,以及科技和人类如何合作,可以先了解一点无人汽车的工作模式,以及人类“教”无人车驾驶的方法。假设现在是2025年,Hooli公司 的全无人汽车已经商用了好几年。在上百万已经上路的Hooli无人汽车中,大概每辆汽车中都有一个机载计算机。
计算机将车载传感器的信号作为输入,并输出汽车应该采取的操作。计算机用一个高度精准的深度学习神经网络模型编程而成,汽车可以高质量地完全几百种行为,比如遵守停车标志,遇见黄灯减速,避免撞到十字路口的行人等等。但如上所述,Hooli希望定期升级模型以提高安全性,而他们希望的升级频率是一周一次。
为简单起见,假设Hooli只想提升一项汽车行为的性能——变换车道。Hooli的无人汽车每周都要执行1亿多次变换车道的操作,在此期间汽车会搜集附近汽车的地理空间信息并据此作出操作抉择。而附近汽车的地理空间信息由车载摄像机所拍摄图片的3D“包围盒”显示出来。
人工介入
深度学习模型计算出的某些包围盒难免会有瑕疵,而这些错误可能会导致灾难。比如,如果模型估计旁边那辆15英尺的汽车只有10英尺长,无人驾驶汽车就会变换车道并撞到这辆车的保险杠,导致车祸甚至是人员伤亡。幸运的是,这种灾难可以通过人类的介入而避免。人类能够检查模型得出的边界框,发现任何错误都可以重新绘制,不断纠正的过程中车载模型就能够不断升级。
当然,让人类每周检查1亿个变换车道的视频并不实际,幸运的是,Hooli有一个更简单的办法。产生包围盒的深度模型有不同的置信度,低置信度通常会产生不准确的边界框,因此如果Hooli的员工只观看低置信度的边界框,也能合理地确保能够找到无人车最严重的故障。
比如,Hooli 让员工观看的含边界框的视频的置信度低于30%。结果显示满足这一标准的视频只有5000,这明显比1亿个视频更好追溯。假设对一个视频的边界框进行检查和纠正(如果必要的话)需要一分钟,那么5000个视频则可以由100个人在一个小时内完成,那么Hooli 每周就有足够的时间升级深度学习模型。
改正了错误的边界框,升级后的图像可以馈入训练过程,并生成升级后的模型。为了检验升级后模型的性能是否优于升级前模型,Hooli 分别用验证数据集对两个模型进行检验(比如,含有人类验证后的边界框的共计一个小时的视频),并比较两个模型预测的边界框与人类验证后的边界框的整体“贴近度”。然后将提升后的模型部署到1百万辆Hooli 汽车中,这与现在的特斯拉的软件升级有点像。
很多人担心AI会不会让所有事物自动化,偷走人类工作,甚至将人类赶下台等。深度学习等科技带来了无人驾驶的巨大进步,但仍然需要人的大量参与才能识别无人驾驶系统的故障,研发并管理更改故障的流程,这或许让人稍感宽慰。简而言之,让汽车学习思考还是需要人类出马。
注:本文作者Naveen Rao是 Nervana Systems 的CEO,同时也是一位神经学家和处理器架构师,一直致力于研发电脑模拟人脑的方法。