自动驾驶系统 百度无人车来袭:自动驾驶迎来未来( 三 )


尽管自动驾驶系统比人类驾驶员有高得多的安全期望,但仍然很难实现“绝对安全”和零事故。
2018年3月18日夜间,49岁的Elaine Herzberg推着她的自行车穿越亚利桑那州的一条马路,被Uber无人驾驶测试车撞伤,最终不治身亡,成为首起自动驾驶致死案件。
2019年3月1日,美国佛罗里达州发生特斯拉Model 3车祸。相关机构周四公布了事故详情:据国家交通安全委员会消息,一辆特斯拉Model 3以110公里/小时的速度行驶,与一辆半挂货车相撞,特斯拉汽车车顶被完全切断。
在事故发生之前 10 秒钟,特斯拉的驾驶员开启了Autopilot系统,而在相撞前8秒钟,特斯拉未检测到司机的双手在方向盘上。
这次事故导致了特斯拉Model 3驾驶员的死亡,自动驾驶似乎并不安全。【自动驾驶系统 百度无人车来袭:自动驾驶迎来未来】事故导致特斯拉Model 3驾驶员死亡,自动驾驶似乎不安全。
美国公路安全保险协会于6月4日发布的研究中,对5000起发生在美国的交通事故进行了分析,该机构认为,自动驾驶汽车很可能只能避免那些由司机的感知错误或操控能力丧失所导致的事故。
根据美国交通部门的数据,人类平均每35.7万英里就遭遇一次或大或小的事故,而2019年美国加州Waymo的路试成绩为每13200英里,需要人工干预。粗略来说,到2019年底,Waymo自动驾驶系统的可靠性约为人类驾驶员的1/27。
有人调侃,在当前“人工智障”的大环境下,自动导航自动驾驶早用早超生,谁用谁投胎。
同时,电车问题也是自动驾驶需要面对的现实问题。目前主流的解决方案是用算法求解。
汽车自主行为是一系列复杂的评估和决策过程的自然结果,无法为我们作出正确的道德选择,人们也无法对自动驾驶汽车完全信任,自动驾驶汽车制造商如何担责也是一个问题。
一辆电车失控,将撞上被困在铁轨上的一家五口。幸运的是,你刚好站在一个控制杆旁边,这个控制杆可以把车转向另一条赛道,那里只有一个人。
无论一辆车有多少的感应器和计算单元,它都无法通过计算解决一个道德难题。
超越“力”与“个体”二分法的控制动力学算法,通过技术框架避免理性选择,是目前有望解决自驾车电车问题的伦理算法。
完全自动驾驶普及的时候,法律法规肯定会改动,目前的交通设施应该也会调整。当下而言,现在的自动驾驶归根结底都是辅助驾驶,不能脱离人的控制。
对此,编辑部的博叔认为厂家不要吹牛太狠,否则会误导司机。司机在如何操作自己时必须有一个底线。如果自动驾驶技术不够,提供技术的厂家要负责。

推荐阅读