关于自动驾驶是否安全的争论,似乎永远都不会过时。
李想刚刚发文总结自家NOA智能驾驶2021年成绩单。
后脚就有复旦大学教授给李想浇了一盆冷水:
自动驾驶安全性没有想象的那么香,不要尝试L2级以上功能,特定条件下必然发生碰撞。
并且还拿出自研自动驾驶安全测试平台测试结果为证。
有图有真相,冷峻而悲观。
事情来龙去脉?
复旦大学教授,国家973计划项目首席科学家杨珉,昨天半夜微博发文,公开质疑当前车企智能驾驶的安全性。
而且还表明是看了理想汽车创始人李想的最新感慨,引发的不吐不快。
杨珉教授在微博中称,现在造车新势力智能驾驶普遍L2起步。
有的据称已经达到L4级别。
但是对于智能驾驶是否真的可以大规模使用?
杨珉教授在微博中表达了否定态度:
我们的安全研究人员觉得自动驾驶安全性没有想象的那么香。
并且还着重指明,这个论断出自他们自动驾驶安全测试团队针对市面上某L4级别系统进行安全测试。
杨珉教授表示,在复旦自研的自动驾驶安全测试平台对无人驾驶车辆进行安全测试时发现:
在满足某种特定条件的场景下,L4级无人驾驶必然发生车辆碰撞。
对此还在微博中贴出测试动图以自证其说。
可以看出在测试过程中,测试车辆无人接管的情况下,面对旁边车道车辆突然加塞时没有选择减速,而是径直撞了上去。
而且这样的结果并不是孤例。
在测试系统仅一周时间的测试中,就发现数百个车辆碰撞的案例。
对于这种结果,杨珉教授用团队人员的表现自己的态度:
团队小伙伴们纷纷倒吸一口零度以下凉气,表示不要尝试L2以上功能。
虽然碰撞发生的条件设定在现实中都是小概率事件,但在最后中,杨珉教授用一句极富哲理的话感慨:
「时代的每一片雪花,落在个人身上都是一座山」。
那么问题来了。
究竟是什么原因,让教授深夜对自动驾驶表达出这样冷峻而悲观的态度?
这事儿得从李想最近在微博中感慨2021年理想汽车智能驾驶的变化说起。
在微博中,李想先肯定了对智驾的重视,但最初造车确实不够钱,直到上市后才开始有自研能力,之后就开始细数理想汽车2021年智能驾驶成绩单。
比如理想成为继特斯拉和小鹏之后全球第三家具备完整NOA和AEB全栈自研能力的品牌。
AEB测试在懂车帝年度测试中成为冠军。
NOA导航辅助驾驶激活和使用超过6万台,超过中国市场上其他品牌导航辅助驾驶之和。
……
本来只是李想一次年终盘点和感慨,顺带改变一下人们对于理想汽车不智能的刻板印象。
却不想招来了复旦教授亲自下场,用研究测试结果反击。
但也有人说,杨珉教授的测试结果,终究还是安全测试平台的模拟测试。
现实中可能会有例外?
有意思的是,教授指出的问题,现实中确实已经发生。
有没有现实事例?
而且还不止一次。
比如因为自动驾驶出现事故而被推上风口浪尖的特斯拉。
曾经就有国内特斯拉Model 3车主,在开启Autopilot系统时,面对旁边加塞的渣土车不仅没有选择减速,反而加速直接怼在渣土车上。
事后这位车主表示刷新认知,为什么号称自动驾驶系统,连渣土车这么大的目标都没有识别到。
经历类似事故的特斯拉车主不止一位。
一位国内最早一批特斯拉车主就曾表示买的Model X,4年2次自动驾驶事故。
其中一次同样是面对变道加塞,车辆完全没有减速,与变道车辆发生碰撞。
不仅是特斯拉,国内造车新势力同样爆出过类似事故。
去年年初就有车主曝出蔚来NIO Pilot在高速上没有及时识别路边停靠的五菱宏光,高速行驶状态下发生碰撞。
还是在去年,一位知名企业家在使用蔚来NOP领航辅助驾驶时撞上高速路政车辆导致死亡的事件闹的沸沸扬扬。
这件事还引起业界关于自动驾驶标准的讨论。
理想也有过,与并道车辆发生“自动驾驶事故”的案例。
之前,最早时有青岛理想ONE车主,在打开理想辅助驾驶系统的情况下,与前方变道车辆相撞。
不过需要说明,那时候的理想ONE,用的还是Mobileye,还不是李想发微博感慨的与地平线的深度自研。
值得注意的是,以上的事故案例,还是仅涉及L2级别的辅助驾驶功能。
在大规模应用的情况下,发生事故的情况不能说普遍。
但是在自动驾驶还未大规模应用的情况下,每一起事故都会掀起一场争论和不信任。
也正因此,杨珉教授微博之下,网友也是反应强烈。
网友怎么说?
业界的意见交锋下沉到普罗大众。
站队操作就成了常有的事。
对于杨珉教授「自动驾驶没那么香」的表态,网友大致分为3派。
最大的意见集合,是对当下自动驾驶表达不信任。
表示能实现L4级自动驾驶的车企不过是宣传造势。
也有从技术路线和制度层面出发,探讨自动驾驶落地的可能性。
当然,这届网友的反讽技能也是MAX,比如下面这几位:
所以最后留一个小问题,你认为自动驾驶是不是比人类开车更安全呢?
责任编辑:kj005
文章投诉热线:156 0057 2229 投诉邮箱:29132 36@qq.com