自从智能驾驶辅助系统被广泛应用以后,经常会出现智驾系统没能及时干预导致追尾事故发生的新闻。当然,从现行的交通法规角度来说,责任必然还是在驾驶员身上,目前的智驾系统哪怕再先进,也存在识别失准的情况,驾驶员应时刻关注车辆行驶状况,随时做好接管驾驶的准备。
智能驾驶辅助系统“不干预”,倒是可以将责任归到驾驶员身上,但系统“乱干预”,驾驶员就很无奈了。最近在湖北襄阳,一位理想L9的车主在高速公路上行驶时开启了辅助驾驶系统,但是车辆突然急刹导致发生追尾事故,幸好没造成人员伤亡,车辆损伤程度也比较轻。
不过这次交通事故,交警还是认定车主负全部责任,而且他的车还未上牌,没想到新车变成了事故车,车主也百般无奈。于是车主向厂家投诉,并要求厂家赔偿2万元。事后,经理想汽车对事故进行分析,原因是车辆将高速广告牌上的汽车画像误识别为真实的汽车,导致AEB(紧急制动功能)错误干预。
事实上,这种“幽灵急刹”的问题此前在理想L7上也曾经发生过,一位四川甘孜的理想L7车主在经过某路段的广告牌时,车辆突然刹车减速,而迎面的广告牌上面印有人物的画像,因此导致车辆出现误判。
另外,理想L9还曾经发生更灵异的事件,某位车主在经过无人的陵园时,屏幕上却显示雷达检测到不少行人,甚至还有人骑自行车,着实让人不寒而栗。
这次湖北襄阳理想L9“幽灵急刹”事件,涉事的车型为理想L9 Pro版,并没有配备精度更高的激光雷达,而是采用摄像头、毫米波雷达等多种传感器协同工作的方案,这或许是误识别几率相对较大原因。但是,四川甘孜的理想L7以及理想L9陵园“灵异”事件,涉事的车型均配备激光雷达,理论上应该更精准才对,然而却依旧出现误判。
对于这几起事件,理想汽车官方给出的原因大致相同,均为软件算法的问题。如今,这些主打智能化的车型,对算法的依赖程度极高,一旦算法存在缺陷,其造成的后果及影响并不比机械缺陷低,然而这些缺陷隐蔽程度更高,用户很难第一时间发现。
值得注意的是,“幽灵急刹”的问题并非理想汽车特有,特斯拉在海外也曾出现过类似的事件。一辆特斯拉Model S在开启FSD驾驶辅助功能后,在没有任何障碍物的情况下突然刹停,并导致多车连环相撞,美国国家公路交通安全管理局 (NHTSA) 针对该事件也展开调查。
汽车网评:对于智能驾驶辅助系统的这些算法上的问题,包括理想汽车在内的各大车企都有必要重视起来,技术创新固然是好事,但用户的安全更应该摆在首位,既然用户已经发现问题,各大车企有必要针对相关的技术进行全面的排查,只有对产品不断打磨和完善,让用户用得更放心,新技术才能逐步发展并成熟起来。