导览
近期,一起涉及智能驾驶系统的交通事故引发广泛关注,凸显了智能汽车技术的安全性问题。8月10日,一辆小鹏P7在高架桥上以约80公里/小时的速度追尾停在路旁的一辆故障车,事故导致站在前车车尾的一名行人不幸遇难。
事故发生后,网络流传的疑似涉事小鹏车主的聊天记录显示,当时车辆正在使用LCC车道居中辅助功能。面对这一事件,小鹏汽车于8月11日回应,表达了对不幸遇难者的哀悼,并承诺全力配合事故调查及协助家属处理相关事宜。
此事件再次唤起了公众对智能驾驶功能安全性的讨论。据统计,从2021年6月至2022年5月15日,特斯拉的Autopilot系统涉及的事故共计273起。在国内,蔚来、理想等品牌的辅助驾驶系统也曾出现“疑似失灵”的情况,引发消费者对安全性的质疑。
今年3月,一辆小鹏P7在开启辅助驾驶功能时,撞上前方横停的侧翻车辆;8月8日,一辆理想ONE在高速公路上撞上停在路边的工程车辆,当时驾驶者开启了ACC自适应巡航和车道保持辅助功能。此类事故的频发,给智能驾驶行业敲响了警钟。
智能驾驶功能的过度宣传可能误导消费者。尽管智能驾驶被视为汽车智能化的关键,其前沿技术的应用确实吸引了众多消费者。然而,实际情况是,目前市场上可量产的智能驾驶系统主要仍处于辅助驾驶阶段。
清华大学仇斌副研究员指出,当前自动驾驶系统在95%的场景下表现良好,但仍面临5%的不典型场景,这些场景需要不断训练和人工数据输入。自动驾驶识别系统的完善还需时间,环境的复杂性意味着难以覆盖所有情况。
消费者对自动驾驶与辅助驾驶的区别理解存在偏差。大部分量产车型配备的自动驾驶能力定级为L2级,这意味着驾驶员必须保持双手握住方向盘,全神贯注于驾驶,并随时准备接管车辆。当自动驾驶系统达到L3级时,驾驶员可暂时移开双手,但这一阶段尚未实现大规模量产。
张翔分析师提醒,车企在宣传智能辅助驾驶系统时,应避免夸大其词,确保使用规范术语,如“辅助驾驶”,并向消费者明确其含义。他强调,智能汽车仍需驾驶员始终掌控驾驶权,直至车辆实现完全自动驾驶,即取消方向盘和脚刹硬件。
针对辅助驾驶功能,国家工业和信息化部强调,企业应明确告知车辆性能限制,包括驾驶员的角色、责任范围、介入驾驶任务的方法及条件。小鹏汽车的用户手册中已明确指出,LCC功能仅为辅助驾驶,驾驶员需始终保持对车辆的控制。
理想汽车官方回应称,用户在事故发生时未握方向盘,表明其未遵守辅助驾驶系统的使用规则。在一些车企的官网上,辅助驾驶功能的介绍已从“自动驾驶”更改为“领航辅助驾驶”,并强调驾驶员需随时准备介入,以确保行驶安全。
凌然分析师指出,辅助驾驶功能的局限性可能源于雷达识别与判断的不足,尤其是激光雷达在特定场景下的应用。激光雷达在高精度三维成像、精确检测距离等方面具有优势,但辅助驾驶功能的整体提升还需依赖软件与硬件的双重进步。
江山美高级分析师认为,辅助驾驶系统的技术模型仍有待优化,需要更多行驶数据的支持。用户对自动驾驶的信任度较高,可能导致他们在使用时放松警惕,这是引发事故的原因之一。
《深圳经济特区智能网联汽车管理条例》的实施明确了法律责任。在涉及辅助驾驶的交通事故中,驾驶员通常需承担主要责任,除非事故是由车辆失控引起的。此外,若智能网联汽车存在缺陷导致损害,车辆所有人、管理人需先行赔偿,随后可向生产者、销售者追偿。
交通事故认定中,辅助驾驶汽车的责任主体通常是驾驶员。美国也曾有过类似案例,涉及特斯拉Autopilot系统,驾驶者被指控犯有过失杀人罪和交通肇事杀人罪。
总体而言,智能驾驶技术虽正逐步普及,但其安全性问题不容忽视。确保智能驾驶功能的合理使用、提高驾驶员对辅助驾驶功能的正确理解,以及完善法律法规,将是推动行业健康发展的关键因素。