在第三届全球智能工业大会暨博览会上,IEEE智能交通系统杂志总编、格里菲斯大学Ljubo Vlacic教授提出了一个问题:为什么人们对无人驾驶汽车的信任度在下降?
此次大会由中国光学工程学会主办,于11月23日至25日在广州南丰国际会展中心举行。在大会的主题报告环节,Ljubo Vlacic教授提到,尽管无人驾驶技术备受关注,但至今尚未有一辆真正商用的无人驾驶汽车问世。
Ljubo Vlacic教授分析了阻碍无人驾驶汽车发展的几个关键因素:首先,缺乏明确的法规基础;其次,缺少容错机制;再者,技术挑战尚未解决;最后,监管和责任判定存在难题。
机器学习与控制错误
作为自动化领域的资深专家,Ljubo Vlacic教授认为无人驾驶技术仍有很长的路要走。他指出,当前的人工智能解决方案大多依赖于固定的规则,但无法全面覆盖所有驾驶情景,这限制了基于规则的方法的应用。
此外,无人驾驶汽车缺乏冗余设计,即没有备用系统来应对故障。这导致无人驾驶汽车在安全性上仍存在不足,需要进一步的技术突破才能实现更高的安全性。
Ljubo Vlacic教授强调,如果无人驾驶汽车在未经充分测试的情况下进入市场,这是不负责任的行为。因为这些车辆尚未达到基本的安全标准,无法满足公众的期望。
无人驾驶汽车面临着机器学习所需大量数据与避免错误之间的矛盾。机器学习需要大量数据来优化其性能,但过度依赖错误来学习并非最佳策略。因此,如何平衡数据收集与错误预防成为了一个亟待解决的问题。
如何评判事故责任?
除了技术挑战,无人驾驶汽车还面临监管和责任判定的问题。目前,没有独立的认证机构对无人驾驶汽车进行全面评估,大多数测试由汽车制造商自行完成,缺乏第三方的监督。
Ljubo Vlacic教授认为,无人驾驶汽车的算法应当具备社会责任感。当前的人工智能算法在情境感知和社会适应性方面存在不足,无法完全理解和融入不同的文化和社会环境。
最棘手的问题是如何界定无人驾驶汽车事故的责任归属。Ljubo Vlacic教授提到,国际标准L3(有条件自动化)已经提出,但实践中遇到诸多困难,特别是在法律责任方面。例如,在L3模式下,司机是否需要时刻准备接管车辆,以及如何在紧急情况下快速响应,这些问题尚无明确答案。
Ljubo Vlacic教授建议,最终应实现人机协作的无人驾驶模式。在这一模式下,驾驶员仍然需要承担一定的责任和认知,确保在必要时能够干预车辆。同时,人工智能解决方案应接受与传统决策方法相同的法律监管,避免将所有责任推给软件系统,而忽视人类自身的道德和责任。
更多详细内容,请参考相关资料。