机器人对于最终用户来说往往是个谜。然而,正是这种自主性使得机器人能够独立完成任务,而无需过多干预。但在日益密切的人机协作中,若机器人的自主性导致我们难以理解其行为,信任问题便随之而来。
加州大学洛杉矶分校的研究团队在《科学机器人》杂志上发表了一篇论文,提出了一种机器人系统,该系统能够生成实时、人类可读的解释,从而测试哪种解释最能提升人们对系统的信任。尽管这有助于增强信任,但并不能完全消除对机器人的疑虑。
这项研究得到了DARPA的可解释人工智能(XAI)计划的支持,该计划的目标是让人工智能系统能够更好地理解和解释自身的行为,以便人们可以信任并有效管理这些系统。XAI面临的挑战之一在于机器学习模型的不透明性,另一个则是如何让这些系统以有效的方式与人类沟通。
加州大学洛杉矶分校的研究旨在区分解释能力和任务执行能力,分别评估两种主要的表示方法(符号表示和数据驱动表示)在执行任务和建立信任方面的作用。研究发现,将符号解释和触觉解释结合使用能够显著提升信任度。尽管符号解释的效果更为明显,但综合两种解释方式更能增强用户的信任感。
实验中,研究人员展示了机器人在打开药瓶过程中的动作,以及相应的符号解释和触觉模型。结果显示,能够同时获得符号和触觉解释的参与者对机器人的信任度更高。这表明,实时、有意义的解释对于建立对复杂任务的信任至关重要。
尽管当前的解释主要集中在“做什么”,但长远来看,解释系统也需要包含“为什么”。这不仅能增强用户对机器人的信任,还能让人们更好地理解机器人的决策过程。例如,机器人打开药瓶的过程可能包含了多次尝试和调整,而这些细节只有通过适当的解释才能传达给用户。
加州大学洛杉矶分校的研究团队也在探索如何增加“为什么”的解释,以进一步提升信任度。未来,机器人领域将更加注重解释性,而不仅仅是功能优化。因为随着机器人和AI技术在社会中的重要性不断提升,可解释性将成为确保公众信任的关键因素。正如研究的主要作者马克·埃德蒙兹所说,即使功能强大,缺乏解释的系统也可能让人感到不安。因此,提供清晰、易懂的解释将是未来发展的关键方向。