假如机器人能够综合利用听觉和视觉,将会显著提升其感知和识别能力。
人类通常依赖多种感官来认识世界,而机器人主要依靠视觉,偶尔借助触觉。然而,美国卡耐基梅隆大学的研究团队在最近的“虚拟机器人科学与系统”会议上展示了他们的最新研究成果:通过增加另一种感官,可以显著提升机器人的听觉感知能力。
这是首次大规模研究声音与机器人动作之间的相互影响。该校机器人研究所的研究人员发现,声音可以帮助机器人区分不同物体,例如金属螺丝刀和金属扳手。此外,听觉还能够帮助机器人判断动作产生的声音,并利用这些声音来预测新物体的物理属性。
该校博士毕业生、纽约大学讲师Lerrel Pinto表示:“初步研究表明,声音在许多领域都有广泛的应用潜力。然而,它在机器人技术中的实际应用价值还有待进一步探索。”
研究团队发现,机器人通过声音成功区分物体的成功率达到了76%。Pinto补充说,未来的机器人可能配备带有工具的手杖,使其可以通过敲击动作识别物体。
为了进行这项研究,研究人员创建了一个包含60种常见物品的视频和音频资料库,如玩具积木、手工工具、鞋子、苹果和网球等。随后,他们发布了这个数据集,供其他研究人员使用。
尽管这个数据集的规模前所未有,但其他研究人员也曾经探讨过智能代理机器人如何利用声音获取信息。例如,该校机器人学助理教授Oliver Kroemer曾在一项研究中,通过摇动容器的声音来估算其中颗粒状物质的数量,或者预测这些物质从勺子中流出的量。
Pinto博士指出,声音对机器人来说并不是完全陌生的概念,但他们对声音在机器人技术中的高可用性仍感到惊讶。例如,他们发现机器人可以利用一组已知物体的声音特征,预测以前从未见过的物体的物理属性。