卡内基梅隆大学的人工智能专家开发出一种名为JL2P(Joint Language-to-Pose)的技术,能够将文字描述转化为肢体动作。这项创新技术目前主要用于简化图形,但它未来有望帮助类人机器人完成实际任务,或者助力创意人员制作视频游戏及电影中的虚拟角色。
JL2P能够实现的动作包括行走、跑步、演奏乐器(例如吉他或小提琴)、跟随方向指示(向左或向右)以及调节动作速度(加快或放慢)。该研究成果最初发表在arXiv.org上,并将在9月19日于魁北克召开的3D视觉国际会议上由卡内基梅隆大学的研究员柴坦雅·阿胡亚等人展示。
研究团队采用的方法是先根据不完整的指令预测动作序列,以此优化模型。他们指出,这种训练方式有助于模型掌握诸如行走时的腿部动作、挥手时的手部动作以及弯腰时的躯干动作等细节。据称,相较于2018年SRI国际提出的一项领先技术,JL2P在人体动作模拟方面的表现提高了9%。
JL2P的训练数据来源于KIT动作语言数据集,这一数据集由德国高性能仿人技术公司在2016年创建,包含约11小时的人体运动记录,这些记录被对应到大约6200个用简单英语句子描述的动作场景中。