创新成果|北大信研院情感智能机器人实验室两篇论文分别被IROS2021和ACM MM 2021录用

来源:AIIT发布日期:2021-07-07

北京大学信息技术高等研究院情感智能机器人实验室两篇论文分别被IROS2021和ACM MM 2021录用。

关于IROS

60e6a0443e9a8.jpg

IROS是世界机器人领域公认的两大顶级学术会议之一,始于1988年,每年举办一次,为国际机器人研究界提供了一个探讨智能机器人和智能机器科技前沿的国际论坛。除了技术会议和多媒体报告外,IROS 会议还举办小组讨论、论坛、研讨会、教程、展览和技术参观等活动,以丰富参会人员的成果讨论。受疫情影响,2021年的IROS会议将于2021年9月29日-10月1日以线上方式举办。

录用论文简介

情感智能机器人实验室撰写的学术论文 “Learning to Navigate in a VUCA Environment: Hierarchical Multi-expert Approach”被2021年的IEEERSJ智能机器人与系统国际会议IROS (International Conference on Intelligent Robots and Systems)录用,该文章第一完成单位为浙江省北大信息技术高等研究院,情感智能机器人实验室张文祺、赵锴为共同第一作者。

Learning to Navigate in a VUCA Environment: Hierarchical Multi-expert Approach

论文作者:张文祺*、赵锴*、李鹏+、朱晓、叶发萍、江微杰、叶发萍、王韬。(*为共同一作,+为通讯作者)

该论文主要针对于解决在不给定先验地图的情况下,机器人如何在一个可能有死胡同或高速移动障碍物的未知复杂环境中,不通过任何外源设备,仅凭借机载测距传感器实现避障导航任务。

60e6a061ec6ea.jpg

该论文设计了一套高效、鲁棒的导航系统,主要采用分层结构,借鉴了中枢神经系统(CNS)的思路,设计了一套上下层双向反馈机制,上层负责定位建图、启发式搜索、路径规划,在结合了目标距离、路径代价与安全系数后,实时向下层传达指令;下层则通过多专家融合的方法,自适应的在静态环境下或高动态环境下灵活的切换导航策略,并实时向上层反馈安全系数。这项研究突破了机器人导航中存在的各项局限性,对于机器人感知、定位、导航等任务过程中实现精准决策具有重要意义。

60e6a073f08eb.jpg

相比基于优化方式和基于学习方式的不同基准方法,该工作在各项指标上都取得了突破性的提升。基于该项工作,研究人员分别在轮式机器人与情感智能机器人实验室自主研发的四足机器狗“萝卜”上进行了应用,结果表明,在各种情况下该方法均具有良好的探索与导航能力。

60e6a087e834b.jpg

“萝卜”机器狗

关于ACM MM

60e6a0a5c1b9b.jpg

ACM MM是计算机科学领域中多媒体领域的首要国际会议,CCFA类推荐会议,每年举办一次。ACM MM 2021将于2021年10月20日-24日在中国成都举办。

录用论文简介

研究院情感智能机器人实验室合作撰写的另一篇学术论文“CaFGraph:Context-aware Facial Multi-graph Representation for Facial Action Unit Recognition”被2021年ACM国际多媒体会议ACM MM(ACM International Conference on Multimedia)录用,该论文第一完成单位为北京大学校本部,第二完成单位为浙江省北大信息技术高等研究院,情感智能机器人实验室陈迪琦为第二作者。

CaFGraph: Context-aware Facial Multi-graph Representation for Facial Action Unit Recognition

论文作者:陈颖婕*,陈迪琦,王亦洲,王韬+,梁云。(*为第一作者,+为通讯作者)

面部动作单元(AU)检测在情感计算,特别是情感人机交互领域中具有不可或缺的作用,受到越来越多的关注。AU描述的是细微和瞬时的面部肌肉运动,而在连续帧中捕捉局部人脸区域内细微而模糊的运动是一个挑战。考虑到上下文是人类视觉系统中解决模糊问题的关键,在面部图像中建立上下文模型将有助于更精确的面部动作单元检测。为此,我们提出了CaFGraph,一种新颖的上下文感知人脸多图,它可以同时模拟基于形态学和面部肌肉分布的区域级局部上下文和区域级时间上下文。CaFGraph是第一个为几乎所有细粒度面部行为分析任务(包括但不限于AU识别)构造一个通用的面部多图结构的工作,该图结构独立于任务设置和数据集统计数据。为了充分利用上下文信息,本文提出了一种基于CaFNet的多标签面部动作单元识别网络,该网络通过CaFGraph学习上下文感知的面部图像标准。具体来说,CaFNet首先将每张面部图像从RGB域转换到频域提取全局特征,减少信息损失。接下来,根据预先定义的区域中心自适应地定位局部面部区域,并独立学习作为节点信号的区域特征。为实现节点间的交互,引入时空多图卷积模块,实现基于上下文的多标签AU检测。在两个广泛使用的基准数据集(BP4D和DISFA)上的实验结果表明,我们的CaFNet优于现有的方法。

实验室简介

情感智能机器人实验室 ( LAIR ) 成立于2017年,以赋予机器人真正的智能和情感为发展目标。我们相信,在未来的生活中,情感智能机器人将不可或缺,在家庭、安全、教育、商业、健康等领域中都将发挥重要的作用。

实验室两地建设,北京实验室(北京大学校本部)进行情感智能学术研究,包括机器人对人类情感识别、注意力分析等;杭州实验室(浙江省北大信息技术高等研究院)开发人–机器人自然交互技术,研制实体智能机器人。

关闭
返回
打印