清华新闻网1月20日电 随着具身智能技术的发展,机器人与人类的互动场景日益丰富,对机器人的高阶触觉感知提出了更高要求。然而,目前触觉传感系统在空间分辨率、多维感知和信号解读能力等方面仍与人类触觉存在显著差距。视触觉传感器(visuotactile sensor)通过成像手段实现亚毫米级分辨率,但在多光谱感知等方面依然面临挑战(图1)。在此背景下,如何突破触觉传感器的分辨率极限、提升多模态融合能力,并实现多模态触觉信号解读,成为推动机器人“类人触觉”发展的核心科学问题。

图1.安装有多模态视触觉传感器的灵巧手渲染图

图2.生物启发原理及其应用场景
近日,清华大学深圳国际研究生院丁文伯副教授团队联合国内外多家单位,成功研发出一种受鸽眼启发的多模态高分辨率触觉传感器(SuperTac),取得了机器人触觉感知能力的重要进展(图2)。

图3.内部结构及功能表征
SuperTac创新性地将中红外至紫外波段的多光谱成像与摩擦电信号相结合,设计了基于导电聚合物、荧光层、反射层和支撑层的多层超薄感知皮肤。SuperTac具备力感知范围调整能力,实现了微米级的高分辨率和多模态高精度测量(力、位置、温度、接近、振动),并且对于不同物理属性如材质、纹理、滑动、碰撞和颜色等信息的感知精度均超过94%(图3)。

图4.触觉感知模型及应用实验

图5.传感器实物图

图6.安装SuperTac的灵巧手
为了充分挖掘传感器的多模态感知潜力,团队还自主构建了拥有8.5亿参数的触觉语言模型DOVE,能够理解丰富的触觉信息,赋予机器人类人触觉感知和环境理解能力(图4)。目前,SuperTac(图5)已成功集成至机器人灵巧手中(图6),支持远程实时状态反馈,有望在制造、医疗、服务机器人等领域发挥变革性作用。
研究成果以“仿生多模态触觉传感实现类人机器人感知”(Biomimetic Multimodal Tactile Sensing Enables Human-like Robotic Perception”)为题,于1月15日发表于《自然·传感器》(Nature Sensors)。
清华大学深圳国际研究生院2025届博士毕业生李寿杰、2023级博士生吴同、2023级硕士生徐建乐为论文第一作者。清华大学深圳国际研究生院副教授丁文伯、大连理工大学教授解兆谦、新加坡国立大学助理教授吴昌盛和香港城市大学教授于欣格为论文通讯作者。清华大学深圳国际研究生院教授王学谦,博士后赵洪发、吕楚桥,上海大学副研究员叶林奇,加州大学伯克利分校博士后王子涵,深圳国际研究生院2024级硕士生黄炎、2022级博士生徐庆昊、2025届硕士毕业生穆世龙,大连理工大学2024级博士生张宗文以及美国南加州大学2025级博士生杨洋为研究提供了大力支持。研究得到国家重点研发计划、深圳市科技计划项目、广东省创新创业研究团队项目以及清华大学深圳国际研究生院–深圳鹏瑞青年教师项目的支持。
本文链接:http://knowith.com/news-3-4978.html深圳国际研究生院丁文伯团队合作在多模态高分辨率触觉传感器研发领域取得新进展
声明:本网页内容由互联网博主自发贡献,不代表本站观点,本站不承担任何法律责任。天上不会到馅饼,请大家谨防诈骗!若有侵权等问题请及时与本网联系,我们将在第一时间删除处理。