主页 > AI人工智能 > 突破类人触觉瓶颈!清华仿生传感器问世,机器人感知能力迈入新纪元

突破类人触觉瓶颈!清华仿生传感器问世,机器人感知能力迈入新纪元

具身智能领域再迎里程碑式技术突破!1月21日,清华大学深圳国际研究生院丁文伯团队联合国内外科研力量,宣布成功研发出受鸽眼启发的多模态高分辨率触觉传感器SuperTac,相关成果已发表于国际顶级期刊《自然·传感器》。这一创新不仅攻克了长期制约机器人发展的“类人触觉”核心难题,更将推动机器人在制造、医疗、服务等领域的应用实现质的飞跃,成为近一周AI与机器人行业最具颠覆性的技术进展。
触觉感知是机器人实现与环境精准交互的核心能力,也是具身智能技术落地的关键瓶颈。当前主流触觉传感器要么难以兼顾高分辨率与多模态感知,要么在信号解读能力上与人类触觉存在显著差距,导致机器人在抓取易碎品、识别材质纹理、完成精细操作等场景中表现笨拙,无法适配复杂真实场景需求。而人类指尖仅通过触摸就能精准分辨物体的硬度、纹理、温度甚至细微形变,这种综合感知能力一直是机器人触觉研发的终极目标。
SuperTac传感器的核心突破的在于“仿生设计+多模态融合”的创新路径。团队借鉴鸽眼的多光谱感知机制,创新性地将中红外至紫外波段的多光谱成像技术与摩擦电信号相结合,打造出多层超薄感知皮肤,结构涵盖导电聚合物、荧光层、反射层和支撑层,既保证了感知的灵敏度,又实现了多维度信息捕捉。该传感器可精准测量力、位置、温度、接近度、振动五大核心参数,力感知范围可灵活调整,空间分辨率达到微米级,对物体材质、纹理、滑动、碰撞、颜色等物理属性的识别精度均突破94%,大幅超越现有同类产品。
更值得关注的是,团队同步构建了8.5亿参数的触觉语言模型DOVE,为传感器赋予了“触觉理解能力”。不同于传统传感器仅能采集数据,DOVE模型可深度解读多模态触觉信号,将物理感知转化为机器可理解的“触觉语言”,让机器人不仅能“触摸”到物体,更能像人类一样“理解”触摸到的信息——例如通过纹理差异分辨布料的棉质与化纤属性,通过细微振动判断机械零件的磨损程度,这种“感知+理解”的双重能力,真正拉近了机器人触觉与人类触觉的距离。
目前,SuperTac传感器已成功集成至机器人灵巧手中,可实现远程实时状态反馈,展现出极强的场景适配性。在工业制造领域,搭载该传感器的机器人可精准抓取芯片、玻璃器皿等精密易碎部件,同时通过触觉识别部件表面缺陷,提升生产效率与良品率;在医疗领域,其微米级感知能力可辅助机器人完成微创手术中的精细操作,通过感知组织硬度变化规避血管、神经损伤,降低手术风险;在服务机器人领域,它能让机器人更好地适配家庭场景,精准拿捏物体轻重,甚至通过触摸感知老人、儿童的身体温度变化,提供更贴心的照料服务。
此次技术突破的行业影响力远超单一产品创新,它为机器人触觉研发建立了“传感器+AI模型”的完整技术范式,破解了长期以来“感知易、解读难”的行业痛点。业内专家指出,SuperTac的问世标志着我国在机器人触觉传感领域已跻身全球领先行列,其核心技术可迁移至多个细分赛道,带动上下游产业链升级,例如推动高灵敏度导电材料、微型多光谱成像模块、触觉AI算法等领域的技术迭代与产业化应用。
从产业发展趋势来看,随着具身智能成为AI行业的核心赛道,机器人对高阶感知能力的需求将持续攀升。SuperTac传感器的落地,不仅为国产机器人企业提供了核心技术支撑,打破国外在高端触觉传感领域的垄断,更将加速机器人从实验室走向真实应用场景,推动制造业智能化转型、医疗服务升级、养老产业革新等多个领域的发展。未来,随着技术的进一步优化与成本降低,仿生触觉传感器有望成为各类智能机器人的标配,开启机器人与人类高效协同的全新篇章。
清华大学团队的这项创新,再次印证了基础科研对产业升级的核心驱动作用。在AI与机器人行业从“技术竞赛”转向“场景落地”的关键阶段,只有突破核心零部件与底层算法的瓶颈,才能构建真正的技术壁垒。SuperTac传感器的问世,不仅是一次技术突破的宣告,更预示着机器人感知能力将迈入“类人化”新纪元,为全球具身智能产业发展注入强劲动力。