JavaScript is required

视触觉传感技术,“解锁”灵巧手精细交互

「产业链搜罗」栏目,旨在盘点人形机器人各产业链层级的企业,梳理关键环节布局与竞争格局,为行业提供全景参考。本期盘点的为人形机器人灵巧手的「视触觉传感器」产业链环节的部分代表性企业。

传感技术是灵巧手实现环境交互的核心。

根据传感器的布局差异,可以分成灵巧手内部感知传感器和外部感知传感器。内部传感器用于监测关节角度、扭矩、腱张力等本体状态,常用包括霍尔传感器、电位计、应变片等;外部传感器用于感知环境与物体属性,如触觉、温度、接近度等。

图片

其中,六维力/力矩传感器与触觉传感器是实现精细抓取的关键。触觉传感器已成为主流配置,且在产品迭代中被频繁增配。

而近年来,多模态触觉传感器可同时感知接触力、形状、纹理等信息,显著提升了灵巧手的交互能力与智能水平。

视触觉传感器就被认为是这其中最具前景的技术分支之一,它的优势在于触觉信息本身就是视频流,与视觉数据同源,适配端到端大模型训练,一定程度上解决了灵巧手的“数据匮乏”问题。

作为3D 触觉传感技术领域的领导者,GelSight inc专注于开发革命性的触觉感知解决方案,由 MIT 计算机科学与人工智能实验室(CSAIL)的美国国家科学院院士、美国人文与科学院院士Edward Adelson教授创立。

Edward Adelson教授团队在2009年提出了基于三色光原理的视触觉感知技术GelSight。其中,Gel(凝胶)指传感器弹性接触表面使用的材料;Sight(视觉)指传感机制是使用摄像头采集视觉图像。

传感器在接触物体时,会使用红、绿、蓝三色光照射物体表面,内置的摄像头在LED灯光的辅助下捕捉接触物体的凝胶产生的形变,并通过计算机视觉的算法将凝胶形变信息与触觉信息进行映射。

早期,GelSight技术局限于体积大、质量重、运行慢,仅仅应用于物体表面纹理的缺陷检测,与机器人暂无交集。

图片

▍GelSight触觉传感器结构 

2013年,Edward Adelson团队首次将GelSight技术与机器人触觉感知进行结合,构建了涵盖布料、砂布、木材等40种纹理类别的触觉数据库,该系统对数据库内材料的分类成功率高达99.79%,充分验证了GelSight传感器通过触摸实现材质识别的核心能力。值得一提的是,纬钛机器人的创始人李瑞博士就在该团队,并主导了该技术向机器人领域转化。

2014年,Edward Adelson团队进一步推出全球首个面向机器人的 10 微米级分辨率GelSight指尖传感器,借助触觉-视觉融合反馈技术成功实现机器人对 USB 插拔的亚毫米级闭环控制,成为全球最早将触觉与外部视觉结合应用于此类插拔操作的标志性研究,彰显了机器人触觉闭环与手眼协同的巨大应用潜力。

2015年,通过引入表面标记点追踪技术,GelSight突破了单一法向力感知的局限,新增切向力、相对滑动及扭转负荷的测量功能,构建起三维接触力学全息反馈体系,为机器人抓握稳定性判断与动态调控提供了关键技术支撑。

至此,GelSight 完成了从微观成像、材质识别到多维力学感知的全功能迭代,其在精度与场景适应性上的持续突破,成功推动机器人触觉感知从 “盲操作” 向类人精细化交互实现跨越式发展。

2018年,Edward Adelson团队在2014年工作的基础上对GelSight指尖传感器进一步小型化,通过对内部结构进行调整,将传感器厚度减薄,提出了GelSlim指尖传感器。

2022年,Alberto Rodriguez团队在2018年GelSlim的基础上,通过优化照明源至相机的光学路径,进一步提升集成紧凑性,推出了GelSlim 3.0。同年,GelSight Inc.推出了机器人触觉传感器GelSight Mini,售价499美元。据悉,该款产品的设计和技术沿用了GelSight在2014年所提出的指尖触觉传感器方案。

2024年10月,GelSight宣布与Meta AI、Wonik Robotics建立战略合作,联合开发新一代多模态触觉传感器Digit360和仿生机械手Allegro Plexus,并计划2025年量产商业化。这一合作正在为解决视触觉数据与大模型的融合难题寻找出路,有望为具身智能提供底层支撑。

图片

把视野拉回到国内,Gelsight Inc. 的视触觉传感核心技术,已成为驱动行业创新的重要基石,成功带动纬钛机器人、戴盟机器人等一批国内企业实现关键技术突破与产业化落地,推动国内视触觉传感领域形成从技术引进到自主创新的发展闭环。

01.

纬钛机器人:高性能视触觉传感器开拓者

纬钛机器人成立于2024年1月,核心聚焦视触觉传感与手眼协同技术研发,其技术根源就可追溯至美国麻省理工学院(MIT)计算机科学与人工智能实验室(CSAIL),也就是上述提及的Edward Adelson教授团队。

公司创始人李瑞博士深耕机器人与计算机视觉领域近二十载,在MIT攻读博士期间就是师从Edward Adelson教授,共同开创并引领了基于视觉的触觉传感器(视触觉)研究方向,成功研发出全球首款超高分辨率机器人视触觉传感器 ——GelSight指尖传感器,该产品凭借高分辨率、多维力探测、柔性操作适配及低成本等优势,被学术界公认为全球顶尖触觉解决方案。

就如前文提到的,原本的GelSight技术仅应用于物体表面微观结构观测,从2011年起,李瑞博士就基于人类触觉第一性原理,主导该技术向机器人领域转化,历经数十次软硬件迭代实现关键突破。

图片

▍李瑞在MIT读博期间做出了全球第一款超高分辨率的视触觉传感器「GelSight指尖传感器」

然而,GelSight 技术在学术界已获高度认可,但此前尚未实现产业化落地。

基于此,纬钛机器人依托该技术积累,经持续创新迭代,全球首发面向工业场景的触觉传感器产品 “GelFinger”。

与学术界侧重实验室验证不同,该产品聚焦工业级可靠性、耐久性与场景适配性,创新的在机器人手指内部嵌入微型摄像头,借此捕捉手指的三维形变信息,再通过算法进行三维重建与结构反推,赋予机器人触觉感知能力。

作为纬钛机器人的旗舰产品,仿生指尖传感器GF225拥有超高分辨率、多维力测量、柔性适配、抗环境干扰等特点,可以准确地感知到力的大小和方向。

图片

传感器分辨率极高,一平方厘米可达数万触觉信息点,是其他传统触觉传感器的数千到数万倍。另外,产品可自适应抓取,各种软硬物体都可以自动调节力度,稳如人手。通过微米级精细化操作和闭环控制,可实现精准插拔装配。

此外,产品能同步探测法向力和对操作极为重要的切向力、相对滑动等多维力信息,适配不同软硬度物体,实现机器人自适应抓取与精细化闭环控制,同时不容易受温湿度、电磁场等环境影响。

GF225设备带有预装的弹性体传感器(带marker点),提供Linux SDK支持,可与OpenCV、PyTorch、TensorRT、ROS/ROS2、MuJoCo、Isaac Sim 等工具集成,方便用户实现多样化触觉与视觉数据分析,为科研与产业应用提供无限延展空间。

目前,纬钛机器人已与多家科研机构及头部制造业客户达成合作,在精密装配、柔性抓取等场景完成商业化验证,实现小批量出货。

未来纬钛机器人将持续推进技术迭代与规模化量产,推动视触觉传感器及灵巧手产品广泛落地。同时,聚焦解决 B 端复杂商业场景需求,打造通用机器人,为具身智能时代构建机器人多模态感知与灵巧操控的全新范式。

融资方面,2025年4月,纬钛机器人完成近亿元天使及天使+轮融资,由小米旗下瀚星创业投资有限公司领投。同年8月,纬钛机器人再获小米集团战略投资,以推动触觉传感器与通用机器人产业化。

02.

戴盟机器人:重塑视触觉传感格局

历经8年沉淀,戴盟机器人从港科大科研团队的技术探索出发,以持续迭代的视触觉传感技术为核心,构建起覆盖“感知-操作-学习”的全链路产品体系,不仅打破了国际技术垄断,更以高性价比和场景适配力,为具身智能、智能制造等领域注入全新动能。

戴盟的技术根基,源自首席科学家王煜教授与MIT Alberto Rodriguez教授长达6年的科研合作。如上文所言,Alberto Rodriguez团队在2018年GelSlim指尖传感器的基础上推出了GelSlim 3.0。

只不过,不同于GelSight三色光技术路线,戴盟团队独创了全新的视触觉传感器技术路线——不依赖三色光的单色光高分辨率视触觉感知技术,一举攻克了视触觉传感器算力要求高、发热量大、耐用性差等难题。

这一技术突破,让戴盟的视触觉传感器实现了正压力与切向力的超高分辨率感知,以120Hz的高频率稳定输出触觉信号,同时通过采用“触觉流”概念降低对信息传输带宽需求,减少散热,提高效率。更摆脱了设计工艺的局限,可设计成不同大小尺寸,轻松适配多种构型,从机器人灵巧指尖到工业夹爪均可集成,为后续产品落地奠定了核心优势。

2025年4月,戴盟推出全球首款多维高分辨率高频率视触觉传感器DM-Tac W,创新性地将摄像头集成于传感器内部,通过实时捕捉物体接触传感器时密闭光场的形变特征,结合原创解析算法解算光场变化,达成稳定鲁棒的稠密触觉感知。

图片

DM-Tac W每平方厘米覆盖4万个感知单元,不仅远超人手每平方厘米240个感知单元的感知水平,更是当前最密集阵列式触觉传感器的数百倍,能够精准捕捉物体形貌、纹理、软硬、滑移、按压力、切向力等多模态信息,为执行末端赋予类人触觉能力。

在保证高分辨率的基础上,戴盟将传感器厚度从几厘米压缩至几毫米,应用于DM-Hand1五指灵巧手,微型化设计极大地降低了灵巧手的手指厚度,大幅提升了机器人的灵活性,同时可敏锐地识别软硬度、质感等多种物体属性及接触力分布、接触事件等交互属性,使其能完成自适应抓握、易碎件操控、精密零部件装配等高难度任务。

图片

针对行业普遍面临的数据短缺难题,戴盟推出便携穿戴式遥操作数据采集系统 DM-EXton,以行业领先的便携性、无线连接能力和兼容性,覆盖远程操作、数据采集、机器人训练等核心场景,为技术迭代提供了关键数据支撑。

而面对传统传感器在工业场景中环境适应性弱、感知维度有限的瓶颈,戴盟仅半年后便推出新一代解决方案,包含DM-Tac W2、DM-Tac X、DM-Tac F三款传感器及DM-Flux端侧AI计算平台,完成了从单一硬件到系统级赋能的跨越。

新一代产品在技术上实现了多重突破:DM-Tac W2成为全球首款达到IP65防护标准的视触觉传感器,可从容应对液体泼溅、粉尘覆盖甚至水下作业场景,其表面耐磨抗刮材质通过500万次按压测试,重新定义了工业级耐用标准。

图片

此外,微米级纹理识别技术让传感器具备“触觉显微镜”能力,可应用于精密器件缺陷检测、材料分类与鉴别等场景,甚至能捕捉到精密器件表面0.1mm的划痕缺陷,配合六维力感知功能,实现了远超人类指尖的操控细腻度。

戴盟针对夹爪及灵巧手的多元应用场景,推出了尺寸规格更为丰富的视触觉传感器产品矩阵,并同步发布DM-Flux端侧AI计算平台,构建起“感知-操作-学习”一体化智能触觉解决方案。

在传感器产品方面,DM-Tac W2 系列提供中、大两种尺寸选型,可满足常规抓取场景的基础需求;DM-Tac X 型号采用头部28°锋刃式结构设计,具备狭窄空间及复杂环境下的灵活适配能力;DM-Tac F指尖视触觉传感器则推出双尺寸版本,兼容市场主流灵巧手的安装标准,其横向150°+ 纵向 80°的广域感知覆盖范围,为精细操作场景提供全方位环绕式触觉感知支持。

图片

配套推出的DM-Flux端侧AI计算平台,堪称机器人的“触觉决策小脑”。该算力板采用紧凑化设计,尺寸仅为 89mm×75mm×33mm,搭载高性能边缘 AI 处理器,可输出高达10 TOPS的计算性能,支持同时接入五路视触觉传感器。

产品采用即插即用的设计理念,通过CAN FD与RS485接口可直接实现与视触觉传感器的快速对接,配合可视化UI操作界面,企业用户无需进行复杂的环境适配及二次开发,开箱即可完成完整智能触觉系统的搭建。

此次产品布局实现了从单一硬件供给到系统级解决方案的跨越式升级,使戴盟的视触觉产品不再是孤立的感知组件,而是赋能机器人具备自主触觉决策能力的核心支撑,有效降低了智能触觉技术的行业应用门槛。

同时在市场层面,戴盟的新一代视触觉传感器方案1299元起的定价,远低于国际同类产品数千元的市场价,打破了高端触觉传感技术的价格壁垒。

而资本的密集青睐,更印证了其技术实力与市场潜力。截至目前,戴盟已连续斩获四轮融资,累计金额达数亿元,持续刷新触觉传感领域天使轮融资纪录。12月初,戴盟刚刚完成由中国移动链长基金投资的新一轮战略融资,本次融资将加速企业在前沿技术突破、新品研发及量产、VTLA模型建设、团队扩建及全球市场开拓方面的布局。

03.

写在最后

除此之外,位于深圳的一目科技、叠动科技这两家企业,同样聚焦于视触觉传感器技术。

叠动科技凭借全球首创的微机电系统(MEMS)工艺与视触觉传感器融合技术,成功研发出全球首款毫米级高性能微视触觉传感器。

该产品不仅实现结构上的极致薄化,更融合视觉+触觉双模感知能力,精准应对机器人柔性抓取、缺陷检测等复杂场景对感知精度的严苛需求,并已完成全球专利布局。

据悉,该传感器攻克了器件薄膜化、三维力感知、信号稳定性、算力需求与耐用性等多个当前行业共性难题,并结合基于触觉数据的自主学习AI算法,推动机器人实现从基础操作到“干细活、干精活”的能力跃迁。目前,第一代微视触觉传感器已具备量产条件。

叠动科技公司核心团队来自香港科技大学、香港理工大学、清华大学、中南大学等国际知名高校。今年11月,叠动科技完成千万级天使轮融资,由隆盛科技、思源一号共同参与,以加速全球最薄微视触觉传感器的量产落地与场景渗透的双重突破。

聚焦视触觉感知技术,叠动科技围绕灵巧手、工业夹爪、机械臂、电子皮肤等方向拓展产品矩阵,进一步加速视触觉传感器在智能制造、服务机器人、医疗康复等领域的规模化应用。与此同时,新一代多模态视触觉传感器即将推出。

而针对传统视触觉方案体积庞大、温漂明显、感知有盲区、依赖进口材料等痛点,一目科技以打造极致轻薄、全场景适配的视觉传感器为目标,推出仿生视触觉传感器。

该产品采用仿人体指腹形态接触面,厚度仅为行业同类产品一半,融入自研感知算法实现全解算无盲区设计,达到 IP65 防护等级,同时具备微米级形变解算精度、0.005N 力分辨率及最高 120fps 输出帧率,可在复杂工况下稳定提供精准触觉反馈,支撑机器人精细化操作。

一目科技通过全链路底层创新实现多重技术突破。

首先,组建专业团队自研柔性电子皮肤材料,打破进口依赖并达成百万次按压、数万次横向剪切力下的稳定性能。其次,采用自主研发的全栈光学仿真工作流,缩小 Sim-to-Real 差距以加速迭代、降低成本。

其核心技术通过内置摄像头捕捉弹性材料接触物体时的细微形变,获取高清的“触觉照片”序列,并通过AI解算出丰富的触觉信号,使传感器可同步识别物体软硬、表面纹理及滑动趋势。凭借这些优势,产品已获得头部机器人企业及核心供应商合作,进入商业化应用阶段。

未来,一目科技短期计划 2026 年发布集成触觉对齐算法的改良版 VTLA 模型,填补大模型触觉感知空白,同时推进下一代传感器迭代,目标实现 2 毫秒响应时间、2 毫米以下厚度的 “断崖式领先” 指标;长期 3-5 年内,将围绕 “触摸具身智能技术上限” 和 “完善工业化落地” 双线推进,既要实现传感器性能倍数级提升,也要通过全栈自研、自动化生产、批量采购等方式降低成本,推动产品规模化落地。

而在学术端,2025 年 6 月,北京通用人工智能研究院与北京大学联合团队研发的仿生视触觉灵巧手 F-TAC Hand,成功突破传统机器手触觉反馈不足的技术瓶颈,相关成果发表于《自然・机器智能》。

图片

该灵巧手通过硬件与算法的双重创新,将17个空间分辨率高达0.1毫米的高分辨率触觉传感器集成于F-TAC Hand手部70%的表面区域,在保持人类手部自然运动特性的同时,实现了接近生物触觉的感知能力。同时通过类人抓取算法与闭环控制系统,解决了高维触觉数据处理与多模态感知-运动协同难题。

据悉,该灵巧手搭载的模块化视触觉传感器主要由多色光源、柔性镀膜硅胶体、刚性支撑件、微型摄像头和传感器板构成。其中最小传感器尺寸仅为20mm*20mm。在日常抓取常见的50kPa范围内,灵敏度可达到0.48 kPa⁻¹。

点击查看全文
评论赞0分享
轨迹
灵巧手人形机器人产业链

欢迎关注我们!

上海恩翌信息科技有限公司
1NE时代-小恩
188-1775-0862
沪ICP备17041240号-4