佰感交融 机智过人
弹性体老化也不怕:GelSight Mini光学触觉传感器支持跨域力模型迁移
无须力传感器,也能精准校准触觉力?新研究为光学触觉传感器带来高效校准新范式
在机器人抓取、灵巧操作等任务中,光学触觉传感器需依赖大量带标签数据和高精度力/扭矩设备进行校准,过程耗时且成本高昂。近期,伦敦国王学院机器人感知实验室在arXiv发表的研究《Deep Domain Adaptation Regression for Force Calibration of Optical Tactile Sensors》提出一种无监督域自适应回归方法,显著降低校准门槛。
该方法仅需目标传感器的无标签触觉图像,即可将已校准模型从源域(如一台完好 GelSight Mini视触觉传感器)迁移至存在域差异的目标域——包括标记点缺失、光照变化或弹性体老化等常见场景。通过局部最大均值差异(LMMD),实验显示,迁移后法向力预测误差低至 0.102 N(满量程3.4%),剪切力误差分别为 0.095 N(6.3%)和 0.062 N(4.1%)。

图1:通过局部最大均值差异(LMMD)实现特征对齐,共享回归器可将源域力标定能力迁移到无标签目标域

图2:实验使用GelSight传感器采集多域触觉-力配对数据,模拟真实部署中的变量变化

图3:相比直接迁移(source-only),域自适应大幅降低预测误差
这一成果对科研用户意义显著:GelSight Mini 作为广泛使用的微型视触觉传感器,常因更换弹性体、环境光干扰或用户移除表面标记而需重新标定。借助此类域自适应技术,研究人员可免去力传感器依赖,仅用少量无标签图像完成快速校准,大幅提升实验效率与系统鲁棒性。

该研究不仅验证了深度域自适应在弹性光学触觉传感器力校准中的有效性,也为 GelSight 系列产品的实际部署提供了可扩展的技术路径。相关代码与多域触觉数据集已开源,助力触觉智能研究社区发展。
论文来源: Chen Z, Ou N, Jiang J, et al. Deep domain adaptation regression for force calibration of optical tactile sensors[J]. arXiv preprint arXiv:2407.14380, 2024.
