计算机集成制造系统 ›› 2021, Vol. 27 ›› Issue (11): 3138-3147.DOI: 10.13196/j.cims.2021.11.008
林俊义1,2,张举1,2,李龙喜1,2,肖棋1,2,江开勇1,2+
摘要: 针对机器人视觉自动测量中的下一最佳测量位姿确定问题,提出一种融合深度图像与密度聚类方法。该方法采用结构光双目视觉测量技术获得初始视角下被测物体的深度图像和三维点云数据,基于深度图像信息快速获取被测物体的边缘与密度聚类分析区域,基于密度聚类方法判定区域的复杂程度,进一步结合视场要求计算子区域权重,获得下一视场的最佳移动方向。利用趋势面分析预测下一最佳测量位姿的空间范围,采用深度图像信息获得趋势面分析全局区域,并快速获得中心趋势线的空间数据以确定下一最佳测量位姿。建立了Universal Robot 5(UR5)机器人和视觉测量平台,对胡巴和海盗头像模型进行测量实验,验证了所提方法的有效性。
中图分类号: