论文部分内容阅读
随着老龄化的加剧和服务业劳动者的缺失,服务机器人得到了迅速发展。但是当前阶段服务机器人在应用时存在一些瓶颈:一方面,机器人复杂环境下的场景感知与理解能力不够,无法得到环境语义信息进而不具备完成更高级别任务的能力;另一方面,当环境中存在较多的障碍物、光照条件恶劣或对于地图精度要求较高时,激光雷达、深度相机等传感器都存在局限性,无法更好的满足复杂结构化动态环境导航的要求。为解决以上问题,本文搭建了服务机器人室内场景理解与导航系统,对视觉目标检测技术、同时定位与建图技术、路径规划技术在移动机器人上的应用进行研究,主要内容如下:(1)为了提高服务机器人对复杂结构化场景的认知能力,本文采用深度学习技术搭建机器人场景理解系统。使用YOLOv3模型,实现了对场景目标的理解检测,满足了系统理解的实时性和准确率需求。在得到图像内目标区域后,基于深度相机获取目标的距离信息,通过坐标变换得到目标在空间中的三维坐标,最后将目标检测和测距封装为不同的ROS节点在机载工控机上进行部署,实现了与机器人导航模块的集成,为实现机器人行为决策等高级任务提供了条件。(2)对激光SLAM和视觉SLAM技术进行研究,以此为基础提出基于贝叶斯估计的多传感器融合建图方案。相对于单线激光建图方案的不足,实现了对一定高度障碍物的识别,同时获得了比单独使用视觉传感器建图时更高的精度,为路径规划提供了具有三维信息、更加精确完善的环境地图。(3)在环境栅格地图的基础上,使用改进的A*算法实现了全局路径规划,使用动态窗口法进行局部路径规划,实现了机器人动态避障。在以上研究的基础上,研究了全向移动机器人运动模型,搭建了移动抓取机器人实验平台,实现了场景理解方案、融合建图方案、改进路径规划方案的实验验证。