论文部分内容阅读
最近几年自然灾害频繁发生,继中国汶川特大地震后,海地、智利和玉树接连发生地震。灾难现场搜救的主要问题是搜救者对灾区周围环境不熟悉,对究竟掩埋多少人及其位置不清楚。有时幸存者深埋于坍塌钢筋混凝土建筑物下,要在狭小空间内实施搜救,其难度无疑很大。因灾难造成的毒气泄漏、火灾等特定环境下的救援工作也非常困难,很有可能使救援人员也陷入危险,研究的课题就在这个背景下提出来的。本文主要研究了灾难现场图片的人体检测,在机器人AS-RF上装有红外和可见光摄像机。通过在灾难现场采集出来的图像判断是否有生命体的存在,如果有活生命的存在就返回生命体的位置,这有利于配合人员的搜救工作。本文研究的人体检测背景比较复杂,人体姿态多样。在光照比较暗的地方或者没有光照的地方,采用基于整体的人体检测来检测红外图像。在合适的光照下,采用了红外图像和可见光图像相结合的方法来进行检测。先将可见光图像和红外图像进行配准获得人体候选区,在这些候选区上进行检测。采用先检测部分肢体再将结果融合的检测方法。本文把人体分为头肩部分(正面、侧面)、腿脚、人脸、头发、肤色5部分。各个部分分别选择各自的特征,使用相应的方法训练分类器。通过大量的实验统计,灾难现场中的人体姿态通过一定角度的旋转最后都会变为下面三种姿态:直立人体模型(行人模型)、坐着人体模型、蜷缩人体模型。部分肢体检测结果的融合方面,使用基于弹簧模型思想。由于人体各部分的位置关系分布符合高斯分布,分别使用这三种模型进行训练人体关系概率模型。通过大量样本的统计,可以将这五部分的位置关系描述为一个人体高斯分布函数的概率模型。检测过程中,对各个部分肢体的检测结果分别采用这些模型可以得到一个人体存在的概率。通过选择一个阈值来判断图像中是否存在人体。本文所有的方法都已经实现,在行人数据集、项目组采集的模拟灾难现场测试集、真正灾难现场图片测试集上验证了本文方法能够实现立、坐、躺姿态及遮挡人体检测。所实现的系统集成于机器人平台的灾难现场生命感知系统中,通过了真实环境的测试,效果良好。