论文部分内容阅读
近年来,在灾难事故等特殊场景下,利用群机器人进行协同工作,通过视觉系统对灾难现场进行排查和营救正发挥着越来越重要的作用。而使用机器视觉代替人类来完成这项工作无疑是人们所希望看到的,这其中牵扯到视觉技术中的最关键的问题---目标再确认。目标再确认,即判断来自不同机器人所采集的影像下的行人是否为同一个人。然而,实际环境下由于光照、视角等方面差异,造成同一个行人在不同图像下所呈现的体貌特征有很大的差异。基于以上问题,本文在鲁棒性特征表达基础上,主要从影响再确认结果较大的度量算法的角度开展研究,具体工作如下:提出了一种基于优化扩散距离的度量算法用于目标再确认。为提高算法的计算效率,在扩散距离进行高维表达时,加入高斯金字塔2/3比率的图像降采样进行优化;同时为提高算法的匹配精度,在考虑样本存在差异性的基础上整合了样本所存在相似性的因素并进行加权化处理。针对传统KISSME(Keep It Simple and Stupid Metric)算法所存在的问题,即小样本特征值不稳定而导致匹配效果下降的问题,一旦新增样本,要重新训练,从而计算效率低下。提出了自适应增量KISS度量学习算法(Adaptive Incremental Keep It Simple and Stupid Measure Learning:AIKISSME)。分为两步进行优化,为了解决特征值不稳定的问题,加入虚拟样本、平滑和正规化技术,从而增加样本数量以及抑制较大或者较小特征值所带来的不稳定性;为了提高计算效率,针对新增样本加入自适应增量学习技术,从而避免了一旦新增样本需要重新训练的时间负担。最后通过仿真实验表明,本文提出的距离度量算法可以很好的实现目标再确认,与其他算法相比在准确率方面具有明显优势。同时本文贴合实际情景需求,解决了目标再确认技术的众多关键环节,有利于该技术在群机器人视觉等研究领域的发展,对推动该领域进一步实现专业化、高效化、智能化,具有深远意义。