论文部分内容阅读
火灾作为一种发生频率较高的多发性灾害,蔓延速度快,破坏性强。随着视频监控的大量普及,基于图像视频的火灾自动检测与预警则十分有研究意义和使用价值。传统火焰检测通常是根据先验知识设计特征提取算法,人工提取火焰动态或静态特征,然后进行火焰识别。此类基于计算机视觉的传统火焰检测方法,其根据先验知识设计人工特征提取算法比较困难和耗时,在面对不同的复杂环境和多变的火焰类型时,其泛化能力往往不足。近年来随着基于深度学习的计算机视觉快速发展,利用卷积神经网络能够自动学习和获取图像特征,目标检测技术有了很大的发展革新。针对复杂环境下的火灾视频检测问题,本文提出一种结合注意力机制的RetinaNet火焰图像检测算法。RetinaNet在残差网络之上使用特征金字塔网络作为骨干网计算和生成丰富的卷积特征金字塔,然后通过分类子网络和边框预测子网络分别对骨干网的输出进行分类和回归。注意力机制则使网络更有效定位到感兴趣的信息,提升网络模型的特征表达能力。改进算法比原RetinaNet算法的火焰检测率提高了4.5个百分点,实现了实时的端到端火焰识别与定位,对复杂目标背景下的小火点检测也保持较高的检测准确率。针对火灾视频流的检测,提出一种基于关键点的CornerNet-Squeeze火焰视频检测算法。该算法通过沙漏网络提取火焰特征,结合角点池化检测火焰的一对角点来定位火焰,使用改进的Fire module替换残差块,在只损失很小精度的同时极大提升了检测速率,与传统火焰检测方法及YOLOv3火焰检测算法相比,该算法的检测精度和速率综合更优,基本满足火灾视频实时检测分析的需求。