基于CPN的视频人工文本提取方法研究

来源 :哈尔滨工程大学 | 被引量 : 0次 | 上传用户:hjx9062
下载到本地 , 更方便阅读
声明 : 本文档内容版权归属内容提供方 , 如果您对本文有版权争议 , 可与客服联系进行内容授权或下架
论文部分内容阅读
视频中人工文本是由制作人员在影片制作后期手工添加的,用来补充说明图像内容的文本字符。人工文本与图像内容的联系紧密,使得它对图像内容的说明以及检索有着十分重要的意义,因此视频中人工文本的提取与识别成为当前的研究热点。本文在对现有视频文本提取方法研究的基础上,针对解决视频图像低分辨率、定位提取速度慢、特征提取方法复杂等问题,给出一种基于对偶传播神经网络(CPN)的视频人工文本提取方法。首先,针对目前存在的视频文本提取方法自动化程度较低、网络输入特征提取方法复杂、训练样本集制作困难的问题,提出了对视频帧进行分割切片,直接以切片区域像素原始灰度值作为CPN输入的方法;其次,针对CPN在模式分类方面的优势,重点研究了CPN的结构算法和特点,以部分优选的输入样本初始化输入层与竞争层连接权值矩阵、以期望输出直接对竞争层与输出层的连接权值矩阵赋值的方法,结合竞争层神经元获胜次数限定,解决了网络“死神经元”问题,同时也使训练速度大大加快,网络性能进一步提高;然后,利用设计的限定性CPN对视频帧文本进行初步定位,并根据距离关系进行组合,得到初步文本区域;最后,采用图像增强技术和形态学方法对初步定位的文本区域进行降噪和增强处理。实验表明,论文提出的方法算法简单,性能良好,速度很快,实现了以简单方法解决复杂问题的目的。
其他文献
微博作为一种新兴的社交媒体被广泛使用,其每天的数据交流数量呈现爆炸式的增长,这些数据为自然语言处理提供了良好的语料环境。微博文本具有和短文本一样的长度较短、情感表
人脸表情识别是一项极富有挑战性的研究课题,由于其潜在的应用价值,受到了许多学者的广泛关注。随着多媒体技术和网络视频的发展,对人们的情感分析,了解用户情感变得越来越重要。
因特网技术的快速发展,推荐系统由于能够帮助用户快速做出适当决定,被广泛应用于各大电子商务网站,推荐服务的使用能促进用户由浏览者到购买者之间的转换,给生产商带来商机的
学位
随着应用系统的急剧扩张和网络技术的迅速发展,用户对系统提供实时数据更新的要求越来越高。然而在系统的集成过程中,底层的数据库之间在实现数据资源的共享和变换时会出现一
在数字化时代的今天,由众多服务器构成的云计算数据中心中,物理服务器的负载较高或者较低,都将会影响系统整体的利用效率。为了实现整个架构的负载平衡,就须要使用虚拟机的动
随着计算机技术的飞速发展,计算机图形学被越来越多地应用到数字电影和游戏中。其中,人脸动画是计算机图形学中最典型的研究方向。近年来数据驱动形式的人脸表情动画也受到了
当前,网络和多媒体技术迅猛发展,多媒体信息急剧增长,网络多媒体数据中数据重复现象很常见,尤其是一些大型多媒体分享网站中,用户上传了大量重复的多媒体数据。重复数据不仅增加了
随着网络规模的增大及其相关技术的发展,越来越多的用户在网络上进行信息的交流,数据的传输等活动,享受着网络带给人们的服务和便利。应用在对等网络上的软件更新技术也逐渐取代
随着Internet的普及和信息技术的发展,微博用户人数迅速增长,微博数据呈爆炸式的增长。当用户登陆进微博之后所面对的就是大量的更新微博,使用户完全被眼前多种多样的微博信息所