论文部分内容阅读
摘要:随着音乐数字化、互联网和手机技术的不断发展,三者互联满足人们日常生活、学习和娱乐成为大势所趋。传统的音乐检索方式必须通过文本标注,它要求用户给出乐曲名、演唱者、词曲作者、歌词等关键字,给用户的使用带来了种种限制。随着生活节奏的加快,人们已经不满足于这种基于文本的音乐检索,希望通过哼唱出自己脑海中残留的一个旋律片段作为检索输入,检索出包含该旋律片段的目标乐曲,这种基于哼唱的歌曲检索技术的提出给用户带来了极大的便利。基于哼唱方式的歌曲检索是基于内容音乐检索的一个分支,是数字音乐领域的一项重要研究内容,具有重要的理论研究意义和实际应用价值。在模式识别领域,音乐检索算法由于其易行和高效的特性而得到越来越多的重视,其中旋律片段的特征提取和旋律片段的匹配是音乐检索中的难点。本文围绕基于哼唱方式的音乐检索方法开展研究工作,取得的主要成果如下:(1)由于MIDI音乐文件只包含音高和音长等有效信息,选择MIDI音乐文件作为数据库存储音乐;由于WAV音乐文件能较好地保存采集量化的旋律片段数据,选择WAV音乐文件作为哼唱存储音乐,通过提取音高和音长的二维旋律特征实现旋律匹配。(2)采用归一化、带通滤波、预加重、加窗分帧和滤除静音段等技术来进行旋律预处理,采用自相关函数提取基音频率,即音高,采用中值平滑处理来滤除噪音点,最终提取音乐哼唱片段的特征。(3)本文提出一种基于二分逼近动态时间规整的旋律匹配方法,分别解决了音乐哼唱检索中音符序列时间点对齐和音符相对音高问题,相对于一般的动态时间规整算法,本文音乐检索方法的前十位命中率提高了18.63%。(4)设计并实现了一个面向Web的基于哼唱方式的歌曲检索系统,系统具有在线性、实时性和并发性。图25副,表10个,参考文献66篇。