论文部分内容阅读
在基于内容的检索方式中,哼唱检索一个研究热点。基于波形文件的哼唱检索系统是未来的主要研究趋势。但是,波形文件形式的音乐中一般都混合了很强的伴奏,伴奏与歌声在频谱上存在很多重叠,对歌声信号有非常大的干扰。所以如何准确地在包含伴奏的情况下提取出歌声主旋律是一个很有价值的研究课题。本论文研究了两种波形文件主旋律提取算法,并研究了一种谐波乐器/打击乐器声音分离算法。主要工作如下:1.研究了一种基于听觉场景分析的波形文件主旋律基频提取算法。首先对输入混合信号进行一个听觉外围处理。然后计算每一帧信号白相关序列之和初步确定一个主旋律基频曲线。接着根据听觉场景分析的的特性将时频单元进行听觉分割和听觉组合。最后根据语音和歌声一些约束条件最终确定旋律的主基频曲线。2.研究了一种基于HMM的波形文件主旋律基频提取算法。首先对混合信号进行一个语音和分语音检测过程,分割出包含歌声的音乐片段。然后,对混合信号进行听觉外围处理。最后利用HMM和统计学方法估算出歌声的主旋律基频曲线。实验证明该算法能较准确提取出歌声的主旋律基频曲线。3.研究了一种“谐波乐器/打击乐器声音分离”信号分离算法在基于听觉场景分析的算法和基于HMM的算法的基础上分别增加了一个HPSS信号分离的过程。该过程利用弦乐器声音与打击乐器声音在语谱图上的各向异性,在混合信号中滤去一部分弦乐器谐波能量,增加了混合信号的信噪比。实验证明增加HPSS后,算法能有效提高主旋律基频提取正确率。