论文部分内容阅读
LTE/LTE-A作为近年来快速发展的全球无线通信标准,在提高系统的容量,满足用户高服务质量、高传输速率的要求下不断向前发展,并且其各种关键技术的实现和实时处理也是技术人员研究的重点方向之一。与此同时,从性能、功耗等多方面考虑,通用处理器作为一种具有竞争力的通用处理芯片,既是实现无线信号处理系统实时性的一种尝试,也是本论文所搭建的仿真平台的基础。本论文正是在这种技术背景之下,基于通用多核处理器,针对LTE-A Re-lease10版本搭建仿真平台。首先,在四发四收天线系统下对上行数据信道进行链路级仿真,重点采用多种不同的MIMO检测算法进行研究,包括应用最广泛的V-Blast检测算法(迫零、QR分解、最小均方误差算法等)和球译码算法,并对比不同算法的误比特率性能曲线;其次,在已经仿真实现的球译码算法基础之上,通过参考相关文献,考察多维超球初始半径的大小对落入其中的搜索点数量的影响,并对之进行大量的实验仿真,然后根据仿真数据的结果,对搜索半径初始化的方法进行了改进,使得改进后的算法复杂度与原算法相比,在低信噪比范围内降低了约1.76倍,高信噪比范围内维持原本较低的算法复杂度,从而降低了算法模块的整体处理时延;最后,在保证模块算法性能的前提下,通过采用SIMD指令集、多核多线程操作等处理手段,对仿真程序进行并行优化,即通过提高数据运算的并行度来降低程序的算法时延;并从优化前后的时延结果中得到结论,即模块时延减少量与所采用的算法并行度成正比。在实际的基站系统中,随着天线规模的不断增大,数据信道接收算法的实现复杂度也在不断升高。如何在仿真系统中对数据处理过程进行优化从而降低处理时延,不仅是本论文研究的一个重要方向,更是对实际基站完善信号实时接收处理过程的一个补充验证。从论文中所得到的优化结果来看,由于仿真程序无法实现对数据完全的无中断处理,因而无法得到理想的处理时延降低倍数。但是这也表明了应用通用处理平台具有巨大的潜力,同时显示了基于通用处理器在基站端实现无线信号处理有可能成为未来信号处理系统的主要发展方向。