论文部分内容阅读
模数转换器作为芯片技术与数字化技术的结合,它可以将我们现实生活中连续的模拟信号,比如:光辐射信号,热辐射信号,电信号,压力信号,通过电路电子技术,经过数字化处理转换为离散的、可以被计算机处理的数字信号。由于半导体工艺技术的不断进步,数字芯片的性能稳步提升,而功耗却得益于工艺的进步而逐渐下降,但是传统ADC却无法受益于逐渐减小的晶体管本征增益和逐渐增强的噪声。本文首先对ADC的结构以及输出性能指标进行了介绍,并简要说明了ADC的工作原理和各种ADC类型,结合本课题的要求重点分析了影响ADC输出性能的几类误差因素。同时,对神经网络的发展与当前研究现状进行了介绍,结合神经网络的优势说明了本课题的可行性。其次,根据本课题的研究目的,针对ADC中的几类重点误差因素进行详细的理论推理计算,逐一分析了增益误差、电容失配、时间误差、失调误差和噪声误差参数。基于理论分析基础,通过Matlab/Simulink平台对ADC的各类误差参数的输出模型进行了建模,并获得其频率谱特征。再将各类误差参数的输出模型整合,获得最终的ADC输出等效模型。然后,基于神经网络方面的先前研究,对校正神经网络的整体架构进行设计,同时对神经网络的结构和训练方法进行选择。校正神经网络的中间层结构为16-32-16,输入层与输出层分别对应不同有效位数的ADC,激活函数选用tanh函数,批处理数量设置为20,神经网络的初始学习率设置为0.0025,使用设置迭代次数与误差值的综合终止条件。依照本课题目标,课题中设计校正神经网络对ADC的主要误差因素有校正效果。最后,对校正算法进行整体的仿真工作,验证整个校正算法的有效性。在学习阶段,使用输出误差函数的方式,观察误差函数能否在规定迭代次数中持续下降并趋于稳定,验证校正神经网络能否正常收敛;在校正阶段,利用收敛后的网络对ADC进行校正,通过校正结果验证算法的有效性。实验结果表明,当输入信号频率为12MHZ,采样频率为100MHZ时,通过基于神经网络的校正算法,ADC的输出特性SNDR由53.16dB提升至73.11dB;ENOB由8.58 bit提升至11.93 bit。