论文部分内容阅读
部分线性模型作为一类常用的半参数统计模型,既保留了线性模型直观、易解释的优点,同时又部分继承了非参数回归模型的稳健性特点,是线性模型和非参数回归模型的完美结合.部分线性模型一经提出,吸引了广大统计学者的关注,并涌现了大量的研究成果,其研究方法通常是结合参数回归和非参数回归常用的估计方法,从而导出参数向量和非参数函数的估计量,并证明所得估计量的大样本性质,为统计学开辟了一个重要领域,同时部分线性模型也成为经济、金融、生物医学等领域中处理数据的重要工具.但随着信息技术和计算机的高速发展,积累的数据日益增多,涉及范围也越来越广,高维数据逐渐被人们所认识并展开深入研究.高维线性模型的变量选择取得了大量的成果,然而,关于部分线性模型变量选择的文献相对较少,特别是超高维数据.本文基于profile最小二乘方法和regularization after retention(RAR)部分惩罚方法,提出一种新方法用于超高维部分线性模型的变量选择.所提方法的主要思想是先利用profile方法将部分线性模型转化为线性模型,根据边际相关系数估计保留一部分重要变量,然后对其余变量进行Lasso惩罚,可得到线性部分参数向量的部分惩罚最小二乘估计,并给出了实现该方法的算法.本文将惩罚方法用于超高维部分线性模型,为超高维数据的研究拓宽思路.方法中用到的部分惩罚方法提高了部分估计量的精度,也利于编程实现.在一定正则条件下,证明了所得估计量具有符号相合性.通过数值模拟和实例分析,将该方法与Lasso、SIS-Lasso、自适应Lasso进行对比,发现所提方法在恢复线性部分参数向量符号方面明显优于其它方法.