论文部分内容阅读
借助于有限个函数值逼近未知函数的问题,是函数逼近论中最基本与最重要的问题之一.而本学位论文研究的是用噪声的函数值,即噪声信息来逼近函数.主要考虑两方面形成的噪声,一是函数值来自测量值,即采样值由作用在当前函数上的线性泛函值和它的整数平移值给出,二是受到未知概率控制的随机采样.得到了利用这两种噪声信息逼近多元Besov函数时所产生误差的估计.全文分为两大部分. 第一部分是在Shannon采样理论框架下,通过两种截断方式截断非精确采样值构造的Shannon采样级数来逼近Besov类中的函数.Shannon采样定理指出任何有限带(bandlimited)函数可由其在可列个等间距节点上的值完全恢复,采样频率与函数的Fourier变换的支集有关.在实践中,应用Shannon采样级数去逼近原始函数时会产生许多误差.比较典型的有混淆误差,截断误差,抖动误差和振幅误差.根据截断方式不同,我们将这部分内容分成两章陈述.在第三章,我们用对称线性采样方法截断测量采样值构造的Shannon采样级数,给出满足多项式衰减条件的有限带函数的截断误差估计.运用中间逼近法给出了满足同样衰减条件的Besov函数类的混淆误差以及截断误差的一致界估计,实现用较弱的”光滑性”条件代替比较强的”有限带”条件.之后在此基础上给出两个具体的应用:第一个是用函数的局部平均值作为测量采样值,第二个是用包含上面四个误差的线性泛函作为测量采样值.在第四章,我们基于一个局部化采样方法来截断Shannon采样级数,运用中间逼近法给出了多元Besov函数类的混淆误差以及截断误差的一致界估计,这种截断方式去掉了被逼近函数衰减条件的限制.讨论了第三章中的两个例子在这种截断方式下的相应结果. 第二部分是在学习理论框架下,利用随机采样学习Besov空间中的回归函数.学习理论中诸如神经网络、统计学习理论和PAC(Probably ApproximationCorrect)学习等各种形式的共同特征是:原始函数是未知的,我们手中只有一组随机采样,且采样值不是原始函数的精确值,而是被带有噪声和其他不确定性的原始函数所控制,我们要通过这些随机采样”学习”回归函数.第五章用中间逼近法研究了逆二次项核以及高斯核学习Besov函数空间中的回归函数时的逼近误差的收敛阶.相比于周定轩教授等学者的结果,逆二次项核的逼近误差的收敛阶有了一定的改进.同时Lp范数下的误差,1≤p≤∞,推广了之前L2范数和一致范数意义下的误差,也验证了参数p可以影响逼近误差的收敛阶.