值函数逼近相关论文
该文用三次B样条有限无法,讨论了变截面梁的弯曲问题。对刚度(它是长度X的连续函数)用一次样条插值函数逼近,得出了挠度函的基本表达式,推......
一维函数的逼近,有论是传统的方法,还是已经报导的基于神经网络的方法,都只是一维单值函数的逼近。该文提出了基于神经网络的一维双值......
针对连续空间强化学习问题,提出一种基于局部加权学习的增量最近邻时域差分(TD)学习框架.通过增量方式在线选取部分已观测状态构建......
针对具有连续状态和离散行为空间的Markov决策问题,提出了一种新的采用多层前馈神经网络进行值函数逼近的梯度下降增强学习算法.该......
针对强化学习在连续状态连续动作空间中的维度灾难问题,利用BP神经网络算法作为值函数逼近策略,设计了自动驾驶仪。并引入动作池机制......
用更为紧凑的方法表示和存贮值函数,以求解大规模平均模型Markov决策规划(MDP)问题。通过状态集结相对值迭代算法逼近值函数,用Span半范数和压缩映原......
强化学习系统以Agent与环境的长期交互为主要特征。该交互可以建模为一个马尔科夫决策过程(MDP)。该环境可能是未知的、动态变化的......
学位
策略评价和学习控制是强化学习问题中两大主要任务。其中策略评价过程是指在给定策略下,对特定起始状态之后可获得的未来奖赏折扣......
标准的强化学习通常用于解决离散状态空间和行动空间序列决策问题,而很多实际系统的状态和行动为连续变量甚至混合变量,连续状态-......