论文部分内容阅读
Agent的协商环境是开放的、动态变化的,这就要求Agent在协商过程中必须具有很强的应变能力和自治能力。协商之前Agent的这些能力在自身的BDI模型设计中已经确定,因此Agent要想在协商中灵活应对随时可能变化的外部因素,最后取得较好的收益,就必须在协商前对自身的BDI模型做出全面更新,以保证协商模型在交互过程中能够智能的指导Agent做出行为选择。而目前的协商Agent学习算法多存在于协商过程之中,对协商前自身信念中关于对手Agent私有信息的认知度还不高。 本文针对协商前Agent信念的更新问题,构造了一种协商Agent历史学习算法。文中详细分析了多Agent系统中的行为方式和其决策模型,参考Zeng,Sycara(1998)等人关于协商Agent的学习方案,并结合Fatima和Wooldridge(2001)等人对不完全信息情况下Agent协商决策行为的对比矩阵,进一步对多Agent多问题协商系统的协商模型中的内嵌学习机制和决策机制作了深入分析。对比多种已经存在的协商Agent学习算法和决策模型,文中分析了提高这种多Agent系统决策模型能力的可能性。 Agent在协商过程中对协商对手信息的高认知度可以提高Agent自身的决策效率和最终收益。所以本文设计了一个双边多问题协商的Agent历史学习算法。文中在对中间平台数据库中Agent协商历史信息做出分类后,规范定义了算法中协商线程模式和协商支撑模型,随后给出了算法的详细实施方案。 协商Agent历史学习算法通过处理对手Agent的协商历史信息,对协商对手的私有保留信息进行预测。预测结果可以在协商过程开始前对自身的初始信念进行更新,这样就可以增强Agent对协商对手私有信息的认知度,同时可以提高Agent决策模型的决策能力,缩短协商线程。文章通过多组实验数据对该算法进行多方面的对比分析。实验表明,算法的预测结果对Agent协商过程中的动作选择和策略生成具有一定的指导意义。